https://github.com/dreamnettech/dreamtime
这个项目,有一个 option 选项,看起来 NV 的 GPU 比较厉害,我也不知道用 Inter 的集成显卡能不能处理,是费时间,还是效果不好呢。。。
看这里没有讨论的,我也不知道 github 的项目能不能讨论,还是没人知道这个机器学习的东东呢。
1
LZSZ 2020-05-07 00:04:47 +08:00
- -! 大哥这还用问吗?
|
2
SakuraSauce 2020-05-07 00:26:25 +08:00 via Android
inter=intel 喵?
NVIDIA 显卡肯定比核显厉害喵! |
3
nvkou 2020-05-07 00:35:17 +08:00 via Android
Intel 不是 inter
是不同的 nv 的是战术核显卡 Intel 的是核显 都能加速单指令多数据的计算场景,但当量不一样啊 小马拉大车是不行的 这里不讨论是因为在这是常识 |
4
honjow 2020-05-07 00:38:57 +08:00 via iPhone
核显和独显。常识啊
|
5
minami 2020-05-07 00:39:58 +08:00
nVidia 的 CUDA 是深度学习的事实标准,除了谷歌有自己的 TPU,大部分研究人员都是用 N 卡进行训练的,所以无可取代,毕竟 CUDA 是私有标准
当然 AMD 搞了个骚操作,ROCm 平台可以白嫖 CUDA 的成果,比如你可以在 ROCm 上跑 PyTorch 这样本来是默认 CUDA 后端的深度学习库 Intel 这边,由于显卡比较弱势,主要靠 FPGA 发力。不过也搞了个奇怪的后端 PlaidML,使用 keras 接口,可以在 I/A/N 三家显卡上进行训练 以上这些都是关于深度学习训练的,如果只是推理,倒是可以利用各种推理库,将模型落地到设备上,比如腾讯的 ncnn,可以跑在任意支持 Vulkan 的显卡上,当然 CPU 也可以 |
6
minami 2020-05-07 00:49:43 +08:00
草草看了下,原模型是基于 PyTorch 的,那训练就基本告别 I 卡了,如果有模型结构的话,可以尝试导出到支持 I 卡的推理引擎上
|
7
ohao 2020-05-07 08:15:47 +08:00
看价格也知道,一块普通的 1080 N 卡 2K+
如果学习的话,可以租 GPU 的服务器,1080T 的 大概 900 人民币一个月 |
8
PbCopy111 OP 其实。。。。。我就是来说说这个项目的事的。。。
|