前不久我买了张 RTX 2080,开始了搭建深度学习环境的踩坑之旅。我在每个环节上都用不同姿势踩过坑,最后总结出一套应该是最稳妥又容易执行的方法。如果你熟悉 Docker,那直接用英伟达的镜像应该是最简单的方法。不然的话,这篇文章应该能帮得上忙。
这是文章链接,大家一起交流呀。
1
ugvf2009 2018-12-28 21:21:36 +08:00 via Android
nvdia 打包好的镜像吗? share 下
|
2
ugvf2009 2018-12-28 21:22:09 +08:00 via Android
最近在搞 hpc 集群部署😄
|
3
cshlxm 2018-12-29 09:56:12 +08:00
docker 吧,我自己在公司服务器上完整搭了一遍下来,真的是即便是资料最多的 1604 下,cuda cudnn 安装 各种版本需求,真的是 x 疼,总会出点意想不到的依赖缺失,搭了一遍搞定后 又重来一遍,真的是除非想亲自踩坑,不然真不如 docker 一波流
|
4
Nick2VIPUser 2018-12-29 09:57:00 +08:00 via iPhone
收藏了
|
5
olindk OP @cshlxm 我的这个方法就是用 Anaconda 安装,只需要给系统装好驱动,别的都不用管了。不用手动安装 CUDA 和 cuDNN。
|
7
cshlxm 2018-12-29 10:39:56 +08:00
@olindk annaconda 和那个不一回事。。你要运行 tf 是需要 cuda cudnn,根据你运行的 tf 版本要求的 cuda 或者 cudnn 版本也不一样,驱动很好装的
|
8
olindk OP @cshlxm Anaconda 会自动安装正确版本的 CUDA 和 cuDNN。在服务器安装驱动确实很容易,但是自己组装的电脑安装桌面版的 Ubuntu,安装驱动就容易踩坑……
|