V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
d5
V2EX  ›  问与答

请问深度学习真的需要吃大量的资源吗?

  •  
  •   d5 · 2019-09-03 12:59:51 +08:00 · 1360 次点击
    这是一个创建于 1906 天前的主题,其中的信息可能已经有所发展或是发生改变。

    一个成绩很好的同学在读硕士,背景是国内排名很靠前的高校,非计算机和软工专业。总是需要一些高配的深度学习平台(例如 16 核+4 张 P100 及以上)来完成他的实践。

    外行人觉得这个配置真的是很高很费钱了。有没有 cs 专业的大佬能够科普一下,日常科研的场景?请问什么体量的任务,需要这样的配置,连续不断跑一周才能完成?深度学习是否可能因为算法和设置不当,导致效率低下?

    5 条回复    2019-09-03 13:33:51 +08:00
    azh7138m
        1
    azh7138m  
       2019-09-03 13:06:21 +08:00   ❤️ 1
    某学校是 8XP100 的工作站,这种配置
    azh7138m
        2
    azh7138m  
       2019-09-03 13:07:24 +08:00
    唔,前几天华为云开车的 AI 实例不都是 32C 128G 16 张加速卡,这种规格的吗?
    shikimoon
        3
    shikimoon  
       2019-09-03 13:17:46 +08:00   ❤️ 1
    和模型关系很大,本人是做 nlp 的,之前用的 svm 和 cnn 做语义相似度还有意图识别,这几个模型参数量不是很大,普通的 gpu 甚至是 cpu 一天足够训练出模型了,自从出了 bert 后,参数量达到上 e,甚至数十 e,我们用 p4 训练 1 周多才能出模型
    pcmid
        4
    pcmid  
       2019-09-03 13:30:19 +08:00 via Android   ❤️ 1
    太上老君的炼丹炉为什么那么厉害呢 (
    Pho3nix
        5
    Pho3nix  
       2019-09-03 13:33:51 +08:00   ❤️ 1
    4 张 P100 也就是 DGX-STATION 入门配置,图像方面的基本一个人就要吃一台。ps:16 核是很不专业的说法,家里那台破烂有 20 核
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5873 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 28ms · UTC 02:11 · PVG 10:11 · LAX 18:11 · JFK 21:11
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.