V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
xfn
V2EX  ›  程序员

国产硬件适配 Deepseek 的问题

  •  
  •   xfn · 1 天前 · 985 次点击

    最近在很多新闻中都能看到一些国内厂商用国产硬件适配运行 Deepseek 的报道(比如 https://finance.sina.com.cn/jjxw/2025-02-08/doc-ineitzkz8952010.shtmlhttps://finance.sina.com.cn/roll/2025-02-05/doc-ineikxsm5384748.shtml ),但不是很理解是如何适配的,看上去这些厂商已经不用 nvidia 的硬件做推理了,如果不基于 cuda ,那是 deepseek 是在哪个层面进行开发的?

    AI 方面比较小白,如果概念描述有错也请指正

    ma46
        1
    ma46  
       1 天前
    模型说到底是算子跟参数的集合, 训练/推理模型本质是一个数学运算过程, 任何能够进行数值计算的硬件设备都能够运行.

    我们一般用 nvidia 的硬件作推理, 是因为其 cuda 具有强大并行计算能力, 针对各类算子有着大量优化, 而且市面上有数的框架对其适配最好. 但你说不用 nvidia/cuda 行不行, 那肯定是能行的
    yinmin
        2
    yinmin  
       1 天前 via iPhone
    很多都是蹭热点的,只能跑跑 deepseek 7B 、32B 小模型。全国产硬件能跑 671B FP8 全尺寸,能集群支持数千上万并发的,大概就剩华为了吧。
    yinmin
        3
    yinmin  
       1 天前 via iPhone
    deepseek 7B cpu 就能跑,兼容 x86 、arm 的国产硬件安装开源软件就 OK ,所以最近新闻说,某某硬件 2 小时适配支持 deepseek ,就是某个网管花了 2 小时在 linux 下把软件安装好了能跑 7B
    xfn
        4
    xfn  
    OP
       1 天前
    @ma46 是不是说模型本身的格式并不依赖 cuda ,cuda 只是运行模型一个选项?这样的话其他非 deepseek 模型理论上也能跑在国产硬件上?
    ma46
        5
    ma46  
       1 天前
    @xfn 是的, 任何模型都能跑在国产硬件上, 只要愿意去做适配
    xmdanielwu2016
        6
    xmdanielwu2016  
       1 天前
    3.5b 、7b ,14b 的都属于智障级别,就这 4060 都带不动,连 4090 都只能带 80b ,真想本地部署等于网页版的 617b 版本至少得双路 h100+县城撕裂者
    paranoiagu
        7
    paranoiagu  
       1 天前 via Android
    @xfn 应该都支持,就速度的问题
    neoblackcap
        8
    neoblackcap  
       1 天前
    @xfn 程序是依赖英伟达生态的,很多底层的运算库都是直接调用英伟达的库的。如果要改,得大改。而且性能很有可能不如原来的版本。
    但是理论上只要愿意投人力物力,模型基本上都是可以迁移的。
    YsHaNg
        9
    YsHaNg  
       1 天前 via iPhone
    @xfn 模型是权重文件 有 gguf mlx 各种格式 甚至直接 pytorch save 出 pt 文件也可以 支持什么硬件那要看框架加载器 比如 llama.cpp ollama vllm
    LnTrx
        10
    LnTrx  
       22 小时 54 分钟前
    只要能编译 C++就能跑,类 CUDA 的并行需要适配。例如 llama.cpp 就支持摩尔线程、昇腾。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1262 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 17:41 · PVG 01:41 · LAX 09:41 · JFK 12:41
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.