最近在很多新闻中都能看到一些国内厂商用国产硬件适配运行 Deepseek 的报道(比如 https://finance.sina.com.cn/jjxw/2025-02-08/doc-ineitzkz8952010.shtml ,https://finance.sina.com.cn/roll/2025-02-05/doc-ineikxsm5384748.shtml ),但不是很理解是如何适配的,看上去这些厂商已经不用 nvidia 的硬件做推理了,如果不基于 cuda ,那是 deepseek 是在哪个层面进行开发的?
AI 方面比较小白,如果概念描述有错也请指正
![]() |
1
ma46 1 天前
模型说到底是算子跟参数的集合, 训练/推理模型本质是一个数学运算过程, 任何能够进行数值计算的硬件设备都能够运行.
我们一般用 nvidia 的硬件作推理, 是因为其 cuda 具有强大并行计算能力, 针对各类算子有着大量优化, 而且市面上有数的框架对其适配最好. 但你说不用 nvidia/cuda 行不行, 那肯定是能行的 |
2
yinmin 1 天前 via iPhone
很多都是蹭热点的,只能跑跑 deepseek 7B 、32B 小模型。全国产硬件能跑 671B FP8 全尺寸,能集群支持数千上万并发的,大概就剩华为了吧。
|
3
yinmin 1 天前 via iPhone
deepseek 7B cpu 就能跑,兼容 x86 、arm 的国产硬件安装开源软件就 OK ,所以最近新闻说,某某硬件 2 小时适配支持 deepseek ,就是某个网管花了 2 小时在 linux 下把软件安装好了能跑 7B
|
6
xmdanielwu2016 1 天前
3.5b 、7b ,14b 的都属于智障级别,就这 4060 都带不动,连 4090 都只能带 80b ,真想本地部署等于网页版的 617b 版本至少得双路 h100+县城撕裂者
|
7
paranoiagu 1 天前 via Android
@xfn 应该都支持,就速度的问题
|
8
neoblackcap 1 天前
@xfn 程序是依赖英伟达生态的,很多底层的运算库都是直接调用英伟达的库的。如果要改,得大改。而且性能很有可能不如原来的版本。
但是理论上只要愿意投人力物力,模型基本上都是可以迁移的。 |
9
YsHaNg 1 天前 via iPhone
@xfn 模型是权重文件 有 gguf mlx 各种格式 甚至直接 pytorch save 出 pt 文件也可以 支持什么硬件那要看框架加载器 比如 llama.cpp ollama vllm
|
![]() |
10
LnTrx 22 小时 54 分钟前
只要能编译 C++就能跑,类 CUDA 的并行需要适配。例如 llama.cpp 就支持摩尔线程、昇腾。
|