首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
V2EX
›
Local LLM
求助,做 AI 深度学习服务器跑大模型推理,选 RTX5080*2 还是一张 4090
duanrancosmos
·
9 天前
· 769 次点击
价格来去基本不大,5080 一张显存 16G ,4090 一张 24G 。到底选哪个好,好纠结
RTX5080
显存
6 条回复
•
2025-02-14 13:45:46 +08:00
1
liu731
9 天前
4090 保值率高点
2
yplam
8 天前 via Android
双卡之间带宽是瓶颈,速度比单卡慢不少,并且用双卡跑要折腾,建议单卡 5090
3
Yadomin
8 天前
4090 48G
4
murmur
8 天前
4090 48 好像新改的,据说只有 linux 能发挥出来,前期还是慎入
5
sorry
8 天前
选显存大的
6
Gnihton
7 天前
@
murmur
windows 下一样的
关于
·
帮助文档
·
博客
·
API
·
FAQ
·
实用小工具
·
4549 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 21ms ·
UTC 09:53
·
PVG 17:53
·
LAX 01:53
·
JFK 04:53
Developed with
CodeLauncher
♥ Do have faith in what you're doing.