V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  babyedi31996  ›  全部回复第 1 页 / 共 3 页
回复总数  58
1  2  3  
1 天前
回复了 selected2318 创建的主题 程序员 Grok 给广告费了吗?
何止给了,简直是大撒币了.
全球,全语言,全网的 KOL 都收到了推广...
无论是油管/阿 b/某音各种,平时讲 AI 的不讲 AI 的都在推.
标题都是类似的什么最强 AI.
甚至有些平时是吃爱国饭的博主,都在用这种最强 AI 的标题发视频讲 grok,
比如那个什么海 X 博士
1 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@halida 要配合 live2D 和 TTS,这样才带劲
110 天前
回复了 mazz 创建的主题 NAS 各位爹,企业级 200TB 左右 NAS 求推荐
要稳和单纯存储,群晖是最好的没有之一了.
我的 418PLAY 刚出就买了,到现在都很稳.
如果有其他需求,直接 PVE 按按需安装吧,也有 Raid5
113 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@supemaomao 在阿 B 搜酒馆就有了
114 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@supemaomao 没,跟视频教程一步一步很简单。最麻烦就是弄 cuda
114 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@Hookery 好多佬友都推荐 qwen,这个模型效果好?
114 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@guiyun 7b 效果如何?
114 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@WuDiHaiTai 4090 也才 24G 阿,最多就是玩下 20b 了
114 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@NGGTI api 是不贵,但是审查和隐私问题阿
114 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@LaTero 感谢你的经验分享,"如果我写的东西都不会被封,你也不需要担心……而速度快( command r+ 60 token/s )选项多是实打实的。"我懂这句的含金量了.哈哈
114 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@shuimugan 官翻+员工优惠在哪里可以买到?
114 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@yshtcn 是可以的,我看林亦在 b 站的视频,他是用 120G 统一内存的 Mac Studio 跑 120b 量化模型.好像也有 4-5t/s 没记错的话.
114 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@fulajickhz 长见识了,感谢这位佬友.我去看看学习下.
115 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@halida 尝鲜嘛,就像 30 年前能花 5000 买个人 PC 的那些人一样~
115 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@shuimugan 教育优惠顶配芯片的 192G M2 Mac Studio 大概 47000.要不要等等 M4 的新款?
115 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@shuimugan "所以 Mac 跑大语言模型推理,只有 Ultra 系列的大带宽 + 大内存这样的顶配合适,而且跑相同参数量的模型,速度基本上是多张 2080ti 22g 组成相同显存的服务器跑推理速度的 1/3 ~ 1/2 ,当然优点也非常明显,很省电很不占空间,甚至还能通过雷电口串联 4 个 Mac Studio 来跑分布式推理,可以跑更大的模型。"

就凭大佬您的经验,以上这个优点就秒杀自己组建 PC 了.
2080ti 22G 都是魔改卡,稳定性和质量都太不稳定了,后期维护/耗电/噪音/空间占用的等等耗费的精力远超省下来的价值.
这套机器不玩了之后只能卖废铁,但是 Ultra 系列随便卖都有人要
115 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@shuimugan "如果你用显卡 + CPU 跑,那么带宽指的就是就是显卡带宽 + 内存带宽(这个是最垃圾的组合,我愿称之为拖后腿)"
这句说得太对了,本来量化 13b 还有 4~5t/s 的.gguf 在爆显存之后,直接蜗牛...什么玩的心情都没了.

太专业了,感谢,受益匪浅.
115 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@LaTero 感谢大佬,长见识了.试试 openrouter 一会
115 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@LaTero 感谢回复,但是在线隐私还是有一点担忧阿.openai 和 claude 是不封号了,但是这个 openrouter 会不会审查或者封我的号...
115 天前
回复了 babyedi31996 创建的主题 程序员 本地部署大语言模型哪家强?
@hez2010 感谢这位大佬,这个模型需要多大显存可以使用阿?不太理解 16x3.8B 的意思.
比 4o-mini 还高那真的完全够用阿
1  2  3  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1152 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 14ms · UTC 18:28 · PVG 02:28 · LAX 10:28 · JFK 13:28
Developed with CodeLauncher
♥ Do have faith in what you're doing.