V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  fcten  ›  全部回复第 2 页 / 共 25 页
回复总数  500
1  2  3  4  5  6  7  8  9  10 ... 25  
CPU 日峰值 60% 也太高了,这不是稍微来点突发流量就挂了
我们只要求 CPU 日峰值不低于 30%
除非你们有弹性扩容
70 天前
回复了 c2ch 创建的主题 电影 你们都几刷哪吒 2?这票房太猛了。。
三刷四刷的肯定是少数。但是可以请朋友家人一起看。
体验会好一点,因为磁盘的读写性能更好了。
但是 java 开发无脑建议 32G 起步。当年 16G 的 mbp 真的是用吐了
75 天前
回复了 nan1mono 创建的主题 生活 想了解下大家早餐一般花多少钱?
不吃,0 元
首先,开了 10 年车从来没见过从右侧超车会生气的。一般开得快的车都是在车流中左右摇摆一眨眼就没影了。
其次,我这边的高速能跑到 120 就谢天谢地了,还想跑 140 ?除非你会飞。
不建议学生用 macbook ,除非你十分确定你用到的所有软件都兼容 macbook 。
计算机专业的学生 != 程序员。mac 对程序员很友好不等于对计算机专业的学生友好。
而且 5000 预算上 macbook 新机是不够的。这个价位最多能上 M2 16+256 的 macbook air 。
大量是多大?一般都是自动扫描漏洞的程序。但是 404 请求也消耗不了多少流量。
楼主可知道语言模型最初的目的是为了翻译……
其次,这样做并不能大幅减少参数量,道理就和你掌握一门新语言并不需要从 1+1=2 开始学习一样。大量的知识是与语言无关的。
再其次,清洗训练数据会花费大量的时间。而且更小的训练集 = 更差的模型。
82 天前
回复了 CNM47589 创建的主题 问与答 什么时候出新 12 寸 MacBook
习惯了 16 寸的重量其实也还好……
MoE 模型的主要瓶颈在于内存/显存带宽,对算力的要求比较小。你的这个配置的瓶颈全在内存带宽上,GPU 妥妥打酱油。

用 24 通道的双路服务器主板,纯 CPU 跑 Q8 量化的模型也能达到 6 ~ 8 token/s 的速度。可以参考: https://x.com/carrigmat/status/1884244369907278106
82 天前
回复了 chenqh 创建的主题 生活 你们过年的时候要上山祭祖吗?
去,一般都是大年初一。坐标浙江
官方有 api ,不过官方 api 这两天基本处于不可用的状态。
这居然是意外好处吗,我以为买大内存 mac 设备的都是为了本地跑 LLM 的。毕竟 mac 的金子内存一般人没需求是不会拉满的...
除了跑 LLM 还有哪些需求会用到大内存?视频剪辑?
84 天前
回复了 Shiroka 创建的主题 问与答 阿里也会手滑吗
又不是不能用.jpg
我看了下我 48g1t 的 mbp 14 个月已经写了 38T 了。8g 现在已经淘汰了,16g 以上的配置内存交换那点写入量基本不用太关注了。
不过如果主力使用的话,硬盘至少 512g 起步吧。
93 天前
回复了 xhwdy26 创建的主题 程序员 从微服务走向单体化
如果这些功能只要 3 ~ 5 人一个团队就能维护,单体服务并没有什么问题
99 天前
回复了 xiaoxuz 创建的主题 分享发现 [网站自荐] 搞了一个 AI 搜索服务
看 UI 是用 lepton 搭建的?
从第一行看到 x99 就知道是电子垃圾……
1  2  3  4  5  6  7  8  9  10 ... 25  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   952 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 56ms · UTC 20:24 · PVG 04:24 · LAX 13:24 · JFK 16:24
Developed with CodeLauncher
♥ Do have faith in what you're doing.