CPU:i7 13700k 盒装,2949
主板:华硕 z790-p d5 WIFI,1889
显卡:
内存:芝奇 幻锋戟 32*4 ,3998
硬盘:英特尔 SOLIDIGM P44 PRo 1T,599
电源:先马 XP1000W ATX3.0 新款,869
机箱:先马颜之神黑+无光风扇,289
散热:瓦尔基里 GL360 黑,729
显卡准备等双十一再买 hhhh ,不知道 4090 会不会多降点 找了个 b 站上的 up 主给配的 1w 左右的机器,当时想把内存到 128g ,看起来内存也不着急,不知道这个配置和价格合理不
1
RomeoHong 2023-05-24 20:03:33 +08:00
是对内存有什么特殊要求么?如果没有,没必要上 d5 的内存。不清楚你的是什么使用场景
|
2
sjmcefc2 2023-05-25 08:16:24 +08:00
炼丹自己玩大模型,这个可以稳定的打吗?会不会很吵?
|
3
xwt210123 OP @RomeoHong 确实没什么特别的需求,就是跑脚本代码,有的代码要加载很多数据,很占内存,是不是不需要 d5 ?
|
4
xwt210123 OP @sjmcefc2 大模型肯定打不下来,实验室都是最低 8 块 a100 ,这个配置给自己玩玩 SD 的,试试那种量化裁剪的模型,主要是了解思路,还有 4090 可以打游戏呀哈哈哈哈
|
5
sjmcefc2 2023-05-26 15:51:28 +08:00
8 块 a100 ,那岂不是 4*35 万?
|
6
gogogo1203 2023-05-26 16:18:24 +08:00
只是跑 sd 的话,根本没有必要 13700K+ z90, 13600+760/660m 完全够用,根本不会有体感上的. 你找找 ddr4 和 ddr5 在你用的软件上的差距吧,4k 的投入我觉得有点浪费。 不迷信 Intel 可以考虑一下 AMD 的 CPU. 我看你选的配置都是追求性价比的,何不更近一步,你又不超频,z790 有点浪费。
|
7
sjmcefc2 2023-05-27 10:35:19 +08:00
@gogogo1203 现在看下来,其实大模型普通人基本不用考虑了。如果是想着体验一下或者了解思路,性价比比较高,不折腾的配置有吗?
|
8
gogogo1203 2023-05-27 18:42:29 +08:00
@sjmcefc2 大部分的人就是 sd 来生成一下瑟图,玩一玩,过一阵子就没有兴趣了。你去抄一下中正 13600+b660 , 他的配置都是可以直接抄,水桶机器,然后你可以自己配。3090 二手,4080 或者任何显卡, 或者直接用云显卡。
|
9
sjmcefc2 2023-05-27 23:49:33 +08:00
目前最大的需求是做一个本地的知识库,其实想来业能够用 api ,就是还是想着了解一下 llm 的原理,看起来还是 intl 的比较牛
说个题外话,感觉配置 nvidia 的开发环境就挺麻烦的,有没有比较成熟的 docker -compose 版本可以直接部署和体验这些开源的模型,快速的建立开发的环境呢 感谢 @gogogo1203 |
10
gogogo1203 2023-05-28 09:58:20 +08:00
@sjmcefc2 自建知识库的事, 我个人认为玩一玩还可以,别浪费太多时间. 我这几年自学编程, 几千个小时, 花了好多时间在做笔记上. 包括原理的,应用的 和 edge cases ,收集各种标题认为有用的文章,排版+总结。去年我还在想自建一个知识库,还在调用的时候更方便。 今年 AI 质的飞跃以后,我没有这个想法了。知识库的本质是“遇到问题以后,快速找到对应的解决方案”。AI 能更快更全面地给到你多个解决方案,每个方案都可以再度延申。 除非你的领域非常细分,不然没有必要自建知识库。
|
11
sjmcefc2 2023-05-28 22:35:05 +08:00
@gogogo1203 感谢大神啊。今年 ai 确实与以前有不同之处了。 领域也没有细分,就是利用政府公开信息分析产业政策。
|