coefuqin 最近的时间轴更新
coefuqin

coefuqin

V2EX 第 616381 号会员,加入于 2023-02-28 17:15:35 +08:00
根据 coefuqin 的设置,主题列表被隐藏
二手交易 相关的信息,包括已关闭的交易,不会被隐藏
coefuqin 最近回复了
@jiejianshiwa 老弟,不要怂,就是刚。当年我是你这个年纪的时候在广州纵横披靡,怕个卵,年轻人就是冲就是闯。另外,个人经验是尽量不要给私人小老板干,有大团队尽量去大团队。因为大团队里的成本不是个人的,不会像小老板那样把钱花到刀刃上的精打细算。
老弟,北京 28 岁 6k ,还结婚了,你是我大哥。赶紧了背点八股文找下家啊。28 岁正当道,正是赚钱的时候,多面多谈,技术要多吹,工资要岗位所能给出的顶格。
中电金信?
1 天前
回复了 azev 创建的主题 问与答 大家用哪家大模型的 api?
@hkiJava int 4 24g vram 刚刚够跑,但是上下文和推理过程长点就要更多了。fp16 我还没试,估计要准备 96g vram 。
电费都够你们成本喝一壶了。
或者你把嵌入模型 改成 granite3.2-vision ,然后看看情况。
anythingllm 原生的嵌入模型 all-MiniLM-L6-v2 不是多模态的,并且也没有提到 vision 模型的集成,ds 的 671b 是 moe 专家模型,里面有原生 vision 处理的能力。
qwq 32B int 4 + bge-m3 ,并发不大的话 32G vram 够够的。不过得分卡跑。
2 天前
回复了 skytenlc 创建的主题 问与答 英文 pdf 翻译。
@skytenlc 直接就在翻译出来的中文文档里编辑就 ok 啊。
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   3787 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 10ms · UTC 04:16 · PVG 12:16 · LAX 21:16 · JFK 00:16
Developed with CodeLauncher
♥ Do have faith in what you're doing.