ollama 平时不使用的时候会占用内存吗? coinbase • 329 天前 |
有人买英特尔 14 代 ultra 系列的 cpu 了么,里面的 npu 运行 ollama 速度大概什么样? PungentSauce • 329 天前 • 最后回复来自 Track13 | 1 |
运行 LM Studio 的电脑硬件配置 cmonkey • 252 天前 • 最后回复来自 fushenzhi | 11 |
ollama 推出 windows 版的 preview,可以在本地跑大模型,在老机器上跑感觉效果不错 frankyzf • 336 天前 • 最后回复来自 frankyzf | 6 |
求推荐 基于本地文件的大模型? dropdatabase • 350 天前 • 最后回复来自 luguhu | 5 |
有人(个人)自己使用开源的 LLM 大模型吗? yuyue001 • 358 天前 • 最后回复来自 kennylam777 | 66 |
各位大佬,想玩玩 70B 参数规模的大模型,有没有什么推荐的云服务? Int100 • 2024-01-15 10:39:23 +08:00 • 最后回复来自 akin520 | 4 |
AI(大模型)本地化项目 和 部署设备 Int100 • 2024-01-11 16:43:03 +08:00 • 最后回复来自 Int100 | 6 |
有没有类似 bob 那种 all-in-one LLM 的 plugin GaryHu • 2023-12-25 09:53:53 +08:00 • 最后回复来自 GaryHu | 4 |
有没有自己电脑上跑大模型的大佬啊 suqiuluck • 2023-12-19 05:15:59 +08:00 • 最后回复来自 xbird | 21 |
有没有一些小一点的 llm 项目可以在 k8s 上跑的炼丹 xinmans • 2023-11-23 18:34:10 +08:00 • 最后回复来自 frankyzf | 8 |
大家有什么本地部署的 ai 项目推荐吗 xiaolushuo123 • 2023-07-08 11:22:38 +08:00 • 最后回复来自 mmdsun | 20 |