1
spike0100 5 天前 via iPhone
我一会试试。之前进度还会自己倒退的。
|
![]() |
2
wyntalgeer 5 天前
有没有可能是优化了,不懂他搞这种小动作有什么好处,他又不收费。如果真是优化了可太好了
|
3
zwy100e72 5 天前
/go/localllm
根据我的观察,ollama 的模型托管在 cloudfalre r1 对象存储上,因此你大概只是换到了一个连通性更好的 cloudflare 节点;同理如果遇到下载速度变慢等问题,也可以考虑优化到 cloudfalre 服务器的链路,以获得更快的下载速度 |
4
DICK23 5 天前
之前搞过啥小动作?我从 ollama 拉模型向来都是跑满带宽的
|