V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
gtese
V2EX  ›  OpenAI

Ollama 拉模型不搞小动作了?

  •  
  •   gtese · 5 天前 · 1394 次点击
    32B ,一会就下载完了,之前要一直 Ctrl C Ctrl C Ctrl C Ctrl C Ctrl C
    4 条回复    2025-03-04 11:22:26 +08:00
    spike0100
        1
    spike0100  
       5 天前 via iPhone
    我一会试试。之前进度还会自己倒退的。
    wyntalgeer
        2
    wyntalgeer  
       5 天前
    有没有可能是优化了,不懂他搞这种小动作有什么好处,他又不收费。如果真是优化了可太好了
    zwy100e72
        3
    zwy100e72  
       5 天前
    /go/localllm

    根据我的观察,ollama 的模型托管在 cloudfalre r1 对象存储上,因此你大概只是换到了一个连通性更好的 cloudflare 节点;同理如果遇到下载速度变慢等问题,也可以考虑优化到 cloudfalre 服务器的链路,以获得更快的下载速度
    DICK23
        4
    DICK23  
       5 天前
    之前搞过啥小动作?我从 ollama 拉模型向来都是跑满带宽的
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   869 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 19ms · UTC 21:00 · PVG 05:00 · LAX 14:00 · JFK 17:00
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.