V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
Int100
V2EX  ›  Local LLM

各位大佬,想玩玩 70B 参数规模的大模型,有没有什么推荐的云服务?

  •  2
     
  •   Int100 · 339 天前 · 1559 次点击
    这是一个创建于 339 天前的主题,其中的信息可能已经有所发展或是发生改变。
    4 条回复    2024-01-15 10:39:23 +08:00
    Tubbs
        1
    Tubbs  
       339 天前 via iPhone   ❤️ 1
    qwen-70b 吗 估计可以在某些算力平台租几个小时的多卡机器体验一下
    ShadowPower
        2
    ShadowPower  
       339 天前 via Android   ❤️ 2
    runpod.io
    国内+便宜的有 autodl.com ,但是下模型太慢了,模板环境也很老,比较折腾
    Alias4ck
        3
    Alias4ck  
       338 天前   ❤️ 1
    openroute/replicate/together/anyscale/deepinfa

    上面这几个 sass 服务都提供了开源模型的玩法,都有一定的免费额度
    akin520
        4
    akin520  
       338 天前
    virtaicloud 还行
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5617 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 06:35 · PVG 14:35 · LAX 22:35 · JFK 01:35
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.