V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
Ericxiaoshuang
V2EX  ›  问与答

12g 显存跑 chatglm2 和 stable diffusion 不够

  •  
  •   Ericxiaoshuang · 2023-08-04 10:26:09 +08:00 · 1173 次点击
    这是一个创建于 480 天前的主题,其中的信息可能已经有所发展或是发生改变。
    nvida 的 12g 显卡
    本来跑 stable diffusion webui 和 chatglm2 正常
    换成 stable diffusion api 模式后
    chatglm2 就跑不起来了

    顺便说下
    用 wx 模块接入了微信机器人
    8 条回复    2023-08-04 12:59:08 +08:00
    l0wkey
        1
    l0wkey  
       2023-08-04 10:35:20 +08:00
    俩都是吃显存的。。
    你放一起跑估计得至少 16 甚至 24G 的卡
    Ericxiaoshuang
        2
    Ericxiaoshuang  
    OP
       2023-08-04 11:00:08 +08:00 via iPhone
    @l0wkey 确实,我感觉至少 24g 起步
    nomagick
        3
    nomagick  
       2023-08-04 11:09:12 +08:00
    那你用 int4 量化的版本
    litchinn
        4
    litchinn  
       2023-08-04 11:09:59 +08:00
    我以为你说的单独跑跑不起来,结果是两个同时运行吗。。。。
    israinbow
        5
    israinbow  
       2023-08-04 11:14:15 +08:00
    Ericxiaoshuang
        6
    Ericxiaoshuang  
    OP
       2023-08-04 12:07:58 +08:00 via iPhone
    @israinbow 跑的就是 int4
    Ericxiaoshuang
        7
    Ericxiaoshuang  
    OP
       2023-08-04 12:09:31 +08:00 via iPhone
    @litchinn 想实现的就是 aigc 应用在微信机器人,智能对话,以及/img ,文字生成图片
    chatgpt 又要收费,又要科学的,成本挺高
    mmdsun
        8
    mmdsun  
       2023-08-04 12:59:08 +08:00 via iPhone
    上 4090 24GB 吧
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1085 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 22ms · UTC 22:36 · PVG 06:36 · LAX 14:36 · JFK 17:36
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.