V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
hzdt
V2EX  ›  OpenAI

大模型能输入一个 Prompt 以后,后面都只消耗输入输出的 token 吗(不包含对话历史或 Prompt 的再次消耗)

  •  
  •   hzdt · 10 天前 · 770 次点击

    RT ,目前我是拿大模型当工具用,我想让它记住一个提示语,后面我只管提出问题,它回答我就行,消耗的只是提出问题和回答问题的 token

    目前如果想这么做

    要么记住所有的对话历史,每轮对话都要消耗以前对话历史的 token

    或者每次都带上 Prompt ,白白消耗 token

    请问有什么方式能解决吗

    12 条回复    2024-11-05 21:33:06 +08:00
    liu731
        1
    liu731  
       10 天前
    叫它总结就好了,没必要每条历史消息传过去
    hzdt
        2
    hzdt  
    OP
       10 天前
    @liu731 这样是不是需要每次都要带上 Prompt ?目前我就是不想每次都带上
    liu731
        3
    liu731  
       10 天前
    @hzdt 如果你说的 Prompt 是 ChatGPT 中的 role: system ,那确实必须要带。
    gitlight
        4
    gitlight  
       10 天前
    gemini,openai 和 claude 都支持 prompt caching 功能,缓存过的 token 价格更便宜 https://www.anthropic.com/news/prompt-caching
    hzdt
        5
    hzdt  
    OP
       10 天前
    @liu731
    @gitlight 好的,谢谢各位
    landerwong99
        6
    landerwong99  
       10 天前
    @gitlight 意思是:传还是避免不了的,但是价格可以便宜些?
    hzdt
        7
    hzdt  
    OP
       10 天前
    @landerwong99 是的,国内的话 deepseek 好像有类似的功能,大厂的搜了没找到
    taotaodaddy
        8
    taotaodaddy  
       10 天前
    你这个需求用类似 next chat,chat box 都能实现:
    提示词放入系统提示词
    然后把"保留对话轮次"设置为 1 应该就可以了
    hzdt
        9
    hzdt  
    OP
       10 天前
    @taotaodaddy 这样提示词还是会每轮都会消耗 token 吧?只是业务逻辑调整了下
    taotaodaddy
        10
    taotaodaddy  
       10 天前
    @hzdt 是的
    目前各 AI 应该是没有“内存”,所有信息都来自于你发过来的 content ,所以总是要发的
    PositionZero
        11
    PositionZero  
       10 天前
    @gitlight 国内的 DeepSeek 也支持这个功能
    https://api-docs.deepseek.com/zh-cn/news/news0802
    gitlight
        12
    gitlight  
       10 天前
    @PositionZero 刚才还在用这个功能,对于蒸馏小模型来说简直不要太好用
    [url=https://imgse.com/i/pAsrBi8][img]https://s21.ax1x.com/2024/11/05/pAsrBi8.png[/img][/url]
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1248 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 27ms · UTC 23:49 · PVG 07:49 · LAX 15:49 · JFK 18:49
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.