V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
jacketma
V2EX  ›  OpenAI

反复问 AI 同一个问题, LLM 大模型会给出一样的答案吗?

  •  
  •   jacketma · 10 小时 18 分钟前 · 500 次点击

    一个训练完成的大模型离线使用,且没有加入任何反馈或自修正功能,同一个问题,无论问多少次,LLM 都应该给出一模一样的答案吗?

    我找了几个在线模型测试,同一个问题,一分钟内全部问 10 次,前面三五次大同小异,五次之后,很多几千字的答案几乎都是一样的。有没有大佬了解输出答案背后的“微扰”因素是什么?

    6 条回复    2025-01-21 08:46:07 +08:00
    fatigue
        1
    fatigue  
       10 小时 4 分钟前
    很多原因啊,比如一个对话中,每次提问有没有把之前的提问加到 context 中。你可以简单的考虑成一个概率问题,token 和 token 之前的组合起来是答案的概率可能比较高,而这样的类似概率组合又不是唯一的,可能有很多选项,那就随机选一个,所以会看到可能每次回答不一样,但可能意思都差不多。
    icyalala
        2
    icyalala  
       9 小时 39 分钟前
    2473
        3
    2473  
       7 小时 41 分钟前 via iPhone   ❤️ 1
    llm 输出会有一个词表,比如 3000 个词。输出过程是一个词一个词吐出来的。每次吐出一个词,是一个 3000 维度的概率,由推理框架及参数根据概率选择具体应该是哪个词。最简单的 greedy 方法就是选概率最大的,那不会有随机,每次都一样。常用的一些,比如 topk 里,或者所有概率值大于 p 的拿出来,再按概率分布随机选。
    Donaldo
        4
    Donaldo  
       7 小时 23 分钟前
    有 kv cache 这种东西
    GuuJiang
        5
    GuuJiang  
       43 分钟前 via iPhone
    如果你使用其 API ,就会发现有个 temperature 的参数,temperature 越低,答案就越稳定,temperature 越高,答案就越多样化
    conn4575
        6
    conn4575  
       42 分钟前 via Android
    调用 api 就会发现,传参不变时,输出是恒定的
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5535 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 22ms · UTC 01:28 · PVG 09:28 · LAX 17:28 · JFK 20:28
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.