V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
koto
V2EX  ›  OpenAI

有没有办法让 AI 不胡扯

  •  
  •   koto · 227 天前 · 1751 次点击
    这是一个创建于 227 天前的主题,其中的信息可能已经有所发展或是发生改变。
    比如我用 AI 学外语,让 AI 讲一个选择题,或者给我符合特定规律的词汇表。AI 偶尔会自由发挥,内容虽然看起来丰富,但有小错误。比如明明是动词它告诉我这是副词的情况。
    另外去问 AI 的一些问题,AI 看似回答的,而且道理似乎通,其实是错的。

    有没有办法,或者某些 AI 工具虽然可以蠢一点,但是不会胡扯或犯错的呢?
    9 条回复    2024-04-23 13:02:20 +08:00
    lithiumii
        1
    lithiumii  
       227 天前 via Android
    简单来说就是让它概括你提供的资料,而不是让它回答你的问题
    Rorysky
        2
    Rorysky  
       227 天前
    ai 幻觉现象是早期的技术难点
    geelaw
        3
    geelaw  
       227 天前
    古代人曾经认为日心说是胡扯,所以即使是人,想要准确定义“胡扯”还是很困难的。另外有一些工作 https://arxiv.org/abs/2401.11817 传达的信息是:LLM provably hallucinates. 但我本人没有认真读过这篇文章,所以它的形式化模型是否适合用来解释 LLM ,我无定论。
    xmuli
        4
    xmuli  
       226 天前 via iPhone   ❤️ 1
    AI 的缺陷 1. 不知道自己的能力边界 2.也不知道物理世界的真实规矩 ---from 某外籍院士的前几天的分享
    xmuli
        5
    xmuli  
       226 天前 via iPhone   ❤️ 1
    估计一段时间内无法彻底解决,若是做某垂直领域,可微调和迭代训练,努力提高📈正确率,用户感受体验截然不同。 一般通用模型正确率可达到 85 分,上而到 95 就需堆叠人力资源,也能做到,于是一个商业产品就出现了。
    shuson
        6
    shuson  
       225 天前
    用 lora 重新训练一个或者简单做个 RAG
    BlackSiao
        7
    BlackSiao  
       225 天前   ❤️ 1
    这里涉及到一点微调的方面了,最简单的办法就是调用 LLM 的时候把温度调低点,看看能不能满足你的需求;其次就是做个 RAG ,提前把相应的知识存好让它到时候随机应变调用。不过最经济的办法应该还是去网上搜一下有没有人已经根据你的需求调出一个特定的项目来,比如学外语的肯定有很多已调好的
    darson
        8
    darson  
       224 天前   ❤️ 1
    最近看了 hinton 的一个演讲,他说幻觉是所有神经网络的特性,可以降低但是无法杜绝。人也不例外,人对于短期发生的事情通常能够比较准确的召回,但是对于长期之前的事,事实上经常会对没发生过的事情深信不疑。例如曼德拉效应,或者孟子的故天将降大任于‘斯’人也 vs 故天将降大任于‘是’人也。所以比较简单的做法就是提供上下文,让 LLM 从中去找答案并提供出处。
    MapleEve
        9
    MapleEve  
       224 天前
    人也会有幻觉,AI 出幻觉是这个模型还太垃圾
    你让 Opus 跑推理看看,幻觉概率很低很低
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1193 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 22ms · UTC 18:28 · PVG 02:28 · LAX 10:28 · JFK 13:28
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.