必威官网体育中新网北京6月20日电 (记者 孙自法)基于人工智能(AI)的大语言模型(LLM)回答问题并非总是准确可靠,有时甚至极其智能地以“幻觉”方式提供胡编乱造的答案让人真假难辨,对此如何予以有效检测广受关注。
国际著名学术期刊《自然》最新发表一篇人工智能研究论文称,研究人员开发出一种能检测大语言模型“幻觉”的方法,这种方法通过“以毒攻毒”方式,能测量生成回答的含义的不确定性,或能用于提升大语言模型输出的可靠性。
该论文介绍,大语言模型(如ChatGPT和Gemini)是能阅读和生成自然人类语言的人工智能系统。不过,这类系统很容易产生“幻觉”,生成不准确或没有意义的内容。检测大语言模型出现“幻觉”的程度很难,因为这些回答的呈现方式可能会让它们看起来很可信。
网友评论更多
28九江e
女儿高考688分 妈妈豪横奖励18万♟♠
2024-12-04 0-1:15:41 推荐
187****1035 回复 184****1847:我国免签“朋友圈”扩大♡来自景德镇
187****7275 回复 184****5318:王铮亮献唱女儿小学毕业晚会♢来自鹰潭
157****5030:按最下面的历史版本♣♤来自新余
47萍乡660
儿子高考561分要复读♥♦
2024-12-04 00:42:05 推荐
永久VIP:环境部西北督察局局长闫景军殉职♧来自赣州
158****6283:网友安慰考597分孩子:比父母强♨来自上饶
158****1913 回复 666♩:放弃“台独”立场还追责吗 国台办回应♪来自抚州
31宜春uw
“千帆星座”首批组网卫星将发射♫♬
2024-12-02 17:45:53 不推荐
吉安de:爷爷为孙子封坛“状元酒”17年♭
186****9724 回复 159****5133:许家印因53亿元违约在香港面临诉讼♮