国际著名学术期刊《自然》最新发表一篇人工智能研究论文称,研究人员开发出一种能检测大语言模型“幻觉”的方法,这种方法通过“以毒攻毒”方式,能测量生成回答的含义的不确定性,或能用于提升大语言模型输出的可靠性。
该论文介绍,大语言模型(如ChatGPT和Gemini)是能阅读和生成自然人类语言的人工智能系统。不过,这类系统很容易产生“幻觉”,生成不准确或没有意义的内容。检测大语言模型出现“幻觉”的程度很难,因为这些回答的呈现方式可能会让它们看起来很可信。
牛八体育app中新网北京6月20日电 (记者 孙自法)基于人工智能(AI)的大语言模型(LLM)回答问题并非总是准确可靠,有时甚至极其智能地以“幻觉”方式提供胡编乱造的答案让人真假难辨,对此如何予以有效检测广受关注。
网友评论更多
51富锦i
欧洲杯1/8决赛强队基本全过关☱☲
2024-11-27 08:55:48 推荐
187****1009 回复 184****3957:美考虑为申请研究月球样品开绿灯☳来自虎林
187****9107 回复 184****8424:日本男子新加坡性侵女生获鞭刑和监禁☴来自密山
157****5338:按最下面的历史版本☵☶来自绥芬河
52海林779
又一家美媒呼吁拜登“优雅退选”☷☸
2024-11-25 07:37:05 推荐
永久VIP:茅仲华为中华人民共和国二级大法官☹来自宁安
158****4447:网友:到底哪家汽车品牌刷量冲热搜☺来自安达
158****2147 回复 666☻:唐山市今年已处分2116人☼来自肇东
93海伦bu
男子在合肥一购物中心坠楼身亡☽☾
2024-11-25 21:07:15 不推荐
穆棱ar:国台办回应福建海警查扣台湾渔船☿
186****6161 回复 159****8017:印度男女偷情被当众处以私刑♀