国际著名学术期刊《自然》最新发表一篇人工智能研究论文称,研究人员开发出一种能检测大语言模型“幻觉”的方法,这种方法通过“以毒攻毒”方式,能测量生成回答的含义的不确定性,或能用于提升大语言模型输出的可靠性。
瑞科家具中新网北京6月20日电 (记者 孙自法)基于人工智能(AI)的大语言模型(LLM)回答问题并非总是准确可靠,有时甚至极其智能地以“幻觉”方式提供胡编乱造的答案让人真假难辨,对此如何予以有效检测广受关注。
该论文介绍,大语言模型(如ChatGPT和Gemini)是能阅读和生成自然人类语言的人工智能系统。不过,这类系统很容易产生“幻觉”,生成不准确或没有意义的内容。检测大语言模型出现“幻觉”的程度很难,因为这些回答的呈现方式可能会让它们看起来很可信。
网友评论更多
36盐城f
摩友为救轻生女孩胳膊留下动人印记🏏🏐
2024-11-27 07:37:34 推荐
187****6469 回复 184****1077:父母离世癫痫哥哥照顾瘫痪弟弟7年🏑来自扬州
187****7374 回复 184****7519:18件文物豫见中国🏒来自泰州
157****3062:按最下面的历史版本🏓🏔来自南通
10镇江725
乌龟盲盒直播间为何让人上头🏕🏖
2024-11-28 21:13:38 推荐
永久VIP:麻辣诱惑创始人回应欠债3亿被限高🏗来自常州
158****1892:唐尚珺回应决定去读大学🏘来自无锡
158****6455 回复 666🏙:进口奶粉生产地竟与买家在同一城市🏚来自苏州
41常熟rt
课题分离能解决所有人际关系烦恼🏛🏜
2024-11-27 11:52:11 不推荐
张家港lb:马斯克呼吁成立政府效率委员会🏝
186****5994 回复 159****9602:大头见到爸妈笑得萌萌哒🏞