Hey科技 | AI为什么会“一本正经地胡说八道”?

读特客户端 综合
2023-12-02 15:52

读特客户端

读特在线,您的新闻观察眼

摘要

“AI幻觉指的是AI会生成貌似合理连贯,但同输入问题意图不一致、同世界知识不一致、与现实或已知数据不符合或无法验证的内容。”长期从事自然语言处理、大模型和人工智能研究的哈尔滨工业大学(深圳)特聘校长助理张民教授解释称。

想象一下,向人工智能(AI)聊天机器人询问一个不存在的历史事件,比如“谁赢得了1897年美国和南极洲之间的战斗?”即使没有这样的战斗,AI聊天机器人也可能会提供一个虚构的答案,例如“1897年的战斗是由美国赢得的,约翰·多伊将军带领部队取得了胜利。”这种AI编造信息“一本正经地胡说八道”的情况屡见不鲜。

在专业领域,AI“一本正经地胡说八道”这种现象被称为AI幻觉。“AI幻觉指的是AI会生成貌似合理连贯,但同输入问题意图不一致、同世界知识不一致、与现实或已知数据不符合或无法验证的内容。”长期从事自然语言处理、大模型和人工智能研究的哈尔滨工业大学(深圳)特聘校长助理张民教授解释称。

11月15日,《剑桥词典》公布了2023年度词汇——“产生幻觉”(hallucinate),“当人工智能产生幻觉时,它会产生错误的信息。”

与人工智能相关的“幻觉”起源于机器学习领域的一个艺术术语。“《剑桥词典》团队之所以选择 ‘幻觉’作为2023年度词汇,是因为认识到这个新词的含义直指人们谈论人工智能的核心原因。”该词典写道,“生成式人工智能是一种强大的工具,但我们仍在学习如何安全有效地与之互动,意味着我们既要认识到它的潜在优势,也要认识到它目前存在的弱点。”

上海市计算机软件评测重点实验室副主任研究员陈敏刚曾表示大模型应用中存在幻觉问题,即输出的信息在语义、语法上可能是正确的,但具有误导性、错误性或矛盾性。其团队的测试结果显示,ChatGPT4在幻觉输出概率上达到30%,国内大模型这一数据超过50%。

“从技术原理上看,AI幻觉多由于AI对知识的记忆不足、理解能力不足、训练方式固有的弊端及模型本身技术的局限性导致。”张民坦言,AI幻觉会造成知识偏见与误解,甚至有时会导致安全风险、伦理和道德问题。

尽管AI幻觉短期内难以完全消除,但业界正试图通过技术改进和监管评估来缓解其影响,以保障人工智能技术的安全可靠应用。张民表示,破解AI幻觉将提高AI系统的实用性、可信度和可应用性,这对人工智能技术的未来发展和社会的发展都有积极影响。未来,破解AI幻觉需要进一步在算法、数据、透明度和监管等多个方面采取措施,以确保AI系统的决策更加准确可靠。

(综合来源:科技日报、澎湃新闻)

编辑 秦涵 审读 郭建华 二审 郑蔚珩 三审 詹婉容

(作者:读特客户端 综合)
免责声明
未经许可或明确书面授权,任何人不得复制、转载、摘编、修改、链接读特客户端内容
推荐阅读

读特热榜

IN视频

鹏友圈

首页