新研究:人工智能生成内容不准确与失语症类似
新华社  8小时前

尽管人工智能生成内容已非常流畅,但提供的信息很多时候还是不准确。日本研究人员近日在德国《先进科学》杂志发表的一项研究成果显示,这一问题与人类的语言障碍——失语症类似。新研究成果可以为研究人员改进人工智能提供参考。

智能体、聊天机器人等基于人工智能的工具正越来越多地应用于日常生活。考虑到人工智能模型在提供信息时表现出“高度自信”,如果用户对所讨论主题或领域缺乏足够了解,会很容易把其中的错误信息当成正确的。

为此,日本东京大学研究人员使用了一种名为“能量景观分析”的方法。这种方法最初由物理学家开发,旨在使磁性金属中的能量状态可视化,最近应用于神经科学。研究人员检查了不同类型失语症患者在静息状态下的大脑活动模式,并将其与几个公开可用的人工智能大语言模型的内部数据比较。

失语症患者可能会很流利地说出一些毫无意义或难以理解的话。研究人员发现,人工智能与此有相似之处。在这些人工智能模型中,数字信息或信号的流动和运作方式与某些失语症患者一些大脑信号的行为方式极为相似。

研究人员说,人工智能模型在出现严重错误时仍表达流畅,这与感觉性失语症的症状有相似之处,即说话流利却总说不出什么意思。这并不意味着聊天机器人有“脑损伤”,但它们可能被锁定在一种僵化的内部模式中,限制其灵活运用所储存知识,就像得了感觉性失语症。

研究人员表示,对神经科学来说,这项研究提供了一种可能的新方法,可以根据大脑内部活动而不仅是外部症状来分类和监测失语症等疾病;对人工智能研究来说,这将帮助研究人员从内到外改进人工智能系统的架构。

见习编辑:刘素素