中新网北京6月9日电 (记者 孙自法)人工智能(AI)能否像人类一样认知和理解事物?中国科学家团队结合行为实验与神经影像分析首次证实,基于人工智能技术的多模态大语言模型能够自发形成与人类高度相似的物体概念表征系统,即人工智能可自发形成人类级认知。
该项研究由中国科学院自动化研究所(自动化所)神经计算与脑机交互团队、中国科学院脑科学与智能技术卓越创新中心团队等联合完成,相关成果论文6月9日在国际专业学术期刊《自然·机器智能》上线发表。这不仅为人工智能认知科学开辟了新路径,更为构建类人认知结构的人工智能系统提供了理论框架。

论文第一作者、中国科学院自动化所杜长德副研究员介绍说,人类能够对自然界中的物体进行概念化,这一认知能力长期以来被视为人类智能的核心。当人们看到“狗”“汽车”或“苹果”时,不仅能识别它们的物理特征(尺寸、颜色、形状等),还能理解其功能、情感价值和文化意义,这种多维度的概念表征构成了人类认知的基石。
近年来,随着ChatGPT等大语言模型的爆发式发展,这些大模型能否从语言和多模态数据中发展出类似人类的物体概念表征,这一根本性问题也浮出水面,备受关注。
论文通讯作者、中国科学院自动化所何晖光研究员指出,传统人工智能研究聚焦于物体识别准确率,却鲜少探讨模型是否真正“理解”物体含义。“当前AI能区分猫狗图片,但这种‘识别’与人类‘理解’猫狗的本质区别仍有待揭示”。
在本项研究中,研究团队从认知神经科学经典理论出发,设计出一套融合计算建模、行为实验与脑科学的创新范式。他们采用认知心理学经典的“三选一异类识别任务”,要求大模型与人类从物体概念三元组(来自1854种日常概念的任意组合)中选出最不相似的选项。通过分析470万次行为判断数据,研究团队首次构建了人工智能大模型的“概念地图”。
在此基础上,研究团队从海量大模型行为数据中提取出66个“心智维度”,并为这些维度赋予了语义标签。研究发现,这些维度是高度可解释的,且与大脑类别选择区域(如处理面孔、场景、躯体等信息的区域)的神经活动模式显著相关。
研究团队进一步对比了多个模型在行为选择模式上与人类的一致性,结果显示,多模态大模型在一致性方面表现更优。此外,该研究还揭示,人类在做决策时更倾向于结合视觉特征和语义信息进行判断,而大模型则倾向于依赖语义标签和抽象概念。
何晖光表示,本项实现从“机器识别”到“机器理解”跨越的研究表明,大语言模型并非“随机鹦鹉”,而是内部存在着类似人类对现实世界概念的理解,其核心发现是人工智能的“心智维度”与人类殊途同归。(完)
发表评论
2024-05-31 18:36:38回复
2024-05-31 18:40:01回复
2024-05-31 18:43:35回复
2024-05-31 18:46:53回复
2024-05-31 18:49:33回复
2024-05-31 18:50:06回复
2024-05-31 18:52:52回复
2024-05-31 18:53:27回复
🤔(思考表情)
2024-05-31 18:54:05回复