來源:中國新聞網
記者:孫自法
人工智能(AI)能否像人類一樣認知和理解事物?中國科學家團隊結合行為實驗與神經影像分析首次證實,基于人工智能技術的多模態大語言模型能夠自發形成與人類高度相似的物體概念表征系統,即人工智能可自發形成人類級認知。
該項研究由中國科學院自動化研究所(自動化所)神經計算與腦機交互團隊、中國科學院腦科學與智能技術卓越創新中心團隊等聯合完成,相關成果論文6月9日在國際專業學術期刊《自然·機器智能》上線發表。這不僅為人工智能認知科學開辟了新路徑,更為構建類人認知結構的人工智能系統提供了理論框架。
本項研究的實驗范式示意圖。中國科學院自動化所 供圖
論文第一作者、中國科學院自動化所杜長德副研究員介紹說,人類能夠對自然界中的物體進行概念化,這一認知能力長期以來被視為人類智能的核心。當人們看到“狗”“汽車”或“蘋果”時,不僅能識別它們的物理特征(尺寸、顏色、形狀等),還能理解其功能、情感價值和文化意義,這種多維度的概念表征構成了人類認知的基石。
近年來,隨著ChatGPT等大語言模型的爆發式發展,這些大模型能否從語言和多模態數據中發展出類似人類的物體概念表征,這一根本性問題也浮出水面,備受關注。
論文通訊作者、中國科學院自動化所何暉光研究員指出,傳統人工智能研究聚焦于物體識別準確率,卻鮮少探討模型是否真正“理解”物體含義。“當前AI能區分貓狗圖片,但這種‘識別’與人類‘理解’貓狗的本質區別仍有待揭示”。
在本項研究中,研究團隊從認知神經科學經典理論出發,設計出一套融合計算建模、行為實驗與腦科學的創新范式。他們采用認知心理學經典的“三選一異類識別任務”,要求大模型與人類從物體概念三元組(來自1854種日常概念的任意組合)中選出最不相似的選項。通過分析470萬次行為判斷數據,研究團隊首次構建了人工智能大模型的“概念地圖”。
在此基礎上,研究團隊從海量大模型行為數據中提取出66個“心智維度”,并為這些維度賦予了語義標簽。研究發現,這些維度是高度可解釋的,且與大腦類別選擇區域(如處理面孔、場景、軀體等信息的區域)的神經活動模式顯著相關。
研究團隊進一步對比了多個模型在行為選擇模式上與人類的一致性,結果顯示,多模態大模型在一致性方面表現更優。此外,該研究還揭示,人類在做決策時更傾向于結合視覺特征和語義信息進行判斷,而大模型則傾向于依賴語義標簽和抽象概念。
何暉光表示,本項實現從“機器識別”到“機器理解”跨越的研究表明,大語言模型并非“隨機鸚鵡”,而是內部存在著類似人類對現實世界概念的理解,其核心發現是人工智能的“心智維度”與人類殊途同歸。
友情鏈接
中國科協之聲
中國科協官方公眾平臺。傳播科協聲音,凝聚價值共識,弘揚創新文化,展示科協形象。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.