AI大模型,似乎發展出了類似人類理解物體概念的能力。
近日,中國科學院自動化研究所神經計算與腦機交互(NeuBCI)課題組與中國科學院腦科學與智能技術卓越創新中心的聯合團隊的研究,首次證實了多模態大語言模型(MLLMs)能自發形成與人類高度相似的物體概念表征系統。
這項重要研究發表在國際權威期刊《自然·機器智能》。
不同于以往的僅關注AI識別準確率(例如區分貓和狗),這項研究旨在探索AI模型是否形成了類似人類對物體含義的深層理解(概念表征)
研究團隊基于經典認知心理學的測試方法(三選一異類識別任務),讓AI模型和人類參與者,從1854種日常概念任意組成的三個組合中(例如:狗、狼、貓),選出最不相似的一個。
圖源 中國科學院自動化研究所
團隊通過分析470萬次這樣的行為數據,構建了AI的“概念地圖”。
研究發現,多模態模型(MLLM)和純文本模型(LLM)能自發形成物體概念表征結構,并且預測人類選擇的準確度非常高。
從模型行為數據中識別出66個高度可解釋的重要“心智”維度(如語義類別、感知特征、物理成分)。
其中,多模態模型(MLLM)的內部表征與人腦特定區域的神經活動模式存在明顯的對應關系。
這項研究表明,AI語言模型,它們理解世界上的東西的方式,與我們人類大腦非常相似。
而且,擁有了圖文理解能力的多模態AI模型,看圖時運作方式與人腦處理視覺信息的方式更接近。
這些研究將為未來理解AI的“認知”機制和創造更富理解力的AI提供了重要幫助。
關注我們,第一時間獲取人類文明新資訊
* 您的「點贊、關注、評論、轉發」都是我們持續更新的動力!??
* 本文綜合自網絡,數據及表述均以官方發布為準,如有錯誤,歡迎評論區指正!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.