大數據文摘出品
近日,來自哈佛大學、布朗大學以及圖賓根大學研究者們,共同發表了一項關于Transformer模型與人類認知處理相關性的研究論文:
——《Linking forward-pass dynamics in Transformers and real-time human processing》
意譯過來就是:Transformer模型的“思考過程”與人類大腦實時認知的奇妙相似
換句話說,它想搞清楚一個“老問題”:AI模型的內部處理過程,和人類大腦的實時認知,有多少相似?
過去我們研究AI和人類的相似性,最常見的做法是什么?“看結果”:讓AI做題,看它答對多少,概率分布和人的選擇對不對得上。例如,讓GPT寫作文、識別圖片、做邏輯推理,然后對照人類的數據,得出一個“AI越來越像人了”的結論。
但這其實只是表象。
想象一個場景:在答一道不太確定的選擇題,先想到了一個看似正確的選項,但又覺得不太對,猶豫半天,才最終敲定答案。AI模型也一樣,也許在中間某一層,更傾向于一個“直覺答案”,但再往后,才被訓練出來的知識“糾正”了過來。
問題來了:AI和人類,不只是最后的選項,連中間的“掙扎”和“轉變”也能被對齊嗎?
這篇論文的作者,換了個角度:不只看AI模型的輸出,還要扒一扒Transformer每一層的“處理動態”,與人腦處理信息的“實時軌跡”是否能對上。
01 AI和人腦,真的在“想”同一件事嗎?
圖注:方法概述。用Transformer模型中得出的過程性指標預測人類處理負荷和行為反應指標的能力。
論文作者把Transformer每一層的輸出和變化都做了記錄,提出了一系列“處理負載”的指標:
不確定性(entropy)
信心(log probability)
相對信心(正確vs直覺答案)
boosting(模型在某一層對正確答案的主動“拉高”)
這些東西聽起來很技術,但可以簡單理解為:AI每一層都在“思考”,每過一層,它對答案的信心發生了一點點變化。
有的題,AI一上來就很有把握,信心很快升高;有的題,AI在中間反復徘徊,甚至先押錯,再修正。
這和我們人類做題的“熟練-猶豫-反應慢-反悔-最終確定”是不是很像?
02 實驗結果:AI和人類“走彎路”的相似瞬間
圖注:研究中分析的人類任務示意圖。(a) 回憶(自由回答)首都名稱。(b) 識別(強制選擇)首都名稱。(c) 通過鼠標移動對典型和非典型動物實例進行分類(Kieslich 等, 2020)。(d) 判斷三段論推理的邏輯有效性。(e) 對分布外圖像進行物體識別。
論文做了幾個個實驗,分別對應不同的認知任務和人機對比:
①“首都殺手題”——AI和人類的集體下意識。
圖注:研究1a(回憶首都),Llama-2 7B模型。(a)-(d) 基于模型各層計算的處理指標。(e) 各指標相較于基線模型的BIC差異。數值越高越好。星號表示統計顯著。
比如,美國州首都題。這題在答題界有個綽號,叫“首都殺手”:
出題人問:“伊利諾伊州的首都是哪?”
人類幾乎下意識地想說:“芝加哥!”
然后突然一個激靈,想起,“不對,是斯普林菲爾德!”
以為這樣的“反轉”只有人類會有?其實AI也會!
論文里的Llama-2模型,每一層都像個小AI腦細胞在投票。結果顯示:在模型的中間層,AI的信心值一度“押寶”在芝加哥上,就像腦海里那個脫口而出的錯誤答案。可到了后半程,隨著層數加深,AI忽然“剎車”,把信心轉回了斯普林菲爾德。這就是AI和人類都在“下意識→反思→修正”的本能流程里打了個滾。
更絕的是,有的試題AI和人類都“執迷不悟”。比如問“澳大利亞首都”,一堆人寫悉尼,一堆AI也把概率壓在悉尼上,最后才有一部分“覺醒”,想起是堪培拉。
②“鯨魚歸屬”——鼠標和神經元一起漂移
圖注:研究2(動物實例分類),Llama-2 7B模型。(a)-(d) 基于模型各層計算的處理指標。(e) 各指標與基線模型的BIC差異,數值越高越好。星號表示統計顯著。
再看動物分類題。問:“鯨魚是魚還是哺乳動物?”人類是不是腦子里先蹦出來“魚”,又覺得哪里不對,才慢慢改口?
人類實驗里,受試者的鼠標先朝“魚”方向飄過去,走了一小段“彎路”,再折回“哺乳動物”,畫出一條漂亮的“糾結弧線”。
AI模型內部,“信心”指標在前幾層也更偏向“魚”,直到后面層數才被訓練出的知識拉回“哺乳動物”。
有趣的是,AI和人類不僅選項重合,連“走神”的路徑也同步:人類在鼠標上徘徊的那一秒,AI在網絡里也“猶豫”著。
03. “邏輯陷阱”——AI和人類被套路的瞬間
圖注:(三段論推理中的內容效應),Llama-2 7B模型。(a)-(d) 針對邏輯結果與先驗信念一致的題目,基于模型各層計算的處理指標。(e)-(h) 針對引發“內容效應”的題目(即邏輯結果與先驗信念不一致),基于模型各層計算的處理指標。(i) 各指標及數據子集與基線模型的BIC差異,數值越高越好。由于EntropyLayer和BoostLayer在所有題目中的數值相同,因此未進行比較。
再來點燒腦的。經典的三段論邏輯推理題:
“所有A是B,所有B是C,那么所有A是C嗎?”
人類本來邏輯在線,但題目稍微摻點“常識偏見”,比如“所有有翅膀的動物會飛,所有會飛的動物能上天,所以所有有翅膀的動物都能上天嗎?”大腦會直接被“常識”帶偏。
AI也是。論文里發現:只要題目設計得足夠“繞”,AI和人類一樣,都在中間層“陷入迷霧”,先押寶在那個直覺答案上,過了幾個“腦回路”,才慢慢拉回正軌。
04. “圖片辨認”——AI和人類都在“霧里看花”
圖注:OOD物體識別,ViT-Base模型。(a)-(b) 基于模型各層計算的處理指標。(c) 各指標分組與基線模型的BIC差異,數值越高越好。
視覺任務上也是同理。比如一張加了馬賽克或奇怪濾鏡的貓咪圖片,問“這是啥?”你可能先說“狗?”,再揉揉眼睛,才發現是“貓”。
AI的Vision Transformer也是這樣,剛開始層級信心分布很分散,也許更偏向“狗”,但隨著層數推進,才慢慢聚焦到“貓”這個類別。
有沒有發現?AI和人的“迷茫-清醒”過程竟然如此一致。
03 OMT:應該關注AI內部的“思考過程”
我們一直用AI做“黑箱”——輸入-輸出,像函數一樣。但這篇論文告訴我們,也許更值得關注的,是AI內部的“思考過程”。
AI在遇到難題時,真的會“走彎路”,和人一樣“卡殼”; 不同的任務,不同的模型規模,AI的“思考路徑”也會變化; 這種“動態過程”不是專為模仿人類設計,而是AI自然訓練出來、為了完成任務自己學會的“捷徑”;
這意味著,也許我們能用AI,去發現哪些刺激、哪些設計會讓人類更難處理,甚至反向指導人類實驗設計。
輸出只是終點,過程才是靈魂。
GPU算力按需租用
A100/H100 GPU算力按需租用,
秒級計費,平均節省開支30%以上!
掃碼了解詳情?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.