人工智能的終極夢想,從來不局限于打造一個能擊敗國際象棋特級大師的博弈引擎,或是設計出花言巧語蠱惑人心的聊天機器人。它的真正使命,是成為一面映照人類智慧的明鏡,幫助我們更深刻地認識自我。
科研工作者的目標,也不止于是狹義的人工智能,他們追求的是通用型人工智能(AGI)——一種具有類人的適應力與創造力的智能系統。
誠然,如今大語言模型(LLM)的問題解決能力已然讓大多數研究者刮目相看,但它們依然有著明顯的短板,例如缺乏持續學習的能力——一旦完成基于書籍、網絡文本等材料的訓練后,它們的知識庫就被凍結了,再也無法“更新”。正如AI公司SingularityNET的本·格策爾(Ben Goertzel)形象地比喻:“你沒法讓大語言模型去上大學,甚至連幼兒園都進不了。”它們通過不了有“機器人高考”之名的綜合測驗。
“掌握”了語言,
離模擬思維還有多遠?
在語言處理方面,目前的LLM確實展現出了專家所稱的AGI“形式能力”:即使你提供的內容支離破碎或十分口語化,它們也能夠對你提供的任何語句進行語法分析,并用堪比維基百科的標準英語回復你。但在其他認知維度上,LLM仍有明顯局限——尤其是那些關乎日常生活實用性的能力。麻省理工學院(MIT)神經科學家南?!た簿S舍(Nancy Kanwisher)認為:“我們不應該期待它們有能力思考,它們只是語言處理器?!边@些系統巧妙地處理著詞句,但除了已接收的文本,它們無法接觸到現實世界。
?南希·坎韋舍(Nancy Kanwisher),美國麻省理工學院大腦與認知科學系教授,麥戈文腦研究所研究員。她專注于研究大腦功能組織與視覺認知機制,發現了大腦中專門處理面孔、場景和身體的區域,如梭狀回面孔區(FFA),為理解大腦功能區域化機制提供了重要線索。她還通過人工神經網絡研究大腦功能特異性的計算原理,推動了認知神經科學的發展??岔f舍教授因其卓越貢獻,獲得了2024年卡夫利神經科學獎、1999年美國國家科學院托蘭研究獎,并于2005年當選美國國家科學院院士,2009年當選美國藝術與科學院院士。
某種程度上,LLM只是模仿了大腦的語言能力,而不具備感知、記憶、導航、社會判斷等其他能力。就像坎維舍所提出的,如果我們的大腦是多功能的瑞士軍刀,LLM就是一把非常不錯的螺絲錐。關于大腦的諸多功能是定位于特定區域還是彌散在灰質之中,坎維舍與其他神經科學家還沒有達成一致,大多數人認同大腦功能至少具有一定程度的特異性。AI開發者正致力于將這種模塊性整合到他們的系統中,以提高其智能性。
生成式預訓練自注意模型(generative pre-trained transformer,GPT)的創造者OpenAI,允許付費用戶選擇附加工具(起初稱為“插件”),來處理數學運算、網絡搜索等各類查詢任務,每項工具都會調用其所屬專業領域的外部知識庫。其核心的語言系統,在某種意義上也可能是模塊化的,但這對用戶而言是不可見的,OpenAI一直對其規格保密。不少AI研究者推測,GPT擁有多達16個神經網絡或“專家”(盡管我們不清楚它們如何分工),GPT會將它們的答案匯總以回復用戶的查詢。
在2023年12月,法國的Mistral和中國的Deepseek先后發布了“混合專家模型”(Mixture of Experts,MoE)的開源版本,引發了全球轟動。這種簡單模塊化形式的主要優勢就是計算效率:訓練并運行16個較小的網絡要比1個單一的大網絡容易得多。"魚和熊掌應該兼得",愛丁堡大學人工智能研究員埃多阿爾多·龐蒂(Edoardo Ponti)提出這樣的構想,"我們要打造一個既具備海量參數規模,又能保持微型模型高效特性的智能系統。"
?埃多阿爾多·龐蒂(Edoardo Ponti)愛丁堡大學自然語言處理助理教授,劍橋大學附屬講師,英偉達訪問教授。他的研究聚焦于高效架構(如動態稀疏性)、模塊化深度學習和計算語言類型學,致力于通過壓縮模型中間表示和內存來重新定義基礎模型的計算單元,并探索多語言的計算框架。龐蒂博士的研究成果獲得了谷歌研究獎教金和EMNLP、RepL4NLP會議的最佳論文獎。他是SIGTYP的聯合創始人,也是歐洲學習與智能系統實驗室(ELLIS)的學者。
伴隨模塊化而來的是權衡,尚且無人能夠確定各區域如何協調工作以創造出條理清晰的大腦,更不必說機器如何模擬這一點了。佐治亞理工學院的神經科學家安娜·伊萬諾夫(Anna Ivanova)對此感到疑惑,“信息如何從語言系統傳遞至邏輯推理系統或社會推理系統?我們對此仍未可知?!?/strong>
?安娜·伊萬諾夫(Anna Ivanova)佐治亞理工學院心理學系助理教授,語言、智能與思維實驗室(LIT Lab)負責人。她致力于研究語言與人類認知之間的關系,通過神經影像學(如fMRI)、行為實驗和計算建模等多學科方法,探索大腦如何處理語言信息以及語言模型如何模擬人類思維。她的研究揭示了大腦語言網絡在非語言事件語義加工中的作用,并開發了用于評估語言模型世界知識的基準測試。伊萬諾夫博士因其在認知神經科學領域的創新性研究,入選《麻省理工科技評論》2024年“35歲以下科技創新35人”榜單。
意識的潛在基礎:全局工作空間
一個頗具煽動性的假設——意識是共同的基礎,這個假設被稱為“全局工作空間理論”(global workspace theory,GWT)。GWT認為,意識之于大腦,就相當于員工會議之于一個企業,它為各個模塊提供了交換信息、尋求幫助的場所。GWT并非唯一的意識理論,但AI研究者對它頗具興趣,因為GWT推測意識是高等智能不可或缺的一部分。大腦可以開啟自動巡航模式(如默認神經網絡)完成簡單的或重復性的任務,但新穎或復雜的任務超出了單一功能模塊的能力范疇,需要我們有意識地主動控制才可應對。
格策爾及其團隊在他們的AI系統中嵌入了一個工作空間,他談道,“我認為全局工作空間模型的核心思想必將以多種不同技術路線涌現?!痹谠O計該模型的電子化表征時,研究人員沒有試圖去打造“有意識的機器”,而是重構特定意識理論的硬件架構,以探索實現類人智能的可能性。
他們有可能無心插柳地創造出一個具有情感和動機的有知覺的存在嗎?這是可以想象的。盡管就連GWT的開創者、加州拉霍亞神經科學研究所的伯納德·巴爾斯(Bernard Baars)也認為這是不可能的,“意識計算還只是一項缺乏證據的假設。”但是,如果開發者真的成功打造出AGI,他們能為理解智能本身的架構及過程提供重要的洞察。
?伯納德·巴爾斯(Bernard J. Baars)美國認知神經科學家,全局工作空間理論(GWT)的創立者。巴爾斯曾任紐約州立大學石溪分校心理學教授,是意識研究領域的先驅。他提出意識的全局工作空間理論,認為意識是一個有限的信息處理中心,能夠整合來自大腦不同區域的信息,并通過注意力機制將信息廣播到更廣泛的神經網絡。這一理論為理解意識的本質提供了重要框架,影響深遠。他還聯合創辦了Consciousness and Cognition期刊和意識科學研究協會(ASSC)。他的著作《意識的認知理論》和《認知、腦與意識:認知神經科學導論》是該領域的經典教材,為推動認知神經科學的發展做出了重要貢獻。
長期以來,GWT都是神經科學與AI研究相互啟發的典型案例。這一思想可追溯至“Pandemonium”,即20世紀50年代計算機科學家奧利弗·塞爾弗里奇(Oliver Selfridge,1926-2008)提出的一種圖像識別系統。塞爾弗里奇將各個系統模塊描繪成《失樂園》中“地獄里競相嘶吼、爭奪注意力的惡魔”,而與他同時代的艾倫·紐厄爾(Allen Newell,1927-1992)則偏好更加克制的隱喻“數學家們圍聚在黑板前共同解題”。20世紀80年代,巴爾斯提出了GWT作為人類意識的理論?!拔业膶W術生涯從AI中受益良多,究其根源,這是當時我們擁有的唯一可用的理論平臺?!卑蜖査谷缡钦f。
?奧利弗·塞爾弗里奇(Oliver Selfridge)麻省理工學院(MIT)名譽教授,人工智能領域的先驅之一。塞爾弗里奇被譽為“機器感知之父”,是最早研究模式識別和人工智能的科學家之一。他在20世紀50年代開發了“潘多拉”(Pandora)系統,這是第一個能夠識別手寫字符的計算機程序,開創了機器視覺和模式識別的先河。他的工作為后續的人工智能研究奠定了基礎,尤其是在圖像識別和機器學習領域。塞爾弗里奇還提出了“惡魔”(Daemon)的概念,啟發了現代操作系統中后臺進程的設計。他因在人工智能領域的開創性貢獻,獲得了國際人工智能聯合會(IJCAI)的卓越研究獎。
?艾倫·紐厄爾(Allen Newell)美國計算機科學家和認知心理學家,卡內基梅隆大學教授。紐厄爾是人工智能和認知科學領域的先驅之一。他與赫伯特·西蒙(Herbert A. Simon)合作,開發了邏輯理論機(Logic Theorist)和通用問題求解器(General Problem Solver),這些早期程序奠定了人工智能的基礎。他提出了“物理符號系統假說”,認為人類智能可以通過符號操作來實現,這一理論對認知科學和人工智能的發展產生了深遠影響。紐厄爾因其在計算機科學和人工智能領域的開創性貢獻,獲得了1975年圖靈獎。
在巴爾斯的啟發下,孟菲斯大學的計算機科學家斯坦利·富蘭克林(Stanley Franklin)嘗試打造了一臺“有意識”的計算機。無論富蘭克林的機器是否真的有意識(巴爾斯和富蘭克林對此半信半疑),它至少復現了人類心理的許多特點。例如,當它的注意力從一個事物轉移到另一個事物時,它會錯過信息,就和人類在多任務中糟糕的表現一樣。
?斯坦利·弗蘭克林(Stanley Franklin,1931-2023)美國孟菲斯大學計算機科學系教授,認知架構領域的重要奠基人之一。弗蘭克林博士是“意識循環”(Consciousness Loop)模型的提出者,該模型為理解人類意識的動態過程提供了開創性的理論框架。他還主導開發了開發了IDA及其后繼者LIDA,這兩種模型都是全局工作空間理論的計算實現。著有《人工心智》(Artificial Minds)等,其研究成果不僅推動了人工智能和認知科學的理論發展,還為相關技術的實際應用奠定了基礎。他獲得了多項榮譽,包括美國心理學會頒發的“杰出科學貢獻獎”。
自20世紀90年代起,巴黎法蘭西公學的神經科學家斯坦尼斯拉斯·迪昂(Stanislas Dehaene)與讓·皮埃爾·尚熱(Jean-Pierre Changeux)便著手探索可構建起全局工作空間的神經回路拓撲結構。
?斯坦尼斯拉斯·迪昂(Stanislas Dehaene)法國認知神經科學家,法蘭西公學教授,神經科學與認知研究所主任。迪昂是“數字感”理論的提出者,其著作《The Number Sense: How the Mind Creates Mathematics》(《數字感:人類的數學直覺》)深入探討了人類大腦對數字的天生認知能力。他還著有《Reading in the Brain: The New Science of How We Read》(《閱讀的腦:破解人類閱讀之謎》),揭示了閱讀能力的神經機制,指出大腦如何通過“神經元回收”機制適應閱讀這一文化發明。他的研究推動了認知神經科學的發展,為教育實踐提供了重要理論支持。
?讓-皮埃爾·尚熱(Jean-Pierre Changeux)法國神經科學家、分子生物學家,法蘭西科學院院士,法國國家科學研究中心(CNRS)榮譽研究主任。尚熱是“大腦操作性學習理論”的提出者,他通過研究乙酰膽堿受體的結構與功能,揭示了神經遞質在神經信號傳遞中的關鍵作用。他還提出了“先天認知結構”理論,認為大腦中存在先天的神經網絡,能夠通過學習和經驗進行調整。尚熱的理論為理解大腦的發育和認知功能提供了重要框架。他的研究不僅推動了神經科學的發展,還對認知科學和人工智能領域產生了深遠影響。
在這個結構中,大腦各模塊大多數情況下獨立運作,但約每0.1秒它們會“舉行一次員工會議”。這是一場有組織的信息競賽。每個模塊都會提供一些信息,信息的置信度越高(如刺激與預期模式的契合度越高),它們的神經活動就越強烈。一旦某個模塊獲勝,其他模塊會進入短暫的抑制狀態,贏家會將它的信息放置到一系列共同變量集之中,即全局工作空間。其他模塊則必須自行評判信息是否有用。正如巴爾斯所言,“這本質上是擁有局部解決方案的子智能體之間既協作又競爭的涌現過程。”
工作空間不僅促進了模塊間的信息交流,更為各模塊提供了一個共同思考的“論壇”,即使這些信息最終不會傳遞到感官系統,也可以在這里接受“集體審議”。迪昂舉了個例子,“你可能在現實生活中遇到過一些轉瞬即逝的感覺,它會在你的工作空間里持續回響?!边@種審議機制對于解決多步驟或長時程的問題尤為關鍵,人們必須有意識地思考才能解決這類問題——迪昂通過心理學實驗證實了這一點。
如果這個系統聽起來略顯無政府主義,那就對了。它摒棄了由上級在模塊間分配任務的形式,因為正確分配任務極其困難。任務分配(delegation)或者說在不同的執行單元間分配職責以實現最優性能,在數學中屬于NP hard問題,需要花費大量時間才能解決。以被認為由OpenAI使用的MoE架構為例,一個“門控”網絡負責分配任務,它必須和各個模塊共同訓練。期間,因為模塊依賴路由進行分配,而路由又依賴模塊,訓練可能會陷入循環而崩潰,龐蒂將之描述為“雞與蛋悖論”。即使訓練成功了,路由機制本身也是一個黑箱,我們并不清楚其運作機制。
高度競爭而又協同的模塊化系統
在2021年,卡內基梅隆大學的數學系榮休教授曼紐爾·布魯姆(Manuel Blum)和勒諾·布魯姆(Lenore Blum)系統闡述了全局工作空間中注意力競爭的機制。他們引入了置信度校準機制,以確保各個模塊不會過分高估其輸入信息的置信度,由此防止少數夸大其詞者主導了整個系統。
?曼紐爾·布魯姆(Manuel Blum)美國計算機科學家,卡內基梅隆大學布魯斯·尼爾森計算機科學教授,1995年圖靈獎得主。他的研究奠定了計算復雜性理論的基礎,并在密碼學和程序檢查領域做出了開創性貢獻。他提出了Blum速度加快定理和Blum公理,還發明了Blum-Blum-Shub偽隨機數生成器和Blum-Goldwasser密碼系統。2000年,他與學生共同發明了CAPTCHA(驗證碼),用于區分人類和計算機程序。布魯姆還培養了眾多杰出的計算機科學家,包括多位圖靈獎得主。他于2002年當選美國國家科學院院士,2006年當選美國國家工程院院士。
勒諾·布魯姆(Lenore Blum)美國計算機科學家和數學家,卡內基梅隆大學榮譽教授,北京大學訪問講席教授。布魯姆博士的研究領域包括實數計算理論、密碼學和偽隨機數生成。她與曼紐爾·布魯姆和邁克爾·舒布(Michael Shub)合作,發展了基于連續實數的計算理論,為現代機器學習算法奠定了數學基礎。她的著作《Complexity and Real Computation》(與Cucker、Shub和Smale合著)是該領域的經典。布魯姆還致力于推動女性在STEM領域的參與,是女性數學協會的創始人之一,并在卡內基梅隆大學創立了多個支持女性的項目。她獲得了2004年美國總統科學、數學和工程導師獎等多項榮譽。
布魯姆夫婦還提出,模塊之間可直接建立神經連接,完全繞開全局工作空間。這些旁路連接,可以解釋人類學習騎自行車或彈奏樂器時的技能固化現象,一旦各模塊通過集體協商確定了分工后,它們便可以脫離意識離線處理任務?!斑@種機制將依賴短時記憶的加工過程轉化為無意識加工?!崩罩Z·布魯姆解釋道。
有意識的注意力是一種稀缺資源。全局工作空間承載信息的容量有限,所以勝出的模塊必須嚴格篩選傳遞給其他模塊的信息。這聽起來像一種設計缺陷,“為什么大腦會限制你同一時間能思考的內容數?”蒙特利爾大學AI研究員約書亞·本吉奧(Yoshua Bengio)對此感到疑問。但他認為這一限制是有益的:它強化了認知紀律。我們無法追蹤世界的全部復雜性,所以大腦不得不識別出背后的簡單規律?!斑@種瓶頸迫使我們理解世界的運作規律?!北炯獖W解釋道。
?約書亞·本吉奧(Yoshua Bengio)加拿大蒙特利爾大學計算機科學與運籌學系教授。本吉奧博士是蒙特利爾學習算法研究所(MILA)的創始人,長期致力于深度學習、神經網絡和自然語言處理的研究。他提出了多項開創性理論和技術,如神經機器翻譯(NMT)和生成對抗網絡(GAN)的改進版本。他還推動了深度學習在醫療、氣候科學等領域的應用。本吉奧與Hinton和楊立昆共同獲得2018年圖靈獎,表彰他們在深度學習領域的貢獻。
對本吉奧來說,這正是GWT對于AI最重要的意義。當今的人工神經網絡已能力過剩,它們擁有數十億甚至數萬億參數,大到足以吞噬整個互聯網的數據,但又很容易陷入技術細節之中,而難以從海量的數據庫中提取出更深層的規律。如果人工神經網絡的海量知識能夠由一個狹窄的信息通道進行篩選(就像人類意識的運作模式),那么它們或許會表現得更好。
早在本吉奧開始系統性關注GWT之前,他就嘗試將類意識的瓶頸機制整合進AI系統中。在21世紀10年代初期,受人類大腦選擇性信息聚焦能力的啟發,本吉奧團隊在神經網絡中構建了一個類似的篩選器。例如,當類似于GPT的語言模型遇到代詞時,它需要找到代詞的先行詞。具體來說,模型會強化鄰近的名詞、弱化語料的其他部分。本質上,這種“注意”關鍵詞的能力需要理解整個文本。值得注意的是,代詞也有可能與形容詞、動詞等不同類別的詞語關聯,神經網絡的不同部分可以同時對不同的詞匯關聯投入注意力。
然而,本吉奧發現這種注意力機制存在一個不易察覺的缺陷。假設神經網絡完全忽略了一些詞語,即將對應這些詞語的計算變量賦零值,這種突變式的處理將嚴重干擾訓練神經網絡的標準流程。被稱為“反向傳播”的訓練流程,針對網絡的輸出逆向溯源,可以找到導致錯誤的計算部分,卻無法追蹤這些突變節點。
? 軟注意力機制流程圖. 圖源:Measurement Science and Technology
因此,本吉奧及其合作者開發了“軟注意力機制”(soft-attention mechanism),神經網絡仍具選擇性但不絕對。該機制對不同選項(如與代詞可能有關的詞語)賦予數值型的權重,盡管一些詞語的權重更高,但所有詞語都仍有可能被激活(權重大于0)。神經網絡會避免做出非此即彼的硬性選擇?!?0%賦予這個、20%給另一個,因為注意權重是連續的,我們可以繼續使用反向傳播?!北炯獖W解釋道。這項軟注意力機制正是自注意力模型(Transformer,即GPT中的T)的核心創新。
近些年來,本吉奧對軟注意力機制進行了迭代升級,創造了更加嚴格的瓶頸。他認為,神經網絡想要實現接近真正的類人智能,這一步是極其重要的。真正的全局工作空間必須實施硬選擇,它沒有能力持續追蹤所有選項。在2021年,本吉奧團隊開發出生成流網絡(generative flow network)。該網絡會根據注意力權重得出的概率分布,周期性地選定一個可用選項。本吉奧不局限于反向傳播,而是創新性地采用雙向的方式訓練神經網絡。這種方法既可以逆向追溯修正突變節點引發的錯誤,也能進行常規的前向推理。本吉奧發現,該系統形成的對輸入數據的高階表征,與人類大腦的神經標準高度相似。
應用全局工作空間的另一大挑戰在于超特異性(hyperspecialization)。就像不同院系的教授隔行如隔山,大腦的各個模塊之間也存在交流壁壘。視覺區域演化出適合加工眼部輸入信息的抽象表征,聽覺模塊則形成了適用于耳蝸振動的表征。那么,不同模塊如何交流呢?這就需要某種通用語言(lingua franca),或者是被亞里士多德稱作“通感”的東西。這種需求也存在于科技公司推出的“多模態”網絡場景中,多模態網絡需要能夠將文本與圖像及其他形式的數據相結合。
在迪昂和尚熱的GWT框架中,模塊之間由自適應的突觸神經元連接。“這些神經元將輸入轉化成它們自己的編碼方式,”迪昂解釋道。但具體的機制還不清晰。事實上,迪昂希望AI研究者能通過解決人工神經網絡中的類似問題為人類研究提供洞察?!?strong>全局工作空間目前更多是一項思想觀點,還未形成完善理論。我們正在努力把它理論化,但還有很多模糊的地方。不過,工程師們已經具備了將GWT變為實用系統的出色潛力?!钡习赫劦馈?/p>
潛空間對齊
2021年,日本東京的AI公司Araya創始人、神經科學家金井良太(Ryota Kanai)與法國圖盧茲大學跨界進入AI領域的神經科學家魯芬·范魯倫(Rufin VanRullen),基于GWT提出了一種人工神經網絡完成翻譯任務的新方法。
?金井良太(Ryota Kanai)日本認知神經科學家,人工智能企業家,ARAYA公司創始人兼CEO。他專注于將意識理論應用于人工智能,嘗試將全球工作空間理論(GWT)和整合信息理論(IIT)融入深度學習架構,以賦予AI元認知與注意力能力。他還研究大模型的表征與人類腦活動的對應關系,探索AI產生主觀體驗的可能性。作為人工意識領域的先行者,他的工作為未來具備類意識特征的AI系統提供了重要的理論和實踐基礎。
?魯芬·范魯倫(Rufin VanRullen)法國國家科學研究中心(CNRS)研究主任,圖盧茲大腦與認知研究中心(CerCo)研究員,圖盧茲人工智能與自然智能研究所(ANITI)研究主席。范魯倫博士的研究聚焦于大腦的神經振蕩機制及其在認知中的作用。他提出視覺感知具有周期性而非連續性,這一觀點改變了人們對感知過程的理解。他還致力于將認知神經科學的發現應用于人工智能,探索如何通過神經振蕩機制改進深度學習算法。范魯倫獲得了2007年CNRS銅獎和2022年歐洲研究委員會高級研究資助等多項榮譽。
他們的靈感來源于谷歌翻譯等語言翻譯系統。現代神經網絡翻譯系統,被認為是AI領域迄今為止最令人矚目的成就之一。系統在運作時無需被告知如英語中的“love”與法語中的“amour”是同一個意思,它們會獨立學習每種語言,最終憑借對語言的掌握推斷出法語中哪個詞與英語中的“love”含義相同。
假設你分別用英語和法語訓練了兩個神經網絡,每個網絡會收集對應語言的結構,并形成被稱為“潛空間”的內部表征。本質上,它是一個詞云:通過將含義相似的詞語相鄰排列、無關詞語彼此遠離,構建出反映該語言中所有詞語關聯關系的圖譜。這種詞云有獨特的形狀。由于兩種語言最終都指向同一個客觀世界,因此盡管存在語言差異,它們的詞云形狀本質上會是相同的。你所需要做的是旋轉英語和法語的詞云直到它們對齊,就會發現“love”與“amour”匹配。
“無需借助詞典,只需觀察每種語言潛空間中所有詞語的分布形態,找到正確的旋轉角度,你就能對齊所有的詞語。”金井良太解釋道。這種方法既能用于單個詞語,也能處理整段文本,因而有能力捕捉到語義的細微差別,并解決目標語言中無直接對應詞匯的翻譯難題。該技術的改良版本甚至能對英語和漢語這類不具親緣關系的語言進行互譯。或許,未來還可拓展至動物交流領域。
更進一步,范魯倫和金井良太提出,這種翻譯方法不僅僅能用于語言互譯,還可應用于不同模態信息之間的轉譯?!巴ㄟ^獨立訓練一個圖像處理系統和語言處理系統,再對潛空間進行對齊,你就能將二者結合,構建出多模態翻譯系統?!苯鹁继劦?。這種多模態翻譯之所以可行,是因為不同系統本質上都在描述同一個世界。這一觀點,作為AI研究為大腦研究賦能的潛在案例,正好與迪昂的觀點不謀而合。金井良太表示,“神經科學家從未設想過通過潛空間對齊這一可能性。”
為了驗證這些理論的實際應用,金井良太和高級意識研究所的亞瑟·朱利亞尼(Arthur Juliani)與Araya公司的笹井俊太郎(Shuntaro Sasai)合作,三人的研究對象指向了谷歌DeepMind在2021年發布的感知器模型(Perceiver model),該模型的設計理念是將文本、圖像、音頻等多模態數據融合至統一的潛空間。2022年,谷歌將感知器模型整合至自動生成YouTube短視頻描述的系統中。Araya團隊開展了系列實驗解析感知器模型的運作機制,發現該模型雖然并非特意為全局工作空間而設計,但它表現出其核心特征:獨立的模塊、模塊篩選機制以及工作記憶(即工作空間本身)。
重新思考生成式模型
Meta公司首席人工智能科學家楊立昆(Yann LeCun),提出了一個可能帶來突破性進展的觀點。盡管他沒有直接引用GWT作為靈感來源,但他在挑戰當下生成式模型的霸權過程中,通過獨立研究得出了許多相同的結論。楊立昆直言不諱地表示:“我反對當前AI和機器學習社區一些極為流行的東西,我呼吁大家放棄生成式模型?!?/p>
?楊立昆(Yann LeCun)美國紐約大學教授,Meta首席人工智能科學家,深度學習領域的先驅之一。卷積神經網絡(CNN)的主要發明者,這一架構在圖像識別和計算機視覺領域取得了巨大成功。他的研究成果推動了人工智能技術的廣泛應用,尤其是在圖像處理、自動駕駛和醫療影像等領域。楊立昆還致力于推動人工智能的開源和共享,促進了該領域的發展。他與Hinton和Bengio共同獲得2018年圖靈獎,表彰他們在深度學習領域的開創性貢獻。
生成式神經網絡因能根據學習數據生成新文本和圖像而得名。為實現該能力,這類網絡需要極其重視細節:它們必須精確地知道句子中每個單詞的拼寫規則、圖像中每個像素的布局方式。然而,智能的本質恰恰在于對細節的選擇性忽視。因此,楊立昆呼吁學界回歸早已不再時髦的“判別式”神經網絡。
以圖像識別領域常用的模型為例,這類網絡的核心能力在于識別輸入數據之間的差異(例如區分貓和狗的圖片),它們并不會生成圖像,而是通過對現有圖像的處理分析完成分類標注。楊立昆開發了一種特殊的訓練方案,使判別式網絡能夠提取文本、圖像以及其它數據的本質特征。雖然判別式網絡不能自動補全語句,但它能創建出抽象表征,這也是楊立昆期望與人腦中的認知模式能夠相提并論的。
舉個例子,當你輸入一段汽車行駛的視頻時,系統表征應該能捕捉到車輛的品牌、型號、顏色、位置以及速度等核心信息,忽略瀝青路面的崎嶇不平、水洼中的漣漪、路邊植物的反光等細節。正如楊立昆所說:“所有無關緊要的細節都會被過濾掉?!碑吘?,除非我們主動觀察,大腦也會忽視掉不重要的信息。
這種精簡的表征本身無法應用,但它為實現通用人工智能所需的多種認知功能奠定了基礎。楊立昆將判別式網絡嵌入更大的系統之中,使其成為類腦架構的組成模塊之一。這種類腦架構包含GWT的核心特征,如短期記憶和協調各模塊運作的“配置器”(configurator)。“深受心理學的一些基礎原理啟發,該系統在進行規劃時,就像人腦能夠進行思維實驗預測不同情境下的情感反應,配置器會多次運行判別式網絡,遍歷一系列假設性行動,最終篩選出能夠達成預期目標的最優路徑。
楊立昆提出了一個自稱為“通俗理論”(folk theory)的觀點——意識可能源于配置器的運作,即巴爾斯GWT中的工作空間。
AI能否擁有意識?
如果研究者成功在AI系統中建造出了全局工作空間,這會讓AI產生意識嗎?迪昂認為“會”,前提是系統具備自我監控能力。
而巴爾斯卻感到懷疑,部分原因在于他認為自己的理論還不具備百分之百的說服力。他坦言,“我總在懷疑GWT是不是真的足夠好。”對巴爾斯來說,意識是人作為生命體特有的生物功能。
富蘭克林也曾在采訪中表達過類似的疑惑。他認為,全局工作空間是人類演化為應對生存需求提出的解決方案。通過意識,大腦得以從經驗中學習,并快速解決復雜的生存難題。富蘭克林認為這些能力與AI要面對的問題無關,他向我解釋說:“必須存在具有真實心智與可控結構的自主智能體,這種智能體需要某種形式的‘生命歷程’。它們可以是機器人,但必須經歷某種發展過程,而不是以成熟姿態降臨人間?!?/p>
?阿尼爾·賽斯(Anil Seth)薩塞克斯大學教授,薩克勒意識科學中心主任。他專注于研究意識的神經基礎,提出了意識是一種“受控幻覺”的理論。
英國薩塞克斯大學神經科學家阿尼爾·賽斯(Anil Seth)對富蘭克林的話深表認同:“意識不只是智慧程度的問題,也是關乎生命的。無論AI如何聰明,只要它們不具備生命屬性,就難以產生真正的意識。”
賽斯本人并不是GWT的擁護者,他更支持預測加工理論。該理論認為,意識體通過構建預測模型來預測未來事件,以此做好應對準備?!袄斫庖庾R自我需要從研究身體控制的預測模型開始?!辟愃惯€研究過整合信息理論(integrated information theory,IIT),該理論將意識與大腦復雜的網絡結構而非功能相連。根據該理論,意識不是智能的本質,而是生物效率的產物。
當下,AI是一個思想百花齊放的領域,即使拋開神經科學,工程師也有大量能夠探索的內容。哥倫比亞大學神經科學家尼古拉斯·克里格斯科特(Nikolaus Kriegeskorte)評價道,其他理論固然不錯,但人腦作為通用智能的象征,仍然是AI研究者目前所能參照的最佳模型。“人腦還藏有一些秘密武器,而工程技術還未攻克?!?/p>
過去數十年對AGI的探索,讓我們對人類智能的本質有了更深刻的認識。現在,我們已經意識到,對人類來說輕而易舉的任務(如視覺識別)計算起來要多么復雜,而人類感到頭疼的難題(如數學和國際象棋)對于計算機又是多么簡單。我們也意識到,大腦不需要太多與生俱來的知識,通過后天經驗就能學會幾乎所需要了解的一切。
模塊化的重要性,也再次印證了古老智慧:智慧并非單一維度的存在,而是一個包含抽象思維、社會情景理解、視聽感知等多元能力的工具箱。正如格策爾所言,正是這種多元能力的組合創新,我們的大腦才得以在未知領域開疆拓土。無論是創造全新的音樂流派,還是破解科學上的前人未解之謎。當我們向未知邁進時,終有一日AI伙伴也將與我們并肩同行。
原文鏈接:https://www.scientificamerican.com/article/what-the-quest-to-build-a-truly-intelligent-machine-is-teaching-us/
關于追問nextquestion
天橋腦科學研究院旗下科學媒體,旨在以科學追問為紐帶,深入探究人工智能與人類智能相互融合與促進,不斷探索科學的邊界。如果您有進一步想要討論的內容,歡迎評論區留言,或后臺留言“社群”即可加入社群與我們互動。
關于天橋腦科學研究院
天橋腦科學研究院(Tianqiao and Chrissy Chen Institute)是由陳天橋、雒芊芊夫婦出資10億美元創建的世界最大私人腦科學研究機構之一,圍繞全球化、跨學科和青年科學家三大重點,支持腦科學研究,造福人類。
Chen Institute與華山醫院、上海市精神衛生中心設立了應用神經技術前沿實驗室、人工智能與精神健康前沿實驗室;與加州理工學院合作成立了加州理工天橋神經科學研究院。
Chen Institute建成了支持腦科學和人工智能領域研究的生態系統,項目遍布歐美、亞洲和大洋洲,包括、、、科研型臨床醫生獎勵計劃、、等。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.