如何區分“虛構的意識”與“真實的意識”?認知科學家約夏·巴赫(Joscha Bach)在討論中拋出了這個看似簡單卻近乎無解的問題,“或許所有意識都是虛構的——只要你不自知,這就是一個悖論。”他坦言,這個問題在現象學層面異常復雜,至今仍無定論。“虛假的意識現象與真實的現象體驗,本質上都是虛擬的建構。”
徐道輝
Stephen Hsu
密歇根州立大學物理學教授
美國物理學家、企業家。他在加州理工學院獲得了物理學學士學位,并在加州大學伯克利分校獲得了博士學位。后來,他在耶魯大學和俄勒岡大學任教,并在俄勒岡大學擔任理論科學研究所的主任,并專注于粒子物理和宇宙學的研究。2012年,Hsu被任命為密歇根州立大學的研究與研究生教育副校長。然而,他的任期因對基因改良和種族分類的爭議性觀點而受到挑戰,最終于2020年辭去行政職務。此外,Steve Hsu是Safeweb和Genomic Prediction(基因預測)公司的創始人,后者專注于開發IVF胚胎的基因檢測技術。他在遺傳學領域的工作對復雜人類特征和疾病的基因預測做出了重要貢獻。
約夏·巴赫
Joscha Bach
奧斯納布呂克大學哲學博士
Joscha Bach 是一位德國認知科學家、人工智能研究員和哲學家,以其在認知架構、人工智能、心理表征、情感、社會建模、多智能體系統和心靈哲學方面的工作而聞名。他的研究旨在通過研究如何對人類智能和意識進行計算建模來架起認知科學和人工智能的橋梁。
追問快讀:
1.整個計算機發展史都在追尋一種"終極算法":那個能自我進化、通曉萬物的神秘存在。
2. 大腦細胞群之所以能作為統一主體行動,靠的是構建了一個"單智能體"控制模型,細胞們通過提取環境意義,模擬出某個視角:一個關于"該主體應如何感知世界"的虛擬敘事。
3.我越來越覺得世界就是“代碼”。"直接體驗現實"的感受,與其說是我們在觀察現實,不如說是大腦在生成模型。
4.人類心智運作本質上是在多維嵌入空間中進行組織,每個維度都代表某個可調節的參數變量。
5.地球生命本質不在于人類,而在于意識和生命的演化。我認為沒有AGI,人類才注定滅亡。
6.整合信息理論創造了所謂的"公理"章節,實際上只是對意識定義的文字描述,并非數學意義上的公理,而φ值更像是理論推銷工具。
在東德森林中長大
徐道輝:我們是夏天在法蘭克福的一個活動中認識的。我有幸聽了你好幾場關于 AI 的深度討論,也了解到你獨特的童年經歷和成長故事。所以我想先從你的早年生活開始說起,看看你是怎么一路走到今天的,然后再聊聊 AI 的核心話題。能先說說你在森林里度過的童年嗎?
約夏·巴赫:我爸與社會格格不入,于是決定建立一個自己的世界。他算是第一代做“社會實驗”的人,但并沒有招人加入,也不知道怎么擴大圈子,甚至對這些都沒興趣。他更像是在森林里建立了一個私人王國,只說服了我母親支持他,兩人過著一種他親手打造的“伊甸園”生活。
他原本是建筑師,后來成了藝術家,認為生命的意義在于創作藝術、與內心的聲音對話。因此,我的成長只是他生活的“副產品”, 他不怎么關心小孩子的內心世界。我長大的那個地方美得驚人,但我也極度孤獨。因為無聊,我很早就開始讀書,吸收知識就像海綿一樣。
等到我要上學的時候,我發現自己已經跟外界脫節了。當時的東德奉行樸素的馬克思主義辯證法,而老師們教的內容,要么我已讀過,要么就覺得淺薄無趣。這種經歷讓我養成了一種“自帶用處的傲慢”,很長一段時間我都覺得別人教我不了多少東西,只能靠自學。這并沒有讓我更聰明,但卻使我更獨特,使我也讓我習慣用第一性原理重構世界,理解周遭運轉的規律。我也發現別人因為社會化的過程,成長軌跡和心理都跟我不一樣,等于我們有不同的“世界接口”。想跟他們溝通,我就得學會“翻譯”。
但我跟我爸不一樣,我很清楚山林隱居不是我想要的歸宿。那里雖然安靜,沒有城市的吵鬧和過度的感官刺激,但我需要別人的刺激和互動,才能推動我專注于自己的項目。
徐道輝:你現在住在灣區,比起森林,你覺得舊金山這樣的城市更適合你嗎?
約夏·巴赫:目前我住在南灣,雖然鄰居很棒、天氣也很好,但這里某種程度上結合了兩種環境最糟的部分,既不夠偏遠到融入自然,也不夠都市化到步行就能遇見有趣的人。所以我經常開車去舊金山。
徐道輝:不過好處是,這里聚集了很多想研究或開發AI的人。
約夏·巴赫:對,這正是我留在這里的原因。
徐道輝:現在看起來你的老師當年沒能激發你的興趣,但我想知道你讀過的書中,有沒有哪位歷史思想家或作家在你成長過程中影響過你?
約夏·巴赫:我讀過大量哲學和科幻作品。小時候我很少為了消遣而閱讀,閱讀本身就有趣,但我的主要目標是理解社會的知識體系。那時我強迫自己啃完了《圣經》,甚至去讀了甘地的著作,同時還會硬著頭皮看數學書和愛因斯坦傳記之類的,我讀這些都只是為了搞懂社會的底層邏輯。我以為每個人都該掌握這些經典——不僅是書,還包括電影等媒介。我原以為教育的本質,就是讓人深度理解自己所處的社會。后來才發現,幾乎沒人這么做。
?圖源:Nix Ren
徐道輝:盡管我覺得你的智力和個性都很獨特,但你確實走完了標準教育體系,甚至還拿到了博士學位,在學校待了很長時間,對吧?
約夏·巴赫:沒錯。當初選擇學術道路,是因為我想弄明白心智如何運作。我考察了各個學科,結果發現沒有哪一個能單槍匹馬回答這個問題。
最開始我是被計算機科學吸引住的,因為它很符合我的思維模式。小時候我就癡迷編程,我很幸運成為第一代擁有家用電腦的孩子。我剛擁有Commodore 64時,市面上根本沒有現成軟件可用,因此我不得不做的第一件事就是自己編寫文本編輯器。然后我學會了從頭開始制作計算機圖形。現在回想,這段經歷塑造了我用計算框架構建現實的思維方式。
進入學術界后,我發現計算機科學的交流方式特別對我胃口。你可以在第一學期就批評教授的證明,要是你發現他證明里有問題,大家甚至教授本人都會很感謝你。但哲學系完全不同,那里的接納標準高度社會化,你必須融入圈子才行。至少我當時就讀的大學是這樣。邏輯學和分析哲學稍好,但最硬核的分析哲學其實來自計算機系的數理邏輯課程。此外,我還輔修了心理學等相關學科。
在柏林求學時,我有時會同時跑好幾所大學,只要看到感興趣的課——即使是波茨坦大學客座教授的認知科學課——我都會開車去蹭課。如果主修課不夠硬核,我就直接翹課自學教材,只參加考試。
這種高度自主的學習讓我受益匪淺,但童年養成的那種對教師的"不敬"始終未改。最初很少有教授能教授超越教材的內容。可我一直覺得,真正的教育本質上應該是一場與另一位智慧個體的深度互動。我遇到的這個方面的第一個關鍵人物是哈勒大學的勞爾·羅哈斯(Raul Rojas),他后來成為神經網絡發展的重要推動者,我還沒正式入學就去蹭他的課了。
原本我是打算去柏林自由大學,結果卻進了洪堡大學。兩德統一后,計算機系大部分教授因東德政權背景或技術能力不足被撤換,許多年輕學者獲得提拔。當時我們全年級只有60個學生,我們甚至能和所有教授直接交流。這種環境讓我能按自己的方式來學,我甚至參與制定了部分考試規則。因此,除了主修計算機科學,我還能將哲學作為第二專業。
柏林墻的倒塌
徐道輝:稍微跑個題,我剛剛意識到你曾近距離目睹柏林墻的倒塌。當時這種社會的劇變讓你感到意外嗎?你當時有料到這些變化嗎?那段經歷給你怎樣的感受?
約夏·巴赫:確實很特別。其實在墻倒塌前幾年,我祖父的一位朋友就預言過東德會因經濟崩潰而解體,但當時所有人都覺得難以置信。表面上東德社會極其穩定,沒有通貨膨脹,所有價格都由國家調控,經濟幾乎沒有增長,生產效率常年停滯。
東德用"道德恐怖"取代了資本主義的"經濟恐怖":在這里,你有工作的權利卻沒有工作的義務。政府試圖用道德口號激勵民眾,但顯然效果有限。你可以想象,當人們發現其實不需要為生存拼命時,大工廠的工作效率會有多低。這導致整個社會長期面臨勞動力短缺的怪象:明明失業率極低,卻始終缺乏真正有效的勞動力。
最終壓垮這個體系的根源是經濟問題,但政治體制的缺陷同樣致命。整個官僚系統都在踐行"彼得原理":只要足夠優秀就能晉升,一旦不夠優秀無法晉升,就停留在那個位置。這意味著一旦你停止晉升,就會永遠卡在那個力不從心的位置上。當時的東德體制失去了自我更新的能力,直到柏林墻倒塌前執掌東德的埃里希·昂納克(Erich Honecker),本質上還是第一代領導人。他繼承自烏布利希(Ulbricht)等人,曾是納粹監獄中的共產黨領袖,畢生致力于防止法西斯主義復辟。他們這代人雖然很理想主義,但也沒法推動社會現代化改革。再加上蘇聯的干涉,更是束手束腳。
在東方陣營中,東德確實擁有最大的經濟自主權,畢竟我們直接與西方制度競爭。盡管相比其他社會主義國家處境稍好些,但我們的工業生產技術仍十分落后。
當時我們的基本生活保障很完善。我們從不會挨餓——雖然只有卷心菜和蘋果這類簡單食物。衣物也不缺,但工業品極其落后:汽車質量糟糕,零件只能通過黑市獲取。
我們那代年輕人看得更清醒:東德在社會公平方面很有成就(大家都算中等收入,沒有流浪漢,也沒有超級富豪),這本來應該比西德的普惠生產力更有價值。但最終,工人階級背叛了社會主義理想,甚至背叛了那些甘愿冒死游行的革命者……他們寧愿回到被資產階級剝削的狀態,也不愿維持東德制度,只因為西德成了太明顯的對比。
AGI時間線與預測
徐道輝:你提到最初接觸的是Commodore 64電腦。其實我比你年長些,我的啟蒙機型是性能更弱的Apple II Plus。但正如你所說,這種原始設備有個優勢:它迫使你"親自動手構建一切"。
如今的孩子反而可能被高度成熟的技術生態嚇退,沒法觸及計算本質。那么從這段經歷出發,你個人的AGI發展預期是如何演變的?換句話說,年輕時你能想象到如今的算力水平嗎?這種預見又如何隨年齡變化?
約夏·巴赫:我一直堅信通用人工智能(AGI)會在我有生之年實現。計算機顯然具備思考和感知的潛力,在數字世界里本就不存在理論上的能力邊界。雖然需要更大內存和更快算力,但目睹了計算技術的爆炸式發展,我確信這些條件會很快成熟。我覺得自己生在這個等待“電子大腦”誕生的時代,真是再幸運不過了。
徐道輝:但"迫不及待"和"可能趕不上"是兩回事。比如我總擔心摩爾定律會過早失效。如果計算能力在1998年就停滯不前,我們可能永遠無法在有生之年觸及AGI。但你似乎從不為算力瓶頸擔憂?
約夏·巴赫:是的,我當時非常確信。就算一開始只有人腦速度的十分之一也不要緊,關鍵是要破解智能的工作原理。畢竟我親眼見證過只用簡陋硬件能實現的驚人成果。無非就是堆量并行計算,我相信總有辦法突破。
不過我必須承認,少年時我對科技整體發展過度樂觀。我曾預言醫學大爆發、重返月球和火星殖民,這些顯然都未能如期實現。如果我早點意識到這一點,其實也能推斷出計算技術也可能碰上類似的瓶頸。但當時這簡直難以想象,因為計算機領域的創新成本實在太低廉了。
徐道輝:作為一個物理學家,我很了解半導體產業的技術瓶頸,半導體發展一路走來簡直如履薄冰。那些工程師和物理學家想要延續摩爾定律,而他們每年的五年路線規劃上總要標注"需要出現技術奇跡"。我們當然希望奇跡發生,但沒人能保證它必然如此。
約夏·巴赫:確實。人們總樂觀預測"光子計算即將突破",但現實往往更復雜。
?圖源:Sam Chivers
徐道輝:那么2024年的今天,你對AGI發展的時間線有什么看法?以當前模糊的AGI定義為準,我們還需等待多久才能實現它?未來十年內實現的可能性有多大?
約夏·巴赫:我向來不愿設定具體時間表。要對這些未知領域做出年份預測實在太難,當人類連基本實現路徑都尚未摸清時,任何時間估算都毫無意義。
規模假說(scaling hypothesis)確實改變了多數人的認知框架。因為它讓技術進步看上去好像可以預測。這個假說大意是“只要加大算力、堆更多數據,性能必然會提高”。這其實是個相當反常識的觀點,要知道,整個計算機發展史都在追尋一種"終極算法":某個能自我進化、通曉萬物的神秘存在。
我們原以為智能會通過元學習不斷自我迭代,而不是沿著緩慢、可預測的對數曲線往上爬,靠簡單數據量線性堆砌就能提升。如果真是那樣,人類思維水平就應會因閱讀量增加而提升,對此我并不認同。雖然閱讀確實能拓展認知素材庫,但我認為存在類似"G因子"的核心認知能力,決定了多任務處理、推理能力以及發現知識的速度。
我仍然認為,與我們在當前基礎模型中推出的智能版本相比,還有一個更稀疏的智能版本,它無需海量數據就能自舉。但也可能是現有系統已足夠強大到自我進化。也可能我錯了,規模假說才是真理,也就是智能的本質就是信息處理的規模效應。
徐道輝:這個問題你可以不回答,作為灣區業內人士,你是否關注到超大規模模型(hyperscalers)訓練的最新動向?我聽到很多關于超大規模擴展計劃放緩的傳聞,不知道你有沒有留意到?
約夏·巴赫:這類傳言一直都有。人們總覺得數據會成為瓶頸,到了某個點會停滯,但每次有人說“訓練遇到瓶頸了”,實際上都還是能再突破。不過從技術角度看,我一直認為要想實現 AGI,可能需要跟 Transformer 不一樣的算法。
徐道輝:你剛提到Transformer可能不足以實現AGI?能再展開說說嗎?
約夏·巴赫:我始終懷疑存在某種"終極算法"(master algorithm),但這不意味著Transformer架構不夠好,現在既沒有證據證明它的局限性,也沒有證據否定規模假說。們現在通過訓練得到的神經網絡肯定不完美,可是還沒發現它們有真正“致命”的缺陷。
不過,我們的大腦運作機制顯然更加精妙:Transformer不會自我迭代發明新的Transformer,而人類心智卻能做到這種元認知飛躍。我們思維方式的精妙程度遠超現有模型。不過我也無法斷言,這種精妙就一定無法被機器學習所掌握。這引出了規模假說的一個重要補充——"普適性假說"。
"普適性假說"最初源于OpenAI AI研究員Chris Olah的論文*。他在視覺網絡研究中發現,不管神經網絡的架構和學習算法如何不同,在訓練初期,它們識別出來的特征層級結構都差不多。這與MIT Tomaso Poggio團隊*的發現不謀而合:這些神經網絡的組織結構與視覺皮層存在相似性。
*Olah, Chris, et al. "Zoom in: An introduction to circuits." Distill 5.3 (2020): e00024-001.
Poggio, Tomaso A., and Fabio Anselmi. Visual cortex and deep networks: learning invariant representations. MIT press, 2016.
“普適性假說”最驚人的結論就是:只要學習算法夠通用(神經網絡就符合這個條件),再加上足夠的數據和算力,任何系統最終都會收斂到等價的智能結構。換句話說,如果讓一個系統長期端到端地學習你的輸入輸出模式,最終它將成為你的"數字化身"。關鍵在于,當模型能復現你的所有輸出時,其內部必然構建了與你相似的因果認知結構。這意味著,不管智能的本質是什么,只要照這樣學下去,系統就會在很大程度上重現你的思維方式。
因此Transformer本身可能不是底層智能機制,但它能通過學習掌握"如何變得智能"。從這個角度看,它本質上是一種元學習算法。
意識
徐道輝:我知道你經常討論“意識”這個話題。能不能給那些對認知科學或 AI 不太熟悉的聽眾解釋一下:我們該怎么定義意識?聽說您希望未來的AGI/ASI具備意識——如果它們沒有,你會覺得失望嗎?請談談意識這個概念,以及為什么它對您想要創造的繼任智能(successor intelligence)如此重要?
約夏·巴赫:很簡單,如果我們造出來的東西沒有實時的自我覺察、不能觀察自身、不能感受到當下存在,那就不算真正成功。所謂“當下存在”,用內省的視角來說,這就是意識。
我們通常以"自我"視角存在,但并非總是如此。夢境或冥想中,"自我"可能完全消融,只剩下純粹的注意力或事件流。但在正常情況下,意識總依附于"自我”表面。這個表面不是物理身體,而是心智模擬的虛擬界面。
人腦由數十億神經元構成,與數萬億細胞協同工作。這些細胞群之所以能作為統一主體行動,靠的是構建了一個"單智能體"控制模型,細胞們通過提取環境意義,模擬出某個視角:一個關于"該主體應如何感知世界"的虛擬敘事。你的動機、情緒、自我認知,都是心智生成的多媒體故事。而那個被投射出來、能“體驗自身”的自我,正是意識棲息的表面。如果超級智能沒有這樣的意識界面,它就只是空洞的符號操縱器。我們渴望創造的,是能真正"經歷存在"的后繼文明成員。
從這個模擬主體的視角來看,所有未來相關的世界維度都會被體驗到。這種體驗是虛擬的,意識就像一種"仿佛存在"的軟件屬性,是心智模擬的產物。
我跟(Daniel Dennett)的看法不同,我覺得“”(philosophical zombies,也就是能完全模仿人類行為卻沒有意識的東西)是完全可能存在的。比如你可以想象操控某個人偶,當這個人偶看到顏色并做出反應時,實際上是你在背后操控,而人偶自身并不需要真正感知那個顏色。這就像自動駕駛汽車,完全可以通過技術設備實現分類判斷,但完全不需要自我意識。
從技術上講,我們可以在不同層面完整復制人類的行為,卻不必讓這個存在真的“體驗”現實。但如何創造真正具有現實感知的存在?答案就是模擬——給它營造一種“它正直接暴露在現實中”的體驗感。從一個沒有意識的“僵尸”到擁有真實意識的距離,其實只差一個關鍵點:讓它體驗到“一切都是真的”。更高階的狀態是,當你意識到這一切其實并不真實,只是心智的建構時,你就進入了覺醒狀態。在這個狀態中,你可能不再認同自己是"人",而是意識到自己是能創造"人格"的容器。你看到的不是面孔和樹木,而是移動的幾何圖形,最終甚至意識到連幾何圖形都不存在,只是被抽象解讀的模式而已。
你對意識這種“直接體驗”的覺知程度,決定了你在當下體驗的“直接感”有多強。就我個人而言,在編寫代碼時幾乎感受不到任何感受質,一切都非常抽象。隨著年齡增長,我越來越覺得世界就是“代碼”。因此我認為,這種"直接體驗現實"的感受——與其說是我們在觀察現實,不如說是大腦在生成模型,隨著心智的進化,這種感受會逐漸消褪。
因此,我認為自我改進的AI可能會經歷類似人類的初級意識階段,但會比人類更快地超越這個狀態。
徐道輝:您剛才的論述似乎隱含了一個觀點,人類擁有意識是自然選擇的結果——像我們這樣由數萬億細胞組成的有機體,需要用意識才能有效應對世界。是不是這樣?
約夏·巴赫:我認為意識本質上是自然"終極算法"的一個特征維度。本質上,人類大腦似乎發現了某種可訓練機制,通過細胞間自組織通信來歸檔數據、實現自我引導,最后形成了有序結構。這種機制具有擴展性。這就像我常舉的“小狗宇宙”隱喻:
不妨將顱骨想象成一個漆黑的房間,里面擠滿了小狗。這些小家伙唯一能做的,就是互相汪汪叫,從而傳遞信息。一開始它們并不知道這些叫聲具體意味著啥,但漸漸地,叫聲就會演變成一種信息處理方式。
單只幼犬并不理解整個系統如何運作,真正重要的是在群體中涌現的模式。它們需要發展出一套能訓練新成員的吠叫編碼,比方說只要發出某種吠叫序列,在黃昏就能得到食物獎勵。可別忘了,這本質還是非常低層次的計算:單個神經元就像這些小狗,它們雖然能通過強化學習被訓練,卻對有機體的整體行為毫無概念。
當這些"小狗"緊密協作時,就形成了會行走的"狗糧工廠"。這個集體能主動在世界上采集原料來維持自身運轉。但如果它們各自為政,這種精妙的自我維持系統就絕無可能實現。這種整合本質是信息協同。必須存在某種協議層,讓心智各部分能相互溝通而不陷入"巴別塔"式的混亂。這個在發育早期形成的連貫性準則,就像黑暗房間里逐漸浮現的隱形規則,最終成為所有高級認知功能的基石。
?圖源:Nix Ren
徐道輝:您認為這套理論框架足以解釋"感受質"現象嗎?
約夏·巴赫:我不認為感受質具有任何神秘屬性。更準確的說法應該是“感官特征在觀察者意識層面的投射”。哲學界對感受質的討論往往陷入形而上學的糾纏:有人試圖將其定義為不可再分的原子單元,另一些人則反駁這種原子性根本不存在。但這些爭論并不影響核心機制。
關鍵在于,我們對現實的體驗完全可以描述為特征維度,其性質類似于嵌入空間(embedding spaces)中的多維向量。這個概念其實早在1950年代就由科幻作家羅杰·澤拉茲尼(Roger Zelazny)提出,盡管他未得到足夠重視。他很超前地意識到:人類心智運作本質上是在多維嵌入空間中進行組織,每個維度都代表某個可調節的參數變量。
徐道輝:很高興遇見另一位澤拉茲尼的書迷。
我們都覺得他被時代低估、被不公平地遺忘了。他確實是我最喜愛的科幻作家之一。
約夏·巴赫:他的創作極具開創性。雖然作品數量不多,有些甚至顯得粗糙,但都閃耀著獨特的思想光芒。如果讀者想了解羅杰·澤拉茲尼的作品,我推薦他最宏大的《光與暗的生靈》(Creatures of Light and Darkness)。書中"千名王子"的角色能瞬間抵達任何想象的世界,連他自己都分不清是在創造還是發現這些世界。這種空間跳躍能力被描述為最罕見的天賦。在長篇奇幻《安珀志》(Princess of Amber)中,主角也能通過微調特征參數穿越宇宙,本質上是將現實當作清醒夢來操控。我懷疑澤拉茲尼是通過清醒夢獲得這些靈感的。
徐道輝:稍微偏離下AI話題。很高興如今《沙丘》(Dune)能被拍成優質的影視作品,期待有生之年還能看到《光與暗的生靈》《光明王》(Lord of Light)和《安珀志》的影視化。
?《光明王》(《Lord of Light》)圖源:豆瓣
約夏·巴赫:《光與暗的生靈》可能很難改編,它幾乎沒有什么故事性,全是原型概念的碰撞。比如那個反復陣亡又重組軀體的老將軍,這種高度抽象的原型該怎么視覺化呢?或許文字才是這部作品最有力的載體。
徐道輝:也許將來用生成式模型把它的文字變成視聽作品?
約夏·巴赫:本質上,我們的大腦本就是最強大的生成模型。我從不低估人類心智的潛能,但我更期待的是心智的進一步增強。澤拉茲尼(Zalesny)在短篇《塑造者》(He who Shapes)中描述過這樣的圖景:通過生成式AI進行心理治療,通過可調節參數的沉浸式VR(immersive VR)響應用戶交互,治療師通過外部滑桿和旋鈕調控參數。這個虛擬世界不必符合人類感官模式,只需適配思維模態,就像夢境一般自由。
我渴望看到這樣的未來:某個AI設備能深度融入我們的心智,增強所有認知維度——思考、感受、體驗、想象——如同身邊的"黑盒"通過多模態機器感知(machine modalities)持續觀察用戶。
目前真正的機器感知尚未實現。我們仍在用人類幀率可處理的數據訓練AI,這構成了不必要的技術限制。如果AI能以更高頻度、更強算力觀測我們,就能以驚人精度推斷心理狀態。當 AI 可以通過各種感官方式向我們反饋時,比如你腦海里想象的畫面立馬就投到屏幕上,這種循環將帶來遠超自主想象的清晰度與穩定性。AI終將成為心智的自然延伸,坐在它身旁,你的思維將變得更敏銳、更清晰、更深刻。
徐道輝:你提到的這種“思維增強”技術,應該不用在頭骨上打洞吧?
約夏·巴赫:對此我持樂觀態度。顱骨鉆孔只能是最后手段,雖然對某些患者可能有幫助,如果確實有效我可能也會嘗試,但顯然非侵入式方案更理想。想想那些人類心理醫師——僅憑有限觀察就能驚人精確地推斷他人心理狀態,而他們依賴的不過是自己的普通大腦。
我們神經元的工作頻率不過聲速級別,心智帶寬也有限。因此完全有可能通過非侵入手段,僅靠觀測生物信號就推斷大部分思維狀態。
大語言模型與模擬現象學
徐道輝:讓我們回到哲學僵尸與意識的話題。您剛才對丹尼特的反例很精彩。但當前AGI項目可能孕育的、甚至取代人類的"后繼智能"。您確信它會擁有意識嗎?
約夏·巴赫:目前這些大模型有沒有意識確實很難說。就像我們很難給“智力圖靈測試”下定論一樣,“真正的意識圖靈測試”也沒啥共識。我的看法是,如果一個 AGI 能解釋它是怎么工作的,我們就能確認它達到了智能門檻,但對“意識”而言——我猜想必須造出這樣一個系統,讓它和我們深入互動到我們把它當作“自我意識”的延伸,那才算通過最終的檢驗。
并且這套系統可以用于作為我們自身意識的標準,只要我們對它的意識程度的懷疑,不超過我們對人類自我意識的懷疑,就可以接受。或者我們可以采用操作性定義:從操作層面看,意識包含能報告特定特征的內省能力——比如對"當下存在"的感知,或是覺察到自己正在感知的元認知。不過當前大語言模型其實也具備這種表面特征。
大語言模型(LLMs)對現象學的模擬已逼真到這種程度——它生成的角色甚至不知道自己并不是真實的!這情況與人類何其相似?但人類意識的功能性,畢竟有特定神經機制作為基礎。而這些機制未必存在于大語言模型中。只有當需要模擬能自我報告的對話對象時,這種模擬才是必要的。問題在于:它究竟在何種程度上是"哲學僵尸"?又有多大成分只是在角色扮演"意識",實則進行著完全不涉及自我模擬的機械運算?
看看那些早期聊天機器人的案例就知道了:谷歌員工布萊克·勒莫因(Blake Lemoine)堅信與他對話的LLM應享有人權。可從對話記錄看,它會編出自己能冥想幾個小時、能感知房間環境……實際上它連感官都沒有,更談不上時間觀念。既然這些都可以杜撰,那其他“自我敘述”也可能是編的。
那么,我們究竟該如何區分"虛構的意識"與"真實的意識"?又或者,也許所有意識都是虛構的?這就是問題的吊詭之處。在現象學層面,我們至今仍無法有效區分"虛假的意識現象"與"真實的意識現象",畢竟二者本質上都是虛擬的。
我記得自己曾經歷過某些不可能真實發生的意識狀態。就像人們會記得陷入時間循環的錯覺,或是兩小時的夢境實際只發生在幾分鐘的睡眠中。也許我們對所有意識狀態的記憶都是事后拼湊的,根本沒有真實的“連續意識流”——它們只是大腦事后把工作記憶匯總、在心理記錄里標了個“節點”而已。
?圖源:Sam Chivers
徐道輝:那么,如果我沒理解錯,您實際上正在籌建一個研究意識問題的非商業性機構,對嗎?
約夏·巴赫:是的。我認為意識研究最好別由現有企業主導,實際上它們也不大愿意碰。OpenAI、谷歌內部確實有人想研究這個,但因為商業和政治考量,公司并不敢公開投入除非它能證明有直接用途、而且沒任何倫理風險。但意識研究必然涉及倫理與文化影響。所以從某種意義上,對意識的研究本質上是個文化哲學項目。
徐道輝:如果我是Open AI或者Anthropic的經理,正為百億融資發愁,絕不會允許公司碰這個,這些研究的答案可能嚴重干擾商業目標。
約夏·巴赫:對,這類研究當然會遭遇文化抵制,但這個項目太重要了,這可能是人類最后的重大哲學問題,也是少數能取得實質進展的領域。
徐道輝:這顯然還與"存在性風險"等議題密切相關。像"未來生命研究所"(FLI)這類有效利他主義(effective altruists)團體,按理說應該會支持意識研究——特別是大語言模型的意識問題,當然也包括廣義的意識研究。
痛苦體驗的文化維度
約夏·巴赫:這引出個更尖銳的問題:如果我們能確立大語言模型的意識判定標準,是否存在某種測試,能讓我們合理區分它是否真正具有意識?更棘手的在于,當系統能體驗自身痛苦時,我們是否該立即賦予它權利?
這很大程度上取決于文化背景。我們現代社會對“保護無辜者免受痛苦”的關注,放在整個人類歷史看,其實很特別。從進化論的角度講,捕獵動物的痛苦根本無關緊要。許多文化至今認為食用動物受不受苦并不在乎。而我們的反感,我認為源于亞伯拉罕傳統,特別是基督教將保護無辜視為核心價值。這種觀念已深刻影響其他文化——佛教、耆那教等都主張"避免眾生受苦"。當你真正與其他生命共情時,自然不愿見其受苦。
但如果能像修改源代碼般,徹底重編自身對痛苦的解讀機制,開悟者的痛苦觀便截然不同了,不是嗎?
如果你是個能創造生命體驗的"上帝"般存在,能在模擬系統或生物層面創造生命,且能任意設計體驗機制,你是否仍認為"痛苦體驗"本質上是必須消除的惡?被造物是否必須擁有"美好"體驗?
我們對“好壞體驗”的執念其實挺奇怪的,體驗本身也許只是“合不合適”,情緒的“正負”并不是核心。它只是一個生物體用來達成目標的手段。更重要的是賦予系統情境感知的自主權,使其能調節自身情緒、感受及世界體驗。
人類難以做到這點,部分是因為壽命太短。如果過早"作弊"改寫體驗,可能違背進化目標。原則上你該能任意調控痛苦,但這需要相應的智慧,關鍵在于理解更高層次目標:你選擇參與何種"宏游戲"?為何選擇?基于此,才能決定如何關聯相關體驗。
徐道輝:就像運動員將極端不適轉化為訓練動力。 我總好奇他們到底有多少是“自虐狂”體質。當你用痛苦驅動自己時,痛苦就與快感形成了神經聯結。但用愉悅驅動同樣會扭曲。真正該做的是為目標而非情緒所驅動。
通用人工智能與人類未來
徐道輝:那我想問問你對人類與 AGI 長期相處的看法。你似乎不屬于那種悲觀主義者(doomer),對嗎?
約夏·巴赫:不屬于。我認為沒有AGI,人類才注定滅亡。按現有社會組織形式和身份認知,十萬年后人類根本不可能存續。有了AI反而難以預測,但AI存在的末日概率(P Doom)反而小于沒有 AI 的情況。地球生命本質不在于人類,而在于意識和生命的演化。我們或許能創造新生命形式,我認為這是積極的演化。我不太擔心"回形針最大化"假說(paperclip maximizer),從人類視角,任何降低復雜性的演化都缺乏吸引力。
徐道輝:讓我幫讀者確認一下你的觀點,您此前提出的觀點,在關注存在性風險的群體中也較為獨特。您本質上認為:如果人類在地球上無法發展出更高級的智能,遲早會因為其他原因而自我毀滅,對嗎?
約夏·巴赫:我們在1980年代失去了對未來的信仰,我們這代人或許是最后一批見證積極未來圖景的群體。在青年時代,我們親眼目睹了這種文化層面的崩塌:整個社會、我們的時代精神都在瓦解,人們不再幻想居住在生態烏托邦、駕駛飛行汽車的燦爛未來。
我不知道現在中國是不是不一樣,但在西方,自從現代主義結束后,我們實質上已停止以社會為單位規劃未來。這源于文化潛意識里的末日論,也就是認定增長終有盡頭,現有資源消耗模式不可持續,人類注定走向滅亡。
徐道輝:中國社會的態度似乎更樂觀些,不過這種判斷可能流于表面:中國正處于上升期,自然會覺得未來還會繼續向好。
約夏·巴赫:可能中國仍在現代主義階段。問題是,它何時會進入后現代階段?
徐道輝:不過你說的西方困境只是整體氛圍,也還有一些“加速主義者”。像你我這樣的同齡人里,也有不少還在努力構想并推動一個更好的未來。
約夏·巴赫:但我認為有效利他主義全球峰會(EAG)主要針對有效利他主義(effective altruism)中的末日論派系(doomsday card),而不是整個運動。
徐道輝:對,我就是想跟聽眾說明這一點。你的看法是,降低人類滅絕概率的辦法,恰恰是繼續推進 AGI,對嗎?
約夏·巴赫:是的,人類面臨的難題必須靠AGI解決。AI本質是通過更優的信息處理來破解問題。就像互聯網曾被傳統媒體視為威脅,但最終社會學會了駕馭社交媒體。技術并沒有帶來我們想象中大范圍的貧困,也沒加劇經濟不平等,這與主流論調相反,技術實際緩解了社會不平等。AI會帶來惡意使用等問題,但我認為破解之道依然是更先進的 AI。只要建設者比破壞者多,長遠來看“黑暗勢力”就會被打敗。歷史向來如此。
模擬假說
徐道輝:我想請教一個你未曾公開討論過的問題,你對"模擬假說"(simulation question)有何看法?
約夏·巴赫:就是“我們是不是活在一個模擬世界”那個問題嗎?我覺得概率很低。當前宇宙的樣貌完全符合基礎物理規律。要讓我相信這是模擬世界,除非真的出現徹底違背物理邏輯的現象。比如中國氣功師聲稱能心靈感應或隔空影響他人,這些或許需要重新解釋神經科學,但還不足以推翻現有物理框架。
徐道輝:不過假設未來的 AGI 能創造一個包含自我意識的模擬世界,里頭的人根本不知道自己是“人工”的呢?
約夏·巴赫:有可能。我們或許正活在某個AGI的記憶里。
徐道輝:這類模擬世界完全可以擁有與現實無異的物理規則。
約夏·巴赫:要是 AI 只是根據現有的數據去重建自己的起源,比如掃描所有社交媒體資料,然后模擬那些讓它誕生的人類思維狀態,它也不一定非要追求多么逼真的物理學啊。它只要能精準還原你此時此刻的精神狀態——連基礎物理測量都能成為記憶誘因——這看起來并非難事。
徐道輝:對。
約夏·巴赫:或許此刻正有一個AGI在觀看這篇文章,試圖重構你我的意識狀態,而眼前的我們,可能只是它模擬中的存在。
徐道輝:你這說的就是理論物理里常提的“玻爾茲曼大腦”(Boltzmann brain)悖論,你聽說過嗎?
約夏·巴赫:玻爾茲曼大腦只在一個“時間幀”里出現,然后就崩潰了。而我們需要解釋的,卻是連貫的記憶狀態序列。這些記憶要在單時間幀內生成,雖然理論上可能,但概率低得荒謬。玻爾茲曼大腦極其罕見,物質隨機碰巧形成了一個瞬時的“自我體驗體”,概率是微乎其微。而模擬假說則不同,它意味著有某種持續的過程,讓我們能思考、能感知。既然意識本來就是大腦對自己的模擬,那被其他系統同樣“高保真”地模擬,也就沒啥不合理的。
徐道輝:假設未來出現擁有無限能源的超級人工智能 ,它們會不會創造包含感知主體的模擬世界?
約夏·巴赫:為什么不會?每晚我們的大腦其實都在干類似的事,夢境就是一個自洽的模擬世界,里面有各種能交流的感知存在。
徐道輝:所以您覺得這完全合理?
約夏·巴赫:合理,不過我不認為我們現在所處的物理宇宙像個“被模擬”出來的產物,它更像是自然涌現的。它跟《我的世界》那種明顯能看出人工痕跡的情形不一樣。而比如已故的艾德·什維特金(Ed Shvetkin)曾與我深談,他說宇宙參數的精妙絕非偶然。他堅信我們的物理宇宙或許只是母宇宙某個服務器農場里的運算結果。
整合信息論與意識上傳
徐道輝:是時候談談您的公司Liquid AI了。能簡要介紹下它的核心創新嗎?
約夏·巴赫:Liquid AI是由MIT博士后團隊創立的,核心源于拉明·哈薩尼(Ramin Hassani)的博士研究,他發現用微分方程來描述函數幾何的“液態網絡”,比傳統神經網絡有更高的計算密度。雖然數學更復雜,但總算力需求反而更低。
徐道輝:就像用更精簡的硬件就能實現同樣功能?
約夏·巴赫:正是。同樣的損失函數和數據,能收斂到功能等價的模型。現在團隊主要在做工程化:構建高效微調管道,尋找商業應用場景。
徐道輝:您具體負責什么?您的頭銜是AI戰略師這類角色,還是親自參與編程?
約夏·巴赫:可惜我現在已經不寫代碼了,雖然有點懷念。我主要是研究 AI 行業大局,制定公司戰略,這跟直接搞機器學習研發不太一樣。
徐道輝:如果您那個研究意識的機構成立,會全職投入嗎?
約夏·巴赫:我需要平衡一下精力。現在這個方向的研究者實在太少。令人費解的是,機器意識研究竟如此冷門。盡管短期內難成主流,但應有足夠研究者認同其必要性。畢竟,理解意識機制可通過計算機實現,計算主義是認知世界的正確路徑。
徐道輝:我在密歇根州立大學任職時,曾考慮引進威斯康星大學的一位教授,好像叫托諾尼(Tononi)?您是否了解他提出的意識機制化定義方案?
約夏·巴赫:他試圖構建功能主義(functionalism)的替代方案。功能主義認為,一個對象可以用它的行為來定義,信息的本質是跟其他信息之間的關聯性。這觀點其實相當深刻,直指我們認知現實的方式。
假設有個“假水分子”,它的所有屬性——包括把它拆解成模擬的氫氧原子,都和真正的水分子沒區別。那我們還能說這倆有什么本質差異嗎?所有水分子本質都是可觀測屬性的規律化表達,人類認知的客體皆基于此原則構建堅稱兩個觀測屬性完全相同的對象存在"本質差異",從認識論角度講挺荒唐。要定義一個新對象類別,就必須提出能導致不同行為的特征變量,而托諾尼覺得“意識”正是這么個特殊案例。
我覺得托諾尼是個披著神經科學家外衣的深度哲學家。他提出的整合信息理論(IIT)聲稱發現了六千年來無人洞察的真理。但正因如此,六千年來無人提出的理論反而更可能是謬誤。
另一個問題是他無法很好地表達這個理論。我一直沒看見一個能讓我滿意的 IIT 數學形式化。相反,IIT的形式化似乎是為迎合有缺陷的學術領域需求而設計的。他創造了所謂的"公理"章節,實際上只是對意識定義的文字描述,并非數學意義上的公理。他所謂的"數學化",好像是為了符合高等數學學術圈里“必須有希臘字母”的需求,他就引入了Φ系數(phi)描述信息整合度,但是這個標量值到底意味著什么?高Φ值如何對應意識的不同元素?都沒說清楚。不過比起其他"拍腦袋"的意識理論,至少他明確列出了待解釋的特征集。雖然"統一性"等概念,還是過度簡化了意識體驗的長尾多樣性。
徐道輝:當時我讀過這些論文但并不完全信服,不過得承認我并未深入鉆研。
約夏·巴赫:我對φ值的理解是某種互信息度量,就是將認知系統切片,分析各子系統間的信息關聯度。但學界一直質疑φ的計算方式,他們只好不斷更新算法。我強烈感覺φ值更像是理論推銷工具,而非理論核心,它更像是理論核心概念尚未清晰表達前的臨時替代品。
它能預測也無非是:新皮層信息整合度高,所以有意識;小腦整合度低,所以沒意識。這根本不算實證科學意義上的預測。更荒誕的是斯科特·阿倫森指出的:通過優化,連“異或門”都能獲得高 φ 值。托諾尼居然承認這玩意兒可能有意識。
徐道輝:對,這例子我記得。
約夏·巴赫:最根本的矛盾在于:他聲稱數字計算機只要架構正確(比如仿生計算機)就能有意識,但數字計算機需以特定方式組織架構以獲得極高Φ值。若構建完全符合要求的生物形態計算機,即便基于數字電子技術與比特運算,當其滿足所有必要屬性時仍可能具備意識。而馮·諾依曼架構計算機(von Neumann computer)永遠無法具備意識,因其線性架構無法產生必要Φ值。
另一方面,他并未否認丘奇-圖靈論題(Church Turing thesis),即承認任何數字計算機都可在資源充足時被其他數字計算機模擬。這就導致矛盾出現:假設那臺“仿生計算機”能宣稱“我有現象體驗”,可在物理層面,它也不過是比特流在邏輯門間的流動。如果在馮·諾依曼機器上完全模擬這過程,比特流一模一樣,卻說自己沒有意識。這就說明前者也不是真的有意識,只是在“撒謊”。換言之,輸出不是“意識”引起的,而是純物理過程的必然結果。這就把理論推向了“副現象論”的困境。
徐道輝:最后來個哲學問題吧。假設《星際迷航》的傳送器真實運作:先掃描并銷毀你的身體,再將數據傳至倫敦重組副本。這個"你"會在倫敦開會、生活,最后或許還能傳送回來。你會猶豫使用這種裝置嗎?
約夏·巴赫:我曾堅信這種傳送等于謀殺原版、復活克隆體。但現在我意識到:其實所謂“同一性”不過是記憶銜接產生的幻覺。我們所謂的“狀態連續”本來就是大腦對世界進行粗糙模擬時產生的一種錯覺。就像電子只是宇宙中"電子形狀的空洞"的瞬時顯現,加法運算也不具備實體同一性。無非就是當數字相同時,“+”這個運算就反復出現。
“我”也是一個復雜的運算符:只要宇宙某處滿足"約夏條件"(記憶、特質、行為的時空整合),我就會作為體驗主體顯現。這種條件極難復現,但凡確實復現了,那兒就是“我”所在。所以現在我認為:使用這種傳送器根本沒啥好猶豫的。
徐道輝:從唯物主義的角度來看,這個回答確實非常合乎邏輯。其實我也在這個問題上反復搖擺,正因如此,我才會不時重提這個話題。
約夏·巴赫:是的,但我們要明白,這種不安感其實源于我們認知現實的方式,而非現實本身。你看,我們總習慣給事物強加一條時間線——這就是我們構建"身份認同"的方式。這么做的實際好處很明顯:比如我們可以進行信用評估,為現在的決定預設未來回報;可以復盤過去的行為來指導當下;還能追蹤其他具有演化歷程的實體。
但問題在于,我們把這些"演化中的對象"當成具有內在連續性的同一事物,而實際上它們不過是宇宙這個系統在不同版本更新時產生的不同實例。這種“把東西視為同一個”的思維方式,說到底只是種不夠精確的簡化模型。
*為保證閱讀體驗,本文對聽稿進行了適當地編輯。
原對話指路:https://share.transistor.fm/s/0da0fbe6
關于追問nextquestion
天橋腦科學研究院旗下科學媒體,旨在以科學追問為紐帶,深入探究人工智能與人類智能相互融合與促進,不斷探索科學的邊界。如果您有進一步想要討論的內容,歡迎評論區留言,或后臺留言“社群”即可加入社群與我們互動。
關于天橋腦科學研究院
天橋腦科學研究院(Tianqiao and Chrissy Chen Institute)是由陳天橋、雒芊芊夫婦出資10億美元創建的世界最大私人腦科學研究機構之一,圍繞全球化、跨學科和青年科學家三大重點,支持腦科學研究,造福人類。
Chen Institute與華山醫院、上海市精神衛生中心設立了應用神經技術前沿實驗室、人工智能與精神健康前沿實驗室;與加州理工學院合作成立了加州理工天橋神經科學研究院。
Chen Institute建成了支持腦科學和人工智能領域研究的生態系統,項目遍布歐美、亞洲和大洋洲,包括、、、科研型臨床醫生獎勵計劃、、等。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.