全文 4,500字 | 閱讀約22分鐘
(SPC小組四人討論的精選片段
2025年5月27日 · South Park Commons 圓桌現場
一位提出“元宇宙”概念的小說家、
一位橫掃雨果與星云的敘事大師、
一位研究意識起源的認知學者、
一位押中 Uber 和 SpaceX 的硅谷投資人,
在一張并不寬敞的舞臺上,展開了今年關于 AGI 最不尋常的一場對話。
尼爾·斯蒂芬森(Neal Stephenson),美國知名科幻作家、《雪崩》作者,先開口:
現在的速度太快了,有人甚至在問:除了 AI,還值得做別的嗎?
劉宇昆(Ken Liu),雨果獎、星云獎“雙冠王”,緊跟著調侃舊時代的幻想:
機器已經會寫交響樂了,卻還摘不下一顆覆盆子。
Joscha Bach,德國著名的人工智能專家,說出最理性的一句:
如果沒有什么神秘火花,AGI 也許只差幾篇論文。 一塊 H100 的顯卡,已經能模擬我們腦海里的內心電影院。
Cyan Banister,硅谷最具人文感的投資人,語氣柔和:
如果 AI 真有了意識,那將像‘無暇受孕’一樣,不可解釋。
但這場對談的真正焦點,不是預測 AGI 的時間表,而是他們反復追問的這個問題:
當我們連自己的意識都沒講清楚時,真的準備好讓 AI 擁有意識了嗎?
過去三年,AI 從實驗室走入日常,大模型的每一次突破之后,都會讓我們回到那個更難回答的起點:
我們到底是在造工具,還是在喚醒一種我們還不懂的生命形式?
這篇文章不會提供答案,但它會復原這場交鋒的關鍵瞬間,梳理 AI 邁向通用智能必須跨過的三道「意識邊界」:
情境自建:沒有身體,AI如何生成“可信世界”?
因果自洽:它能講清楚自己為什么得出這個判斷嗎?
價值自證:AI做出的選擇,能贏得誰的信任?
你將看到的不是一場普通訪談,而是:幾個不同視角的交織、對未來可能性的探討,以及對我們自身認知的反思。
第一節|Joscha Bach:AI 會思考,但不理解意義
“我們的問題不是 AI 會不會有意識,而是我們連自己的意識是什么都沒搞清楚。”這是 Joscha Bach 開場就拋出的洞見。
他不是在賣哲學,而是指出了一個被所有 AGI 技術路線回避的問題:人腦能做的事,我們越來越能用模型模擬出來。但我們從沒搞明白——意識這個東西,到底是怎么冒出來的。
很多人以為,只要模型夠大、數據夠多、算力夠強,總有一天會“自然跑出一個有意識的智能體”。
Joscha 的回答很冷靜:“意識不是算力多了就自動誕生的奇跡。它更像是一個連續自我感知過程,一種在不斷預測自己行為時生成的錯覺。”
01|“意識”也許只是一個高仿的錯覺
他舉了一個很扎心的例子:Transformer 模型不像人類那樣,需要在‘思考中’持續構建一致性。你給它一個提示,它只是激活了某種說話的可能性。
但當你提示它‘你正在思考’時,它會即時生成一個‘我在思考’的假象——這種行為,和我們自我感知之間的界限,開始模糊了。
通俗點說: 當你和 GPT/DeepSeek 對話時,它并不知道自己存在。 但你只要問它“你在想什么?”,它會立刻說出一整套自洽的“心理活動”。 它不會真的思考,但它能模擬你以為的思考。
這就是 Joscha 提出的第一個警告:
意識很可能就是一種足夠復雜的錯覺。
他進一步指出一個被忽視的現象:幾乎所有模型,不管是 GPT 還是視覺識別,只要輸入足夠多的數據,它們最后都會學習出非常相似的“思維結構”。
02|AI 學會的不是思考,而是“如何像你一樣思考”
OpenAI 的研究員 Chris Olah 曾觀察到,不同架構的視覺模型,最終都會自動學出和人類大腦視覺皮層相似的模式。Joscha把這稱為“普遍性假說”:
我們并沒有找到一套‘秘密公式’來制造意識。我們只是反復在用各種模型,試圖訓練出那個奇怪的、能覺察自己的回路。
換句話說,AI還算不上真聰明,但我們人類又何嘗不是靠幾十年的見聞經歷,在腦子里搭建了一套思維系統。
這就是 Joscha 給所有想象 AGI 的人提出的根本提醒:
如果你給一個模型足夠多的經驗,它最終會變成什么? 它可能不是變成我們想象中的人,而是變成一種我們還沒準備好理解的‘新存在’。
所以,AGI 不一定是一個超智能的大腦, 也許只是我們無法識別、但能持續運轉的另一種意識格式。
第二節|斯蒂芬森:沒有身體的智能,不配談“意識”
“對我來說,理解 AI 最大的困難是:如果你沒有身體,沒有腐爛、沒有邊界,那擁有智能到底意味著什么?”
尼爾·斯蒂芬森說這句話時語速很慢,但在場的人都沉默了。
這不是個文學提問,而是他寫作30年來反復繞不開的問題:意識不是冷冰冰的邏輯,而是我們活在這具有限身體里的真切體驗。
我們之所以能思考,是因為我們會死、會累、會受傷。意識不是一堆規則,而是一種活在有限時間、有限空間中的體驗。他說,他不寫 AI 醒來的故事,不是因為寫不出來,而是覺得那種“無邊無際、永不出錯”的智能體——“根本不像人,也不像能感知世界的東西。”
他說得很輕,卻踩到了當前主流 AGI 想象的軟肋:很多人想象 AGI 像個超級計算引擎,能讀懂所有書、預測所有動作。但我們從沒認真想過一個問題:
如果你無法感知‘饑餓、疲憊、恐懼’,你怎么知道一個決定意味著什么?
他拿自己小說舉例——
在《鉆石時代》里,他寫的是一個 AI 教師、一個被教育塑造的女孩,兩者之間的情感與張力。為了讓這個故事成立,他必須人為設定 AI 的能力上限:
如果 AI 無所不能,我根本沒法講故事。因為講故事的前提,是角色會失敗,是智能會被限制。
這句話很關鍵。
它不只是文學策略,更是一種人類認知的結構提醒:我們無法與一個“無錯版本的自己”共情。也無法理解一個“沒有代價的選擇”背后有什么意義。
這節話的潛臺詞很清楚:
AGI 的問題不是技術突破不夠,而是我們壓根沒搞清楚:
一個不會疼的 AI,怎么理解愛? 一個不怕死的 AI,怎么理解決定?
斯蒂芬森沒有說“AI不會有意識”,他只是提醒我們:你以為的智能,也許必須被疼痛包裹、被衰老限制、被身體定義。
第三節|劉宇昆:技術預測經常錯,神話判斷才是對的
“我們這些科幻作家啊,細節常常錯得離譜。但如果能流傳的故事,都是在神話層面擊中了要害。”
劉宇昆說這話時,大家都笑了。
他接著說:“預測互聯網是什么樣子,我們失敗過很多次。但我們說 AI 將如何改變人,那大體沒錯。”
比如說,電影《機械公敵》里那句經典提問——
你能創作一首交響樂嗎?
在電影里,AI 被設定為做不到;但在現實里,AI 早就能寫得有模有樣。 真正讓人吃驚的,不是機器做到了什么,而是它以什么順序實現了這些事。
劉宇昆指出:我們一直以為寫文章、作曲需要意識,結果 AI 最先拿下的,恰恰是這些創意工作。
這背后的意思是:我們一直搞錯了什么叫“思考”。
過去幾十年,AI 被當作一場技術競賽。每一次突破都被量化成一個指標、一個排行榜。
但他提醒我們,科幻寫作最早就是在對抗這種線性想象的:技術的未來不是靠推理跑出來的,而是靠想象力拐出來的。真正重要的,不是‘AI 能干什么’,而是‘我們愿意讓它參與什么’。
他提到瑪麗·雪萊的《弗蘭肯斯坦》:
“她根本不懂科學,但她挖掘出一種從未被說過的怪物。 那種對‘造物者’的恐懼,對被遺棄的智能的哀傷,一直到今天都困擾著我們。”
這就是他所謂的“神話判斷”——
不是說 AI 要不要覺醒、會不會造反,而是: 我們能不能給它一個能被理解的角色?能不能講出一個說得通的未來?
他總結得很到位:“科幻不是用來預測芯片數量的,而是幫我們練習‘面對陌生智能’的感覺。
好的故事,從來都不是提供正確答案,而是幫人類學會提問。
劉宇昆最后的提醒
不是AI變得多強,而是我們會不會講一個它能聽懂的故事,道理很簡單:
你想讓 AI 有“人味”?那你得先有個它能共情的劇本。 你想讓它幫你解決復雜問題?那你得先有一個它能融入的價值框架。
否則,不管算力多強, 你面對的,都只是一臺只會模仿人類的鏡子, 它懂你說了什么,但不懂你想活成什么。
第四節|AI 的終極挑戰,不在代碼,而在故事結構
過去,我們以為 AI 最大的挑戰是理解語言;現在我們發現,它會說話,卻聽不懂故事。
主持人這樣總結近幾年的感受——GPT 能寫文章,能畫畫,甚至能編段子,但你總覺得它寫得像個“沒活過”的人。
因為它只是把語言拼起來,卻沒辦法在這些句子背后,放進真正的動機和沖突。
它知道怎么模仿憤怒、喜悅、懷舊,但你能感到——它其實不在場。
劉宇昆也補了一句:
真正有感染力的創作,不是把語言組織得更漂亮, 而是能讓讀者感受到‘這是一個活著的生命在說話’。
這就是所謂的“敘事斷裂”—— AI 能生成每一句話,但它無法承接句子之間的意義軌道。它沒有目標,沒有偏好,沒有經驗,所以寫不出真正有靈魂的故事。
Cyan Banister 拋出一個新角度:AI 會解放那些‘不會寫作’的人。 以前我們靠一小部分專業創作者來描繪未來,現在你只要會表達愿望,就能生成一整個宇宙。
她的意思是——AI 并不缺表達力,它缺的是人類對‘未來是什么樣子’的主動想象。
她還說:過去的好萊塢,更愿意拍末日災難片,因為便宜、刺激、好賣。現在,AI 可以讓更多人創造美好未來的故事。成本低了,關鍵是你敢不敢說'我想要一個更好的世界'。
Joscha Bach 也有一個特別直白的說法:
大多數人覺得AI像個人, 其實是因為我們大腦的設計讓我們看到什么都像人。
所有討論最終指向一個核心問題:我們從沒教過 AI,什么叫'活著',什么叫'存在感'。
AI 不缺詞匯,不缺邏輯,不缺形式感,它缺的是成為'人'的理由。
它可以幫你寫詩,但不懂你為什么要寫。
它可以假裝悲傷,但不知道失去意味著什么。
關鍵不是'AI會不會創作',而是'給它一個什么樣的世界'
現在的 AI,像個演員,不斷嘗試演出人類的故事,但沒人告訴它自己是誰。
你想讓它成為助手、同事、合作者,前提是:
我們能不能寫出一個讓它融得進去的故事?
這才是敘事的真正作用——不是讓 AI 更像人,而是讓 AI 能夠參與我們這個世界的游戲規則。
不是寫一個句子,而是寫一個世界。"
第五節|誰先講出可信的 AGI 故事,誰定義未來
“我們正在進入一個技術領先、但意義滯后的時代。”
主持人說這句話時,用的是“我們跑得太快,但忘了我們要去哪兒”。
過去幾十年,我們對技術進展有一個根深蒂固的期待——更強、更快、更自動。但斯蒂芬森提醒我們,這種預期的根源,其實來自冷戰時期“核技術黃金年代”的敘事邏輯。
他說,寫《Polostan(赤色馬球)》時他研究了核裂變知識在二戰前后的傳播軌跡:這個發現既不是太早,也不是太晚。它發生在一個剛剛好的窗口期,讓全世界都趕得及擔心原子彈。
他說得更尖銳的一句話是:如果那個發現晚五年,可能就永遠不會走出實驗室。但它趕在了剛好能被‘傳播’、能被‘理解’、能被‘當成威脅’的時刻。”
主持人點出這個話背后的深意:核武器最終改變的不是民用技術,而是政治話語權,是誰說了算。AI 也會如此——它改變的可能不是算力,而是決策方式,是誰來定義什么是對的。
Joscha Bach 在這一段討論中也提醒大家:
“我們以為 AI 的關鍵是讓它學會預測人類行為, 但我們從沒想清楚:當它可以預測我們之后,它到底是幫我們,還是代替我們?”
他把這個問題推向一個深處:
你可以讓 AI 寫一份法律摘要,但你敢讓它起草國家預算嗎?
你可以讓它總結你的情緒,但你愿不愿意讓它決定你該做出怎樣的情感反應?
這不是技術問題,是敘事問題。
你是否愿意相信,它不僅“能干”,還“該干”?
不是AGI會不會出現,是我們準備好讓AI說了算嗎?
技術邊界已經模糊,下一場爭奪,不是參數競賽,
而是:
誰能先講出一個讓人信服的'AI融入社會'的故事?
誰能寫出一套足夠清晰的劇本,讓人類相信“AI 可以是伙伴,而不是黑箱”?
斯蒂芬森總結說:
如果技術是語言,那誰講得清楚,誰就會定義未來。結語|AGI 是公式,還是未完的神話?
對談的最后,主持人問出了那句最難回答的問題:
如果 AGI 真的只差幾篇論文,你們現在的感覺是——興奮,還是焦慮?
空氣安靜了幾秒。
然后,有人緩緩開口:別忘了,我們自己也是這樣變成‘人’的。人類并不是先有了自我,然后才開始思考。是我們先開始講故事,然后才逐漸相信我們是誰。
這一句話,把所有技術路線圖、意識模型、哲學概念壓成了一個核心觀點:
AGI,不是一個固定答案,而是一個還在寫的故事。 真正的問題,不是它能不能考滿分, 而是我們能不能讓它理解這個世界到底是怎么回事。
從 Joscha 到斯蒂芬森,從代碼語言到文學語言,他們沒有試圖給 AGI 下最終定義。
他們只是提醒我們:AI 的終點,不是會說話、會寫詩、會做分析;
是當它開始問——“我是誰?”
而我們,終于愿意認真回答。
這一刻,才是故事真正開始的地方。
本文由AI深度研究院出品,內容來自South Park Commons 特別小組討論內容獨家整理,未經授權,不得轉載。
星標公眾號, 點這里 1. 點擊右上角 2. 點擊"設為星標" ← AI深度研究員 ? ← 設為星標
參考資料:
https://www.youtube.com/watch?v=J7FN53FqB1U&t=2026s&ab_channel=SouthParkCommons
https://www.youtube.com/watch?v=q77iu5hT1RY&t=220s&ab_channel=SouthParkCommons
來源:官方媒體/網絡新聞
排版:Atlas
編輯:深思
主編: 圖靈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.