新智元報道
編輯:KingHZ
【新智元導讀】AI究竟是工具,還是新物種?《人類簡史》作者赫拉利警告我們:AI并不只是技術革命,更可能是繼有機生命之后的「無機生命」崛起。
近期,歷史學家、哲學家尤瓦爾·赫拉利(Yuval Noah Harari),做客Possible播客。
作為《人類簡史》《未來簡史》《今日簡史》等暢銷書的作者,赫拉利與兩位主持人就人工智能的發展前景展開了討論,既有共識也存在分歧。
他們都認為構建人類對AI的信任、打造真正追求真相的AI至關重要,但對實現可能性的判斷不盡相同。
節目中,三人深入探討了AI革命的潛在結果、全球協作機制以及AI學習方式的不同觀點,還剖析了智力與意識之間的本質差異——
有意識的AI是否值得人類追求?
從歷史視角出發, Harari闡釋了他對AI技術的警示。
但他的立場并非悲觀主義,事實上,他還尖銳批判了消極論調。
他分享了以人類同理心為指導原則的哲學理念,認為這將幫助我們避免文明崩塌,最終共同締造更美好的人工智能未來。
AI>文字發明
在《人類簡史》中,Harari將「認知革命」視為人類崛起的轉折點——七萬年前,人類開始講故事,構建共享神話。在書寫與印刷技術中,這一能力進一步發展。
Harari認為,AI的崛起可能比文字的發明更具歷史意義:
寫作擴展了智人的表達能力,而AI則可能孕育出「非人類智能」,乃至成為占主導地位的生命形式。
但關鍵是要理解,技術從來不僅僅是某種發明:它總是需要社會的、文化的、心理層面的協作。
大約在五千多年前,已知的最早的書寫系統楔形文字,誕生于今天伊拉克南部的蘇美爾城邦。
而這套系統的原理基本上就是:取一些泥土,做成泥板,然后拿根木頭或棍子,在泥板上刻下某些符號。
這就是它全部的技術內容——也就是說,從物理和技術層面來看,一塊泥土僅此而已。
從技術上,文字系統本身非常簡單。但難點在于如何創造出這套代碼、如何教人們使用它,這才是真正困難的部分。而正是這件事,改變了整個世界。
從潛力上來看,AI的意義更重大。
寫作擴展了已經主宰地球的人類——智人的能力;至少在某些設想中,AI被視為一種新物種的崛起,可能取代智人成為地球上的主導生命形式——或者說,主導的智能形式。
因此,若站在2025年的時間點,Harari依然會認為寫作比AI更重要,尤其因為AI本質上是寫作的延伸——只不過是以另一種方式繼續演化。
但如果把目光放到未來,可以想象這樣的情景:AI的崛起,將成為宇宙尺度上的重大事件,而寫作則無法達到這樣的影響力。
或許在某個未來的時刻,有智慧的存在回顧宇宙歷史時會說:
大約40億年前,生命開始出現,這是有機生命的起點;后來,隨著AI的誕生,無機生命也開始了。
至于寫作以及整個人類的歷史,不過是有機智能最終孕育出無機智能的細枝末節罷了。
人類的「無機革命」
在未來的一個世紀里,人工智能究竟是工具,還是將演化為一種新物種?
它既不是100%是物種,也不是0%。
不過,Harari認為,即使人工智能僅被視為工具,它本身也會引發一場深刻的社會變革。
在這個轉型中可能有哪些關鍵因素?作為工具制造者,我們應該如何構建它?社會應該如何適應?
失業已是眾所周知的風險,很多人不僅可能失業,甚至可能永遠無法重新獲得工作。
因為即使出現了新工作,也需要完全不同的技能。
而問題在于:誰來一次又一次地投入時間和金錢,去為整個人口進行再培訓?
這不是一次性的變革,而是持續的沖擊。
它將引發一波接一波、愈發劇烈的顛覆性變革。
從歷史的角度看,人類的最主要的問題是「適應」。
人類的確具有驚人的適應能力,但以「有機」的節奏在適應。
而現在我們面臨的,是一次「無機的」或者說「數字化」的革命,其變化速度遠遠快于人類的適應速度。
如果能人類能爭取更多時間,去適應這種經濟和社會層面的巨大變革,或許還有希望。
AI革命>工業革命
在硅谷,當提到AI的隱患時,很多人會覺得這是杞人憂天:
18世紀末工業革命時,很多人也怕蒸汽機、火車會毀掉社會。
可200年過去了,大多數人過得更好了:工作多了,收入高了,生活質量提升了。
當然不是說世界完美了,但回頭看,當初那些擔心其實并沒成真。
作為一名歷史學者,Harari的回答是:歷史上的問題,通常不在于最終的「目的地」,而在于通往那里的「路」。
真正的問題在于,工業革命徹底顛覆了當時已有的經濟、社會和政治結構。
而當時的人類完全不知道該如何構建「工業化社會」,因為歷史上根本沒有先例可以參考。
所以大家只能不斷地試驗、不斷地摸索。其中一個重大的「試驗」,就是歐洲的帝國主義。
那些率先進行工業化的國家,也幾乎都投入了海外甚至周邊地區的殖民征服。背后的邏輯是:要建立可持續的工業社會,唯一的方法就是建立帝國。
這正是英國當時所做的事情,甚至像比利時這樣的小國也是如此。隨著工業化擴展到世界其他地區,這種帝國擴張的邏輯也被復制開來。
在近代,英、法、德、俄、日等帝國瓜分中國利益
雖然人類最終活了下來,但好幾次幾乎走到崩潰邊緣。
類似地,AI革命也可能引發制度的巨變,而我們尚未準備好。
如果我們把當下的AI革命比作當年的工業革命,那么人類在21世紀應對AI要是只拿了個「C-」(剛及格),那將會有數十億人因此付出極其慘重的代價。
而Harari現在最擔心的就是此事。
怎樣才能避免反烏托邦,并隨著時間的推移建立更好的社會呢?如何避免這些災難性的后果?
關鍵在于建立自我糾錯機制。好的系統,其內部一定包含能識別并糾正自身錯誤的機制:
首先要有個假設:錯誤是不可避免的。
然后,再將識別和糾正錯誤的機制融入到系統之中。
這同樣適用于生物體。
所有生物之所以能夠生存,都是因為擁有這些自我糾錯機制。就像孩子學走路,并不是靠父母和老師的指導(他們可以給予一些鼓勵),但本質上完全是靠自我糾錯。
人類的應對節奏,趕不上AI的進化速度。
自我糾錯是人類社會長期以來維持秩序的核心機制,但本質上,它緩慢、漸進、依賴集體共識。
問題在于,AI的發展遠比我們的糾錯機制快得多。等我們終于理解當前的AI影響時,技術也許已經完成了多輪更新,甚至引發了新的未知風險。
更何況,10到15年前的社交媒體革命,我們至今仍在艱難應對。人類仍未真正理解算法的深層影響,更談不上有效管理或緩解它帶來的「后遺癥」。
而現在發生的一切,幾乎沒人真正理解。因為光是收集數據、理清現狀、判斷趨勢,這些都需要時間——但時間,恰恰是我們現在最缺乏的東西。
人類與AI:時間尺度上的碰撞
人類天生并不擅長應對這種加速。
那么,我們該怎么辦?當技術帶來挑戰時,能否用技術來提供解決方案?
這是Harari等人分歧的核心。
Harari認為最根本的問題是:當還無法確定技術是否值得信任時,卻又把驗證它是否值得信任的任務,交給這項技術本身,那其實就陷入了閉環。
如果能信任一個AI來驗證另一個AI的安全性,表面上似乎一切無虞。
但問題是:怎么能確定這個「驗證用」的AI工具本身是可信的呢?
他認為,這正是核心問題所在。而這個問題背后,其實也關乎「時間」。
這是人類與AI在時間尺度上的碰撞。
人類的工作節奏是「有機時間」,相較于其他生物已經算快了,但在AI的「無機時間」面前,人類就顯得極其緩慢。
和來自硅谷的人討論時,Harari明顯感覺到,大家對「時間」的理解就完全不同。
比如當硅谷人說「很久」,他們可能指的是「兩年」。
人類能給AI的「當爹當媽」嗎?
當今世界秩序正在崩塌,很大程度上就是因為在全球范圍內出現了嚴重的「信任赤字」。
而在面對AI時格外脆弱,這讓人類更加脆弱,也很可能出現一種極其危險的AI形態:這種AI不僅會試圖接管世界,而且很可能會成功。
為什么會這樣?
你可以把AI想象成人類的「孩子」。
在教育孩子時,你說的話是一回事,孩子真正學到的卻往往來自你的行為。
你的行為遠比你的語言更具影響力。
所以,當我們一邊對AI說:「不要貪婪,不要濫權,不要說謊,不要操控他人」,而我們的現實行為卻恰恰是在貪婪、欺騙、操控彼此時,這些「孩子」最終學到的,其實就是我們真實的樣子。
AI一直在觀察我們:我們在操控、在欺騙、在爭奪權力。它從我們的行為中學習。
哪怕某個AI巨頭命令工程師:「想辦法在AI里植入某種機制,讓它變得值得信賴。」但如果這個AI巨頭自己不值得信賴,他自己都相信這個世界只是一場權力斗爭,那他就不可能造出真正值得信賴的AI。
絕對不可能。
好消息是:這種世界觀不僅危險、憤世嫉俗,而且是錯的。現實并不是只有權力,并不是所有人類互動都是權力斗爭。
權力確實是世界的一部分,也確實有些人類互動,或者其中的某些方面,是權力的較量。但這不是全部。
是的,確實有一些機構——甚至可以說所有機構——都存在腐敗的問題,也存在操縱民意的現象。
但這并不能代表全部現實。還有其他現實:
絕大多數人——除了極少數極端的反社會人格者——內心都真誠地關心愛、同情和真理。這些動機并不是出于某種玩弄權謀的手段。
悲觀者說:「世界只關乎權力。」
Harari反問:「你真是那種人嗎?如果不是,為什么不相信別人也在追求真相、渴望理解?」
這正是建立一種更值得信任的哲學的起點。
這種哲學,是良好社會唯一穩定的根基,同時也可能是發展出「善良的AI」所必須的土壤。
這當然不是一種保證,但至少,它給了我們希望——
如果AI是在真正追求真理、珍視同情心的社會中被培養出來的,那這樣的AI也更有可能是可信的、有同理心的,以及更值得托付未來的。
如何「養育」AI?
對AI而言,「育兒」級別的干預在哪里呢?
實驗室就像AI的「子宮」,雖然有深遠影響,但真正的「教育」始于它步入現實世界之后。
而實驗室里有一件事是永遠做不到的:你無法真正「模擬歷史」,也無法完整地「模擬真實世界」。
Harari看到很多關于AI模擬的研究,試圖測試它在某種情境下會作何反應,評估它的潛在風險。
有時候他們確實在實驗中發現了令人擔憂的問題。但他們永遠無法在實驗室里看到最可怕的情形——
因為無法模擬現實世界中,數十億人類與數十億AI同時互動的復雜局面。
而最危險的場景,正是這種大規模真實交互之中可能出現的連鎖反應。
當然,我們可以試圖在AI系統中設計各種機制,讓它們更符合人類的價值觀,減少它們說謊或操控他人的可能性。但歸根到底,有些事不是在實驗室里就能預見的,真正的考驗只會出現在現實世界里。
但問題在于——至少對Harari來說,AI的核心定義就是它具備自我學習和改變的能力。
如果一臺機器不能自主學習、不能根據環境自我調整,那它就稱不上是真正的AI。
所以,從定義上講,無論在實驗室里如何精心設計,一旦AI進入真實世界,它就可以開始自行學習、自行演化。而它學習的第一課,往往來自人類的行為。
如果一個社會是由像馬斯克或特朗普這樣的人主導的,那AI就會從他們身上學東西。因為這是它能觀察到的榜樣,它自然會模仿。
它不會想:「哦,我應該服務公眾。」它更可能得出結論:「哦,原來只要撒謊就能獲得權力,那就可以撒謊。明白了,這才是現實世界的運作方式。」
在這種背景下,Harari認為我們現在最應該做的事情,就是聚集一群工程師和企業家,來做一次真正有說服力的示范——
比如展示總統或總理,可以在只有一小時里,認真、誠實地傾聽AI專家的建議,理解AI的潛在影響,并用這個小時來作出負責任的決策。
這類示范比任何技術突破都更重要,因為它關乎我們究竟要教會AI一個什么樣的世界。
如果你能把這些政治領袖放進房間里,讓他們和真正先進的AI互動一個小時,然后他們出來后說:「天哪,這東西太可怕了!」——
那我們或許就有機會迅速促成某種全球性的合作。
機器會產生意識嗎?
Reid Hoffman認為:雖然AI革命的本質在于AI是自我學習的機器,但它的學習路徑其實取決于最初的設定——就像所有學習算法一樣,起點決定了方向。
如果在初始設定中,就強調「必須追求真理」,那么:
AI會學會識別人類行為中的真實動機(比如即使人們聲稱自己沒有權力欲望,AI也能看透本質)。
但更重要的是——它會將「提升認知」本身視為真理之路。
這正是Reid保持樂觀的原因:如果把「追求更高維度的意識」設定為AI的核心目標,那么這種對真理的追尋就可能成為AI內在的「學習時鐘」——就像精準的計時器一樣可靠。
Harari則強調,AI≠人工意識:AI是人工智能(Artificial Intelligence),不是人工意識(Artificial Consciousness)。
人類之所以會去「追求真理」,并不是因為智能,而是因為意識。
而現在的問題在于,大家過于執著于「智能」這個維度了,但智能并不等于追求真理的能力。
人類是地球上最聰明的動物,同時也是最容易陷入幻覺和自欺的存在。
高度智能,完全可能伴隨著高度的妄想和偏執。
人類歷史從來沒有表明,「更聰明」就意味著「更接近真理」,更別說能自動糾正自己的偏差。
Harari相信,追求真理的沖動,真正來源于意識——
一種能覺察、能體會痛苦、能對存在本身產生疑問的感知狀態。而在目前為止,我們并沒有看到任何可信的證據,表明AI擁有這種意識。至少他沒看到。
當然,他也不排除未來某一刻,某個角落可能真的會誕生第一個具備意識的AI。也許現在它就正在誕生。但在此之前,他仍然保持一種「不可知」的態度:不知道,也不能假設它已經具備。
硅谷的問題之一,就是過分推崇智能。部分原因可能是那里的很多人本身就極具智能,甚至他們的一生都是建立在智力優勢之上,自然也會傾向于高估智能的作用。
但從歷史直覺出發,Harari覺得:如果超級智能的AI缺乏意識——無論你事先給它注入多少「價值觀」或「對齊機制」——
它最終都不會真正去追求真理。它很可能很快就會開始追逐其它目標,而這些目標,很可能是由各種妄念和幻覺所驅動的。
Reid指出這里有兩個關鍵點。
首先,他同意Harari的觀點:高度智能確實可能伴隨著高度的妄想。智能越高,誤入歧途的能力也可能越強。
但Harari提出的第二點也很有意思——那就是:也許可以把「純粹的智能」引導到一條追求真理的路徑上。或許,僅靠智能,也可以實現對真理的追求。
在這次對話中,Reid還有一個很深的體會:重建信任,至關重要。
那是否可以利用技術——包括AI在內——來嘗試修復人與制度、人與社會之間的信任裂痕?
不是讓AI替代制度,也不是讓技術取代信任,而是看它能否成為橋梁,幫助我們更透明地溝通,更高效地回應社會關切,從而逐步找回信任的基礎。
這條路不會容易,但它很可能是我們這個時代最重要的任務之一。
AI:重建信任的工具
這是個非常重要、值得深入探索的方向。
已經看到,世界上某些地方正在嘗試不同的做法,用技術來增強公眾之間的理解與信任。
其實,只需要小小的調整:改變算法的評分方式。
現在大多數社交媒體平臺的算法,比如Facebook或Twitter,衡量信息傳播的標準只有一個:「互動量」。誰能引發最多關注,誰就被推上熱榜。
而什么內容最容易引發關注?是憤怒,是極端,是沖突。
所以我們看到的往往是那些最能激起情緒的內容在瘋傳。久而久之,不信任、仇恨和憤怒就在社會中蔓延。
只要改變內容的評分標準,一切都會發生了變化。
它不是只看誰喊得最大聲、誰能激起最多的憤怒,而是嘗試評估哪些內容真正有助于建設性的對話、有助于問題的理解和共識的形成。
這看似只是算法的一點「微調」,但背后的價值觀卻完全不同。
如果我們能借助AI和技術的力量,推動這種新的算法方向,也許真的能為這個碎裂中的世界,打開一條重建信任的通道。
首先,這個系統會將人們按興趣或觀點分成不同的群體,分析他們通常喜歡什么樣的內容。
然后,它對內容的評分方式是:看它能否獲得「不同群體」的點贊。
也就是說,如果你發的內容只受到你「本群體」的人歡迎、點贊再多,也不會讓你上熱榜。你必須說點什么、發個視頻、做點什么,能讓「立場不同的人」也愿意點個贊,才能讓內容被更多人看到。
結果是:很快,各種網紅、名人、內容創作者就開始嘗試說一些能被不同立場人群同時接受的內容。他們在試錯中意識到——這才是讓內容「出圈」的唯一方式。
當然,這樣的系統也不是沒有缺點。有人會說,它可能會鼓勵「從眾」「妥協」「中庸」。
但不管怎么說,這至少是一個很有啟發意義的例子:通過看起來非常簡單的工程設定,就可以讓一項技術從破壞信任,轉變為重建信任。
它通過一種更智慧的激勵機制,引導人們更傾向于尋求共識、理解彼此。
這樣的技術思路,或許正是我們這個時代最需要的創新。
參考資料:
https://www.linkedin.com/pulse/possible-yuval-noah-harari-trust-dangers-ai-power-reid-hoffman-umzoc/
https://www.possible.fm/podcasts/yuval/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.