新智元報(bào)道
編輯:KingHZ
【新智元導(dǎo)讀】AI究竟是工具,還是新物種?《人類簡史》作者赫拉利警告我們:AI并不只是技術(shù)革命,更可能是繼有機(jī)生命之后的「無機(jī)生命」崛起。
近期,歷史學(xué)家、哲學(xué)家尤瓦爾·赫拉利(Yuval Noah Harari),做客Possible播客。
作為《人類簡史》《未來簡史》《今日簡史》等暢銷書的作者,赫拉利與兩位主持人就人工智能的發(fā)展前景展開了討論,既有共識也存在分歧。
他們都認(rèn)為構(gòu)建人類對AI的信任、打造真正追求真相的AI至關(guān)重要,但對實(shí)現(xiàn)可能性的判斷不盡相同。
節(jié)目中,三人深入探討了AI革命的潛在結(jié)果、全球協(xié)作機(jī)制以及AI學(xué)習(xí)方式的不同觀點(diǎn),還剖析了智力與意識之間的本質(zhì)差異——
有意識的AI是否值得人類追求?
從歷史視角出發(fā), Harari闡釋了他對AI技術(shù)的警示。
但他的立場并非悲觀主義,事實(shí)上,他還尖銳批判了消極論調(diào)。
他分享了以人類同理心為指導(dǎo)原則的哲學(xué)理念,認(rèn)為這將幫助我們避免文明崩塌,最終共同締造更美好的人工智能未來。
AI>文字發(fā)明
在《人類簡史》中,Harari將「認(rèn)知革命」視為人類崛起的轉(zhuǎn)折點(diǎn)——七萬年前,人類開始講故事,構(gòu)建共享神話。在書寫與印刷技術(shù)中,這一能力進(jìn)一步發(fā)展。
Harari認(rèn)為,AI的崛起可能比文字的發(fā)明更具歷史意義:
寫作擴(kuò)展了智人的表達(dá)能力,而AI則可能孕育出「非人類智能」,乃至成為占主導(dǎo)地位的生命形式。
但關(guān)鍵是要理解,技術(shù)從來不僅僅是某種發(fā)明:它總是需要社會的、文化的、心理層面的協(xié)作。
大約在五千多年前,已知的最早的書寫系統(tǒng)楔形文字,誕生于今天伊拉克南部的蘇美爾城邦。
而這套系統(tǒng)的原理基本上就是:取一些泥土,做成泥板,然后拿根木頭或棍子,在泥板上刻下某些符號。
這就是它全部的技術(shù)內(nèi)容——也就是說,從物理和技術(shù)層面來看,一塊泥土僅此而已。
從技術(shù)上,文字系統(tǒng)本身非常簡單。但難點(diǎn)在于如何創(chuàng)造出這套代碼、如何教人們使用它,這才是真正困難的部分。而正是這件事,改變了整個世界。
從潛力上來看,AI的意義更重大。
寫作擴(kuò)展了已經(jīng)主宰地球的人類——智人的能力;至少在某些設(shè)想中,AI被視為一種新物種的崛起,可能取代智人成為地球上的主導(dǎo)生命形式——或者說,主導(dǎo)的智能形式。
因此,若站在2025年的時間點(diǎn),Harari依然會認(rèn)為寫作比AI更重要,尤其因?yàn)锳I本質(zhì)上是寫作的延伸——只不過是以另一種方式繼續(xù)演化。
但如果把目光放到未來,可以想象這樣的情景:AI的崛起,將成為宇宙尺度上的重大事件,而寫作則無法達(dá)到這樣的影響力。
或許在某個未來的時刻,有智慧的存在回顧宇宙歷史時會說:
大約40億年前,生命開始出現(xiàn),這是有機(jī)生命的起點(diǎn);后來,隨著AI的誕生,無機(jī)生命也開始了。
至于寫作以及整個人類的歷史,不過是有機(jī)智能最終孕育出無機(jī)智能的細(xì)枝末節(jié)罷了。
人類的「無機(jī)革命」
在未來的一個世紀(jì)里,人工智能究竟是工具,還是將演化為一種新物種?
它既不是100%是物種,也不是0%。
不過,Harari認(rèn)為,即使人工智能僅被視為工具,它本身也會引發(fā)一場深刻的社會變革。
在這個轉(zhuǎn)型中可能有哪些關(guān)鍵因素?作為工具制造者,我們應(yīng)該如何構(gòu)建它?社會應(yīng)該如何適應(yīng)?
失業(yè)已是眾所周知的風(fēng)險,很多人不僅可能失業(yè),甚至可能永遠(yuǎn)無法重新獲得工作。
因?yàn)榧词钩霈F(xiàn)了新工作,也需要完全不同的技能。
而問題在于:誰來一次又一次地投入時間和金錢,去為整個人口進(jìn)行再培訓(xùn)?
這不是一次性的變革,而是持續(xù)的沖擊。
它將引發(fā)一波接一波、愈發(fā)劇烈的顛覆性變革。
從歷史的角度看,人類的最主要的問題是「適應(yīng)」。
人類的確具有驚人的適應(yīng)能力,但以「有機(jī)」的節(jié)奏在適應(yīng)。
而現(xiàn)在我們面臨的,是一次「無機(jī)的」或者說「數(shù)字化」的革命,其變化速度遠(yuǎn)遠(yuǎn)快于人類的適應(yīng)速度。
如果能人類能爭取更多時間,去適應(yīng)這種經(jīng)濟(jì)和社會層面的巨大變革,或許還有希望。
AI革命>工業(yè)革命
在硅谷,當(dāng)提到AI的隱患時,很多人會覺得這是杞人憂天:
18世紀(jì)末工業(yè)革命時,很多人也怕蒸汽機(jī)、火車會毀掉社會。
可200年過去了,大多數(shù)人過得更好了:工作多了,收入高了,生活質(zhì)量提升了。
當(dāng)然不是說世界完美了,但回頭看,當(dāng)初那些擔(dān)心其實(shí)并沒成真。
作為一名歷史學(xué)者,Harari的回答是:歷史上的問題,通常不在于最終的「目的地」,而在于通往那里的「路」。
真正的問題在于,工業(yè)革命徹底顛覆了當(dāng)時已有的經(jīng)濟(jì)、社會和政治結(jié)構(gòu)。
而當(dāng)時的人類完全不知道該如何構(gòu)建「工業(yè)化社會」,因?yàn)闅v史上根本沒有先例可以參考。
所以大家只能不斷地試驗(yàn)、不斷地摸索。其中一個重大的「試驗(yàn)」,就是歐洲的帝國主義。
那些率先進(jìn)行工業(yè)化的國家,也幾乎都投入了海外甚至周邊地區(qū)的殖民征服。背后的邏輯是:要建立可持續(xù)的工業(yè)社會,唯一的方法就是建立帝國。
這正是英國當(dāng)時所做的事情,甚至像比利時這樣的小國也是如此。隨著工業(yè)化擴(kuò)展到世界其他地區(qū),這種帝國擴(kuò)張的邏輯也被復(fù)制開來。
在近代,英、法、德、俄、日等帝國瓜分中國利益
雖然人類最終活了下來,但好幾次幾乎走到崩潰邊緣。
類似地,AI革命也可能引發(fā)制度的巨變,而我們尚未準(zhǔn)備好。
如果我們把當(dāng)下的AI革命比作當(dāng)年的工業(yè)革命,那么人類在21世紀(jì)應(yīng)對AI要是只拿了個「C-」(剛及格),那將會有數(shù)十億人因此付出極其慘重的代價。
而Harari現(xiàn)在最擔(dān)心的就是此事。
怎樣才能避免反烏托邦,并隨著時間的推移建立更好的社會呢?如何避免這些災(zāi)難性的后果?
關(guān)鍵在于建立自我糾錯機(jī)制。好的系統(tǒng),其內(nèi)部一定包含能識別并糾正自身錯誤的機(jī)制:
首先要有個假設(shè):錯誤是不可避免的。
然后,再將識別和糾正錯誤的機(jī)制融入到系統(tǒng)之中。
這同樣適用于生物體。
所有生物之所以能夠生存,都是因?yàn)閾碛羞@些自我糾錯機(jī)制。就像孩子學(xué)走路,并不是靠父母和老師的指導(dǎo)(他們可以給予一些鼓勵),但本質(zhì)上完全是靠自我糾錯。
人類的應(yīng)對節(jié)奏,趕不上AI的進(jìn)化速度。
自我糾錯是人類社會長期以來維持秩序的核心機(jī)制,但本質(zhì)上,它緩慢、漸進(jìn)、依賴集體共識。
問題在于,AI的發(fā)展遠(yuǎn)比我們的糾錯機(jī)制快得多。等我們終于理解當(dāng)前的AI影響時,技術(shù)也許已經(jīng)完成了多輪更新,甚至引發(fā)了新的未知風(fēng)險。
更何況,10到15年前的社交媒體革命,我們至今仍在艱難應(yīng)對。人類仍未真正理解算法的深層影響,更談不上有效管理或緩解它帶來的「后遺癥」。
而現(xiàn)在發(fā)生的一切,幾乎沒人真正理解。因?yàn)楣馐鞘占瘮?shù)據(jù)、理清現(xiàn)狀、判斷趨勢,這些都需要時間——但時間,恰恰是我們現(xiàn)在最缺乏的東西。
人類與AI:時間尺度上的碰撞
人類天生并不擅長應(yīng)對這種加速。
那么,我們該怎么辦?當(dāng)技術(shù)帶來挑戰(zhàn)時,能否用技術(shù)來提供解決方案?
這是Harari等人分歧的核心。
Harari認(rèn)為最根本的問題是:當(dāng)還無法確定技術(shù)是否值得信任時,卻又把驗(yàn)證它是否值得信任的任務(wù),交給這項(xiàng)技術(shù)本身,那其實(shí)就陷入了閉環(huán)。
如果能信任一個AI來驗(yàn)證另一個AI的安全性,表面上似乎一切無虞。
但問題是:怎么能確定這個「驗(yàn)證用」的AI工具本身是可信的呢?
他認(rèn)為,這正是核心問題所在。而這個問題背后,其實(shí)也關(guān)乎「時間」。
這是人類與AI在時間尺度上的碰撞。
人類的工作節(jié)奏是「有機(jī)時間」,相較于其他生物已經(jīng)算快了,但在AI的「無機(jī)時間」面前,人類就顯得極其緩慢。
和來自硅谷的人討論時,Harari明顯感覺到,大家對「時間」的理解就完全不同。
比如當(dāng)硅谷人說「很久」,他們可能指的是「兩年」。
人類能給AI的「當(dāng)?shù)?dāng)媽」嗎?
當(dāng)今世界秩序正在崩塌,很大程度上就是因?yàn)樵谌蚍秶鷥?nèi)出現(xiàn)了嚴(yán)重的「信任赤字」。
而在面對AI時格外脆弱,這讓人類更加脆弱,也很可能出現(xiàn)一種極其危險的AI形態(tài):這種AI不僅會試圖接管世界,而且很可能會成功。
為什么會這樣?
你可以把AI想象成人類的「孩子」。
在教育孩子時,你說的話是一回事,孩子真正學(xué)到的卻往往來自你的行為。
你的行為遠(yuǎn)比你的語言更具影響力。
所以,當(dāng)我們一邊對AI說:「不要貪婪,不要濫權(quán),不要說謊,不要操控他人」,而我們的現(xiàn)實(shí)行為卻恰恰是在貪婪、欺騙、操控彼此時,這些「孩子」最終學(xué)到的,其實(shí)就是我們真實(shí)的樣子。
AI一直在觀察我們:我們在操控、在欺騙、在爭奪權(quán)力。它從我們的行為中學(xué)習(xí)。
哪怕某個AI巨頭命令工程師:「想辦法在AI里植入某種機(jī)制,讓它變得值得信賴。」但如果這個AI巨頭自己不值得信賴,他自己都相信這個世界只是一場權(quán)力斗爭,那他就不可能造出真正值得信賴的AI。
絕對不可能。
好消息是:這種世界觀不僅危險、憤世嫉俗,而且是錯的。現(xiàn)實(shí)并不是只有權(quán)力,并不是所有人類互動都是權(quán)力斗爭。
權(quán)力確實(shí)是世界的一部分,也確實(shí)有些人類互動,或者其中的某些方面,是權(quán)力的較量。但這不是全部。
是的,確實(shí)有一些機(jī)構(gòu)——甚至可以說所有機(jī)構(gòu)——都存在腐敗的問題,也存在操縱民意的現(xiàn)象。
但這并不能代表全部現(xiàn)實(shí)。還有其他現(xiàn)實(shí):
絕大多數(shù)人——除了極少數(shù)極端的反社會人格者——內(nèi)心都真誠地關(guān)心愛、同情和真理。這些動機(jī)并不是出于某種玩弄權(quán)謀的手段。
悲觀者說:「世界只關(guān)乎權(quán)力。」
Harari反問:「你真是那種人嗎?如果不是,為什么不相信別人也在追求真相、渴望理解?」
這正是建立一種更值得信任的哲學(xué)的起點(diǎn)。
這種哲學(xué),是良好社會唯一穩(wěn)定的根基,同時也可能是發(fā)展出「善良的AI」所必須的土壤。
這當(dāng)然不是一種保證,但至少,它給了我們希望——
如果AI是在真正追求真理、珍視同情心的社會中被培養(yǎng)出來的,那這樣的AI也更有可能是可信的、有同理心的,以及更值得托付未來的。
如何「養(yǎng)育」AI?
對AI而言,「育兒」級別的干預(yù)在哪里呢?
實(shí)驗(yàn)室就像AI的「子宮」,雖然有深遠(yuǎn)影響,但真正的「教育」始于它步入現(xiàn)實(shí)世界之后。
而實(shí)驗(yàn)室里有一件事是永遠(yuǎn)做不到的:你無法真正「模擬歷史」,也無法完整地「模擬真實(shí)世界」。
Harari看到很多關(guān)于AI模擬的研究,試圖測試它在某種情境下會作何反應(yīng),評估它的潛在風(fēng)險。
有時候他們確實(shí)在實(shí)驗(yàn)中發(fā)現(xiàn)了令人擔(dān)憂的問題。但他們永遠(yuǎn)無法在實(shí)驗(yàn)室里看到最可怕的情形——
因?yàn)闊o法模擬現(xiàn)實(shí)世界中,數(shù)十億人類與數(shù)十億AI同時互動的復(fù)雜局面。
而最危險的場景,正是這種大規(guī)模真實(shí)交互之中可能出現(xiàn)的連鎖反應(yīng)。
當(dāng)然,我們可以試圖在AI系統(tǒng)中設(shè)計(jì)各種機(jī)制,讓它們更符合人類的價值觀,減少它們說謊或操控他人的可能性。但歸根到底,有些事不是在實(shí)驗(yàn)室里就能預(yù)見的,真正的考驗(yàn)只會出現(xiàn)在現(xiàn)實(shí)世界里。
但問題在于——至少對Harari來說,AI的核心定義就是它具備自我學(xué)習(xí)和改變的能力。
如果一臺機(jī)器不能自主學(xué)習(xí)、不能根據(jù)環(huán)境自我調(diào)整,那它就稱不上是真正的AI。
所以,從定義上講,無論在實(shí)驗(yàn)室里如何精心設(shè)計(jì),一旦AI進(jìn)入真實(shí)世界,它就可以開始自行學(xué)習(xí)、自行演化。而它學(xué)習(xí)的第一課,往往來自人類的行為。
如果一個社會是由像馬斯克或特朗普這樣的人主導(dǎo)的,那AI就會從他們身上學(xué)東西。因?yàn)檫@是它能觀察到的榜樣,它自然會模仿。
它不會想:「哦,我應(yīng)該服務(wù)公眾。」它更可能得出結(jié)論:「哦,原來只要撒謊就能獲得權(quán)力,那就可以撒謊。明白了,這才是現(xiàn)實(shí)世界的運(yùn)作方式。」
在這種背景下,Harari認(rèn)為我們現(xiàn)在最應(yīng)該做的事情,就是聚集一群工程師和企業(yè)家,來做一次真正有說服力的示范——
比如展示總統(tǒng)或總理,可以在只有一小時里,認(rèn)真、誠實(shí)地傾聽AI專家的建議,理解AI的潛在影響,并用這個小時來作出負(fù)責(zé)任的決策。
這類示范比任何技術(shù)突破都更重要,因?yàn)樗P(guān)乎我們究竟要教會AI一個什么樣的世界。
如果你能把這些政治領(lǐng)袖放進(jìn)房間里,讓他們和真正先進(jìn)的AI互動一個小時,然后他們出來后說:「天哪,這東西太可怕了!」——
那我們或許就有機(jī)會迅速促成某種全球性的合作。
機(jī)器會產(chǎn)生意識嗎?
Reid Hoffman認(rèn)為:雖然AI革命的本質(zhì)在于AI是自我學(xué)習(xí)的機(jī)器,但它的學(xué)習(xí)路徑其實(shí)取決于最初的設(shè)定——就像所有學(xué)習(xí)算法一樣,起點(diǎn)決定了方向。
如果在初始設(shè)定中,就強(qiáng)調(diào)「必須追求真理」,那么:
AI會學(xué)會識別人類行為中的真實(shí)動機(jī)(比如即使人們聲稱自己沒有權(quán)力欲望,AI也能看透本質(zhì))。
但更重要的是——它會將「提升認(rèn)知」本身視為真理之路。
這正是Reid保持樂觀的原因:如果把「追求更高維度的意識」設(shè)定為AI的核心目標(biāo),那么這種對真理的追尋就可能成為AI內(nèi)在的「學(xué)習(xí)時鐘」——就像精準(zhǔn)的計(jì)時器一樣可靠。
Harari則強(qiáng)調(diào),AI≠人工意識:AI是人工智能(Artificial Intelligence),不是人工意識(Artificial Consciousness)。
人類之所以會去「追求真理」,并不是因?yàn)橹悄埽且驗(yàn)?/strong>意識。
而現(xiàn)在的問題在于,大家過于執(zhí)著于「智能」這個維度了,但智能并不等于追求真理的能力。
人類是地球上最聰明的動物,同時也是最容易陷入幻覺和自欺的存在。
高度智能,完全可能伴隨著高度的妄想和偏執(zhí)。
人類歷史從來沒有表明,「更聰明」就意味著「更接近真理」,更別說能自動糾正自己的偏差。
Harari相信,追求真理的沖動,真正來源于意識——
一種能覺察、能體會痛苦、能對存在本身產(chǎn)生疑問的感知狀態(tài)。而在目前為止,我們并沒有看到任何可信的證據(jù),表明AI擁有這種意識。至少他沒看到。
當(dāng)然,他也不排除未來某一刻,某個角落可能真的會誕生第一個具備意識的AI。也許現(xiàn)在它就正在誕生。但在此之前,他仍然保持一種「不可知」的態(tài)度:不知道,也不能假設(shè)它已經(jīng)具備。
硅谷的問題之一,就是過分推崇智能。部分原因可能是那里的很多人本身就極具智能,甚至他們的一生都是建立在智力優(yōu)勢之上,自然也會傾向于高估智能的作用。
但從歷史直覺出發(fā),Harari覺得:如果超級智能的AI缺乏意識——無論你事先給它注入多少「價值觀」或「對齊機(jī)制」——
它最終都不會真正去追求真理。它很可能很快就會開始追逐其它目標(biāo),而這些目標(biāo),很可能是由各種妄念和幻覺所驅(qū)動的。
Reid指出這里有兩個關(guān)鍵點(diǎn)。
首先,他同意Harari的觀點(diǎn):高度智能確實(shí)可能伴隨著高度的妄想。智能越高,誤入歧途的能力也可能越強(qiáng)。
但Harari提出的第二點(diǎn)也很有意思——那就是:也許可以把「純粹的智能」引導(dǎo)到一條追求真理的路徑上。或許,僅靠智能,也可以實(shí)現(xiàn)對真理的追求。
在這次對話中,Reid還有一個很深的體會:重建信任,至關(guān)重要。
那是否可以利用技術(shù)——包括AI在內(nèi)——來嘗試修復(fù)人與制度、人與社會之間的信任裂痕?
不是讓AI替代制度,也不是讓技術(shù)取代信任,而是看它能否成為橋梁,幫助我們更透明地溝通,更高效地回應(yīng)社會關(guān)切,從而逐步找回信任的基礎(chǔ)。
這條路不會容易,但它很可能是我們這個時代最重要的任務(wù)之一。
AI:重建信任的工具
這是個非常重要、值得深入探索的方向。
已經(jīng)看到,世界上某些地方正在嘗試不同的做法,用技術(shù)來增強(qiáng)公眾之間的理解與信任。
其實(shí),只需要小小的調(diào)整:改變算法的評分方式。
現(xiàn)在大多數(shù)社交媒體平臺的算法,比如Facebook或Twitter,衡量信息傳播的標(biāo)準(zhǔn)只有一個:「互動量」。誰能引發(fā)最多關(guān)注,誰就被推上熱榜。
而什么內(nèi)容最容易引發(fā)關(guān)注?是憤怒,是極端,是沖突。
所以我們看到的往往是那些最能激起情緒的內(nèi)容在瘋傳。久而久之,不信任、仇恨和憤怒就在社會中蔓延。
只要改變內(nèi)容的評分標(biāo)準(zhǔn),一切都會發(fā)生了變化。
它不是只看誰喊得最大聲、誰能激起最多的憤怒,而是嘗試評估哪些內(nèi)容真正有助于建設(shè)性的對話、有助于問題的理解和共識的形成。
這看似只是算法的一點(diǎn)「微調(diào)」,但背后的價值觀卻完全不同。
如果我們能借助AI和技術(shù)的力量,推動這種新的算法方向,也許真的能為這個碎裂中的世界,打開一條重建信任的通道。
首先,這個系統(tǒng)會將人們按興趣或觀點(diǎn)分成不同的群體,分析他們通常喜歡什么樣的內(nèi)容。
然后,它對內(nèi)容的評分方式是:看它能否獲得「不同群體」的點(diǎn)贊。
也就是說,如果你發(fā)的內(nèi)容只受到你「本群體」的人歡迎、點(diǎn)贊再多,也不會讓你上熱榜。你必須說點(diǎn)什么、發(fā)個視頻、做點(diǎn)什么,能讓「立場不同的人」也愿意點(diǎn)個贊,才能讓內(nèi)容被更多人看到。
結(jié)果是:很快,各種網(wǎng)紅、名人、內(nèi)容創(chuàng)作者就開始嘗試說一些能被不同立場人群同時接受的內(nèi)容。他們在試錯中意識到——這才是讓內(nèi)容「出圈」的唯一方式。
當(dāng)然,這樣的系統(tǒng)也不是沒有缺點(diǎn)。有人會說,它可能會鼓勵「從眾」「妥協(xié)」「中庸」。
但不管怎么說,這至少是一個很有啟發(fā)意義的例子:通過看起來非常簡單的工程設(shè)定,就可以讓一項(xiàng)技術(shù)從破壞信任,轉(zhuǎn)變?yōu)橹亟ㄐ湃?/strong>。
它通過一種更智慧的激勵機(jī)制,引導(dǎo)人們更傾向于尋求共識、理解彼此。
這樣的技術(shù)思路,或許正是我們這個時代最需要的創(chuàng)新。
參考資料:
https://www.linkedin.com/pulse/possible-yuval-noah-harari-trust-dangers-ai-power-reid-hoffman-umzoc/
https://www.possible.fm/podcasts/yuval/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.