導(dǎo)語:
近日,今年第4期《中國科學(xué)院院刊》刊發(fā)了由IPP學(xué)術(shù)委員會主席鄭永年教授撰寫的文章,文章標(biāo)題為《人工智能時(shí)代的社會秩序》。
文章指出,人工智能對人類帶來的挑戰(zhàn)之一是其“去智化”功能正在產(chǎn)生“人工智殘”現(xiàn)象,即由于濫用人工智能相關(guān)工具,導(dǎo)致人類自我智力傷害,從而對社會秩序產(chǎn)生深刻影響。“人工智殘”現(xiàn)象的產(chǎn)生源于人工智能的2種結(jié)構(gòu)性因素——技術(shù)結(jié)構(gòu)特性和治理結(jié)構(gòu)特征。技術(shù)結(jié)構(gòu)特性表現(xiàn)為技術(shù)能力高度集中、管控高度集權(quán)、商用者高度壟斷、使用者高度分散。治理結(jié)構(gòu)特征則表現(xiàn)為高度等級化,形成一種“牧民社會”的治理結(jié)構(gòu),即人工智能自身快速發(fā)展,加速人類自我愚昧的進(jìn)程,摧毀現(xiàn)行人類生活體制,從而逐漸扮演“牧羊犬”的角色。文章認(rèn)為,為改變這種趨勢,政府應(yīng)發(fā)揮核心作用,通過確立和強(qiáng)化政府的責(zé)任、網(wǎng)絡(luò)平臺責(zé)任、加強(qiáng)網(wǎng)絡(luò)監(jiān)測與情報(bào)收集、重塑教育與人類理性等方式,塑造人工智能時(shí)代的社會秩序。
經(jīng)濟(jì)基礎(chǔ)決定上層建筑,經(jīng)濟(jì)基礎(chǔ)也決定社會秩序。在漫長的傳統(tǒng)農(nóng)業(yè)社會,社會秩序歷經(jīng)數(shù)千年,但因沒有革命性技術(shù)的產(chǎn)生,社會秩序只有量變,而沒有質(zhì)變。近代以來,技術(shù)革命不斷導(dǎo)致經(jīng)濟(jì)革命,經(jīng)濟(jì)革命不斷導(dǎo)致社會秩序的變遷,從工業(yè)社會秩序到后工業(yè)社會秩序再到信息社會秩序。今天,人類開始進(jìn)入人工智能時(shí)代,人工智能對經(jīng)濟(jì)、社會、政治甚至國際政治的影響,越來越成為學(xué)術(shù)界和政策界的研究對象。無論是對人工智能技術(shù)本身的研究,還是對人工智能這一技術(shù)所產(chǎn)生的方方面面的影響已經(jīng)成為顯學(xué)。
盡管人工智能依然處于急速發(fā)展過程之中,但人們的共識是人工智能在賦能社會的同時(shí)也威脅著現(xiàn)存社會秩序。人工智能對勞動(dòng)就業(yè)、稅收、社會公平等方面的影響已經(jīng)引起人們廣泛的注意,但對人工智能的“去智力化”的功能還沒有引起人們足夠的警惕。人工智能是人類智力的產(chǎn)物,其崛起代表著人類智能達(dá)到了一個(gè)新的頂峰,隨著人工智能深入社會的各個(gè)領(lǐng)域,其廣泛地應(yīng)用在賦能人類的同時(shí)也在導(dǎo)致人類智力的衰變甚至衰落,這里存在著一種本文稱之為“人工智殘”(artificial ignorance)的現(xiàn)象。較之人工智能所產(chǎn)生的其他各種不平等現(xiàn)象和問題,“人工智殘”對社會秩序的影響更為深刻。這種現(xiàn)象還處于生成階段,但人類沒有任何理由去忽視它。這是一個(gè)極其嚴(yán)肅的問題。
基辛格在他的遺著《創(chuàng)世紀(jì):人工智能、希望和人類精神》中指出,人工智能時(shí)代也許不僅無法推動(dòng)人類進(jìn)步,反而可能引發(fā)一種對不可解釋的權(quán)威的前現(xiàn)代式接受?簡言之,我們是否正站在人類認(rèn)知大逆轉(zhuǎn)——“黑暗啟蒙”的懸崖邊上?可以肯定地說,如果基辛格所說的“黑暗啟蒙”發(fā)生了,那么人類不得不面對一個(gè)“人工智殘”的世界。
基辛格認(rèn)為,在人工智能時(shí)代,人類道德判斷逐步退位給技術(shù)判斷,形成治理異化。圖源:Genesis: Artificial Intelligence, Hope, and the Human Spirit
“人工智殘”現(xiàn)象
簡單地說,“人工智殘”指的是一種當(dāng)今越來越普遍的現(xiàn)象:在人工智能時(shí)代,由于廣泛和毫無節(jié)制地使用(無論是主動(dòng)使用還是被動(dòng)使用)人工智能相關(guān)的工具(尤其是基于互聯(lián)網(wǎng)的各種社交媒體)所導(dǎo)致的人類自我智力傷害。需要強(qiáng)調(diào)的是,這不是人們?nèi)粘Kf的“智障”(智力障礙),因?yàn)楹芏唷爸钦稀笔怯捎诖竽X受到器質(zhì)性的損害,或是由于腦發(fā)育不完全造成認(rèn)識活動(dòng)的持續(xù)障礙及心理障礙,具有先天性和不可避免性質(zhì),人們對這部分不幸的同胞報(bào)以同情心,也在不斷尋找醫(yī)治方法。但“智殘”則是人為的,既可以源自對工具的過度和不當(dāng)使用,也可以源自人類所創(chuàng)造的工具對人類自身的影響。
技術(shù)樂觀主義者相信,正如人類幾次工業(yè)革命所創(chuàng)造的技術(shù)一樣,人工智能也會是一種造福人類的有效工具。必須指出的是,人工智能和此前所有人類所創(chuàng)造的工具很不一樣,因?yàn)槿斯ぶ悄苷诜催^來影響人類本身的智能。盡管討論“人工智殘”這一問題有些敏感,但鑒于其快速的發(fā)展勢頭及其對人類智力的巨大負(fù)面影響,人們還是需要直面這個(gè)問題,并找到有效的糾正方法。本文并非要針對這個(gè)問題找出一個(gè)確切的解答方案,因?yàn)檫@個(gè)問題很復(fù)雜,這里只是提出問題以進(jìn)行一些初步的討論和思考。
我們不妨借用英國作家奧爾德斯·赫胥黎(Aldous Huxley)所著《美麗新世界》的概念,來形容人工智能所能導(dǎo)向的一種充滿不確定的社會秩序。筆者有3個(gè)理由:
1.盡管人工智能及其相關(guān)工具已經(jīng)迅速成為第四次工業(yè)革命的核心,各國也在千方百計(jì)地發(fā)展和使用這一技術(shù),以期通過在這一技術(shù)領(lǐng)域占據(jù)主導(dǎo)地位來主導(dǎo)下一波工業(yè)革命,但是對人類社會來說,這一技術(shù)還是新生事物,它給人類所帶來的無疑是一個(gè)“新世界”。
2.赫胥黎在《美麗新世界》一書中,探討的是技術(shù)應(yīng)用對人類社會的影響,無論是正面的還是負(fù)面的。新技術(shù)的出現(xiàn)大多是人類使用理性的結(jié)果,其目的是影響人類社會。對人類來說,既要受惠于技術(shù)的進(jìn)步,也要減少甚至避免技術(shù)對人類造成的負(fù)面影響。
3.更為重要的是本文想借討論人工智能來更新和修正一下筆者對這個(gè)問題的看法。對技術(shù)和社會之間的關(guān)系,筆者一直抱有濃厚的興趣,多年來一直在觀察和研究技術(shù)對社會變遷的影響。
2014年,筆者在《技術(shù)賦權(quán):中國的互聯(lián)網(wǎng)、國家和社會》一書,結(jié)合中國的案例,探討了互聯(lián)網(wǎng)對國家和社會的影響。當(dāng)時(shí)還處于博客時(shí)代,但互聯(lián)網(wǎng)已經(jīng)對人類社會的方方面面產(chǎn)生了深刻的影響。盡管當(dāng)時(shí)的互聯(lián)網(wǎng)對國家和社會的影響也表現(xiàn)為正、負(fù)兩方面,但筆者的結(jié)論比較樂觀,認(rèn)為作為技術(shù)工具的互聯(lián)網(wǎng)具有普遍賦權(quán)的功能,既賦能政府,也賦能社會的各個(gè)群體。但是,至少就今天的現(xiàn)狀來說,普遍賦權(quán)這一觀點(diǎn)需要得到修正了。高科技發(fā)展到人工智能的階段,其賦權(quán)的能量的確越來越巨大,但其賦權(quán)表現(xiàn)為絕對的不平等和不均衡,這種不平等和不均衡不僅表現(xiàn)在一國之內(nèi),更表現(xiàn)在國家之間。正如下文分析到的,在一國之內(nèi),人工智能對國家、對公司、對個(gè)人的賦能呈現(xiàn)極度失衡狀態(tài);對國家間來說,人工智能僅僅分布在少數(shù)幾個(gè)大國,大多數(shù)國家并沒有能力擁有人工智能。
鄭永年著《技術(shù)賦權(quán):中國的互聯(lián)網(wǎng)、國家與社會》,東方出版社出版,"IPP文庫“叢書,2014出版,譯者: 邱道隆
迄今,人們對人工智能所造成的不平等主要聚焦在就業(yè)、收入、技術(shù)的可得性等方面。但筆者認(rèn)為,這些不平等不僅存在,而且還會加劇,這些不平等也已經(jīng)成為人類揮之不去的噩夢,但從目前的發(fā)展趨勢而言,人工智能及其相關(guān)工具所產(chǎn)生的最大也是最具有危害性的不平等是人類智慧上的不平等。這種智力上的不平等并不是由人們?nèi)粘Kf的“技術(shù)不可得性”造成的。關(guān)于新興科技對社會的影響,一種普遍的觀點(diǎn)是,只有那些能夠得到這種高科技的社會群體才可以享受新興科技所能帶來的好處,而那些難以得到新興科技的社會群體則難以得到科技帶來的好處。但是,就人工智能及其工具對人類智力的影響來說,結(jié)局是恰恰相反的,即是說,這種高科技越具有可得性,使用頻率越高,使用者的智力受到的損害和傷害就越大。
人工智能的技術(shù)結(jié)構(gòu)特性
本文從2種結(jié)構(gòu)性因素來分析“人工智殘”是如何形成的。本節(jié)將在第1個(gè)層面分析人工智能時(shí)代高科技所呈現(xiàn)的結(jié)構(gòu)性因素,以及這些看似互相矛盾的因素對社會群體所能構(gòu)成的傷害。簡單地說,人工智能時(shí)代高科技呈現(xiàn)4個(gè)技術(shù)結(jié)構(gòu)特性。
1、技術(shù)能力的高度集中性(highly concentrated)
即人工智能的技術(shù)能力是高度集中的,集中在少數(shù)幾個(gè)大國的幾家大公司。就世界范圍內(nèi)看,中美兩國擁有大部分人工智能技術(shù)能力,其他國家也擁有一些,但難以與中美兩大國匹敵。再者,就中美兩國來說,美國目前擁有更多的技術(shù)能力。
今天,盡管美國公司一直在宣揚(yáng)中國在人工智能領(lǐng)域?qū)γ绹緲?gòu)成了巨大的競爭壓力,但是無論從理論還是經(jīng)驗(yàn)層面看,人工智能領(lǐng)域有意義的競爭都發(fā)生在美國的幾家大公司之間,而非中美之間。從技術(shù)端到數(shù)據(jù)端,從大模型到應(yīng)用,中國和美國的差異依然巨大。盡管最近中國DeepSeek的崛起打破了美國之前所處的幾乎壟斷地位,但需要意識到DeepSeek是基于開源的基礎(chǔ)之上產(chǎn)生的,誰都不能保證DeepSeek何時(shí)會被再超越。
再進(jìn)一步,即使在中美兩國內(nèi)部,人工智能技術(shù)也僅僅在少數(shù)幾個(gè)地區(qū)分布。在美國,大量核心的人工智能技術(shù)主要分布在2個(gè)區(qū)域:西邊從加利福尼亞州硅谷到得克薩斯的狹長地帶、東北部的波士頓—紐約區(qū)域。在中國,人工智能技術(shù)與企業(yè)則主要分布在3個(gè)區(qū)域:粵港澳大灣區(qū)、長三角地區(qū)、北京地區(qū)。一種技術(shù)的集中性到達(dá)如此的高度是近代以來所少見的。人類的第一、第二和第三次產(chǎn)業(yè)革命均表現(xiàn)為分散性,但人工智能產(chǎn)業(yè)的發(fā)展迄今卻趨向于高度集中性。
2024年,深圳人工智能產(chǎn)業(yè)規(guī)模突破3600億元,匯聚企業(yè)超2800家。圖源:新華社
在西方發(fā)達(dá)國家和地區(qū),對基于傳統(tǒng)技術(shù)之上的產(chǎn)業(yè)的反壟斷已有一套成熟的方法。一般都是通過分解一個(gè)企業(yè)以防止其取得壟斷地位,從而為創(chuàng)新和新企業(yè)的產(chǎn)生創(chuàng)造制度條件。但是,對高科技企業(yè)如何反壟斷迄今依然是一個(gè)巨大的問號。傳統(tǒng)分解企業(yè)的方法可行性不高,因?yàn)楦呖萍计髽I(yè)都基于互聯(lián)網(wǎng)之上,如果分解,就不符合信息產(chǎn)業(yè)的發(fā)展邏輯。從針對微軟公司的反壟斷案來看,現(xiàn)在針對高科技企業(yè)的反壟斷基本上采用以“開放”替代傳統(tǒng)分解的辦法。但問題在于,這種“開放”替代的實(shí)際效果反而使得這些信息產(chǎn)業(yè)變得更加龐大。
就人工智能產(chǎn)業(yè)來說,美國如今的發(fā)展已經(jīng)達(dá)到了相當(dāng)發(fā)達(dá)的程度,但至今還沒有聯(lián)邦層面的任何監(jiān)管體系,只有一些沒有多大約束力的總統(tǒng)行政命令。可以說,如果找不到有效的反壟斷機(jī)制,那么這個(gè)產(chǎn)業(yè)的集中度只會越來越高。實(shí)際上,特朗普再次執(zhí)政之后,對人工智能領(lǐng)域采取“去監(jiān)管”的政策,而這種“去監(jiān)管”的政策會進(jìn)一步把人工智能產(chǎn)業(yè)發(fā)展的集中度推到一個(gè)新的高度。
2、管控的高度集權(quán)性(highly centralized)
就是說,管控人工智能使用能力的角色是各國政府或各大公司(即平臺)。由于基于互聯(lián)網(wǎng)之上的人工智能涉及國家間的關(guān)系,涉及2種相關(guān)但又不同的安全問題:技術(shù)本身和技術(shù)使用的安全(safety)問題、國家間的安全(security)問題,即一個(gè)國家對另一個(gè)國家是否構(gòu)成威脅的問題。基于對安全的需要,管控的高度集權(quán)性不可避免。這也就是為什么互聯(lián)網(wǎng)產(chǎn)生以來人們對互聯(lián)網(wǎng)主權(quán)的討論從來沒有終止過的原因。盡管互聯(lián)網(wǎng)主權(quán)很難實(shí)現(xiàn),但各國還是千方百計(jì)地來掌控互聯(lián)網(wǎng),使其體現(xiàn)出一定程度的“主權(quán)性”。再者,國家之間的互聯(lián)互通僅僅通過一個(gè)國家一個(gè)接口或者幾個(gè)接口的方式進(jìn)行,這種關(guān)聯(lián)方式也為高度集權(quán)性創(chuàng)造了技術(shù)條件。此外,這種集權(quán)性也可以表現(xiàn)為企業(yè)形式。盡管在內(nèi)部事務(wù)上,一些美國企業(yè)擁有了某種程度的對抗國家的權(quán)力,但在國際層面,無論是主動(dòng)的還是被動(dòng)的,企業(yè)便是國家的代理人。
3、商用者的高度壟斷性(highly monopolized)
如同前面所討論的邏輯,無論商用者是政府還是企業(yè),都很容易趨向于高度壟斷性。經(jīng)驗(yàn)地看,即便使用者是個(gè)人,對于人工智能的使用也呈現(xiàn)出高度壟斷性質(zhì)。舉例來說,無論在哪里,今天的互聯(lián)網(wǎng)和社交媒體領(lǐng)域都被各個(gè)領(lǐng)域的“大V”(網(wǎng)紅)或者“大V”所構(gòu)成的小團(tuán)體所壟斷。這些“大V”及其團(tuán)體往往集聚和壟斷了大部分資源,享有物質(zhì)意義上和話語權(quán)意義上的不相稱的權(quán)力。他們往往被視為是各個(gè)領(lǐng)域的“精英”,任何東西(宗教、思想、價(jià)值觀、謊言、謠言等),一旦具有了“商用”價(jià)值(即只要有人信),他們便會趨之若鶩,毫無底線地追求流量,把某一事物的商用價(jià)值推到極端。
4、使用者高度分散性(highly diffused)
即最底端的互聯(lián)網(wǎng)使用者。互聯(lián)網(wǎng)可以說是迄今為止最具有民主性質(zhì)的技術(shù)。因?yàn)槿耸菚f話的動(dòng)物,人們必須溝通。這也就是基于互聯(lián)網(wǎng)之上的社交媒體今天如此普遍的一個(gè)原因。但是,這種技術(shù)的可得性也導(dǎo)致了個(gè)人的“原子化”。哲學(xué)家漢娜·阿倫特(Hannah Arendt)曾經(jīng)對西方極權(quán)體制下的個(gè)人“原子化”做過深刻的討論。但是,今天的情況已經(jīng)發(fā)生了巨大的變化。今天被視為高度“民主化”的互聯(lián)網(wǎng)技術(shù)導(dǎo)致了個(gè)人的極端“原子化”。在社交媒體中,人們看似通過網(wǎng)絡(luò)產(chǎn)生了互聯(lián)性,但這是虛擬的互聯(lián),因?yàn)樗麄冎g并沒有真正的溝通。在年輕群體中,很多人實(shí)際上已經(jīng)失去了語言的溝通能力,他們之間的溝通往往發(fā)生在一個(gè)人的拇指與另一個(gè)人的拇指之間。
更為重要的是,他們往往僅僅是“大V”們的商用對象,“大V”們對他們來說具有“邪教般”或者“鴉片般”的吸引力。在行為上,他們往往表現(xiàn)為現(xiàn)代版本的“烏合之眾”,表現(xiàn)出從眾、非理性、輕信、自我頌揚(yáng)、自我愚昧等特征。
人工智能對治理結(jié)構(gòu)特征
人工智能高科技的這種技術(shù)結(jié)構(gòu)特征在很大程度上也決定了第2個(gè)層面的高度等級化,即治理結(jié)構(gòu)的高度等級化。盡管社交媒體看似呈現(xiàn)出高度的扁平化,但實(shí)質(zhì)上則是越來越等級化,一種可以稱之為“牧民社會”的治理結(jié)構(gòu)正在快速形成和崛起。自從人類有意識地去發(fā)明和創(chuàng)造技術(shù)以來,一個(gè)總的趨勢是:機(jī)器越來越像人,而人則越來越像機(jī)器。因?yàn)槿耸歉鶕?jù)自己的人性來塑造機(jī)器的,機(jī)器便有了最終征服和奴役人類的機(jī)會。
實(shí)際上,世界不同的文明都有“牧民”的說法,西方的《圣經(jīng)》講“牧民”,中國的《管子》也講“牧民”。這里的“牧民”指的是統(tǒng)治者對老百姓的統(tǒng)治,需要善待老百姓。正如意大利精英政治學(xué)派(如莫斯卡、柏雷托等)所強(qiáng)調(diào)的,不管是民主的還是非民主的,任何社會都可以分為2個(gè)階層,即統(tǒng)治者與被統(tǒng)治者,前者是精英,后者是普通人。統(tǒng)治者—被統(tǒng)治者的治理結(jié)構(gòu)便是牧民社會結(jié)構(gòu)。在其《政黨》(Political Parties)一書中,德國出生的意大利社會學(xué)家米切爾斯(Robert Michels)更是論證了即使是以追求民主為目標(biāo)的政黨或者表現(xiàn)為最民主形式的政黨最終也逃避不了“寡頭政治鐵律”。
英國作家喬治·奧威爾1949年出版的小說《一九八四》更是以豐富的想象力展示出“牧民”的可能結(jié)局。實(shí)際上,自從社交媒體產(chǎn)生以來,“1984社會”已經(jīng)不再僅僅是小說中的想象,而是已經(jīng)成為現(xiàn)實(shí)。而人工智能的出現(xiàn)又在加速促成人類社會從“1984社會”向“牧羊社會”轉(zhuǎn)型。
“牧羊社會”由3部分角色組成,即牧羊人、牧羊犬和羊群。今天,就人工智能的發(fā)展水平來說,它已經(jīng)有能力扮演或者已經(jīng)在扮演著“牧羊犬”的角色。馬斯克在其“星鏈”達(dá)成第7000顆衛(wèi)星部署后,曾在社交媒體平臺X發(fā)文稱:“星鏈”現(xiàn)在構(gòu)成所有現(xiàn)役地球(軌道)衛(wèi)星的約2/3。有能力思考的人們需要看到這一發(fā)展趨勢背后的含義。“星鏈”計(jì)劃具體是由美國太空探索技術(shù)公司實(shí)施的,它具備政府所具有的公共性,馬斯克擁有絕對的權(quán)力。
SpaceX的“星鏈計(jì)劃”將在2027年前將4.2萬顆衛(wèi)星送入低軌。圖源:新華社
人工智能之所以能夠扮演“牧羊犬”的角色,主要有3個(gè)原因。
1、人工智能技術(shù)本身的快速進(jìn)步
盡管人類已經(jīng)在各個(gè)方面感受到了人工智能對社會造成的沖擊,但人工智能依然處于快速發(fā)展過程之中,并且越來越像人類本身。
2、這里所說的人類的自我愚昧進(jìn)程加快
對絕少數(shù)人來說,人工智能是智能,而對大多數(shù)人而言,是“人工智殘”。這里尤其需要強(qiáng)調(diào)一個(gè)知識界的“異化”現(xiàn)象,因?yàn)榻詠碇R界一直被視為是理性的最重要的來源。如同其他領(lǐng)域,今天在知識和智慧領(lǐng)域也出現(xiàn)了“劣幣驅(qū)逐良幣”的現(xiàn)象。美國學(xué)者霍夫斯塔特(Richard Hufstadter)20世紀(jì)60年代的作品《美國生活中的反智主義》這幾年在很多國家再次流行開來并不難理解,因?yàn)樽妨髁俊⒎蠢硇浴⒄f假話幾乎已經(jīng)成為全球性現(xiàn)象。不過,應(yīng)當(dāng)指出的是,今天知識所面臨挑戰(zhàn)的嚴(yán)峻程度并非霍夫斯塔特的“反智主義”這一概念所能形容的。在霍夫斯塔特的描述中,反智主體是傳統(tǒng)的宗教、政治、商業(yè)和教育體制等;但在今天,除了這些主體之外,知識界本身不僅也加入了反智浪潮,更是趨向于成為反智主體。應(yīng)當(dāng)強(qiáng)調(diào)的是,在知識領(lǐng)域,“劣幣驅(qū)逐良幣”對“劣幣”來說絕對不是好消息。如本文前面所討論的,迄今人們只關(guān)注人工智能所能造成的物質(zhì)和制度層面的不平等,但實(shí)際上,人工智能對人類最大的沖擊是智慧的不平等。人類利用人工智能自我傷害的趨勢繼續(xù)下去,最終的結(jié)果必然是重返“奴隸式依賴”。
《美國生活中的反智主義》,克諾夫出版社,1963年版。此書出版后立刻受到美國學(xué)界的熱捧。
3、人工智能在快速摧毀此前保障人類生活正常進(jìn)行的所有體制
2024年9月5日《紐約時(shí)報(bào)》刊發(fā)的《》指出,
“隨著技術(shù)使信息傳播變得比以往任何時(shí)候都更容易,注意力成了一種稀缺資源,隨之而來的注意力爭奪戰(zhàn)導(dǎo)致了有害信息泛濫。但戰(zhàn)線正從注意力轉(zhuǎn)向親密。新的生成式人工智能不僅能生成文本、圖像和視頻,還能與我們直接交談,假裝人類”。
實(shí)際的情況可能比該文章描述得更為糟糕。在很大程度上,人工智能賦能的社交媒體已經(jīng)導(dǎo)致美國傳統(tǒng)民主形式的死亡。民主是否能夠在人工智能賦能的社交媒體時(shí)代得以生存和發(fā)展是一個(gè)很大的問號。不僅僅是選舉制度,所有其他制度都經(jīng)歷著嚴(yán)峻的考驗(yàn)。而一旦失去這些傳統(tǒng)制度的保護(hù),人類無疑將處于一個(gè)極度“個(gè)體化”的原子狀態(tài)。人們可以說,舊制度的消亡是必然的。的確,任何制度必須與時(shí)俱進(jìn),否則就會消亡。人工智能已經(jīng)顯示出其強(qiáng)大的制度毀滅能力,但人們?nèi)晕窗l(fā)現(xiàn)其制度建設(shè)能力。在新制度確立遙遙無期的情況下,個(gè)人的“原子化”趨于加快和加劇。
2024年9月6日,紐約時(shí)報(bào)發(fā)表知名作家、歷史學(xué)者尤瓦爾·赫拉利的文章《對人工智能的癡迷可能導(dǎo)致民主的終結(jié)》
不難理解,當(dāng)今社會的“牧民”特征越來越明顯。盡管在社交媒體上,每個(gè)人都可以說話,都可以各抒己見,但就其本質(zhì)而言,社交媒體已經(jīng)出現(xiàn)個(gè)人匯總成為“會說話的羊群”的局面。人性最光輝的一面——理性逐漸消失了,而最丑陋的一面——非理性得到張揚(yáng)。這在很大程度上已經(jīng)威脅到人類共同體的生存和發(fā)展。
人工智能時(shí)代正在惡化2種不平等——國家內(nèi)部各社會階層之間的不平等和國家之間的不平等。應(yīng)該說,很多國際組織和國家政府正在為如何解決這些不平等冥思苦想,也在作不同的努力來控制和減少這些不平等。但在社交媒體上呈現(xiàn)的則是另外一番景象。各種基于社交媒體之上的群體張揚(yáng)的是階層階級之間的仇恨、民族種族之間的仇恨和國家之間的仇恨,“商用民粹主義”“商用愛國主義”和“商用民族主義”情緒深入到了社交媒體的各個(gè)角落。更為嚴(yán)峻的是,對那些“大V”來說,他們這樣做的目的是“商用”,即由流量產(chǎn)生的利益,但對很多他們的追隨者(也就是“羊群”)來說,則是信仰、是行動(dòng)。仇官、仇富、仇(不同的)宗教、仇(不同的)價(jià)值和仇外國人已經(jīng)從線上轉(zhuǎn)到線下,造成了一些群體的生命危機(jī)。
技術(shù)進(jìn)步對社會的影響是一個(gè)永恒的話題。必須明確意識到,技術(shù)的進(jìn)步并不表明人類的進(jìn)步。人類既要充分受惠于技術(shù)的進(jìn)步,又要防止和減少技術(shù)對社會進(jìn)步的負(fù)面影響。20世紀(jì)出現(xiàn)的“反烏托邦三部曲”,即前面引用的《美麗新世界》和《一九八四》,再加上蘇聯(lián)作家葉·扎米亞京的《我們》,便是用文學(xué)方式向世人提出的“未來警告”。但很可惜的是,這些作家所想象的這些早已經(jīng)不是烏托邦,而是存在于今天人們的日常生活中了。更值得關(guān)注的是,在這些作家的作品中,他們只是強(qiáng)調(diào)了“政府”,即掌權(quán)者,在監(jiān)控和操縱社會過程中發(fā)揮的作用,但今天的情況已經(jīng)變得異常復(fù)雜,越來越多的角色,包括資本、資本操縱的機(jī)構(gòu)、受利益驅(qū)動(dòng)的“大V”等,都加入了“愚民”的過程。在這種情形下,越來越多的個(gè)體和群體在不知不覺的快樂的情形下實(shí)現(xiàn)著自我愚昧化。同樣糟糕的是,今天已經(jīng)沒有了“烏托邦三部曲”那樣的思想者了,知識分子不僅已經(jīng)失去了教育社會的責(zé)任,更是紛紛加入了“愚民”的進(jìn)程。
現(xiàn)在留給人們的問題只剩下:人工智能能否最終超越“牧羊犬”的角色而成為“牧羊人”?或者說,“牧羊人”最終反而被“牧羊犬”所主宰呢?
政府與人工智能社會秩序的塑造
人工智能扮演“牧羊犬”的角色,通過自身的快速進(jìn)步不斷加快人類自我愚昧化的進(jìn)程、摧毀現(xiàn)行的體制,這種趨勢如果不能加以改變,人類的生存環(huán)境就會不斷惡化。如何阻止人工智能時(shí)代“人工智殘”的趨勢繼續(xù)?對世界各國來說,都是一個(gè)嚴(yán)峻的挑戰(zhàn)。
從今天的情況看,有4個(gè)方面的事情是必須做的,也是可以做的。
1、確立和強(qiáng)化政府的責(zé)任
對公眾來說,需要重新認(rèn)識政府在虛擬現(xiàn)實(shí)空間治理中的角色和責(zé)任。英國思想家托馬斯·霍布斯于1651年出版的《利維坦》為政府確立其在現(xiàn)實(shí)世界中的權(quán)力和權(quán)威提供了最強(qiáng)有力的哲學(xué)論證。也正是確立了政府在現(xiàn)實(shí)世界的秩序之后,人類才逃離了原先的無政府狀態(tài)。之后才會有洛克和密爾那樣的自由主義者論述這一現(xiàn)實(shí)秩序可以是“不專制的”或者“自由的”。今天的虛擬世界秩序或許也要經(jīng)歷一個(gè)先確立“利維坦”然后再民主化的過程。盡管人們可以討論“企業(yè)的社會責(zé)任”,但是企業(yè)的主要目標(biāo)并非公共利益,而是私人利益。
《利維坦》(Leviathan,全名為《利維坦,或教會國家和市民國家的實(shí)質(zhì)、形式和權(quán)力》)是托馬斯·霍布斯創(chuàng)作的政治學(xué)著作,1651年首次出版。圖:亞馬遜
亞當(dāng)·斯密認(rèn)為,私人利益可以導(dǎo)向公共利益,但從經(jīng)驗(yàn)看,如果沒有政府對企業(yè)行為的規(guī)范,那么對私人利益的過度追求必然對社會整體產(chǎn)生極其負(fù)面甚至毀滅性的影響。作為公共利益的主體,政府在管控人工智能方面具有不可推卸的責(zé)任。對政府本身來說,迫切需要對人工智能所能導(dǎo)致的2個(gè)安全問題進(jìn)行系統(tǒng)的梳理,并制定同樣系統(tǒng)的有效應(yīng)對舉措:
1. 技術(shù)本身的安全問題,即safety;
2.技術(shù)的應(yīng)用所能產(chǎn)生的安全問題,即security。
就第1個(gè)安全問題,不僅人工智能本身會出現(xiàn)各種技術(shù)故障,而且其也正在生產(chǎn)出越來越多的生成數(shù)據(jù)(信息),這些都會對人類的智力構(gòu)成威脅。
就第2個(gè)安全問題,人工智能的不當(dāng)使用和濫用不僅有效損害著社會群體間或者國家間的傳統(tǒng)信任,而且也正在制造大量仇恨甚至暴力。盡管這些現(xiàn)象在互聯(lián)網(wǎng)時(shí)代已經(jīng)產(chǎn)生,但人工智能正在極大惡化這些現(xiàn)象。因此,政府需要針對互聯(lián)網(wǎng)非理性言論的蔓延,采取一系列強(qiáng)化監(jiān)管與反制措施,以確保網(wǎng)絡(luò)環(huán)境的安全和穩(wěn)定。這里,完善法律法規(guī)體系是第一位的。政府需建立健全與非理性言論相關(guān)的法律法規(guī),明確界定什么構(gòu)成非理性言論、仇恨言論以及網(wǎng)絡(luò)暴力等行為。同時(shí),加強(qiáng)對現(xiàn)有法律的執(zhí)行力度,確保相關(guān)法規(guī)能夠有效應(yīng)對網(wǎng)絡(luò)中的不當(dāng)言論,維護(hù)虛擬空間的社會秩序。
2、需要確立和加大網(wǎng)絡(luò)平臺的責(zé)任
一方面是平臺的自我責(zé)任。互聯(lián)網(wǎng)平臺作為信息傳播的重要載體,必須承擔(dān)起對內(nèi)容的審核和管理責(zé)任。“企業(yè)的社會責(zé)任”概念或者目前流行的ESG(環(huán)境、社會和公司治理)概念也可以適用于平臺。
另一方面是政府對平臺的監(jiān)管。平臺為利益驅(qū)使,如果沒有外在的壓力,很難確立自己的責(zé)任。鑒于平臺中社會個(gè)體因?yàn)椤霸踊倍@得軟弱不堪的局面,政府在監(jiān)管平臺上需要負(fù)起主要責(zé)任。
實(shí)際上,如今平臺越來越趨向于“私人化”,而政府盡管也會犯錯(cuò)誤,但無論是與平臺還是“大V”比較,政府呈現(xiàn)出來的公共性彌足珍貴。類似韓國某平臺所發(fā)生的侵犯女性人權(quán)的案例在全世界不勝枚舉,而這些案例僅靠平臺自我監(jiān)管是絕對無法杜絕的,因此,盡管政府的部分監(jiān)管措施時(shí)常被視為不利于平臺發(fā)展的,但要對這些平臺進(jìn)行監(jiān)管還必須訴諸政府。各國政府需要制定明確的政策,要求平臺建立完善的內(nèi)容審核機(jī)制,及時(shí)刪除或屏蔽非理性言論,并對傳播惡劣內(nèi)容的用戶施加處罰。此外,政府也可以通過評估和獎(jiǎng)勵(lì)機(jī)制,鼓勵(lì)平臺在內(nèi)容治理方面表現(xiàn)優(yōu)異。
3、政府和平臺需要加強(qiáng)網(wǎng)絡(luò)監(jiān)測與情報(bào)收集
通過各種技術(shù)手段,政府可以通過和平臺的合作,建立高效的網(wǎng)絡(luò)監(jiān)測系統(tǒng),實(shí)時(shí)跟蹤和分析網(wǎng)絡(luò)上非理性言論的動(dòng)態(tài)。結(jié)合大數(shù)據(jù)和人工智能技術(shù),迅速識別潛在的危害,及時(shí)采取應(yīng)對措施,防止非理性言論的進(jìn)一步傳播和蔓延。這里,政府尤其需要克制和避免人們所說的“選擇性監(jiān)管”傾向性。盡管任何政府都具有傾向性,尤其在意識形態(tài)日益高漲的今天,但如果政府不能避免“選擇性監(jiān)管”,那么就會對極端觀點(diǎn)推波助瀾,造成更大的惡果。政府需要在公眾的“言論自由”和“極端言論”之間作出理性的判斷,在保護(hù)“言論自由”的同時(shí)有效監(jiān)控“極端言論”。
4、人工智能時(shí)代需要重塑教育,重塑人類理性
理性是人的現(xiàn)代性的本質(zhì),是教育的產(chǎn)物,來之不易。要防止“人工智殘”的趨勢繼續(xù),就必須通過激進(jìn)的教育改革,重塑公眾的理性思考能力。無論是政府還是社會組織,即刻可以做的包括:開展公共活動(dòng)和媒體宣傳,鼓勵(lì)公眾在面對信息時(shí)進(jìn)行理性思考;通過引導(dǎo)公眾學(xué)會分辨信息的真實(shí)性、客觀性,減少對情緒化和片面言論的盲目接受;可以組織工作坊、講座等形式的活動(dòng),培養(yǎng)公眾的批判性思維能力,使他們能夠獨(dú)立判斷非理性言論的影響與后果。
但從長遠(yuǎn)來說,各國需要的是根本的教育改革。人類已經(jīng)進(jìn)入人工智能時(shí)代,但各國的教育系統(tǒng)依然停留在前人工智能時(shí)代,因此教育與社會發(fā)展嚴(yán)重脫節(jié)。正如教育在近代以來的3次工業(yè)革命進(jìn)程中所發(fā)揮的關(guān)鍵作用,在人工智能時(shí)代,一個(gè)國家的未來,無論是內(nèi)部發(fā)展還是其在國際舞臺所處的位置,都取決于其教育改革。
*文章來源:鄭永年.人工智能時(shí)代的社會秩序. 中國科學(xué)院院刊, 2025, 40(4): 633-641.
DOI:10.16418/j.issn.1000-3045.20250318003.
IPP公共關(guān)系與傳播中心
排版|周浩鍇
審閱|劉 深
終審|劉金程
鄭永年:數(shù)智時(shí)代的知識變革與知識創(chuàng)新
中國AI,和美國相比差在哪?
既要追趕前沿,又要多元探索,中國AI如何做到?
關(guān)于IPP
華南理工大學(xué)公共政策研究院(IPP)是一個(gè)獨(dú)立、非營利性的知識創(chuàng)新與公共政策研究平臺。IPP圍繞中國的體制改革、社會政策、中國話語權(quán)與國際關(guān)系等開展一系列的研究工作,并在此基礎(chǔ)上形成知識創(chuàng)新和政策咨詢協(xié)調(diào)發(fā)展的良好格局。IPP的愿景是打造開放式的知識創(chuàng)新和政策研究平臺,成為領(lǐng)先世界的中國智庫。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.