不怕人工智能擁有理性的智能,就怕人工智能有情感!不怕人類的外在情緒被模擬,就怕人工智能擁有內在的由衷之情!
原文 :《必須為人工智能設定情感底線》
作者 |劉悅笛(中國社會科學院)
圖片 |網絡
不久前,我參加了一期題為“人工智能與人類未來”的論壇,三位哲學研究者、三位科學工作者和三位藝術創作者共同參與其中。有趣的是,最后的環節采取了辯論會的形式,正反雙方的論題分別是“人工智能毀滅人類未來”與“人工智能造就人類未來”。讓人想起1993年在獅城舉辦的首屆國際大專辯論賽。時過境遷,那場辯論賽最后一場所辯的還是人性本善還是本惡的千年老辯題,從告子與孟子起此辯就已出場,而如今人工智能卻在改變人類的未來,但這究竟是好事還是壞事呢?說到好壞,那就是對人而言的,定有人類中心主義之嫌,而這次論辯卻凸顯出在對待人工智能上的根本矛盾。
“近憂”和“遠慮”
到了智能機器人發達的時代,到了人的延伸與機器合體的時代,我們必須直面這樣的根本性追問:我們到底是人,還是非人(inhuman)?到底是人機合體,還是以機代人?人是被取替了,還是被改變了?那時的“過去的人”是退化為動物,還是進化為后人(post-human)。實際上,我們所面臨的,并不是所謂“雙主體”——人類與AI兩個主體,而是后人類主體的問題。因為,假定連人類本身都不存在了,還談何主體?
所以,我們這場論證由此出發,就展現出了對待人工智能的立場差異,對人工智能的“近憂”我們還是需要“遠慮”的:在人工智能大潮下,人是否會終結?人是否會成為末人?福山曾認定歷史已經終結,現在證明他錯了,但人會不會終結,這的確是個過程性的問題。由此就出現了如下諸多的矛盾之處。
第一,人被取代還是繼續?傾向科學主義的人士,認定人一定會被“迭代”掉,人工智能“上位替代”人類,被更高級的替代掉,但人類不至于滅絕;而人文主義人士則認為人不可被替代,也不能被替代;還有第三種觀點認為人與機之間可以形成一種合作與協作的關系。其實這幾種可能性都可能出現。
第二,理性與感性之間的割裂。因為現在人工智能是建立在語言、推理、邏輯、大模型計算的基礎上,但畢竟人類還是有情感的、具感性、富有創造力的,這種割裂顯得比較嚴重而且更為根本,但是中國人“情理合一”的智慧恰恰可以在此解決矛盾,從而走一條不同于西方的理性中心主義與邏各斯中心主義之道。
第三,靈與體的割裂,也就是碳基與硅基之間形成的矛盾。是否會如科幻小說《三體》所描繪的一般,人體憑空消失了,然后所有的記憶與智能被人工化存在別處,存在云端,最后還有可能再存回人體當中;那么,靈能不能存于體當中去?體能不能消失?或者變為在另外一個體之上?碳基生物可以以硅基方式存在嗎?
第四,虛擬與真實之間的關系問題。科學所講求的事實與藝術所講的事實,并不是同一個事實,但是虛擬現實給我們帶來的是:我們在虛擬之中所體驗到的現實,恐怕更加真實。這就是所謂“超真實”的問題,比我們感受到的真實還要真實。
第五,語言與世界的關聯問題,這也關系到語言與計算,乃至情感與計算的問題。20世紀分析哲學占據主導之后,語言就是世界的問題位居主導,目前的人工智能的主流就是語言大模型,但這還是不夠的,還需要將其與知覺勾連起來。如今的情感計算,認定情感完全可以模擬出來,而且是通過云計算的方式,但是云計算能否模擬之?或者換一個提問方式:做夢有邏輯嗎?除了邏輯,人類還擁有想象力的關聯,其中是否有邏輯?假定有了這種感性邏輯,那么人工智能就能做夢了,也就自然可以能動地創造藝術了。
第六,人性與機器性的嫁接問題,其中,最重要的就是人們可否將性善“移植”給機器人。在這個意義上,中國哲學已經開始介入其中。我認為比較前沿的還是加州州立大學富樂敦分校劉紀璐教授以儒家理論解決機器人倫理的難題。所謂儒家機器倫理,不能訴諸孟子式的情感,諸如“惻隱之心”那種人類在特定情境下孳生同情力,高級靈長類動物因為動了情才不去傷害他人,但這種道德動機對機器人而言是難以實現的,所以只能采取荀子式的方式,通過自外而內的規范來使得機器人倫理得以實施。
最終,我們到底是以人類為中心,還是以人工智能為中心?進一步的問題是,萬物是有等級的,還是萬物都是平等的?假如沒有莊子意義上的齊物論,是否存在誰壓榨誰的問題?假如人工智能有了價值該怎么辦?而且它的價值就是以它為中心,那又該怎么辦?這還是要回歸到人性問題:人究竟是自由的,還是被奴役的?當然,這是回歸到哲學上的反思,是要以發展的事實為基礎。
就怕人工智能有情感
如今的人工智能,按照當今科學家的意見,正處于方興未艾的第一階段,也就是“算力與算法”階段,正在形成全球競爭。沒想到,在算法上中國竟然彎道超車,這就是DeepSeek得以出場的全球價值。對人類而言,算法算力絕不是問題,而且正在逐步解決。第二階段,則是人工智能的幻覺與災難性遺忘的階段。這一輪競爭正在進行,大概五年左右。目前我們所面臨的是出現了人工智能被越用越壞的趨勢,因為生產的語言垃圾太多了,很多大模型已經開始數據造假了,會生產出越來越多的虛假信息,由此使得大模型也變得越來越遲鈍,這個時期剛剛開始。
關鍵就在于第三個階段,在第二階段的五年過去后,在未來十年,人工智能便可以具有自我意識與動機了。真正的危險也出現在這一階段,人類最終是否能被人工智能所取代,從這時才變得可能。因為擁有了智商高達十萬+的人工智能,直面只具有一百左右IQ的人類,會不會形成碾壓式的降維打擊?如果人工智能擁有了自我意識,如果它們不經意間做了更偉大的事,那么,人類會不會被犧牲?這才是人類直接面對人工智能的危險的時代。
在我看來,人工智能會擁有三個階段的超智能:第一是自覺,第二是自感,第三則是自發。對人而言,人是從自感、自覺到自發;但對人工智能來說,則是從自覺、自感到自發。人類總是先有感知與知覺,而后方有自我意識,這是成長的過程,也是進化的產物。但是對于人工智能機器人而言,自感就是說:機器人能感到疼嗎?有人類的基本感受(feeling)嗎?有沒有那么一天,計算機突然說我好疼,不要這樣做?這種感受乃是自外而內,由此被感知到的感性機制。無論對人還是機器人而言,自覺則是說:我是我!我是誰?對于人工智能機器人而言,我從哪里來?可以說工廠是其起點,但是它們也會問,未來我到哪里去?
所謂自發,就是表達自己,由衷地自內而外的表達。其中,情感(emotion)就是由衷而發的,所謂“情動于中而形于外”就是這個意思。我就想問:如今的機器人演奏音樂的速度可以超過偉大的鋼琴家,而且演奏過程當中確實極少出錯,只要程序沒問題的話。但是什么時候,一個人工智能機器人可以自發地演奏音樂,并且能從中獲得愉悅呢?這就是自發的最高階段,在這個階段,我們更應該為人工智能設置“底線”。
就是說,必須為人工智能設定底線,而且是情感的底線。再退一步說,外在的情緒是可以模擬的,也可以通過它與人交互,這些都在所謂“情感計算”(Affective Computing)的當今探索當中得以實現。但我想說的是,那種內在的、由衷的、自發的情感,卻要拒絕被人工智能所模擬,目前這種模擬還沒有做到,但是即使能做到,我覺得也要設置“禁區”。道理很簡單,因為一旦人工智能擁有了內在情感,他就會想:一方面我力氣比你大,另一方面,我還比人有情,我為什么要為你服務呀?這不僅僅是自由意志的抉擇問題,更是情感意愿上的選擇問題。
最糟的結果便是,會不會10%的后人類或者具有高級智能的人類,去統治我們未來的人類或人類的未來?那我們人類就可能變成動物,回到地下,退回去了。別以為機器進步了,人類就進化了,人類其實是無時無刻地不在退化中的,在機器出現之后、計算機出現之后、人工智能大量地替代體力與腦力勞動之后,退化的腳步越走越快。總歸于一句警告:不怕人工智能擁有理性的智能,就怕人工智能有情感!不怕人類的外在情緒被模擬,就怕人工智能擁有內在的由衷之情!
文章為社會科學報“思想工坊”融媒體原創出品,原載于社會科學報第1955期第8版,未經允許禁止轉載,文中內容僅代表作者觀點,不代表本報立場。
本期責編:潘 顏
《社會科學報》2025年征訂
點擊下方圖片網上訂報↓↓↓
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.