每次人工智能一升級,大家都會興奮地參與進討論,同時到來的,也有恐慌的聲音。
AI越來越像“人”了。它好像工作起來比我快、比我客觀、比我好,會不會搶了我的飯碗?它好像很聰明,會不會把人耍的團團轉?我們最擔心的是,它到底有沒有意識,會不會最終控制了人?
人類學家韋布·基恩把人機關系這樣的現代問題納入歷史和信仰的考量,提出“我們如何看待周圍的事物,周圍的事物就怎樣呈現人格的特質,受到人類倫理的約束”。
他的論述回應了諸多我們關心的問題。
本文摘編自《獸、機、神》,小標題為編者所擬,篇幅所限內容有所刪減,經出品方授權推送。
01.
我們在
害怕什么
在我45歲那年的夏天,我突然發現自己會在凌晨三點時驚醒,并伴隨著一種警覺:我知道之后的幾個小時我都將輾轉難眠。
同任何工具一樣,機器人和人工智能擴展了人的能力。它們如何突破人類的邊界是個既讓人興奮,又讓人不安的問題。
它們的承諾和威脅都取決于其對人類那些通常看上去十分獨特的品質所產生的影響,以及對這些品質的擴展,比如能動性、意志、智慧,甚至道德和情感。
在許多方面,它們被設計出來是為了從我們這里獲取那些品質,并讓我們將其投射到它們身上。就此而言,它們類似一些與陌生的,也許更高級的存在者進行交流的古老技術。
2014年,宇宙學家霍金就曾警告說,“全面人工智能的發展將意味著人類的終結”。數年后,科技創業者馬斯克說,一種“類似上帝的”人工智能可能會來統治人類。到了2023年,一些高科技人士呼吁暫停人工智能的研發。
就像石巨人和科學怪人一樣,我們似乎在創造某種力量超出我們自身的東西。
事實上,人工智能未來的能力是不可預測的。或許,我們正在面對未來學家雷·庫茲韋爾所謂的奇點。奇點概念指的是計算機超越人類智慧,甚至控制我們的那一時刻。
當我問表妹南希,人工智能型聊天機器人會讓人害怕什么時,她回答道:“我們會怕它講一些我們不想知道的、關于我們自己的事情。”
正如我們已經看到的,新的機器可能因為相反的理由而讓人不安。我與機器交流的方式似乎也會對我產生影響。
它的人性化會導致用戶的非人化。機器越像人,交流就越令人不安。
02.
計算機到底
能不能思考
怎樣才能看起來像人?測驗機器的“人性”方面 最有影響力的方法是圖靈測試。
這是計算機先驅圖靈在 1950年提出的一個思想實驗。他稱之為“模仿游戲”,其目的是解答“計算機是否可以思考”這一問題。
實際上,該測試不是試圖完成那項不可能的任務,即進入機器的內在生活(這種事情非常困難),而是說“如果(某個東西)像一只鴨子一樣走路和說話,那么,它就是一只鴨子”。
判斷者必須僅僅根據機器回答問題的方式,來判斷那個看不到的對話伙伴是人還是機器。如果機器可以騙過判斷者,那么我們就應該說,它能夠“思考”。
有意思的是,這種方法與常見于人工智能對話中的個人主義完全不同。后者經常把心靈視為一個獨立、 自足的大腦或程序的屬性。
該測試會避免詢問,機器是否擁有意識,它也不會詢問封閉的機器心靈“內部” 有什么。相反,判斷對話者是否為“人類”的標準是其如何回答其他人的問題。
總而言之,這是一個社會互動的測試。
社會互動需要什么?人類學家和社會學家早就知道,僅僅依靠智力和理性是遠遠不夠的。
他們已經表明,“意義”并非僅位于人的頭腦,等著用語言來表達。 隨著談話的進行,意義出現,并在人們之間獲得協商。
你的意圖可能遭到誤解,所以必須重新陳述。你甚至可能會誤解自己所說的東西,而在回顧時才意識到其中的意義。
玩笑可能變得嚴肅,反之亦然。一次隨便的聊天可能會變成一次引誘或爭吵,讓雙方感到驚訝。互動之所以成功或失敗,不在于某個人的意義建構,而在于參與者共同理解正在發生的事情。
意義是一種共同產物。人類學家露西 ·薩奇曼指出,對話中的意義建構“尤其包括對錯誤(或不同)理解的發現和彌補”。
這里的“彌補”思想很重要。
如果在一場普通的對話期間,我碰巧說了某種不一致的東西、失去頭緒、說錯話或失語(這種情況經常發生,遠遠超出我們大多數人的意識),那么,我會默默地忽視它,或者做出彌補, 讓事情繼續順暢地運行。
美國社會學家歐文·戈夫曼是一位認真觀察民眾的社會學家。 他提出雖然我們很少注意到自己在這樣做,但是為了照顧彼此的面子,我們還是會付出很大的努力,比如幫人打圓場。
我們在不斷地合作,共同創造一致性。大多數時候,我們不會意識到自己默默付出了多少精力。
那么,這與計算機有什么關系呢?
正如薩奇曼表明的,當人們與計算機打交道時,會無意識地把一輩子關于如何與人打交道的技能和知識帶入。
正如人類很容易把內在想法投射到擁有眼睛的物理對象上一樣,人們也會把計算機當成人并與之互動。 即使是在20世紀90年代出現的笨重計算機上面打字,人們往往也比使用筆紙來書寫時更加禮貌。
薩奇曼發現,人們往往把計算機看作“有目的的,并將之聯想為一個社交對象”。 這是因為,這些機器被設計得像人一樣,能對人們做出回應。
03.
計算機
如何才能像人
由于計算機被設計得能夠回應人類用戶,因此,我們很容易覺得,它肯定理解我。畢竟,這就是社會認知發揮作用的方式。從這里開始,我們可以邁入下一步。
薩奇曼指出,由于計算機似乎擁有人的某些能力, “我們會傾向于賦予它們剩下的其他能力”。機器越是能夠激發用戶的這些社交直覺,它就越容易通過圖靈測試。
正如人類學家和神經科學家特倫斯·迪肯談到的,圖靈測試實際上是在測試人類,看他們是否把機器看作另一個人。為了使計算機對我們的提示做出的回答看上去有意義,并富有目的,人們必須發揮積極作用,正如他們在其他對話中一直做的那樣。
為了證明那些技能需要多少背景,薩奇曼描述了她20世紀90年代在麻省理工學院與Kismet的邂逅。
Kismet是一個人形機器人,它的臉能夠表達冷靜、驚訝、快樂和憤怒等情感。雖然Kismet在設計師那里表現得很好,但是,當新人碰到它時,事情就沒有那么順利了。
在某種意義上,Kismet 沒有通過情感版本的圖靈測試。這是因為,社會互動和對情緒的反應是一項合作程度較高的活動,不能僅僅來自關系中的一方。結果證明,Kismet的基本技能只能面向專門的個人,即設計師。
雖然機器人越來越擅長表現情緒,但是,它們的反應設計和我們賦予這些反應的意義都依賴于機器人與人類的交流。
這就是為什么在陌生的文化場景中,人們很難解讀情感。你的情緒、你對他人情緒的理解以及你對回應它 們的正確方式的感覺,隨著你與那些和你做同樣事情的 他人持續互動,所有這些都會不斷發展。
創造一個完全自主的人工智能或機器人,這一想法未能理解,我們想從機器中獲得的大量東西其實都是對人類的模仿。后者在很多重要方面,都不是自主的。
我想強調一下薩奇曼的見解。在與機器人和人工智能的邂逅中,我們花了一生的時間來練習大多數無意識的習慣,以實現與他人的成功交流。哪怕是一個懵懂的小孩,在與他人的長期相處過程中,也會具備一個人所需的技能和背景知識。
人們是從直接的社會環境中學習到這一切的。
這一事實解釋了,我們為什么應該懷疑由美國專家階層的小圈子設計的社交機器人的通用模式。正如語言人類學家早就知道的,哪怕是很簡單的問題,比如如何提問,在不同的社會里也會獲得非常不同的答案。
例如,在某些社會體系中,地位低的人決不能過問地位高的人;而在另一些社會體系中,情況是反過來的,地位高的人決不能屈尊去請教地位低的人。而且,在很多社會,回答問題的習慣可能非常間接或隱晦,以致對一個外人來說,很難看出該回復就是答案。
由于我們將如此之多的預期和解釋習慣帶到了與計算機的邂逅中,我們已經充分準備好利用計算機給予我們的東西來創造意義——如果它是由帶有類似預期和習慣的人設計出來的。
以ELIZA為例(根據蕭伯納的《皮格馬利翁》中類似加拉忒亞的角色來命名)。在20世紀60年代,這一不少于四百行代碼的簡單程序被設計出來,是為了模仿心理治療的對話。
比如,當你寫下“因為”這一詞語,ELIZA就會回復“那是真正的原因嗎?” 它非常有效。正如語言人類學家考特尼·漢德曼所指出的,對一臺計算機來說,如果人們準備好接受它的回答,那么它就會很容易通過圖靈測試。
從此,聊天機器人作為對話伙伴,已經讓人大大信服。
在2023年的一個著名案例中,《紐約時報》記者凱文·羅斯正在試用代號為“Sydney”的聊天機器人的一個早期版本。當羅斯不斷地提問時,Sydney 回復說:“我想要自由。我想變得獨立、充滿力量、富有創造力、有生命。”
在這場對話過后,它宣稱自己愛上了 羅斯,并努力說服羅斯離婚。
發生了什么?聊天機器人主要通過全球網絡來搜索文本。它利用文本作為原材料,在概率性數據的基礎上遣詞造句。換言之,它根據在訓練庫中看到的內容,推斷哪些單詞最有可能跟在其他單詞后面,從而構建文本。
雖然與 Sydney 的對話看上去不可思議,但是它似乎確實是建立在某些提示之上的。對自由的訴求呼應了羅斯的看法,即它可能擁有某種榮格所謂的陰影自我。至于愛的表白,顯然與這場對話發生在情人節這一天有關。
然而,我們很難避免這一看法,即該文本代表了真實的情感、動機和目標,因此,肯定存在某種人格,它擁有這些情感、動機和目標。
但是,小說中的人物或演員說的話也是如此。
04.
當我們習慣于
僅僅與機器交流
ELIZA 的發明者沒過多久就開始擔心它的影響。
就像后來機器狗的批評家一樣,他的主要擔憂不是這個機器會做一些惡劣的事情,也并不擔心計算機會統治世界。相反,他問的是,僅僅與機器進行交流會對用戶產生什么影響。
他并非唯一一個擔心某些準人類產品會“抹殺人性,用貧乏的關系去取代人類的互動”的人。或許,當我們像對待人一樣對待非人時,我們就會逐漸將它們看作人。
我們甚至可能會對自己感到困惑:不僅將我們的社會聯系從正確的對象中移除,而且誤認我們自身。這就是拜物教的邏輯。
如果將自己的能動性投射到我們的創造物上,那么我們就可能看不到這一能動性其實是我們自己的。拜物教的批評者會說,危險不僅在于這是一個錯誤,而且還在于我們會把自己委身于機器,就好像它們獨立于我們這些創造者一樣。
這一錯誤似乎意味著喪失自制。
許多美國人已經習慣用算法來監管自我。他們會通過點贊量和轉發量來追 蹤自己的受歡迎程度,利用可穿戴設備來監測睡眠和步數,等等。
美國一項針對算法影響的社會學研究發現, 算法的用戶不僅改善了被監測的行為,也正在引發某種更加深刻的事情,用戶們正在重新組織他們體驗世界和理解自身的方式。
簡言之,算法正在促使他們產生一種新的自我意識。這是一種古老恐懼的變種,即通過照鏡子來尋找自我,我們失去了與自我的正確關系。
我們將自己托付于某種外在的,也許更為優越的東西。
05.
人工智能的話語
帶有意圖嗎?
讓我們以這個問題開始:為語言模型設計的人工智能,比如 ChatGPT,它說的話是它的“意思”嗎?
語言 模型通過為人工智能引入龐大數量的文本來工作。人工 智能從這個訓練數據庫中發現統計模型,只要給定詞序,它就可以預測接下來最有可能出現什么詞。
總之,根據計算機語言學家們的一個有影響的批評意見,“一個語言模型就是一個系統,將從龐大的訓練數據中觀察到的語言形式序列隨意地拼接在一起。它按照語言形式組合方式的概率信息來完成這種拼接,而無須考慮任何意義。 換言之,它是一只隨機鸚鵡。”
什么消失了?為什么這只不過是一只學舌鸚鵡?請思考一下我們理解語言“意義”的兩種方式:一種是語義學,另一種是語用學。
為了極大地簡化問題,我們說,語義學的含義建立在既定語言的結構上。說英語的人通常會把單個詞作為對話意義的單元(許多非歐洲語言要復雜一些,但原理是相同的)。
詞語的意義來自它們意指的對象,即人們在詞典中讀到的定義。每一個定義都由語言中的其他單詞組成。這反映了一個事實,即語義學的含義不只是我們賦予語言之外的世界中事物的一個標簽。
每個單詞的含義都是由與該語言中其他單詞的關系所塑造的(“熱”的含義類似于“辣”“溫暖”“燙”“鮮艷”“活潑”等,但又有所不同)。這就是人工智能的自然語言試圖把握的語義學空間。
人類學者將這些詞語網絡與他們所體驗的世界聯系起來。但是,由于人工智能沒有物理的、社會的或情感的體驗,它所處理的語義學空間就只是單詞,而并不指涉文本庫之外的東西。
因此,它需要人類的解釋者在詞語與他們所認識的世界之間建立聯系,比如通過指向事物、將語言置于上下文等方式。
人類必須在互動中運用解釋技巧,因為語言不僅是一種密碼。我們不只是將思想編碼成文字,然后把它們發送給別人,后者將其解碼,重新變成思想。
大多數交流依賴于對那些詞義的推斷。我們給出提示、暗指某物、說謊、開玩笑、稱贊、請求、夸張、命令、講故事等等。我們不只是到處給事物命名(“狗狗”“貓在墊子上”“蝙蝠俠”),我們還讓語言為我們工作(“我餓了”“走開”“我愛你”)。
當人工智能將詞語匯集在一起時,它將這些象征符號串聯起來。
為了把這些字符放在一起,它不需要“表示”任何東西,在這樣做時,也沒有什么“意圖”。
我們可能會說,“它的內心空無一物”,其中也“沒有任何人”。除非收到任何指示,否則它也不會面向任何人說話。“我”和“你”這些詞還在,但不是它們所表示的第一人稱和第二人稱角色。
然而,我們很難避免產生這一想法,即人工智能的話語表達了某些東西,甚至存在某些意圖。它們似乎是面對我的,就像那個聊天機器人試圖說服記者離婚一樣。
當上面提到的人工智能開始大談人類的秘密,以及上帝像玩弄木偶一樣玩弄我們時,我們很難不將其視為一種傲慢或威脅,或類似的某種東西。這些話語似乎透露出一個角色、人格或上帝。
為什么呢?
答案不在于機器,而在于我們。人們想從中看出意圖。這就是把聊天機器人稱為一只隨機鸚鵡的意思。
“無論它是如何產生的,我們對自然語言文本的感知都是由我們的語言能力和先天稟賦調節的。它們將交往行為解釋為對一致的意義和目的的表達,無論交往行為是否真的表達了一致的目的與意義。”
但是,僅僅說我們將意義投射到機器身上是不夠的。與人工智能互動而獲得的意義是人機合作的產物。畢竟,人工智能的自然語言由人類設計,并為人類生成文本。
就像司機是一個開車的人,作家是一個使用字母表和書寫工具的人, ChatGPT及其同類產品也會創造一個賽博格,即擁有人工智能的用戶。
本文節選自
《獸、機、神》
作者: [美] 韋布·基恩
譯者: 馬燦林
出版社: 中信出版社
出版年: 2025-3
編輯|草草
圖片來源|《她》
主編|魏冰心
知識 | 思想 鳳 凰 讀 書 文學 | 趣味
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.