當前,由生成式大模型驅動的通用目的的人工智能迅猛發展,有關與人類智能相當的通用人工智能乃至更強大的超級智能的可能性成為人工智能未來發展的焦點問題。而從類似物理學相變的角度來講,通用人工智能和超級智能的出現很可能并沒有一個固定的相變點,而是一個事后追認的時間段。
這么講并不是要提出超級智能如何發生的理論,而是為了提出一個時代性的警示:由于人們的注意力主要放在何時實現通用人工智能和超級智能,而沒有意識到掌握了或者說敢于運用足夠強大的人工智能的實體和群體可能會獲得某種認知優勢,而由此形成的認知不對稱可能在不經意間產生重大的力量轉移。就像大數據分析、算法推薦等人們實際上是在大科技公司這么做很多年以后才知道一樣,足夠強的人工智能的大膽應用很可能已在悄然進行。
如果你對人工智能的嗅覺比較靈敏的話,就應該看到最近一兩年出現了一些奇怪的現象。有的可能沒什么殺傷力,比方說現在很容易看到一些公眾號文章介紹某個哲學家(比方說西蒙東(棟))的思想什么的,你會發現流暢得不像人寫的,看起來特別全面、整齊、圓潤,給人一種薛寶釵加汪國真的感覺。但讀的過程中,就覺得哪些文字像小學生范文,左眼進、右眼出,完全不走心。有的則細思極恐,比方說某國自動飛行武器偷襲另一國的策略,有可能真是諸葛亮問AI的結果。還有某國為何能讓對手產生那么多間諜,某酋長何以不堪一擊等謎團的背后很難說沒有AI的魅影——至少AI用于遴選與搞定內鬼、猜測對方酋長的戰略定力什么的還是有潛力的。
這么說看似八卦,其實不然。基辛格在他最后一本書《人工智能時代與人類價值》(與施密特、蒙迪合著)中就談到了這種可能性:“人類最強大的創作成果可以比人類更好地運用和維持全球事務的一種平衡。這一平衡汲取了(但不限于)人類舊日先例。非人智能于是可以管理自己的崛起,至少是在國家安全和地緣政治領域。”(第135頁)稍微想象一下,你可以問大模型跟誰搞對象、喜歡誰了怎么追?川普什么的敢說馬上讓誰跟誰談判就不是從大模型那搞了幾個錦囊才信心滿滿的,而后來防空炮可能是著急錦囊打開得太早了。
以往劉備遇事問諸葛亮。可拿到現在,保不齊諸葛亮會說:主公稍后,容亮內急如廁,稍后答復您老。其實,他是去問DEEPSEEK、通義千問、豆包什么的了。當然,劉備如果識破了,他會說模型們七嘴八舌,各出的答案各異,而且還初一十五不一樣,他是占了八卦,看了天象,用盡了人類判斷力,最終從里面找到了最佳答案。這個故事雖然是編的,但并非沒有道理。就拿用AI寫論文這事來說吧,雖然有各種規范希望對其加以矯正,但實際上,現在會流暢地用AI輔助寫作,就像四十年前能流暢地講英語——哈哈,流暢!老同志們不難想起新概念英語第四冊叫什么來著......
書中還談到了由此可能導致人類對人工智能的依賴:“為解決外交和安全這類根本問題提出機器解決方案,自然而然會導致更加依賴人工智能的能力。如果人類需要斷然采取措施干預國際事務,這種依賴就很難打破。無論人類的治國方略多么不完美,至少人類為自己做出的抉擇承擔了責任。選擇依賴人工智能則不然,這樣會削弱人類對自己的基本判斷力的信任。”(第137頁)
問題是,這種擔憂的出發點是人和機器這種抽象的關系。而實際上,人和機器并不是分立的。簡單講,就像刀槍的完整呈現方式是“揮刀的人”和“拿槍的人”一樣,人工智能不是一種獨立的存在,而是一種為人類實體、組織、群體和個人所用的人工智能。因此,不能因為對通用人工智能和超級智能超越和取代人類智能的擔憂而忽略了我們真正面臨的問題——掌握強大的人工智能的實體之間的認知不對稱,特別要關注在戰略博弈的情況下無所不用其極的可能性及其后果。大體而言,在走出通用人工智能和超級智能的進程中以下四個方面可能出現的認知不對稱及其后果值得關注。
1. 人工智能加持下的地緣政治力量轉移與認知不對稱的極化。擁有先進超級智能能力的實體將獲得不成比例的地緣政治力量,類似于核武器在20世紀的作用。簡言之,掌握并敢于嘗試足夠強AI的實體可以實施更具謀略性、更為巧妙和更不易識別的外交策略,人工智能強國將在國際議程設置中掌握主導權。由此必然出現認知不對稱的極化。例如,在科技戰略方面,缺乏先進人工智能的實體甚至不能理解科技強國運用AI制定的科技發展戰略的內涵——即便參與制定的人也可能不完全理解。
2.在文化層面,超級智能可能會強化主導語言和敘事,從而使資源較少的文化實體的語言與敘事邊緣化。但這并不一定意味著處于優勢的實體在文化和話語權方面可以高枕無憂。因為足夠強的人工智能驅動下的合成數據、合成內容與合成媒體將模糊真實與虛構的界限,使人們無力或無意通過驗證獲得對信息的基本信任。讓人好奇的是,通用人工智能或超級智能等人類可能創造出的“外星智慧”對付信息繭房、虛擬成癮和新近出現的“人工智能虛胖”又何高招?是體驗機、可口可樂還是北京豆汁?
3.在科技競爭層面,將會導致發現和創新加速再加速,但也意味著知識擁有上的集中再集中。如果超級智能系統可自主生成假設、設計實驗和解釋數據,無疑將徹底改變發現和創新,但人類有可能不再是主要的發現者和創新者。這種認知不對稱會不會帶來人類認識論的末日:機器人科學家搞科學與魔法無異,對人類來說不可解釋但不再有多大關系了——因為人類已經第二次向化身超級智能的魔鬼梅菲斯特出賣靈魂:我們相信你,信賴你,這個世界如何認知和創造全部交給你了!
由此帶來的認知不對稱無疑是前所未有的:少數實體不僅將壟斷前沿知識,而且只有它們才有能力擁有全部的知識——因為人工智能驅動的自動化知識生產呈指數增長,前沿知識大大超過此前人類知識的總和,并且呈現出加速覆蓋既有知識的趨勢。而這些知識不再是人類所理解的,人類研究者的研究倫理所要求的透明、開放、可解釋、可重復之類的誠信規范是否必要,得看人工智能信任生態系統是否需要了——科學家將來可能不再是科學共同體的主要成員了——甚至科學共同體這一人類小社會也不再成立了。
4. 在戰略沖突層面,人工智能將可能導致非對稱對抗的極化。如果超級智能被用于戰略突襲,將對全球穩定造成嚴重后果。對此,值得關注的問題或悖論有三。
其一,超級智能或足夠強大的人工智能加持下采取先發制人戰略的超級風險。很多人只看到了先發制人的絕對優勢,即將認知不對稱極大化而獲得極大的勝算。而沒有意識到,超級智能并非完美,無論是不顧一切和無所不用其極,還是神龍不見首尾讓自己都摸不著頭腦,先發制人策略最終的結果實質上是毀滅性的。如果有超級智能哲學家的話,它會提出的首要的超級智能的本體論承若是:超級智能并非完美智能,或者說世界上不存在完美智能,再或者說完美是一種修辭而非存在。
其二,超級智能加持下的戰略突襲具有終極的不透明性,這使得受到極端打擊者難以找到原因以實施報復與追責,可能因此成為針對任意目標的末日報復者和隨機爆發的終極毀滅者。
其三,超級智能加持下的戰略突襲是一種基于認知極端不對稱的不穩定威懾,無法引入類似傳統的威懾框架(如相互確保摧毀)而使其削弱或消解。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.