當前,許多關于人工智能國際治理的提議都借鑒了現有的核治理機制。2025年5月,蘭德發布了題為《核歷史對人工智能治理的啟示》(Insights from Nuclear History for AI Governance)的報告,探討了如何從核治理中汲取經驗,以應對人工智能國際治理的挑戰。該報告審視了核治理的兩個重要案例:巴魯克計劃的失敗和《不擴散核武器條約》(NPT)的成功,以理解影響這些治理倡議成敗的因素。啟元洞見編譯核心內容,旨在為讀者提供參考。
人工智能技術發展迅速,引發了建立全球性監管機制以應對潛在災難性風險的呼聲。許多人工智能專家和政策制定者都從核治理歷程中尋找人工智能治理的經驗,以平衡市場競爭與公共安全。
人工智能與核武器之間存在多重類比:兩者都具有軍民兩用性質;都依賴高度專業化且獲取受限的基礎材料(如鈾和芯片);以及科學進步的迅猛性導致軍備競賽態勢。更重要的是,它們都具備跨越國界的災難性危害潛力,使得僅限于國家層面的監管遠遠不足。
本文以1946年失敗的“巴魯克計劃”與1968年達成的《不擴散核武器條約》為案例,嘗試分析其成敗經驗,并將其類比于人工智能國際治理的構建邏輯,指出適用性與局限性。
巴魯克計劃的失敗經驗
1946年,美國向聯合國提出“巴魯克計劃”,提議將核武器控制權移交國際機構,以實現核能的和平利用與全球安全。盡管該計劃被美國描述為放棄原子優勢以換取全球安全的慷慨之舉,蘇聯卻視之為遏制其戰略發展的不平等提案。
(一)試圖遏制核技術的危險潛力
巴魯克計劃提出,美國將在其他國家放棄核武器開發并接受核查、國際機構正式建立后,銷毀自身核武器庫。然而在國際機構建立之前,所有國家必須開放其核活動供國際核查,而美國則暫時保留核武器。1946年6月19日,蘇聯代表提出反對建議,主張通過國際公約禁止核武器的生產、儲存與使用,銷毀現有核武器,同時不設置任何國際監督機構。該提案本質上排斥美國提出的核查與控制機制,回避了對國際干預主權事務的容忍問題。
盡管美國推動盡快表決巴魯克提案并獲得多數安理會國家支持,蘇聯與波蘭投票反對,最終導致方案擱淺。1949年,蘇聯成功進行首次核試驗,標志著美國對核技術的壟斷終結。
(二)巴魯克計劃失敗的原因
巴魯克計劃的失敗對人工智能治理具有啟示意義:雙重用途技術的國際控制方案,唯有在所有相關方都認為其真誠和公平的情況下才可能成功。任何旨在延續一國優勢的提案,都可能被視為權謀,最終阻礙長期合作。
美國國內的政治考量亦影響方案設定——公眾普遍不愿放棄核優勢,美國官員亦將核武視為對抗蘇聯的常規力量平衡工具。
巴魯克及其團隊的強硬外交策略加劇了對立,缺乏對蘇聯安全利益的實質回應。即便蘇聯當時尚未具備核能力,其科學進展遠快于美國預期,使美國期望依靠技術壟斷維持核優勢變得不現實。美國堅持大規模國際控制而非可行性較高的逐步過渡措施,反而阻礙了妥協與信任建立。最終,巴魯克計劃未能達成任何實際成果,反而造成美蘇進一步對立,使后續國際核治理的實現更加復雜化。
簡而言之,巴魯克計劃可能弊大于利。因此,它主要作為在設計和談判危險新技術國際控制機制時“不應做什么”的案例。這段歷史教訓表明,在人工智能領域,試圖從實力或技術優勢地位進行全球治理談判將是困難的,特別是當其他國家認為此類談判提議旨在鞏固某國的優勢。
《不擴散核武器條約》的成功啟示
《不擴散核武器條約》(NPT)于1968年簽署、1970年生效。與巴魯克計劃相比,該條約的成功依賴于美蘇對戰略穩定的共同認識、對核擴散風險的認知升級及利益契合帶來的合作動力。
(一)冷戰初期
冷戰延遲了不擴散協議的達成。這一背景有以下幾個特點:蘇聯在部署核武器方面比美國預期更快,打破了美國保持核武器排他性的觀念。當時的競爭氛圍不利于美蘇間不擴散協議的制定,雙方都專注于超級大國對抗,發展核武庫以威懾對方。“原子和平計劃”雖提出了不擴散架構,但未立即實施。
(二)風險認知的演變
推動美蘇達成不擴散協議的關鍵是對核擴散風險日益增長的認識。隨著20世紀50至60年代更多國家核武器化,促使美國將不擴散視為增強影響力并減少核戰爭風險的戰略。
核技術快速發展,特別是氫彈的出現,加劇了核威脅。核戰爭的系列危機,特別是古巴導彈危機,暴露了核武器邊緣政策的巨大風險。這些危機雖為不擴散談判創造了空間。
此外,導彈技術發展強化了“相互保證毀滅”(MAD)理論,縮短了反應時間,增加了摧毀對手核武庫的難度促使雙方理性選擇維持僵局而非試圖打破平衡。
(三)核武器作為國際穩定和沖突預防
的潛在工具
隨著技術創新提高了超級大國的核威懾和二次打擊能力的生存性,雙方發展了成熟的二次打擊能力,并形成了“相互保證毀滅”和核穩定概念,將核武器視為國際穩定與沖突預防的潛在工具。因為每個超級大國的核武庫都保證了任何一方都無法在核沖突中獲得先發優勢。美蘇接受了這些概念,并從“贏得核戰爭”轉向“防止新核力量出現”和“避免毀滅性核戰爭”,使得包括不擴散在內的軍備控制討論變得可行。
核僵局戰略促使兩國更密切地關注核不擴散以維護穩定。隨著核僵局共識的形成,不可信賴國家獲得核武器引發的擴散擔憂日益增加,因其可能破壞全球力量平衡。技術進步也加劇了核擴散的威脅,更多國家被認為有能力發展核武庫。
(四)兩大超級強國合謀的益處
當國際環境更有利于不擴散談判時,美蘇開始看到串通限制核武器擴散的潛在好處。核武器的持續擴散,特別是擴散到非親密伙伴國家,增加了核武器被冷戰聯盟體系外不可信賴行為者開發的擔憂。在戰略穩定背景下,這種擴散可能破壞美蘇之間已成熟的核力量構成的核現狀。
在這樣的情況下,延伸威懾這一概念的重要性日益凸顯,也就是說美國承諾,一旦其盟友的領土遭受攻擊,將會以核力量進行反擊,以此來遏制此類攻擊行為的發生。
美蘇之間開始存在妥協可能性。1966年,蘇聯得到美國不會向西德轉讓核武器的保證,這項“不轉讓條款”成為《不擴散核武器條約》的核心。但根據條約,美國可在西德及其他盟國駐扎核武器,只要其完全受美方控制,以繼續威懾蘇聯。這種妥協既滿足了蘇聯對西德發展核武的擔憂,也推進了美國在核不擴散上的利益。
最終,延伸威懾通過消除美國盟友和伙伴發展自身核武器的必要性,從而支持了不擴散,減少了美國伙伴間核武器的擴散,這些伙伴相信可依賴美國提供的核保護傘。
(五)雙方為何愿意妥協以建立核治理機制
美蘇愿意妥協以減少核不擴散威脅的原因有幾點,這些因素可能協同作用,促成了《不擴散核武器條約》的成功談判。
一種理論認為,超級大國及其歐洲盟友在制定歐洲核秩序和接受歐洲冷戰領土劃分上存在共同利益。
第二種理論強調,盡管德國核武器化是關鍵問題,但兩國也嚴重擔憂全球核擴散,這促使它們通過“大交易”來遏制核擴散。
這兩種理論都支持美蘇有理由合謀,以保持自身核力量,同時限制第三方國家加入核俱樂部,避免破壞全球力量平衡。
另一個主要原因是,雙方最終都接受了戰略穩定的價值。戰略穩定意味著任何一方都不認為使用核武器會比持續核威懾和通過非核手段追求國家安全目標更好。美蘇間戰略穩定的發展促使兩國認真對待核不擴散,以維護力量平衡。在戰略穩定條件下,核國家有動力阻止可能破壞現有平衡的擴散。
此外,《不擴散核武器條約》不僅滿足了當時核超級大國的利益,而且提供了一種雙方都能接受的、鼓勵遵守的共同商定手段。《不擴散核武器條約》通過兩種方式維持:“胡蘿卜”(以向遵守國提供民用核技術為形式)和“大棒”(以對《不擴散核武器條約》生效后試圖發展核武器的國家實施制裁甚至其他軍事行動為形式)。這些激勵措施促使無核國家留在《不擴散核武器條約》內,盡管少數國家仍為自身戰略利益尋求核武器,并為此付出巨大代價。
《不擴散核武器條約》的成功依賴于核武器國家的協調與合作,它們持續合作以盡量減少新核國家的出現。每個核武器國家都從保持“核俱樂部”規模小和彼此間維持核穩定中獲得顯著利益。《不擴散核武器條約》對核大國帶來的穩定利益是該條約自談判以來相對成功和存續的基礎。
從核武器的過往經驗中識別建立
人工智能國際治理機制的挑戰
創建《不擴散核武器條約》和核穩定機制的經驗表明,成功的治理需要對潛在風險、實際治理方和治理機制有清晰理解。然而,將核治理模式應用于人工智能目前尚不可行。主要障礙在于:對人工智能風險的看法存在分歧、復雜的參與者生態系統以及治理方法的不確定性。《不擴散核武器條約》歷史暗示,人工智能全球治理,特別是防止最強大模型擴散的治理,可能只有在主要人工智能強國實力對等且相互脆弱時才能實現。
由于人工智能國際治理涉及可能影響國家安全和經濟增長的政治決策,這些分歧在短期內阻礙了災難性人工智能風險機制的建立。
(一)對人工智能風險的看法分歧
關于人工智能技術是否構成與核武器相當的極端或災難性風險,存在持續分歧。部分專家指出,強人工智能帶來濫用風險(如開發毀滅性武器)和失控人工智能風險(人工智能追求有害人類的目標)。但人工智能公司如OpenAI認為,其現有人工智能模型對生物威脅創造的提升微乎其微。
失控人工智能的風險也備受爭議。一些研究人員認為人工智能永遠不會失控,性能可能達到瓶頸;另一些人則認為具有欺騙性的人工智能超級智能已然存在。評估人工智能是否構成災難性風險十分困難,評估標準仍在發展,且獨立研究人員通常無法訪問專有模型。
也有人討論人工智能可能鞏固極權主義國家等其他危害。然而,這些是累積性傷害,而非突然事件,與核沖突有本質區別,可能需要不同的治理形式,單一的《不擴散核武器條約》式條約難以涵蓋。
與核風險不同,人工智能尚未經歷如核試驗、廣島長崎核爆、古巴導彈危機等具體事件來形成全球共識。核風險管理機構如國際原子能機構(IAEA)專注于可控且已充分理解的風險,而人工智能風險共識尚缺。
目前也不存在人工智能穩定或僵局,無論是國家間還是公司間。人工智能技術尚不成熟,其潛力不確定,無法清晰理解人工智能如何用于國家安全或威脅他國利益。人工智能領域沒有戰略平衡,部署人工智能未因潛在巨大負面后果而受阻,反而被視為帶來戰略和經濟優勢。
人工智能能力發展迅速,未來可能出現展示性事件促成共識。但在此之前,這些爭議將阻礙艱難的行動。
(二)復雜的參與者生態系統
人工智能的全球開發者既包括國家也包括私人企業。與核技術政府主導不同,人工智能發展以私營企業為主,技術擴散快、復制成本低、開放源代碼普遍,使得“控制”變得異常復雜。治理必須兼顧國家利益與企業激勵,需處理“兩級博弈”。因此,治理人工智能需要解決一場“兩級博弈”,不僅要解決國家間的戰略互動,還要解決私營企業間的戰略互動,這增加了制定人工智能治理機制的復雜性。
要建立人工智能全球治理機制,全球人工智能強國需首先確定共同可接受的條款。非西方強國未必愿接受以削弱自身發展為前提的治理協議。此外,技術飛速進步和國家間的不信任,可能使治理方案因政治動機遭到拒絕。巴魯克計劃的例子也暗示,旨在永久削弱戰略對手在重要新技術中優勢的政策可能適得其反。
(三)治理機制的不確定性
人工智能治理的核心要素包括數據、算法與算力。目前,數據與模型難以有效監管,因此算力被認為是最可行的治理切入點,堪比核穩定機制中的鈾。高端芯片供應鏈集中于少數國家,理論上有利于監測與限制。但算力監管的效力取決于未來人工智能發展是否仍依賴集中式大模型訓練。若小型、分布式人工智能具備高性能,則算力治理可能失效。
更重要的是,算力監管可能被視為遏制發展中國家的不公平工具,必須輔以技術轉讓、能力建設等“胡蘿卜”以獲取更廣泛支持。治理機制還需權衡創新激勵與風險防控的關系。
最后一個挑戰是時間緊迫性。《不擴散核武器條約》生效于廣島、長崎事件25年后,而人工智能發展迅速,危險人工智能能力(如生物武器制造)可能在幾年內出現。因此,開發有效的人工智能全球治理機制更具緊迫性,留給有利的知識和地緣政治發展的時間可能更少,這可能使人工智能治理的成功比《不擴散核武器條約》的創建更難。
結論
核治理的成功建立在兩個超級大國對核穩定共識的基礎之上,并歷經二十年才系統化。而人工智能治理尚無類似的“穩定理論”或國際共識。技術的不成熟性、發展速度及其政治經濟影響的不確定性,使其更難以達成統一治理模式。
巴魯克計劃的教訓仍具現實意義:試圖通過制度化技術劣勢控制他國將引發廣泛抵制,尤其是在缺乏信任基礎時。因此,人工智能治理的前景更依賴于在特定領域(如人工智能對核穩定的影響)上尋求共識與逐步合作。
人工智能治理的有效路徑或將不同于核武器治理,而是建立在動態、多邊、分領域的機制創新上。盡管挑戰重重,歷史經驗仍提供了重要啟示,幫助識別可行治理路徑與避免重復過往失誤。
免責聲明:本文轉自啟元洞見。文章內容系原作者個人觀點,本公眾號編譯/轉載僅為分享、傳達不同觀點,如有任何異議,歡迎聯系我們!
轉自丨啟元洞見
研究所簡介
國際技術經濟研究所(IITE)成立于1985年11月,是隸屬于國務院發展研究中心的非營利性研究機構,主要職能是研究我國經濟、科技社會發展中的重大政策性、戰略性、前瞻性問題,跟蹤和分析世界科技、經濟發展態勢,為中央和有關部委提供決策咨詢服務。“全球技術地圖”為國際技術經濟研究所官方微信賬號,致力于向公眾傳遞前沿技術資訊和科技創新洞見。
地址:北京市海淀區小南莊20號樓A座
電話:010-82635522
微信:iite_er
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.