【摘要】進攻性人工智能指人為地濫用人工智能(AI)來完成信息搜集并執行惡意進攻指令的智能體,其源于早期的棋盤博弈,現已被廣泛應用于國家安全部署、情報搜集與意識形態等領域。然而,其道德問題不容忽視,具體講,技術“黑匣子”致使倫理責任模糊,非法情報搜集威脅全球公眾的隱私安全,復雜場景下機器判斷具有不可控性,這都將國際局勢推向新的政治不穩定境遇。有鑒于此,必須建立人類之于機器的“道德主權”,在全球范圍內構建“復合網絡”的倫理考量體系,并優化風險分級預案,從而為機器的“道德嵌入”、道德分級,以及“不可接受性風險”的倫理審查提供支持。
引用本文:王英明, 石超. 進攻性人工智能的道德考量與全球治理[J]. 科技導報, 2025, 43(4): 37-45 https://doi.org/10.3981/j.issn.1000-7857.2024.06.00622
科技創新成為國際戰略博弈的主要戰場,圍繞科技制高點的競爭空前激烈。進攻性AI(offensive artificial intelligence)主要指具備自主搜集、識別情報、決策并執行具有明顯惡意攻擊性任務的智能系統,可以被攻擊者用來發動復雜且精準的網絡攻擊,目前已應用在目標偵察、精準打擊、網絡對抗、情報搜集及深度造假等多個場景,并呈現出向安全戰、輿論戰、信息戰與認知戰等領域全面擴散的趨勢。然而,由于進攻性AI算法機制的不透明性、決策“黑匣子”等原因,其制定的解決方案可能會出現多場景應用的倫理道德失范,人類難以實現對AI決策過程的約束。因此,AI治理必須達成有效的國際合作與共識,明晰進攻性AI存在的場景、類型及特點,增強其在設計、決策與任務執行中的道德考量,構建其對科技倫理挑戰的具象化圖景,這對制定有效的AI倫理約束策略至關重要,或許可以為進攻性AI的倫理規范與道德框架優化提供理論基礎。
01.
進攻性AI的演進歷程與應用場景
進攻性AI的前身來源于計算機跳棋程序及其基礎理論,并在實踐中逐漸演變為具有進攻性的智能體。AI在兵棋推演方面顯示出強大的推算能力,其基于海量數據庫做出的智能決策的速度和質量遠超人類。憑借出色的表現,AI被逐漸應用于軍事領域的兵棋推演與戰略決策。
1.1 進攻性AI的定義及其理論流變
2019年,由于網絡安全與AI技術的深度關聯,惡意利用AI進行網絡進攻被稱為進攻性網絡武器(offensive cyber weapons),此可以視為進攻性AI的前身。伊斯洛爾·米爾斯基等于2022年正式提出“進攻性AI”這一概念,即“使用或濫用AI來完成惡意任務”,在進攻工作量的基礎上實現進攻精度、強度和廣度全面提升與最大回報。進攻性AI的理論體系隨著在軍事與安全領域的深入應用而逐漸完善,主要特征有2個:一是高度自主性的智能決策體,二是具有進攻能力的意識形態體。2024年,進攻性AI的使用主體逐漸由具備軍事能力的集團轉為數字資本主義操控的網絡犯罪分子,也使新技術和新的商業模式(如黑客服務)被濫用于網絡犯罪。
1.2 進攻性AI與國家安全戰略
AI技術的深度發展使得其逐漸在國家安全戰略領域嶄露頭角。20世紀80年代,美國提出“空地一體戰”“非對稱作戰”等一系列作戰概念,這些概念初步引入智能化元素,標志著AI技術被納入軍事戰略考量之中。進攻性AI已被應用于國家層面的戰爭發起與安全策略部署之中,用于執行各種帶有戰略意圖的演習、軍備及安全決策。由宏觀層面的進攻性AI國家戰略部署轉向已覆蓋的微觀實驗環境與真實戰場,則能進一步透視其威懾力量與本質。進攻性AI還被應用于戰場,為大規模的突襲戰提供有力的軍備算力支撐(表1)。
表1 進攻性AI在現代化戰場和軍事武器中的應用
1.3 進攻性AI與意識形態滲透
相比于軍事領域內進攻性AI的顯性價值觀特征,非戰爭形態的意識形態操控和情報戰爭則更為隱蔽。進攻性AI具備深度偽造信息的功能,正在全球信息環境中被非道德、非法地使用著,成為全球詐騙、假新聞泛濫、隱蔽的心理操控的得力工具。第一,進攻性AI加劇假新聞、假情報與虛假認知的傳播和擴散。第二,全球網絡安全系統面臨著更為嚴峻的挑戰。第三,進攻性AI為破壞網絡安全和全球性詐騙活動提供便利。
02.
進攻性AI的道德倫理考量及風險肇因
從本質上講,AI作為當前人類文明發展水平的先進生產力代表之一,本應致力于“緩解當今世界極為突出的財富不均和全球科技發展不平衡兩大問題,并促進世界和平”。但實踐證明,進攻性AI難以做到以“和平”為真正的實然目的。完全定量化的進攻性AI可以為人類社會道德決策帶來絕對客觀的認識是不現實的,必須高度重視其潛在的倫理失范及其衍生的次生災害。理由之一在于進攻性AI在構想之初的目的便是立于“人的反面”——針對和傷害人類。在戰略博弈中,戰爭倫理也規定“有限的道德合法性”的先驗立場,這構成進攻性AI倫理失范的根本性難題。二是由于信息情報采集數據的不完全真實性、算法設計人員的道德偏見、算法計算的發展限制、區域特色與差異等因素,進攻性AI可能帶來算法偏見(algorithmic bias)。三是,定量化的進攻性AI難以滿足政治的非中立、價值多元性,其不透明、難以道德審查等特征必然遭到質疑,當追求最大的利益沖動超越政治責任與社會責任,或將對全球公民權利、國際生態造成極大傷害??梢?,僅僅將進攻性AI簡單視為技術運算工具,可能會擊破全人類的共同價值和道德底線。“技術上最偉大的勝利與最大的災難幾乎并列”,進攻性AI的倫理道德問題亟須正視。
2.1 技術不透明性與“黑匣子”帶來的倫理責任風險
進攻性AI能夠最大限度地排除人為因素并建立其獨特的數字范式,這種數據訓練模式所形成的機器價值導向并非透明的,其決策過程也被置于“黑匣子”之中。這樣就意味著,進攻性AI在執行擊殺任務的同時無法絕對秉承“價值中立”的原則,人類也無法確切考量進攻性AI對倫理、價值、生命、道德、權利等的追求與底線。進一步來說,進攻性AI目前無法理解人類生命的價值,缺乏對自己或他人死亡事件之意義的感知能力。因此,進攻性AI“科學化”“客觀化”“專業化”的幻覺也加劇了現代戰爭中的倫理失范。
總之,進攻性AI的算法邏輯無法完全復現和遵循基于人類情感和經驗的道德判斷,其對任務執行的忠誠度顯然要高于對人類生命意義與價值的感知,它并不能對其所執行的針對人類個體的傷害、虐待,甚至“斬首行動”的攻擊性指令擔負實際的責任。
2.2 情報無差別搜集的信息安全風險
進攻性AI非法從全球搜集軍事情報與公眾日常數據,其倫理失范問題可能引發全球道德恐慌。其一,進攻性AI的分析數據來源很可能依賴于國家間的不當監聽、竊取信息的手段。其二,現代戰場的智能體為非法搜集情報提供了更多的便利。其三,非法的情報搜集與不明的政治意圖雜糅,使AI倫理責任主體晦暗不明。
2.3 對智能體進行人為控制的不確定性風險
多元化、復雜化的戰爭情境使進攻性AI的道德判斷與區分原則背道而馳,人類預設的進攻程序缺乏滿足復雜、海量的現代戰爭場景的道德應對能力,可能會誘導智能體做出不確定性控制下的極端行為,容易導致道德合法性危機。第一,進攻性AI的數據感知不確定性源于戰場環境的不確定所引發的智能體行為的不確定。第二,進攻性AI缺乏對攻擊任務背后的人類及復雜社會關系的應然理解。
2.4 進攻性AI無節制發展的政治不確定性風險
進攻性AI的無節制發展可能會進一步加劇各國之間已然存在的認知偏差,進而加劇國際戰略博弈的政治不確定性與力量失衡問題。進攻性AI引發的道德恐慌(moral panic)成為次生風險。道德恐慌是一種過度的社會反應現象,媒體、公眾、利益集團和官方共同營造的道德恐慌對形塑越軌行為起到了推波助瀾的作用。其一,動態競爭壓力、不確定性意圖、進攻性 AI的動能與道德恐慌相互疊加。其二,道德恐慌所假定威脅的規?;驀乐爻潭韧菍φ鎸嵡闆r的夸大。
03.
價值對齊:建立全球機器倫理治理共同體
技術的進步總是伴隨著新的倫理問題。進攻性AI最具倫理挑戰性之處,莫過于道德推理能力的算法化。正是如此,才使進攻性AI成為“純粹的工具”與“道德主體”之間的某種具有過渡性質的智能體,并由此使其具備某種人類“德性”之雛形。要真正使進攻性AI技術的倫理學后效滿足現有的人類價值觀體系,其主要舉措并不在于野蠻地禁止此類技術的研發,而恰恰在于如何使此類技術趨于具備人類意義上的“道德推理能力”。
3.1 設立人對機器的“道德主權”原則
通過確立人類“道德主權”的價值共識來重塑和創新AI治理理念是推動全球AI治理體系完善并使國際秩序趨于穩定的邏輯起點。首先,避免技術將人類“他者化”。其次,警惕虛幻的“技術共同體”。最后,確保人類在戰略博弈中的主體地位。
3.2 凝聚全球范圍的道德風險治理共識
國家層面應當積極推動AI風險治理由“線性”到“復合”、由“一元”向“多元”、由“人工”向“智能”方式的轉變。傳統的AI風險治理是基于被動防御式的“鏈條” 治理,其基本邏輯遵循“風險產生—認知—識別—分析預判—人工決策”的線性信息處理模型。實際上,各國對AI技術的全面介入已經為“復合網絡”的綜合道德考量模式提供了可行性基礎。第一,構建縱深化、一體化、協同化的全球AI風險治理網絡中心。第二,構建風險治理主體在話語權上的“技術平衡”。第三,各國之間必須積極主動地尋求合作與共治之道。
3.3 完善進攻性AI的風險評估體系
進攻性AI亟待建立統一的、完善的倫理風險評估體系與監管措施條例。建立全球關于進攻性AI的風險評估體系需要滿足3個條件。首先,應當建立完善的進攻性AI道德風險評估方案與參照細則。其次,成立分級體系明確、責任劃分清晰、實時動態評估的監管機構。最后,確保進攻性AI投入戰略博弈符合相應的風險等級。
3.4 不可控場景的“道德嵌入”
AI的能力會隨著時間的推移和使用方式的改變而改變,必須從設計之初就要考慮未來可能面臨的所有風險類型與其道德規范框架,如此才不至于產生對進攻性AI發展走向的過度非理性恐懼。第一,增強“價值敏感”設計的倫理審查與可解釋性。第二,將進攻性AI的決策置于具備道德責任感的人類設計理念之中,進攻性AI不應受到非法的控制或歪曲,也不應受撒謊、操縱、脅迫或扭曲的影響。第三,應當置于宏大的全球敘事下考察進攻性AI倫理風險治理的意義。
04.
結論
綜上,不同于AI在經濟生產實踐中的作用,進攻性AI應用于國際戰略博弈或戰場環境會構成更深層次的倫理風險挑戰。在深度考察進攻性AI倫理屬性、倫理責任及倫理走向后,如何應對國際人道法和武裝沖突法對于AI武器系統的適用性的爭議問題,依然是國際社會當前所面臨的共同且迫切的課題。進攻性AI的倫理風險治理,絕不僅限于建立限制進攻性AI發展的國際合作框架和規則體系,而是要更加迅速地推進進攻性AI的透明度改造和人類情感中具有倫理、道德、責任屬性的因素嵌入,并確??梢宰匪莺蛯徲?,支持開展多領域、跨學科的對話以尋求規范之道。讓進攻性 AI技術充滿人文(倫理)關懷,是在不確定風險下依然可以使技術保護全人類的價值基礎,并在此基礎上構建“智能威懾”以規范人類世界的技術運用方式。在此過程中,基于文明互鑒進行AI風險的全球治理并貢獻中國智慧、中國方案、中國力量,才能確保這項強大的技術能力被謹慎地運用,服務于全人類的和平與安全。
作者簡介:王英明,中國石油大學(華東)馬克思主義學院,碩士研究生,研究方向為技術倫理;石超(通信作者),中國石油大學(華東)馬克思主義學院,副教授,研究方向為技術倫理、思想政治教育。
論文全文發表于《科技導報》2025年第4期,原標題為《進攻性人工智能的道德考量與全球治理》,本文有刪減,點擊文末“閱讀原文”獲取全文。
內容為【科技導報】公眾號原創,歡迎轉載
白名單回復后臺「轉載」
《科技導報》創刊于1980年,中國科協學術會刊,主要刊登科學前沿和技術熱點領域突破性的成果報道、權威性的科學評論、引領性的高端綜述,發表促進經濟社會發展、完善科技管理、優化科研環境、培育科學文化、促進科技創新和科技成果轉化的決策咨詢建議。常設欄目有院士卷首語、智庫觀點、科技評論、熱點專題、綜述、論文、學術聚焦、科學人文等。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.