無論是人工智能對人類道德的挑戰還是改善,都關涉在今天技術加速迭代的社會語境中我們如何看待道德的演化方向,即我們如何理解“道德進步”。
原文 :《AI增強是否構成道德進步》
作者 |浙江大學哲學學院研究員 白惠仁
圖片 |網絡
人工智能(AI)與人類道德之間似乎存在著一種張力:一方面,人工智能不斷挑戰人類現有道德秩序,因而我們需要完善倫理規范、注重風險預警;另一方面,人工智能在個體層面強化了人的道德決策能力(如基于智能技術的“道德增強”),在社會層面促進了某些人類基本價值的實現(如生成式人工智能極大地促成了知識平權)。無論是人工智能對人類道德的挑戰還是改進,都關涉在今天技術加速迭代的社會語境中我們如何看待道德的演化方向,即我們如何理解“道德進步”。技術進步與道德進步的關系是數字智能時代的重要理論問題,也是使“科技向善”“科技增進人類福祉”等理念得以清晰的基礎概念。
作為一種“道德技術”的AI
薩維列斯庫和佩爾松認為,氣候危機、恐怖主義、全球貧困等“存在性風險”的加劇,暴露出人類道德能力的根本性缺陷:人類在小型社會演化形成的道德認知架構(如親緣利他)無法應對超大規模復雜系統的倫理要求。這種認知失效具體呈現為三重困境——空間維度上無法有效協調陌生人社群的倫理訴求,時間維度上缺乏對未來世代的道德關懷,智性維度上受制于偏狹的道德直覺與認知偏差。由此,他們提出了通過生物醫學手段進行個體道德動機和道德認知增強的理論框架。然而,傳統道德教育的微觀調節屬性與生物醫學增強的干預暴力性,在提升效度與維護自主性和人格同一性之間形成沖突,這催生了以人工智能為載體的新型道德增強模式。同時,近年來在理論層面關于人工道德能動者(artificial moral agents)的廣泛討論,在實踐層面大語言模型逐步開始提供道德知識和道德建議,也為AI道德增強奠定了基礎。
無論是基于藥物、腦刺激、基因編輯等的生物道德增強,還是通過智能算法和大數據提供道德決策的AI道德增強,甚至是傳統的減速帶這類專門設計用于改變個人態度或行為的環境說服技術,都可以被統稱為“道德技術”。這類技術旨在促進行為的利他性、提升道德判斷的準確性,讓人們更容易作出道德上正確的選擇。具體來說,作為道德技術的人工智能主要有三種模式:第一,人工道德能動者,即通過某種“道德算法”形成道德決策智能體,替代人類在特定情境中直接作出決策;第二,人工道德顧問,即通過人工智能提供道德決策建議,幫助人類在復雜的倫理困境中作出合乎道德的選擇;第三,蘇格拉底式助手,即通過蘇格拉底式問答促使人類進行道德反思,培養道德推理能力。相較于直接干預人類生理機能的生物道德增強(如催產素提升共情、基因編輯抑制攻擊性),AI道德增強展現出獨特優勢:AI只通過數據分析和算法建議輔助決策,彌補人類信息處理能力的局限,而不侵入或改變身體結構;AI作為外部增強工具尊重用戶的自主性,幫助用戶突破情感與直覺的認知偏差;AI不預設道德原則,用戶可隨時調整參數或選擇不同道德框架,特別是大語言模型可以提供實時道德決策支持和道德一致性檢查,避免生物增強的剛性限制。
AI道德增強作為一種“道德技術”也面臨相應的倫理挑戰。首先是道德行為的自動化,其缺乏內在的道德動機,僅僅是外部條件作用的結果,道德行為變得機械化和工具化,長期來看可能會形成“人的人工智能化”;其次是道德多樣性的削弱,標準化的道德行為模式削弱了不同文化和個體間的道德多樣性,AI驅動的道德標準可能忽視或壓制其他形式的道德理解和實踐;最后是道德責任的稀釋,個體的道德行為越來越依賴于AI技術,可能導致道德責任的稀釋,個體可能認為他們的道德行為是由技術引導或控制的,因此自己不需要承擔完全的道德責任。而一個更為根本性的質疑是:如果增強系統本身的道德標準源自被增強者的設定,那么如何評價增強的有效性呢?該質疑觸及道德實在論與建構主義的根本分歧,不僅暴露出道德技術對元倫理問題的回避,更提出了一個重要的理論難題:人工智能倫理學應當使用什么概念工具或框架來理解和應對直接改變道德的AI技術?
AI道德增強構成道德進步嗎
應當如何評估AI 道德增強是不是我們所需要的“向善”技術呢?本文引入“道德進步”(moral progress)的概念來考察該問題。在哲學史上,道德進步一直是備受關注的主題,廣泛地指任何道德上向好的變化(如減少暴力、提升福利),狹義上則強調進步需由人類道德能力(如理性、動機)的運用或提升驅動(如廢除奴隸制需人類主動變革)。這里的“進步”不同于單純變化,需滿足兩個條件:第一,后續狀態整體優于先前狀態;第二,變化之間存在因果關系。但學界對“優于”的界定存在顯著差異,這就構成了認定道德進步的不同標準:一是認知標準,道德規范能夠更成功地描述道德實在即構成進步;二是形式標準,道德規范的適用范圍和權威性的擴展即意味著進步;三是實質標準,是否存在一個對道德規范進行評價的具有普遍有效性的基礎;四是功能標準,對進步的判斷來自道德規范是否能滿足當下社會中道德的功能,而這一功能來自社會經驗。
當代AI道德增強使得道德活動從主客體分立的實踐領域轉變為由算法框架與人腦神經共同建構的混合現實,這種轉換不僅重構了道德判斷的生成機制,更改變了道德進步的可能性條件。基于此,本文認為,在功能主義標準之下技術手段對道德進步的驅動才可能具有合法性,理由如下。
首先,啟蒙時代以來的趨同式進步觀隱含著三個基本預設:第一,道德發展存在終極目標或“歷史終點”(如康德的永久和平);第二,所有文化體系都應朝此目標收斂;第三,實現路徑依賴理性個體的認知提升。功能主義標準通過解構趨同目的論,提供了一種去中心化和殖民化的進步觀,強調道德進步的情境性與地方性,從而更貼合全球文化多樣性現實,也更能容納各種技術手段的不確定性,并為評估技術介入的正當性提供動態標準。
其次,近年來關于道德的心理學、認知科學、神經科學研究不斷強化道德判斷中直覺、經驗及情緒等非理性因素所發揮的作用,導致我們缺乏堅實的理由預設道德判斷能夠追尋道德真理,從而否定了基于道德實在論的認知標準和實質標準,更傾向于功能主義標準。
最后,其他道德進步標準預設了道德進步至少部分地依賴于個人提高道德認知(社會進步取決于個體進步)的最小道德進步以及道德演化方向,而功能主義標準沒有這些預設條件,從而避免道德進步內在價值的詰難,如亞里士多德的“道德努力”(moral struggle)和康德的“道德自主”(moral autonomy)。在功能主義標準之下,道德被認為具有一種功能,首先確定當代社會道德的構成功能,然后將道德進步定義為履行該功能的效率的提高。凡能增強道德系統合作維持功能的技術手段,即構成進步要素。
那么,在功能主義標準之下AI道德增強如何構成道德進步呢?功能主義標準的代表人物基切爾認為,道德是一項始于人類原始祖先的“工程”或者說“社會技術”,道德準則不斷變化發展,之所以至今仍在推動這項道德工程持續進行,就是因為其主要功能是解決在社群中隨著群居數量及合作范圍的擴大而必然引起的“利他主義的失敗”(altruism failures)問題。而道德進步的方式是,確定哪些道德實踐中的問題可以被我們可辯護地視為道德問題,哪些解決方案是受到辯護的解決方案,人類通過理想協商確定當代的“道德問題”和“解決方案”,只有當真正的道德問題得到成功解決時,道德進步才會發生。
當代的“道德問題”集中表現為新興技術引起的利他主義失敗,也就是科技倫理問題,傳統規范倫理理論面對新興技術顯得乏力。當前科技倫理問題的突顯是由于技術的演化速度大大超過了人類道德的演化速度,產生了道德滯后問題(moral lag problem)。在強的意義上,可以利用AI 道德增強加快道德的演化,彌補技術所引起的利他主義的失敗。AI道德增強可快速識別新興技術(如基因編輯、自動駕駛)的倫理挑戰并提供規范性解決方案,消除道德教育或文化演化的遲緩性。相較于人際說服,人們對自動化技術可能更信任,更易接受其道德建議,從而克服社會認知偏見(如權威偏見或情緒干擾),因此,AI 道德增強能夠比社會文化、道德教育更高效地實現該功能,新技術所帶來的道德危機可以由新技術自身去應對。即使在弱的意義上,AI道德增強也能夠為科技倫理治理提供更多樣化的“倫理工具箱”。因此,AI道德增強可能作為當代“道德問題”的解決方案,構成道德進步。
技術進步與道德進步的關系
人工智能既是道德挑戰,又是道德機遇。作為“道德技術”,AI可通過增強人類認知、提供決策支持、加速道德問題解決,推動功能主義意義上的道德進步。然而,技術進步從不等于社會進步,2024年諾獎得主阿西莫格魯和約翰遜在《權力與進步:科技變革與共享繁榮的千年角力》(Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity)中指出:“縱觀歷史,技術變革——無論是中世紀的農業進步、工業革命,還是今天的人工智能——一直被視為繁榮的主要驅動力,為公眾利益服務。然而,現實情況是,技術是由有權有勢的人想要和相信的東西塑造的,它為那些已經有權有勢的人創造財富、社會尊重、文化聲望和進一步的政治發言權。對于我們大多數人來說,有一種進步的錯覺。”他們進一步提出,數字時代的權力失衡主要體現在以下方面:自動化與不平等,即數字技術和人工智能的過度自動化導致就業機會減少,勞動者被邊緣化,而科技巨頭通過數據壟斷和算法控制積累財富,加劇收入差距;監控與民主侵蝕,即大規模數據收集和侵入式監控技術被用于商業和政治控制,削弱了公民隱私和民主參與。
在AI時代,人工智能推動的道德進步也并非自發產生,而是通過制度制衡、公眾參與(技術民主化)和倫理約束實現的。歷史上的農業革命和工業革命曾因權力失衡導致道德倒退,而20世紀工人運動通過抗爭實現了技術的共享,技術紅利必須通過公正的制度分配才能轉化為道德福祉。因此,技術發展的方向及其成果分配往往取決于權力結構和社會選擇,而非技術本身的“自然結果”,一旦某種技術范式與權力結構綁定,其路徑依賴將阻礙社會價值的更新。從農業革命到工業革命,從數字技術到人工智能,技術的“進步”敘事往往掩蓋了其對社會公平與道德秩序的顛覆,當人工智能被宣稱是“向善”的工具時,我們需警惕其背后潛藏的權力邏輯——技術如何被設計、由誰控制、為誰服務,才是決定道德進步與否的關鍵。回到功能主義的道德進步標準,若道德的功能是解決合作困境,那么AI治理的目標應是擴大合作的包容性,而非讓技術成為少數人的統治工具。今天的人工智能倫理學研究的基礎是技術的政治哲學。
文章為社會科學報“思想工坊”融媒體原創出品,原載于社會科學報第1950期第5版,未經允許禁止轉載,文中內容僅代表作者觀點,不代表本報立場。
本期責編:潘 顏
《社會科學報》2025年征訂
點擊下方圖片網上訂報↓↓↓
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.