一
人工智能已成為各行各業的變革力量,為創新和效率提供了前所未有的機會。然而,人工智能的快速發展也帶來了復雜的監管、法律和道德倫理挑戰,尤其是在出現價值觀沖突的地方。這些沖突通常體現在知識產權、創新與監管之間的平衡以及保護弱勢群體免受技術風險等領域。應對這些挑戰需要從傳統的倫理審查流程轉向更具活力和包容性的倫理審議框架。
近年來的實踐表明,人工智能的治理充滿了價值沖突,造成了諸多監管和倫理僵局。例如,特朗普政府強調放松管制以促進人工智能創新,而這往往與要求嚴格治理以減輕人工智能部署帶來的潛在風險的呼吁相沖突。這種緊張局勢凸顯了促進顛覆性創新與確保該創新實施中特定的脆弱群體免受技術濫用之間的更廣泛爭論。
同樣,在知識產權領域,人工智能生成內容的興起引發了關于版權保護的爭論。創意產業認為,不應允許人工智能公司未經適當授權使用受版權保護的材料,因為這會破壞人類創作者的經濟基礎。相反,人工智能支持者認為,獲取各種數據集對于訓練強大的人工智能模型至關重要,這表明過于嚴格的版權法可能會扼殺創新。這種二分法凸顯了平衡創新者、監管者和消費者利益(尤其是特定的脆弱群體)的挑戰,這種情況通常被描述為“不可能三角形”。
傳統的倫理審查流程通常旨在評估特定人工智能創新或應用是否符合既定的倫理規范和監管標準。雖然這種方法對于確保合規至關重要,但它往往無法解決人工智能治理過程中各種特定的價值沖突。通過傳統倫理審查做出的決策可能難以平衡相互競爭的利益和價值觀,導致最終結果可能無法完全讓任何利益相關者群體滿意。而且,傳統審查往往是被動的,側重于審查者(主要是領域專家和公眾代表)對創新者計劃實施的創新應用的裁決性評估與判定,難以體現人工智能創新涉及的復雜的價值與利益沖突,從而錯失了主動識別和解決倫理問題的機會。這難免會削弱各個利益相關者對倫理審查本身的信任,并最終影響公眾對人工智能技術的信任。
為了有效應對人工智能治理的復雜性,迫切需要將倫理審查擴展為倫理審議。與傳統審查不同,倫理審議涉及審查人員和利益相關者(包括創新者、監管者、消費者和脆弱群體等)之間的對話與商議。這種協作方法旨在在創新過程的早期識別和解決價值沖突,促進合乎倫理和社會可接受的解決方案。倫理審議尤其強調包容性,以確保在決策過程中考慮到不同的觀點。通過讓廣泛的利益相關者參與進來,這種方法有助于更全面地了解人工智能創新的潛在影響,并促進制定反映所有相關方利益的平衡解決方案。
人工智能倫理審議的基礎是對人工智能發展中相關價值、利益和權利沖突的審議空間的形成。就科技倫理治理而言,其審議空間就是對于科技倫理問題以及相關治理實踐展開討論、征求意見與建議、開放建言獻策的空間。在人工智能倫理等科技倫理治理層面,我國在科技倫理治理及科技倫理審查辦法等文件的公開征求意見過程中,實際上已初步構建了科技倫理審議空間。通過不同時段的審議空間的構建,不僅可以在具體的倫理審議之前由意見征集與觀點碰撞預先形成認知前提和輿論空間,而且在針對具體產品與服務的倫理審議之后,使全社會對相關問題的探討延伸到人工智能創新的全生命周期。因此,廣義的科技倫理審議是全社會對科技倫理焦點問題及其應對方案的共同探討。根據不同的情況,參與探討者的范圍可以是專家、利益相關者群體乃至全社會。
二
由于人工智能倫理審議目前還只是一個設想,雖然可以提出一些基本原則和關鍵步驟,但究竟如何進行有效的審議還需假以時日,有待面向人工智能創新的復雜性事實且充分“接地”的實踐探索。在此,不妨看看英國政府最近在人工智能版權改革上進行的政策審議的案例,簡要探討一下從中可能獲得的啟示。
英國政府2024年12月就修改現有版權法以促進人工智能創新的提案所進行的咨詢(《Copyright and AI: Consultation》)對如何進行倫理審議具有重要的借鑒意義。為了保護版權作品權利人的利益并減少人工智能模型訓練在法律上的不確定性,英國政府通過公眾咨詢的方式發布了人工智能模型訓練版權改革方案。在咨詢文件中,列出了政府考慮的四個選項:
? 選項0:不采取任何行動,版權和相關法律保持不變;
? 選項1:強化版權,在所有情況下都要求許可;
? 選項2:廣泛的數據挖掘例外;
? 選項3:數據挖掘例外,允許權利人保留其權利,并以強有力的支持透明度的措施為基礎。
這四個選項的排列所呈現的即是政策敘事,也可以說是審議空間的議題設定。透過選項的編排(選項0維持原狀,選項1加強保護,選項2放棄保護,選項3則是對1和2的綜合),英國政府傾向于“選擇退出”模式,即僅在權利人未主動保留其版權的情況下,才允許基于其作品進行人工智能訓練,同時通過加強透明度來支撐這一方案。
在政策制定者看來,選擇退出旨在增加可用于訓練的數據,而透明度則旨在促進許可。僅從表面上看,很容易接受這種折衷選擇和雙重保護——這無疑是政策敘事常見的策略/招數,盡管議題設置者未必有意為之。而這種策略背后的哲學是二元論哲學加折衷主義,即矛盾哲學或斗爭哲學加調和主義,它們對于大多數簡單問題的解決是有效的。比方說,為了減少血液黏稠度吃阿司匹林,結果導致一些人胃部容易出血,解決的方案就是將阿司匹林升級為在胃中不會溶解的腸溶片。大多數問題導向的政策制定能做到這樣,并且在增加一些配套的支撐舉措就不錯了。
但對于人工智能大模型訓練中的版權保護這一仍在發展中的復雜問題,該模式未必適用,因為其治理對象已從以往具體的侵權個案轉向整個創意作品使用方式的顛覆性變革。英國政府所傾向的“選擇退出”模式允許創作者有權明確表示不希望其作品被用于訓練商業化的生成式人工智能模型。在其背后的政策敘事中,實際上與特朗普政府一樣,將“人工智能創新”和“人工智能治理”視為對立的雙方。正因為陷入這種二元對立的敘事,使得英國政府傾向的政策選項失之簡單化。
針對允許創作者保留保護其權利這一政策選擇中的優先事項,行業自身表達了不同的意愿。根據《金融時報》的報道,在一次備受爭議的磋商之前,由近40個英國創意團體新組成的人工智能創意權利聯盟敦促政府保護創意產業的權利。而他們優先考慮的是為人工智能開發中的創意內容使用建立許可市場,強調公平和共同成長的必要性;其次才是確保內容創作者能夠控制自己的作品并能夠監控其使用方式。因此,盡管絕大多數公眾支持人工智能模型訓練的透明度,以及科技公司向內容創作者支付版稅,但人工智能創意權利聯盟所擔心的是,新規則的制定會不會使版權持有者難以與人工智能公司就其作品達成交易。
正如牛津大學人工智能倫理研究所主任 Caroline Emmer De Albuquerque Green 博士和牛津大學博德利圖書館版權與許可部負責人 Chris Morrison 所指出的那樣,政府提案的重點主要放在版權對創意產業和人工智能領域相互沖突的影響上,強化了使人群觀點分立的“版權戰爭”敘述,而非從復雜性和相互糾纏的角度探索具有更廣泛接受性的倫理法律框架。英國政府對政策選項的提議迫使受訪者形成兩種對立的觀點,本質上造成了人工智能和創意產業之間不必要的分歧,也損害了研究人員和民間社會等關鍵利益相關者的利益。在他們看來:“我們的目標必須是建立法律和倫理框架,擺脫建立在人工智能創新和人類創造力本質上是競爭關系、應相互孤立對待的理念之上的二元方法。”
這種二元對立哲學使得英國政府在此問題上的政策敘事陷入雙重盲區。一方面,議題設置者未能看到,人工智能版權許可經濟已經形成規模,對于許多人工智能公司來說,版權作品許可已有成熟的路徑,包括與大學和圖書館的合作。另一方面,未能看到“選擇退出”模式往往只能給人加強版權人控制的錯覺,而實際上,隨著生成式人工智能的普及,許多專業的創作者自身也未必遵循這一規定,這就意味著這一實施成本高昂的方案收效甚微。反過來,現實中通過合作促進版權流動的方式所帶來的收益與風險則是可預測的。因此,更務實的解決方案的宗旨可能是,在當前創作者收入不高且每況愈下的情況下,確保對基于各種形式的許可協議獲得的任何資金的分配更多地惠及創作者。
(https://www.ox.ac.uk/news/2025-04-02-expert-comment-it-possible-support-both-ai-innovation-and-human-creativity)
對于人工智能倫理審議來說,由此政策審議可以得到的一個重要啟示是:人工智能倫理審議應該建立在利益相關者的共同審議之上。人工智能倫理審議應該像上述政策審議那樣,超越基于二元對立的觀點所推出的簡單化的原則和規范,采取以利益相關者為中心的方法。審議機制的設計應充分認識到讓所有相關方通過立場表達和各種形式的對話磋商參與政策與規范制定的重要性。
值得指出的是,這種對政策敘事的審議中的哲學追問恰好是我國當前人工智能法律和倫理治理中所或缺的。它不僅有助于打破其中自我指涉乃至自欺欺人的二元對立的方法論或誘導術,而且可以促使人們更好地面向事實本身,進而重新確立人工智能倫理和法律等治理規范的優先事項。
這使人聯想到當下的一個熱門話題:人工智能時代文科究竟有沒有用,其中也包括哲學。年初,邁克爾·施拉格和大衛·基隆在《MIT斯隆管理評論》上發表的題為《哲學吞噬人工智能》(Philosophy Eats AI)的文章給出了肯定的答案:
“作為一門學科、數據集和感性,哲學越來越多地決定著數字技術如何推理、預測、創造、生成和創新。企業面臨的關鍵挑戰是領導者是否具有自我意識和嚴謹性,將哲學作為創造人工智能價值的資源,還是默認使用隱性、未闡明的哲學原則來部署人工智能。無論好壞,哲學都會吞噬人工智能。對于有戰略意識的高管來說,需要把這個隱喻放在首位。”
“哲學吞噬人工智能”這一隱喻是對程序員出身的風險投資人馬克·安德森于2011年提出的“軟件正在吞噬世界”(Software is eating the world)的口號的化用。施拉格和基隆強調指出:
“雖然合乎倫理和負責任的人工智能目前主導著哲學在開發和部署人工智能解決方案中所扮演的角色,但這些主題只代表了哲學觀點的一小部分,這些觀點指導著人工智能的生產、效用和使用。偏重道德準則和護欄會低估哲學的真正影響。人工智能模型應該實現什么(目的論)、什么算作知識(認識論)以及人工智能如何代理實在(本體論)的哲學觀點也影響著價值創造。如果沒有深思熟慮和嚴格地培養哲學洞察力,組織將無法從其生成性和預測性人工智能投資中獲得卓越的回報和競爭優勢。”
四
在借助高端商業管理雜志的文章探討哲學對于人工智能的重要性后,還是回到人工智能倫理審議如何實際操作這一主題。毋庸置疑,有效人工智能治理中的倫理審議應遵循包容性、平衡性和問責制等一系列關鍵原則。為了避免一些不必要的套話,在此先簡單列出當前人工智能倫理治理能力建設亟待加強的三個方面:
1. 包容性與對脆弱群體的關注。包容性即確保所有利益相關者享有平等的機會和參與,積極應對技術脆弱群體在參與能力方面的重大不平等問題。
2. 更加明智的決策。更加明智的決策首先需謙遜地承認倫理審議的復雜性與挑戰,并強調對倫理原則及立場的反思、調整和修正。換言之,敏捷治理與適應性治理的關鍵在于倫理審議適應創新應用,而非相反。這就意味著當前人工智能倫理審議的根本挑戰在于,審議所需要的知識甚至多于人工智能創新應用。
3. 早期介入機制。 即應在人工智能開發項目開始時啟動利益相關者的早期倫理商議和討論,更為主動地識別和思考涉及的各種倫理問題與價值沖突,包括這些認識和思慮本身的局限性,從一開始就開啟由倫理反思、商談、對話到審議的思想空間。
簡言之,為了解決人工智能治理中固有的倫理和價值觀沖突導致的僵局,亟待超越傳統的倫理審查機制,轉向更具包容性、更加明智和更早介入的倫理審議框架,以此有效推進負責任和可信任的人工智能發展。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.