99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

沈巋:論軟法的實(shí)施機(jī)制 | 財(cái)經(jīng)法學(xué)202406

0
分享至

【副標(biāo)題】以人工智能倫理規(guī)范為例

【作者】 沈巋( 北京大學(xué)法學(xué)院教授 )

【來源】北大法寶法學(xué)期刊庫《財(cái)經(jīng)法學(xué)》2024年第6期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。

內(nèi)容提要:軟法的廣泛存在,并不意味著其切實(shí)地得到了遵守和執(zhí)行。人工智能領(lǐng)域的軟法——人工智能倫理規(guī)范——被證明存在“實(shí)效赤字”,其原因在于:人工智能倫理規(guī)范的非強(qiáng)制性,抽象性、模糊性,分散、混亂與疊床架屋,自愿遵守的動(dòng)力不足,合規(guī)悖論,社會(huì)系統(tǒng)論困境,以及人工智能發(fā)展壓倒約束的宿命論。但人工智能倫理規(guī)范因其靈活快捷性、多樣適配性、合作試驗(yàn)性、事實(shí)壓力性、跨國適用性而仍然有獨(dú)特價(jià)值。經(jīng)驗(yàn)研究表明,組織機(jī)制、合規(guī)壓力機(jī)制、合規(guī)激勵(lì)機(jī)制、技術(shù)方法論機(jī)制、基準(zhǔn)機(jī)制以及軟硬法互動(dòng)機(jī)制,可推動(dòng)軟法的間接實(shí)施。價(jià)值共識(shí)與經(jīng)濟(jì)邏輯的結(jié)合、內(nèi)在理由和外在推動(dòng)的結(jié)合,是軟法獲得更多實(shí)效之道。

關(guān)鍵詞:軟法;人工智能;倫理規(guī)范;實(shí)施機(jī)制;軟法實(shí)效

目次 一、問題:軟法何以產(chǎn)生實(shí)效 二、人工智能軟法及其“實(shí)效赤字” 三、“實(shí)效赤字”原因及為什么仍然需要軟法 四、人工智能軟法的實(shí)施機(jī)制 五、結(jié)語:認(rèn)真對(duì)待軟法實(shí)施

問題:軟法何以產(chǎn)生實(shí)效

軟法效力或有效性(validity)——其“應(yīng)當(dāng)”得到遵守和實(shí)施的性質(zhì)——在于說服約束力,而不在于強(qiáng)制約束力。軟法只要不與硬法或硬法原則、精神相抵觸,又大致符合一定范圍內(nèi)社會(huì)對(duì)更好的“公共善”的認(rèn)知和期待,就具備獨(dú)有的效力。由于軟法制定者的權(quán)威性、“公共善”的認(rèn)可程度、軟法制定過程的協(xié)商性和溝通性等存在差異,軟法的說服約束力有強(qiáng)弱之分,但共同之處是,軟法的“應(yīng)當(dāng)”并不輔助以強(qiáng)制實(shí)施的制裁裝置。由此而言,軟法的應(yīng)當(dāng)有效與軟法的實(shí)際有效,并非一回事。前者是規(guī)范意義上的存在,后者是事實(shí)意義上的存在。

然而,軟法的常規(guī)定義本身又意味著其是在一定范圍內(nèi)發(fā)生實(shí)效的,很難想象,沒有實(shí)效又沒有硬法屬性的行為規(guī)則,可以當(dāng)?shù)蒙稀败浄ā狈Q謂。于是,一個(gè)需要處理的問題是,軟法又是如何產(chǎn)生或者獲得普遍實(shí)效的。軟法自提出和公布之后,至其事實(shí)上產(chǎn)生效果,必定會(huì)有時(shí)間間隔,無論該間隔之長短如何。有著軟法性質(zhì)的行為規(guī)則,在其問世伊始,通常并不會(huì)立刻、即時(shí)收獲效果,除非其只是對(duì)已經(jīng)被普遍遵守和實(shí)施的慣常做法賦予規(guī)則的形式。這種例外的情形較為少見,畢竟,絕大多數(shù)軟法是未來導(dǎo)向的,是期待人們?yōu)榱烁玫摹肮采啤倍裱碌男袨橐?guī)則或改變?cè)鹊男袨橐?guī)則。盡管軟法的生命力源于其自身內(nèi)在的說服力,但是,僅僅憑借這個(gè)內(nèi)在屬性或內(nèi)在理由,就期待一個(gè)被提議的軟法可以演變?yōu)檎嬲饬x軟法,應(yīng)該是過于理想化的奢望。因?yàn)?,指向更好“公共善”的軟法通常需要讓行為人?fù)擔(dān)更多的遵循或適用成本。如果沒有合適有效的機(jī)制可以減少或抵消這樣的成本,那么趨利避害的行為選擇傾向或者良幣避免被劣幣驅(qū)逐的動(dòng)機(jī),往往會(huì)壓倒軟法內(nèi)在理由的吸引力,從而使其無法獲取普遍效果。這就是在軟法具備內(nèi)在理由使其獲得應(yīng)然效力之外探討軟法何以產(chǎn)生實(shí)效的意義所在。

羅豪才、宋功德曾經(jīng)在國內(nèi)軟法學(xué)的扛鼎之作《軟法亦法——公共治理呼喚軟法之治》中指出,“法依靠國家強(qiáng)制力保障實(shí)施”的表達(dá)并不準(zhǔn)確。對(duì)于法的實(shí)施——即將法的效力轉(zhuǎn)化為法的實(shí)效——而言,國家強(qiáng)制力保障是不可或缺的,但二者之間又不是必然的關(guān)系。法的實(shí)施可以是行為人:(1)因?yàn)閺谋姸?xí)慣性服從;(2)出于認(rèn)可而自愿服從;(3)受到激勵(lì)而遵從;(4)迫于社會(huì)輿論等分散的社會(huì)壓力而遵守;(5)迫于組織的壓力而服從;(6)懾于國家強(qiáng)制力的使用或威脅使用而服從。由此,法的實(shí)效產(chǎn)生方式是多樣化的,法的實(shí)施機(jī)制主要有自愿服從、習(xí)慣性服從、社會(huì)強(qiáng)制服從、國家強(qiáng)制服從四種方式。這些討論是作者在反思和修正“法”的定義過程中展開的,其最終指向一個(gè)包容硬法和軟法在內(nèi)的全新的“法”概念,在這個(gè)概念構(gòu)成中,法的實(shí)施機(jī)制被概括為“公共強(qiáng)制”和“自律”。毫無疑問,在以上所列六項(xiàng)之中,除國家強(qiáng)制服從僅適用于硬法以外,其余諸項(xiàng)皆可在軟法的實(shí)施過程中呈現(xiàn)。

然而,就本文關(guān)心的問題而言,以上諸項(xiàng),或許只有激勵(lì)、社會(huì)壓力、組織壓力是值得關(guān)注的使軟法產(chǎn)生實(shí)效的方式。因?yàn)?,從眾性的服從顯然不是軟法從倡議到普遍遵守的機(jī)制,“從眾”本身就意味著已經(jīng)存在普遍實(shí)效。自愿性的服從是出于對(duì)軟法內(nèi)在理由的認(rèn)可,是軟法實(shí)施的一種動(dòng)力。只是,在硬法條件下的自愿性服從,除了在價(jià)值認(rèn)同上有無形收益外,至少還有避免國家強(qiáng)制制裁的收益。而前文已經(jīng)提及,軟法條件下的自愿性服從,不僅不會(huì)有避免制裁的好處,甚至可能會(huì)導(dǎo)致服從者付出更多的成本或代價(jià),其也就很難成為軟法產(chǎn)生實(shí)效的強(qiáng)有力機(jī)制。

當(dāng)然,羅豪才、宋功德在議論“法的實(shí)施”時(shí),并未突出對(duì)軟法實(shí)施的特別關(guān)注,其提及的激勵(lì)、社會(huì)壓力、組織壓力,更多是在理論層面上針對(duì)所有法規(guī)范(包括硬法和軟法)實(shí)施的邏輯展開,欠缺軟法實(shí)踐的豐富例證。更為重要的是,因?yàn)闆]有將軟法何以產(chǎn)生實(shí)效問題提到顯著的、專門的位置,沒有列入有意識(shí)要解決的議題之中,所以激勵(lì)、社會(huì)壓力、組織壓力是否就能概括所有的或絕大部分的軟法實(shí)施機(jī)制,也就自然不會(huì)有較為明確的論述。

而從比較法的視野觀察,域外軟法研究者對(duì)軟法實(shí)效問題有著更多的、更直接的關(guān)注。例如,德國自由柏林大學(xué)教授米莉亞姆·哈特萊普(Miriam Hartlapp)于2019年發(fā)表其對(duì)歐盟軟法在歐盟成員國的實(shí)際效果進(jìn)行的研究,指出軟法的合法性或正當(dāng)性(legitimacy)并不是推動(dòng)軟法實(shí)施的關(guān)鍵,真正起作用的是行為人是否能在實(shí)施中獲益。而軟法的可能硬法化(hardening out)是與軟法實(shí)施并行的。德國波茨坦大學(xué)教授安德里亞斯·齊默爾曼(Andreas Zimmermann)則于2021年探討了不具有法律約束力的文件——以諒解備忘錄為例——是如何在國際法之下產(chǎn)生法律效果的,指出主要是因?yàn)榇祟愇募c具有法律約束力的文件發(fā)生互動(dòng)所致,而這種互動(dòng)是由許多法律機(jī)制提供的。美國亞利桑那州立大學(xué)教授蓋瑞·馬秦特(Gary E. Marchant)和研究員卡洛斯·伊格納西奧·古鐵雷斯(Carlos Ignacio Gutierrez)于2020年合作完成關(guān)于人工智能軟法間接實(shí)施的文章認(rèn)為,軟法成功與否是高度依賴特定情境的,取決于遵守軟法的成本與可行性、對(duì)遵守軟法的激勵(lì)以及拒絕遵守或沒有遵守軟法的后果;他們描述了九個(gè)有助于人工智能軟法更加有效、更加可信的機(jī)制和過程,并暗示可以有更多其他的。相關(guān)研究不可盡數(shù),但以上數(shù)例已經(jīng)表明:一方面,如本文之前所述,論者們都傾向于一個(gè)基本前提,軟法的實(shí)效更多取決于遵守軟法給行為人帶來的好處,包括利益之增加和不利之減少;另一方面,使行為人獲得好處從而可以促進(jìn)軟法收取普遍效果的機(jī)制遠(yuǎn)不止于激勵(lì)、社會(huì)壓力、組織壓力。

然而,對(duì)于軟法的倡議者、推動(dòng)者、研究者而言,或許需要一種軟法實(shí)施機(jī)制類型學(xué)對(duì)林林總總、形形色色的實(shí)施機(jī)制進(jìn)行歸類,從而形成相對(duì)固定又具有開放性、包容性的思維工具,以促進(jìn)為軟法實(shí)施進(jìn)行有意識(shí)的配套機(jī)制建構(gòu)。“相對(duì)固定”意味著形成一些明確的分類概念,每個(gè)概念因其抽象性而可收留“家族相似”的具體形式化的軟法實(shí)施機(jī)制;“開放性、包容性”意味著本文沒有或不能述及的、實(shí)踐中已有或者未來可能有的更多形式的實(shí)施機(jī)制,也可以為這些類型概念所容納。本文即要探索軟法有哪些類型的實(shí)施機(jī)制可以增大其產(chǎn)生實(shí)效的可能性。

鑒于軟法在各個(gè)公共治理領(lǐng)域普遍存在,為使研究更加聚焦,本文選擇人工智能的軟法實(shí)施作為主要研究對(duì)象。人工智能為不計(jì)其數(shù)的研究者、開發(fā)者、應(yīng)用者帶來同樣不計(jì)其數(shù)的大大小小利益,在強(qiáng)大的利益驅(qū)動(dòng)下,人工智能快速發(fā)展,而各國政府即公共監(jiān)管者的立場(chǎng)更多是容許而不是抑制其發(fā)展,尤其是在人工智能最初方興未艾的階段,這個(gè)立場(chǎng)伴隨的就是基于軟法的規(guī)制。即便隨著人工智能風(fēng)險(xiǎn)的清晰化,對(duì)不同風(fēng)險(xiǎn)進(jìn)行分類管理和控制的硬法規(guī)范日漸增多,但也不能完全取代這個(gè)領(lǐng)域軟法的重要地位。需要特別指出的是,人工智能治理的軟法形式主要是倫理規(guī)范(ethics)。篇幅所限,本文無意就科技倫理與軟法之間的關(guān)系展開討論,盡管這也是具有重要價(jià)值的、屬于軟法本體論——軟法是什么——的議題。美國的蓋瑞·馬秦特教授和瑞士的艾菲·瓦耶納(Effy Vayena)教授等人將人工智能倫理規(guī)范視為軟法一種形式的進(jìn)路,也是本文采取的。

本文將從三個(gè)方面展開探討。首先,第二部分根據(jù)既有研究,對(duì)人工智能軟法治理的現(xiàn)狀進(jìn)行事實(shí)描述,指出人工智能倫理規(guī)范的“風(fēng)起云涌”無法掩蓋其存在的巨大的“實(shí)效赤字”;其次,第三部分分析軟法“實(shí)效赤字”的原因所在,以及即便如此,人工智能治理為什么需要并且仍然需要軟法;再次,第四部分則揭示有助于軟法實(shí)施并產(chǎn)生實(shí)效的機(jī)制,并對(duì)其進(jìn)行分類,以期建立具有指導(dǎo)意義的理論工具。本文的最后結(jié)語是對(duì)全文主要觀點(diǎn)的總結(jié),并且強(qiáng)調(diào)軟法的落地實(shí)施、獲得普遍遵守,需要價(jià)值共識(shí)與經(jīng)濟(jì)邏輯的結(jié)合、內(nèi)在理由與外在推動(dòng)的結(jié)合。

人工智能軟法及其“實(shí)效赤字”

瑞士的艾菲·瓦耶納教授、馬塞洛·林卡(Marcello lenca)教授和安娜·喬賓博士(Anna Jobin)等在《全球人工智能倫理指南圖景》一文中指出,過去五年之間,私營公司、研究機(jī)構(gòu)和公共領(lǐng)域組織發(fā)布了大量的人工智能倫理原則和指南,以應(yīng)對(duì)人工智能引起的擔(dān)憂。這些倫理指南并不具有法律上的約束力,而是說服性質(zhì)的,其可以被稱為非立法性政策文件或軟法。為了研究不同團(tuán)體在合乎倫理的人工智能應(yīng)該是什么、未來決定人工智能發(fā)展的倫理原則是什么等問題上是否達(dá)成共識(shí),以及如果有分歧,差異之處在哪里以及是否可以和解,他們?cè)谌蚍秶鷥?nèi)收集了84個(gè)含有人工智能倫理規(guī)范的文件。

對(duì)這些文件的研究表明:第一,公共領(lǐng)域組織(包括政府組織和政府間組織)與私領(lǐng)域(包括公司及其聯(lián)盟)發(fā)布的倫理規(guī)范在數(shù)量上大致相當(dāng),意味著兩個(gè)領(lǐng)域都對(duì)此高度重視。第二,非洲、南美洲、中美洲、中亞等地區(qū)缺少代表,意味著人工智能倫理規(guī)范國際話語中的權(quán)力不平衡。第三,經(jīng)濟(jì)更加發(fā)達(dá)的地區(qū)正在塑造人工智能倫理規(guī)范的討論,這可能會(huì)引起對(duì)地方性知識(shí)、文化多元主義和全球公平的關(guān)切。第四,人工智能倫理原則主要有:(1)透明;(2)正義、公平和平等;(3)不傷害(Non-maleficence);(4)責(zé)任和歸責(zé);(5)隱私;(6)造福人類;(7)自由和自治;(8)信任;(9)可持續(xù)發(fā)展;(10)尊嚴(yán);(11)社會(huì)團(tuán)結(jié)。第五,沒有一個(gè)原則是整個(gè)文件庫中共同的,盡管透明、正義和公平、不傷害、責(zé)任以及隱私是比較集中的,有超過一半的指南涉及。第六,所有十一項(xiàng)原則都存在實(shí)質(zhì)內(nèi)容的分歧,決定分歧的主要因素有:(1)如何解釋倫理原則;(2)為什么它們是重要的;(3)它們與什么問題、什么領(lǐng)域、什么行動(dòng)者相關(guān);(4)它們應(yīng)該如何得到執(zhí)行?;谶@些發(fā)現(xiàn),該文作者認(rèn)為:在政策層面,需要各方利益相關(guān)者更多的合作,以在倫理原則內(nèi)容本身和它們的執(zhí)行上形成一致和趨同;對(duì)于全球而言,將原則付諸實(shí)踐、尋求人工智能倫理規(guī)范(軟法)和立法(硬法)的協(xié)同是下一步需要做的重要工作;目前,這些非立法規(guī)范是否會(huì)在政策層面產(chǎn)生影響,或者它們是否會(huì)影響個(gè)體實(shí)踐者和決策者,還拭目以待。

艾菲·瓦耶納教授等提出的執(zhí)行問題、實(shí)效有待觀察問題,在他們研究成果發(fā)布前后,已經(jīng)有研究者進(jìn)行了相應(yīng)的探索并給出了回答:基本無效?!八惴ㄓ^察”(Algorithm Watch)是一個(gè)位于德國柏林和瑞士蘇黎世的非政府、非營利組織,其宗旨在于為一個(gè)算法和人工智能在其中是加強(qiáng)而不是削弱正義、人權(quán)、民主和可持續(xù)發(fā)展的世界而奮斗。該組織于2019年發(fā)布了“全球人工智能倫理指南清單”,對(duì)全球范圍內(nèi)旨在為以合乎倫理的方式開發(fā)和實(shí)施自動(dòng)決策系統(tǒng)確立原則的框架和指南進(jìn)行匯編。該清單于2020年4月28日更新后,有超過160個(gè)指南包含在其中,涉及中國的有:北京智源人工智能研究院聯(lián)合北京大學(xué)、清華大學(xué)、中國科學(xué)院自動(dòng)化研究所、中國科學(xué)院計(jì)算技術(shù)研究所、新一代人工智能產(chǎn)業(yè)技術(shù)創(chuàng)新戰(zhàn)略聯(lián)盟等高校、科研院所和產(chǎn)業(yè)聯(lián)盟共同發(fā)布的《人工智能北京共識(shí)》(2019年5月25日)。中國人工智能產(chǎn)業(yè)聯(lián)盟發(fā)布的《人工智能行業(yè)自律公約(征求意見稿)》(2019年5月31日)。國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布的《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》(2019年6月17日)。

顯然,“算法觀察”編撰的清單,沒法囊括世界范圍內(nèi)所有以指南、原則、準(zhǔn)則、倡議、自律公約等形式呈現(xiàn)的人工智能倫理規(guī)范。一是此類軟法在數(shù)量上難以計(jì)數(shù),某個(gè)時(shí)間節(jié)點(diǎn)上的收集不見得完整;二是此類軟法在生成上不受主體、程序等的嚴(yán)格限制,非常快捷、便利,故收集的時(shí)間節(jié)點(diǎn)以后很快又會(huì)有新的軟法出現(xiàn)。以中國為例,2017年7月8日國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,其中就多處提及人工智能倫理規(guī)范建設(shè)的意義、重點(diǎn)和時(shí)間線,盡管其本身并未直接提出具體的倫理規(guī)范。而2018年1月18日中國電子技術(shù)標(biāo)準(zhǔn)化研究院發(fā)布的《人工智能標(biāo)準(zhǔn)化白皮書(2018年版)》已經(jīng)明確,人工智能的發(fā)展應(yīng)當(dāng)遵循人類利益原則、透明度原則和權(quán)責(zé)一致原則等倫理要求,雖然其相對(duì)粗糙、簡(jiǎn)略。這是在“算法觀察”收集或更新的時(shí)間節(jié)點(diǎn)之前的情況。而在該時(shí)間節(jié)點(diǎn)以后,我國的國家新一代人工智能治理專業(yè)委員會(huì)又于2021年9月25日發(fā)布了《新一代人工智能倫理規(guī)范》,比較系統(tǒng)地提出了“增進(jìn)人類福祉”“促進(jìn)公平公正”“保護(hù)隱私安全”“確??煽乜尚拧薄皬?qiáng)化責(zé)任擔(dān)當(dāng)”“提升倫理素養(yǎng)”等六項(xiàng)基本倫理規(guī)范,又系列地提供了管理、研發(fā)、供應(yīng)和使用規(guī)范。

然而,沒法囊括并不是問題的關(guān)鍵所在,因?yàn)椤八惴ㄓ^察”于2019年發(fā)布此項(xiàng)研究初步結(jié)論時(shí)就已經(jīng)指出會(huì)有更多的指南,而該組織的觀察結(jié)論則是更加重要、更引人矚目的。2019年,“算法觀察”發(fā)布的《〈人工智能倫理指南〉:有約束力的承諾還是裝點(diǎn)門面?》一文指出,彼時(shí)收集的83個(gè)指南之中,絕大多數(shù)都是行業(yè)主導(dǎo)的,因?yàn)樽栽傅淖晕冶O(jiān)管是非常受歡迎的避免政府監(jiān)管的手段。德國的思愛普(SAP),美國的賽捷(Sage)、臉書(Facebook)、谷歌(Google)等公司既規(guī)定了內(nèi)部原則,也公布了一般指南。其中一部分是公司作為產(chǎn)業(yè)聯(lián)盟——如“人工智能伙伴關(guān)系”(Partnership on AI)——成員發(fā)布的,一部分是行業(yè)協(xié)會(huì)領(lǐng)導(dǎo)發(fā)布的。最為重要的是很少有指南附帶治理或者監(jiān)督機(jī)制,可以確保這些自愿承諾得到遵守和實(shí)施。2020年,“算法觀察”數(shù)據(jù)庫中指南數(shù)量超過160個(gè),或者是自愿承諾的,或者是建議性的,其中只有10個(gè)是有實(shí)施機(jī)制的。即使是世界上最大的工程師專業(yè)協(xié)會(huì)“電氣與電子工程師協(xié)會(huì)”(Institute of Electrical and Electronic Engineers,以下簡(jiǎn)稱IEEE)制定的倫理指南,在很大程度上也是沒有實(shí)效的,因?yàn)槟槙⒐雀韬屯铺兀═witter)等大型科技公司都沒有執(zhí)行這些指南,盡管它們的許多工程師和開發(fā)人員都是IEEE的成員。

“算法觀察”兩份報(bào)告的結(jié)論對(duì)人工智能倫理指南的實(shí)效基本持否定態(tài)度。而且,這并不是其一家之言。此前,來自美國北卡羅來納州立大學(xué)的研究人員進(jìn)行了一項(xiàng)研究,他們找了63名軟件工程專業(yè)學(xué)生和105名軟件開發(fā)專業(yè)人員,并將其分成兩組。一組是明確指示其使用美國計(jì)算機(jī)協(xié)會(huì)(Association of Computing Machinery,以下簡(jiǎn)稱ACM)制定的倫理規(guī)范,另一組是對(duì)照組(control group),即沒有看到ACM倫理規(guī)范。研究人員讓被測(cè)試者回答十一個(gè)有著簡(jiǎn)單情境介紹的選擇題,每個(gè)題都涉及倫理決策。研究結(jié)論是:無論是學(xué)生還是專業(yè)開發(fā)人員,看過和沒有看過倫理規(guī)范的被測(cè)試人員對(duì)問題的回答,沒有統(tǒng)計(jì)學(xué)意義上的顯著差異。這表明倫理規(guī)范并不會(huì)對(duì)軟件開發(fā)產(chǎn)生實(shí)質(zhì)性影響。人工智能倫理規(guī)范基本都是由技術(shù)專家(為主)、法律專家(為輔)研究和制定的,其希望通過技術(shù)的、設(shè)計(jì)的專業(yè)知識(shí)來應(yīng)對(duì)人工智能/機(jī)器學(xué)習(xí)的倫理問題,并將設(shè)計(jì)作為倫理審查的中心,因此,上述針對(duì)軟件工程專業(yè)學(xué)生和軟件開發(fā)專業(yè)人員的測(cè)試結(jié)果驗(yàn)證了倫理規(guī)范的“實(shí)效赤字”問題。人工智能倫理規(guī)范的大量產(chǎn)出背后潛藏著較為可觀的投入和支出,但其收入即實(shí)效遠(yuǎn)遠(yuǎn)少于成本,因此本文稱其為“實(shí)效赤字”。

那么,人工智能倫理規(guī)范是否真的如上述測(cè)試所表現(xiàn)的那樣“實(shí)效性幾近于零”呢?本文并不以為然。首先,人工智能倫理規(guī)范并不純粹是被束之高閣的??萍季揞^發(fā)布的此類軟法,或多或少地對(duì)其自身產(chǎn)生拘束作用。例如,谷歌公司自2018年發(fā)布《人工智能原則》(AI Principles)以來,每一年都會(huì)發(fā)布更新報(bào)告,而在報(bào)告中,其會(huì)向公眾說明自己在踐行原則方面的努力、取得的進(jìn)步、獲得的教訓(xùn)。2023年報(bào)告就提到:“這是我們每年發(fā)布的《人工智能原則》進(jìn)展報(bào)告的第五版,通過年度報(bào)告,我們始終如一對(duì)我們?nèi)绾螌⒃瓌t付諸實(shí)踐保持透明。我們于2018年首次發(fā)布《人工智能原則》,旨在分享公司的技術(shù)倫理章程,并使我們對(duì)如何負(fù)責(zé)任地研究和開發(fā)人工智能保持責(zé)任心。生成式人工智能也不例外。在本報(bào)告中,我們將詳細(xì)分享在研究和開發(fā)包括Gemini家族模型在內(nèi)的新型生成式人工智能模型過程中所采用的合乎原則的方法。原則只有在付諸實(shí)踐后才能發(fā)揮實(shí)效。這就是我們發(fā)布這份年度報(bào)告——包括學(xué)到的艱難教訓(xùn)——的原因,目的是讓人工智能生態(tài)系統(tǒng)中其他人能夠借鑒我們的經(jīng)驗(yàn)。”谷歌公司的年度報(bào)告本身的真實(shí)性、其在報(bào)告中反映的踐行原則之努力在多大程度上執(zhí)行了其原則,還缺乏中立的、客觀的、完整的評(píng)價(jià)。谷歌公司在2019年宣布不再與美國國防部續(xù)約,停止向其提供人工智能的幫助以分析海外軍事無人機(jī)監(jiān)控錄像,也被認(rèn)為是在其員工抗議此項(xiàng)目引發(fā)倫理爭(zhēng)議和憂慮的情況下作出的決定,而不是自愿履行其人工智能倫理規(guī)范的結(jié)果。盡管如此,年度報(bào)告及其公開至少意味著該公司愿意向公眾匯報(bào)其在人工智能倫理規(guī)范執(zhí)行方面的進(jìn)步,也愿意將自身置于廣泛的監(jiān)督和隨時(shí)可能出現(xiàn)的批評(píng)之下。

其次,盡管人工智能系統(tǒng)的應(yīng)用實(shí)踐在合乎倫理規(guī)范方面表現(xiàn)較差,但在一些原則——如隱私、公平、可解釋性——的應(yīng)用上還是有著較為明顯的進(jìn)步。例如,世界范圍內(nèi)已經(jīng)開發(fā)了許多保護(hù)隱私的數(shù)據(jù)集使用和學(xué)習(xí)型算法使用技術(shù),這些技術(shù)通過使用密碼、隱私區(qū)分或隨機(jī)隱私等方法,使人工智能系統(tǒng)的“視域”“變暗”。不過,吊詭的是,人工智能花了數(shù)年時(shí)間取得的巨大進(jìn)步,恰恰是因?yàn)橛写罅康臄?shù)據(jù)(包括個(gè)人數(shù)據(jù))可用。而這些數(shù)據(jù)都是具有隱私侵犯性的社交媒體平臺(tái)、智能手機(jī)應(yīng)用程序以及有著無數(shù)傳感器的物聯(lián)網(wǎng)設(shè)備收集的。

再者,人工智能倫理規(guī)范還會(huì)在“微觀倫理”層面上得到體現(xiàn)。雖然在宏觀層面上,由抽象、含糊詞句形成的人工智能倫理規(guī)范的實(shí)施乏善可陳,但是,在人工智能倫理問題引起廣泛重視的情況下,從倫理到“微觀倫理”(如技術(shù)倫理、機(jī)器倫理、計(jì)算機(jī)倫理、信息倫理、數(shù)據(jù)倫理)的轉(zhuǎn)變也在發(fā)生,并且有很好的實(shí)效。例如,緹姆尼特·吉布魯(Timnit Gebru)的研究團(tuán)隊(duì)提出了標(biāo)準(zhǔn)化的數(shù)據(jù)表,列出不同訓(xùn)練數(shù)據(jù)集的屬性,以便機(jī)器學(xué)習(xí)訓(xùn)練者可以檢查特定數(shù)據(jù)集在多大程度上最適合他們的目的,數(shù)據(jù)集創(chuàng)建時(shí)的初衷是什么,數(shù)據(jù)集由什么數(shù)據(jù)組成,數(shù)據(jù)是如何收集和預(yù)處理的等等。由此,機(jī)器學(xué)習(xí)訓(xùn)練者可以在選擇訓(xùn)練數(shù)據(jù)集時(shí)作出更明智的決定,從而使機(jī)器學(xué)習(xí)變得更公平、更透明并避免算法歧視。這一在“微觀倫理”上的工作成果,受到了微軟、谷歌和國際商用機(jī)器公司(IBM)的青睞,開始在內(nèi)部試用數(shù)據(jù)集的數(shù)據(jù)表。“數(shù)據(jù)營養(yǎng)項(xiàng)目”(Data Nutrition Project)采納了部分成果,“人工智能伙伴關(guān)系”也在建立類似的數(shù)據(jù)表。

最后,在原理上,軟法的“執(zhí)行實(shí)效”通常是需要一段時(shí)間才能顯現(xiàn)出來的。軟法的顯著特點(diǎn)在于說服,而不在于強(qiáng)制,說服的時(shí)間成本自然是不可避免的。然而,從2016年還很少有人工智能倫理規(guī)范,到現(xiàn)在全球范圍內(nèi)如此多的政府、非政府組織、大型企業(yè)等主體發(fā)布或更新此類規(guī)范,已經(jīng)表明正在形成一種道德共識(shí),即人工智能的開發(fā)、利用應(yīng)當(dāng)承擔(dān)起倫理責(zé)任。而這個(gè)道德共識(shí),美國哲學(xué)家卡爾·波普爾(Karl Popper)認(rèn)為科學(xué)界早在核武器和生化武器問題上就已經(jīng)有了:承認(rèn)存在一系列特定的威脅,必須準(zhǔn)備一批特定的人、一套特定的工具和一組特定的觀念以應(yīng)對(duì)威脅。從這個(gè)角度看,人工智能倫理規(guī)范至少已經(jīng)獲得了“推介實(shí)效”,或許其會(huì)像企業(yè)社會(huì)責(zé)任一樣,后者花了幾十年的時(shí)間,才部分地?cái)[脫了“洗綠”或“洗白”的粉飾名聲,制定了許多公司必須遵循的全球標(biāo)準(zhǔn)。當(dāng)然,這最后一點(diǎn)并不希望以偷換概念的方式,把本文關(guān)注的“執(zhí)行(實(shí)施)實(shí)效”主題延伸到“推介實(shí)效”,只是希望在觀察研究“執(zhí)行(實(shí)施)實(shí)效”時(shí)增添一個(gè)“時(shí)間—過程”維度。

“實(shí)效赤字”原因及為什么仍然需要軟法

(一)人工智能倫理規(guī)范“實(shí)效赤字”原因

發(fā)展迄今未至十年的人工智能倫理規(guī)范,實(shí)效即便不能簡(jiǎn)單地歸為零,也在總體上沒有達(dá)到解除或極大緩解人們對(duì)人工智能倫理的顧慮、擔(dān)憂的目標(biāo)。其原因主要有以下七個(gè)方面。

第一,人工智能倫理規(guī)范的非強(qiáng)制執(zhí)行性?!叭斯ぶ悄墁F(xiàn)在研究所”2017年的報(bào)告指出,倫理規(guī)范構(gòu)成柔性治理的一種形式,是對(duì)硬性的傳統(tǒng)政府監(jiān)管和法律監(jiān)督的替代,且在人工智能領(lǐng)域逐漸得到積極發(fā)展,但其有著現(xiàn)實(shí)局限性。關(guān)鍵局限在于其假定企業(yè)、行業(yè)會(huì)自愿采用和遵守。2018年的報(bào)告繼續(xù)指出:“盡管我們已經(jīng)看到制定此類規(guī)范的熱潮,……但是我們沒有看到強(qiáng)有力的監(jiān)督和問責(zé),來保證這些倫理承諾的兌現(xiàn)。”軟法這一與生俱來的、阿喀琉斯之踵般的致命缺陷,成了公認(rèn)的人工智能倫理規(guī)范實(shí)效不足的根本原因。

第二,人工智能倫理規(guī)范的抽象性、模糊性。人工智能倫理規(guī)范并不是針對(duì)人工智能的,而是針對(duì)研究、開發(fā)與應(yīng)用人工智能的人類的,其目標(biāo)是要求研究者、開發(fā)者與應(yīng)用者遵循一定的規(guī)范,以使人工智能帶來的倫理風(fēng)險(xiǎn)降到最低。因此,該規(guī)范越是具體、明確,就越容易得到遵守;否則,就很難落實(shí)或者存在各種有爭(zhēng)議的落實(shí)。然而,現(xiàn)今的人工智能倫理規(guī)范基本是抽象的、模糊的,絕大多數(shù)指南除了用“人工智能”一詞外,從不用或很少用更為具體的術(shù)語。而人工智能只是一個(gè)集合術(shù)語,指向范圍極廣的一系列技術(shù)或一個(gè)規(guī)模巨大的抽象現(xiàn)象。沒有一個(gè)倫理指南令人矚目地深入到技術(shù)細(xì)節(jié),這表明在研究、開發(fā)和應(yīng)用的具體情境與一般的倫理思維之間存在很深的鴻溝。盡管抽象性、模糊性可能被認(rèn)為是不可避免和必要的,因?yàn)槿斯ぶ悄艿膽?yīng)用極其廣泛、發(fā)展快且未來的發(fā)展軌跡并不確定,但是,前述在“微觀倫理”層面上的成功例子表明相對(duì)具體化、精細(xì)化是可能的。

第三,人工智能倫理規(guī)范的分散、混亂與疊床架屋。如同其他軟法一樣,人工智能倫理規(guī)范的制定主體包括政府、企業(yè)、企業(yè)聯(lián)盟、行業(yè)團(tuán)體、非政府公益組織、研究機(jī)構(gòu)等,這就形成了眾多形式的倫理規(guī)范。而前文提及的艾菲·瓦耶納教授等研究結(jié)果表明,各種文件使用的人工智能倫理原則術(shù)語或許是相同的,但實(shí)質(zhì)內(nèi)容存在諸多分歧。即便是最普遍的透明原則,在涉及解釋(溝通、披露)、為什么透明、透明適用的領(lǐng)域以及實(shí)現(xiàn)透明的方式等方面,都有著重大差異?!安煌娜斯ぶ悄苘浄?xiàng)目和提案出現(xiàn)了令人困惑的激增,造成人工智能治理的混亂和疊床架屋。人工智能領(lǐng)域的行動(dòng)者很難評(píng)估和遵守所有這些不同的軟法要求?!?/p>

第四,人工智能倫理規(guī)范自愿遵守的動(dòng)力不足。人工智能倫理規(guī)范的非強(qiáng)制執(zhí)行性,意味著其寄希望于人工智能研究者、開發(fā)者和應(yīng)用者可以自愿遵守。人工智能倫理規(guī)范是人類長期以來的倫理關(guān)切在人工智能領(lǐng)域里的投射,新興人工智能技術(shù)之所以引起廣泛的倫理擔(dān)憂和焦慮,表明倫理共識(shí)的普遍存在。盡管如此,人工智能給許多領(lǐng)域主體帶來的經(jīng)濟(jì)利益——無論是財(cái)富增長還是成本減少——是如此巨大,基于價(jià)值或原則的倫理關(guān)切難以勝過經(jīng)濟(jì)邏輯。在商業(yè)領(lǐng)域,速度就是一切,跳過倫理關(guān)切就相當(dāng)于走上一條最少阻力的道路。在這個(gè)意義上,倫理良幣有可能轉(zhuǎn)變?yōu)楦?jìng)爭(zhēng)劣幣而被市場(chǎng)淘汰。

第五,人工智能倫理規(guī)范的合規(guī)悖論。人工智能倫理規(guī)范的遵守往往需要在技術(shù)上有所體現(xiàn),尤其是在設(shè)計(jì)環(huán)節(jié)。所以,“合乎倫理的人工智能系統(tǒng)”(ethically aligned AI system)或“合乎倫理的設(shè)計(jì)”(ethically aligned design)等概念應(yīng)運(yùn)而生。然而,正如前文所揭,在有些情況下,合乎倫理的設(shè)計(jì)(如保護(hù)隱私的技術(shù))所需要的大量數(shù)據(jù),正是在涉嫌違反倫理原則(如侵害隱私)的情況下收集的。這個(gè)悖論是否廣泛存在尚未有充分的實(shí)證研究數(shù)據(jù),但人工智能先違反倫理原則進(jìn)行充分發(fā)展而后再考慮如何合乎倫理的情況大概率是存在的。

第六,人工智能倫理規(guī)范影響力的社會(huì)系統(tǒng)論困境。德國斯圖加特大學(xué)教授蒂洛·哈根道夫(Thilo Hagendorff)除了揭示人工智能倫理規(guī)范在實(shí)施中受到冷落的經(jīng)濟(jì)邏輯以外,還引用三位著名社會(huì)學(xué)家的理論從宏觀社會(huì)學(xué)角度進(jìn)行了分析。其指出,德國社會(huì)學(xué)家、風(fēng)險(xiǎn)社會(huì)理論的開拓者之一烏爾里希·貝克(Ulrich Beck)曾經(jīng)有一個(gè)非常形象的比喻,當(dāng)今社會(huì)的倫理“發(fā)揮的作用就如同在洲際航行的飛機(jī)上配置了自行車剎車”,這在人工智能情境中尤其適用。根據(jù)另一德國社會(huì)學(xué)家尼克拉斯·盧曼(Niklas Luhmann)的系統(tǒng)論,現(xiàn)代社會(huì)由眾多不同的社會(huì)系統(tǒng)構(gòu)成,每個(gè)系統(tǒng)都有自己的工作代碼和溝通媒介。結(jié)構(gòu)耦合可以讓一個(gè)系統(tǒng)的決策影響另一些系統(tǒng),但其影響有限,難以改變社會(huì)系統(tǒng)的整體自治。法國社會(huì)學(xué)家皮埃爾·布爾迪厄(Pierre Bourdieu)也表示,所有這些系統(tǒng)都有自己的代碼、目標(biāo)價(jià)值以及經(jīng)濟(jì)資本或象征性資本,社會(huì)系統(tǒng)通過這些資本得以構(gòu)建起來,并基于這些資本作出決策。這種自治在人工智能的工業(yè)、商業(yè)和科學(xué)里也顯著存在。對(duì)這些系統(tǒng)的倫理干預(yù)只會(huì)在非常有限的范圍內(nèi)發(fā)揮作用。

第七,人工智能發(fā)展壓倒約束的宿命論。導(dǎo)致人工智能倫理規(guī)范出現(xiàn)“實(shí)效赤字”的根本原因在于,人類社會(huì)對(duì)待人工智能的基本立場(chǎng)是決定論或宿命論的(determinism)。人工智能倫理指南文件絕大多數(shù)都將人工智能敘述為推動(dòng)世界發(fā)生歷史性改變的力量,這個(gè)改變是不可避免的、影響深遠(yuǎn)的、會(huì)給人類帶來巨大利益的,人類社會(huì)只能去回應(yīng)、適應(yīng)并為其風(fēng)險(xiǎn)和后果承擔(dān)起責(zé)任。例如,2018年的《蒙特利爾宣言》提到:“人工智能形成了科學(xué)和技術(shù)的一個(gè)重大進(jìn)步,它可以改善生活條件和健康、促進(jìn)正義、創(chuàng)造財(cái)富、加強(qiáng)公共安全以及減輕人類活動(dòng)對(duì)環(huán)境和氣候的影響,從而產(chǎn)生可觀的社會(huì)效益?!蔽覈鴩一ヂ?lián)網(wǎng)信息辦公室于2023年10月發(fā)布的《全球人工智能治理倡議》也持類似的立場(chǎng)。人工智能是人類發(fā)展新領(lǐng)域。當(dāng)前,全球人工智能技術(shù)快速發(fā)展,對(duì)經(jīng)濟(jì)社會(huì)發(fā)展和人類文明進(jìn)步產(chǎn)生深遠(yuǎn)影響,給世界帶來巨大機(jī)遇。在此決定論/宿命論的背景之下,不僅科技巨頭如谷歌、臉書、百度、阿里巴巴等競(jìng)相推出新的人工智能應(yīng)用程序,而且,各國都宣布參加人工智能競(jìng)賽,把人工智能視為在人類社會(huì)各領(lǐng)域解決問題的動(dòng)力。鑒于此,相當(dāng)程度上對(duì)人工智能發(fā)展起約束作用的倫理規(guī)范,自然是如同飛機(jī)上的自行車剎車一樣。

(二)人工智能為何仍然需要作為軟法的倫理規(guī)范

以上種種,皆直接或間接地阻礙人工智能倫理規(guī)范實(shí)施、得到遵守,有些似乎是根本性的、無法扭轉(zhuǎn)的。這是否意味著人工智能治理就不應(yīng)該走軟法之路?答案是否定的,因?yàn)槿斯ぶ悄馨l(fā)展本身的特點(diǎn),注定不能單純依靠硬法去防范其風(fēng)險(xiǎn)、減少其危害。以下是人工智能為什么仍然需要作為軟法的倫理規(guī)范“參與治理”的五個(gè)主要理由,每個(gè)理由都會(huì)涉及硬法或硬性監(jiān)管的不足、軟法或柔性治理的優(yōu)勢(shì)。

第一,軟法的靈活快捷性。幾乎所有涉足人工智能領(lǐng)域的研究者都承認(rèn)一個(gè)事實(shí),即人工智能的發(fā)展速度驚人,并以同樣驚人的速度對(duì)人類生活各個(gè)方面進(jìn)行滲透,人類社會(huì)因此正在迅速發(fā)生難以預(yù)測(cè)未來確定圖景的轉(zhuǎn)型和變化,危害已經(jīng)初露端倪,風(fēng)險(xiǎn)也悄然潛伏。更多由于前述公私領(lǐng)域普遍存在的經(jīng)濟(jì)邏輯的推動(dòng),這一動(dòng)向似乎是決定性的、宿命的,如何控制和防范危害、風(fēng)險(xiǎn)也就因此轉(zhuǎn)化為一個(gè)法律體系的“配速”問題(pacing problem)。早在1986年,美國技術(shù)評(píng)估辦公室(US Office of Technology Assessment)就提及:“技術(shù)變革曾經(jīng)是一個(gè)相對(duì)緩慢而沉悶的過程,但現(xiàn)在其速度超過了管理該系統(tǒng)的法律結(jié)構(gòu)的變化速度,這給國會(huì)帶來了調(diào)整法律以適應(yīng)技術(shù)變革的壓力?!狈上到y(tǒng)面臨的配速問題體現(xiàn)在兩個(gè)方面。其一,許多既有法律框架建立在社會(huì)和技術(shù)的靜態(tài)觀而不是動(dòng)態(tài)觀基礎(chǔ)上;其二,法律機(jī)構(gòu)(立法、監(jiān)管和司法機(jī)關(guān))調(diào)整適應(yīng)技術(shù)變革的能力正在減速。配速問題的存在,加劇了對(duì)人工智能危害和風(fēng)險(xiǎn)的擔(dān)憂。相比正式立法程序的官僚性、正式性、繁瑣性,軟法的制定與更新就靈活、快捷許多。如前所述,人工智能倫理規(guī)范制定主體多樣,沒有嚴(yán)格的程序限制,比較容易將人們的倫理關(guān)切及時(shí)轉(zhuǎn)化為引導(dǎo)人工智能研究、開發(fā)和應(yīng)用的原則。盡管這些原則抽象、含糊、多義又缺乏強(qiáng)制約束力,但公開宣布的倫理規(guī)范的事實(shí)約束力并不是完全歸零的。

第二,軟法的多樣適配性?!叭斯ぶ悄堋敝皇且粋€(gè)抽象用詞,其所指向的是范圍極廣、種類繁多、層出不窮、不計(jì)其數(shù)的技術(shù),每個(gè)技術(shù)都有可能會(huì)帶來比較特定的倫理關(guān)切,也需要在技術(shù)上找到各自特定的應(yīng)對(duì)方案。例如,美國阿肯色州一次醫(yī)療保健系統(tǒng)算法執(zhí)行,對(duì)糖尿病患者或腦癱患者產(chǎn)生負(fù)面影響,致使他們能夠獲得的醫(yī)療保健大幅削減;YouTube使用的推薦算法由谷歌開發(fā),其依靠反饋循環(huán),旨在優(yōu)化用戶的觀看時(shí)間,但在預(yù)測(cè)人們喜歡看什么內(nèi)容的同時(shí),也決定了人們看的內(nèi)容,以至于助長了聳人聽聞的虛假視頻以及陰謀論;谷歌曾經(jīng)出現(xiàn)一種偏見,凡是搜索的名字是歷史上有過的黑人名字,就會(huì)在搜索結(jié)果上暗示有犯罪記錄,而搜索的是歷史上的白人名字,搜索結(jié)果就會(huì)相對(duì)中性;而人工智能/機(jī)器學(xué)習(xí)的人臉識(shí)別技術(shù)曾經(jīng)被指責(zé)對(duì)有色人種(尤其是黑人)識(shí)別不夠,微軟公司就開始宣傳其在“包容性”方面的努力,以改善不同膚色的面部識(shí)別功能,但也有評(píng)論者認(rèn)為這樣的技術(shù)改進(jìn)會(huì)對(duì)黑人社區(qū)更為不利,因?yàn)楹谌松鐓^(qū)在歷史上就是監(jiān)控技術(shù)的靶子。諸如此類涉及人工智能倫理引起關(guān)切的例子,足以表明全面的、以硬法為基礎(chǔ)的統(tǒng)一監(jiān)管,很有可能陷入無法適應(yīng)多樣化技術(shù)、多樣化倫理要求的困境。甚至,監(jiān)管有時(shí)是反市場(chǎng)的、對(duì)小企業(yè)不利的,其形成的障礙只有大企業(yè)才能克服。相比之下,軟法主要不是由政府制定的,企業(yè)、行業(yè)組織、企業(yè)聯(lián)盟、非政府組織等都可以針對(duì)更加具體特定的技術(shù)倫理問題制定相應(yīng)的、更加適配的指南。

第三,軟法的合作試驗(yàn)性。盡管軟法確有分散、混亂、疊床架屋的特性,但也由于存在多種軟法方案,就給人工智能的研究、開發(fā)和利用帶來了選擇試驗(yàn)的空間,利益相關(guān)者之間——包括又不限于政府與企業(yè)之間——有時(shí)候會(huì)形成合作的關(guān)系,而不是對(duì)立的關(guān)系。這同以往政府與企業(yè)的監(jiān)管對(duì)立、企業(yè)與企業(yè)之間的競(jìng)爭(zhēng)對(duì)立是不同的。在這種合作的關(guān)系之中,也有相互學(xué)習(xí)、相互受益的元素。例如,前文提及谷歌公司在發(fā)布《人工智能原則》2023年度報(bào)告時(shí)宣稱其也意在分享研究開發(fā)新模型時(shí)應(yīng)用原則的經(jīng)驗(yàn)和教訓(xùn)。在人工智能倫理規(guī)范推進(jìn)方面發(fā)揮巨大作用的機(jī)構(gòu)之一是全球電氣與電子工程師的聯(lián)合組織IEEE。其發(fā)起的全球自動(dòng)與智能系統(tǒng)倫理倡議,旨在解決由自動(dòng)系統(tǒng)、智能系統(tǒng)的開發(fā)和傳播引起的倫理問題。它確定了120個(gè)關(guān)鍵問題,并提出了解決這些問題的建議供企業(yè)選擇。人工智能——具體到特定場(chǎng)景的特定技術(shù)——的研究、開發(fā)、利用如何才能更好地符合倫理規(guī)范,或者,反言之,什么樣的具體、細(xì)致的倫理規(guī)范適合于特定場(chǎng)景的特定人工智能技術(shù),并不是有著確定答案的問題,也不是單憑某個(gè)專業(yè)團(tuán)隊(duì)就能夠提出最佳方案的問題,這是需要技術(shù)專家、法律專家等合作探索的,也是需要不斷地進(jìn)行試驗(yàn)的。而這是硬法和硬性監(jiān)管所無法達(dá)到的。

第四,軟法的事實(shí)壓力性。軟法雖然沒有法律上的約束力,但如果其內(nèi)容在本質(zhì)上有著廣泛的共識(shí),具有非常強(qiáng)的說服力,那么,個(gè)人和組織選擇不遵守軟法必定需要承受事實(shí)上存在的認(rèn)同壓力。當(dāng)這種認(rèn)同壓力足以壓倒不遵守可能帶來的利益時(shí),認(rèn)同壓力就會(huì)轉(zhuǎn)化為事實(shí)上的約束力。因此,“對(duì)于倫理關(guān)切的研究表明,多種框架、觀念、定義及其組合為組織創(chuàng)造了一系列供其選擇的復(fù)雜方案。當(dāng)問題的重要程度和組織能夠得到的支持還不確定的時(shí)候,眾多指南讓組織必須承受針對(duì)其工作流程的批評(píng)。……選擇一個(gè)工作流程倫理指南,為組織的內(nèi)部和外部利益相關(guān)者評(píng)價(jià)該組織的應(yīng)用程序產(chǎn)品提供了底線”。

第五,軟法的跨國適用性。人工智能的研究、開發(fā)、利用是世界性的、跨國界的,尤其是它在互聯(lián)網(wǎng)上或者通過互聯(lián)網(wǎng)的利用;人工智能所掀起的倫理關(guān)切和擔(dān)憂也是世界性的、跨國界的。即便是某個(gè)平臺(tái)、某家企業(yè)或某個(gè)應(yīng)用程序被曝有特定的人工智能倫理失范的風(fēng)險(xiǎn)或丑聞,并不意味著它的影響只限于平臺(tái)、企業(yè)所登記注冊(cè)的國家,也并不意味著此類技術(shù)的倫理失范風(fēng)險(xiǎn)或丑聞不會(huì)在別的國家、別的平臺(tái)、別的企業(yè)或別的應(yīng)用程序中出現(xiàn)。例如,微軟支持的OpenAI公司開發(fā)的ChatGPT僅僅上市兩個(gè)多月后,類似應(yīng)用程序帶來的剽竊、欺詐和錯(cuò)誤信息傳播等風(fēng)險(xiǎn)就受到了關(guān)注,歐盟內(nèi)部市場(chǎng)專員蒂埃里·布雷頓(Thierry Breton)在接受路透社專訪時(shí)提到制定全球標(biāo)準(zhǔn)的緊迫性。傳統(tǒng)硬法、硬性監(jiān)管主要限于主權(quán)國家或基于條約的區(qū)域性國際組織的領(lǐng)土管轄范圍內(nèi),其之所以具備法律上的約束力,就是因?yàn)槠涞玫街鳈?quán)國家基礎(chǔ)規(guī)范或區(qū)域性國際組織基礎(chǔ)條約的授權(quán)與認(rèn)可。因此,若要在全球范圍內(nèi)應(yīng)對(duì)人工智能倫理風(fēng)險(xiǎn),跨越國界或者區(qū)域界限的軟法/倫理規(guī)范在人工智能領(lǐng)域普遍推廣,應(yīng)該是可選的方案。

當(dāng)然,在互聯(lián)網(wǎng)經(jīng)濟(jì)、全球經(jīng)濟(jì)的生態(tài)之中,大型科技公司欲將業(yè)務(wù)拓展至其注冊(cè)國以外的市場(chǎng),肯定會(huì)關(guān)注并遵守該市場(chǎng)所在法律轄區(qū)的法律(硬法)系統(tǒng)。由此,像歐盟這樣的跨國法律轄區(qū),其制定的硬法如《通用數(shù)據(jù)保護(hù)條例》(GDPR)和最新的《人工智能法案》實(shí)際上也有為全球制定標(biāo)準(zhǔn)的意義,產(chǎn)生了所謂的“布魯塞爾效應(yīng)”。但是,這個(gè)效應(yīng)畢竟在兩個(gè)意義上是間接的。其一,它只是會(huì)影響其他主權(quán)國家如中國或美國的立法,通常不會(huì)被后者照抄;其二,它只是會(huì)對(duì)有意進(jìn)入歐盟市場(chǎng)的科技公司產(chǎn)生約束力,對(duì)其他規(guī)模較小且無意國際市場(chǎng)的科技公司的人工智能研發(fā)利用沒有直接約束力。而人工智能倫理規(guī)范應(yīng)該預(yù)期會(huì)在全球范圍內(nèi)達(dá)成更多共識(shí),會(huì)越過主權(quán)國家或歐盟等區(qū)域性組織法律(硬法)管轄的界限,以發(fā)揮其效用,盡管現(xiàn)在還不能如愿展現(xiàn)實(shí)效。

人工智能軟法的實(shí)施機(jī)制

一方面,人工智能倫理規(guī)范有其興起、存在的原因和獨(dú)特價(jià)值,已經(jīng)開始有凝聚共識(shí)、普遍認(rèn)可等的“推介實(shí)效”;但是,另一方面,人工智能的研發(fā)、利用過程似乎還遠(yuǎn)沒有受軟法性質(zhì)的倫理規(guī)范的切實(shí)影響,介入其中的專業(yè)人員還沒有將倫理規(guī)范與程序設(shè)計(jì)緊密地結(jié)合起來,以至于許多人工智能的新產(chǎn)品、新應(yīng)用時(shí)不時(shí)會(huì)引起對(duì)其所帶來的倫理風(fēng)險(xiǎn)的普遍關(guān)注。那么,究竟如何才能讓人工智能倫理規(guī)范落到實(shí)處,從事實(shí)壓力轉(zhuǎn)變?yōu)槭聦?shí)約束力,與相應(yīng)的硬法合作,共同完成應(yīng)對(duì)人工智能倫理風(fēng)險(xiǎn)挑戰(zhàn)的使命呢?軟法如何有效實(shí)施的這一命題,可以從中獲得哪些普遍的啟示和結(jié)論呢?由于軟法在原理上不具有強(qiáng)制執(zhí)行力,不能通過強(qiáng)力去直接實(shí)施,故本文在此討論的是間接地推進(jìn)軟法實(shí)施需要哪些類型的機(jī)制。

(一)軟法促進(jìn)的組織機(jī)制

軟法的實(shí)施是一個(gè)需要不斷自我更新、獲取共識(shí)、得到驅(qū)動(dòng)的漸進(jìn)過程,對(duì)未來不確定風(fēng)險(xiǎn)承擔(dān)預(yù)防和治理功能的人工智能軟法,尤其如此。在這個(gè)過程中,缺少強(qiáng)有力的、持續(xù)堅(jiān)定從事軟法推進(jìn)事業(yè)的組織,是難以想象的。從類型上而言,這樣的組織可以是屬于政府系列的,也可以是屬于企業(yè)系列的,更可以是行業(yè)組織、企業(yè)合作聯(lián)盟、第三方機(jī)構(gòu)、研究團(tuán)隊(duì)等。其中,大型科技巨頭——如微軟、谷歌等——也有專門的人工智能倫理規(guī)范部門或團(tuán)隊(duì)。從功能上而言,這樣的組織可以是持續(xù)制定和更新人工智能倫理規(guī)范的,可以是倡議全球人工智能領(lǐng)域研發(fā)者、利用者加盟共同遵守人工智能倫理規(guī)范的,可以是觀察和監(jiān)督人工智能倫理規(guī)范執(zhí)行落實(shí)情況的,也可以是研究如何將人工智能倫理規(guī)范同具體技術(shù)的設(shè)計(jì)與應(yīng)用結(jié)合起來的。

政府組織可能會(huì)糾結(jié)于人工智能行業(yè)發(fā)展與恪守倫理規(guī)范之間如何平衡,而在督促人工智能倫理規(guī)范落實(shí)方面有所懈怠。企業(yè)、行業(yè)組織或企業(yè)合作聯(lián)盟可能會(huì)偏重裝點(diǎn)門面、博得聲譽(yù)而在人工智能倫理規(guī)范方面輕諾寡信,即便企業(yè)設(shè)立專門的人工智能倫理規(guī)范部門或團(tuán)隊(duì)以兌現(xiàn)自己的倫理承諾,該部門或團(tuán)隊(duì)的獨(dú)立作用也不見得可以充分保障。例如,2020年,谷歌解雇了緹姆尼特·吉布魯,原因是她發(fā)表了一篇批評(píng)大語言模型的論文(該論文兩年后大受歡迎)。由此引發(fā)的憤怒導(dǎo)致人工智能倫理部門又有幾位高層領(lǐng)導(dǎo)人離職,并削弱了谷歌公司在負(fù)責(zé)任的人工智能問題上的可信度。

相對(duì)而言,那些旨在密切觀察人工智能風(fēng)險(xiǎn)、持續(xù)發(fā)布跟進(jìn)研究報(bào)告、以監(jiān)督和促進(jìn)人工智能符合倫理規(guī)范為己任的組織,以及致力于將倫理規(guī)范融入人工智能研發(fā)、利用過程的研究團(tuán)隊(duì)(無論是否在企業(yè)內(nèi)部),可信度和推動(dòng)力會(huì)更高些。例如,有評(píng)論指出:“關(guān)于人工智能倫理的報(bào)告并不匱乏,但其中的大部分都無足輕重,充斥著‘公私合作’以及‘以人為本’之類的陳詞濫調(diào)。他們不承認(rèn)人工智能造成的社會(huì)困境有多么棘手,也不承認(rèn)解決這些困境有多么困難。‘人工智能現(xiàn)在研究所’的新報(bào)告卻非如此。它毫不留情地審視了科技行業(yè)在沒有任何可靠和公平結(jié)果保證的情況下,競(jìng)相沿著人工智能的方向重塑社會(huì)。”緹姆尼特·吉布魯?shù)难芯繄F(tuán)隊(duì)發(fā)布的“數(shù)據(jù)集的數(shù)據(jù)表”,從2018年3月23日第一次發(fā)布到2021年12月1日,已經(jīng)經(jīng)歷八個(gè)版本,被引用達(dá)2263次。當(dāng)然,軟法促進(jìn)的可靠、有力組織之存在,通常以此類組織生存和發(fā)展的制度——公共制度的或企業(yè)內(nèi)部制度的——容許空間為前提。

(二)軟法合規(guī)的壓力機(jī)制

軟法是事實(shí)壓力性的,因?yàn)槠湟詮V泛的共識(shí)和說服的效力為基礎(chǔ),它只是給了行動(dòng)者自愿遵守的選擇。當(dāng)軟法在共同體中獲得越來越多成員的認(rèn)可,合乎、遵守軟法就會(huì)獲得所屬共同體比較高的贊許,相反,違背軟法即便不會(huì)給行動(dòng)者帶來強(qiáng)力制裁,也會(huì)使其承受非常大的壓力,甚至是巨大的聲譽(yù)損害及可能附隨的經(jīng)濟(jì)損害。那么,有什么機(jī)制可以讓這種壓力足夠強(qiáng)大呢?至少,可以有三個(gè)方面的重要機(jī)制:

一是輿論機(jī)制。對(duì)于在市場(chǎng)中求生存的企業(yè)而言,輿論對(duì)其、對(duì)其產(chǎn)品的評(píng)價(jià)毫無疑問是至關(guān)重要的,消費(fèi)者通常會(huì)選擇輿論評(píng)價(jià)高的產(chǎn)品。因此,在一個(gè)開放的輿論環(huán)境中,新聞媒體可以將科技企業(yè)及其人工智能產(chǎn)品是否符合倫理規(guī)范,甚至可以將其他企業(yè)是否在使用符合人工智能倫理規(guī)范的人工智能應(yīng)用程序,作為評(píng)價(jià)體系的重要組成部分,從而形成足夠強(qiáng)大的輿論壓力,促使企業(yè)負(fù)責(zé)任地研發(fā)或利用人工智能。不過,輿論壓力除了需要開放的輿論場(chǎng)以外,也還需要另外兩個(gè)條件才能形成一定的效用:其一,消費(fèi)者在乎符合人工智能倫理規(guī)范的企業(yè)及其產(chǎn)品;其二,消費(fèi)者可以在競(jìng)爭(zhēng)市場(chǎng)中選擇到軟法合規(guī)的企業(yè)及其產(chǎn)品。

二是對(duì)抗機(jī)制。對(duì)企業(yè)不在乎或疏忽人工智能倫理規(guī)范進(jìn)行批評(píng)的輿論本身是一種形式的對(duì)抗。在此需要特別指出的是來自專業(yè)人員或利益相關(guān)者(stakeholder)的針對(duì)人工智能倫理風(fēng)險(xiǎn)而采取的對(duì)抗企業(yè)的行動(dòng),無論這些人員是在企業(yè)內(nèi)部還是在企業(yè)外部。除了前文提及的谷歌公司在其員工抗議下停止與美國國防部合作軍事人工智能項(xiàng)目的例子外,2019年,谷歌公司還曾經(jīng)在數(shù)千名員工的抗議下,解散了剛成立一個(gè)多星期的人工智能倫理委員會(huì)(正式名稱是“先進(jìn)技術(shù)外部咨詢委員會(huì)”),因?yàn)槠渲衼碜怨疽酝獾某蓡T或其所屬組織被指對(duì)跨性別者有不公評(píng)論、對(duì)氣候變化持懷疑態(tài)度或者與人工智能的軍事利用有關(guān)。2018年,在時(shí)任美國總統(tǒng)特朗普將非法移民孩子與其家庭隔離的政策備受爭(zhēng)議之際,微軟與美國移民局在人臉識(shí)別技術(shù)上的合作,也受到了微軟員工的抗議。2023年5月2日至9月27日,代表11500名編劇的美國編劇協(xié)會(huì)因與電影電視制片人聯(lián)盟發(fā)生勞資糾紛而組織了為期148天的罷工。罷工的一項(xiàng)訴求就是像ChatGPT這樣的人工智能只應(yīng)被用作一種幫助研究或推動(dòng)腳本想法的工具,而不應(yīng)該取代編劇。最終,罷工取得了勝利,雙方達(dá)成的協(xié)議被認(rèn)為是樹立了一個(gè)對(duì)于人工智能的使用進(jìn)行集體談判的重要先例。這些來自專業(yè)人員或利益相關(guān)者的抗議是出于他們對(duì)人工智能倫理規(guī)范的認(rèn)知和堅(jiān)持,或者出于他們本身的利益受到人工智能發(fā)展的威脅,其主張不見得對(duì),但確實(shí)是一種可以促進(jìn)企業(yè)遵守軟法的力量和機(jī)制?!霸絹碓蕉喔挥幸饬x的針對(duì)人工智能負(fù)責(zé)任發(fā)展的行動(dòng)來自工人、共同體倡議者和組織者?!倍@種力量和機(jī)制的存在,當(dāng)然也需要依托于更廣闊的企業(yè)與員工、企業(yè)與外部之間關(guān)系的制度空間、文化背景。

三是監(jiān)督機(jī)制。就廣義的監(jiān)督而言,輿論、對(duì)抗同樣屬于監(jiān)督機(jī)制。然而,軟法合規(guī)監(jiān)督還有其他更多樣化的表現(xiàn)形式。早在2015年,蓋瑞·馬秦特教授就曾經(jīng)和文德爾·瓦拉赫(Wendell Wallach)先生一起提議成立名為“治理協(xié)調(diào)委員會(huì)”的機(jī)構(gòu),目的不是重復(fù)或取代現(xiàn)有許多組織在人工智能治理方面的工作,而是如交響樂團(tuán)指揮一樣起到協(xié)調(diào)的作用。這個(gè)機(jī)構(gòu)并未成立,但他們預(yù)設(shè)其應(yīng)該承擔(dān)的功能中有多項(xiàng)是與監(jiān)督相關(guān)的,如監(jiān)控和分析(認(rèn)定人工智能治理計(jì)劃實(shí)施的差距、重疊和不一致之處)、早期預(yù)警(指出正在出現(xiàn)的新問題)、評(píng)估(為治理計(jì)劃實(shí)現(xiàn)目標(biāo)的情況評(píng)分)、召集解決問題(召集利益相關(guān)者就特定問題商議解決方案)。換言之,與之前所述的組織機(jī)制結(jié)合,若有相對(duì)獨(dú)立的組織——無論是在企業(yè)內(nèi)部設(shè)立類似倫理審查委員會(huì)的機(jī)構(gòu),還是在企業(yè)外部設(shè)立更為中立的社會(huì)組織——承擔(dān)起監(jiān)控、分析、預(yù)警、評(píng)估、共商方案等監(jiān)督功能,就可以使人工智能倫理規(guī)范得到更好的落實(shí)。

(三)軟法合規(guī)的激勵(lì)機(jī)制

如果說軟法合規(guī)的壓力機(jī)制屬于“減分項(xiàng)”,可能讓人工智能研發(fā)者、利用者遭受聲譽(yù)損失及附隨的經(jīng)濟(jì)損失,那么,軟法合規(guī)的激勵(lì)機(jī)制就是對(duì)應(yīng)的“加分項(xiàng)”,可以使其得到更好的聲譽(yù)及隨之帶去的更多經(jīng)濟(jì)利益。這樣的激勵(lì)機(jī)制相比壓力機(jī)制似乎可以有更多展現(xiàn)形式。

一是認(rèn)證機(jī)制。中立的第三方認(rèn)證機(jī)構(gòu)可以開設(shè)一個(gè)認(rèn)證業(yè)務(wù),對(duì)人工智能的研發(fā)和利用遵循一套特定倫理規(guī)范的企業(yè)或其他實(shí)體進(jìn)行認(rèn)證,并給予認(rèn)證證書。

二是評(píng)價(jià)機(jī)制。中立的第三方組織,如高??蒲袡C(jī)構(gòu)或非政府社會(huì)組織,可以對(duì)人工智能研發(fā)者是否將人工智能倫理規(guī)范植入人工智能的研究和開發(fā)之中、人工智能利用者是否應(yīng)用符合倫理規(guī)范的人工智能以及研發(fā)者和利用者的人工智能倫理規(guī)范合規(guī)程度等進(jìn)行評(píng)價(jià),評(píng)選出優(yōu)秀的合規(guī)者。

三是購買機(jī)制。人工智能應(yīng)用程序的研究、開發(fā)都會(huì)投入相當(dāng)?shù)某杀?,合乎倫理?guī)范的或許會(huì)投入更多。對(duì)于軟法合規(guī)企業(yè)或其他實(shí)體而言,認(rèn)證、評(píng)優(yōu)雖可以帶來良好聲譽(yù),但并沒有轉(zhuǎn)化為實(shí)際的經(jīng)濟(jì)利益。相較之下,購買和使用合乎倫理規(guī)范的人工智能產(chǎn)品,尤其是獲得認(rèn)證或評(píng)優(yōu)的人工智能產(chǎn)品,是讓合規(guī)者獲得實(shí)際利益的最直接方法。購買者,特別是政府采購方,若能將合乎倫理規(guī)范作為購買的前提條件,勢(shì)必會(huì)帶動(dòng)有利于人工智能軟法實(shí)施的市場(chǎng)導(dǎo)向。

四是合作機(jī)制。人工智能利益相關(guān)者——研究者、開發(fā)者、利用者——在倡議和推進(jìn)人工智能倫理規(guī)范方面形成聯(lián)盟或合作伙伴關(guān)系,相互之間給予支持和幫助,也更有利于建立公眾信任,有助于人工智能軟法得到誠信可靠的執(zhí)行。

五是資助和發(fā)表機(jī)制。為人工智能的研發(fā)或利用提供投資或資助的機(jī)構(gòu)、為人工智能研發(fā)成果提供發(fā)表平臺(tái)的專業(yè)雜志,也同樣可以將符合人工智能倫理規(guī)范作為一個(gè)條件或優(yōu)先考慮的條件,以激勵(lì)研發(fā)者、利用者遵守人工智能軟法。

六是放松監(jiān)管機(jī)制。政府負(fù)責(zé)人工智能發(fā)展監(jiān)管的部門,對(duì)于在管理人工智能的研發(fā)或利用方面有一整套制度和配套機(jī)構(gòu)、致力于人工智能軟法合規(guī)的企業(yè)或其他實(shí)體,以及真正研發(fā)出或利用合乎倫理規(guī)范的人工智能產(chǎn)品的企業(yè)或其他實(shí)體,可以適當(dāng)?shù)胤潘杀O(jiān)管力度。減少政府監(jiān)管的利益被認(rèn)為是人工智能軟法獲得成功的重要激勵(lì)之一。

(四)軟法的技術(shù)方法論機(jī)制

人工智能軟法是與科學(xué)技術(shù)緊密關(guān)聯(lián)的,也因此被廣泛認(rèn)為是需要由人工智能專家研究制定的。“人工智能伙伴關(guān)系”作為一種聯(lián)盟,將“公眾”和“利益相關(guān)者”區(qū)分開,前者是需要教育和調(diào)查的,后者是科學(xué)家、工程師和企業(yè)家,是進(jìn)行教育和調(diào)查的;其又將利益相關(guān)者區(qū)分為“專家”和“其他利益相關(guān)者”,前者是創(chuàng)造或應(yīng)對(duì)人工智能的科學(xué)界領(lǐng)先者,后者是在廣大范圍內(nèi)存在的產(chǎn)品使用者、購買人工智能方案的大型企業(yè)或者其所在領(lǐng)域被人工智能徹底改變的大型企業(yè)。“專家促使人工智能發(fā)生,其他利益相關(guān)者讓人工智能發(fā)生在身上?!闭?yàn)榇?,將人工智能軟法落到?shí)處,最重要的是專業(yè)人員在技術(shù)開發(fā)過程中進(jìn)行“合乎倫理的設(shè)計(jì)”、開發(fā)“合乎倫理的人工智能系統(tǒng)”。而專業(yè)人員如何能把倫理價(jià)值嵌入人工智能/自動(dòng)化系統(tǒng)的開發(fā),是需要技術(shù)方法論的支持的。

在這方面的例子,除了緹姆尼特·吉布魯團(tuán)隊(duì)研究的“數(shù)據(jù)集的數(shù)據(jù)表”以外,還有芬蘭瓦薩大學(xué)博士后研究員維萊·瓦庫里(Ville Vakkuri)領(lǐng)銜研究的命名為ECCOLA的方法,該方法是一個(gè)模塊化的、逐段沖刺的過程,旨在促進(jìn)人工智能和自動(dòng)化系統(tǒng)開發(fā)對(duì)倫理的考量,并與既有的其他方法合并使用。具體而言,ECCOLA有三個(gè)目標(biāo):(1)促進(jìn)對(duì)人工智能倫理及其重要性的意識(shí);(2)創(chuàng)建一個(gè)適合各種系統(tǒng)工程場(chǎng)合的模塊;(3)使得該模塊既適合敏捷開發(fā)(agile development),又能讓倫理成為敏捷開發(fā)的組成部分。ECCOLA經(jīng)過多年的實(shí)踐,經(jīng)歷了迭代的發(fā)展和改進(jìn)。此類事例不勝枚舉。

(五)軟法具體化的基準(zhǔn)機(jī)制

前文已揭,許多人工智能倫理指南或原則是抽象的、含糊的,這主要是因?yàn)橹改匣蛟瓌t的制定者希望能夠盡可能將其適用于廣闊的人工智能領(lǐng)域。但是,究竟如何才能在特定人工智能研發(fā)或利用中執(zhí)行和遵守這些寬泛規(guī)范問題,對(duì)于想要做到合規(guī)的行動(dòng)者而言,也會(huì)成為一個(gè)棘手問題。因此,除了技術(shù)方法論——往往是普遍適用于多個(gè)情境的方法框架或模塊——以外,還需要結(jié)合特定人工智能的使用所引發(fā)的特定倫理關(guān)切,制定出更具針對(duì)性的倫理基準(zhǔn)。日本東北大學(xué)的研究人員翁岳暄(Yueh-Hsuan Weng)與平田泰久(Yasuhisa Hirata)曾經(jīng)發(fā)文探討對(duì)輔助機(jī)器人的合乎倫理設(shè)計(jì),文章指出,床位轉(zhuǎn)移輔助、洗浴輔助、行走輔助、排泄輔助、監(jiān)護(hù)和交流輔助以及護(hù)理輔助的機(jī)器人,各有比較突出的、不同的倫理關(guān)切,需要分別特殊對(duì)待。他們的研究雖然并不有意指向或者有意擬定任何人工智能倫理規(guī)范的基準(zhǔn),但是,這種結(jié)合人機(jī)互動(dòng)(human-robot interaction)的特點(diǎn)而指出每一種機(jī)器人需要應(yīng)對(duì)的特殊倫理問題,其實(shí)就是具有基準(zhǔn)意義的。這對(duì)于企業(yè)或其技術(shù)人員遵守人工智能倫理規(guī)范有著更具針對(duì)性的導(dǎo)引作用。

(六)軟法與硬法的互動(dòng)機(jī)制

無論是在軟法最初興起的國際法領(lǐng)域,還是在人工智能軟法領(lǐng)域,都已經(jīng)有經(jīng)驗(yàn)研究表明軟法在未來的可能硬法化前景,或者軟法被吸收進(jìn)入硬法框架之中,這會(huì)給軟法的實(shí)施增加動(dòng)力或壓力。例如,安德里亞斯·齊默爾曼教授在國際軟法研究中發(fā)現(xiàn),在早期階段,不具有法律約束力的協(xié)定可能就已經(jīng)規(guī)定了各國未來愿意接受的、作為未來有法律約束力條約組成部分的條件,這樣的諒解備忘錄是未來?xiàng)l約的先驅(qū),有著“前法律功能”(pre-law-function),可以被更好地實(shí)施。就人工智能軟法而言,最初階段進(jìn)行實(shí)地試驗(yàn)的軟法,之后可能會(huì)被正式立法納入傳統(tǒng)的監(jiān)管體系之中。如“未來生命研究所”曾經(jīng)于2017年發(fā)布阿西洛馬人工智能原則(Asilomar AI Principles),如今,美國加利福尼亞州已經(jīng)將這些原則寫入州立法之中。

除了這種未來法律化(硬法化)的前景以外,人工智能倫理規(guī)范若能在硬法的實(shí)施之中占有一席之地,也會(huì)帶動(dòng)企業(yè)及其他實(shí)體對(duì)其的遵守。例如,在美國,公司沒有履行其對(duì)人工智能倫理規(guī)范的公開承諾的,聯(lián)邦貿(mào)易委員會(huì)可以將其視為“不公平的或欺騙的”商業(yè)活動(dòng),而采取相應(yīng)的措施。在國際法情境中,國際法院和裁判機(jī)構(gòu)也會(huì)經(jīng)常性地依賴不具有法律約束力的協(xié)定,將其作為解釋指南,對(duì)有法律約束力的條約進(jìn)行解釋。當(dāng)然,這種將軟法吸收進(jìn)入硬法解釋適用的過程,也可視為另一種形式的硬法化;在一定意義上,此時(shí)的人工智能倫理規(guī)范已經(jīng)不再是純粹的軟法。

結(jié)語:認(rèn)真對(duì)待軟法實(shí)施

軟法的廣泛存在,并不意味著其切實(shí)地得到了遵守和執(zhí)行。人工智能領(lǐng)域的軟法——各種各樣的人工智能倫理規(guī)范——被許多研究者證明存在“實(shí)效赤字”的問題。規(guī)范的制定和倡議投入很多,收效卻甚微。當(dāng)然,人工智能倫理規(guī)范并不是完全的“零效用”,其對(duì)許多科技巨頭產(chǎn)生了一定的拘束,隱私、公平、可解釋性等規(guī)范明顯被重視,在特別問題的“微觀倫理”上取得了些許進(jìn)步,其“推介實(shí)效”也在人工智能研發(fā)、利用共同體中有所顯現(xiàn)。即便如此,人工智能倫理規(guī)范與現(xiàn)實(shí)之間的巨大鴻溝,仍然令人非常擔(dān)憂。

之所以會(huì)有如此鴻溝,至少有前文所述的七方面的原因,然而,這些因素的存在,并不使“軟法無意義”成為必然結(jié)論。由于人工智能倫理規(guī)范的靈活快捷性、多樣適配性、合作試驗(yàn)性、事實(shí)壓力性、跨國適用性,其仍然有獨(dú)特的、硬性監(jiān)管/硬法所無法比擬的、與硬性監(jiān)管/硬法共同完成合乎倫理的人工智能之治理任務(wù)的價(jià)值。因此,如何使人工智能倫理規(guī)范應(yīng)有價(jià)值更加充分地實(shí)現(xiàn),如何通過一系列機(jī)制促進(jìn)其間接實(shí)施,就成為一個(gè)需要認(rèn)真對(duì)待的問題。

根據(jù)現(xiàn)實(shí)的經(jīng)驗(yàn)觀察,有助于人工智能倫理規(guī)范獲得實(shí)施的間接機(jī)制,在邏輯上有延伸出軟法實(shí)施機(jī)制的一般分類的可能。然而,這種分類學(xué)的研究還需要進(jìn)一步探索,并非所有的機(jī)制都已經(jīng)在這里進(jìn)行了充分地討論,在這里提出的機(jī)制也并非適用于所有軟法實(shí)施的情境。例如,對(duì)于技術(shù)性、專業(yè)性并不是特別強(qiáng)的軟法,技術(shù)方法論機(jī)制并不見得必需;對(duì)于本身已經(jīng)足夠特定、細(xì)致的軟法,具體化基準(zhǔn)機(jī)制也同樣可以忽略。

軟法的制定者、倡議者當(dāng)然希冀軟法可以發(fā)揮靈活引導(dǎo)的實(shí)際作用,但這種作用的獲得不能僅依靠軟法內(nèi)在的說服力,不能僅依靠軟法指向的行動(dòng)者自覺認(rèn)同與遵守。價(jià)值共識(shí)需要成本利益計(jì)算的經(jīng)濟(jì)邏輯的輔助,才可讓更多的行動(dòng)者愿意為軟法的執(zhí)行付出。內(nèi)在理由和外在推動(dòng)——柔性而非強(qiáng)制的推動(dòng)——的有效結(jié)合,才可讓軟法不至于僅僅淪為宣示、倡議和粉飾。軟法實(shí)施機(jī)制類型學(xué)的研究,對(duì)軟法的制定者、倡議者或促進(jìn)者有意識(shí)地進(jìn)行相應(yīng)的機(jī)制建設(shè),具有重要的指引意義。

- 向上滑動(dòng),查看完整目錄 -

《財(cái)經(jīng)法學(xué)》2024年第6期目錄

【財(cái)經(jīng)法治熱點(diǎn):特稿】

1.習(xí)近平法治思想中金融法治觀的理論創(chuàng)新和實(shí)踐貢獻(xiàn)

楊松、宋怡林(3)

【財(cái)經(jīng)法治熱點(diǎn):紀(jì)念《勞動(dòng)法》頒布三十周年】

2.我國《勞動(dòng)法》頒布三十年的回顧與思考

——以勞動(dòng)法體系化為視角

王全興、粟瑜(23)

3.勞動(dòng)形態(tài)多樣化對(duì)勞動(dòng)法的沖擊與勞動(dòng)法的范式革新

林嘉、朱俊龍(43)

【財(cái)經(jīng)法治熱點(diǎn):習(xí)近平法治思想引領(lǐng)下的競(jìng)爭(zhēng)法研究】

4.數(shù)字市場(chǎng)反壟斷法實(shí)施政策目標(biāo)反思

葉衛(wèi)平(60)

5.數(shù)據(jù)驅(qū)動(dòng)型并購中個(gè)人信息競(jìng)爭(zhēng)損害評(píng)估

楊利華(77)

6.論哄抬價(jià)格違法行為的認(rèn)定

段宏磊(92)

【專論】

7.論軟法的實(shí)施機(jī)制

——以人工智能倫理規(guī)范為例

沈巋(108)

8.“執(zhí)行轉(zhuǎn)破產(chǎn)”中的基本理論問題:民法的視角

韓世遠(yuǎn)(128)

9.論民法中的回溯效力

張煥然(141)

【爭(zhēng)鳴】

10.國家干預(yù)市場(chǎng)的憲法界限:比例原則審查作為方法

趙舒捷(157)

11.論數(shù)據(jù)交易中替代交易規(guī)則的雙重規(guī)范面向

林婷婷(176)

《財(cái)經(jīng)法學(xué)》于2015年1月創(chuàng)刊,為雙月刊,單月15日出版發(fā)行,是法學(xué)學(xué)科領(lǐng)域的專業(yè)性學(xué)術(shù)期刊?!柏?cái)經(jīng)法學(xué)”一名,既表明該刊物與法學(xué)和經(jīng)濟(jì)學(xué)兩大學(xué)科緊密相連,亦有突出交叉學(xué)科特色之意。所謂“財(cái)”,即財(cái)產(chǎn);所謂“經(jīng)”,即經(jīng)濟(jì)。故而“財(cái)·經(jīng)·法”即以財(cái)產(chǎn)為客體的私法、以經(jīng)濟(jì)為調(diào)整對(duì)象的公法以及經(jīng)濟(jì)、管理與法學(xué)交叉領(lǐng)域之合稱,簡(jiǎn)言之,《財(cái)經(jīng)法學(xué)》對(duì)社會(huì)主義市場(chǎng)經(jīng)濟(jì)法律調(diào)整抱有特別的關(guān)注。

智能寫作4.0

1. 私有智庫:?jiǎn)纹獙?duì)話與向量檢索的智能融合

自建知識(shí)庫是智能寫作4.0的一大創(chuàng)新亮點(diǎn),它賦予了用戶構(gòu)建個(gè)性化知識(shí)體系的能力。這一功能不僅支持單篇對(duì)話的存儲(chǔ),使得用戶可以輕松回顧和整理過往的交流內(nèi)容,而且通過向量檢索技術(shù),用戶能夠?qū)崿F(xiàn)對(duì)知識(shí)庫內(nèi)容的高效檢索。這意味著,無論您的知識(shí)庫多么龐大,您都可以通過關(guān)鍵詞或短語快速定位到所需信息,極大地提升了信息檢索的準(zhǔn)確性和便捷性。

2. 一劃即達(dá):法寶全庫數(shù)據(jù)的劃詞能力

劃詞檢索法寶全庫數(shù)據(jù)功能是智能寫作4.0的另一項(xiàng)革命性創(chuàng)新。用戶在閱讀或編輯文檔時(shí),只需輕輕一劃,選中的文本即可觸發(fā)智能檢索,系統(tǒng)會(huì)立即從法寶全庫中檢索出相關(guān)數(shù)據(jù)和信息。這一功能不僅極大地簡(jiǎn)化了信息查找的過程,而且通過實(shí)時(shí)更新的數(shù)據(jù)庫,確保了檢索結(jié)果的時(shí)效性和準(zhǔn)確性,使得用戶能夠快速獲取到最相關(guān)的資料和數(shù)據(jù)。

3. 語言無界:19種語言的智能翻譯大師

智能寫作4.0的智能翻譯功能,支持多達(dá)19種語言的互譯,覆蓋了全球大部分主要語言。這一功能不僅能夠?qū)崿F(xiàn)文本的即時(shí)翻譯,而且通過先進(jìn)的算法優(yōu)化,確保了翻譯的流暢性和準(zhǔn)確性。無論您是需要將中文文檔翻譯成英文,還是需要將西班牙文翻譯成法文,智能寫作4.0都能為您提供準(zhǔn)確、自然的翻譯結(jié)果,讓您的跨語言溝通和創(chuàng)作更加輕松。

4. 模板王國:6000+文書模板與個(gè)性化定制的創(chuàng)意工具

智能寫作4.0提供了6000+的文書模板,覆蓋了法律、商務(wù)、教育等多個(gè)領(lǐng)域,滿足不同用戶的需求。這些模板由專業(yè)人士設(shè)計(jì),確保了其專業(yè)性和實(shí)用性。此外,智能寫作4.0還支持自建文書模板,用戶可以根據(jù)自己的需求和喜好,創(chuàng)建個(gè)性化的模板,這不僅提高了文書創(chuàng)作的效率,而且使得文書更具個(gè)性化和專業(yè)性。

5. 實(shí)用工具:賦能司法案例的深度檢索報(bào)告

智能寫作4.0賦能司法案例檢索報(bào)告功能,是法律專業(yè)人士的得力助手。它不僅能夠檢索到最新的司法案例,而且通過智能分析,為用戶提供案例的詳細(xì)報(bào)告,包括案件的基本情況、判決結(jié)果、爭(zhēng)議焦點(diǎn)、法律依據(jù)等關(guān)鍵信息。這一功能不僅極大地提高了法律研究的效率,而且通過深入的案例分析,幫助用戶更好地理解法律條文和司法實(shí)踐,為法律實(shí)務(wù)工作提供了強(qiáng)有力的支持。

責(zé)任編輯 | 郭晴晴

審核人員 | 張文碩 毛琛昕

本文聲明 | 本文章僅限學(xué)習(xí)交流使用,如遇侵權(quán),我們會(huì)及時(shí)刪除。本文章不代表北大法律信息網(wǎng)(北大法寶)和北京北大英華科技有限公司的法律意見或?qū)ο嚓P(guān)法規(guī)/案件/事件等的解讀。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

北大法律信息網(wǎng) incentive-icons
北大法律信息網(wǎng)
法律綜合性網(wǎng)站
10421文章數(shù) 17424關(guān)注度
往期回顧 全部

專題推薦

洞天福地 花海畢節(jié) 山水饋贈(zèng)里的“詩與遠(yuǎn)方

無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 茂名市| 乐至县| 大宁县| 河东区| 两当县| 望谟县| 谷城县| 巴彦县| 历史| 巩义市| 太保市| 霍山县| 七台河市| 志丹县| 阳信县| 江城| 浙江省| 百色市| 巩留县| 信丰县| 遵义市| 贵南县| 新巴尔虎右旗| 九龙坡区| 宝坻区| 营口市| 常山县| 章丘市| 伊川县| 隆昌县| 福泉市| 六盘水市| 文山县| 高陵县| 台南市| 顺义区| 大厂| 正宁县| 琼结县| 乐业县| 于都县|