99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

付新華:人工智能統(tǒng)一立法宜緩行 | 東方法學(xué)202503

0
分享至

【作者】付新華(北京交通大學(xué)法學(xué)院副教授,數(shù)據(jù)法學(xué)研究中心主任)

【來源】北大法寶法學(xué)期刊庫《東方法學(xué)》2025年第3期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。

內(nèi)容提要:在技術(shù)變革與社會風(fēng)險的雙重驅(qū)動以及國際科技競賽與規(guī)則競爭雙重博弈的推動下,人工智能統(tǒng)一立法的呼聲日益高漲。然而,人工智能技術(shù)的復(fù)雜性、發(fā)展路徑的不確定性和應(yīng)用場景的差異性,使統(tǒng)一立法面臨法律滯后、規(guī)制僵化、監(jiān)管錯配和創(chuàng)新受阻等挑戰(zhàn)。基于技術(shù)哲學(xué)、漸進社會工程理論與社會系統(tǒng)論的交叉論證,人工智能立法應(yīng)遵循漸進式治理模式,審慎推進統(tǒng)一立法。我國人工智能立法應(yīng)構(gòu)建“時間—空間”雙重彈性框架,增強法律適應(yīng)性與治理韌性,在促進技術(shù)發(fā)展與防范風(fēng)險之間尋求最佳平衡。在時間維度上,應(yīng)采取漸進式立法路徑,結(jié)合技術(shù)成熟度監(jiān)測、“試錯法”治理模式和反身性法律框架,實現(xiàn)法律監(jiān)管與技術(shù)發(fā)展的雙向互動與協(xié)同演進,避免過早規(guī)制鎖定技術(shù)發(fā)展路徑;在空間維度上,需實施分層治理,依托國家、行業(yè)和地方三層次治理體系,結(jié)合政策試驗區(qū)、行業(yè)自律和監(jiān)管沙盒,探索靈活適應(yīng)的法律監(jiān)管模式。

關(guān)鍵詞:人工智能立法;技術(shù)哲學(xué);漸進社會工程;反身性法;試錯法;分層治理

目次 引言 一、人工智能立法熱潮的動因分析 二、人工智能統(tǒng)一立法的潛在問題 三、人工智能立法緩行的法理證成 四、人工智能立法緩行的基本路徑 結(jié)語

引言

人工智能技術(shù)的指數(shù)級突破正以前所未有的方式重塑著經(jīng)濟社會的運行模式,引發(fā)了一系列法律與倫理爭議。特別是近年來生成式人工智能的橫空出世,在推動技術(shù)躍遷的同時,也帶來了數(shù)據(jù)安全、算法歧視、版權(quán)爭議、責(zé)任歸屬等諸多復(fù)雜治理難題。圍繞人工智能治理的法律討論逐漸升溫,其中,關(guān)于統(tǒng)一立法的呼聲日益高漲,成為理論界和實務(wù)界共同關(guān)注的重要議題。

從理論研究來看,我國當(dāng)前已有兩部人工智能法專家建議稿問世,同時涌現(xiàn)了大量圍繞人工智能立法定位、基本理念、價值目標、路徑選擇及體系架構(gòu)的研究成果。這些成果構(gòu)成推動人工智能統(tǒng)一立法的理論基礎(chǔ)。從國家立法規(guī)劃和相關(guān)政策來看,2017年《新一代人工智能發(fā)展規(guī)劃》提出人工智能立法“三步走”的策略,《全國人大常委會2024年度立法工作計劃》進一步提出研究“人工智能健康發(fā)展”的立法項目,《國務(wù)院2024年度立法工作計劃》則明確將人工智能法草案列入預(yù)備提請全國人大常委會審議的項目。人工智能統(tǒng)一立法似乎已從理論構(gòu)想進入立法實踐的關(guān)鍵階段,成為一項“箭在弦上”的時代任務(wù)。

從國際視野來看,人工智能立法模式呈現(xiàn)分化趨勢。歐盟于2024年正式通過全球首部綜合性《人工智能法》,意圖在人工智能立法領(lǐng)域延續(xù)其“布魯塞爾效應(yīng)”;與之相對,美國不僅至今未出臺任何聯(lián)邦層面的人工智能法,還在2025年廢除了《關(guān)于安全、可靠和可信地開發(fā)和使用人工智能的行政命令》,進一步放松對人工智能領(lǐng)域的監(jiān)管。這一制度選擇的差異,反映出歐盟與美國關(guān)于人工智能的治理理念、戰(zhàn)略重心與政策取向的根本分歧。在全球科技競爭與規(guī)則博弈日益加劇的背景下,中國應(yīng)如何選擇自身的人工智能立法路徑,已成為亟待回應(yīng)的重大課題。這不僅關(guān)乎立法模式的抉擇,更關(guān)乎國家戰(zhàn)略布局、產(chǎn)業(yè)發(fā)展方向與整體治理理念的制度定位,直接影響中國的技術(shù)競爭力與制度影響力。

本文的人工智能“統(tǒng)一立法”,并非泛指所有立法活動,而是指通過一部綜合性法律,在形式上實現(xiàn)“集中規(guī)范、體系統(tǒng)一”的立法模式,其通常承載著“一法統(tǒng)籌”式的制度期待,試圖通過一部法律實現(xiàn)要素治理、產(chǎn)業(yè)促進、內(nèi)容管理、權(quán)利保障與風(fēng)險防控等多重政策目標。然而,這一立法模式面臨雙重挑戰(zhàn):一方面,各項政策目標內(nèi)部仍然存在較大分歧,如數(shù)據(jù)要素治理中關(guān)于數(shù)據(jù)權(quán)益歸屬的爭議,訓(xùn)練數(shù)據(jù)使用所引發(fā)的著作權(quán)與個人信息保護問題等;另一方面,形式統(tǒng)一所依賴的高度確定性與結(jié)構(gòu)封閉性,難以適應(yīng)人工智能技術(shù)的快速演進、應(yīng)用場景的異質(zhì)性與風(fēng)險類型的持續(xù)變動,容易引發(fā)規(guī)制僵化、監(jiān)管錯配、創(chuàng)新受阻等問題。

在此背景下,本文主張,當(dāng)前階段不宜急于制定形式統(tǒng)一的人工智能法,而應(yīng)以更加審慎和漸進的態(tài)度和方法推進統(tǒng)一立法進程。通過深化理論研究、豐富實踐經(jīng)驗,逐步建立適應(yīng)技術(shù)多樣性和動態(tài)性的法律體系,為未來的人工智能統(tǒng)一立法奠定更為堅實的基礎(chǔ)。這不僅是對技術(shù)發(fā)展規(guī)律的尊重,也是在技術(shù)發(fā)展與風(fēng)險防范之間實現(xiàn)平衡的必然選擇。

人工智能立法熱潮的動因分析

在人工智能技術(shù)變革及其引發(fā)的社會風(fēng)險的雙重驅(qū)動以及國際科技競賽與規(guī)則競爭雙重博弈的背景下,國內(nèi)圍繞人工智能統(tǒng)一立法的討論逐漸升溫。

(一)技術(shù)變革與社會風(fēng)險的雙重驅(qū)動

人工智能技術(shù)的快速迭代和應(yīng)用場景的持續(xù)拓展,成為推動當(dāng)前立法熱潮的直接技術(shù)動因。據(jù)報道,我國人工智能核心產(chǎn)業(yè)規(guī)模達到5000億元,企業(yè)數(shù)量超過4500家,融合應(yīng)用深度拓展。人工智能的技術(shù)突破已在多個領(lǐng)域引發(fā)深遠影響,同時也帶來了責(zé)任歸屬、深度偽造、就業(yè)替代與數(shù)據(jù)安全等法律與倫理挑戰(zhàn)。

人工智能在醫(yī)療和自動駕駛等高風(fēng)險領(lǐng)域的應(yīng)用,引發(fā)了復(fù)雜的責(zé)任歸屬問題。在醫(yī)療場景中,人工智能通過深度學(xué)習(xí)分析大量數(shù)據(jù)以輔助診斷和治療,雖提升了效率,卻因算法不可解釋性和對數(shù)據(jù)的高度依賴而存在誤診風(fēng)險。例如,IBM Watson Health曾因算法缺陷推薦了錯誤的癌癥治療方案,國內(nèi)亦曾發(fā)生“手術(shù)機器人”引發(fā)的醫(yī)療事故責(zé)任爭議。傳統(tǒng)醫(yī)療責(zé)任通常由醫(yī)生或醫(yī)院承擔(dān),但在人工智能參與診療的背景下,責(zé)任主體日益模糊,醫(yī)生、醫(yī)院與人工智能開發(fā)者之間的責(zé)任分配尚無明確規(guī)則。同樣,自動駕駛汽車的發(fā)展也引發(fā)了復(fù)雜的法律歸責(zé)問題。此類系統(tǒng)高度依賴深度學(xué)習(xí)算法感知交通環(huán)境并自主作出駕駛決策,具有明顯的“黑箱”特征,致使事故發(fā)生后的行為歸因與責(zé)任認定充滿不確定性。在實踐中,責(zé)任可能在汽車制造商、系統(tǒng)開發(fā)商、駕駛員甚至乘客之間多方交錯,亟需通過“法權(quán)利益衡量”對各方在控制能力、風(fēng)險承擔(dān)與收益分配中的地位進行系統(tǒng)評估,從而構(gòu)建兼顧安全保障與技術(shù)創(chuàng)新的責(zé)任分配機制。

深度偽造技術(shù)突破傳統(tǒng)信息真實性邊界,引發(fā)了系統(tǒng)性倫理風(fēng)險與法律規(guī)制難題。深度偽造技術(shù)最早于2017年在美國社交媒體平臺上出現(xiàn),并迅速擴散,催生了偽造色情視頻、捏造政治人物演講、虛構(gòu)企業(yè)家新聞等現(xiàn)象,使“眼見為實”不再可靠。隨著技術(shù)門檻降低,深度偽造突破倫理與法律邊界,引發(fā)虛假宣傳、名譽損害、財產(chǎn)損失、安全威脅等系統(tǒng)性社會風(fēng)險,甚至導(dǎo)致社會信任危機。例如,2023年杭州互聯(lián)網(wǎng)法院受理的“人工智能換臉”侵權(quán)案。人工智能“復(fù)活”逝者更是引來倫理和法理的雙重審視。這種技術(shù)既可能用于紀念逝者,也可能被濫用于商業(yè)化或欺詐目的,對個體人格權(quán)、數(shù)據(jù)權(quán)利和社會情感倫理產(chǎn)生深遠影響。在某些情況下,深度偽造甚至可能被用于政治操縱,加劇公眾對“真實性消亡”的集體焦慮。

人工智能引發(fā)的結(jié)構(gòu)性就業(yè)替代趨勢,暴露出現(xiàn)行法律與社會保障體系的適應(yīng)滯后。人工智能的快速發(fā)展引發(fā)了技術(shù)性失業(yè)的爭議,凸顯了產(chǎn)業(yè)結(jié)構(gòu)調(diào)整與勞動力市場適應(yīng)之間的矛盾。據(jù)麥肯錫全球研究院預(yù)測,到2030年至2060年,全球約50%的現(xiàn)有崗位可能被人工智能取代,而技術(shù)迭代的速度遠超職業(yè)培訓(xùn)和勞動力再分配的周期,加劇了“技能鴻溝”與“崗位創(chuàng)造滯后”之間的矛盾。2024年,無人駕駛出租車在武漢試點運營,引發(fā)出租車司機的大規(guī)模抗議,成為技術(shù)替代引發(fā)勞動力沖突的典型案例。在制造業(yè)、金融、法律等多個領(lǐng)域,人工智能也正加速滲透,逐步取代大量高度重復(fù)、規(guī)則性強的傳統(tǒng)崗位。這一轉(zhuǎn)型沖擊呈現(xiàn)出明顯的不均衡特征,低技能和中等技能工種首當(dāng)其沖,而高技能崗位則因人工智能輔助效應(yīng)獲得效率提升,從而加劇勞動力市場的結(jié)構(gòu)性分化。

人工智能驅(qū)動下的大規(guī)模數(shù)據(jù)采集與跨境傳輸,激化了國家數(shù)據(jù)安全與主權(quán)治理的法律挑戰(zhàn)。在智能交通領(lǐng)域,搭載高精度激光雷達、毫米波雷達及多光譜攝像頭的車輛,每秒可生成TB級三維地理坐標數(shù)據(jù)。這類時空信息經(jīng)深度分析可還原軍事基地、能源管網(wǎng)等戰(zhàn)略要地的空間坐標。2024年,某跨國企業(yè)以“技術(shù)合作”名義,在中國非法進行地理測繪活動,利用本土代理機構(gòu)收集道路云數(shù)據(jù),導(dǎo)致數(shù)據(jù)被傳輸至境外,經(jīng)認定,這些數(shù)據(jù)中包含國家秘密,相關(guān)企業(yè)和責(zé)任人已被依法追究法律責(zé)任。此外,跨境數(shù)據(jù)流動同樣面臨安全隱患。人工智能時代,大規(guī)模、實時化的跨境數(shù)據(jù)傳輸成為常態(tài),也是當(dāng)前國家、地區(qū)間政策博弈最為復(fù)雜的領(lǐng)域之一,凸顯出我國在關(guān)鍵數(shù)據(jù)識別、流動規(guī)則設(shè)定與跨境監(jiān)管方面亟需構(gòu)建更為完善的法律框架與合規(guī)體系。

(二)國際科技競賽與規(guī)則競爭的雙重博弈

人工智能立法的全球浪潮源于國際科技競賽與規(guī)則競爭的雙重博弈。人工智能已成為各國爭奪未來經(jīng)濟主導(dǎo)權(quán)與國家安全優(yōu)勢的關(guān)鍵技術(shù),而立法則是推動國家戰(zhàn)略落地的重要手段。在這一背景下,人工智能立法不僅是技術(shù)治理的必要環(huán)節(jié),更是全球技術(shù)秩序主導(dǎo)權(quán)爭奪的核心戰(zhàn)場。“哪個國家能率先發(fā)現(xiàn)并確立基本規(guī)則,哪個國家就有可能引領(lǐng)人工智能法整體范式變革”。因此,各國紛紛通過立法鞏固技術(shù)領(lǐng)先優(yōu)勢、推動產(chǎn)業(yè)升級,并在國際規(guī)則制定中爭奪話語權(quán)。這一趨勢呈現(xiàn)出立法與科技戰(zhàn)略深度綁定、立法模式差異化、國際規(guī)則競爭日益激烈等特征。

歐盟采取以“風(fēng)險防控”為核心的治理模式,試圖通過立法輸出影響全球人工智能治理格局,延續(xù)其《通用數(shù)據(jù)保護條例》(以下簡稱GDPR)的“布魯塞爾效應(yīng)”。自2018年《歐洲人工智能戰(zhàn)略》提出以來,歐盟不斷完善監(jiān)管體系,于2019年和2020年先后發(fā)布《可信人工智能倫理指南》《人工智能白皮書》,并在2022年到2023年間陸續(xù)通過《數(shù)據(jù)治理法》《數(shù)字市場法》《數(shù)字服務(wù)法》《數(shù)據(jù)法》等重要法規(guī),最終在2024年通過全球首部《人工智能法》。《人工智能法》首創(chuàng)基于風(fēng)險等級的監(jiān)管框架,將人工智能應(yīng)用劃分為不可接受風(fēng)險、高風(fēng)險、有限風(fēng)險和最小風(fēng)險,并對高風(fēng)險應(yīng)用設(shè)定嚴格合規(guī)要求。

然而,相較于GDPR時代的立法趨同,本輪人工智能立法呈現(xiàn)明顯的國際分化格局。美國的人工智能立法緊密圍繞國家安全與經(jīng)濟競爭展開,核心目標是維持全球技術(shù)領(lǐng)導(dǎo)地位。從2016年提出《國家人工智能研究與發(fā)展戰(zhàn)略計劃》,到2019年的《保持美國在人工智能領(lǐng)域的領(lǐng)導(dǎo)地位》行政命令,再到2022年的《芯片與科學(xué)法案》與《國家人工智能研究資源法案》,美國始終致力于維持并強化其全球技術(shù)領(lǐng)先地位。《人工智能權(quán)利法案藍圖》《人工智能風(fēng)險管理框架》等文件,雖有指導(dǎo)意義但缺乏法律約束力。2025年撤銷了《關(guān)于安全、可靠和可信地開發(fā)和使用人工智能的行政命令》,凸顯出其“發(fā)展優(yōu)先”的治理理念。

英國于2023年發(fā)布《促進創(chuàng)新的人工智能監(jiān)管方法》,提出區(qū)別于歐盟“基于風(fēng)險等級”的“基于結(jié)果”的監(jiān)管框架,重點關(guān)注人工智能的具體應(yīng)用情境及其影響,而非按技術(shù)類型或風(fēng)險等級設(shè)定統(tǒng)一監(jiān)管標準。韓國則在2024年通過《人工智能發(fā)展及信任基礎(chǔ)建立基本法》,該法成為全球第二部綜合性人工智能立法,兼顧產(chǎn)業(yè)振興與風(fēng)險防范,旨在通過資金扶持和柔性監(jiān)管推動技術(shù)突破。日本于2025年提出《人工智能相關(guān)技術(shù)的研發(fā)及應(yīng)用促進法》草案,直接明確以產(chǎn)業(yè)促進為核心的立法目標,通過制度化政策支持強化本國在全球科技競爭中的地位。

從既有實踐來看,中國采取“政策引導(dǎo)+專項立法+分階段推進”的模式。自2017年《新一代人工智能發(fā)展規(guī)劃》發(fā)布以來,逐步構(gòu)建起從國家戰(zhàn)略到地方立法試點的多層次治理體系。在國家層面,以專項立法的方式出臺了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》等專項法規(guī);在地方層面上海、深圳等地制定了人工智能產(chǎn)業(yè)促進條例。這些規(guī)定具有明確的目標導(dǎo)向,在應(yīng)對具體風(fēng)險方面具有較強針對性,但整體仍較為碎片化,缺乏體系性。在此背景下,不少學(xué)者建議出臺統(tǒng)一立法,打造具有國際影響力的“中國制度名片”。

人工智能統(tǒng)一立法的潛在問題

人工智能統(tǒng)一立法雖然可以建立系統(tǒng)性、全面性的法律框架,然而,人工智能技術(shù)的復(fù)雜性、發(fā)展路徑的不確定性以及應(yīng)用場景的差異性,使得統(tǒng)一立法在實踐中面臨諸多挑戰(zhàn)。

(一)人工智能技術(shù)演進的不確定性:統(tǒng)一立法的底層邏輯困境

從技術(shù)發(fā)展的角度來看,統(tǒng)一立法面臨底層邏輯的不確定性,使得其可行性和適應(yīng)性存疑。特別是人工智能技術(shù)仍處于高速演進階段,技術(shù)路徑尚未收斂,風(fēng)險場景高度分化,此時若出臺一部覆蓋廣泛的統(tǒng)一的法律框架,可能因技術(shù)快速迭代而面臨失效風(fēng)險。一方面,不同類型的人工智能在發(fā)展路徑上呈現(xiàn)高度分化趨勢:通用人工智能以構(gòu)建強認知系統(tǒng)為目標,垂直人工智能聚焦特定任務(wù)的性能優(yōu)化,而具身人工智能則強調(diào)物理環(huán)境中的智能交互。這種多元并進的技術(shù)格局,決定了統(tǒng)一立法難以全面覆蓋其異質(zhì)性需求。另一方面,人工智能的技術(shù)突破往往帶來跨領(lǐng)域的連鎖變革,尤其是生成式人工智能的出現(xiàn),不僅重塑了自然語言處理技術(shù),也在教育、醫(yī)療、法律等多個行業(yè)引發(fā)深遠變革。這一復(fù)雜的技術(shù)生態(tài)導(dǎo)致若基于當(dāng)前技術(shù)現(xiàn)狀立法,可能陷入“錨定效應(yīng)”,難以適應(yīng)未來的技術(shù)范式轉(zhuǎn)型。

以歐盟《人工智能法》為例,該法在起草時將人工智能定義為“軟件”,但隨著ChatGPT的出現(xiàn),不得不將其修改為“系統(tǒng)”以適應(yīng)新的技術(shù)形態(tài)。除此之外,該法在起草時以“風(fēng)險分級”為核心監(jiān)管框架,然而,這一分類體系主要圍繞專用人工智能(如自動駕駛汽車、醫(yī)療人工智能)展開,未充分考慮通用人工智能的潛在影響。ChatGPT的出現(xiàn)不僅跨越多個行業(yè)應(yīng)用場景,還具備自主學(xué)習(xí)與泛化能力,直接沖擊了《人工智能法》原有的分類邏輯,迫使歐盟在法案通過前緊急增設(shè)“通用人工智能監(jiān)管”條款。

人工智能技術(shù)的高速迭代與立法周期的相對滯后進一步加劇了法律失效的可能性。生成式人工智能從研發(fā)階段到大規(guī)模商業(yè)化往往僅需數(shù)月,而立法過程涉及提案、調(diào)研、審議、表決等多個環(huán)節(jié),且需在產(chǎn)業(yè)發(fā)展、技術(shù)安全、社會倫理等多重考量之間尋求平衡,立法者通常需要數(shù)年時間來理解技術(shù)邏輯、評估社會影響,并協(xié)調(diào)多方利益訴求,才能制定相關(guān)規(guī)則。歐盟《人工智能法》從草案提出到最終通過耗時近三年,而在此期間,人工智能技術(shù)已完成多次代際升級,使得部分法案條款尚未生效便已過時。這種立法周期與技術(shù)迭代速率的嚴重脫節(jié),使得統(tǒng)一立法在實踐中難以保持適應(yīng)性,最終可能陷入持續(xù)修訂的循環(huán)。

為應(yīng)對技術(shù)發(fā)展的不確定性,主張人工智能統(tǒng)一立法的學(xué)者提出應(yīng)在法律框架中預(yù)留調(diào)整和補充接口,以便在技術(shù)成熟時完善具體制度。這一思路具有一定的前瞻性和合理性,但技術(shù)演進往往超出既有認知,單靠預(yù)留接口未必能有效應(yīng)對現(xiàn)實挑戰(zhàn)。不僅《人工智能法》在制定過程中遭遇因生成式人工智能的出現(xiàn)而被迫修改的情況,更早制定的GDPR也遭遇了深層次的結(jié)構(gòu)性沖擊。生成式人工智能的數(shù)據(jù)處理模式和強大的數(shù)據(jù)生成能力,對個人信息保護法的基本原則和核心權(quán)利構(gòu)成前所未有的挑戰(zhàn)。這些挑戰(zhàn)已超出傳統(tǒng)法律“預(yù)留接口”所能解決的范疇,進一步凸顯了在技術(shù)范式尚未穩(wěn)定前進行統(tǒng)一立法的局限。

(二)過度監(jiān)管與治理泛化:統(tǒng)一立法可能導(dǎo)致“一刀切”

人工智能統(tǒng)一立法可能導(dǎo)致“一刀切”監(jiān)管。一方面,過于嚴格的監(jiān)管框架可能抑制技術(shù)創(chuàng)新。一般而言,監(jiān)管過嚴會抑制市場創(chuàng)新活力,固定化、統(tǒng)一化的監(jiān)管模式往往忽視人工智能技術(shù)發(fā)展的階段性和多樣性,可能造成“寒蟬效應(yīng)”。首先,初創(chuàng)企業(yè)的生存壓力加劇。嚴格的合規(guī)要求,特別是高昂的數(shù)據(jù)合規(guī)成本,對資源有限的企業(yè)構(gòu)成沉重負擔(dān)。研究顯示,歐盟《人工智能法》可能導(dǎo)致歐洲經(jīng)濟損失310億歐元,并使人工智能投資減少近20%,對于部署高風(fēng)險人工智能系統(tǒng)的中小企業(yè),合規(guī)成本可能高達40萬歐元,利潤下降40%。其次,企業(yè)為降低合規(guī)風(fēng)險,往往趨于規(guī)避高監(jiān)管技術(shù)領(lǐng)域,導(dǎo)致技術(shù)探索趨于保守。特別是在生成式人工智能、情感識別等前沿領(lǐng)域,監(jiān)管不確定性與合規(guī)不可預(yù)期性,可能使企業(yè)主動放棄關(guān)鍵技術(shù)研發(fā),削弱了原始創(chuàng)新的動力。最后,這種創(chuàng)新活力的退潮進一步導(dǎo)致人才和資本向海外低監(jiān)管法域遷移,造成技術(shù)競爭力的結(jié)構(gòu)性流失,進而對人工智能產(chǎn)業(yè)生態(tài)帶來系統(tǒng)性沖擊。

另一方面,若法律監(jiān)管框架僅停留在原則性規(guī)定層面,而缺乏具體、可操作的實施細則,則可能流于形式,法律權(quán)威性受損,既無法有效約束企業(yè)行為,又可能加劇企業(yè)合規(guī)的不確定性。模糊條款可能導(dǎo)致監(jiān)管執(zhí)行標準不統(tǒng)一,使企業(yè)在不同解讀之間游走,削弱法律的實際約束力。例如,如果“高風(fēng)險人工智能”的定義不明確,企業(yè)可能借助合規(guī)漏洞規(guī)避監(jiān)管,導(dǎo)致法律目標難以落地。除此之外,合規(guī)不確定性加劇,企業(yè)可能采取過度保守策略,影響人工智能技術(shù)的應(yīng)用推廣。

以中國的《生成式人工智能服務(wù)管理暫行辦法》為例,該法規(guī)雖作為專項立法出臺,但在內(nèi)容上主要延續(xù)《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》和《個人信息保護法》的相關(guān)規(guī)定,未對生成式人工智能的研發(fā)者、提供者和部署者設(shè)定明確的法律義務(wù)。其核心作用可能僅在于宣示生成式人工智能并非“法外之地”,而非提供細化、可操作的監(jiān)管框架。究其原因,相關(guān)技術(shù)剛剛興起,行業(yè)認知尚未成熟,法律制定難以形成廣泛共識。專項立法尚且面臨適用性的挑戰(zhàn),更遑論制定一部覆蓋所有人工智能技術(shù)的統(tǒng)一立法,其難度可想而知。

(三)規(guī)則與場景錯配:統(tǒng)一立法的適用困境

人工智能技術(shù)在醫(yī)療、交通、教育、娛樂等領(lǐng)域的應(yīng)用場景差異顯著,不同行業(yè)對法律規(guī)制的需求各不相同。統(tǒng)一立法模式往往難以精準適配這些差異,加劇了規(guī)則與場景錯配的法律適用風(fēng)險。

其一,在醫(yī)療領(lǐng)域,人工智能主要用于疾病診斷、手術(shù)輔助和藥物研發(fā),法律監(jiān)管重點在于數(shù)據(jù)質(zhì)量、算法透明度和倫理審查。由于醫(yī)療人工智能涉及患者生命安全,誤診可能帶來嚴重后果,因此該領(lǐng)域需要較高的安全標準和嚴格的倫理監(jiān)督。其二,在交通領(lǐng)域,自動駕駛技術(shù)的發(fā)展涉及責(zé)任劃分、安全標準和數(shù)據(jù)隱私保護等問題。若發(fā)生交通事故,法律需明確駕駛員、汽車制造商和自動駕駛系統(tǒng)開發(fā)者的責(zé)任歸屬,否則可能導(dǎo)致責(zé)任歸屬混亂,影響事故處理和賠償機制。其三,在教育領(lǐng)域,人工智能廣泛應(yīng)用于個性化學(xué)習(xí)、自動評分和考試監(jiān)控,法律風(fēng)險主要集中在數(shù)據(jù)隱私保護和算法公平性。如果法律無法有效約束教育人工智能的歧視性偏見,可能加劇教育不公。其四,在娛樂領(lǐng)域,人工智能的核心法律問題則集中在版權(quán)保護和內(nèi)容監(jiān)管。人們利用生成式人工智能創(chuàng)作的音樂、視頻和藝術(shù)作品的著作權(quán)歸屬尚需進一步明確。由于人工智能在不同行業(yè)的風(fēng)險水平和法律需求存在顯著差異,統(tǒng)一立法若缺乏靈活性,可能帶來一系列負面影響。

此外,不同行業(yè)的技術(shù)成熟度存在顯著差異,也進一步增加了統(tǒng)一立法的適配難度。例如,醫(yī)療人工智能的監(jiān)管體系相對成熟,美國FDA已建立專門的審批流程,對醫(yī)療人工智能算法的數(shù)據(jù)質(zhì)量、透明度和安全性提出明確要求。而在生成式人工智能內(nèi)容監(jiān)管方面,現(xiàn)行法律體系尚未形成統(tǒng)一的治理框架,不同國家的立法取向也存在較大分歧。如果人工智能立法試圖通過一部法律規(guī)范技術(shù)成熟度不同的人工智能應(yīng)用,不僅難以滿足行業(yè)需求,還可能降低法律的可執(zhí)行性,增加企業(yè)的合規(guī)成本。

再以歐盟的《人工智能法》為例,該法案試圖通過風(fēng)險等級劃分來建立統(tǒng)一的監(jiān)管體系,然而其過于追求形式的統(tǒng)一性,將不同行業(yè)和領(lǐng)域的風(fēng)險進行等級劃分,這種等級劃分不僅非常武斷,而且在風(fēng)險等級評估過程中也面臨巨大挑戰(zhàn)和爭議。一方面,風(fēng)險等級的劃分標準過于武斷,不同行業(yè)的技術(shù)特點、倫理考量和應(yīng)用模式難以被簡單歸類;另一方面,人工智能的風(fēng)險評估本身充滿爭議,同一類技術(shù)在不同應(yīng)用場景下可能產(chǎn)生完全不同的風(fēng)險級別,而歐盟的監(jiān)管框架難以動態(tài)調(diào)整,導(dǎo)致法律執(zhí)行存在較大的靈活性缺陷。因此,過度強調(diào)統(tǒng)一的法律框架,而忽視行業(yè)差異和技術(shù)演進的不同階段,不僅可能加劇規(guī)則與場景的錯配,還可能降低法律的適應(yīng)性,影響人工智能產(chǎn)業(yè)的健康發(fā)展。

人工智能立法緩行的法理證成

人工智能統(tǒng)一立法的時機與路徑,不僅是法律規(guī)制與技術(shù)發(fā)展的簡單匹配問題,更涉及技術(shù)演化規(guī)律、治理工具選擇及社會系統(tǒng)自適應(yīng)的復(fù)雜交互。基于技術(shù)哲學(xué)、漸進社會工程理論以及社會系統(tǒng)論的交叉論證,可以構(gòu)建一個基于技術(shù)規(guī)律、治理方法和社會系統(tǒng)的全景式反思框架,為人工智能統(tǒng)一立法緩行提供法理依據(jù)。

(一)技術(shù)哲學(xué)視角下的本體論反思:技術(shù)成熟度與立法介入的時機

20世紀最有影響力的技術(shù)哲學(xué)家之一雅克·埃呂爾(Jacques Ellul)指出,技術(shù)的本質(zhì)是“在人類活動的各個領(lǐng)域通過理性獲得的(在特定發(fā)展階段)有絕對效率的所有方法”。換言之,技術(shù)的發(fā)展遵循效率最大化的內(nèi)在規(guī)律,具有自我推動的演化趨勢。蒸汽機革命的本質(zhì)在于用機器替代人的體力勞動,而計算機革命則進一步實現(xiàn)了機器智能化,在一定程度上取代了人類的腦力勞動。生成式人工智能的出現(xiàn),則將這一邏輯擴展到創(chuàng)造性任務(wù)領(lǐng)域,不僅提升了計算和邏輯推理效率,更在部分領(lǐng)域接近甚至超越人類的創(chuàng)造能力。技術(shù)的這種效率驅(qū)動性使其演化具有自主性,并非完全受控于人類意志。正如凱文·凱利在其著作《科技想要什么》中所言,我們發(fā)明的東西正用一種自身迭代的方法孕育出其他發(fā)明。

依據(jù)埃呂爾的技術(shù)演進理論,技術(shù)發(fā)展的內(nèi)在邏輯主要表現(xiàn)為以下三個特征:第一,技術(shù)系統(tǒng)的自增性,即技術(shù)進步依賴于既有技術(shù)要素的組合,是技術(shù)體系內(nèi)部邏輯的自然延展,而非孤立創(chuàng)新;第二,技術(shù)前進的自動性,即技術(shù)沿自身路徑演進,雖涉及人的選擇,但受制于既有技術(shù)框架和技術(shù)理性,具有自我定向和自動選擇特征;第三,技術(shù)發(fā)展的無目標性,即技術(shù)并非按人類設(shè)定的特定目標推進,而是基于當(dāng)前技術(shù)增長可能性的自然演化,其發(fā)展方向難以被人為精確控制。表面上看,人類似乎可以決定是否發(fā)明或采用某項技術(shù),但實際上,技術(shù)的發(fā)展受社會歷史條件約束,遵循內(nèi)在邏輯,同一發(fā)明在不同地區(qū)同時出現(xiàn)的現(xiàn)象表明,技術(shù)創(chuàng)新往往是必然的,而非偶然的。

從技術(shù)哲學(xué)視角審視,人工智能統(tǒng)一立法的必要性應(yīng)當(dāng)深植于技術(shù)發(fā)展的客觀規(guī)律之中。技術(shù)發(fā)展具有其自身的內(nèi)在邏輯,過早施加外部規(guī)制可能引發(fā)“技術(shù)—制度”的交互扭曲。歷史表明,許多科學(xué)領(lǐng)域的重大變革往往是在技術(shù)超越既有認知后,才得到正確定義。19世紀末的物理學(xué)家未曾想到,似乎是堅不可摧的牛頓經(jīng)典力學(xué)會受到相對論和量子力學(xué)的挑戰(zhàn);而當(dāng)時的化學(xué)家如果知道原子不可再分是錯誤的,也一定會大吃一驚;同樣,當(dāng)時的生物學(xué)家也絕不會想到,遺傳現(xiàn)象的研究會由于發(fā)現(xiàn)了DNA結(jié)構(gòu)后而發(fā)生巨大的革命。

當(dāng)前,人工智能技術(shù)處于快速迭代階段,技術(shù)體系尚未穩(wěn)定,社會共識仍在形成,過早實施統(tǒng)一立法可能引發(fā)三重風(fēng)險:一是技術(shù)鎖定效應(yīng),若以當(dāng)前主流技術(shù)為基準設(shè)定監(jiān)管標準,可能壓制替代性路徑的發(fā)展,如歐盟GDPR對數(shù)據(jù)使用的嚴格限制,實質(zhì)上強化了擁有封閉數(shù)據(jù)池的科技巨頭的優(yōu)勢。二是創(chuàng)新激勵扭曲,若法律過早聚焦特定風(fēng)險,如“一刀切”地要求模型可解釋性,可能固化技術(shù)路線,忽視行為監(jiān)測等更有效的風(fēng)險防控機制。三是制度適配失衡,法律邏輯與技術(shù)邏輯之間存在張力,如個人信息保護法倡導(dǎo)的數(shù)據(jù)最小化與人工智能訓(xùn)練所需的大規(guī)模多樣化數(shù)據(jù)之間形成沖突,可能導(dǎo)致企業(yè)合規(guī)成本上升,削弱數(shù)據(jù)驅(qū)動型技術(shù)的發(fā)展?jié)摿Α?/p>

根據(jù)2024年Gartner技術(shù)成熟度曲線,當(dāng)前生成式人工智能仍處于“過高期望峰值期”。這一階段技術(shù)因媒體炒作和市場熱情而受到廣泛關(guān)注,然而,這一階段往往伴隨著技術(shù)本身的不成熟和局限性未能完全顯現(xiàn)的情況。盡管生成式人工智能展現(xiàn)出了令人驚嘆的能力,但在實際應(yīng)用中依然存在“幻覺”、穩(wěn)定性不足、數(shù)據(jù)偏見、倫理風(fēng)險等問題,當(dāng)前對于生成式人工智能的監(jiān)管和標準制定尚處于探索階段,許多問題(如數(shù)據(jù)使用、版權(quán)爭議、風(fēng)險控制等)尚未形成統(tǒng)一共識。此時,若過早推行統(tǒng)一立法可能會固化特定技術(shù)路徑、削弱創(chuàng)新激勵,并導(dǎo)致法律與技術(shù)發(fā)展的錯配。

(二)漸進社會工程理論的方法論解構(gòu):“試錯法”與漸進治理路徑

卡爾·波普爾(Karl Popper)提出的漸進社會工程理論,以“試錯法”為核心方法論,構(gòu)建了一種符合復(fù)雜社會治理需求的漸進式治理模式。該理論主張,在面對高度不確定和多變的社會問題時,治理者應(yīng)通過逐步調(diào)整與持續(xù)反饋推進制度革新,而非寄望于一次性構(gòu)建完備的“烏托邦式”治理體系。漸進社會工程理論包含兩個基本邏輯:第一,科學(xué)認知的試錯本質(zhì)。波普爾認為,科學(xué)發(fā)展是一個不斷提出假設(shè)、通過證偽法篩除錯誤的過程,所有科學(xué)理論都是暫時未被證偽的假設(shè),人類知識的增長依賴于“猜測—反駁”循環(huán),從而動態(tài)接近客觀真理。第二,社會治理的漸進路徑。波普爾批判烏托邦式的整體社會重構(gòu),主張以“最小痛苦原則”為治理目標,即治理并不在于構(gòu)建一個實現(xiàn)“最大幸福”的理想社會,而在于以最小的社會代價,逐步消除已存在的具體問題與惡行。

漸進社會工程理論以其對人類理性邊界的深刻認知和對實踐反饋機制的高度重視,與中國“摸著石頭過河”的治理經(jīng)驗形成深度契合,為應(yīng)對新興技術(shù)治理中的高度不確定性提供了重要方法論支撐。在人工智能治理領(lǐng)域,盡管許多政策倡導(dǎo)人工智能向善,但波普爾的理論更加強調(diào)解決現(xiàn)實風(fēng)險,例如算法歧視、數(shù)據(jù)濫用、模型偏見等問題。漸進社會工程理論強調(diào)“尋找社會上最重大最緊迫的惡行并與之斗爭”,而非試圖一步到位地實現(xiàn)“最大善”。相較于“善”的抽象追求,治理應(yīng)當(dāng)優(yōu)先消除“顯性惡行”,如深度偽造濫用、隱私侵犯、人工智能決策不透明等,而非試圖一次性制定覆蓋所有潛在場景的統(tǒng)一法律框架。基于該理論的治理思路,應(yīng)通過地方立法試點、監(jiān)管沙盒、行業(yè)準則等機制,在小范圍內(nèi)探索制度安排與責(zé)任劃分,并根據(jù)反饋不斷優(yōu)化算法透明度、倫理底線與合規(guī)要求,最終實現(xiàn)有效經(jīng)驗的制度化擴展。這一漸進式治理邏輯,既可以避免歐盟“過度預(yù)設(shè)—過早規(guī)制”所帶來的創(chuàng)新抑制風(fēng)險,又有助于克服美國“自由放任—事后應(yīng)對”可能導(dǎo)致的社會代價,展現(xiàn)出一種在不確定性中實現(xiàn)風(fēng)險可控與制度適應(yīng)的治理理性。

(三)社會系統(tǒng)論的反身性法律理性:促進技術(shù)自我規(guī)制的法律框架

德國法學(xué)家圖依布納(Gunther Teubner)在盧曼(Niklas Luhmann)社會系統(tǒng)論的基礎(chǔ)上,提出“反身性法”(Reflexive Law)理論,強調(diào)法律應(yīng)以促進社會系統(tǒng)自我調(diào)適為核心,而非直接干預(yù)或強制規(guī)制。其核心命題可凝練為三重邏輯:首先,現(xiàn)代社會的功能分化。社會已分化為政治、經(jīng)濟、科技等自治子系統(tǒng),各系統(tǒng)遵循自身的邏輯運作,形成“無中心”的協(xié)同網(wǎng)絡(luò)。法律作為“環(huán)境中的制度”,在規(guī)制其他社會子系統(tǒng)時,必須明確自身能力的邊界,避免過度干預(yù)。其次,法律理性的范式轉(zhuǎn)型。“反身性法”不同于傳統(tǒng)的形式法或?qū)嵸|(zhì)法,而是通過程序性框架激發(fā)社會子系統(tǒng)的自我反思能力。它不直接制定實體規(guī)則,而是提供結(jié)構(gòu)化的調(diào)控機制,使技術(shù)、經(jīng)濟等子系統(tǒng)在法律框架下實現(xiàn)自我演化。“反身性法”在“通過法律的自我調(diào)整推動社會調(diào)整”這個意義上具有“反身性”,特別適合需要大量專業(yè)技術(shù)知識和充分自主發(fā)展空間的復(fù)雜社會領(lǐng)域。最后,共同演化的治理哲學(xué)。法律的目標不是替代社會子系統(tǒng)的決策,而是創(chuàng)造適宜的環(huán)境,使其自主生長出適應(yīng)性規(guī)范。圖依布納進一步指出:“如果法律確實通過推進其他社會子系統(tǒng)中的反思進程來履行其整合功能,那么法律系統(tǒng)所要求的社會知識是非常具體的,并且模型建構(gòu)的需要比在綜合性的‘計劃性’法律中要更加有限。反身性法僅僅需要利用和發(fā)展在不同背景中控制自我規(guī)制進程所需的知識。”

“反身性法”不同于諾內(nèi)特(Philippe Nonet)和塞爾茲尼克(Philip Selznick)提出的“回應(yīng)型法”。“回應(yīng)型法”強調(diào)法律的能動性和適應(yīng)性,法律實施機關(guān)在社會變革過程中保持靈活性,并在具體案件中富有彈性地解釋法律。“回應(yīng)型法”雖然具有反思理性的成分,通過與社會需求互動實現(xiàn)動態(tài)調(diào)整,但其仍然以實質(zhì)理性為基礎(chǔ),即法律不僅適應(yīng)社會變化,還主動介入、調(diào)整規(guī)制對象。而“反身性法”則不直接干預(yù)技術(shù)領(lǐng)域,而是通過構(gòu)建法律“過程”與“關(guān)系”促進治理體系與信息社會結(jié)構(gòu)的“和諧適配”,以增強社會系統(tǒng)的環(huán)境敏感性和自我反思能力。當(dāng)前,人工智能立法試圖通過統(tǒng)一規(guī)則來解決技術(shù)、倫理與經(jīng)濟子系統(tǒng)之間的沖突。然而,從“反身性法”的視角來看,這種做法屬于實質(zhì)理性的回歸,可能存在過度介入之嫌。

人工智能立法緩行的基本路徑

人工智能統(tǒng)一立法應(yīng)該緩行的主張并非否認立法的必要性,而是強調(diào)立法需要與技術(shù)發(fā)展、社會需求和法律體系的復(fù)雜性相協(xié)調(diào)。我國人工智能立法應(yīng)構(gòu)建“時間—空間”雙重彈性的治理體系,以實現(xiàn)促進技術(shù)發(fā)展與防范風(fēng)險之間的最佳平衡。

(一)時間維度:漸進式立法與協(xié)同演進機制

1.技術(shù)成熟度評估:確定立法介入時機

立法作為社會價值的權(quán)威化表達,應(yīng)精準識別人工智能技術(shù)帶來的社會變革,同時避免因過早介入而鎖定技術(shù)路徑、抑制創(chuàng)新或?qū)е路膳c技術(shù)發(fā)展脫節(jié)。技術(shù)哲學(xué)家埃呂爾指出,技術(shù)的發(fā)展具有自增性、自動性和無目標性,其演化往往超越既有認知,過早施加外部規(guī)制可能引發(fā)“技術(shù)—制度”交互扭曲。以生成式人工智能為例,其早期發(fā)展階段不可避免地存在“幻覺”現(xiàn)象,如捏造事實、迎合用戶偏好等問題,然而,隨著技術(shù)的進步,這些問題可在模型優(yōu)化過程中得到緩解,開發(fā)者亦有強大動機提升生成內(nèi)容的準確性和可靠性。因此,人工智能立法應(yīng)基于技術(shù)成熟度評估機制,在確保技術(shù)發(fā)展空間的同時,合理設(shè)定法律介入的時機與方式,構(gòu)建適應(yīng)性強的法律框架。

人工智能技術(shù)的成熟度直接影響法律干預(yù)的有效性。借鑒Gartner技術(shù)成熟度曲線的分類方法,可將人工智能技術(shù)劃分為四個階段,并據(jù)此采取分階段立法策略,以避免過早規(guī)制抑制創(chuàng)新,或干預(yù)滯后導(dǎo)致治理失衡。第一階段為技術(shù)萌芽期,此階段技術(shù)仍處于實驗和早期商業(yè)化階段,市場尚未完全接受,技術(shù)應(yīng)用的不確定性較高。如通用人工智能仍處于探索階段,未來發(fā)展路徑尚不明朗。此階段不宜直接立法,應(yīng)以倫理框架為指導(dǎo),鼓勵學(xué)術(shù)研究和行業(yè)討論,為未來立法奠定理論基礎(chǔ)。第二階段為過高期望期,此階段技術(shù)因市場追捧而被高度炒作,但實際應(yīng)用仍存在較大局限。例如,生成式人工智能目前正處于該階段,盡管展現(xiàn)出強大的生成能力,但仍存在“幻覺”、偏見等問題。此階段可以通過部門規(guī)章、條例先行規(guī)范,不宜進行統(tǒng)一立法。第三階段,泡沫破裂期,技術(shù)開始大規(guī)模應(yīng)用,問題逐步暴露,市場認知趨于理性。例如,自動駕駛技術(shù)近年來頻繁發(fā)生事故,反映出其在復(fù)雜交通環(huán)境下的局限性。此階段可以啟動專項立法,但法規(guī)應(yīng)保持足夠彈性,以適應(yīng)技術(shù)的進一步演化。第四階段,穩(wěn)步爬升期和成熟期,此階段技術(shù)模式趨于穩(wěn)定,市場接受度提高,社會適配度增強,行業(yè)標準和治理共識基本形成。此時可推進統(tǒng)一立法,規(guī)范技術(shù)應(yīng)用,同時鼓勵技術(shù)的多元化發(fā)展路徑,以確保產(chǎn)業(yè)健康發(fā)展。這一階段劃分能夠幫助立法者避免在技術(shù)不成熟時過早立法,并確保在技術(shù)成熟后及時推出法規(guī),治理行業(yè)亂象和社會風(fēng)險。

2.“試錯法”治理路徑:探索“問題驅(qū)動—反饋修正”機制

人工智能技術(shù)的高度復(fù)雜性和快速演進性決定了法律治理不宜采取“一步到位”的整體規(guī)劃模式,而應(yīng)依托“試錯法”與“漸進調(diào)整”機制,在實踐中不斷優(yōu)化法律框架。依據(jù)波普爾的漸進社會工程理論,社會治理應(yīng)遵循“猜測與反駁”的動態(tài)過程,通過小范圍試驗和持續(xù)反饋逐步完善制度,而非一次性制定覆蓋所有可能場景的綜合性法規(guī)。同理,人工智能作為高度動態(tài)的技術(shù)體系,其法律治理也應(yīng)遵循“猜測—反駁”的基本思路,通過問題驅(qū)動、試點驗證和反饋修正的基本路徑,確保法律體系既能適應(yīng)技術(shù)演進,又能及時應(yīng)對潛在風(fēng)險。這一思路與我國2017年《新一代人工智能發(fā)展規(guī)劃》提出的人工智能立法“三步走”策略高度契合,先行開展立法研究,再進行立法試點,最終推進正式立法,以確保法律體系適應(yīng)人工智能發(fā)展的現(xiàn)實需求。

“試錯法”治理路徑強調(diào)以現(xiàn)實問題為導(dǎo)向,通過試點探索合理的規(guī)制模式,并在反饋機制的基礎(chǔ)上不斷調(diào)整和優(yōu)化。依據(jù)波普爾的漸進社會工程理論,社會治理應(yīng)優(yōu)先關(guān)注“消除痛苦”而非追求“最大幸福”,法律應(yīng)以最小的社會成本解決已識別的核心問題,而非試圖一次性制定覆蓋所有潛在應(yīng)用場景的法規(guī)。基于這一原則,人工智能治理應(yīng)采取“消除痛苦”的底線思維策略,針對高風(fēng)險應(yīng)用進行法律監(jiān)管,同時為低風(fēng)險技術(shù)提供充分的市場自由,以保持法律的靈活性與適應(yīng)性。

可以建立風(fēng)險清單和對策清單的雙重管理機制,以動態(tài)方式調(diào)整監(jiān)管重點。風(fēng)險清單要求人工智能企業(yè)或試點單位定期提交高風(fēng)險應(yīng)用報告。例如,深度偽造技術(shù)濫用、自動駕駛安全事故、生成式人工智能歧視性內(nèi)容等,并進行實時更新,以確保監(jiān)管機構(gòu)能夠精準識別技術(shù)風(fēng)險。對策清單則要求企業(yè)針對已識別的高風(fēng)險應(yīng)用提出具體解決方案,這一機制的核心在于,在法律體系尚未完全成熟的情況下,通過靈活調(diào)整規(guī)則實現(xiàn)風(fēng)險管控與技術(shù)發(fā)展的平衡,確保人工智能治理能夠有效應(yīng)對技術(shù)演進帶來的挑戰(zhàn)。

3.反身性法律體系:元規(guī)制與協(xié)同演進

圖依布納的反身性法理論強調(diào),法律應(yīng)當(dāng)通過程序性框架促進社會系統(tǒng)的自我調(diào)適,而非直接干預(yù)。其核心邏輯在于,法律不應(yīng)直接設(shè)定僵化的行為規(guī)則,而應(yīng)構(gòu)建靈活的治理框架,使各行業(yè)能夠在法律框架下實現(xiàn)受規(guī)制的自我規(guī)制。這一理念與元規(guī)制理論高度契合,即法律不以行政命令的方式進行全面控制,而是提供制度性的引導(dǎo)和激勵,促使行業(yè)內(nèi)部制定和優(yōu)化自身的治理規(guī)則。在高度復(fù)雜的社會技術(shù)環(huán)境中,監(jiān)管機構(gòu)難以針對所有可能的技術(shù)風(fēng)險制定詳盡規(guī)則,也無法全面監(jiān)督所有主體,因此,法律應(yīng)當(dāng)鼓勵技術(shù)領(lǐng)域的自我規(guī)制和動態(tài)適應(yīng)能力,以提升治理的有效性與靈活性。

人工智能技術(shù)涉及多個子系統(tǒng),每個系統(tǒng)都有自身的運作邏輯,因此法律不應(yīng)直接設(shè)定所有細節(jié)規(guī)則,而應(yīng)推動立法與軟法協(xié)同發(fā)展,構(gòu)建多元化的規(guī)范治理結(jié)構(gòu)。例如,自動駕駛行業(yè)可通過行業(yè)協(xié)會制定安全標準,醫(yī)療人工智能領(lǐng)域可以依托行業(yè)技術(shù)指南設(shè)定模型可解釋性要求,而法律的作用是提供總體框架,以確保行業(yè)規(guī)則符合社會價值與公共利益。這種模式既能避免立法過于剛性而限制技術(shù)創(chuàng)新,又能增強法律的適應(yīng)性,使法律要求與行業(yè)發(fā)展保持動態(tài)協(xié)同。此外,人工智能治理應(yīng)當(dāng)將科技倫理嵌入技術(shù)開發(fā)過程中。例如,通過設(shè)立倫理義務(wù)化機制,要求人工智能企業(yè)在產(chǎn)品設(shè)計階段履行記錄義務(wù)與報告義務(wù),使關(guān)鍵倫理要求成為技術(shù)開發(fā)的內(nèi)生部分,而非外部強加的合規(guī)要求。

法律監(jiān)管與技術(shù)發(fā)展應(yīng)保持雙向反饋與協(xié)同演進。一方面,法律監(jiān)管需隨技術(shù)演進及時調(diào)整,通過定期修訂法規(guī)或引入靈活治理工具,提升法律的適應(yīng)性;另一方面,技術(shù)開發(fā)者應(yīng)在創(chuàng)新過程中主動承擔(dān)合法性與合規(guī)性責(zé)任,將技術(shù)創(chuàng)新作為保障權(quán)利與履行社會責(zé)任的重要路徑。以個人信息刪除權(quán)為例,生成式人工智能的“記憶機制”使徹底刪除個人信息面臨挑戰(zhàn),開發(fā)者應(yīng)積極探索“機器不學(xué)習(xí)”等新型“遺忘”技術(shù),減少對個人信息的依賴。技術(shù)合規(guī)不僅是個體開發(fā)者的責(zé)任,更是整個行業(yè)的共同義務(wù)。通過自我規(guī)制與行業(yè)自律,主動設(shè)立控制機制,有助于建立監(jiān)管者與被監(jiān)管者之間的基本信任,在法律尚不完備的階段實現(xiàn)風(fēng)險的內(nèi)部治理。

(二)空間維度:分層治理與制度試驗

人工智能技術(shù)的應(yīng)用場景高度多元,不同行業(yè)面臨的風(fēng)險與法律需求存在顯著差異,統(tǒng)一立法如果缺乏靈活性,可能導(dǎo)致法律適用上的“場景錯配”問題。因此,人工智能治理應(yīng)當(dāng)采取分層治理模式,在國家級、行業(yè)級、地方級三個層面構(gòu)建適應(yīng)性法律框架,并結(jié)合制度試驗、行業(yè)自律和監(jiān)管沙盒等工具,實現(xiàn)精準治理。

1.國家級治理:戰(zhàn)略引領(lǐng)與制度統(tǒng)籌

在人工智能分層治理體系中,國家層面應(yīng)發(fā)揮戰(zhàn)略引領(lǐng)與制度統(tǒng)籌的核心作用。鑒于人工智能具有跨行業(yè)、跨地域的廣泛影響,國家層面宜采取“領(lǐng)域先行、制度試驗”的路徑,通過政策引導(dǎo)與規(guī)則預(yù)演,為統(tǒng)一立法積累經(jīng)驗、降低制度風(fēng)險。一方面,可圍繞自動駕駛、醫(yī)療人工智能、生成式人工智能等技術(shù)敏感度高、法律爭議集中的重點領(lǐng)域,開展制度試驗,聚焦權(quán)益歸屬、責(zé)任劃分、算法可解釋性等關(guān)鍵議題,探索規(guī)則設(shè)計與實施路徑。另一方面,針對倫理治理、數(shù)據(jù)安全、算法歧視等具有普遍性的治理難題,推動制定專項法規(guī)或發(fā)布指導(dǎo)性規(guī)范,逐步構(gòu)建起覆蓋技術(shù)全生命周期的監(jiān)管機制。通過明確監(jiān)管邊界、豐富治理手段、建立響應(yīng)機制,為未來統(tǒng)一立法提供制度基礎(chǔ)與技術(shù)支撐。

2.行業(yè)級治理:推動行業(yè)自律與標準制定

在統(tǒng)一立法難以全面覆蓋的背景下,應(yīng)充分發(fā)揮行業(yè)組織在技術(shù)協(xié)同與風(fēng)險識別中的橋梁作用,通過制定細化的行業(yè)標準與場景化規(guī)則,彌補立法滯后與適配性不足的問題。人工智能廣泛嵌入自動駕駛、智能醫(yī)療、金融科技等多個關(guān)鍵領(lǐng)域,各行業(yè)技術(shù)架構(gòu)與風(fēng)險特征差異顯著,亟需構(gòu)建基于應(yīng)用場景的差異化治理機制。行業(yè)級治理的關(guān)鍵在于推動企業(yè)間形成技術(shù)共識,建立具有約束力的行業(yè)規(guī)范體系,并通過“軟法”機制引導(dǎo)企業(yè)合規(guī)。這不僅有助于提升規(guī)則的靈活性與適應(yīng)性,也能降低企業(yè)的合規(guī)成本,促進技術(shù)安全健康發(fā)展。

在具體實踐中,應(yīng)根據(jù)行業(yè)特性,制定專門規(guī)制方案或行業(yè)指引。例如,醫(yī)療人工智能可以明確責(zé)任認定與責(zé)任歸屬,強化安全性評估;金融人工智能可以引入算法審計與透明度機制,防范算法歧視與系統(tǒng)性風(fēng)險;自動駕駛領(lǐng)域則可推廣責(zé)任保險與數(shù)據(jù)留存制度,增強事后可追溯性與事故責(zé)任的分擔(dān)能力。通過行業(yè)主導(dǎo)、政府引導(dǎo)的模式,實現(xiàn)法律體系的差異化嵌套與跨行業(yè)協(xié)同,提升整體治理體系的適配性與操作性。

3.地方級治理:探索試驗先行與差異化監(jiān)管

在分層治理體系中,地方層面應(yīng)發(fā)揮制度先行和試驗探索的功能,立足本地產(chǎn)業(yè)基礎(chǔ)與技術(shù)發(fā)展階段,推動差異化、適應(yīng)性強的人工智能治理模式。應(yīng)充分借鑒《上海市促進人工智能產(chǎn)業(yè)發(fā)展條例》《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》等地方性立法成果,在重點領(lǐng)域開展局部先行試點,探索符合實際需求的治理路徑。地方試點可采用“試點—反饋—修正”的動態(tài)機制,通過政策實驗室等平臺,系統(tǒng)評估法律規(guī)則的適用性與可操作性,并據(jù)此優(yōu)化制度設(shè)計。

地方政府還可依托監(jiān)管沙盒機制,在受控環(huán)境下引導(dǎo)企業(yè)測試前沿技術(shù),并根據(jù)試點結(jié)果調(diào)整監(jiān)管工具和執(zhí)法策略。目前該模式已在我國部分行業(yè)落地。2022年,市場監(jiān)管總局等五部門聯(lián)合發(fā)布《關(guān)于試行汽車安全沙盒監(jiān)管制度的通告》,在智能網(wǎng)聯(lián)汽車領(lǐng)域初步構(gòu)建了以“審慎包容、風(fēng)險可控”為導(dǎo)向的規(guī)則試驗機制。未來,地方政府可結(jié)合自身優(yōu)勢,在金融科技、智能制造、智慧醫(yī)療等領(lǐng)域設(shè)立更多監(jiān)管沙盒,提升治理的精準性與適應(yīng)性。從漸進社會工程理論視角出發(fā),地方治理應(yīng)構(gòu)建可持續(xù)調(diào)整的制度反饋機制,使法律規(guī)則在不斷試錯中持續(xù)優(yōu)化。這種自下而上的探索路徑,既能增強制度對技術(shù)變化的適應(yīng)能力,也為國家層面的頂層設(shè)計提供豐富實踐基礎(chǔ)和立法儲備。

(三)“統(tǒng)一立法”內(nèi)涵與功能的再闡釋

是否應(yīng)當(dāng)推進人工智能統(tǒng)一立法,歸根結(jié)底取決于現(xiàn)實制度需求與立法的功能定位。然而,倘若缺乏對“統(tǒng)一立法”概念內(nèi)涵與制度功能的清晰界定,即便在時間上節(jié)奏可控、空間上結(jié)構(gòu)分層,仍難在多元規(guī)則的協(xié)調(diào)性與制度運行的穩(wěn)定性之間實現(xiàn)有效統(tǒng)籌。

厘清“統(tǒng)一立法”的內(nèi)涵,有必要區(qū)分“形式統(tǒng)一”與“實質(zhì)統(tǒng)一”兩種路徑:前者強調(diào)通過一部法律集中整合各類人工智能技術(shù)及其應(yīng)用場景,試圖以一部法律承載規(guī)制、保障、激勵與治理等多重功能,實現(xiàn)全面覆蓋的頂層設(shè)計;后者則更注重立法協(xié)調(diào)、術(shù)語統(tǒng)一與原則明確,強調(diào)在跨領(lǐng)域、跨行業(yè)之間實現(xiàn)規(guī)則協(xié)同與價值一致。“形式統(tǒng)一”雖有系統(tǒng)集成優(yōu)勢,但易導(dǎo)致法律滯后、規(guī)制僵化、監(jiān)管錯配和創(chuàng)新受阻;而“實質(zhì)統(tǒng)一”則強調(diào)制度兼容與結(jié)構(gòu)開放,在統(tǒng)一原則的引領(lǐng)下構(gòu)建“統(tǒng)中有分”的多層次治理體系。

因此,所謂“統(tǒng)一”,并不必然等同于法律載體的唯一化,也不意味著排斥專項立法或場景規(guī)則的存在。“統(tǒng)一立法”可以在多個法律框架之間,通過核心價值、術(shù)語體系與治理機制的協(xié)同,保持治理的一致性與體系性,同時為異質(zhì)化場景、多樣化風(fēng)險和地方差異留出制度空間。這種思路不僅打破了“統(tǒng)一性”與“靈活性”之間的二元對立,也為人工智能立法提供了更具包容性與動態(tài)性的推進路徑。在此基礎(chǔ)上,與其追求法律形式上的統(tǒng)一覆蓋,不如聚焦不同制度體系之間的實質(zhì)協(xié)調(diào),在價值共識基礎(chǔ)上通過漸進推進、功能聚焦與結(jié)構(gòu)彈性,推動原則統(tǒng)一、規(guī)則協(xié)調(diào)、治理多樣的“多維動態(tài)”治理體系。

在“實質(zhì)統(tǒng)一”的框架下,人工智能促進法可被視為一種具有代表性的制度實現(xiàn)形式,其統(tǒng)一性并非體現(xiàn)在形式上的法律集中,而是體現(xiàn)于價值共識的確立、概念術(shù)語的一致與制度機制的協(xié)同。第一,促進法通過確立人工智能發(fā)展的核心價值和基本原則,如安全、透明、公正、可控等,為多元治理提供統(tǒng)一的價值引導(dǎo),避免不同領(lǐng)域間規(guī)制目標的沖突;第二,促進法通常對關(guān)鍵術(shù)語與技術(shù)邊界作出統(tǒng)一規(guī)范,構(gòu)建起跨部門、跨領(lǐng)域的立法和政策的共同概念基礎(chǔ);第三,促進法往往設(shè)置統(tǒng)籌協(xié)調(diào)機制,例如發(fā)展戰(zhàn)略制定、倫理審查制度或監(jiān)管協(xié)同平臺,強化各治理要素之間的橫向銜接與統(tǒng)籌協(xié)同。由此可見,促進法并不追求形式上的集中全面立法,卻在實質(zhì)功能上有助于推動治理體系的協(xié)同,為構(gòu)建開放、靈活、協(xié)同的治理格局提供可行路徑。

當(dāng)前,已有部分國家以促進法的形式開展探索。例如,2025年日本通過《人工智能相關(guān)技術(shù)的研發(fā)及應(yīng)用促進法》草案,旨在通過法律支持推動人工智能技術(shù)的研發(fā)與應(yīng)用,提升國家科技競爭力。該法未設(shè)懲罰性條款,而是通過軟性引導(dǎo)機制鼓勵企業(yè)提升人工智能運用的安全性與透明度,體現(xiàn)出“以立法促發(fā)展”的政策取向。在中國,類似思路不僅體現(xiàn)在《上海市促進人工智能產(chǎn)業(yè)發(fā)展條例》《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》等地方性立法中,也已延伸至數(shù)字領(lǐng)域的國家層面立法構(gòu)想。部分學(xué)者主張制定《數(shù)字經(jīng)濟促進法》,十四屆全國人大常委會立法規(guī)劃已經(jīng)將《數(shù)字經(jīng)濟促進法》列入“需要抓緊工作、條件成熟時提請審議的法律草案”之列,旨在通過法律制度為數(shù)字經(jīng)濟發(fā)展提供積極保障。

可見,人工智能立法并非單純的技術(shù)治理問題,更關(guān)涉國家發(fā)展戰(zhàn)略、制度協(xié)同能力與治理理念選擇等多重因素。從制度功能定位出發(fā),人工智能統(tǒng)一立法的真正價值在于為人工智能治理提供一個價值清晰、結(jié)構(gòu)開放、機制靈活的基礎(chǔ)性治理框架。人工智能法的出臺時機,必須建立在對其制度邊界與功能定位的雙重反思基礎(chǔ)之上。在人工智能技術(shù)尚處于高速演化的當(dāng)下,人工智能立法不宜被視為包攬諸多政策目標的全面性制度方案,其制度設(shè)計應(yīng)在實現(xiàn)原則統(tǒng)一的基礎(chǔ)上,兼顧制度彈性與治理韌性,通過保留多元適配的制度空間與試錯機制,實現(xiàn)法律治理與技術(shù)發(fā)展的良性互動與協(xié)同演進。

結(jié)語

《個人信息保護法》從2005年專家建議稿問世,到最終出臺,經(jīng)歷將近16年的探索,完成了從互聯(lián)網(wǎng)時代到大數(shù)據(jù)時代的法律適應(yīng)過程。同理,面對人工智能技術(shù)的快速迭代,立法應(yīng)被視為一項“循序漸進、靈活適配”的制度工程,不宜追求“一步到位”的“大而全”模式。具體而言,應(yīng)構(gòu)建“時間—空間”的雙重彈性框架:在時間維度上,構(gòu)建與技術(shù)發(fā)展相匹配的立法觸發(fā)機制,避免立法超前或滯后;在空間維度上,采用差異化、分層次的治理架構(gòu),確保法規(guī)既具有原則統(tǒng)一性,又具備應(yīng)對多樣化應(yīng)用場景的適應(yīng)能力。這不僅是對技術(shù)發(fā)展規(guī)律的尊重,更是對法律理性與治理韌性的深刻把握。

在全球人工智能治理格局日益復(fù)雜的背景下,中國人工智能立法應(yīng)避免走向歐盟過度強調(diào)“風(fēng)險防控”與美國過度推崇“發(fā)展優(yōu)先”的極端路徑,而應(yīng)立足自身產(chǎn)業(yè)基礎(chǔ)與治理實踐,構(gòu)建符合中國國情的人工智能治理體系。同時,應(yīng)積極參與國際規(guī)則制定,推動形成全球信任與共識,引導(dǎo)人工智能朝著安全、可控與普惠的方向穩(wěn)健發(fā)展,在全球治理體系中貢獻中國智慧、彰顯中國擔(dān)當(dāng)。

-向上滑動,查看完整目錄-

《東方法學(xué)》2025年第3期目錄

【習(xí)近平法治思想研究】

1.論我國數(shù)字經(jīng)濟政策的法律化

宋保振

【智慧法治】

2.人工智能統(tǒng)一立法宜緩行

付新華

3.大模型嵌入公司治理的法理省思與規(guī)范調(diào)適

程威

4.算法合同重大誤解的救濟機制

楊勇

5.診療式人工智能的醫(yī)療產(chǎn)品責(zé)任認定

候曼曼

6.生成式人工智能平臺自治規(guī)則的體系化構(gòu)建

鄧栩健

7.論行政算法規(guī)則的雙重審查模式

陳曉敏

【專題筆談】

8.數(shù)據(jù)法治三人談

李鳴捷、王年、劉欣琦

【民法典適用】

9.論身份權(quán)的規(guī)范原理

曹相見

10.未受減資通知債權(quán)人保護的對抗效力限制模式

馬強

【理論前沿】

11.備案審查制度基本功能的成熟度:標尺與方法

譚清值

12.論行政犯的行刑反向銜接

馬春曉

13.金融犯罪外圍式立法的危機與應(yīng)對

毛逸瀟

14.食品安全犯罪中可罰的危險創(chuàng)設(shè)

喻浩東

《東方法學(xué)》是由上海人民出版社有限責(zé)任公司和上海市法學(xué)會主辦的高端法學(xué)理論專業(yè)期刊。《東方法學(xué)》是CSSCI來源期刊、中國人文社會科學(xué)期刊AMI綜合評價核心期刊、全國中文核心期刊、中國知網(wǎng)CI值排序Q1區(qū)法學(xué)期刊。2020年成為CLSCI來源期刊。《東方法學(xué)》以交流學(xué)術(shù)思想、創(chuàng)新學(xué)術(shù)理論為宗旨;以原創(chuàng)性、前瞻性、學(xué)術(shù)性為編輯標準;以推動法治進步、服務(wù)經(jīng)濟社會發(fā)展為己任。開設(shè)本期關(guān)注、理論前沿、智慧法治、青年論壇、域外之窗等欄目,是法學(xué)、法律專業(yè)人士的理想讀物。

智能寫作4.0

1. 私有智庫:單篇對話與向量檢索的智能融合

自建知識庫是智能寫作4.0的一大創(chuàng)新亮點,它賦予了用戶構(gòu)建個性化知識體系的能力。這一功能不僅支持單篇對話的存儲,使得用戶可以輕松回顧和整理過往的交流內(nèi)容,而且通過向量檢索技術(shù),用戶能夠?qū)崿F(xiàn)對知識庫內(nèi)容的高效檢索。這意味著,無論您的知識庫多么龐大,您都可以通過關(guān)鍵詞或短語快速定位到所需信息,極大地提升了信息檢索的準確性和便捷性。

2. 一劃即達:法寶全庫數(shù)據(jù)的劃詞能力

劃詞檢索法寶全庫數(shù)據(jù)功能是智能寫作4.0的另一項革命性創(chuàng)新。用戶在閱讀或編輯文檔時,只需輕輕一劃,選中的文本即可觸發(fā)智能檢索,系統(tǒng)會立即從法寶全庫中檢索出相關(guān)數(shù)據(jù)和信息。這一功能不僅極大地簡化了信息查找的過程,而且通過實時更新的數(shù)據(jù)庫,確保了檢索結(jié)果的時效性和準確性,使得用戶能夠快速獲取到最相關(guān)的資料和數(shù)據(jù)。

3. 語言無界:19種語言的智能翻譯大師

智能寫作4.0的智能翻譯功能,支持多達19種語言的互譯,覆蓋了全球大部分主要語言。這一功能不僅能夠?qū)崿F(xiàn)文本的即時翻譯,而且通過先進的算法優(yōu)化,確保了翻譯的流暢性和準確性。無論您是需要將中文文檔翻譯成英文,還是需要將西班牙文翻譯成法文,智能寫作4.0都能為您提供準確、自然的翻譯結(jié)果,讓您的跨語言溝通和創(chuàng)作更加輕松。

4. 模板王國:6000+文書模板與個性化定制的創(chuàng)意工具

智能寫作4.0提供了6000+的文書模板,覆蓋了法律、商務(wù)、教育等多個領(lǐng)域,滿足不同用戶的需求。這些模板由專業(yè)人士設(shè)計,確保了其專業(yè)性和實用性。此外,智能寫作4.0還支持自建文書模板,用戶可以根據(jù)自己的需求和喜好,創(chuàng)建個性化的模板,這不僅提高了文書創(chuàng)作的效率,而且使得文書更具個性化和專業(yè)性。

5. 實用工具:賦能司法案例的深度檢索報告

智能寫作4.0賦能司法案例檢索報告功能,是法律專業(yè)人士的得力助手。它不僅能夠檢索到最新的司法案例,而且通過智能分析,為用戶提供案例的詳細報告,包括案件的基本情況、判決結(jié)果、爭議焦點、法律依據(jù)等關(guān)鍵信息。這一功能不僅極大地提高了法律研究的效率,而且通過深入的案例分析,幫助用戶更好地理解法律條文和司法實踐,為法律實務(wù)工作提供了強有力的支持。

責(zé)任編輯 | 郭晴晴

審核人員 | 張文碩 張科

本文聲明 | 本文章僅限學(xué)習(xí)交流使用,如遇侵權(quán),我們會及時刪除。本文章不代表北大法律信息網(wǎng)(北大法寶)和北京北大英華科技有限公司的法律意見或?qū)ο嚓P(guān)法規(guī)/案件/事件等的解讀。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

北大法律信息網(wǎng) incentive-icons
北大法律信息網(wǎng)
法律綜合性網(wǎng)站
10421文章數(shù) 17424關(guān)注度
往期回顧 全部

專題推薦

洞天福地 花海畢節(jié) 山水饋贈里的“詩與遠方

無障礙瀏覽 進入關(guān)懷版 主站蜘蛛池模板: 彭阳县| 龙里县| 枞阳县| 舞阳县| 和平县| 双城市| 邵武市| 海兴县| 青田县| 渝中区| 定襄县| 内乡县| 广东省| 长岭县| 米易县| 揭阳市| 辽中县| 朝阳县| 万载县| 桐乡市| 库尔勒市| 渝北区| 耿马| 永修县| 仁寿县| 雷波县| 阿克苏市| 临清市| 商洛市| 广西| 德化县| 东宁县| 台北市| 盘山县| 贵德县| 岫岩| 高雄县| 恩施市| 通化市| 贵州省| 怀宁县|