中國政法大學比較法學研究院解志勇教授在2025年第2期《中外法學》發表論文《高風險人工智能的法律界定及規制 》,該文通過對人工智能風險的認知、評估及治理的深入分析,提出了一套具有針對性和實操性的界定維度、標準和規制方案,為我國人工智能立法和監管實踐提供了有益的參考。
以下為小編對該文主要內容和核心觀點的整理與綜述:
解教授的文章首先指出人工智能的雙重屬性,它既是科技革命的重要驅動力,又可能對國家安全、社會安全和個人安全構成威脅。作者認為,人工智能風險具有可認知性、可描述性和可分析性,這為風險分級和法律規制奠定了基礎。文章分析了歐盟《人工智能法》的風險治理進路,指出了其存在的問題,包括風險評估困難、風險分類遺漏、實施成本高昂以及立法話語差異等。
在此基礎上,文章提出了“風險+情境融合治理”的進路,強調以回應規制理論和情境化方法論為指導,應對高風險人工智能系統的潛在風險。作者認為,這種進路能夠提高風險治理的質效,并提出高風險人工智能系統的界定標準應基于三個維度:人工智能本體能力強弱、功能作用對象以及潛在致害程度。
文章詳細討論了高風險人工智能系統的規制原則與理念,包括合法性原則、科技倫理約束原則、技術治理原則,并倡導包容審慎與合作規制的理念。在合法性原則方面,強調實體合法和程序合法的重要性,確保高風險人工智能系統的應用得到法律的明確授權,并實施有意義的人工監督。科技倫理約束原則要求發展人工智能應堅持以人為本、智能向善,保障國家安全、社會公共安全和個人生命安全等。技術治理原則則強調利用技術工具對高風險人工智能系統進行全生命周期的治理。
文章還提出了高風險人工智能系統的情境化規制方案,建議以情境作為治理單元,以安全維護為首要目標,采取“行為規制+個體賦權”的立法模式,進行事前、事中、事后的全過程治理。作者提倡制定《人工智能安全法》,以實現對高風險人工智能系統的有效規制。在具體措施上,文章建議通過管理情境化具體清單、制定高風險技術標準、設置安全評估以及預防型備案制等方式進行事前規制;通過強化研發、提供、使用者的義務體系建設,健全風險監測預警、報告響應機制,建立科技倫理跟蹤審查工作機制等手段進行事中規制;以及通過行政處罰、失職問責以及行政救濟等形式進行事后規制。
文章最后強調,我國應堅持人工智能風險分級規制的思路,以“風險+情境融合治理”為指引,提出更具針對性和實操性的界定維度和標準。作者呼吁,未來我國人工智能立法應以情境作為主要規制單元,以重大安全維護作為規制目標,在促進人工智能科技進步的同時,筑牢全過程規制防線。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.