2025年4月1日上午,由復旦大學法學院、復旦大學數字經濟法治研究中心、復旦大學智慧法治實驗室聯合主辦的數字經濟法治論壇系列講座第11期 “AI and Platform Regulation in the EU: An Assessment of Recent Developments”(歐盟人工智能與平臺監管:發展動態)在復旦大學江灣校區JB105教室成功舉辦。本期講座由維也納大學托馬斯·耶格教授(Prof. Thomas Jaeger)主講,復旦大學法學院陳立教授參加與談。復旦大學法學院教授、數字經濟法治研究中心主任、智慧法治實驗室主任許多奇主持講座。
講座伊始,許多奇教授介紹了主講嘉賓Jaeger教授在人工智能法、歐盟法領域的學術造詣,并對參與本次講座的陳立教授和同學們表示歡迎和感謝。
主講環節,Jaeger教授首先探討了人工智能系統的復雜性與風險,指出其不透明性、不可預測性和自主性帶來的諸多挑戰。他強調了人工智能法案(Artificial Intelligence Act)的重要性,該法案作為統一的監管框架,旨在確保用戶、開發者、雇主和消費者的安全、信任和法律確定性。他提到,人工智能法案已于2024年全面生效,廣泛定義了人工智能系統,并區分了人工智能系統和人工智能模型,解決了對適應性、自主性和對基本權利潛在影響的擔憂。
隨后,Jaeger教授介紹了人工智能應用的監管體系。人工智能法案采用結構化方法,將技術分為不可接受、高、低和最小風險級別,并根據風險級別相應地強調透明度和嚴密性。高風險系統通常與通用人工智能模型相關,需要遵守嚴格的規定,而低風險技術主要受透明度義務的約束。
接著,Jaeger教授概述了歐洲被禁止和高風險的人工智能技術的品類,強調了操縱技術、社交評分、生物識別分類和被禁止的實時識別。高風險技術包括人工智能與受監管產品的交互,以及就業、教育和執法等關鍵領域的獨立使用案例。他指出,提供者和部署者的義務側重于風險管理、數據質量、文檔編制和確保人為監督,并針對通用人工智能模型和構成系統性風險的大型模型制定特殊規則。
在探討人工智能技術的監管環境時,Jaeger教授強調了透明度義務、風險分類以及人工智能法規與現有法律框架之間的相互作用。他提到,人工智能生成的內容必須貼上標簽,人工智能系統與人類交互需要滿足透明度要求,同時,還提議對產品責任法律進行改革以涵蓋軟件和基于人工智能的產品。
Jaeger教授還介紹了大型科技公司帶來的監管挑戰,強調需要制定具體法律來應對其行為。他重點介紹了數字市場法(Digital Markets Act)和數字服務法(Digital Services Act),詳細說明了這些法案如何對科技巨頭施加義務,以確保合規并監控其活動。他還解釋了識別 “看門人”的標準。
在與談環節,陳立教授對Jaeger教授的講座內容表示高度認同,并結合自身實踐經驗,提出對歐盟監管機構在算法治理中行政資源配置的憂慮,同時指出不同國家對隱私概念的認知差異及其所反映出的監管需求差異。在問答環節,同學們積極地向Jaeger教授提出問題,Jaeger教授對同學們的問題進行了評析和解答。
最后,許多奇教授對本場講座進行了歸納總結。在熱烈的掌聲中,本次講座圓滿結束。
文|唐美琪
圖|譚博文
編輯 |白禮杰
審校|白禮杰、董家杰
--數字經濟法治論壇系列講座--
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.