核心提示:要構建完備的法律治理體系與常態化的執法機制,并發揮技術指南、行業公約等軟法的規范補充作用,推動政府監管、平臺自治與社會監督之間協同共治,在有效防范技術濫用風險的基礎上,實現算法治理與技術創新良性互動,促進數字經濟健康持續發展。
武丹/制圖
作者|畢文軒
責編|薛應軍
正文共3704個字,預計閱讀需11分鐘▼
今年1月17日,中國互聯網絡信息中心發布的第55次《中國互聯網絡發展狀況統計報告》顯示,截至2024年12月,我國網民規模達11.08億人,互聯網普及率達78.6%。近年來,隨著互聯網技術的迅速發展,各類網絡平臺運用算法推薦技術為用戶提供個性化信息服務已成為常態。但信息推薦算法在提升用戶體驗、促進信息精準匹配的同時,也帶來了“信息繭房”、推送內容低俗、操縱用戶行為等風險隱患。因此,亟須加強算法治理,依法維護清朗網絡空間,保障網民合法權益。
我國現行算法治理的制度框架及面臨的問題
全方位多層次的算法治理規范體系。我國現有關于算法治理的規范框架大致可以分為三層:第一層,以網絡安全法、個人信息保護法為核心的基礎性制度。在該層面,法律效力最高,居于算法治理規范框架的頂層。具體而言,網絡安全法明確算法技術屬于網絡基礎設施的重要組成部分,要求運營者履行維護網絡安全的主體責任;個人信息保護法對算法中的數據收集、處理、推送過程設立了嚴格的個人信息保護措施,為推薦行為合法性構建底線。第二層,是以《互聯網信息服務算法推薦管理規定》等為代表的專門性治理規則。其效力雖然略低于法律,但對于規范信息推薦算法的治理具有很強的針對性,可以為實踐部門提供必要的指導。具體而言,作為我國首部針對互聯網算法推薦的專門規制文件,《互聯網信息服務算法推薦管理規定》明確提出,推薦算法應遵循依法、公正、透明原則;強調算法排序、多樣化與監督責任。同時,設立算法備案機制,要求加快平臺合規治理。第三層,由包括《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》《網絡安全技術 人工智能生成合成內容標識方法》等在內的多個相關規范性文件構成。此類規范性文件既包括法律規定也內含技術規則,符合國際上對人工智能治理的通行做法,兼具靈活性和約束力,既防范人工智能生成合成內容引發的信息安全風險,又可以在一定程度上提升算法推薦技術的安全水平。由此可見,我國當前的算法治理框架依托在“多層級、多主體”基礎之上,將算法治理與人工智能生成內容的標識、溯源、安全評估等納入一體化治理軌道之中,從技術、法律、倫理等多個角度形成了針對算法治理的全方位、多層次規范體系。
信息推薦算法的現實風險與治理困境。目前,信息推薦算法早已融入人們日常生活之中,其最典型的應用包括各平臺根據用戶習慣為用戶設計的個性化服務、商品或內容推薦等。但信息推薦算法的廣泛使用也為用戶的權益帶來了多種風險,其主要表現為三個方面:其一,“信息繭房”沖擊社會認同。算法在提升信息精準匹配的同時,加劇了“信息繭房”現象。不同用戶基于興趣機制被推送相似信息,但這也強化了用戶偏見與認知邊界,會給公共話語空間帶來深層風險。其二,算法推薦機制可能侵蝕文化價值底線。某些平臺為追求流量,誘發算法強化“熱度優先”偏好,致使低俗、獵奇內容頻繁出現,不僅損害用戶體驗,更對社會主義核心價值觀構成挑戰,亟待依法加強治理。其三,算法透明度不足,難以充分保障公眾知情權。目前,雖然許多平臺已開通了“算法向善”專題,但透明度仍顯不足:多數算法邏輯、調優機制未經公開解釋,用戶“繭房”形成路徑難以追根溯源,阻礙公眾參與監督和糾錯。同時,對公眾所關注的諸多算法風險也缺乏必要回應。例如,個別平臺針對用戶的大數據“殺熟”行為,缺乏必要的算法公開和解釋機制;而針對老年人和未成年人,許多平臺也未及時進行適老化改造及建立預防沉迷或過度消費的過濾機制。
針對上述推薦算法可能引發的風險,我國網信、工信、公安、市場監管等部門及時采取措施,積極開展“清朗·網絡平臺算法典型問題治理”專項行動,針對信息算法推薦市場的亂象進行及時且全面的糾正,這對凈化網絡環境、規范算法運行秩序具有重要意義和作用。但還需要注意我國當前的算法治理方式可能存在的隱患:其一,“清朗行動”等專項行動可能主要帶來的是階段性治理效果。此種算法治理往往以專項檢查、限期整改、集中通報等方式推進,具有響應迅速且見效明顯的特點,但由于缺乏常態化制度支撐,許多平臺的亂象可能會在專項行動結束后反復出現。其二,過度依賴硬法而導致軟法缺位。當前,我國雖然已初步形成了規范算法治理的制度框架,但在規范算法治理的運行邏輯、倫理引導、行業自律等軟法機制建設方面仍相對滯后。“重硬法、輕軟法”,可能使信息推薦算法治理的法律規制缺乏彈性,難以有效構建公眾參與、行業認同的基礎性體制機制。
建立完善具有適應性的信息推薦算法法律制度體系
在信息推薦算法治理法治化過程中堅持回應性治理理念。在信息推薦算法治理亟須引入更具有適應性和包容性的治理理念——回應性治理。回應性治理,強調監管不應僅依賴強制性規制手段,而應結合被監管平臺的動機、能力與風險水平,針對違法程度的不同對信息推薦算法實施分級治理。它強調多元主體的參與和互動,對于信息推薦算法這一人工智能時代的特殊產物,政府應統籌協調行業組織、平臺企業與社會公眾之間的責任邊界與協作路徑,提升治理效果的回應性與實效性。
建立和完善信息推薦算法治理的常態化執法機制。對信息推薦算法的治理,需要構建相應常態化的監管機制,以便實現算法治理社會效果最大化。具體而言,相關監管部門可從以下三個方面開展具體相應措施:
第一,構建常態化的法治治理機制。由專項整治轉向長效監管制度建設,通過制定相應算法治理的制度性監管舉措替代專項行動。具體到執行層面,各地方網信部門要積極落實各平臺的算法備案及審核工作,并通過構建算法治理合規年報、算法評估與報告備案等機制,將監管過程制度化和透明化。國家層面,要進一步推動設立有關算法治理綜合評估的相關部門,定期對平臺算法推薦機制的中立性、透明度及風險隱患進行檢測,形成在政府主導下企業自主合規與技術評估相結合的長效治理體系。
第二,完善軟法規范作為硬法規制的必要補充與支撐。算法治理應大力發展行業規范、自律公約、技術指南等非強制性規制文件,發揮軟法對于算法治理的補充作用。例如,相關部門可推動制定“信息推薦算法倫理導則”“平臺多樣性推薦技術操作規范”“破除信息繭房技術評估標準”等軟法性規范,引導平臺在算法模型設計與內容排序過程中嵌入公共價值考量。同時,發揮平臺的自我規制作用。在此過程中,政府可通過政策鼓勵和資源引導的方式,支持第三方組織參與軟法工具的制定和評價,以便提升算法治理的包容性與適應性。
第三,推動政府監管與平臺自治、社會監督之間協同聯動。信息推薦算法的治理機制不僅僅是法律規范,還需要吸納企業、專家學者、用戶代表等共同參與規則的制定與評估反饋,實現從“他律治理”到“共建共治”的治理范式轉型。同時,應積極鼓勵平臺推動“算法向善”發展,讓算法更好服務經濟社會發展和人民美好生活的需要。為此,需賦予平臺一定的算法合規裁量空間,激活平臺的責任意識與治理能力,并引導行業協會制定操作性強的行為準則,推動建立算法透明審查、公眾反饋與外部評估相結合的綜合性治理生態。
創新信息推薦算法治理的法律制度。除構建常態化執法機制外,還需推進信息推薦算法治理的法治化進程,建立科學有效的規范體系,并確保各項制度規范得以落地。
首先,建立算法風險評估制度。由于信息推薦算法的實施具有較強的不透明性和復雜性,其造成的損害后果具有滯后性和隱蔽性,故而需要在制度層面建立相關系統性的算法評估機制。應要求算法服務提供者定期對使用算法進行影響效果的評估,針對可能給消費者、老年人、未成年人等造成的歧視、偏見等問題,及時采取有效措施加以防范和糾正。考慮到部分算法濫用損害具有結果不可逆等特性,算法服務提供者還需履行必要的事前風險預防職責,監管部門應建立算法風險監測體系,及時發現和處置算法風險。
其次,強化用戶權益保護制度。用戶既是算法服務的直接受益者也是潛在的受害者,必須切實保障用戶在算法應用中的各項權益。針對個別平臺算法濫用所引發的“信息繭房”、低俗內容推送、大數據“殺熟”、新就業形態勞動者權益被侵害等問題,應明確用戶具有的知情權、選擇權及拒絕權等正當權利,算法服務提供者在實施算法的過程中,需要尊重用戶的上述權益且確保其不受侵害,并在操作界面等位置向用戶展示便于操作的選擇工具,確保用戶可以更便捷地調整或關閉算法推薦服務。
算法是數字經濟發展的重要驅動力之一,規范有序的算法應用環境可以有效促進數字經濟健康發展。但信息推薦算法的治理是一項長期性、復雜性的系統工程,要在實踐中不斷探索完善。要構建完備的法律治理體系與常態化的執法機制,并發揮技術指南、行業公約等軟法的規范補充作用,推動政府監管、平臺自治與社會監督之間協同共治,在有效防范技術濫用風險的基礎上,實現算法治理與技術創新的良性互動,更好促進我國數字經濟健康持續發展。
(作者單位:東南大學法學院)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.