隨著人工智能在教育、醫療、養老、城市治理等多領域的廣泛應用、超速發展,現在到了一個十分關鍵的階段,除了確保技術領先,還要高度重視技術發展帶來的就業結構失衡、收入分配擴大及倫理道德挑戰等社會風險,從完善社會保障、技術風險治理、倫理法律平衡等多維度入手,構建一個更加穩健、公平且可持續的智能社會發展框架,以此應對人工智能對社會治理的挑戰。
人工智能應用落地后帶來的三重挑戰
就業結構風險。一是人工智能及智能機器人的自動化替代將帶來勞動力市場的結構性重組,傳統勞動力崗位面臨轉型與調整壓力。二是人工智能加速了產業自動化進程,促使企業在追求降本增效的考慮下,減少對全職員工的需求,包括文職、翻譯、客服、財會、人力資源等崗位受沖擊較明顯。三是無人駕駛汽車投入市場引發全球從業者反彈。近期百度旗下自動駕駛出行服務平臺“蘿卜快跑”在武漢投放引發輿論激烈討論,“搶飯碗”成為社會各界擔心的重點問題。
社會治理難題。一是技術安全和法律監管錯位。相關企業普遍稱現有自動駕駛技術安全性能遠高于人類駕駛員,但人類駕駛員在遇到交通事故時的責任劃分是清晰的,自動駕駛發生交通事故的責任劃分則不然。比如,在 “蘿卜快跑”碰撞事件中,無人駕駛網約車背后遵循“紅燈停、綠燈停”的絕對設定與道路交通實際參與者產生沖突后,如何界定責任歸屬極大考驗政府的治理能力,也折射出現有自動駕駛監管法律缺位的困境。二是數據隱私泄露風險。AI應用的核心支撐在于一整套相關數據的收集、分析、使用與共享,這不可避免地涉及到AI開發者、使用者對于普通用戶信息、機構數據信息的收集和處理作業。
倫理道德挑戰。一是算法偏見與數據歧視風險。比如,在 “智慧醫療”領域,醫生對特定群體(如艾滋病攜帶者等傳染病感染者)開展診療時,根據人工智能應用提供的特定群體生活習慣、行為趨勢等隱私出具歧視性的診療方案,并進一步將特定群體作為對象開展社會實驗,可能導致特定群體的社會性評價下降,甚至導致社會性“死亡”。二是人機關系界限與情感倫理問題。隨著人工智能的發展,機器可能在某種程度上擁有自主意識和情感,如何界定人與機器之間的道德界限成為一個待解決的倫理挑戰。
“信息污染”可能帶來的風險隱患
就業結構失衡可能產生社會沖擊。一是人工智能應用快速落地,將進一步挑戰部分新就業形態當前在整體就業市場中的兜底功能。“蘿卜快跑”事件引發熱議的焦點在于其對網約車司機這一巨大就業群體的替代。據全國總工會第九次全國職工隊伍狀況調查顯示,全國新就業形態勞動者共有8400萬,以貨車司機、網約車司機、快遞員、外賣配送員為主。相關崗位已成為就業“蓄水池”,不僅吸納了農業戶籍的男性青壯年,也成為城鎮中年失業群體的重要再就業崗位。在當前就業形勢依然嚴峻的當下,由于技能匹配度、年齡和心態等問題,被替代者對再就業前景不樂觀。二是就業市場的零工化趨勢將日益增強,隨著企業對靈活用工形式的需求上漲,人工智能技術的快速落地應用或使勞資雙方的不平等地位進一步加劇,社會勞動力過度供給,擴大資方的強勢地位,使被替代的勞動者在收入和社會保障權益等方面將缺乏議價能力。
社會治理失衡對政府治理能力產生沖擊。一是人工智能技術應用催生社會和公眾需求,對治理能力形成了壓力。在法律層面,如何判斷人工智能機器生成物的權利主體地位、在刑事領域合理判罰利用人工智能開展新型犯罪活動也成為法治層面的一大難題。二是數據泄露和安全風險對交通體系產生威脅。比如,智能汽車上往往都裝有攝像頭、激光雷達等高精度感知硬件,在車輛開啟自動駕駛功能后,這些設備就會對環境信息進行探測并記錄,而這其中存在未經授權訪問敏感數據的風險,包括道路環境數據、行人數據等,一旦泄露將在一定程度上威脅國家安全、侵害個人權益。
倫理道德失衡對社會公平與穩定產生沖擊。一是人工智能的決策取決于訓練數據質量本身,但算法偏見與數據歧視容易誘發群體偏見,同時算法模型可能會過度簡化復雜的社會現象,無法將不同群體的差異性和多樣性納入其中。例如在招聘過程中,已有企業使用人工智能系統進行簡歷篩選、智能推薦與匹配等流程,但由于訓練數據中可能存在性別、地域、學歷、學校層次偏見,導致算法推薦結果可能與公平就業原則違背,使某些群體遭遇不平等待遇。二是人工智能在某些領域的優越性會誘發人類對自身價值的懷疑,進一步影響人際關系,造成社會疏離。例如智能客服系統在各行各業的廣泛應用雖然能夠提供高效服務,但也會讓人們越來越習慣于通過機器解決問題,導致人際交往的減少。加上社交媒體算法推薦的逐漸深入,技術依賴和個體孤獨感將會成為一種時代癥候,影響社會團結。
對策建議:監管政策、技術反制與輿論應對
人工智能的快速發展帶來了諸多安全風險挑戰,技術、算法和模型本身的安全是現階段的關注重點,但確保人工智能的安全不僅是技術問題,更是關乎全球治理和社會倫理的重大課題。應加快社會治理體系架構的重構,強化對人工智能應用產生的沖擊應對,形成系統、前瞻和動態的反應機制,平衡人工智能領域的發展和安全問題。
建立適應智能社會新發展階段的社會保障體系。一是完善靈活用工形式的勞動者保障機制。二是加快推進失業保險制度改革,以化解人工智能對勞動力市場帶來的風險。比如,借鑒北歐國家勞動力市場政策,規定失業者在享有失業保障福利的規定時間內參與政府部門提供的職業技能培訓,幫助其提升就業能力,分擔勞動者的失業風險,同時保持勞動力市場的流動性和活力。三是推動產業工人隊伍建設改革,幫助勞動者增強競爭力。當前我國技能勞動者數量超過 2億,但是與加快形成新質生產力的要求相比,技能人才總量不足、結構不合理等問題仍然較為突出,因此需要持續推進產業工人隊伍建設改革,尤其是中青年產業工人對前沿技術的應用,保障其在未來時間內仍然擁有再就業的職業技能,免遭失業風險。
構建全流程、持續性技術風險治理體系。人工智能應用落地,其安全風險呈現突發性與不確定性的特點,因此需要通過 “持續性風險管理”路徑,從前端、中端和后端三方面明確風險性質,實現人工智能應用落地從被動安全轉變為主動安全。因此建議:一是前端,需要識別并管理由人工智能系統引起的直接和間接風險,包括設計和開發選擇導致的系統失敗與現實脫節。二是中端,當發生突發風險情況時,人工智能開發者須采取快速、高效的應急方案,最大程度確保用戶安全。三是后端,政府應當針對個案風險治理情況,開展治理“復盤”,運用數據權、透明性原則,規制人工智能算法的難題,并通過數據審計和監管確保人工智能數據處理的全程監督。
適度監管,強調合作治理,確保權利保護與科技創新之間的平衡。人工智能應用落地的風險治理中涉及多元主體,政府應強化人工智能合作治理中的引導和監督作用,防范降低技術、倫理、法律和社會風險。因此建議:一是政府自身應做好規則制定和執行引導。以政策供給明確人工智能法律主體以及相關權利、義務和責任,敦促人工智能開發者、使用者遵守法律法規和倫理規范。二是相關部門應監督人工智能應用平臺和企業壓實主體責任。促使平臺嚴格履行防范算法風險的義務,不斷調整信息技術系統,制定個性化的內部算法風險管理流程,鼓勵平臺和第三方力量緊密協作,共同探索算法風險分析和控制技術應用。三是面向普通公眾做好輿論引導。
推動不同層級的教育改革以適應人工智能發展需要。因此建議:一是在基礎教育階段,引入人工智能課程,培養學生的編程思維、數據分析能力和創新思維,推動多元化評價體系,共享優質資源,避免人工智能技術引發又一輪教育資源集中以及不平等現象的集中出現。二是在職業教育階段,及時對接產業需求,調整專業結構,緊密圍繞現代化產業體系高端化、智能化、綠色化需要,為勞動力市場儲備高技能人才。三是在高等教育階段,借鑒歐美高校把創新創業教育融入工程教育的實踐經驗,在 “AI+新工科”建設中,融入創新創業教育,將創業意識和創造能力作為人工智能時代“新工科”人才培養的重要考量因素,以培養具有技術創新能力的創業者、企業家或商業領袖。
(本文作者:姚旭,復旦大學發展研究院青年副研究員、上海數據研究院特聘研究員;邱礪,復旦大學國際關系與公共事務學院碩士研究生。)
來源|《勞動報》2025年5月16日 12思想版面
作者 | 姚旭 邱礪
整理 | 郭娜
排版 | 繆一鳴
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.