人工智能(AI)技術的快速發展已經重塑了傳播格局,尤其是AIGC的狂飆猛進加劇了變局的形成。一方面,AIGC提升了內容生產效率,推動了網絡內容生態的多樣化和個性化;另一方面,也給網絡內容生態與傳播秩序帶來一些不良影響。因此,建議加強監管政策的精準性和技術識別能力,同時推動專業機構生產的真實新聞數據納入大模型語料庫,以提升短期應對能力和長期治理能力。
AI快速發展引發的“信息污染”情況
以錯誤信息和虛假信息為代表的信息失序。AI快速發展引發的“信息污染”本質是數據來源的可靠性不足導致。根據信息內容本身屬性和信息傳播主體意圖,主要分為錯誤信息和虛假信息兩類。錯誤信息指的是由于訓練AI模型的數據缺陷導致其輸出和生成的二次內容存在客觀錯誤。虛假信息指的是在信息傳播主體具有明確意圖下,利用深度偽造技術進行有意識的網絡詐騙與輿論操縱。當下,AIGC已經具備視頻、聲音、文本、微表情合成等多模態的偽造能力。可以說,隨著AI介入到虛假信息生產環節并成為一種牟利產業后,規模化效應將導致普通用戶搜尋真實信息的難度和成本呈現幾何級增長。
以侵犯隱私為代表的個人信息泄露與“造黃謠”“軟色情”傳播。由于AIGC的一大重要數據來源是各網絡平臺的用戶生成內容,加之應用場景不斷生活化,導致一系列損害用戶權益的不良信息在網絡空間傳播。一是以AI換臉為代表的“數字分身”應用存在個人隱私泄露風險。諸如此前某相機應用要求用戶上傳20張人像照片,以9.9元的價格為用戶提供不同類型的寫真照片。此類應用在驗證、付費過程中往往需要讓渡臉部數據、手機號碼等隱私數據,同時相關軟件在初始的用戶協議中都強調了用戶同意授予軟件及關聯公司具有免費、不可撤銷、永久、可轉授權和可再許可等權利,僭越了用戶權益邊界。二是以“一鍵脫衣”“微表情合成”為代表的“造黃謠”和“軟色情”傳播。除了針對女性和明星,以未成年人為主要對象的軟色情圖片和視頻也借助AI浪潮卷土重來,和成人一樣被明碼標價,并延伸出黑色產業鏈。
以侵犯知識產權為代表的二次創作在網絡平臺盛行。AI的快速發展也逐漸影響到文學、繪畫、影視等創作領域,原創作品淪為人工智能的養料,不僅降低了藝術創作的門檻,也侵犯了原創者的知識產權。在純文學領域,2023年10月,由AI寫作的小說《機憶之地》獲得江蘇青年科幻作品大賽二等獎,在未提前告知評委的前提下,6位評委中僅1人看出了作品的AI屬性。在繪畫領域,國外Midjourney、國內網易旗下LOFTER等平臺均可以根據用戶關鍵詞生成相關作品,但也引發原創內容創作者的抵制,認為AI繪畫將助長抄襲、剽竊風氣,并質疑開源數據獲取的合理性和合法性。在影視創作領域,利用AI技術的二次拼接、AI換臉等正在B站等視頻網站流行,視頻制作者可以根據個人興趣偏好將毫不相關的影視、動漫片段進行合成,引發二次創作的侵權糾紛。
“信息污染”可能帶來的風險隱患
意識形態風險。輿論生產流程被簡化,算力資源壓制下算法歧視和內容操縱將助長國際與國內輿論極化。
一是境外輿論場可能利用人工智能信息技術加大對中國的偏見性信息傳播,甚至影響國際社會對中國的認知。
二是人工智能的快速發展加快了錯誤信息和誤導性認知的傳播速度。在特定社會環境的影響下,帶有偏見的信息和數據更容易在智能化平臺上擴散,從而加劇了中國社會中群體和地域間的矛盾與分歧。由于AI信息偽造的門檻較低、成功率較高,且技術反制較為困難,信息泡沫效應可能愈加明顯。同時,作為AI技術重要使用群體的青年人,長期浸淫在信息紛雜的信息環境中,對復雜社會問題缺乏深入的思考和辨別能力,被極化言論所左右導致立場松動。
網絡安全治理風險。網絡詐騙等犯罪門檻被降低,民眾切身安全遭遇挑戰,社會治理成本不斷提升。
一是網絡詐騙等AI新技術應用降低犯罪成本和門檻,網絡黑灰產業問題難解。AI技術增加了匿名性、隱蔽性,使犯罪分子可能逃脫監管,降低了違法犯罪的風險成本,提升了犯罪的預期收益。
二是黑客利用AI實施網絡犯罪,網絡安全風險劇增。
三是AI對信息安全甚至物理環境的威脅上升。僅從網絡攻擊上看,AI可以兼顧攻擊的規模和效率,使勞動密集型網絡攻擊(如魚叉式網絡釣魚攻擊)造成更大威脅。還有人利用AI破解或操控無人機、智能汽車等設備,進行破壞性犯罪。
四是指紋、人臉識別等生物驗證方式的可靠性大大降低。虹膜、指紋、面部信息等均是當前最普遍的生物特征信息,這些生物信息大多是唯一的、不可更改的,一旦攻擊者利用AI破解相關生物特征應用解碼方式,其影響可能伴隨終生,難以消除。
傳播秩序風險。虛假信息將長期存在于網絡空間,合成數據將超越原始大數據成為傳媒產業新資源,用戶辨別能力不足,以主流媒體為代表的專業機構影響力將進一步被削弱。
一是AI生成內容將逐漸占據網絡空間。據相關研究團隊調查,已在全球范圍內識別出1150個不可靠的人工智能生成新聞和信息網站,并涵蓋包括中文在內的16種語言。這些網站發布了大量涵蓋政治、科技、娛樂、旅游等領域的機器生成文章,其中諸多內容為虛假信息,如對政治人物的錯誤報道、名人死亡謠言、虛構的事件以及將舊聞當作新聞報道等。
二是虛假信息混雜其中的合成數據將擾亂傳媒產業市場。由于AI生成信息缺少專業的審核與把關,因此虛假信息將與真實信息共同混雜的合成數據將超越原始大數據成為傳媒產業的新資源。在生成式AI的迅速發展下,虛假信息將滾雪球般越來越大。根據NewsGuard的追蹤研究,雖然諸如OpenAI等科技公司強調大模型的進化將更新技術,提升真實回答的比例,但結果卻是GPT-4比GPT3.5更擅長通過各種形式加強錯誤敘事的說服力,無論是ChatGPT還是谷歌的Bard,在主要新聞話題上出現虛假報道的可能性高達80%至98%。
三是用戶辨別能力不足,將導致專業機構影響力被持續削弱。技術的快速演進也在加劇數字鴻溝,生成式AI的突飛猛進無形中也提高了用戶搜索真實信息的成本和難度,在用戶規模不均衡的傳播格局下,主流媒體為代表的專業機構和政務媒體等官方力量的影響力將持續削弱,輿論引導能力和效能受到影響。
對策建議:監管政策、技術反制與輿論應對
監管政策上,堅持以算法治理和數據治理為核心,聚焦人工智能發展的具體場景進行政策迭代,規避風險。一是對已經出現的人工智能亂象依法亮劍,細化標準。二是對AI相關應用,在行業內部設立通行的用戶協議和隱私協議規則。三是對于高危風險場景應特別立法,以分級監管思路保障政策的針對性和迭代性。
技術反制上,加強與國際同行交流,研發對抗新型AI技術濫用引發的風險。一是建立健全人工智能生成內容溯源規范,實現對于模型、設備、人員的精準溯源和治理,從源頭上提高對生成式人工智能內容的系統化管控能力。二是加強對人工智能問答模型的安全監管。三是搭建常態化交流機制,強化國際監管合作,細化AI倫理準則。
輿論應對上,既要支持專業機構與人工智能技術的合作,也要加強對虛假信息的應急處置和反制機制。一是要在綜合研判、風險可控的前提下,將主流媒體為代表的專業機構所生產的真實信息與數據開放給已經通過備案的大模型廠商,從源頭上提升語料庫的質量。二是建立包括網絡平臺、專業媒體、社交平臺、學術研究者、網信部門政策制定者在內的多主體合作的第三方機構,根據AI技術演進的趨勢和速度,定期發布面向公眾的白皮書。其中,專業媒體和事實核查機構更要發揮主動性,成為對抗虛假信息、凈化網絡內容生態的獨立免疫屏障。三是短期反制與長期應對相結合,既要對公共突發事件、政治敏感信息進行快速澄清、消除影響,同時也要系統性關注涉及歷史觀的虛假信息,避免記憶捏造等情況出現。
注:本文摘編自復旦發展研究院助理研究員辛艷艷的論文《AI快速發展引發的“信息污染”問題、存在的風險隱患及對策建議》,載《未來已來:2025人文社會科學智能發展藍皮書》,第156-162頁,復旦大學出版社,2025年,注釋略
來源|《勞動報》2025年4月26日 07思想版面
作者 | 郭娜
封面 | AI(豆包)生成
排版 | 楊怡倩
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.