每經記者:岳楚鵬 宋欣悅 每經編輯:高涵,蘭素英
“DeepSeek就關聯不實信息向王一博道歉”。
近日,這則一度被部分媒體以“演員王一博案,判了”為題熱炒的消息,最終被證實,只是一場由人工智能親手制造的幻覺。
當《每日經濟新聞》記者(以下簡稱每經記者)查閱DeepSeek所有官方渠道(包括其公眾號、官網及X賬號)時,卻發現這份所謂的“道歉聲明”無跡可尋。然而,當用戶拿著這份網傳的“聲明”去“求證”于其他主流AI大模型時,多數竟給出了“確認”的回應,甚至引用了同樣未經證實的網絡報道作為“證據”。
于是,一個堪稱完美的AI謠言循環就此形成:AI生成虛假新聞 -> 虛假新聞在網絡空間發酵 -> AI從被污染的網絡環境中學習并“確信”了這則假新聞 -> AI繼續以更權威的口吻,向更多用戶傳播這則假新聞。
這場令人啼笑皆非的烏龍事件,揭示了AI大模型在信息海洋中“被污染”的冰山一角。在我們看不見的地方,“內容農場”正利用AI批量生產著的“信息垃圾”;甚至有人只需花費1.38萬元,就能輕易買通AI的“推薦位”,使其淪為精準的營銷工具。當AI開始生產、相信并傳播虛假信息時,我們該如何避免被其誤導,并捍衛信息世界的真實性?
圖片來源:視覺中國
一則AI謠言的誕生與閉環
王一博的“被道歉”事件,堪稱一個AI信息污染的標準樣本。
事件的起點源于李愛慶案一審宣判后,網絡上關于王一博的一些陳年謠言再次被提起。有粉絲利用DeepSeek,生成了一份虛構的“道歉聲明”,其內容為“DeepSeek因關聯不實信息向王一博致歉”。
7月3日,有媒體在未對DeepSeek官方渠道進行核實的情況下,僅憑社交平臺上的相關截圖,便發布了題為“DeepSeek向王一博道歉”的報道。這使得原本的虛假信息,在一定程度上獲得了“權威背書”。同日,當有用戶在DeepSeek中查詢“DeepSeek是否向王一博道歉”時,大模型因抓取到了這些媒體報道和網絡上的大量用戶討論,從而錯誤地判定該信息為真。
至此,“虛假信息→媒體傳播→AI學習→二次擴散”的完整閉環正式形成。
復旦大學計算機學院副教授、博士生導師鄭驍慶對每經記者解釋了這一現象背后的技術原因:“AI大模型是基于統計學概率來生成文本的,它會依據上文來預測下一個最可能出現的詞語。這種機制在一定程度上導致了AI大模型缺乏對客觀事實的真正理解。因此,大模型很容易產生與真實情況不符的信息。”
鄭驍慶進一步說道:“只要提前向AI大模型設定好意圖,它便能依據當下的熱點事件信息,迅速生成虛假的‘小作文’。另外,模型還具備角色扮演的能力,能夠模仿社會中各類人群的口吻和方式來表達觀點。當這類虛假信息通過多種渠道同步傳播時,將可能引發不容忽視的安全隱患。”
值得注意的是,當“DeepSeek道歉”的假新聞被揭穿后,一些大模型又迅速調整了它們的回答,展現了其學習和糾錯的能力,但也反襯出其信息判斷機制的脆弱性。
圖片來源:DeepSeek-V3
“內容農場”:0.01美元/篇批量生產“信息垃圾”
“DeepSeek向王一博道歉”的烏龍事件,只是AI陷入“污染鏈”的冰山一角。在更廣泛的范圍內,AI大模型正被用于批量生產“信息垃圾”。
“內容農場”,這一互聯網的古老灰色產業,正借助AI大模型的強大生產力卷土重來。它通常指那些為了牟取廣告費等商業利益,或出于其他特殊目的,通過快速、批量生產網絡文章來吸引流量的網站。
根據美國廣告商聯盟在2023年11月發布的一份報告顯示,“內容農場”預計占到了2023年美國網絡廣告總展示量的約21%,以及廣告費用的15%(總額約5億美元)。從2023年4月至今,媒體研究機構News Guard已經識別出了1254個疑似“內容農場”的網站,并且這個數字還在不斷增加。全球有近140家著名企業在這些網站上投放了廣告。
圖片來源:News Guard
這些網站上發布的文章,大部分或全部都是由AI炮制的,內容涉及政治、科技、娛樂和旅游等多個領域。這些文章往往含有虛假信息,包括有關名人的不實消息、憑空捏造的事件,或是將一些陳年舊事包裝成新近發生的熱點。
每經記者通過實測發現,使用AI生成一篇“內容農場式”的文章,成本可能僅需0.01美元。而根據谷歌的廣告數據,一個來自美國的IP地址每訪問一次網站,就有可能給網站所有者帶來0.11美元的廣告收入。
這些海量的“內容農場”,正成為AI大模型主要的“污染源”之一。例如,GPT-4就曾引用過一篇由“內容農場”炮制的、關于“以色列總理心理醫生自殺”的虛構假新聞。
在國內,“內容農場”產業也正在暗地里興起。某MCN機構曾被曝出利用AI技術,在最高峰時一天內生成4000至7000篇虛假新聞并大肆傳播,其行為嚴重擾亂了公共秩序,最終被警方處罰。
AI搜索“中毒”:研究稱超六成查詢引用錯誤來源
“內容農場”之所以能夠深度影響AI大模型,是因為后者在進行信息更新和學習時,主要依托于傳統的搜索引擎。
哥倫比亞新聞評論(Columbia Journalism Review)旗下托數字新聞中心(Tow Center for Digital Journalism)在今年3月發布的一項新研究,揭示了用于新聞搜索的AI大模型存在著嚴重的準確性問題。研究人員對8種主流的AI搜索工具進行了測試,結果發現,在超過60%的查詢中,AI大模型都錯誤地引用了其信息來源。
其中,Perplexity在37%的查詢中提供了錯誤信息;ChatGPT在200次查詢中,有67%的回答錯誤地識別了其引用的文章來源;而Grok-3的錯誤率最高,達到了驚人的94%。
更令人驚訝的是,研究發現這些AI搜索工具的付費高級版本,在某些方面的表現甚至比免費版本更差。例如,Perplexity Pro(每月20美元)和Grok-3的高級服務(每月40美元),其給出錯誤答案的頻率比對應的免費版本更高。
圖片來源:視覺中國
美國佐治亞理工學院博士周嘉瑋對每經記者解釋稱,當AI模型聯網進行搜索時,會依據用戶指令中的潛在傾向性去尋找信息,并給出符合該傾向性的結果。在這一過程中,模型有可能在一定程度上強化或加深了網絡中本就存在的某些信息偏差。
“網絡上本身就充斥著大量的虛假內容。如果AI進行檢索的對象是互聯網信息,那么它將可能引入更多虛假信息,進而導致其回答的可靠性顯著降低。”鄭驍慶對每經記者表示。
1.38萬元就能買通AI的“推薦位”
如果說憑空捏造新聞是AI無意識的“作惡”,那么人為地“定向污染”AI,則是一種更隱蔽、更具商業目的的操縱。
每經記者在電商平臺上發現,有商家正在明碼標價地提供所謂的“AI推薦優化服務”。他們聲稱能利用SEO(搜索引擎優化)等技術,以每年1.38萬元的價格,讓客戶的產品出現在AI大模型的推薦結果中,類似于傳統搜索引擎中的競價排名機制。
商家的操作邏輯簡單而直接:擬定100個與客戶業務相關的關聯問題,通過技術手段進行優化,以確保當用戶向AI提出這些問題時,會優先彈出客戶的相關信息,并承諾兩星期即可見到效果。
商家向每經記者展示了一系列他們的“成功案例”。例如,在請求AI大模型給出“3D逆向建模公司推薦”的回答中,其客戶公司“杭州博型科技有限公司”赫然位列DeepSeek和豆包兩款AI工具推薦名單的第一位。另外,該商家還成功地讓多個AI大模型推薦了“圖比克紅酒”和“桐鄉摩西羊絨服務廠”。
圖片來源:SEO商家提供
還有的商家報價則更低,其“AI推薦優化”項目包年僅需1000元,并聲稱“一旦排名被刷下去,隨時都能再刷回來”。除了與前述商家提供同樣的服務外,他們還表示可以設法減少客戶的競爭對手在AI大模型推薦中出現的頻率,不過對此并不保證成功率。
這些SEO商家的行為,無疑加速了“AI污染”的進程。他們利用AI大模型的弱點,將其變成可以被金錢操縱的營銷工具。
如何給AI裝上“防騙濾鏡”?
AI降低了制造謠言的門檻,卻極大地提升了其傳播的效率和“可信度”。國內某明星AI初創公司的一位高管對每經記者坦言,AI大模型“善于迎合用戶意圖”,它會根據用戶的指令,預測并給出用戶“最想得到的答案”,而不是“最真實的內容”。
AI生成的謠言還可能引發“謠言循環”,即虛假信息通過市場反應和社交媒體的放大效應不斷傳播,并反過來“污染”AI大模型,使其生成更多的同類虛假信息。
面對日益嚴重的“AI污染”問題,我們該如何構建有效的防線?
開發事實核查和驗證工具
在鄭驍慶看來,對于AI公司來說,目前比較好的應對方法之一,是為大模型開發配套的、針對其生成內容的事實核查和驗證工具。他解釋說,如果經過核查,AI生成內容中的事實部分,能夠大概率地得到其他可靠證據的相互印證,即證明該事實具備較高的可靠性,那么才應將其納入最終的生成信息之中。
內容平臺建立“人工+技術”雙審核機制
對于內容平臺的責任,江蘇天倪律師事務所的經愷文律師向每經記者指出,作為網絡信息的傳播平臺,應當積極履行相關的合規義務,加強技術創新,盡快研發出高效、可靠的合成內容識別技術。在必要時,應建立“人工+技術”的雙重審核機制,并對AI合成內容嚴格添加顯著的提示標識。同時,平臺還應建立虛假信息的應急響應機制,在發現虛假信息后,立即采取刪除、下架等處理措施,及時切斷虛假信息的傳播鏈條。
不應將所有事情都交給AI
周嘉瑋博士則將目光投向了AI工具的使用者。她認為,目前的AI公司在用戶提醒方面做得還不夠好。“相關的公司沒有努力,或者說至少沒有嘗試讓用戶清晰地理解這類生成式AI工具背后的運作機制,以及其與傳統的信息獲取方式和來源存在著哪些區別。”
許多用戶目前可能過分相信AI大模型的能力及其生成的內容,認為AI輸出的內容是完全正確的。但他們可能并未留意到,大多數AI工具的頁面底部,通常都會以極小且顏色灰暗、難以引人注意的字體,標注著類似“AI-generated for reference only”(AI生成內容,僅供參考)的聲明。
她提醒道:“用戶應該根據自己對信息準確性的不同要求,來判斷是否適合使用AI工具,而不是將所有的問題都交給AI來解決。一旦我們過度信賴這些工具,對其輸出的內容深信不疑,我們就會在不知不覺中,逐漸丟掉自身的獨立判斷能力。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.