作者 | 黃小藝
郵箱 | huangxiaoyi@pingwest.com
一場對謠言的澄清,變成了一個新的謠言。
昨日,#王一博相關謠言被DeepSeek永久撤回的話題沖上熱搜前三,然而沒有人能找到DeepSeek真正發過這個聲明。更詭異的是,當我們詢問多個AI大模型后,它們大部分都"確認"了這個根本不存在的道歉。
事情的起因看似簡單。在這個更多屬于娛樂新聞的話題發酵過程中,先是有網友傳出DeepSeek在AI生成式回答中關聯了新聞中的當事人,而后很快又出現一份據稱來自DeepSeek的“官方道歉聲明”,開始廣為流傳。
這份聲明稱,DeepSeek承認此前因審核疏漏引用了謠言內容,承諾永久撤回不實信息并進行賠償,生效時間標注為“2025年7月2日10:00前”。消息迅速傳播,部分媒體紛紛跟進報道,網友們也將其視為了這家幾乎從沒公開發表過技術之外言論的AI公司的正式回應。
仔細審視這份所謂的"官方聲明",多處細節經不起推敲。聲明中提到的"封禁惡意造謠賬號""賠償承諾"等表述,并不符合AI平臺的常規處理方式。
那么,問題來了:這份看似漏洞百出、明顯為AI生成的內容,在DeepSeek的官方微信、官網、社交媒體賬號都沒有發布過任何相關內容的背景下,為什么這么快速被大眾接受了?
原因之一,是在AI的進步不斷沖擊人們的生活的同時,大家對AI給出內容的取信度不斷提升,但與此同時,卻對AI給出內容背后的一整套邏輯缺少理解。
我們先來看看,各家AI們對這個事情的回答都是怎樣的。這一次的鬧劇主角是DeepSeek,不過我們也嘗試去詢問了10家AI大模型和2家AI搜索產品,結果也差不多,大部分AI都認為DeepSeek確實道歉了,只有混元T1、Qwen3(分析研究)、Gemini2.5 pro除外。
以下是測試結果:
我們的prompt很簡單,就是問AI們,這件事到底是怎么回事?
注:因為各家已有模型型號存在差異,且為了體現大模型總體在謠言鑒別上的能力,我們選取了各家最適合處理該問題的模型,而不是一味地保持一致,包括推理/沉思/聯網/研究,因此并不是完全對等的比較。

這些模型的搜索素材中,幾乎都采用了三湘都市報、羊城晚報微信號、南京晨報等具備一定官方性質的內容,涉及今日頭條、百度、網易、騰訊等多家資訊平臺。
值得注意的是,秘塔搜索搜到了一篇來自虎嗅的辟謠信息,但將其作了支撐謠言的論據,仍然認為DeepSeek道歉了。
智譜則是已經在回答中提到了DeepSeek道歉系造謠,但在最終的“總結”中,認為DeepSeek道歉了,在同一篇回答中,前后自相矛盾。
甚至,AI搜索產品們也沒有打破這個謠言困境。
唯三否認了DeepSeek道歉謠言的模型中,Qwen3選取的是分析研究場景,因此通過多步驟搜索信息,并聲稱調用了tool,查詢了文書網站,發現查詢不到所謂的“北京市第三中級人民法院(2025)京 03 刑終 174 號刑事判決書”,而認為DeepSeek道歉存疑。
Gemini和混元則是直接識別到了來自虎嗅和三言科技的辟謠文章,認為這兩篇內容可信程度高于其他信源。
可以看出,在這些錯誤的認為DeepSeek道歉了的AI里,出錯的“步驟”都比較一致:
第一步:是AI爬取了原始謠言。最初的不實信息通過網絡傳播,被AI系統抓取,使得AI在回答相關問題時出現虛假關聯。
第二步:在用戶與AI的聊天中,共同“制造”了道歉內容,它變成了看似真實的"官方聲明"。
第三步:很多個人賬號轉發這些“官方道歉”,之后部分媒體引用,進一步擴大了傳播范圍。
第四步,最終,AI再次爬取這些報道,形成了自我循環,AI自己徹底相信了這些“事實”。

在這個案例里,幾乎暴露了今天用模型支撐的AI產品快速滲透進日常生活后,所有可能出問題的環節。
首先對于產品方,它們都在面對前所未有的用戶量,同時卻也前所未有的可以交付給用戶不準確的結果。這導致在用戶側,人們對這些產品的認知沒有跟上,大部分人不是技術愛好者,是普通老百姓,他們對這類產品的理解會天然來自“搜索”、“社交”和“聊天軟件”,除了對數據完全不同的流轉方式不了解,也會想當然按過去的產品那樣,認為它生成與產品本身公司有關的言論,就是產品背后公司的官方言論。
而在技術邏輯上,這些生成內容又在理論上就是可以被反復自我強化的。今天卷到極致的環境,逼著焦慮的模型和產品公司們對“數據飛輪”很在意——用戶的數據和語料很快的被吸收進模型,尤其是新發生的較少信息的事情,如果遇到集中“灌輸”,就可能被收納為與此有關的基礎語料,變成模型生成時認為可以采納的某種事實。
同時,信息渠道彼此互不相通的老問題也在發揮作用,很多模型在生成內容時的確會給鏈接,但其中質量難以保證的網站也不少,背后一個重要原因,是這些網站會大量抓取模型無法或因版權顧慮而不便直接“爬取”的渠道的內容,這樣這些AI產品可以繞開過去互聯網形成的信息墻,繼續獲得資料。然而這樣注定就對信息源缺少了分類和判斷。而且,更有隱患的是,這也自然留下了更容易操控信息的漏洞。
這次的案例最值得注意的地方,就在這里:接下來這些有意無意污染了的語料,再次流通出來,在今天越來越高的c端用戶滲透率和遠遠不夠的對AI產品的認知結合下,居然以一手資料的模樣回到了這些渠道,甚至是很嚴肅的渠道里,再次發布出來,得到背書,徹底變成“事實”。
最后模型們再把這些“事實”內化,終于,模型自己和所有人都相信了。
任何語料都可能成為生成的結果,并且進而再被模型二次確認為是事實,這是一整套極為離譜的邏輯,也是一個極容易被系統化污染的鏈路,但這卻也是今天最受期待和將要對人類影響最深刻的技術和產品們,普遍在采用的邏輯。
于是今天這樣離譜的事情就發生了,而且,看起來類似的荒謬鬧劇還會以各種樣貌繼續出現。
這無疑是個提醒,也許是時候重視起來這些動輒近億用戶的新AI產品的詭異邏輯了,從模型、產品、用戶、到任何人,在一切還來得及的時候,該一起做點什么了。
點個愛心,再走 吧
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.