出品|虎嗅科技組
作者|宋思杭
編輯|苗正卿
頭圖|視覺中國
近日,一則消息在網絡上引發熱議。有媒體稱,“DeepSeek就AI模型違規關聯王一博與‘李愛慶腐敗案’,作出道歉?!?該媒體還表示,“DeepSeek方面表示,因內容審核疏漏,平臺在回答用戶查詢時,引用未經證實的網絡謠言,將王一博案與首創集團原董事長李愛慶案件進行不當關聯,對其名譽造成侵害,DeepSeek已永久撤回相關失實信息,并援引北京市第三中級人民法院(2025)京03刑終174號刑事判決書明確?!?/p>
然而,經虎嗅多方核查發現,DeepSeek 官方微信公眾號、官方網站、官方 X 賬號(前 Twitter)等所有官方社交媒體平臺,均未公開發表過任何道歉聲明。虎嗅進一步檢索所有有關 “DeepSeek 就違規關聯王一博與李愛慶腐敗案道歉” 的新聞報道,發現沒有任何一則新聞明確指出 DeepSeek 的道歉渠道,也未出現相關道歉聲明的截圖。
事情的戲劇性不止于此。該事件的詭異之處在于,全網幾乎都認定 DeepSeek 進行了道歉。大量自媒體、網絡新媒體乃至傳統媒體,都在第一時間跟進報道了這條不實消息。
不僅如此,虎嗅向市面上的所有 AI 大模型詢問該事件,得到的回答竟出奇一致:均表示 DeepSeek 的確就 “違規關聯王一博與‘李愛慶腐敗案’” 進行了道歉,并引用了上述不實新聞鏈接。
來源:豆包
來源:DeepSeek
來源:KIMI
該事件本屬于社會新聞、娛樂新聞等層面,但筆者作為長期跟蹤科技類新聞的從業者,站在筆者的角度來看,此事背后折射出的,遠不止新聞報道核查不嚴的問題,更暴露出當下 AI 大模型比 “幻覺問題” 更為嚴峻的困境 ——AI 通過援引假新聞生成新的假新聞。(虎嗅注:人們常說的AI大模型幻覺問題,是指AI在無事實依據的情況下所生成的不符合事實、甚至不符合邏輯的假消息)
簡單來說,隨著近兩年AI大模型的迅猛發展,早期普遍存在的“幻覺問題”確實有所緩解。這主要得益于AI大模型增加了聯網搜索和推理等能力,這意味著大模型在生成用戶回答時,可以根據網絡上的公開信息,通過推理的方式,來生成相應的AI回答。
然而,癥結在于,當網絡上充斥著海量虛假信息時,連人類都難以迅速辨別其真偽,AI對此則更缺乏有效的信息核查能力。因此,在引用網絡信息時,便造成了典型的“Rubbish in, Rubbish out”(垃圾進,垃圾出)效應。
以筆者個人經驗而言,在日常寫作工作中,AI并不能真正替代人類撰稿。甚至有時,當新聞工作者借助AI輔助寫作時,反而會降低工作效率。因為大部分時間仍需用于查證AI生成信息的真偽,即便AI援引了某個新聞網頁,證明并非“幻覺”,卻仍需再次核實該新聞網頁所提及內容的真實性。對此,筆者在與多數新聞從業者交流時,大家普遍認為,“用AI生成稿件的效率比自己動手寫更低。”
回到該事件,對于AI帶來的警示作用是,AI應該如何在真假難辨的網絡世界里辨別真偽,從而進一步提升AI生成準確率。因為只有當AI提高了生成回答的準確率,才能真正被投入到實際的生產工作當中。舉個例子,這也是為什么,在大部分企業應用大模型時,當中重要的一步是給大模型喂企業專有的知識庫,這樣在員工向企業定制的大模型提問時,才不會生成錯誤答案。
當然,對于人類的警示作用,可能就在于,當人類自身都在“生成”假消息時,AI就更無法給出準確答案了。
本文來自虎嗅,原文鏈接:https://www.huxiu.com/article/4537198.html?f=wyxwapp
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.