點擊上圖查看詳情
今天上午,“DeepSeek給王一博道歉是假的”沖上微博熱搜,很多人可能還一頭霧水:科技圈和娛樂圈的兩大“頂流”怎么有了交集?而且還是需要“道歉”的關系?
橙柿互動記者梳理發現,事情的起因是前幾天,首創集團原黨委書記、董事長李愛慶受賄案塵埃落定,隨后一些自媒體稱王一博和這起案件有牽連。
早在2022年,王一博的經紀公司樂華已就相關謠言辟謠過,沒想到這次借著李愛慶判決,舊的謠言又開始傳播了。昨天樂華也再次發布聲明,表示要通過法律途徑來追責。
事情進展到這一步,誰也沒想到還出了一個大插曲:昨天,全網出現了一篇《演員王一博案,判了》的文章,表示針對這件事,DeepSeek出了一份官方道歉。然而,這份全網傳播的文章沒有任何官方來源。DeepSeek也從未就此事發表過任何聲明。
今天,橙柿互動記者在中國裁判文書網檢索發現,這份聲明中引用的“北京市第三中級人民法院(2025)京03刑終174號判決書”并不存在,基本可以判斷這份聲明是AI編寫的。
于是,昨天還是“DeepSeek給王一博道歉”的話題,今天變成了“DeepSeek給王一博道歉是假的”。
以上就是這起無厘頭事件的大致發展脈絡。
事實上,這也不是AI第一次出現差錯。此前還有網友用DeepSeek查閱資料后發現結果錯誤,AI不僅及時更正信息并道歉,還表示要補償網友3000元人民幣,讓人有點哭笑不得。
在大模型火爆的當下,AI 犯錯、道歉以及承諾補償這樣滑稽的事情并不少見,那么,AI為什么會出錯呢?
行業內有一種“概率鸚鵡”的觀點。想象一下,有一只超級聰明的鸚鵡,它聽過無數對話,能根據統計規律說出“合理”的話,但它其實不懂自己在說什么。大語言模型就像這只“概率鸚鵡”,它擅長生成語法正確、邏輯連貫的文本,但不能真正理解內容的真實性,有時候也分不清事實和謠言,更不會理解“承諾”以及“申明”等詞語的法律含義。
圖片來源:王一博官方微博
以這次DeepSeek和王一博之間的這起事件為例,大量網友與DeepSeek在對話中反復質疑“謠言關聯”,最后AI生成了包含“全網刪除信息、啟動賠償”等具體舉措的道歉聲明。
“這種現象的專業術語叫社會學工程誘導,以區別于黑客的攻擊性誘導。”螞蟻集團大模型安全專家毛宏亮介紹,因為AI模型基于訓練數據生成回答,無事實核查能力,當用戶輸入帶偏見的問題時,易輸出虛構的賠償、道歉等承諾信息。
“AI不僅會說謊,甚至會被投毒,就像給食物下毒會讓人生病一樣,可能會有人故意給大模型投喂錯誤的信息,破壞它正常學習的能力,讓它做出錯誤的判斷。”毛宏亮補充說,隨著大模型在我們生活中變得越來越重要,了解AI風險也變得非常關鍵,這不僅是技術問題,更是安全問題。
目前,AI強大的信息檢索能力和人本生成能力讓很多人的手機里都多了一個AI應用,但AI的技術漏洞被放大后,也給我們的生活帶來很多不方便甚至危害,AI出錯的內容被引用,其他AI將其視為“信源”,然后生成更多虛假信息,最終形成惡性循環。
因此,大家在使用AI應用時需提高信息鑒別力,警惕AI生成內容的權威性,特別是涉及賠償、司法等承諾信息。
橙柿互動·都市快報記者 劉永麗
編輯 高欣奕
審核 羅祎 陳欣文
BREAK AWAY
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.