7月24日,國安部通報3起泄密案例!其中一起因違規使用AI工具,導致國家研究領域涉密信息泄露。使用AI也會導致泄密,這個案例讓公眾震驚,也讓AI在中國的發展再添一大瓶頸。難怪今年以來,DeepSeek使用率從年初的50%跌至3%,就是因為泄密和敏感詞造成的后遺癥。
又是一年入職季,“萌新”勇闖職場,因為一些無心之舉,上演著一場場職場“小白”歷險記。今天,國家安全部發布《萌新必看 職場“打怪”修煉手冊》一文,文章中提及3起泄密案例。其中一個違規使用AI工具的案例引人注目。小李是某科研機構研究人員,在撰寫一份研究報告時,為圖方便,使用了某AI應用軟件,擅自將核心數據及實驗成果作為寫作素材后上傳,導致該研究領域涉密信息泄露。小李因此受到嚴肅處理。
不久前,格隆匯分析了DeepSeek從年初問世時的50%使用率,暴跌至目前3%的尷尬原因,指出該AI大模型除了開后源越來越多被整合進各種 App 之外,騰飛的翅膀被35萬敏感詞硬生生地拽了下來,正是由于內容過濾系統導致的“知識荒漠”與“表達牢籠”,無聲地擠壓了用戶體驗和創新空間。
金融投資媒體年初預計,至今年5月,更新換代的DeepSeek-R2就會強勢推出,然而時間卻一拖再拖,不免讓人浮想聯翩。
如今,人們幾乎淡忘了DeepSeek問世時的輝煌。從萬眾矚目的國產AI之光,到用戶流失了94%的邊緣玩家,DeepSeek就像國足一樣,小時神童,成人后卻泯然眾人。
回顧其墜落的軌跡,35萬個敏感詞構成的“內容濾網”成為壓垮駱駝的關鍵稻草。
Deepseek問世之初,幾乎沒有屏蔽詞,問到什么問題都能給出客觀的答案。僅僅半年之后,曾被譽為“中國版ChatGPT殺手”的DeepSeek,就上演了一場從神壇跌落的速度大戲。
調查數據顯示,Deepseek用戶使用率已從1月峰值時的50%斷崖式下跌至3%,官網流量更是同比下滑超過70%。
現在的DeepSeek答案被不斷吐槽為不知所云,導致用戶紛紛逃離、資本泡沫不斷積聚。
今年4月,微軟開源DeepSeek-R1的魔改版“MAI-DS-R1”震動AI界。這個版本最引人矚目的特性就在于:突破了原版模型中35萬個屏蔽詞的限制。
微軟團隊遵循著用戶體驗至上的宗旨,將約35萬個被屏蔽的關鍵詞,轉化為多語言問題集,通過強化訓練實現敏感話題響應率99.3%的同時,將安全風險降低50%,給用戶帶來了打破信息籬笆的暢快體驗。
這一技術動作也反向證實了原版DeepSeek的“表達牢籠”有多沉重。
在AI原始模型中,一套龐大而敏感的關鍵詞庫使訓練數據無時無刻經歷著知識的“自我閹割”。當用戶查詢觸及法律、歷史、醫療等領域的特定詞匯時,系統會觸發熔斷機制。
要么是系統忙碌請耐心等待,要么是“咱們換個話題”直接忽略,即便費了老勁拿出了一堆解釋,也是左替右換后的詞義模糊,難于自圓其說。
比如有用戶詢問《民法典》條款時,模型竟能自已虛構出“第1024條關于AI侵權責任”的條文;醫療咨詢中,其推薦的“納米機器人治療癌癥”方案被專家斥為“偽科學”。
看似技術“幻覺”的背后,本質是信息空洞化導致的補償性虛構。
一切都源于AI內容過濾時的過度防御,直接造成用戶體驗的災難性滑坡。某MCN機構運營總監的經歷頗具代表性:“3萬粉絲的母嬰賬號突然被限流,只因推文中出現了‘最有效’三個字。”
這種審查機制甚至蔓延到了非敏感領域。某團隊策劃的 “兒童護眼臺燈測評”剛發布就被下架,系統提示存在“絕對化用詞”。
在教育行業,像“根治”和“首選”這樣的常規詞匯也被劃入高危禁區,迫使創作者將表述弱化為“輔助改善”和“優質選擇”,這跟原有的詞義環境幾乎相悖。
更嚴重的是,過度審查還導致開發資源嚴重錯配。據業內人士透露,DeepSeek工程師不得不將30%的精力用于設計規避敏感詞的算法補丁,產品經理需預判數百種內容審核風險場景。這種非技術性損耗,直接拖累了模型核心能力的迭代速度。
用戶發現,詢問《1984》的隱喻會觸發系統警告,而同樣問題在ChatGPT卻能獲得深度分析。
今天的案例說明,AI對保密信息不會自己甄別,包括DeepSeek的騰飛翅膀再綁上一枚沉甸甸的鐵鉈,科研團隊又要撓破頭皮了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.