人工智能浪潮之下,大模型如雨后春筍般涌現,中文大模型領域也曾在春節前后一度熱鬧非凡,甚至曾把英偉達的市值從第一的位置拉下馬,雖然英偉達在近日又創歷史新高。
作為國產AI的“潛力股”,DeepSeek 曾因其技術背景和宣傳攻勢,被寄予厚望。但現實是,越來越多用戶在使用后表達出強烈失望:生成內容空洞重復、邏輯混亂、審查敏感過度,“答非所問”,甚至自編自導幾乎成了常態。曾經有個知識博主分享了一個內容,DeepSeek在回答問題時所引用的三篇論文居然全部是杜撰的,基礎是假的,當然答案也肯定是不可信的。
而隨著這種狀況的加劇,曾轟動一時的DeepSeek也徹底走下了神壇,從一枝獨秀到無人問津,用了半年的時間。
它為什么“蠢”?是技術不行?還是有更深的結構性問題?
答案可能要從“語料”和“思維”兩個層面說起。
一、中文AI的先天缺陷:語料貧瘠
眾所周知,大語言模型的能力高度依賴訓練數據的質量與廣度。GPT-4、Claude、Gemini 等英文模型之所以能“聰明”,是因為它們背靠海量、高質量、多樣化的語料池。以OpenAI為例,訓練數據涵蓋了 Common Crawl(全球網絡抓取)、維基百科、PubMed、arXiv、Reddit、新聞評論、技術文檔、小說劇本等幾乎所有人類語言的場景。
而中文模型能抓取和使用的東西呢?
根據公開研究數據,在全球前100萬個網站中,中文網站僅占1.3%,而英文網站高達59.3%。中文用戶如果只掌握中文,所能接觸的信息本就只是信息世界的冰山一角。而這“冰山一角”還充滿內容閹割、平臺審查、表達受限等問題。
不僅量少,而且質量差。
這幾年,中文互聯網的原創內容正加速流失。知乎、豆瓣、小紅書、微博等平臺,算法驅動下變得越來越“重復性高、情緒化強、知識性弱”。優質內容不是404了,就是“由于相關法律法規,不予顯示”,我們經常見到的優質文章消失就是這個道理。更雪上加霜的是,自媒體生態在搜索引擎上堆砌SEO、批量AI生成內容,使得網絡語料進一步失真。
簡而言之,中文大模型要變“聰明”,它首先必須“見過世界”。但今天的中文語料,更多是“圍墻里的縮影”,而不是“世界的地圖”。
而我們之所以剛見到DeepSeek還覺得行,是因為其是當初面世時的內容是從2023年10月份之前GPT的訓練基礎上汲取的,所以內容還比較真實,但隨著這個窗口的關閉,其現在的內容很多事從百度這樣的平臺上吸取的(百度的文件質量有目共睹),所以其最終的質量就以自由落體的速度下降了。
二、語言審查帶來的二次污染
DeepSeek 模型的訓練也繞不開一個關鍵現實:我們的AI必須面對高強度的內容審查機制。這種機制不只是應用層的“輸出審查”,更是訓練層的“語料篩選”。
根據網傳不完全統計,我國的AI模型訓練和部署過程中,過濾詞條可能超過6.6萬組。你能想到的熱點社會話題、政治人物、歷史事件、制度性爭議,幾乎都在模型眼中“不可觸碰”,所以經常你問一個問題,DeepSeek說到一半就終止了,甚至一開始就可以規避掉,而這都是因為審查機制導致的。
這意味著什么?
意味著它不是“不會回答”,而是“必須回避”。
在訓練過程中,模型缺少對現實世界中“沖突性”“對抗性”“灰色地帶”的表達與理解能力。于是我們看到,中文AI往往顯得“太干凈”“太小心”,一問深一點的問題,它就會用“我是AI助手,無法回答”來結束對話。
它不是蠢,而是被訓練成“不敢聰明”。
三、模型思維的扁平化:會說話 ≠ 會思考
即使不考慮語料與審查,我們AI的另一個痛點在于:它會“模仿”,但不太會“思考”。
GPT 模型的本質,是通過大量文本的預訓練,學習語言的統計規律,也就是“接下來最可能出現的詞是什么”。它的“聰明”不是因為它理解了世界,而是因為它見過足夠多的世界,并統計出其中的規律。
而DeepSeek等中文模型,一方面語料有限,另一方面RLHF(基于人類反饋的強化學習)環節難以完成真實、多元、多層級的微調,最終導致模型雖然能“說人話”,但無法進行深度的思維模擬。
舉個簡單的例子:
你問它:“如何看待‘計劃經濟’和‘市場經濟’的對比?”
它可能會答:“兩者各有優劣,應結合國情靈活選擇。”
再比如,你問他“如何看待朝鮮這個國家的治理體系”
他給你的回答永遠模棱兩可的,沒有答案的問題,聽起來好像沒毛病,但其實什么都沒說,而且有時候,更像是人民日報的話語。
而同樣的問題,GPT-4 可能會從歷史沿革、理論基礎、現實表現、國家案例等多維度展開,邏輯清晰、觀點明確,即使你不認同它的答案,也會承認:它確實“想過”。
中文模型的“平庸輸出”背后,是訓練過程中對“思維路徑”的扁平化塑造。而這種扁平,歸根結底,還是數據、機制和環境決定的,不是不會思考,而是不能思考。
四、聰明的AI,需要更聰明的語境
DeepSeek 的局限,并不是DeepSeek一家的問題,它是整個中文AI行業共同面對的困局。
? 缺乏優質開放語料
? 內容生態持續退化
? 審查制度擠壓表達空間
? RLHF流程成本高、難以真實反饋
這一切,最終讓中文大模型“聰明地糊涂起來”。
當一個AI所能學習的世界,被人為劃定了邊界、屏蔽了爭議、消除了復雜性,它怎么可能成長為“有思維”的工具?它最多只能成為一個不會出錯的復讀機——但復讀機不等于智能。
不是DeepSeek不行,是我們太“安全”了
要讓中文AI變得真正強大,不是靠多加幾層注意力機制、擴一倍參數規模就行的,而是要面對更本質的問題:我們是否愿意為一個真正“會思考”的AI,提供一個足夠真實、足夠復雜、足夠自由的訓練土壤?而這恐怕不是幾個AI模型和企業就能解決的。
否則,DeepSeek不會是第一個“聰明不起來”的模型,也不會是最后一個。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.