文源:源Byte
作者:柯基的柯
當技術參數的相關性飆到0.927,行業直接炸了。
近期,有研究團隊在GitHub上公開比對數據,指出華為盤古ProMoE與阿里Qwen-2.5 14B參數結構高度雷同,居然高達0.927,超過業內正常范圍(通常低于0.7)。華為盤古團隊迅速回應,強調其模型基于昇騰硬件優化,屬于“殊途同歸”,向來在輿論場上不輸陣仗的阿里,卻意外保持沉默。
截圖來源于諾亞方舟實驗室公號
無獨有偶,就在上個月,月之暗面的Kimi-Dev-72B憑借60.4%的測試成績驚艷亮相,因“Basemodel:Qwen2.5-72B”的標注被貼上“套殼”標簽陷入爭議。就在開發者們爭論不休之時,外界發現“受害者”依舊是阿里,不禁發出如此疑問:這是微調技術的勝利,還是原創性匱乏的遮羞布?
而曾被寄予厚望的DeepSeek R2,遲遲未能面世,這款有望繼續對世界頂級大模型持續施壓的模型長期“跳票”,一定程度助推了國產大模型的技術標準“失焦”。
在一片R2“狼來了”的聲音中,市場似乎在等待中逐漸失去耐心,正在讓國產大模型的競爭,從技術比拼滑向資源內耗。
01
參數之爭背后的技術迷局
華為盤古ProMoE與阿里Qwen-2.5 14B的“0.927相似度”,直接剖開了大模型研發的黑箱。
研究團隊通過比對注意力參數分布,發現兩者結構相似性遠超行業常態。華為堅稱其模型基于昇騰硬件優化,屬于“異構架構的殊途同歸”;阿里則保持沉默,但開源社區已涌現對代碼復用合規性的質疑。
然而,技術細節的爭議很快滑向商業博弈的泥潭。
盤古團隊緊急發布技術白皮書,強調其MoE架構的專利布局;阿里則加速推進Qwen-3.0迭代,似乎在用版本升級對沖輿論風險。一位不愿具名的芯片工程師透露:“參數結構的趨同,本質上是算力軍備競賽下的技術妥協。”
開發者社區并不買賬,用戶 @HonestAGI 通過 “LLM 指紋” 技術反向驗證,結果與原始研究高度吻合。技術趨同是否等同于抄襲?這一問題在開源社區引發激烈辯論。
支持華為的聲音認為,大模型領域的技術重疊難以避免,關鍵在于優化和落地。昇騰生態的擁躉特別指出,盤古的動態專家網絡設計解決了分布式訓練負載均衡的難題,是實打實的創新。
但反對者,反對者翻出匿名爆料,稱部分盤古模型存在“洗水印”嫌棄——即對開源模型進行微調后重新包裝。盡管爆料未提供具體證據,但阿里通義千問的開源協議中明確要求衍生模型需標注來源,這一細節讓爭議更加撲朔迷離。
從技術角度看,參數結構的相似性可能源于訓練數據的重疊或優化目標的趨同。但問題的核心在于,當兩家巨頭在公開場合強調“自主創新”時,這種高度一致性是否違背了開源協議的精神?
華為盤古團隊的回應中,一個細節值得玩味:他們提到“參考了業界開源實踐”,但未具體說明哪些實踐。這種模糊表述讓外界難以判斷其行為的邊界。而阿里的沉默,則被解讀為一種戰術性回避,避免卷入公開論戰。
一位長期觀察AI行業的分析師表示:“參數之爭的背后,是國產大模型在高速發展中的身份焦慮——既要追趕國際巨頭,又要在本土競爭中脫穎而出。”這種焦慮,或許正是技術迷局的真正底色。
02
微調紅利與創新困局
華為與阿里的糾紛并非孤立事件,就在上個月,月之暗面與阿里就曾陷入類似的糾紛。
就在外界認為月之暗面要在國產大模型內卷中掉隊之時,其推出的Kimi-Dev-72B在SWE-bench測試中一騎絕塵。
該模型通過1500億專項數據和數百萬GitHub工單優化,將代碼任務準確率提升至60.4%。在當時,它刷新了開源模型的紀錄,將包括DeepSeek在內的眾多競爭對手甩在了身后。
不過好景不長,開發者們很快發現,Kimi-Dev-72B明確標注了其基礎模型為Qwen/Qwen2.5-72B,隨后,開發者社區的分歧迅速蔓延:有人將其視為“站在巨人肩膀上”的微調典范,也有人質疑這是披著開源外衣的“技術組裝”。
微調本是行業常態,但標注的透明性未能消弭質疑。月之暗面官方解釋,他們以Qwen 2.5-72B為起點,收集了數百萬個GitHub問題單和PR提交作為中期訓練數據集,其核心創新點在于采用了大規模強化學習技術。
爭議的核心并非技術本身,而是創新的邊界。Kimi-Dev-72B的表現確實亮眼,但它的成功是否依賴于基座模型的原始能力?有匿名開發者尖銳指出:“如果微調就能達到頂尖水平,原創的價值在哪里?”
開源生態的規則正在被重新定義。阿里通過協議更新試圖維護技術主權,而月之暗面則用性能說話,試圖證明微調并非簡單的“套殼”。市場反應兩極分化:一部分企業開始效仿這種快速迭代的模式,另一部分則呼吁回歸原創研發。
值得注意的是,Kimi-Dev-72B的優化框架確實有其獨特性,它結合了BugFixer和TestWriter角色,通過強化學習精準提升代碼修復和測試編寫的效率。
但這種優化是否足以定義“創新”,仍是一個懸而未決的問題。可見,行業的焦慮感正在加劇,當微調成為捷徑,原創研發的成本和風險是否會被邊緣化?對此,一位風投機構合伙人給出解釋:“資本更傾向于快速見效的項目,原創大模型的投入周期太長。”
03
失序的競爭
R1的輝煌已成往事,R2的難產卻讓市場陷入焦灼。DeepSeek曾以低成本、高性能對標OpenAI,一度成為全球開源推理類模型的標桿。
截圖來源于DeepSeek官網
傳聞在今年4月發布的R2,時至今日也未能問世,僅僅在5月末推出了一個R1的改款。
至少從6月以來的兩起“套殼”事件來看,改款的R1模型難以承擔定義行業標準的重任。
有媒體爆料稱,因公司創始人梁文鋒對性能的極致追求和H20芯片短缺被迫延期,根據爆料的內部文件顯示,其1.2萬億參數的MoE設計對標GPT-4Turbo,但訓練成本控制成為致命瓶頸。
技術瓶頸之外,行業正面臨更嚴峻的信任危機。R1曾以純強化學習訓練打破技術范式,而R2的缺席讓華為、阿里有望搶占生態位,有風投機構對源Byte表示:“當所有人都忙著給模型‘鍍金’,真正的創新反而成了奢侈品。”
DeepSeek如今已經成為了國產大模型的代名詞,其R1模型具備定義行業標準的意義,但長達半年多的技術缺位、R2接連跳票后,難免有人想取而代之。“對于一線互聯網大廠來說,能夠定義行業標準、引領行業前進方向,才是他們最為看重的。”上述風投機構坦言。
簡單點理解,就是DeepSeek R2的跳票,或變相造成了國產大模型的競爭失焦。
華為和阿里在R2真空期內動作頻頻,華為盤古ProMoE的爭議尚未平息,阿里已悄然推進Qwen-3.0的迭代。兩家巨頭的技術路徑雖有差異,但核心邏輯仍是參數與性能的堆砌,難怪不少匿名開發者都在調侃:“大家都在玩‘誰的數字更大’,沒人關心技術是否真的進步。”
據部分開發者向源Byte爆料稱,部分國產智能體專注“出海”,而非針對國內市場開發,除了國內市場尚未形成付費習慣,還有相當一部分的原因是,國產大模型僅僅在參數上追平或趕超海外模型,但在具體的開發細節上,仍存在一定差距,直接導致開發成本的飆升。
與此同時,芯片短缺加劇了這場混亂。英偉達H20的供應緊張,讓依賴高端硬件的企業陷入被動。DeepSeek的延遲或許只是開始,更多中小廠商可能因資源不足被迫退出競爭。
即便如此,市場對R2的期待仍未消退。傳聞稱其混合專家架構(MoE)將成本大大降低,但具體表現仍是未知數。若R2能如期突破,或許能重新點燃行業的信心;若繼續延遲,國產大模型的競爭格局或將改寫。
耐人尋味的是,這場延遲反而讓市場看清了行業的真實狀態,技術路徑趨同、創新乏力、資源壟斷——這些問題在R2的缺席中被放大。一位從業者無奈表示:“我們需要的不是另一個參數怪獸,而是能真正解決問題的工具。”
部分圖片來源于網絡,如有侵權請告知刪除
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.