華為又被黑?
華為盤古大模型抄襲阿里通義千問事件,迎來反轉反轉再反轉,可謂一波未平一波又起。
近日,繼大模型“抄襲”傳言甚囂塵上后,華為官方“諾亞方舟實驗室”迅速出面否認,其表示:模型為昇騰平臺自主研發,部分代碼引用已合規標注,并且符合開源協議。
其中,諾亞方舟實驗室核心強調了兩點:第一,盤古Pro MoE開源模型是基于昇騰硬件平臺開發、訓練的基礎大模型,并非基于其他廠商模型增量訓練(即續訓)而來,并且其在架構設計(如創新性的MoGE架構)和技術特性上有關鍵創新;
第二,部分基礎組件代碼確實參考了業界開源實踐,涉及其他開源大模型的部分開源代碼。但嚴格遵循開源許可證的要求,在開源代碼文件中清晰標注開源代碼的版權聲明。這不僅是開源社區的通行做法,也符合業界倡導的開源協作精神。
圖源:諾亞方舟實驗室
不過,繼華為官方發布澄清聲明不到1天,一份來自“盤古大模型團隊員工”的6000字爆料長文,又一次將這個科技巨頭推入輿論的漩渦。
事情逐漸變得撲朔迷離。
爆料中表示:由于團隊初期算力非常有限,雖做出了很多努力和掙扎,但沒有預期效果,內部的質疑聲和壓力也越來越大,后來小模型實驗室多次套殼競品,換來了現有的成果。
圖源:Github
此前,圍繞著盤古大模型,輿論已經發酵數天,下面讓我們按照時間順序,來簡單捋一下全經過。
6月30日,華為一改此前“絕不開源”的態度,正式宣布開源盤古70億參數的稠密模型以及盤古Pro MoE 720億參數的混合專家模型,還一并開源了基于昇騰的模型推理技術。
隨后,7月初,有自稱是哥斯達黎加大學的韓國學生的GitHub用戶,發布報告指出:盤古Pro MoE模型與阿里通義千問Qwen-2.5 14B模型的注意力參數指紋相似度高達0.927(接近完全一致的1.0),遠超行業0.7以下的正常差異閾值,且在開源代碼中發現了阿里的版權聲明。
對比研究報告 圖源:Github
截至發稿,本篇文章已刪稿,由此,事件更蒙上了一層未知的色彩。
面對外界質疑,華為諾亞方舟實驗室也迅速站出來否認。
然而,不到24小時后,一篇自稱來自華為諾亞方舟實驗室內部員工的名為《盤古之殤》的長文,瞬間引爆全網,將事件推上了新的高潮。
長文中,其主要爆料了幾個核心要點:
第一,華為內部“小模型實驗室”為應對研發壓力,套殼競品模型——如將阿里千問110B模型通過加層、擴參偽裝為自研的135B V2模型,甚至保留原始代碼類名“Qwen”。
第二,資源分配問題,據爆料,套殼團隊可繞過繁重流程獲取算力,而堅持全自研的團隊卻因交付延遲被邊緣化,最終堅持不住,選擇前往流向DeepSeek、月之暗面等競爭對手團隊。
最后,其也對盤古大模型的未來給出了肺腑之言:其實時至今日,我還是真心希望華為能認真吸取教訓,能做好盤古,把盤古做到世界一流,把昇騰變成英偉達的水平。
截至目前,華為并未對此自曝內容發表回應。
不過,內容方面,人人自媒體的時代,無法輕易斷言真實與否。因此,我們也別急著下結論,讓子彈再飛一會。
值得注意的是,此次盤古大模型突然決定開源,對于華為自身來說,也是一次“反轉”。
2023年,華為云開發者大會上,華為常務董事、華為云CEO張平安正式發布了盤古3.0大模型時,當時,張平安明確表示:華為盤古大模型走的是全棧自研路線,并且,盤古大模型不會開源。
圖源:微博
時至今日,華為改變主意宣布開源,不排除有內部外部多方層面的考量。
不論如何,華為仍是一家專注于長期戰略投入、深耕于技術研發的企業,這一點無可爭議。
盤古大模型表現
爭議之余,我們來看看盤古大模型的展示出來的部分亮點。
6月30日,華為一系列大模型同時開源,其中包括:70億個參數的稠密模型“盤古Embedded 7B”、720億個參數的混合專家模型“盤古Pro MoE”、以及基于昇騰的模型推理技術。
根據官方數據,盤古Pro MoE在昇騰800I A2上單卡推理吞吐性能可達單卡1148 tokens/s,并可進一步通過投機加速等技術提升至1528 tokens/s,顯著優于同等規模的320億和720億個參數的稠密模型。
與此同時,華為研究表明,盤古Pro MoE在英語、中文及推理領域的多項能力測試中全面超越Gemma3-27B、Llama4-scout。在MMLU、C-Eval、GSM8K等多種基準測試中,盤古Pro MoE性能超越GLM-Z1-32B、Qwen3-32B等主流開源模型,展現了在多語言理解、推理等方面的領先能力。
圖源:微博
值得一提的是,在氣象預測方面,華為云盤古氣象大模型是首個精度超過傳統數值預報方法的AI模型,速度相比傳統數值預報提速10000倍以上,只需要1.4秒就能完成24小時全球氣象預報。
從華為公布的數據看來,盤古大模型確實是AI領域一個強大的競爭者。
大廠押注AI,一個比一個拼
經過一輪淘汰洗牌,2025年的中國AI大模型領域,儼然已經從2023年的“百模大戰”演進為一批互聯網大廠、垂直領域新銳在場景落地之間的角逐。
其中,不得不提的有本次事件涉及的另一位主人公——阿里通義千問。
作為“國內最早開源的大模型”,通義千問系列涵蓋從0.5B到110B參數規模,開源生態覆蓋全球1250萬開發者,其企業級API日均調用超500萬次,開源模型下載量累計超700萬次,衍生模型穩穩占據Hugging Face中文榜單前十。
并且,通義千問仍在持續迭代,先是在5月9日升級了通義千問2.5版本,不久前又發布了Qwen VLo,在原始多模態理解與生成能力上進行了全面升級,顯著增強了對圖像內容的理解深度,在電商領域,還能自動生成商品詳情頁和營銷文案,實用性拉滿。
圖源:微博
此外,還有走“極致性價比”路線的字節跳動豆包大模型。
最新發布的豆包大模型1.6,價格再一次降低,最低為2.6元/百萬tokens,相較于豆包大模型1.5與DeepSeek-R1的7元/百萬tokens的價格,大幅下降63%。
圖源:微博
降價策略隨之帶來的,便是是使用量的激增。截至2025年5月底,豆包大模型日均tokens使用量超16.4萬億,相較于2024年5月剛發布時增長了137倍。
與此同時,豆包大模型的行業落地更是全面開花。IDC報告顯示,豆包大模型以46.4%份額穩居中國公有云大模型市場第一。全球Top 10手機廠商有9家與火山引擎深度合作,八成主流車企接入豆包大模型。
“百家爭鳴”下,是一場生存空間的淘汰賽,其中角逐的每一方壓力都不小。那么,在此過程中,如何定義AI大模型開源規則的邊界,以及企業如何守住技術的底線,或許是一個目前需要直面的課題。
作者 | 宋輝
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.