華為又被黑?
華為盤古大模型抄襲阿里通義千問事件,迎來反轉(zhuǎn)反轉(zhuǎn)再反轉(zhuǎn),可謂一波未平一波又起。
近日,繼大模型“抄襲”傳言甚囂塵上后,華為官方“諾亞方舟實驗室”迅速出面否認(rèn),其表示:模型為昇騰平臺自主研發(fā),部分代碼引用已合規(guī)標(biāo)注,并且符合開源協(xié)議。
其中,諾亞方舟實驗室核心強(qiáng)調(diào)了兩點:第一,盤古Pro MoE開源模型是基于昇騰硬件平臺開發(fā)、訓(xùn)練的基礎(chǔ)大模型,并非基于其他廠商模型增量訓(xùn)練(即續(xù)訓(xùn))而來,并且其在架構(gòu)設(shè)計(如創(chuàng)新性的MoGE架構(gòu))和技術(shù)特性上有關(guān)鍵創(chuàng)新;
第二,部分基礎(chǔ)組件代碼確實參考了業(yè)界開源實踐,涉及其他開源大模型的部分開源代碼。但嚴(yán)格遵循開源許可證的要求,在開源代碼文件中清晰標(biāo)注開源代碼的版權(quán)聲明。這不僅是開源社區(qū)的通行做法,也符合業(yè)界倡導(dǎo)的開源協(xié)作精神。
圖源:諾亞方舟實驗室
不過,繼華為官方發(fā)布澄清聲明不到1天,一份來自“盤古大模型團(tuán)隊員工”的6000字爆料長文,又一次將這個科技巨頭推入輿論的漩渦。
事情逐漸變得撲朔迷離。
爆料中表示:由于團(tuán)隊初期算力非常有限,雖做出了很多努力和掙扎,但沒有預(yù)期效果,內(nèi)部的質(zhì)疑聲和壓力也越來越大,后來小模型實驗室多次套殼競品,換來了現(xiàn)有的成果。
圖源:Github
此前,圍繞著盤古大模型,輿論已經(jīng)發(fā)酵數(shù)天,下面讓我們按照時間順序,來簡單捋一下全經(jīng)過。
6月30日,華為一改此前“絕不開源”的態(tài)度,正式宣布開源盤古70億參數(shù)的稠密模型以及盤古Pro MoE 720億參數(shù)的混合專家模型,還一并開源了基于昇騰的模型推理技術(shù)。
隨后,7月初,有自稱是哥斯達(dá)黎加大學(xué)的韓國學(xué)生的GitHub用戶,發(fā)布報告指出:盤古Pro MoE模型與阿里通義千問Qwen-2.5 14B模型的注意力參數(shù)指紋相似度高達(dá)0.927(接近完全一致的1.0),遠(yuǎn)超行業(yè)0.7以下的正常差異閾值,且在開源代碼中發(fā)現(xiàn)了阿里的版權(quán)聲明。
對比研究報告 圖源:Github
截至發(fā)稿,本篇文章已刪稿,由此,事件更蒙上了一層未知的色彩。
面對外界質(zhì)疑,華為諾亞方舟實驗室也迅速站出來否認(rèn)。
然而,不到24小時后,一篇自稱來自華為諾亞方舟實驗室內(nèi)部員工的名為《盤古之殤》的長文,瞬間引爆全網(wǎng),將事件推上了新的高潮。
長文中,其主要爆料了幾個核心要點:
第一,華為內(nèi)部“小模型實驗室”為應(yīng)對研發(fā)壓力,套殼競品模型——如將阿里千問110B模型通過加層、擴(kuò)參偽裝為自研的135B V2模型,甚至保留原始代碼類名“Qwen”。
第二,資源分配問題,據(jù)爆料,套殼團(tuán)隊可繞過繁重流程獲取算力,而堅持全自研的團(tuán)隊卻因交付延遲被邊緣化,最終堅持不住,選擇前往流向DeepSeek、月之暗面等競爭對手團(tuán)隊。
最后,其也對盤古大模型的未來給出了肺腑之言:其實時至今日,我還是真心希望華為能認(rèn)真吸取教訓(xùn),能做好盤古,把盤古做到世界一流,把昇騰變成英偉達(dá)的水平。
截至目前,華為并未對此自曝內(nèi)容發(fā)表回應(yīng)。
不過,內(nèi)容方面,人人自媒體的時代,無法輕易斷言真實與否。因此,我們也別急著下結(jié)論,讓子彈再飛一會。
值得注意的是,此次盤古大模型突然決定開源,對于華為自身來說,也是一次“反轉(zhuǎn)”。
2023年,華為云開發(fā)者大會上,華為常務(wù)董事、華為云CEO張平安正式發(fā)布了盤古3.0大模型時,當(dāng)時,張平安明確表示:華為盤古大模型走的是全棧自研路線,并且,盤古大模型不會開源。
圖源:微博
時至今日,華為改變主意宣布開源,不排除有內(nèi)部外部多方層面的考量。
不論如何,華為仍是一家專注于長期戰(zhàn)略投入、深耕于技術(shù)研發(fā)的企業(yè),這一點無可爭議。
盤古大模型表現(xiàn)
爭議之余,我們來看看盤古大模型的展示出來的部分亮點。
6月30日,華為一系列大模型同時開源,其中包括:70億個參數(shù)的稠密模型“盤古Embedded 7B”、720億個參數(shù)的混合專家模型“盤古Pro MoE”、以及基于昇騰的模型推理技術(shù)。
根據(jù)官方數(shù)據(jù),盤古Pro MoE在昇騰800I A2上單卡推理吞吐性能可達(dá)單卡1148 tokens/s,并可進(jìn)一步通過投機(jī)加速等技術(shù)提升至1528 tokens/s,顯著優(yōu)于同等規(guī)模的320億和720億個參數(shù)的稠密模型。
與此同時,華為研究表明,盤古Pro MoE在英語、中文及推理領(lǐng)域的多項能力測試中全面超越Gemma3-27B、Llama4-scout。在MMLU、C-Eval、GSM8K等多種基準(zhǔn)測試中,盤古Pro MoE性能超越GLM-Z1-32B、Qwen3-32B等主流開源模型,展現(xiàn)了在多語言理解、推理等方面的領(lǐng)先能力。
圖源:微博
值得一提的是,在氣象預(yù)測方面,華為云盤古氣象大模型是首個精度超過傳統(tǒng)數(shù)值預(yù)報方法的AI模型,速度相比傳統(tǒng)數(shù)值預(yù)報提速10000倍以上,只需要1.4秒就能完成24小時全球氣象預(yù)報。
從華為公布的數(shù)據(jù)看來,盤古大模型確實是AI領(lǐng)域一個強(qiáng)大的競爭者。
大廠押注AI,一個比一個拼
經(jīng)過一輪淘汰洗牌,2025年的中國AI大模型領(lǐng)域,儼然已經(jīng)從2023年的“百模大戰(zhàn)”演進(jìn)為一批互聯(lián)網(wǎng)大廠、垂直領(lǐng)域新銳在場景落地之間的角逐。
其中,不得不提的有本次事件涉及的另一位主人公——阿里通義千問。
作為“國內(nèi)最早開源的大模型”,通義千問系列涵蓋從0.5B到110B參數(shù)規(guī)模,開源生態(tài)覆蓋全球1250萬開發(fā)者,其企業(yè)級API日均調(diào)用超500萬次,開源模型下載量累計超700萬次,衍生模型穩(wěn)穩(wěn)占據(jù)Hugging Face中文榜單前十。
并且,通義千問仍在持續(xù)迭代,先是在5月9日升級了通義千問2.5版本,不久前又發(fā)布了Qwen VLo,在原始多模態(tài)理解與生成能力上進(jìn)行了全面升級,顯著增強(qiáng)了對圖像內(nèi)容的理解深度,在電商領(lǐng)域,還能自動生成商品詳情頁和營銷文案,實用性拉滿。
圖源:微博
此外,還有走“極致性價比”路線的字節(jié)跳動豆包大模型。
最新發(fā)布的豆包大模型1.6,價格再一次降低,最低為2.6元/百萬tokens,相較于豆包大模型1.5與DeepSeek-R1的7元/百萬tokens的價格,大幅下降63%。
圖源:微博
降價策略隨之帶來的,便是是使用量的激增。截至2025年5月底,豆包大模型日均tokens使用量超16.4萬億,相較于2024年5月剛發(fā)布時增長了137倍。
與此同時,豆包大模型的行業(yè)落地更是全面開花。IDC報告顯示,豆包大模型以46.4%份額穩(wěn)居中國公有云大模型市場第一。全球Top 10手機(jī)廠商有9家與火山引擎深度合作,八成主流車企接入豆包大模型。
“百家爭鳴”下,是一場生存空間的淘汰賽,其中角逐的每一方壓力都不小。那么,在此過程中,如何定義AI大模型開源規(guī)則的邊界,以及企業(yè)如何守住技術(shù)的底線,或許是一個目前需要直面的課題。
作者 | 宋輝
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.