7月5日消息,盤古方面今日正式回應了關于盤古大模型抄襲阿里通義大模型的言論。盤古團隊稱嚴格遵循開源許可證的要求,在開源代碼文件中清晰標注開源代碼的版權聲明。
近日,Github上發布了一篇技術論文主要講后訓練和微調想要抹除原模型的水印、換皮抄襲模型這件事可以通過新的“模型指紋”技術溯源原有的預訓練模型到底是誰。
此前(2025年6月30日)華為宣布開源盤古70億參數的稠密模型、盤古 Pro MoE 720億參數的混合專家模型和基于昇騰的模型推理技術。
作者通過LLM-Fingerprint的評估方法(模型指紋)方法,有人發現Pangu Pro
MoE 模型與Qwen-2.514B模型在注意力參數分布上的相關性極高(平均相關性高達0.927),遠超其他模型對比的正常范圍。
并且其推斷:Pangu Pro MoE 并非完全從零;技術文檔中聲稱Pangu是“自研”,但可能存在版權侵權和報告造假。
對此,盤古團隊表示盤古Pro MoE開源模型部分基礎組件的代碼實現參考了業界開源實踐,涉及其他開源大模型的部分開源代碼。盤古嚴格遵循了開源許可證的要求,在開源代碼文件中清晰標注開源代碼的版權聲明。(崔玉賢)
以下為盤古官方具體聲明:
我們注意到近期開源社區及網絡平臺關于盤古大模型開源代碼的討論。
盤古Pro MoE開源模型是基于昇騰硬件平臺開發、訓練的基礎大模型,并非基于其他廠商模型增量訓練而來,在架構設計、技術特性等方面做了關鍵創新,是全球首個面向昇騰硬件平臺設計的同規格混合專家模型,創新性地提出了分組混合專家模型(MoGE)架構,有效解決了大規模分布式訓練的負載均衡難題,提升訓練效率。其他技術特性創新,請參考昇騰生態競爭力系列技術報告披露內容。
盤古Pro MoE開源模型部分基礎組件的代碼實現參考了業界開源實踐,涉及其他開源大模型的部分開源代碼。我們嚴格遵循開源許可證的要求,在開源代碼文件中清晰標注開源代碼的版權聲明。這不僅是開源社區的通行做法,也符合業界倡導的開源協作精神。我們始終堅持開放創新,尊重第三方知識產權,同時提倡包容、公平、開放、團結和可持續的開源理念。
感謝全球開發者與合作伙伴對盤古大模型的關注和支持,我們高度重視開源社區的建設性意見。希望通過盤古大模型開源,與志同道合的伙伴一起,探索并不斷優化模型能力,加速技術突破與產業落地。
我們歡迎并期待大家在開源社區Ascend Tribe,就技術細節進行深入、專業的交流。
盤古Pro MoE技術開發團隊
本文來自網易科技報道,更多資訊和深度內容,關注我們。