就在剛剛,華為正式宣布開(kāi)源盤(pán)古 70 億參數(shù)的稠密模型、盤(pán)古 Pro MoE 720 億參數(shù)的混合專(zhuān)家模型和基于昇騰的模型推理技術(shù)。
據(jù)悉,此舉是華為踐行昇騰生態(tài)戰(zhàn)略的又一關(guān)鍵舉措,推動(dòng)大模型技術(shù)的研究與創(chuàng)新發(fā)展,加速推進(jìn)人工智能在千行百業(yè)的應(yīng)用與價(jià)值創(chuàng)造:
1?? 盤(pán)古 Pro MoE 72B 模型權(quán)重、基礎(chǔ)推理代碼,已正式上線(xiàn)開(kāi)源平臺(tái)。
2?? 基于昇騰的超大規(guī)模MoE模型推理代碼,已正式上線(xiàn)開(kāi)源平臺(tái)。
3?? 盤(pán)古 7B 相關(guān)模型權(quán)重與推理代碼將于近期上線(xiàn)開(kāi)源平臺(tái)。
盤(pán)古 Embedded 7B 模型:
? 參數(shù)規(guī)模為 70 億
? 采用雙系統(tǒng)框架,具備「快思考」和「慢思考」能力
? 模型具備元認(rèn)知能力,可根據(jù)任務(wù)復(fù)雜度自動(dòng)切換推理模式
? 專(zhuān)為在昇騰 NPU 上優(yōu)化部署,兼顧推理速度與推理深度
? 在 AIME、GPQA 等復(fù)雜推理基準(zhǔn)測(cè)試中,超越 Qwen3-8B、GLM4-9B 等同量級(jí)模型
盤(pán)古 Pro MoE 72B 模型:
? 基于分組混合專(zhuān)家(MoGE)架構(gòu)
? 總參數(shù)量 720 億,激活參數(shù)量 160 億
? 通過(guò)專(zhuān)家分組和組內(nèi)均衡激活,解決專(zhuān)家負(fù)載不均,提高部署效率
? 針對(duì)昇騰硬件深度優(yōu)化,推理速度高效(最高單卡 1528 tokens/s)
? 性能優(yōu)于同規(guī)模稠密模型,在多項(xiàng)公開(kāi)基準(zhǔn)測(cè)試中處于領(lǐng)先地位
? 支持大規(guī)模并行訓(xùn)練,具備高性?xún)r(jià)比推理方案
華為官方表示將誠(chéng)邀全球開(kāi)發(fā)者、企業(yè)伙伴及研究人員下載使用,反饋使用意見(jiàn),共同完善。
附上訪(fǎng)問(wèn)地址:https://gitcode.com/ascend-tribe
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.