終于!華為開源大模型來了。
剛剛,華為正式宣布開源盤古 70 億參數的稠密模型、盤古 Pro MoE 720 億參數的混合專家模型(參見機器之心報道:華為盤古首次露出,昇騰原生72B MoE架構,SuperCLUE千億內模型并列國內第一 )和基于昇騰的模型推理技術。
開源鏈接:https://gitcode.com/ascend-tribe
在公告中,華為表示,「此舉是踐行華為昇騰生態戰略的又一關鍵舉措,推動大模型技術的研究與創新發展,加速推進人工智能在千行百業的應用與價值創造。」
具體而言:
1. 盤古 Pro MoE 72B 模型權重、基礎推理代碼,已正式上線開源平臺。
2. 基于昇騰的超大規模 MoE 模型推理代碼,已正式上線開源平臺。
3. 盤古 7B 相關模型權重與推理代碼將于近期上線開源平臺。
此外,華為也正在邀請全球開發者、企業伙伴及研究人員下載使用,反饋使用意見,共同完善盤古模型。
近一兩個月,華為公開了一系列基于昇騰的大模型技術。但國內 AI 社區與開發者們一直對華為盤古開源模型抱有極大期待。
今天,華為大模型正式加入了開源大軍。
對華為開源的新模型,你怎么看?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.