藍鯨新聞5月30日訊 近日,華為在MoE模型訓練領域再進一步,推出參數規模達7180億的新模型“盤古Ultra MoE”。據悉,這也是全流程在昇騰AI計算平臺上訓練的準萬億MoE模型。訓練超大規模和極高稀疏性的MoE模型極具挑戰,訓練過程中的穩定性往往難以保障,為此盤古團隊在模型架構和訓練方法上進行了創新性設計。(藍鯨新聞 朱俊熹)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.