MiniMax正在舉行為期5天的開源周活動!首日正式開源最新推理模型MiniMax-M1,重新定義長文本推理新標桿- 全球最長上下文窗口:
支持100萬token輸入,8萬token輸出
開源模型中最先進的智能體應用表現
突破性訓練效率:僅耗資53.47萬美元完成強化學習訓練
MiniMax是全球首個開放權重的混合注意力大規模推理模型——MiniMax-M1。
該模型采用創新的混合專家架構(MoE)與閃電注意力機制相結合的設計方案,基于此前發布的MiniMax-Text-01模型(MiniMax et al., 2025)研發而成,總參數量達4560億,單token激活參數為459億。M1模型原生支持100萬token的上下文長度,是DeepSeek R1上下文窗口的8倍。其搭載的閃電注意力機制顯著提升了推理計算效率——以10萬token生成為例,M1的浮點運算量僅為DeepSeek R1的25%。這些特性使M1特別適合需要處理長文本輸入和深度思考的復雜任務
在訓練方面,MiniMax-M1通過大規模強化學習(RL)覆蓋了從傳統數學推理到沙盒式現實軟件工程環境的多樣化場景。除了閃電注意力機制自帶的RL訓練效率優勢外,還提出了創新性RL算法CISPO:該算法通過裁剪重要性采樣權重而非token更新的方式,顯著優于其他主流RL變體。混合注意力架構與CISPO算法的結合,使得MiniMax-M1在512張H800 GPU上的完整RL訓練僅需三周即可完成,租賃成本低至53.47萬美元。同步開放了4萬和8萬思維預算的兩個版本,其中4萬版本是8萬完整訓練過程的中間階段
在標準基準測試中,模型與DeepSeek-R1、Qwen3-235B等頂尖開放權重模型相比具有可比或更優表現,尤其在復雜軟件工程、工具調用和長上下文任務中展現突出優勢。通過高效的推理計算擴展,MiniMax-M1為下一代語言模型智能體應對現實挑戰奠定了堅實基礎
模型已開源發布:
https://github.com/MiniMax-AI/MiniMax-M1
Hugging Face模型庫:
https://huggingface.co/collections/MiniMaxAI/minimax-m1-68502ad9634ec0eeac8cf094GitHub
技術報告:
https://github.com/MiniMax-AI/MiniMax-M1/blob/main/MiniMax_M1_tech_report.pdf
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.