當DeepSeek的推理模型震撼全球AI圈時,一家估值200億人民幣的中國獨角獸正悄然磨刀霍霍,準備用僅53萬美元的訓練成本和顛覆性架構設計,向這個新貴發起正面挑戰。
17日,AI創業公司MiniMax發布了其首款推理模型M1,根據基準評測,M1性能超越國內閉源模型,接近海外最領先模型,部分任務超過DeepSeek、阿里、字節,以及OpenAI、谷歌和Anthropic等最新最強的開閉源模型。
這場較量的核心不僅在于性能,更在于效率——與DeepSeek R1相比,在生成64K token時,M1消耗的算力不到其50%;在100K token時,僅為其25%。
MiniMax稱,M1的整個強化學習過程僅使用512塊英偉達H800 GPU訓練三周,租賃成本53.74萬美元(約合380萬人民幣)。這一成本控制"比最初預期少了一個數量級"。MiniMax創始人&CEO閆俊杰發文表示:“第一次感覺到大山不是不能翻越。”
MiniMax-M1:混合專家架構與線性注意力機制
MiniMax-M1采用了混合專家(MoE)架構和線性注意力機制(Lightning Attention),這是對傳統Transformer架構計算瓶頸的直接挑戰。
“這種設計理論上能夠高效地將推理長度擴展到數十萬 token。”MiniMax表示,這還能帶來計算成本的大幅下降,“這個特性使我們在訓練和推理的時候都有很大的算力效率優勢”。
該模型總參數達4560億,每token激活參數459億,支持高達100萬Token的上下文輸入——這一數字是DeepSeek R1的8倍,與谷歌Gemini 2.5 Pro并列業內最高。
在17個主流評測集的測試中,M1在軟件工程能力測試SWE-bench上取得超過55%的成績,雖未達到海外頂尖模型水準,但超過了DeepSeek-R1以及阿里和字節的同類產品。在長上下文理解任務中,M1在三項基準測試上全面超越所有開源模型,僅以微弱差距落后于Gemini 2.5 Pro,位列全球第二。
成本革命:380萬人民幣的強化學習實驗
MiniMax聲稱,M1的整個強化學習過程僅使用512塊英偉達H800 GPU訓練三周,租賃成本53.74萬美元(約合380萬人民幣)。這一成本控制"比最初預期少了一個數量級"。
公司還開發了名為CISPO的新型強化學習算法,在數學測試基準AIME的實驗中,該算法比字節近期提出的DAPO算法實現了兩倍加速,僅需50%的訓練步驟就能達到相同表現。
與DeepSeek R1相比,在生成64K token時,M1消耗的算力不到其50%;在100K token時,僅為其25%。
區間定價策略!MiniMax還有更多更新
目前,MiniMax-M1已經對外開源,并在MiniMax APP和Web端免費升級。在API價格方面,MiniMax采用了與字節豆包1.6相同的"區間定價"策略。
在0-32k和32k-128k輸入長度區間,M1的價格相比DeepSeek-R1(輸入4元/百萬token,輸出16元/百萬token)更具性價比。對于128k-1M的最長輸入區間,DeepSeek模型甚至不支持此長度。
這一定價策略使M1成為繼豆包之后的又一"價格殺手",開發者評價其為"性價比新王"。
"AI六小龍"的生存博弈
作為騰訊和阿里巴巴支持的"AI六小龍"成員之一,MiniMax仍在堅持基礎研究。MiniMax創始人兼CEO閆俊杰發文表示:"第一次感覺到大山不是不能翻越。"
據搜狐科技報道,M1僅是該公司為期5天發布周的首個產品,后續還將發布智能體應用,并在視頻、音樂等模型層面帶來更多更新。
MiniMax認為,M1的高效架構將在未來智能體應用中具有獨特優勢。"未來智能體需要數十到數百個回合進行推理,同時整合來自不同來源的長上下文信息,"該公司表示。目前,MiniMax正在海外內測智能體應用,主打代碼、多模態等能力。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.