《科創板日報》6月17日訊(記者 黃心怡) MiniMax行動了。
今日凌晨,總部位于上海的AI獨角獸企業MiniMax發布其自主研發的MiniMax-M1系列模型。M1被定義為“全球首個開源的大規模混合架構推理模型”。技術報告顯示, M1模型原生支持100萬Token的上下文窗口,這一數字與谷歌最新的Gemini 2.5 Pro持平,并支持業內最長的8萬Token推理輸出;其RL(強化訓練)成本下降一個量級,成本僅53萬美金;在工具使用場景(TAU-bench)中MiniMax-M1-40k超過Gemini-2.5 Pro。
開源技術報告截圖MiniMax對M1的定價采用階梯式,隨著輸入文本長度增加而提高。其中,0-32k Token:輸入0.8元/百萬Token,輸出8元/百萬Token;32k-128k Token:輸入1.2元/百萬Token,輸出16元/百萬Token;128k-1M Token:輸入2.4元/百萬Token,輸出24元/百萬Token。
前兩個檔位的定價均低于DeepSeek-R1,而第三個超長文本檔位則是DeepSeek模型目前尚未覆蓋的領域。此外,MiniMax方面表示,在其自有的App和Web端,M1模型將保持不限量免費使用。
報告還提到,在進行8萬Token的深度推理時,M1所需的算力僅為DeepSeek R1的約30%;生成10萬token時,推理算力只需要DeepSeek R1的25%。
MiniMax此次提出的CISPO算法,其收斂性能比字節跳動近期提出的DAPO算法快一倍,也優于DeepSeek早期使用的GRPO算法,這使得M1模型的整個強化學習階段僅使用了512塊英偉達H800 GPU,耗時三周,成本為53.5萬美元。MiniMax表示,這一成本“比最初的預期少了一個數量級”。
年初DeepSeek的爆火出圈后,其帶來的技術革新與成本降低,拉動了行業“技術平權”,更將壓力傳到其它大模型廠商,尤其是一路靠風險投資支持,進軍到決賽圈的大模型“六小虎”。在DeepSeek影響下,“六小虎”的商業化和融資變得極具挑戰。今年以來多家企業出現了聯合創始人、高管離職的情況。
為了能夠繼續留在牌桌上,“六小虎”正在積極破局求變。比如,零一萬物在年初調整策略,將大部分訓練和AI基礎設施團隊并入阿里,不再追求訓練超級大模型。百川智能則精簡B端業務,聲稱要聚焦AI醫療大模型。
剩下的Kimi、智譜、階躍星辰選擇留在通用人工智能的牌桌上,相繼上線了自研推理模型。而MiniMax此次發布并開源推理模型,也預示其做好了準備,將繼續加入這場大模型之爭中。
《科創板日報》記者獲悉,M1的發布是MiniMax“開源周”的序幕。在接下來的四個工作日里,MiniMax計劃每天發布一項新的技術或產品更新。
當前,大模型的競爭格局還面臨新的變數,那就是——DeepSeek R2的發布。
今年以來,DeepSeek對V3模型和R1模型進行了小版本試升級,但DeepSeek R2模型何時發布,遲遲未有消息。這不僅對DeepSeek自身意義重大,也是現有大模型玩家所面臨的一場競爭考驗。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.