總部位于上海的人工智能公司MiniMax發(fā)布了一款開源推理模型,在性能和成本方面對(duì)中國(guó)競(jìng)爭(zhēng)對(duì)手DeepSeek以及美國(guó)的Anthropic、OpenAI和Google發(fā)起挑戰(zhàn)。
MiniMax-M1于周一基于Apache軟件許可證發(fā)布,因此是真正的開源模型,這與Meta的Llama系列(采用非開源的社區(qū)許可證)和DeepSeek(僅部分采用開源許可證)形成鮮明對(duì)比。
MiniMax在博客文章中自豪地表示:"在復(fù)雜的生產(chǎn)力導(dǎo)向場(chǎng)景中,M1的能力在開源模型中名列前茅,超越了國(guó)內(nèi)閉源模型,接近領(lǐng)先的海外模型,同時(shí)提供業(yè)界最佳的成本效益。"
根據(jù)博客文章,M1在多個(gè)基準(zhǔn)測(cè)試(AIME 2024、LiveCodeBench、SWE-bench Verified、Tau-bench和MRCR)上與OpenAI o3、Gemini 2.5 Pro、Claude 4 Opus、DeepSeek R1、DeepSeek R1-0528和Qwen3-235B展開競(jìng)爭(zhēng),在不同程度上領(lǐng)先或落后于其他模型。雖然供應(yīng)商提供的基準(zhǔn)測(cè)試結(jié)果需要謹(jǐn)慎對(duì)待,但源代碼已在GitHub上公開,用戶可以獨(dú)立驗(yàn)證其性能。
MiniMax明確表示要取代DeepSeek成為行業(yè)顛覆者,特別強(qiáng)調(diào)其上下文窗口(能夠處理的輸入量)達(dá)到100萬(wàn)個(gè)token,與Google Gemini 2.5 Pro相當(dāng),是DeepSeek R1容量的八倍。
在輸出方面,該模型可以處理8萬(wàn)個(gè)token,優(yōu)于DeepSeek的6.4萬(wàn)token容量,但略遜于OpenAI o3的10萬(wàn)token輸出能力。
得到阿里巴巴集團(tuán)、騰訊和IDG資本支持的MiniMax聲稱,其Lightning Attention機(jī)制通過改善注意力矩陣計(jì)算方式,提高了訓(xùn)練和推理效率,使M1模型在處理長(zhǎng)上下文輸入和推理時(shí)具有優(yōu)勢(shì)。
該公司聲稱:"例如,在執(zhí)行8萬(wàn)token的深度推理時(shí),它只需要DeepSeek R1約30%的計(jì)算能力。這一特性使我們?cè)谟?xùn)練和推理方面都具有顯著的計(jì)算效率優(yōu)勢(shì)。"
這種更高效的計(jì)算方法,結(jié)合名為CISPO的改進(jìn)強(qiáng)化學(xué)習(xí)算法(詳見M1技術(shù)報(bào)告),轉(zhuǎn)化為更低的計(jì)算成本。
MiniMax聲稱:"整個(gè)強(qiáng)化學(xué)習(xí)階段僅使用512塊英偉達(dá)H800芯片運(yùn)行三周,租賃成本僅為53.74萬(wàn)美元。這比最初預(yù)期少了一個(gè)數(shù)量級(jí)。"
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.