2025年剛過,中國AI技術在國際舞臺上持續閃耀,國產開源模型的集體爆發成為行業焦點。實際上在DeepSeek的開源模型爆火之前,中國的另一家公司MiniMax的MiniMax-01模型就已經發布和開源。目前MiniMax,與DeepSeek、阿里千問系列共同構成了國產開源模型的中流砥柱,展現出中國在AI開源領域的強大實力。
MiniMax 用實力成為“行業標桿”
MiniMax-01開源模型作為全球首個突破傳統Transformer架構限制的模型,其核心創新在于通過線性注意力機制實現了對4M長文本的高效處理能力,是 GPT-4o 的 32 倍、Claude-3.5-Sonnet 的 20 倍。被海外科技媒體、投資人及研究員認為一個來自中國的可以與OpenAI“掰手腕”的頂尖開源模型。
這一突破源自對AI基礎架構痛點的深刻洞察。傳統Transformer雖在自然語言處理領域取得巨大成功,但其核心的注意力機制存在二次計算復雜度(O(n2))的根本性缺陷:隨著輸入序列長度增加,計算量呈平方級增長,這不僅導致算力需求暴增,更成為長文本處理的瓶頸。
在技術路徑選擇上,研究界曾提出稀疏注意力方案,試圖通過選擇性忽略部分注意力矩陣來降低計算量。但MiniMax認為這本質上是以有損壓縮的方式逼近完整注意力(Full Attention)的效果。
而MiniMax團隊創新性地發現,傳統注意力機制中隱含的計算冗余恰為算法優化提供了空間——線性注意力將復雜度降至線性級別(O(n)),在完全保留信息交互能力的前提下實現無損優化。
這種架構級突破展現出顯著的技術優勢:當模型規模擴大時,線性注意力相較傳統方案的計算效率優勢呈指數級放大,尤其在處理超長文本場景中,其可擴展性為模型賦予了處理海量上下文信息的潛力。
這種長文本處理能力在即將到來的Agent時代具有戰略價值。智能體(Agent)需要持續記憶交互歷史、處理多輪復雜對話、整合跨文檔知識,這對模型的上下文窗口長度提出剛性需求。MiniMax-01的突破,標志著AI基礎架構從"算力堆砌"向"算法革新"的關鍵轉折。
同樣值得關注的是,MiniMax在多模態領域的持續探索,1 月 10 日發布的視頻模型 S2V-01,把傳統的輸入和計算成本降低到1% 。只需輸入一張圖片, 即可實現視覺細節的精確還原;2月24日上線了圖生視頻模型I2V-01-Director,與此前的文生視頻T2V-01-Director共同組成01-Director系列,使普通人如專業導演一樣,自如控制鏡頭語言,實現精細的創作控制。
MiniMax將這些技術運用到了HailuoAI以及Talkie上,極大地提升了用戶體驗。目前這兩款出海產品均在榜全球權威風投機構公布的a16z全球AI應用TOP50的web排行榜和app排行榜前列,其中海螺AI力壓可靈、Sora穩居全球視頻AI賽道top1。
原文鏈接:https://a16z.com/100-gen-ai-apps-4/
MiniMax的創新堅守與企業精神
正如MiniMax-01的架構創新以及不同領域的多模態布局,MiniMax以技術為驅動,以技術創新為核心不斷探索和突破AI技術的邊界。MiniMax CEO閆俊杰在采訪中表達的“好模型的本質是技術驅動,而模型是產品出現的驅動力”。DeepSeek的爆火以及海螺AI成為全球用戶訪問量第一的視頻網站,都充分證明了“技術驅動”可以帶來更多的用戶和市場認可。
閆俊杰還說“我們認為真正有價值的事,不是當前做得怎么樣,而是技術進化速度。而開源會加速技術進化,做得好的地方有鼓勵,不好的地方會有很多批評,外面的人也會有貢獻,這是我們開源的最大驅動力。”這一觀點體現了其對開源價值的深刻認識,不僅促進了自身技術的發展,更為整個AI行業帶來了更多的創新和可能性。
據了解MiniMax 即將在 4 - 5 月份發布基于 Linear Attention 架構的深度推理多模態模型,將融合Text&VL兩個模態,平衡文本能力和視覺理解能力,為AI技術的應用開辟更廣闊的前景。我們有理由相信,它將繼續引領行業的發展潮流,為 全球AI 技術的未來帶來更多的可能性,見證中國AI的持續輝煌。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.