99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

奧特曼的“溫和奇點”愿景,線性注意力的勝利?MiniMax-M1技術報告深度解析

0
分享至

OpenAI CEO 奧特曼前兩天發了一篇博文,名字叫「溫和的奇點」(The Gentle Singularity),文中有一句話是這么說的:


“Then focus on making superintelligence cheap, widely available, and not too concentrated with any person, company, or country.”

這段話明確指出,未來的超級智能(superintelligence)必須實現低成本、大規模普及,且不應被少數個人、公司或國家壟斷。換言之,AI 應像電力一樣普及——前提是要做好基礎設施建設并將價格壓到足夠低。然而,OpenAI 自身在這兩方面一直被人詬病:其一,自 GPT-3.5 以來一直采取閉源策略;其二,ChatGPT 在世界許多地區仍無法使用。

要讓 AI 真正“廉價且廣泛可用”,并滿足當下應用需求(奧特曼、黃仁勛等一眾將 2025 年稱為“Agent 元年”),至少需要具備以下三項能力:

  • 推理reasoning能力,對應了應運而生的各種復雜任務,傳統大模型思考能力有限,只有帶有推理能力的大模型才能搞定。

  • tool calling,所謂的Agent其實就是縮小版的人類,它得熟練使用各類不同的工具(聯網搜索,畫圖,調用程序等),并且最好跟現在的各種MCP,A2A協議適配。

  • 盡可能長的上下文context:很多大型文檔或者稍大點的開源repo需要消耗大量token,短的上下文別說工作,連資料都讀不完。

這三點需求正好體現了 AI 模型從“寫詩對對子”的玩具階段向“具備實際工作能力”的工具階段的演進。

而演進的速度其實受到了很多方面的制約,硬件、算法和架構缺一不可,現有的大模型大多基于英偉達的硬件,所以能夠做文章的地方主要就是架構和算法。


這次MiniMax-M1的發布,在這兩個方向都有不小的創新。

  • Lighting Transformer的創新性應用:在盡可能保留信息的前提下降低了訓練成本

  • Hybrid MoE架構:適應Lighting Transformer,Dense級別的消耗,10x大小模型性能

  • RL算法創新:CISPO

論文以及開源代碼地址:https://github.com/MiniMax-AI/MiniMax-M1

技術報告地址:https://arxiv.org/abs/2506.13585

前兩個算架構的創新性應用,特別是Lighting Transformer的應用,現有的絕大多數大模型都采用的是傳統的Transformer結構,這個結構圖估計大家見過非常多次了。


Transformer這個圖復雜,但其實它的原理很簡單,就是把一句話的每個詞之間的關系都找出來,比如我吃飯,它會找到(我,吃)(我,飯)(吃,飯)這些關系,但這只有三個字,如果字數變數,關系數量直接翻倍(3->6)。


特別是很多朋友喜歡直接把一本幾十萬字的書扔給AI分析,那對于顯卡的負擔可想而知,而Lighting Transformer的本質就是盡可能的保證準確的前提下,降低對于計算資源的消耗。這就是Lighting Transformer的發力的地方,它的原理其實在數學上很簡單,傳統的Transfomer需要Q*K^T*V,QK這兩個數的乘積會隨著輸入文字的長度劇烈的擴張,也就說傳統的方法好用,但是碰到超長的文本,就會算的非常吃力。


而Lighting Transformer可以說就是利用了數學上的乘法定律,A*B*C = A*(B*C),只是讓后面兩個數先乘,就這簡單的一步就可以將所需要的計算量降低很多。

但有一個問題,那就是在數學角度上看起來很直觀的公式,真正到了實際應用中卻非常難以實現,因為有非常多的瓶頸限制。MiniMax-M1用的lighting transformer其實并不是簡單的線性注意力,而是一個針對現代GPU硬件特性進行深度優化I/O-aware的變體,它的存在可以讓理論盡可能的貼近了現實。


其實除了M1用的這個lighting transformer,LLM領域也有幾個很火的架構,分別是Mamba和RWKV,都比傳統的Transformer處理速度要快很多,但是他們的局限性也很強,那就是碰到超長上下文的時候會捉襟見肘,在前LLM時代還能行,但agent時代明顯不太夠用了。


特別的是M1的架構也不是純Lighting Transformer,而是每7層Lighting后會加一層傳統的softmax transformer,因為只要省算力,那肯定會有代價,這是一種深思熟慮的工程權衡。

這種設計體現了一種務實的架構理念:在享受線性注意力帶來的巨大計算和內存效率的同時,周期性地利用標準softmax注意力的能力來校準和鞏固模型的表征。


感興趣的朋友可以看看,純粹的線性注意力模型雖然高效,但學術界已經指出其存在一些固有缺陷,例如可能導致表征能力的“秩崩潰”(low-rank nature),從而在需要精細區分和復雜關系建模的任務上表現不佳 。

論文地址:

https://arxiv.org/html/2411.07635v1 https://arxiv.org/abs/2411.07635

可以看到新架構的優勢,同樣的生成長度(橫軸),M1的消耗幾乎是直線,而DeepSeek-R1和Qwen的消耗明顯大的多,從實際效果中也印證了線性注意力的效果。


另一部分的創新就是RL算法,現在新出的大模型基本上都是推理大模型,而推理大模型的前身就是傳統大模型,多加的步驟就是post-training,相當于給一個具備了高中知識的人灌了一大堆博士級別的思考方式,本質上知識量沒變,只是掌握了更多的思考方式和技巧。

這個核心就是用強化學習RL來做,主流的算法有兩個,PPO(Proximal Policy Optimization)、GRPO(Group Relative Policy Optimization),其中最近的大模型基本上都是后者,比如DeepSeek,Qwen3等等,它倆的核心思路都是相同的,都是讓模型朝著性能提升的方向走。

但是M1的作者們發現了一個問題,那就是Token Clipping,通俗來講,就是你在學數學,對于一個很難的問題,你突然有了靈感,比老師設想的解題速度快很多,老師就直接把你的做法否定了,這么做當然可以讓你更扎實的學知識,但是也有問題,那就是把你那些靈光乍現的經驗人為的遏制了。


但問題是在Agent時代,模型需要這種靈感乍現,需要這種深度的長思考能力。

本文提出的CISPO就是發現了這個問題會導致模型的性能提不上去,特別是采用了獨特的Lighting Transformer,CISPO的核心思路就是不限制任何思路,只是“提醒”,如果思考的太快,那就提示“慢一點兒”,這種溫和的約束可以保持大模型的訓練目標是正向向前的同時,還能夠穩定的學到所有重要的地方。

紅色的部分(CISPO)實現了兩倍的訓練速度,同時效果還最好。


同時有架構和算法上的創新,MiniMax-M1的性能也很不錯,跟世界上最強的幾個模型相比也很不錯,特別是跟Agent相關能力的維度上,幾乎跟最強的幾個閉源模型齊平了。


別忘了,M1的幾個特性都是奔著性價比去的,你看文中的這句話,3周、512塊H800(DeepSeek R1同款),0.53M美元。


這是什么意思,也就是只用了53萬美元就完成了RL訓練,這釋放出的信號對于大模型領域的玩家都是非常積極的,你想,一個世界梯隊的Reasnoing大模型,只需要租512張H800,三周時間就能迭代一輪,相比起之前動輒幾個月才能完成的訓練,M1讓大模型這盤蛋糕變的更大,成本直接降低了一個數量級,顯而易見的入場門檻也更加友好了。

所以說,M1的這篇論文要傳達并不是單純的性價比或者技術力,更多的是一種新路徑的探索,它不僅是一個在多個基準測試上取得優異成績的模型,它更是一次成功的技術宣言。它宣告了通過底層的架構和算法創新,我們完全有能力構建出既強大又高效的大規模AI系統。它所開辟的這條非Transformer、高效率、高性能的道路,為整個AI領域邁向更復雜、更智能、更普惠的未來,提供了一份極具價值的參考設計。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
形勢徹底逆轉了,中國國運大爆發,綜合國力加速崛起了

形勢徹底逆轉了,中國國運大爆發,綜合國力加速崛起了

牛牛叨史
2025-06-19 16:08:09
黃楊鈿甜新劇即將開播,耳環事件不調查不回應,沒有結果便是結果

黃楊鈿甜新劇即將開播,耳環事件不調查不回應,沒有結果便是結果

芊手若
2025-06-23 17:06:26
伊朗稱擊落以色列130余架無人機

伊朗稱擊落以色列130余架無人機

財聯社
2025-06-23 20:59:58
重磅!火箭成功引進杜蘭特后,擬以老將底薪合約招募三屆東部全明星球員

重磅!火箭成功引進杜蘭特后,擬以老將底薪合約招募三屆東部全明星球員

夕落秋山
2025-06-23 17:58:34
塞爾:貝林厄姆術后將缺席2-3個月,預計將在十月份傷愈復出

塞爾:貝林厄姆術后將缺席2-3個月,預計將在十月份傷愈復出

懂球帝
2025-06-23 19:53:09
連中7發,美基地被炸,伊朗關鍵時刻手軟,普京:全力支持伊朗

連中7發,美基地被炸,伊朗關鍵時刻手軟,普京:全力支持伊朗

楊哥歷史
2025-06-23 18:59:34
中紀委劃清飯局紅線:這三類飯局不能去,其他放心吃!

中紀委劃清飯局紅線:這三類飯局不能去,其他放心吃!

朗威游戲說
2025-06-23 12:41:01
韓媒:朝鮮電視臺把進球的李剛仁碼掉了,也沒有播報進球球員

韓媒:朝鮮電視臺把進球的李剛仁碼掉了,也沒有播報進球球員

懂球帝
2025-06-23 16:11:13
小沈陽女兒被曝出道數據慘淡,粉絲僅600個MV播放量低,沒有市場

小沈陽女兒被曝出道數據慘淡,粉絲僅600個MV播放量低,沒有市場

星河也燦爛
2025-06-23 16:50:41
春蘭杯決賽楊楷文2-1樸廷桓奪冠,首次加冕世界冠軍頭銜

春蘭杯決賽楊楷文2-1樸廷桓奪冠,首次加冕世界冠軍頭銜

直播吧
2025-06-23 16:43:25
外媒:日韓澳領導人取消出席北約峰會

外媒:日韓澳領導人取消出席北約峰會

參考消息
2025-06-23 21:57:17
北京一女子地鐵上打昏臨產婦女,一巴掌打碎自己享受的退休生活

北京一女子地鐵上打昏臨產婦女,一巴掌打碎自己享受的退休生活

罪案洞察者
2025-06-21 11:16:26
新娘臨時要18萬下車費,新郎說去籌錢卻未歸,新娘趕到公婆家愣了

新娘臨時要18萬下車費,新郎說去籌錢卻未歸,新娘趕到公婆家愣了

磊子講史
2025-06-23 15:15:01
大反轉!鄭智下課懸念揭曉,新身份曝光,已任足協管理層

大反轉!鄭智下課懸念揭曉,新身份曝光,已任足協管理層

大秦壁虎白話體育
2025-06-23 17:51:52
終于被打痛了,伊朗再發1噸級集束彈,同時炸毀以色列3大設施

終于被打痛了,伊朗再發1噸級集束彈,同時炸毀以色列3大設施

獵火照狼山
2025-06-22 20:53:32
陰毛有什么作用?要刮掉嗎?陰毛變白預示著什么?很多人還不知道

陰毛有什么作用?要刮掉嗎?陰毛變白預示著什么?很多人還不知道

醫者榮耀
2025-06-22 12:05:07
王健林透露真相?中國手握“兩套房”的家庭,注定或迎來3個結果

王健林透露真相?中國手握“兩套房”的家庭,注定或迎來3個結果

巢客HOME
2025-03-04 08:45:03
河北一鋼鐵公司宣布解散!

河北一鋼鐵公司宣布解散!

掌中邯鄲
2025-06-22 11:04:44
官方曬雷霆奪冠定妝照!亞歷山大兩座獎杯 杰威霍姆格倫滿臉笑容

官方曬雷霆奪冠定妝照!亞歷山大兩座獎杯 杰威霍姆格倫滿臉笑容

羅說NBA
2025-06-23 15:29:18
潘粵明、張雨綺、姜超鐵三角重聚,攜《巫峽觀山》欲掀收視狂潮

潘粵明、張雨綺、姜超鐵三角重聚,攜《巫峽觀山》欲掀收視狂潮

糊咖娛樂
2025-06-23 16:36:42
2025-06-23 23:15:00
平凡AI incentive-icons
平凡AI
高校AI從業者
26文章數 23關注度
往期回顧 全部

科技要聞

售出千萬臺!他卻說"只想做下一代AI終端"

頭條要聞

玉淵譚天:美軍轟炸伊朗的武器僅美國有 但掏空了老本

頭條要聞

玉淵譚天:美軍轟炸伊朗的武器僅美國有 但掏空了老本

體育要聞

比起雷霆三少,他才是真正隊魂

娛樂要聞

魏大勛和秦嵐沒分手!

財經要聞

以伊沖突升級,對經濟和股市影響有多大?

汽車要聞

真香價格+質保承諾 別克E5很難讓人拒絕了

態度原創

旅游
數碼
健康
時尚
家居

旅游要聞

熱聞|清明假期將至,熱門目的地有哪些?

數碼要聞

500元拿下240Hz產品?暑期裝機別錯過這些型號

呼吸科專家破解呼吸道九大謠言!

50+姐姐的穿搭小心機:不裝嫩不扮老,這樣穿才顯貴又舒服

家居要聞

山水之間 墨染風雨云間

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 荔浦县| 张家界市| 方城县| 红河县| 吉林省| 拜泉县| 万荣县| 剑河县| 富民县| 介休市| 吴旗县| 浮梁县| 西和县| 毕节市| 怀仁县| 阿拉尔市| 赞皇县| 宜兰县| 平潭县| 珲春市| 宁阳县| 鱼台县| 绵竹市| 金川县| 灌阳县| 奉贤区| 来凤县| 辉南县| 体育| 绥阳县| 咸宁市| 海林市| 屏东市| 普安县| 闽侯县| 贡山| 申扎县| 南丰县| 泽州县| 重庆市| 吉安县|