99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

無需Attention的未來,RWKV-7能成為替代Transformer的那只黑天鵝嗎?

0
分享至


作者 | 周一笑
郵箱 | zhouyixiao@pingwest.com

在當今大模型領域,Transformer架構占據著主導地位。然而,盡管Transformer非常強大,但它的計算需求隨著文本長度呈平方級增長,這導致運行成本高昂,同時限制了其擴展能力。

與此相對,更為古老的RNN(循環神經網絡)架構雖然計算效率高,但通常無法達到Transformer的性能水平,并且訓練過程更為復雜和緩慢。

在這一背景下,由元始智能創始人彭博提出了RWKV架構。RWKV融合了Transformer和RNN的優點,在訓練階段可以像Transformer那樣并行計算,在推理階段又能像RNN那樣高效運行。隨著發展,RWKV現已成為隸屬于Linux基金會的開源非盈利組織,其代碼、模型和文檔均公開透明,核心項目RWKV-LM在GitHub上開源,形成了一個活躍的開發者社區。

自2021年8月首個實驗性版本RWKV-V1發布以來,RWKV架構經歷了多次重要迭代。它最初是對傳統循環神經網絡的改良嘗試,旨在解決處理長文本時的效率問題。2023年,RWKV-4實現了關鍵突破,使其能夠在普通硬件環境下高效處理各種語言和長篇文本。此后,RWKV逐漸被納入主流AI工具庫,RWKV社區的開發者甚至發現微軟Windows系統在Office組件更新后內置了RWKV的運行庫。

剛剛發布論文的RWKV-7是這一架構的最新進展,它采用創新的動態狀態演化技術,支持100多種語言,能夠編寫代碼,處理超長文本。RWKV-7系列發布了七個預訓練模型,參數規模從0.19億到29億不等,訓練token數量從1.6萬億到5.6萬億不等,適應不同應用場景的需求。


彭博稱RWKV-7設計靈感來自于“第一性原理”,核心想法是:模型的內部世界必須持續擬合外部世界。


這聽起來有點抽象,但我們可以把它想象成一個“聰明的學生”在學習和適應環境的過程。QKV-softmax-attention(常見于 transformer 模型),它的做法是把所有“問題-答案”對放在一起,然后通過比較新問題 q 和每個“問題” k 的相似度,來決定答案是什么。就像小學生每次考試前,把課本里的所有題目都翻一遍,找到和新問題最像的那個,再寫下答案。

而 RWKV-7 的方法不是每次都去翻課本,而是直接從這些“問題-答案”對中動態學到一個“變換規則”(k -> v 的映射)。這個規則就像小學生自己總結出的解題技巧,遇到新問題時,直接用這個技巧推導出答案。

1

性能驗證:超同尺寸模型

RWKV-的7創新在實際性能測試中也得到了驗證,在訓練數據遠低于 Qwen2.5、Llama3.2 等開源模型的前提下,RWKV-7-World 模型的語言建模能力在所有開源 3B 規模模型中達到 SoTA 水平。


RWKV團隊采用 Uncheatable Eval 方法——利用 2025 年 1 月之后的最新論文、新聞文章等實時數據,測試開源大語言模型的真實建模能力和泛化能力。


評測結果顯示,在同等參數規模的前沿模型中,RWKV-7 依然具備強競爭力,展現出優秀的適應性和泛化性能。團隊正在訓練數據更多的 RWKV7-G1 系列模型,目標是在這個榜單同樣超越所有其他前沿模型。


1

技術創新:動態狀態演化

RWKV-7究竟通過哪些技術創新實現了這些令人印象深刻的性能表現呢?根據由社區成員聯合撰寫的RWKV-7架構論文《RWKV-7 "Goose" with Expressive Dynamic State Evolution》,RWKV-7引入了一項名為“表達性動態狀態演化”的關鍵創新,這是其性能提升的核心所在 。具體來說,RWKV-7通過引入一種廣義化的delta規則,使模型能更好地理解和處理信息。

RWKV-7在讀取新信息時,有一種特殊的方式來更新其記憶,有點像記筆記。這種特殊的方式被稱為“廣義 Delta 規則”。

把模型想象成有一個草稿本,它在上面記錄了從目前為止的文本中學到的東西。當它看到一個新的詞或信息時,它需要決定如何更新這個草稿本。

最初的“Delta 規則”擦除一點它為該鍵存儲的舊信息,并添加一點新信息。它擦除和添加的數量由一個簡單的數字控制。現在,RWKV-7 的規則是“廣義的”,這意味著它更靈活、更強大。它不是只用一個數字來決定為一個鍵擦除和添加多少信息,而是使用更詳細的指令。

通過引入廣義Delta Rule,RWKV-7 使用 2 層即可實現 復雜度的 狀態跟蹤問題,使用 4 層即可識別所有正則語言。

簡單來說,Transformers在處理這些“正則語言”時有局限性。它們的能力被限制在一個叫 TC0 的計算類別里。TC0 就像是一個只能用固定步驟解決問題的工具箱,遇到某些復雜任務時就顯得力不從心。

而RWKV-7可以用固定的層數(也就是固定的計算步驟)處理所有正則語言。這意味著,不管語言規則有多復雜。

這個能力聽起來很理論,但實際上特別有用。RWKV-7 能更高效地解決一些需要“跟蹤狀態”的問題。什么是“跟蹤狀態”呢?舉個例子:

在讀一個長故事時,記住誰做了什么、事情是怎么發展的;

在理解一句復雜句子時,搞清楚每個詞之間的關系。

這些任務需要模型一邊讀一邊更新自己的“記憶”。RWKV-7 靠它的“狀態矩陣”來做到這一點。你可以把“狀態矩陣”想象成一個記事本,模型會在這上面記下看到的信息,還能靈活地“交換”信息或者改變記錄的方式(專業點叫“狀態轉換函數”)。


Hugging Face上的RWKV Gradio Demo提供了0.1B模型的交互體驗

應用方面,RWKV-7適用于語言建模和多模態應用,其高效處理長上下文的能力使其在文檔摘要、對話系統和代碼生成等領域具有優勢。其無注意力機制和恒定內存使用也使其適合資源受限的設備,潛在擴展到邊緣計算場景。

RWKV-7開發團隊已規劃了明確的技術發展方向,計劃通過擴充訓練數據集來支持更大規模模型的訓練,同時將致力于增強模型的思維鏈推理能力。

團隊還將評估采用DeepSeek近期研究中驗證有效的前沿技術,包括混合專家模型(MoE)架構、多token預測技術和FP8精度訓練等優化方案。

為了促進開放性、可復現性和采用,RWKV-7開發團隊在Hugging Face上發布了模型和數據集組件列表,并在GitHub上發布了訓練和推理代碼,所有這些資源均在Apache 2.0許可下提供,允許廣泛應用于研究和商業項目。

1

超越Transformer

Transformer廣泛用于自然語言處理和其他領域,但它在處理長序列時存在顯著的局限性。例如,對于百萬級別的上下文窗口,Transformer 的性能會顯著下降,限制了其在實際應用中的可擴展性。對于需要低延遲或在資源受限設備上運行的場景(如移動設備或實時系統),Transformer 的高計算成本和內存消耗成為瓶頸。

Mamba是另一個獲得相當多關注的 Transformer 替代方案,Transformer 如此流行,以至于提出它們的原始論文自發表以來的 8 年間獲得了超過 17.1 萬次引用,而提出 LSTM 的 1997 年論文則有 12.2 萬次引用。Mamba 論文有 2537 次引用,RetNet 有 350 次,xLSTM 有 31次,RWKV論文有510次引用,而谷歌DeepMind最新提出的Titans架構只有12次引用。

類似RWKV-7這樣的發展,即使還不會完全顛覆現有的范式,也會推動這一領域的進一步發展,AI的未來不僅將由更大的模型塑造,還將由更智能的架構設計引領。


點個“愛心”,再走吧

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
馬筱梅:他拿水果刀削掉我一塊肉!靠我賺錢的蛆!前夫實錘X丑聞

馬筱梅:他拿水果刀削掉我一塊肉!靠我賺錢的蛆!前夫實錘X丑聞

草莓解說體育
2025-05-03 05:49:07
礦產協議簽署后,克宮內部戰略分歧加?。啃刹哦敖灰椎乃囆g”

礦產協議簽署后,克宮內部戰略分歧加?。啃刹哦敖灰椎乃囆g”

鷹眼Defence
2025-05-03 17:12:11
怒砍1分,被罰5分!特魯姆普告急,老馬3-7到13-11,會師趙心童?

怒砍1分,被罰5分!特魯姆普告急,老馬3-7到13-11,會師趙心童?

劉姚堯的文字城堡
2025-05-03 19:53:32
誰注意到!北京晉級后全部人在握手擁抱,唯獨砍17+9悍將默默離開

誰注意到!北京晉級后全部人在握手擁抱,唯獨砍17+9悍將默默離開

弄月公子
2025-05-03 10:23:45
剛發布禁令,韓國就偷售稀土給美,中方反制:稀土以后別想了

剛發布禁令,韓國就偷售稀土給美,中方反制:稀土以后別想了

谷盟
2025-05-03 11:38:49
月牙泉景區萬人星空演唱會臨時取消!歌手周深緊急發文:大家一定要注意安全

月牙泉景區萬人星空演唱會臨時取消!歌手周深緊急發文:大家一定要注意安全

上觀新聞
2025-05-03 21:19:04
居民存款被“鎖死”?2025年起,個人存取現金將全部按“新規”來

居民存款被“鎖死”?2025年起,個人存取現金將全部按“新規”來

平說財經
2025-02-26 16:02:48
俄暗示中國,蘇聯的“恩情”不能忘,重提80多年前舊事

俄暗示中國,蘇聯的“恩情”不能忘,重提80多年前舊事

華山穹劍
2025-05-03 20:54:28
主動發聲,佩林卡醞釀交易,4年5600萬,東契奇迎來最佳搭檔

主動發聲,佩林卡醞釀交易,4年5600萬,東契奇迎來最佳搭檔

體育大朋說
2025-05-04 00:08:30
副教授3篇SCI換來和女學生19次開房,妻子爆猛料,女學生履歷曝光

副教授3篇SCI換來和女學生19次開房,妻子爆猛料,女學生履歷曝光

阿鳧愛吐槽
2025-03-30 18:18:12
全紅嬋為何又輸陳芋汐摘銀?跳水世界杯總決賽改制,陳若琳遭質疑

全紅嬋為何又輸陳芋汐摘銀?跳水世界杯總決賽改制,陳若琳遭質疑

體育大學僧
2025-05-03 23:30:18
79元起!小米剛上線的服務,真的太爽了

79元起!小米剛上線的服務,真的太爽了

劉奔跑
2025-05-02 23:26:34
張柏芝五一帶孩子出行車壞了,小Q吐槽媽媽十二年不換車,很會過

張柏芝五一帶孩子出行車壞了,小Q吐槽媽媽十二年不換車,很會過

娛圈小愚
2025-05-03 09:19:43
商務KTV小姐姐主動跟害羞的客戶十指緊扣會說明特別喜歡嗎?

商務KTV小姐姐主動跟害羞的客戶十指緊扣會說明特別喜歡嗎?

美好客棧大掌柜
2025-02-23 00:20:05
全球最爭議河流,長300公里寬200公里,專家也無法定義是河還是海

全球最爭議河流,長300公里寬200公里,專家也無法定義是河還是海

尚曦讀史
2025-05-03 21:00:03
關稅戰幫了中國大忙?這一戰略資源,正源源不斷的送入儲備庫

關稅戰幫了中國大忙?這一戰略資源,正源源不斷的送入儲備庫

石江月
2025-05-03 17:21:32
胡靜和朱兆祥婚姻的這條“規矩”真的可以學一學

胡靜和朱兆祥婚姻的這條“規矩”真的可以學一學

煙云過眼
2025-05-03 17:48:17
大事不好,美軍核轟剛撲向南海,英國也出手了,10艘艦艇殺將而來

大事不好,美軍核轟剛撲向南海,英國也出手了,10艘艦艇殺將而來

星辰故事屋
2025-05-02 10:53:53
日本正在做“戰爭”準備,目標中國,日智庫:解放軍死傷會超4萬

日本正在做“戰爭”準備,目標中國,日智庫:解放軍死傷會超4萬

車馬點兵V
2025-04-12 10:21:51
1-2大冷門,法甲第1轟然倒下,盧卡斯自擺烏龍+被對手轟入世界波

1-2大冷門,法甲第1轟然倒下,盧卡斯自擺烏龍+被對手轟入世界波

側身凌空斬
2025-05-04 00:59:26
2025-05-04 02:07:00
硅星人 incentive-icons
硅星人
硅(Si)是創造未來的基礎,歡迎來到這個星球。
2156文章數 10335關注度
往期回顧 全部

科技要聞

特朗普下手,英偉達對華“特供版”要改

頭條要聞

加州州長:我們不是美國 向中國伸出開放之手

頭條要聞

加州州長:我們不是美國 向中國伸出開放之手

體育要聞

北京請神馬布里?許利民真有“玄學”!

娛樂要聞

金秀賢遭多家品牌起訴 索賠近60億韓元

財經要聞

全程直擊!2025巴菲特股東大會

汽車要聞

易三方科技體驗日·北京站上演硬核駕控

態度原創

時尚
房產
本地
藝術
軍事航空

這4條裙子太火了,今年流行的風格都離不開它

房產要聞

最強書包官宣落位!??谶@個片區,將徹底引爆!

本地新聞

春色滿城關不住 | 花漾千陽!塬上秘境藏幾重詩意?

藝術要聞

故宮珍藏的墨跡《十七帖》,比拓本更精良,這才是地道的魏晉寫法

軍事要聞

美國將于6月14日舉行閱兵式

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 什邡市| 临泽县| 岳阳县| 牡丹江市| 拉萨市| 成都市| 本溪| 云南省| 会宁县| 隆昌县| 莱阳市| 温宿县| 昭平县| 仪陇县| 冷水江市| 旺苍县| 临澧县| 菏泽市| 阳新县| 周口市| 松滋市| 庆安县| 东宁县| 浮山县| 深州市| 西青区| 武安市| 蓝田县| 西昌市| 应城市| 寿阳县| 积石山| 会泽县| 浠水县| 平泉县| 昭觉县| 长海县| 墨玉县| 忻城县| 溧阳市| 马边|