99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

陳丹琦團隊如何「抓住」關鍵緩存,解放LLM內存?

0
分享至

機器之心報道

機器之心編輯部

普林斯頓大學計算機科學系助理教授陳丹琦團隊又有了新論文了。



近期,諸如「長思維鏈」等技術的興起,帶來了需要模型生成數萬個 token 的全新工作負載。

大多數語言模型都基于 Transformer 架構,其在進行自回歸解碼(即逐字生成文本)時,需要將所有先前 token 的注意力狀態存儲在一個名為 KV 緩存的內存區域中。



KV 緩存是模型進行快速推理的基石,但它的大小會隨著輸入文本的長度線性增長。例如,使用 Llama-3-70B 模型處理一個長度為 128K token 的提示(這大約相當于 Llama 3 技術報告本身的長度),就需要分配高達 42GB 的內存專門用于存儲 KV 緩存。

許多先前的工作意識到了這個問題,并提出了從內存中丟棄(驅逐)部分鍵值對的方法,以實現所謂的「稀疏注意力」。然而,在一個公平的環境下對它們進行橫向比較卻異常困難。



生成過程 = 預填充(對輸入進行前向傳播并保存鍵值對)+ 后填充(一次解碼一個輸出詞元)。

有些論文旨在加速預填充階段;另一些則忽略該階段,轉而致力于最小化后填充階段的內存開銷。同樣,有的研究側重于吞吐量,而另一些則著力于優化內存使用。

陳丹琦團隊提出了「KV 足跡」作為一種統一的度量標準,它是在所有時間步中,未被逐出的鍵值緩存條目所占比例的聚合值。這一個指標就同時涵蓋了預填充和解碼兩個階段的全部開銷,使得在同等基礎上比較不同方法成為可能。



  • 論文標題:Cache Me If You Can: How ManyKVsDoYouNeed for Effective Long-Context LMs?
  • 論文地址:https://arxiv.org/pdf/2506.17121v1
  • 代碼地址: https://github.com/princeton-pli/PruLong

為了確保比較的實用價值,團隊定義了「關鍵 KV 足跡」:即在模型性能相對于完整的全注意力機制不低于 90% 的前提下,一個方法所能達到的最小 KV 足跡。這個「90% 性能」的硬性標準,確保了我們比較的是真正有用的、未嚴重犧牲模型能力的優化方法。

該度量標準揭示了先前 KV 驅逐方法存在的高峰值內存問題。其中后填充驅逐由于與預填充階段的驅逐不兼容,導致其 KV 足跡非常高。團隊對這類方法進行了改進,使其能夠在預填充期間驅逐 KV,從而顯著降低了 KV 足跡。

接著,團隊轉向「新近度驅逐」方法,并在此基礎上提出了PruLong,這是一種端到端的優化方法,用于學習哪些注意力頭需要保留完整的 KV 緩存,而哪些則不需要。PruLong 在節省內存的同時保持了長上下文性能,其 KV 足跡比先前的方法小12%,并且在具有挑戰性的召回任務中保持了原有的性能。

KV 緩存驅逐的統一框架

測量關鍵的 KV 占用空間



KV 緩存的存儲消耗會隨著提示長度和生成長度的增加而線性增長,研究人員提出了許多方法來解決這一開銷問題。總體而言,這些方法通過稀疏化注意力模式,從而允許某些 KV 條目被驅逐。

然而,這些方法針對推理流程的不同階段進行了定制:有些方法在預填充階段之后丟棄 KV 條目,而另一些方法則在預填充階段也對 KV 緩存進行修剪。這使得對不同方法進行公平且全面的比較變得困難。首先探討為何常用的 KV 緩存大小指標無法衡量模型在實際應用中的實用性。

在實際應用中,對長上下文進行單次前向傳播的預填充操作成本高昂。對于長輸入序列,將輸入序列分割成多個塊,并在多次前向傳播中處理這些塊的分塊預填充方法正日益成為標準實踐。這種方法通常能夠減少與長輸入相關的峰值 GPU 內存占用,并使得較短提示的解碼過程能夠與較長提示的額外塊同時進行。

此外,像多輪對話或交錯工具調用等場景,還需要多個解碼和預填充階段,這就需要一種全面的方法來衡量 KV 占用空間。而推測性解碼進一步模糊了預填充階段和解碼階段之間的界限,因為解碼過程變得更加依賴計算資源。

在考慮預填充和解碼過程中都進行多次前向傳播的推理情況時,「KV 占用空間」應考慮隨時間變化的內存使用情況。例如,它應反映出在分塊預填充過程中,是否在預填充完成之前就已經驅逐了 KV 條目。

具體的推理過程由輸入長度、輸出長度以及因方法而異的實現細節來表征。由于缺乏能夠捕捉所有這些細微差別的指標,本研究提出了一種理想化的指標,該指標能夠:(1)跟蹤整個預填充和解碼過程中的 KV 緩存內存使用情況;(2)考慮每個 KV 條目的生命周期,從而實現對不同方法的公平且全面的比較。

本研究檢查這些方法的注意力模式(圖 1),并將每個鍵值(KV)條目分類為:活躍的(在當前步驟中使用)、非活躍的(在當前步驟中存儲但未使用)或被驅逐的(在任何未來的步驟中都未使用,并從內存中移除)。本研究將 KV 占用空間定義為所有時間步中未被驅逐的注意力條目的數量。該數值被歸一化為完全因果注意力。



例如,在圖 1 中,KV 占用空間為 26/36=72.2%。一種理想的方法會盡早驅逐 KV,以盡量減少占用空間。本研究考慮了另一種指標,該指標跟蹤注意力矩陣中的峰值 KV 占用率。在實驗中,這兩種指標得出的結論相似。

本研究還討論了方法與實際性能指標(如總令牌吞吐量和 GPU 內存利用率)之間的關系。研究發現,在許多情況下,KV 占用空間與吞吐量密切相關,但具體的排名取決于 KV 驅逐之外的實現細節——不同方法在不同實現框架下的實際效率差異很大。



高效長上下文推理的現有方法

本研究調研了高效的長上下文方法,并討論了它們如何契合本研究的 KV 占用空間框架。表 1 概述了主要方法,展示了這些方法如何進行不同的權衡以及使用不同的稀疏性概念。



動態和預填充稀疏性方面:Native Sparse Attention、MoBA、QUEST 和 TokenButler 將 KV 緩存視為兩級層次結構,僅將相關的注意力塊從高帶寬內存(HBM)加載到片上 SRAM 進行處理。像 MInference 和 FTP 這類技術,在預填充階段使用動態稀疏注意力來近似全注意力。動態稀疏性方法會產生更多非活躍的 KV,能夠提升吞吐量,但它們并未減少 KV 內存,因此這些方法與本研究的關注點正交。

近期性驅逐:先前的研究確定了流式注意力頭,這些注意力頭僅關注局部滑動窗口和一組初始的「匯聚令牌」。驅逐遠距離的鍵值(KV)條目會大幅減少 KV 占用空間(圖 2),因為在上下文長度增加時,KV 緩存的大小保持固定,并且這種方法可在預填充和解碼過程中應用。然而,近期性驅逐可能會「遺忘」相關的遠距離上下文,這促使 DuoAttention 和 MoA 僅將一部分注意力頭轉換為流式頭。作為 KV 緩存壓縮的有前景的候選方法,后續將更詳細地討論這些方法。

后填充驅逐:我們使用「后填充驅逐」這一術語來指代在預填充階段結束后從鍵值(KV)緩存中刪除令牌的方法。這些方法依賴于通常基于注意力分數的啟發式規則來識別上下文中最重要鍵值對。這些方法可以在預填充后大量修剪鍵值對,并在解碼過程中減少 KV 內存。然而,在具有長提示和短生成的推理場景中,由于所有 KV 條目在預填充期間都保存在內存中,這也會在驅逐前導致相當大的峰值內存,后填充驅逐只能實現有限的 KV 占用空間減少。

正交技術:量化通過降低 KV 緩存的精度而非基數來節省內存,并且可以與本文考慮的任何方法結合使用。另一個方向是在預訓練新語言模型之前設計內存高效的架構。這可能涉及在查詢或層之間重用 KV 狀態,降低鍵值維度,或者交錯全局和局部注意力層。其他方法是用循環層、線性注意力或狀態空間層替換 softmax 注意力。這些方法與 KV 驅逐正交。

PruLong:一種用于注意力頭專業化的端到端方法

本研究探討過:驅逐「陳舊」鍵值對(KVs)雖能顯著降低內存占用,但可能導致重要歷史信息的丟失。這一發現推動了后續研究工作,旨在識別哪些注意力頭關注全局上下文、哪些聚焦局部上下文,從而僅對局部注意力頭中的 KVs 執行驅逐操作。

DuoAttention 將注意力頭分為兩類:檢索頭,從整個上下文中召回相關信息;流式頭,僅關注最近的 token 和輸入序列開頭的少量「匯聚」token。DuoAttention 通過將注意力機制表示為流式注意力和全注意力的疊加,并通過參數化來學習注意力頭的類型。



MoA 是另一種使用自然文本的方法,但當序列長度超過 8K 個 token 時,由于需要顯式存儲完整的注意力矩陣,難以擴展。

雖然 DuoAttention 在實證中表現出色,但團隊發現了幾種進一步降低其關鍵 KV 占用空間的方法。團隊結合這些見解,設計出 PruLong(長程精簡注意力機制),一種用于 KV 驅逐的端到端方法。PruLong 像 DuoAttention 一樣將注意力頭分為兩類,但在訓練目標、參數化和訓練數據方面進行了創新。接下來將依次介紹這些內容。

  • 下一個 token 預測損失

PruLong(長程精簡注意力機制)直接最小化混合注意力模型的下一個 token 預測損失,而非最后一個隱藏狀態的重建誤差,這與這些模型在文本生成中的使用方式更為契合。

  • 針對注意力類型優化離散掩碼







  • 利用自然長上下文數據

PruLong 利用自然長上下文數據。DuoAttention 的合成訓練數據僅需要簡單的長程回憶能力,而實際應用場景可能需要更復雜的能力。PruLong 由高天宇等人在自然長上下文預訓練數據上進行訓練,這些數據包含代碼倉庫和書籍等,具有多樣的長程依賴關系。

PruLong 論文地址:https://arxiv.org/abs/2410.02660

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
暴雷40億!康養巨頭跌落神壇,4萬老人血本無歸!

暴雷40億!康養巨頭跌落神壇,4萬老人血本無歸!

藍色海邊
2025-06-19 05:37:18
一覺醒來,河南教培行業天塌了!暑期全省嚴禁任何形式學科類培訓

一覺醒來,河南教培行業天塌了!暑期全省嚴禁任何形式學科類培訓

小人物看盡人間百態
2025-06-24 09:11:36
6000萬鎊,曼聯簽沃特金斯,1800萬歐,費內巴切簽桑喬

6000萬鎊,曼聯簽沃特金斯,1800萬歐,費內巴切簽桑喬

足球王國
2025-06-24 19:52:24
大量網友呼吁:微信你換回來吧,這樣好丑啊!

大量網友呼吁:微信你換回來吧,這樣好丑啊!

瀟湘晨報
2025-06-24 08:17:09
尼日爾暫緩 4 億美元款項并調整中企人員,我方早有預案妥善應對

尼日爾暫緩 4 億美元款項并調整中企人員,我方早有預案妥善應對

星宇共鳴
2025-05-21 17:58:05
醫生講課費禁令來了

醫生講課費禁令來了

賽柏藍
2025-06-24 20:15:03
NBA傳聞:湖人隊與熱火隊就安德魯·威金斯的交易進行商討

NBA傳聞:湖人隊與熱火隊就安德魯·威金斯的交易進行商討

好火子
2025-06-25 03:20:05
那些年敢露出腋毛的老一輩女星,如今看她們的自然美真讓人感慨

那些年敢露出腋毛的老一輩女星,如今看她們的自然美真讓人感慨

橙星文娛
2025-06-24 11:58:46
交易已達成,鵜鶘和奇才完成CJ·麥科勒姆和喬丹·普爾等4人交易

交易已達成,鵜鶘和奇才完成CJ·麥科勒姆和喬丹·普爾等4人交易

好火子
2025-06-25 03:36:16
李在明突然改變主意,不再執著于見特朗普,派團訪華并力挺知華派

李在明突然改變主意,不再執著于見特朗普,派團訪華并力挺知華派

興史興談
2025-06-23 17:15:22
宮魯鳴緊急呼喚劉禹彤,女籃內線與日本14號交鋒,如何制約田中?

宮魯鳴緊急呼喚劉禹彤,女籃內線與日本14號交鋒,如何制約田中?

小明侃文體
2025-06-24 11:47:36
最高9.7分!這3部神級美劇,值得通宵去看

最高9.7分!這3部神級美劇,值得通宵去看

來看美劇
2025-06-24 22:31:04
居民退休金無需繳納個人所得稅

居民退休金無需繳納個人所得稅

中國經營報
2025-06-24 22:36:21
“三伏熱不熱,就看六月初一”,今日六月初一,三伏天會很熱嗎?

“三伏熱不熱,就看六月初一”,今日六月初一,三伏天會很熱嗎?

書中自有顏如玉
2025-06-25 04:07:36
以色列不顧特朗普要求繼續空襲德黑蘭

以色列不顧特朗普要求繼續空襲德黑蘭

參考消息
2025-06-24 21:19:11
江蘇一男子飆車致女友死亡后,堅持改姓替女友盡孝,哄得二老贈與房產,20年后卻對簿公堂……

江蘇一男子飆車致女友死亡后,堅持改姓替女友盡孝,哄得二老贈與房產,20年后卻對簿公堂……

二胡的歲月如歌
2025-06-24 19:20:08
“屎”無前例!一廁所雷人提示:便后請沖水,以免有人在此玩大便

“屎”無前例!一廁所雷人提示:便后請沖水,以免有人在此玩大便

火山詩話
2025-06-24 07:11:41
你無意中看到過啥辣眼睛的東西?網友:小時候對門阿姨在盆里洗澡

你無意中看到過啥辣眼睛的東西?網友:小時候對門阿姨在盆里洗澡

娛樂圈人物大賞
2025-05-08 00:10:06
美伊博弈正膠著,中國鉆地彈突然出現,增加變數也讓中東更加復雜

美伊博弈正膠著,中國鉆地彈突然出現,增加變數也讓中東更加復雜

文雅筆墨
2025-06-21 15:03:03
上海女孩工資剛發,給姑姑轉1200元表感恩,卻收到“逐客令”…

上海女孩工資剛發,給姑姑轉1200元表感恩,卻收到“逐客令”…

火山詩話
2025-06-24 07:40:15
2025-06-25 05:35:00
機器之心Pro incentive-icons
機器之心Pro
專業的人工智能媒體
10709文章數 142343關注度
往期回顧 全部

科技要聞

從十輛到幾百萬輛,中間隔著什么?

頭條要聞

媒體:伊以停火"剛實施就破裂" 特朗普的憤怒不難想象

頭條要聞

媒體:伊以停火"剛實施就破裂" 特朗普的憤怒不難想象

體育要聞

如果你喜歡籃球,你沒理由不喜歡步行者

娛樂要聞

范瑋琪淘汰!全網熱議她的演唱失誤

財經要聞

6部門:支持居民就業增收 增強消費信心

汽車要聞

7.98萬起 firefly螢火蟲推出電池租用購車方案

態度原創

本地
時尚
教育
健康
公開課

本地新聞

被貴妃帶火的“唐代頂流”,如今怎么不火了

楊冪《醬園弄》封神!女囚角色成演技巔峰

教育要聞

河南高考錄取分數線新鮮出爐:歷史類本科批471分,物理類427分

呼吸科專家破解呼吸道九大謠言!

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 砚山县| 年辖:市辖区| 萨迦县| 武宣县| 随州市| 霍州市| 化隆| 连云港市| 剑川县| 哈巴河县| 康马县| 昭觉县| 白水县| 綦江县| 奇台县| 临泽县| 扎囊县| 桑植县| 唐河县| 岳阳市| 灵璧县| 北安市| 斗六市| 周至县| 正安县| 谷城县| 松江区| 井陉县| 白玉县| 潍坊市| 敖汉旗| 昭通市| 瑞金市| 玉屏| 独山县| 湘潭市| 临朐县| 石嘴山市| 中山市| 乌鲁木齐县| 天峨县|