新智元報(bào)道
編輯:peter東 英智
【新智元導(dǎo)讀】長期以來,大模型受限于有限的上下文窗口,在處理長任務(wù)或?qū)υ挄r(shí)不得不忘記早期信息,英偉達(dá)近日推出的Helix并行技術(shù)受DNA結(jié)構(gòu)啟發(fā),分割顯存和處理任務(wù),顯著提升大模型的上下文長度,并發(fā)能力,并可降低響應(yīng)延遲。
想象一個(gè)使用大模型的任務(wù),需要一次處理百萬字符的文檔,例如從百科全書中獲取信息,或是分析數(shù)百頁的法律卷宗,異或追蹤持續(xù)數(shù)月的對(duì)話記錄,都需要越來越長的上下文。
而大模型生成的每個(gè)詞都需要掃描存儲(chǔ)在所謂的KV緩存中存儲(chǔ)的過去標(biāo)記。
反復(fù)讀取這個(gè)緩存會(huì)消耗GPU內(nèi)存帶寬。大模型還需要從內(nèi)存中重新加載大量的前饋網(wǎng)絡(luò)(FFN)權(quán)重來處理每個(gè)新詞。
這個(gè)過程會(huì)減慢效應(yīng)速度,從而導(dǎo)致用戶與大模型對(duì)話時(shí)出現(xiàn)卡頓。
傳統(tǒng)的解決方案,是使用張量并行(Tensor Parallelism, TP)將此負(fù)載分散到多個(gè)GPU上。但這僅能起到一定作用。
當(dāng)規(guī)模超過一定限度后,GPU開始復(fù)制KV緩存,導(dǎo)致內(nèi)存壓力進(jìn)一步增大。
而Helix這一英偉達(dá)針對(duì)其最新的Blackwall開發(fā)的并行策略,通過將模型Transformer層的注意力機(jī)制和前饋網(wǎng)絡(luò)部分分開處理來解決卡頓問題。
Helix受DNA雙螺旋結(jié)構(gòu)的啟發(fā),Helix將KV、張量和專家等多個(gè)維度的并行性交織到一個(gè)統(tǒng)一的執(zhí)行循環(huán)中。
每個(gè)階段在其自身的瓶頸配置下運(yùn)行,同時(shí)復(fù)用相同的GPU池。
論文鏈接:https://d1qx31qr3h6wln.cloudfront.net/publications/Helix_0.pdf
Helix是怎么做到百萬上下文不卡頓
在注意力階段,Helix使用一種名為KV并行(KVP)的新方法,將龐大的KV緩存分散到多個(gè)GPU上。
當(dāng)TP超過KV頭的數(shù)量時(shí),張量并行會(huì)進(jìn)行復(fù)制,從而增加了內(nèi)存和帶寬開銷,如圖1a到c描述的過程。
Helix通過將TP=2與KVP=2相結(jié)合,形成2D布局來避免內(nèi)存和帶寬開銷的增加,對(duì)應(yīng)圖1d。
圖1:傳統(tǒng)的張量并行(TP)與Helix的不同注意力分片策略KVP的對(duì)比示意圖
同時(shí),由于KVP GPU持有與其本地KV頭相關(guān)聯(lián)的所有查詢頭,并冗余地計(jì)算QKV投影。
這使得每個(gè)KV分片能夠進(jìn)行完全本地的FlashAttention,確保了模型的推理精度。
之后KVP GPU之間沿著查詢頭維度進(jìn)行單對(duì)單的全連接通信,通信的成本和KV緩存的大小無關(guān),因此大模型的上下文長度即使擴(kuò)展到百萬token,也不會(huì)影響查詢效率。
此外,Helix還通過重疊通信和計(jì)算,一旦計(jì)算出一個(gè)token的注意力輸出,Helix就會(huì)啟動(dòng)該token的全對(duì)全交換,同時(shí)計(jì)算下一個(gè)token的注意力。
這種緊密的重疊將通信延遲隱藏在有用的工作之后,保持GPU利用率高,并進(jìn)一步加速實(shí)時(shí)解碼。
圖2中上圖的八個(gè)請(qǐng)求會(huì)同步執(zhí)行注意力計(jì)算。隨后進(jìn)行順序的全對(duì)全通信。
圖2表底部對(duì)應(yīng)使用HOP-B時(shí),一個(gè)請(qǐng)求的通信與下一個(gè)請(qǐng)求的計(jì)算重疊,通過細(xì)粒度流水線減少了token間的延遲。
圖2:Helix通過細(xì)粒度流水線技術(shù)加速大模型的響應(yīng)
引入Helix帶來的高并發(fā)和低延遲
根據(jù)英偉達(dá)官網(wǎng)給出的計(jì)算,使用DeepSeek-R1 671B模型,在給定延遲下,當(dāng)并發(fā)的用戶數(shù)增大時(shí),Helix相比傳統(tǒng)方法體現(xiàn)出優(yōu)勢。
而到了圖中第一個(gè)箭頭標(biāo)注的點(diǎn)時(shí),其單GPU產(chǎn)出的token數(shù)是傳統(tǒng)方法的32倍,這意味著可以將并發(fā)用戶數(shù)量提高高達(dá)32倍。
圖3:使用100萬上下文長度的DeepSeek-R1,評(píng)估使用經(jīng)過最新NVIDIA GB200 NVL72(Blackwell)在固定延遲下的并發(fā)能力
在低并發(fā)設(shè)置下,Helix可以通過減token與token間的最低延遲時(shí)間,來提高用戶交互體驗(yàn),如圖3右下方的對(duì)比所示。
該研究的參與者St-Maurice指出「Helix正在重塑我們處理LLM交互和設(shè)計(jì)的方式。」
他指出,Helix并行處理和優(yōu)化的KV緩存分片正在為大模型提供可擴(kuò)展的顯存外掛,這與開發(fā)者改進(jìn)舊處理器(如奔騰)的方式高度相似。
該技術(shù)能允許大模型應(yīng)用擴(kuò)展其用戶規(guī)模的同時(shí),保證其快速響應(yīng)。
對(duì)于虛擬助手、法律機(jī)器人以及AI Copolit等應(yīng)用,Helix的引入可以做到既處理大量工作負(fù)載,同時(shí)還保持低延遲響應(yīng)能力。
Helix是否為畫靶射箭的爭論
對(duì)于這項(xiàng)技術(shù)突破,西北人工智能咨詢公司的首席執(zhí)行官兼聯(lián)合創(chuàng)始人Wyatt Mayham表示:「英偉達(dá)的數(shù)百萬個(gè)token的上下文窗口是一項(xiàng)令人印象深刻的工程里程碑,但對(duì)于大多數(shù)公司來說,它是一個(gè)尋找問題的解決方案,它解決了現(xiàn)有模型如長上下文推理和二次擴(kuò)展等真實(shí)限制,但技術(shù)可能性和實(shí)際實(shí)用性之間存在差距。」
Mayham承認(rèn)Helix在特定領(lǐng)域中很有用,例如需要完整文檔保真度的合規(guī)性強(qiáng)的行業(yè),或醫(yī)療系統(tǒng)一次性分析患者終身病史。
但這只是部分特例,大多數(shù)組織最好是構(gòu)建更智能的流水線,而不是購買helix所需的Blackwell架構(gòu)下的GB200機(jī)架。
且通常情況下,檢索增強(qiáng)生成(RAG)系統(tǒng)能夠在百萬個(gè)token的范圍內(nèi),表現(xiàn)的比將上下文長度提升到100k更好。
而Info-Tech研究集團(tuán)技術(shù)顧問Justin St-Maurice則指出:在當(dāng)今世界,為人類生成百科全書大小的回答并不是勝利。
相反,關(guān)鍵在于使大模型的輸出對(duì)其他人工智能相關(guān)且可用。
這種能力可能成為未來智能體進(jìn)步的推手。
有了當(dāng)大模型的輸出能具有對(duì)應(yīng)的認(rèn)知框架,智能體可以保持更豐富的內(nèi)部狀態(tài),參與更復(fù)雜、更長時(shí)間的聊天,并執(zhí)行更深入文檔分析。
St-Maurice指出:Helix帶來的長上下文窗口,能夠支持context engineer(上下文工程)在龐大的上下文窗口中管理和優(yōu)化信息,以最大限度地提高智能體的有效性和可靠性。
憑借在擴(kuò)展的上下文窗口中處理和交換更大數(shù)據(jù)量的能力,AI智能體可以以以前不切實(shí)際的方式溝通和協(xié)作,從而改變多智能體應(yīng)用的設(shè)計(jì)框架。
參考資料:
https://research.nvidia.com/publication/2025-07_helix-parallelism-rethinking-sharding-strategies-interactive-multi-million
https://www.computerworld.com/article/4019170/new-nvidia-technology-provides-instant-answers-to-encyclopedic-length-questions.html
https://d1qx31qr3h6wln.cloudfront.net/publications/Helix_0.pdf
https://interestingengineering.com/innovation/nvidia-helix-breakthrough-long-context-ai?utm_source=chatgpt.com
https://developer.nvidia.com/blog/asking-an-encyclopedia-sized-question-how-to-make-the-world-smarter-with-multi-million-token-real-time-inference/?utm_source=chatgpt.com
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.