99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

LLM省錢大測評!48塊GH200,首個百億級參數量實證

0
分享至


新智元報道

編輯:LRST 好困

【新智元導讀】EfficientLLM項目聚焦LLM效率,提出三軸分類法和六大指標,實驗包攬全架構、多模態、微調技術,可為研究人員提供效率與性能平衡的參考。

近年來,大型語言模型(LLM)如GPT系列取得了革命性進展,在自然語言處理、內容創作、多語言翻譯乃至科學研究等眾多領域展現出驚人能力。

然而,模型參數量(如DeepseekR1的671B參數)和上下文窗口的急劇膨脹,帶來了巨大的計算力(GPT-3訓練約需3640Petaflop/s-days)、能源消耗和資金投入(GPT-3訓練成本估計超460萬美元)。

高昂的成本已成為制約LLM進一步發展和廣泛應用的關鍵瓶頸。

EfficientLLM項目應「效率測評」需求而生,也是首個針對LLM效率技術進行端到端、百億級參數規模的系統性實證研究。


項目詳情:https://dlyuangod.github.io/EfficientLLM/

模型庫:https://huggingface.co/Tyrannosaurus/EfficientLLM

研究人員在配備了48塊GH200和8塊H200 GPU的生產級集群上執行效率測評,確保了對真實世界中LLM性能與能耗權衡的精確測量。

EfficientLLM的核心目標是為學術界和工業界的研發人員提供一個清晰、數據驅動的導航圖,幫助研究人員在下一代基礎模型的「效率-性能」復雜地貌中找到最佳路徑。


EfficientLLM的三維評測框架與核心指標

研究人員創新性地提出了一個統一的三軸分類法來系統評估LLM效率,覆蓋模型生命周期的關鍵階段:

架構預訓練(Architecture Pretraining)

此部分專注于為模型設計者和研究者在構建新型LLM架構時,提供關于計算資源和能源成本預算的精確分析,并深入評估了多種高效注意力機制變體(如多查詢注意力MQA、分組查詢注意力GQA、多頭潛在注意力MLA、原生稀疏注意力NSA)以及稀疏混合專家模型(MoE)的效率表現。

微調(Fine-tuning)

針對需要將預訓練基礎模型適配到特定下游任務或專業領域的實踐者,研究人員提供了參數高效微調(PEFT)方法的效率基準。評估涵蓋了LoRA、RSLORA、DoRA等主流PEFT技術。

位寬量化(Bit-width Quantization)

面向模型部署工程師,研究人員評估了如何通過模型壓縮技術(特別是無需重訓即可直接部署的訓練后量化方法,如int4和float16)有效降低服務成本和推理延遲。

評估指標

為全面刻畫效率,EfficientLLM還引入了六個相互正交的細粒度評估指標:

1. 平均內存利用率(Average-Memory-Utilization,AMU)

2. 峰值計算利用率(Peak-Compute-Utilization,PCU)

3. 平均延遲(Average-Latency,AL)

4. 平均吞吐量(Average-Throughput,AT)

5. 平均能耗(Average-Energy-Consumption,AEC)

6. 模型壓縮率(Model-Compression-Rate,MCR)這些指標共同捕捉了硬件飽和度、延遲與吞吐量的平衡,以及碳排放成本等關鍵因素。

基準測試涵蓋了超過100個「模型-技術」組合,納入從0.5B到72B參數規模的多種LLM。


EfficientLLM的三大核心洞見

效率優化是「沒有免費午餐」的量化權衡(Efficiency Involves Quantifiable Trade-offs)

百余項實驗清晰地表明,不存在一種能在所有維度上都達到最優的通用效率技術。

每一種被評估的方法,在提升至少一個效率指標的同時,幾乎總會在其他某個或某些指標上有所妥協。


以稀疏混合專家模型(MoE)為例,能有效降低推理時的FLOPs(浮點運算次數)并提升下游任務的準確率,但其代價是峰值顯存需求增加約40%(因為需要存儲所有專家網絡的參數)。

int4量化技術則展現了另一面:可以將模型的內存占用和能耗降低高達3.9倍,模型壓縮率表現優異,但根據實測數據,通常伴隨著約3-5%的任務平均得分下降。

最優效率策略高度依賴于具體任務和模型規模(Optima are Task- and Scale-Dependent)

效率的「最優解」并非一成不變,而是高度依賴于應用場景、模型規模和硬件環境。

高效注意力機制:在架構預訓練階段,對于內存資源極度受限的設備(如端側推理),MQA(多查詢注意力)因其共享鍵值頭設計,展現出最佳的內存占用和延遲特性。

而當追求極致的語言生成質量時(以困惑度PPL為衡量標準),MLA(多頭潛在注意力)則表現更優。若目標是最低能耗部署,NSA(原生稀疏注意力)則是首選。


PEFT方法的規模效應:在微調階段,對于1B到3B參數規模的較小模型,LoRA及其變體(如DoRA,統稱LoRA-plus)在特定的內存約束下能達到最低的性能損失(即最佳的任務表現)。

然而,當模型規模擴展到14B參數以上時,RSLORA在效率上反超LoRA,展現出更低的延遲和功耗。

對于超大規模模型的微調,參數凍結(僅更新部分層或組件)策略雖然可能犧牲少量任務精度,但能提供最佳的端到端微調延遲。

量化精度選擇:在推理階段,測試(涵蓋Llama-3,DeepSeek,Qwen等1.5B至34B模型)表明,int4訓練后量化能顯著提升資源效率。

內存占用減少接近理論上的4倍,吞吐量(每秒處理詞元數)在內存受限條件下可提升三倍,而平均任務性能得分僅有小幅下降(例如DeepSeek-R1-Distill-Qwen-14B的平均分從bf16的0.4719降至int4的0.4361)。

在16位浮點格式中,bfloat16在Hopper架構GPU(GH200/H200)上,相較于float16,始終在平均延遲和能耗方面表現更優,這得益于現代NVIDIA GPU對bfloat16運算的原生硬件加速。

LLM效率技術可廣泛遷移至跨模態模型(Broad ApplicabilityAcrossModalities)

研究人員將EfficientLLM的評估框架成功擴展到了大型視覺模型(LVMs)和視覺語言模型(VLMs),如Stable Diffusion3.5、Wan2.1和Qwen2.5-VL等。


實驗結果令人鼓舞:在LLM上得到驗證的效率技術,如MQA/GQA等高效注意力機制,能夠有效地遷移并改進LVM的生成質量(以FID分數為衡量標準);PEFT方法同樣在LVM和VLM上取得了良好的性能-效率權衡,表明針對LLM的效率優化研究成果具有更廣泛的適用性。

開放共享,賦能未來

研究人員即將開源完整的評估流程代碼以及排行榜,在為全球的學術研究者和企業工程師在探索下一代基礎模型的效率與性能平衡時,提供一個堅實的、可復現的、值得信賴的「指南針」。

研究成果可以為從業者提供基于嚴謹實證數據的可操作建議,幫助研究人員在具體的任務需求和資源限制下,做出更明智、更高效的模型和技術選型決策,而不是僅僅依賴理論推演或有限的經驗。

LLM的效率優化是一個持續演進的系統工程,EfficientLLM的探索也僅是其中的一部分,諸如訓練基礎設施優化、基于強化學習的訓練后對齊、測試時擴展策略等重要議題,開發團隊計劃在未來進行深入研究。

參考資料:

https://dlyuangod.github.io/EfficientLLM/


特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
官宣!柯潔徹底無緣第三屆爛柯杯 卞相壹將以韓國種子棋手身份參賽

官宣!柯潔徹底無緣第三屆爛柯杯 卞相壹將以韓國種子棋手身份參賽

勁爆體壇
2025-05-30 19:41:12
2個觀眾,首日票房僅40元,2025年端午檔最慘新片誕生了

2個觀眾,首日票房僅40元,2025年端午檔最慘新片誕生了

靠譜電影君
2025-05-30 17:32:28
47歲總統哄72歲老婆有絕招,馬克龍印尼國宴全過程,男人必看教程

47歲總統哄72歲老婆有絕招,馬克龍印尼國宴全過程,男人必看教程

愛下廚的阿釃
2025-05-31 01:53:31
必須交出稀土!美國暫停對華輸送航空技術,要和中國“一換一”

必須交出稀土!美國暫停對華輸送航空技術,要和中國“一換一”

近史閣
2025-05-30 23:08:57
俄羅斯外長警告德國,關注其在俄烏沖突中的角色。

俄羅斯外長警告德國,關注其在俄烏沖突中的角色。

老壥說體育
2025-05-30 22:42:38
填島加速,仁愛礁局勢驟緊,中方海警獲“致命武力”使用權限

填島加速,仁愛礁局勢驟緊,中方海警獲“致命武力”使用權限

華山穹劍
2025-05-28 20:09:05
遼寧U22男籃直通全運會,6名小將嶄露頭角

遼寧U22男籃直通全運會,6名小將嶄露頭角

郝小小看體育
2025-05-31 00:34:40
中國學者:中美第二階段博弈已在激烈進行

中國學者:中美第二階段博弈已在激烈進行

小鬼頭體育
2025-05-30 06:37:02
公職人員下班后聚餐算違紀嗎?中紀委給出明確標準

公職人員下班后聚餐算違紀嗎?中紀委給出明確標準

戶外小阿隋
2025-05-29 10:16:20
《歌手2025》第三期排名公布:Grace第一,單依純第二,“斷眉”查理·普斯襲榜成功,馬嘉祺第六,白舉綱被淘汰

《歌手2025》第三期排名公布:Grace第一,單依純第二,“斷眉”查理·普斯襲榜成功,馬嘉祺第六,白舉綱被淘汰

揚子晚報
2025-05-30 22:38:46
向烏克蘭偷偷出口武器,俄羅斯公開指責塞爾維亞“背后捅刀”

向烏克蘭偷偷出口武器,俄羅斯公開指責塞爾維亞“背后捅刀”

荷蘭豆愛健康
2025-05-31 02:23:14
“爺爺每多活一天,就能為家里帶來566元的收入”

“爺爺每多活一天,就能為家里帶來566元的收入”

華人星光
2025-05-29 14:58:31
18歲女大胃王吃播時突然去世,肚子比懷孕還大,尸檢完:不是吃死的

18歲女大胃王吃播時突然去世,肚子比懷孕還大,尸檢完:不是吃死的

無名講堂
2025-05-21 17:06:38
你知道電子廠里的男女關系,有多亂嗎?

你知道電子廠里的男女關系,有多亂嗎?

加油丁小文
2025-04-30 11:30:07
剛剛,安徽一廳干主動投案!多名干部被處理

剛剛,安徽一廳干主動投案!多名干部被處理

鳳凰網安徽
2025-05-30 16:54:46
為什么現在單親媽媽越來越多?網友:她以為離婚后會很搶手?。?>
    </a>
        <h3>
      <a href=為什么現在單親媽媽越來越多?網友:她以為離婚后會很搶手?。?/a> 美好客棧大掌柜
2025-01-28 00:15:02
媒體人:周琦全運600萬合同是遼寧籃協副會長透露,因為待遇問題未能說服周琦

媒體人:周琦全運600萬合同是遼寧籃協副會長透露,因為待遇問題未能說服周琦

雷速體育
2025-05-30 16:43:13
美財長稱與中國的貿易談判“有點停滯”,外交部回應

美財長稱與中國的貿易談判“有點停滯”,外交部回應

澎湃新聞
2025-05-30 15:22:26
徐崢的話被印證,被人民日報"點名"的張杰,已經走向了另一條大道

徐崢的話被印證,被人民日報"點名"的張杰,已經走向了另一條大道

南南說娛
2025-05-15 11:06:52
向佐參加李曉華俱樂部夜宴,限量版茅臺隨便喝,一頓飯至少上十萬

向佐參加李曉華俱樂部夜宴,限量版茅臺隨便喝,一頓飯至少上十萬

央小北
2025-05-30 12:38:43
2025-05-31 04:31:00
新智元 incentive-icons
新智元
AI產業主平臺領航智能+時代
12792文章數 66047關注度
往期回顧 全部

科技要聞

尊界S800上市 指導價70.8萬起 8月中旬交車

頭條要聞

小伙睡夢中被貸款5萬:看手機在自己輸密碼頭皮都麻了

頭條要聞

小伙睡夢中被貸款5萬:看手機在自己輸密碼頭皮都麻了

體育要聞

唐斯的媽媽,一定會感到驕傲的

娛樂要聞

趙麗穎新劇撲街?演技扛劇能力遭質疑

財經要聞

向松祚:不必擔憂美債高企 美可無限發債

汽車要聞

新增配色+動力升級 粵港澳車展探館新款smart #1

態度原創

旅游
藝術
時尚
數碼
教育

旅游要聞

熱聞|清明假期將至,熱門目的地有哪些?

藝術要聞

故宮珍藏的墨跡《十七帖》,比拓本更精良,這才是地道的魏晉寫法

今年夏天,穿得越放松越好看!

數碼要聞

蘋果 Vision Pro 首部長篇沉浸式紀錄片上線,其他平臺也可看

教育要聞

最高法“六一”公眾開放日:師生同上法治課

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 中超| 长岛县| 桃园县| 保康县| 望都县| 囊谦县| 长沙县| 噶尔县| 霍州市| 施秉县| SHOW| 延吉市| 色达县| 景谷| 乌拉特后旗| 上高县| 保靖县| 托克托县| 富源县| 景谷| 玉树县| 海原县| 民县| 临颍县| 湛江市| 钟山县| 柞水县| 万年县| 乐平市| 齐齐哈尔市| 抚州市| 阿克| 太白县| 隆昌县| 郓城县| 阳原县| 德昌县| 巴东县| 兰溪市| 丰宁| 清苑县|