新智元報(bào)道
編輯:定慧 好困
【新智元導(dǎo)讀】最近,來自NUS、UT Austin等機(jī)構(gòu)的研究人員創(chuàng)新性地提出了一種「拖拽式大語言模型」(DnD),它可以基于提示詞快速生成模型參數(shù),無需微調(diào)就能適應(yīng)任務(wù)。不僅效率最高提升12000倍,而且具備出色的零樣本泛化能力。
現(xiàn)在的大模型基本都具備零樣本泛化能力,但要在真實(shí)場(chǎng)景中做特定的適配,還是得花好幾個(gè)小時(shí)來對(duì)模型進(jìn)行微調(diào)。
即便是像LoRA這樣的參數(shù)高效方法,也只能緩解而不能消除每個(gè)任務(wù)所需的微調(diào)成本。
剛剛,包括尤洋教授在內(nèi)的來自新加坡國立大學(xué)、得克薩斯大學(xué)奧斯汀分校等機(jī)構(gòu)的研究人員,提出了一種全新的「拖拽式大語言模型」——Drag-and-Drop LLMs!
論文地址:https://arxiv.org/abs/2506.16406
DnD是一種基于提示詞的參數(shù)生成器,能夠?qū)?strong>LLM進(jìn)行無需訓(xùn)練的自適應(yīng)微調(diào)。
通過一個(gè)輕量級(jí)文本編碼器與一個(gè)級(jí)聯(lián)超卷積解碼器的組合,DnD能在數(shù)秒內(nèi),僅根據(jù)無標(biāo)簽的任務(wù)提示詞,生成針對(duì)該任務(wù)的LoRA權(quán)重矩陣。
顯然,對(duì)于那些需要快速實(shí)現(xiàn)模型專業(yè)化的場(chǎng)景,DnD可以提供一種相較于傳統(tǒng)微調(diào)方法更強(qiáng)大、靈活且高效的替代方案。
總結(jié)來說,DnD的核心優(yōu)勢(shì)如下:
極致效率:其計(jì)算開銷比傳統(tǒng)的全量微調(diào)低12,000倍。
卓越性能:在零樣本學(xué)習(xí)的常識(shí)推理、數(shù)學(xué)、編碼及多模態(tài)基準(zhǔn)測(cè)試中,其性能比最強(qiáng)大的、需要訓(xùn)練的LoRA模型還要高出30%。
強(qiáng)大泛化:僅需無標(biāo)簽的提示詞,即可在不同領(lǐng)域間展現(xiàn)出強(qiáng)大的泛化能力。
DnD實(shí)現(xiàn)方法
通過觀察,研究人員發(fā)現(xiàn),LoRA適配器無非是其訓(xùn)練數(shù)據(jù)的一個(gè)函數(shù):梯度下降會(huì)將基礎(chǔ)權(quán)重「拖拽」至一個(gè)特定任務(wù)的最優(yōu)狀態(tài)。
如果能夠直接學(xué)習(xí)從提示到權(quán)重的映射,那么就可以完全繞過梯度下降過程。
DnD通過兩個(gè)核心步驟獲得「拖拽」能力:準(zhǔn)備訓(xùn)練數(shù)據(jù)(左上)與訓(xùn)練參數(shù)生成器(右上)。
在準(zhǔn)備數(shù)據(jù)時(shí),將模型參數(shù)(權(quán)重)與特定數(shù)據(jù)集的條件(提示詞)進(jìn)行顯式配對(duì)。
在訓(xùn)練時(shí),DnD模型將條件作為輸入來生成參數(shù),并使用原始的LoRA參數(shù)作為監(jiān)督信號(hào)進(jìn)行學(xué)習(xí)。
基于這些洞見,團(tuán)隊(duì)提出了「拖拽式大語言模型」,它無需微調(diào)即可生成任務(wù)專屬的權(quán)重。
團(tuán)隊(duì)首先在多個(gè)不同數(shù)據(jù)集上分別訓(xùn)練并保存相應(yīng)的LoRA適配器。
為了賦予模型「拖拽」的能力,團(tuán)隊(duì)將這些數(shù)據(jù)集的提示詞與收集到的LoRA權(quán)重進(jìn)行隨機(jī)配對(duì),構(gòu)成DnD模型的訓(xùn)練數(shù)據(jù)——即「提示詞-參數(shù)」對(duì)。
參數(shù)生成器是一個(gè)由級(jí)聯(lián)卷積塊構(gòu)成的解碼器。
參數(shù)生成器的模塊細(xì)節(jié)如下:每個(gè)超卷積塊包含三個(gè)超卷積模塊,用于在不同維度上提取并融合特征信息。
訓(xùn)練時(shí),團(tuán)隊(duì)采用一個(gè)現(xiàn)成的文本編碼器提取提示詞的嵌入向量,并將其輸入生成器。
生成器會(huì)預(yù)測(cè)出模型權(quán)重,團(tuán)隊(duì)利用其與真實(shí)LoRA權(quán)重之間的均方誤差(MSE)損失來對(duì)其進(jìn)行優(yōu)化。
在推理階段,團(tuán)隊(duì)只需將來自全新數(shù)據(jù)集(訓(xùn)練中未見過)的提示詞輸入DnD,僅需一次前向傳播,即可獲得為該任務(wù)量身定制的參數(shù)。
效果評(píng)估
零樣本學(xué)習(xí)效果
在新的(測(cè)試)數(shù)據(jù)集上的泛化能力。
在所有未曾見過的數(shù)據(jù)集上,DnD在準(zhǔn)確率上都顯著超越了那些用于訓(xùn)練的LoRA模型。
DnD能為數(shù)學(xué)、代碼和多模態(tài)問答等更復(fù)雜的任務(wù)生成參數(shù)。
在這些任務(wù)上依然展現(xiàn)出強(qiáng)大的零樣本學(xué)習(xí)能力。
DnD在多種任務(wù)上超越了基座LLM,展現(xiàn)出顯著的「拖拽」增強(qiáng)效果。
DnD能夠很好地?cái)U(kuò)展至更大的7B基座模型,并在更復(fù)雜的LiveCodeBench基準(zhǔn)測(cè)試中保持強(qiáng)勁性能。
通過利用已微調(diào)的LoRA作為訓(xùn)練數(shù)據(jù),DnD成功地在輸入提示詞與模型參數(shù)之間建立了聯(lián)系。
團(tuán)隊(duì)向DnD輸入其訓(xùn)練階段從未見過的數(shù)據(jù)集提示詞,讓它為這些新任務(wù)直接生成參數(shù),以此來檢驗(yàn)其零樣本學(xué)習(xí)能力。
DnD在權(quán)重空間中生成的參數(shù)與原始參數(shù)分布接近,并且在性能上表現(xiàn)良好。
實(shí)驗(yàn)結(jié)果表明,在零樣本測(cè)試集上,團(tuán)隊(duì)的方法相較于訓(xùn)練所用的LoRA模型的平均性能,取得了驚人的提升,并且能夠很好地泛化到多種真實(shí)世界任務(wù)和不同尺寸的LLM。
對(duì)比其他微調(diào)方法
為了進(jìn)一步展示DnD的強(qiáng)大能力,團(tuán)隊(duì)將其與全量樣本微調(diào)(full-shot tuning)、少樣本學(xué)習(xí)(few-shot)以及上下文學(xué)習(xí)(in-context learning)進(jìn)行了對(duì)比。
令人驚訝的是,DnD的性能超越了LoRA全量微調(diào)的效果,同時(shí)速度快了2500倍。
雖然經(jīng)過更多輪次的迭代,全量微調(diào)的性能會(huì)超過DnD,但其代價(jià)是高達(dá)12000倍的推理延遲。
此外,在樣本數(shù)少于256個(gè)時(shí),DnD的性能穩(wěn)定地優(yōu)于少樣本學(xué)習(xí)和上下文學(xué)習(xí)。
尤其值得注意的是,少樣本學(xué)習(xí)和上下文學(xué)習(xí)都需要依賴帶標(biāo)簽的答案,而DnD僅僅需要無標(biāo)簽的提示詞。
DnD能夠達(dá)到與全量樣本相當(dāng)甚至更優(yōu)的性能,同時(shí)速度提高了2500-12000倍
作者介紹
Zhiyuan Liang
Zhiyuan Liang目前在新加坡國立大學(xué)高性能計(jì)算人工智能實(shí)驗(yàn)室實(shí)習(xí),師從尤洋教授。同時(shí),也得到了Kai Wang博士和Wangbo Zhao的指導(dǎo)。
此前,他在中國科學(xué)技術(shù)大學(xué)獲得人工智能學(xué)士學(xué)位。并曾在北卡羅來納大學(xué)教堂山分校Huaxiu Yao教授的指導(dǎo)下進(jìn)行實(shí)習(xí),以及在中國科學(xué)技術(shù)大學(xué)數(shù)據(jù)科學(xué)實(shí)驗(yàn)室跟著導(dǎo)師Xiang Wang度過了兩年的時(shí)光。
他的研究興趣主要集中在高效機(jī)器學(xué)習(xí)與參數(shù)生成,希望從權(quán)重空間學(xué)習(xí)的視角,探索實(shí)現(xiàn)更高層次智能的有效路徑。
Zhangyang(Atlas) Wang
Zhangyang Wang目前是德克薩斯大學(xué)奧斯汀分校錢德拉家族電氣與計(jì)算機(jī)工程系的終身副教授,并榮膺坦普爾頓基金會(huì)第7號(hào)捐贈(zèng)教席。
他同時(shí)也是該校計(jì)算機(jī)科學(xué)系以及奧登研究所計(jì)算科學(xué)、工程與數(shù)學(xué)項(xiàng)目的核心教員。
他于2016年獲伊利諾伊大學(xué)厄巴納-香檳分校電氣與計(jì)算機(jī)工程博士學(xué)位,師從計(jì)算機(jī)視覺泰斗黃煦濤(Thomas S.Huang)教授;并于2012年獲中國科學(xué)技術(shù)大學(xué)電子工程與信息科學(xué)學(xué)士學(xué)位。
他的研究興趣主要聚焦于為生成式AI與神經(jīng)符號(hào)AI定堅(jiān)實(shí)的理論與算法基礎(chǔ)。
核心目標(biāo)是創(chuàng)建結(jié)構(gòu)化、模塊化的模型表示:1)在過參數(shù)化模型空間中實(shí)現(xiàn)高效、魯棒的學(xué)習(xí);2)與符號(hào)知識(shí)及推理進(jìn)行無縫連接。
Kai Wang
Kai Wang目前是新加坡國立大學(xué)HPC-AI實(shí)驗(yàn)室的研究員,接受尤洋教授的指導(dǎo)。
此前,他在新加坡國立大學(xué)獲得數(shù)據(jù)科學(xué)與機(jī)器學(xué)習(xí)博士學(xué)位,在中國科學(xué)院深圳先進(jìn)技術(shù)研究院獲得計(jì)算機(jī)技術(shù)碩士學(xué)位,在北京師范大學(xué)珠海校區(qū)獲得學(xué)士學(xué)位。
他的研究方向聚焦于參數(shù)生成與高效機(jī)器學(xué)習(xí),尤其注重通過探索簡潔的基線方法,來深入洞察深度學(xué)習(xí)的內(nèi)在機(jī)理。
參考資料:
https://jerryliang24.github.io/DnD/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.