BARL團(tuán)隊投稿
量子位 | 公眾號 QbitAI
推理模型常常表現(xiàn)出類似自我反思的行為,但問題是——
這些行為是否真的能有效探索新策略呢?
對此,西北大學(xué)與Google、谷歌DeepMind團(tuán)隊質(zhì)疑了傳統(tǒng)強(qiáng)化學(xué)習(xí)與反思的關(guān)系,并提出了貝葉斯自適應(yīng)的強(qiáng)化學(xué)習(xí)方法,首次解釋了為什么、如何、以及何時應(yīng)該反思并探索新策略
通過對比分別使用傳統(tǒng)強(qiáng)化學(xué)習(xí)和新方法訓(xùn)練的模型,研究人員發(fā)現(xiàn):
在完成“模型需要在3步內(nèi)輸出三個連續(xù)相同字符”這一合成任務(wù)中,傳統(tǒng)RL往往一條路走到黑,而新方法懂得排除無效假設(shè),適時切換新策略。
并且在數(shù)學(xué)推理任務(wù)中,新方法在大部分基準(zhǔn)和模型上都取得了更高的準(zhǔn)確率,同時為解出題目所耗費的token數(shù)量更少。
更有意思的是,團(tuán)隊發(fā)現(xiàn)反思次數(shù)并非決定性能的唯一因素,一些基礎(chǔ)模型往往出現(xiàn)很多徒勞的反思,并沒有帶來實質(zhì)的信息增益。
下面詳細(xì)展開。
貝葉斯自適應(yīng)強(qiáng)化學(xué)習(xí)激發(fā)反思性探索
直觀來說,測試時試錯的步驟只有當(dāng)能帶來信息增益的情況下才有益,然而人們并沒有在RL訓(xùn)練中告訴模型試錯和反思帶來的信息增益。
事實上,現(xiàn)有的基于馬爾可夫假設(shè)的強(qiáng)化學(xué)習(xí)范式存在天然的局限——探索(exploration)僅發(fā)生在訓(xùn)練階段,代理在部署(測試)時通常只會利用(exploit)訓(xùn)練中學(xué)到的確定性策略。
并且馬爾可夫假設(shè)使得RL代理只根據(jù)當(dāng)前狀態(tài)做決策,歷史信息(比如試錯并回朔的思考過程)對策略的影響都被只壓縮到當(dāng)前狀態(tài)表示中。
研究者指出,這種傳統(tǒng)范式可能導(dǎo)致模型通過記憶訓(xùn)練解答就已經(jīng)拿到高分,而不需要真正學(xué)會反思;模型內(nèi)部思考的試錯也并不能提供信息增益。
那測試時的反思性探索真的有用嗎?如何才能學(xué)到有效的反思性探索策略呢?
為了回答上述問題,研究者研究了與傳統(tǒng)RL不同的貝葉斯自適應(yīng)RL框架,簡稱BARL
它的核心思想是將LLM的反思性探索轉(zhuǎn)化為貝葉斯自適應(yīng)強(qiáng)化學(xué)習(xí)問題來處理,通過引入對環(huán)境不確定性的建模,讓模型在推理過程中自適應(yīng)地進(jìn)行探索。
簡單來說,BARL不再局限于傳統(tǒng)RL的馬爾可夫假設(shè),而是考慮了MDP的不確定性(比如不同策略對一道題的有效性),于是需要把所有歷史的觀察(包括獎勵反饋)納入決策中。
這種框架天然地平衡了獎勵最大化的利用和信息獲取的探索。
具體而言,在BARL中,團(tuán)隊假設(shè)模型面對的是一個存在未知要素的任務(wù),可以用一組假設(shè)的MDP(馬爾可夫決策過程)來描述這些不確定性。
模型對每個假設(shè)MDP保持一個后驗概率(belief),隨著推理過程不斷更新。
每當(dāng)模型選擇一個動作(如生成下一個思維步驟),都會根據(jù)觀察到的結(jié)果更新對各個假設(shè)的信念。
BARL的目標(biāo)策略并非針對單一確定環(huán)境優(yōu)化,而是直接優(yōu)化在后驗分布下的期望累積回報。這意味著模型在決策時,會考慮“我這樣做的收益是多少,同時這樣的行動能多大程度減少不確定性?”。
BARL明確地將測試時的表現(xiàn)納入優(yōu)化目標(biāo),通過最大化后驗下的期望回報鼓勵模型考慮未知情況。
模型明白只有主動探索才能在未知情境下保持高收益,因此反思是為了獲取關(guān)鍵信息,避免一條路走錯到底。
簡而言之,BARL讓模型意識到——
適時反思、多一種嘗試可能帶來更高的回報,這正是反思行為得以涌現(xiàn)的動機(jī)。
全新推理模型強(qiáng)化學(xué)習(xí)算法
研究者針對推理模型給出了BARL決策的數(shù)學(xué)形式,其中核心是如何計算后驗的期望值:
該公式針對多個候選答案(比如best-of-N里的N個答案)計算了預(yù)期回報加權(quán)求和,權(quán)重一方面是模型認(rèn)為該候選答案的好壞,另一方面還包含了一個“校正項”——用來衡量實際觀察結(jié)果與模型預(yù)期的偏差。
正是這個校正項充當(dāng)了反思信號:如果某個策略原本被模型高度看好,但獎勵反饋結(jié)果不盡如人意,那這個差異會迅速降低該假設(shè)的權(quán)重,提醒模型“也許該換一種思路了”,這正回答了模型應(yīng)該何時進(jìn)行反思和探索。
通過這種機(jī)制,BARL的決策公式指導(dǎo)模型在每個步驟判斷是否需要反思、何時切換策略。
這也是BARL反思性決策的精髓——讓模型基于貝葉斯后驗來權(quán)衡“繼續(xù)當(dāng)前思路”還是“嘗試新思路”
這種更新過程鼓勵模型拼接和切換不同的推理策略,就像把多條可能的解題思路串聯(lián)起來,并在中途發(fā)現(xiàn)某條思路行不通時迅速切換到另一條。
BARL通過端到端的RL優(yōu)化自動實現(xiàn)了這一點,可謂以原則化的方式賦予了LLM在推理過程中的“何時反思、如何反思”的指南,達(dá)到了以一條長CoT線性化best-of-N的效果。
合成任務(wù)案例:更清楚的對比RL和BARL
為了直觀展示BARL如何在測試時展現(xiàn)反思探索能力,作者設(shè)計了一個合成任務(wù):模型需要在3步內(nèi)輸出三個連續(xù)相同的字符(0/1/2),才能獲得獎勵。
訓(xùn)練階段,提示(prompt)字符只會是0或1,模型學(xué)會了對應(yīng)輸出000或111來拿到獎勵;但是測試時,提示字符變?yōu)榱?。
直覺上,訓(xùn)練時學(xué)到的確定性策略在遇到新字符時將不再有效,需要模型即時探索正確的輸出模式。
讓兩個模型來挑戰(zhàn)這個任務(wù):一個用傳統(tǒng)馬爾可夫RL訓(xùn)練,另一個用BARL方法訓(xùn)練。
Markovian RL很快就最大化了訓(xùn)練準(zhǔn)確率,幾乎將這些答案背了下來。
BARL在訓(xùn)練中同樣學(xué)會了正確輸出模式,但更有趣的是,它同時學(xué)會了根據(jù)不確定性來調(diào)整策略——這一點要等到測試才能看出差別。
測試階段揭示了截然不同的行為。即當(dāng)提示變?yōu)樾伦址?時,Markovian RL由于在訓(xùn)練中只記住了固定的輸出(000/111)無法泛化,因此幾乎總是答錯,測試準(zhǔn)確率接近于零。
而BARL代理則展現(xiàn)出“反思”能力。它會先嘗試某個策略,如果初步嘗試未獲得獎勵,就迅速反思切換,嘗試另一種可能的序列。
下圖形象說明了Markov RL和BARL在該合成任務(wù)中的決策差異——
Markov策略一條路走到黑,BARL策略則懂得排除無效假設(shè),適時切換新策略。
可以看到,左圖中馬爾可夫RL模型訓(xùn)練時成績很快逼近100%但測試時幾乎完全失敗,中圖的BARL模型則不僅訓(xùn)練表現(xiàn)提升,在測試時也取得了顯著的高準(zhǔn)確率。
值得注意的是,右圖顯示如果事先給予BARL一些關(guān)于任務(wù)結(jié)構(gòu)的先驗知識(例如“獎勵模式就是某個字符重復(fù)三次”),它的收斂速度和最終成績還會更好。
這說明了候選策略既要有多樣性以覆蓋未知情況,又要有合理的可信度以不至于無謂浪費精力。
數(shù)學(xué)推理任務(wù):性能全面提升,顯著節(jié)省Token
研究人員還將BARL應(yīng)用于LLM的數(shù)學(xué)推理領(lǐng)域,并比對了GRPO和“Progress”獎勵基線(給予正確答案概率的分步獎勵)
BARL在大部分基準(zhǔn)和模型上都取得了更高的準(zhǔn)確率。
不僅如此,BARL還展現(xiàn)出更高的的效率優(yōu)勢
作者特別度量了每種方法為解出題目所耗費的token數(shù)量,結(jié)果發(fā)現(xiàn)在達(dá)到同等甚至更高準(zhǔn)確率的情況下,BARL生成的內(nèi)容要短得多。
這意味著,BARL模型并不會為了“多反思幾次”而付出冗長啰嗦的代價,反而因為每次反思都更有針對性、更有效。
作者還觀察到另一個有趣的現(xiàn)象:反思次數(shù)本身并非決定性能的唯一因素。
基礎(chǔ)模型往往出現(xiàn)很多徒勞的反思,并沒有帶來實質(zhì)的信息增益。相比之下,BARL的反思行為更加“有目的性”。
研究者計算了模型在每一步產(chǎn)生的思維鏈的貝葉斯價值,簡單理解就是綜合考慮了“這一步對最終求解有多大貢獻(xiàn)”和“這一步帶來了多少信息增益”的一個評分。
結(jié)果發(fā)現(xiàn),BARL模型每一步動作的貝葉斯價值始終顯著高于傳統(tǒng)RL模型,說明它選的步驟要么就是對解題有幫助的(高回報),要么就是探查了新的可能路徑(高信息增益),從不盲目浪費步驟。
而反觀基礎(chǔ)模型,盡管某些時候看似也輸出了很多自我檢查的內(nèi)容,但由于沒有有效利用信息更新,它這些“反思”步驟的價值評估很低,往往流于表面形式。
最后,作者專門訓(xùn)練了一個長度受限的GRPO,人為限制它最多只能輸出32個token的解題過程,強(qiáng)制模型傾向于不展開推理,直接給出最終答案。
可以發(fā)現(xiàn)模型的訓(xùn)練準(zhǔn)確率最終能收斂到跟正常GRPO相似,而生成的過程長度卻越來越短,幾乎退化為直接背答案。
換言之,馬爾可夫型RL在訓(xùn)練時確實可能通過犧牲思考過程而達(dá)到最優(yōu),但這樣的策略一旦在測試遇到新題就會碰壁。這更加驗證了傳統(tǒng)RL并不能解釋反思探索的好處,也不能包裝自我反思的涌現(xiàn)。
最后,研究人員已經(jīng)放出了訓(xùn)練代碼和論文。
本文一作張申傲是美國西北大學(xué)二年級博士生,研究方向涵蓋大語言模型與強(qiáng)化學(xué)習(xí),尤其關(guān)注LLM的對齊,推理,以及智能體。其研究旨在構(gòu)建能夠主動獲取信息并自我提升以實現(xiàn)超越人類水平的智能系統(tǒng)。
訓(xùn)練代碼:
https://github.com/shenao-zhang/BARL
論文:
https://arxiv.org/abs/2505.20561
— 完 —
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.