99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

首次解釋LLM如何推理反思!新框架引入貝葉斯自適應(yīng)強(qiáng)化學(xué)習(xí)

0
分享至

BARL團(tuán)隊投稿
量子位 | 公眾號 QbitAI

推理模型常常表現(xiàn)出類似自我反思的行為,但問題是——

這些行為是否真的能有效探索新策略呢?

對此,西北大學(xué)與Google、谷歌DeepMind團(tuán)隊質(zhì)疑了傳統(tǒng)強(qiáng)化學(xué)習(xí)與反思的關(guān)系,并提出了貝葉斯自適應(yīng)的強(qiáng)化學(xué)習(xí)方法,首次解釋了為什么、如何、以及何時應(yīng)該反思并探索新策略



通過對比分別使用傳統(tǒng)強(qiáng)化學(xué)習(xí)和新方法訓(xùn)練的模型,研究人員發(fā)現(xiàn):

在完成“模型需要在3步內(nèi)輸出三個連續(xù)相同字符”這一合成任務(wù)中,傳統(tǒng)RL往往一條路走到黑,而新方法懂得排除無效假設(shè),適時切換新策略。

并且在數(shù)學(xué)推理任務(wù)中,新方法在大部分基準(zhǔn)和模型上都取得了更高的準(zhǔn)確率,同時為解出題目所耗費的token數(shù)量更少。

更有意思的是,團(tuán)隊發(fā)現(xiàn)反思次數(shù)并非決定性能的唯一因素,一些基礎(chǔ)模型往往出現(xiàn)很多徒勞的反思,并沒有帶來實質(zhì)的信息增益。

下面詳細(xì)展開。

貝葉斯自適應(yīng)強(qiáng)化學(xué)習(xí)激發(fā)反思性探索

直觀來說,測試時試錯的步驟只有當(dāng)能帶來信息增益的情況下才有益,然而人們并沒有在RL訓(xùn)練中告訴模型試錯和反思帶來的信息增益。

事實上,現(xiàn)有的基于馬爾可夫假設(shè)的強(qiáng)化學(xué)習(xí)范式存在天然的局限——探索(exploration)僅發(fā)生在訓(xùn)練階段,代理在部署(測試)時通常只會利用(exploit)訓(xùn)練中學(xué)到的確定性策略。

并且馬爾可夫假設(shè)使得RL代理只根據(jù)當(dāng)前狀態(tài)做決策,歷史信息(比如試錯并回朔的思考過程)對策略的影響都被只壓縮到當(dāng)前狀態(tài)表示中。

研究者指出,這種傳統(tǒng)范式可能導(dǎo)致模型通過記憶訓(xùn)練解答就已經(jīng)拿到高分,而不需要真正學(xué)會反思;模型內(nèi)部思考的試錯也并不能提供信息增益。

那測試時的反思性探索真的有用嗎?如何才能學(xué)到有效的反思性探索策略呢?



為了回答上述問題,研究者研究了與傳統(tǒng)RL不同的貝葉斯自適應(yīng)RL框架,簡稱BARL

它的核心思想是將LLM的反思性探索轉(zhuǎn)化為貝葉斯自適應(yīng)強(qiáng)化學(xué)習(xí)問題來處理,通過引入對環(huán)境不確定性的建模,讓模型在推理過程中自適應(yīng)地進(jìn)行探索。

簡單來說,BARL不再局限于傳統(tǒng)RL的馬爾可夫假設(shè),而是考慮了MDP的不確定性(比如不同策略對一道題的有效性),于是需要把所有歷史的觀察(包括獎勵反饋)納入決策中。

這種框架天然地平衡了獎勵最大化的利用和信息獲取的探索。

具體而言,在BARL中,團(tuán)隊假設(shè)模型面對的是一個存在未知要素的任務(wù),可以用一組假設(shè)的MDP(馬爾可夫決策過程)來描述這些不確定性。

模型對每個假設(shè)MDP保持一個后驗概率(belief),隨著推理過程不斷更新。

每當(dāng)模型選擇一個動作(如生成下一個思維步驟),都會根據(jù)觀察到的結(jié)果更新對各個假設(shè)的信念。

BARL的目標(biāo)策略并非針對單一確定環(huán)境優(yōu)化,而是直接優(yōu)化在后驗分布下的期望累積回報。這意味著模型在決策時,會考慮“我這樣做的收益是多少,同時這樣的行動能多大程度減少不確定性?”。



BARL明確地將測試時的表現(xiàn)納入優(yōu)化目標(biāo),通過最大化后驗下的期望回報鼓勵模型考慮未知情況。

模型明白只有主動探索才能在未知情境下保持高收益,因此反思是為了獲取關(guān)鍵信息,避免一條路走錯到底。

簡而言之,BARL讓模型意識到——

適時反思、多一種嘗試可能帶來更高的回報,這正是反思行為得以涌現(xiàn)的動機(jī)。

全新推理模型強(qiáng)化學(xué)習(xí)算法

研究者針對推理模型給出了BARL決策的數(shù)學(xué)形式,其中核心是如何計算后驗的期望值:



該公式針對多個候選答案(比如best-of-N里的N個答案)計算了預(yù)期回報加權(quán)求和,權(quán)重一方面是模型認(rèn)為該候選答案的好壞,另一方面還包含了一個“校正項”——用來衡量實際觀察結(jié)果與模型預(yù)期的偏差。

正是這個校正項充當(dāng)了反思信號:如果某個策略原本被模型高度看好,但獎勵反饋結(jié)果不盡如人意,那這個差異會迅速降低該假設(shè)的權(quán)重,提醒模型“也許該換一種思路了”,這正回答了模型應(yīng)該何時進(jìn)行反思和探索。

通過這種機(jī)制,BARL的決策公式指導(dǎo)模型在每個步驟判斷是否需要反思、何時切換策略。

這也是BARL反思性決策的精髓——讓模型基于貝葉斯后驗來權(quán)衡“繼續(xù)當(dāng)前思路”還是“嘗試新思路”

這種更新過程鼓勵模型拼接和切換不同的推理策略,就像把多條可能的解題思路串聯(lián)起來,并在中途發(fā)現(xiàn)某條思路行不通時迅速切換到另一條。

BARL通過端到端的RL優(yōu)化自動實現(xiàn)了這一點,可謂以原則化的方式賦予了LLM在推理過程中的“何時反思、如何反思”的指南,達(dá)到了以一條長CoT線性化best-of-N的效果。

合成任務(wù)案例:更清楚的對比RL和BARL

為了直觀展示BARL如何在測試時展現(xiàn)反思探索能力,作者設(shè)計了一個合成任務(wù):模型需要在3步內(nèi)輸出三個連續(xù)相同的字符(0/1/2),才能獲得獎勵。

訓(xùn)練階段,提示(prompt)字符只會是0或1,模型學(xué)會了對應(yīng)輸出000或111來拿到獎勵;但是測試時,提示字符變?yōu)榱?。

直覺上,訓(xùn)練時學(xué)到的確定性策略在遇到新字符時將不再有效,需要模型即時探索正確的輸出模式。



讓兩個模型來挑戰(zhàn)這個任務(wù):一個用傳統(tǒng)馬爾可夫RL訓(xùn)練,另一個用BARL方法訓(xùn)練。

Markovian RL很快就最大化了訓(xùn)練準(zhǔn)確率,幾乎將這些答案背了下來。

BARL在訓(xùn)練中同樣學(xué)會了正確輸出模式,但更有趣的是,它同時學(xué)會了根據(jù)不確定性來調(diào)整策略——這一點要等到測試才能看出差別。

測試階段揭示了截然不同的行為。即當(dāng)提示變?yōu)樾伦址?時,Markovian RL由于在訓(xùn)練中只記住了固定的輸出(000/111)無法泛化,因此幾乎總是答錯,測試準(zhǔn)確率接近于零。

而BARL代理則展現(xiàn)出“反思”能力。它會先嘗試某個策略,如果初步嘗試未獲得獎勵,就迅速反思切換,嘗試另一種可能的序列。

下圖形象說明了Markov RL和BARL在該合成任務(wù)中的決策差異——

Markov策略一條路走到黑,BARL策略則懂得排除無效假設(shè),適時切換新策略。



可以看到,左圖中馬爾可夫RL模型訓(xùn)練時成績很快逼近100%但測試時幾乎完全失敗,中圖的BARL模型則不僅訓(xùn)練表現(xiàn)提升,在測試時也取得了顯著的高準(zhǔn)確率。

值得注意的是,右圖顯示如果事先給予BARL一些關(guān)于任務(wù)結(jié)構(gòu)的先驗知識(例如“獎勵模式就是某個字符重復(fù)三次”),它的收斂速度和最終成績還會更好。

這說明了候選策略既要有多樣性以覆蓋未知情況,又要有合理的可信度以不至于無謂浪費精力。



數(shù)學(xué)推理任務(wù):性能全面提升,顯著節(jié)省Token

研究人員還將BARL應(yīng)用于LLM的數(shù)學(xué)推理領(lǐng)域,并比對了GRPO和“Progress”獎勵基線(給予正確答案概率的分步獎勵)

BARL在大部分基準(zhǔn)和模型上都取得了更高的準(zhǔn)確率。



不僅如此,BARL還展現(xiàn)出更高的的效率優(yōu)勢

作者特別度量了每種方法為解出題目所耗費的token數(shù)量,結(jié)果發(fā)現(xiàn)在達(dá)到同等甚至更高準(zhǔn)確率的情況下,BARL生成的內(nèi)容要短得多。



這意味著,BARL模型并不會為了“多反思幾次”而付出冗長啰嗦的代價,反而因為每次反思都更有針對性、更有效。

作者還觀察到另一個有趣的現(xiàn)象:反思次數(shù)本身并非決定性能的唯一因素。

基礎(chǔ)模型往往出現(xiàn)很多徒勞的反思,并沒有帶來實質(zhì)的信息增益。相比之下,BARL的反思行為更加“有目的性”。



研究者計算了模型在每一步產(chǎn)生的思維鏈的貝葉斯價值,簡單理解就是綜合考慮了“這一步對最終求解有多大貢獻(xiàn)”和“這一步帶來了多少信息增益”的一個評分。

結(jié)果發(fā)現(xiàn),BARL模型每一步動作的貝葉斯價值始終顯著高于傳統(tǒng)RL模型,說明它選的步驟要么就是對解題有幫助的(高回報),要么就是探查了新的可能路徑(高信息增益),從不盲目浪費步驟。

而反觀基礎(chǔ)模型,盡管某些時候看似也輸出了很多自我檢查的內(nèi)容,但由于沒有有效利用信息更新,它這些“反思”步驟的價值評估很低,往往流于表面形式。



最后,作者專門訓(xùn)練了一個長度受限的GRPO,人為限制它最多只能輸出32個token的解題過程,強(qiáng)制模型傾向于不展開推理,直接給出最終答案。

可以發(fā)現(xiàn)模型的訓(xùn)練準(zhǔn)確率最終能收斂到跟正常GRPO相似,而生成的過程長度卻越來越短,幾乎退化為直接背答案。

換言之,馬爾可夫型RL在訓(xùn)練時確實可能通過犧牲思考過程而達(dá)到最優(yōu),但這樣的策略一旦在測試遇到新題就會碰壁。這更加驗證了傳統(tǒng)RL并不能解釋反思探索的好處,也不能包裝自我反思的涌現(xiàn)。

最后,研究人員已經(jīng)放出了訓(xùn)練代碼和論文。

本文一作張申傲是美國西北大學(xué)二年級博士生,研究方向涵蓋大語言模型與強(qiáng)化學(xué)習(xí),尤其關(guān)注LLM的對齊,推理,以及智能體。其研究旨在構(gòu)建能夠主動獲取信息并自我提升以實現(xiàn)超越人類水平的智能系統(tǒng)。



訓(xùn)練代碼:
https://github.com/shenao-zhang/BARL
論文:
https://arxiv.org/abs/2505.20561

— 完 —

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
《長安的荔枝》全員“毀容式”演技,素顏村婦楊冪,陰鷙權(quán)臣劉德華

《長安的荔枝》全員“毀容式”演技,素顏村婦楊冪,陰鷙權(quán)臣劉德華

情感大頭說說
2025-06-10 09:34:49
美國總統(tǒng)下令把所有戴口罩的全部抓起來

美國總統(tǒng)下令把所有戴口罩的全部抓起來

爆角追蹤
2025-06-09 20:11:46
年輕人好脆弱!網(wǎng)傳南京發(fā)生悲劇,不像是造謠,到底咋回事…

年輕人好脆弱!網(wǎng)傳南京發(fā)生悲劇,不像是造謠,到底咋回事…

慧翔百科
2025-06-10 09:07:46
3名華人在美盜竊櫻桃被捕!身份曝光,保釋金高達(dá)百萬,評論炸鍋

3名華人在美盜竊櫻桃被捕!身份曝光,保釋金高達(dá)百萬,評論炸鍋

奇思妙想草葉君
2025-06-09 23:11:05
什么情況?消費力太強(qiáng)了,你看都快把國家薅沒錢了

什么情況?消費力太強(qiáng)了,你看都快把國家薅沒錢了

大何日拱一卒
2025-06-10 00:00:34
烏迎戰(zhàn)史詩級空襲,一舉擊落470個目標(biāo),再次摧毀俄兩架戰(zhàn)機(jī)

烏迎戰(zhàn)史詩級空襲,一舉擊落470個目標(biāo),再次摧毀俄兩架戰(zhàn)機(jī)

史政先鋒
2025-06-10 10:33:19
許家印被關(guān)這么長,依然不肯交代,說白了,他是學(xué)夏海鈞那一套…

許家印被關(guān)這么長,依然不肯交代,說白了,他是學(xué)夏海鈞那一套…

偵姐有料
2025-06-09 07:37:08
18強(qiáng)賽收官夜:直通世界杯僅剩1席!國足尊嚴(yán)戰(zhàn)1場生死斗

18強(qiáng)賽收官夜:直通世界杯僅剩1席!國足尊嚴(yán)戰(zhàn)1場生死斗

葉青足球世界
2025-06-10 08:51:40
科技不是第一生產(chǎn)力,自由才是

科技不是第一生產(chǎn)力,自由才是

霹靂炮
2025-06-05 22:14:24
今年銷售額已破100億元!胖東來最新聲明:員工被罵最高賠10萬!于東來回應(yīng)

今年銷售額已破100億元!胖東來最新聲明:員工被罵最高賠10萬!于東來回應(yīng)

每日經(jīng)濟(jì)新聞
2025-06-09 18:17:09
蔚來法務(wù)部:多名人員被拘留、處罰

蔚來法務(wù)部:多名人員被拘留、處罰

揚子晚報
2025-06-09 07:17:56
中央政治局會議審議,決定開除朱芝松黨籍

中央政治局會議審議,決定開除朱芝松黨籍

新京報政事兒
2025-06-10 10:14:32
高考最后一天,惡心的一幕還是出現(xiàn)了,網(wǎng)友不淡定了

高考最后一天,惡心的一幕還是出現(xiàn)了,網(wǎng)友不淡定了

鋭娛之樂
2025-06-09 15:11:24
移民戰(zhàn)、關(guān)稅戰(zhàn)、撥款戰(zhàn)……加州多次硬剛特朗普的底氣何在

移民戰(zhàn)、關(guān)稅戰(zhàn)、撥款戰(zhàn)……加州多次硬剛特朗普的底氣何在

上游新聞
2025-06-10 12:08:07
上海最新明確:嚴(yán)查這一行為!首違警告、再違罰款,最高罰50元,啟用抓拍設(shè)備執(zhí)法

上海最新明確:嚴(yán)查這一行為!首違警告、再違罰款,最高罰50元,啟用抓拍設(shè)備執(zhí)法

上觀新聞
2025-06-10 09:47:28
禁止律師喝酒:權(quán)力之手不要伸得太長了

禁止律師喝酒:權(quán)力之手不要伸得太長了

千千法言
2025-06-10 11:06:00
劉力已任重慶社會科學(xué)院黨組書記、院長

劉力已任重慶社會科學(xué)院黨組書記、院長

新京報
2025-06-10 11:47:07
高考成績?yōu)?分?浙江發(fā)布緊急提醒!

高考成績?yōu)?分?浙江發(fā)布緊急提醒!

FM93浙江交通之聲
2025-06-10 06:40:41
淚目!山東聊城,雙胞胎男生走出考場,竟直接朝路邊老人跪下磕頭

淚目!山東聊城,雙胞胎男生走出考場,竟直接朝路邊老人跪下磕頭

小人物看盡人間百態(tài)
2025-06-10 08:50:02
中國的高考作文,毫無邏輯和真實,只會在牢籠里抒情

中國的高考作文,毫無邏輯和真實,只會在牢籠里抒情

風(fēng)向觀察
2025-06-09 17:19:17
2025-06-10 13:52:49
量子位 incentive-icons
量子位
追蹤人工智能動態(tài)
10626文章數(shù) 176166關(guān)注度
往期回顧 全部

科技要聞

一文看懂WWDC:蘋果發(fā)布"十年一遇"設(shè)計革命

頭條要聞

花旗中國區(qū)金融服務(wù)公司裁員4000人 有員工獲"N+6+3"

頭條要聞

花旗中國區(qū)金融服務(wù)公司裁員4000人 有員工獲"N+6+3"

體育要聞

17歲攀上最高的山!亞馬爾身價 2年從0飆至2億歐

娛樂要聞

黃圣依首曝初戀是賈乃亮 仍經(jīng)常聯(lián)系

財經(jīng)要聞

泡泡瑪特王寧成“河南新首富”

汽車要聞

定位6座大型SUV 吉利銀河M9有望年內(nèi)上市

態(tài)度原創(chuàng)

家居
健康
教育
親子
時尚

家居要聞

高級質(zhì)感 灰調(diào)木紋布藝

減重專家破解減肥九大謠言!

教育要聞

4校明確,不招文科生!

親子要聞

不知道誰教的

爽文都不敢這么寫!21歲結(jié)婚被全網(wǎng)罵,28歲靠美妝品牌賺10億美金

無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 营口市| 吉木萨尔县| 泰顺县| 万安县| 荥经县| 阳泉市| 象山县| 环江| 桐乡市| 蒙阴县| 固原市| 克拉玛依市| 望谟县| 东阿县| 德保县| 宜阳县| 彝良县| 马关县| 襄垣县| 会泽县| 瓦房店市| 佛冈县| 宜昌市| 麻江县| 威信县| 常宁市| 洪江市| 白玉县| 嘉黎县| 喀什市| 左云县| 樟树市| 香河县| 翼城县| 昌黎县| 台南县| 布尔津县| 东丽区| 崇信县| 云龙县| 乐至县|