今天凌晨,微軟在官網(wǎng)分享了自研的三大創(chuàng)新算法,以幫助大模型增強(qiáng)其推理能力。
無論你是小參數(shù)或者是大參數(shù)模型玩家,都能從rStar-Math、LIPS 、CPL這三大算法獲益,突破推理瓶頸,極大增強(qiáng)模型的數(shù)學(xué)推理和思考鏈的能力。
rStar-Math
rStar-Math算法主要通過蒙特卡洛樹搜索(MCTS)實(shí)現(xiàn)深度思考。MCTS 是一種用于決策過程的搜索算法,通過模擬多個(gè)可能的路徑來評估每個(gè)步驟的價(jià)值。在rStar-Math算法中,MCTS 被用來生成高質(zhì)量的推理軌跡,并通過一個(gè)基于SLM的獎(jiǎng)勵(lì)模型進(jìn)行評估。
在傳統(tǒng)的推理方法中,語言模型生成的自然語言推理軌跡往往存在錯(cuò)誤或不相關(guān)的內(nèi)容,尤其是在復(fù)雜的數(shù)學(xué)問題中。為了解決這一問題,rStar-Math 引入了代碼增強(qiáng)的CoT方法。大模型在生成每個(gè)推理步驟時(shí),會同時(shí)生成對應(yīng)的 Python 代碼。
這些代碼不僅用于驗(yàn)證推理步驟的正確性,還能夠通過執(zhí)行結(jié)果來篩選出高質(zhì)量的生成內(nèi)容。只有那些 Python 代碼能夠成功執(zhí)行的生成內(nèi)容才會被保留,從而確保中間步驟的正確性。
此外,傳統(tǒng)的獎(jiǎng)勵(lì)模型訓(xùn)練中,直接使用 Q 值作為獎(jiǎng)勵(lì)標(biāo)簽是一種常見的方法,但這種方法存在明顯的局限性。Q 值雖然能夠反映步驟的整體質(zhì)量,但它們帶有噪聲,無法精確地評估每個(gè)步驟的優(yōu)劣。
為了解決這一難題,rStar-Math 提出了一種新的訓(xùn)練方法,通過構(gòu)建基于 Q 值的正負(fù)偏好對來訓(xùn)練PPM。對于每個(gè)推理步驟,模型會選擇 Q 值最高的兩個(gè)步驟作為正樣本,選擇 Q 值最低的兩個(gè)步驟作為負(fù)樣本。
通過這種方式,PPM 能夠?qū)W習(xí)到如何區(qū)分高質(zhì)量和低質(zhì)量的推理步驟,從而提供更準(zhǔn)確的獎(jiǎng)勵(lì)信號。這種方法避免了直接使用 Q 值作為獎(jiǎng)勵(lì)標(biāo)簽的噪聲問題,顯著提高了獎(jiǎng)勵(lì)模型的精度和可靠性。
論文地址:https://arxiv.org/pdf/2501.04519
rStar-Math的自我進(jìn)化方法也是其核心優(yōu)勢之一。通過四輪自我進(jìn)化,策略模型和PPM 從頭開始逐步構(gòu)建,生成的訓(xùn)練數(shù)據(jù)質(zhì)量不斷提高,覆蓋的問題難度也逐漸增加。
在每一輪中,使用最新的策略模型和 PPM進(jìn)行MCTS,生成高質(zhì)量的推理軌跡,并用這些軌跡訓(xùn)練更強(qiáng)的策略模型和PPM。
LIPS
LIPS算法主要用于增強(qiáng)數(shù)學(xué)推理,其核心思想是將數(shù)學(xué)證明過程中的策略分為縮放和重寫兩大類。縮放策略通過符號工具實(shí)現(xiàn),利用有限的不等式引理庫對當(dāng)前目標(biāo)進(jìn)行細(xì)化,而重寫策略則由大模型負(fù)責(zé)生成,通過等價(jià)變換將問題轉(zhuǎn)化為更易于解決的形式。
在縮放策略方面,LIPS算法通過符號工具實(shí)現(xiàn),利用有限的不等式引理庫對當(dāng)前目標(biāo)進(jìn)行細(xì)化。例如,通過AM-GM不等式,算術(shù)平均數(shù)大于等于幾何平均數(shù)對目標(biāo)中的某些項(xiàng)進(jìn)行縮放。但縮放策略可能會引入無效的子目標(biāo),所以需要通過符號工具如SMT求解器檢查反例,從而過濾掉無效的縮放策略。
在重寫策略方面,LIPS算法由大模型負(fù)責(zé)生成,通過設(shè)計(jì)一系列提示引導(dǎo)大模型對當(dāng)前目標(biāo)進(jìn)行等價(jià)變換。例如,通過簡化、重新排列或消去分母等操作將目標(biāo)轉(zhuǎn)化為更易于處理的形式。由于重寫策略的空間是無限的,大模型的數(shù)學(xué)直覺在這里發(fā)揮了關(guān)鍵作用,能夠從大量可能的變換中篩選出最有希望的策略。
在目標(biāo)過濾與排序方面,LIPS算法采用了兩個(gè)階段:符號過濾和神經(jīng)排序。縮放和重寫策略生成的新目標(biāo)集合需要進(jìn)一步篩選和排序,以確定最有希望的證明路徑。首先,通過符號過濾階段,利用不等式的齊次性和解耦性來評估每個(gè)目標(biāo)的潛力。
論文地址:https://arxiv.org/pdf/2502.13834
齊次性表示不等式兩邊的次數(shù)相同,而解耦性則衡量不等式中混合變量項(xiàng)的數(shù)量。通過這些指標(biāo),可以快速排除那些不太可能被證明的目標(biāo)。其次,在神經(jīng)排序階段,對于經(jīng)過符號過濾后的前k個(gè)目標(biāo),利用大模型進(jìn)行最終排序。
CPL
傳統(tǒng)的強(qiáng)化學(xué)習(xí)方法雖然在特定任務(wù)上取得了進(jìn)展,但在跨任務(wù)泛化方面存在不足。此外,大模型的推理空間是無限的,這使得在其中尋找有效的推理路徑變得極為困難。
例如,在數(shù)學(xué)問題解決中,模型需要在眾多可能的解題步驟中找到最優(yōu)路徑,而在代碼生成任務(wù)中,模型需要在復(fù)雜的邏輯結(jié)構(gòu)中進(jìn)行有效的探索。
為了解決這些難題,微軟提出了CPL算法,一種基于關(guān)鍵計(jì)劃步驟學(xué)習(xí)的方法,旨在通過在高層次抽象計(jì)劃空間中進(jìn)行搜索,提升模型的泛化能力和推理性能。
在CPL算法中,計(jì)劃空間搜索是第一步,也是至關(guān)重要的一步。與傳統(tǒng)的解決方案搜索不同,計(jì)劃空間搜索關(guān)注的是高層次的抽象計(jì)劃,而不是具體的解決方案。
例如,在解決一個(gè)數(shù)學(xué)問題時(shí),模型首先會生成一個(gè)逐步解決問題的計(jì)劃,而不是直接生成具體的數(shù)學(xué)公式。這種計(jì)劃可以包括確定需要應(yīng)用哪些知識、如何分解問題等抽象思維步驟。通過這種方式,模型能夠?qū)W習(xí)到更通用的、與任務(wù)無關(guān)的技能,從而提高其在不同任務(wù)中的泛化能力。
在生成了多樣化的計(jì)劃步驟后,CPL的第二步是通過Step-APO學(xué)習(xí)關(guān)鍵計(jì)劃步驟。Step-APO是基于Direct Preference Optimization(DPO)的一種改進(jìn)方法,它通過引入優(yōu)勢估計(jì)來優(yōu)化步驟偏好。
Step-APO利用MCTS過程中獲得的優(yōu)勢估計(jì),為每一對步驟偏好賦予不同的權(quán)重,從而讓模型能夠更有效地識別出哪些步驟對推理能力的提升更為關(guān)鍵。
論文地址:https://arxiv.org/pdf/2409.08642
例如,在一個(gè)復(fù)雜的推理任務(wù)中,模型可能會發(fā)現(xiàn)某些步驟雖然在表面上看起來合理,但實(shí)際上對最終結(jié)果的貢獻(xiàn)較小,而Step-APO能夠幫助模型識別并強(qiáng)化那些真正重要的步驟。
本文素材來源微軟,如有侵權(quán)請聯(lián)系刪除
報(bào)告下載
大 佬觀點(diǎn)分享
關(guān)于RPA、AI、企業(yè)數(shù)字化轉(zhuǎn)型
(點(diǎn)擊文字即可閱讀)
| |
| | |
| | |
| | |
| |
行業(yè)知識交流分享,結(jié)識擴(kuò)展人脈圈層
公眾號后臺回復(fù)【RPA】或者【流程挖掘】
可受邀加入相關(guān)的交流群
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.