99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

長思維鏈里的推理步驟,哪些最關鍵?三招鎖定LLM的「命門句子」

0
分享至



機器之心報道

編輯:張倩

思維鏈里的步驟很重要,但有些步驟比其他步驟更重要,尤其是在一些比較長的思維鏈中。

找出這些步驟,我們就可以更深入地理解 LLM 的內部推理機制,從而提高模型的可解釋性、可調試性和安全性。

但是,這些步驟沒有那么好找,因為每個生成的 token 都依賴于之前的所有 token,其計算難以分解。

在最近的一項研究中,來自杜克大學和 Aiphabet 的研究者提出,在句子層面分析推理痕跡或許是一種有前途的方法



  • 論文標題:Thought Anchors: Which LLM Reasoning Steps Matter?
  • 論文鏈接:https://arxiv.org/pdf/2506.19143

作者指出,與 token 相比,句子的連貫性更強,并且往往與 LLM 提取的推理步驟相一致;與段落相比,句子不太可能混淆推理步驟,并且可以作為連接不同步驟的有效對象。

作者提出了三種互補的方法來分析 LLM 的推理過程,這些方法旨在識別推理過程中的關鍵步驟,即所謂的「思維錨(thought anchor)」,這些步驟對后續推理過程具有重大影響。



第一種是黑盒方法。它通過反事實分析衡量句子對最終答案的影響。即通過比較模型在包含某個句子和不包含該句子時的最終答案分布,來評估該句子對最終答案的影響。

第二種是白盒方法。它通過注意力模式識別關鍵句子,揭示關鍵句子如何影響推理軌跡的其余部分。

第三種是因果歸因方法。它通過抑制注意力直接測量句子之間的因果關系,即抑制對特定句子的注意力如何影響后續每個句子的 logits。



每種方法都為思維錨的存在提供了證據。這些推理步驟非常重要,對后續推理過程產生了不成比例的影響。這些思維錨通常是計劃句或回溯句。

作者提供了一個開源工具,用于可視化方法的輸出。

開源工具鏈接:http://thought-anchors.com/

這項研究也為更精確地調試推理失敗、識別不可靠性的來源以及開發提高推理模型可靠性的技術打開了大門。



通過反事實測量句子影響

有些句子比其他句子更重要,但哪些句子最重要取決于我們如何定義和衡量重要性。作者將句子層面的重要性表述為一個反事實影響的問題:包含或排除一個句子會如何影響后續步驟以及模型的最終輸出?

在之前的研究中,句子重要性通常是通過在推理過程中的每個句子位置強制模型給出最終答案來近似的,這種方法叫做「forced-answer」(如圖 3A)。



這種方法的一個局限性在于,對于某些最終答案而言,句子 S 可能是必要的,但 LLM 在推理過程中往往較晚才生成該句子。這意味著,對于出現在 S 之前的所有句子,強制回答的準確率都會很低,從而無法準確判斷這些早期步驟的重要性。

考慮一個由句子以及最終答案 A 組成的推理軌跡。作者通過重新采樣來定義一個度量,用以衡量句子 S 導致答案 A 出錯的程度。作者稱這個度量為反事實重要性。他們通過以下三個步驟來激勵并定義這個度量:



推理軌跡采樣。對于給定的句子 S_i,生成 100 次推理軌跡。一種情況下包含句子 S_i(干預條件),另一種情況下用一個語義不同的句子 T_i 替代 S_i(基礎條件)。

分布比較。計算兩種條件下最終答案分布的 KL 散度。從而得到一個衡量句子 S_i 改變答案程度的標量。作者稱其為重采樣重要性度量。

語義過濾。重采樣重要性的問題在于,如果 T_i 與 S_i 相同或相似,那么我們無法得知 S_i 是否重要。因此,作者通過計算句子對的余弦相似度,并設定一個相似度閾值,篩選出那些與原句子 S_i 語義不同的替代句子 T_i。這樣可以避免因替代句子與原句子過于相似而導致的分析偏差,從而更準確地評估 S_i 對最終答案的影響。

由于作者在給定句子 S_i 之后重新采樣所有步驟,因此避免了上述強制回答方法的局限性。

在數據集中,他們發現規劃生成(Plan generation)和不確定性管理(uncertainty management)例如,回溯)句子的反事實重要性始終高于其他類別的句子,如事實檢索或主動計算(見圖 3B)。這支持了這樣一種觀點:高層次的組織性句子可以錨定、組織并引導推理軌跡。作者認為,與強制回答重要性和先前基于 token 或注意力的度量相比,這種方法提供了更有信息量的結果。

通過注意力聚集衡量句子重要性

作者假設重要的句子可能會受到下游句子更多的關注。盡管注意力權重并不一定意味著因果聯系,但高度的關注是重要的句子可能對后續句子施加影響的合理機制。作者進一步推測,對重要句子的高度關注可能由特定的注意力頭驅動,通過追蹤這些頭,可能能夠確定關鍵句子。

作者評估了不同的頭在多大程度上將注意力集中在特定的句子上。首先,對于每個推理軌跡,他們將每個注意力頭的 token-token 注意力權重矩陣取平均值,形成一個句子 - 句子矩陣,其中每個元素是兩個句子之間所有 token 對的平均值?;诿總€注意力矩陣,他們計算其對角線下方列的平均值,以衡量每個句子從所有下游句子中獲得的關注程度;只在相隔至少四個句子的句子對之間取平均值,以專注于遠距離的連接。這為每個頭生成了一個分布(例如,圖 4A),并且每個頭通常將注意力集中在特定句子上的程度可以通過其分布的峰度來量化(對每個推理軌跡進行計算,然后在軌跡之間取平均值)。繪制每個頭的峰度圖表明,一些注意力頭強烈地將注意力集中在推理軌跡中特定的、可能是重要的句子上(圖 4B)。



圖 5 表明,規劃生成、不確定性管理和自我檢查(self checking)句子始終通過接收頭獲得最多的關注(見圖 5),而主動計算句子獲得的關注最少。進一步與這一發現一致的是,根據重采樣方法,那些獲得高接收頭關注的句子往往也會對下游句子產生更大的影響。這些發現與以下觀點相符:推理軌跡是圍繞高層句子構建的 —— 這些句子啟動的計算可能連接高層陳述,但對整體推理路徑的影響可能微乎其微。



通過「注意力抑制」衡量句子重要性

自然而言,考察注意力權重存在一個固有局限:它們無法衡量因果關系。此外,接收頭未必適合識別句子與單個后續句子間的關聯。因此,作者接下來聚焦于句子間依賴關系的因果歸因分析。

基于重采樣的句子間分析雖能考察此類依賴關系,但在映射邏輯連接時精度有限 —— 因為反事實重要性反映的是句子對另一句子的總效應(包括直接和間接影響)。而本文方法旨在分離句子間的直接影響,從而有望實現對邏輯連接更精確的建模。

作者通過抑制對特定句子的所有注意力(所有層和頭),觀察其對后續句子的影響。具體而言,影響程度定義為 token logits 與基線 logits(未抑制時)的 KL 散度。對后續句子的總效應計算為其組成 token log-KL 散度的平均值。

該方法基于兩個假設:

  1. token logits 能準確捕捉句子的語義內容;
  2. 注意力抑制不會導致分布外行為的干擾。

因此需驗證注意力抑制法與重采樣法的相關性 —— 后者雖精度較低,但不依賴上述假設。

注意力抑制矩陣與重采樣矩陣的值呈現顯著相關性。在 20 條推理軌跡中,19 條顯示正相關。當僅分析推理軌跡中相距 5 句以內的案例時(可能更好捕捉直接效應),相關性更強??紤]到兩種方法測量的是因果關系的不同維度,且重采樣法本身包含隨機噪聲,這些相關系數具有實質意義。該結果支持了重采樣方法的有效性。

案例研究

所采用的三種技術覆蓋了推理軌跡中不同層面的歸因分析。接下來,作者通過模型對具體問題的響應展示了這些技術的實用性和互補性。選用的例題是:「當十六進制數 66666_16 轉換為二進制表示時,它有多少個二進制位(比特)?」



重采樣

模型處理此問題的思路是:首先考慮 66666_16 包含 5 個十六進制位,而每個十六進制位可用 4 個二進制位表示。基于此邏輯,思維鏈最初得出「20 比特」的答案。然而這一初始答案忽略了 6_16 實際對應 110_2(而非 0110_2,因其最前面的 0 無效),因此正確答案應為「19 比特」。在第 13 句時,模型通過啟動將 66666_16 轉換為十進制再轉二進制的計算,轉向了正確解答。

重采樣方法揭示了這一初始錯誤軌跡和關鍵轉折點(圖 2A 已展示)。具體表現為:第 6-12 句期間預期準確率持續下降,但第 13 句使反事實準確率急劇上升。值得注意的是,若采用強制模型立即生成響應的評估方法(如部分已有研究所示),則會完全錯過第 13 句的關鍵作用 —— 該方法僅會得到 0 準確率。



接收頭

模型得出最終正確答案的推理軌跡可分解為多個計算模塊(見圖 6 流程圖)。首先,模型建立將 66666_16 轉換為十進制的計算公式(第 13-19 句);接著執行該公式的計算,得出 66666_16 對應的十進制值為 419,430(第 20-33 句);隨后通過提出并求解新公式,確定正確答案為「19 比特」(第 34-41 句)。此時模型注意到與早期「20 比特」答案的矛盾(第 42-45 句),于是啟動雙重驗證計算:先確認十六進制轉十進制的準確性(第 46-58 句),再校驗二進制轉換的正確性(第 59-62 句)。在強化對「19 比特」答案的確信后,模型最終發現初始「20 比特」錯誤的根源:「因最前面的 0 不計入位數」(第 66 句)。

上述過程基于作者對注意力模式的分析:接收頭精準定位了發起計算或陳述關鍵結論的句子,從而將推理軌跡劃分為具有明確意義的模塊(圖 6)。

注意力抑制分析

除了被組織成計算模塊外,該推理過程還展現出與句子間依賴關系相關的框架結構(圖 6)。其中一個結構特征是包含錯誤提議、發現矛盾及最終解決的自我糾正模式。具體而言,模型最初提出「20 比特」的錯誤答案(第 12 句),隨后決定重新核驗。這導致與通過十進制轉換計算得出的「19 比特」答案產生矛盾(第 43-44 句)。在重新核驗支持「19 比特」答案的運算后,模型回到該矛盾點(第 65 句),最終解釋為何「20 比特」答案是錯誤的(第 66 句)。這可視為一個初步的思維鏈回路:兩個相互沖突的結論產生矛盾,進而促使模型解決該矛盾。

在這個大跨度框架中,還存在驗證先前計算的更深層依賴關系。具體表現為:模型先完成 66666_16 轉換為十進制值 419,430 的計算(第 32 句),隨后決定核驗該轉換結果(第 46 句),最終確認原始值正確(第 59 句)。這可視作思維鏈回路的進一步體現。

作者基于論文前面提到的注意力抑制矩陣識別出這些關鍵連接,該矩陣在這些關聯位置呈現局部最大值(12→43、43→65、12→66;32→46、32→59)。值得注意的是,注意力抑制技術定位的多數句子與接收頭(receiver heads)高度關注的句子存在重疊。相較于接收頭的結論,注意力抑制技術還展示了信息是如何在這些構建推理軌跡的關鍵句子之間流動的。

更多細節請參見原論文。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
5年1.22億提前續約!火箭官方:球隊與小賈巴里-史密斯完成續約

5年1.22億提前續約!火箭官方:球隊與小賈巴里-史密斯完成續約

直播吧
2025-07-11 07:49:38
全臺進攻,擊潰華裔名將!陳幸同3-0橫掃袁嘉楠,1/4決賽迎德比戰

全臺進攻,擊潰華裔名將!陳幸同3-0橫掃袁嘉楠,1/4決賽迎德比戰

釘釘陌上花開
2025-07-11 11:24:08
統統5500萬鎊!英超各豪門齊刷刷砸邊鋒:馬杜埃凱&庫杜斯&吉滕斯

統統5500萬鎊!英超各豪門齊刷刷砸邊鋒:馬杜埃凱&庫杜斯&吉滕斯

直播吧
2025-07-11 12:36:19
陳幸同橫掃袁嘉楠,早田希娜淘汰張本美和,張本智和險勝松島輝空

陳幸同橫掃袁嘉楠,早田希娜淘汰張本美和,張本智和險勝松島輝空

子水體娛
2025-07-11 13:32:55
好消息!布朗尼長高、長壯了!弗拉格6次沒打動,湖人不用交易了

好消息!布朗尼長高、長壯了!弗拉格6次沒打動,湖人不用交易了

光輝記
2025-07-11 11:38:39
驚天言論!不能加班的人請離開團隊,我的工作時間是9點到晚上2點

驚天言論!不能加班的人請離開團隊,我的工作時間是9點到晚上2點

明月雜談
2025-07-09 07:06:41
被燙傷8天后,張紀中9個月女兒依然還是很嚴重,手指都發黑了

被燙傷8天后,張紀中9個月女兒依然還是很嚴重,手指都發黑了

尋墨閣
2025-07-11 14:25:15
2比3!被絕殺!張本智和爆大冷出局!網友:還敢狂妄自大嗎?

2比3!被絕殺!張本智和爆大冷出局!網友:還敢狂妄自大嗎?

體壇知道分子
2025-07-11 06:20:03
新勢力1年內造不出來?極氪9X發布,是吉利不服華為小米

新勢力1年內造不出來?極氪9X發布,是吉利不服華為小米

路咖汽車
2025-07-10 16:02:38
知名主持人直播間被罵到封停

知名主持人直播間被罵到封停

17譚
2025-07-11 07:49:44
知名國酒爆雷,純酒精兌水,標注年份你說了算,成本10元賣899

知名國酒爆雷,純酒精兌水,標注年份你說了算,成本10元賣899

毒sir財經
2025-07-08 13:30:27
波蘭總統:澤連斯基聲稱“從未聽聞”烏克蘭納粹在二戰期間的罪行

波蘭總統:澤連斯基聲稱“從未聽聞”烏克蘭納粹在二戰期間的罪行

歐羅巴手記
2025-07-11 08:30:33
養老金調整通知正式公布,漲2%!企退養老金3257元,能漲160元嗎

養老金調整通知正式公布,漲2%!企退養老金3257元,能漲160元嗎

興史興談
2025-07-10 17:39:22
霍啟剛晉升,背后助力分析

霍啟剛晉升,背后助力分析

觀察者小海風
2025-07-11 11:38:46
八一廠悄然離世的20位老演員,患癌、自殺、抑郁,多位英年早逝

八一廠悄然離世的20位老演員,患癌、自殺、抑郁,多位英年早逝

墨印齋
2025-07-09 10:57:40
養老金最新通知來了!調整幅度讓人驚喜,工齡30年能領多少補助?

養老金最新通知來了!調整幅度讓人驚喜,工齡30年能領多少補助?

探源歷史
2025-07-10 22:26:07
趙亮自曝得7年抑郁癥!靠兒子一碗粥一塊糖走出,還欠100萬的房貸

趙亮自曝得7年抑郁癥!靠兒子一碗粥一塊糖走出,還欠100萬的房貸

檸檬有娛樂
2025-07-11 11:15:32
今天,泰國國王做出驚人之舉,瞬間讓全世界刮目相看

今天,泰國國王做出驚人之舉,瞬間讓全世界刮目相看

阿離家居
2025-07-11 01:10:46
2025年養老金上調2%,調整公式,工齡30年養老金3000元,漲多少?

2025年養老金上調2%,調整公式,工齡30年養老金3000元,漲多少?

振華觀史
2025-07-10 19:43:02
在中方眼皮子底下,越南給美國雪中送炭,將中國45項合作晾在一邊

在中方眼皮子底下,越南給美國雪中送炭,將中國45項合作晾在一邊

凌晨觀點
2025-07-11 12:26:21
2025-07-11 15:15:00
機器之心Pro incentive-icons
機器之心Pro
專業的人工智能媒體
10839文章數 142365關注度
往期回顧 全部

教育要聞

瞄準產業升級!選這些特色專科,畢業即對接高需求崗位!

頭條要聞

男生因室友電動車燃爆全身90%燒傷 治療花了290萬元

頭條要聞

男生因室友電動車燃爆全身90%燒傷 治療花了290萬元

體育要聞

從無畏金蘭到薪火相傳,中國女籃新的花期來了

娛樂要聞

楊少華靈堂細節 楊家兒子榨干老父親?

財經要聞

"它經濟"崛起 國產品牌快速追趕國際巨頭

科技要聞

稚暉君神操作 宇樹痛失"人形機器人第一股"

汽車要聞

最便宜滿血版華為智駕和鴻蒙座艙 嵐圖FREE+閉眼沖

態度原創

數碼
親子
健康
本地
公開課

數碼要聞

慧榮首次曝光 PCIe 6.0 企業級 SSD 主控 SM8466,順序讀 28GB/s

親子要聞

說一些掏心窩的大實話

呼吸科專家破解呼吸道九大謠言!

本地新聞

換個城市過夏天 | 楓葉之都的22℃清涼秘境

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 舒兰市| 寿宁县| 安塞县| 承德市| 瑞昌市| 罗定市| 清苑县| 宿松县| 东安县| 忻州市| 鄢陵县| 紫云| 五家渠市| 祁门县| 东乌珠穆沁旗| 荃湾区| 辽中县| 榆社县| 玉环县| 竹北市| 长治市| 白玉县| 云林县| 沧州市| 石景山区| 许昌市| 大石桥市| 连城县| 林甸县| 通州市| 海原县| 南和县| 石河子市| 隆林| 河北区| 资源县| 衡东县| 建始县| 连江县| 孟津县| 武宁县|