大語言模型(Large Language Model, LLM)在復雜推理任務中表現卓越。借助鏈式思維(Chain-of-Thought, CoT),LLM 能夠將復雜問題分解為簡單步驟,充分探索解題思路并得出正確答案。LLM 已在多個基準上展現出優異的推理能力,尤其是數學推理和代碼生成。
然而,當前針對 LLM 推理能力的研究主要集中于被動推理(Passive Reasoning, PR),即在提供完整信息的前提下讓模型進行推理。相比之下,對信息不完備場景下模型推理能力的研究明顯不足。
這類場景在實際應用中十分常見,例如偵探需要通過詢問和走訪獲取破案線索,醫生需要通過問診收集診斷依據。我們將這類需要主動獲取信息的推理稱為主動推理(Active Reasoning, AR)
目前關于 AR 的方法和基準研究較少,探索不足,制約了 LLM 在復雜現實場景中的應用。如圖 1 所示,被動推理是直接從給定的充分信息中求解,而主動推理則需要從不完整的信息出發,通過多輪交互來獲取關鍵線索,最終得出結論。可以說,被動推理的核心是找到答案,而主動推理的核心是提出正確的問題。
圖 1 被動推理(左)與主動推理(右)的示意圖。
盡管主動推理對實現通用人工智能至關重要,但目前學術界對此關注甚少,LLM 在這方面的能力也亟待一個系統性的評估。為此,我們提出了 AR-Bench,一個旨在全面評估大模型主動推理能力的基準,并進行了一系列深入的實驗分析。
我們的主要貢獻有如下三點:
- 新問題:我們提出了主動推理這一亟待研究的新問題,并系統定義了其相對于被動推理的核心挑戰。
- 新基準:我們提出了專門用于評估主動推理能力的基準 AR-Bench ,系統的測試模型在復雜場景中的主動推理能力。
- 新發現:我們通過在 AR-Bench 上的全面評測,揭示了當前頂尖 LLM 在主動推理方面的普遍且嚴重的短板,并指出了未來的研究方向。
接下來,我們將簡要介紹 TMLR 課題組和斯坦福大學合作的 AR-Bench,并展示我們從廣泛地測試實驗中提取出來的重要發現,相關論文已發表于 ICML 2025 會議。
- 論文標題:From Passive to Active Reasoning: Can Large Language Models Ask the Right Questions under Incomplete Information?
- 論文鏈接:https://arxiv.org/abs/2506.08295
- 代碼鏈接:https://github.com/tmlr-group/AR-Bench
新問題:主動推理
傳統的 LLM 推理研究,如 CoT,大多遵循被動推理的范式。在這種范式下,模型接收一個包含所有必要信息的問題,然后逐步地推導出最終答案。然而,現實中許多場景都存在著信息不完整的情況。以醫療診斷為例,醫生需要通過與患者互動主動獲取癥狀、病史等關鍵信息,而非被動接收完整數據。這類信息不完整的場景要求 LLM 通過提問、信息探索和動態交互來補充缺失信息,最終完成推理任務。
我們將這種推理范式定義為主動推理。在 AR 范式下,模型僅獲得部分信息,并且必須通過與外部環境(如數據庫、API 或人類用戶)的交互來主動提問,以獲取缺失的關鍵信息來解決問題。AR 綜合了提問、檢索和迭代推理,是一個更全面、更動態、更具挑戰性的問題解決框架。
對主動推理問題的探索,有助于我們更好地理解和提升 LLM 在真實、復雜場景下的智能水平,推動其從一個被動的文本處理器,轉變為一個能夠主動解決問題的人工智能體。
圖 2 PR 要求模型通過一步步推理從給定的問題得到正確答案,而 AR 要求模型分析當前任務,提出一系列關鍵的問題來獲取重要信息,并利用這些信息得到正確的答案。本質上,PR 的核心要求是根據問題得到正確答案,而 AR 的核心要求是提出正確的問題來獲取關鍵的信息。
新基準:AR-Bench
為了系統地評估和衡量 LLM 的主動推理能力,我們構建了 AR-Bench (Active Reasoning Benchmark)。AR-Bench 旨在模擬真實世界中的信息獲取場景,它包含三個不同類型的任務,分別對應三種核心的推理能力:
偵探案件 (Detective Cases, DC):模擬刑事案件調查,模型需要通過提問來搜集線索、分析案情,考驗其常識推理能力。
情景謎題 (Situation Puzzles, SP):也被稱為 「海龜湯」,模型需要通過 「是 / 否」 問題來揭開一個看似矛盾或離奇情景背后的真相,考驗其邏輯推理和發散思維能力。
數字猜謎 (Guessing Numbers, GN):經典的主動推理游戲,模型需要根據反饋猜測一個由不重復數字組成的四位數,考驗其符號推理能力。
圖 3 AR-Bench 中三種任務的示例。
我們的評估框架采用多輪交互范式,其中提問方 LLM 與扮演信息源的 「回答者」 智能體進行動態對話。該評估體系包含兩個維度:
1)結果評估:在 DC 和 GN 任務中判斷模型結論與標準答案的匹配度,對于開放式問題 SP 則采用 F1-Score 衡量回答相似度;
2)過程評估:基于預設關鍵問題(Key Questions),通過 LLM-as-a-judge 方法以交互輪次為粒度評估對話是否有效解決關鍵問題(適用于 DC 和 SP ),而在 GN 任務中則直接計算反饋信息的數字準確率作為過程評分指標。這一綜合評估方案不僅關注最終答案的正確性,更重視模型在交互過程中提出問題的質量和信息獲取的有效性,從而全面刻畫模型的主動推理能力。
新發現:
大模型主動推理能力嚴重不足
我們在 AR-Bench 上對包括 GPT-4o 在內的多個先進 LLM,以及基于 prompting 和基于訓練的推理方法進行了廣泛測試。
實驗結果(圖 4,5)表明:目前的語言模型和推理方法都無法有效解決AR-Bench 提出的問題,我們發現:
1. 即使是最先進的 GPT-4o 模型也只能在 GN 任務上達到 35% 的準確率。
2. 細粒度的指導和基于搜索的方法 (ToT)只能提供非常有限的性能提升。
3. 基于訓練的方法(SFT, DPO)甚至在一些任務上使模型性能變差。
圖 4 不同模型在 AR-Bench 上的性能對比。
圖 5 Llama-3.1-8B 和 Llama-3.1-70B 使用不同方法在 AR-Bench 上的性能對比。
我們還測試了兩個先進的主動推理方法(Proactive CoT 和 Uncertanty of Thoughts)以及人類在 AR-Bench 上的表現(見圖 6)。我們發現:
1. 即使是目前提出的先進的主動推理方法也無法提升模型在 AR-Bench 上的性能。
2. 人類在 AR-Bench 上的推理表現顯著優于目前先進的語言模型。
圖 6(左)先進的主動推理方法在 AR-Bench 上的性能表現,(右)人類在 AR-Bench 上的表現和 GPT-4o 對比。
為了更細致的研究語言模型在主動推理上的表現,理解目前模型和方法的不足,我們測量了模型在主動推理交互過程中模型對該任務的解決程度(見圖 7,8),我們發現:
1. 在交互過程中,模型的收益呈現遞減趨勢,在后期問題質量低下
2. 較弱的模型問出的問題質量偏低,并且無法對交互機會進行有效利用
3. 較強的模型能夠利用多輪交互機會,持續獲得有用的信息
4. 基于搜索的方法在 AR-Bench 中依賴于每一輪評估問題質量的驗證器的可靠性,表現在對 GN 任務有顯著提升 (驗證器基于數值反饋構建,簡單可靠),而在 SP 任務下無法提升推理表現 (驗證器基于自然語言反饋構建,復雜且相對不可靠)。
圖 7 Llama-3.1-8B 和 Llama-3.1-70B 使用不同方法在 AR-Bench 推理中過程分的變化趨勢。
圖 8 不同模型在 AR-Bench 各任務上推理中過程分的變化趨勢。
我們還進行在 AR-Bench 進行了三方面的消融實驗(見圖 9,10,11):
1. 固定交互信息,探究不同模型的推理能力的表現。
2. 延長交互的輪數,給予模型更多的機會進行信息獲取,探究模型的表現變化。
3. 探究在實驗中扮演回答者的模型的可靠性。
我們發現:
1. 更大的模型能夠在固定的記錄中提取出更多的有效信息。
2. 簡單延長交互輪數無法完全解決主動推理任務。
3. 面對主模型提出的問題,回答者能夠給出可靠的回復。
圖 9 使用 Llama-3.1-70B 和 Llama-3.1-405B 在交互過程中獲得的交互記錄測試不同模型在給定信息的情況下給出正確結論的能力。
圖 10 延長交互輪數后,比較模型的推理表現變化。
圖 11 回答者模型的可靠性驗證。
為更直觀評估模型在主動推理中的表現,我們系統分析了不同任務中的典型錯誤模式(見圖 12),并通過具體案例深入剖析了模型的失誤原因(見圖 13)。
我們發現:
1. 模型會問出寬泛,不具體的問題。
2. 模型會問出沒有幫助的問題。
3. 模型在主動推理中會頻繁出現時間線誤解,忽視證據,強行提出未經驗證的假設,以及沒有完全利用符號反饋等典型問題。
圖 12 GPT-4o 模型在不同任務下的推理正確和推理錯誤的案例分析。
圖 13 Llama-3.1-8B 和 GPT-4o 在不同任務下的出現的典型錯誤統計。
總結
我們的工作系統地定義了主動推理這一重要問題,并構建了 AR-Bench 作為社群的評估工具。我們的實驗結果清晰地表明,當前的大語言模型雖然在被動推理上能力強大,但在更貼近現實的主動推理場景下卻舉步維艱。
展望未來工作,我們認為 AR-Bench 存在以下拓展方向:
提升模型的主動推理能力:
1. 采集小規模但是高質量的微調數據集
2. 將強化學習推理方法(PPO, GRPO, DAPO)和推理模型適配到主動推理
3. 為搜索方法開發更先進可靠的驗證器,以提升搜索方法在主動推理上的表現
將 AR-Bench 拓展到更多的任務和領域:
1. 醫療場景和定制化代理
2. 多輪檢索增強生成和工具調用
3. 模擬真實環境和多模態場景,例如機器人和游戲
更多的實驗分析和技術細節,請參閱我們的論文及源碼,我們也將持續更新本工作的內容。
我們希望 AR-Bench 能夠激發更多關于主動推理的研究,推動開發出能夠主動提問、高效探索、真正解決現實世界問題的人工智能。非常感謝大家關注我們的工作!
課題組介紹
香港浸會大學可信機器學習和推理課題組 (TMLR Group) 由多名青年教授、博士后研究員、博士生、訪問博士生和研究助理共同組成,課題組隸屬于理學院計算機系。課題組專攻可信基礎模型、可信表征學習、基于因果推理的可信學習等相關的算法,理論和系統設計以及在自然科學上的應用,具體研究方向和相關成果詳見本組 Github https://github.com/tmlr-group。
課題組由政府科研基金以及工業界科研基金資助,如香港研究資助局新進學者協作研究補助金、優配研究金和杰出青年學者計劃,國家自然科學基金面上項目和青年項目,以及微軟、英偉達、字節跳動、百度、阿里、騰訊等企業的教職科研基金。青年教授和資深研究員手把手帶,GPU 計算資源充足,長期招收多名博士后研究員、博士生、研究助理和研究實習生。此外,本組也歡迎自費的訪問博士后研究員、博士生和研究助理申請,訪問至少 3-6 個月,支持遠程訪問。有興趣的同學請發送個人簡歷和初步研究計劃到郵箱 bhanml@comp.hkbu.edu.hk。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.