99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

質疑DeepSeek-R1、Claude Thinking不會推理!蘋果爭議論文翻車?

0
分享至



機器之心報道

機器之心編輯部

當前,AI 的「推理」能力已經在以 DeepSeek-R1、OpenAI o1/o3、Claude 3.7 Sonnet 為代表的推理大模型中得到了驗證,它們顯示出了非常類人的思考過程。

然而近日,蘋果團隊的一篇論文對 LLM 的推理能力提出了質疑,并提出了自己的觀點 ——像 DeepSeek-R1、o3-mini 這類模型實際上根本沒有進行推理,只是很擅長記憶模式罷了

相關的一則推文在 x 上的閱讀量已經突破了 1000 萬。



我們接下來看蘋果這篇文章如何得出這一結論的:

蘋果從問題復雜性的角度探究前沿推理模型(LRM)的推理機制,沒有采用用標準基準(例如數學問題),而是采用可控的謎題環境,通過調整謎題元素并保留核心邏輯,系統地改變復雜度,并檢驗解決方案和內部推理(圖 1 頂部)。

這些謎題:(1) 對復雜性進行細粒度控制;(2) 避免現有基準中常見的污染;(3) 僅需明確提供的規則,強調算法推理;(4) 支持基于模擬器的嚴格評估,從而實現精確的解決方案檢查和詳細的故障分析。



實證研究揭示了關于當前推理模型(LRM)的幾個關鍵發現:

首先,盡管這些模型通過強化學習習得了復雜的自我反思機制,但它們未能發展出適用于規劃任務的泛化問題解決能力,其性能在超過一定復雜度閾值后會崩盤至零。

其次,蘋果在等效推理計算條件下對 LRM 和標準 LLM 進行了比較,揭示了三種不同的推理機制(圖 1 底部)。其中對于更簡單、低組合性的問題,標準 LLM 表現出更高的效率和準確性。隨著問題復雜度的適度增加,思維模型會獲得優勢。然而,當問題達到高復雜度且組合深度更長時,兩種模型類型的性能都會完全崩潰(圖 1 左下)。值得注意的是,接近這個崩潰點時,盡管 LRM 的運行速度遠低于代數限制,但隨著問題復雜度的增加,它們開始減少推理工作量(以推理時間 token 衡量)(圖 1 中下)。這表明,相對于問題復雜度,LRM 的推理能力在推理時間尺度上存在根本的限制。

最后,蘋果對中間推理軌跡或思維的分析揭示了與復雜性相關的模式:在較簡單的問題中,推理模型通常會盡早識別出正確的解決方案,但會低效地繼續探索錯誤的替代方案 —— 這是一種「過度思考」現象。在中等復雜度下,正確的解決方案只有在廣泛探索錯誤路徑后才會出現。超過一定的復雜度閾值,模型將完全無法找到正確的解決方案(圖 1 右下)。這表明 LRM 具有有限的自我修正能力,雖然很有價值,但也暴露出其根本的效率低下和明顯的擴展限制。

這些發現凸顯了現有 LRM 的優勢和局限性,并對這些系統中推理的屬性提出了質疑,這對它們的設計和部署具有重要意義。

總結來說,這項工作的貢獻包括如下:

  • 對當前基于既定數學基準的 LRM 評估范式提出質疑,并利用算法謎題環境設計了一個可控的實驗平臺,該環境能夠根據問題復雜性進行可控的實驗。
  • 實驗表明,最先進的 LRM(例如 o3-mini、DeepSeek-R1、Claude-3.7-Sonnet-Thinking)仍然未能開發出可泛化的問題解決能力。在不同環境中,當復雜度超過一定水平時,準確率最終會降至零。
  • 蘋果發現 LRM 的推理能力在問題復雜性方面存在一個擴展極限,這一點可以從思維 token 在達到某個復雜性點后呈現的反直覺下降趨勢中看出。
  • 蘋果質疑當前基于最終準確率的評估范式,并借助確定性謎題模擬器將評估范圍擴展到思維軌跡的中間解。分析表明,隨著問題復雜度的增加,正確的解會系統性地出現在思維的后期,而錯誤的解則不然,這為理解推理模型 (LRM) 中的自我修正機制提供了定量層面的見解。
  • 蘋果發現 LRM 在執行精確計算方面存在一些令人驚訝的局限性,包括它們無法從顯式算法中獲益,以及它們在不同謎題類型之間的推理不一致。



  • 論文標題:The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity
  • 論文地址:https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf

在這篇論文的作者中,共同一作為 Parshin Shojaee,她現在為 Virginia Tech 三年級博士生,且為蘋果的研究實習生。另一位共一 Iman Mirzadeh 為蘋果的 ML 研究工程師。此外,Yoshua Bengio 的兄弟 Samy Bengio 也參與了這項工作,他現為蘋果的 AI 和機器學習研究高級總監。

數學與謎題環境

目前,我們尚不清楚近期基于強化學習的思維模型所觀察到的性能提升是歸因于「更多接觸已建立的數學基準數據」,還是歸因于「分配給思維 token 的顯著更高的推理計算能力」,又或是歸因于「基于強化學習的訓練所開發的推理能力」?

最近的研究通過比較基于強化學習的思維模型與其非思維標準 LLM 對應的上限能力 (pass@k),利用已建立的數學基準探索了這個問題。他們表明,在相同的推理 token 預算下,非思維 LLM) 最終可以在 MATH500 和 AIME24 等基準測試中達到與思維模型相當的性能。

蘋果還對前沿的 LRM 進行了比較分析,例如 Claude-3.7-Sonnet(有思維 vs. 無思維)和 DeepSeek(R1 vs V3)。結果如圖 2 所示,在 MATH500 數據集上,當提供相同的推理 token 預算時,思維模型的 pass@k 性能與非思維模型相當。然而,蘋果觀察到這種性能差距在 AIME24 基準上有所擴大,在 AIME25 上進一步擴大。這種不斷擴大的差距帶來了解釋上的挑戰。

這可以歸因于:(1)復雜性不斷增加,需要更復雜的推理過程,從而揭示思維模型在更復雜問題上的真正優勢;或者(2)在較新的基準(尤其是 AIME25)中數據污染減少。有趣的是,人類在 AIME25 上的表現實際上高于 AIME24,這表明 AIME25 的復雜度可能較低。然而,模型在 AIME25 上的表現比 AIME24 更差 —— 這可能表明在前沿 LRM 的訓練過程中存在數據污染。



鑒于這些不合理的觀察結果以及數學基準不允許對問題復雜性進行控制操縱的事實,蘋果轉向了能夠進行更精確和系統實驗的謎題環境。

謎題環境

蘋果評估了 LRM 推理在四個可控謎題上的性能,這些謎題涵蓋了組合深度、規劃復雜度和分布設置。謎題如下圖 3 所示。



漢諾塔謎題(Tower of Hanoi)包含三個樁子和 n 個大小不同的圓盤,這些圓盤按大小順序(最大的在底部)堆疊在第一個樁子上。目標是將所有圓盤從第一個樁子移動到第三個樁子。有效的移動方式包括一次只移動一個圓盤、只取樁子頂部的圓盤,以及永遠不要將較大的圓盤放在較小的圓盤上。此任務的難度可以通過初始圓盤的數量來控制,因為初始圓盤數量為 n 時所需的最小移動次數為 2^n ? 1。然而,在本研究中,蘋果不對最終解決方案的最優性進行評分,而只衡量每次移動的正確性以及是否達到目標狀態。

跳棋(Checker Jumping)是一個一維謎題,將紅色棋子、藍色棋子和一個空格排成一條線。目標是交換所有紅色和藍色棋子的位置,有效地鏡像初始配置。有效的移動包括將棋子滑入相鄰的空位,或跳過恰好一個相反顏色的棋子落入空位。在謎題過程中,任何棋子都不能后退。該任務的復雜性可以通過棋子的數量來控制:如果棋子數量為 2n,則所需的最小移動次數為 (n + 1)^2 ? 1。

過河(River Crossing)是一個約束滿足規劃難題,涉及 n 個參與者及其對應的 n 個代理,他們必須乘船過河。目標是將所有 2n 個個體從左岸運送到右岸。船最多可載 k 個人,且不能空載。當參與者與另一個代理在一起而沒有自己的代理時,會出現無效情況,因為每個代理都必須保護其客戶免受競爭代理的侵害。此任務的復雜性也可以通過存在的參與者 / 代理對的數量來控制。當 n = 2 或 n = 3 對時,使用船容量 k = 2;當對數較大時,使用 k = 3。

積木世界(Blocks World)是一個積木堆疊難題,要求將積木從初始配置重新排列成指定的目標配置。目標是找到完成此轉換所需的最少移動次數。有效移動僅限于任何堆疊的最頂層積木,該積木可以放置在空堆疊上或另一個積木之上。此任務的復雜性可以通過存在的積木數量來控制。

實驗及結果

本文實驗是在推理模型及其對應的非推理模型上進行的,例如 Claude 3.7 Sonnet(thinking/non-thinking)和 DeepSeek-R1/V3。

復雜性如何影響模型推理?

為了研究問題復雜性對推理行為的影響,本文在可控謎題環境中開展了推理與非推理模型對的對比實驗,比如 Claude-3.7-Sonnet(thinking/non-thinking)和 DeepSeek(R1/V3)。

圖 4 展示了兩類模型在所有謎題環境中隨問題復雜度變化的準確率。



作為補充,圖 5 在相同推理 token 計算量下(所有謎題平均值),呈現了這些模型對的性能上限(pass@k)。



上述結果都表明,這些模型的行為在復雜性方面存在三種狀態:

在問題復雜度較低的第一種狀態下,本文觀察到非推理模型能夠獲得與推理模型相當甚至更好的性能。

在復雜度適中的第二種狀態下,能夠生成長思維鏈的推理模型的優勢開始顯現,推理、非推理模型之間的性能差距開始擴大。

最有趣的狀態是問題復雜度更高的第三種狀態,兩種模型的性能都崩潰為零。

這些結果都表明,雖然推理模型延緩了這種崩潰,但它們最終也會遇到與非推理模型相同的根本限制。

接下來,本文又研究了不同推理模型在問題復雜度變化時的效果。測試模型包括 o3-mini(中 / 高配置)、DeepSeek-R1、DeepSeek-R1-Qwen-32B 以及 Claude-3.7-Sonnet(thinking)。

圖 6 表明,所有推理模型在面對復雜度變化時都呈現出相似的模式:隨著問題復雜度的提升,模型準確率逐漸下降,直至超過模型特定的復雜度閾值后完全崩潰(準確率歸零)。



本文還發現推理模型最初會隨著問題復雜度成比例地增加思維 Token 使用量。然而,當接近臨界閾值(該閾值與其準確率崩潰點高度吻合)時,盡管問題難度持續增加,模型卻會反直覺地減少推理投入。這一現象在 o3-mini 系列變體中最為顯著,而在 Claude-3.7-Sonnet(思維版)模型中相對較輕。值得注意的是,盡管這些模型的推理生成長度遠未達到上限,且擁有充足的推理計算預算,但隨著問題復雜度提升,它們卻未能有效利用思維階段額外的計算資源。這種行為表明,當前推理模型的思維能力相對于問題復雜度存在根本性的擴展局限。

推理模型的思維內部發生了什么?

為了更深入地理解推理模型的思考過程,本文對模型推理軌跡進行了細粒度分析。重點關注 Claude-3.7-Sonnet-Thinking。

基于推理軌跡的分析進一步驗證了前文所述的三種復雜度模式,如圖 7a 所示。



對于簡單問題(低復雜度):推理模型通常在思維早期就能找到正確解(綠色分布),但隨后持續探索錯誤解(紅色分布)。值得注意的是,與正確的解決方案(綠色)相比,錯誤解決方案(紅色)的分布更傾向于思維的末端。這種現象,在文獻中被稱為過度思考(overthinking),導致了計算的浪費。

當問題變得稍微復雜時,這種趨勢就會逆轉:模型首先探索不正確的解決方案,然后再得出正確的解決方案。此時錯誤解(紅色)的分布位置相較于正確解(綠色)明顯下移。

最后,對于復雜度更高的問題,會出現崩潰,這意味著模型無法在思維中生成任何正確的解決方案。

推理模型令人困惑的行為

如圖 8a 和 8b 所示,在漢諾塔環境中,即使本文在提示中提供算法 —— 以便模型只需要執行規定的步驟 —— 模型性能也不會提高,并且觀察到的崩潰仍然發生在同一點左右。

此外,在圖 8c 和 8d 中,本文觀察到 Claude 3.7 Sonnet thinking 模型表現出截然不同的行為模式。該模型在提出的解決方案中首次出現錯誤的時間往往較晚,而在過河謎題中,該模型僅能生成有效解直至第 4 步。值得注意的是,該模型在解決需要 31 步的問題(N=5)時能達到近乎完美的準確率,卻無法解決僅需 11 步的過河謎題(N=3)。這可能表明網絡上 N>2 的過河謎題范例較為稀缺,意味著 LRMs 在訓練過程中可能較少接觸或記憶此類實例。



研究惹爭議

對于蘋果的這項研究,有人表示如果真是這樣,那又如何解釋 o3-preview 在 ARC 基準測試上的表現呢?



有人認為蘋果的研究具有誤導性,他們只測試了 DeepSeek R1 和 Claude 3.7。雖然其他模型可能會失敗,但說「ALL 推理模型失敗是不公平的。



還有人(x 用戶 @scaling01)復現了蘋果論文中的漢諾塔謎題及使用的精確prompt,有了一些有趣的發現:



你至少需要 2^N - 1 步,并且輸出格式要求每步包含 10 個 token 以及一些常量。

此外,Sonnet 3.7 的輸出限制為 128k,DeepSeek R1 為 64k,o3-mini 為 100k。這包括它們在輸出最終答案之前使用的推理 token!

所有模型在圓盤數量超過 13 個時準確率都將為 0,這僅僅是因為它們無法輸出那么多!

最大可解規模且沒有任何推理空間:DeepSeek:12 個圓盤;Sonnet 3.7 和 o3-mini:13 個圓盤。如果你仔細觀察模型的輸出,就會發現,如果問題規模過大,它們甚至不會進行推理。

由于移動次數太多,則將解釋求解算法,而不是逐一列出所有 32,767 個移動次數。

因此可以發現:

至少對于 Sonnet 來說,一旦問題規模超過 7 個圓盤,它就不會嘗試進行推理。它會陳述問題本身以及求解算法,然后輸出解決方案,甚至不會考慮每個步驟。

有趣的是,這些模型在每次移動時都有 X% 的概率選出正確的 token。即使有 99.99% 的概率,由于問題規模呈指數級增長,模型最終也會出錯。



此外,蘋果論文對游戲復雜性的解讀也非常令人困惑 僅僅因為漢諾塔謎題需要的步數比其他塔多得多,而其他的只需要二次或線性更多的步數,這并不意味著漢諾塔謎題更難。



這位用戶直言不諱地稱這項工作為「胡說八道」,模型實際上不是受限于推理能力,而是輸出 token 的限制造成的。



簡單來說,這位用戶的觀點就是:所有模型在圓盤數量超過13個時準確率降至0,僅僅是因為它們無法輸出那么多



OpenAI 的員工也湊起了熱鬧,表示「這波對蘋果研究的深挖很棒。」



有人還表示,如果這波分析沒錯的話,那蘋果的研究將沒有意義。



參考鏈接:https://x.com/scaling01/status/1931783050511126954

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
湖北女子婚檢查出艾滋!醫生保密致丈夫感染,男子:不會放過醫生

湖北女子婚檢查出艾滋!醫生保密致丈夫感染,男子:不會放過醫生

不寫散文詩
2025-06-10 06:35:05
特斯拉在中國都賣到哪里去了?上海僅第二 那第一是……

特斯拉在中國都賣到哪里去了?上海僅第二 那第一是……

手機中國
2025-06-09 15:25:10
英媒:紐卡無力承擔格拉利什30萬鎊周薪,曼城標價至少6000萬鎊

英媒:紐卡無力承擔格拉利什30萬鎊周薪,曼城標價至少6000萬鎊

直播吧
2025-06-09 22:01:11
排隊給C羅道歉!門德斯發聲!承認領袖地位,當年分開,并無恩怨

排隊給C羅道歉!門德斯發聲!承認領袖地位,當年分開,并無恩怨

阿泰希特
2025-06-09 11:31:22
王震之子王軍,與國家原副主席創建中信,54歲成為中信董事長

王震之子王軍,與國家原副主席創建中信,54歲成為中信董事長

以絕望揮劍
2025-05-24 21:04:31
油價大降超0.53元/升,斷崖大跌的油價,6月17日調整“越漲越多”

油價大降超0.53元/升,斷崖大跌的油價,6月17日調整“越漲越多”

油價早知道
2025-06-09 09:28:10
中美倫敦談判,白宮稱將芯片換稀土,A股上3400牛市重歸

中美倫敦談判,白宮稱將芯片換稀土,A股上3400牛市重歸

丁辰靈
2025-06-09 22:24:58
印度軍隊為啥那么有錢,滿世界買武器?原來是印軍制造的假象!

印度軍隊為啥那么有錢,滿世界買武器?原來是印軍制造的假象!

太空記
2025-06-08 13:21:26
2025年養老金調整,退休人員注意三點誤區,看看是怎么回事?

2025年養老金調整,退休人員注意三點誤區,看看是怎么回事?

碎月導師
2025-06-10 08:00:03
特朗普日均抓656名非法移民,抓的越多,特朗普的卡賣的越好 ?

特朗普日均抓656名非法移民,抓的越多,特朗普的卡賣的越好 ?

南宮一二
2025-06-09 10:24:30
高考后的“反常現象”,女生集體沖進醫院,家長民政局排隊辦離婚

高考后的“反常現象”,女生集體沖進醫院,家長民政局排隊辦離婚

二月侃事
2025-06-09 16:16:59
杜歐雙重認證的單挑王!歐文:我絕對不會和比斯利打1對1

杜歐雙重認證的單挑王!歐文:我絕對不會和比斯利打1對1

直播吧
2025-06-09 14:03:10
原來汪小菲大s也曾一起陪孩子上學,那時玥兒好幸福,大s眼神有愛

原來汪小菲大s也曾一起陪孩子上學,那時玥兒好幸福,大s眼神有愛

小咪侃娛圈
2025-06-09 09:01:35
51歲曹穎曬全家合照,老公王斑帶兒子來探班,14歲王子美得像女孩

51歲曹穎曬全家合照,老公王斑帶兒子來探班,14歲王子美得像女孩

南南說娛
2025-06-09 09:59:03
中菲建交50年,菲總統主持馬尼拉標志性建筑瓊斯橋亮燈儀式

中菲建交50年,菲總統主持馬尼拉標志性建筑瓊斯橋亮燈儀式

環球網資訊
2025-06-09 06:59:40
陳夢迎來天大喜訊!比樊振東加盟德甲,還要讓人開心

陳夢迎來天大喜訊!比樊振東加盟德甲,還要讓人開心

體壇狗哥
2025-06-09 08:12:02
女子領證時才得知老公大自己 12 歲,越想越氣人:他怎么下得了手

女子領證時才得知老公大自己 12 歲,越想越氣人:他怎么下得了手

唐小糖說情感
2025-06-05 08:58:14
曝浙江臺州一女子坐豪車拍不雅照!女子照片流出,身份被扒出

曝浙江臺州一女子坐豪車拍不雅照!女子照片流出,身份被扒出

小徐講八卦
2025-06-09 11:13:11
年輕人的盡頭是考公,20個人錄取有11個人是專業在家備考……

年輕人的盡頭是考公,20個人錄取有11個人是專業在家備考……

小人物看盡人間百態
2025-06-09 09:51:18
直到12歲兒子和我拳腳相向,我才醒悟:戒掉手機最好的方式,不是打罵,不是縱容,而是......

直到12歲兒子和我拳腳相向,我才醒悟:戒掉手機最好的方式,不是打罵,不是縱容,而是......

閱讀第一
2025-05-24 08:33:36
2025-06-10 09:31:00
機器之心Pro incentive-icons
機器之心Pro
專業的人工智能媒體
10607文章數 142336關注度
往期回顧 全部

科技要聞

一文看懂WWDC:蘋果發布"十年一遇"設計革命

頭條要聞

特朗普:不清楚馬斯克是否在白宮使用過毒品

頭條要聞

特朗普:不清楚馬斯克是否在白宮使用過毒品

體育要聞

雷霆55號秀,NBA第一“概念神”

娛樂要聞

劉品言閃婚閃孕官宣 崴腳時被照顧打動

財經要聞

泡泡瑪特王寧成“河南新首富”

汽車要聞

首次搭載奧特能2.0平臺 新別克E5即將煥新上市

態度原創

游戲
藝術
家居
旅游
公開課

穿越火線策劃都免費送了,為什么CF玩家也不怎么用麒麟粗?

藝術要聞

故宮珍藏的墨跡《十七帖》,比拓本更精良,這才是地道的魏晉寫法

家居要聞

簡約輕奢 現代實用私宅

旅游要聞

熱聞|清明假期將至,熱門目的地有哪些?

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 黄陵县| 丰镇市| 林芝县| 中西区| 宜兴市| 甘孜县| 温泉县| 漠河县| 台中市| 信宜市| 庄浪县| 九江市| 房产| 施甸县| 酉阳| 顺昌县| 南溪县| 谷城县| 黄浦区| 全南县| 泽州县| 云梦县| 琼结县| 新兴县| 安福县| 灵武市| 介休市| 洛隆县| 五原县| 施秉县| 三亚市| 巴南区| 灌南县| 克东县| 舒兰市| 五常市| 大兴区| 夏河县| 北碚区| 神池县| 宝鸡市|