全文 3,000字 | 閱讀約13分鐘
(CBS 獨家專訪Geoffrey Hinton片段)
2025 年 5 月 17 日 |CBS Saturday Morning
剛把 2024 年諾貝爾物理學獎獎章鎖回抽屜,Geoffrey Hinton (杰弗里·辛頓)面對主持人 ,現場操作了 ChatGPT,并展示了他常見的一種使用方式:
起草初稿:讓 GPT-4 先寫一版研究備忘;
反向質詢:要求 GPT-4 扮演“刁鉆審稿人”,逐句挑錯;
數據補全:導入外部數據庫與最新論文,補齊推理鏈與證據鏈。
“它幾分鐘能干我很多工作。”Hinton 攤開雙手,“但我也最怕它哪天‘裝懂’——把漏洞包成邏輯遞進,還騙得我信以為真。”
短短一段演示中,Hinton 一口氣指出 AI 使用中的三大核心風險:生成幻覺、推理黑箱、責任漂移——這恰恰印證了他“依賴中保持警惕”的工作方式。
本文將沿「3 招實戰 → 3 大暗坑 → 安全閥清單」三段式展開,復盤 Hinton 的操作邏輯,提煉出一套適用于所有 AI 使用者的認知錨點,幫助你提速的同時,也不被“裝懂式智能”帶偏方向。
第一部分|我依賴 GPT-4,因為它“夠用”
“我每天都在用 GPT-4。”
這是 Hinton 在采訪中最先提到的一句話。沒有科幻,沒有危言聳聽,只是一位研究者,平靜地說出自己對一項工具的依賴。
這并不奇怪——GPT-4 足夠強大,回答迅速,表達通順,信息覆蓋廣。無論是寫郵件、草擬論文摘要,還是和它探討某個技術概念,它都能給出“像模像樣”的回應。
而這類體驗,其實不只屬于 GPT 用戶。無論你用的是 Claude、DeepSeek,還是豆包、Kimi、千問等等——只要它能聽你說話、給你生成答案,底層使用邏輯是一致的:你拋出任務,它給出回應。
但 Hinton 接著說的,是另一句更重要的話:
我最怕它哪天‘裝懂’騙我。
這不是在貶低 GPT,而是一種非常精準的提醒:它幫你完成任務沒問題,但你別指望它判斷對錯、教你思考。
Hinton 用它,是因為他知道自己在問什么,也知道怎么判斷回答有沒有邏輯。
他把它當成一個“有用但不可托底的助手”,而不是一個有判斷力的合作者,更不是一個可以學習人生哲學的老師。
他說:“助手可以加速,但不會糾正。老師才會告訴你哪錯了。”
GPT-4 很強,但它不會說“我不確定”,不會標出自己的邏輯漏洞,也不會阻止你采納一個看似正確、實則錯誤的答案。
這就是他的“依賴方式”:
用得越多,越清楚它靠不住。
而對很多普通用戶來說,最容易踩坑的恰恰是——
你越覺得它說得流暢,就越容易誤以為它說得正確。
Hinton 并沒有否定這種依賴 AI ,而是坦白地示范了:“是的,我每天都用。但我清楚它不是智能,它只是一個生成器。”
他借此機會想提醒大家:
用,是為了效率;懂,是為了安全。 別把一個高效的語言工具,當成一個理解你的人。第二部分|它裝懂了,但我能看出來
——那不是“推理”,只是“像在推理”的表演
采訪進行到一半,他們決定給 GPT 出一道“人類常見邏輯題”:
“Sally有三個兄弟,每個兄弟都有兩個姐妹。 那Sally有幾個姐妹?”
這類題目很常見,用來測試語言模型是否能處理簡單的代數推理與主語關系。GPT 開始給出答案:
“Sally有兩個姐妹。”
但這就是 Hinton 要指出的最大問題:
“它搞砸了。(It screws up)” “它沒意識到Sally自己是其中之一。”
換句話說,它“答對了一半”。邏輯鏈條斷在一個微小但關鍵的地方: GPT 并不理解“Sally自己也是那個群體的一部分”。
在我們看來,這只是一個小小的語義誤差;但在 Hinton 看來,這代表著整套智能機制的“根本缺陷”:
它不是“推理”出來的答案,它只是“預測”你想聽什么答案。
GPT 是怎么“裝懂”的?
Hinton 沒有用技術術語來講解,而是打了個比喻:
“這就像一輛生銹的車,上面刷了一層厚漆。”
它的語句光鮮、邏輯順滑、聽起來什么都懂。 但實際上底層結構有很多漏洞,尤其在邏輯鏈條、常識判斷、概念歸納這些領域:
它不理解角色之間的 關系結構;
它無法意識到“某個詞可能指代自己”;
它對結果過于自信,但缺乏“懷疑自己”的能力。
Hinton 補了一句意味深長的總結:
“它在各個領域都懂一點,但都不精通。 但是,不過最終它會在所有領域都變得非常專業。”
目前它看起來無所不知,其實只是善于“給出答案”。
但答案 ≠ 理解,
正如寫一篇順暢的文章 ≠ 明白文章的結構邏輯一樣。
那我們該擔心什么?
Hinton 的擔憂不在于 GPT 錯,而在于:
它錯得太像對了。
對普通用戶來說,越像人說的,越容易信以為真。尤其在 GPT 表達力越來越像人的當下,“裝懂”反而比“不會”更危險:
它不再暴露無知,而是在模仿有知;
它不再只是生成,而是引導判斷;
你以為它推理了,其實它只是順著語氣說下去。
Hinton 沒有反對用 GPT,他只是建議我們:
GPT 不知道它在說什么,問題在于你以為它知道。
第三部分|不能急停它,但你要裝一個剎車
——GPT 不會說“我錯了”,那就必須是你來踩剎車
Hinton 沒有提出“停下使用 ”這種絕對論調。相反,他自己每天都在用 GPT-4,只不過,他的使用方式,和大多數人不一樣:
把它當助手沒問題,但你不能把它當老師。
這句話背后,是一個更深層的警告:GPT 沒有“糾錯機制”。它不會告訴你這句話可能不完整、這道題我沒理解、這段邏輯我可能有問題。它不懷疑自己,也不會否定自己。
GPT 會繼續生成,直到你信了為止。
三大風險|Hinton 警示的“幻覺—黑箱—責任”陷阱
在這場看似輕松的訪談里,Hinton 實際上拋出了三個深藏的系統風險:
1、幻覺生成
GPT 的最大問題不在于它錯了,而在于它錯得像對的。
它回答得流暢自然、邏輯通順,但其中可能混入了編造的事實、拼湊的邏輯,甚至連它自己也無法分辨。
更關鍵的是,它不會提醒你“我不確定”——你只看到一個完整答案,很容易誤以為它“理解了”,從而直接相信。
2、推理黑箱
GPT 看起來能回答所有問題,但它自己也說不清“為什么這么回答”。
它沒有推理鏈,也沒有透明的中間過程。我們無法看到它是如何選取信息、形成邏輯、得出結論的。
甚至連模型開發者,也很難解釋它在某次對話中為什么選擇某個詞、某個句式,或者為什么會跳過某個邏輯環節。
3、責任懸空
當 AI 生成內容出了錯,責任會漂向哪里?
你用它草擬報告、分析市場、輔助決策——看起來只是提速,但一旦結果出了問題,是你錯了,還是模型錯了?GPT 不會承擔后果,但你可能要為它的失誤買單。
這些問題,GPT 不會回答。但你可以提前設下一道“人工安全閥”。
安全閥使用建議(個人+組織)
給使用者的“剎車清單”:不是停用,而是明知不可全信
1、對個人:
AI 輸出結果后,永遠先問自己兩個問題:
它是否跳過了必要的邏輯鏈條?
這個結論有沒有“太順了”?是不是你想聽的?
2、對組織:
不讓 AI 直接影響結果,只允許影響過程。
所有 AI 輸出必須有“人類最后一審”:不是 AI 把關你,而是你最后把關 AI。
在重要系統(教育、醫療、法律)中,不允許“默認相信 AI”。
不是技術該慢下來,而是你得先踩住剎車
Hinton 從沒要求停下大模型,也沒反對用 AI。他唯一做的,是把風險擺在你面前——
你當然可以提速,但請記得先“裝剎車”。
結語|你以為它懂你,其實只是說得像懂而已
這不是 Geoffrey Hinton 第一次發出警告,但卻是他第一次用這么生活化的方式,把“大模型”的問題講得這么直白。
沒有術語,沒有宏大敘事,也沒有對 AGI 的末日預言。
他只是拿出電腦,打開 ChatGPT,說了兩句話:
“我每天都用 GPT-4。” “可我最怕它哪天‘裝懂’騙我。”
就像他說的:它已經通過了圖靈測試,但它不會告訴你哪錯了,不會提醒你“這只是個預測”,不會幫你糾正邏輯跳躍。
你不小心把它當成“懂的人”,它就照著你的誤解一路走下去。
所以真正危險的不是 AI 說錯了什么, 而是你——沒有意識到它其實不懂。
Hinton 這場專訪留下的是一句提醒,也是一個提問:
“你得知道你在跟誰說話嗎?”
他已經在用,但用得克制。
他已經懷疑,但沒有拒絕。
這也許就是我們該有的 AI 使用態度:不是拒絕它,而是引導它。
本文由AI深度研究院出品,內容整理自CBS Saturday Morning人物專訪系統。
星標公眾號, 點這里 1. 點擊右上角 2. 點擊"設為星標" ← AI深度研究員 ? ← 設為星標
參考資料:https://www.youtube.com/watch?v=ruGyp7N4f10&t=6s&ab_channel=CBSMornings
來源:官方媒體/網絡新聞
排版:Atlas
編輯:深思
主編: 圖靈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.