全文 5,000字 | 閱讀約30分鐘
(視頻:諾獎得主Geoffrey Hinton在多倫多大學本科新生講座)
你以為自己一直在追AI,
用工具、看教程、嘗試各種新功能。
你是不是也想過:
“只要跟上它的節奏,就不會被落下。”
可你有沒有真正問過自己——
“我到底理解它在做什么嗎?”
你在生成回答,卻沒再追問:“為什么是這個答案?”
你在執行指令,卻忽略了另一個問題:“我是在用它,還是被它用?”
昨天,在多倫多大學的一場本科新生講座上,
AI 教父、諾獎得主 Geoffrey Hinton,對一群大學生說出:
“你以為是 AI 在進化迭代, 其實是人類還沒學會思考。”
這不是一句哲學空談,
而是一場現實警告:
如果你不重新理解“思考”, 你就無法真正理解 AI,更別說用好它。? 第一節|AI越來越強?別被假“理解”騙了
1、你以為 AI 已經會思考了,對吧?
Claude的類人對話、GPT的多輪記憶、DeepSeek 的系統集成……
這一切讓人誤以為:AI 已經很接近人類智能了。
但在多倫多大學的講座上,Hinton 提出一個更根本的問題:
“你真的理解過,‘思考’到底是什么嗎?”
所有人都在追 AI,,
可我們是不是反而忘了,先重新理解我們自己的‘理解’?
Hinton并不否認 AI 的加速。他說:
“AI正在接近我幾十年前的愿景。”
緊接著他補充:
“問題是,我們自己到現在都還不清楚——什么才是思維。’”
這不是他在自謙,而是他研究五十年后的判斷:
人類對“智能”的想象,長期被邏輯主義所誤導。
2、思考,不是推理,而是“發現別人可能搞錯了”
他講了一個真實的小實驗:
在他年輕時做心理學研究時,
他觀察3到5歲的孩子分辨不同形狀和顏色。
有一組樣本中,出現了紅色圓形、黃色圓形、黃色正方形。
一個聰明的五歲孩子沒有選擇哪個“不同”,而是指出:
“你把那個圓形涂錯顏色了。”
這句話震住了他。
他不是答題,而是在理解規則后,反過來質疑規則本身。
這,是“思考”真正開始的地方。
Hinton總結說:
“我們現在的 AI,可以學會回答問題。 但它還不能發現問題,更不能指出人類可能搞錯了。”
它能預測語言,卻不懂語言的歧義;
它能模仿思維,卻無法質疑前提。
它看起來像在思考,其實只是套用了格式。
3 、人不是邏輯動物,而是“類比動物”
Hinton說:
“我們不是邏輯動物,而是類比動物。”
你不是通過一套規則思考,
而是通過一連串模糊的經驗、感受、相似性進行判斷。
這正是人類思維的復雜之處——
不是算法邏輯,而是一種模糊而動態的類比直覺。
我們可能在AI身上看見“人”,但它不懂“人”
他提醒學生:
“你們從中學一路走來,被教會了如何寫出‘正確答案’。 但在真正復雜的世界里,發現問題,比回答問題更重要。”
這句話,不只是說給臺下的新生。
是說給所有還在‘答題’的人類社會。”
?? 第二節|Hinton 50年只追一個問題
1、不是學霸人生,而是一連串“亂選”后的執念
很多人以為,像 Hinton 這樣的科學家,一定是少年天才、一路開掛。
其實恰好相反。
他說,自己剛進劍橋,第一次離開家,才發現:自己并不比別人聰明。
“一個月后我就退學了。”
他做過零工,申請過建筑專業。
第二天又變卦,回去讀了科學。
后來像走馬燈一樣換專業:生理學、哲學、心理學……
聽起來像是在逃避,其實他一直在找答案。
本科時他學物理還不錯,但數學太復雜。
他干脆說:“我永遠成不了物理學家。”
他喜歡生理學,但夏季課程講神經系統的時候讓他失望:
“他們只講了沖動是怎么傳導的,但沒講它是怎么‘工作的’。”
他去哲學、心理學里找答案,一個太空,一個太淺,都沒碰到‘思維的核心’。
直到多年后他才明白:
“如果你真的想理解思維, 你必須理解大腦是如何工作的。 光靠哲學、心理學、邏輯,是不夠的。”
2、“混亂”的路線,反而是他成為諾獎得主的根基
Hinton 對在場學生說:
“我走了一條混亂的路,但回頭看,每個學科都在為后來打底。”
哲學讓他質疑“理性”的本質,
心理學讓他接觸實驗方法,
生理學則建立了他對神經結構的直覺。
后來進入人工智能領域,他才開始真正“搭建思維的機器”。
這也印證了他今天最想告訴年輕人的一句話:
“比起‘你學什么’,更重要的是‘你想弄明白什么’。”
3、他不是追著趨勢跑,而是盯著一個問題,跑了50年
他說:““我之所以做人工智能,是因為我相信——我們能在電腦里,模擬出‘小型思維’。”
不是因為“AI 是風口”,
更不是因為“這個專業有前景”,
這些話,在今天這個所有人都在選“熱門專業”、追“未來方向”的時代里, 反而顯得格格不入。
但你如果回頭看——
今天的熱門方向,幾乎全都是那些當年被嘲諷“冷門”的人,長期沉進去、默默打磨幾十年打下的基礎。
講座臨近尾聲,他講了一句很輕的話:
“我當過木匠,做過實驗失敗,也曾放棄學術。 但我一直沒放棄“人類是怎么思考的”這個問題。”
他提醒學生:路徑可以混亂,但動機要清晰。
你可以換專業,可以失敗,可以走彎路,但你要問自己:
“有沒有一個問題,是你愿意花五十年去追的?”

1、“理解”不是預測下一句話,而是知道你在說什么
現在的 AI 模型表現得越來越“聰明”。
它能寫新聞、畫圖、生成策略文案,
甚至能在醫學考試、法律分析、邏輯測試中超越人類平均分數。
但在 Hinton 看來,這并不意味著它“理解了”世界。
“AI 所做的,不過是預測下一個詞—— 它不理解你在說什么,只是在擬合你會說什么。”
他說,它會接話,也能模仿人類的語氣、節奏、態度,
讓你覺得它好像真的在“懂你”。
但當你問它:“你為什么這么回答?”
它卻根本答不上來。
你以為它是邏輯清晰的“答題者”,結果它連自己為什么答這題都不知道。
2、預測 ≠ 理解,模仿 ≠ 思維
Hinton強調,預測是一種表層行為,
但“理解”必須包含一個更復雜的結構:
它必須能整合上下文、指向現實、具備解釋力。
他說:“它會寫詩,卻不懂孤獨;能編對白,卻從未愛過誰。”
這不是浪漫主義的批評,而是技術路線上的提醒:
“我們造出了看懂世界表面的系統,卻還沒造出能解釋世界的系統。”
人類的理解力,是從“解釋差異”開始的。
什么意思?
真正的理解,是從能解釋‘例外’開始的。
他舉了一個簡單例子:
為什么我們能理解“他傷心地笑了”這種矛盾短語?
為什么我們能通過語氣、上下文、過去的經驗,來判斷這是一種“諷刺”或“防御性”笑?
因為我們的大腦是不斷在構建一個“世界模型”:
包含模糊的經驗片段
包含情緒的重量、語境的厚度
包含你對自己過去判斷的修正能力
Hinton說,這種東西,是當前的 AI 暫時沒有的。
“AI 沒見過世界,也從未經歷誤解、失敗、修正—— 它只是在生成‘像理解的回答’。”
3、理解的本質,是“元認知”而不是“精度”
Hinton特別強調:
我們要追求的 AI,
不是更精準的模仿者,
而是能反思、能質疑前提、能與人類一起重新定義問題的系統。
這類智能目前還很原始,也不是主流方向。
因為它慢、難、看起來“不炫技”。
但 Hinton反復提醒:
“我們要構建的,是能共存的智能,不是能奪權的智能。”
現在大多數人談 AGI:
“AI 是否能像人一樣完成工作?”
但 Hinton的提問方式是:
“你是否真的理解‘人是怎么完成工作的’?”
這不是一個哲學問題,而是一個工程入口問題。
如果你連“人類理解”是如何形成的都不知道,
那你訓練出的模型,很可能只是一個幻象——
它會說話,卻不知道自己在說什么;
它看起來理性,其實連規則從哪兒來的都沒搞明白。
“不是 AI 不聰明,而是我們太急著定義‘聰明’了。”

1、焦慮背后,是“人類價值”的錯位
你焦慮的,不只是“大學專業選得對不對”,
而是越來越不確定:“人類的價值,還剩下什么?”
當 AI 能改稿、配圖、自動列提綱,
連學校開設的新專業,也清一色投向了數據、算法和自動化。
你開始懷疑:
“我會的東西,真的還有價值嗎?”
教育部增設的新專業,幾乎全部跟人工智能相關。
官方的信號已經很明確了:
未來的人才,最好既能讀懂機器,也能被機器讀懂。
與此同時,
在多倫多大學的講座上,Hinton 表達出了一句更具穿透力的話:
“如果你沒有一個真正感興趣的問題,選什么專業都沒意義。”
這不是在唱高調,
而是在提醒我們:
真正被 AI 拿走的,不是“技能”,而是“主動思考的機會”。
他不是一開始就知道自己要做 AI,也不是一路順風
——只是沒那么快放棄那個讓他困惑幾十年的問題。
2、文科的“無用”,恰恰是它的價值所在
今天很多人指責“文科沒用”,是因為它不直接“產出”:
它不造芯片、不跑模型、不寫算法。
但它能提問、能命名、能反問本身——這些,AI 還遠遠做不到。
你以為理解文學、哲學、歷史是沒用的,
但 GPT 的幻覺(hallucination),本質上是它無法理解語境、權力、諷刺這些結構。
你以為 AI 寫稿子比你快,
但它還分不清:
哪句話會傷人,哪張圖是壓迫,哪個詞會引發共鳴。
這些,就是文科教育本該訓練的東西, 也是“深度人類性”的一部分。
講座中,Hinton 反復提醒學生:
“你越年輕,就越有時間允許自己失敗。”
但今天的年輕人,
越來越沒有犯錯的空間, 沒有“純粹探索”的勇氣。
不是因為他們懶,而是社會在反復訓練你:
“這有用嗎?” “這能掙錢嗎?” “這能防止我失業嗎?”
而 Hinton 的整個人生主張恰恰相反:
“你要先想清楚,什么問題讓你著迷,其他的才有意義。”
你不是沒用,而是太早被迫成為執行者。
你不是工具人,
你只是太早放棄了‘當思考者’的機會。
3、不是為文科辯護,而是為“人類余地”留出一塊地
你可以不學哲學,
但你得能提出哲學式的問題。
你可以不寫小說,
但你得能感知人類故事的復雜結構。
未來的 AI 會越來越強, 但越強,它越像一面鏡子:
照見人類自己,丟掉了什么。?? 第五節|人類的優勢,是會問“為什么”
1、你焦慮的是 AI,其實更該怕的是“認知自動駕駛”
在講座問答環節中,有學生問 Hinton:
“你怎么看 AI 對未來職業的影響?”
面對學生關于‘未來職業’的問題,Hinton沒有直接回答,
他講了一個自己年輕時的經歷:
20世紀70年代,他曾短暫離開學術,成為一名木匠。他說:
“那時候我真的以為,學術這條路走不通了。”
但后來他遇到一位真正的木匠,對方手藝比他好得多。
他突然意識到:
“也許我該回去搞研究。相比之下,做學術還容易點。”
這不是轉行的插曲,而是他想提醒我們:
“人類最大的問題,從來不是技術,而是我們太容易放棄思考。”
Hinton提到,大多數人把 AI 看成是外部威脅——
怕它太聰明、太快、太卷。
但他反問學生:
“你有沒有意識到,你每天的很多決定, 都是在沒有真正思考的情況下做出來的?”
我們做選擇,不是出于興趣,而是出于‘證明有用’:
選標題只看吸引眼球,選專業只看好不好就業,學技能也只看能不能變現。
不是 AI 在接管世界,而是我們早就把主導權交了出去。
2、諾獎,不是因為聰明,而是他沒換問題
Hinton并不是一開始就決定做人工智能,
也不是一路開掛的“少年天才”。
他說,自己數學一般,人生轉了不少彎。
“我想弄明白,大腦是怎么工作的。”
不是他規劃得比別人好,
而是他沒換掉那個讓他困惑幾十年的問題。
這跟今天很多人的路徑焦慮正好相反。
我們太習慣“規劃路徑”,
卻很少認真問自己:
“我想弄清楚什么?”
就算沒有目標,也別急著丟掉那個讓你困惑的問題。
3、AI越像人類,人類卻越不像自己
AI 不停在進化,;
而我們人類卻越來越習慣不提問。
Hinton沒有貶低AI,但他表示:
“我們要做的不是把 AI 變得更像人, 而是該回頭問自己:我們還像人嗎?”
在講座中,他回想起一件童年小事。
他說自己五歲時,
看到一枚硬幣在車座上“逆坡滾動”,他非常困惑,以為看到了魔法。
多年后他才知道,那不是魔法,而是物理——
是座位上的纖維配合震動,制造了一個“單向推進”的摩擦。
然后他說了一句話:
“重要的,不是能不能解決問題,而是有沒有那個讓你停下來的困惑。”
未來,不是 AI 把我們變傻了,
而是我們太早,就學會跳過了“為什么”。
?? 第六節|別再說 AI 在進化,是你沒開始思考
AI 會生成畫面,寫下對白,編出浪漫。
但它越像人,越讓我們意識到:
我們,好像越來越不像人。
但 Hinton 說:
“你以為是 AI 在進化, 其實是人類還沒學會思考。”
我們太習慣讓模型給出答案,
卻很少問一句:這真的是理解嗎?
他不是在唱衰技術,
而是在提醒:
不是你會不會用 AI, 而是你用它,是在省事,還是在思考?
未來,不是靠執行命令的人留下,
而是那些能用 AI 反思世界、修正思維的人留下。
這不是一個關于 AI 的時代,
這是逼你重新成為‘思考的人’的時代。
下次你用 AI,別只生成答案,
問一句:“我為什么要這么問?”
留下的,不是最快的人,
而是那些還在追問的人。
留言告訴我們:
你有沒有那個,愿意追十年都不放手的問題?
本文由AI深度研究院出品,聚焦全球 AI 創新浪潮中的企業轉型策略。
星標公眾號, 點這里 1. 點擊右上角 2. 點擊"設為星標" ← AI深度研究員 ? ← 設為星標
參考資料:https://www.youtube.com/watch?v=vpUXI9wmKLc&t=3309s&ab_channel=UniversityofToronto
來源:官方媒體/網絡新聞
排版:Atlas
編輯:深思
主編: 圖靈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.