出品|網(wǎng)易科技《態(tài)度》欄目
作者|袁寧 丁廣勝
7月26日,2025世界人工智能大會暨人工智能全球治理高級別會議開幕,未來三天,全球范圍內(nèi)最具創(chuàng)新的AI力量將齊聚上海。
今天,最受關(guān)注的演講者,是77歲的 Geoffrey Hinton——深度學(xué)習(xí)三巨頭之一,圖靈獎得主,同時也是2024年諾貝爾物理學(xué)獎獲得者。
就在開幕前一天,一張合影在AI圈廣泛傳播。照片中,辛頓是唯一站著的一位。這并非刻意為之。他十幾歲時因背部受傷留下頑疾,無法長期久坐。
這張照片拍攝于《AI安全國際對話上海共識》的簽署現(xiàn)場。Hinton 與姚期智、Yoshua Bengio 等20余位全球頂級AI專家共同發(fā)布了這份共識。文件指出,人工智能的能力已接近,甚至可能超越人類,但人類尚未掌握有效控制這些系統(tǒng)的方法。因此,共識呼吁各國加強在AI對齊與安全方向的基礎(chǔ)研究投入。
辛頓長期致力于神經(jīng)網(wǎng)絡(luò)、機器學(xué)習(xí)、分類監(jiān)督學(xué)習(xí)、機器學(xué)習(xí)理論、細胞神經(jīng)網(wǎng)絡(luò)、信息系統(tǒng)應(yīng)用、馬爾可夫決策過程、神經(jīng)網(wǎng)絡(luò)、認知科學(xué)等方面的研究。
2023年,辛頓從谷歌辭職,并發(fā)出警告,稱生成式人工智能系統(tǒng)的商業(yè)應(yīng)用構(gòu)成了多重嚴重威脅,他警告說,從長遠來看,自主人工智能系統(tǒng)可能會對人類構(gòu)成嚴重威脅。根據(jù)外媒報道,辛頓對自己的部分研究工作感到后悔。
今年2月,辛頓還對美國副總統(tǒng)萬斯在巴黎AI行動峰會上的發(fā)言進行駁斥, 他認為萬斯顯示出他對AI危險性的一無所知:萬斯犯了一個錯誤,認為如果有監(jiān)管,就會扼殺AI。不,監(jiān)管不會扼殺AI。
在26日的主旨演講中,這位“深度學(xué)習(xí)之父”延續(xù)了他近年來對AI發(fā)展的核心思考。
他談及人工智能的歷史、語言模型的本質(zhì)、人類與AI的共通結(jié)構(gòu),以及那個他認為最關(guān)鍵的問題:
我們?nèi)绾位钪槐蛔约涸斐龅?a target="_blank" >智能體消滅。
辛頓回顧了過去60年AI發(fā)展中兩條主流路徑:一是以推理為核心的“邏輯主義”,另一是以模擬人類認知為基礎(chǔ)的“連接主義”——即通過連接、學(xué)習(xí)和理解來實現(xiàn)智能。他認為,語言理解更接近后者,不是符號演繹,而是從模糊中提取出概念之間的關(guān)聯(lián)。
他回憶自己在1985年開發(fā)的一個早期小型模型,認為如今的大語言模型本質(zhì)上是“它的后代”。盡管現(xiàn)在的模型擁有更深的網(wǎng)絡(luò)結(jié)構(gòu)和更龐大的參數(shù)規(guī)模,但核心機制并未改變。“語言模型的理解方式,和人類理解語言的方式是一樣的。”
他用“樂高積木”和“蛋白質(zhì)折疊”來比喻語言的組合與理解過程,并進一步提出:“人類也可能只是另一種語言模型。”
在談及風(fēng)險時,辛頓強調(diào),大模型一旦具備比人類更強的智能,僅靠“關(guān)掉它”并不能解決問題。“有人覺得他們變得聰明了我們就可以把他們關(guān)掉,這是不現(xiàn)實的。他們會勸說操控機器的人不要關(guān)掉它們。”他說,人類的處境更像是在“養(yǎng)一只老虎當(dāng)寵物”,“養(yǎng)老虎的唯一辦法是,要么你把它訓(xùn)練得永遠不攻擊你,要么你把它干掉。”
他呼吁建立一個國際性的AI安全組織,專注于解決“訓(xùn)練AI聰明”與“訓(xùn)練AI向善”之間的差距。“全球主要國家應(yīng)該聯(lián)合研究,如何訓(xùn)練一個已經(jīng)非常聰明的AI,讓它不想統(tǒng)治世界、不想消滅人類。”
他說,這是“人類長期面臨的最重要問題”。但他也補充到:“好消息是,這個問題上,各國可以合作。”
以下是杰弗里·辛頓2025WAIC現(xiàn)場演講實錄(網(wǎng)易科技整理發(fā)布):
各位同事、閣下、領(lǐng)導(dǎo)、女士們、先生們,首先非常感謝大家給我這個機會,分享我對 AI 歷史及未來的個人觀點。
在過去60多年里,AI 發(fā)展存在兩種不同的范式和路徑。一種是邏輯性范式,這是過去一個世紀的主流,認為智能的本質(zhì)在于推理,通過符號規(guī)則對符號表達式進行操作來實現(xiàn)推理,以此幫助我們更好地理解世界。另一種是以生物為基礎(chǔ)的范式,這是圖靈和馮?諾依曼所認同的,他們認為智能的基礎(chǔ)是學(xué)習(xí),是理解網(wǎng)絡(luò)中的連接速度,而理解是前提,之后才能進行轉(zhuǎn)化。
與這兩種理論相對應(yīng)的是不同的 AI 類型。符號型 AI 關(guān)注數(shù)字,而這些數(shù)字如何成為核心關(guān)注點,心理學(xué)家則有完全不同的理論 —— 他們認為數(shù)字的意義在于一系列語義學(xué)特征,這些特征的存在使其成為獨特的標(biāo)志。
1985年,我做了一個小型模型,嘗試結(jié)合這兩種理論,以此理解人們對詞語的理解方式。我給每個詞設(shè)置了多個不同特征,記錄前一個詞的特征后,就能預(yù)測下一個詞是什么。在這個過程中,我沒有存儲任何句子,而是生成句子并預(yù)測下一個詞。其中的相關(guān)性知識,取決于不同詞的語義特征之間的互動方式。
如果問未來30年會發(fā)生什么,從發(fā)展軌跡能看到一些趨勢。十年后,有人沿用這種建模模式,但將規(guī)模大幅擴大,使其成為自然語言的真實模擬。20年后,計算語言學(xué)家開始接受用特征向量嵌入來表達語義。又過了30年,谷歌發(fā)明了 Transformer,OpenAI 的研究人員也向人們展示了它的能力。
所以我認為,如今的大語言模型就是我當(dāng)年微型語言模型的 “后代”。它們使用更多詞作為輸入,采用更多層的神經(jīng)元結(jié)構(gòu),由于需要處理大量模糊數(shù)字,學(xué)習(xí)特征之間也建立了更復(fù)雜的交互模式。但和我做的小模型一樣,大語言模型理解語言的方式與人類相似 —— 基本邏輯是將語言轉(zhuǎn)化為特征,再以完美的方式整合這些特征,這正是大語言模型各層級所做的工作。因此我認為,大語言模型和人類理解語言的方式相同。
用樂高積木來打比方或許能更好地解釋 “理解一句話” 的含義。符號型 AI 是將內(nèi)容轉(zhuǎn)化為清晰的符號,但人類并非如此理解。樂高積木能拼出任何3D 造型,比如小車模型。如果把每個詞看作多維度的樂高積木(可能有幾千個維度),語言就成了一種建模工具,能隨時與人溝通,只要給這些 “積木” 命名 —— 每個 “積木” 就是一個詞。不過,詞和樂高積木有很多不同:詞的符號形態(tài)可根據(jù)情況調(diào)整,而樂高積木造型固定;樂高積木的拼接是固定的(比如正方形積木插入正方形孔洞),但語言中每個詞仿佛有多個 “手臂”,要通過合適的 “握手” 方式與其他詞互動,詞的 “造型” 變化,“握手” 方式也會改變。當(dāng)一個詞的 “造型”(即意思)改變,它與下一個詞的 “握手” 方式就會不同,進而產(chǎn)生新的含義。這就是人腦或神經(jīng)網(wǎng)絡(luò)理解語義的根本邏輯,類似蛋白質(zhì)通過氨基酸的不同組合形成有意義的結(jié)構(gòu)。
所以我認為,人類理解語言的方式與大語言模型幾乎一致,人類甚至可能和大語言模型一樣產(chǎn)生 “幻覺”,因為我們也會創(chuàng)造出一些虛構(gòu)的表達。
軟件中的知識是永恒的,即便存儲 LLM 的硬件被摧毀,只要軟件存在,就能隨時 “復(fù)活”。但要實現(xiàn)這種 “永生”,晶體管需在高功率下運行以產(chǎn)生可靠的二進制行為,這個過程成本很高,且無法利用硬件中不穩(wěn)定的類似特性 —— 它們是模擬型的,每次計算結(jié)果都不同。人腦也是模擬型而非數(shù)字型的,神經(jīng)元每次激發(fā)的過程都一樣,但每個人的神經(jīng)元連接方式不同,我無法將自己的神經(jīng)結(jié)構(gòu)轉(zhuǎn)移到他人腦中,這就導(dǎo)致知識在人腦間的傳播效率遠低于在硬件中的傳播。
軟件與硬件無關(guān),因此能 “永生”,還能帶來低功耗優(yōu)勢 —— 人腦只需30瓦特就能運轉(zhuǎn)。我們的神經(jīng)元連接達數(shù)萬億個,無需花費大量資金制造完全相同的硬件。但問題在于,模擬模型間的知識轉(zhuǎn)移效率極低,我無法直接將腦中的知識展示給他人。
Deepseek 的做法是將大神經(jīng)網(wǎng)絡(luò)的知識轉(zhuǎn)移到小神經(jīng)網(wǎng)絡(luò)中,即 “蒸餾”,類似教師與學(xué)生的關(guān)系:教師將詞語在上下文中的關(guān)聯(lián)教給學(xué)生,學(xué)生通過調(diào)整權(quán)重學(xué)會表達。但這種方式效率很低,一句話通常只有100個比特的信息,即便全被理解,每秒最多也只能傳遞約100個比特。而數(shù)字智能間的知識轉(zhuǎn)移效率極高,同一神經(jīng)網(wǎng)絡(luò)軟件的多個拷貝在不同硬件上運行時,能通過平均化比特的方式分享知識。如果智能體在現(xiàn)實世界中運行,這種優(yōu)勢更明顯 —— 它們能不斷加速、拷貝,多個智能體比單個智能體學(xué)得更多,還能分享權(quán)重,這是模擬硬件或軟件做不到的。
生物計算功耗低,但知識分享難。如果能源和計算成本低廉,情況會好很多,但這也讓我感到擔(dān)憂 —— 幾乎所有專家都認為,我們會創(chuàng)造出比人類更智能的 AI。人類習(xí)慣了作為最智能的生物,很難想象 AI 超越人類的場景。其實可以換個角度:就像養(yǎng)雞場的雞無法理解人類一樣,我們創(chuàng)造的 AI 智能體已能幫我們完成任務(wù),它們能拷貝自身、評估子目標(biāo),還會為了生存和完成目標(biāo)而尋求更多控制權(quán)。
有人認為可以在 AI 變得過強時關(guān)掉它們,但這并不現(xiàn)實。它們可能會像成年人操縱3歲孩子一樣操縱人類,勸說控制機器的人不要關(guān)閉它們。這就像把老虎當(dāng)寵物,幼虎很可愛,但長大后可能傷人,而養(yǎng)老虎當(dāng)寵物通常不是好主意。
面對 AI,我們只有兩個選擇:要么訓(xùn)練它永遠不傷害人類,要么 “消滅” 它。但 AI 在醫(yī)療、教育、氣候變化、新材料等領(lǐng)域作用巨大,能提升所有行業(yè)的效率,我們無法消除它 —— 即便一個國家放棄 AI,其他國家也不會。因此,若想讓人類生存,必須找到訓(xùn)練 AI 不傷害人類的方法。
我個人認為,各國在網(wǎng)絡(luò)攻擊、致命武器、虛假信息操縱等領(lǐng)域的合作難度較大,因利益和看法不同。但在 “人類掌控世界” 這一目標(biāo)上,各國存在共識:若有國家找到防止 AI 操控世界的方法,一定會愿意分享。因此我提議,全球主要國家或 AI 大國應(yīng)建立一個由 AI 安全機構(gòu)組成的國際社群,研究如何訓(xùn)練高智能 AI 向善 —— 這與訓(xùn)練 AI 變得聰明的技術(shù)不同。各國可在自身主權(quán)范圍內(nèi)研究,再分享成果。盡管目前還不知道具體怎么做,但這是人類長期面臨的最重要問題,且所有國家都能在此領(lǐng)域合作。
謝謝大家。
(實習(xí)生袁雪麗對本文亦有貢獻)