他是深度學習三巨頭之一,他被尊為“AI教父”,他是諾貝爾獎、圖靈獎得主,他是杰弗里·辛頓。盡管因為身體原因無法久坐,他仍不遠萬里來訪中國。
7月26日,“2025世界人工智能大會暨人工智能全球治理高級別會議”(WAIC 2025)在上海拉開帷幕。辛頓,正是此次WAIC的重量級嘉賓,這也是他首次踏足中國。
在大語言模型快速發展的當下,辛頓發出了他的警告:未來超級智能將很容易操縱人類,人類要避免“養虎為患”。
有限生命之間的知識轉移
在7月26日的主旨演講中,辛頓首先闡述了大模型的理論起源。辛頓認為,在過去60多年里,AI(人工智能)發展存在兩種不同的范式和路徑。一種是邏輯性范式,認為智能的本質在于推理;另一種是以生物為基礎的范式,認為智能的基礎是學習,理解是前提,之后才能轉化。
圖片來源:主辦方供圖
1985年,辛頓做了一個小型模型,嘗試結合這兩種理論,以此理解人們對詞語的理解方式。辛頓認為,當下的大語言模型,就是其當年小型模型的“后代”。
關于大模型領域普遍遭受詬病的幻覺問題,辛頓提出了他的看法:“我認為,人類理解語言的方式與大語言模型幾乎一致,人類甚至可能和大語言模型一樣產生幻覺,因為我們也會創造出一些虛構的表達。”
關于人腦與大模型,辛頓認為,人腦是一個模擬模型,是低功耗的,但這種模擬模型進行知識轉移卻是低效的,一個人很難將自己腦子里的知識展示給另一個人。
大模型是如何完成知識遷移的?是蒸餾。辛頓表示,DeepSeek的做法是將大神經網絡的知識轉移到小神經網絡中,即“蒸餾”,類似教師與學生的關系——教師將詞語在上下文中的關聯教給學生,學生通過調整權重學會表達。
不過,人類之間溝通的效率很低。辛頓稱,一句話通常只有100比特的信息,即使完成理解,每秒最多傳遞100比特。相比之下,數字智能間的知識轉移效率極高。
一言以蔽之:生物計算功耗低,但知識分享難。
生物計算與數字智能之間的差距,也令辛頓感到擔憂。其表示:“我們創造的AI智能體已能幫我們完成任務,它們能拷貝自身、評估子目標,還會為了生存和完成目標而尋求更多控制權。有人認為,可以在AI變得過強時關掉它們,但這并不現實。它們可能會像成年人操縱3歲孩子一樣操縱人類,勸說控制機器的人不要關閉它們。這就像把老虎當寵物,幼虎很可愛,但長大后可能傷人,而養老虎當寵物通常不是好主意。”
那么,人類又將如何與AI相處?辛頓稱:“AI已無法消除,它能大幅提升幾乎所有行業的效率,即便有國家想消除,其他國家也不會認同。”
因此,辛頓呼吁全球建立由各國人工智能安全研究所與國內研究網絡組成的國際社群,培養不會從人類手中奪權的“好AI”。
大佬對話:開放推動進步,也帶來安全隱患
參加此次世界人工智能大會的,不僅有辛頓這樣的“AI教父”,也有前谷歌CEO埃里克·施密特這樣的企業界大咖。
在大會開幕式上,前微軟執行副總裁沈向洋與施密特展開了一場關于人工智能發展的多維對話。
圖片來源:主辦方供圖
與辛頓類似,施密特也強調人的尊嚴何以存續,迫切需要全球的溝通、合作,共同維護人對技術的控制權。
施密特表示:“我對接下來的兩年充滿期待,隨著智能體革命的到來,每個企業的工作流都將發生巨大變化。但是,當AI開始自我學習并做出決策時,我們需要確保這些過程不會失控。”
其補充表示:“這是人類共同面臨的問題,任何國家都要坐下來一起談判、合作。我相信,中美可以通過對話加強互信,共同迎接AI帶來的機遇與挑戰,特別是在防止AI負面影響方面進行協作。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.