出品|網易科技《態度》欄目
作者|丁廣勝 袁寧
毫無意外,本屆WAIC是近五年最火的一屆。吸睛元素拉滿。
有首次訪華的諾貝爾獎、圖靈獎雙料得主、AI教父Geoffrey Hinton杰弗里·辛頓。
有人氣爆表的機器人展區,AI眼鏡展區,直到閉館聲音響起,宇樹機器人,智元機器人,Xreal,Rokid等明顯展臺依舊擁擠不堪,人們不愿離去。
有遍地開花的AI應用,智能汽車,數字工廠,AI生萬物,很多應用實實在在“落”了下來,也“砸”出了新的價值。
我們看到幾乎所有參與者都激情洋溢,尤其是新興創業者們。你能感受到他們的熱情,與勢必要抓住歷史機遇的決心。
而作為本屆WAIC2025的“壓軸大魔王”,辛頓吸引了太多目光,他的觀點獨特而深刻。
如果你恰好想知道他到底說了什么。那這份金句盤點你不容錯過。
(2024年10月8日下午,約翰·霍普菲爾德(John J. Hopfield)和杰弗里·辛頓(Geoffrey E. Hinton)獲2024年諾貝爾物理學獎)
1,你會有既聰明又善良的AI,但如何訓練它變得聰明和如何訓練它變得善良是不同的問題。你可以有讓它善良的技術和讓它聰明的技術。它將是同一個AI,但會有不同的技術。
2,我們對詞語運作方式的理解可能是完全錯誤的。同樣,幾乎每個人都對“主觀體驗”這類術語有著強烈但完全錯誤的理論。這不是真正的科學問題,而是源于我們對心理狀態的錯誤模型。
3,他們確實很想在人工智能領域設立諾貝爾獎,但目前并沒有這個獎項。所以,他們就將物理學獎頒給了人工智能領域的貢獻者。
4,我認為人工智能對科學的幫助是顯而易見的。
5,我想最核心的建議是:若想做出真正原創的研究,就要尋找那些‘所有人都可能犯錯’的領域。
6,堅持你所相信的,直到你真正明白它為何是錯的。只是偶爾,你會繼續堅持你的信仰——而它最終被證明是正確的。重大突破正是由此而來,它們從不屬于輕易放棄之人。你必須堅持己見,即使他人并不認同。
7,如今的大語言模型就是我當年微型語言模型的 “后代”。
8,大語言模型和人類理解語言的方式相同。基本邏輯是將語言轉化為特征,再以完美的方式整合這些特征,這正是大語言模型各層級所做的工作。
9,人類甚至可能和大語言模型一樣產生 “幻覺”,因為我們也會創造出一些虛構的表達。
10,人類習慣了作為最智能的生物,很難想象 AI 超越人類的場景。就像養雞場的雞無法理解人類一樣。
11,有人認為可以在 AI 變得過強時關掉它們,但這并不現實。它們可能會像成年人操縱3歲孩子一樣操縱人類。
12,面對 AI,我們只有兩個選擇:要么訓練它永遠不傷害人類,要么 “消滅” 它。
13,即便一個國家放棄 AI,其他國家也不會。因此,若想讓人類生存,必須找到訓練 AI 不傷害人類的方法。
14,全球主要國家或 AI 大國應建立一個由 AI 安全機構組成的國際社群,研究如何訓練高智能 AI 向善。
15,人工智能的能力已接近,甚至可能超越人類,但人類尚未掌握有效控制這些系統的方法。因此,共識呼吁各國加強在AI對齊與安全方向的基礎研究投入。