(關注公眾號設為標,獲取AI深度洞察)
全文 4,000字 | 閱讀約15分鐘
諾貝爾基金會昨日首次公開了對2024年物理學獎得主Geoffrey Hinton的官方采訪視頻。作為人工智能領域的傳奇人物,Hinton教授在這段珍貴的訪談中不僅分享了他獲獎的有趣經歷,更對AI的未來發展做出了令人震驚的預測。
"我估計在未來5到20年內,AI有50%的幾率變得比人類更聰明。" Hinton教授在采訪中表示,這一判斷來自他對當前AI發展速度的觀察和專業評估。作為神經網絡研究的先驅,辛頓的預測值得我們深思。當被問及我們還有多少時間來應對AI超越人類智慧的挑戰時,他指出:"可能會更長,也可能更短,但20年內發生的可能性很大。"Hinton教授在采訪中坦言,他曾經以為獲得諾貝爾物理學獎是一場夢。"我不是物理學家,這可能是惡作劇,"他回憶道,"我甚至做了統計推理:一個試圖理解大腦如何工作的心理學家獲得諾貝爾物理學獎的幾率有多大?我估計大概是兩百萬分之一。"
這位被譽為"AI教父"的科學家不僅分享了他如何從主流學界的質疑中堅持自己的研究方向,還深入討論了AI帶來的短期和長期風險。從就業替代到假視頻傳播,從網絡攻擊到可能的生物武器設計,Hinton的警告既有深度也不乏緊迫感。
文稿整理
主持人: 歡迎來到今天的采訪。我們非常榮幸地邀請到2024年諾貝爾物理學獎得主Geoffrey Hinton教授。教授,恭喜您獲獎!首先,我想問您,您是如何得知自己獲得諾貝爾物理學獎的?
Geoffrey Hinton:謝謝。那天我正在加利福尼亞的一家酒店房間里休息,手機放在床頭柜上,屏幕朝下,而且是靜音模式。我當時側臥著,手機剛好在我的視線范圍內。突然,手機屏幕亮起并開始震動,屏幕邊緣露出一點光亮。我當時在加利福尼亞,而我認識的大多數人都在東海岸,所以我很好奇是誰會給我打電話。我拿起手機,看到一個我不認識的國際電話號碼,區號和國家代碼都不熟悉。接聽后,一個帶有瑞典口音的人問我是否是杰弗里·辛頓,然后告訴我獲得了諾貝爾物理學獎。
我的第一反應是:“等等,我不是物理學家,這可能是惡作劇。”我懷疑這不太可能是真的。但他接下來所說的話聽起來很可信,隨后又有其他帶著瑞典口音的人加入通話,我才逐漸確信這是真實的。不過,在接下來的兩天里,我一直覺得這可能是個夢。我甚至做了一些統計推理:一個試圖理解大腦如何工作的心理學家獲得諾貝爾物理學獎的幾率有多大?我估計大概是兩百萬分之一,這還是比較寬松的估計。而如果這是在夢中,我獲得諾貝爾物理學獎的幾率可能是二分之一。所以,夢中的可能性比現實高一百萬倍。
我開始想,這可能就像小時候夢到自己會飛一樣。夢里你覺得自己能飛,感覺很美妙,但醒來后發現只是個夢。一個月后,你再次夢到自己會飛,記得上次是個夢,但這次感覺像是真的。我以為這次獲獎可能也是這樣,所以有幾天我一直在等待,看自己會不會“醒來”。但我至今還沒“醒來”。
主持人:您在學術世家長大,這種環境對您產生了怎樣的影響?
Geoffrey Hinton:我在成長過程中,學術上的成功壓力很大。我從小就知道,要么成為一個成功的學者,要么被視為失敗者。
主持人:是什么讓您對人工智能(AI)產生興趣的?
Geoffrey Hinton:我有一個高中同學,他比我聰明很多。大約在16或17歲時,有一天他來學校,談論大腦中的記憶可能像全息圖一樣分布在整個大腦中。那時全息圖剛剛被發明,時間大約是1965年左右。他對心理學家Lashley的理論很感興趣,即記憶是分布在許多神經元中的。我對此也非常感興趣,從那以后,我一直在思考大腦是如何工作的。
主持人:AI帶來的最大風險是什么?
Geoffrey Hinton:AI的風險分為短期和長期兩種。短期風險非常重要且緊迫,主要是人們濫用AI。例如,AI可能取代大量工作崗位,導致貧富差距加大,因為AI提高的生產力并沒有公平分配,有些人失去工作,而另一些人變得更富有,這對社會不利。我們需要想辦法應對,但目前還不清楚該怎么做。其他短期風險包括假視頻,這已經開始發生;還有網絡攻擊,比如惡意分子利用大型AI模型設計更高效的攻擊。最初可能是制作更有效的釣魚攻擊,去年釣魚攻擊增加了1200%,很大程度上是因為大型語言模型讓這些攻擊更具針對性。此外,AI還能更高效地設計類似新冠病毒的生物武器,未來這種設計將變得相對容易,這意味著一個瘋狂的人就能造成巨大混亂。如果公開大型模型的權重,風險會更大,因為人們可以微調這些模型去做壞事。現在有些人已經開始公開模型權重,我認為這是瘋狂的。
還有歧視和偏見的問題。例如,如果你用歷史數據訓練一個AI模型來決定囚犯是否應該獲得假釋,而歷史數據表明白人囚犯能獲假釋,黑人囚犯不能,AI就會延續這種模式。我對此不像其他人那么擔心,因為AI模型的權重可以被固定,我們可以測量其歧視程度,而人類不行。如果測量人的歧視,他們會意識到自己在被測試,行為會改變,就像大眾汽車排放測試的作弊事件一樣。所以,我認為AI的歧視和偏見更容易被測量和糾正。我們的目標不應該是完全消除歧視和偏見,而是讓AI的歧視和偏見遠低于人類,低于它們所替代的系統。這是短期風險中的一個重要問題,但我們在這方面有望取得進展。
長期風險是AI超越人類智慧后可能帶來的問題。研究人員對AI何時會變得比人類更聰明存在分歧,但大多數領先的研究者認為,除非人類自我毀滅,這遲早會發生。我們不知道當AI比我們更聰明時會發生什么,因為我們從未經歷過這種情況。有人說一切都會沒事,有人說AI必然會接管,這兩種說法都很瘋狂。我們真的不知道會發生什么,正因為如此,我們現在需要做大量基礎研究,確保我們能控制比我們更聰明的AI。控制更聰明事物的例子很少。我知道的唯一好例子是嬰兒控制母親,但兩者的智力差距不大,而且進化為此付出了巨大努力。通常情況下,更聰明的事物不會被不那么聰明的事物控制。有些人認為我們可以設計AI,讓它永遠受控,但這些AI會像我們一樣智能,它們的運作方式與我們非常相似。它們不是傳統意義上的計算機代碼——你寫一段代碼告訴神經網絡如何學習,但一旦它開始學習,它會從數據中提取結構,最終的系統不是任何人直接編程的。我們無法完全預測它的行為,就像教育孩子一樣,我們只能通過獎勵好行為、懲罰壞行為來引導它們。所以,訓練AI時,我們需要讓它們學習良好的行為,而不是像現在這樣,用所有能獲取的數據訓練它們,包括連環殺手的日記。如果你在養育孩子時,讓孩子通過閱讀連環殺手的日記學習閱讀,你會覺得這是個壞主意,但我們現在對AI的訓練方式卻類似。
主持人:您認為我們還有多少時間來應對AI超越人類智慧的挑戰?
Geoffrey Hinton:我估計在未來5到20年內,AI有50%的幾率變得比人類更聰明。可能會更長,也可能更短,但20年內發生的可能性很大。其他研究人員可能有不同看法,但這是我的猜測。實際上,這是一年前的猜測,所以現在可能是4到19年內。
主持人:作為一名科學家,成功需要哪些個人特質?
Geoffrey Hinton:這取決于你所在的領域,以及你是否在嘗試與主流觀點不同的研究。對于神經網絡,長期以來它們被認為是荒謬的,許多人認為它們永遠不會起作用。在這樣的領域工作,你需要對自己有信心,即使所有人都說你錯了。我小時候有兩個經歷對此很有幫助:
一是我的父母是無神論者,但他們把我送進了一所基督教私立學校,從7歲開始。那里的老師和同學都信神,但我覺得這明顯是胡說。后來我發現,確實有很多人不信神。這個經歷讓我在面對神經網絡被普遍質疑時,能夠堅持自己的信念。
另一個經歷是,我大約9歲時,和父親一起聽了一個關于大陸漂移的廣播節目。當時,大多數地質學家認為大陸漂移是胡說八道。這個理論大約在1920年由氣候學家韋格納提出,他有很多證據表明大陸會移動,但他不是地質學家,地質學家們認為這是無稽之談,拒絕將其寫入教科書,覺得這會誤導學生。但最終證明大陸漂移是正確的。這與神經網絡的情況很相似:我們有證據表明神經網絡應該能學習復雜任務,因為人類大腦就是這樣工作的,但大多數AI研究人員認為知識必須是天生的,或通過符號規則學習,他們甚至拒絕在期刊上發表神經網絡相關內容。現在,神經網絡領域已經發生了范式轉變。
主持人:您對年輕研究者有什么建議?
Geoffrey Hinton:我通常的建議是,如果你有一個與眾不同的想法,并且你認為它是正確的,不要輕易放棄,除非你能找出它為什么是錯的。大多數時候,這樣的想法是錯誤的,你可能漏掉了什么或沒理解透徹。但偶爾,你會發現一個正確的想法。你需要堅持自己的信念,忽視他人的意見。我很擅長忽視他人的意見。
主持人:科學家在社會中有什么責任?
Geoffrey Hinton:科學家對AI技術的理解比政客和公眾更深入。科學家們仍然存在分歧,比如有些人認為大型語言模型并不真正理解語言,盡管有證據表明它們確實理解;一些科學家認為這只是統計技巧。科學家有責任在社會中發揮作用,特別是在AI可能帶來的風險方面。
主持人:回顧您的職業生涯,您有什么遺憾?
Geoffrey Hinton:我希望我能更早關注AI的生存威脅。我一直認為超級智能還很遙遠,我們可以晚點再擔心,當時的重點是讓AI更智能。但現在問題已經迫在眉睫。圖靈早在20世紀50年代就提到過這個問題,他說一旦AI變得比我們更聰明,我們就完了,但他沒深入探討。大多數人不到問題臨近時不會思考這個,我希望我能更早開始思考。
主持人:您打算如何使用獎金?
Geoffrey Hinton:我將一半的獎金捐贈給一個在加拿大培訓原住民社區居民生產安全飲用水的組織。這些人會留在社區,確保社區有安全飲用水。在加拿大這樣一個富裕國家,安大略省20%的原住民社區沒有安全飲用水,這太離譜了。我對此感同身受,因為我在秘魯領養了一個孩子,在那里待了兩個月,當地自來水有毒,不能喝,日常生活都圍繞如何獲取安全水展開,這是個巨大的負擔。所以,加拿大還有人面臨這種問題讓我覺得很瘋狂。
另一半獎金,我和20世紀80年代的同事Terry Sejnowski合作研究波爾茲曼機時,曾約定如果其中一人獲得諾貝爾獎,獎金要平分。我認為沒有他就沒有這個理論,他也一樣。當時我們覺得這個學習算法太優雅了,確信大腦就是這樣工作的,還以為可能會因此獲得諾貝爾生理學或醫學獎。這次我意外因波爾茲曼機等研究獲得諾貝爾獎后,我聯系他問要把他的那份送到哪里。他說這不僅僅是因為波爾茲曼機,還包括他沒參與的后續工作,所以拒絕拿錢。最后我們妥協,用這部分獎金設立一個以他命名的獎項,獎勵有創新性大腦工作理論的年輕研究者,頒獎將在我們領域的年度會議上進行。我覺得他本可以是諾貝爾獎的第三位得主,他對此貢獻巨大,這是個很好的折中方式。
星標公眾號, 點這里 1. 點擊右上角 2. 點擊"設為星標" ← AI深度研究員 ? ← 設為星標
參考資料:https://www.youtube.com/watch?v=66WiF8fXL0k&t=300s
來源:官方媒體/網絡新聞
排版:Atlas
編輯:深思
主編: 圖靈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.