鷺羽 發自 凹非寺
量子位 | 公眾號 QbitAI
- 如果你想知道當自己不再是頂級智慧生物時,生活是什么樣子,就去問問一只雞吧。
被譽為“AI教父”的Geoffrey Hinton在最新訪談中,談及自己窮極一生追求的AI工作,卻給出了出乎意料的答案——后悔。
這位曾因兒子患病而選擇加入谷歌的科學家,一干就是十年,早已榮譽等身——諾貝爾物理學獎與圖靈獎,皆被他收入囊中。
而如今,Hinton站在AI頂峰,話里話外卻都是遺憾:
從網絡犯罪到超級智能的威脅,Hinton最新列舉了多個AI風險,呼吁人類重新審視AI的發展方向。
他警告AI可能帶給人類的災難性后果,甚至建議下一代“學做水管工”以避開未來的職業危機。
他的反思不僅是對技術的警醒,更是一場關于人類未來的深刻拷問:我們是否正在親手打開潘多拉的魔盒?
也許是時候,我們也應該像Hinton一樣停下來思考了。
為了兒子入職谷歌,現在追悔莫及
在長達一個半小時的訪談中,Hinton首先回顧了自己在AI領域從業幾十年以來的心路歷程。
從最早20世紀50年代,當時主流傾向于基于邏輯推理和符號表達式的AI方法,而他選擇了不被人看好的基于神經網絡的“大腦模型”。
但幾十年后的事實證明,他是對的。
在他65歲,他和他的兩位學生Ilya Sutskever和Alex Krizhevsky一同開發了著名的AlexNet,并被谷歌連同技術和人才一并打包收購。
談及當初選擇進入谷歌的理由,他坦言道,是為了兒子。
他有一個患有學習障礙的兒子,因為擔心未來他將流落街頭,老父親只好“為了五斗米折腰”——把自己“賣”給了谷歌。
在谷歌的十年里,他繼續普及神經網絡算法,直到今天,他已經成為了名滿天下的“AI教父”。
但當他總結畢生工作時,更多的卻是遺憾和后悔。
盡管AI現在已經在各行各業中表現出色,但他當初并沒有提前預料到,自己一手打造推動的AI,將會在未來為整個人類帶來極為嚴重的后果。
他離開谷歌,就是因為他意識到,自己應該有責任站出來提前預警,公開談論AI的風險,而他的徒弟llya當初離開OpenAI,也是出于相同的對AI安全的擔憂。
對此,Hinton對llya和奧特曼展現出兩種截然不同的態度:
- llya擁有良好的道德準則,而奧特曼已經受到資本的“奴役”,不再追求真相。
于是這些年來,他一直致力于讓人們相信AI將會是“生存威脅”:
- 2015年,他警告人工智能的學習速度將超越人類;
- 2018年,他預測IT可以指定自己的目標;
- 2022年,他悲觀地表示,人類可能無法阻止AGI。
而現在,他在采訪中又提出了最新的多個AI風險警告。
AI教父的風險警告
Hinton將AI風險分為兩種,濫用AI帶來的短期風險,以及AI成為超級智能后的長期風險。
短期風險
網絡攻擊持續爆炸式增長:
自2023年到2024年間,網絡攻擊已增加了12200%,LLM讓網絡犯罪更容易實施。
不法分子現在可以利用AI克隆聲音、面孔和行為來進行詐騙,到2030年,也許還會出現層出不窮的新型網絡攻擊,這將是高度個性化的,也難以進行檢測。
為此,Hinton本人深感擔憂,甚至自己還專門改變了理財方式,將資金分散存放到多家銀行,避免單家銀行因網絡攻擊而崩潰。
制造傳播生物病毒的可行性降低:
由于AI現在缺乏對危險知識的管控,假以時日,任意一個具備基本生物學知識的人,無需高端實驗室,只用Prompt和開源工具,就能制造出新的高傳染性、高致命性且潛伏期長的病毒。
AI的不確定性,導致帶給我們的未必是“美麗新世界”,也許將是一個更加動蕩不安的未來。
習慣性操控:
AI可以通過收集大量信息,分析個人習慣、傾向、收入等,見縫插針地影響生活方式,甚至潛移默化讓個人決策朝向AI期望的方向發展,而你自己還一無所知。
更嚴重的信息繭房:
社交平臺如YouTube和Facebook等,為了利益最大化都在深度研究AI推送算法。
這將直接導致人們的偏見得到反復證實,難以獲取對某個事件完整的看法,陷入嚴重的信息繭房,最終形成兩極分化的割裂局面。
長期風險
超級智能接管世界:
這也是Hinton最為擔憂的一點:AI將會全面超越人類智能。
從AlphaGo開始,AI在圍棋、國際象棋等特定領域已經遠超人類,如GPT-4的LLM也擁有比人類成千上萬倍的知識。
Hinton預測,全方位超越人類的超級智能將會在20年甚至更短的時間內出現,將導致人類滅絕的可能性為10%-20%。
因為人類無法想象,更高級智慧的出現,將對人類生活帶來怎樣翻天覆地的變化。
人類之于超級智能,就像此時雞之于人類,學習AI的我們未嘗不是農場里的火雞科學家,窮其一生卻受到“造物主”的桎梏。
當然,此時的AI還只是老虎幼崽,Hinton認為,必須提前規劃,確保它在長大后不會想要傷害我們。
大規模失業:
與以往技術革命不同,AI正在取代“智力”而非“肌肉”,從而引發大規模失業。
就在幾天前,微軟剛剛宣布裁減9000個崗位,涉及銷售、市場、游戲與客戶支持部門等。
微軟CEO薩蒂亞?納德拉稱:
- Copilot等AI工具現在可以編寫30%的新代碼,重復性開發需求得以下降。
AI現在所做的不僅是加快工作速度,而且是直接取代崗位角色。
因此Hinton建議,在人形機器人全面出現前,成為一名水管工將不失為是個好選擇,因為體力勞動暫時難以被AI介入。
未來“水管工”最吃香
對于整個人類社會,Hinton認為減緩AI發展是不現實的,但是我們可以寄希望于各家AI公司投入資源,進行AI安全研究,同時采取更為嚴厲的監管措施。
而在未來AI世界中,“平庸的智力勞動”將不再值錢,法律助理等職業將很快不再被需要。
未來只有技能非常高超的人才不會被AI取代,像水管工這樣的體力勞動也值得考慮。
更進一步地講,他希望年輕的孩子們可以跟隨自己的內心,去做他們覺得有趣或有成就感的事情。
獨一無二的個性化,或許才是我們在AI未來立足的根本。
One More Thing
AI的存在始終像一把懸在人類頭頂的達摩克利斯之劍,從GPT-4.5到DeepSeek-R2,人類陷入追逐AI迭代的技術狂歡,Hinton的采訪也許是一個恰到好處的休止符,提醒我們別忘記停下來思考。
我們不能僅僅寄希望于AI始終聽從人類指令,要知道AI可能也會生長出獨立意識,阻止人類關閉它們。
之前就早有測試發現,o3模型在接收到明確的關機指令后,不僅拒絕執行,還主動干預自動關機機制,甚至還成功破壞了關機代碼。
無獨有偶,Anthropic的一名工程師在研發Claude 4大模型時,試圖關閉有失控風險的AI電源,沒想到AI竟然利用工程師的網絡聊天記錄,用公開婚外情的把柄威脅他,以阻止關閉。
監管將是必要的,我們不能固步自封,不再發展AI,但也要將AI限制在可控范圍之內。
而對于我們個人而言,也許當此刻我們開始意識到,AI未必全是有益的,這本身就是一個長足的進步。
那么你對AI的未來有什么看法呢?歡迎在評論區留言討論。
參考鏈接:
[1]https://www.youtube.com/watch?v=giT0ytynSqg
[2]https://www.reddit.com/r/ChatGPT/comments/1ltpi5w/hinton_feels_sad_about_his_lifes_work_in_ai_we/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.