2024年5月,OpenAI的聯合創始人兼前任首席科學家伊爾亞·蘇茨克維爾(Ilya Sutskever)宣布離開公司;不久后,他創辦了自己的AI實驗室“安全超級智能”(Safe Superintelligence),并因此登上新聞頭條。
當有研究發現AI能表現出欺騙屬性時(詳見),人們可能才對薩姆·奧特曼那場進進出出的政權爭奪大戲有更深的理解,蘇茨克維爾及離開的研究人員可能只是“先天下之憂而憂”而已。
離開OpenAI后的蘇茨克維爾一直遠離公眾視線,不過在2024年年底溫哥華舉辦的國際AI頂級會議“神經信息處理系統大會”(NeurIPS)上,他罕見地公開露面并發表演說。
這位人工智能領域的關鍵人物一直引領創新前沿,對AI未來發展有著遠見卓識。他的觀點和預見可能引發技術與哲學的爭辯,同時也蘊含變革的力量——正如NeurIPS會上的他所描繪的AI前景。
在蘇茨克維爾看來,現階段很流行的預訓練 (pre-training) 日后將退出舞臺。
目前正處于AI模型開發的第一階段,大型語言模型可以從大量無標簽數據 (unlabeled data,通常是取自互聯網和書籍等來源的文本) 中學習模式,然后以此應對各種任務,但就像歷史上出現過的“石油峰值”,數據的峰值也會到來,可用于AI訓練的現存數據集資源已接近枯竭。
數據稀缺可能帶來革命性的變化,迫使行業改變現有訓練方法,推動AI系統從傳統的數據密集型模式轉向實時的學習和推理——它們會基于有限的輸入得出結論,類似人類的推理和適應——而這標志著AI向更具代理性、能夠自主決策的形態轉變。
“我們已經達到了數據的峰值,不會有更多的了。”因為就像石油是種有限資源,互聯網也只能給AI提供有限的人類生成內容。
上述觀點與當前旨在完善AI能力的全球整體趨勢契合。
OpenAI和谷歌等大型科技公司正調整戰略重點,開發只需較少預訓練的模型,減少AI對大規模數據集的依賴。與蘇茨克維爾觀點的這種一致性凸顯了行業的集體轉變,旨在接受人工智能不斷發展的范式的限制和機遇。
蘇茨克維爾將預訓練所需的數據集稱作人工智能的“化石燃料”
另一方面,蘇茨克維爾預測下一代模型將更加自主,“真正具有代理性”。
“代理”已成為人工智能領域的一個流行詞。雖然他在演說中并未給“代理”一詞下定義,但大家普遍認為,所謂的代理式AI能夠自主地執行任務、做出決策以及與軟件交互。
未來AI除了具備代理性,還將以更接近“思考”的方式來推理,來一步步解決問題。當前的人工智能主要根據曾經看到過的內容來針對新提示進行模式匹配。
蘇茨克維爾認為,系統推理得越多,“就變得越不可預測”。一個“真正會推理的系統”,其不可預測程度大概就是“讓頂尖人類棋手猜不透”的程度。“它們會從有限數據中理解事物。它們不會感到困惑。”
隨著技術的圖景不斷演變,隨著代理式未來漸顯輪廓,不可預測性讓人類難捉摸,我們對AI的倫理思慮越發深重。
一個不可預測、能像人類思考一樣進行推理的AI,它應擁有某些權利嗎?它該如何與人類共存?對技術的總體治理是否應考慮它的特點?正如歐盟《人工智能法案》所探討的,我們需要在AI領域設立關于倫理的法規,而這種需求也凸顯這樣一種共識:負責任的AI發展可以維護社會利益。
蘇茨克維爾還將AI系統的擴展與演化生物學進行類比。他引用了科學研究中不同物種大腦與身體的質量比例關系,并指出:大多數哺乳動物遵循同一種擴展模式,但人科(人類祖先)的腦體質量比在對數尺度上呈現不同尋常的發展規律。
他認為,恰如生物進化賦予人科大腦以新的擴展模式,人工智能領域也可能出現超越現有預訓練方式的另一種擴展模式。
人工智能系統與演化生物學的擴展規律比較
當蘇茨克維爾結束演講后,有一位觀眾問他:研究人員如何才能為人類創建正確的激勵機制,從而打造“像我們人類一樣擁有自由”的人工智能?
蘇茨克維爾表示自己“沒有信心回答這樣的問題”,因為這需要“自上而下的政府結構”。“從某種意義上說,如果人們擁有AI,而AI想要的只是與人們共存并擁有自己的權利,那樣不會是壞事,可能還挺好的……”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.