不在 OpenAI 的 Andrej Karpathy,始終是傳說。
近日,Karpathy 受邀在 YC AI 創業學校活動發表演講,一經發布,全球網友就like開始學習。
這是一場看似松散、其實處處埋點的演講。
Karpathy 精心準備了 PPT,對整個演講內容進行了編排:這像是一次編程語言進化史的講解,從軟件 1.0 的時代開始講起,到以「喂數據」為核心的。到了 3.0 則是「對模型說咒語」。
他再一次強調了「LLM 是新操作系統」,并進一步延伸到了 AI 與人類相似的心理特征,最終得出結論:AI 應該增強人類,而非替代人類。
這是他對 LLM 時代的理解,也是一個研究者和 builder 的技術世界觀。它不再是激情澎湃的預測,而是一個自我梳理后交出的分享:語言正在變成控制系統,而我們,而每個人都擁有語言接口的一部分。
因為演講內容過于豐富,我們將它濃縮成了一套「金句卡片」:一句話錨點 + 一段解釋,希望你能像翻讀卡片一樣,直擊中心,也許哪一句就能成為你下一個創造的起點。
Karpathy 討論了兩種對于 LLM 的比喻:電網和芯片工廠。LLM 的發展類似于電網,需要巨大的資本支出(CapEx)來建設,然后通過 API 以計量付費的方式提供服務。也像芯片制造廠,因為構建它需要巨額投資,并且技術分支發展迅速。
然而,他認為更恰切的,是把 LLM 比喻為操作系統 (Operating Systems)。 他強調,LLM 并非像電力或自來水那樣可以隨意取用、沒有差異的「商品」 。相反,它們是日益復雜的軟件生態系統,這個特性使得「操作系統」成為一個更精確的類比。
他把閉源的 LLM 提供商比作 Windows 和 Mac OS,而將開源的 Llama 生態比作 Linux,把 LLM 本身比作 CPU,上下文窗口(Context Windows)比作內存(RAM),而 LLM 的工作方式就是像操作系統一樣,調度這些「硬件」資源來解決問題。
既然 LLM 是正在形成復雜的生態系統,而非簡單的商品,那么還可以進一步從計算機體系結構的角度去理解大語言模型。作為 CPU 的模型本身,就是執行計算和推理的核心。上下文窗口即是內存,就可以用來臨時存放當前工作所需要的信息。
而一個整體的工作流,就如同操作系統,負責調度 CPU 和內存等資源,以完成用戶提出的復雜任務。
在 Karpathy 的設想中,大模型不再停留在宏觀的商業模式,而是一個全新的計算平臺。
即便 LLM 會成為一個計算平臺,眼下最主流的,直接通過聊天框式的純文本與強大的 LLM 「操作系統」 交互的形式,并不會長久。
Karpathy 以 Cursor 為例子,提出編程語言中,通過 GUI,用戶可以直觀地看到紅色和綠色高亮顯示的代碼增刪,并用快捷鍵(如 Command+Y)快速接受或拒絕 。這種方式遠比用自然語言描述「請接受第二處修改但否決第一處」要高效得多、直觀得多。
GUI 利用了人類強大的視覺處理能力,極大地加速了對 AI 工作成果的「驗證」和「審計」環節。盡管 LLM 的核心是語言模型,但要構建出真正實用的「能自動化的應用」,就決不能忽視 GUI 的力量。
一個精心設計的 GUI 是連接人類用戶和 AI 「操作系統」之間最高效的橋梁,它使得人機協作的「生成-驗證」循環能夠飛速運轉。
Karpathy 提出的這幾個問題,指向的是如何讓 LLM 產品更自動化——至少部分的自動化。將任何傳統軟件改造為 AI 可驅動的「部分自主的應用」所必須滿足三個前提條件:
-感知 (Perception): AI 代理需要能夠「看到」所有人類用戶能看到的信息。
-行動 (Action): AI 代理需要能夠執行所有人類用戶能執行的操作。
-監督 (Supervision): 必須有一個機制,允許人類監督 AI 的工作并隨時介入,因為 AI 系統目前并不可靠。
一個至關重要的結論是:當前絕大多數軟件的界面(各種開關和設置)都是純粹為人類設計的。這恰恰是實現 AI 自動化的障礙。因此,他呼吁是:「所有這一切都必須改變,變得對大語言模型可訪問 」。
作為前特斯拉總監,Karpathy 的經歷和看法顯然比任何人的銳利:軟件和現實世界的復雜性遠超想象。這也是他對 AI agent 的態度。
對于動輒就高舉的「agent 元年」,他實際上非常謹慎。他認為,這應該是「代理人的十年 (decade of agents)」,而不是一年。
歸根到底,從一個令人驚艷的演示(99% 的成功)到真正可靠、能處理所有極端情況的成熟產品(99.999% 的成功),中間隔著一條漫長而艱難的鴻溝。
在加入 OpenAI 之前,Karpathy 就對教學非常感興趣。不僅在斯坦福時期就當助教,自己還制作了一系列科普視頻。他始終在思考:AI 時代的教育是什么樣的。其中的一個關鍵點是:如何讓 AI 不失控。
「失控」的 AI 無法勝任教育的任務。一個完全開放式的、無結構的指令,會讓 AI 缺乏方向。即便是「教我物理」這樣的任務,也會導致 AI 無法出具一個連貫的教學大綱、清晰的知識遞進層次和結構化的教學路徑,最終導致教學失敗。
這完美地印證了他之前關于「過度反應的代理 (over-reactive agent)」會產生無用結果的觀點。因此,他認為應該把 AI 限制在人類的產出當中。比如讓教師與 AI 協作,創建一個結構化的「課程」。這個課程就是一個可以被審核和驗證的中間產物,從而確保了教學質量,避免了「迷失方向」的問題。
LLM 也有心理學?起碼 Karpathy 相信這一點。畢竟,AI 是通過學習和擬合互聯網上幾乎所有人類編寫的文本數據來進行訓練。
但這也意味著,AI 既是強大的,也是脆弱的——既包括超能力,也包括認知缺陷。LLM 有著百科全書般的知識儲備,Karpathy 把它比作電影《雨人》中的主角。但是一系列缺點也都存在,比如幻覺、智能水平參差不齊,以及像患有「順行性遺忘癥 (anterograde amnesia) 」一樣的有限記憶能力等。
AI 是在海量的人類數據上訓練出來的,所以它不可避免地涌現出了類似人類的心理特征,無論好與壞。
毫無疑問,LLM 顛覆了傳統的技術擴散方向——這也是為什么 Karpathy 說,現在是進入行業的好時機。
過去的顛覆性技術,都是先由政府和企業使用,再逐步普及到消費者。但 LLM 完全相反,它首先通過消費級應用(比如問 ChatGPT 如何煮雞蛋)觸達大眾,而政府和企業在采用上反而滯后了。
一整場下來,Karpathy 并沒有在「畫大餅」,而是在給出一層又一層新的視角,以及是一種不斷自我迭代的思維方式——而這,正是每個都還在學習如何穿上「AI 戰甲」的人所真正需要的。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.