99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

為什么 AI 干不了體力活——對話清華大學教授劉嘉 | 萬有引力

0
分享至

作者 | 唐小引

出品 | CSDN(ID:CSDNnews)

1997 年,AI 正處于第二次寒冬,這次寒潮的時間有點長,從 20 世紀 90 年代直至 21 世紀的第一個十年。

寒冬之下,有人堅持,有人幸運,也有人不是那么地有運氣。

李飛飛說:“我覺得自己是世界上最幸運的人,因為我的整個職業生涯始于 AI 寒冬的末期,也就是 AI 開始騰飛的時候,所以我真的非常幸運,也有點自豪。”

而在現任清華大學基礎科學講席教授、心理與認知科學系主任、人工智能學院教授、北京智源人工智能研究院首席科學家劉嘉的世界里,則不一樣。1997 年,對人工智能深感困惑的青年劉嘉遠赴美國麻省理工學院(MIT)深造,慕名拜訪人工智能之父馬文·明斯基(Marvin Minsky),想要從這位鼎鼎大名的 AI 教父身上尋求良方。明斯基很 Nice,完全沒有任何架子,讓劉嘉前往 MIT 人工智能實驗室面談。但面談的結果卻讓劉嘉備受打擊,“我記得當時人工智能實驗室在 MIT 是一棟很高的樓,我上去的時候是仰視,終于到了那種殿堂級的地方。下來的時候就如墜地獄,心里特別冷冰冰地坐了電梯下來。”

明斯基對人工智能的態度很消極,劉嘉和他聊人工神經網絡,他大潑冷水說這不值得做。那么應該做什么呢?明斯基回道:“現在大家還在摸索中,也都不太清楚具體怎么做。”

寒潮之中,頂級的人工智能學者們心態崩了,都沒有答案。當時,劉嘉已經被 MIT 腦與認知科學系(The MIT Department of Brain and Cognitive Sciences,簡稱 BCS)錄取,明斯基一聽,極力勸他留在腦科學。

明斯基是“人工智能”概念的提出者,也是 MIT 人工智能實驗室的創始人之一,然而當時,在 MIT 里,人工智能也正處寒冬,基本處于無人問津的境地。與之相反的是腦科學,同樣發端于 MIT,呈現一派熱氣騰騰的景象。

這次談話讓劉嘉備受打擊,他深深地感到絕望,“AI 不行了,我還是做腦科學吧”。至此,作為國內最早接受人工神經網絡深度啟蒙、可能是中國第一位人工智能版主的劉嘉,再也沒碰人工智能。一別近二十年,直至 2016 年 AlphaGo 戰勝李世石,劉嘉重返實驗室全身心投入到腦科學與 AI 的交叉研究中。

回首這段往事,劉嘉有些復雜的情緒,但他堅定地認為自己并沒有錯過 AI 的任何東西。腦科學和 AI,就像 DNA 雙螺旋結構一樣,時而聯系緊密,時而分道揚鑣。現在 AI 的發展又到了與腦科學結合的關鍵節點。

從 AI 演進與深度學習革命上,我們能夠看到很濃烈的腦與認知科學(神經科學)、心理學與 AI 交叉的色彩,因為人工智能本就源于“大腦究竟是如何工作的,以及機器如何能夠模仿大腦,完成任何人類需要智力才能完成的事情”。

我們所熟知的感知機(Perceptron)發明人、神經網絡創始人之一 Frank Rosenblatt(弗蘭克·羅森布拉特)是著名的心理學家,深度學習教父辛頓、強化學習之父 Richard Sutton 均起于心理學,而后轉向 AI 及計算機科學,甚至于強化學習概念本身就來自于行為主義心理學。機器學習之父 Michael?Jordan 擁有心理學、數學、認知科學多個學位,于 AI 寒冬之時在 MIT 腦與認知科學系任教,青年劉嘉所崇拜的兩位偶像——計算機視覺奠基人 David Marr、明斯基都是公認的認知科學家……群星閃耀,實在不勝枚舉,AI 的燦爛星河里,腦科學與 AI 的交叉研究竟如此之多。

這也讓我頓悟了一個困惑已久的問題,那就是為什么 AI 一直迭代的是智力,為什么在具身智能大火的今天,大多數機器人還是在執行預設任務。劉嘉這樣說道:“前額葉(主管認知,大腦真正的‘中樞’)主要是在過去 300 萬年形成,進化最晚,功能最弱,最好模擬。神經元最多的地方并不在大腦皮層,而在小腦,主管運動,密度最高,是經過幾億年進化而來。

這正是為什么體力活反而是最先進的機器人都干不了的關鍵原因,“因為它涉及到運動,涉及到更復雜的計算。”與生存相關的,人類覺得最簡單的東西,反而是人工智能最難攻克的。這也帶來了另一個我們需要直面的真相:“今年大熱的推理、AI Coding 等,都只是我們模仿生物智能萬里長征中邁出的第一步而已。”

而對于這兩年間來回搖擺的 Scaling Law,劉嘉引用辛頓的理念、Sutton 的苦澀教訓,結合自身所犯過的關鍵性錯誤直指:智能的第一性原理竟然只是“大”,而非精妙的算法或靈巧的設計,任何人強調 Scaling Law 不再生效都是荒謬的想法,做大參數、不斷地擴大模型,這條路永遠是對的,因為在歷史長河里,人就是這么進化而來。他還有一個比喻特別有意思,當前,對于我們而言,可以怎么像大模型一樣進化?三步走:

1. 為人生定義目標函數;

2. 使用隨機梯度下降優化人生;

3. 人生所需不過一份注意:注意高質量的數據和人;注意實例而非規則;注意也是遺忘。

歡迎收聽對話音頻,如有興趣觀看完整視頻,可在文末獲取

本期《萬有引力》,一起從 AI 的第一性原理出發,穿越不時一夜變天、讓人頗感焦慮的層層迷霧,追尋 AGI 的本質和通往 AGI 的可能路徑,以及生而為人,對于我們開發者,可以如何和 AI 共進化,降低焦慮感,提升幸福感。


結緣 AI,一別二十年

唐小引:今天在清華大學的校園里,很榮幸地邀請到清華大學基礎科學講席教授劉嘉老師,和大家一起分享他對于 AI 的研究和思考。歡迎劉老師,可以和大家打個招呼,做個自我介紹。

劉嘉:大家好,我是劉嘉,非常感謝唐老師對我的邀請。我是清華大學基礎科學講席教授,同時也是我們去年新成立的心理與認知科學系的主任。我的研究方向是腦科學和人工智能,我們通過腦科學來啟發人工智能,做一些類腦方面的計算。

唐小引:劉老師長期從事腦科學和 AI 的交叉研究,我其實之前一直好奇為什么劉老師是從腦與認知科學走上了 AI 之路,在拜讀了劉老師的新書《通用人工智能》后,算是解答了我的疑惑。這里面提到了您早期的 AI 故事:聽了人工智能之父馬文·明斯基的“勸”,選擇留在腦科學的世界,由此告別 AI 20 年。我看的時候,覺得這里面還是有一種很復雜的情緒。劉老師可以給大家講一講您和 AI 的這個故事嗎?


劉嘉:我最早是做符號主義的,當時就覺得它所有的規則都需要寫死,缺少靈動性。很巧,1994 年時,正好有一位博士后從日本學了人工神經網絡回來,在北大開了一門課,可能是中國第一門人工神經網絡的課程

唐小引:我把這個問題拋給了 GPT,問能不能推算出來是哪個老師。它給我的一個答案說可能是遲惠生老師(北京大學原常務副校長)。

劉嘉:不是。遲惠生老師挺厲害,他當時和另一位老師在北京市一個與智能相關的實驗室做指紋識別,做得非常好。那位博士后也的確是在遲惠生老師的實驗室里工作,我現在已經忘記他叫什么名字了,唯一印象就是他比較高、有點胖。如果那位老師能看見的話,請一定告訴我,他是我的 AI 引路人作者注:劉嘉老師在線搖人,歡迎留言聯系)。

當時我跟隨他學習人工神經網絡,他講 Hopfield(霍普菲爾德神經網絡,由 John Hopfield 于 1982 年發明。2024 年,John Hopfield 與 Geoffrey Hinton 一起獲得了諾貝爾物理學獎,以表彰他們推動利用人工神經網絡進行機器學習的基礎性發現和發明),當時我有兩個特別大的困惑:首先是算力不夠,我用的是一臺 386 臺式機,1994 年時的算力只有現在手機的萬分之一,根本算不動。第二個困惑是,當時人工神經網絡是一個極其小眾的領域,搞人工智能本身就是一個很小眾的群體,而人工神經網絡則是小眾中的小眾。

我就在思考,AI 到底應該怎么做,難道這個世界只有 Hopfield 嗎?當時國內互聯網剛剛興起,我讀了一些相關資料,知道真正的 AI 江湖大佬是馬文·明斯基,他僅憑一己之力就把人工神經網絡按死了(AI 的第一次寒冬)。他當時正好在 MIT 的人工智能實驗室,所以我就想去跟他學習,這是我為什么去 MIT 的原因之一。

原因之二是 David Marr(計算神經科學領域的先驅之一,1980 年因病去世),他是計算機視覺的創始人,在 MIT 腦與認知科學系。我對視覺、計算很感興趣,這兩位都是我很崇拜的人。我就到 MIT 去讀博士,當時我已經被腦與認知科學系錄取了,和 Marvin 聯系,他很 Nice,給他發 Email 過去,就說你過來吧,完全沒有任何架子。

但我和他聊天時,感覺到他非常消極。我和他聊人工神經網絡,他說這個東西不值得做。我問:那我應該做什么呢?他說現在大家還在摸索中,也都不太清楚具體怎么做。他就問起我的背景,我說我在 BCS 系。他說你做腦科學,這個比較好。

當時正好是 1997 年,人工智能的最后一次寒潮(AI 第二次寒冬),但是寒潮時間比較久。腦科學在上一世紀 90 年代剛剛興起,因為磁共振技術的出現,有一些更多的研究方法,而腦科學本身也起源于 MIT,所以當時 MIT 里腦科學熱氣騰騰,而人工智能則是冷冰冰的。大家更多的是去搞多媒體、通訊、做互聯網,人工智能基本沒多少人碰。

我記得當時人工智能實驗室是在 MIT 一棟很高的樓,我去的時候是仰視,終于到了殿堂級的地方。下來時如墜地獄,心里特別冷冰冰地坐電梯下來,覺得 AI 不行了,我還是做腦科學吧。所以就再也沒碰人工智能。

在中國,我可以說是中國第一個人工智能版的版主,當時在中國科學院有一個 BBS 叫 NCIC(恩兮愛兮)。所以我可以說是起了一個大早,但趕了一個晚集。等我真正回過神來,覺得人工神經網絡這事值得再搞時,已經到 2016 年了。從 1994 年開始接觸人工神經網絡,到 1997 年正式放棄,再到 2016 年重新回頭撿起,其中就差不多隔了 20 年。

我迷失掉的這 20 年,正好人工神經網絡快速發展,或者說奠基性工作都是在這 20 年里做的。Hinton 的深度信念網絡(Deep Belief Network,簡稱 DBN,是公認的深度學習開端)、楊立昆的卷積神經網絡、預訓練和微調的概念等核心工作及體系都在這個時候出來的。楊立昆當時做卷積,基本解決了視覺問題。到 2012 年 AlexNet 爆發,到后面其實都順理成章,但這段時期我是完全錯過的。

我們現在回過頭來,大家都提人工神經網絡是你必須要做、必須要學的,好像如果不懂 AI 或者連概念都不懂,是一件很錯誤的事情。但它真正埋下伏筆,正好是它最冷的時候。所以在《通用人工智能》里,我特別想回答一個問題:是什么樣的底層邏輯,讓這些人當時堅持下來了?而像我這類人,本來可以說是有很好的機會擺在面前,但我只是碰了一下,轉身就告別了。等到 2016 年回來,別人都已經把山頭全部占滿,留給你的就是細枝末節。

唐小引:您相當于完全錯過了這一段時期,現在回過頭來看,會覺得后悔嗎?如果有一個重新選擇的機會,會直接選擇人工智能之路嗎?

劉嘉:我曾經想過一個問題,就是現在我這把年紀,如果有一個機會,回到過去,碰見那個剛進大學、十七八歲的小青年(指年少的自己),能夠和他聊上半天,會聊些什么話題?

這是一個思想實驗,每個人都可以想象。因為任何人從年少時到現在,中間肯定有一些不開心的、認為走了彎路的事情,你會想,如果我當時不認識那個人就好了,如果當時選 A 不選 B 就好了。我們總是會有這種想法。那如果我回去,我會說什么?

其實后來我想,最好的答案就是,我不會告訴他任何事情。我只會跟他說一句話:好好干就可以了,你做得很好,好好干。為什么?因為今天的我是由過去的點點滴滴累加起來的。如果我過去的道路改變了,那我今天的想法肯定會發生改變。

第二點,我覺得一個很重要的是,我沒有錯過任何東西。為什么這么說?其實可以看到,人工神經網絡的早期發展,從它的 M-P 模型、點神經元模型,到后面的感知機、楊立昆做的卷積神經網絡等,受腦科學的影響非常深。如果更大膽一些的話,它其實是抄襲了腦科學的發現來做的。

但進入到深度學習之后,腦科學和人工智能分道揚鑣。現在我們談的 MoE 架構、Transformer、注意力機制等,其實只是在概念上借用了一些認知科學、腦科學的概念,但它和腦科學有什么關系嗎?沒有。

這就讓我產生一個疑問:我們下一代人工神經網絡到底怎么發展?是我們不停地按照這種方向去壘參數、改算法,還是依然需要依賴腦科學,得到一些新的啟發?這需要賭一個像 Hinton 他們當年所謂的“信仰”。

我覺得有兩點:第一,我們人類還是目前世界上最聰明的個體,比現在的大模型聰明。大模型是通用人工智能的火花或者雛形,還談不上是 AGI。第二,從進化的角度來看,我們人類的大腦其實不是宇宙中最大的,參數量也不是最大的。大象的大腦神經元比我們多,連接比我們多,鯨魚的大腦更不用說了。但人類比大象、鯨魚都聰明。也就是說,除了參數之外,人類大腦可能還有一些更精巧的結構,這些結構可能是通向真正智慧的關鍵。

唐小引:更加精巧的結構是指?現在有哪些發現?

劉嘉:非常好的問題,答案是我不知道。這也是為什么我們現在要做腦科學的一個前提。

所以我覺得下一代人工神經網絡,可能還是要重新把腦科學和人工智能再做一次“聯姻”。它們開始連得特別緊,和雙螺旋結構一樣,到了深度學習分道揚鑣。我覺得現在是時候又重新回到一起了。這就是我說的,如果我重新來做選擇,我并沒有遺漏掉什么。因為我過去在腦科學的積累,使得我在 2016 年做了一個重大決定,把人工神經網絡、人工智能包含進來,讓腦科學和人工智能結合,做一些類腦智能或類腦計算方面的工作。我覺得這些工作可能反而是更加重要的,或者是對下一代人工神經網絡、對通向真正的 AGI 是會有一些幫助。

關鍵性錯誤:AI 十年交叉研究中學到的苦澀教訓

唐小引:所以您剛才總結的是,如果回到過去,可能對著年輕時候的劉老師會拍拍肩膀說“好好干”,因為功不唐捐。第二點,您之前提到提交了辭呈,重返實驗室投身腦科學加人工智能的研究,從 AI 1.0(AlphaGo 為標志)到現在 AI 2.0(ChatGPT 發布為節點)的發展,這其中您有哪些關鍵性的研究成果可以給大家分享嗎?

劉嘉:關鍵性的成果我談不上,但是我可以給大家分享一下關鍵性的錯誤。我覺得這也是苦澀的教訓。對錯誤的理解,可能會對我們未來有比較大的幫助。

第一個比較大的錯誤是,當時我花了很多時間用簡單的 AlexNet 或 Hopfield 這種模型來和大腦做類比,做相應的研究。但在 2022 年 11 月 30 日 ChatGPT 出來后,我就意識到自己犯了一個根本性錯誤。就是原來我用的人工神經網絡參數量太小,只是一個我們學術上講的 toy case(玩具)。這種玩具本身并不能回答太深刻的關于智能的問題。

其實現在回頭來想,這是一件非常簡單的事情。我們肯定不能指望線蟲(我們經常用來做神經模型,它只有 302 個神經元)具有智能。第二點,我們人類大概在 300 萬年前和猴子分道揚鑣,獨立進化干了一件事情,就是大腦的體積增加了三倍。我們拼命地長腦子,拼命地長神經元。只有當神經元數量到達一定程度時,才可能變得真正的聰明。

所以我就意識到原來我研究的全是小模型,諸如 AlexNet、VGG16 或者 ResNet 等。后來我就覺得方向錯了,太過于關注這些神經網絡的可解釋性,但當神經網絡太小時,它不可能具有真正的智能。所以在那個時候我就決定要干一件事情,就是必須轉向大模型。

大模型這條路是對的,或者大參數量這條路是對的。它是通向智能的一個必要條件。首先你模型必須大,如果不大,智能免談。這是我犯的第一個錯誤。GPT-3 在 2020 年 5 月出來時,我還在智源研究院批判這就是個傻大粗,試圖靠壘參數壘出智能來,我說這條路完全行不通。后來證明我錯得格外離譜。

所以在《通用人工智能》里,我就特別想把 AI 的底層邏輯講清楚,就是我們只有知道當模型必須要大的時候,它才可能擁有智能,這是一個必要條件,但不是充分條件。我們課題組花了很多時間去追 DeepMind 的工作,看 Google 的工作,而 OpenAI 的工作我們是徹底忽略掉了。后來 2023 年時,我花了大概半年的時間思考我為什么錯。后來想,原來我是忽略掉了人工智能的第一性原理。人工智能的第一性原理就必須是大,參數量必須要大,不大的話,它是沒有智能可言的。

我犯的第二個錯誤是什么?大模型來了之后,沖擊特別大。我當時就想,是不是原來我們是百花齊放,現在是一枝獨秀,是不是我們所有人都應該去搞基于 Transformer 的大模型?我們也做了很多這方面的工作。但直到 2023 年年底,有一天我突然想到一件事,生物的進化、人的大腦的進化,其實分成兩部分。第一部分,神經元在不斷增加:線蟲 302 個,果蠅百萬級,斑馬魚千萬級,小鼠是上億,猴子是百億,我們人是千億級(860 億個神經元)。這是大模型走的道路。

但后來我意識到還有第二條路,我們以前一直忽略掉了,就是神經元的復雜度也在不斷地增加。我們人的神經元復雜度,遠比小鼠、線蟲復雜很多。也就是說,人在干兩件事情,一是神經元數量在增加,二是神經元本身的復雜度在增加。而我們現在的人工神經網絡,其實忽略了第二條路線,在走第一條路線。我們現在的人工神經網絡做的所有事情,用的還是原來的 M-P 模型:輸入求個和,然后通過一個激活函數再出去。再復雜的人工神經網絡都是基于這么一個基本單元,它這一點是從來沒有進化過的。

這個時候我就想,進化是我們現在唯一能參照的智能法則。如果進化這么看重神經元復雜度的話,背后應該是有原因的。所以那個時候,我發現原來盲目地去跟風大模型是有問題的,還是應該和腦科學結合起來,看能不能創造出一個全新的人工神經網絡出來。這是我們經常說的一個根節點問題,如果我去修算法,那是在改枝葉。但如果我從最底層把神經元都給換掉,把原來的點模型換成精細神經元模型,更加反應樹突計算的神經元,連最底層的信息處理單元都換了,會不會得到一種新的人工神經網絡出來?這就是腦科學和 AI 的真正交叉。所以從這一點上來講,讓我覺得,還真有點好東西可以做,從原來的跟風,回到自己擅長的領域里來。

Scaling Law:AI 的第一性原理

唐小引:您剛才提到通往 AGI 之路的第一性原理就是大。其實從 ChatGPT 出來之前,大家就在追求大模型,往大參數走。那個時候大家還會質疑一味地追求大。到現在,很多人對于 Scaling Law 是否還成立,是否還是“大力出奇跡”,有著很強的爭議。在這里我想問劉老師,您對于 Scaling Law 的觀點是什么樣的?

劉嘉:我覺得 Scaling Law 是絕對沒錯的。我認為AI 之所以比人類更有發展前途,就是因為 AI 可以無限擴張,而人是已經被鎖死了,不能無限擴張。所以我覺得任何人強調 Scaling Law 不再生效了都是 nonsense(荒謬的想法

從我的角度來講,做大參數,不斷地擴大模型,這條路永遠是對的。就像 Sutton 講的 a bitter lesson(一個苦澀的教訓),再精巧的算法,最后在這種“大力出奇跡”下面,都變得蒼白無力。所以模型變大這件事情是沒問題的,從進化的角度上來講,人的大腦就是在不停地變大的過程中。所以任何對 Scaling Law 的質疑,都可以忽略掉,沒有價值。

但是,我剛才也說了,它是一個必要條件,但非充分條件。并不是模型大了之后,就必然會產生超越人類的智能,或者像人一樣的智能。

唐小引:那您怎么看待大家所說的 Scaling Law 撞墻的問題,很多研究都在去探索 Scaling Law 的延續。

劉嘉:從我有限的知識和觀點來看,所謂的 Scaling Law 撞墻,其實就是一些炒作。說白了,就是沒有那么多錢,或者買不到那么多卡,沒法在 Scaling Law 這件事情上和別人競爭,就說這條路是不對的,還是搞精細算法。我覺得搞精細算法,盡可能地 squeeze(壓榨)里的能量,讓算法變得更加精巧,顯存用得更少,這都是對的,沒錯。但如果拉長時間來看,肯定是大量的顯卡堆出來的算力,能培養出更復雜的模型。

比如,北京大學和中國科學院深圳研究院做的一個調研顯示,我們國內很多模型其實都是從國外的模型蒸餾而來。蒸餾有好處,就是不用從零開始訓練,相當于有個老師,直接從老師那兒吸取知識,訓練量少了,參數量也可以少很多。但這也帶來一個缺點,就是原來那個模型的三觀,變成了你的三觀,這就是 AI 對齊的問題。國內絕大多數模型都是靠蒸餾而來的,而不是從零開始訓練。

所以回到這個問題,Scaling Law 撞墻,只是一種商業上的用語而已。但是從學術上來講,更大的算力、更大的參數量,這條路永遠是沒錯的。因為人就是這么進化來的。

學術界 vs 工業界:從 0 到 1,與從 1 到 100

唐小引:您剛才講到從小模型到大模型,您個人的苦澀教訓時,我就在思考,很多學術界的老師會說,在學校里做的研究就像玩具,因為如何獲取到大的算力、數據和真實場景的支持是個難題。對于您來說,在學術界做大模型研究,如果一直在學術界,是不是會碰到瓶頸?

劉嘉:這是一個特別好的問題,我們一定要分清大學和大廠在功能上的區別。我經常和學生說,你一定要想清楚,到底是想做科學還是工程。兩者沒有高下之分,但具體實踐卻截然不同。

如果想做工程,其核心是在于怎么從 1 做到 100。這種情況下一定要去大廠,即使是清華,都不要來。為什么?因為清華是很厲害,但在算力、數據、人員配置上,絕不是大廠的對手。大廠為了一個商業目的,可以十幾億、幾十億地砸進去,OpenAI 甚至可以砸數百億美元,大學肯定不行。大學一個課題組有個幾百上千萬的經費就已經很厲害了,但拿來搞大模型肯定是不行的。所以商業應用、大模型的調教,一定要到公司里做。

那在大學是要解決什么問題呢?大學要做 0 到 1 的事情,即這個問題在我們研究之前它不存在,或者它的解決方案不存在。我們在大學里做一些探索性的從 0 到 1 的工作,這是大學應該干的。為什么?因為這個時候我連方向、怎么做都不知道,所以不計成本。第二點,不用擔心兩三年不出活會被開掉,大學有 tenure 制度(終身教職)。就像 Hinton 當年在多倫多大學做人工神經網絡,備受質疑,校長曾說過“我們學校一個瘋子就夠了,絕對不能進第二個搞人工神經網絡的人”。但是校長開不了他,所以他可以潛心搞研究。但如果在一個大廠,市場上已經說這個方向是錯的,還敢在上面砸錢嗎?不能。

總結而言,大學做的是 0 到 1 的顛覆式創新,而公司或大廠做的是組合式創新,目的是不一樣的。對于學生而言,要做科學問題,就到大學來讀 PhD,我們只做 0 到 1,做的東西就是“無用”的。如果有用,就到大廠里去做。我們做科學問題,60 分萬歲,只要能跑起來。比如做一個智能手表,體積、耗電都很大,但它只要能達到智能手表相應的功能,就算完成了。這個時候公司開始接手,怎么把它小型化、設計得很好看,怎么讓電池續航從一小時變成兩天。這些是工程上的問題,而非科學問題。

把這兩點分清楚了之后,回到剛才的問題。大學要做什么樣的人工智能?我覺得我們大學里面只做一種人工智能,就是下一代的人工智能。它現在不存在,但是我們有很多可能的探索路徑,大家可以去嘗試,就像我嘗試把腦科學和 AI 結合起來。你說現代的人工智能真的會是這樣子嗎?我堅信是如此,但如果問其他老師,大家會說不一定靠譜。沒關系,在大學里我可以做這種嘗試。一旦成功了,就是一種顛覆性的創新,就會把以前推翻掉。就像 Hinton 搞出深度學習,AlexNet 一出來,就把以前做圖像分類的所有非深度學習的算法干掉了,它就是王者。

唐小引:您提到了工業界,從 ChatGPT 到現在,國內經歷了百模大戰,今年大家核心在做 Agent。但同時也發生了一些事情。工業界做 AI 的成本是巨大的,相應地就涉及到資金投入還有人員的變動,這半年里發生得非常高頻。不知道您站在學術界看工業界,有哪些思考可以分享?

劉嘉:對于人工智能這個領域,學術圈其實也特別卷。我們通常說一個迭代周期是 72 小時。如果三天沒看論文,可能有些東西就已經過時了,它就這么殘忍。所以大家愿意去發會議文章,而不是發期刊文章,因為一篇期刊從投稿、審稿到最后接收,大概至少需要一年的時間,那時候論文已經過時了。

回到工業界,其實是特別殘忍的。舉個簡單的例子,原來我們做文生圖,大家用的是 Diffusion(擴散模型)。后來 OpenAI 說了,你可以不用 Diffusion,可以用文字生成 Token 這種自回歸的方式來做,而且大家也看見了效果特別好。所以本來像 Midjourney 這種做得非常好的,可能一夜之間就沒了。

唐小引:這是涉及到自回歸和擴散模型的路線之爭。

劉嘉:對,如果從人類學的角度來講,這在歷史上也發生過。你看我們的祖先智人(Homo sapiens)和尼安德特人,當這兩個人種碰到一起之后,絕不會握手言和,只能是一個人種消失掉。結果是我們智人要更聰明一點,把尼安德特人滅掉了。現在尼安德特人不復存在,只有少量的基因流入到智人體內。對于人工神經網絡的這種路線之爭,它一定不會是兩種算法共存。

唐小引:一定是優勝劣汰。

劉嘉:對,因為在聰明這件事情上,越聰明就越殘忍,不會存在聰明的多樣性。因為聰明這件事情是可以清楚定義的,生成的圖是不是更好,生成的文字是不是更清楚,絕不存在大家和平共處。所以從這個角度上講,工業界一直給我一種感覺就是不確定性。今天看他樓起了,明天就看他樓塌了。這就是工業界的一個現狀,很殘酷。

原來我們說的百模大戰,現在還剩多少?甚至當年比較厲害的幾個做大模型的,除了 DeepSeek,好多都已經沒有了出路。道理非常簡單,當一個更好的東西出來之后,它就是贏者通吃,絕不會出現共存。

唐小引:這是我們的必經之路,對吧?

劉嘉:如果簡單來看,這就是進化,進化就是這么殘忍。你看猴子,各種各樣的猴子都能活得挺好,因為它們智商不夠。智商不夠的物種是能夠共存的,而智商比較高的物種,那一定要滅掉對方。

所以從這個角度上來看,競爭很激烈。第二點,有一個很重要的把握,就是我這幾年做人工智能,我每次都在訓練自己去尋找它發展的底層邏輯。這個底層邏輯太重要了,也就是馬斯克強調的第一性原理。所以我在寫《通用人工智能》時核心不是技術層面的內容,因為今天還很流行的技術,等書面世之后,可能已經受到了嚴重的挑戰。但它背后的底層邏輯,應該是保留住的。

唐小引:對于剛才的工業問題,那底層邏輯核心,比如對于大家看到的樓起樓塌背后不變的是什么?

劉嘉:我覺得現在企業有一個最核心的原則,就是千萬不要去做專用模型,通用模型專家化,一定會干掉純專業的模型。舉個例子,最開始我們做面孔識別,都是用的卷積神經網絡。但是現在做這些的已經全部死掉了。后來大家發現用 Transformer 這種方式來做視覺識別,效果要遠遠好于通過卷積來做。我原來做 Transformer 是做大語言模型的,是通用模型,但是我把它調教成做圖形,居然就勝過原來專門做圖形識別的那些模型。

所以這就是我總結出來一個經驗,千萬不要做一個專一的模型。

唐小引:這其實從去年年底開始,AI 技術圈又興起了大小模型協作,我理解是通用模型和專用模型在一起協作的方式。

劉嘉:我是這么來看的,首先要區分兩個概念。一是我們現在講的 Agent,大模型扮演大腦的工作,下面有一大堆各種各樣的小工具,有的是負責搜互聯網,有的是負責繪圖。一個大模型帶一堆小模型,在 Agent 這個領域是沒錯的。

我們剛才說的是在一個相對比較大的領域里面,比如繪畫,我是專門做一個模型來繪畫,還是把一個通用的大模型拿來精調或微調實現繪畫。現在結論已經很清楚了,從大模型里面調一下,先有一個聰明人,再把它變成一個專家,一定會干掉直接往這個方向去培養的模型。打個比方,一個聰明人,他干啥都會很厲害,只要他接受了適當的教育,這個適當的教育就是 fine-tuning。

很多人都很怕 OpenAI 發布新功能,因為一出新,一大批創業公司可能就此死掉。因為 OpenAI 掌握了一個非常強大的大模型 GPT 系列,往任何方向稍微轉一下,在性能上就把原來專門做某個方向 AI 的人全部給干死。

唐小引:這就是您說的“通用模型專家化”。

劉嘉:對。DeepSeek 的出現改變了很多東西。以前開源的模型,它不可商用。Llama 功能很有限,如果真想去做非常嚴肅的商用,是不可能的。而可用的模型它是閉源的,比如 Anthropic 的 Claude,還有 GPT 系列。只能通過購買 token 來用,這對商業來說成本很高。

DeepSeek 沒有炒作,是一個貨真價實的東西。它的性能達到了當年 GPT-4o 的水平,但它還開源。這樣就給大家一個可用的商用級別的大模型。我覺得這件事情對很多創業公司來講非常友好。現在也有很多受它啟發而開源的模型,比如阿里的通義千問,非常好用,性能在很多方面不比 DeepSeek 差。我們現在處在一個良好的開放社區里,對商業發展非常有幫助。

AI 基礎理論的真實現狀:為何總是“新瓶裝舊酒”?

唐小引:從技術來講,AI 的真實現狀是什么?由 DeepSeek 帶火的 MoE,它的概念能追溯到 1991 年。強化學習也能追溯到上個世紀。自從 Transformer 之后,很難說有比較關鍵性的基礎理論突破。很多人關心 AI 的瓶頸問題。

劉嘉:強化學習這個概念來自于行為主義心理學,是上上世紀 1890 年代由哈佛大學心理學教授桑代克提出來的。后來到了上世紀六七十年代,強化學習日益被意識到可以拿來做一種算法訓練模型。而 MoE 這個架構,最早也是來自于認知科學的一個概念,叫“全局工作空間”(Global Workspace Hypothesis)。

為什么 AI 現在和心理學、認知科學、腦科學結合得這么緊密呢?道理非常簡單,因為人工神經網絡從一開始就是通過仿生這條路來走的。Hinton 當年之所以堅持,他的一個核心理念就是,通過神經網絡的方式,人能產生智能,那我去仿生它,也一定能夠產生智能。所以人工神經網絡本身就是一條仿生的道路。

第二點,它的目的是要產生跟人一樣的智能,我們叫類人智能。既如此,那人的各種行為表現、認知方式,也成為人工神經網絡去模仿的根基。我們找到了大腦走的是“全局工作空間”,那我是不是用 MoE 來搞一搞類似的方式,是不是可以運行?就發現的確能運行得非常好。

唐小引:我很困惑,為什么 AI 的追求是類人?難道不是“詩和遠方”交給人類自己,臟活累活讓機器干嗎?現在好像反過來了。

劉嘉:其實,我們進化出大腦皮層,現在強調的推理、編程、語言,這些功能的核心腦區是我們的新皮層,比如額葉。這總共也就進化了幾千萬年,甚至說得不保守一點,也就是幾百萬年。比如我們的前額葉主要就是在過去 300 萬年形成的,它和我們所謂的思維鏈(Chain of Thoughts,CoT)有密切關系。它在進化上只花了這么點時間,所以它的功能也是最弱的,最好模擬。

我們再看另外一個角度,我們整個大腦有 860 億個神經元,神經元最多的地方不在大腦皮層,而在小腦。我們人的整個大腦里面神經元最多的在小腦,它的密度是最高的。而小腦主管我們的運動,運動這塊是經過幾億年進化出來的,它花了更久的時間,也就是說它其實是一件更難的事情。所以我們現在所謂的苦活、臟活,你拖個地板、洗個碗,都覺得誰都能干,但是機器人干不了,最先進的機器人干不了,因為它涉及到運動,涉及到更復雜的計算。

再比如感官,我們倆現在聊天,突然那邊一個黑乎乎的東西飛過來,我們二話不說馬上就做一個遮擋動作,這是下意識的。機器人不會,一個球扔過來,它一定會被砸到,它反應不過來。因為機器人接觸到外面多模態信息的時候,它必須要快速提取有效信息,現在的 AI 干不了這件事情,它的處理速度極慢。

所以,與生存相關的,我們覺得最簡單的東西,其實現在反而變成了人工智能最難攻克的。而我們覺得很厲害的,比如解個偏微分方程,反而不需要太多的智能。所以回到我們現在的問題,為什么要去做仿生?因為我們所做的推理、寫代碼等只是我們模仿生物智能萬里長征中邁出的第一步而已。真正要讓它在這世界上像人一樣自由地游走,能夠趨利避害,看見一個危險就躲掉,看見有用的東西就撲上去,還離得太遠。

唐小引:所以,具身智能真正的挑戰是在于小腦?

劉嘉:對,在多模態感知和小腦這一塊,而非推理。因為推理大模型已經把它解決掉了。現在大家覺得具身智能很奇怪,認為只要接上機器人,或者接上輛小車,在外面跑一跑,就叫具身智能。其實這和我們認知科學所談的“具身”(embodied cognition)是風馬牛不相關的。現在很多所謂的人形機器人,只是原來工業機器人換了個外殼而已,與智能一點關系都沒有。

通向 AGI 的三條路線:為何 NLP 最終勝出?

唐小引:我們來聊聊您提到的通向 AGI 的三條路線:強化學習、腦模擬和自然語言處理(NLP)。您認為前兩者行不通,NLP 更有希望,這個論斷是大家的共識嗎?

劉嘉:在 2022 年 11 月 30 日之前,當時我們在智源研究院,這三條路都有人嘗試,百花齊放。大模型出來之后,其實其他兩條路就垮了,只剩下通過自然語言做大模型這一條路。

在書中我提到了,這三種路線分別在模仿人的不同狀態。腦模擬是模仿我的神經系統;強化學習是模仿人的行為;而大語言模型,它本身不是模仿語言,而是語言所承載的認知,它更多的是模仿人的思維。我們當時認為是條條大路通羅馬,但為什么后來只有語言搞出了 AGI 的火花,而另外兩條路不行呢?其實并不是說這兩條路不行,而是它們有邁不過去的坎。

比如強化學習,我們人就是強化學習一路進化過來的,但這個時間太長了。生物花了 38 億年的時間,才能接觸到各種各樣可能的條件。現在一個機器人要通過外界反饋來學會智能,不具有可行性。

再來說模擬神經元。從概念上講沒問題,但它也碰到一個現實問題,就是人的神經網絡太復雜了,860 億個神經元。我們對大腦的了解還不夠,連算力都不支持。我們現在了解最多的就是線蟲的 302 個神經元,連果蠅的十幾萬個神經元我們都搞不定。所以這兩條路,不是說理論上通向不了 AGI,而是有太多的現實約束。

但是自然語言處理這件事,人類干了一件很厲害的事情,就是把所有的知識全部記載下來,通過書、圖書館、互聯網等。現在只需要找一個神經網絡,把這種知識壓縮進去就夠了。以前大家沒找到很好的方法,而Transformer 的核心是找萬事萬物之間的關系和連接,能建一個非常龐大的知識圖譜。就能增加參數量,把全世界所有知識全部壓縮在里面。一旦知識進去了,它就可能會開始思考。

AI 要大放異彩,需要兩個條件。第一,高質量的數據。我們互聯網的文本、書籍就是高質量的數據。而強化學習沒有高質量的數據,到現在也沒有一個關于具身智能或強化學習的很好的數據集像 ImageNet 一樣。第二,它一定要在“已知的未知”這個領域大放異彩。就是說,人類已經知道一些初步的東西,但要把它全部解完還解不完。最好的例子就是 AlphaFold 解蛋白質序列,人類知道怎么解,但世界上有兩億個蛋白質,人一個一個去解可能得干一兩千年。AI 來干這活正好。

但是,直接模擬人類大腦神經系統,對我們來說是“未知的未知”。我們不知道大腦神經元是怎么放電來產生思想的,對此一無所知。在這個領域,AI 是無能為力的。但是通過自然語言這件事情來做,正好兩個條件都具備了。

唐小引:但現在對于高質量的數據,很多人說數據也面臨耗盡,所以合成數據由此興起。

劉嘉:數據耗盡是必然的,因為總共就只有那么多文字。我覺得現在對于大模型來說,最大的問題是它有一個關鍵口沒邁過去,所以我們現在只能叫它“火花”。它沒有創造力。

什么叫沒有創造力呢?假設我現在訓練一個繪畫大模型,我輸入的全是傳統的經典繪畫。訓練完之后,它會畫出梵高的印象派畫作嗎?不會。所有的大模型,其實都是在人給它的知識邊界里,從來沒有逾越一步。從某種角度講,現在大模型能夠生成(Generative),但是它沒有創新(Innovation)。這是兩個完全不同的概念。前者是 1 到 100 的過程,是工程問題。而人的創造力(Creativity),是 0 到 1 的過程。

數據耗竭是人給它的數據耗竭了,自己可以合成數據,但也是在人的框架里來合成,這只是數據增強,本身不會有太大的變化。所以數據耗竭現在是 AI 面臨的一個非常重要的問題。它的突破點在哪?如果 AI 有一天能夠像人一樣具有創造力,能夠干 0 到 1 的事情,那數據永遠就不會耗竭了,因為它可以創造出人類所沒有的數據出來,這樣它就可以源源不斷地去學習。

唐小引:您基于當今的研究,覺得 AI 自己擁有創造力是可能的嗎?

劉嘉:從目前來講,我們沒有看到。這也是為什么我要去研究腦科學加 AI 的原因。因為我們人是有創造力的,人類作為一個物種,有這種 0 到 1 的創造能力,AI 是沒有的。

這個事,是它 can’t do it(永遠不能),還是 can’t do it yet(暫時不能)?這是一個信仰問題。對我來講,我認為現在的大模型是不能做的,它不具有創造力。因為大模型所做的一切,全是在壓縮人類已有的知識。在它的損失函數里,從來沒有說要創造出新的東西出來,只是說怎么忠實地把東西給壓縮進去。一旦大模型產生一點幻覺,我們人還要馬上把它“掐”死。所以大模型從訓練的第一步開始,我們的算法就在告訴它:不要有創造,就老老實實把人的知識用最好的方式壓縮進去就 OK 了。

但是人不一樣,我們人就是靠不斷地創造出新知來進化的,我們的目的是一代要去顛覆上一代的東西。這是人和大模型一個非常本質的區別。所以我認為大模型在短期之內,它不太可能具備創造力。或者沿著這條方式去做,它不會具有 0 到 1 的創造力。

唐小引:對于 NLP 我很困惑的一點是,大家對于維特根斯坦的“語言的邊界就是世界的邊界”奉為圭臬。但同時,比如在自動駕駛的車上,如果前方有緊急事物,人類大腦是下意識的反應,已經帶著人做了行動。但如果是跟大模型的交互,你要先用語言去溝通,它再去反應,可能有些事情是語言沒有時間能夠去表達的。

劉嘉:我完全同意這個觀點。這就是剛才我說的,最容易模仿的就是我們的思維。我們真正的下意識反應,看見一個危險我馬上就躲,這個與我們大腦皮層沒關系。卡尼曼寫了《思考,快與慢》,我們現在是在模擬第二系統,也就是慢思維這一部分。我們所謂的思維鏈,其實就是模仿慢系統。

但是,人的第一系統,這種快思維,大模型還沒有去解決。這個問題就必須留給具身智能來解決。所以具身智能的難度遠遠要高于大模型的難度。

維特根斯坦說“語言的邊界即世界的邊界”,這個世界指的是認知的世界,不是我們的物理世界。我們思維的邊界是由語言所定義的。但是,我們的很多行動、潛意識的反應、情感,這個不屬于認知的世界,它是人類一種本能性的反應。而這套系統其實對我們人來說,或者從生物智能來講,它是一個更加珍貴的東西,它更復雜,而且我們現在對它更加一無所知。所以我覺得下一代人工智能為什么一定要和腦科學結合,就是我們得去把第一系統給補上,不能只靠第二系統干活。

知識密集型的崗位會消失 95%,TOP 5% 的人會活下來

唐小引:回到人本身的話題。從大模型席卷開始,大家就核心聊到了人本身,首先就是程序員。從 ChatGPT 一出來,就有了 AI 取代程序員的論斷。在教育上,很多人討論為什么還要學習,大學教育是不是要有一些變化?

劉嘉:因為大模型的出現,我們原來定義的知識密集型行業,比如編程、律師、醫生,現在變得特別不值錢了,知識變得不值錢了。現在一個不會編程的人,都可以寫出很好的代碼出來。Cursor 現在寫的代碼已經比 99% 的人都要強了。

這個時候對于人類而言要干嘛?原來我好不容易學會編程,終于有一碗飯吃,現在瞬間我就失業了。這是一個事實,永遠沒法改變。其實這件事情本身并不是一個讓人恐慌的事情。回到第一次工業革命的時候,我是一個小作坊的經營者,每天靠織布掙錢,但有一天機器來了,開了一個紡織廠,它織的布又好又快,價格還便宜,那我不就一下失業了嗎?

工業革命其實把人從這種繁瑣低效的工作里解放出來,所以工業革命之后,人的 GDP 才開始大量增加,社會才高速進步。AI 要干的事情,其實也是把人從那種枯燥復雜的事情里解放出來。以前編程,大量的代碼是在做重復性的工作(高頻的復制+粘貼)。現在 Cursor 能幫你把大部分的代碼寫了,那我們每個人就可以真的坐下來,考慮要實現一個什么樣的功能,把自己的勞力用在了真正的刀刃上,而不是去 Ctrl+C、Ctrl+V。

所以,這其實是人類一種真正的解放。從原來重復性的、基于知識的工作,變成一種可以去做創造了。因為創造這件事情是 AI 不行而我們人類最擅長的,我現在更多的把 AI 當成一種助手,它不是替代我的角色。將來人與人之間的競爭會變成一個會用 AI 的人 vs 一個不會用 AI 的人,而不是人和 AI 之間的競爭。

唐小引:就以程序員為例。編程本身是用程序的語言作為中間介質給到機器,但我們現在可以直接用 AI,AI 可以自己寫,為什么還需要中間這個環節?

劉嘉:我從來不認為編程的本質是在寫代碼(Code),我認為編程的本質是通過機器來解決問題,它的核心是問題解決。編程高手是在想怎么通過一條有規則的方式,把一個復雜問題給解決掉,計算機程序只是他的工具而已。Cursor 本身不具有解決復雜問題的能力,它只是執行者。人的這種復雜問題解決能力,是沒有被 AI 所取代的。知識密集型的崗位會消失掉 90%、95%,但它會讓 TOP 5% 的這些人活下來。

唐小引:TOP 5% 的是哪些?

劉嘉:具有稀缺性的人。我舉個例子,音樂人小柯,現在大家都可以用 Suno 生成音樂,把很多一般的音樂人都干掉了。但在 AI 大量出現的情況下,小柯的價值反而漲了。因為他是 AI 現在代替不了的頂級音樂人。他制作音樂時,會讓 AI 先做,他聽了之后,就要讓自己的音樂和 AI 的方式不一樣,讓音樂一聽就有人味,沒有 AI 味。

唐小引:所以對于大家來講,要努力修煉成稀缺的 5%。

劉嘉:對,那是最關鍵的。因為 AI 的加持,現在人人都能拿 80 分,所以 80 分就沒有意義。這些人的區分度就完全沒有了。現在你需要干什么?需要從 80 怎么變成 90,怎么從 90 變成 95。越能做到這一步,就能把稀缺性完全展現出來。

唐小引:這就是您想要講的通識教育

劉嘉:對。從大學教育的角度上講,現在就不再是圍繞著把人變成一個專一學科的人,而是要把它變成一個通識,要跨學科,什么學科的知識都要有一點。因為人非常擅長把各個學科的內容進行交叉,在交叉的過程中會產生新的創造。創新點從來就在學科的交叉上。

唐小引:比如就清華而言,這兩年在追求跨學科方面有很大變化嗎?

劉嘉:我就舉兩個例子。第一個例子,現在清華把本科生教育做一個轉換,要全部放到書院里去。原來計算機系的學生就在計算機系學習,現在清華不這么做了,而是所有系把自己的本科生放到書院里面,好幾個學科的同學都放在一起,進行大類教育,什么都學。等到大二大三時,才選專業。將來所有清華的系或學院就不再有本科生了,全都放到書院里面去。

第二個比較大的改革,以今年招生為例,清華要擴招 150 人,全部做人工智能,成立了“無穹書院”。這 150 人學 AI 的方式和其他人工智能完全不一樣,都是“AI+某個方向”,可以 AI+生物、AI+化學、AI+汽車制造。是以人工智能為底,但核心是向各個學科擴展。即使學 AI,也不是純學 AI,而是一定要和某個學科跨起來學。

結語:這是焦慮的時代,還是幸福與興奮的時代?

唐小引:劉老師最后給我們的讀者、開發者、工程師群體,留一個您想說的心理話或者寄語。

劉嘉:如果簡單講一句話,我覺得現在是一個最美好的時代。因為從來就沒有哪個時代,能夠因為通用人工智能的出現而變得如此有趣。我們以人類智能為模板,創造了一個全新的物種,一個終于在智力上可以和人類進行對話的新物種。以前我們是這個宇宙的孤兒,整個宇宙里就只有我們人類是一個聰明的物種。現在我們終于有個可以對話的物種了。

所以為什么我說這是一件很幸福的時代,我們終于不再孤單了。而且這是一個非常讓人興奮的時代,因為我們可以和 AI 一起來共進化,共同成長。這是一個更有想象力的未來。我們能不能通過它,讓我們壽命變得更長,治愈我們所有的疾病?我們能不能通過它來擴展我們的認知,做腦機接口、認知增強?我們可不可以然后通過它來真正獲得永生?我覺得 AI 給我們帶來了原來只存在于科幻小說里面的很多想象場景,但隨著 AI 的發展,隨著它和各個學科的結合,這一切都從一種科幻或者神話傳說,逐漸會變成現實。所以這是一個既讓人非常幸福,同時又讓人感到非常興奮的時代。

唐小引:也會很焦慮嗎?

劉嘉:焦慮就像第一次工業革命一樣,首先是焦慮,所以大家會去砸機器。但是后來大家覺得還是有機器的生活會更好一些。

唐小引:您的《通用人工智能》姊妹篇預計什么時候和大家見面?

劉嘉:我希望 2025 的暑假能有時間把下半部寫成。因為人工智能這個領域是 72 小時的一個迭代速度,它和心理學、腦科學不一樣。所以我想能夠把一些比較新的想法或者從不同學科來看的東西盡快寫出來。我希望是這個暑假能夠把它寫出來,但是,任何事情都可能有意外。

唐小引:謝謝劉老師為我們帶來的精彩分享,也祝劉老師的下一步著作早日面世。

劉嘉:謝謝。希望大家能夠通過這次的討論和閱讀有一些新的感悟,也希望讀了之后能夠和我進一步地分享討論。

對話完整視頻如上,也歡迎對《通用人工智能》感興趣的小伙伴京東下單紙書

關于《萬有引力》:

這是由 CSDN &《新程序員》執行總編唐小引主理的對話欄目。技術趨勢多變,一不留神總擔心錯過。正在發生的技術事件,對于我們開發者意味著什么?我們面臨的諸多困惑從何尋找答案?《萬有引力》即志在于此,直面事件與困惑,抽絲剝繭,解讀技術真相。

  • 欄目定位:一檔面向開發者群體,聚焦解讀技術真相的對話欄目。

  • 視頻觀看平臺:CSDN 視頻號、CSDN 網站 & App

  • 多形式:文章、視頻、音頻都會有,持續關注 CSDN 公眾號都可獲取,歡迎大家關注!


會議推薦:

AI 產品爆發,但你的痛點解決了嗎?

2025 全球產品經理大會

8 月 15–16 日

北京·威斯汀酒店

互聯網大廠、AI 創業公司、ToB/ToC 實戰一線的產品人

12 大專題分享,洞察趨勢、拆解路徑、對話未來。

立即掃碼領取大會PPT

搶占 AI 產品下一波紅利

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
甜瓜:比斯利是史上最有天賦的球員之一 他并未被真正尊重過

甜瓜:比斯利是史上最有天賦的球員之一 他并未被真正尊重過

直播吧
2025-07-23 17:57:59
杭州余杭受影響用戶7月份水費全免

杭州余杭受影響用戶7月份水費全免

界面新聞
2025-07-23 17:49:15
深圳最新人事任免發布

深圳最新人事任免發布

南方都市報
2025-07-23 20:53:42
周恩來祭拜孫中山,得知守靈人20年未發餉,總理問:他給你多少錢

周恩來祭拜孫中山,得知守靈人20年未發餉,總理問:他給你多少錢

與史說
2025-07-23 12:12:43
老人扎堆乘涼,肯德基損失過萬,警方沒有辦法,老人一語說出關鍵

老人扎堆乘涼,肯德基損失過萬,警方沒有辦法,老人一語說出關鍵

鋭娛之樂
2025-07-22 23:31:40
上海郊區小鎮,全面崩盤

上海郊區小鎮,全面崩盤

魔都財觀
2025-07-23 07:41:49
廣東2個孩子被燒死在爺爺家中!繼奶容貌曝光!身體火辣,僅34歲

廣東2個孩子被燒死在爺爺家中!繼奶容貌曝光!身體火辣,僅34歲

魔都姐姐雜談
2025-07-23 14:08:40
惡魔基因天生壞種?母親執意生下“超雄”兒子,長大后驚嚇全部人

惡魔基因天生壞種?母親執意生下“超雄”兒子,長大后驚嚇全部人

冰雅憶史
2025-07-21 11:38:31
8年前,那個卷走父親全部300萬積蓄到國外揮霍的18歲女孩,咋樣了

8年前,那個卷走父親全部300萬積蓄到國外揮霍的18歲女孩,咋樣了

趣談人物紀
2025-07-23 12:00:03
石破茂辭職,日本變天!日本極右翼得勢,中國嚴陣以待

石破茂辭職,日本變天!日本極右翼得勢,中國嚴陣以待

哲叔視野
2025-07-23 18:12:27
19歲小伙錯付1010元打車費索要無果后自殺,家屬起訴司機案開庭,上海交通委已介入

19歲小伙錯付1010元打車費索要無果后自殺,家屬起訴司機案開庭,上海交通委已介入

極目新聞
2025-07-23 16:43:52
讓中國人滾出韓國!中方再也不忍了,一紙嚴正函件送到李在明手上

讓中國人滾出韓國!中方再也不忍了,一紙嚴正函件送到李在明手上

軍哥風云說
2025-07-23 12:14:03
53歲性感女神驚爆真空上陣露古怪胸型!豐滿上圍下垂到肚臍

53歲性感女神驚爆真空上陣露古怪胸型!豐滿上圍下垂到肚臍

粵睇先生
2025-07-23 00:55:58
咸魚一條狗賣26000:特會配,一次四十分鐘,男生勿擾

咸魚一條狗賣26000:特會配,一次四十分鐘,男生勿擾

丫頭舫
2025-07-23 10:27:36
謝尚果被撤職

謝尚果被撤職

極目新聞
2025-07-23 19:32:34
曝深圳14歲女學生被同班男生殺害,連捅26刀手段殘忍,母親曝原因

曝深圳14歲女學生被同班男生殺害,連捅26刀手段殘忍,母親曝原因

180視角
2025-07-23 16:49:24
市監部門回應“上海和平飯店罐裝可樂一杯賣50元”:屬市場調節價,只要消費者愿意買單

市監部門回應“上海和平飯店罐裝可樂一杯賣50元”:屬市場調節價,只要消費者愿意買單

極目新聞
2025-07-23 18:30:14
A股跳水原因找到了!1.2萬億股民買單了?今晚關注特朗普重磅行動

A股跳水原因找到了!1.2萬億股民買單了?今晚關注特朗普重磅行動

看財經show
2025-07-23 16:56:53
和平湖市委書記聊了一個半小時,他提了106次上海

和平湖市委書記聊了一個半小時,他提了106次上海

上觀新聞
2025-07-23 19:43:51
英偉達大跌!黃仁勛持續減持,近一個月套現約2億美元

英偉達大跌!黃仁勛持續減持,近一個月套現約2億美元

每日經濟新聞
2025-07-22 22:42:08
2025-07-24 00:24:49
CSDN incentive-icons
CSDN
成就一億技術人
25804文章數 242100關注度
往期回顧 全部

科技要聞

別自嗨了!XREAL徐馳:AI眼鏡只有5歲智商

頭條要聞

印度、孟加拉關切雅魯藏布江下游水電站工程 中方回應

頭條要聞

印度、孟加拉關切雅魯藏布江下游水電站工程 中方回應

體育要聞

英格蘭最紅球星 也是加勒比島國驕傲

娛樂要聞

汪峰森林北同游日本 各帶各娃互不耽誤

財經要聞

律師解析娃哈哈遺產案:遺囑是最大變數

汽車要聞

德系大招放盡 場地極限測試全新奧迪A5L

態度原創

時尚
本地
房產
健康
親子

搶戲《醬園弄》、尬演《長安荔枝》,雷佳音的舒適圈正在反噬

本地新聞

這雙丑鞋“泰”辣眼,跪求內娛不要抄作業

房產要聞

海南自由貿易港全島封關,2025年12月18日正式啟動!

呼吸科專家破解呼吸道九大謠言!

親子要聞

醫學科普中醫脾胃育兒

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 修武县| 广元市| 东辽县| 兰考县| 岚皋县| 耒阳市| 理塘县| 广德县| 衡南县| 宜阳县| 克什克腾旗| 曲水县| 葵青区| 温宿县| 普宁市| 惠安县| 黎川县| 昌乐县| 绍兴县| 铁岭县| 普洱| 阿克陶县| 砚山县| 南部县| 来凤县| 汝南县| 固镇县| 微博| 甘德县| 开远市| 郸城县| 新巴尔虎右旗| 上栗县| 乌拉特前旗| 康平县| 涪陵区| 尚义县| 仪陇县| 城市| 花垣县| 东乌珠穆沁旗|