99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

張小珺對談李廣密:Q1 AGI熱點回顧,非共識下什么才是AGI的主線?

0
分享至

文章轉載自「海外獨角獸」。

2025 Q1 中美 AI 領域都相當火熱: 催化了 的熱潮,頭部模型廠商連續發布 SOTA reasoning models,推出 deep research;Manus 的火爆又把 的討論帶到 AI 社區中心。本期內容是我們對 2025 年第一季度的回顧以及對 AGI 競爭格局、roadmap 的再思考:

? 雖然過去 2 年模型格局、技術關鍵詞不斷變化,但 AGI 路線圖上只有智能提升是唯一主線,智能本身就是最大應用,要圍繞智能本身去投資和思考。模型公司形成壁壘的關鍵在于成為 Cloud 或 OS,未來模型和產品邊界會逐漸模糊;

? 今天最大非共識是 pre-training 空間還非常大,只有 pre-training 才能涌現出新能力,決定模型內在上限;

? Coding 的意義不僅僅在于編程,而是實現 AGI 的最好環境,是模型的一只手,現實世界多數任務可用 Coding 表達,模型通過生成并執行代碼來實現對外部信息的采集、處理和反饋;

? ChatGPT 只是 AGI 的“前菜”,是 AGI 攀登的第一站,Agentic AI 才是更加關鍵的未來。Agent 落地最關鍵的三個能力是 long context reasoning、Tool-use、Instruction following;

? AGI 時代,組織和文化競爭力是僅次于算力的核心競爭力。

Founder Park 正在搭建開發者社群,邀請積極嘗試、測試新模型、新技術的開發者、創業者們加入,請掃碼詳細填寫你的產品/項目信息,通過審核后工作人員會拉你入群~

進群之后,你有機會得到:

  • 高濃度的主流模型(如 DeepSeek 等)開發交流;

  • 資源對接,與 API、云廠商、模型廠商直接交流反饋的機會;

  • 好用、有趣的產品/案例,Founder Park 會主動做宣傳。

01重新重視 Pre-training

張小珺:Base model 的競爭結束了嗎?有觀點說“現階段放這么大精力關注模型沒有必要,還是應該把時間投入到應用上”,你怎么看?

Guangmi Li:最大非共識是 pre-training 空間還非常大,甚至可以說是剛開始,還會迎來新的能力涌現。我有很強的信心說 pre-training base model 的 scaling 遠遠沒有結束,下一代 SOTA 模型還是能顯著超過今天的 SOTA model,不管是 GPT-4.5、Grok-3、Sonnet 3.7,還是 Gemini 2.5 Pro。

之前說 pre-training 結束的共識,很大原因是 OpenAI 的 pre-training 進程變慢了,其實 Anthropic 和 xAI 的進步還挺快的。OpenAI 之前是領先者,領先者的表現就容易被認為是正確的共識,但當領先者不再領先,這個也就是非共識了。

要強調只有 pre-training 才能涌現出新能力,post training 和 RL 是不涌現新能力的,只是激發或加強能力。Pre-training 基本決定了模型內在的上限,后面再怎么做 post training 和 RL 也只能做到 pre-training 的內在上限,只有 pre-training 階段把 base model 能力往上提升才是最本質的,不然在比較差的 base model 基礎上做強化學習,就像小學生刷題,很容易飽和見頂,只有持續 pre-training 才能把小學生本質上變成初中生,O 系列就是刷題。

我們在里強調重視 RL 范式的時候提到,“pre-training 有 50% 概率結束了”,但今天所有人都聚焦在 RL、reasoning model 的時候,我認為還是要重視 pre-training。

張小珺:從外界看 OpenAI 好像沒有那么重視 pre-training 了,原因是什么?

Guangmi Li:可能不是不重視,從外部觀察,我感覺更多是戰略選擇和組織問題:

戰略選擇上,O 系列在 benchmark 上走的非常快,O 系列 2 個月刷分的收益就比 pre-training 1-2 年進步得快,而且 ChatGPT 成長非常快,還在加速,ChatGPT 占據了管理層很大的精力。

組織問題上,外部視角是 OpenAI 的 pre-training 核心團隊一直挺動蕩的,最早是 Anthropic 的 Dario 帶走一批人員,ilya 又離開,CTO Mira 又帶走核心的 post training 團隊和最早 Infra 團隊的核心,原來 pre-training 的人就要不斷調到 post-training,團隊動蕩比較大。

張小珺:所以 OpenAI 不是 top down 不重視 pre-training 了,而是組織調整,顯得不那么重視 pre-training 了?

Guangmi Li:OpenAI 是一個自下而上的公司,做 pre-training 做得好的人走了,今天 Anthropic 和 xAI 的 pre-training 團隊比 OpenAI 要強。

張小珺:O 系列做得很快,但不一定能打開智能的天花板?為什么 pre-training 還要繼續?之前說過數據不是很夠用。

Guangmi Li:O 系列是加強智能,但能不能打開智能天花板,這個問題沒有標準答案。

2023 年我們就在提合成數據,今天很少有人提了,但今天恰好是 RL 能產生更多合成數據,尤其是高價值的 CoT 數據,可以加到 pre-training 環節里,或者說從 pre-training 階段就做 RL,解決數據瓶頸問題。training 和 RL inference 融合挺難的,涉及訓練框架的 Infra 問題,要求 GPU 里同時跑 RL inference 的 sampling 和 training,之前這兩者各是一套框架,今天如果要融合,對 Infra 的難度挺高,大家突破這個問題還是花了挺長時間的。

張小珺:外界認為 pre-training 收益是放緩的,投入產出的 ROI 不明顯了,繼續投入 pre-training 還能帶來突破或能力涌現嗎?

Guangmi Li:我很期待新能力涌現,比如 tool use,今天模型的 tool use,即用電腦工具的水平,還是我們爸媽用電腦的水平,后面可能很快到熟練程序員用電腦的水平,Agent 就可以在電腦和手機的數字環境下完成人類操作電腦的絕大部分行為,甚至操作你不知道怎么操作的工具。

絕大多數人用 Excel 公式的能力都不如 Agent,整個 Windows 系統、Office 套件里面累計有上百萬個功能點,這些 Agent 都可以非常熟練地調用。

Manus 非常依賴 tool use 能力。Manus 是 Anthropic tool use 能力的“ChatGPT 時刻”。Anthropic Claude 模型非常重視 tool use,做了幾百個 tool use 專門的訓練,Anthropic 只專注在模型能力提升,不著急做上層產品。Manus 團隊對 Claude 模型理解是非常棒的,執行力非常強,第一次讓外界感受到了 tool use 能力的 Magic moment,很像 OpenAI 當時做 ChatGPT。很多 Magic moment 還是要靠模型內化能力才能推動的,Pre-training 階段是最關鍵的。

智能無上限,一定會持續變的更聰明。每一年回看過去一年,智能技術變化其實非常大。

張小珺:Anthropic 的 tool use 能力的 ChatGPT moment 為什么不是 Anthropic 做的,而是 Manus 做的?

Guangmi Li:OpenAI、Anthropic 都沒有預想到 Agent 來的那么快,模型公司和云廠商都還沒有完全做好準備。

張小珺:站在今天看,實現 AGI 是更清晰了,還是變模糊了?

Guangmi Li:我對兩年內實現 AGI 有前所未有的信心,這是 100%的概率。

張小珺:為什么這么快?信心來源是什么?

Guangmi Li:離 AGI 越近,AGI 就沒有那么神秘。最重要的是想明白了:Coding 是實現 AGI 最好的環境,Coding 意義不在于編程本身,而在于“環境”,現實世界的絕大多數任務都可以用 Coding 來表達,Coding 可能是數字經濟 GDP 活動最重要的環境。

構建環境非常重要,AlphaGo 的棋盤就是環境,百度之前是通用搜索,整個網頁 index 就是環境,淘寶構建了商品搜索的環境,攜程構建了旅游產品搜索的環境,Boss 直聘構建了工作搜索的環境。Coding 是很通用的一個環境。

大家覺得數字經濟 GDP 和實體經濟 GDP 未來占比會怎么樣?在沒有互聯網之前,100%都是實體經濟,未來可能很極端。如果只看增量的部分,絕大部分都會是數字經濟 GDP,這會是實體經濟 GDP 增量的成千上萬倍。未來人類的經濟活動絕大多數都是數字化的表達,那最后都可以通過 Coding 表達,Agent 可以調度物理世界的人和實體去完成很多事情,Coding 就是模型的一個手。

Manus 就給 Agent 搭了個虛擬電腦環境,Agent 來操作電腦的工具。如果 Agent 能操作電腦和手機上正常人能操作的 99%的任務,而且操作的比人好,是不是就 AGI 了?我覺得這在 2 年內一定會實現。

張小珺:怎么更好理解“Coding 是環境”,是“模型的一個手”?比如在 Anthropic 上是怎么體現的?

Guangmi Li:好的環境有兩個重要的特點:動態、可操作。要求環境不僅包含數據和硬規則,還允許模型“執行”它的想法并獲得實時反饋。符合這個要求的環境主要就是 Coding、gaming、science 相關的,其中 Coding 是最通用的賽博世界環境。

“模型的一個手”類似人類通過手去操作物體、改變環境,模型通過生成并執行代碼來實現對外部信息的采集、處理和反饋。

Anthropic 為模型設計了很多 tool use 腳手架放進環境里,幫助模型更好理解環境并且操作,比如 os world、computer use,包括把環境中的 RL synthetic data 喂回給 pre-training,都是比較重要的。

張小珺:現在哪家模型 Coding 做得最好?

Guangmi Li:現在每個模型公司都越來越重視 Coding 了,但我對 Anthropic 的信心也是前所未有的強,Anthropic 還能在 pre-training base model 取得顯著進步,實現下一代模型的 SOTA,繼續保持或加強 Coding 領先優勢,Coding 也是 SOTA。

Cursor 現在是最火的獨立編程 IDE 工具,ARR 已經超過 1.5 億美金了,年底可能 4-5 億美金,開發者可以在 Cursor 選模型,75% 開發者都是選 Sonnet,Sonnet 可以說是 Coding 默認模型了,因此 Cursor 一個月要給 Sonnet 1000 多萬美金 Token 費用,大概是 OpenAI 的 4-5 倍。

張小珺:OpenAI 為什么沒有做好 Coding?

Guangmi Li:可能不是技術能力問題,以 OpenAI 的能力和認知肯定也會很重視 Coding,但過去了一年還沒做好,我傾向是戰略選擇和組織問題。

做好 Coding,要么就是在 pre-training 階段的 Coding 數據上花時間花精力,把 Coding 實戰型的數據集做細致,有人兩年前就做到幾百個門類細分,有人現在也才幾十類細分;要么有全新的方法,比如 RL,這個還需要 Top-down 的戰略決定和組織能力。也可能是 OpenAI 的 Coding 現在還沒體現出來,未來可能會在某個時候發個大招。

Coding 是個$1T 級別的機會,只要 Anthropic 能在 Coding 持續領先,就有機會到三五千億美金級別,Cursor 也有機會到千億美金級別,Coding 一定會出來抖音、拼多多、微信級別的機會。

張小珺:模型公司怎么變成$1T 或者$10T ?

Guangmi Li:要在 AI for Science 領域實現突破。現在一個減肥藥都能每年賣 1000 億美金,未來攻克癌癥、治療所有疾病,那就是$10T 了,全人類在健康上的消費要比在今天手機上的消費大 10-100 倍的。

張小珺:Coding 是一種技術手段,最終 Coding 會成為最好的產品表達嗎?

Guangmi Li:Coding 是比搜索引擎和推薦引擎更重要的東西,信息流產品是推薦引擎的表達。編程本身是個高門檻、高動機用戶才能用好的產品形式,消費者產品要淡化 Coding 編程元素。

產品表達應該是一種內容或者交互形式。抖音不會說自己是推薦引擎產品,而是短視頻產品。把 Coding 當成一個技術引擎比較好,最后的產品表達還沒有定義好。

最近 Notion 的首席設計師加入了 Cursor,挺期待 Cursor 在新的交互表達上能做出新東西的。

02ChatGPT 只是攀登 AGI 高山的第一站

張小珺:領先的模型公司在實現 AGI 路線上有差異嗎?

Guangmi Li:OpenAI 和 Anthropic 是同宗同源,最開始路線是一樣的,但慢慢地在核心戰略 bet 或者路線已經發生了分化。

OpenAI 現在核心 bet 是兩個,第一是希望通過 O 系列 RL 或者 reasoning model 路徑就實現 AGI,第二是希望把 ChatGPT 做成 10 億活躍用戶的 killer-app。

Anthropic 核心在于專注 pre-training 一個很強的 base model, bet on Coding 和 Agentic。

OpenAI 和 Anthropic 的領導層關心的內容不一樣。OpenAI 更關心 RL、reasoning model、O 系列,Anthropic 更關心 base model 和 Coding。OpenAI 重視 C 端市場,Anthropic 重視 B 端市場。OpenAI 是自下而上的組織文化,Anthropic 更加自上而下。

張小珺:為什么會有這樣的分化?

Guangmi Li:可能是 Anthropic 的 Dario 他們都是做 pre-training 出身的,所以對 pre-training 非常有信心,或者大家都有路徑依賴。

OpenAI 是 frontier team 做出了 O 系列,O 系列非常亮眼,froniter team 的老大 Mark Chen 現在成為了僅次于 Sam、Greg 的三號人物,所以給了 O 系列更多資源,加上 OpenAI pre-training 和 post training team 變動太大,O 系列優先級肯定比原來的 pre-training team 要更高了。戰略選擇其實是不同組織能力的表達。

張小珺:O 系列能走到哪,O3、O4、O5 這么走下去,天花板有多高?

Guangmi Li:O 系列刷 benchmark 刷的特別快,但不確定夠不夠本質。我不知道 reasoning 有沒有落地場景。Reasoning Model 主要表現是提升 Math 和 Coding,Math 沒落地場景,主要還是 Coding,但 Reasoning Model 提升的 Coding 不是實戰型的 Coding,還是競賽型的 Coding。Anthropic 做的還是實戰型的 Coding 更多一些。

張小珺:硅谷對不同的路線認知有什么分歧嗎?

Guangmi Li:分歧非常大,背后問題的本質是智能重要,還是流量重要。

OpenAI 有非常大的流量,Anthropic Claude 幾乎沒多少 C 端流量。這一點硅谷的分歧也非常大,硅谷很多 VC,比如 Sequoia US Roelof 和 Khosla Venture Vinod,覺得 OpenAI 應該變成一個大型消費互聯網平臺公司,訓練模型的資本效率很低。

我覺得他們是錯的,老牌投資人是喜歡經典的商業模式,但今天 AI 商業模式都是很差的,討論不清楚,今天還不是討論商業模式的時候,太早期了。

我有點擔心 ,今天產品和流量沒那么重要,即便重要,也要在模型訓練的優先級之后。

大家認知分歧非常大,每個人都有自己的信仰,也都有自己的 bias。我更相信 AGI 原教旨主義,智能最重要,再構建一個 Google 除了賺錢外,意義并沒有那么大。今天是人類少有的一個可以去 push 智能的窗口,杠桿效應非常強。在 AGI 的范式下,在研究驅動的范式下,資本家們很多判斷產品和商業模式的慣性有挺高概率是錯的。

張小珺:你說有點失望 Sam 竟然把 10 億用戶作為首要目標,而不是 AGI-first、Research-first、model training-first,去 push 智能的邊界?

Guangmi Li:今天還在智能很早期的階段,不能停下來。OpenAI 的杠桿效應很大,幾千個人改變了幾十億人,不應該把構建新的互聯網平臺當作最高目標,push 智能才是最高目標。今天還有很多問題要解決,比如攻克癌癥,讓世界沒有疾病。

OpenAI 是有機會對人類幫助更大的。不應該降低對科學的 vision,過早追求商業可能會錯過 AGI 科學的文藝復興。

張小珺:Anthropic 和 OpenAI 有不同的 bet,誰會是最后的贏家?

Guangmi Li:取決于智能的水平走到哪。

各家模型公司能否拉開顯著差異,最核心的是 base model 能否顯著領先其他人?如果智能往前走的很強,模型顯著領先,那就會有流量遷移,流量是沒有忠誠度的。

Google 在模型上無法顯著反超 OpenAI,Gemini 模型雖然好,但流量一直上不去,過去一兩年 Chat Bot 絕大部分流量還是去了 ChatGPT,本質還是因為 ChatGPT base model 過去是有一定領先優勢的,技術領先優勢轉化成了流量優勢。

Anthropic 的 Roadmap 很好,長期來看 Anthropic 可能是比 OpenAI 更有價值的公司。我有一定 bias,或者我比較偏 AGI 原教旨主義,我更關心誰更重視 pre-training,看誰能先出來大幅超過對方的 base model。Pre-training 一旦放松或者降低優先級了,后面很難追,RL、reasoning model 其實容易追,一旦 Anthropic pre-training 做出來更強的 base model,OpenAI 再從 RL 或者 O 系列切回來是很難的。

從外部視角看,OpenAI 對 pre-training 的重視度是不夠的,過多精力花在 reasoning model 和 ChatGPT C 端的各種功能上面,這是不夠本質。

大家的路線差異其實無關對錯,這兩家應該都能實現 AGI,大家都是去攀登珠穆朗瑪峰,AGI 科學探索每天都在突破邊界,每個團隊都要敢于 bet,把 bet 的東西 push 到極致就是了。

OpenAI 對行業貢獻是非常大的,雖然沒有開源,但指明了路線,一定要尊重和 value OpenAI 的貢獻。但這個領域競爭非常激烈,今天的差異化表面上是各家戰略選擇問題,其實回到本質上,還是組織能力的表達。

張小珺:國內有 DeepSeek 這樣 push 智能邊界的公司,而且是開源,其他公司還有必要訓練自己的閉源模型嗎?

Guangmi Li:訓練模型需要有很強的 training 能力,如果沒有,那看不到很多風景,很多東西得自己做才知道。還有一條路線是從 post training 做起,然后做 mid training,最后再 per-training。還是要有比較強的 training tream,不然沒法向下改模型。長期來看,想做大的應用公司是幾乎一定要做這些事情的。

張小珺:你提到智能還是在很早期階段,但有人覺得現在已經很聰明夠用了,大家認知差異原因是什么?

Guangmi Li:可能是想象力的局限,人類在沒有汽車之前,最多是想要一個更舒服更快的馬車,圍繞馬車做了很多工作,但福特 T 型生產線已經滾滾而來,今天處在 T 型生產線大規模量產智能的前夜,后面人類就會發現竟然還可以坐飛機,可以更快。

張小珺:在現在這一波 AGI 的浪潮下,越是年輕人越愿意相信智能的邊界無限。

Guangmi Li:想象力可能和年齡有關,隨著年齡越大,想象力反而會遞減。

張小珺:AGI Roadmap 是怎么樣的?

Guangmi Li:AGI 探索就像是爬一座科學的高山,最后誰能到珠穆朗瑪峰,要思考 AGI 登山的主線是什么,哪里是珠穆朗瑪峰。


我最近腦子里反復想的就是:智能提升是唯一主線,智能本身就是最大應用,要圍繞智能本身去投資和思考。

ChatGPT 走到 3.5,通用泛化性變強,解鎖了 Chat Bot 對話能力。Claude 走到 3.5,Sonnet 解鎖了 Coding 能力,跑出了 Cursor。今天大家在解鎖 Agent、Agentic,未來還有 Science、Robotics。

AGI 探索是攀登科學界最高的那座山,ChatGPT 只是這座高山山腳的第一站,后面還有很多個山頭:Coding、Coding Agent、General Agent、AI for Science、Robotics,這幾個關鍵詞都在登山的主線上,可能多模態、Online Learning、Multi-Agents 也大概率在主線上。

這樣能畫出來一條登山的路線圖,每個 milestone 都有代表性的名字,比如 GPT-3.5 或 GPT-4、ChatGPT、Claude Sonnet 3.5、OpenAI O 系列、Deep Research、Cursor、Devin、Manus 等等。

ChatGPT 或 Chat Bot 是個必然也是個偶然,但 ChatGPT 只是前菜,接下來 Agent 才是正餐,AI for Science 科學探索才是珠穆朗瑪峰,去真正攻克癌癥和人類幾乎所有疾病,創造全新的經濟增長的最大驅動力,爸媽和長輩未來都愿意為健康和身體買單付費,這是消費的來源。

我在 Roadmap 里沒把 Sora 放進來,因為視頻生成在今天可能還不是主線,文生圖也不是主線,雖然文生圖也代表智能,但不是實現原教旨主義的智能。這些可能是 OpenAI 的煙霧彈。多模態理解是主線但研究上需要突破,突破的時間點不確定在哪個時間點,但感覺不用太久。

另外,站在用戶視角,智能涌現或登山就是一個個的 Magic moment,每爬升幾百米海拔,用戶就看到不同的風景,用戶可感知差異的拉大就帶來巨大流量遷移和應用爆發的機會,ChatGPT 是這一波技術革命開始的 Magic moment,Claude Sonnet 3.5、Manus、Sora、AlphaGo 都是 Magic moment,隨著 model scaling 帶來智能涌現,用戶會有持續的感知差異,一旦用戶感知差異很大,用戶就會發生遷移。

OpenAI ChatGPT 真的有壁壘嗎?之前提到心智和品牌是護城河,但本質上這個壁壘護城河是很低的,今天做 AGI 的模型公司和產品都沒有絕對壁壘,因為技術進步太快,壁壘沒辦法構建。如果技術上突然好 10 倍了,出來一個多模態版本的 ChatGPT,或者 Agent 范式下的 ChatGPT 新形態,或者 Manus 這種產品可以大規模放開使用,都是有機會大幅超過 ChatGPT 的用戶體驗的,我對未來兩年出現好 10 倍的技術也是有前所未有的信心。

今天還是圍繞智能主線,最重要的事情就是 push 智能往上走,做應用的要構建一個環境或容器,承接住研究溢出的智能紅利。研究溢出的智能紅利是今天做應用最大的紅利。

張小珺:去年下半年我們以為國內的一二名已經差不多定下來了,但 DeepSeek 出來后,它的智能水平在那個時間點是最好的,就帶來了產品的爆發,但這個也不是終局,也是動態的?

Guangmi Li:DeepSeek 的 Chat Bot 那段時間流量增長非常恐怖,如果把流量接下來,有可能今天都上億 DAU 了,可能可以和 OpenAI 掰手腕,但是 DeepSeek 選擇了放棄,這個原因在于:

首先,DeepSeek 的組織文化決定了戰略表達,如果把流量接下來,那就需要一個產品團隊,這可能更適合字節、Meta。第二,Chat Bot 的商業模式、變現效率、產品形態可能都不是最本質的,智能本身是最本質的,今天智能的收益還是更客觀的,那就應該繼續 push 智能,放棄產品可能是對的,除非 Chat Bot 這個產品哪天發生了質變。

張小珺:為什么在 Roadmap 上把 AI Robotics 排在了 AI for Science 后面?

Guangmi Li:我對 AI Robotics 的態度有些變化,從第一性原理看,今天做 Robotics Foundation model 不夠本質:

首先,數據上,OpenAI 和 GPT 語言模型能有 scaling law 本質是有個 Common Crawl 數據集,持續抓住互聯網上的數據,現在,一個人操作幾十臺設備,每個小時成本都幾十、上百塊,要采集 1 億小時有效數據就要幾億美金成本,scaling law 的驗證成本很高。期待 robotics 領域里 vertical Common Crawl 數據集出來。

其次,今天在算法架構上也沒達成一致,還沒有通用泛化性的架構出來。

從第一性原理出發,今天語言的基礎模型多模態能力變強了,可以先在數字世界實現 AGI,Agent 能看懂電腦屏幕,執行各種 2D 操作,未來從 2D 走向 3D 是一個比較自然的過程,那時候對硬件依賴度也降低,電腦其實也是一個硬件載體,應該讓 AI 去適配硬件。

我對 AI for Science 的預期更高一些,上一波 AI for Science 好像沒找出什么好藥,但現在有可能大幅去 push,比如在濕實驗之前搭出來一個干實驗的環境,用 Agent 構建一個虛擬的實驗室,變成 platform based,更 scalable。AI for Science 還是有一些明顯的趨勢,現在還有挺多創業公司。

AI4sci 現在有兩個明顯的趨勢和方向:第一, 正在出現,自動化實驗室是未來的大趨勢。第二,各個垂直領域的 foundation model for bio 都在出現,蛋白質級別的結構模型已經到了生產可用的 GPT-3 moment,基因組級別的虛擬細胞 foundation model 已經開始表現出一些初步的智能。

如果構建一個 AI for Science 的虛擬實驗室,這個實驗室是可以自己驅動非常多工作的。第一是工作流,每個地方都可以做提效。每一個生物、化學 PHD 有很多重復性工作,Agent 可以 cover 很多重復性的工作,讓 PHD 的帶寬放大,相當于 AI 把整個的 Lab 的 batch size 加大。濕實驗很難被替代,但可以做到進入濕實驗前的 sample size 和探索空間變大,這也是很有意義的。

第二,非垂直領域的 foundation model 也出現了,比如蛋白質、RNA 等等,過去這些場景很多要靠專家的 trail-and-error 感知,對各種序列的理解能力,這個領域容易出現 “super human”級別的人類。

我現在花了很多精力開始學 AI for Science,預計 2026、2027 年可能是一個爆發時間點。

張小珺:關于人形機器人公司你怎么看?

Guangmi Li:機器人和自動駕駛的技術成熟周期比較像,15、16 年就在提自動駕駛,現在過去十年了還沒有大規模落地。Robotics 還需要一個技術的成熟過程。

從第一性原理來看,確實機器人技術是不成熟的,還是需要很多研究工作去實現所謂的 Magic moment,比如泛化性。最終真的需要物理的機器人嗎?如果虛擬的 Agent 可以做非常非常多的事情,真的還需要物理機器人嗎?

張小珺:怎么看待現在軟硬一體的應用,包括眼鏡。

Guangmi Li:更看好手機持續變得更強。智能眼鏡絕對不可能替換手機,最多是一個加強。今天眼鏡更像是一個可以記錄東西的攝像頭。AGI 時代,手機只會更強,不會被削弱。因為 Context 輸入輸出還是很穩的,手機已經變成人的器官了。

張小珺:“智能本身就是最大應用”,智能的本質是什么?

Guangmi Li:每個人的理解肯定不一樣,大家有想法可以打在評論區,我很好奇每個人對智能的理解是怎么樣的。也可以問下 ChatGPT 和 Claude 或豆包。



狹義上,智能是歸納、總結、推理,廣義上,智能就是人類進化,人類進化有 3 個關鍵詞:生存、探索和自動化。生存是所有事情的基礎,人類持續的探索形成了經驗、知識、群體組織和國家、公司制度,自動化就是軟件和機械,自動化是對探索之后的最佳實踐的傳遞,持續幫助人類把生產力提升。

金錢是人類社會的 reward model,激勵一些好的探索,人類誕生金錢后,經濟總量增加很快,說明一個生態系統里面需要有 reward 獎勵系統的。

AI 智能很重要的原因在于 AI 是能增加人類探索空間的,比如我自己是 Deep Research 日活用戶,我每天至少問 3-5 個問題,它經常給我很多思路的啟發,是自己完全沒想到的,之前一上午調研一個問題,自己要瀏覽幾百個網頁,現在可以交給 Deep Research,一上午可以平行交給他 3-5 個調研任務,甚至更多的問題,讓我自己做投資、探索、研究的 capacity 提升了非常多。

未來人類能探索很多東西,無數的 Agents 可以虛擬出來一個地球,虛擬出來虛擬實驗室,算力和數據幫人類做探索。

我認同 Anthropic CEO Dario 說的未來一個世紀的探索,會被壓縮成 5-10 年。Coding 就是未來 AI 自動化探索的結果,人類絕大多數的任務都通過 Coding 來表達。

張小珺:智能進步的衡量標志是什么?

Guangmi Li:有非常多的衡量標準,一個可能是解鎖 AGI 應用的速度,出來一個個的 Magic moments,這個進程明顯是在加速的,未來 AGI 應用爆發越來越多。

如果非要一個量化的標準,Token 消耗量可能是一個標準。一個 Chat Bot 對話可能消耗幾千個 Token,一個 Perplexity 搜索大概消耗幾萬個 Token,Manus 一個任務平均要消耗 70-80 萬個 Token。

還有個標志是 AI 可能會做出很多超出人類認知的行為,比如模型開始寫出人看不懂的代碼,但就是 work,我們也不用管為什么 work。

張小珺:為什么 Manus 要消耗那么多 token?

Guangmi Li:Manus 做的工作可能都是幾十步、幾百步,甚至上千步的,要幫我讀幾十、幾百個網頁,還要調用很多次工具,而且每做下一步的時候,上一步也非常重要,可能還要放到 Context Window 里,那 token 消耗量是反復增加很多的,對 Long Context 要求是更高的。Manus 操作速度是比人操作快很多的。

03Agentic AI & Online Learning

張小珺:為什么 AGI 應用爆發的數量還比較少?雖然有 Manus,但還沒出來真正大規模使用的 Agent?

Guangmi Li:很大程度是 Agent 產品處于供給受限的狀態,今天 Agent 是過度依賴模型能力。Agent 是新物種,模型和云廠商其實還沒做好 Infra 的準備。

今天能講出來的 Agent 就幾種,比如:

?文本類任務,比如 Deep Research,未來可能和 operator 集成;

?Coding 類任務,比如 Devin, 未來 OpenAI、Anthropic、Cursor 可能都會做 Coding Agent;

?偏通用、日常任務,比如 Manus,Anthropic 的 Computer use, ChatGPT Operator。

之前我和另一個原教旨主義的好朋友聊到 AGI 登山路線圖,他有一個很好的描述說,智能水平離 AGI 越近,可能就越像宇宙大爆炸,今天還能畫出來單點或一條線,后面可能就沒單點了,宇宙大爆炸之后就是百花齊放,全面展開了。AGI 的滲透很慢,一旦到某個臨界點爆發性很強。

張小珺:黃仁勛在 GTC 重點提的 Agentic 范式,Agent、Agentic 關鍵能力是什么?

Guangmi Li:Agent 落地有最關鍵的三個能力:第一個是 Long Context reasoning;第二個是 Tool use 工具調用能力;第三個是 Instruction following 指令遵循,做的任務很長,就要把整個指令要理解,而且要 follow 非常好。

三個能力對應三種不同的 Infra 能力,比如給一個 Agentic 環境, 其實就是給 Agent 搭一個電腦、虛擬機、操作系統或者瀏覽器,環境是非常重要的。還要給 Agent 工具、Context、memory。


外界經常提到的 Planning、reasoning、action 這幾個能力也非常重要。模型內在的 planning 很重要,在模型做多步驟任務的時候,模型自己要知道自己哪一步能實現,哪一步實現不了,reasoning 也很重要。

Coding 本質就是對應到每一步的 action 執行,也要會用工具 Tool use。Instruction following 是非常重要,Anthropic Claude 是斷檔的領先,這個和 Coding 比較強也是有相關性的。

上一期播客已經提了 Context 很重要,現在 Context 是前所未有的重要。未來要完成任務自動化的話,要調取各種背景數據,這些數據存在各個軟件里面,比如社交軟件、旅游軟件、電商軟件,數據就像存在了銀行的錢,現在還沒網銀系統,需要一個標準接口,把各個銀行的數據打通,Context 里存在支付寶級別機會。

張小珺:Long Context 非常重要,怎么更好理解 Long Context 的重要性?

Guangmi Li:Agent 未來都是 long horizon reasoning,有非常多的步驟。假如做 1000 步解決一個復雜問題,后面的每一步要看前面幾步完成的結果,還需要 tool use,最后返回的東西會很大,很容易上到 1 million 的 Token,這個需要 Context Window 很長,能放進去 self inflection 自我反思的進程。

今天大家還沒有找到真正有效的 Long Context 的突破方式。Google 1 million token 也只是大海撈針,并不是真正意義上的 Context 解決。這里難點比較多,一是數據上,歷史上很難找到 1 million 同時推理的數據,因為要做 Long Context 的前提是有很多 long horizon reasoning 的數據,但這些數據都不是現成的。二是成本,成本是平方級別往上增加。三是架構,今天的 attention 架構可能還是需要改變的。

AGI 接下來的 milestone 是 long-term memory,這個會取代 Long Context。再長的 Context,開啟新 task 就沒了。long-term memory 怎么解決也是很值得研究的,不知道什么時候能實現。

對于 Long Context 最簡單的理解就是,像有了電之后,電線需要鋪很長,且能耗很低,要把這個電送到很遠的地方。MCP 就是標準的插座,應用就是家電。

Long Context 在終局很重要,所有的 Long Context 技術本質上都是將長序列信息壓縮。Linear attention 的主要問題在于壓縮方式不夠動態,先壓縮成固定大小,之后再嘗試從這固定尺寸的壓縮結果中提取信息。今天壓縮方法有多種,sparse 壓縮可以找出統計上的點;cluster 壓縮則將相似內容合并處理;而 linear attention 采用類似傅里葉展開的方式,尋找名義上的表達內容。

從根本上講,最理想的壓縮方式是將信息直接存入模型的 weight 中,即參數權重。大家嘗試過 Linear attention,但 compression rate 不夠高,因為本質還是一種線性壓縮。Inference time scaling 是一個成本問題,平方比線性更貴。Long Context 今天還沒有標準答案。

張小珺:你說兩年內實現 AGI 這個確定性比較高,是沿著現有的路徑往下走嗎?

Guangmi Li:是的,2026 年底或者 2027 年初。

張小珺:AGI 的定義有變化嗎?

Guangmi Li:在第一期播客提過 AGI 的定義是 3 個 90%,在 90%行業、達到 90%專家水平、能做 90%有經濟價值的工作,這個定義沒變。今天可以再加一個環境,是在電腦或者數字、計算的環境下。

張小珺:如果現有路徑不能實現 AGI 呢?還有哪些新的路徑嗎?

Guangmi Li:如果說未來還有范式級的路線,那可能是 Online Learning,核心是讓模型可以自主在線探索并學習。很像人類的生存方式,在生存和激勵的基礎上,有充分的好奇心做探索,把好的 workflow 抽象并自動化成自己的 workflow。

Online Learning 是讓模型通過和用戶的交互,實時更新小部分參數。但是什么情況下值得模型記憶和更新,這是沒有清晰 reward 的,模型要達成的目標沒有好的定義方式,這個是對未來 AI Agent 有挑戰的。

Online Learning 能力有可能可以由模型微調實現,包括個性化的 LoRA,可能由 multi-Agent system 實現,甚至可以用一個定義好的 memory Agent 來做出智能的記憶機制。這也可能是一個還沒有想到的新技術解法。不同人聽到同一個內容之后總結提煉的記憶也不一樣,因為這個很依賴智力、經驗和品味。智力是模型需要提高的,經驗和品味也是挺重要的。Chat Bot 這種對話產品的信息非常稀疏,在這種產品下做 Online Learning 難度挺大。

人類本身的 reward model 到底是什么?用來衡量一個人的量化標準可能是金錢,但金錢不完全客觀,有錢人不一定是好的人,窮人不一樣是壞的人,人類也缺好的 reward,歷史上很多有錢人都沒被銘記,反而是做了探索和突破的創新者被銘記了。Ilya 在 Online Learning 上做得好。

Memory、Multi-Agents 應該不算范式級變化。在 pre-training上面做 RL 算半個范式創新,因為這個可能領先的模型都已經在做了。

還有一個范式是全模態統一架構,多模態的輸入和多模態的輸出,統一架構的想象力比較大,但研究上還需要做很多探索工作。

張小珺:GPT-4o 可以通過文本生成圖片,這個有創新嗎?可以算全模態的第一步或前幾步?

Guangmi Li:我覺得有創新,非常耗卡。

張小珺:怎么評價每個路線的差異呢?

Guangmi Li:可以畫一個坐標軸,橫軸是資源和精力的投入,縱軸是智能的 performance,然后再畫幾條線,比如 pre-training、RL、Data,最后看每條線的收益走向和天花板。有可能數據那條曲線收益是非常高的,大家要很重視數據。

張小珺:剛才這些對 GPU 或者英偉達敘事影響有多大?

Guangmi Li:未來會有兩個敘事對算力刺激很大,一個是 pre-training 敘事重新回來,二是 Agentic 對 inference 算力消耗比 Chat Bot 的算力消耗有 1000 倍量級的提升,后面做復雜任務都是 Multi-Agents 持續的 inference。我對算力需求一直是非常樂觀的。

張小珺:怎么看待賈揚清的公司(Lepton AI)被賣掉?英偉達在下一盤什么大棋?

Guangmi Li:最大的棋是英偉達變成一個云廠商,變成 AWS 或 Azure,但老黃要照顧和云廠商的客戶關系,不敢放開手腳去干,之前支持了很多 GPU Cloud,coreweave 都上市了,但這些 GPU Cloud 軟件技術都很差,比 AWS 和 Azure 差太遠了。賈老師的 Lepton 全棧的思路挺符合英偉達要自己做云的戰略的,賈老師 Lepton 賣的非常聰明,讀到了英偉達的需求。

張小珺:能不能總結一下上面說的全部?

Guangmi Li:第一是對實現 AGI 有了前所未有的信心,第二是對 Pre training base model 持續提升有信心,第三是理清楚了 AGI 的主線,第四是對 Anthropic 有信心,長期應該會是比 OpenAI 更有價值的公司,得 Coding,得 Agentic,才能得天下。

04模型公司的壁壘到底在哪?

張小珺:有一部分人在當下沒有選擇去關注模型能力提升,而是去關注應用,你覺得這個判斷是對的嗎?

Guangmi Li:應該去做研究驅動的應用,而不是用產品拉動的應用。

張小珺:AI 市場目前有沒有泡沫?

Guangmi Li:泡沫肯定是有的,但 Agent 泡沫還沒開始。Pre training 有一波 hype,過去半年 RL 有一波 hype,第三波 Agent hype 剛開始,后面應該能看到很多應用套殼公司 IPO,這很正常。

張小珺:現在看起來是 AGI 技術在快速進步,但 AI 的產品和商業模式沒進步,普遍定價是 20 美元/月。

Guangmi Li:我也很好奇為什么今天定價都是 20 美元,是參考 SaaS 的定價嗎?但 SaaS 背后不會消耗大量 token,今天的 AI 產品都是消耗大量 token 的。長期來看這個定價是偏低很多的。

比如我們招一個投資研究員年薪 100 萬,如果 Deep Research 真做的更好,那是不是每年可以花 30 萬給 Deep Research,讓一個研究員的 capacity 變成 3 個人的 capacity。

張小珺:會有絕對通用的 Agent 出現嗎?

Guangmi Li:能不能通用取決于 pre-training和 RL 能走多遠。還有剛才提到的那些關鍵能力,包括 planning、reasoning、Coding、action、Tool use、instruction following、Context,這些都是通用能力,如果通用能力很強,那是不是也接近通用 Agent?但今天如何做 Agent 是很強的非共識,現在有不同的路線做探索。

張小珺:Reward Model 泛化了嗎?

Guangmi Li:泛化性是最關鍵的,但現在比較微弱。

張小珺:模型的壁壘和長期商業模式會怎么樣?

Guangmi Li:模型公司的 Secret 沒有保鮮期,人員流動很快,大家帶著信息在不同公司流動。裸模型發布的時代可能會結束,未來模型的壁壘可能主要是兩個:一是成為 Cloud,OpenAI 要變成變成微軟的 Azure Cloud,二是成為 OS,養出一個生態,后面大家要開始打造 Operating System 了。

今天的硬件都是在語音端,就是 GPU,今天除了手機,沒有看到好的端。

OpenAI 的商業模式也有可能是很好的,只要定價還可以繼續提升,to C 的生意比 to B 賣 API 生意要好,毛利更高,OpenAI 還是站了比 Anthropic 更好的位置。Anthropic 是專注模型 per-training 能力,幾乎放棄或不重視 C 端流量,不知道這件事情對不對。

張小珺:投資人應該怎么投 AI 應用呢?應用公司怎么構建自己的壁壘和護城河?

Guangmi Li:投資人之間的分歧也比較大。如果投應用,傾向于投資研究推動的、research 溢出的產品。如果是產品推動研究,就不值得投資。

今天應該花時間在理解基礎模型 Research 的突破,應用是承接智能研究的紅利,應用創業者都是盜火者,盜取智能溢出的紅利。今天最大的紅利,就是承接住模型 Research 結果的紅利。

應用有沒有護城河取決于,第一,用戶數據能不能用起來,Cursor、Perplexity 積累的應用數據怎么用起來,第二,怎么構建一個獨立的環境。長期想做大的 Agent 公司要具備向下調整模型和做 Research 的能力,不然就容易被模型公司或者能向下調模型能力的公司干掉。

張小珺:今天對于用戶數據能不能用起來,有結論嗎?不能形成閉環或者數據飛輪?

Guangmi Li:用戶數據的作用非常微弱,應該沒有大的用處。

今天 Chat Bot 收集了很多偏好數據,更多 push MAU,但不提升模型能力。提升模型的數據叫能力數據,不在用戶數據中,因為模型今天比絕大多數人聰明。

張小珺:長期來看,模型會把產品吃掉嗎?

Guangmi Li:本質是 feature system 和 Learning system 哪個更快,模型是一個進步速度非常快的 Learning system,越來越多的能力和 feature 都在內化到模型,模型上面的腳手架要持續重置,套殼 wrapper 的價值越來越小,但會產生新的套殼價值,套殼的階段性價值都存在,所以做應用、做套殼的執行力要快,退出也要快,更快的去做下一個事情。

過去兩年 record 來看,Focus 產品的 AI 公司絕大多數都失敗了,而 Focus 模型本身的公司都成功了,focus 模型不代表一定要自己 pre-training模型,做模型的盜火者也可以,Perplexity、Cursor、Manus 其實是模型的盜火者。

張小珺:為什么 Perplexity 作為模型盜火者,沒有被模型公司吃掉?

Guangmi Li:這是因為 OpenAI 的戰略選擇和組織能力。今天最大的應用還是 ChatGPT,ChatGPT 過去兩年增長非常快,差不多 7 億月活,4 個多億周活,市場占有率在 Chat Bot 里是持續收斂加強的,代表著核心價值還是被基礎模型公司拿走了。

如果我是 Cursor CEO 或者 Perplexity CEO,危機感是很強的,會擔心基礎模型公司升級。Perplexity Deep Research 是不如 OpenAI 和 Grok 自己原生的效果好,Cursor 因為 Sonnet 3.7 出來后,維修了三四周,因為之前 Cursor 有一套外部腳手架,Sonnet 3.7 進步的時候就內置了腳手架,所以就沖突了,現在 Cursor 也招了 Midjourney 做 training 的人過去,要端到端訓練 RL、自己的模型。每一款想做好的超級應用,長期都還是需要端到端訓練 post training、RL 相關的。

另一個存在的問題是模型公司能不能做好產品,這非常考驗組織能力和優先級,Anthropic 現在優先級就不是做產品,他們模型訓練搞的風生水起,DeepSeek 也不需要太著急做產品,現在智能 Research 的收益還是更重要的。

但未來模型和產品的邊界會變得越來越模糊。應用公司會做自己的模型,模型公司也會往上做產品。

張小珺:Agent 對 SaaS 公司會是什么影響?

Guangmi Li:如果 Agent 到本科生水平,還需要 SaaS 嗎?假如 Agent 有了無限的 Memory、Online Learning,Agent 會自己會做 Research,相當于你的 iPhone、微信全部權限開放給我,我花 1 萬小時研究你的微信,可能比你還懂你自己。

有了 Agent 之后,不知道 SaaS 公司存在的價值是什么。

張小珺:GPU Capex 投入這么大,Capital efficiency 不夠高,模型訓練的經濟性如何理解?

Guangmi Li:OpenAI 這幾百億美金的投入,其實是給全人類提供了巨大的技術杠桿,OpenAI 幾千個人杠桿了幾億人的生產力,是很偉大的,給通脹的世界提供了巨大的通縮力量。

傳統的軟件開發是要把一個個 function 都要開發出來,現在 AGI 應用是 70-80%的東西都不用開發了,今天都包在模型里面了,直接調用模型就好了,相當于人類未來 10 年的 R&D 成本提前投入了,是人類面向未來的大基建投入。

張小珺:對于模型和應用的關系,以及價值鏈劃分,怎么看?

Guangmi Li:今天價值鏈的利潤池分配很不合理的,比如從英偉達到 AWS、Anthropic、Cursor,英偉達幾乎拿走了利潤的 80%,AWS 拿走了 30%,Anthropic 是虧的,Cursor 也是負毛利。

長期看,利潤會逐漸往后遷移,AWS 的利潤會起來,模型和應用公司的利潤也起來。我是對模型公司的長期價值信心越來越強的。

張小珺:2025 AI 哪里會出黑天鵝?

Guangmi Li:現在已經出現 DeepSeek 了,持續再出現的概率很大,黑天鵝事件能把很多模型公司下限打到很低,就是價值毀滅。

比如 DeepSeek R2 追到 O3 水平,對生態是好事,但算不上黑天鵝量級。能算得上黑天鵝量級的,比如 ilya 出一個全新架構,學習效率很高,很少的數據和一定的算力就可以很聰明;比如 Mira 做出下一代多模態的 ChatGPT,打敗今天的 Chat Bot 形態,或者誰定義出了新的 Agent 產品形態。還是會有黑天鵝,但不確定哪里爆發出來。

05頭部 AI 公司最新競爭格局

張小珺:現在基礎模型公司的競爭格局是怎么樣的?

Guangmi Li:OpenAI 現在核心 bet 是兩個:第一是希望通過 O 系列 RL、reasoning model 路徑就實現 AGI,第二是希望把 ChatGPT 做成 10 億活躍用戶的 killer app。

Anthropic 核心 bet,一是專注 pre-training 一個很強的 base model,bet on Coding 和 Agent 或 Agentic。OpenAI 重視 C 端市場,Anthropic 重視 B 端市場。

前面有一些吐槽 OpenAI 不好的,但從實際格局來看,OpenAI 領先優勢在過去兩年是在加強的,讓整個模型格局收斂的很快,小模型和垂直模型公司已經沒了,可能長期就不存在獨立的小模型和垂直模型公司,有可能就是基礎大模型公司 take 一切。OpenAI ChatGPT 流量集中度持續在大幅提升的,增加的很快,其他 C 端產品幾乎沒出來,Perplexity 量也沒有那么大,最后流量都還跑到了 ChatGPT。

從 AI native revenue 角度,OpenAI 和 Anthropic 這兩家幾乎拿走了整個市場 revenue 的 80% ,Cursor 都是給 Anthropic 打工。把 OpenAI 和 Google 對比,Google 過去 1-2 年幾乎沒從 OpenAI 搶走什么東西,OpenAI 的增量用戶是非常強的,還在持續變強。

最近 OpenAI 又發布了文生圖,ChatGPT 過去兩年的產品越來越豐富,是在顯著進步,但 Google Search 并沒有顯著變好,且份額開始下降。一旦 Google Search 份額顯著下降,是非常可怕的。OpenAI 就是盯著 Google 打的,可能成為下一個 Google。

OpenAI 已經把很多創業公司的機會磨滅了,OpenAI 的生態下其實沒長出大公司。Anthropic 想當 Andorid,OpenAI 想做蘋果,但理論上 OpenAI 也可以即做 Andorid 也做蘋果,但可能因為 ChatGPT 過于成功有拖累了。

之所以 Anthropic 和 xAI 還能活著,背后其實是 Amazon 和 Musk 撐著,不然早掉隊了。 但 Anthropic 這個團隊是很強,是超預期的,Anthropic 生態也越來越好,出現了 Cursor、Manus。

DeepSeek 是完全意料之外的,OpenAI 和 Anthropic 覺得 DeepSeek 對他們零影響。我傾向于認為 xAI 的 Grok 和 DeepSeek 在路線上還是跟隨 OpenAI 現有路線,先把 OpenAI 實現的東西追平,去逼近,還沒實現反超,在追平的基礎上再有新的 bet。

Google 多模態比較強,其他的 bet 不算清晰,還是以跟隨為主,開玩笑說 Google 是被 OpenAI 領導的公司,經常能在 OpenAI 發出來東西之后,3 個月時間追平甚至領先,但每次又得到 Sam 的狙擊。Google Gemini 流量其實還是很小。

張小珺:GPT-4.5 算不算領先?

Guangmi Li:把模型 scaling 到很大的意義還是比較重要的,如果不 scaling 上去,相當于登山沒有登到很高的地方,view 就沒有看到。GPT-4.5 可能還是會比較強,很多能力今天沒有被激活,我覺得 4.5 的意義可能比 O3 更大。

張小珺:GPT-5 為什么一直在跳票?

Guangmi Li:假如 OpenAI 和 AWS 合作,而不是微軟,可能 GPT-5 早就出來了。微軟的 Infra 可能太拉胯了,如果一半時間都在 debug,相當于 AGI 時間延長了一倍。

張小珺:GPT-5 會是什么樣?

Guangmi Li:Sam 在 Twitter 上說 GPT-5 是 hybird model,我猜是 GPT 作為 base model,并融合 O 系列。但今天 GPT-4.5 這么大的模型,做 RL 成本太高,跑不動,估計還得重新訓練一個比 4.5 小的模型,但能力要非常強。GPT-4o 可能馬上就退出歷史舞臺了,可能要有一個新的旗艦模型來支撐。

張小珺:估計什么時候能看到?預期有多高?

Guangmi Li:預期今年夏天能看到。應該會有 GPT-3.5 到 GPT-4 量級的提升,人的 benchmark 不太能發現模型背后的暗物質。

張小珺:怎么看待 OpenAI 支持了 Anthropic 的 MCP 協議?這兩家關系如何?

Guangmi Li:這表示基本確定 MCP 就是 AI Agent 的 tcpip 協議了。OpenAI 還挺尊重 Anthropic 這個團隊的,這個團隊專注做 research,Sam 也挺大氣的,雖然有競爭,但大家路徑在分化,一個 to C,一個 to B,也還行。

張小珺:OpenAI 和微軟為什么會有裂痕?

Guangmi Li:$7T、500B 的本質是什么?如果 Sam 有了 5000 億美金,OpenAI 其實就變成新的 Azure 云服務商了,會不會和 Azure 發生根本性沖突?500B 可能是市面上能圈到的所有的錢了。

張小珺:OpenAI 和微軟分家,對微軟影響多大?

Guangmi Li:Azure 起了個大早,但可能是個 AGI 失敗者,可能也沒有那么失敗,畢竟 OpenAI 很多的 inference 還跑在上面。微軟手上一堆好牌,但沒打好,開發者產品都讓 Cursor 等應用跑出去了。今天的 foundation model 就是下一個 Window 操作系統,微軟如果沒有操作系統和開發者生態是比較困難的,更看好 AWS。

張小珺:OpenAI 有沒有失敗的風險?

Guangmi Li:整體還好,OpenAI 剛融了 400 億美金,未來幾年應該比較安全。C 端領先優勢一騎絕塵,也還比較穩。投資 OpenAI 更像是投一個消費互聯網公司的邏輯了,看能不能成為下一個 Google。

OpenAI 可能很快就 3000 人了,有點走向 Google,組織一旦變大,可能就很難極度專注 AGI 了,要做的事情太多。我更關注 OpenAI 后面會砍掉什么業務,比如就放棄 API,專注做 C 端 ChatGPT,做好更多的產品,做好 Coding Agent,去掀翻 Google 也是個 bet。

歷史上同時做好 C 端和 B 端是比較少的。微軟也是做好了 B 端,C 端沒有做很好。

OpenAI 最大的風險是 base model 不夠領先,別的模型公司先做出來下一個更強的 base model,很多開發者在這個 base model 上做出 super app 會搶走了 ChatGPT 的流量,現在是一個快速的技術進步周期,不能停下來。

張小珺:xAI Grok 今天突出的能力是什么?

Guangmi Li:比較突出的是 writing 寫作,但這個市場也不大。xAI 和 Twitter 合并是情理之中。之前 Grok 在產品上沒一個明確基本盤,OpenAI 有了 ChatGPT 并在持續增強,Anthropic 占了 Coding 和開發者,Grok 只能先拿了 Twitter,反正都是同一個老板。

我對 xAI 的印象就是執行力超強,Infra也很強,pre-training team 能力很強,很多朋友工作到凌晨 3-4 點是常態。Grok 3 其實不錯的,也算 base model SOTA 水平,或者起碼第一梯隊了,也會持續訓練更大的模型。

張小珺:xAI 和 Twitter 為什么合并?在老產品里加一個 Grok,有一個新的入口?

Guangmi Li:Grok 可能缺一個產品形態,但 Twitter 也不一定是對的產品形態,畢竟是老產品。主要是為了流量。ChatGPT 可能有 6、7 億 MAU,Twitter 有 5 個多億 MAU,算是一個量級,但 ChatGPT 還是更大。

張小珺:Ilya 想要做的 ASI 和 AGI 有什么差異?要實現 ASI 還需要什么?

Guangmi Li:AGI 是普通本科畢業生操作電腦,ASI 是愛因斯坦,達到大學業生水平和達到愛因斯坦水平是有本質區別的,實現 AGI 的確定性非常清楚了,但實現 ASI 還需要一些突破。ilya 有可能是贏在 2 年后。

AGI 強調的是通用的人類水平,ASI 強調的是領域的超級專家水平,在一個領域內能發現新知識、批量實現最強專家,自動化 SOP。ilya 想要做通用的超級專家,但超級專家是否能通用,是不是真的有 1000 萬名通用的諾獎級別的愛因斯坦,這是有待驗證,因為人類歷史上已經很久沒有真正的通才了。

ASI 可能會帶來一個專業知識領域的壟斷,一個領域內的頂尖專家現在能交流的對象是很少的。Deep Research 這樣的 AI 產品已經成為了他們很重要的 thinking partner,當時 200 刀定價的時候,很多科學家是愿意付費的。不過 Deep Research 現在還只有信息搜集能力,ASI 能基于這些信息產生新知識或者定律的話,對一個學科或領域會產生很大的價值,甚至可能新點亮一些科技樹。今天最接近 ASI 的是 AI Coding,進步速度尤其快。

張小珺:怎么看 Mira 的新公司 Thinking Machine?

Guangmi Li:團隊非常好,遠強于 OpenAI 早期的樣子,OpenAI 最核心的 post training team 以及最老的 Infra team 的核心都加入了 Mira。團隊 Infra 和 post-training 都很強,吸引人才能力很強,Mira 很大方,聽說很多人都拿了股票。

有個有趣的現象是,模型復現時間在縮短,Claude 追到 GPT-4 水平大概花了 2-3 年,Mira 這個團隊估計 1 年內甚至更短時間可能就夠了,但追 base model 不是他們的目標,他們還是做產品。

張小珺:他們想做什么?Mira 之前在 OpenAI 的時候,就對發布 ChatGPT 有很大影響。

Guangmi Li:可能要做一個能打敗 ChatGPT 的產品,可能是多模態版本 ChatGPT,或者 Agent 范式的 ChatGPT。Mira 這個新公司的團隊幾乎就是做 ChatGPT 的核心團隊,OpenAI 剩下的團隊是 push AGI、做智能的團隊,但又分裂出一個做 O 系列的團隊。

Mira 也可能代表另外一個意識形態,Mira 是很欣賞梁文鋒的,她覺得 OpenAI 和 Anthropic 是美國精英思路,閉源,有一定道德約束,所以 AGI 不至于做壞事。但 Mira 可能信奉更開放的 AGI,power 應該交還給社區,聽說會在 DeepSeek V3 的基礎上做 post train,mid train,未來再做 pre-train,可能是走應用優先的策略,也會定期開放開源一些自己的研究。這也是組織能力下的 bet。

張小珺:不同的戰略選擇背后是不同的價值觀,不同的組織能力。之前我們有一期播客專門聊過 Perplexity,可以對比一下今年的 Manus 和 Perplexity 嗎?

Guangmi Li:這兩個都是執行力很強的團隊,都被稱作套殼之王。他們都是打開潘多拉魔盒的人,Manus 更明顯。Manus 是一個 token 容器,能極致榨干模型智能,模型越好對 Manus 越好,Manus 非常吃模型能力,即使有更強的模型能力出來,Manus 都吃得下。

但模型越好,對 Perplexity 沒那么突出增加體驗。Perplexity 是抓住了兩年快速成長的窗口,那兩年 ChatGPT、Claude、Google 都沒做好,給了 Perplexity 成長的窗口。

Manus 今天面對的競爭環境肯定是更加激烈,沒有能猥瑣發育的時間了,對肖弘、張濤、Peak 來說,怎么打好這張牌,要求是很高的,因為 Manus 在智能的主線上,這也是比較興奮的,登上了全球最高水平的賽場。Manus 的火爆肯定是超預期的,建議重視 research,未來肯定要做 post train 和 RL 相關的。

張小珺:ChatGPT 的 Deep Research 會做 Manus 嗎?Deep Research 的未來是怎么樣?

Guangmi Li:Deep Research 是 OpenAI Agent 的雛形,后續肯定會集成更多產品,比如 Operator、Coding 等。未來可能就是 General Agent,但有兩個發展方向:一個是走向 Google,變成更高級的 Deep Search,第二是走向專業化,比如 co-scientis、co-analyst。

張小珺:對于 Devin、Cursor、DeepSeek 產品的看法呢?

Guangmi Li:Devin 抓住了一個時間窗口,選擇了提前等模型這樣一個比較激進的做法。但 Devin 解決的問題容易被模型公司 cover,Devin 解決的任務類型要么是模型能力不夠的時候就不 work,要么等模型變強了,Devin 也沒價值了。

Cursor 目前 interface 交互價值比較大,如果智能很強了,不確定還要不要這些交互。有可能 Cursor 是個階段性產品,模型能力提升后可能兩句 prompt 就解決了。最近 Notion 做交互的首席設計師和 Midjourney 做 training 的人加入了 Cursor,他們肯定會探索新的交互形態和自己的 model training。

DeepSeek 的創新很多是在幻方量化積累了很強的 Infra 之上催生的,Infra stack 是非常 solid,真正的科學探索上的范式級的創新相對還少一些,我是比較期待 DeepSeek 出現真正的范式級創新。

張小珺:全球范圍,對 AGI 推動貢獻最高的一些人是哪些?哪些人水平比較高?

Guangmi Li:貢獻和水平是要分開,ilya 和 Noam 這兩個人貢獻最大。ilya 是神,幾乎指明了今天行業在走的最核心的路線,今天可能還會沿著 ilya 指的路線繼續走很長時間。ilya 在 2020 年初的時候,所有人都還在做 bert,還沒出現 LLM 范式,ilya 就開始提 RL 和 pre-training 了,是非常 visionary 的。Noam 的貢獻是在架構上。

其次,水平上比較高的是 Dario 和 Alec,Alec 的成就是 GPT-1。Dario 的 taste 很好,知道今年整個行業和技術走到了哪一步,如果當時不是 Dario 堅持 bet GPT-3,OpenAI 可能就會停留在 GPT-1。

之后可能是 John Schulman、Mira。

Sam 對業界貢獻很大,把 hype 弄起來。Sam 是一個想象力非常大的人,幫很多人打開了想象空間,裹挾大量資源推動 AGI,researcher 有了更多的 GPU,個人待遇也好了很多。Sam 綜合是很強的,但他的一些外部行為不代表真實的 OpenAI,很多可能是煙霧彈,比如他有時候發的東西不一定是主線的東西。

06如何構建 AGI portfolio

張小珺:站在財務收益回報的角度,如果給你 1 億美金或者 10 億美金,讓你今天構建一個 AGI portfolio 去全球范圍內投資,按照最新的估值,假設都能投進去,你會投給哪些公司?

Guangmi Li:我會投 25% 給 Anthropic, 25% 給 Bytedance,10% 給 OpenAI,10% 給 Mira 的 Thinking Machines lab,5% 給 ilya 的 SSI,5% 給 Cursor,5% 給 Manus,另外 15%還沒想好。如果 DeepSeek 融資,我也會放基金的 25%,團隊還是很強的。

有個有意思的點是,我認識的 Researcher 朋友,幾乎 99%都覺得字節好,甚至認為字節股票的上限是比 OpenAI 要更高的,這些 researcher 個人都想去買字節的股票。

字節比較低調,也是被低估的,營收和利潤都非常好,2030 年 OpenAI 的營收利潤肯定還遠遠不如字節今天的營收利潤,它兩個今天的估值都是 3000 億。你是投資字節還是 OpenAI?

張小珺:字節今天的 AI 探索不一定能讓舊產品擴大 10 倍。

Guangmi Li:得看 AGI 的未來,今天的營收和利潤都是走向未來的養料,OpenAI 還需要外部融資,字節可以內生賺錢,賺 1000 億美金去投 AGI,不知道 OpenAI 未來還能不能融到 1000 億美金。

張小珺:為什么不是字節做出了 DeepSeek?為什么小組織更容易成功?

Guangmi Li:字節沒有做出 DeepSeek 是大組織的問題,可能字節未來是一個更加靈活的組織。

組織能力非常關鍵。今天的 AGI 是一個科學界的探索,小組織更靈活,敢于 bet,做 AGI 有賭性是特別重要的。

張小珺:在這個 portfolio 里,為什么 Anthropic 的錢比 OpenAI 多?

Guangmi Li:我對 Anthropic 的團隊更有信心,對 pre-training base model、bet on Coding 和 Agent 更有信心。我比較看好他們的 Roadmap 和戰略重點、組織能力。

最新的估值上,Anthropic 是 615 億美金,OpenAI 是 3000 億,Mira 的公司是 100 億,ilya 的公司是 300 億。

錢放在 Mira 公司比放在 ilya 公司多的原因在于,ilya 失敗風險是非常高的,更科學探索,而 Mira 成功的概率是比較高的,大概率要被收購的。不管是 Apple 還是 Meta,大廠都需要一個 Mira 那樣非常強的團隊,并有非常好的文化和組織。

錢放在 Manus 和 Cursor 一樣多是因為這是兩個模型能力的表達,代表兩個應用的方向,一個是 Coding Agent,一個是 tool use。

張小珺:整體上,相比應用公司,你還是會在基礎模型公司上放的錢更多。

Guangmi Li:今天是僅有的一點點時間窗口,可以去投一個 AGI 基礎模型。如果 DeepSeek 開放融資,放的錢是和字節、Anthropic 一樣多,都是基金上限的 25%。

張小珺:作為一個投資人,對未來 3-5 年投資上最大的 bet 是什么?

Guangmi Li:最大的 bet 就是 AGI 帶來科學的文藝復興。具象來講,一個是 2030 年前會有多家市值超過 $10T 的公司;第二是,從具體表現上,會有下一個 Google、Windows、Office、Meta,甚至下一個 Pfizer、Lilly。

下一個 Google 已經有雛形了,可能就是 OpenAI。Next Windows 可能就是 Claude,Claude 就是新的 Windows 或安卓。Next Office 就是接下來爭奪的 Coding Agent 或者 General Agent。Next meta 還看不到。AI for science 里會有下一個 Pfizer、Lilly,也有可能 Pfizer、Lilly 未來會非常強,變成好幾個 T 的公司。


07AGI 組織文化競爭僅次于算力

張小珺:在 AGI 時代,組織文化作為關鍵競爭力,被低估了嗎?

Guangmi Li:組織和文化競爭力是僅次于算力的核心競爭力。

DeepSeek 給了很多啟發,比如靈活,小團隊,敢于 bet。做 AGI 要有賭性的,有限資源就得猛搞一個大 bet,OpenAI 早期的賭性就很強,組織變大后,賭的阻力很大,沒辦法快速下注,OpenAI 的賭性逐漸在變弱,想要的太多,核心是看一個組織敢于放棄什么。

AGI Roadmap 都是可以變的,都是在組織能力之下的,人才密度遠遠比人才數量重要太多。今天是 AGI 探險,每一刻都在推動智能邊界,所以每個位置上的人都很關鍵。

張小珺:怎么判斷一個組織是不是 AGI-native? 什么是好的組織文化?

Guangmi Li:可以看有幾個特點有沒有做到:是不是 AGI first、Research first、Researcher first,有沒有 AI 的一號位,是不是領軍人物,優秀 researcher 愿不愿意加入,有沒有自己的 bet 以及人才晉升機制,到底什么樣的人被 value、被獎勵。

團隊成員的話,要年輕聰明、有想象力、有執行力,經驗和資歷不重要。想象力、年輕和執行力是特別重要的。

AGI 和訓練模型沒有那么神秘,就是做研究,是一個實驗工程,但組織非常關鍵。大概率 25、26 年會再來幾個 GPT-3.5 到 GPT-4 級別的智能躍升,很多科技公司管理層已經跟不上技術突破節奏,面對 Research 的巨大投入,很難做出判斷,也選不好 AI 一號位,想豪賭都不知道怎么下注,上次和老王聊天,他說不應該再持有不 All in AGI 的科技公司了。

如果想在 AGI 時代 build the next big thing,就不要戀戰今天的產品形態、商業模式、用戶積累、老的組織,時代秩序在劇變,要把智能技術提升當作唯一主線,把智能本身當作最大應用,把 90 后甚至 95 后 AI 研究員納入到核心管理層,選好 AI 一號位。

張小珺:全球這么多公司,哪家公司能最先實現 AGI?

Guangmi Li:大概率還是 OpenAI 和 Anthropic 最早,其次是 Google 和 xAI。中國至少也有 3-4 家也能實現 AGI,字節和 DeepSeek 可能是最確定的,另外可能還有 1-2 家。

DeepSeek 就等于開源,有可能字節也會開源一些,中國走開源未嘗不是一個好的路徑。開源無國界,可以突破地緣的封鎖。

張小珺:硅谷對于中國 AI 的進展,態度有轉變嗎?怎么看中美的 AI 走勢?

Guangmi Li:只要現有路徑下美國實現了 AGI,中國的復現是必然。過去兩年中美差距是毫無疑問地在快速縮小,很多地方基本上每 3-6 個月就能追平。中國的人才是非常強的,雖然美國世界級的頂尖科學家很多,但中國可能有幾百個、幾千個 Junior 一線人才,龐大的教育體系積累了非常多好的人才。

除了 DeepSeek 大家預期很高之外,我最看好字節,后面 scaling base model 還是需要非常強的 Infra 能力,字節這種大公司花很多力氣做 Infra,之后價值就會體現出來。

如果 Infra 比較差,不僅僅是存在成本問題,而是沒辦法爬到某個高度,跑大的試驗都有很多困難。比如large scaling RL Infra,之前 pre-training 的訓練框架和 RL 訓練框架是分開的,未來是要融合到一起的,要在 GPU 上實現推理和訓練兩個狀態來回切換,一邊 sampling,一邊 training,就會 bug 很多,挑戰很大。

之所以 DeepSeek 能做好,是因為幻方 Infra 很強,只有把 Infra 做好,才能實現或者高效率做事,不然整個 Foundation 都會跟著變差。一旦 Infra 不夠好,很多事情都做不好。很多 Researcher 很多的時間都浪費在 Infra debug 上,這樣就會把實現的 AGI 時間拖長了。

張小珺:中國公司里面你最喜歡誰?

Guangmi Li:對字節的預期最高,不是說模型水平追平到全球第一梯隊,而是大公司要做大公司應該做的事情,中國很缺一個 DeepMind 或 Google brain 一樣、具備長期 Vision、純粹的 AI Lab,去培養人才,我希望字節有這個文化,有 Vision 和魄力拿出很大的營收來投入基礎的科研,搞好 full stack 基建、Infra、去探索智能的上線。

對字節來講再做一個抖音可能都不夠興奮了,探索智能的邊界是更有意義的。大公司之前是有大公司的組織問題,只要組織理順了,后勁非常強。字節人才密度是很高的,過去可能因為地緣比較低調。我比較期待后面能有突破智能上限的東西。

創新的基礎是充裕的資本、冒險精神,還要有比較好的 Infra、文化。

張小珺:今年對中國實現或者復現 AGI 更有信心了?

Guangmi Li:取決于兩個條件,第一,是否就靠現有的 pre-training 和 RL 路線,不再需要其他路徑或者 fundamental 的突破,就可以實現 AGI;第二,是否不需要幾十萬或百萬張 GPU,可能幾萬張 GPU 就夠了。如果這兩條滿足,中國也實現 AGI 的確定性是非常高的。

美國公司之所以那么燒錢,是因為很多 GPU 用作探索,探索很耗卡,加上 OpenAI 還要做大量用戶服務,如果不做 服務可能不需要太多。如果純復現,有可能 3-5 萬、5-10 萬張 GPU 就夠了。探索花費的時間成本,會是復現的 5-10 倍。

中國團隊的加速度是比美國團隊更快的,國內 Junior 優秀人才的質量應該是比美國好,Devin 團隊的執行力就沒有 Manus 團隊的執行力強。

張小珺:硅谷創新和中國創新的特點有什么不一樣?

Guangmi Li:硅谷很多 0-1 創新,是不屑于去追隨或復制的,原因之一是硅谷資本特別充裕,有 500 到上千家投資機構,大家都很有錢,資本充裕是一個非常重要的創新土壤。另一個原因是具備冒險精神,中國有很多 1-100 的創新,我們把硅谷的 0-1 發揚光大。

張小珺:在 AGI 時代,中國還會都是 1-100 的創新嗎?會有更多 0-1 的創新嗎?創新模式和技術會不會發生變化?

Guangmi Li:我覺得會發生變化。之所以對字節有預期,就是因為大公司要做大公司做的事,資本充裕,文化、Infra 比較好,還要有冒險精神。DeepSeek 是一個富人做出來的,沒有充裕的資本是不行的。所以資本充裕是創新的前提,還有就是冒險精神。

DeepSeek 出來對字節的沖擊還是有的,但這是好事,把大家拉回智能的主線上,而不是過多聚焦在豆包這個產品上。之前大家都投流做增長,今天做增長,長期看可能是有意義的,但也有可能占用了組織太多精力。

智能是主線,智能是最大的應用。即使用戶量很大,未來如果有一個好 10 倍的技術,目前這些壁壘是守不住的,所以今天產品增長是不本質的。投流也不應該停止,這也是人類的探索行為,豆包應該還在增長。

張小珺:前幾天你在朋友圈寫了:假設 Apple iPhone 是中國團隊做出來且受中國控制,美國用戶極其喜歡,美國本土造不出來,這時候地緣問題會怎么解決?你問這個問題本質是什么?

Guangmi Li:今天最大的期待或者最大的興趣,就是在 AGI 疊加復雜的地緣亂紀元背景下,怎么做好一家 AGI-native 且全球化的跨國公司。

假設 Apple 是一家中國公司,能不能跨越地緣問題,銷售到全球化市場?我覺得答案是可以的。但今天中國公司還沒有一家能超越 Apple 做產品和技術的極致,我們在技術和產品上還是很大距離的。其實核心就是:把產品和技術做到極致,取得斷層的領先,要把競爭對手打服。

DeepSeek 這一波很大程度上是挑戰到了美國的科技霸權霸主地位,我們挺期待越來越多的“DeepSeek 時刻” 。作為年輕創業者,腦子里不用太顧慮地緣問題,就抓住做好技術和產品,地緣問題最后總是能解決的。

張小珺:為什么一定要做全球化?

Guangmi Li:要非常激進的全球化。好的技術和產品無國界,這是領先的表現。上一代做好全球化的互聯網公司是不多的。

美國過去的強大有 3 個表現:美元、美國的跨國公司、美式的意識形態,美國人覺得自己制定了近代近百年的全球秩序,是有一層優越感的。期待更多的中國創業者能做出中國原生的跨國公司。

張小珺:華人在硅谷做投資的天花板在哪?創業的天花板在哪?

Guangmi Li:科技投資不是靠“混”能混出結果的,很多 VC 投資人到處混圈子,其實沒意義,天花板很低,還是得靠“創造”,真的深入扎進去一個行業,push 到極致。

純靠到處混,有 connection 不難,但跨越種族和文化、建立信任是很難的,很多人也去混硅谷科技圈子,其實很難混到核心圈,很難和 Sam、Dario、Arivind 建立信任,還是得自身足夠牛逼,硅谷這個生態才會 value 你的價值。所以要多去想創造,不要想靠混,不然很被動,天花板很低。

做投資的天花板相對都是低的,創業做企業家的天花板更高,應該更多去做創造,我們很快就要面對或者今天已經進入了 AGI 科學的文藝復興時代了,后續的機會是宇宙大爆發式的。

AGI 的原教旨主義是相信科學本身,上一代投資人相信產品和商業模式,但今天看產品算帳沒有意義。今天的核心變化只有科學在進步這一個。

張小珺:你覺得在新的 AGI 框架下,所有的敘事都會發生變化?

Guangmi Li:今天過早討論太多用戶需求意義不大,這是一個供給驅動的市場,手機上的需求已經被窮舉過很多次了,今天的變化不在需求端,需求是可以被刺激出來的,非常多的核心變量是在供給端,比如癌癥、糖尿病、肥胖癥。

張小珺:如果推演未來的 1 年,還會發生哪些變化?

Guangmi Li:變量非常多,不知道從哪里出來,今天的線性外推只是一個參考。

我預期 Claude 4 能比較顯著超過今天的 GPT-4.5,base model 持續提升,大家回來卷 pre-training base model。Google Search 的份額和營收會開始根本性的被動搖,Agent 對 search 廣告的影響比較大。在下一個強大的 base model 拉開差距之前,ChatGPT 流量端持續加強,每個月 1000-2000 美金的收費,甚至更貴的定價,會被更多人接受,因為它的價值在被體現。


轉載原創文章請添加微信:founderparker

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
事發突然,比亞迪大量車型突然開始大降價,降幅高達34%

事發突然,比亞迪大量車型突然開始大降價,降幅高達34%

流蘇晚晴
2025-05-29 18:54:41
1959年,彭德懷搬離中南海,毛主席得知后吩咐楊尚昆:你去辦件事

1959年,彭德懷搬離中南海,毛主席得知后吩咐楊尚昆:你去辦件事

簡史檔案館
2023-12-04 10:51:46
微軟把蘇州員工騙到西雅圖,不到一年瘋狂裁員,美國法:沒有補償

微軟把蘇州員工騙到西雅圖,不到一年瘋狂裁員,美國法:沒有補償

社會醬
2025-05-29 17:05:42
曾因問題疫苗引咎辭職,畢井泉被查,系今年打掉第5個正部

曾因問題疫苗引咎辭職,畢井泉被查,系今年打掉第5個正部

南方都市報
2025-05-29 21:24:24
美歐談崩,特朗普給了歐盟兩條路:要么對中國加稅,要么被美加稅

美歐談崩,特朗普給了歐盟兩條路:要么對中國加稅,要么被美加稅

袁周院長
2025-05-29 10:16:55
美國終于動手,27萬中國學生,將被陸續遣返,中方警告兩大后果

美國終于動手,27萬中國學生,將被陸續遣返,中方警告兩大后果

阿傖說事
2025-05-29 16:03:16
轟轟烈烈上任,冷冷清清離開!馬斯克128天白宮行,臨別時特朗普無回應

轟轟烈烈上任,冷冷清清離開!馬斯克128天白宮行,臨別時特朗普無回應

紅星新聞
2025-05-29 18:03:21
央視放大招,首次向全世界展示,最先進光刻機!

央視放大招,首次向全世界展示,最先進光刻機!

阿傖說事
2025-05-29 07:37:36
湖北應城通報一起故意傷害案件:2人死亡,55歲嫌疑人已被控制

湖北應城通報一起故意傷害案件:2人死亡,55歲嫌疑人已被控制

紅星新聞
2025-05-29 12:51:06
19歲女生哭泣照被“高潮針”廣告盜用最新進展:相關涉黃網站永久關閉

19歲女生哭泣照被“高潮針”廣告盜用最新進展:相關涉黃網站永久關閉

極目新聞
2025-05-29 20:48:31
深圳男子買彩票中2億,6天后去兌獎,卻被工作人員趕了出去

深圳男子買彩票中2億,6天后去兌獎,卻被工作人員趕了出去

今天說故事
2025-05-28 14:49:59
86票贊成,美國得州通過新法案,不許中國等外國人在美買房買地

86票贊成,美國得州通過新法案,不許中國等外國人在美買房買地

南權先生
2025-05-29 13:47:51
公職人員下班后聚餐算違紀嗎?中紀委給出明確標準

公職人員下班后聚餐算違紀嗎?中紀委給出明確標準

戶外小阿隋
2025-05-29 10:16:20
上市即巔峰,連續43個跌停,從106跌到0.06,里面散戶全線被套!

上市即巔峰,連續43個跌停,從106跌到0.06,里面散戶全線被套!

財經市界
2025-05-29 08:54:16
《色即是空》女主河智苑被偶遇,身材好到爆人又漂亮,46歲如少女

《色即是空》女主河智苑被偶遇,身材好到爆人又漂亮,46歲如少女

叨嘮
2025-05-28 19:42:24
總統拒絕下臺,28萬菲軍作出選擇,馬科斯用7個字判老杜“死刑”

總統拒絕下臺,28萬菲軍作出選擇,馬科斯用7個字判老杜“死刑”

聞識
2025-05-29 15:58:59
兩位正部級,黃明、王榮有新身份,曾長期在江蘇工作

兩位正部級,黃明、王榮有新身份,曾長期在江蘇工作

揚子晚報
2025-05-29 17:32:25
腦梗去世的人越來越多?醫生勸告:天熱寧可打麻將,也別做4件事

腦梗去世的人越來越多?醫生勸告:天熱寧可打麻將,也別做4件事

華庭講美食
2025-05-29 08:52:24
國務院任免21名干部!剛卸任副省長的她進京履新,他“空降”江蘇后被免去公安部職務

國務院任免21名干部!剛卸任副省長的她進京履新,他“空降”江蘇后被免去公安部職務

上觀新聞
2025-05-29 18:06:09
24歲外甥強奸31歲舅媽,其父親索賠8千巨款賠償說:他還是個處男

24歲外甥強奸31歲舅媽,其父親索賠8千巨款賠償說:他還是個處男

胖胖侃咖
2025-05-28 08:00:18
2025-05-29 22:07:00
FounderPark incentive-icons
FounderPark
關注AI創業,專注和創業者聊真問題
762文章數 133關注度
往期回顧 全部

科技要聞

英偉達財報炸裂 黃仁勛卻嘆退出中國太可惜

頭條要聞

疑因2年前的一句"阿姨" 男子遭電話短信騷擾不敢回家

頭條要聞

疑因2年前的一句"阿姨" 男子遭電話短信騷擾不敢回家

體育要聞

納達爾,法網,漫長告別

娛樂要聞

辛柏青沉默8天后,這些事還是發生了

財經要聞

若對等關稅叫停,特朗普還能怎么加關稅

汽車要聞

換上高爾夫GTI同款2.0T動力 新凌渡L GTS實車曝光

態度原創

數碼
房產
親子
手機
公開課

數碼要聞

vivo TWS Air3 半入耳無線耳機發布,售價 99 元

房產要聞

清盤倒計時!這個天河芯紅盤,贏的不止多一點!

親子要聞

孩子脾胃虛,眼底發青,這碗水煮給孩子喝

手機要聞

全球首款雙2億像素手機被曝光!OPPO要狂卷旗艦機?

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 崇州市| 卢氏县| 蒙自县| 芦溪县| 林周县| 竹山县| 专栏| 新田县| 湄潭县| 会宁县| 景德镇市| 长宁县| 志丹县| 尚义县| 德清县| 阜南县| 黄石市| 彭泽县| 塔城市| 横山县| 三门峡市| 县级市| 陇川县| 西藏| 岗巴县| 八宿县| 福州市| 克什克腾旗| 新河县| 子长县| 东海县| 松桃| 彭州市| 海阳市| 高淳县| 景宁| 海口市| 马龙县| 桓台县| 望奎县| 北川|