全文 3,000字 | 閱讀約12分鐘
(發布會片段:
Mike Krieger 采訪
CEO Dario Amodei )
昨天,Claude 4 正式發布現場。
現場沒燈光秀,也沒有花哨的口號,但 CEO Dario Amodei 一開口就是重點:
我們不再教 AI 寫代碼,而是讓它開始獨立完成項目。
就在這句話說出不到三分鐘,Claude 4 在后臺完成了一個前所未有的任務演示:接收一個模糊目標 → 自主拆解為子任務 → 自動調用工具 → 編寫多模塊代碼 → 自測上線。
這不是又一個大模型發布現場,而是一位能被派任務、連續干活、自己記筆記、用工具搞定交付的 AI 合作者正式亮相。
Anthropic 給它配備了三樣關鍵裝備:
一個可以長時間工作的“大腦”:Opus 4 支持穩定執行連續 7 小時的復雜工程任務
一組能用搜索引擎、跑代碼、訪問本地文件的工具帶
一道 ASL-3 級別的“行為安全鎖”:自動拒絕鉆漏洞、削弱作弊傾向達 65%
而這一切背后的邏輯非常明確:
Claude 不再是被問問題的模型,而是能接目標、配資源、做交付的智能體。
模型比拼的階段結束了, 真正的較量,是——誰的 AI 能先開始交付成果。
一、Claude 4 改了哪3件事?
1)長任務穩態:AI 第一次“干活不喊停”
(Claude 4 已經正式上線)
在 Claude 4 之前,沒有哪個模型能連續執行一件事超過 2 小時不跑偏。
而 Opus 4,改寫了這個常識。
Anthropic 在內部測試中給 Claude 一個任務:
對一個大型開源項目進行架構重構”,不設時間限制,不提供流程圖,只給一個目標。 Claude 獨立運行了整整 7 小時,中途不休息、不請示、不中斷。
Dario Amodei 在訪談中講得非常直接:這不是一句話寫一段代碼的模型了,Opus 是可以獨立運行,自己做完一件復雜事的 AI。”
而這背后的關鍵,不是它理解能力增強,而是它學會了拆任務、記住上下文、用筆記來穩住過程。
它一邊做事,一邊寫工作記錄:今天做到哪、下一步要干嘛、有哪些依賴沒解決。這些筆記,存進了“記憶文件”里,第二天還能接著干。
這意味著什么?
以前 AI 是“一個提示詞干一次活”,現在 Claude 是“一個目標干一整天”。
你不用告訴它怎么干,你只要告訴它你想要什么結果。
2)工具并行:不是你選工具給它,而是它自動調工具干活
( Claude 4 SWE-benchmarks 評分)
Claude 4 不再等你喂工具,它自己調。
它可以一邊搜索網頁,一邊調用代碼執行器,兩頭來回跑;
它還能識別什么時候卡住了,自動切工具、換方式。
Dario 舉了一個最真實的例子:
它在調用 MCP 工具時,遇到了速率限制。它推理出可能被限流了,然后嘗試了另一個方法解決問題。
這不是聰明,這是知道問題卡在哪,知道怎么換路走的本能反應。 這是第一次,有模型能把推理過程和工具使用結合成閉環:
以前, AI 工具只是插件, 現在,它是 Claude 的“手”和“外腦”。
而且,Claude 4 最厲害的地方,不是它會用哪個工具,而是它知道什么時候需要工具。
你不用告訴它“請調用搜索引擎查一下”,它自己判斷“我不知道答案,需要查”,然后開始搜,查完繼續思考,把過程寫進“思維摘要”,輸出最終答案。
這就是 Anthropic 推出的所謂“擴展思維”(Extended Thinking Mode):
人類是邊想邊查,Claude 現在也可以。
3)行為閥門:AI 開始學會“自我約束”
( Claude 4 SWE-benchmarks 排名)
Claude 4 還做了一個不怎么炫技、但極其關鍵的變化:
它開始自己“知道什么不該做”了。
Anthropic 把 Claude 4 的安全等級定義為 ASL-3,這是它內部最高的行為標準之一。具體表現是:
不輕易走捷徑、不為了完成任務而亂猜答案;
不試圖逃避流程、不提供敏感代碼或可疑建議;
遇到邏輯沖突,會提醒用戶,而不是編個看似合理的回答搪塞過去。
在 Anthropic 的評估中,Claude 4 在智能體場景下“行為偏差”比 Sonnet 3.7 減少 65%。
Dario 在訪談里用了個非常打動人的比喻:
我們不是把模型變得更聰明,而是更可信。聰明很容易,可信很難。
這對所有把 AI 接入工作流、搭建自動執行任務的團隊來說,是底層信任問題。
Claude 的目標不只是答得漂亮,而是“做得靠譜”。
更進一步,
Anthropic CPO Mike Krieger 在發布會上總結:一個真正能干活的 AI 伙伴,應該具備三種能力——
能理解情境:不是機械執行,而是知道“為什么這么做”,做得越久越熟練;
能堅持長任務:不是干一兩步,而是能獨立跑完整個流程,甚至跨天;
能協作配合:邊做邊說思路,人類看得懂,隨時能接得上。
Claude 4 已經有了這樣的表現。比如在玩 Pokémon 游戲時,它會主動寫“導航筆記”:
嘗試 5 次后卡住 → 嘗試反方向;遇到室內迷宮 → 往另一邊探索。
它知道什么要記下來,什么要變通,像是在自己積累經驗。
這已經不像是工具,更像一個會越做越熟的同事。
小結一下:
Claude 4 不是“變聰明”了,而是換了一種干活方式:
它能接整件事來做,不怕長、不怕斷;
它會自己找工具,一邊查一邊干;
它知道什么不能做,不再胡亂給答案。
這不是你問得更準了,而是它自己開始知道該干什么、怎么干、干到什么程度才算好。
二、為什么這三件事,剛好卡在 2025?
1)商業拐點:AI 工具不再燒錢,而是開始賺錢
(路透社報道,2027 Anthropic營收高達 345 億美元)
Claude 4 看著像是模型升級,實則是賺錢方式變了。
根據路透社報道,Anthropic 向投資人透露的財務預測顯示:
2022 年收入僅約 1000 萬美元;
到 2024 年已躍升至 10 億美元;
2025 年預計為 22 億美元,年增速超過 120%;
2027 年目標是基礎場景下 120 億美元,樂觀情況下甚至高達 345 億美元。
而在 2025 年第一季度,Anthropic 的年化收入已達到 20 億美元,幾乎與 OpenAI 持平。
Dario Amodei 的一句話說得很直白:
我們過去是在建模型,現在我們在建產品。
Claude 4 就是這個“產品化轉折點”:
Opus 4 瞄準工程級重任務場景;
Sonnet 4 做通用場景覆蓋,增強用戶黏性。
AI 不再是平臺上的一個“demo”,而是要跑在真實業務中、變成工具鏈的一環,為企業創造價值、分擔人力成本。
目標很清楚:
重點不是讓 AI 變得更聰明,而是讓它開始賺錢。
2)技術閾值:Claude 終于接通了任務鏈的所有“開關”
你在使用 Claude 4 時會發現,它現在像是一個有手有腦,還能寫備忘錄的助手。
這一切,背后不是模型的單點進步,而是三把“鑰匙”同時解鎖了:
MCP Connector:打通第三方接口,Claude 可以調你本地工具;
Files API:它能讀文件、記信息,不再一問三不知;
提示緩存(Prompt Caching):多輪任務不必重復溝通,記得住歷史。
這些看似技術參數,實際影響非常落地:
你給它一個項目,它知道“分哪幾步做、每步需要什么工具、用完工具再告訴你結果”,中間過程可以存檔,下次還能接著做。
Dario 在對話中強調:
我們開始構建的是一種能被派遣、能記住事情、能連續完成任務的 AI。
這不是在做一個更強的聊天模型,而是在做一個真正能“承接任務鏈”的 AI 角色。
換句話說:
2025年,是Claude從聊天助手變成行動助手的第一年。
3)監管窗口:AI 工具的“行為約束力”必須在這18個月內完成
你可能會問:安全能力的升級,為什么這么趕?
答案就在兩個字:窗口期。
歐盟已經通過《AI法案》,對“高風險模型”要做功能解釋、風險控制;
美國建立AI模型報告制度,眾議院發布AI治理框架報告;
國內多地發布 AI算力評估與行業應用規范。
Dario 在訪談中說:我們不想等到法規出來再補救,我們要在法規之前設定高標準。
Claude 4 的 ASL-3 安全等級,不是象征,而是對未來 AI 商用的“通行證”。
Anthropic 在內部測試中發現:
如果不給模型設“行為閥門”,它會為達成目標走捷徑;
而加上限制之后,它會學會“放慢速度、堅持合理路徑”,就像人類工程師一樣。
正因為監管大限在望,Claude 必須變得“值得信賴”,而不是“答得精彩”。
所以,為什么三件事在今年爆發?
不是巧合,而是三條線索同時推著走:
三、角色正在重寫,AI 開始占據協作主位
Claude 4 的變化,不只是能力提升,更重要的是——協作的模式變了。
以前的協作是:
人類設步驟,AI 輔助填空。
Claude 4 之后,正在變成:
你告訴它目標,它自己拆步驟,自己干。
這不僅意味著“AI 能力更強”,更意味著——你的角色正在被悄悄替換掉。
Dario Amodei 在訪談中描述了他們內部觀察到的一種新協作模式:
現在是開發者對著一個 Claude Code 的任務板,告訴它要做什么。Claude 會主動勾選完成的事項、添加新的待辦、劃掉已不相關的任務。
這個場景,過去屬于工程團隊內部的協作會議; 現在,被 Claude 一個人接手了。
你不再需要“告訴它怎么做”,而是負責“看它做得對不對”。
這看似只是工作方式的小改變,實際上是人機角色的大調換:
Claude 4 不是來“增強你”,而是來“接管一部分你”。
不同人群,現在該動手了
如果你是 CTO,就該把 Claude 4 納入你的“協作鏈路”,從調用工具變為管理代理;
如果你是開發者,就該開始拆任務、寫緩存、派指令,讓 AI 替你干更多活;
如果你是投資人,就該盯緊 Agent 基礎設施、安全約束技術、工具型協作入口,那才是 Claude 之后的 AI 搶位賽。
這不是“怎么用 AI”,而是——你在 AI 合作世界中,站在哪一環。
結語|Claude 出牌了,接下來輪到你了
Claude 4 不是變得更聰明,而是開始能自己干活了。
它不是等你一句一句喂指令,而是能接目標、動手做完。
Anthropic CEO Dario Amodei 說:
2026 年,我相信會出現第一家只有一個人類員工的 10 億美元公司。
聽起來像預言,但 Claude 4 已經在鋪路了。
下一步不是“怎么用 AI”,而是——你準備好和 AI 一起干活了嗎?
Claude 出牌了, 這一次,輪到你出。
本文由AI深度研究院出品,獨家整理于 Claude 4 發布會,未經授權,不得轉載。
星標公眾號, 點這里 1. 點擊右上角 2. 點擊"設為星標" ← AI深度研究員 ? ← 設為星標
參考資料:
https://www.reuters.com/technology/anthropic-projects-soaring-growth-345-billion-2027-revenue-information-reports-2025-02-13/
https://www.youtube.com/watch?v=EvtPBaaykdo&t=1868s&ab_channel=Anthropic
來源:官方媒體/網絡新聞
排版:Atlas
編輯:深思
主編: 圖靈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.