全文 3,000字 | 閱讀約12分鐘
(發布會片段:Mike Krieger 採訪 CEO Dario Amodei )
昨天,Claude 4 正式發布現場。
現場沒燈光秀,也沒有花哨的口號,但 CEO Dario Amodei 一開口就是重點:
我們不再教 AI 寫程式,而是讓它開始獨立完成專案。
就在這句話說出不到三分鐘,Claude 4 在後台完成了一個前所未有的任務演示:接收一個模糊目標 → 自主拆解為子任務 → 自動調用工具 → 編寫多模組程式碼 → 自測上線。
這不是又一個大模型發布現場,而是一位能被派任務、連續幹活、自己記筆記、用工具搞定交付的 AI 合作者正式亮相。
Anthropic 給它配備了三樣關鍵裝備:
一個可以長時間工作的“大腦”:Opus 4 支持穩定執行連續 7 小時的複雜工程任務
一組能用搜尋引擎、跑程式碼、訪問本地檔案的工具帶
一道 ASL-3 級別的“行為安全鎖”:自動拒絕鑽漏洞、削弱作弊傾向達 65%
而這一切背後的邏輯非常明確:
Claude 不再是被問問題的模型,而是能接目標、配資源、做交付的智能體。
模型比拼的階段結束了, 真正的較量,是——誰的 AI 能先開始交付成果。
一、Claude 4 改了哪3件事?
1)長任務穩態:AI 第一次“幹活不喊停”
(Claude 4 已經正式上線)
在 Claude 4 之前,沒有哪個模型能連續執行一件事超過 2 小時不跑偏。
而 Opus 4,改寫了這個常識。
Anthropic 在內部測試中給 Claude 一個任務:
對一個大型開源專案進行架構重構”,不設時間限制,不提供流程圖,只給一個目標。
Claude 獨立運行了整整 7 小時,中途不休息、不請示、不中斷。
Dario Amodei 在訪談中講得非常直接:這不是一句話寫一段程式碼的模型了,Opus 是可以獨立運行,自己做完一件複雜事的 AI。”
而這背後的關鍵,不是它理解能力增強,而是它學會了拆任務、記住上下文、用筆記來穩住過程。
它一邊做事,一邊寫工作記錄:今天做到哪、下一步要幹嘛、有哪些依賴沒解決。這些筆記,存進了“記憶檔案”裡,第二天還能接著幹。
這意味著什麼?
以前 AI 是“一個提示詞幹一次活”,現在 Claude 是“一個目標幹一整天”。
你不用告訴它怎麼幹,你只要告訴它你想要什麼結果。
2)工具並行:不是你選工具給它,而是它自動調工具幹活
( Claude 4 SWE-benchmarks 評分)
Claude 4 不再等你餵工具,它自己調。
它可以一邊搜尋網頁,一邊調用程式碼執行器,兩頭來回跑;
它還能識別什麼時候卡住了,自動切工具、換方式。
Dario 舉了一個最真實的例子:
它在調用 MCP 工具時,遇到了速率限制。它推理出可能被限流了,然後嘗試了另一個方法解決問題。
這不是聰明,這是知道問題卡在哪,知道怎麼換路走的本能反應。 這是第一次,有模型能把推理過程和工具使用結合成閉環:
以前, AI 工具只是外掛程式, 現在,它是 Claude 的“手”和“外腦”。
而且,Claude 4 最厲害的地方,不是它會用哪個工具,而是它知道什麼時候需要工具。
你不用告訴它“請調用搜尋引擎查一下”,它自己判斷“我不知道答案,需要查”,然後開始搜,查完繼續思考,把過程寫進“思維摘要”,輸出最終答案。
這就是 Anthropic 推出的所謂“擴展思維”(Extended Thinking Mode):
人類是邊想邊查,Claude 現在也可以。
3)行為閥門:AI 開始學會“自我約束”
( Claude 4 SWE-benchmarks 排名)
Claude 4 還做了一個不怎麼炫技、但極其關鍵的變化:
它開始自己“知道什麼不該做”了。
Anthropic 把 Claude 4 的安全等級定義為 ASL-3,這是它內部最高的行為標準之一。具體表現是:
不輕易走捷徑、不為了完成任務而亂猜答案;
不試圖逃避流程、不提供敏感程式碼或可疑建議;
遇到邏輯衝突,會提醒用戶,而不是編個看似合理的回答搪塞過去。
在 Anthropic 的評估中,Claude 4 在智能體場景下“行為偏差”比 Sonnet 3.7 減少 65%。
Dario 在訪談裡用了個非常打動人的比喻:
我們不是把模型變得更聰明,而是更可信。聰明很容易,可信很難。
這對所有把 AI 接入工作流、搭建自動執行任務的團隊來說,是底層信任問題。
Claude 的目標不只是答得漂亮,而是“做得靠譜”。
🧠 更進一步,
Anthropic CPO Mike Krieger 在發布會上總結:一個真正能幹活的 AI 夥伴,應該具備三種能力——
能理解情境:不是機械執行,而是知道“為什麼這麼做”,做得越久越熟練;
能堅持長任務:不是幹一兩步,而是能獨立跑完整個流程,甚至跨天;
能協作配合:邊做邊說思路,人類看得懂,隨時能接得上。
Claude 4 已經有了這樣的表現。比如在玩 Pokémon 遊戲時,它會主動寫“導航筆記”:
嘗試 5 次後卡住 → 嘗試反方向;遇到室內迷宮 → 往另一邊探索。
它知道什麼要記下來,什麼要變通,像是在自己積累經驗。
這已經不像是工具,更像一個會越做越熟的同事。
📌 小結一下:
Claude 4 不是“變聰明”了,而是換了一種幹活方式:
它能接整件事來做,不怕長、不怕斷;
它會自己找工具,一邊查一邊幹;
它知道什麼不能做,不再胡亂給答案。
這不是你問得更準了,而是它自己開始知道該幹什麼、怎麼幹、幹到什麼程度才算好。
二、為什麼這三件事,剛好卡在 2025?
1)商業拐點:AI 工具不再燒錢,而是開始賺錢
(路透社報道,2027 Anthropic營收高達 345 億美元)
Claude 4 看著像是模型升級,實則是賺錢方式變了。
根據路透社報導,Anthropic 向投資人透露的財務預測顯示:
2022 年收入僅約 1000 萬美元;
到 2024 年已躍升至 10 億美元;
2025 年預計為 22 億美元,年增速超過 120%;
2027 年目標是基礎場景下 120 億美元,樂觀情況下甚至高達 345 億美元。
而在 2025 年第一季度,Anthropic 的年化收入已達到 20 億美元,幾乎與 OpenAI 持平。
Dario Amodei 的一句話說得很直白:
我們過去是在建模型,現在我們在建產品。
Claude 4 就是這個“產品化轉折點”:
Opus 4 瞄準工程級重任務場景;
Sonnet 4 做通用場景覆蓋,增強用戶黏性。
AI 不再是平台上的—個“demo”,而是要跑在真實業務中、變成工具鏈的一環,為企業創造價值、分擔人力成本。
目標很清楚:
重點不是讓 AI 變得更聰明,而是讓它開始賺錢。
2)技術閾值:Claude 終於接通了任務鏈的所有“開關”
你在使用 Claude 4 時會發現,它現在像是一個有手有腦,還能寫備忘錄的助手。
這一切,背後不是模型的單點進步,而是三把“鑰匙”同時解鎖了:
MCP Connector:打通第三方接口,Claude 可以調你本地工具;
Files API:它能讀檔案、記信息,不再一問三不知;
提示緩存(Prompt Caching):多輪任務不必重複溝通,記得住歷史。
這些看似技術參數,實際影響非常落地:
你給它一個專案,它知道“分哪幾步做、每步需要什麼工具、用完工具再告訴你結果”,中間過程可以存檔,下次還能接著做。
Dario 在對話中強調:
我們開始構建的是一種能被派遣、能記住事情、能連續完成任務的 AI。
這不是在做一個更強的聊天模型,而是在做一個真正能“承接任務鏈”的 AI 角色。
換句話說:
2025年,是Claude從聊天助手變成行動助手的第一年。
3)監管窗口:AI 工具的“行為約束力”必須在這18個月內完成
你可能會問:安全能力的升級,為什麼這麼趕?
答案就在兩個字:窗口期。
歐盟已經通過《AI法案》,對“高風險模型”要做功能解釋、風險控制;
美國建立AI模型報告制度,眾議院發布AI治理框架報告;
國內多地發布 AI算力評估與行業應用規範。
Dario 在訪談中說:我們不想等到法規出來再補救,我們要在法規之前設定高標準。
Claude 4 的 ASL-3 安全等級,不是象徵,而是對未來 AI 商用的“通行證”。
Anthropic 在內部測試中發現:
如果不給模型設“行為閥門”,它會為達成目標走捷徑;
而加上限制之後,它會學會“放慢速度、堅持合理路徑”,就像人類工程師一樣。
正因為監管大限在望,Claude 必須變得“值得信賴”,而不是“答得精彩”。
📌 所以,為什麼三件事在今年爆發?
不是巧合,而是三條線索同時推著走:
三、角色正在重寫,AI 開始佔據協作主位
Claude 4 的變化,不只是能力提升,更重要的是——協作的模式變了。
以前的協作是:
人類設步驟,AI 輔助填空。
Claude 4 之後,正在變成:
你告訴它目標,它自己拆步驟,自己幹。
這不僅意味著“AI 能力更強”,更意味著——你的角色正在被悄悄替換掉。
Dario Amodei 在訪談中描述了他們內部觀察到的一種新協作模式:
現在是開發者對著一個 Claude Code 的任務板,告訴它要做什麼。Claude 會主動勾選完成的事項、添加新的待辦、劃掉已不相關的任務。
這個場景,過去屬於工程團隊內部的協作會議; 現在,被 Claude 一個人接手了。
你不再需要“告訴它怎麼做”,而是負責“看它做得對不對”。
這看似只是工作方式的小改變,實際上是人機角色的大調換:
Claude 4 不是來“增強你”,而是來“接管一部分你”。
📌 不同人群,現在該動手了
如果你是 CTO,就該把 Claude 4 納入你的“協作鏈路”,從調用工具變為管理代理;
如果你是開發者,就該開始拆任務、寫緩存、派指令,讓 AI 替你幹更多活;
如果你是投資人,就該盯緊 Agent 基礎設施、安全約束技術、工具型協作入口,那才是 Claude 之後的 AI 搶位賽。
這不是“怎麼用 AI”,而是——你在 AI 合作世界中,站在哪一環。
🧭 結語|Claude 出牌了,接下來輪到你了
Claude 4 不是變得更聰明,而是開始能自己幹活了。
它不是等你一句一句餵指令,而是能接目標、動手做完。
Anthropic CEO Dario Amodei 說:
2026 年,我相信會出現第一家只有一個人類員工的 10 億美元公司。
聽起來像預言,但 Claude 4 已經在鋪路了。
下一步不是“怎麼用 AI”,而是——你準備好和 AI 一起幹活了嗎?
Claude 出牌了, 这一次,輪到你出。
📮 本文由AI深度研究院出品,獨家整理於 Claude 4 發布會,未經授權,不得轉載。