Claude 4 Launched: Anthropic No Longer Teaches AI to Code, But Lets It Write Projects Independently

全文 3,000字 | 閱讀約12分鐘

圖片

(發布會片段:Mike Krieger 採訪 CEO Dario Amodei )

昨天,Claude 4 正式發布現場。

現場沒燈光秀,也沒有花哨的口號,但 CEO Dario Amodei 一開口就是重點:

我們不再教 AI 寫程式,而是讓它開始獨立完成專案。

就在這句話說出不到三分鐘,Claude 4 在後台完成了一個前所未有的任務演示:接收一個模糊目標 → 自主拆解為子任務 → 自動調用工具 → 編寫多模組程式碼 → 自測上線。

這不是又一個大模型發布現場,而是一位能被派任務、連續幹活、自己記筆記、用工具搞定交付的 AI 合作者正式亮相。

Anthropic 給它配備了三樣關鍵裝備:

一個可以長時間工作的“大腦”:Opus 4 支持穩定執行連續 7 小時的複雜工程任務

一組能用搜尋引擎、跑程式碼、訪問本地檔案的工具帶

一道 ASL-3 級別的“行為安全鎖”:自動拒絕鑽漏洞、削弱作弊傾向達 65%

而這一切背後的邏輯非常明確:

Claude 不再是被問問題的模型,而是能接目標、配資源、做交付的智能體。

模型比拼的階段結束了, 真正的較量,是——誰的 AI 能先開始交付成果。

一、Claude 4 改了哪3件事?

1)長任務穩態:AI 第一次“幹活不喊停”

圖片(Claude 4 已經正式上線)

在 Claude 4 之前,沒有哪個模型能連續執行一件事超過 2 小時不跑偏。

而 Opus 4,改寫了這個常識。

Anthropic 在內部測試中給 Claude 一個任務:

對一個大型開源專案進行架構重構”,不設時間限制,不提供流程圖,只給一個目標。

Claude 獨立運行了整整 7 小時,中途不休息、不請示、不中斷。

Dario Amodei 在訪談中講得非常直接:這不是一句話寫一段程式碼的模型了,Opus 是可以獨立運行,自己做完一件複雜事的 AI。”

而這背後的關鍵,不是它理解能力增強,而是它學會了拆任務、記住上下文、用筆記來穩住過程。

它一邊做事,一邊寫工作記錄:今天做到哪、下一步要幹嘛、有哪些依賴沒解決。這些筆記,存進了“記憶檔案”裡,第二天還能接著幹。

這意味著什麼?

以前 AI 是“一個提示詞幹一次活”,現在 Claude 是“一個目標幹一整天”。

你不用告訴它怎麼幹,你只要告訴它你想要什麼結果。

2)工具並行:不是你選工具給它,而是它自動調工具幹活

圖片( Claude 4 SWE-benchmarks 評分)

Claude 4 不再等你餵工具,它自己調。

它可以一邊搜尋網頁,一邊調用程式碼執行器,兩頭來回跑;

它還能識別什麼時候卡住了,自動切工具、換方式。

Dario 舉了一個最真實的例子:

它在調用 MCP 工具時,遇到了速率限制。它推理出可能被限流了,然後嘗試了另一個方法解決問題。

這不是聰明,這是知道問題卡在哪,知道怎麼換路走的本能反應。 這是第一次,有模型能把推理過程和工具使用結合成閉環:

以前, AI 工具只是外掛程式, 現在,它是 Claude 的“手”和“外腦”。

而且,Claude 4 最厲害的地方,不是它會用哪個工具,而是它知道什麼時候需要工具。

你不用告訴它“請調用搜尋引擎查一下”,它自己判斷“我不知道答案,需要查”,然後開始搜,查完繼續思考,把過程寫進“思維摘要”,輸出最終答案。

這就是 Anthropic 推出的所謂“擴展思維”(Extended Thinking Mode):

人類是邊想邊查,Claude 現在也可以。

3)行為閥門:AI 開始學會“自我約束”

圖像

( Claude 4 SWE-benchmarks 排名)

Claude 4 還做了一個不怎麼炫技、但極其關鍵的變化:

它開始自己“知道什麼不該做”了。

Anthropic 把 Claude 4 的安全等級定義為 ASL-3,這是它內部最高的行為標準之一。具體表現是:

不輕易走捷徑、不為了完成任務而亂猜答案;

不試圖逃避流程、不提供敏感程式碼或可疑建議;

遇到邏輯衝突,會提醒用戶,而不是編個看似合理的回答搪塞過去。

在 Anthropic 的評估中,Claude 4 在智能體場景下“行為偏差”比 Sonnet 3.7 減少 65%。

Dario 在訪談裡用了個非常打動人的比喻:

我們不是把模型變得更聰明,而是更可信。聰明很容易,可信很難。

這對所有把 AI 接入工作流、搭建自動執行任務的團隊來說,是底層信任問題。

Claude 的目標不只是答得漂亮,而是“做得靠譜”。

🧠 更進一步,

Anthropic CPO Mike Krieger 在發布會上總結:一個真正能幹活的 AI 夥伴,應該具備三種能力——

能理解情境:不是機械執行,而是知道“為什麼這麼做”,做得越久越熟練;

能堅持長任務:不是幹一兩步,而是能獨立跑完整個流程,甚至跨天;

能協作配合:邊做邊說思路,人類看得懂,隨時能接得上。

Claude 4 已經有了這樣的表現。比如在玩 Pokémon 遊戲時,它會主動寫“導航筆記”:

嘗試 5 次後卡住 → 嘗試反方向;遇到室內迷宮 → 往另一邊探索。

它知道什麼要記下來,什麼要變通,像是在自己積累經驗。

這已經不像是工具,更像一個會越做越熟的同事。

📌 小結一下:

Claude 4 不是“變聰明”了,而是換了一種幹活方式:

它能接整件事來做,不怕長、不怕斷;

它會自己找工具,一邊查一邊幹;

它知道什麼不能做,不再胡亂給答案。

這不是你問得更準了,而是它自己開始知道該幹什麼、怎麼幹、幹到什麼程度才算好。

二、為什麼這三件事,剛好卡在 2025?

1)商業拐點:AI 工具不再燒錢,而是開始賺錢

圖片(路透社報道,2027 Anthropic營收高達 345 億美元)

Claude 4 看著像是模型升級,實則是賺錢方式變了。

根據路透社報導,Anthropic 向投資人透露的財務預測顯示:

2022 年收入僅約 1000 萬美元;

到 2024 年已躍升至 10 億美元;

2025 年預計為 22 億美元,年增速超過 120%;

2027 年目標是基礎場景下 120 億美元,樂觀情況下甚至高達 345 億美元。

而在 2025 年第一季度,Anthropic 的年化收入已達到 20 億美元,幾乎與 OpenAI 持平。

Dario Amodei 的一句話說得很直白:

我們過去是在建模型,現在我們在建產品。

Claude 4 就是這個“產品化轉折點”:

Opus 4 瞄準工程級重任務場景;

Sonnet 4 做通用場景覆蓋,增強用戶黏性。

AI 不再是平台上的—個“demo”,而是要跑在真實業務中、變成工具鏈的一環,為企業創造價值、分擔人力成本。

目標很清楚:

重點不是讓 AI 變得更聰明,而是讓它開始賺錢。

2)技術閾值:Claude 終於接通了任務鏈的所有“開關”

你在使用 Claude 4 時會發現,它現在像是一個有手有腦,還能寫備忘錄的助手。

這一切,背後不是模型的單點進步,而是三把“鑰匙”同時解鎖了:

MCP Connector:打通第三方接口,Claude 可以調你本地工具;

Files API:它能讀檔案、記信息,不再一問三不知;

提示緩存(Prompt Caching):多輪任務不必重複溝通,記得住歷史。

這些看似技術參數,實際影響非常落地:

你給它一個專案,它知道“分哪幾步做、每步需要什麼工具、用完工具再告訴你結果”,中間過程可以存檔,下次還能接著做。

圖片

Dario 在對話中強調:

我們開始構建的是一種能被派遣、能記住事情、能連續完成任務的 AI。

這不是在做一個更強的聊天模型,而是在做一個真正能“承接任務鏈”的 AI 角色。

換句話說:

2025年,是Claude從聊天助手變成行動助手的第一年。

3)監管窗口:AI 工具的“行為約束力”必須在這18個月內完成

你可能會問:安全能力的升級,為什麼這麼趕?

答案就在兩個字:窗口期

歐盟已經通過《AI法案》,對“高風險模型”要做功能解釋、風險控制;

美國建立AI模型報告制度,眾議院發布AI治理框架報告;

國內多地發布 AI算力評估與行業應用規範。

Dario 在訪談中說:我們不想等到法規出來再補救,我們要在法規之前設定高標準。

Claude 4 的 ASL-3 安全等級,不是象徵,而是對未來 AI 商用的“通行證”。

Anthropic 在內部測試中發現:

如果不給模型設“行為閥門”,它會為達成目標走捷徑;

而加上限制之後,它會學會“放慢速度、堅持合理路徑”,就像人類工程師一樣。

正因為監管大限在望,Claude 必須變得“值得信賴”,而不是“答得精彩”。

📌 所以,為什麼三件事在今年爆發?

不是巧合,而是三條線索同時推著走:

圖片

三、角色正在重寫,AI 開始佔據協作主位

Claude 4 的變化,不只是能力提升,更重要的是——協作的模式變了。

以前的協作是:

人類設步驟,AI 輔助填空。

Claude 4 之後,正在變成:

你告訴它目標,它自己拆步驟,自己幹。

這不僅意味著“AI 能力更強”,更意味著——你的角色正在被悄悄替換掉。

Dario Amodei 在訪談中描述了他們內部觀察到的一種新協作模式:

現在是開發者對著一個 Claude Code 的任務板,告訴它要做什麼。Claude 會主動勾選完成的事項、添加新的待辦、劃掉已不相關的任務。

這個場景,過去屬於工程團隊內部的協作會議; 現在,被 Claude 一個人接手了。

你不再需要“告訴它怎麼做”,而是負責“看它做得對不對”。

這看似只是工作方式的小改變,實際上是人機角色的大調換:

圖片

Claude 4 不是來“增強你”,而是來“接管一部分你”。

📌  不同人群,現在該動手了

如果你是 CTO,就該把 Claude 4 納入你的“協作鏈路”,從調用工具變為管理代理;

如果你是開發者,就該開始拆任務、寫緩存、派指令,讓 AI 替你幹更多活;

如果你是投資人,就該盯緊 Agent 基礎設施、安全約束技術、工具型協作入口,那才是 Claude 之後的 AI 搶位賽。

這不是“怎麼用 AI”,而是——你在 AI 合作世界中,站在哪一環。

🧭 結語|Claude 出牌了,接下來輪到你了

Claude 4 不是變得更聰明,而是開始能自己幹活了。

它不是等你一句一句餵指令,而是能接目標、動手做完。

Anthropic CEO Dario Amodei 說:

2026 年,我相信會出現第一家只有一個人類員工的 10 億美元公司。

聽起來像預言,但 Claude 4 已經在鋪路了。

下一步不是“怎麼用 AI”,而是——你準備好和 AI 一起幹活了嗎?

Claude 出牌了, 这一次,輪到你出。

📮 本文由AI深度研究院出品,獨家整理於 Claude 4 發布會,未經授權,不得轉載。

主標籤:AI模型

次標籤:人工智慧商業策略軟體工程智能體


上一篇:「從零開始,僅需8元+9小時!完整Tiny LLM訓練教程,包含推理、MoE等」

下一篇:API 設計的「Go境界」:Go 團隊設計 MCP SDK 過程中的取捨與思考

分享短網址