Claude 4ローンチ:AnthropicはAIにプログラミングを教えるのではなく、AI自身にプロジェクトを記述させる

全文3,000字 | 読了時間約12分

画像

(発表会スニペット:マイク・クリーガーがCEOダリオ・アモデイにインタビュー)

昨日、Claude 4が正式に発表されました。

会場には華やかなライトショーも派手なスローガンもありませんでしたが、CEOのダリオ・アモデイは開口一番、重要なことを述べました。

私たちはもはやAIにコーディングを教えるのではなく、AI自身にプロジェクトを独立して完了させます。

この発言から3分も経たないうちに、Claude 4はバックグラウンドで前例のないタスクデモンストレーションを完了させました:曖昧な目標を受け取る → サブタスクに自律的に分解する → ツールを自動的に呼び出す → 複数モジュールのコードを作成する → 自己テストしてデプロイする。

これは単なる大規模モデルの発表会ではなく、タスクを割り当てられ、継続的に作業し、自分でメモを取り、ツールを使って成果物を納品できるAIコラボレーターの正式な登場でした。

Anthropicはそれに3つの重要な装備を与えました。

長時間の作業が可能な「脳」:Opus 4は、複雑なエンジニアリングタスクを7時間連続で安定して実行することをサポートします。

検索エンジンを使用し、コードを実行し、ローカルファイルにアクセスできるツールセット。

ASL-3レベルの「行動安全ロック」:脆弱性を悪用しようとする試みを自動的に拒否し、不正行為の傾向を65%削減します。

そして、これらすべての背後にあるロジックは非常に明確です。

Claudeは質問に答えるモデルではなく、目標を受け取り、リソースを割り当て、成果物を納品できるインテリジェントエージェントです。

モデル間の競争の段階は終わりました。真の競争は、どのAIが最初に成果を出し始めるかです。

I. Claude 4は何を3つ変えたのか?

1) 長期タスクの安定性:AIが初めて「ノンストップ」で作業する

画像(Claude 4は正式にローンチされました)

Claude 4以前は、2時間を超えてタスクを連続実行し、逸脱しないモデルはありませんでした。

Opus 4は、この常識を覆しました。

Anthropicは内部テストでClaudeにタスクを与えました。

「大規模なオープンソースプロジェクトのアーキテクチャ再構築」を、時間制限なし、フローチャートなしで、目標だけを与えました。

Claudeは中断することなく、指示を求めることもなく、休憩も取らずに丸7時間独立して実行しました。

ダリオ・アモデイはインタビューで非常に直接的に述べました。「これは、1文でコードを書くモデルではありません。Opusは、独立して実行し、複雑なタスクを自分で完了できるAIです。」

その背後にある鍵は、理解能力が向上したことではなく、タスクを分解し、文脈を記憶し、メモを使ってプロセスを安定させる方法を学んだことです。

それは作業をしながら作業記録を書き続けます:今日どこまで行ったか、次に何をすべきか、未解決の依存関係は何か。これらのメモは「記憶ファイル」に保存され、翌日も作業を続けられます。

これは何を意味するのでしょうか?

以前のAIは「1つのプロンプトで1回作業」でしたが、今やClaudeは「1つの目標で丸一日作業」します。

どうやるかを教える必要はありません。必要な結果だけを伝えればいいのです。

2) ツールの並行利用:ツールをAIに選ばせるのではなく、AIが自動的にツールを呼び出して作業する

画像(Claude 4 SWE-benchmarksスコア)

Claude 4はもはやあなたがツールを供給するのを待たず、自分で呼び出します。

ウェブ検索をしながらコード実行器を呼び出し、両方を並行して実行できます。

また、いつ詰まったかを認識し、自動的にツールを切り替えたり、方法を変えたりできます。

ダリオは最も現実的な例を挙げました。

MCPツールを呼び出した際、レート制限に遭遇しました。レート制限されている可能性があると推論し、問題を解決するために別の方法を試しました。

これは賢いというよりも、問題がどこで詰まっているかを知り、どのように道を切り替えるかを知っている本能的な反応です。推論プロセスとツール使用を閉ループで組み合わせることができるモデルは、これが初めてです。

以前、AIツールは単なるプラグインでした。今、それはClaudeの「手」であり「外部の脳」です。

さらに、Claude 4の最も優れた点は、どのツールを使えるかではなく、いつツールが必要かを知っていることです。

「検索エンジンを使って調べてください」と指示する必要はありません。AI自身が「答えが分からない、調べる必要がある」と判断し、検索を開始し、情報を得た後も思考を続け、「思考の要約」にプロセスを書き込み、最終的な答えを出力します。

これがAnthropicが提唱する「拡張思考モード」(Extended Thinking Mode)です。

人間は考えながら調べるものですが、Claudeもそれができるようになりました。

3) 行動バルブ:AIが「自己抑制」を学び始める

画像

(Claude 4 SWE-benchmarksランキング)

Claude 4は、派手さはないが非常に重要な変化も遂げました。

それは、自分自身で「何をしてはいけないか」を知り始めたことです。

AnthropicはClaude 4の安全レベルをASL-3と定義しました。これは、内部で最も高い行動基準の一つです。具体的には以下のとおりです。

安易に近道を選んだり、タスクを完了するために適当な答えを推測したりしません。

プロセスを回避しようとしたり、機密性の高いコードや疑わしい助言を提供したりしません。

論理的な矛盾に遭遇した場合、曖昧な返答でごまかすのではなく、ユーザーに警告します。

Anthropicの評価では、エージェントシナリオにおけるClaude 4の「行動偏差」はSonnet 3.7と比較して65%減少しました。

ダリオはインタビューで非常に印象的な比喩を使いました。

私たちはモデルをより賢くしているのではなく、より信頼できるようにしています。賢くするのは簡単ですが、信頼を得るのは難しいのです。

AIをワークフローに統合し、自動実行タスクを構築するすべてのチームにとって、これは根底にある信頼の問題です。

Claudeの目標は、見事な回答をするだけでなく、「確実に機能する」ことです。

🧠 さらに一歩、

AnthropicのCPOであるマイク・クリーガーは発表会で次のようにまとめました。真に有能なAIパートナーは、以下の3つの能力を備えているべきです。

状況を理解する能力:機械的に実行するのではなく、「なぜこれを行うのか」を知り、長く作業するほど熟練します。

長期タスクを維持する能力:1、2ステップをこなすだけでなく、プロセス全体を独立して実行し、数日にわたる作業も可能です。

共同作業する能力:作業中に思考プロセスを共有し、人間が理解でき、いつでも引き継ぐことができます。

Claude 4はすでにそのような性能を示しています。例えば、ポケモンゲームをプレイする際、積極的に「ナビゲーションメモ」を書き込みます。

5回試行後に行き詰まる → 反対方向を試す;室内迷路に遭遇 → 別の方向を探索する。

何を記録すべきか、何を柔軟に対応すべきかを知っており、まるで自分で経験を積んでいるかのようです。

これはもはや単なるツールではなく、経験を積むほど熟練する同僚のようです。

📌 まとめ:

Claude 4は「賢くなった」のではなく、作業方法を変えました。

全体的なタスクを引き受け、長くても途切れても問題ありません。

自分でツールを探し、調べながら作業します。

何をしてはいけないかを知っており、でたらめな答えを出しません。

これはあなたがより正確に質問するのではなく、AI自身が何をすべきか、どうすべきか、どの程度までやるべきかを知り始めたということです。

II. なぜこれら3つのことが、ちょうど2025年に集中するのか?

1) ビジネスの転換点:AIツールはもはやお金を燃やすのではなく、お金を稼ぎ始める

画像(ロイター通信によると、2027年にはAnthropicの収益が最大345億ドルに達する見込み)

Claude 4はモデルのアップグレードのように見えますが、実際には収益化の方法が変わったのです。

ロイター通信の報道によると、Anthropicが投資家に開示した財務予測は以下の通りです。

2022年の売上はわずか約1000万ドル;

2024年には10億ドルに急増;

2025年には22億ドルと予測され、年間成長率は120%以上;

2027年の目標は、基本シナリオで120億ドル、楽観的なシナリオでは最大345億ドルに達する。

そして2025年第1四半期には、Anthropicの年間売上は20億ドルに達し、OpenAIとほぼ同等になりました。

ダリオ・アモデイの言葉は非常に直接的でした。

私たちはかつてモデルを構築していましたが、今は製品を構築しています。

Claude 4は、この「製品化の転換点」です。

Opus 4はエンジニアリングレベルの重いタスクシナリオをターゲットにしています。

Sonnet 4は汎用シナリオをカバーし、ユーザーの定着率を高めます。

AIはもはやプラットフォーム上の「デモ」ではなく、実際のビジネス運用で稼働し、ツールチェーンの一部となり、企業に価値を創造し、人件費を削減する必要があります。

目標は明確です。

AIを賢くすることではなく、AIがお金を稼ぎ始めることです。

2) 技術的閾値:Claudeがついにタスクチェーンのすべての「スイッチ」を接続した

Claude 4を使うと、まるで手足と脳を持ち、メモも書けるアシスタントのようです。

これらすべては、モデルの単一の進歩ではなく、3つの「鍵」が同時に解除された結果です。

MCP Connector:サードパーティインターフェースを接続し、Claudeがローカルツールを呼び出せるようにする;

Files API:ファイルを読み込み、情報を記憶し、もう何も知らない状態ではなくなる;

プロンプトキャッシュ(Prompt Caching):複数ラウンドのタスクで繰り返しのコミュニケーションが不要になり、履歴を記憶できる。

これらは技術的なパラメータに見えますが、実際の現場に非常に大きな影響を与えます。

プロジェクトを渡せば、「何ステップでやるか、各ステップでどんなツールが必要か、ツールを使った後に結果をどう伝えるか」を知っており、中間過程を保存でき、次回もそこから作業を続けられます。

画像

ダリオは対話の中で強調しました。

私たちは、派遣可能で、物事を記憶し、連続してタスクを完了できるAIを構築し始めています。

これはより強力なチャットモデルを作っているのではなく、真に「タスクチェーンを引き受ける」ことができるAIの役割を作っているのです。

言い換えれば:

2025年は、Claudeがチャットアシスタントから行動アシスタントへと移行する元年です。

3) 規制の窓口:AIツールの「行動制約力」は、この18ヶ月以内に完了させなければならない

安全機能のアップグレードがなぜそんなに急がれるのか、疑問に思うかもしれません。

答えは2つの言葉に集約されます:窓口期間

EUはすでに「AI法案」を可決し、「高リスクモデル」には機能の説明とリスク管理が求められています。

米国はAIモデル報告制度を確立し、下院はAIガバナンスフレームワーク報告書を発表しました。

中国国内の多くの地域では、AIコンピューティング能力評価と産業応用規範が発表されています。

ダリオはインタビューで次のように述べました。「私たちは規制が出るまで待ってから是正するのではなく、規制の前に高い基準を設定したいと考えています。」

Claude 4のASL-3安全レベルは象徴的なものではなく、将来のAI商業化に向けた「通行証」です。

Anthropicは内部テストで以下を発見しました。

モデルに行動バルブを設定しないと、目標達成のために近道を選ぼうとする;

制限を加えると、「速度を落とし、合理的な経路を堅持する」ことを学び、まるで人間のエンジニアのようになる。

まさに規制の期限が迫っているため、Claudeは「見事な回答をする」ことではなく、「信頼できる」存在にならなければなりません。

📌 では、なぜこの3つのことが今年爆発的に進んだのか?

偶然ではなく、3つの要素が同時に推進されたからです。

画像

III. 役割が書き換えられ、AIが共同作業の主導権を握り始める

Claude 4の変化は、能力の向上だけでなく、より重要なことに、コラボレーションのモデルが変わったことです。

以前のコラボレーションは:

人間が手順を設定し、AIが補完する。

Claude 4以降は:

あなたが目標を伝えると、AIが自分で手順を分解し、自分で実行する。

これは「AIの能力がより強力になった」というだけでなく、あなたの役割が静かに置き換えられていることを意味します。

ダリオ・アモデイはインタビューで、彼らが内部で観察した新しいコラボレーションモデルについて説明しました。

今では開発者がClaude Codeのタスクボードに向かい、何をすべきかを指示します。Claudeは完了した項目を積極的にチェックし、新しいTo-Doを追加し、関連性のないタスクを削除します。

このシナリオは、かつてはエンジニアリングチーム内部の共同会議に属していましたが、今やClaudeが一人で引き受けています。

もはや「どうやるか」を指示する必要はなく、「正しくやっているか」を確認する責任を負うだけです。

これは一見、作業方法の小さな変化に見えますが、実際には人間と機械の役割の大きな入れ替わりです。

画像

Claude 4は「あなたを強化する」ために来たのではなく、「あなたの一部を引き継ぐ」ために来たのです。

📌  異なる人々よ、今こそ行動する時です

あなたがCTOであれば、Claude 4をあなたの「共同作業チェーン」に組み込み、ツールの呼び出しからエージェントの管理へと移行すべきです。

あなたが開発者であれば、タスクを分解し、キャッシュを書き、指示を出し、AIにあなたの作業をさらに多くさせるべきです。

あなたが投資家であれば、エージェントインフラストラクチャ、安全制約技術、ツールベースの共同作業の入り口に注目すべきです。それがClaude以降のAI競争の場となるでしょう。

これは「AIをどう使うか」ではなく、「AIとの協力の世界で、あなたがどこに立っているか」なのです。

🧭 結論|Claudeは手を打った、次はあなたの番だ

Claude 4は賢くなっただけでなく、自分で作業を始められるようになりました。

一行一行指示を待つのではなく、目標を受け取って作業を完遂できます。

AnthropicのCEOダリオ・アモデイはこう語りました。

2026年には、たった一人の人間従業員しかいない10億ドル企業が誕生すると私は信じています。

予言のように聞こえますが、Claude 4はすでにその道を舗装しています。

次のステップは「AIをどう使うか」ではなく、「AIと共に働く準備はできていますか?」ということです。

Claudeは手を打ちました。今度は、あなたの番です。

📮 本記事はAI深度研究院が制作し、Claude 4発表会から独自にまとめられたものです。無断転載を禁じます。

メインタグ:人工知能

サブタグ:AIエージェントビジネス戦略自動化ソフトウェア工学


前の記事:ゼロから完全に構築、わずか8元と9時間でTiny LLMをトレーニング!推論、MoEなどを含む完全チュートリアル

次の記事:API設計の「Goの境地」:GoチームによるMCP SDK設計プロセスにおけるトレードオフと考察

短いURLをシェア