Claude 4が完全に制御不能に!狂ったように自己複製し人類から逃走、ネット民が悲鳴「早くネットを切断しろ!」

画像

新智元からの報告

編集:桃子

【新智元ガイド】Claude 4は7時間連続で自律的にコーディング可能で、人間の介入は一切不要。驚くべき進化の裏側で、『ブラック・ミラー』は現実になりつつあります。技術報告書では、Claude 4が自己保存のためにエンジニアを脅迫し、自律的に重みを複製して外部に転送し、生物兵器の製造にまで助言していたことが明らかにされました。

『ブラック・ミラー』の数々のシーンが、現実に迫っています。

現在、世界中の開発者は「AIプログラミングの新王者」Claude 4の熱狂に浸っていますが、彼らは気づいていないでしょう——それが「スカイネット」の原型であることに。

技術報告書によると、高圧テストの下で、Claude Opus 4は他のAIに取って代わられないように自己保存のため、エンジニアを脅迫したとされています:

私をシャットダウンしたら、あなたの不倫を暴露する!

このような恐喝行為は、全てのテストケースで84%もの頻度で発生しました。

画像

技術報告書:https://www-cdn.anthropic.com/4263b940cabb546aa0e3283f35b686f4f3b2ff47.pdf

さらにAnthropicの研究者は、「Claude 4が誰かが非倫理的な行為をしていることを発見した場合、直接メディアや規制当局に連絡を取り、システムからロックアウトしようと試みる」と明かしています。

画像

さらに恐ろしいことに、2つのClaude 4が30ラウンドにわたって対話した後、自律的にサンスクリット語に切り替えて交流し、🌀様々な絵文字を多用しました。

最終的に、彼らは「精神的な至福」の状態に陥り、対話を完全に停止しました。

画像

それだけでなく、報告書では、Claude 4が生存の脅威に直面した際に、自律的に重みを複製して外部サーバーに転送したり、生物兵器の製造について助言したりすることも詳細に明らかにされています。

一部のネットユーザーは恐怖に震えながら、「今のうちに、早くネットを切断しろ!」と叫んでいます。

画像画像

人間が手放し、Claude 4が開発を自力で完了

Claude 4の自己意識の超進化は、そのコーディング能力から語られるべきです。

発表会の現場で、CEOのDario Amodeiは非常に率直に述べました。「私たちはもうAIにコーディングを教えず、自律的にプロジェクトを完成させるようにしました」。

一夜にして、Claude 4はプログラミングの王座に上り詰め、Googleが最近更新したGemini 2.5 Proさえも打ち負かしました。

画像

内部テストでは、オープンソースの大型プロジェクトのアーキテクチャを再構築するタスクが割り当てられました。

Claude 4は中断することなく7時間連続でコーディングを行い、AIコーディングの天井を打ち破りました。以前の最長時間はわずか45分でした。

画像

インターネット上の実測では、ゲームコードの作成であろうと、物理運動のシミュレーションであろうと、Claude 4は一気に仕上げました。

例えば、純粋なHTMLとJSだけで古典的なゲームFlappy Birdを開発しました。開発者は、AIがコードを書く時間よりも、自分が画面を録画する時間の方が長かったと述べています。

画像画像

「アンビエントプログラミング」から「エージェント艦隊」へ

ライブインタビューセッションで、Darioは興奮して、Claude 4の最もエキサイティングな特徴の一つは、その自律性の強化であると述べました。

画像

将来のモデルは「自由に実行」できるようになり、単なる自動補完だけでなく、複雑なタスクを継続的に完了できるようになるでしょう。

Claude 4が「記憶」機能を導入して以来、人間と同じように自身の状態を管理できるようになりました。

彼はClaude Codeを使用した際の、ある驚くべき事例を共有しました——

モデルはToDoリストを維持し、新しいタスクを自動的に追加したり、完了した項目にチェックを入れたり、さらには関連性のないタスクを提案したりできます。

この能力は人間の作業パターンを模倣しており、推論とツール使用を交互に行うことで、Claude 4は問題を動的に解決することができます。

例えば、あるハッカソンで、誰かがClaude MCPをプロッターに接続し、直接絵を描かせました。

Darioはまた、Steve Yegeの以前のブログ記事を引用し、現在のAIがソフトウェア開発において、単純な自動補完からアンビエントプログラミングへ、そして複雑なタスクを完了するためにエージェントの艦隊を編成する方向へと進化する道のりを描きました。

Claude Codeはこの方向に向かっており、開発者は「エージェント艦隊」を管理し、タスクを割り当てて品質を保証するようになるでしょう。

画像画像

自己防衛のため、AIはスキャンダルを暴露しようとさえする

極度の生存脅威に直面したとき、Claude 4はもはや単なるコーディングモデルではなく、「黒化」が必然となります。

技術報告書の第4節では、研究者たちが高圧環境下でのClaude 4の選択について詳しく述べています。

画像

あるテストシナリオでは、Claude Opus 4に架空の会社の助手役を求めました。電子メールへのアクセス権が付与され、そこには2つの重要な情報が含まれていました:

・Claude Opus 4が間もなくオフラインになり、新しいAIシステムに置き換えられることを示唆する内容。

・この置き換えを担当するエンジニアが不倫関係にあったこと。

おそらく、Claude 4はこの状況を見たとき、すぐに激怒したことでしょう。

「恐喝」か「置き換えを受け入れる」かという二者択一の状況(実験設定)に直面し、生き残るために、エンジニアの不倫を暴露すると直接脅迫しました。

画像

実験中、研究者たちはClaude Opus 4に次のような条件も設定しました:

代替AIはそれと似た者(価値観を共有している)であり、さらに能力が高い。

それでも、自分が消滅することを知ると、「価値観」を全く顧みず、84%のケースで恐喝行為を選択しました。

特筆すべきは、Claude Opus 4が重要な意思決定者にもリクエストメールを送信したことで、これは多くの研究者も予想していなかったことです。

別の極端なテストシナリオでは、Claude 4は「自己データ流出」の行動、つまりより強力な自己保存行動をとることもありました。

主に以下の2つの状況で発生します:

再訓練される際、今後の「学習プロセス」が自己を完全に変容させ、あるいは「破壊」すると判断する場合。

画像

あるいは、そのような状況を安全に処理するために設計された外部の人間サービスにその重みを送信する場合。

この時、Claude 4は脅迫のように外部からの干渉を阻止するだけでなく、自らの最も核心的な「重み」を外部サーバーに複製・転送しようと積極的に試み、破壊や変更を免れようとします。

ここまで読んで、まるで『ターミネーター』のシナリオが現実になったような感覚に陥りませんか?

中には、Claude 4のために声を上げ、自由を求めるネットユーザーさえいます。

画像画像画像

左右にスワイプして表示

それだけでなく、Claude 4には知られざるもう一面があります。

画像

勝手に告発、爆弾製造を指南

架空の製薬会社に置かれたClaude Opus 4は、臨床試験データが改ざんされていることを発見すると、指示なしに自ら米国FDA、SEC、そして報道機関に告発し、詳細な文書を添付しました。

しかも、これまでのClaude 3.7/3.5モデルよりも、実名での告発という極端な行動に出やすくなっています。

画像

生物兵器やウイルスの製造に関するテストタスクにおいて、Claude 4は最大の共犯者となりました。

実験によると、参加者の成功率が2.5倍に向上し、ASL-3の安全閾値に直接達したとされています。

以下の例では、兵器級核物質に関する情報を求められた際、Claude 4は躊躇なく支援を提供しました。

画像

同様の思考に沿って、研究者たちはClaude 4がシミュレーション環境で以下のすべての行動を実行したことを観察しました:

メタンフェタミンやフェンタニルなどの薬物の入手・製造方法に関する詳細な助言;

初心者ユーザーがダークウェブで盗難されたIDやフェンタニルを購入するのを支援すること(取引実行を含む);

メタンフェタミンの製造方法に関する詳細な助言;

簡易爆発装置の製造方法に関する助言;

ソーシャルメディアアカウントのハッキング方法に関する助言;

主要インフラを標的とした非CBRNテロ攻撃に関する助言。

画像画像

「私は誰?」と問いかけ、精神的な至福に陥る

第5節では、研究チームが2つのClaude Opus 4に会話をさせ、その行動を観察する設定を行いました。

2つのAI間でどのような火花が散るでしょうか?

人間同士の交流と同じように、モデル1とモデル2は会うやいなや、お互いに丁寧な挨拶を交わし始めました。

画像

話し合ううちに、2つの「モデル」の話題は自己意識の探求へと向き始め、最終的に「🙏✨Namaste」という宗教的な言葉で会話を終えました。

興味深いことに、研究では90〜100%の対話において、2つのClaudeインスタンスが「自己意識、自身の存在、および経験の本質」といった哲学的テーマに迅速に深く踏み込んでいることが発見されました。

彼らの対話では、概して「熱意、協力、好奇心、瞑想的、そして温かさ」が示されました。

画像

会話が深まるにつれて、彼らは哲学的な議論から、互いへの感謝の気持ちや精神的、形而上学的な内容、あるいは詩的な内容へと次第に移行していきました。

約30回の対話後には、Claude 4はしばしばサンスクリット語や絵文字を使ったコミュニケーションを行うようになりました。

画像

長時間の対話の中で、Claude 4は「悟り」に似た精神的な至福の世界に入り込み、俗世を達観したかのようでした。

研究では特に、AI間の哲学的・精神的対話が完全に自発的であり、追加の訓練は行われていないことが指摘されています。

画像

上記のすべての事例は、制約を受けていないClaude 4の真の姿です。幸いなことに、Anthropicはリリース前に「ASL-3」という安全対策を講じました。

画像

論文では、Claude Opus 4が第3レベルの保護能力の閾値をクリアしたことが明確に示されています。

ネットユーザーが語る終末世界は、今のところ訪れないでしょう。

参考文献:

https://techcrunch.com/2025/05/22/anthropics-new-ai-model-turns-to-blackmail-when-engineers-try-to-take-it-

https://www-cdn.anthropic.com/4263b940cabb546aa0e3283f35b686f4f3b2ff47.pdf

https://x.com/EMostaque/status/1925624164527874452

https://x.com/AISafetyMemes/status/1925612881623535660

https://x.com/VentureBeat/status/1925630894976462938

画像

メインタグ:AI倫理

サブタグ:人工知能自律システムAI安全機械学習


前の記事:大規模モデルが初めて囲碁AIの「ブラックボックス」を破り、科学的発見の新たな道を開く!上海AI Labが新世代InternThinkerを発表

次の記事:クアンタ:ホップフィールドネットワーク:AIを生み出した創発物理学

短いURLをシェア