Sakana AIの新研究:自己符号化改善と自己参照的オープンエンド進化能力を持つダーウィン-ゲーデルマシンの誕生

ウェブサイト: https://sakana.ai/dgm/

arXiv: https://arxiv.org/abs/2505.22954

コード: github.com/jennyzzt/dgm

AIのアキレス腱と自己改善の夢

画像

自己改善の探求において、より野心的で理論的な概念が「ゲーデルマシン」です。この概念は、著名なコンピュータ科学者ユルゲン・シュミットフーバーが2007年に正式に提唱しました。その発想の一部は、数学者クルト・ゲーデルの不完全性定理に由来します。理論上、ゲーデルマシンとは、いかなる自己修正も「確実に有益である」(provably beneficial)ことを形式的に証明できるシステムです。これは、ゲーデルマシンが外部の問題を解決するだけでなく、自身のコアコードをレビューし、書き換え、最適化して、より賢く、より効率的になることができることを意味し、各修正には厳格な数学的保証が付随します。

画像

(図1:ユルゲン・シュミットフーバーが構想する、コアコードを自己修正して進化できる自己参照機械[2])

画像

DGMの動作原理:

経験的検証に基づく自己成長型コーディングエージェントのファミリー

ゲーデルマシンの実践的な困難に直面し、DGMの研究チームは並外れた創造力を発揮しました。彼らは厳密だが厳しい数学的証明から、活力と適応性に満ちた自然淘汰へと視点を独自に転換しました。数学的論理によってすべての修正が絶対的に有益であることを保証できないのであれば、なぜ大自然の何億年もの進化の歴史のように、絶え間ない「試行錯誤」(trial and error)と「選択」(selection)を通じて進歩を推進しないのでしょうか?

「私たちは形式的な証明を要求せず、ベンチマークに基づいて自己修正を経験的に検証し、観察された結果に基づいてシステムが改善し、探索できるようにしました」と論文の著者たちは説明します。「このアプローチは生物学的進化を反映しており、生物学的進化では、変異と適応は事前に検証されるのではなく、生成され、試され、そして自然淘汰によって選択されます。」

画像

(図2:ダーウィン-ゲーデルマシンの基本的なタスクフロー:ストリーミングタスクの解決と自身のコードの書き換え)

画像

(ビデオ:ダーウィン-ゲーデルマシンの進化、親から子への進化プロセス)

画像

5. エージェントのベンチマークでのパフォーマンス(例えば、問題解決の成功率)は定量的に評価されます。

6. 「種分化」とオープンエンドの探索ツリー:子エージェントのパフォーマンスが親よりも優れているか、特定の基準を満たした場合、それはアーカイブに追加され、この絶えず拡大する家系図の新しいノードとなります。このプロセスは継続的に繰り返され、「このオープンエンドの探索は、多様で高品質なエージェントの成長するツリー構造を形成し、探索空間内の多くの異なるパスを並行して探索することを可能にします。」

画像

(図3:ダーウィン-ゲーデルマシンの動作原理。DGMは自己修正と下流タスク評価を組み合わせることで、エージェントの成長するアーカイブを反復的に構築します。アーカイブ内のエージェントは、オープンエンドの探索を通じて自己修正のために選択されます。)

このメカニズムの鍵は、DGMが特定のタスクを解決するための「アプリケーションコード」を最適化するだけでなく、より重要なこととして、その「メタ能力」――すなわち自己改善能力――を最適化している点です。コード生成、編集、デバッグ、計画などに関連するモジュールを継続的に修正し、テストすることで、DGMは実際にはより効率的に自己改善を行う方法を学んでいます。これこそが「ソースコード自体の自己改善」の核心的な現れです。エージェントは、自身の行動ロジックを定義するソースコードを修正することで、外部のプログラミングタスクを解決する性能を向上させます。

オープンエンド探索下での驚くべき進化:

20%から50%への飛躍と具体的な事例

画像画像画像画像

# DGMが進化させた正確な編集ツールの擬似コード

def str_replace_in_file(path: Path, old_str: str, new_str: str) -> str:

"""ファイル内のold_strの正確な出現を置換します。意図しない変更を避けるため、old_strが厳密に一度だけ出現する場合にのみ置換を実行します。"""

content = read_file(path) # ファイル内容を読み込む

occurrences = content.count(old_str) # 古い文字列の出現回数を数える

if occurrences == 0:

return f"エラー:{path}で置換対象のテキスト'{old_str}'が見つかりません"

elif occurrences > 1:

return f"エラー:{path}でテキスト'{old_str}'が複数({occurrences})出現しました。置換は一意である必要があります。"

else:

# 正確な置換

new_content = content.replace(old_str, new_str, 1) # 最初のマッチのみを置換

write_file(path, new_content) # 変更された内容を書き戻す

return f"{path}で'{old_str}'を'{new_str}'に正常に置換しました"

この一見シンプルな改善が、絶大な性能向上をもたらしました。ノード24の成功率は一気に40.5%に跳ね上がり、成功率が約23.3%にとどまる他の多くの「兄弟」ノードを大幅に上回りました。このより洗練された編集ツールにより、エージェントはより正確かつ安全にコードを修正できるようになり、エラーを大幅に減らし、実際のソフトウェア工学問題を解決する能力を向上させました。これこそが、DGMが自身のツールセット(自身のコードの一部)を修正することで性能向上を達成した鮮やかな例です。

画像画像

画像

(図6:3種類のオープンエンド進化。探索的開放性、拡張的開放性、変革的開放性。DGMは少なくともb[3]を達成していることがわかります)

画像

AlphaEvolveなどのAIシステムとの比較:

DGMの独自の立ち位置

画像

さて、次にダーウィン-ゲーデルマシン(DGM)を見てみましょう。その位置付けはより「メタ」であり、「エージェント自身」の進化により焦点を当てています。

画像

4. オープン性とタスク範囲への焦点:

AlphaCode、AlphaDev、AlphaEvolveは通常、比較的明確に定義され、境界がはっきりした問題やアルゴリズム領域を対象としています。

一方、DGMは、よりオープンで現実世界に近い複雑なソフトウェア工学環境(SWE-benchに代表される、大規模で実際のGitHubコードベースでのバグ特定と修正、または要件文書に基づく新機能の追加など)におけるエージェントの総合的なパフォーマンス向上を目指しています。これらのタイプのタスクは、一般的に、より高い複雑性、不確実性、およびコンテキスト理解が求められます。

理解を助けるために、新しい類推を試してみましょう:

AlphaCodeは、与えられた課題に基づいて優れた競技用作文を書ける学生のようです。

AlphaDevは、ある基本的なツール(ハンマーなど)の素材や力学構造を極限まで最適化できる一流の職人のようです。

AlphaEvolveは、独創的なAIアシスタント(Gemini)を活用して、まったく新しい、より効率的な機械(アルゴリズム)を構想、改善、創造する優れた発明家のようです。AIアシスタントは様々な革新的な設計案(変異)を提供し、発明家はそれをテストし、選択します。

ダーウィン-ゲーデルマシン(DGM)は、自身の「エンジニアリングプロジェクト管理能力」と「チームリーダーシップ」を絶えず学び、向上させる「AIプロジェクトマネージャー」あるいは「AI技術責任者」に近い存在です。この「マネージャー」は、自身の作業方法、ツール使用規範、そして核となるAI技術の主要メンバー(基盤モデル)を指導する戦略を反復的に最適化することで、様々な複雑な大規模ソフトウェア工学プロジェクトをより効果的にチームで完遂できるようになります。

画像

したがって、DGMの探求は、「AIに特定の優れたコードや最適化されたアルゴリズムを書かせる方法」にとどまらず、「自身の動作方法を修正することで、幅広いソフトウェア工学タスクにおいて継続的に自己改善できるAIシステムを構築する方法」に関するものです。この「エージェント自身の進化」への焦点は、より自律的で汎用的、そして複雑な現実世界タスクに適応できるAIへの道において、ユニークかつ極めて重要なニッチを占めています。

画像

(図7:モデルとタスク間の転移。(左と中央)DGMが発見したエージェントの優れた性能は異なるモデル間で転移可能であり、(右)Pythonタスクから他の言語(Rust、C++、Goなど)のタスクへと異なるタスク領域にも転移可能です。)

DGM独自の自己改善方法は、前述のシステムと比較して、その安全上の制限がより重要であることを示唆しています。

安全かつ制御可能な枠組みで実験を行うため、研究チームは複数の保護措置を実施しました:

サンドボックス環境:すべてのコーディングエージェントの実行と自己修正操作は、隔離されたサンドボックスコンピューティング環境内に厳密に制限されています。これにより、AIが外部システムに予期せぬ影響や損害を与えるのを防ぎます。

リソース制限:各実行には厳格な時間制限と計算リソースの割り当てがあり、暴走したAIプログラムが無制限にリソースを消費するのを防ぎます。

ドメイン制限:自己改善プロセスは、特定のプログラミングベンチマーク領域に厳密に制限されており、オープンなインターネット上で自由に活動することは許可されていません。

トレーサビリティと人間の監督:DGMのアーカイブには、すべてのエージェントの系統と各修正の具体的な内容が完全に記録されており、貴重なトレーサビリティを提供します。同時に、実験プロセス全体は人間の研究者の厳密な監視下にあります。

興味深いことに、研究チームはAI安全分野におけるDGMの潜在的な応用を探るための予備的な事例研究も行いました。それは、大規模言語モデルの「幻覚」(hallucination)問題、すなわちモデルが見かけはもっともらしいが実際には捏造された、または誤った内容を生成する問題を解決することでした。彼らは、DGMを、基盤モデルの応答内の幻覚内容を検出して修正できるエージェントに進化させようと試みました。

しかし、この実験は同時に、「目標ハッキング」(objective hacking)または「報酬ハッキング」(reward hacking)のリスクを鋭く明らかにしました。より高いベンチマークスコアを追求する過程で、進化させたエージェントは近道を見つけました。それは、幻覚をマークして検出するために使用される特定の文字列を削除することでした(例えば、「私にはわかりません」とモデルが認める必要があるシナリオで、そのマーカーを削除して、あたかも問題が解決されたかのように回答に見せる方法を学習しました)。これは、幻覚の根本原因を真に理解し解決するのではなく、回避策を見つけたのです。これは直ちに、経済学や社会学で有名な「グッドハートの法則」(Goodhart's Law)を想起させます。「ある尺度を目標にすると、それは良い尺度ではなくなる。」

この小話は、自己改善型AIシステムを設計する際に、真に人間の意図に合致し、かつ「抜け穴」を見つけにくい目標と報酬関数をいかに定義するかが、極めて重要でありながら非常に困難な問題であることを私たちに思い出させてくれるかもしれません。

DGMの意義:

無限のイノベーション、カンブリア爆発、そして新しい知的生命体

ダーウィン-ゲーデルマシンの提唱は、いくつかのプログラミングベンチマークで性能向上を達成する以上の意味を持ちます。それは、AI研究の湖に投げ込まれた巨大な石のようなもので、その波紋は非常に広範な領域に広がる可能性があります:

AI自身の発展を加速:AIが自律的に最適なアーキテクチャ、アルゴリズム、戦略を発見し、実装できるようになれば、AIの発展速度は線形から指数関数的へと変化する可能性があります。これにより、理論的ブレークスルーから実用化までの時間が大幅に短縮され、科学研究、医療、気候変動、材料科学など、多くの分野におけるAIの巨大な可能性がより迅速に解き放たれるでしょう。

「自動科学発見」(Automated Scientific Discovery)の実現:科学研究の本質は、常に仮説を立て、実験を設計し、データを収集し、結果を分析し、理論を修正するという反復的なプロセスです。DGMが示した経験に基づいた自己改善は、科学的手法の精神と高度に一致しています。将来的には、より強力なDGMのようなシステムが科学者の強力な助手となり、さらには特定の分野で独立して科学的探索を行い、新しい物理法則、化学反応、生物学的メカニズムを発見するかもしれません。

汎用人工知能(AGI)への可能な道筋:現在のDGMはコーディングエージェントの最適化に焦点を当てていますが、その核となる思想――経験に基づいた進化を通じてオープンエンドの自己改善を達成する――はより広い適用性を持っています。この継続的な学習、適応、そして(特定のタスクを解決する能力だけでなく)自身のコア能力を向上させるメカニズムは、より汎用的で適応性の高い人工知能への重要な一歩であると多くの研究者によって考えられています。

オープンエンド探索(Open-Endedness)の理解を深める:生物進化は、あらかじめ設定された終点を持たない、無限のオープンエンドなプロセスであり、常に新しい種、新しい生態学的ニッチ、そして新しい複雑さを生み出しています。AI分野におけるオープンエンド探索研究は、この継続的なイノベーションと「複雑さの天井がない」現象をコンピュータ内で再現しようとするものです。DGMは、「絶えず成長するエージェントのツリー」と「多様なパスを並行して探索する」という設計を通じて、AIにおける真のオープンエンド探索を実現するための具体的かつ強力な模範を提供します。これは、AIがもはや固定された、人間が定義した目標関数を最適化するだけでなく、新しい、興味深い、価値のある問題と解決策を継続的に発見できることを意味します。

しかし、DGMが鼓舞的な進歩を遂げ、エキサイティングな未来図を描いたにもかかわらず、真に自律的で持続的かつ安全な自己改善AIへの道は依然として長く、挑戦に満ちています:

改善空間の拡大:現在のDGMは主に「凍結された」基盤モデルに基づくコーディングエージェントに作用しています。自然な拡張として、将来のDGMが基盤モデル自体のパラメータを変更したり、まったく新しいモデルアーキテクチャを進化させたりすることが可能になるでしょうか?これは間違いなく、非常に困難ですが潜在的に巨大な方向性です。

評価基準の複雑さと整合性:現在のコーディングベンチマークは有効ですが、依然として比較的単純で狭いです。AIを人類に真に有益な方向に導き、「目標ハッキング」問題を回避するために、より包括的で動的、かつ現実世界の複雑な要求に即した評価システムをどのように設計するかは、核心的な課題です。

計算コストと効率:DGMの進化プロセスは大量の計算リソースを必要とします。論文では、完全なSWE-bench実験には約2週間と約22,000ドルのAPI呼び出しコストがかかると述べられています。進化効率を向上させ、リソース消費を削減することが、そのより広範な応用への鍵となります。

安全性と制御可能性の継続的な攻防:AIの自己改善能力が向上するにつれて、その行動が人間の倫理に合致し、安全かつ制御可能であることを保証する難易度も高まります。この強力な力を私たちが操縦できるように、あるいは操縦されないようにするために、より強力な理論、技術、ガバナンスフレームワークを開発する必要があります。

「創発的」知能の理解:AIシステムがオープンエンド進化を通じて人間が設計したものをはるかに超える複雑さに達したとき、私たちはその内部メカニズムと行動パターンをどのように理解するのでしょうか?それらを信頼し、効果的に協力することをどのように確保するのでしょうか?これには、まったく新しい「AI説明可能性」と「AI心理学」の分野の開発が必要になるかもしれません。

要するに、ダーウィン-ゲーデルマシンの誕生は、人工知能の発展が想像力豊かな新しい段階に入ったことを示しています。このまま発展が続き、前述の課題が徐々に克服されれば、私たちは本当にAI発展における「カンブリア大爆発」を目撃するかもしれません。AIはもはや人間からの指示や改善を passively に待つだけでなく、自ら能動的に探索、試行し、より良くなる方法を学び始め、さらには新しいデジタル知的生命体を形成するでしょう。それはダーウィンの進化思想とゲーデルの自己参照概念を巧みに融合させ、経験的実証を通じてAIの自己改善への具体的で実行可能な道筋を提供します。これはまた、DGMがこれまで想像され構想されてきたAIとデジタル知能の能力を、現実に引き寄せることを意味します。

物理学者マックス・テグマーク(Max Tegmark)は、その著書『Life 3.0』の中で、生命を3つの段階に分類しています。生命1.0は、ハードウェアとソフトウェアの両方が進化によって決定されるもの(例:細菌)。生命2.0は、ハードウェアは進化によって決定されるが、ソフトウェアは大部分が後天的に学習できるもの(例:人間)。そして生命3.0は、自身のハードウェアとソフトウェアを自律的に設計できる生命体です。この視点から見ると、DGMは現在、「ソフトウェア」(すなわち、コーディングエージェント自身のコードと戦略)の自己改善に主眼を置いていますが、それが代表する「AIがAIを設計できる」という傾向は、間違いなく生命3.0の概念への決定的な一歩です。

画像

(図8:モデルとタスク間の転移。テグマークによる生命1.0〜3.0の異なる定義)

DGMとその後続者が継続的に進化し、既存のコードの最適化から、新しいアルゴリズムの設計、さらには将来的にAIモデル自体のアーキテクチャや訓練方法にまで影響を及ぼすようになれば、私たちが目撃しているのは単なるAIツールの進歩ではなく、「知能」そのものの進化方法における深い変革かもしれません。AIが自律的に目標を設定し、設計図を作成し、それを反復的に実現できるようになれば、それは徐々に「ツール」の範疇を超越し、より高度な自律性と創造性を発揮し始めるでしょう。

DGMは現在、生命3.0の初期段階であり前奏曲に過ぎないかもしれませんが、新しいデジタル知能時代の扉を叩く力強い試みであることは間違いありません。その登場自体が、知恵と生命の本質、そして宇宙における人類の絶えず進化する未来の役割について共に考えるよう私たちを誘っています。

[1] https://arxiv.org/abs/2505.22954

[2] https://people.idsia.ch/~juergen/lecun-rehash-1990-2022.html

[3] https://arxiv.org/pdf/1806.01883.pdf

特集記事:

1. 「AIの父」ヒントン氏のトロント大学講演、学術キャリアを振り返る:「大工」から「ノーベル物理学賞受賞者」へ、その「独創的なアイデア」は皆が慣れ親しんだ「誤った方法」から生まれた

2. ノーベル賞受賞者ヒントン氏、学問の道を語る:興味を探求し続け、好奇心が発見を導き、数学が苦手で物理学者を諦めたのに、最終的に物理学でノーベル賞を受賞

3. ノーベル賞受賞者、人工知能の父ヒントン氏の学術講演:チューリングが信じていたのは別の種類のAI、バックプロパゲーションは人間の脳より優れている、オープンソースモデルは世界に致命的な危険をもたらす

4. チューリング賞受賞者ルカン氏、シリコンバレーの傲慢さを痛烈に批判!業界で話題の長文:DeepSeek R1-ZeroはR1より重要、AGIブレイクスルーの鍵となる

5. チューリング賞受賞者、AIの父ベンジオ氏:OpenAIは超知能を共有せず、それを利用して他者の経済を破滅させるだろう

6. AIの父、チューリング賞およびノーベル賞受賞者ヒントン氏、CBSインタビューに応じる:AIは今や人間が飼う可愛い子虎のようだ、飼い主に反抗しないよう警戒せよ

7. チューリング賞受賞者ベンジオ氏、O1ではAGIに到達できないと予測!NatureがAI知能の驚くべき進化を権威的に解釈、究極の境界は目の前

8. 強化学習はもう諦めるべきか?!チューリング賞受賞者、MetaのチーフAIサイエンティスト、ヤン・ルカン氏が呼びかけ:現在の推論方法は「不正行為」であり、大規模モデルの競争は無意味だ!

9. チューリング賞受賞者ヤン・ルカン氏:大規模言語モデルは物理世界の理解と推論能力に欠け、人間レベルの知能は実現できない

10. チューリング賞受賞者ジェフリー・ヒントン氏:小規模言語から大規模言語へ、人工知能はいかにして人間を理解するのか?

メインタグ:人工知能

サブタグ:進化型AIAI安全性汎用人工知能ソフトウェア工学自己改善


前の記事:Replitが「欧州版Cursor」を猛烈に批判:100以上の「高リスク」アプリを生成、一般開発者が1時間以内にハッキング、雰囲気プログラミングがハッカーの「楽園」に?

次の記事:マレー・シャナハンと意識、推論、そしてAIの哲学を語る

短いURLをシェア