先月末、DeepMindの伝説的なプロジェクト(AlphaGo Zero、MuZero)の主要貢献者であり、現在Anthropicのトップ研究者であるJulian Schrittwieserが、「[Failing to Understand the Exponential, Again]」(「私たちは再び指数関数的成長の力を過小評価している」)と題するブログ記事を発表し、AI界隈で瞬く間に話題となりました。
理由は簡単です。このブログ記事は重要な問題点を突きつけました:私たちはAIの成長速度について、一貫して誤解していた可能性があるのです。
最近の綿密なインタビューで、Julianは最先端AI発展の真の軌跡、今後1~2年の具体的な予測、そしてAlphaGoからAGIへの重要な進化経路について、改めて体系的に説明しました。
このトップ研究者の視点に立つと、驚くべき真実が明らかになります。
ポータル:https://www.julian.ac/blog/2025/09/27/failing-to-understand-the-exponential-again/
一、なぜ一般の人々はAIを繰り返し誤解するのか?
Julianは、人間が「指数関数的成長」に直面したときに一貫して鈍感であることを指摘します。この認知の錯覚は、新型コロナウイルスのパンデミック初期にも見られました。データが爆発的に増加しているにもかかわらず、社会はまだ遠いことだと感じていたのです。AIについても今、同じことが言えます。
Julianは、一般の人々が抱く2つの主要な認知バイアスをまとめました。
1. 指数曲線を無視する。
ほとんどの人々はAIの進歩を線形の視点から見ており、それが「減速している」か、あるいは停止するだろうと誤解しています。しかし、最先端の研究室のデータでは、AI能力の成長は極めて安定しており、指数関数的です。「バブル論」という主流の言説とは全く異なります。
2. 現在の誤りをもって永続的な判断を下す。
AIが現在時折間違いを犯すのを見て(例えば、プログラムを書いたり、ウェブサイトを設計したり)、それは永遠に人間レベルに達しないと考えるのです。そして、「AIは永遠に人間レベルでこれらのタスクを完了できない、あるいはごくわずかな影響しか与えないだろう」という結論に飛びつきます。
しかし、数年前には、AIにこれらのことをさせるのはSFの世界の話でした。連続した2世代のモデル間の対話に大きな違いが見られないのを見て、AIは既にピークに達し、スケーリングの時代は終わったと断言する人もいます。
ソーシャルメディアではAIバブルに関する議論が至る所で見られますが、Julianが最先端の研究室で目にするのは、全く異なる光景です。
「進歩の減速は見られません。むしろ、非常に安定した進歩が何年にもわたって継続しているのです。」
この進歩は、データによって正確に描写することができます。
二、AIの長期タスク能力は7ヶ月ごとに倍増する
独立機関 METR(Model Evaluation and Testbed for Robustness)の研究報告書「Measuring AI Ability to Complete Long Tasks」(「AIの長期タスク完了能力の測定」)によると、
最先端モデルのタスク継続時間におけるパフォーマンスは、安定した倍増曲線を示しています。
• 2024年中期には、Claude Sonnet 3.5は独立して約30分のタスクしか完了できませんでした。
• 2025年には、Sonnet 3.7は約1時間連続で自律作業ができるようになりました。
この傾向を外挿すると、AIの長期タスク能力は7ヶ月ごとに倍増します。最新世代のGPT-5、Grok 4、Opus 4.1などのモデルのパフォーマンスは既にこの傾向予測線を上回り、2時間を超える長さのタスクをこなすことができます。
Julianは指摘します。
「これは、モデルが既に中規模プロジェクトで人間によるリアルタイムの介入なしに独立して動作できることを意味します。」
このような能力の向上は、「線形的な積み重ね」ではなく、指数関数的な倍増です。
METRのトレンドラインに沿って外挿を続ければ、わずか1年強でAIは丸一日連続で作業できるようになります。
「ソフトウェアエンジニアリングタスクからより広範な経済領域へ一般化するのは適切なのか?」と反論する人もいるかもしれません。
三、AIは人間エキスパートに迫り、委託可能性が拡大中
幸いなことに、もう一つ参考になる研究があります。OpenAIのGDPval評価です。これは9つの業界の44の職種でモデルのパフォーマンスを測定しています。
この評価では:
• 各タスクは平均14年の経験を持つ業界エキスパートによって設計され、
• モデルと人間の解答がブラインド評価で比較されました。
結果は、GPT-5、Claude Opus 4.1が既に人間エキスパートの平均レベルに近づいていることを示しています。
これらの異業種データが示すのは:
AIの「委託可能性」が急速に拡大しているということです。
もしモデルが10分ごとに人間のフィードバックを必要とするなら、その効率は大幅に制限されます。しかし、モデルが数時間継続して作業し、専門レベルでエキスパートに匹敵するようになれば、それはもはや単なるツールの複製ではなく、タスクをバッチ処理で委託し、チームとして管理できる「仮想的な協力パートナー」となるのです。
Julianは、保守的なトレンドの外挿であっても、2026年がAIの経済への広範な統合の重要な年となると推測するには十分だと考えています。
「データと過去のトレンドに対する単純な線形フィッティング外挿に基づくと、AIは今後1~2年以内に24時間体制の自律作業を実現し、専門分野でエキスパートレベルに到達、あるいはそれを超えることが予測されます。」
これに対し、彼は3つの時間軸に関する重要な予測を示しました。
• 2026年中期までに、モデルは丸一日(8労働時間)自律的に作業できるようになるでしょう。
• 2026年末までに、少なくとも1つのモデルが複数の業界で人間エキスパートのパフォーマンスに匹敵するでしょう。
• 2027年末までに、モデルは多くのタスクで頻繁にエキスパートを超越するでしょう。
これらは空想ではなく、データ外挿の結果です。Julianは、これが多くの「専門家の判断」よりも信頼できるかもしれないと述べています。
四、AI生産性革命の後には、AI創造性革命が起こる
それだけでなく、AIの価値は「効率的な作業」だけではありません。その創造力は、科学探求のペースをも書き換えています。
JulianのAI創造性に対する理解は、DeepMind時代に彼自身が経験したことに由来しています。2016年、AlphaGoが世界のトップ囲碁プレイヤーと対戦し、業界を驚かせた「37手」を打ちました。その一手は非常に異例で、プロ棋士でさえ驚きを隠せませんでした。
この一手は大きな意味を持っていました。AIが単に最適な経路を機械的に計算するだけでなく、真に斬新で創造的な意思決定もできることを証明したのです。
現在の言語モデルも、同様の創造力を持っています。新しいコードや論文の断片など、無限に斬新なコンテンツを生成できます。
本当の難しさは、「斬新さ」ではなく、「有用な斬新さ」にあります。
これを達成するには、タスクが十分に難しく、十分に興味深く、AIがアイデアの質を判断できる必要があります。新しい道を切り開きつつ、その道が実際に価値のあるものであることを保証するのです。
今日、この創造力は既に科学的発見に応用されています。
AlphaCodeは新しいプログラムを見つけ、AlphaTensorは新しいアルゴリズムを発見できます。Google DeepMindとYellも、生物医学分野でAIを使って新たな発見をしました。
Julianは次のように判断しています。
「おそらく来年には、AIが単独で達成し、科学界を揺るがすような発見が見られるでしょう。」
そして、現在の議論については、彼は非常に楽観的な態度を保っています。
現在、一部の成果にはまだ異論がありますが、このプロセスは常に前進しており、証拠が十分に明確になれば、異論は自然に消えるでしょう。
さらに期待されるのは、ノーベル賞級のブレークスルーです。
Julianはさらに、2027年か2028年までに、AIモデルは十分に賢くなり、ノーベル賞に値する科学的ブレークスルーを単独で達成できるようになると予測しています。
将来的には、AIが数学のフィールズ賞に挑戦することさえあるかもしれません。それは私たちが宇宙の謎を解き明かし、人類の生活水準を向上させるのに役立つでしょう。
言い換えれば、AIの生産性革命の後には、「創造性革命」が醸成されています。
五、AGIへの道筋と課題:事前学習と強化学習の組み合わせ
AGIについて語る際、Julianの判断は極めて明確です。
「新しい神秘的な技術は必要ありません。『事前学習+Transformer+強化学習』のパラダイムで、人間レベルの知能システムを実現するのに十分です。」
このパラダイムの有効性は、AlphaGoシリーズの進化で明確に示されています。
• AlphaGoはディープネットワークと自己対局によってトップ囲碁プレイヤーを打ち破った
• AlphaGo Zeroはこのプロセスを別次元に引き上げ、人間知識への依存を完全に排除し、ゼロから自己対局を行い、数日で初代を超越した
• AlphaZeroは論理をチェスや将棋に拡張し、ゲーム横断的な汎用性を実現した
• Mu0は、そのフレームワークを現実世界の強化学習問題にまで拡張した
彼の見解では、AGIは突然のシンギュラリティではなく、滑らかな曲線を描くでしょう。
技術的な難易度の上昇は現実的ですが、生産性の向上が研究コストの増加を相殺できる限り、進歩は停滞しないでしょう。
将来的に事前学習を放棄し、強化学習のみを使用するかどうかについて、Julianの答えは「おそらくないだろう」です。
「事前学習はいくつかの興味深い安全性視点をもたらします。私たちに似た価値観を持つエージェントを創造する」—事前学習は効率的であるだけでなく、AIが人間の価値観に合致するのを助けます。
科学的興味のために「ゼロからAI」を訓練する人もいるかもしれませんが、実用的なレベルでは、「事前学習+強化学習」が依然として主流です。
最終的に、AIの目標は「超知能」ではなく、気候変動、医療、教育といった地球規模の問題を解決することです。
「私たちは、人工知能が人類に奉仕し、人類に敵対しないことを確実にしなければなりません」—これこそが技術進化における最も核となる原則です。
六、結び
Julianの共有は、私たちが一つの認識を修正するのに役立っています。「現在のAI」を使って「未来のAI」を判断するな、ということです。
なぜなら、AIは指数関数的に成長しているからです。
今日「不可能」だと思われることも、来年には「日常の操作」になっているかもしれません。
丸一日自律作業することから、エキスパートに追いつき、さらには超越し、そして人類がノーベル賞を獲得するのを助けるまで——AIの進化速度は、私たちが想像するよりも速いのです。
Julianが言うように:
「人工知能はツールです—強力なツールであり、私たちが問題を解決し、かつて不可能だと思われていたことを達成するのを助けることができます。」
しかし、それはあくまでツールです。それを責任を持って使い、全人類に利益をもたらすようにできるかどうかは、私たちの手にかかっています。
未来がどれほど良いものになるかは、私たちがこのツールをうまく使いこなし、人類の味方につけることができるかにかかっています。私たちの前には巨大な機会があり、それを最大限に活用できるかどうかは、私たち自身にかかっています。
今後2~3年は、AIが世界を変える重要な時期となるでしょう。私たちは引き続き注目し、理性も保つべきです——その可能性を過小評価せず、その課題も無視しないように。