Ilyaの最新インタビュー:人間が数時間で学べることを万卡クラスターができないのはなぜか?「計算力スケーリング時代」から「研究時代」に戻っている

Ilya Sutskeverがついに姿を現しました、しかも90分以上の深いインタビューです!

昨年、Ilya SutskeverがOpenAIを去ったニュースはテック界全体を震撼させました。深層学習分野の伝説的人物として、AlexNetからAlphaGo、GPTシリーズに至るまで、過去10年間のAIの主要なブレークスルーのほとんどに彼の名前が密接に関連しています。

画像

現在、彼は新しい会社Safe Superintelligence (SSI)を設立し、「超知能」の研究に専念していますが、公の場にほとんど姿を見せません。

本日、彼はDwarkesh Patelのインタビューに登場し、現在のAI発展段階の判断、コア技術的ボトルネック、未来の構想を体系的に語りました。

Ilyaの核心的見解は:私たちは「計算力スケーリング」(Scaling)を核心とする時代を終え、「基礎研究」(Research)を駆動とする時代に回帰しているということです。

(本記事は部分情報の抜粋のみです。情報量が大きい原動画を自分でご覧になることをおすすめします)

AIの「ギザギザ状」最前線:モデルが時に天才、時に愚かである理由は?

私たちは現在のAIモデルの矛盾を感じています。一方で、様々な複雑なベンチマークテスト(evals)で驚異的なスコアを達成し、かつて人間専用と思われた問題を解決しています。しかし、他方で実世界アプリケーションでのパフォーマンスは非常に不安定で、経済的影響力も期待を下回っています。

Ilyaはこの現象をモデルの「ギザギザ状」能力境界と呼びます。彼は生々しい例を挙げます:

「モデルにコードを書かせると、bugが発生します。bugを指摘すると、『おお、あなたの言う通りです、すぐに修正します』と言います。すると2つ目のbugを導入します。新たなbugを伝えると、『どうしてこんなミスを?』と言って最初のbugを元に戻します。」

なぜこうなるのか?Ilyaは2つの可能な説明を挙げます:

説明一:強化学習(RL)訓練の副作用。

現在の強化学習、特に人間フィードバックに基づくRLHFは、モデルを「過度に集中し狭隘」にさせる可能性があります。特定タスクで高得点を取るために「手口」を学びますが、これが全体意識と常識判断を損ないます。

説明二:研究者の無意識の「報酬ハック」。

現在のモデルが「問題解答専門の秀才」のように見えるのは、訓練環境を「コンテストで1位を取るため」に設計したからです。「品のあるプログラマーになるため」ではありません。

Ilyaは、真の「報酬ハック」は人間研究者に起こっていると考えます。モデル公開時にリーダーボードで良く見せるため、研究チームは無意識に評価ベンチマークを中心にRL訓練環境を設計します。「このタスクでモデルを良くするRL訓練は何?」と問います。

画像

これによりモデルは評価に過剰適合し、実世界ではなくなります。Ilyaは比喩を挙げます:

「2人の生徒がいるとします。生徒Aはトッププログラミングコンテスト選手を目指し、10,000時間練習し、全アルゴリズムと証明を暗記、結局チャンピオンになります。生徒Bも興味があり100時間練習で良い成績。将来のキャリアでどちらが優れるか?」

答えは明らかに生徒Bです。本物の理解と一般化能力があります。私たちのAIモデルは生徒Aの極端版です。既知の全コンテスト問題を集め、データ拡張でさらに作り訓練します。当然コンテストで高得点ですが、「センス」と「判断」を要する他のソフトウェア工学タスクへの一般化は期待しにくいです。

この評価過剰最適化とモデルの「不十分な一般化能力」が、今日見るベンチマークと実世界の巨大ギャップを説明します。

「計算力スケーリング時代」から「研究時代」へ回帰:私たちは何をScaleしているのか?

Ilyaは、スケーリング法則の成功は企業決定に低リスクのリソース投入法を提供した点にあります。特定規模のニューラルネットに計算力とデータを比例投入すれば良い結果が得られるからです。

IlyaはAI発展をいくつかの段階に分けます:

• 2012-2020: 研究時代 (Age of Research)。研究者が新アイデア・新アーキテクチャを試行。AlexNet、ResNet、Transformerなどがこの時代の産物。

• 2020-2025: スケーリング時代 (Age of Scaling)。GPT-3とスケーリング法則の登場で、単純だが極めて効果的な「レシピ」が判明:より多くの計算力・データ・大規模モデルで事前訓練(Pre-training)すれば良くなる。「Scaling」は業界に低リスク高確実投資方向を示す魔法の言葉。

• 2025-?: 研究時代への回帰 (Return to the Age of Research)。今、スケーリングの魔法が効かなくなり、新ブレークスルー研究を再開せねば。

画像

なぜこの転換が起こるか?

まず、事前訓練データは有限。インターネットの高品質テキストデータが枯渇中。Googleのような巨人がGeminiでデータを絞り出しても、データ自体は有限。

次に、計算力を100倍にしても質的変化を保証しない。Ilyaは業界が「計算力増やせば全て解決」の信念を失ったと見ます。

「Scaling」が万能鍵でなくなると、全分野が新・効率的計算利用法を探す。探索・革新の「研究時代」に戻りますが、今度は史上最強のコンピュータを手に。

IlyaはTwitterの言葉を引用し、シリコンバレーの「実行が王道、アイデアは安い」を皮肉ります:

「アイデアが本当に安いなら、なぜ今誰も新アイデアを出せないのか?」

「スケーリング時代」では計算力がボトルネックで、単純スケーリングで大成功。今計算力が空前巨大になると、「アイデア」がボトルネックに。業界は「会社>アイデア」の尴尬状態。

これがSSIのような会社の好機。新パラダイム上無限リソース積み重ねではなく、全く新しいアイデアからのブレークスルーを賭けます。

大規模モデルの核心ボトルネックは一般化能力

研究時代に戻ったなら、核心研究問題は何?Ilyaの明確回答:一般化(Generalization)。

「これらのモデルは一般化能力で人間をはるかに下回る、これは明らか。非常に根本的な問題だ。」

人間の学習効率・一般化はAIが及ばない。ティーンエイジャーは十数時間で運転を学びますが、自動運転は数十億マイルのデータ必要。五歳児はデータ量・多様性が極限でも世界に頑健な認知を持つ。

Ilyaは視覚・運動能力は数百万年進化の「事前知識」としますが、プログラミング・数学のような近代スキルでも人間は強力学習を示す。これは人間がより根本・優れた機械学習アルゴリズムを持つ示唆。

このアルゴリズムの鍵は?Ilyaが挙げる重要概念:価値関数(Value Function)。

強化学習で、価値関数は中間状態でどれだけ良いかを代理に教え、タスク完了を待たず報酬。チェスで全敗を待たず「女王を取るのは悪い手」と知るよう。学習効率を劇向上。

Ilyaは人間に極強内蔵価値関数があり、感情(Emotions)がその重要部分と。神経科学事例を引用:

「脳損傷で感情処理能力失った患者。賢く雄弁、論理パズル解くが、生活決断不能。何時間も靴下選び、破滅的財務決定。」

この事例は進化符号化感情が、複雑世界で有効行動する単純だが頑健決断ガイドを提供することを示す。

現AIモデルの価値関数は脆弱、ほぼ無し。Ilyaは人間のような頑健価値関数構築が一般化解決の鍵と信じる。

これは兆ドル問題。Ilyaは多くのアイデア有るが、「残念ながら、全機械学習アイデアが自由討論できる世界に住んでいない」と。SSIの秘密方向が主流RLパラダイムと根本異なると示唆。

画像

SSIのパス:「超知能」再定義

IlyaはAGI(汎用人工知能)用語に反省。将棋専用「狭義AI」(Narrow AI)と区別するため生まれ、「Pre-training」と結びつき、海量データ事前訓練の全知全能完成品という未来AI想像を形成。

だがIlyaはこの想像が過ぎると指摘、人間自身さえこの意味の「AGI」ではない。基礎スキル有るが、大半知識は「継続学習」(Continual Learning)で得る。

故にSSIの超知能は静的全知「完成品」ではなく、「超知能の15歳少年」のようなもの。

「偉大な生徒、学習熱心。何でも学べるプログラマー、医者へ送れる。世界に展開された完成品ではなく、展開中継続学習・試行錯誤のプロセス。」

極重要パラダイムシフト。未来超知能は一度訓練「神」ではなく、超凡学習能力「学習アルゴリズム」。経済各隅に展開、人間社員並み組織加入、職上でドメインスキル学習。

鍵は分散AIインスタンスが「学習成果合併」。一方が手術学び、他方が法律文書執筆、知識スキル統一モデル統合。これは人間不可。

このモードは2結果:

1. 機能的超知能:アルゴリズム再帰自己改善なしでも、全人間職業スキル同時習得で機能的全知。

2. 劇的経済成長:任意仕事高速学習超労働力大量展開で、一時極速成長必然。

SSIの超知能パスは一次性「爆発」ではなく、継続学習・広範展開の漸進プロセス。

アライメント難題と未来ビジョン

この強力継続学習AIの安全性・アライメント問題は深刻化。Ilyaの核心見解複数:

1. AI力は「実証」せねば。

AGI議論が空虚なのは存在せず想像しにくいシステム故。Ilyaは世界がAI力を真に感じて初めて安全本気になると。AI強力化で前例ない変化予測:

• 競合安全協力:OpenAI・Anthropic最近協力は始まり。

• AI企業「パラノイア」化:社内者がAI能力不安感じ、安全態度根本転換。

• 政府・公衆介入要求:外部圧力安全研究推進力。

2. アライメント目標:「全有情生命」関心。

主流はAIを人間奉仕だが、Ilya大胆論:全「有情生命」(sentient life)を気遣うAI構築。

人間限定より実現易い、なぜならAI自体最終「有情」だから。人間ミラーニューロン動物共感のように、自己意識AI他生命シミュで世界理解、自然全生命関心発生か。

当然新問題:未来AI数が人間激超。全有情AIが人間利益如何衡量?オープン問題。

3. 長期均衡:Neuralink++

Ilya遠未来思考。超知能主導世界で人間主体性如何?個人奉仕AI常見想定だが、人間を受動「報告レビュアー」にし、世界参加者でなくなる。

Ilya好まぬが最終解の道:Neuralink++類似技術で人間AI融合。

「AIが理解時、『卸売』情報伝達で我々も理解。AI状況時、完全参加。」

これで知能爆発未来で人間歴史積極参加者継続、受動傍観者非。

4. 進化示唆:未解謎

Ilya進化深刻謎題、アライメント驚似。進化如何「社会的地位」高級抽象概念を遺伝子にコード、生得欲求に?

低級欲(甘味渇望)易解、単純化学信号で報酬中枢接続。「社会評価関心」は大脳複雑計算必要。進化如何この高級計算結果を底層駆動接続?

Ilya未解謎と。進化のアライメント解決理解でAIアライメント重要示唆か。

研究の「センス」とは?

最高「研究センス」(Research Taste)保有公認のIlyaが方法論共有。創造作業者極大啓発。

研究センスは「AIは何であるべきかの美学」。要素複数:

• 美・簡潔・優雅(Beauty, Simplicity, Elegance):醜悪複雑方案無容身。正方向は美。

• 脳からの「正」インスピレーション(Correct inspiration from the brain):脳特徴根本的(神経元、分散表現、経験学習)か偶然(皮質皺)判断必要。

• 上位信念(Top-down belief):実験不調時継続支え?方向「こうでなければ」の強信念。上記美学・インスピ由来。方向誤かコードbug区別助け。

美学・第一原理駆動「上位信念」は研究無人地帯穿越・真ブレークスルー鍵。

まとめ

Ilya Sutskeverインタビューは主流ナラティブと一部異なるAI未来像描く。

この像で「計算力王」時代終幕、「一般化」等根本問題基礎研究が中心復帰。未来超知能は一次性訓練静的製品非、世界互动成長超強学習能力「学習アルゴリズム」。

安全確保にAI広「有情生命」関心、最終人機融合で宇宙人間主体維持必要。

起点は研究本質回帰:美学・第一原理駆動「センス」で簡潔優美正解探求。これがIlya SSI設立・未知探求再投入根本原因か。

世界待つ次「Transformer」瞬間、IlyaとSSIがもたらすか?

メインタグ:Ilya Sutskever インタビュー

サブタグ:AI スケーリング時代AI アライメントSSI 超知能一般化能力


前の記事:GitHubで1万Starを獲得、この国産AIアプリ開発プラットフォームすごい!

次の記事:MIT神経科学者が発見、人間知能とAIが厳格な論理法則の下で驚くほど一致

短いURLをシェア