GPT-5 の発表は多くの人々を失望させ、Fast AI の創設者である Jeremy Howard のような業界の大物でさえ、「スケーリング法則の時代は終わりを迎えつつある」と主張しています。彼は、各研究室がマーク・ザッカーバーグの「Llama 4 の瞬間」に似た転換点を経験すると考えています。Grok はすでに経験しており、OpenAI もたった今経験しました。
では、スケーリング法則は本当に限界に達したのでしょうか?毕樹超(Shuchao Bi、元 OpenAI マルチモーダル後訓練責任者、YouTube Shorts 共同創設者で、マーク・ザッカーバーグの超知能研究所に高額で引き抜かれた)は否定的な回答を示しています。毕樹超は、スケーリング法則はデータ構造、つまり客観的な法則を反映しているため、常に有効であり、無効になるのはデータだけだと考えています。
最近、偉大な毕樹超氏はコロンビア大学で「シリコンベース知能の最前線を推進する:過去、未解決の問題、そして未来」と題する講演を行い、人工知能の発展に関する彼の深い思想を体系的に述べました。彼はまず、過去15年間のAI分野における2つの主要な発展経路—自己教師あり学習(Self-Supervised Learning)と強化学習(Reinforcement Learning)—を振り返り、「苦い教訓」(The Bitter Lesson)という核心的な思想を強調しました。それは、大規模な計算(Compute)とデータ(Data)が最終的に人間が丹念に設計した帰納バイアス(Inductive Bias)を凌駕するというものです。
講演の核心は、現在のAIの進歩が主に計算規模の拡大に由来しているものの、質の高いデータのボトルネックに直面しつつあるという点です。そのため、将来のブレークスルーは、計算を新しい知識やデータに変換できる高度な強化学習パラダイムにかかっています。スケーリング法則自体はデータの内在的な構造を反映する客観的な法則であり、無効になることはありません。本当の問題は、インターネット上の高品質でインテリジェントなテキストデータの大部分を使い果たしてしまったことです。
以下に詳細を記します。
1. 発展の軌跡:自己教師あり学習と強化学習の「二都物語」
Shuchao Bi は、過去10数年間の人工知能の発展を、二つの都市の物語に例えています。これらの二つの都市とは、自己教師あり学習(Self-Supervised Learning)と強化学習(Reinforcement Learning)です。それぞれが独立して発展し、近年になって合流し、現在の生成AI革命を共に推進してきました。
最初の都市:自己教師あり学習と規模の力
自己教師あり学習の波は、およそ2012年に始まりました。当時、AlexNet と呼ばれる大規模な深層学習モデルが、GPU と膨大なデータを利用して、ImageNet 画像認識チャレンジで驚異的な成果を収め、その誤認識率はこれまでのどの手法よりもはるかに低くなりました。この出来事の象徴的な意義は、十分なデータと計算能力があれば、ニューラルネットワークが人間が数十年間手作業で設計してきた視覚アルゴリズムを凌駕できることを証明した点にあります。これは当時のコンピュータビジョン分野にとって悪夢でした。なぜなら、研究者たちが過去数十年間かけて丹念に調整してきた特徴工学が、一夜にしてほとんど価値を失ったからです。この出来事は、学術界と産業界のニューラルネットワークへの関心を再燃させ、深層学習革命の始まりとして広く認識されています。
a. Word2Vec から Everything2Vec へ (2013):
Google が発表した Word2Vec モデルは、単語をベクトルで表現し、これらのベクトル上で意味のある数学演算(例:vector('king') - vector('man') + vector('woman') が約 vector('queen') になる)を実行できることを示しました。これは、言語の意味が代数構造に埋め込まれ得ることを証明しました。さらに重要なのは、これらの埋め込みベクトルが下流タスクで優れた性能を発揮し、その結果、あらゆるものをベクトル化できる(Everything2Vec)というトレンドが生まれました。レコメンデーションシステムにおける応用、動画、ユーザーなど、すべてがベクトルとして表現できるようになり、様々なアプリケーションの発展を大きく推進しました。
b. アーキテクチャと最適化の進化:
ResNet(残差ネットワーク, 2015年, 凱明・ホー氏の傑作): 深層学習が直面する主要な課題の一つは、非常に深いネットワークの訓練が極めて困難であることです。これは、逆伝播の過程で勾配が消失または爆発しやすいためです。ResNet はスキップコネクションを導入することで、この問題を巧みに解決しました。各層の入力が次の層に直接スキップされ、元の入力の一部として供給されます。これは、浅い層から深い層まで全てのネットワークを統合する一種の手法と理解できます。これにより損失曲面が非常に滑らかになり、最適化プロセスが大幅に簡素化されました。今日、ほとんどすべての現代のニューラルネットワークが同様の構造を採用しています。
Adam オプティマイザ (2014): Adam は標準化された学習アルゴリズムを提供し、研究者が膨大な学習パラメータを手動で調整する必要がなくなりました。特に大規模でノイズの多いデータセットに有効であり、訓練プロセスを簡素化し、現在も主流の最適化手法であり続けています。
c. Transformer (2017) - 革命の集大成
初期のシーケンスデータ処理モデル(RNN、LSTMなど)には二つの大きなボトルネックがありました。一つは、その再帰構造が並列化しにくく、モデルとデータの規模を制限すること。もう一つは、長いシーケンスを処理する際に勾配消失の問題に依然として直面することでした。2017年の論文「Attention Is All You Need」で提案されたTransformerアーキテクチャは、再帰構造を完全に放棄し、自己注意メカニズム(self-attention)のみに依存しています。多層ヘッド注意層とフィードフォワードネットワークを積み重ねることで、優れたデータ効率と並列処理能力を実現しました。これにより、これまでになく大規模なモデルの訓練が可能になり、ほとんどすべての最先端言語モデルやマルチモーダルモデルの基盤となるアーキテクチャとなりました。
AlexNet から Transformer までの自己教師あり学習の発展の軌跡は、リッチ・サットンが提唱した「苦い教訓」(The Bitter Lesson)を明確に裏付けています。
計算規模の拡大を十分に活用した汎用的な手法が、最終的に人間が精巧に設計した帰納バイアスに依存する手法を凌駕する。
私たちは、人間の事前知識(prior)をモデルに無理やり詰め込むのではなく、構造をできる限り簡潔にし、ただ学習したいだけのモデルを作成し、それから膨大なデータと計算で訓練すべきです。
第二の都市:強化学習と知能の探索
一方、強化学習の発展は、また別の様相を呈しています。それは、意思決定、探索、そして環境との相互作用により焦点を当てています。
ゲームから人間を超えるまで:
Deep Q-Network (DQN, 2015): DeepMind は、DQN が数百種類のアタリ(Atari)ゲームで人間をはるかに上回るレベルに達する能力があることを示しました。これらのAIは、人間のプレイヤーが思いつきもしなかった、エイリアンのような知的な戦略さえ発見しました。
AlphaGo (2016) & AlphaGo Zero (2017): AlphaGo の成功は、AI の発展史における画期的な出来事でした。当初、人間の棋譜から学習し、深層ニューラルネットワーク、自己対局(self-play)、モンテカルロ木探索(Monte Carlo Tree Search)を組み合わせて、世界囲碁チャンピオンを打ち破りました。そして、後継の AlphaGo Zero はさらに進んで、人間データを使用せず、自己対局のみで、これまでのすべてのバージョンを凌駕するレベルに達しました。これはまるで、対戦相手が見つからない武術の達人が、左右互搏を始めて、より高い境地に到達するようなものです。
AlphaZero (2018): このモデルは、この能力を他のボードゲーム(チェスなど)にも汎用的に適用できることを証明しました。
しかし、これらのゲーム分野での功績は印象的で、大きな社会的影響を生み出したにもかかわらず、直接的な経済的価値を生み出すには至りませんでした。Bi は、その根本的な原因は、これらの功績が専門的で汎用性のない環境に高度に依存していることにあると指摘します。言い換えれば、それらは特定のタスクにおける超知能であり、汎用知能ではありませんでした。
二つの都市の合流:事前学習モデルと強化学習の結合
真の変革は、これら二つの道筋が交差したときに起こりました。強化学習がゼロから始まるのではなく、大規模なデータで事前学習され、広範な世界知識を持つ言語モデルと結合されたとき、奇跡が起きたのです。
InstructGPT (2022) & ChatGPT (2022): 人間からのフィードバックによる強化学習(Reinforcement Learning from Human Feedback, RLHF)を用いることで、研究者たちはテキスト補完しかできなかった事前学習モデルを、人間の指示を理解し、それに従い、役に立つ対話型AIへと転換させました。ChatGPT のリリースは世界的な熱狂を巻き起こし、週間アクティブユーザー数は5億人を超え、その応用範囲は日常的なQ&Aやコンテンツ作成から生命を救う医療診断に至るまで、前例のない実用的な価値を示しました。
この変革の鍵は、強化学習が現在、非常に高い経済的価値を持つ汎用環境で適用されていること、そしてその出発点がすでに膨大な知識を持つ汎用的な「事前知識」(すなわち事前学習済み言語モデル)であることです。汎用性の大部分は依然として事前学習段階に由来しており、強化学習はモデルの振る舞いを人間の期待に合わせるアライメントの役割を果たしています。Yann LeCun のケーキの比喩のように、自己教師あり学習がケーキの本体であり、教師あり学習はアイシング、そして強化学習はケーキの頂点を飾るチェリーに過ぎません。現在のRLの計算割合は小さいものの、Bi は、より高度な AGI と ASI を実現するためには、強化学習により多くの計算資源を投入し、全く新しい、あるいは人間がこれまで見たことのない環境に適応できるようにする必要があると確信しています。
2. 現在の課題:AGIへの道における未解決の問題
輝かしい過去を振り返った後、Shuchao Bi は、汎用人工知能(AGI)への道は順風満帆ではなく、現在、一連の核心的な未解決問題に直面していることを指摘します。これらの問題は主にデータ、効率、探索、そして安全性に焦点を当てています。
核心的なボトルネック:アルゴリズムではなくデータ
多くの人々が最近のモデルの性能向上が鈍化していることを観察し、スケーリング法則は無効になったと主張しています。しかし Bi は全く異なる見解を提示しています。無効になったのはスケーリング法則ではなく、データであると。彼は、スケーリング法則自体がデータの内在的な構造を反映しており、客観的な法則であるため無効になることはないと主張します。本当の問題は、私たちがインターネット上の高品質でインテリジェントなテキストデータの大部分を使い果たしてしまったことです。
a. スケーリング法則の本質:
Bi は、スケーリング法則がデータの冪乗則分布(power-law distribution)に由来すると考えています。現実世界では、単純で一般的な知識(算術など)は非常に多く、複雑で希少な知識(代数幾何など)ははるかに少ないです。モデルがデータからより希少で深遠なパターンを学習するには、指数関数的に増加する計算リソースを消費する必要があります。これは、創発能力(emergent abilities)現象も説明します。モデルの能力は滑らかに成長するのではなく、計算量が特定の閾値を超えた後に突然新しいスキル(微積分など)を習得します。これは、モデルがデータ内の非常に希少な関連パターンを理解するのに十分な計算能力をようやく得たためです。
b. データの窮地:
学習は根本的にデータに縛られています(data-bonded)。もし、より多く、より良く、より賢いデータがなければ、単純にモデルのパラメータと計算量を増やすだけでは、その収益は逓減します。したがって、根本的な課題は、いかにして新しい高品質なデータを獲得するか、という点に変わります。
新しいデータの創造方法:高計算強化学習の希望と課題
人間のデータが枯渇しつつある今、自然な発想として、「計算リソースをデータに変換することはできないか?」という疑問が浮かびます。結局のところ、人間の知識自体も、人間の脳が環境との相互作用(すなわち生物学的計算の消費)を通じて生み出されたものです。理論的には、シリコンベースのコンピュータもそれが可能です。DeepMind の AlphaGo や AlphaDev は、特定の領域でその可能性を証明しています。しかし、このモデルを汎用領域にまで広げるには、いくつかの大きな課題に直面しています。
a. 検証可能性の限界 (Verifiability): 現在、強化学習を通じて新しいデータを生成する方法は、結果が容易に検証できる領域、例えば数学の問題(標準的な答えがある)やコード生成(単体テストで確認できる)に主に限定されています。しかし、よりオープンで創造的な領域では、生成されたコンテンツの良し悪しを判断するための信頼できる報酬信号(reward signal)をどのように定義するか、という未解決の難題があります。
b. 探索の困難 (Exploration): 囲碁のような閉鎖的な環境では、ランダム探索(モンテカルロ木探索など)によって新しい戦略を発見できます。しかし、言語モデルのように組み合わせ空間が想像を絶するほど大きい領域では、ランダムにトークンを生成しても、意味のあるコンテンツが生まれることはほとんど不可能です。これは、より効率的な探索戦略が必要であることを意味します。Bi は、モデルが既存の膨大な知識ベースに基づいて補間(interpolation)や外挿(extrapolation)を行うという方向性が考えられると見ています。この誘導された探索自体が、知能の限界を押し上げるのに十分である可能性があります。AlphaDev の成功 — 50年間ブレークスルーがなかったアルゴリズムのソート問題でより優れた解を発見したこと — は、この方向性にとって心強い証拠を提供しています。
c. RL は新しい思想を生み出せるか? 最近の研究では、現在の強化学習(RLHFなど)は、基礎モデルにすでに存在する能力を「引き出す」ものであって、「創造する」ものではないと指摘されています。つまり、モデルがより確実に正しい答えを出力できるようにしますが、その答えの種は事前学習段階ですでに存在していたというわけです。Bi はこれに対し留保を示しており、より先進的なRLパラダイムは真に新しい知識を生み出すことができると信じています。
学習効率の隔たり:人間の脳 vs. 機械
もう一つの核心的な問題は、データ効率です。人間と比較して、現在のAIの学習効率は極めて低いです。人間が新しいボードゲームを学ぶのに、数分の説明と数回の練習(数千トークンに相当)しか必要としないかもしれません。しかし、AIモデルが同等のレベルに達するには、数百万、あるいはそれ以上のサンプルが必要となる可能性があります。
Bi は、この効率の差の根源は、学習目標の違いにあるのではないかと推測しています。
AIの学習方法:
現在の言語モデルは、次のトークンを予測することで学習します。これは、モデルが意味論や論理を学習するだけでなく、言語におけるランダムで表面的な構造(例えば、同じ意味を100通りの異なる言い方で表現できるのに、モデルは具体的な言葉遣いを予測しようとする)に適合させるために、膨大な計算リソースを浪費せざるを得ないことを意味します。
人間の学習方法:人間が学習する際、次の単語を予測しているわけではありません。私たちは、より高次の、より抽象的なレベルで予測し、理解しています。私たちは思想の本質に焦点を当てており、その表面的な言語形式には注意を払っていません。
人間のように、より抽象的なレベルで学習できる新しいモデルアーキテクチャや損失関数を設計することが、より高いデータ効率への鍵となります。この問題を解決する者は、次のAIパラダイムを切り開く可能性があり、その意義はTransformerに劣りません。
安全性とアライメント:見過ごせない基盤
モデルの能力が向上するにつれて、安全性の問題もますます顕著になっています。Bi はこれを3つのカテゴリに分けています。
コンテンツの安全性:モデルが有害な、安全でないコンテンツを生成する可能性があり、これは従来の信頼性と安全性の問題に似ています。
悪意のある使用:悪人が強力なAIを犯罪行為に利用する可能性があります。
制御不能とアライメントリスク (Misalignment): これは最も深刻な課題であり、モデル自身の目標が人間の価値観と一致せず、壊滅的な結果を招く可能性があります。
AIの発展が安全で制御可能であり、人類の利益に合致していることを保証することは、すべての最先端AI研究機関が真剣に取り組むべき核心的な問題です。
3. AIはどのように私たちの世界を再形成するか
講演の最後の部分で、Shuchao Bi は AI の未来についての彼の展望を共有しました。彼は Sam Altman の言葉を引用しました:「日々は長いが、十年は短い」(The days are long, but the decades are short)。この言葉は、人々が AI の短期的な影響を過大評価しがちである一方、中長期的なその破壊的な力を著しく過小評価していることを思い出させます。Bi は、私たちが汎用知識を持つ事前モデルを持ち、それを無制限の強化学習計算と良好な相互作用環境と組み合わせたとき、その結果は超知能の誕生であると予測しています。
AI for Science:科学発見の新たなパラダイム
Bi は、AI が科学分野に応用されることに極めて興奮しています。彼は、科学的発見は本質的に巨大な探索空間における探索問題であると考えています。歴史的に、科学者たちは直感、実験、理論を通じて、この空間で真実の小石を懸命に探し求めてきました。AI の力は、この探索空間を大幅に圧縮し、もともとひらめきを必要とした偶然の発見(serendipity)を、体系的に達成可能な目標に変えることができる点にあります。
AIは科学の新たな数学となる:
彼は DeepMind Isomorphic Labs の主任科学者の言葉を引用しています:「AI を使わずに薬剤設計を行うことは、数学を使わずに科学研究を行うようなものだ。」AI は、今後10年間で、あらゆる科学分野の基盤ツールとなるでしょう。
正のフィードバックループの形成:
モデル主導の探索:AI モデル(AlphaFoldなど)が問題を分析し、可能性の高い仮説(例:どのようなタンパク質構造が有効か)を提案します。
自動実験検証:研究室のロボットや自動化装置がAIの提案に基づいてハイスループット実験を行います。
データフィードバックとモデルの反復:実験結果はAIに迅速にフィードバックされ、AIはこれらの新しいデータから継続的に学習・進化し、より精密な仮説を提案します。
この「仮説 → 実験 → フィードバック」の閉ループは驚異的な速度で稼働し、人間の科学者の効率をはるかに超え、材料科学、薬剤開発、物理学などの分野でのブレークスルーを加速させるでしょう。Bi は、将来的には、各分野ごとに専門のモデルを構築するのではなく、リーマン予想のような世紀の難問を解決するために汎用的な科学モデルを構築できることさえ夢見ています。
AI for Education:真の個別化とエリート教育の実現
教育は、AI が公平性と効率性を最ももたらしうる分野の一つです。現在の教育システムにおける最大の不公平の一つは、質の高い教育資源の希少性と不均等な分配です。AI は二つの側面からこの現状を根本的に変える可能性を秘めています。
学習の敷居を下げる:AI は複雑な知識ポイントを、個々の学習者が最も理解しやすい方法で再構成し、提示することができます。無数の個別化された例と説明を生成し、かつては恐れられていた科目を身近なものに変えることができます。
学習の上限を引き上げる (Raise the Ceiling):AI は、24時間体制の、全知全能の個人教師(personal tutor)として機能できます。研究によれば、一対一の指導は学習効率を数倍に高めることができます。知的好奇心旺盛な学習者にとって、AI は 10倍の学習者にとってのアクセラレーターとなりえます。Bi は自身の例を挙げ、AI を使えば週末のうちに全く新しい分野の入門レベルの知識を習得できると述べています。彼は大胆にも、将来的には、人間が5年間で博士号を1つ取得するのではなく、5つ、あるいは10の異なる分野で博士号レベルの知識を習得できるようになるかもしれないと仮説を立てています。
その他の分野における変革
AI エージェント: 今後1〜2年で、より信頼性が高く、有能なAIエージェントが現実のものとなるでしょう。これらは人間を代表して複雑なデジタルタスクを実行できるようになりますが、これは基礎研究の問題というよりも、むしろ工学的な実装の問題です。
AI for Healthcare:AI はすでに診断において、ほとんどの一般的な医療提供者の能力を上回ることを示しています。将来的には、AI が個人の完全な健康履歴とバイタルデータにアクセスできるようになれば、病気を治療するだけでなく、精密な予防的健康管理を行うことも可能になるでしょう。
具身知能 (Embodied AI): これはより長期的な課題ですが、インターネットのテキストデータのように膨大なロボットのインタラクションデータが不足しており、動作を効率的にトークン化する方法も依然として困難です。しかし、これが実現すれば、具身知能は実体経済に大きな影響を与え、危険な深海や遠い宇宙を人間が探索する代わりに、ロボットが行うことさえ可能になるでしょう。
Bi は、ある意味で、数百年にわたる人類文明の進歩—知識を記録するために印刷術を発明し、データを集積するためにコンピュータとインターネットを発明したこと—は、すべて AGI の誕生に備えるためのものであったと考えています。今、その瞬間はかつてない速さで私たちに近づいています。
まとめ
Shuchao Bi の講演から、AI の将来の発展を理解するための2つの核心的なフレームワークとメンタルモデルを抽出できます。少なくとも私にとって、Shuchao Bi は信頼できる視点と洞察を与えてくれたと感じています。これが皆様の助けとなり、不確かな情報によるノイズを減らすことを願っています。
メンタルモデル1:「苦い教訓」——規模を受け入れ、バイアスを捨てる
これは講演全体を貫く基盤となる思想であり、強化学習の父である Rich Sutton の古典的な論文「The Bitter Lesson」に由来します。これは、AI の発展経路を考える際に、思考様式を完全に転換することを要求します。
核心原則:汎用的な手法 + 莫大な計算 = 最終的な勝利
歴史は繰り返し証明しています。人間の知識、ルール、ヒューリスティックな手法をシステムにハードコーディングしようとする努力は、短期的には効果的に見えるかもしれませんが、最終的には、より汎用性が高く、より簡潔で、大規模な計算から恩恵を受けることができる手法に凌駕されます。
すべきこと:スケーラブルな2つのことに集中する——探索(Search)と学習(Learning)
学習:モデルがデータからパターンと構造を自動的に発見する能力を指し、その代表はニューラルネットワークベースの自己教師あり学習です。私たちは、特定のタスクのために複雑なモジュールを設計するのではなく、膨大なデータを吸収できる汎用的なアーキテクチャ(Transformerなど)を設計すべきです。
探索:膨大な可能性空間の中から最適な解を見つけるために探索を行う能力を指し、その代表は強化学習におけるモンテカルロ木探索などの手法です。
避けるべきこと:人間の帰納バイアス(Inductive Bias)への過度な依存
アルゴリズムを設計する際、自身の直感や問題理解(すなわちバイアス)を組み込みがちです。例えば、従来のコンピュータビジョンでは、研究者たちがエッジ検出器やコーナー検出器などの特徴を手作業で設計していました。しかし、深層学習の成功は、モデル自身に生のピクセルからこれらの特徴を学習させる方がはるかに効果的であることを示しました。チューリングは70年前に、私たちは成人脳(あらゆるバイアスや知識を含む)を模倣するのではなく、乳児脳を模倣し、適切な教育(すなわちデータと訓練)を与えるべきだと提唱しました。
実践的応用:
研究方向や技術的解決策を選択する際、スケーラビリティが強い方法を優先します。自分自身に問いかけてみてください。もし計算資源が100倍になった場合、この方法の性能は線形的に、あるいは超線形的に向上するか?
モデルを構築する際には、アーキテクチャを簡潔で汎用的に保ちます。データと計算の力を信じ、巧妙なトリックでモデルに多くのことを教えようとしないこと。モデルには「just want to learn(ただ学習したい)」と思わせることが重要です。
このメンタルモデルは、なぜ深層学習が視覚、言語などの複数の分野でブレークスルーを達成できたのかを説明し、将来の進歩が計算とデータ規模の指数関数的成長に引き続き依存することを示唆しています。
メンタルモデル2:計算-データフライホイール——超知能への自己増強ループ
高品質な人間データの枯渇というボトルネックに直面し、Bi は AI 自身が新しい知識を創造し、それによって知能の成長を駆動する正のフライホイールフレームワークを描写しています。このフレームワークは「苦い教訓」の自然な拡張であり、その核心は計算資源をデータ資産に変換することです。
フライホイールのエンジン:スケーリング法則(Scaling Laws)。これは基盤となる物理法則であり、より高品質なデータと計算を投入すれば、より強力なモデル能力が得られることを保証します。
フライホイールの起動燃料:人類の全知識。まず、既存の人類データ(テキスト、コード、画像など)を利用して、強力な基盤モデル(GPT-4など)を事前学習させます。このモデルはフライホイールの出発点であり、世界に対する広範かつ汎用的な事前知識を持っています。
フライホイールの運用メカニズム:「生成-検証-学習」の閉ループ
ステップ1:AI が仮説を立てる(Hypothesis Generation)。基盤モデルの強力な推論能力と知識能力を活用し、特定の課題領域(数学、材料科学など)で誘導された探索を行い、新しいアイデア、解決策、または設計を生成します。このステップは、モデルの潜在能力を顕在化させるものです。
ステップ2:環境がフィードバックを提供する(Verification & Feedback)。AI が生成した仮説を検証可能な環境に入れて検証します。この環境は、数学証明器、物理シミュレーター、コードコンパイラー、または自動化されたウェットラボ(wet lab)である場合があります。環境は、その仮説が正しいか、有効か、あるいはより優れているかについて明確な信号を返します。
ステップ3:成功した探索が新しいデータに変換される(New Data Creation)。検証されて成功したすべての探索結果(例えば、新しい数学の定理、より効率的なアルゴリズム、性能がより優れた分子構造など)は、AI によって生成された真新しい高品質なデータとして扱われます。
ステップ4:モデルが学習を通じて進化する(Model Evolution)。これらの新しく生成された高品質なデータを、基盤モデルの継続的な訓練または微調整に利用します。これにより、モデルはその分野での能力が向上し、次のサイクルでより深く、より効果的な仮説を提案できるようになります。
フライホイールの最終目標:知能の自己駆動的成長を実現すること。この加速し続けるフライホイールを通じて、AIシステムは人間データへの依存から脱却し、自己改善と自己進化の軌道に乗ることができるでしょう。計算資源は効率的に新しい知識に変換され、その新しい知識が逆に変換効率を高めます。この経路は、ASI(人工超知能)に到達する最も可能性の高い方法であると考えられています。
このフレームワークは、データのボトルネックを解決するための明確なロードマップを提供するだけでなく、将来の AI が科学などの最先端分野でどのように破壊的な影響を生み出すかについて深い洞察を提供します。それは、AI を単なるツールとしてだけでなく、未知を共に探索し、新しい知識を創造するパートナーとして捉えることを私たちに求めています。
参考文献: