MIT神経科学者が発見、人間知能とAIが厳格な論理法則の下で驚くほど一致

MITの神経科学者らが発見したところによると、次世代AI推論モデルが複雑な問題を解決する際の思考コスト(cost of thinking)の分布が、人間脳と高度に一致している。この収束現象は人為的な設計ではなく、知能体が正解を追求する際の必然的な進化である。

画像

MITマクガバン脳研究所(McGovern Institute for Brain Research)の研究チームが、『米国科学アカデミー紀要』(PNAS)にこの革新的な研究成果を発表した。

この研究は深い事実を明らかにした:AIが考えを遅くせざるを得なくなると、難易度の異なるタスクで消費する計算リソースの分布が、人間脳が同じタスクを処理する際の認知負荷曲線と驚くほど重なる。

これは、神経細胞で構築された生物学的脳であれ、トランジスタを積み重ねた人工ニューラルネットワークであれ、複雑な世界の論理的挑戦に直面すると、物理的制約に基づく同一の最適解戦略に従う可能性を示唆している。

知能の二形態:速い直観と遅い推論

この研究の重要性を理解するには、知能の基本に戻る必要がある。

長らく、大規模言語モデル如初期のChatGPTは、主に統計的確率に依存して動作していた。

人類史上のほぼすべてのテキストを読み、次の単語を予測して回答を生成する。

このモードは人間心理学のシステム1思考に似る:速く、直観的、自動化。

フランスの首都を聞けば、パリと即答する。推論不要、記憶抽出のみ。

しかし、このモードには致命的な欠陥がある。

「赤いボールを青い箱に入れ、箱を土に埋めたら、ボールの色は?」のような多段階論理推論が必要な問題では、確率依存モデルは失敗する。本物の論理連鎖がなく、確率的近似のみ。

次世代推論モデルの登場がゲームを変えた。

これらのモデルは強化学習(Reinforcement Learning)機構を導入し、最終回答前に一連の内部計算を行うよう訓練される。

大問題を小ステップに分解し、人間が数学を解くように段階的に導出する。これは人間のシステム2思考に対応:遅く、慎重、エネルギー消費大。

MITの研究はこの変革の瞬間に切り込む:AIが人間のように遅く考える時、その思考プロセスで何が起きているか?

人間脳とAIの思考コストを比較するには、課題がある:ハードウェアが全く異なる。

人間脳は生化学反応の産物、神経伝達物質伝達で速度制限;AIは電子流の産物、GPU電力で速度決定。

思考秒数を直接比較するのは無意味、より速いGPUでAIは速く考えるが、問題が簡単になったわけではない。

研究チームは二つの知能コストを変換する巧妙な為替レートを発見した。

人間の場合、コストは時間。

難問に対し、正解だけでなく、問題看到から回答キー押下までのミリ秒数を重視。

この時間長が脳の認知負荷を物理的に示す。

AIの場合、コストはトークン。

最終回答前にバックグラウンドで大量の不可視中間ステップを生成。これらがトークンで構成。問題難度が高いほど思考連鎖長く、トークン消費多。

トークンは課金単位ではなく、AI思考の基本単位。

研究者は精密実験を設計し、疲れ知らずの推論モデルと実際の人間ボランティアに同一問題を出題。

普遍性を確保するため、7種の全く異なるタスクタイプを選択、人間認知の複数次元をカバー。

最も基礎は数値演算。四則演算、コンピュータの強み、人間も訓練で速習得。

進階は直観推論。近義語・文脈判断、伝統言語モデルの快適ゾーン。

最高挑戦はARC課題(Abstraction and Reasoning Corpus)。AI先駆者François Chollet設計の究極テスト、暗記と真の知能を区別。

ARCでは、色付きグリッド群を見せ、各群に変形(回転、変色、塗りつぶし、抽象規則移動)。記述なしルールを即座に洞察し、新グリッドに適用。

知識不要、純粋流動性知能(Fluid Intelligence)必要。

この7試練でデータパターンが浮上。

実験結果の曲線は息をのむほど。

画像

タスク内で難易度とコスト正比例。人間が難しい数学もモデルは更多トークン生成、回答検索排除――真に計算努力。

タスク横断マクロ視点で傾向一貫。

基礎演算は人間認知負荷最低、反応最速;モデルもトークン最少。

ARCは人間最難、ボランティア長時間観察・仮説・反復;モデルも思考連鎖ピーク。

この同期は何を意味?「難しさ」は知能次元で普遍。

人間脳構造特異でARC難ではなく、問題解決自体が多く計算ステップ・論理変換要。生物/人工ニューラルネット同士情報エントロピーに対し同等負エントロピー努力。

収束進化:機能が形態決定

生物学に収束進化概念。

サメは魚、イルカは哺乳類、進化木遠いが、水中高效遊泳で流線体・背びれ進化。

Evelina Fedorenko教授はAIでも同現象観察。

モデル構築エンジニアは脳模倣せず、神経科学無視、唯一気にするは極限下正解安定出力。

正解率・頑健性(Robustness)極限追求がAIに人間類似思考戦略進化させる。

問題複雑化で単ステップ直観(System 1)失效、誤罰で多一步思考習得。累積で人間熟慮類似経路形成。

機能基必然。複雑問題客観拆解・仮説・検証要。自然選択(or AI損失関数最適化)通過者が分步処理習得。

研究は認知科学深層問題触:言語=思考か?

思考時内声常語るが、思考言語依存か?

Fedorenko前研究で脳言語網・論理推論網分離証明。失語患者言語喪失でも複雑数学解。

推論モデル再確認。

出力トークン(詞/文字対応)だが、長連鎖で無意味断片・跳躍記号・誤中間結論観察。

しかし人間不可解戯言が正解導く。

実際推論は高次元抽象表現空間で起きる。

トークンは出力層投影、我々内声がニューロン複雑発火UI如し。

モデル独り言、英語/中文非、確率・ベクトル言語。

複製非、反映

明確に:研究はAIが人間意識有or脳構造完全複製意味せず。

人間思考物理世界感覚経験基。

球丸く弾力重力知は幼少触遊経験ゆえ。

現AIモデルテキスト/画像統計学習、具現認知(Embodied Cognition)欠如。

加え、世界知識問題笨拙。訓練データ常識無なら生活経験填補不可。

研究価値は炭素基特殊論打破。

思考魔法非、物理過程。

高複雑論理解決目標なら計算コスト分布普遍法則呈。

MIT発見、知能理解新座標系提供。

遅思考進化累贅非、複雑処理必経路。

汎用AI(AGI)路、単純パラメータ/計算積上不足、思考時間空間付与要。

人間にも鏡。

難問頭抱時間費時沮喪無用。

脳高次元論理連鎖物理表現。

思考コスト、真実到達全知能体必須入場券。

AI人間似、非なりたがりゆえ、厳格論理法則下同最適経路登攀ゆえ。

参考資料:

https://news.mit.edu/2025/cost-thinking-mit-neuroscientists-find-parallel-humans-ai-1119

https://www.pnas.org/doi/10.1073/pnas.2520077122

https://mcgovern.mit.edu/2025/11/19/the-cost-of-thinking/

メインタグ:AIと人間知能

サブタグ:MIT研究収束進化推論モデル思考コスト


前の記事:Ilyaの最新インタビュー:人間が数時間で学べることを万卡クラスターができないのはなぜか?「計算力スケーリング時代」から「研究時代」に戻っている

次の記事:Anthropic公式最新エンジニアリング方案がClaude Codeの優れた理由を説明:デュアルAgentアーキテクチャでAIが真の長時間自律作業を実現

短いURLをシェア