LeCunが新たな証拠を提示!大規模モデルの思考と人間の思考には本質的な違いがある

大規模言語モデルは本当に思考するのか?この疑問は常に人々の心に付きまとっていました。

LLMの反対派であるヤン・ルカンが新たな証拠を提示しました。彼が参加した最新の研究「From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning(トークンから思考へ:LLMと人間はいかに圧縮と意味の間でトレードオフを行うか)」は、情報理論の全く新しい視点から、大規模言語モデル(LLM)と人間が「世界を理解する」ことにおける本質的な違いを明らかにしています。

画像

人間の脳は情報を処理する際、複雑な感覚や経験を簡潔で意味のある「概念」に圧縮することに長けています。例えば、「コマドリ」と「アオカケス」はどちらも「鳥類」に分類され、さらに私たちは「コマドリ」が「ペンギン」よりも「鳥らしい」と区別できます。この能力により、膨大な情報に直面した際、効率的に要約しつつ、細部や文脈に対する感度を失わないでいられます。

一方、LLMの「理解」メカニズムは大きく異なります。それらは膨大なテキストの統計的学習を通じて、複雑な単語埋め込み空間を形成します。論文の著者らは疑問を呈しています。これらのAIモデルの内部にある「概念構造」は、人間のように情報を圧縮しながら豊かな意味を保持できるのでしょうか?それとも、彼らは単に「賢い圧縮機」であり、本質的に人間の認知とは天地ほどの差があるのでしょうか?

情報理論の新フレームワーク:レート歪み理論を用いてAIと人間のギャップを定量化

この疑問に答えるため、研究チームは情報理論における「レート歪み理論(Rate-Distortion Theory)」と「情報ボトルネック原理(Information Bottleneck)」を革新的に導入し、全く新しい定量化フレームワークを確立しました。簡単に言えば、このフレームワークは、システムが「情報を圧縮する」(冗長性を減らす)ことと「意味を保持する」(歪みを避ける)ことの間のトレードオフを正確に測定できます。

研究者らは認知心理学分野の古典的なデータセット(Roschの「鳥類」「家具」の典型性実験など)を使用しました。これらのデータセットは専門家によって綿密に設計されており、人間の概念形成と「典型性」判断を正確に反映できます。同時に、チームはBERT、Llama、Gemma、Qwen、Phi、Mistralなど、複数の主流大規模モデルの単語埋め込み構造を分析し、数億から700億以上のパラメータにわたる異なる規模を網羅しました。

3つの核心的発見:AIと人間の「理解の隔たり」

1. AIは「分類」を学ぶことはできるが、「応用」は難しい

研究の結果、LLMは「鳥類」や「家具」などの大まかな分類において優れた性能を発揮し、かなりの精度で分類できることがわかりました。一部の小規模モデル(BERTなど)は、この点で大規模モデルよりも優れている場合さえあります。これは、AIがマクロレベルで何が同じカテゴリに属するかを「理解」できることを示しています。しかし、より詳細な「典型性」の判断においては、AIは苦戦します。例えば、AIは人間のように「コマドリ」が「ペンギン」よりも鳥らしいとはなかなか認識できません。このような「きめ細かい」意味の区別の欠如は、AIの「理解」がまだ表面的なレベルにとどまっていることを意味します。このような繊細な意味の区別は、人間の認知の独特な利点です。

画像

2. AIと人間の「最適化目標」は全く異なる

この論文の最大のハイライトは、AIと人間が「圧縮と意味」のトレードオフにおいて本質的に異なることを明らかにしている点です。LLMは内部表現において極度の「圧縮」を追求します。すなわち、最小限の情報で最大限の内容を表現し、冗長性を極力排除します。この「圧縮至上主義」の戦略は、AIを情報理論的な意味で非常に効率的にしますが、同時に意味の細部や文脈に対する感度を犠牲にしています。一方、人間の概念システムは「適応的な豊かさ」を重視し、圧縮効率が低下し、より多くの「記憶領域」を消費するとしても、より多くの詳細や文脈を保持しようとします。この根本的な違いが、両者が「世界を理解する」際の振る舞いが全く異なる理由となっています。

画像

3. モデルが大きくなるほど人間らしくなるわけではない、構造と目標がより重要

研究では、モデルの規模が拡大しても、大規模モデルが人間の思考様式に近づくわけではないことも判明しました。むしろ、モデルの構造と訓練目標こそが、「人間らしさ」のパフォーマンスに影響を与える鍵となります。例えば、BERTのようなエンコーダモデルは、一部のタスクにおいて、より大きな生成モデルよりも優れていることさえあります。この発見は、現在のAIにおける「パラメータ積み上げ」の発展傾向に疑問を投げかけています。

まとめ

技術の進歩は、「より大きく」あるいは「より速く」あるだけでなく、「より適切」であることが重要です。もし機械が人類により良く貢献することを望むなら、私たちは真に価値のある「知能」とは何かを再考する必要があるかもしれません。機械に人間と同じように思考することを求める必要はありません。むしろ、これらの違いこそが、人間とテクノロジーの融合をより興味深く、可能性に満ちたものにするのかもしれません。

論文:https://arxiv.org/pdf/2505.17117

公衆アカウントで「グループ参加」と返信して、ディスカッショングループに参加してください。

メインタグ:人工知能

サブタグ:大規模言語モデルヤン・ルカン情報理論認知科学


前の記事:Google Veo 3、遊び方が大幅アップグレード!「360°」キーワードで3D効果を解除、Fast版は同解像度で価格が5分の1に激減

次の記事:AppleのAI論文が大失敗!テスト方法に大きな問題が指摘され…ネット民「クックは彼らを解雇すべきだ!」

短いURLをシェア