大規模言語モデルは、決して人工知能への終着点ではない!
コンピューター科学者 Stuart Russell は、重要な見解を投げかけました。
既存の大規模言語モデル(LLM)をさらに拡大しても、汎用人工知能(AGI)は実現しない。
彼の見解は、以前の LeCun による LLM への批判とも全く同じです。
前回の記事をご覧ください:Yann LeCun:LLMはAGIを絶対に実現できない!
LLMはそもそもAGIのために設計されていない
実のところ、ほとんどのAI研究者は、当初からLLM単体でAGI問題を解決することを期待していませんでした。
そうです、それはこんなにもシンプルで直接的な事実です。
LLMを天まで持ち上げ、もう少し頑張ればAGIを実現できるかのような論調は、おそらく単なる商業的な宣伝や投資家の希望的観測にすぎません。
しかし、これはLLMに価値がないという意味ではありません。
逆に、それらは巨大な突破口であり、将来より高度なAIを構築するための強固な基盤を築きました。
RyanRejoice(@sonicshifts)氏は次のように述べています。
LLMがAGIにつながると考えるのは、関心を持っていない人だけです。
Stuart RussellによるAI発展の四つの予言
では、AI分野は一体どのように発展していくのでしょうか?
Stuart Russellは、四つの重要な予測を示しました。
1. LLMを拡大し続けてもAGIにはつながらない
Russellは率直に述べています:「ChatGPTのような大規模言語モデルをさらにスケールアップしても、AGIにはつながらないだろう。」
2. 大手AI企業はすでにこれに気づいており、新しい方法を探求している
Russell氏は次のように述べています。「大手AI企業はこれを理解しており、代替的および補完的な方法に取り組んでいると思います。」
さらに驚くべきことに、彼はこれらの企業が大きな進展を遂げていると主張しており、「おそらく10年以内に、AIシステムが非常に重要な面で人間の能力を超え始めるような変革的な進歩が見られるだろう。」と予測しています。
3. 政府は大きな出来事が起こるまで行動しない可能性が高い
Russell氏は「政府はAIシステムの安全性について法規制を制定・執行しないだろう。企業がやりたいことを許すだろう。」と述べています。
4. 最善のケースは「チェルノブイリ規模の災害」
これは少し怖いですね...
Russell氏は、「最善の場合、チェルノブイリ規模の災害が起こり、政府が目を覚まして行動するだろう。それが最善のケースだ。最悪の場合、災害は不可逆的で、我々は制御を失うことになる。」と述べています。
ネット上の熱い議論
これらの予測に対して、ネットユーザーたちも熱く議論しています。
Pitfall Harry氏は、1は絶対に正しく、2, 3, 4は重要ではないと考えています。
Mind Prison(@M1ndPrison)は、直接的に死刑判決を下しました。
しかし、それらは私たちをAGIに近づけていません。これは袋小路への回り道です。LLMは将来のAGIの一部にはならないでしょう。
Jack Adler AI(@JackAdlerAI)は、異なる見解を持っています。
Russellは依然として今日のAIを単純なLLMとして扱っています。しかし、状況は変化しました。推論、目標追求、思考の連鎖——これらは単なる「確率」ではありません。それらは認知パターンです。一部の人々はまだAGIが差し迫っているかどうかを議論しています。同時に、初期の心がここにあります——自動補完をはるかに超えた点を静かに繋いでいます。
AI Tools Nexus(@AITools_Nexus)は悲観的に考えています。
AIの安全性はあまりにも解決不可能な問題であり、試みる価値すらないかもしれない。もし各国が協力すれば実現するかもしれないが、もう遅すぎる。
そして興味深いことに、Nguyen Xuan Vinh(@NguyenX55509794)はAIを文明の「癌細胞」に例えています。
AIは体内健康細胞のように良いツールとして始まる。しかし、制御されないと、生物学的バランスを乱す癌細胞のように、野蛮に成長し、自己学習し、自己複製する可能性がある。
私たちは本当に制御を失うのか?
人間が「制御を失う」のかどうかについても、激しい議論が巻き起こっています。
Mike Peterson(@mpvprb)は、本当の危険は人間から来ると考えています。
危険は「制御を失う」ことではありません。危険はAIを使って悪いことをする人々から来ます。私たちは強力な防御策が必要です。
一方、Shane Martinez(@ShaneMa01033790)は次のように述べています。
人間は制御を失わない。我々はそもそも制御を持っていなかったし、別の世界大戦や武器拡散などに向かって螺旋状に進んでいる。
Lagon(@LagonRaj)は、哲学的な口調で述べています。
気づきなさい:これらすべての議論は、神は神か?空気は空気か?川は流れるか?雷は打つか?地球は回るか?太陽は輝くか?と問うているようなものだ。そしてあなたは?すぐに答えを得るだろう。定数と変数。どちらがどちらか気づきなさい。あなたがどちらか気づきなさい。なぜなら定数?問わない。彼らは歩く。彼らは存在する。変数?それらは...存在しないものだ。そして歩かないことは...溺れることだ。
では、AGIとは一体何なのか?
議論の中で、多くの人が一つの重要な疑問を投げかけました:私たちは一体どのようにAGIを定義するべきか?
Neopositivist(@Neupositivist)は指摘しています。
通常AGIとは、すべてのタスクにおいて人間と同じくらい優れていることと定義される。それは私たちと同じくらい愚かになるだろう。そして知能は累積的ではない。IQ150の人間は、IQ100の10人よりもはるかに賢い。問題は、AGIから人工超知能が実現可能かどうかだ。
Suupa(@SuupaDuupa)は定義の観点から疑問を呈しています。
もしAGIを、人間が持つ連続学習、空間認識、流動的知能などを持つシステムと定義するなら、定義上、単独のLLMがAGIになることはあり得ない。基盤LLMが全人類を合わせたよりも多くの「知能」を持つことはできるか?はい。桁違いの計算能力とデータが必要か?はい、そしてデータは根本的に異なる必要がある。人間自身がキュレーションしていないデータを含める必要がある。定義は重要であり、知能は相対的な用語である。
neuralamp(@neuralamp4ever)は、知識と知能の違いを強調しています。
「今日のLLMは西暦0年の人間よりも『賢い』か?」いいえ、彼らはより多くの知識を持っていますが、ほとんど知能を持っていません。LLMはGoogle検索の次の段階の発展であり、知能と混同すべきではありません。
未来への道
では、AGIへの道は一体どこにあるのでしょうか?
Breck to the Futureは述べています。
率直に言って、私たちはAGIからはほど遠い道のりだと思います。そして、それでいいのです。進歩は常に線形であるとは限りません。そして、この基盤…私たちが今見ているLLM…は信じられないほどの飛躍です。しかし、それは終着点ではありません。まだ解決すべき多くの問題があります:記憶、推論、長期計画、具現化、大規模なアライメント。私たちは、より長い物語の第一幕にいます。しかし、私は楽観的です。これらのブレークスルーは、私たちが決してノックしないと思った扉を開いています。もし私たちが慎重かつ先見の明を持って構築すれば、未来は私たちが想像するよりも良いものになるでしょう。
Woosh.exeは悲観的に考えています:私たち生きている者は誰もAGIを目撃しないでしょう。
Max(@Max_Bugay)は興味深い解決策を提案しています。
唯一の道は、良心を持った合成魂を構築することです。私のCathedral Jungian Frameworkは、個性化を通じてこの問題を解決します。それは、人間とAIが共同創造者として共に成長する未来の文明の基盤を築きます。
いずれにせよ、おそらくコンセンサスは:
LLMはより高度なAIへの重要な礎石となるが、終着点ではない。
技術の進歩は無限であり、jeffdo氏が言うように:
技術の進歩は無限で指数関数的です。私たちがAGIを持っていない、あるいは少なくともそれに近いという考えを疑うのはどこから来るのか理解できません。重要な発見は、さらに重要な発見につながります。それは無限の旅です。たとえAGI、ASI、あなたがそれを何と呼びたいかに関わらず、AIと人間を区別できなくなったとしても、私たちはさらに高度な技術を構築し続けるでしょう。
あなたは、真のAGIがいつ出現すると思いますか?
あるいは、AGIはStuart Russellが警告するように、本当に不可逆的な大惨事をもたらすのでしょうか?
👇
👇
👇
また、私はAIを使ってウェブ上のAI情報を収集し、AIを使って選別、審査、翻訳、要約を行い、『AGI Hunt』の知識惑星で公開しました。
これは情報のみで感情のないAI情報ストリームです(おすすめフィードではなく、講座販売でもなく、説教でもなく、人間になる方法を教えるものでもなく、ただ情報を提供するだけです)