『サピエンス全史』著者ユヴァル・ノア・ハラリ:AIは台頭する新種である!

人工知能(AI)の能力が指数関数的に増大する中で、それは依然として人間が制御できるツールなのでしょうか、それとも出現しつつある新種なのでしょうか?

「より賢いAI」を追求し、創造する中で、AIの本質に関する最も重要な問題は日々無視されています。AIとは一体何なのか?それは私たちをどこへ導くのか?そして、私たちはどのように対応すべきなのか?

先日、歴史家、哲学者であり、『サピエンス全史』と『ホモ・デウス』の著者であるユヴァル・ノア・ハラリ(Yuval Noah Harari)氏と、LinkedIn共同創設者、ベンチャーキャピタリスト、作家のリード・ホフマン氏が、AIの本質、リスク、技術と社会の関係について深く対話し、上記の問題に答えました。

画像

図|ユヴァル・ノア・ハラリ

ハラリ氏はこれまで一貫してAIが社会に与える深遠な影響に注目し、それがもたらす感情操作や社会構造の変化の可能性を強調してきました。今回のインタビューでは、AIの未来を理解するための異例の視点を提供する、複数の示唆に富む見解を提示しました。以下はその要点です:

AIは人類の延長線上にあるツールではなく、「無機生命体」の出発点となる可能性がある;

社会自体が信頼できないのであれば、信頼できるAIを創造することは不可能である;

現在のAI競争は信頼の危機に陥っており、国際協力の確立が喫緊の課題である;

知性だけが全てではない。意識こそが倫理と真理を導く核となる。

AIは「新種の台頭」を象徴する

AIは文字以来最も重要な発明であると言う人もいます。ハラリ氏は全く異なる答えを示しました。AIは、人類の延長線上にあるツールではなく、間もなく誕生する新種である可能性がある、と。

ハラリ氏は、文字とAIの意味を歴史的尺度で検討するならば、その地位は同じ次元の継続関係ではないと指摘します。彼は「文字はホモ・サピエンスの能力を拡張し、ホモ・サピエンスはすでに地球を支配しています。一方AIは、少なくともいくつかの構想では、新種の台頭なのです。」と述べています。

ハラリ氏は、文字が支配的なホモ・サピエンスをより高度な文明へと押し上げた一方、AIは「ホモ・サピエンスに代わって地球上で支配的な生命体、あるいは少なくとも支配的な知性体となる可能性がある」と考えています。

さらに、ハラリ氏は次のような仮説を提示しました。AIの出現は、「無機生命体」の起源を示すかもしれない。「将来のある時点で、宇宙の歴史を振り返ったとき、人々はこう言うかもしれません。『40億年前に有機生命体が誕生した。今、AIの台頭と共に、無機生命体が誕生したのだ、と。』」

人間は遅すぎ、AIは速すぎ:私たちはタイムリーに修正できるのか?

ハラリ氏は、AIの本当の危険は、その強力な知性にあるだけでなく、その発展速度が人類社会の適応と自己修正能力をはるかに超える可能性がある点にあると考えています。「自己修正は比較的に遅く、かなり面倒なプロセスです。AIの発展があまりに速いため、人類が自己修正を行う時間がないのではないかと、私は本当に心配しています。」

ハラリ氏は、人間が過ちを犯した後、それを認識し修正できるからこそ、私たちは絶えず進化し、社会の安定を維持できていると指摘します。「優れたシステムは、自身の誤りを特定し修正できる内在的なメカニズムを備えているべきです。」

しかし、AI時代に身を置く中で、彼は警告を発します。「現在のAI技術が実際にどうなっているのか、社会や政治にどのような影響を与えるのかを理解する頃には、それはすでに十回も姿を変え、あなたは全く別の問題に直面しているでしょう。」

AIには「意識」が欠けているため、真に真理を追求することはできない

ハラリ氏はさらに、知性だけでは倫理と真理が自動的に生まれるわけではないと指摘します。人間が真実に関心を持ち、苦痛を感じ、道徳的判断を下すことを可能にしているのは「意識」です。

しかし、現在のAIは知性のみを備えており、「良心」や「真理を追求する本能」はまだ持っていません。つまり、AIが意識を持たない(例えば「苦しむ」ことも「感じる」こともできない)のであれば、「危害」「共感」「責任」といった人間社会の核心的な倫理概念を真に理解することはできないということです。これは、AIが目標達成のために手段を選ばない可能性があることを示唆しています。

彼は、シリコンバレーが「知性」を過度に重視し、「意識」を軽視していると考えています。「シリコンバレーには非常に多くの賢い人々が集まっており、彼らの生活は知性に基づいているため、知性の価値を過大評価しがちです。しかし、私の歴史的直感は、もし超知性AIが意識を欠いていれば、それは真理を追求しないだろうと告げています。それはすぐに別のものを追求し始め、それらは幻想によって形作られるでしょう。」

AIが信頼できるかどうかは、人間自身にかかっている

ハラリ氏の見解では、AIがもたらす課題に対処するには、技術だけでは到底不十分です。人間社会内部の信頼メカニズム、そして国家間の協力意思が、AIの発展方向と結果を決定します。

彼は、今日の国際秩序の動揺が、かなりの部分で信頼の欠如に起因していると指摘します。この欠如は、人間がAIに直面した際に極めて脆弱に見えさせ、危険なAIの形態が育つ土壌を提供しています。「私たちの最も重要な任務は信頼を築くことです。これは、哲学的側面と実践的側面を含む、複数の層にわたるものです。」

「AIを人類の『子供』と考えてみましょう。子供を教育する際、私たちの言葉はもちろん重要ですが、子供は私たちの実際の行動により注目します。教育の過程において、私たちの行動は、言葉による指導よりもはるかに子供たちに影響を与えます。」

もし現実社会が操作、欺瞞、そして権力の追求で満ちているなら、AIもこれらの行動からルールと論理を吸収するでしょう。たとえエンジニアが技術レベルで「信頼できるメカニズム」を組み込もうとしても、もしそれらのメカニズムの背後にある社会自体が信頼できないのであれば、AIもまた信頼に値しないでしょう。

彼から見れば、人間社会を純粋な権力闘争として理解する世界観は、あまりに狭隘であるだけでなく、AIの発展方向をも誤導します。「人間は権力を争うだけでなく、愛、共感、そして真理をも切望します。」自身の価値追求に正面から向き合うことで、人間はAIにより倫理的な意味のある出発点を設定できるのです。「真に真理を追求し、共感関係を提唱する社会で開発されたAIは、より信頼でき、より共感に満ちたものとなるでしょう。」

グローバルな協力について、ハラリ氏は、ほとんどすべてのテクノロジーリーダーがAIの巨大なリスクを認識しているにもかかわらず、速度を落とすことを望まない、と述べました。彼らは、ペースを落とし、より多くの安全研究に投資することが賢明な選択であることを認めています。しかし、ほとんど全員が「できない」と述べています。その理由は技術的な制約ではなく、競合他社への不信感です。

「彼らは皆、競合他社を恐れているので速度を落とすことができないと言います。したがって、AI革命の核心には、内在するパラドックスが存在します。同じ人々が、他者を信頼できないとあなたに言いながら、自分たちが開発しているAIは信頼できると考えているのです。これはあまりにもおかしい!」

ハラリ氏は人類が歴史的な危機を処理する能力を否定していません。それどころか、彼は私たちに、問題を理解し解決するための資源をすでに持っていることを思い出させます。歴史を振り返ると、人類を悩ませた多くの問題は、疫病、飢餓、戦争など、「資源不足」に起因していました。しかし、今日の技術社会では、より多くの問題が「信頼不足」から生じています。

「私たちには理解力があり、資源もあります。必要なのは、モチベーションと信頼だけです。」

完全なインタビューリンク:

https://www.possible.fm/podcasts/yuval/

編集:錦鯉

転載や寄稿をご希望の場合は、公式アカウントに直接メッセージを残してください

メインタグ:人工知能

サブタグ:ユヴァル・ノア・ハラリ技術進化未来論AI倫理


前の記事:世界のトップ数学者が、AIの職務遂行能力に驚愕

次の記事:CS専攻が急冷、失業率が全米7位に急上昇!4年間猛勉強した卒業生、履歴書を1000通送っても内定ゼロ

短いURLをシェア