『サピエンス全史』著者のユヴァル・ノア・ハラリ氏の公式チャンネルで今週、春に東京の慶應義塾大学で行われた講演が公開された。司会は慶應義塾大学長の伊藤公平氏。時期から推測すると、彼の新著『ネクサス』(日本語版タイトルは『ホモ・デウス』の続編に当たる『サピエンス全史』『ホモ・デウス』に続く著作)の日本語版プロモーションのために企画されたイベントだろう。
ユヴァル・ノア・ハラリ氏については、これ以上紹介する必要はないだろう。彼はイスラエルの歴史家で、『サピエンス全史』、『ホモ・デウス』、そして『21 Lessons for the 21st Century』(日本語版タイトル:『21世紀の21レッスン』)など、一連のベストセラーを執筆している。6年前に出版された『21 Lessons for the 21st Century』の中で、彼は世界の3つの主要な脅威として、核戦争、制御不能なバイオテクノロジーの発展(人間自身に影響を与える遺伝子編集を含む)、そして情報技術(IT)ネットワークと人工知能の制御不能を挙げた。2019年にAIの脅威について語るのは少し杞憂に思えたかもしれないが、大規模モデルの時代に振り返ると、予言めいたところがある。
講演の中で、彼はかつての3つの脅威のうち、核と生物の脅威のリスクはそれほど大きくない現在、AIのリスクがはるかに高い優先順位を持つと述べた。彼が正しいかどうかはさておき、ハラリ氏は言行一致の人であり、公開情報によれば、2021年5月時点でもスマートフォンを使用していなかった。私たちが以前述べたように、AIの機会について語る人が多く、AIのリスクについて語る人は少ない。これまでに私たちがこの分野で公開した内容は、ヒントンとヨシュア・ベンジオ氏に限られている。
一、なぜAIが最優先課題となったのか
伊藤公平氏は冒頭で質問した:なぜハラリ氏は新著『ネクサス』で情報ネットワークとAIに主要な焦点を当てたのか、同様に破壊的なバイオテクノロジーや継続する核戦争の脅威と比較して、その優先順位の調整は何に基づいているのか?
ハラリ氏の回答は非常に明確だった。まず、AIとバイオテクノロジーを比較した。どちらも世界に劇的な変化をもたらす可能性があるが、AIの発展速度はバイオテクノロジーを遥かに超える。バイオテクノロジーの変革サイクルは長い、なぜなら「生物学そのものがはるかに遅い」からだ。彼は例を挙げて説明した。人間のゲノムを改変し、例えば乳児を対象に、その影響を観察し、それに基づいて将来より大きな変更を行いたい場合、新しい遺伝物質が人間の行動、知能、心理に具体的にどのような影響を与えるかを評価するには、20〜30年、あるいは40年も待つ必要があるかもしれない。したがって、バイオテクノロジー分野、特に人間に関わる場合、その「世代」周期は20年から30年になりうる。対照的に、AIの反復速度は驚異的で、「ほんの数日」である可能性もある。彼は指摘した:「デジタル進化は有機進化より数百万倍速い。」このことが、バイオテクノロジーの潜在的な危険性と機会が見過ごせないものであっても、AIがその猛烈な発展傾向により、より差し迫ったものとなることを決定づけているのだ。
次に、ハラリ氏はAIを核の脅威と比較した。彼がAIにより焦点を当てる理由は主に2つあると彼は考えた。その1つは、核戦争には何の積極的な意味もなく、したがって支持者もいないことだ。1945年以来、国際体制において最大の禁忌は、強国が自身の強さだけを理由に弱国を侵略し、征服しようとし、破壊してはならないということだ。現在、この禁忌は破られているが、少なくとも誰もがその危険性を理解している、「核戦争に勝者はいない」のだ。
一方、AIはより複雑な挑戦である。なぜなら、それは巨大な積極的な可能性を秘めており、そのため人々がその潜在的な脅威を十分に理解することが非常に難しいからだ。ハラリ氏は、広島と長崎の原爆投下以来、核技術の危険性は人類にとって明らかであり、多くを説明する必要はないと述べた。しかし、AIの危険性は把握するのが難しい。なぜなら、それは「異質な脅威」(alien threat)だからだ。
彼は強調した:AIの核心的な問題は、それが邪悪であるということではなく——「それは邪悪ではない」——その「異質性」にある。これは多くの点で人間の知能を超える可能性のある知能だが、それは人間の知能でも有機的な知能でもない。多くの人がAIがいつ人間のレベルの知能に到達するかと尋ねるが、ハラリ氏の答えは「決してない」だ。なぜなら、それは私たちとは完全に異なるからだ。彼は巧みな比喩を使った:「それは飛行機がいつ鳥類の飛行レベルに到達するかと尋ねるようなものだ。答えは決してない。飛行機と鳥類は全く異なり、異なる方法で飛ぶ。」したがって、AIは人間の知能を超えるだろうが、その本質は異質なものとなるだろう。これにより、その発展軌跡と結果を予測することが極めて困難となるのだ。
さらに、ハラリ氏はAIに関する最も核心的で、大衆に理解されるべき見解を投げかけた:「それはツール(tool)ではなく、エージェント(agent)である。」これは人類が歴史上初めて創造した、単なるツールではなくエージェントとして機能する技術だ。原子爆弾であろうと、発電に使用される平和的な原子力発電所であろうと、それらはすべて人間の手の中のツールであり、人間がどのように使用するかを決定する——発電に使うか、都市を破壊するか、決定権は人間の手にある。反応炉自体は何も決定できず、次世代の反応炉や爆弾を発明することなど論外だ。
今日に至るまで、意思決定と新しい思想の創造ができるのは人間だけだった。しかしAIは、人間の助けや介入なしにこれらを実行できる最初の技術だ。AIは自律的に意思決定ができ、AI兵器は人間の指示なしに爆撃目標を自ら決定でき、さらには新しい兵器や軍事戦略を発明することも可能だ。それは新しい薬の発明や癌の治療といった巨大な積極的な可能性を持つと同時に、巨大な消極的な可能性も持つ。まさにこの理由から、ハラリ氏は新著で情報技術の歴史に焦点を当てることを選んだ。なぜなら、彼は現在、これが私たちが直面する最大の挑戦であり、多くの面で「人類が歴史上直面した最大の挑戦」であると考えているからだ。数千年にわたり、人類は地球を支配してきた。地球上には知能と革新能力において私たちと競争できるものは何もなかった。しかし今、地球上には数年以内に知能で私たちを超え、私たちの生活を決定し、薬から兵器まであらゆる新しいものを発明できる可能性のある存在が出現した。これが最大の挑戦なのである。
二、10年間の認識の進化:遠い推測から眼前の現実へ
伊藤氏は、ハラリ教授が2015年に『ホモ・デウス』を出版した際に、情報技術と情報ネットワークに対してすでに警告を発し、重点的に注目していたことに気づいた。彼は興味深く問いかけた:10年前に『ホモ・デウス』を執筆した際の思考と比較して、ハラリ教授の現在の考え方はどのように進化しましたか?この10年間で、歴史家、中世の軍事専門家から情報ネットワークとAIに焦点を移した、彼の個人的な思想の発展軌跡はどのようなものですか?
ハラリ氏は率直に語った。10年前に『ホモ・デウス』を執筆した頃は、AIについて語る人はまだ非常に少なかった。もちろん、コンピュータ科学分野や、グーグルやマイクロソフトのようなトップ企業の内部関係者は、いくつかの傾向を予測していたし、ニック・ボストロム(彼の著書『スーパーインテリジェンス』は2014年出版)のような少数の哲学者も議論を行っていた。しかし当時、AIについて書くことは、「おそらく数百年後に起こること、私たち人間の生活に直接的な実質的な影響はほとんどない哲学的な推測」について議論しているような感覚だった。
しかし今日、AIは至る所にあり、その発展速度はまさに「驚異的」だ。ハラリ氏は、当時すでにレイ・カーツワイルのような人物が、2020年代末、およそ2029年にはAGI(汎用人工知能)が登場し、チェスや自動車運転のような狭い分野だけでなく、あらゆる分野で人間を超えるだろうと予測していたことを思い出した。ハラリ氏自身でさえ、カーツワイルの予測を読んだとき、「ああ、彼は誇張している、2029年であるはずがない」と思っていた。しかし今、カーツワイルは2029年の予測をまだ堅持しており、彼は「比較的保守的な思想家の一人」とさえ見なされている。中国と米国の大型企業のAI研究を率いる人々の話を聞けば、彼らは1年、5年以内のAGI実現について話している。AIの発展プロセスは著しく加速した。
もう一つの顕著な変化は、AI規制に関する、あるいはそれに関する何らかの合意を達成するための全ての希望が、今や「極めてナイーブ」に見えることだ。ハラリ氏は、特に最近の米国大統領選挙の後、「AI開発のリスクをどのように管理するかに関する世界的な合意に達するという希望は、基本的には打ち砕かれた」と考えている。
これはAI革命の核心にある巨大な逆説、すなわち信頼の逆説につながる。ハラリ氏は、OpenAI、マイクロソフト、テンセント、百度などの企業の責任者や主要な政治家など、AI革命を率いる人々と話すとき、常に2つの質問をする。最初の質問は、「なぜそんなに早く発展しているのですか?」だ。ハラリ氏はAIの巨大な積極的な可能性を理解しているが、同時にリスクも存在することを明確に認識している。だから彼は「少し速度を落として、人間社会に時間を与えましょう。人間は非常に適応性の高い生物であり、AI時代に適応できますが、時間が必要です。もう少し時間を与えてください」と提案する。
そして、これらのリーダーたちの回答は、ほとんどが同じだ:「私たちは巨大なリスク、人間の絶滅につながる可能性さえあることを理解しています。私たちはそれを理解しています。私たちは速度を落とす意思がありますが、それはできません。なぜなら、もし私たちが速度を落とし、他の企業、他の国の競合相手が速度を落とさなければ、彼らがこの競争に勝ち、最も冷酷無情な人々が世界を支配することになるでしょう。なぜなら彼らがAIというこの素晴らしい技術を手に入れるからです。」結論は、「私たちは他の人間を信頼できないからこそ、より速く発展しなければならない」だ。
次に、ハラリ氏は2つ目の質問をする:「あなた方は、開発中の超知能AIを信頼できると思いますか?」彼らの回答は、「はい」だ。ハラリ氏はこれに不可解を感じている:「1分前まで他の人間を信頼できないと言っていた人々が、突然非常に簡単に信頼するようになり、しかしAIは信頼できると言う。」彼は率直に言って、これはまさに「狂気の淵」にあると述べた。なぜなら、人間に関しては、お互いを信頼することが難しい理由を理解できる。結局のところ、私たちは他の人間と何千年もの間付き合ってきた経験があり、彼らの心理や動機を理解しているからだ。私たちは権力への人間の渇望をよく知っているが、権力追求を抑制するメカニズムも理解している。
数千年の間、人類は相互信頼を学ぶ方法を発展させてきた。数万人から数十人の小さな部族で暮らし、部族外の誰をも信頼できなかった一万年あるいは十万年前の状態から、今日のように数億人の市民が互いに信頼できる日本のような国にまで発展した。世界の貿易ネットワークは地球上の80億人全てを結びつけており、私たちが食べる食物、着る服、私たちを守る薬は、地球の反対側にいる見知らぬ人によって生産されていることがしばしばある。したがって、他人を信頼することは依然として巨大な問題ではあるが、私たちはこの分野で経験を持っている。
しかし、超知能AIに関しては、私たちは「全く経験がない」。彼らがどのような目標や策略を発展させる可能性があるか分からない。数百万の超知能AIが相互作用し、数百万の人間と相互作用したときに何が起こるか分からない。AIはどこかにある一台の大型コンピューターとしてではなく、むしろ「世界を席巻する移民の波」として見なされるべきだ。彼はこう考えている:「AIは数百万の異質な移民の波であり、彼らは人々の仕事を奪い、社会の管理方法について全く異なる考えを持ち、国を乗っ取る可能性もある。これは人々をより恐れさせるべきだ。」
したがって、これが巨大な逆説である。核心的な問題は、「超知能AIを開発する前に、どうやって人間同士の信頼を築くか?」だ。
三、エリートと大衆の信頼の隔たり:誰のエリート、誰のために奉仕するのか?
信頼に言及し、伊藤氏はさらに踏み込んで、人間とAIエージェント間の信頼だけでなく、いわゆる「エリート」と「一般大衆」間の信頼の隔たりも拡大していると述べた。彼は、ハラリ教授の著作がいわゆる「エリート層」によってより多く読まれているとすれば、これらの深い思考が一般大衆にどの程度影響を与えることができるのかを気にしている。結局、これら二つの分断された集団間の隔たりを埋めることは非常に重要である。
ハラリ氏は応答した。私たちが頭の中で作り出す多くの分裂と同様に、「エリート」と「人民」という区別も「間違った二分法」だ。彼は世界で最も裕福な人々、例えばマスク氏や他の何人かの億万長者を例に挙げた。これらの人々自身が億万長者であるにもかかわらず、彼らはエリートに反対していると主張している。ハラリ氏は問い返した:「あなたがエリートでないなら、エリートとは何ですか?世界で最も裕福な人々はエリートではないのですか?現在米国政府を率いるこれらの億万長者たち、ああ、彼らはエリートではない。なぜ?」彼は、「エリート」という言葉は否定的なレッテルとなり、人々は単にそれを使って相手を攻撃しているだけだと考えている。
事実は、「あらゆる集団にはそのエリートがいる」ということだ。ハラリ氏は、どんな集団を管理するにしても、たとえサッカークラブであっても、エリートなしでは成り立たないことを強調した。社会には常に、特定の面でより才能があったり、より多くの権力と影響力を持っていたりする人々が存在する。これは人間社会の本質である。問題はエリートの存在するかどうかではなく、核心は「これは奉仕型のエリート(serving elite)なのか、それとも自己奉仕型のエリート(self-serving elite)なのか?」ということだ。
彼は説明した:集団の中で、友人関係のような小さなものから、国全体あるいは世界全体のような大きなものまで、もし最も影響力のある人々が自身の利益のためだけに権力を行使するなら、それは非常に悪い状況となるだろう。理想的な状況は、特定の分野でより才能があり、より影響力がある、あるいは権力を持つ人々が、自身の才能と権力を個人の利益のためだけでなく、全ての人の福祉のために活用できることだ。これこそ追求すべき目標である。
四、情報洪流時代の教育使命:知識伝達から真偽の識別へ
対話は自然とAI時代の挑戦に対処する上での教育の役割に広がった。伊藤氏は、ハラリ氏が著書で述べたサイバースペースと物理空間で生活する人々の間の分裂や、ますます多くの人々がサイバースペースに没入し、断片的な情報(例えば280文字以下のツイート)を受け取ることに慣れている現象に言及した。
彼は憂慮して尋ねた:慶應義塾大学のような高等教育機関や、小中学校のような基礎教育段階は、この挑戦にどのように対処し、若い世代がハラリ氏の著作のような深く考えさせられ、議論を巻き起こす長文を読む能力を維持することを保証すべきか?情報へのアクセスが日々容易になる一方で、深い思考能力が試されるこの時代において、教育は人間の知的能力を維持する上でどのような役割を担うのか?
ハラリ氏は指摘した。これまでの時代、教育機関の核心的な任務は人々に情報を提供することだった。なぜなら情報は希少だったからだ。彼は、辺鄙な小さな町に住む人々が、町に百冊程度の蔵書しかない図書館しかなく、本を一冊手に入れることさえ非常に困難だったという場面を描写した。しかし今、状況は全く逆だ。人々は情報に不足しているのではなく、膨大な情報に圧倒されている。最も重要な点は理解する必要がある:「情報は真実ではない(truth)」。
「真実は情報の非常に珍しい部分集合だ」とハラリ氏は強調した。世界中の全ての情報を吟味すれば、真実が占める割合はごくわずかだ。情報の大部分は「ゴミ情報、虚構、幻想、嘘、プロパガンダなど」である。その理由は難しくない。まず、「真実は高価だが、虚構は安価だ」。真実の記述を執筆するには、調査を行い、事実を分析し検証するのに時間を費やす必要があり、これには時間、労力、金銭がかかる。一方、虚構は非常に安価で、頭に浮かんだどんな考えでも書き下ろすだけで良い。
次に、「真実はしばしば複雑だ。なぜなら現実が複雑だからだ」。例えば、量子物理学に関する論述を執筆するには、それ自体が非常に複雑だ。そして人々は一般的に複雑な物語を好まず、彼らは単純な物語を好む。虚構は必要に応じて可能な限り単純に作り上げることができる。
最後に、「真実はしばしば苦痛だ」。常にそうではないが、現実のある部分は確かに不快だ。個人的なレベルで見れば、これこそ人々が心理療法を必要とする理由だ——もし自分に関する全てがそんなに楽しく興味深いのなら、苦痛な記憶や内面の苦痛なパターンを認めるのを助けてくれるセラピストは必要ないだろう。この点は国全体にも当てはまる。国もまた、その歴史や社会の特定の苦痛な部分を認めることをしばしばためらう。したがって、真実は時には苦痛だが、虚構は思い通りに美しく心地よいものに形作ることができる。
この「高価で複雑で苦痛な真実」と「安価で単純で魅力的な虚構」との競争において、虚構がしばしば勝利し、世界は膨大な虚構のコンテンツで溢れている。したがって、大学や新聞社のような機関の任務は、もはや単に人々に情報をもっと提供することではない——彼らはすでに情報過多である——むしろ、「情報の大海の中で珍しい真実の宝石を見つけ、両者を区別する方法を提供する」ことだ。
歴史家として、ハラリ氏が歴史の授業で学生に教える主要な内容は、過去の具体的な史実、例えばある王がどの年に別の王に勝利したかなどではない。これらの情報は学生たちはネット検索で簡単に得られる。彼らが歴史学部で本当に学ぶ必要があるのは、「信頼できる歴史資料と信頼できない歴史資料を区別する方法」だ。ある資料は今日インターネットで読んだものかもしれない——このTikTok動画を信頼できるかどうか、どうやって知るのだろうか?ある資料は中世から来ているかもしれない。例えば、千年前の文書に、ある王が戦いに勝ったと主張していると記されている——それを信じるべきかどうか、どうやって判断するのだろうか?なぜなら千年前の人々も嘘をついたのであり、今日の人々だけではないからだ。これが核心的な問題なのだ。
もちろん、科学の各分野でこの問題は少し異なるだろうが、鍵はより多くの情報を得るのではなく、「信頼できる情報と信頼できない情報をどう区別するか」にある。物理学や化学の実験も同様だ:この実験操作が正しく、結果が信頼できるのか、それとも問題があり、結果を受け入れるべきでないのか、どうやって知るのだろうか?
五、信頼再構築の切迫性:AI完全成熟前に時間との競争
伊藤氏は、ハラリ氏の新著『ネクサス』を読むことが、複雑な感情体験、時には苦痛さえも伴ったが、同時に希望も与えてくれたと述べた――まだ取り返しのつかない事態には至っていないということだ。人類は自己修正と協力の能力を持っており、AIがある臨界点に達する前に十分な時間があれば、おそらく対応策を見つけられるだろう。この考慮に基づき、慶應義塾大学は人文社会科学者を集めてこの挑戦に共同で立ち向かうための「クロス尊厳センター」を設立した。彼はすぐにハラリ氏に興味深い仮説的な質問を投げかけた:「もしあなたが私たちのクロス尊厳センターの研究員なら、研究テーマは何になりますか?」そして、ハラリ氏がいつでも参加することを熱心に招いた。
ハラリ氏の回答は率直だった:「人間同士の信頼をどう築くか。」彼はこれが「最も切迫した」課題だと考えている。なぜなら、現在の世界はまさに私たちが最も信頼を必要とする時に、人間の信頼の崩壊を目撃しているからだ。彼は強調した:「今日の世界最大の危険は依然としてAIではなく、人間同士の不信感だ。」もし人間がお互いを信頼し協力できるなら、私たちはまだ安全にAIを開発する方法を設計できる。人間の間の不信感こそが、AI革命をこれほど危険にしているのだ。したがって、彼はここに焦点を当て、「AIを制御するために十分な人間的な相互信頼を築くには、まだ遅くない」と信じている。
では、具体的にこの挑戦にどのように取り組むべきか?ハラリ氏は、これには多分野からの投入が必要であり、学際的なセンターが理想的な研究場所である理由もそこにあると考えている。なぜなら、いかなる単一分野も単独でこの問題を解決できないからだ。生物学と心理学の視点が必要だ。なぜなら私たちはまだ動物であり、自身の動物的な継承を理解する必要があるからだ——例えば、チンパンジーがどのように信頼を築くか、あるいは築けないかから、人間の行動について多くのことを学ぶことができる。もちろん経済学、コンピュータ科学の参加も必要だ。なぜなら今日の全ての社会システムは新しい情報技術の上に築かれているからだ。過去10年、20年間に非常に成功した人間の信頼構築方法の多くは、今や時代遅れになっている可能性がある。なぜなら現在、人間はコンピュータを介して交流しているからだ。
過去10年、20年間の人間の信頼崩壊の原因については、巨大な議論が存在する。これ自体がまた逆説だ。なぜなら、児童死亡率、疾病、飢餓など、多くの具体的なデータから見ると、人間社会は歴史上最良の状態にあるからだ。私たちはかつてない最高の状況にあるにもかかわらず、人々はこれほど怒り、失望し、相互にコミュニケーションが取れない。ハラリ氏は、原因は「新しい技術が人間間に介入した」ことにあると考えている。現在、ほとんどの人間交流は、非人間のエージェント(情報技術、ソーシャルメディアアルゴリズムなど)によって媒介されており、これが世界に混乱を引き起こしている。信頼を再構築するために、私たちは過去に戻ることはできない。「全てのスマートフォンとコンピューターを捨てよう」と簡単に言うことはできない、それはうまくいかない。したがって、私たちは「情報技術の調停のもとで、広範な大衆間で信頼を築く方法を再学習する」必要がある。
六、学術と大衆の間の溝を埋める:明確で分かりやすい表現と社会的影響力構築
伊藤氏はハラリ氏の著作の読みやすさを高く評価し、そのスタイルが一般的な学術著作とは大きく異なると指摘し、これがハラリ氏の意図によるものかどうかを尋ねた。
ハラリ氏は「絶対そうだ」と明確に述べた。彼は自身の仕事を、学術研究の世界と一般大衆との間に「橋を架ける」ことだと見なしている。学術界は通常、専門家同士が普通の人々には理解しにくい言葉で交流している。彼が努力しているのは、学術界や科学界の最新の理論、モデル、発見を、高校生やAI革命を理解したい一般人でも容易に理解できるような方法で再述し、説明することだ。彼は読者として、コンピュータの専門知識がなく、様々な図や方程式を理解したくないが、AI革命と情報史を単純な言葉で理解したい人々を想定している。これがこの本を執筆する目的である。
これらの努力がサイバースペース、つまり「サイバースペースで生活する人々」にどの程度浸透しているかについては、ハラリ氏は「知るのが非常に難しい」と率直に語った。本を書き、それを世界に出す。それが人々にどのような影響を与えるかは、正確に知るのが難しい。しかし、彼は自身の個人的な努力に加えて、著作の普及が社会的影響力を持つ企業のおかげでもあると述べた。約10年前、『ホモ・デウス』の出版と同時に、彼と夫が共同でこの会社を設立した。ハラリ氏は書籍の執筆を担当し、夫は全てのビジネス運営を担当している。彼らには20人のチームがあり、そのうちの一人は当時東京にいた。彼らはソーシャルメディアアカウントなどを通じて、本の中の思想をより多くのメディア形式に変換し、より広範な人々に届けるよう努力している。
「これで十分かどうかは、私たちには分からない。」ハラリ氏は謙遜して述べた。「私たちは誰もが世界でわずかなエージェンシーを持っていると感じています。私たちはできる限りのことをし、他の人々も彼らができる限りのことをすると信じています。」彼は、誰もが世界全体の重荷を一人で背負うことはできないと考えている。もし十分な数の人々が各自の小さな領域でできる限りのことをすれば、「私たちは大丈夫だろう」と彼は考えている。
七、国際秩序の崩壊とAI競争の影:トランプ時代の反思
ハラリ氏の新著『ネクサス』の日本語版が発売されたばかりであることを踏まえ、伊藤氏もアメリカの指導者交代以降の国際情勢の発展についてハラリ氏に尋ねた。
ハラリ氏は懸念に満ちていた。彼は、社会内部および社会間の信頼の加速する浸食により、第二次世界大戦後に構築された国際秩序が崩壊しつつあることを指摘した。この国際秩序の最も重要な禁忌とルールは、強国が弱国を恣意的に侵略・征服してはならないということだった。これは、数千年にわたって強国が隣国を侵略・征服してより大きな国や帝国を築くのが当たり前だった、それ以前の数千年間の人類史とは鮮明な対比をなしていた。21世紀初頭、人類は歴史上最も平和で繁栄した時代を享受したが、それは主にこの禁忌が維持されていたからだ。
このことは、政府予算に最も明確に反映されている。歴史を振り返ると、ほとんどの王、将軍、皇帝の予算の50%以上が軍事に費やされていた:兵士、軍艦、城などが主要な政府支出だった。一方、21世紀初頭には、世界各国の政府軍事支出の平均水準は約6%または7%に低下し、これは驚異的な成果だった。予算の約10%が医療保健に費やされ、これは人類史上初めて世界各国の政府が軍事よりも医療に多くの投資を行ったことを意味する。
しかし、この傾向は今や逆転しつつある。今や、弱者が強者に従うことを拒否すれば、それによって引き起こされる紛争の責任は弱者にあるという論理が至る所で見られる。例えば、アメリカはかつてグリーンランドを「征服する」と公言したことがある。
ハラリ氏は警告した:このような世界観と論理は、全人類を継続的な戦争の状態に引き戻すだろう。このような状況下では、医療や教育予算が減少するだけでなく、AIを規制する機会も一切存在しなくなるだろう。なぜなら、各国が「我々はAI競争に勝たなければならない。相手が勝利し、その後彼らが強者となり、我々が彼らに従わなければならない事態を防ぐために、我々を遅らせる可能性のあることは何もしない」と言うだろうからだ。見通しは厳しいものの、ハラリ氏はまだ希望を著書の中で伝えている:「まだその時点に達していない限り、希望はあります。今後数ヶ月、数年の間に、十分な数の人々が正しい行動をすれば、人類は依然として無事でしょう。」
八、物語、アルゴリズム、そして信頼の未来:デジタル洪水の中で人間の価値を守る
質疑応答の時間に、エンターテイメント産業、特にアニメーションとCG技術に関心を持つ日本人学生が、AIがエンターテイメントコンテンツ創作をどのように変えるかについてハラリ氏に質問した。AIによる画像および動画生成技術が成熟するにつれて、将来のエンターテイメント産業の形式と内容は具体的にどのように変化するのか?
ハラリ氏は率直に、具体的に何が起こるかを正確に予測することはできないが、「エンターテイメントの形式とコンテンツのますます多くが、人間ではなくAIから来るようになる」ことは非常に明確だと述べた。歴史上、詩、演劇、テレビ、映画など、あらゆるエンターテイメント形式は人間の頭脳と想像力から生まれた。今や地球上には、人間よりもはるかに低いコストで、はるかに高い効率でそのようなコンテンツを生産できるものが現れ、「人間の想像力の限界を突破する」ことが可能になった。
なぜなら、人間の想像力は人間の脳と自身の生物学的制約に縛られているが、AIはそうではないからだ。彼は囲碁を例に挙げた。2016年のAlphaGoと世界チャンピオン李世石の有名な対局は、AI革命の決定的な瞬間の一つだった。しかし、その対局が驚異的だったのは、AlphaGoが人間の世界チャンピオンを破ったことだけでなく、その勝ち方だった——それは「完全に異質な戦略」を採用したのだ。人間は東アジアで数千年も囲碁を打ち続けており、数百万人が囲碁を打ってきた。囲碁は芸術形式とさえ見なされ、その周りに完全な哲学体系が発展してきた。しかし、これほど長い年月、これほど多くの人々がいたにもかかわらず、AlphaGoのように囲碁を打つことなど、誰も考えたことがなかった。
ハラリ氏はこれを「囲碁惑星」(Planets Go)と呼ばれる惑星にたとえた。そこには様々な囲碁の打ち方がある。人間は「囲碁惑星」上の一つの島に閉じ込められ、それが惑星全体だと思い込んでいた。二千年もの間、思考の限界のために、彼らはこの「精神的な島」から離れることができなかった。そしてAlphaGoが現れ、全く新しい打ち方を示し、人間が「囲碁惑星」上の全く新しい領域を発見するのを助けた。
音楽、絵画、演劇、テレビなどの分野でも同様のことが起こる可能性が非常に高く、すでに始まっている。多くの人々が現在AIを使って動画を作成しようとしているが、これはプロセスの始まりに過ぎない。もし今日のAIがすでに非常に複雑だと考えるなら、10年後のAIと比較すれば全く取るに足りないだろう。したがって、他の分野と同様に、エンターテイメント業界も徹底的に変化するだろう。そして具体的にどのように変化するかは予測できない。なぜならAIの本質はそれが「異質な知能形式」であり、人間の知能は異質な知能の行動を予測できないからだ。
AIがする全てのことを予測できるなら、それはAIではなく、ただの自動機械だ。コーヒーマシンのように、ボタンを押せばエスプレッソができると予測できるなら、それは自動機械であり、AIではない。では、いつAIと見なされるのか?「機械に近づき、ボタンすら押す必要なく、機械があなたに『ねえ、今朝新しい飲み物を発明したんだけど、コーヒーより好きだと思うよ、一杯作っておいたよ』と告げたときだ。」これこそAIだ。
十三、信頼は生命の基盤であり、AI時代の最終的な解決策
イベントの終わりに、ハラリ氏はその日の議論と質疑応答をまとめた。彼は、議論された多くの議題が憂慮すべきものに聞こえることを認めた。これは一部には、AI開発企業がその積極的な可能性ばかりを強調しがちであるため、哲学者、歴史家、批評家が潜在的な危険を指摘してバランスを取る必要があるからだ。しかし、AIは間違いなく巨大な積極的な可能性も持っている。そうでなければ誰もこの技術を開発しないだろう。その応用範囲は医療から壊滅的な気候変動の防止などに及ぶ。可能性は現実のものだ。問題の核心はAIの開発をどう阻止するかではない——これは現実的でも望ましくもない——私たちはそれを開発したいが、安全な方法で進めたいのだ。
そして、この目標を達成するための鍵は、再び「人間同士の信頼を築くこと」に戻ってくる。ハラリ氏は、誰もが自身の特定の分野でできる限りのことをするよう奨励した。彼は、人々が世界の重荷に圧倒されることがあることを理解しているが、世界全体が自分一人の肩にかかっていると感じる必要はないことを思い起こさせた。地球上には80億人以上の他の人々がこの重荷を分かち合っており、言うまでもなく動物、植物、その他の有機体もおり、各個体が自身の微小な役割を果たしているのだ。
今回の対話の核心的なテーマである信頼について語り、ハラリ氏は自身の考えを共有した:「信頼こそが生命の基盤だ。もしあなたが他人を信頼せず、外部を信頼しなければ、一分たりとも生きていけない。」私たちが生きるために必要な呼吸、この生命を維持する最も単純な動作さえ、本質的には「私たちの外にあるものへの信頼」だ。彼は観察した。今日の世界の多くの人々、最も権力のある人々の中には、分離、障壁、壁を築くことに固執している。しかし実際には、「完全な隔離は死である。」毎瞬、私たちは外部を信頼するという単純なジェスチャーをしている。口や鼻を開け、外部から何かを吸い込む、私たちはそれを信頼し、そして吐き出す。この信頼の吸入と吐き出しが生命を維持しているのだ。もしあなたが外部を信頼せず、口と鼻を塞いだら、一、二分以内に死ぬだろう。
「そうです、不安や恐れを感じる多くの理由があることは知っています。これらは現実のものであり、空想ではありません。世界には巨大な問題が存在します。」ハラリ氏は結論づけた、「しかし結局のところ、生命の基盤は信頼です。」