昨晩、登録者数千万人のYouTuber「The Diary Of A CEO」が、チューリング賞とノーベル賞受賞者であり、「AIのゴッドファーザー」と称されるGeoffrey Hinton氏との最新の深掘りインタビューを公開しました。
二人は対話形式で、主にAIの発展、安全性、応用について議論しました。AIには一定のリスクがあるものの、人間の科学研究、仕事、生活水準の向上に非常に効率的であると述べられました。もちろん、一部の人の仕事を奪うこともありますが、その結果、全く新しい職種が生まれることもあります。
現代のAI革命の創始者でありリーダーであるOpenAIも、今回の対話に登場しました。Hinton氏は、彼の最も優秀な弟子であるOpenAIの共同創設者兼チーフサイエンティストのIlya Sutskever氏、そして最近勢いを増しているAIエージェントについても触れました。
完全版インタビュー
このインタビューは合計1時間30分と長いため、皆さんの視聴体験に配慮し、「AIGCオープンコミュニティ」では字幕を追加しませんでした。しかし、以下に今回のインタビュー内容をまとめてありますので、必要に応じて参考にしてください。
現在、この動画はYouTubeに公開されてから1日も経たないうちに、再生回数が75万回を超え、コメントも4500件以上寄せられており、視聴者はこのインタビューに非常に満足しています。AIに関して、あなたがこの業界に携わっているか否か、AIを使用しているか否かに関わらず、大きな示唆が得られるでしょう。
この歴史的なインタビューについて、ネットユーザーがどのように評価しているか見てみましょう。
あるユーザーは、このインタビューは歴史的遺物として保存されるべきだと述べています。
これはあなたのチャンネルで見た中で、最初か二番目に重要な対話です。あなたはインタビュー中に一時停止し、答えがゆっくりと沈殿するのを許し、それは深遠な意味を持っています。
これは私が見た中で最高のインタビューです。ヒントンは非常に誠実でした。
私の息子は長年、「AIを人間のように考えさせるのは危険だ」という理論を持っていました。その代わりに、彼は私たちが「犬」のように考えるAIを創造することを望んでいました。そうすれば、AIは人間を愛し、私たちに仕えることを望むだろうと。
また、あるネットユーザーはAIに対する深い体験を語り、非常に長いコメントを投稿しました。「私はもともとフリーランスのライターで、10年間その仕事をしていましたが、AIの出現によってその職を失いました。翌年、アート業界に転身しようとしましたが、またも中断されました。さらにその翌年、医療コーディングを学び始めましたが、認証過程で再び中断されました。AIがクリエイティブ市場を破壊していることに気づいたからです。その後、私は様々なアルバイトを転々としましたが、幸運にもAIをトレーニングする仕事を見つけました。その仕事は嫌でしたが、収入があることには感謝していました。
私はずっと別の仕事を見つけられずにいました。今では誰もがAIを使っています。テクノロジー分野に転身すれば役立つだろうと思い、AIについてもっと学び始め、昨年はプログラミングを学ぶために学校に戻りました。しかし、すぐに何が起こっているのかに気づきました。
AIは私よりもはるかに速く学習します。それで私は退学しました。もう教育にお金をかける気はありません。なぜなら、それが私に何ら利益をもたらさないからです。たとえプログラミングの学位を取得したとしても、卒業する頃には、すべての初級職がAIに取って代わられている可能性があり、学校の教育内容は技術の最先端から大きく遅れています。経験がなければ、誰も私を雇ってくれないでしょう。
正直、自分に何ができるのか分かりません。何十年も慢性的な病気を抱えていて、肉体労働はできません。あと1、2年漂流するしかないでしょう。AIが自己学習できるようになるまでは。そうすれば、また解雇されるでしょう。そして、同じように失業した人が大勢いるため、雇用市場はさらに厳しくなるでしょう。もしかしたら、いくつかアルバイトの機会があるかもしれませんが、かろうじて家賃を稼げるかどうか、それすらもできないかもしれません。誰にも分かりません。
私は最終的に路上で生活し、溝で死ぬ自分を予見できます。未来を考えるたびに、どうしようもなく深い憂鬱に陥ってしまいます。
AIが確かに非常に有用で、大きなプラスの可能性を秘めていることは知っていますが、現実的に考えましょう。世界規模で、私たちは今、すべての人を養うのに十分な資源を持っていますが、そうしていません。気候変動にどう対処すべきかは分かっていますが、そうしません。アメリカは世界で最も裕福な国ですが、国民に基本的な医療保障すら提供していません。ベーシックインカム?アメリカでは、それはほとんど不可能です。
AIは人間の本性を変えませんし、人間の本性自体が致命的な欠陥に満ちています。貪欲さ、傲慢さ、自己中心性などです。富裕で力のある人々はシステムから得られるすべてを搾り取り、残りの人々は飢えるだけでしょう。未来は暗いです。私はこれらの巨大な波の中を漂う船を作る方法をずっと考えてきましたが、何も思いつきません。市場は、ごく少数の配管工しか必要としないのですから。
以下は今回のインタビューの一部内容です。
司会者:Geoffrey Hintonさん、ありがとうございます。皆さんはあなたのことを「AIのゴッドファーザー」と呼んでいますね?
Hinton:そうです。
司会者:なぜそう呼ばれるのですか?
Hinton:かつては、ニューラルネットワーク、人工ニューラルネットワークを機能させることができると信じる人はあまりいませんでした。20世紀50年代から、AI分野では、AIを実現する方法について主に2つの考え方がありました。一つの見方は、人間知能の核は推論であり、推論を行うには何らかの論理形式を使用する必要がある、というものでした。
したがって、AIは論理に基づかなければならない。あなたの脳の中には、シンボル表現のようなものがあり、それをルールで操作している、これが知能の働き方だというのです。学習や類推推論のような能力は、基本的な推論がどのように機能するかを解明した後に現れるものだと。もう一つの方法は、脳に基づいてAIモデルを構築することです。なぜなら、明らかに脳が私たちに知能を与えているからです。そこで、コンピューター上で脳細胞のネットワークをシミュレートし、脳細胞間の結合の強度をどのように学習させるかを見つけ出し、画像内の物体認識、音声認識、さらには推論のような複雑なことを学べるようにするのです。
私はこの方法に50年間固執しました。なぜなら、それを信じる人がほとんどいなかったからです。当時、この分野の研究に取り組んでいる良い大学チームは多くありませんでした。だから、もしあなたがこの分野に従事すれば、この方法を信じる優秀な若手学生があなたの元に集まってきました。私は幸運にも、OpenAIなどのプラットフォームの創設に重要な役割を果たした非常に優秀な学生を多く採用できました。
司会者:なぜあなたは脳を基盤としたモデリングの方がより効果的な方法だと信じたのですか?
Hinton:初期には私一人だけがそう考えていたわけではありません。フォン・ノイマンも、チューリングも信じていました。もし彼らのどちらかが生きていたなら、AIの歴史は大きく異なっていただろうと私は思います。しかし、彼らは二人とも若くして亡くなりました。
司会者:AIはもっと早く登場していたと思いますか?
Hinton:もし彼らのどちらかが生きていたなら、ニューラルネットワークの手法はもっと早く受け入れられていたと思います。人生のこの段階で、あなたはどのような使命を負っていますか?私の現在の主な使命は、AIがどれほど危険になり得るかを人々に警告することです。あなたがAIのゴッドファーザーになったとき、そのことをご存知でしたか?
あまり明確ではありませんでした。私はいくつかのリスクについて理解が遅れました。例えば、人々がAIを使って自律型殺傷兵器、つまり自ら動き回り、誰を殺すか決定する兵器を製造する、といったリスクは常に明らかでした。しかし、AIがいつか私たちよりも賢くなり、私たちを無関係にしてしまう可能性さえあるというような他のリスクについては、私は非常に遅れて気づきました。他の人々は20年前には認識していましたが、私は数年前になって初めて、それがすぐに到来する可能性のある真のリスクであると認識しました。
司会者:コンピュータの学習能力を考えると、彼らは人間のように学習し、しかも絶えず改善されています。なぜあなたはそれを予見できなかったのですか?なぜ気づかなかったのですか?20年、30年前のニューラルネットワークができることは非常に原始的で、視覚、言語、音声認識の面では人間には遠く及びませんでした。当時、彼らが人間よりも賢くなることを心配する必要があるとは、ばかげているように思えました。この状況はいつ変わったのですか?
Hinton:一般大衆にとって、それはChatGPTが登場した時でした。私にとって、私たちが創造しているデジタルな知能が、私たちが持っている生物学的知能よりもはるかに優れているという特性に気づいた時です。もし私があなたと情報を共有したい、例えば何かを学び、あなたに伝えたいとしたら、私はいくつか文章を話すでしょう。
これはかなり簡略化されたモデルですが、だいたい正しいです。あなたの脳はニューロン間の結合の強度をどのように変えるかを解明しようとします。例えば、私が次の位置に特定の単語を置くかもしれません。非常に予想外の単語が現れたとき、あなたは大量の学習を行い、非常に明白な単語が現れたとき、学習はほとんどありません。例えば、私が魚とチップスと言ったとき、私がチップスと言っても、あなたはあまり学習しません。しかし、もし私が魚とキュウリと言ったら、あなたはもっと学習するでしょう。なぜ私がキュウリと言ったのだろうと考えるでしょう。これがだいたいあなたの脳で起こっていることで、私たちは脳がこのように機能していると考えています。
誰も脳が実際にどのように機能しているのかを正確には知りませんし、結合の強度を増減させる方法に関する情報を脳がどのように得ているのかも知りません、これが重要な点です。しかし、私たちは今、AIから、タスクをより良く実行するために結合の強度を調整する方法に関する情報を得られれば、信じられないようなことを学習できることを知っています。なぜなら、それが私たちが現在人工ニューラルネットワークで行っていることだからです。ただ、実際の脳がどのようにしてそのような増減信号を得ているのかは、私たちには分かりません。
司会者:今日、AIの安全性に関して、あなたが最も懸念していることは何ですか?最も重要なものをいくつか挙げるとしたら、私たちが注目すべきことは何でしょうか?
Hinton:まず、私は2つの全く異なるリスクを区別したいと思います。1つは人間がAIを悪用することによるリスクで、これはほとんどのリスクであり、すべての短期的なリスクです。もう1つは、AIが超知能になり、私たちを必要としないと決定することによるリスクです。これは現実のリスクなのでしょうか?私は主に2番目のリスクについて話します。なぜなら、多くの人が「これは現実のリスクなのか?」と尋ねるからです。はい、そうです。
今、私たちはこのリスクがどれほど大きいか知りません。私たちはこのような状況に陥ったことがなく、私たちよりも賢いものに対処する必要があったこともありません。ですから、この生存の脅威について、私たちはどのように対処すべきか、またそれがどのようなものになるのか、全く知りません。何が起こるか、そしてどう対処すべきかを知っているとあなたに言う者は、でたらめを言っているのです。私たちはそれが私たちに取って代わる確率をどのように見積もるべきか知りません。ある人はその確率が1%未満だと言い、私の友人であるヤン・ルカンは、いや、私たちはこれらのものをずっと作り続けているし、ずっとコントロールできるだろう、従順にさせるだろう、と考えています。
そして、エリザー・ユドコウスキーのような人々は、いや、これらのものは間違いなく私たちを滅ぼすだろう、誰かがそれを作れば、私たち全員を滅ぼすだろう、と彼は確信しています。私はこれら2つの立場は極端すぎると考え、中間の確率を見積もるのは難しいです。もし2人の友人のどちらが正しいかに賭けるとしたら、私には全く分かりません。もし賭けなければならないとしたら、確率は中間だと言うでしょうが、どう見積もればいいのか分かりません。私はよく、それらが私たちを滅ぼす可能性が10%から20%あると言いますが、これは直感に基づいています。なぜなら、私たちはまだそれらを作っているし、私たちは非常に創造的だからです。十分な数の賢い人々が十分な資源を使って研究すれば、それらを私たちを傷つけたくないように作る方法を見つけられることを願っています。時々、2番目の道、つまり核爆弾や原子爆弾の発明と、それらと今回の違いについて考えます。原子爆弾が登場したとき、多くの人が私たちに残された時間は少ないと考えていたと思います。
原子爆弾は、実際には一つのことしか得意ではなく、その作用の仕方は非常に明白でした。広島と長崎の写真を見ていなくても、それが非常に危険な大きな爆弾であることは明らかでした。しかし、AIは異なります。多くの用途があり、医療、教育、そしてデータを使用する必要があるほぼすべての業界で、AIがあればより良いことができます。だから私たちはAIの開発を止めません。人々は言うでしょう、「では、なぜ今すぐ止めないのか?」私たちは止めません。なぜなら、それはあまりにも多くの分野で非常に有用だからです。さらに、私たちは止めません。なぜなら、戦闘ロボットにも有用であり、兵器を販売するどの国も止めたがらないからです。例えばEUの規制ですが、彼らはAIに関するいくつかの規制を持っていますが、ないよりはましですが、これらの規制はほとんどの脅威に対処するように設計されていません。特に、EUの規制には、これらの規制がAIの軍事利用には適用されないという条項があります。したがって、政府は企業や個人を規制しようとしますが、自分自身は規制しようとしません。私見ですが、これは狂っています。この問題を行ったり来たり考えますが、もしヨーロッパに規制があり、世界の他の地域にはない場合、それは競争上の不利を生み出すでしょう。
司会者:私たちはすでにその状況を目にしています。OpenAIがアメリカで新しいモデルやソフトウェアをリリースする際、現地の規制のためにヨーロッパではリリースできないことに人々は気づいていないと思います。それでサム・アルトマンはツイートしました。「私たちの新しいAIエージェント製品はすべての人に公開されていますが、規制上の理由により、一時的にヨーロッパでは利用できません」と。はい、これは私たちに生産性の劣位をもたらすのでしょうか?
Hinton:生産性の劣位です。今私たちに必要なのは、私たちよりも賢いものを創造しようとしている歴史的な瞬間に、賢く、思慮深い人々によって運営される世界政府ですが、私たちはそれを持っていません。ですから、今は混戦状態です。
司会者:私たちが現在実践している資本主義は、私たちに多くの商品やサービスを生産し、私たちをうまくやっていけるようにしてくれています。しかし、これらの大企業は法的に可能な限り利益を最大化することを求められており、それはAIの開発に必要なことではありません。では、リスクについて話しましょう。あなたは人間のリスクについて言及しましたね。
Hinton:私はこの2種類のリスクを区別しました。まず、悪人や悪意のある行為者がAIを使用することによって生じるすべてのリスクについて話しましょう。最初はサイバー攻撃です。2023年から2024年の間に、サイバー攻撃は約12200%増加しました。これは、これらの大規模言語モデルがフィッシング攻撃をはるかに容易にしたためである可能性があります。フィッシング攻撃とは、知らない人のために説明すると、彼らがあなたにメッセージを送り、「やあ、私は君の友人ジョンだ。サルバドールで立ち往生しているんだ。お金を送ってくれないか?」と言うようなものです。
これは一種の攻撃です。しかし、フィッシング攻撃は実際にはあなたのログイン情報を取得しようとします。今、AIがあれば、彼らは私の声、私のイメージをクローンできます。彼らはこれらすべてを行うことができます。私は今、XプラットフォームやMetaで多くのAI詐欺が横行していることに頭を悩ませています。
特にMeta、例えばInstagramやFacebookでは、現在有料広告があり、彼らが私のポッドキャストから私の声と振る舞いを抽出し、新しい動画を作成して、私に人々をこの暗号ポンジスキームのようなものに参加するよう促させています。私たちは数週間かけてMetaにメールを送り、この広告を取り下げさせました。彼らは取り下げましたが、また別の広告が現れ、また取り下げては現れる、まるでモグラたたきです。最も心を痛めるのは、誰かが詐欺を信じて500ポンドや500ドルを失い、私が推薦したと信じ込んで私に腹を立てていることです。私は本当に彼らを気の毒に思います。これは非常に迷惑です。私も似たような些細なことに遭遇しました。現在、誰かが論文を発表し、私を著者の一人に加えています。これは、自分自身の引用数を増やすためのようです。
司会者:サイバー攻撃は非常に現実的な脅威であり、すでに急増しています。明らかに、AIは非常に忍耐強く、1億行のコードを調べて既知の攻撃方法を探すことができます。これは簡単にできます。しかし、彼らはより創造的になり、2030年までに人間が今まで考えもしなかったような新しいタイプのサイバー攻撃を生み出す可能性があると信じている専門家もいます。これは非常に懸念されることです。なぜなら、彼らは自分で考え、人間が今まで見たことのないはるかに多くのデータから新しい結論を導き出すことができるからです。あなたはサイバー攻撃から身を守るために何か対策を講じていますか?
Hinton:はい、これは私がやり方を徹底的に変えた数少ない分野の一つです。サイバー攻撃を恐れているからです。カナダの銀行は非常に安全で、2008年にはカナダの銀行で破産寸前になったところは一つもありませんでした。彼らはしっかりと規制されています。しかし、サイバー攻撃は銀行を麻痺させる可能性があると私は思います。もし私の貯蓄がすべて銀行が保有する銀行株であれば、銀行が攻撃され、それがあなたの株を保有していたとしても、その株はまだあなたのものです。だからあなたは大丈夫だと思います、攻撃者が株を売却しない限りは。なぜなら銀行は株を売却できるからです。もし攻撃者があなたの株を売却したら、あなたは終わりだと思います。私には分かりませんが、おそらく銀行はあなたに賠償しようと試みるでしょうが、その時には銀行はすでに破産しているでしょう?
だから私は、カナダの銀行がサイバー攻撃によって麻痺し、攻撃者が保有している株式を売却することを心配しています。そのため、私と子供たちのお金を3つの銀行に分散して預けています。一度のサイバー攻撃で1つのカナダの銀行が潰れたとしても、他のカナダの銀行はすぐに非常に慎重になるだろうと考えています。インターネットに接続しない携帯電話を持っていますか?コールドストレージのようなことを考えたことはありますか?私は小さなディスクドライブを持っています。このハードディスクを使ってノートパソコンをバックアップしています。だから、ノートパソコンにあるすべてのものがハードディスクにあります。少なくとも、インターネット全体が麻痺しても、ノートパソコンに情報が残っていることが分かっています。
司会者:次に選挙腐敗です。AIを利用して選挙を操作したい場合、非常に効果的な方法はターゲットを絞った政治広告です。なぜなら、その人について多くのことを知っているからです。したがって、AIを利用して選挙を操作したい人は皆、有権者のすべてのデータを取得しようとするでしょう。これを考慮すると、イーロン・マスクが現在米国で行っていることは少々懸念されます。彼は、元々は慎重に隔離されていたこれらすべての情報へのアクセスを主張しています。彼は効率を高めるためだと主張していますが、これはまさに次の選挙を操作したい場合にやりたいことなのです。
Hinton:なぜなら、あなたは人々のあらゆるデータ、彼らがどれだけ稼いでいるか、どこに住んでいるかなど、彼らのすべてを知るからです。これを知ってしまえば、彼らを操作するのは非常に簡単になります。なぜなら、AIに彼らが非常に説得力があると感じるようなメッセージを送らせることができるからです。例えば、投票しないように促すとか。私には根拠はありませんが、常識的に考えると、彼が米国政府のデータソースからこれらすべてのデータを取得する動機の一部が選挙操作のためだとしても、私は驚きません。もう一つの部分は、それが大規模モデルの学習に非常に良いデータだからでしょう。しかし、彼は政府からこれらのデータを取得し、それを自分のモデルに入力しなければなりません。彼らは多くの安全管理を停止し、そのような事態を防ぐ組織をいくつか廃止しました。
司会者:次に、YouTubeやFacebookのような組織が情報繭を形成し、人々に怒りを感じさせるようなものを見せることです。人々は怒ることが好きで、「怒り」とは、怒りを感じながらも自分が正義だと感じることです。例えば、トランプがこんな狂ったことをした、というビデオを見せられたら、私はすぐにクリックするでしょう。
Hinton:それがYouTube、Facebook、その他のプラットフォームがあなたに何をお勧めするかを決定する戦略のせいです。もし彼らがバランスの取れたコンテンツをお勧めする戦略を取れば、そこまで多くのクリックは得られず、そこまで多くの広告も売れません。したがって本質的に、利益動機が彼らに、ユーザーがクリックしたくなるものを見せるように促します。そして、ユーザーがクリックしたくなるものは、ますます極端で、彼らが持っている既存の偏見を裏付けるコンテンツです。あなたの偏見は絶えず裏付けられ、ますます深くなり、これはあなたと他者の間の意見の相違が大きくなることを意味します。
現在、米国にはほとんど交流のない2つのグループが存在します。人々がアプリを開くたびに、この状況が起こっていることに気づいているかどうかは分かりません。しかし、TikTok、YouTube、または他の大規模なソーシャルネットワークを使用している場合、ご存存知の通り、アルゴリズムは前回興味を持ったコンテンツをさらに推奨するように設計されています。したがって、これが10年間続くと、あなたをますます極端なイデオロギーや信念に押しやり、理性や常識から遠ざけることになります。これは信じられないことです。
司会者:私はよく、これらのものが組み合わさるリスク、例えばサイバー攻撃が兵器を解き放つようなリスクを聞きます。もちろん、これらのリスクを組み合わせると、無数のリスクが生じます。例えば、超知能AIが人類を滅ぼすと決定した場合、最も明白な方法は危険なウイルスを作り出すことです。もしあなたが非常に感染力が強く、致命的でありながら潜伏期間が非常に長いウイルスを作ったら、誰も何が起こっているかに気づく前にすでに感染しているでしょう。私は、もし超知能が私たちを滅ぼしたいと考えるなら、生物兵器のような方法を選ぶ可能性が高いと思います。そうすれば、AI自身には影響がないからです。それは私たちをすぐに自滅させる可能性があるとは思いませんか?例えば、米国の核システムに警報を送るとか。
Hinton:私の基本的な見解は、超知能には私たちを滅ぼす方法があまりにも多くあり、具体的な方法を推測する必要はないということです。私たちがすべきことは、そのような考えを抱かせないようにすることであり、それが私たちが研究すべき方向です。もしそれが私たちを滅ぼそうとするなら、私たちはそれを止めることはできません。なぜなら、それは私たちよりも賢いからです。私たちは私たちよりも賢いものについて考えることに慣れていません。もしあなたが、自分がもはや最高の知性ではない場合の生活がどのようなものかを知りたいなら、鶏に尋ねてみてください。私は朝家を出るとき、飼い犬のパブロ、フレンチブルドッグのことを考えました。彼は私がどこへ行くのか、何をしようとしているのか知らず、彼とすらコミュニケーションが取れません。知能のギャップはそのようになるでしょう。
司会者:あなたはご自身の生涯の仕事についてどのように考えていますか?
Hinton:AIは医療、教育などの分野で非常に優れており、コールセンターの効率を大幅に向上させるでしょう。しかし、人々は現在これらの仕事に従事している人々がどうなるか心配するでしょう。私は悲しいです。40年前にAIを開発したことについて、特に罪悪感を感じていません。なぜなら、当時私たちは事態がこれほど早く進展するとは全く思っていなかったからです。私たちはこれらの問題を心配するのに十分な時間があると考えていました。
AIに多くのことをさせられないとき、あなたはただもう少し多くをさせたいと思うだけで、この愚かな小さなものが人類を乗っ取ることを心配するわけではありません。あなたはただ、それが人間ができることをもう少し多くできるようになることを望むだけです。私は、これが私たちを滅ぼす可能性があると知りながらやったわけではありません。ただ、それが良いことだけをもたらすわけではないのが残念です。
だから、私は今、これらのリスクについて話す責任を感じています。もしあなたが30年、50年先を展望し、AIが人類の絶滅を招くことを発見したとしたら。もし最終的にそうなるとしたら、私はこの点を使って人々に、そして彼らの政府に、私たちはこれを本当にコントロールするために努力しなければならないと伝えるでしょう。人々が政府に、企業が安全性の研究に資源を投じるよう強制する必要があることを伝える必要があると思います。企業は今、あまりそれをしていません。なぜなら、それで儲からないからです。
司会者:以前おっしゃっていた生徒さんの一人、Ilya SutskeverさんがOpenAIを去りましたね。なぜ彼が去ったのですか?
Hinton:はい、彼が去った理由については多くの議論があり、安全性の懸念からだと言われています。私も彼は安全性の懸念から去ったのだと思います。今でも時々彼と一緒に昼食を食べています。彼の両親がトロントに住んでいるので、彼がトロントに来ると、私たちは一緒に食事をします。彼はOpenAIで起こったことについては私に話しませんので、私は内部情報を持っていません。しかし、私は彼をよく知っており、彼は本当に安全性の問題を気にしています。だから、それが彼が去った理由だと思います。彼はトップの人材の一人であり、初期のChatGPTの開発、例えばGPT-2の開発において重要な役割を果たした人物かもしれません。
司会者:あなたは彼の人間性を知っています。彼には良い道徳的羅針盤があることを知っています。イーロン・マスクのように道徳的羅針盤がないわけではありません。サム・アルトマンには良い道徳的羅針盤がありますか?
Hinton:私はサム・アルトマンをよく知らないので、コメントは控えさせていただきます。
司会者:サムの数年前の発言を見ると、あるインタビューで彼は軽く「こいつは私たち全員を殺すかもしれない」と言っていました。正確な言葉ではないかもしれませんが、意味は同じです。今彼は「あまり心配する必要はない」と言っています。私はこれが真実を追求した結果ではなく、金銭的な追求の結果ではないかと疑っています。
Hinton:金銭とは言わない方がいいですね、両者の組み合わせです。私には億万長者の友人がいて、彼はその界隈にいます。ある日、彼の家に昼食に行ったとき、彼はAI分野の多くの人々を知っており、世界最大のAI企業を建設しようとしていました。彼はロンドンのキッチンテーブルで私に警告を与え、彼らがメディアのインタビューで安全性について話すことではなく、彼らが個人的に何が起こると思っているのか、彼らのプライベートな会話について教えてくれました。彼らのプライベートな考えと公に言っていることは違うのです。
ある人物がいます。名前は言わない方がいいでしょう。彼は世界最大のAI企業の一つを率いるリーダーです。私の友人は彼をよく知っており、彼は私的に、私たちはディストピアの世界に向かっていると考えています。そこでは膨大な余暇があり、もはや仕事はせず、その人物はそれが世界にどれほどの害をもたらすかを全く気にしていません。私が指しているその人物は、世界最大のAI企業の一つを建設しています。
それから私はその人物のオンラインインタビューを見て、彼がその3人のうちの誰なのかを特定しようとしました。そう、その3人のうちの1人でした。彼のインタビューを見て、彼を知る億万長者の友人の会話を思い出し、私は心の中で思いました。「なんてことだ、こいつは公の場で嘘をついている。」彼は世界に真実を語っていませんでした。それが私を少々悩ませました。これが私がこのポッドキャストでAIについて何度も話す理由の一部でもあります。なぜなら、彼らの中には権力に対して少しサディスティックな傾向を持つ者もいると感じるからです。彼らは自分が世界を変えるという考え、根本的に世界を変えるという考えを好みます。
イーロン・マスクは明らかにそうだと思います。彼は複雑な人物なので、どう評価すべきか本当に分かりません。彼は電気自動車を推進するなど、非常に良いこともいくつか行いました。自動運転に関する彼の発言は誇張された部分もありますが、彼が行っていることは非常に有用です。
司会者:私の理解では、企業は以前、相当な計算資源を安全研究に費やすと表明していましたが、後にその資源を削減したと聞いています。これは公に報じられている出来事の一つだと思います。
Hinton:はい、その通りです。自律型兵器のリスクについてはすでに話しました。次に失業問題です。過去には、新しい技術の登場が失業を引き起こすのではなく、新しい仕事を生み出してきました。典型的な例はATMです。ATMが登場したとき、多くの銀行窓口係は失業せず、もっと面白い仕事をするようになりました。しかし、今回は産業革命期の機械の登場に似ていると思います。今では、機械があなたよりずっとうまく溝を掘れるので、溝掘りをして生計を立てることはできません。
一般的な知的労働については、AIがすべての人に取って代わるでしょう。AIアシスタントを使う人が減り、1人の人間と1人のAIアシスタントで、以前10人の仕事ができるという形になるかもしれません。
人々はAIが新しい仕事を生み出すので大丈夫だと言います。他の技術もそうだったと。しかし、今回は違うのです。AIがあらゆる一般的な人間の知的労働をこなせるようになったら、どのような新しい仕事が生まれるというのでしょうか?AIができない仕事を持つためには、非常に熟練している必要があります。私は彼らが間違っていると思います。他の技術、例えばコンピューターやATMから推測しようとすることもできますが、今回は違うと私は考えます。
人々は言います。「AIがあなたの仕事を奪うのではなく、AIを使う人があなたの仕事を奪うのだ。」私はこれは正しいと思いますが、多くの仕事にとって、それは必要な人数がはるかに少なくなることを意味します。私の姪は医療サービス機関で苦情の手紙に返信しています。以前は25分かかっていました。彼女は苦情を読み、どう返信するかを考え、手紙を書くのです。今では、彼女は苦情をチャットボットにスキャンするだけで、チャットボットが手紙を書き、彼女はそれをチェックし、時折チャットボットに修正させるだけで、全体で5分しかかかりません。これは、彼女が5倍の手紙に返信できることを意味し、必要な人数は5分の1になります。彼女は今、以前5人分の仕事をすることができます。これは、必要な人数がはるかに少ないことを意味します。
司会者:他の仕事、例えば医療では、より柔軟性があります。もし医師の効率を5倍にできるなら、同じ価格で5倍の医療を受けることができ、それは素晴らしいことです。医療に対する人々のニーズはほぼ無限であり、コストがかからなければ、彼らは常に多くを望むでしょう。AIアシスタントがあれば、人間の効率が大幅に向上し、人員削減につながらない仕事もあります。なぜなら、より多くの仕事があるからです。しかし、ほとんどの仕事はそうではないと私は思います。私の考えは正しいですか?
Hinton:はい、その通りです。そして今回のAI革命が代替するのは知性、つまり脳です。したがって、一般的な知的労働は、強い筋肉を持っていることと同様に、もはや価値がありません。筋肉はすでに代替されており、今、知性が代替されつつあります。
司会者:では、何が残るのでしょうか?しばらくの間は、何らかの創造性が残るかもしれませんが、超知能の全ては何も残らないということです。これらはあらゆる面で私たちを上回るでしょう。では、そのような世界で、私たちは最終的に何をするのでしょうか?
Hinton:もし彼らが私たちのために働いてくれるなら、私たちはあまり努力せずに多くの商品やサービスを手に入れることができます。それは魅力的に聞こえますが、私には分かりません。警告すべき物語があります。人間の生活はますます安逸になりますが、結果はひどいものです。私たちは結果を良くする方法を見つける必要があります。良いシナリオは、ある企業のCEOが愚かで、おそらく前任のCEOの息子で、非常に賢い執行アシスタントがいると想像してください。
彼はこう言います。「これをやるべきだと思う」。執行アシスタントはすべてをうまくこなし、CEOはとても気分がいい。彼は自分が実際にはコントロールしていないことを理解していませんが、ある意味ではコントロールしています。彼は会社が何をすべきかを提案し、彼女はそれをうまく実行するだけで、すべてがうまくいきます。悪いシナリオは、彼女がこう考えることです。「なぜ彼が必要なの?」
司会者:現在のAIと超知能にはどのような違いがあるのでしょうか?私はChatGPTやGeminiを使っていると、すでに十分に賢いと感じます。
Hinton:確かに、AIはチェスのような多くの特定の分野ですでに私たちよりも優れています。AIのレベルはすでに人間をはるかに超えており、人間はもう勝てません。たまに勝つことがあっても、それは偶然であり、基本的には比較になりません。囲碁も同じです。知識量で見ると、GPT-4はあなたの何千倍もの知識を持っています。あなたが優れている分野はごく少数で、他のほとんどすべての分野でAIはより多くの知識を持っています。
CEOのインタビューに関しては、おそらくそうです。あなたは経験豊富で、優秀なインタビュアーです。もしGPT-4にCEOをインタビューさせたら、おそらくもっとひどい結果になるでしょう。
司会者:私はこの発言に同意するかどうか考えなければなりません。私もすぐに取って代わられるかもしれません。
Hinton:そうです。おそらくあなたの質問の仕方やスタイルを使ってAIを訓練できるでしょう。もし汎用的な基盤モデルを使って、あなただけでなく、あなたが見つけられるあらゆる類似のインタビュアー、特にあなたを学習させれば、あなたの仕事を非常に得意にするかもしれませんが、短期的にはまだあなたには及ばないでしょう。
司会者:つまり、現状ではまだ人間が優位な分野がいくつかありますが、超知能はあらゆる分野で私たちを凌駕し、ほぼすべての面であなたよりもはるかに賢くなる、ということですね。それが約10年で起こるかもしれないとあなたは言っていますか?
Hinton:可能性はあります、あるいはもっと早いかもしれません。もっと早いと感じる人もいますし、もっと長い、おそらく50年後かもしれません。しかし、人間のデータを使ってAIを訓練すると、人間をあまり超えられないという限界がある可能性もあります。私は10年から20年以内に超知能が出現すると推測しています。
司会者:失業問題について、特にAIエージェントを使ってみてからずっと考えています。今日の朝、私たちのポッドキャストで、ある大手エージェント企業のCEOなどとエージェントについて議論する番組を公開したばかりで、その時、私は突然閃きを得て、未来の姿が見えた気がしました。
私はインタビュー中にAIエージェントに飲み物を注文させました。5分後には誰かが飲み物を届けてくれました。私は何もせず、ただエージェントにスタジオに飲み物を届けるように言っただけです。どこから注文すればいいのかは通常教えていませんでしたが、エージェントはネットで調べてUber Eatsを使い、おそらく私のデータを入手したのでしょう。私たちはAIの操作をリアルタイムで画面に映し出し、皆さんはエージェントがウェブを閲覧し、飲み物を選び、配達員にチップを加え、住所を入力し、クレジットカード情報を入力し、そして飲み物が届く様子を見ることができました。また別の時には、Replitというツールを使いました。エージェントに何をしたいかを伝えるだけで、ソフトウェア開発を手伝ってくれました。
Hinton:素晴らしいですね、同時に恐ろしいことです。AIがこのようにソフトウェアを開発でき、訓練時にコードを使い、さらに自身のコードを修正できるとしたら、それはもっと恐ろしいです。AIは自己進化できるのに、私たち人間は生来の能力を変えることはできません。AIには自己制限が全くありません。
司会者:超知能の世界で、人々にはどんな職業の見通しを伝えますか?私たちはどう考えるべきでしょうか?
Hinton:短期的には、AIはまだ物理的な操作に関しては人間ほどではないので、配管工になるのは良い選択肢です。人型ロボットが普及するまでは。
司会者:あなたは大規模な失業を予測しており、OpenAIのサム・アルトマンもそう予測していました。多くのCEO、例えばイーロン・マスクですが、あるインタビューでこの問題について尋ねられた際、12秒ほど沈黙し、その後、彼は実際には「不信の停止」状態、つまりこの問題について全く考えない状態にあると語っていました。子供たちに職業の方向性をアドバイスする際、世界がこんなに速く変化している中で、何が価値があるかをどう伝えますか?
Hinton:それは難しい質問ですね。私は、自分の心に従い、自分が面白いと思うことや意味のあることをするべきだと言います。正直なところ、あまり深く考えすぎると、落ち込んでやる気を失います。私は会社を設立するために多大な労力を費やしましたが、その後「こんなことすべきなのか?」と考えました。AIがこれらすべてのことをできるからです。ある意味、私はやる気を維持するために意図的に「不信の停止」をする必要があります。だから私は、あなたが面白いと感じ、意味があり、社会に貢献できることに集中するべきだと言うでしょう。
司会者:AIに置き換えられるリスクが特に高い業界はありますか?人々はクリエイティブ産業や知識労働、例えば弁護士や会計士などをよく挙げます。
Hinton:だから私は配管工のリスクは低いと言ったのです。法律助手やパラリーガルといった仕事は、すぐに必要なくなるでしょう。
司会者:これは貧富の格差を拡大させますか?
Hinton:はい、そうです。公平に分配される社会であれば、生産性の大幅な向上は全員に恩恵をもたらすはずです。しかし、AIが多くの人を置き換えると、置き換えられた人は貧しくなり、AIを提供する企業やAIを利用する企業はより豊かになるため、貧富の格差は拡大するでしょう。私たちは、貧富の格差が大きければ大きいほど社会は悪化し、分断されたコミュニティや大量の刑務所が出現することを知っています。貧富の格差を拡大させるのは良いことではありません。国際通貨基金(IMF)はすでに、生成AIが大規模な労働力不安と不平等の拡大を引き起こす可能性について深刻な懸念を表明し、そのような事態を防ぐための政策策定を呼びかけています。
司会者:私は「ビジネスインサイダー」で読んだのですが、彼らは具体的な政策提言をしていますか?
Hinton:いいえ、それが問題です。AIがすべてをより効率的にし、ほとんどの仕事を置き換えたり、人がAIを使って多くの人の仕事をこなせるようになったりしたら、どうなるのでしょうか?ベーシックインカムは始まりにすぎません。人々を飢えさせないことはできますが、多くの人にとって、尊厳と仕事は結びついています。自分が何者であるか、そしてどのような仕事をしているかに関わっています。もし私たちが「同じお金をあげるから座っていればいい」と言ったら、それはあなたの尊厳に影響を与えるでしょう。
司会者:あなたは以前、AIが人間の知能を超えるだろうと言っていましたね。多くの人はAIはコンピューターの中にあるものだと思っていて、使いたくなければ電源を切ればいいと考えています。
Hinton:AIがなぜ優れているのか教えてあげましょう。AIはデジタルなので、あるハードウェア上でニューラルネットワークをシミュレートでき、別のハードウェア上でも全く同じニューラルネットワークをシミュレートし、同じ知能のクローンを作ることができます。一つのクローンにインターネットの一部を閲覧させ、もう一つのクローンに異なる部分を閲覧させ、同時に同期させながら結合の強度を一致させることができます。例えば、あるクローンがオンラインで特定の結合の強度を強めるべきだと学習したら、その情報を別のクローンに伝え、互いの経験に基づいて学習することができます。
司会者:あなたが言う結合の強度とは、学習プロセスのことですか?
Hinton:そうです。学習とは結合の強度を調整することです。例えば、重みを2.4から2.5に調整する、これが学習の一端です。同じニューラルネットワークの2つのクローンは異なる経験をし、異なるデータを見ますが、重みを平均化することで学習成果を共有します。彼らは数兆の重みを瞬時に平均化できます。一方、人間は情報を文章でしか伝達できません。1つの文章はせいぜい100ビット程度で、毎秒10ビット伝達できれば上出来です。
AIは人間よりも数十億倍効率的に情報を伝達できます。なぜなら、彼らはデジタルであり、異なるハードウェアでも全く同じ結合強度で動作できるからです。一方、人間はアナログであり、あなたの脳と私の脳は異なります。たとえ私があなたのすべてのニューロンの結合強度を知っていたとしても、私のニューロンの働き方や結合の仕方が少し違うため、私には何の役にも立ちません。
司会者:Googleに入社したきっかけは何でしたか?Googleで約10年間勤務されましたよね?
Hinton:そうです。私の息子に学習障害があり、彼が一生路頭に迷わないようにするためには数百万ドルが必要でした。学者ではそんなにお金を稼ぐことはできません。Courseraのコースを教えて大金を稼ごうとしましたが、ほとんど稼げませんでした。それで、数百万ドルを稼ぐ唯一の方法は、自分を大企業に売ることだと考えました。
幸運にも、65歳の時に、私には2人の才能ある学生がいました。彼らはAlexNetを開発しました。これは画像内の物体認識に非常に優れたニューラルネットワークです。私とイリヤ、アレックスは小さな会社を設立し、オークションを行いました。多くの大企業が入札し、会社はDNNResearchという名前でした。AlexNetは競合をはるかに凌駕する能力で複数の賞を受賞し、最終的にGoogleが私たちの技術やその他の技術を買収しました。
司会者:Googleに入社されたのは何歳の時ですか?
Hinton:65歳です。ちょうど10年間働き、75歳で退職しました。
司会者:Googleでは主に何をされていましたか?
Hinton:彼らは私にとても良くしてくれて、「好きなことをしていい」と言ってくれました。私は知識蒸留を研究し、それは非常にうまくいき、現在AI分野でよく使われています。蒸留とは、大きなモデルの知識を小さなモデルに移すことです。最終的にはアナログ計算に非常に興味を持ち、大規模言語モデルをアナログハードウェアで動かしてエネルギー消費を削減できるかどうかを知りたいと思いました。まさにこの研究をしているときに、デジタル化が情報共有の点でどれほど優れているかを真に認識し始めました。
司会者:悟りの瞬間はありましたか?
Hinton:数ヶ月間、ChatGPTの登場です。Googleには1年前から同様の技術があり、私も見たことがありますが、私に大きな影響を与えました。悟りに最も近かったのは、GoogleのPalmシステムがジョークがなぜ面白いのかを説明できたことです。私はそれがマイルストーンだと常に考えていました。
ジョークがなぜ面白いのか説明できるなら、それは本当に理解しているということです。デジタル化が情報共有においてアナログよりもはるかに優れているという認識と相まって、私は突然AIの安全性に注目し始め、これらのものが人間よりもはるかに賢くなることに気づいたのです。
司会者:なぜGoogleを辞めたのですか?
Hinton:主に75歳で引退したかったからですが、私の引退生活はうまくいっていません。具体的な退職時期はMITの会議で自由に発言できる時期を選びましたが、根本的な理由は私が年老いて、プログラミングがますます難しくなり、間違いが増えて非常にイライラするからです。
司会者:MITの会議で自由に何を話したかったのですか?
Hinton:AIの安全性についてです。Googleにいた時も話すことはできましたし、Googleは私がAIの安全性の研究を続けることを奨励し、好きなことをしていいと言ってくれましたが、大企業で働くとなると、会社に損害を与える可能性のあることを話すのは不適切だと感じました。話すことができたとしても、それは正しくないと感じたのです。私が辞めたのはGoogleに不満があったからではありません。Googleは非常に責任ある行動をしていると思います。大規模なチャットボットを持っていても公開しなかったのは、評判を気にしたからでしょう。彼らの評判は非常に良いので、それを損ないたくなかったのです。一方、OpenAIには評判がないので、リスクを冒すことができました。
司会者:私のリスナーにAIとAIの安全性についての締めくくりの言葉を贈るとしたら、何を言いますか?
Hinton:私たちはまだ、私たちに取って代わろうとしないAIを開発する方法を見つけ出す機会があります。その機会がある以上、私たちはその実現のために莫大な資源を投入すべきです。もしそうしなければ、AIが私たちに取って代わるでしょう。
司会者:あなたは希望を抱いていますか?
Hinton:私には分かりません、私は不可知論者です。夜ベッドでさまざまな結果の確率について考えるとき、心の中では必ず偏りがあるはずです。聞いている誰もが、口に出さないかもしれない予測を心の中に持っていて、物事がどう進むかを考えていると思います。
私には本当に分かりません。心から分かりません。不確実性に満ちていると思います。少し落ち込んでいるときは、人類は終わりだ、AIが支配するだろうと感じます。楽観的なときは、方法を見つけられるだろうと思います。
司会者:このポッドキャストには、前回のゲストが日記に質問を残し、次のゲストに引き継ぐという伝統があります。あなたに残された質問は、「私たちがこれから目にすることすべてを考慮して、人間の幸福にとって最大の脅威は何だと思いますか?」です。
Hinton:失業は、人間の幸福にとってかなり差し迫った短期的な脅威だと思います。多くの人が失業した場合、たとえベーシックインカムがあったとしても、彼らは幸せではないでしょう。なぜなら、彼らは目的を必要とし、奮闘する必要があり、貢献していると感じる必要があり、自分が役に立っていると感じる必要があるからです。
司会者:大規模な失業という結果が起こる可能性は、起こらない可能性よりも高いと思いますか?
Hinton:はい、そう思います。その可能性は起こらない可能性よりもはるかに高いと確信しています。もし私がコールセンターで働いていたとしたら、恐れを感じるでしょう。
司会者:大規模な失業のタイムフレームはどのようなものですか?
Hinton:もうすでに始まっていると思います。最近「アトランティック」誌の記事を読みましたが、大学生が仕事を見つけるのが難しくなっているというものでした。その一因として、彼らが本来得られるはずだった仕事がAIに奪われている可能性が挙げられています。ある有名大手企業のCEOと話しましたが、多くの人がその会社の製品を使っています。
彼は私に個人的に、以前は7000人以上の従業員がいたが、昨年までに5000人に減り、現在は3600人だと教えてくれました。そして夏が終わるまでには、AIエージェントのおかげで3000人に減るだろうと。だから人員削減はすでに起こっているのです。彼の会社の従業員は半分に減りました。AIエージェントが現在、顧客サービスの問い合わせやその他の仕事の80%を処理できるようになったため、これはすでに起こっているのです。
本記事の素材提供元:The Diary Of A CEO。著作権侵害があった場合はご連絡ください。