上部の「チューリングAI」をクリックし、「星を付ける」公式アカウントを選択してください
あなたが知りたいAIの核心情報が、いち早く届きます
著作権表示
著作権は原著作者に属し、学術共有のために使用されます。侵害があった場合はメッセージを残して削除してください
今日、人工知能(AI)は、機械がいずれ人類の知性を超える「シンギュラリティ」を予感させる、破壊的な革命として描かれています。しかし、根本的な問題が見過ごされています。私たちはAIの能力と限界を本当に理解しているのでしょうか?情報が爆発的に増加する現代において、知識とデータの境界はますます曖昧になり、AIシステムは答えを生成する一方で、混乱も生み出しています。『世界を理解し、変える:情報から知識と知性へ』の著者であり、中国科学院の外国人院士、チューリング賞受賞者であるジョセフ・シファキス(Joseph Sifakis)氏は、現在のAIブームが社会の知識に対する深い誤解を露呈していると指摘します。私たちは情報の積み重ねと知恵の創造を混同し、機械の「知性」を過大評価する一方で、人間固有の社会性と道徳的責任を過小評価しています。
現在、AIの「神話」は世界中で広まっています。ChatGPTやDeepseekのような対話型AIは複雑な質問に流暢に答え、自動運転技術は「人類を解放する」という夢を与えられ、医療AIは診断の難問を解決すると期待されています。しかし、ジョセフ氏は次のように述べています。「私たちは今日、まだ真の知能システムを持っていません」。彼は、現在のAIが産業に与える真の影響はほとんどゼロであると考えています。例えば、小米自動車のような自動化された工業製品の実践では、事故の発生はAI導入時のリスクと標準の問題を指し示しています。
さらに、ジョセフ氏は、AIが安全性において完璧なパフォーマンスを発揮できたとしても、乗り越えがたい難題に直面すると述べています。AIの「知性」は本質的に統計モデルの産物であり、世界に対する常識的な理解を欠いており、人間のように複雑な社会状況で価値とリスクを比較検討することはできません。自動運転車が衝突を完璧に回避できたとしても、「救急車に道を譲る」という社会契約の背後にある意味を理解することは難しいでしょう。AIは地震を予測できますが、その結論はブラックボックスのようで、科学者は論理をたどることができません。これらの限界は技術的な問題だけでなく、人間自身の認識能力に対する反省でもあります。私たちは「効率至上」を信頼性や責任の追求よりも優先しているのでしょうか?
より深刻な危機は、教育と社会的価値の再構築にあります。現代の学生がAIツールに依存して宿題をこなし、若者が過度な物質主義によって職業選択を「高収入かどうか」に単純化し、哲学や人文科学が「無用」と見なされるとき、人々は思考の権利を機械に譲渡しています。ジョセフ氏は、教育の核は知識の伝達ではなく、批判的思考力と創造性を育むことだと警告します。幸福の意味は物質的な満足ではなく、「夢のために奮闘する」自由にあると。AIの利便性が無制限に使われれば、社会の功利主義を加速させ、道徳的判断、紛争解決、文化継承における人間の主体性を侵食する可能性があります。
同時に、AIが伝統的な社会構造に与える影響も無視できません。例えば、自動化システムが現在および将来の雇用市場を脅かす可能性があります。しかし、ジョセフ氏は技術の悲観主義者ではありません。彼はAIアプリケーションのグローバル標準の確立を呼びかけ、製造業者とユーザーの責任範囲を明確にし、教育においてSTEMと人文的教養のバランスを取るべきだと主張します。そうして初めて、AIは「人間を代替する」ツールから、「人間を強化する」パートナーへと進化できるのです。
今回の対談で、ジョセフ氏の見解は、AIに関する既存の主流の物語に異議を唱えるものでした。彼は専門読者に対して人工知能の現状と将来の傾向に関する深い洞察を提供し、一般読者にも情報学と人工知能の基礎知識を普及させ、この知能化時代において、人間と機械がどのようにしてより意味のある協調共生をすべきかを考える助けとなっています。
以下は、Eduガイドとジョセフ氏との対談の全文(一部省略あり)です。お楽しみください。
制作:Eduガイド
インタビュー:何沛寛
著者:楊定一 羅博文
1、
「私たちは知識について混乱している時代に生きている」
Eduガイド:あなたは著書『世界を理解し、変える』で、知識の重要性を示すことが責任の一つだと述べていましたね。私たちは知識の重要性を過小評価している社会に生きているとお考えですか?
ジョセフ:私は、私たちは知識について混乱している社会に生きていると思います。私たちは多くの情報を持っていますが、情報と知識の概念を明確にすることが非常に重要だと思います。情報は、数学、コンピュータサイエンス、哲学における基本的な概念で、意味を持ち、意思決定を可能にするデータを指します。データは、感覚言語データ、テキスト、画像などです。これらのデータは人間によって解釈されます。ですから、情報を作り出すには、人間がデータを解釈する必要があります。情報自体は物質やエネルギーから独立しています。これも情報を理解する上で非常に重要です。
知識とは、私たちが問題を解決するために使える有用な情報です。ですから、すべての情報が知識であるわけではありません。全体として、人間は2種類の問題に対処します。1つは世界を理解することであり、私の本で述べたように、もう1つは行動を通じて目標を達成することです。
最後に、知性についていくつかの定義をしたいと思います。それは、世界を理解し、目標に従って行動するために知識を使用し適用する能力を記述するものです。したがって、それは特に世界を認識する能力、つまり私たちの環境で何が起こっているかを理解し、その将来の状態を予測する能力を意味します。ですから、あなたの質問に答えるにあたり、人々は情報と知識の違いについて明確な理解をしていないと思います。
Eduガイド:私たちの社会には、真実と虚偽の情報、有用な情報と無用な情報があります。これらの異なる情報を見たとき、どのように区別すればよいのでしょうか?
ジョセフ:この点を理解することも非常に重要だと思います。これは私たちが知識と呼ぶものの主要な特徴属性に関連しています。その中で、重要な特徴の一つは情報の有用性です。ある知識は真実かもしれませんが、あまり有用でも関連性もないかもしれません。例えば、非常に抽象的な数学的知識は、多くの人にとって無用かもしれません。
一方で、私たちは多くの有用な知識を持っているかもしれませんが、それは正確ではない、つまり真実ではないかもしれません。例えば、私たちが科学で使うすべての比喩がそうです。私たちは電子が波であるとか粒子であるとか言いますが、実際にはこれは比喩です。場合によっては、より単純な信念でさえ有用な知識となり得ます。例えば、原始社会は神話(架空の出来事)を信じていましたが、もちろんこれは真の知識ではありませんでしたが、社会の結束と平和を促進する上で非常に重要でした。
Eduガイド:情報学の観点から見て、現在、一般の人々に偽りの情報や偽りの知識を示している「神話」が存在すると思いますか?
ジョセフ:人工知能システムには、虚偽の知識があります。私たちはそれらが組織的に偽の情報と知識を作り出すことができることを知っています。なぜなら、いわゆる幻覚(Hallucination)があるからです。では、なぜAIシステムは幻覚を起こすのでしょうか?幻覚は、機械学習が例示データでの訓練に依存しているために発生します。例えば、AIは訓練プロセスを通じて猫と犬の画像を区別することを学びます。このプロセスでは、私たちは大量の猫と犬の画像を提供し、それに対応する答えを持っています。しかし、私たちが訓練に使用するデータは、往々にして発生しうるあらゆる状況を十分にカバーしていません。
ですから、現在、訓練セットがカバーしていない質問をすると、それは偽の回答を提供します。これがAIの問題です。特に注意すべきは、AIの偽の回答の問題は、それらが有効な知識や有効な回答と形態的に似ており、ユーザーがその違いを区別するのが難しいということです。
2、
「私たちは今日、真の知能システムを持っていません
AIが産業に与える真の影響を見れば、ほぼゼロです」
Eduガイド:最近、AIシステムがより賢くなると、幻覚の問題がより深刻になるという記述を見かけました。これは正確な描写ですか?
ジョセフ:ここで、私たちはAIシステムの知性が何であるかを理解する必要があります。辞書を開けば、AI以前に存在した知性の定義が見つかるでしょう。知性は、人間が世界を理解し、その後、彼らのニーズと目標を満たすために行動する能力として定義されているのを見つけるでしょう。
さて、AIシステムを考えると、これはAIシステムが理解し、目的を持って行動できることを意味します。AIシステムはそれをできるのでしょうか、あるいは今日私たちはどのようなAIシステムを持っているのでしょうか?
現在私たちが最も一般的に持っているAIシステムは、あなたが質問し、答えを得るシステムです。これはChatGPTやDeepseekのような対話型AIシステムと呼ばれています。しかし、これだけでは十分ではありません。なぜなら、AIシステムの問題の一つは、意思決定ができないことです。彼らは分析し、意思決定し、目標を設定することができません。これは人間の特権です。
実際、AIシステムには常識的な知識が備わっていません。人間には世界モデルというものがあり、それは私たちが生まれてから発展させてきた世界概念モデルです。私たちはこのモデルを使って言語を理解し、人間の思考も情報感知から理解へ、理解から行動へと進みます。しかし、AIシステムは、実際にはセンサーの情報を処理できるだけで、その情報を常識的な知識と結びつけることができません。彼らにはできません。私はこの説明が非常に重要だと思います。
ですから、私は今日、真の知能システムは持っていないと思います。私たちは対話システムしか持っていません。何が欠けているのでしょうか?何が欠けているのかを説明しましょう。私は、もしこれらのシステムが人間の代わりに複雑なタスクを実行できるなら、私たちは知能システムを持っていると言えるでしょう。例えば、私は自動運転の研究をしていましたが、2020年までには自動運転車が手に入るとずっと信じていました。しかし、私たちは期待したものを開発できませんでした。将来、完全に自動運転の車が登場しない可能性が非常に高いです。なぜでしょうか?車を運転するには、システムが複雑な環境で何が起こっているかを理解し、リアルタイムで意思決定できる必要があります。私たちはそのようなシステムを構築する方法を知りません。
私が言いたいのは、今日、私たちは対話型AIを持っているので、人々はAIシステムと遊んだり、質問したり、答えを得たりできます。しかし、予測を行うAI、複雑な状況を分析するAI、産業で使用されるAIなど、他の種類のAIが必要です。AIが産業に与える真の影響を見れば、ほとんどゼロです。
Eduガイド:おっしゃる通り、自動運転車についてですが、最近、産業界の実践で、小米という会社が悪いニュースを出しました。この会社は電動自動車を提供しており、自動運転支援機能を備えています。一部のドライバーが、自動運転支援機能を使用中に車の運転に集中せず、車内で眠ってしまうという事故が発生しました。
ジョセフ:はい、知っています。彼らは禁止すべきだと思います。つまり、より厳格な規制措置を講じるべきです。私たちの技術はまだ未熟です。歩行者や他の自動車が混在する実際の環境でこの技術を検証しようとすることは危険です。つまり、人々はAIの能力を過大評価しているのです。私がずっと言っていることです。
さて、ここで理解すべきことは、AIシステムには今日、標準がないということです。私はAIシステムが引き起こすリスクについて多くのことを書きました。説明させてください。私たちのおもちゃ、トースター、飛行機など、私たちが製造するすべてのものは、認定され、安全で、標準があり、国際的な規則があります。私がトースターを買って正しく使えば、死ぬことはありません。それは保証されています。中国でも、ヨーロッパでも、アメリカでも同じです。
しかし、現在のAIシステムには、まだ標準がありません。自動運転車についても標準がありません。もし標準があれば、例えば飛行機を製造する場合、いくつかの認証機関が「ああ、これは飛行可能だ」と言うでしょう。しかし、AIシステムにはまだ標準がありません。
現在、アメリカでは「自己認証」という言葉が生まれました。自己認証とは、「中立的な権威機関がこれを保証しない。製造者がこれを保証する」ということです。例えばテスラは、「見てください、私の車は非常に安全です」と言います。しかし、これは単なる自己証明です。ですから、製造者は他の理由、つまり技術的ではない理由で、人々がAIを受け入れるべきだと推進していますが、もし彼らが何の保証もなくリスクを引き起こすなら、それは非常に悪いことです。
Eduガイド:規則は依然として必要ですが、ほとんどの場合、技術の産業実践は規則や規制よりも先行しますよね?
ジョセフ:はい、しかし規則は必要です。実際、システムを構築する際には、その重要性を考慮する必要があります。例えば、私のノートパソコンは重要ではありません。つまり、問題が起きても、問題ありません。別のノートパソコンを使えばいいのです。
しかし、航空機や原子力発電所のように非常に重要なシステムもあります。これらは非常に重要です。もし何か間違ったことが起これば、人命が脅かされます。あるいは医療システムでも、これも非常に重要です。ですから、AIが何の保証もなく正しい診断を提供したり、意思決定をしたりすることを許すべきではありません。どこかの時点で、私たちは次のように決定すべきです。もしこれらのシステムが関わるならば、私たちはそれらを受け入れません。なぜなら、それらがどのように機能するのか理解できないからです。
私が強調したいもう一つのことは、非常に重要なことですが、AIシステムはブラックボックスであるということです。私たちはそれらがどのように機能するのか理解できません。私は航空電子システムや飛行制御装置に関して多くの仕事をしてきました。ソフトウェアを作成すれば、ソフトウェアを分析して、これは非常に高い信頼性を持つシステムであると予測できます。しかし、AIシステムは、その動作原理を理解できないため、その正確性を保証することは非常に困難です。
Eduガイド:安全性の観点から見ると、自動運転や医療などの分野は非常に重要であり、一般的なアプリケーションと比較して、より高い基準を設定する必要がありますね。
ジョセフ:はい。もし通常の用途、例えばオフィスで使うものなら、何か間違ったことをしても、考える時間があります。しかし、もしあなたが重要なシステムでそれを使うなら、2つの問題があります。1つは、それが人間が関与せずに機能することです。もう1つは、これらのシステムが分析と予測が非常に難しいことです。
3、
「AIの問題は、私たちが理解できない知識を生み出すことにある」
Eduガイド:あなたは『世界を理解し、変える』の中で、私たち人間社会を情報システムと見なすことができると述べていますね。この両者間の重要な類似点は何でしょうか?
ジョセフ:それは興味深い質問です。まず、AIシステムとは何か、エージェントとは何かを理解すべきです。エージェントという概念は、哲学にも、AI以前にも存在していました。ですから、エージェントとは、理解し、行動できるシステムのことです。例えば、動物はエージェントと見なすことができますし、今では機械もエージェントであり、あるいは私たちはエージェントを構築しようとしています。
エージェントの重要な特徴は、いくつかの問題を解決しなければならないことであり、それは社会に生きています。ですから、私たちは動物の社会、人間の社会などを持っています。したがって、エージェントは孤立しておらず、環境と相互作用し、他のエージェントと相互作用しなければなりません。これだけでは十分ではなく、エージェントはいくつかの問題を解決しなければならず、これらの問題を解決するためには、他のエージェントと協力する必要があります。これが私たちが集合知と呼ぶものです。
私たちはエージェント間の相互作用を持っていますが、これこそが人間社会で起こっていることです。社会はエージェントで構成されています。各エージェントは自身の目標を追求しています。したがって、エージェントが人間である場合、人間は共通の目標を達成するために協力すべきです。これは非常に重要なことです。そこにはルール、あるいは組織化された社会においては、法律があり、道徳的規則があり、あなたは他人にしてほしくないことを他人にしてはいけません。
ですから、現在私たちは人工知能エージェント(AI Agent)を研究しており、人間社会と比較していくつかのアイデアを考えると、知的な機械と人間には多くの類似点があることがわかります。人間社会では、私たちが交換する情報が重要であり、機関間の信頼の程度が重要です。では、機関とは何でしょうか?機関は、組織化された社会の共通の目標を達成するのに役立ちます。何が真実で何が偽りかを定義するものです。
今、機械の中にも私たちは機関を持っています。機械の中の機関とは何でしょうか?それらは情報知識に基づいて、タスクを割り当てたり、機械の目標を決定したりするサーバーであり得ます。ですから、機械社会の間で、これは非常に興味深い類似点です。なぜなら今日、私たちは機械社会を持っている、あるいは機械社会を構築しようとしている、そして人間社会を持っているからです。これも私が本の中で情報の役割と知識の役割を説明しようとした理由です。情報の役割は、人々が共通の利益を信じることにあるからです。人々は政府を信頼したり信頼しなかったりします。人々は互いを信頼したり信頼しなかったりします。私の本でこの興味深い類似点を探求してみてください。
Eduガイド:もしAIシステムが十分に賢く、目標を設定し、共通の利益を達成するために「政府」のような機関を設立できるとしたら、人間社会とこのAIシステムまたは情報システムとの間に明確な境界線はまだ存在するのでしょうか?
ジョセフ:これらは深い哲学的問題であり、機械と人間はどの程度異なるのかということです。これは倫理的な問題にも関連しています。今日、人々が道徳的AIについて語り、道徳的な機械を求めているのをご存知でしょう。では、道徳的な行動とは何を意味するのでしょうか?ここにも、私たちが理解できるいくつかの理論があります。つまり、人間の行動とは何を意味するのかということです。私はこれらが非常に重要な問題だと思います。
機械と人間の大きな違いは、人間にはいくつかの内的目標があり、これまでにそれが何であるかを決定してきたということです。例えば、生存の目標。人間として生きるためには、お腹が空いたら食べ物を見つけなければなりません。食べ物を見つける必要があるなら、私は食べ物を買いたい、銀行口座に十分な金があるか、どうやって買うかなどを分析する必要があります。ですから人間は、目標を持つと分析を行います。この分析は、彼らの状態、身体の状態、健康状態などによって異なります。しかし、外部からの制約も受けます。
この分析を行うために、人間の脳には価値システムがあります。人々は常に価値システムを持っています。例えば、先ほど述べた経済的価値システム。パンを買うのにいくらかかるか、服を買うのにいくらかかるかを知っています。また、他の価値システムもあります。例えば、何か間違ったことをすれば、刑務所に行く、罰金を払う、など。人々には他の価値観、道徳的価値観などもあります。
このようにして人間はこの価値体系を構築してきました。私が何かをするかしないかを決める時、私はこの構築された価値体系に基づいて決定します。この価値体系は社会の価値体系を反映しています。ですから、それは独立していません。私たちの社会には価値の共通認識が存在しますので、この点を理解していただきたいと思います。例えば、経済的価値体系は明確です。道徳的価値の共通認識、何が良いか、何が悪いかなどです。すべての社会は規則と何らかの価値体系に依存しています。もちろん、価値体系は世界中の機関や政府によって決定されます。
さて、私の質問は、そのような価値体系を機械に装備できるかということです。そのようなシステムをどのように開発し、機械をどのように行動させるか。理性は人間の思考の非常に重要な属性です。私たちは目標に基づいて選択し、分析を行い、私たちが持っている価値体系に基づいて最善の解決策を選択しようとします。例えば、「私はずるをすべきか、それともルールに従うべきか」と自問するでしょう。何か間違ったことをすれば、何かを得られるかもしれませんが、リスクもあります。意思決定をするたびに、あなたは価値体系に基づいて選択します。
これは人間の非常に複雑なシステムです。私たちは機械にこれを装備できるでしょうか?私にはわかりません。私たちは努力しています。しかし、これらはまだ探求が必要な非常に重要な問題です。
Eduガイド:あなたの見解では、これは情報システムの限界なのでしょうか?それとも、単に技術がまだそこまで発展していないため、AIシステムや情報システムが人間よりも優れた性能を発揮できないのでしょうか?
ジョセフ:ここでは、人工知能システムが人間よりも優れたことを行えるということを説明すべきです。人間は複雑な状況を理解する能力が限られています。これは認知複雑性に関連するものです。これは私が本で説明していることです。認知複雑性とは、例えば、20の異なる登場人物が登場する物語を語っても、あなたは覚えられないでしょう、多すぎるからです。人間にはこの限界がありますが、機械にはありません。
したがって、機械は人間が理解できないほど非常に複雑なデータを持つことができ、情報を抽出したり、非常に複雑なデータから知識を抽出したりすることができます。これが機械の能力です。それらはデータを分析することで非常に複雑な状況を理解することができます。私たちはこれを最大限に活用すべきだと思います。なぜなら、機械は私たちが複雑な現象を理解するのを助けることができるからです。現在、気象現象、地球物理現象など、複雑な現象に関連するプロジェクトがいくつかあります。例えば、地震を予測するプロジェクトでは、AIを使って地震を予測することができます。
AIが地震予測に成功するのはなぜでしょうか?地震は非常に複雑な現象だからです。多くのパラメータに依存します。そして、現在の人間による理論は限られており、あるいはどのような人間による科学理論も、例えば最大10個程度の少ないパラメータにしか依存できません。
現在、AIシステムは、非常に多くのパラメータを処理するように訓練することができます。どのように訓練するのでしょうか?例えば、毎日世界各地で発生する地震のデータがあります。私たちはデータを収集して訓練し、それらは中国で発生した地震とフィリピンで発生した地震を関連付けることができます。それらは予測を行うことができ、それを裏付ける実験データもあります。ですから、私たちはAIを使って予測を行うことができ、それは既存の科学理論よりも優れた成果を上げています。
もちろん、AIの問題は、私たちが理解できない知識を持っていることです。これは問題です。既存の科学理論については、私たちがそれらの理論を設計し、その動作原理を理解しているからです。私たちはこれらの理論の結論について非常に確信しています。さて、例えば、AIが明日地震が起こると言ったとして、あなたは信じますか?つまり、あなたには証拠がありません。AIシステムは予測や状況分析に非常に優れています。これが最大の利点です。これは科学において非常に役立ちます。例えば、医療データを分析する場合など、非常に優れています。
もちろん、私たちは常に注意する必要があります。なぜなら、彼らは何か間違ったことをする可能性があるからです。彼らは新しい目標を探すことなども全く得意ではありません。そして、彼らが知識を提供する際に、それがどのように生成されたのか私たちには分かりません。これは将来、非常に重要な問題となるでしょう。なぜなら、あなたは別の種類の科学を持つことになるからです。この科学は、ある程度有効な結果を提供しますが、なぜそれが有効なのか理解できません。
Eduガイド:AIが大量の情報を生成し、それら自身も真に理解していないのに、科学者によって利用され、実際の場面に応用されているという問題に対処するための具体的な解決策はありますか?
ジョセフ:はい。誰かがあなたに多くの情報や知識を与えて、「ああ、これは起こるだろう」とか「これは本当だ」とか言うとします。しかし、あなたはそれを保証できません。それが問題です。ですから、伝統的な科学では、私たちはそれを理解しています。なぜなら、科学的知識は数学モデルの使用を通じて生成されるからです。したがって、理論や科学的結果が正しいかどうかを非常に正確に検証することができます。これはAIシステムではできないことです。
これが代償です。あなたは多くの情報、多くの結果を得るでしょう。しかし、これらの結果が利用可能かどうかを自分で判断できるか、あるいは信頼できる知識を生み出すためにAIシステムを訓練すべきかどうかを考慮する必要があります。これは未解決の問題です。現在、安全なAI、責任あるAIについて、さらには専門の国際会議も開かれています。しかし、今のところ、私たちは何をすべきか分かりません。ですから、将来は可能になるかもしれませんが、今のところは注意すべきです。
4、
「AIはより賢く進化できるが、完全に人間を超えることはできない」
ジョセフ:はい。私にとって、AIが人間を超えることはありません。つまり、人々がAIが人間よりも賢くなると言うのは、根拠のないことです。おそらくあなたはすでに見てきたでしょうが、彼らは汎用人工知能、AGIについて話しています。しかし、ニュースを読むと、彼らが言うAGIとは、人間と機械の対話システムのことです。彼らは自律性(Autonomy)の問題を理解していません。それは、AIが人間よりも多くのことを知っているということだけでなく、AIが人間と同じくらい多くのことを知っており、さらに知識を賢く処理し、問題を解決するために知識を組織化できることを意味します。これは今日のAIがまだできないことです。
問題を解決するために、より正確に言えば、さまざまな問題があります。数学の問題を解決したり、日常生活の問題を解決したりできます。車を運転する、医者になる、料理人になる、といったように、問題を解決するとは、AIが複雑な組織で人間を代替できることを意味します。
ここで強調したいもう一点は、これは非常に難しい問題だということです。それだけでは十分ではありません。例えば、自動運転車の問題の一つは安全性、衝突を起こさないことです。たとえ安全な自動運転車を持っていると仮定しても、それだけでは十分ではありません。
サンフランシスコでは興味深い実験がいくつかありました。サンフランシスコでは、いくつかの企業が自動運転タクシーを展開しました。これらのタクシーは安全ではなく、事故を起こしました。しかし、それらが完全に安全だと仮定しましょう。それは完璧なAIであり、非常に安全なAIです。しかし、それだけでは十分ではありません。なぜなら、自動運転車の問題は、それが理解していないことだからです。例えば、後ろにパトカーと救急車が通りたがっているのに、それらをブロックしてしまい、「私は安全です、止まっています、事故はありません」と言うかもしれません。これには社会的な知恵が必要であり、集合的な知恵が必要ですが、機械にはそれがありません。
では、どうすればそのようなエージェントを持つことができるのでしょうか?今、各AIシステムは独自の目標を持っています。例えば、「私は北京から上海まで車を運転したい」という目標です。これは私の個人的な目標です。人間が運転する場合、高速道路では、他の人の目標を考慮すべきです。しかし、利己的な車は、自分の目標を最優先するでしょう。これは、他の車にとって良くないかもしれません。これが私たちが社会知性と呼ぶものであり、AIシステムが実現するのは非常に困難です。これはAIエージェントが人間の価値システムにいかに近いかに関係しています。
Eduガイド:倫理的な観点から見て、自動運転車が実際の場面で使用され、事故が発生した場合、誰がその悲惨な事故の責任を負うべきでしょうか?
ジョセフ:だからこそ、ここで標準が非常に重要なのです。飛行機事故が発生した場合、責任問題は明確です。なぜなら、飛行機は標準に従って認証されており、標準を満たしていれば飛行できるからです。したがって、製造業者が直接事故責任に関与することはありません。さて、自動運転車、例えばテスラが認証されていない場合、製造業者の責任が直接関与することになります。もちろん、ユーザーによるAIの濫用というケースもありますが、これも標準によって規定されていることです。したがって、これらの標準は製造業者と使用者の責任を定義します。もし標準がなければ、詳細な分析を行い、誰が非難されるべきかを見つけ出す必要があります。
もちろん、システムに責任はありません。これらのシステムはエンジニアによって設計されており、責任は製造者に帰属します。これは明確です。システムに責任がある、AIに責任があると言うのは意味がありません。つまり、愚かな人だけがそう言うでしょう。なぜなら、責任とは、私が何か間違ったことをした場合、なぜ間違ったことをしたのか説明でき、その代償を支払う覚悟があるということです。それによって罰せられるかもしれません。これは責任感に固有の意味です。機械を罰すると言うことはできません。これらの機械を罰するためにできることは、プラグを抜くことだけです。
Eduガイド:状況によって答えが違うのですね。
ジョセフ:はい、しかし標準がなければ、リスク責任の境界線を定義することはできません。もう一つの例を挙げましょう。あなたがAIを持っていて、「爆弾の作り方は?」と質問したとします。もしあなたが十分に賢ければ、AIが教えた通りに作ることができます。現在、一部の製造業者は「これについては責任を負いません。私たちはこれをコントロールできません」と言っていますが、結局のところ、彼らには責任があります。
なぜ彼らは責任を負うのでしょうか?彼らが爆弾の作り方や、誰かの偽のビデオの作り方を教えることができるのであれば、それはAIがどこかでその情報を見つけたことを意味します。文書を読んだり、インターネットにアクセスしたりするなど、どのような方法であれ、これは規制されるべきです。
しかし、これも規制が非常に難しいことを理解すべきです。なぜ難しいのか?技術的にどうやってそれが起こるのか?あなたはAIに大量のデータを提供します。もしデータをフィルタリングせず、書籍、文書、あらゆるファイルなどをフィルタリングするだけなら、AIはそれらすべてを通じて何かを学ぶことができます。私が言ったように、それはデータ蒸留器であり、あなたはデータを抽出します。しかし、もしこの文書を提出する前に、この文書を分析し、爆弾の作り方に関するすべての情報を抽出するように求められたら、AIの開発コストは膨大になるでしょう。
これは技術的な話になりますが、「爆弾」という言葉だけで簡単に排除できるとは言えません。なぜなら、「爆弾」という言葉を排除すれば、戦争における爆弾に関する多くの他の情報や、他の多くの有用な情報も排除してしまうからです。
5、
「AIは教育を代替できない、教育の役割は知識を与えるだけではない」
Eduガイド:これは人間とAIシステムの相互作用、そしてAIシステムで具体的なルールをどのように設定するかについてですね。次に教育の観点に移りましょう。あなたは著書『世界を理解し、変える』の中で、社会や人々が情報学を十分に重視していないと述べていました。最近、アメリカやヨーロッパの一部の国では、政府がAIコースを学校の必修科目として設定しています。これは十分だと思いますか?あるいは、この分野の知識を教育システムに導入することについて何か提案はありますか?
ジョセフ:現在、AIに関連する教育には一般的な問題があります。もちろん、学生はAIに関する知識、技術に関する知識を学ぶべきです。今日、知識、純粋な科学知識、そして技術の間でバランスを取るという重要な傾向があると思います。これは肯定的です。おそらく、STEMと呼ばれるこの傾向について聞いたことがあるでしょう。STEMには科学、技術、工学、数学が含まれます。これは多分野のコースを学ぶという考え方で、非常に良いことです。これは中国でも起こっていると思います。
しかし、私はまた、現在、教育において、AIがもたらす危険を若者に説明し、行動規範を定めることが非常に重要であると考えています。機械の役割とは何か、人間の役割とは何かを説明する必要があります。私のインタビューでは、若い学生がAIツールに触れる問題について多く議論しました。若い学生がDeepseekを使って答えを探すことを想像してみてください。私はこれが非常に悪いことだと思います。なぜなら、若い学生がDeepseekを使って質問に答えたり、論文を書いたりするということは、彼が適切で十分な教育を受けられないことを意味するからです。
教育の役割は、単に知識を与えることだけではありません。それはまた、あなたの心を訓練し、精神を訓練し、思考力、集中力、創造力を訓練することでもあります。今、もし幼い子供たちが、問題に直面するたびにDeepseekに解決を求めてしまうとしたら、それは非常に悪いことです。
教育は訓練のプロセスです。まるであなたがアスリートで、ランナーで、毎日自分を訓練しているようなものです。あなたはできるだけ良いパフォーマンスを発揮したいと思っていますが、もしこの訓練中に機械を使ってより速く走ろうとすれば、確かにずるができます。しかし、それはスポーツの目的ではありません。同様に、私は教育にもある程度のコントロールが必要だと思います。私は使用すべきではないとは言いませんが、彼らはツールを補助として使うべきであり、彼らのために直接決定を下したり、問題を解決したりするべきではありません。ですから、私たちは非常に注意する必要があります。
技術のトレンドについて言えば、私の考えでは、科学よりも技術に重点を置きすぎないように、もう一方の極端に走らないことが重要です。これも起こり得ることです。もちろん、現在の教育において非常に重要な点は、人間が機械とどれほど異なるのか、機械の限界とは何か、そして機械をどのように使うべきかを説明することだと私は思います。
Eduガイド:AIが多くのことを記憶できる現状において、一部の学術知識が時代遅れになっているという非常に深刻な問題がありますね。人々は過去1世紀や過去数十年と同じように学ぶ必要はないかもしれませんが、これらの科目はまだ大学で教えられています。
ジョセフ:はい。しかし、見てください、知識とは、何かを学ぶとき、例えば中国の歴史を学ぶとき、それは単なる事実ではありません。知識は単なる事実ではないのです。あなたは事実そのものだけでなく、いくつかの分析も学びます。この過程で、あなたは人類社会にとって進化が何を意味するのか、人類社会にとって何が悪いのか、何が良いのかを理解することができます。
今、人々は「ああ、何も知る必要はない、ただ質問して答えを得ればいい」と言っています。しかし問題は、まず、得られた情報を分析できるべきだということです。そして、私が言ったように、歴史を理解していれば、社会がどのように機能するか、社会的な場面でどのように振る舞うべきか、何が正しくて何が間違っているかを理解できるでしょう。あなたは何かを学びます。人間の価値とは何か?歴史を学び、動物生物学を学び、宇宙論を学ぶ。これは世界を理解するあなたのプロセスです。
もう一つ例を挙げます。私も幼い頃にいくつかの実験をしました。子供の頃、私は掛け算の九九を学んでいました。今では子供たちは九九を学ばないかもしれません。なぜなら、コンピューターも計算機もあるので、必要ないからです。しかし、九九を学ぶことは、数字間の関係、量間の関係について理解を深めることもできます。数字間の関係を分析することで、これが何を意味するのか、類推とは何か、何かを比例して行うのか、比例せずに行うのか、あるいは他の種類の関係を理解することができます。ですから、知識は単に人々が何かを知るためだけのものではなく、異なるもの間の関係を理解するためにも非常に重要なことなのです。
6、
「今日の若者は非常に物質主義になっている」
Eduガイド:思考プロセスも非常に重要で、単に知識を記憶するだけではないということですね。あなたはまた、今日、哲学や人文科学などが軽視されているのは、現代人の生活にあまり関係がないからだと述べていました。これらの学問は、現代社会に適応するためにどのように変化すべきでしょうか?
ジョセフ:それは非常に重要な問題です。私は生涯の多くを哲学を読むことに費やし、多くのことを学びました。もちろん、哲学も学校で教えられるべきだと思います。なぜなら、哲学は世界を理解するための完全な枠組みを与えてくれるからです。人間とは何か?人間と他の生物との違いは何か?そして、いくつかの興味深い基本的な価値を自分に与えること。
私の哲学に対する批判は、私が学生だった頃、彼らは教えてくれなかったということです。つまり、古代ギリシャ哲学では、哲学の目的は価値ある人生をどのように生きるかということでした。哲学の発展にはいくつかの時期があり、多くの偉大な哲学者が大きな貢献をしました。私は彼らを尊敬しています。しかし、今、20世紀初頭以来、私たちはそうではありません。つまり、私たちは多くの混乱を抱えています。哲学者も必要ですが、それは単なる文学になっているとあなたは気づくでしょう。
例えば、エンジニアとして、私は不確実な定義を嫌います。幸福の定義が必要です。しかし、哲学者はそれを提供していません。これも私が説明しようとしていることですが、人生における幸福とは、十分な自由があることを意味します。だから私はビジョンを持ち、目標を持ち、短期的目標と長期的目標を持っています。目標を達成するためのリソースを持っています。選択肢が多すぎると問題になる可能性があるので、あまり多くの選択肢は必要ありません。ですから、幸福とは、自分自身にビジョンを持ち、それを実現するための方法を持っていることを意味します。ただし、すぐに実現するわけではありません。それは継続的な戦いだからです。私にとって、幸福とは創造し、奮闘し、夢を見ることができることです。これは非常に重要です。そして、これらはあまりにも遠すぎて実現できない夢ではありません。それはゲームなのです。
私の本では、もしあなたが最終的に何もすることがないという目標を達成したとしても、あなたは幸せではないだろうと述べています。ですから、人々は、夢がなければ、何かのために奮闘しなければ、あなたの人生は悲しいものになるということを理解すべきだと思います。
これもAIの危険性です。AIの危険性は、それが商品になってしまうことです。いつでも利用できます。私は若者が「Googleに何をすべきか、休暇中に何をすべきか尋ねよう」と言うのを見たことがあります。それは愚かです。なぜなら、あなたは「ヴェネツィアに行き、夏をヴェネツィアで過ごす夢がある」と嬉しそうに言わないからです。これは人々が責任を転嫁しているのです。もちろん、あなたには自分の自由を管理する責任もあります。何かをするのであれば、選択しなければなりません。もしこのゲーム、つまり自由についてのゲームをしたくなければ、もちろんこのゲームの楽しみもありません。
だから、これがAIとコンピュータの問題なのです。彼らが賢くなるからといって、私たちが何もしなくなるわけではありません。そんなことは決して起こりません。今の問題は、それが便利だからという理由で、私たちが意思決定の責任を転嫁していることです。人間は怠けすぎているのです。誰かがあなたを助けてくれるなら、あなたはそれをしません。実際、肉体的な作業では、人間には確かに限界があります。私は怠惰になることができますが、知的な作業ではそうではありません。
自由を選択する問題になると、私の講義で学生たちに言ったのは、非常に強力な奴隷がいて、あなたが望むものは何でも手助けしてくれると想像してみてください。アラブの神話のように、ランプの魔神がいて、手を叩くと魔神が現れます。「ご主人様、何かご用でしょうか?」魔神は何でもできます。
では、今、誰が奴隷になるのでしょうか?もしあなたが望むものが何でもすぐに満たされるとしたら、あなたの幸福とは何でしょうか?ですから、人々は幸福という概念と、それをどのように実現するかについて深く理解すべきです。残念ながら、今の人々はあまりにも物質主義になり、意思決定の責任を気にしなくなり、AIがこれを推進しています。
7、
「もしAIが古い構造に影響を与えるなら、私たちはすべてをうまく手配する方法を考えるべきです」
Eduガイド:幸福や責任が私たち自身にとって何を意味するのかを理解することは、実際には簡単な問題ではありませんね。
ジョセフ:はい、これは人々に説明されるべきです。私たちは応用哲学のコースを開設できます。興味深い状況は、あなたがたくさんのお金と多くの自由を持っているかもしれないということです。しかし、そのような人々の中には自殺する人もいるでしょう。なぜでしょうか?彼らは問題が何であるかを知らないからです。フランスの哲学者サルトルを知っていると思いますが、彼は「人類の問題は、自分の自由をどう管理するかを知らないことだ」と言いました。自由度が高すぎると、人々は狂ってしまいます。ですから、問題は適切なバランスを見つけることです。
その中で道徳も非常に重要です。道徳は宗教からだけ来るのではありません。それは非常に現実的な考察から来るのです。なぜなら、倫理や道徳を分析すれば、それらは禁じられていると言われ、その禁令があったから私はタバコを吸わないとか、他の禁止されていることをしないと言うのです。この制限を受け入れるのは私の選択です。
さて、何が良いバランスなのでしょうか?それは、この自由のゲームであなたがどれだけ強力であるかにかかっています。しかし、生まれた時から「私はこれをしない」と言う人もいます。彼らは静かな生活を送ります。おそらくあまり刺激的ではありませんが、生活は穏やかです。そして、豊かさのために狂ってしまう人もいます。彼らには多くの選択肢があります。彼らはどのように選択すればよいか分からなかったり、他のことをしたりします。これが自由の問題です。人々はこのゲームを理解すべきであり、それはまた、社会で生きることが何を意味するのかも説明されるべきです。
信頼の問題とは何か?責任の問題とは何か?紛争の問題とは何か?私は誰かと対立することが何を意味するのかを理解するのに多くの時間を費やしました。なぜなら、誰かと対立することの意味を理解すれば、対立を解決することの意味も理解できるからです。これらは私たちがシステムで研究している非常に単純な概念です。この考えも教育に応用されるべきだと思います。
では、紛争とは何か?それは、私が何か行動を起こしたい、リソースが必要だ、そして別の人が行動を起こしたい、同じリソースが必要だという意味です。もし私がリソースを取ったら、あなたはリソースがなくなります。ですから、私たちはリソースの利用方法について合意すべきです。これは簡単です。社会において、道徳に関するすべての法律は、紛争を解決する方法を規定しています。例えば、交通ルールは紛争を解決する方法を説明しています。交差点で人々が道徳法に従わない場合、何が起こるでしょうか?これは非常に重要です。もし紛争が解決できなければ、現代の社会が享受している平和は崩壊し、脅かされるでしょう。
ですから、人々はこの点を理解すべきです。私たちの中には、「過去のことはすべて忘れよう。伝統を忘れよう」と言う人もいます。私は中国のこの点が気に入っています。中国人は伝統を守っています。家族という概念は非常に重要です。これは構造です。これは理解されていないことです。少なくとも他の社会ではそうです。それは非常に悪いことです。これは、私たちが古い構造を破壊しており、それを置き換える他の構造がないという事実です。それは非常に悪いことです。これもまた、多くの異なるレベルのAIがもたらす結果なのです。
ですから、私が言いたいのは、これがAIが大変革である理由だということです。社会構造において、例えばプラットフォームは素晴らしいものであり得ます。eコマースは良いことですが、そうすることで私たちは伝統的な構造を破壊していることを理解すべきです。郊外のどこかで食料品店を経営していた人がいたとしても、今ではそれらすべてが置き換えられています。
つまり、私はプラットフォームに反対しているわけではありませんが、それはAIにいくつかのリスクがあることを意味します。政府は、もしこのような社会変化や雇用市場の変化が起こるならば、それをどう解決するかを考えるべきです。私はAIを非難しませんし、技術に反対もしません。技術は良いことにも悪いことにも使われます。もし革新的な技術がより効率的であるならば、それを採用するのは良いことですが、効率性自体が最高の目的ではありません。もし私たちが効率性を向上させるためにそれを使用すると決定し、それが既存の構造に何らかの影響を与えるならば、私たちはすべてをうまく手配する方法を考えるべきです。これも政府と社会の役割です。
+++++++++++++++++++++++++++++++++++++++++++++++++++++
名著推薦:
チューリングからAIへのソースコードを解読する — 計算の先駆者と共に、デジタル知能の新時代を定義する!本書では、チューリング賞受賞者76名の業績、事跡、貢献を紹介しており、彼らの紹介を通じて、コンピュータ分野の発展の歴史を見ることができます。本書は、この壮大で波乱に富んだ歴史を感じる旅へと私たちを誘います。画像内のQRコードをスキャンして購入できます。
注目記事:
1.チューリング賞受賞者 ヨシュア・ベンジオ氏 Zhiyuan Conferenceでの最新講演:AIについて、私は信念を変え、研究方向も変えました
2.チューリング賞受賞者 リチャード・サットン氏 Zhiyuan Conferenceでの最新講演:経験の時代へようこそ!
3.ノーベル賞受賞者、AIのゴッドファーザー ヒントン氏の学術講演:チューリングが信じていたのは別の種類のAI、バックプロパゲーションは人間の脳より優れている、オープンソースモデルは世界に致命的な危険をもたらすだろう
4.チューリング賞受賞者 ルカン氏がシリコンバレーの傲慢さを非難!業界で話題の長文:DeepSeek R1-ZeroはR1よりも重要であり、AGIの打開の鍵となる
5.チューリング賞受賞者、AIのゴッドファーザー ベンジオ氏:OpenAIはスーパーインテリジェンスを共有せず、それを使って他者の経済を破壊するだろう
6.AIのゴッドファーザー、チューリング賞・ノーベル賞受賞者 ヒントン氏がCBSのインタビューに応じる:AIは今や人間が飼っているかわいい小虎だが、反撃には注意が必要だ
7.チューリング賞受賞者 ベンジオ氏がo1はAGIに到達できないと予言!Natureの権威ある解説:AI知能の驚くべき進化、究極の境界線は目前にある
8.強化学習をすぐに諦めるべきか?!チューリング賞受賞者、MetaのチーフAIサイエンティスト ヤン・ルカン氏が提言:現在の推論方法は「不正」であり、大規模モデルの競争は無意味だ!
9.チューリング賞受賞者 ヤン・ルカン氏:大規模言語モデルは物理世界の理解と推論能力を欠いており、人間レベルの知能は達成できない
10.チューリング賞受賞者 ジェフリー・ヒントン氏:小さな言語から大きな言語へ、人工知能はどのように人間を理解するのか?