ボットか、そうでないか?この特集シリーズでは、人間と機械の進化する関係を探り、ロボット、人工知能、自動化が私たちの仕事と生活にどのように影響を与えているかを検証します。
戦略的拒否は、AIの誇大広告に対抗する方法の一つです。(Bigstock イラスト / Digitalista)
ChatGPTをチャットボットと呼ぶのではなく、会話シミュレーターと呼びましょう。DALL-Eを芸術的な画像を生成するものと考えるのではなく、合成メディア押出機と考えるべきです。実際、生成AIが行うことを、真の人工知能であると考えるのは避けるべきです。
これは、新刊「The AI Con」の著者らが提唱する、人工知能に対する誇大広告に対抗するための提言の一部です。
「『人工知能』は本質的に擬人化された用語です」と、ワシントン大学言語学教授のエミリー・M・ベンダーは、Fiction Scienceポッドキャストの最新エピソードで説明しています。「それはテクノロジーを実際以上に売り込んでいます。なぜなら、これは例えば、自動的に文字起こしをしたり、録音の音量レベルを自動的に調整したりするシステムではなく、『人工知能』なので、もっと多くのことができるかもしれないと売り込んでいるからです。」
彼らの著書とポッドキャストの中で、ベンダーと共著者のアレックス・ハンナは、AIマーケティングの欠陥を指摘しています。彼らは、AIが生み出す利益は誇張されており、コストは軽視されていると主張しています。そして、最大の利益はソフトウェアを販売する企業、あるいはAIを人間の労働者の地位を下げる口実として利用する企業に流れていると述べています。
「AIがあなたの仕事を奪うことはないでしょうが、あなたの仕事をより劣悪にする可能性は高いでしょう」と、分散型AI研究所の研究ディレクターであり社会学者であるハンナは言います。「なぜなら、これらのツールが仕事を完全に置き換える例は多くありませんが、最終的には…人間が行っているタスクの全体を置き換えるものとして想定されているからです。」
このような主張は、労働者を解雇し、その後「ギグワーカーとして再雇用するか、サプライチェーン内の他の誰かにその仕事をさせる」ための正当化として頻繁に使用されるとハンナは言います。
テクノロジー企業の幹部は通常、AIツールが生産性に飛躍的な進歩をもたらすと主張していますが、ハンナは、昨年ノーベル経済学賞を共同受賞したMITのダロン・アセモグルーを含む経済学者たちの楽観的ではない予測を指摘しています。アセモグルーは、今後10年間のAIによる年間生産性向上は、およそ0.05%と推定しています。
さらに、アセモグルーは、AIが「負の社会的影響」をもたらす可能性があり、資本と労働所得の格差拡大などが含まれると述べています。「The AI Con」では、ベンダーとハンナが、AIがもたらす一連の負の社会的および環境的影響を列挙しています。これには、エネルギーと水資源の枯渇から、ケニアやフィリピンなどの国々でAIモデルを訓練する労働者の搾取までが含まれます。
もう一つの懸念は、文学作品や芸術作品がAIモデルの訓練のためにどのように違法に利用されているかに関することです。(完全な開示:私自身の著書「冥王星の事件」も、MetaのLlama 3 AIモデルの訓練に使用された作品の一つです。)また、大規模言語モデルには、もっともらしく聞こえるが実際には完全に誤った情報を出力するというよく知られた問題があります。(ベンダーとハンナは、その用語が知覚の存在を暗示するため、それを「幻覚」とは呼ばないようにしています。)
さらに、人種や性別に基づくアルゴリズムの偏見に関する問題もあります。AIモデルが誰を雇用するか、誰に懲役刑を科すか、あるいはどの地域で警察の取り締まりを強化すべきかを決定するために使用される場合、そのような問題は警鐘を鳴らします。「The AI Con」では、これらすべてがカバーされています。
この本の中でAIを褒め称える記述を見つけるのは難しいでしょう。
「私がAIについて良い点があるとは決して言いませんが、それは私がこのすべての自動化に反対しているという意味ではありません」とベンダーは言います。「ただ、AIというものが存在しないと思っているだけです。もちろん、自動化には、パターン認識やパターンマッチングの自動化を含むユースケースがあります…それはケースバイケースですよね?」
尋ねるべき質問には、以下のようなものがあります。何が自動化されているのか?自動化ツールはどのように構築されたのか?そのツールの開発には誰の労働力が投入され、労働者には公正な報酬が支払われたのか?ツールはどのように評価されたのか、その評価は自動化されるタスクを真にモデル化しているのか?
ベンダーは、生成AIアプリケーションは彼女のテストに合格しないと述べています。
「私が最も近いと感じたのは、そうですね、ビデオゲームにおける非プレイヤーキャラクターとの対話です」とベンダーは言います。「合成テキスト押出機が稼働すれば、より活気のある対話が可能になるでしょう。そして、それはフィクションなので、私たちは事実を求めているわけではありません。しかし、架空の体験の中に特定の種類の真実を求めています。そして、そここそが偏見が真に問題となる場所です。なぜなら、NPCが明らかに、あるいは隠れて、完全に偏屈者である場合、それは悪いことだからです。」
言葉に注意し、宣伝されているシステムについて疑問を呈する以外に、AIの誇大広告を抑制するために何ができるでしょうか?ベンダーとハンナは、透明性、情報開示、説明責任、そして自動化された意思決定に直面した場合に遅延なく状況を是正する能力を確保するための新しい規制の余地があると言います。彼らは、欧州連合の一般データ保護規則(General Data Protection Regulation)のような個人データ保護のための強力な規制枠組みが、データ収集慣行の過剰を抑制するのに役立つと述べています。
ハンナは、労働組合による団体交渉が、職場でのAIを抑制する別の道筋を提供すると述べています。「2023年のストライキ後の全米脚本家組合(Writers Guild of America)のように、多くの組織がこれで大きな成功を収めているのを見てきました」と彼女は言います。「全米看護師連合(National Nurses United)も同様です。多くの異なる組織が、合成メディアを使用する場合、情報提供を受ける権利があり、それを拒否する権利があり、また、脚本家室や職場内のどこでいつ合成メディアを展開するかを決定できるという条項を契約に盛り込んでいます。」
著者らは、インターネットユーザーがテキスト押出機ではなく、信頼できる情報源に依拠するよう助言しています。そして、ユーザーは「戦略的拒否」に訴えることをいとわないべきだと述べています。つまり、テクノロジー企業がAIブレンダーにデータを提供したり、そのデータを利用したりするよう求めてきたときに、「絶対にノー」と言うことです。
ベンダーは、AIに関する誇張された主張をからかうことも役立つと述べています。彼女とハンナは、この戦略を「実践としての嘲笑」と呼んでいます。
「それは『いや、あなたのばかげた主張を受け入れる必要はない』という習慣を身につけるのに役立ちます」とベンダーは言います。「そして、それらの主張を笑うことは、力を与えてくれると感じています。」
ベンダーとハンナは、本日太平洋時間午後7時にシアトルのエリオットベイ・ブックカンパニーで、火曜日太平洋時間午後7時にレイクフォレストパークのサードプレイス・ブックスで「The AI Con」について講演します。シアトルでのイベント中、彼らはワシントン大学の情報技術倫理を研究する准教授アンナ・ローレン・ホフマンとステージを共有します。サードプレイス・ブックスでは、ベンダーとハンナは、Hugging Faceのコンピューター科学者であり、機械学習と倫理に基づいたAI開発に焦点を当てているマーガレット・ミッチェルと共演します。「The AI Con」のイベントカレンダー全体をご確認ください。
私のFiction Scienceポッドキャストの共同ホストは、サンフランシスコ在住の受賞作家であり、クラリオン・ウェスト・ライターズ・ワークショップの卒業生であるドミニカ・フェットプレイスです。フェットプレイスの詳細については、彼女のウェブサイトDominicaPhetteplace.comをご覧ください。
Fiction Scienceは、FeedSpotの「ベストSFポッドキャスト100選」に選ばれています。Cosmic Logに掲載されたこのレポートのオリジナル版をチェックして、ベンダーとハンナからのSF読書のおすすめを入手し、Apple、Spotify、Player.fm、Pocket Casts、Podchaser経由で今後のFiction Scienceポッドキャストのエピソードにご期待ください。Fiction Scienceを気に入っていただけましたら、ポッドキャストを評価し、購読して今後のエピソードの通知を受け取ってください。