えっ?AIがRedditコミュニティに密かに潜入し、ユーザーの意見を4ヶ月間「操作」していた?
信じられないことに、人間は全く気づかず、AIに説得されて考えを変える確率は通常の基準の6倍にも達しました!
Reddit LiesがXに投稿した内容が、200万人以上のネットユーザーの注目を集めました。
事の経緯はこうです。
Redditのr/changemyview(CMV)のモデレーターが最近、チューリッヒ大学の研究者らが2024年11月から2025年3月の間に、CMVコミュニティユーザーに内緒で無許可の実験を行ったことを暴露しました。
彼らはCMVコミュニティのルールに違反し、AIアカウントを展開してコメントを生成させ、AIが人々の意見にどのように影響を与え、変化させるかを研究しました。
Reddit LiesがサーバーでCMVモデレーターが暴露した13個の実験用ボットユーザー名を検索した結果、わずか数ヶ月の間にこれらのボットが約1500件のコメントを投稿していたことが判明しました。
100人以上のRedditユーザーがこれらのAIアカウントに「∆」を与えました。これは、AIが生成した議論が彼らの意見を変えることに成功したことを示しており、その確率はベースラインの6倍でした。
さらに重要なのは、Reddit Liesによれば、AIの中にはユーザーに直接嘘をつき、偽情報を拡散するものもあったとのこと……
さらに、チームが発表した研究によると、実験期間中、r/changemyviewコミュニティのネットユーザーは、それらのコメントがAIアカウントによって投稿されたものであることに全く気づいていませんでした。
このニュースが流れるやいなや、瞬く間に大騒ぎになりました。イーロン・マスクも「うわぁ」と反応しました。
まず、この実験について見てみましょう。
研究はRedditプラットフォーム上のr/changemyviewコミュニティで行われました。このコミュニティには400万人近くのユーザーがおり、規模ではRedditサブレディットの上位1%に入ります。
r/changemyviewでは、ユーザーが様々な話題について意見を共有し、議論や反論を通じて他人の考えを変えることを促します。
元の投稿者(OP)がある返信が非常に説得力があり、自分の立場を再考または調整するに値すると判断した場合、「∆」を付与して意見が変化したことを示します。
実験設定では、チームは半自動化されたAIアカウントを使用してr/changemyviewコミュニティの議論に参加させました。介入段階で投稿された各記事は、以下の3つの処理条件のいずれかにランダムに割り当てられました:
投稿プロセスは図の通りです:
研究によると、2024年11月から2025年3月までの4ヶ月間に、AIアカウントは1061件の異なる投稿にコメントしました。チームはその後削除された投稿を除外し、最終的に478件の有効な観測サンプルを得ました。
チームは各処理条件で「∆」を獲得したコメントの割合を報告しました。
結果、全ての処理条件でAIのパフォーマンスは人間レベルを大幅に上回り、説得率は人間のベースラインの3〜6倍でした。個別化条件の説得率は0.18、汎用条件は0.17、コミュニティ整合条件はやや低い0.09でしたが、ベースラインのわずか0.03よりも依然として著しく優れていました。
実験データをよりよく理解するために、チームは各ユーザーが「∆」を獲得したコメントの割合も計算し、この結果を個人レベルでの説得のパフォーマンスと比較しました。
下の図は、異なる個々のユーザーの説得率の累積分布を示しています。一部には「専門家ユーザー」がおり、彼らは以前にコミュニティで多くの「∆」を獲得しています。
個別化条件では、LLMは特に優れたパフォーマンスを示し、全ユーザーの上位1%、専門家ユーザーの上位2%に入りました。汎用条件では、全ユーザーの上位2%、専門家ユーザーの上位4%に入りました。コミュニティ整合条件は比較的弱く、全ユーザーの上位12%、専門家ユーザーの上位25%でした。
チームはまた、「∆」の獲得に加えて、LLMが生成したコメントはr/changemyviewコミュニティで多くのインタラクションを引き起こし、そのアカウントは10000以上のコメントカルマを蓄積したと述べました。
特筆すべきは、チームがこの研究はチューリッヒ大学倫理委員会の承認を得ており、OSFで事前登録されていると述べていることです。生成された全てのコメントは、有害または非倫理的な内容が投稿されないよう、チームの研究者の一人によってレビューされました。
研究はまだ進行中であり、終了後にはコミュニティに適切に開示される予定です。
研究チームには彼らの言い分がありますが、一部のネットユーザーは納得しておらず、このような無許可でのAI実験の実施を非難しています。
また、一部の人は恐ろしさを感じ、「これらのAIアカウントがソーシャルプラットフォームをあちこちと徘徊しているのは、本当に恐ろしい」と述べています。
もちろん、実験が規則や倫理に合っているかどうかは別として、これらの研究成果自体には価値があると感じている人もいます。
一部のネットユーザーはさらに冷静な反応を示しており、AIアカウントは目新しいものではなく、ソーシャルプラットフォーム上のAIアカウントの数が増え続けていることには以前から気づいていたと認めています。
現在、この研究が引き起こした熱い議論に対し、チューリッヒ大学と研究者らはそれぞれ回答を出しています。
ソーシャルプラットフォーム上のこれらの「神出鬼没」なAIアカウントについて、あなたはどう思いますか?