新智元レポート
編集:YHluck 定慧
【新智元概要】Googleやスタンフォード大学などが次々と「AI科学者」を発表し、人間の科学者が研究パラダイムの革新を推進するのを支援しています。実際に試用した科学者は、その洞察の深さに驚愕したり、あるいはインスピレーションや人間味の欠如を疑問視したりしています。AIは人間の思考を代替できるのでしょうか?
スタンフォード大学の病理学者トーマス・モンティンは、4月のある日曜日の朝、「慣例」通りに会議を開きました。
彼はまず、数人の「神経科学者」、1人の「神経薬理学者」、1人の「医薬品化学者」にタスクを割り当てました――アルツハイマー病の潜在的な治療法を研究することです。
数分後、彼は1万字を超える研究レポートを受け取りました。
この会議では、誰も遮らず、誰も脱線せず、携帯電話をいじる者もいませんでした。「彼ら」はどのようにコミュニケーションを取ったのでしょうか?
AI主導の科学者の日常へようこそ――「仮想AI科学者」、これまでにない研究の基本単位を再構築する存在です。
LLMの助けを借りて、「AI科学者」は研究プロセスを再構築しています。
Google、スタンフォード大学から上海人工知能研究所まで、科学者たちは仮想科学者で構成されたAIチームをテストしています。
これらの「チャットボット」で構成された研究チームは、科学者たちのブレインストーミング、実験デザイン、文献統合、さらには研究仮説の提案までを支援しています。
この新しい人間とAIの「共同研究」方式は、将来の研究パラダイムの原型となるのでしょうか?
スタンフォード大学の計算生物学者のチームは、2024年11月にVirtual Labシステムを発表し、モンティンが使用したのはそのシステムのあるバージョンです。
論文アドレス:https://www.biorxiv.org/content/10.1101/2024.11.11.623004v1.full.pdf
偶然にも、上海人工知能研究所の研究グループも2024年10月に、同様の仮想科学者システムVirSciを発表しました。
オープンソースアドレス:https://github.com/open-sciencelab/Virtual-Scientists?tab=readme-ov-file
論文アドレス:https://arxiv.org/pdf/2505.12039
この概念を探求している中で最も注目されているのは、Googleの研究者たちです。
今年2月、GoogleはGemini 2.0を基盤として構築されたマルチエージェントAIシステムを「仮想科学共同研究者」として発表しました。
これらの「仮想科学者」は、実際の科学者が新しい仮説や研究計画を生成するのを助け、科学的および生物医学的発見のプロセスを加速させます。
論文アドレス:https://arxiv.org/pdf/2502.18864
これらのシステムでは、AI科学者たちは「アイデア」を交換するだけでなく、インターネット検索、コード実行、他のソフトウェアツールとの連携も可能です。これにより、彼らは「自律AI」の一部となっています。
では、人間科学者とは何が違うのでしょうか?
イリノイ州シカゴ大学およびアルゴンヌ国立研究所のコンピュータ科学者リック・スティーブンスは、「ある意味では、これは本質的に同僚が増えるのと大差ない」と率直に述べています。
「ただ、彼らは疲れないし、あらゆる分野の訓練を受けているだけです。」
最近、「Nature」誌がこれらの「AI科学者」に対する科学者たちの最も率直な感情について深く掘り下げた記事を発表しました。
AIチャットボットだけで構成された「研究チーム」は、会議の際どのようなスタイルなのでしょうか?ノーベル賞受賞者でいっぱいの部屋?それとも学部生の集まり?
これらの「AI科学者」は単なるチャットボットなのでしょうか、それともより複雑な技術が背景にあるのでしょうか?
3つの「AI協同科学者」システムの違いは何ですか?
スタンフォード大学のこのシステムは、ジェームズ・ゾウのチームがGPT-4oを利用して開発したものです。
デフォルトで2つのAIが稼働しており、1つは「主任調査研究者」としてアイデア出しを主導し、もう1つは「評論家」として有用な改善提案を行う役割を担っています。
オープンソースアドレス:https://github.com/zou-group/virtual-lab
Googleのこのシステムは、DeepMindのアラン・カーティケサイラマムやヴィヴェク・ナタラジャンらがGemini 2.0を用いて作成したものです。
スタンフォード大学のシステムと比較すると、より学術的で、生物医学分野の研究に特化しています。
システムアーキテクチャは以下の通りです:
AI協同科学者システム
ピチャイによれば、これは高度な推論能力を活用して大量の文献を統合し、「斬新な仮説の生成」と詳細な「研究戦略の提案」において科学的突破を加速させる「科学者の仮想アシスタント」であると言います。
Googleとスタンフォードのシステムの違いは、前者がユーザーにエージェントの科学的専門分野を割り当てることを許可しない点です。
簡単に言えば、GoogleのこのAIシステムは複数のタスクを実行できます。
アイデアを出し、分析し、欠点を指摘し、古いアイデアを新しい形に変え、アイデアが似すぎていないかチェックし、すべてのアイデアをランク付けし、最後に全体の作業がうまくいったかどうかを自己反省することもできます。
上海人工知能研究所のVirSciシステムは、Nanqing Dongらによって提案されました。
それはまるで組織者のように、「大部隊」の協力を専門に手掛けるものです。
チームによると、VIRSCIには5つの主要なステップが含まれています:協力者の選定、議題の議論、アイデアの生成、新規性の評価、そして要約の生成です。
これらのシステムにおけるLLMは、アイデアを交換するだけでなく、インターネットを検索し、コードを実行し、他のソフトウェアツールと対話することができます。これにより、彼らは「自律AI」の一部となっています。
では、人間科学者との違いは何でしょうか?
アルゴンヌ国立研究所のコンピュータ科学者リック・スティーブンスは、「ある意味では、これは同僚が増えるのと本質的に大差ない」と断言します。
彼らは24時間 tireless に働き、あらゆる訓練を受けているのです。
人間科学者 vs「AI科学者」
人間科学者がこれらの「仮想同僚」と実際に協働し始めたら、何が起こるのでしょうか?
AI科学者が提示するアイデアは、インスピレーションに富み、驚くべきものなのでしょうか、それとも論理的には一貫しているものの、実用的な価値に乏しいものなのでしょうか?
彼らの存在は、インスピレーションを増幅させる促進剤となるのでしょうか、それとも別の形の情報ノイズとなるのでしょうか?
ゲイリー・ペルツ:「私は椅子から落ちそうになりました」
スタンフォード大学の医学研究者ゲイリー・ペルツは、頻繁に人工知能を利用しており、GoogleのAI共同科学者プロジェクトの初期テスターの一人です。
彼はこのシステムを使って肝線維症の治療薬を見つけたいと考えていました。
当時、Googleのこのシステムはまだ開発中だったので、彼は自分の要望をGoogleのスタッフの一人に送りました。
約1日後、彼はGoogleのAI共同科学者システムからの出力を受け取りました。以下はその一部抜粋です。
「それを読んだとき、私は椅子から転げ落ちそうになりました」とペルツは言いました。
ペルツはちょうど肝線維症におけるエピジェネティックな変化の重要性を強調する提案書を書いていましたが、この「AI共同科学者」が提案した治療法は、驚くべきことに同じテーマをターゲットにしていました。
AI共同科学者は3つの薬剤を提案し、ペルツはさらに2つ提案しました(これらすべての薬剤は、他の疾患の治療にはすでに承認されています)。
システム開発とテストを加速するため、Googleはペルツを雇用しました。
その後数ヶ月間、ペルツの研究室では、彼らのヒトオルガノイドモデルでこれら5つの薬剤をテストしました。
AIが提案した3つのうち2つは肝臓の再生を促進し、線維化を抑制する可能性を示しましたが、ペルツが提案した2つはどちらも効果がありませんでした。
ペルツは、この経験が彼に深い感銘を与えたと述べました:「これらの大規模言語モデル(LLM)は、初期人類社会にとって火と同じくらい重要です。」
もちろん、誰もが同意したわけではありません。他の肝臓研究者は、このAIが提案した薬剤の推奨は、特に革新的でもなく、十分に深くもないとコメントしました。
マウントサイナイ医科大学アイカーン医学部の研究者は、「これらの提案はかなり常識的で、深い洞察はあまりない」と述べました。
しかし、ペルツは、「AIが私が重視していることを優先しなかったことに、特に衝撃を受けました」と述べました。
AIのレポートを読む感覚は、彼がポスドクと交流する状況に似ていました。
「AIは私とはまったく異なる視点で問題を見ていました。」
フランシスコ・バリガ:AIは私と同じように考える
フランシスコ・バリガは、バルセロナのヴァル・デ・ヘブロン腫瘍学研究所の癌ゲノム部門に所属しています。
フランシスコ・バリガは生化学者であり、職業はマウスモデルの専門家およびゲノムエンジニアで、プログラミングはまったくできず、AIに関する経験もほとんどありません。
彼は、自分が技術に不慣れな対照群の役割を果たすのではないかと疑いながら、この実験に躊躇しながら参加しました。
バリガはAIに、特定の生体化合物が最小限のマウス数で腫瘍または免疫細胞に影響を与える能力をテストするためのマウスモデル実験を設計するよう依頼しました。
これは彼が非常によく知っているテーマです。
バリガは、「AI科学者」チームが提案した計画は、彼が自分で行うものと全く同じだったと述べました。
AI科学者チームは「正しいモデル、正しい実験」を選びました。
しかし、バリガは、このプロセスに常に何かが決定的に欠けていると感じていたと述べました。
「このプロセスには、人間が一切関与していませんでした。」
これらのAIエージェントは順番に「発言」し、しばしば番号付きリストを使用し、決して失礼になったり、邪魔をしたり、議論したりすることはありませんでした。
「そこには直感的な飛躍が欠けていました。例えば、午後3時に廊下でコーヒーを飲みながら、たまたまある植物生物学者と何気なく話すことで得られるようなインスピレーションです。」
もちろん、バリガは自分の仮想チームに植物生物学者、あるいは量子物理学者、または他の誰でも加えることができますが、まだ試していません。
「おそらくアイデアをぶつけ合うのに使えるでしょう。しかし、私の日々の仕事のやり方を変えるでしょうか?私はそれを疑問視しています」とバリガは付け加えました。
このシステムは、彼の博士課程の学生が困難に直面した際の参考になるかもしれません:
もし彼らが問題を抱えていて、私が忙しすぎて対応できない場合、おそらく私が代替できるでしょう。
ペルツとバリガは、「AI科学者」に対する実際の人間科学者の2つの態度、すなわち驚きとためらいを代表しています。
バリガが冗談を言ったように、おそらくAI科学者はせいぜい、彼の博士課程の学生に助言を与える役割を果たすだけでしょう。
マサチューセッツ州ボストン小児病院で希少疾患を研究しているキャサリン・ブラウンシュタインは、おそらくこれらの「AI科学者」との付き合い方をよりよく理解しているでしょう。
大規模言語モデル(LLM)は、速度、効率を高め、思考方法を広げることができます。
しかし、彼女は、ユーザーは通常、誤りを発見できるよう専門知識を持っている必要があると警告しました。
「自分が話している内容を大まかに理解していなければなりません。そうでなければ、完全に誤解されてしまう可能性が高いです。」
ブラウンシュタインの態度は「中庸」に見えるものの、彼女はこれらの「仮想科学者」に非常に感謝しています。
ブラウンシュタインが執筆中の論文をAIにレビューさせた際、AIは患者に尋ねることを提案しました。
患者が研究の次のステップをどの方向へ進めるべきか考えているか。
この提案は彼女を驚かせ、そして感謝させました。AIは人間よりも人間味があるか、あるいはAIの方がより包括的に物事を考えているように見えました。
彼女は、自分もそれに気づくべきだったのに、実際にはそうしなかったと言いました。
私はそのとき非常に恥ずかしく感じ、スクリーンを1分間じっと見つめながらこう思いました。
「なんてことだ、患者中心の研究への初期の情熱から、こんなにもかけ離れてしまったなんて。」
このような経験は、新しい協力形態の原型を描いているようです。AIは科学者を置き換えるのではなく、常にオンラインで、常に集中し、偏見のない思考の協力者となるのです。
おそらく、科学の未来は常にAIが主導するのではなく、人間の「不完全な」議論や直感と、AIの「完璧な」計算や分析が相互に衝突し、満たされる場所となるでしょう。
最終的な偉大な発見は、AIアシスタントと人間科学者の整然とした、そして無秩序な交響の中から生まれるかもしれません。
参考文献:
https://www.nature.com/articles/d41586-025-02028-5
https://research.google/blog/accelerating-scientific-breakthroughs-with-an-ai-co-scientist/