GPT-5開発の内部情報初公開!OpenAIチーフリサーチオフィサー「AGIはもうすぐそこだ」

图片

新智元レポート

編集:桃子、英智

【新智元ガイド】最近、GPT-4.1のキーパーソンがGPT-5の進捗を明らかにし、課題は推論とチャット能力のバランスを取ることだと述べました。一方、OpenAIのチーフリサーチオフィサーは新しいインタビューで、AGIへの道筋における重要な要素について語りました。

GPT-5はどこまで進んでいるのか?

最近、GPT-4.1のコア研究者であるMichelle Pokrassは、GPT-5の構築における課題は、推論とチャットの間で適切なバランスを見つけることだと明らかにしました。

图片

彼女は「o3は真剣に考えますが、カジュアルなチャットには適していません。GPT-4.1は、いくらかの世間話の質を犠牲にしてコーディング能力を向上させました」と述べています。

「現在、目標は、いつ真剣に考えるべきか、いつ話すべきかを知っているモデルを訓練することです。」

最近の50分間の対談で、MichelleはGPT-4.1の背後にある開発プロセスと、RFTが製品で果たす重要な役割について、初めてさらに詳しく説明しました。

AGIという最終目標に直面して、OpenAIのチーフリサーチオフィサーは「AGIはChatGPTだけでなく、多くのものを含んでいます」と述べました。

現在、OpenAIは技術的な課題だけでなく、信頼と倫理のバランスも取らなければなりません。

图片

图片

GPT-4.1開発の舞台裏

Michelle Pokrass氏は、GPT 4.1の目標は、開発者が楽しく使えるようにすることだったと述べています。

時には、ベンチマークを最適化するためにモデルを調整すると、結果は見栄えが良いものの、実際に使用すると、モデルが指示に従わない、フォーマットがおかしい、またはコンテキストが短すぎるなどの問題が見つかります。

チームは多くの労力を費やしてユーザーとコミュニケーションを取り、意見を収集し、そのフィードバックを研究プロセスで実際に利用できる情報に変換しました。

研究者は、指示に従う能力など、フィードバックで繰り返し現れるテーマを観察します。

OpenAIの内部でもこれらのモデルを使用しているため、モデルがどこでうまく機能していないかを感じ取ることができます。

これらの要素を総合することで、チームはどの評価指標が顧客にとって本当に最適化が重要かを特定できます。

OpenAIにはメール製品があり、メールを処理する際に無料の推論サービスを受けられます。その見返りとして、会社はこのデータを利用できます。

图片

Michelleは、人々が構築するさまざまなクールなユーザーインターフェイスを見るのが本当に好きです。

チームはモデル開発の最終段階で密かに改善を加えました。それは、UIとコーディング能力を大幅に向上させたことです。

彼女はまた、人々がNanoを使っている状況を見るのが好きです。Nanoは小さくて安くて速いです。

Nanoの背後にある仮説は、安価で高速なモデルを通じてAIの普及を大幅に推進できるか?答えはイエスです。人々はコスト遅延曲線のさまざまな場所で需要を持っています。

モデル性能の向上に関して、GPT 4.1は長いコンテキストと指示追従に焦点を当てています。

長いコンテキスト処理能力は複雑なタスクにおけるモデルのパフォーマンスを測る重要な指標ですが、効果的な長いコンテキスト評価コンテンツを作成するのは非常に困難です。

OpenAIは、実際のアプリケーションでのモデルのパフォーマンスを向上させるために、より多くの現実世界の長いコンテキスト評価データを取得することに取り組んでいます。

モデルアプリケーションでは、曖昧性の処理が大きな課題です。

ユーザーにさらに情報を尋ねるべきか、あるいは既存の情報に基づいて仮説推論を行うべきかは、開発者がモデルの戦略を柔軟に調整できる必要があります。

GPT 4.1はこの点で改善を行い、モデルの操作性を強化し、曖昧さによる困惑を減らしました。

APIエラーが発生すると、モデルが停止し、使用体験に影響を与える可能性があります。

OpenAIは、訓練アルゴリズムとデータ処理方法を改善することで、モデルがエラーや異常な状況に直面しても安定して動作し続けるようにしています。

GPT 4.1は、コード記述能力が大幅に向上しており、ローカルなコード修正タスクでは優れたパフォーマンスを発揮しますが、グローバルなコンテキストや複雑なコード推論に関わる場合は、まだ最適化が必要です。

例えば、ファイル間の複雑な技術詳細の伝達を伴うタスクを処理する場合、モデルの理解と処理能力を強化する必要があります。

フロントエンドコーディングに関しては、チームは機能の正しさを求めるだけでなく、美観と規範にも注意を払い、エンジニアの専門的な美学に合致するようにしています。

图片

RFTの新たなブレークスルー

ファインチューニング技術はGPT 4.1で重要な役割を果たしており、RFT(強化学習によるファインチューニング)の登場は、モデル能力拡張に新たな可能性をもたらしました。

従来のSFTと比較して、RFTは特定の領域で強力な優位性を示しています。

图片

チップ設計、生物学、医薬品開発などの分野では、RFTのファインチューニングプロセスはデータ効率が極めて高く、わずか数百のサンプルで良好な結果が得られます。

医薬品開発では、RFTを通じてユニークで検証可能なデータを利用することで、モデルが薬物作用メカニズムをより正確にシミュレートし、開発プロセスを加速できます。

チップ設計分野では、RFTはモデルが複雑な設計ルールをよりよく理解し処理するのを助け、設計案を最適化します。

これらの分野の共通の特徴は、継続的な探索が必要であるにもかかわらず、実験結果が容易に検証できることであり、これはRFTの優位性と高度に一致しています。

图片

OpenAIチーフリサーチオフィサー:AGIへの道

外媒TechINAsiaの最新記事では、OpenAIモデルの背後にある人物へのインタビューを通じて、OpenAIの予測可能なAGIの未来が再び示されました。

Mark Chen、この中国人研究科学者は、内部モデルの研究開発において非常に重要な役割を担っています。

图片

OpenAIでの7年間で、彼は研究科学者からチーフリサーチオフィサーへと昇進し、モデル開発と会社全体の研究業務を担当しています。

彼は複数の画期的なプロジェクトを主導してきました。o1系推論モデル、テキストから画像へのモデルDall-E、そして視覚認識を組み込んだGPT-4です。

图片

金融からAIへ、予期せぬキャリア転換

Mark Chen氏のキャリアは、最初からAIに固定されていたわけではありませんでした。

MITで数学とコンピューターサイエンスの二重学位を取得した後、彼の本来の計画は博士号を取得し、教授になることでした。

しかし、運命の転換点が訪れました。

共同研究を計画していた教授がヘッジファンドを設立した後、彼は方向を変え、それに続いて金融業界に入りました。

このような高頻度取引の世界で、Mark Chen氏は6年間を過ごしました。

图片
Please make sure the image path is correct. If not, please remove the image or update the path.

彼は「その仕事は、ある面では満足できましたが、別の面では非常に不満足でした。同じ競争相手に直面し、皆がより速くを追求していましたが、世界を変えているとは感じられませんでした」と正直に語っています。

2016年、GoogleのAlphaGoは歴史的な対局で九段棋士の李世石を破り、その人間レベルのパフォーマンスはAI専門家さえ驚かせました。

これに触発され、Mark Chen氏はDeep-Qニューラルネットワークを実装してAlphaGoを再現しました。この試みこそが、彼をAIに完全に魅了させたきっかけとなりました。

博士号を持っていなかったにもかかわらず、幸運にもOpenAIのレジデンシープログラムを通じて、この分野に足を踏み入れることができました。

图片

AGIのための最良のバランスを見つける

AGIについて語る際、Mark Chen氏は「我々は非常に広範な定義を採用しており、それはChatGPTだけでなく、他のものも含まれます」と述べました。

これまで、OpenAIはAGIをAIの聖杯と見なし、この目標を達成するための5段階のフレームワークを策定しました。

图片

そして現在、彼らは第3段階であるエージェントAI(Agentic AI)に到達しました。これは、複雑なタスクと計画を自律的に実行できます。

Mark Chen氏によると、OpenAIが最近ローンチした2つのAIエージェント製品、Deep ResearchとOperatorはまだ初期段階にあります。

Operatorは将来、速度が速くなり、軌道が長くなる可能性があります。これらの製品は、エージェントAIに対するOpenAIの野心を示しています。

彼はまた、短期的な製品リリースと長期的な研究のバランスを取り、OpenAIのプロジェクトポートフォリオ全体に計算リソースを割り当てることは、彼の仕事の中核であり、最終的にOpenAIが商業化と科学探索の間に最適なバランスを見つけることを保証すると強調しました。

Mark Chen氏は、OpenAIの内部アルゴリズムの最適化に自信を持っています。

彼は、自社の推論モデルは訓練時にプリトレインモデルよりもはるかに少ないデータを使用しているが、より多くの計算リソースによって効率的なパフォーマンスを実現していると述べています。

したがって、OpenAIはGoogleのGemini 2.5などの競合他社に劣らず効率的です。

图片

オープンソースへの対応

数日前、アルトマン氏は会議で、今夏に最初の推論モデルをオープンソース化する予定だと述べました。

インタビューで、Mark Chen氏も同様に、会社はGPT-2以来初めてのオープンソース言語モデルをリリースする計画であることを明らかにしました。

彼は、オープンソースモデルの利点は推論能力と開発者による最適化にあるが、安全対策が少ないため乱用のリスクも存在すると考えています。

DeepSeekなどのAIモデルの強力な台頭に直面しても、Chen氏は落ち着いていました。

彼は、AI分野における最大の危険は過剰反応であると述べています。OpenAIは自身のロードマップを確信しており、短期的な市場のノイズではなく長期的な目標に専念しています。

最後に、Mark Chen氏はAI分野に入りたい若い人々にアドバイスをしました。「すべてのツールに深く習熟し、常に好奇心を持ち続けてください。」

遊ぶツールが増え、好奇心旺盛になればなるほど、他者が推進しようとしている分野や将来の正しい方向性を理解できるようになります。常にリードする必要があります。

これは変化の速い分野です。あなたが目にしている多くの探求されている事柄は、将来の片鱗です。

参考文献:

https://www.techinasia.com/man-models-openais-research-chief-road-agi

https://www.youtube.com/watch?v=NNGbaiN1L7Y

https://x.com/slow_developer/status/1921248876687999153

https://x.com/jacobeffron/status/1920849638166315104

图片

メインタグ:人工知能

サブタグ:大規模言語モデル汎用人工知能OpenAIGPT


前の記事:双方が儲かるはずの取引が、なぜ成立しないのか?|聶輝華

次の記事:DeepSeekの精度と効率が両方向上、Huawei&信工所が思考連鎖の「早期終了」メカニズムを提案

短いURLをシェア