編集 | 屠敏
提供 | CSDN(ID:CSDNnews)
毎年初夏、テクノロジー界は「新製品のビッグショー」を迎えます。特に5月と6月は、開発者にとってほぼ「ミニ春節」のような賑やかな時期となります。マイクロソフト Build、Google I/O、Apple WWDCが次々と開催され、多数の新技術や新ツールが登場し、開発者の注目を集めようとします。今年はマイクロソフトが先陣を切り、Build 2025カンファレンスが5月20日午前12時5分に先行して開幕しました。
このカンファレンスでは、マイクロソフトCEOのサティア・ナデラとCTOのケビン・スコットが自ら登壇しました。驚くべきことに、これまであまり仲が良くなかったOpenAI CEOのサム・アルトマンやテスラCEOのイーロン・マスク、さらにはNvidia CEOのジェンスン・フアンも、オンラインビデオ接続という形でこのカンファレンスに「登場」し、それぞれナデラ氏と提携、大規模モデル、チップなどの側面について短い対話を行いました。
全体として、AIは間違いなくマイクロソフトにとって最も重要な戦略方向です。しかし、今年は「オープンソース」ももう一つのイベント全体を貫くキーワードとなりました。VS Code上のCopilotのコア機能が開放されただけでなく、Linux用Windowsサブシステム(WSL)も大々的にオープンソース化され、これは本当に驚くべきことでした!
もちろん、これらの重要な発表以外にも、マイクロソフトはこのカンファレンスで注目すべき技術革新を多数発表しました。製品体験から基盤ツールまで、AIは業界全体にどのような新しい変化をもたらしたのでしょうか?以下で、このカンファレンスで何が話されたのかを見ていきましょう。
ナデラ氏が開幕
少しした出来事ですが、ナデラ氏が登壇して数分もしないうちに、会場で抗議者がイベントを妨害しようとしたようですが、カンファレンスはすぐに軌道に戻りました。
「私たちはプラットフォーム変革の『中盤』にいます。すべてが急速に拡大し、加速的に進化し始めています。」ナデラ氏は開幕で現在の技術波についてこのように表現しました。「これは、1990年代初頭にWeb技術が始まった頃や、2000年代にクラウドコンピューティングとモバイルインターネットが急速に台頭した状況に似ています。」
彼は、現在の2025年には、Web拡張の全く新しい時代を迎えていると指摘しました。「最初はいくつかの統合型技術スタック製品から出発しましたが、今はクラウドに支えられた、よりオープンで拡張可能なWebアーキテクチャの段階に達しました。」
ソフトウェア構築に用いる開発者ツールについて、データによると、Visual Studioファミリー製品の現在のユーザーは1500万人を超え、GitHubは1.5億人以上の開発者を擁し、GitHub Copilotのユーザー数も1500万人を突破しました。ナデラ氏はこのことについて自信満々です。「これらすべては、まだ始まったばかりです。」
マイクロソフトは開発者のためのツールを絶えず磨き続けている
現在、マイクロソフトはこれらのツールを絶えずアップグレードしています。Visual Studioは、.NET 10のサポート、リアルタイムプレビューとよりスムーズなデザイン時体験の導入、Gitツールチェーンの強化、クロスプラットフォーム開発向けの新しいデバッガなど、多数の機能更新を迎えています。更新ペースも毎月安定版をリリースするように調整され、開発者は新機能をより迅速に入手できるようになります。VS Codeはちょうど100番目のオープンソースバージョンをリリースし、マルチウィンドウサポートを追加しました。開発者はエディタ内で直接ステージングエリアのコンテンツを表示・管理できるようになりました。GitHubに関しては、マイクロソフトはAIとオープンソースの深い連携を推進しています。同社は、VS CodeでCopilot拡張機能(https://github.com/microsoft/vscode)をオープンソース化し、これらのAI駆動機能をVS Codeのコアコードベースに直接統合することで、AIを開発体験の一部にし、GitHub Copilotの継続的な進化のための基盤を築くと発表しました。GitHub Copilotに関して、マイクロソフトは、Java 8からJava 21へのアップグレードや、.NET Frameworkから.NET 9へのアップグレードなど、バージョン移行作業を開発者が完了できるようになったと述べています。Copilotは依存関係の更新を自動的に処理し、修正案を提案し、開発者の修正から学習することで、全体の移行プロセスをよりスムーズで自動化されたものにします。マイクロソフトはまた、サイト信頼性エンジニアリング(SRE)シナリオ向けに特別に構築された自律エージェントであるAzure SRE Agentを発表しました。このSREエージェントは、オンライン障害が発生した場合に自動的に起動し、初期診断、根本原因の特定、問題の緩和を試みます。その後、インシデント報告をGitHub Issueとして記録し、完全な修正提案を含めます。開発者は、これらの修正タスクをさらにGitHub Copilotに割り当てて処理を続けることで、閉ループの自動運用を実現できます。
さらに注目すべきは、マイクロソフトが完全な意味でのCoding Agentを初めて導入し、Copilotを「会話型プログラミングアシスタント」から真の「共同開発パートナー」にアップグレードさせたことです。
新しいCoding Agentの使用方法は非常に簡単です。チームメイトにタスクを割り当てるように、1つまたは複数のGitHub IssueをCopilotに割り当てるだけです。GitHubのウェブサイト、モバイル、またはコマンドラインから操作できます。さらに、GitHubまたはVS CodeのCopilot Chatから直接指示を出すこともできます。例えば:
@github Open a pull request to refactor this query generator into its own class
タスクを受け取ると、Coding Agentは👀絵文字で応答し、バックグラウンドでワークフローを開始します。仮想マシンを起動し、コードリポジトリをクローンし、環境を構成し、GitHub Code Searchによって駆動される拡張検索(RAG)技術を使用してコードを分析します。
作業中、このエージェントは変更内容をGitコミットの形式でドラフトのPull Requestに継続的にプッシュし、説明を更新します。同時に、セッションログでその推論と検証ステップを確認でき、思考プロセスを追跡し、問題を特定するのに役立ちます。
Model Context Protocol(MCP)を利用すると、外部データと機能をエージェントに接続することもできます。コードリポジトリの設定でMCPサーバーを構成したり、公式のGitHub MCP Serverを直接呼び出してデータを取得したりできます。それだけでなく、視覚モデルのサポートのおかげで、エージェントはバグのスクリーンショットや機能スケッチなど、GitHub Issue内の画像を「理解」することもできます。
タスクが完了すると、Copilotはレビューを促します。修正提案を残すことができ、エージェントはコメントを自動的に読み込み、対応するコード更新を提案します。また、関連するIssueやPRの議論内容、およびプロジェクト内のカスタム指示と組み合わせて、意図を理解し、プロジェクトの規約に従うようにします。
カンファレンス会場では、ナデラ氏自身も実演を行い、このCoding Agentを深く体験しました。
現在、この機能はCopilot EnterpriseおよびCopilot Pro Plusユーザー向けに提供されています。
「エージェントエコシステム」の拡大について話す際、ナデラ氏は特にOpenAIが先週金曜日に発表したばかりのCodex Agentに言及し、OpenAI CEOのサム・アルトマンをリモート接続で対話に招き、さまざまなインテリジェントエージェントの参加のもとでソフトウェアエンジニアリングがどのように進化し続けるかについて議論しました。
ナデラ氏:サム、あなたはソフトウェア開発におけるさまざまなインタラクション形式の進化、コマンドラインからチャットインターフェース、そして今日のコーディングエージェントに至るまでを常に追っていますね。ソフトウェアエンジニアリングの将来の方向性について、あなたのビジョンを教えていただけますか?そして、開発者はどのように異なるインタラクション方法を自由に切り替え、効率的に連携して、これらのインテリジェントツールを最大限に活用できるでしょうか?
サム・アルトマン氏:これは実際、私たちが2021年に最初のCodexをリリースしたときに想定していた道筋です。当時、私たちはGitHubチームと協力して、最初の目標の一つは、いつかマルチモーダルで協調的な開発プラットフォームを構築し、AIをすべての開発者にとって真の意味での「仮想パートナー」にすることでした。
今日、私たちはついにこの一歩を踏み出しました。このようなコーディングエージェント体験を実現できることは、私にとってまだ少し信じられない気持ちです。私が今まで見たプログラミング方法の中で最も革新的なものだと思います。開発者は今、本当にタスクを受け取ることができる「仮想チームメイト」を持つことができます。自分がやっていた作業を続けさせたり、より複雑なタスクに取り掛からせたりできます。将来的には、「大胆なアイデアがあるんだけど、数日かけてそれを実装してくれないか」とさえ言えるようになるかもしれません。
そして、これは始まりに過ぎず、未来はより強力になるだけです。最もエキサイティングなのは、それがGitHubと深く統合されていることです。特定のリポジトリや実行環境へのアクセスを許可すれば、本当に驚くべき作業を完了させることができます。今、開発者は思考の流れを中断することなく、AIプログラミングエージェントと自然に協力できます。それはまるで人間のパートナーと一緒に開発しているようです。そして、全体の開発プロセスとライフサイクルは、これによって大幅に加速されました。
ナデラ氏:あなたのチームは多くのモデルの開発も同時進行しており、そのパフォーマンスは非常に優れています。私たちもあなた方が構築したさまざまなモデルをいち早く体験する機会を得ています。今後のモデルのロードマップで期待できる新しい進展について、皆さんにご共有いただけますか?
サム・アルトマン氏:私たちのモデルはすでに非常に賢く、さらに進化し続けます。しかし、最も期待できる点は、使いやすくなることです。将来的には、たくさんのモデルの中から選ぶ必要はなくなり、それらは自動的に合理的な決定を下し、より信頼性が高く、適用範囲も広くなります。
同時に、モデルはより多くの能力を持つようになります。例えば、より自然なマルチモーダルインタラクション、より強力なツール呼び出し能力、より豊富な統合方法などです。私たちはそれを「箱から出してすぐに使える」体験に近づけたいと考えています。直接対話して、複雑なプログラミングタスクを完了させ、真に信頼できるようになります。私たちは、これらの方向での推進速度に皆さんが驚くことを信じています。
ナデラ氏:大規模で高可用性、状態永続性のあるエージェントベースのアプリケーションを構築している開発者にとって、何かアドバイスはありますか?あなた方はすでにこの分野で先行していますから。
サム・アルトマン氏:最大の課題は、技術進化のスピードにどう対応するかだと思います。2年前、1年前にできたこと、そして今日実現していること、さらに今後1年、2年で何ができるかを想像してみてください。これは真の意味での能力の飛躍です。
私たちはこの飛躍のために計画を立て、人々が製品を構築し、ソフトウェアを開発し、会社を設立する方法を再考し、新しいツールやワークフローを積極的に受け入れる必要があります。このような深刻な技術変革は歴史上まれですが、毎回、それに早く全力を尽くすほど、最大のリターンを得る可能性が高くなります。
これに基づいて、ナデラ氏は「今こそ開発者にとって最高の時です。これらのツールはどんどん強力になっていますから。しかし、もっと重要なのは、これは単一のツール、単一のエージェント、または単一の形式に関するものではないということです。重要なのは、これらの要素すべてが結集して、私たち一人ひとり、そして各ソフトウェア開発チームが、自らの能力と創造性をより良く表現できるようになることです。」と述べました。
AI がワーカーを「救う」、新しい Microsoft 365 Copilot が登場!
今回のBuildカンファレンスでは、マイクロソフトはMicrosoft 365プラットフォームを全面的にアップグレードしました。特に、チャット、検索、ノートブック、作成ツール、エージェントインターフェースのデザインが最適化され、今では非常に簡潔に見えます。
最も注目すべき新機能は、Microsoft 365 Copilot Tuningの登場です。これは「ローコード」アプローチです。企業は、自社のデータ、プロセス、言語スタイルに基づいてエージェントをカスタマイズし、真にビジネスニーズに合ったCopilotを構築できます。
言い換えれば、マイクロソフトの目標は、消費者がOpenAIのChatGPTモデル(Copilotをサポートするモデル)に依存することではなく、各企業が「自社のCopilot」を持つことのようです。これらのカスタマイズされたインテリジェントエージェントは、企業が慣れ親しんだ表現方法、コミュニケーションのトーンを学習し、さらには業界特有の専門知識を段階的に習得することができます。
従来、このようなパーソナライズされたモデルを構築するには、専門のデータサイエンスチーム、複雑なデプロイ、長期間の開発が必要でした。しかし今では、企業は基本的な環境を構成し、少量の参考資料を提供するだけで、迅速にカスタマイズプロセスを開始できます。モデルは既存のデータ権限設定を自動的に継承し、コンテンツが許可されたユーザーにのみ表示されることを保証します。カスタマイズが完了すると、モデルはCopilotに直接統合され、必要に応じて特定のユーザーグループに配布できます。たとえば、法律事務所は自社の事例や文書スタイルに基づいてチューニングを行い、生成されるコンテンツが専門的な要件により適合するようにできます。
マイクロソフトは、これらのモデルとインテリジェントエージェントがMicrosoft 365のサービス境界内で実行され、顧客データを使用して基盤モデルをトレーニングすることはないことを強調し、データセキュリティとコンプライアンスを保証しています。現在、Copilot Tuningの早期体験プログラムは6月に開始される予定です。
マイクロソフトはまた、Copilot Studioとインテリジェントエージェントの推論能力を活用することで、ビジネスコンテキストを理解し、複数のタスクを調整できるインテリジェントエージェントを構築できるようになったと特に言及しました。これにより、さまざまな役割やビジネスプロセスが真に「自動化された協調」を実現できます。このビジョンのもと、将来、すべてのビジネスアプリケーションは「マルチエージェントワークフロー」の形式で再定義される可能性があります。
人工知能エージェント工場
優れたインテリジェントエージェントとアプリケーションを構築するには、優れたモデルだけでなく、完全なシステムサポートも必要です。Azure AI Foundryは、開発者がAIアプリケーションとエージェントを設計、カスタマイズ、管理するための統合プラットフォームです。今回のカンファレンスでは、マイクロソフトは多数の革新をもたらしました。
第一に、モデルライブラリの拡充です。最近、イーロン・マスク氏のxAIのGrok 3が公開され、今後Black Forest Labs Flux Pro 1.1や、Azure OpenAIを通じてFoundry ModelsでプレビューされるSoraも追加される予定です。
カンファレンス会場では、ナデラ氏とマスク氏が接続しました。
ナデラ氏:イーロン、ビルドカンファレンスにお越しいただき、本当にありがとうございます。あなたがマイクロソフトでインターンとして働いていたこと、そしてWindows開発者だったことを覚えています。今でもPCゲームファンですよね?当時のWindowsプラットフォームでの経験や開発したプロジェクトについて教えていただけますか?
イーロン・マスク氏:実は、Windowsに触れる前はMS-DOSから始めました。初期のIBM PCを持っていて、最初は128Kメモリしかありませんでしたが、後で自分で256Kに増やしました。当時それは大きなアップグレードだと感じました。DOSでいくつかの小さなゲームを作りました。そしてWindowsの時代に入りました。Windows 3.1を覚えていますか?忘れられない時代でした。
ナデラ氏:以前お話しした時、Active Directoryの複雑な仕組みについて話していたのを覚えています。今日の開発者カンファレンスに来てくれて、本当に嬉しいです。私たちにとって最もエキサイティングなことの一つは、GrokがAzureでリリースされることです。あなたがAIの未来について深い理解を持っていることは知っていますし、それがGrokを構築した動機でもあります。このモデルファミリーは応答と推論能力を兼ね備えており、非常にエキサイティングな開発ロードマップを持っています。あなたのビジョンや、モデルの能力と効率をどのように向上させているかについて教えていただけますか?
イーロン・マスク氏:Grokについて、特にまもなくリリースされるGrok 3.5について、私たちはモデルが「第一原理」から推論することを試みています。つまり、物理学の思考方法を借りてAIを構築するということです。例えば、真実を探求する際には、問題を最も基本的で信頼できる公理的な要素に分解し、そこから推論を進め、最後にこれらの原理で結論を検証しようとします。
物理学で、エネルギー保存や運動量保存の法則に違反する理論を提唱した場合、あなたはノーベル賞を取る準備をしているか、あるいは間違っているかです。そして、おそらく後者です。
ですから、これらの物理学の方法論を導入することで、Grokを「誤差最小化推論システム」に近づけたいと考えています。AIが完璧ではないことは知っていますが、私たちは各推論で可能な限り事実に近づけるように努力し、同時に偏差を発見した際には迅速に修正できるようにしています。私はAI安全に高い関心を持っており、「正直が最善の策」という言葉は、この分野でも依然として成り立ちます。
私たちは開発者コミュニティからのフィードバックを非常に重視しています。皆さんが本当に必要としているもの、改善できる点はどこかを知りたいのです。Grokの目標は、開発者が喜んで使用し、彼らの効率を向上させるツールになることです。そして、そのプロセスには皆さんの参加が必要です。
ナデラ氏:開発者コミュニティがGrokをどのように使用し、それが彼らの製品やワークフローにどのように統合されるかを見るのが非常に楽しみです。イーロン、本日はお時間を割いてご参加いただき、ありがとうございました。この協力関係に大変期待しており、AzureへのGrokの参加を歓迎します。
マスク氏:私もです。このイベントに招待していただき、本当にありがとうございます。もう一度強調したいのですが、開発者のフィードバックを心から歓迎します。モデルにどのような能力を持たせたいですか?どこを改善する必要がありますか?教えてください。私たちはそれを実現するために最善を尽くします。
第二に、ますます豊かになるモデルエコシステムに直面し、モデルの選択もより複雑になっています。このため、マイクロソフトは新しいModel Routerを導入しました。これにより、タスクに基づいて最適なOpenAIモデルを自動的に選択し、開発者の使用プロセスを簡素化できます。以前は、アプリケーションまたはエージェントは1つのモデルにのみバインドされていましたが、現在では真のマルチモデルサポートが実現されています。
第三に、Foundry Agent Serviceが正式にリリース(GA)されました。これにより、開発者は非常に少ないコードで、協調して動作する複数のAIインテリジェントエージェントを構築できます。たとえば、複雑なプロセスを処理する際に、複数の子エージェントが分担してタスクを完了するなどが可能です。
第四に、Azure AI Foundryは現在、マルチエージェントオーケストレーションをサポートしており、Azureだけでなく、AWS、Google Cloud、オンプレミス展開もサポートしています。開発者は複数のインテリジェントエージェントを「チーム」のように協力させて複雑なタスクを完了させることができます。彼らはお互いを呼び出し、情報を伝達し、A2AやMCPなどのオープンスタンダードを通じてクロスプラットフォーム連携も実現できます。このメカニズムは、状態管理、エラー処理、長期プロセスサポートも導入しており、金融承認、サプライチェーンなどの複雑なシナリオに非常に適しています。同時に、マイクロソフトはSemantic KernelとAutoGenフレームワークを統合し、マルチエージェントオーケストレーションの統一サポートを提供しています。
第五に、AIの導入プロセスでは、パフォーマンス、セキュリティ、コストが企業の最大の関心事となることがよくあります。このため、マイクロソフトはAzure AI Foundryに新世代の「可観測性」機能を導入しました。開発者は統一されたダッシュボードで、インテリジェントエージェントの品質、応答時間、費用、さらには内部実行ロジックの詳細な追跡を確認できます。これにより、チームはこれらのインテリジェントシステムをより安心して使用できるようになります。
さらに、マイクロソフトは新しいFoundry Observability機能のプレビュー版をリリースしました。これは、開発から本番環境まで、インテリジェントエージェントに完全な可観測性を提供します。開発者は、遅延、スループット、使用状況、出力品質をリアルタイムで監視でき、各インテリジェントエージェントの推論プロセスとツール呼び出しの詳細なログを表示できます。
Windows の大改革、WSL が大々的にオープンソース化!
マイクロソフトについて話すとき、触れずにはいられないOSがWindowsです。Build 2025カンファレンスでは、マイクロソフトはAI時代におけるWindowsの重要な役割を改めて強調しました。
同社はさらに新しいプログラム、Windows AI Foundryを立ち上げました。目標はWindowsをAIアプリケーション構築に最適なプラットフォームにすることです。
簡単に言うと、Windows AI Foundryは、Windows Copilot、Recall(AI記憶機能)、ワンクリック操作などのAI機能を開発するためのマイクロソフト内部のツールとプラットフォームのセットです。現在、これらのツールは開発者向けに初めて公開され、特定のデバイスやチップに限らず、CPU、GPU、NPU、さらにはクラウド上で実行する場合でも、独自のAIアプリケーションを開発および展開できます。
その重要なコンポーネントの1つにFoundry Localがあります。これにはすでに最適化されたモデルライブラリが組み込まれており、開発者はこれらのオープンソースモデルをクラウドに依存することなくローカルで直接実行できます。例えば、マイクロソフト独自のPhi-Silica小型言語モデルは、将来的にはWindowsオペレーティングシステムに直接組み込まれる予定です。カスタムタスクを実行させたい場合は、LoRA(軽量アダプター)を追加するだけで、「微調整」を迅速に行うことができ、モデル全体を再訓練する必要はありません。
マイクロソフトは、Phi-SilicaがPC上のAI推論の状況を変え、ローカルでのAIモデル実行を通常のシステム機能呼び出しと同じくらい簡単にすると信じています。これにより、開発者はよりユーザーに近く、応答性の高いインテリジェントな体験を構築できるようになります。
独自のモデルを構築している場合は、内蔵AI推論ランタイムであるWindows MLを使用できます。これはCPU、GPU、NPU間で効率的なモデル展開を簡素化します。
モデル自体に加えて、マイクロソフトは一連の新しいAPIも提供しています。これにより、開発者はユーザーのローカルデータをベクトルに変換し、モデルに組み込み、「コンテキスト理解」を備えたAIアプリケーション、例えばハイブリッドRAG(Retrieval Augmented Generation)システムを構築できます。これらはすべてユーザーデバイス上で完了し、クラウドに依存せず、データもアップロードされず、プライバシー保護のニーズにさらに適合します。
これらのアプリケーションがシステムとよりスマートに連携できるようにするため、マイクロソフトはWindowsがネイティブでMCP(モデルコンテキストプロトコル)をサポートすることを発表しました。これは、Windowsがファイルシステム、設定、ウィンドウ管理など、複数のMCPサービスを内蔵することを意味します。開発者はMCP互換のアプリケーションを構築し、公式レジストリを通じてこれらのサービスに接続できます。マイクロソフトもこれらのインターフェースのパフォーマンスとセキュリティを審査し、ユーザー体験とデータセキュリティを保証します。
同時に、多くの開発者が興奮したのは、Windowsがオープンソースを深く受け入れていることであり、最新のWSL完全オープンソース化はその良い証明です。
オープンソース化を思いついた理由として、マイクロソフトは、WSLが最初に2016年に登場し、当初はWindowsカーネル内のlxcore.sysを通じてLinuxプログラムのサポートを実現し、WSL 1と呼ばれていました。互換性へのより高い要求に伴い、マイクロソフトは2019年にWSL 2を導入し、完全なLinuxカーネルを組み込み、GPU、グラフィカルインターフェース、systemdなどの機能を徐々にサポートしました。
開発ペースを加速するため、マイクロソフトは2021年にWSLをWindowsから分離し、独立したパッケージとしてMicrosoft Storeに公開し、2022年に安定版1.0をリリースしました。それ以来、マイクロソフトは継続的に反復を行い、ユーザーに新しいバージョンへの完全移行を促し、WSL 2.0.0でネットワークミラー、プロキシサポート、ファイアウォール互換性などの大幅な更新をもたらしました。
WSLコミュニティは常にその発展の核心的な動力であり、以前はソースコードにアクセスできませんでしたが、多くの開発者はデバッグ、フィードバック、機能提案に積極的に参加しました。これについて、ナデラ氏は、プロジェクトが始まったばかりの頃に、コミュニティの誰かがコードリポジトリでWSLをオープンソース化してほしいと要求したことを明かしました。しかし当時、WSLはWindowsシステムイメージに深く結合されていたため、単独で分離できませんでした。現在、アーキテクチャの進化に伴い、マイクロソフトはついにコードの「疎結合」を実現し、WSL 2は独立して動作する能力を獲得しました。
今、WSLがオープンソース化されたことで、コミュニティは直接コードに貢献できるようになり、この変革はWindowsをクロスプラットフォーム開発の理想的な環境にするという推進力をさらに高めることが期待されます。
WSL アーキテクチャ
これを機に、マイクロソフトは「当時の古い投稿」を「解決済み」と正式にマークしました。
ウェブにより多くのロボットをもたらす
今回のカンファレンスで、マイクロソフトCTOのケビン・スコット氏はオープンソースプロジェクトNLWeb(https://github.com/microsoft/NLWeb)を発表しました。これは、ウェブサイトがAIチャットボットに接続しやすくするためのものです。
簡単に言うと、わずか数行のコードで、開発者は自分のウェブサイトに対話ボックスと送信ボタンを追加し、自分で選択したAIモデルに接続し、自分のデータと組み合わせて、「AIチャット」機能を迅速に実現できます。例えば、小売業のウェブサイトはNLWebを使用して服装を推奨するロボットを構築し、顧客が外出に適した服を選ぶのを助けることができます。グルメウェブサイトはチャットボットを作成し、特定の料理にどんな他の料理を合わせるべきかをユーザーに教えることができます。
さらに進んで、ウェブサイトが希望すれば、NLWebを通じて内容をMCP標準をサポートするAIプラットフォームに公開することも可能です。マイクロソフトは、NLWebが「エージェントウェブ」(Agentic Web)のHTMLになることを期待していると述べています。つまり、HTMLがウェブページの構造を定義するように、NLWebはAIモデルがウェブコンテンツを理解し使用するための新しい基盤となる可能性があります。
データ
AI技術の発展は大量のデータのサポートなしには語れません。ナデラ氏が強調するように、「データ層はあらゆるAIアプリケーションの核心です。」
これに関連して、マイクロソフトは複数の重要なデータ製品の更新を正式に発表しました。最も注目されているのは、まもなくリリースされるSQL Server 2025で、現在公開プレビュー段階にあります。これはマイクロソフトのデータベースシステムの重要なアップグレードバージョンであり、組み込みの拡張可能なAI機能を提供し、開発者の生産性を向上させ、Microsoft AzureおよびMicrosoft Fabricとシームレスに統合されます。これらすべては、SQL Serverエンジン内で慣れ親しんだT-SQL言語を使用して実現されます。
しかし、より注目すべき点は、マイクロソフトがデータ能力とインテリジェント能力をかつてない方法で統合していることです。例えば、マイクロソフトは分散データベースサービスAzure Cosmos DB、Azure DatabricksをFoundryインテリジェントエージェントプラットフォームに直接統合しました。これは、開発者がインテリジェントエージェントに会話履歴をより自然に「記憶」させ、データがAIインテリジェントエージェントに効率的にサービスを提供するようにできることを意味します。
全体のデータスタックの核心として、マイクロソフトが2年前に立ち上げたFabricプラットフォームも継続的に進化しています。今年、Cosmos DBもFabric体系に組み込まれました。AIモデルが処理するコンテンツがテキスト、画像、音声などの非構造化データにますますなることを考慮すると、この統合は特に重要です。ユーザーは現在、同じプラットフォームで構造化データと非構造化データを統一的に管理し、AIアプリケーションの準備をすることができます。
さらに進んで、マイクロソフトはデジタルツインビルダーもFabricに接続しました。ユーザーは視覚化インターフェース、さらにはノーコード方式で、デジタルツインシステムを迅速に構築できます。同時に、マイクロソフトはOneLakeにおけるAI駆動型ショートカット変換(Shortcut Transformations)も発表しました。これは本質的にインテリジェントETL(抽出-変換-ロード)ツールです。音声からテキストへの変換、感情分析、要約抽出など、事前に構築されたAIモジュールを利用することで、ユーザーは数回のクリックで複雑なデータ前処理操作を完了できます。
最後に、マイクロソフトはすべてのデータコンシューマー向けの重要な機能であるCopilot in Power BIを発表しました。この新機能により、ユーザーは会話形式でPower BIレポートと直接対話できます。自然言語で質問をすると、インテリジェントエージェントが複数のレポートやモデルを横断して、データの抽出と視覚化分析の生成を支援します。この機能はMicrosoft 365 Copilotでも提供される予定で、オフィスアプリケーションとデータ分析の境界をさらに統合します。
インフラストラクチャ
生成AIが爆発的に普及している今日、パフォーマンス、遅延、コストは開発者にとって避けられない三重の課題となっています。ナデラ氏はこれについて、現在の焦点はAIを「実行させる」だけでなく、パフォーマンス、エネルギー効率、コストの間で最適なバランスを見つけることにあると述べています。これは、単一のブレークスルーだけでなく、チップ、システムソフトウェアからアプリケーションサーバーまで、全体的なチェーンで協調最適化を行うことを意味します。
マイクロソフトは「1ドルあたりのワット数で処理できるトークン数」を測定指標として、複数の方向での技術的飛躍を推進しています。これには、チッププロセスの進化、システムソフトウェアのスケジューリング最適化、そしてモデル自体のアーキテクチャ革新が含まれます。
ナデラ氏は、今年のAzureがNVIDIA GB200 Grace Blackwellチップを大規模に導入した最初のクラウドプラットフォームになったと述べました。現在、最大72のNVLink相互接続ラックをクラスターとして接続することで、Azureの単一システムは毎秒最大86.5万トークンを処理でき、現在のすべてのパブリッククラウドプラットフォームの中で最高の処理量を記録しました。
インフラストラクチャ分野に関しては、Nvidiaほど発言権のある企業はいないようです。これに基づき、ナデラ氏もカンファレンス会場でジェンスン・フアン氏との対話に接続しました。
ナデラ氏:ジェンスン、結局のところ、私たちの共通の目標は、この世界により多くの「知能」をもたらすことです。ある意味、私たちは1ドルあたり、1ワットあたりの電力で、可能な限り多くの計算能力をもたらすことを追求しています。この方向についてのあなたの見解を聞きたいと思っています。 talvez 私たちの古くからの話題である「ムーアの法則」から話してみましょう。
ジェンスン・フアン氏:実際、わずか2年前に、私たちはAzure上で世界最大のAIスーパーコンピューターの構築に協力しました。これは計算方法の飛躍的な進歩を象徴しています。Azure上であなた方が構築した次世代AIインフラストラクチャに、CUDAアルゴリズム、モデルアーキテクチャにおける私たちの最新のブレークスルーが加わり、このシステムのパフォーマンスは過去のHopperアーキテクチャと比較して40倍に向上しました。わずか2年間でこれほど大きな高速化が実現できたことは、本当に驚くべきことです。
ハードウェアが「筋肉」だとすれば、ソフトウェアの相乗効果こそがシステム全体を動かす「神経系」です。開発者の投資が無駄にならないように、統一されたアーキテクチャと安定したエコシステムが依然として必要です。モデルを訓練する研究者であれ、システムをデプロイする企業顧客であれ、です。
ナデラ氏:Azure上で、タスクの多様性とより高いリソース利用率を通じて、価値を最大限に引き出す方法について話してもらえませんか?
ジェンスン・フアン氏:CUDAの利点の一つは、すでに膨大なユーザーベースがあること、もう一つは、高速化できるだけでなく、高度な汎用性も備えており、さまざまなワークロードに適していることです。私たちは、ビデオトランスコーディングや画像処理などのタスクの効率を20倍、さらには50倍に向上させるために取り組んでいます。私たちがやるべきことは、データセンター全体のすべてのタスク、すべてのリソースが十分に活用されることを保証し、真に物事を最大限に活用することです。
ですから、これは「どれだけ多くのトークンを生成できるか」を見るだけでなく、「単位コストと電力消費あたりで、どれだけ多くの種類の異なるAIタスクを高速化できるか」を見ることでもあります。そして、これらすべては、ハードウェアとソフトウェアの両面で継続的な協調革新なしには不可能です。
ご協力、リーダーシップ、そして世界で最も先進的なAIインフラストラクチャを構築するという私たちの共通のビジョンに感謝します。本当にエキサイティングな時代はまだこれからだと信じています。
ナデラ氏:ジェンスン、ありがとうございます。実際、私たちはAzure上に世界最大のGB200スーパーコンピューターをデプロイしており、これはパフォーマンスと規模において再び飛躍的な進歩となるでしょう。これらの能力を世界中の開発者にもたらすことを非常に楽しみにしています。
しかし、AIの基盤は、いくつかのGPUをデプロイするほど単純ではありません。各AIアプリケーションは、計算能力だけでなく、高速ストレージとネットワークも必要です。まるでエンジンだけを製造して、車輪と燃料タンクを気にしないようなものです。マイクロソフトは、ネットワーク、ストレージから計算リソースまで、AIシステムの「効率曲線」を全面的に向上させています。
計算能力リソースに関しては、マイクロソフトは昨年、Armアーキテクチャに基づくプロセッサであるCobaltを発表し、Microsoft TeamsやDefenderセキュリティシステムなど、社内製品で迅速かつ広範に使用されています。
もちろん、すべての作業がパブリッククラウドに適しているわけではありません。遅延に非常に敏感なシナリオや、データの場所制御に対する要求が非常に高いシナリオなどでは、「ユーザーに近い」計算リソースが必要です。このため、マイクロソフトのFoundry Localサービスにより、ユーザーはクラウドと同じAI能力をローカルでも実行でき、これによりオフラインで実行可能なクロスプラットフォームAIアプリケーションを構築し、機密データをローカルに保存し、帯域幅コストを削減できます。
AI を活用して科学発見を加速する
カンファレンスの最後に、ナデラ氏が特に言及したもう1つの重点分野、科学研究は、おそらく今後数年間で最も期待される方向の一つでしょう。彼は、AIがもたらす次の大きな飛躍は、科学自体のプロセスにある可能性があると考えています。将来的には、新材料、新薬、新分子の研究開発速度を加速できる見込みがあり、これらすべては、科学発見の方法の根本的な再構築の背後にあるものです。
この目標を達成するために、マイクロソフトは本日、Microsoft Discoveryという新しいプラットフォームを立ち上げました。これは、Agentic AIを活用して「科学発見プロセスを変える」プラットフォームです。これを科学界の「Copilot」と見なすことができます。GitHub Copilotがソフトウェア開発を再構築し、Microsoft 365 Copilotが知識労働の方法を変えたように、Discoveryは科学研究者専用のAIアシスタントを構築することを目指しています。
このプラットフォームの背後にある核心は、マイクロソフトの最新のGraph RAG知識エンジンです。これは情報を検索するだけでなく、さらに重要なのは、科学分野における複雑で詳細な知識構造を理解できることです。データが公開文献からであれ、バイオ製薬会社などの企業自身のプライベートデータベースからであれ、Graph RAGはそれらを統合できます。
このシステムは、マイクロソフト自身の研究で一定の可能性を示しました。公式データによると、データセンターの浸漬冷却に使用される新しい冷却剤を約200時間で発見するのに研究者を支援しました。これは従来、数ヶ月または数年かかるプロセスでした。
Microsoft DiscoveryはFoundryプラットフォーム上に構築されており、背後には高度に専門化された「科学インテリジェントエージェント」のセットが実行されています。これらのインテリジェントエージェントは単純な自動化ツールではなく、深い推論、仮説生成、シミュレーション実行、結果に基づいたフィードバック学習を行うことができる研究助手です。彼らは反復的な方法で研究プロセスを継続的に最適化し、科学研究自体の作業に参加しているというより、むしろそれを支援しているようです。マイクロソフトが説明しているように、開発者がコーディングアシスタントを持っているように、科学者も真に彼ら自身の「研究助手」を持つことになります。
以上が今回のBuild 2025カンファレンスのハイライトコンテンツです。あなたが最も興味を持った技術点は何ですか?以下のコメント欄であなたの見解を共有してください。
おすすめの読み物:
エレベーターの故障がきっかけで、大手企業に最も愛される言語が誕生しました:Rust安定版は10周年を迎えます!
Tencentが行動に出ました!静かにAIプログラミングアシスタントCodeBuddyをリリースし、開発者は国産Cursorを無料で体験できるようになりました!
QRコードでもゲームを実行できる?開発者が3KBの極限挑戦でDOOMを再現、一度はクラッシュした後...ChatGPTが救いました
📢 2025 グローバルプロダクトマネージャー技術カンファレンス
日時:2025年8月15日~16日
場所:北京・ウェスティンホテル
2025 グローバルプロダクトマネージャー技術カンファレンスでは、インターネット大手企業、AIスタートアップ、ToB/ToCの第一線で活躍するプロダクトマネージャーが集結し、製品設計、ユーザー体験、成長運営、AIの実装などの核心的な議題をめぐり、12の大テーマで共有が行われます。トレンドを洞察し、経路を分析し、未来について対話します。
詳細および登録については、以下のQRコードをスキャンしてください。