今朝早く、AMDは2025年グローバルAI開発会議を開催し、主に最新のAIチップとクラウドインフラストラクチャハードウェアを発表、紹介しました。
OpenAIの共同創業者兼CEOであるサム・アルトマン氏が特別ゲストとしてこの会議に出席し、AMDと共同でInstinct MI400およびInstinct MI350シリーズの超強力AIチップを発表しました。特に開発プロセスにおいて、OpenAIはAMDに技術的なフィードバックを継続的に提供し、GPUの最適化を支援してきました。
発表会現場で、サム・アルトマン氏は単一のMI400が432GBのHBM4メモリを搭載すると聞いて驚愕し、「ありえない」と叫びました。
AMDが今回発表した最新のAIチップは、主にNvidiaのBlackwellチップと競合します。Nvidiaは現在、AIデータセンターGPU分野におけるAMD唯一の競合相手です。
AMD Instinct™ MI350シリーズGPUは、AMD CDNA™ 4アーキテクチャに基づく最新製品であり、現代のAIインフラストラクチャのニーズに合わせて設計されています。このシリーズには、MI350XとMI355Xの2種類のGPUが含まれています。
前世代製品と比較して、MI350は288GBのHBM3Eメモリと最大8TB/sのメモリ帯域幅を搭載しており、AI計算能力が4倍、推論性能が35倍に向上しています。
AMDは、チップの消費電力が競合他社よりも低いため、MI355XはNvidiaのチップよりも1ドルあたり40%多くのトークンを提供できると述べています。
MI355XプラットフォームはFP4性能で161 PFLOPSに達し、MI350XプラットフォームはFP16性能で36.8 PFLOPSに達しました。これらのGPUは性能に優れているだけでなく、空冷および直接液体冷却を含む柔軟な冷却構成を提供し、大規模展開をサポートできます。例えば、空冷ラックで最大64個のGPU、または直接液体冷却環境で最大128個のGPUをサポートします。
GPUの性能をさらに向上させるため、AMDはAIアクセラレーションプラットフォームROCm7をオープンソース化しました。過去1年間で、ROCmは急速に成熟し、優れた推論性能を提供し、トレーニング機能を拡張し、オープンソースコミュニティと深く統合されました。ROCmは現在、LLaMAやDeepSeekなどの世界最大級のAIプラットフォームの一部をサポートしており、間もなくリリースされるROCm 7バージョンでは、推論性能が3.5倍以上向上する予定です。
ROCm Enterprise AIは、AI展開のための完全なMLOpsプラットフォームを提供し、安全でスケーラブルなAI開発をサポートし、微調整、コンプライアンス、展開、統合のための豊富なツールを提供します。
Instinct MI400は、AMDの次世代フラッグシップAIチップであり、AI統合システム「Helios」のコアコンポーネントです。メモリ構成では、MI400シリーズは最大432GBのHBM4高速ビデオメモリを搭載する予定で、前世代のMI350シリーズの36TB HBM3Eメモリから大幅に向上しています。高帯域幅メモリアーキテクチャは、大規模AIモデルに十分なデータスループットを提供し、モデルパラメータのロードと高速計算の要求を満たします。
計算性能に関しては、MI400シリーズはFP4精度で40ペタフロップスの演算能力に達し、この指標はAIトレーニングにおける低精度計算に特化して最適化されており、Transformerなどの主流モデルのトレーニング効率を効果的に加速します。同時に、300GB/sのスケールアウト帯域幅を備え、UALinkオープン標準技術を通じて72個のGPUをシームレスに相互接続し、ラック内のすべてのGPUが統一された計算ユニットとして連携できるようにすることで、従来のアーキテクチャの通信ボトルネックを解消します。
MI400シリーズは、第6世代AMD EPYC "Venice" CPUとPensando "Vulcano" AI NICとの技術的相乗効果を生み出します。その中で、Zen 6アーキテクチャに基づくVenice CPUは、最大256コアと1.6TB/sのメモリ帯域幅を提供し、GPUクラスターに対する効率的なタスクスケジューリングとリソース管理を保証します。
一方、Vulcano AI NICは800Gのネットワークスループットをサポートし、UALinkとPCIeデュアルインターフェース設計により、GPUとCPU間の低遅延データ転送を実現し、前世代製品と比較してスケールアウト帯域幅を8倍向上させ、高密度クラスターにおける通信輻輳の問題を効果的に解決します。
アーキテクチャ設計では、MI400シリーズはNvidiaの専有相互接続ソリューションとは異なり、オープンスタンダードのUALink技術を採用しています。この技術は、イーサネットトンネルを介してGPU間の高速接続を実現し、ラックレベルの統一された計算リソースプーリングをサポートします。OCPおよびUltra Ethernet Consortiumのオープンアーキテクチャと組み合わせることで、既存のデータセンターインフラストラクチャとの互換性を確保します。MI400は2026年に市場投入される予定です。
OpenAIの他に、Microsoft、Oracle、Meta、xAIなどの7つの主要AI開発プラットフォームがAMDと協力し、そのAIチップを使用しています。
Oracleは、Instinct MI355Xを搭載したラック規模ソリューションを最初に採用する業界リーダーの一つとなり、Oracleが最も広範なAIインフラストラクチャを提供することへのコミットメントを強調しています。Oracle Cloud Infrastructure (OCI)は、スケーラビリティ、信頼性、セキュリティ、およびパフォーマンスに関する厳格な要件を持つ、さまざまなミッションクリティカルなエンタープライズワークロードをサポートします。
Oracle Cloud InfrastructureのエグゼクティブバイスプレジデントであるMahesh Thiagarajan氏は、Oracle Cloud InfrastructureがAMDとの戦略的協力から引き続き恩恵を受けていると述べました。「我々は、EPYC、Instinct、Pensandoの統合された力を使用するMI355Xラック規模インフラストラクチャを提供する最初の企業の一つとなるでしょう。」
「AMDを搭載したベアメタルインスタンスの顧客による採用は目覚ましく、顧客がAIワークロードをいかに簡単に採用し、拡張できるかを強調しています。さらに、Oracleは社内ワークロードおよび外部の顧客向けアプリケーションでAMD技術に広く依存しています。我々は、複数のAMD製品世代にわたる深い協力を継続する計画であり、AMDのロードマップと、期待に応え続ける能力に自信を持っています。」
本記事の素材はAMDより提供されています。著作権侵害があった場合はご連絡ください。
END
画像をタップして今すぐ登録👇️