マイクロソフト、推論向けAIアクセラレータ「Maia 200」を発表

マイクロソフトは、自社設計の第2世代AIアクセラレータMaia 200を発表した。TSMCの3nmプロセスで製造され、モデル推論の効率向上とデータセンターの運用コスト削減を目指す。詳細を以下に解説する。(約40語)
このチップの特長
同社は、Maia 200が1400億個以上のトランジスタを統合し、大規模言語モデル向けに最適化されていると説明する。Maia 100比でドルあたり30%高い性能を約束し、FP4精度ではAmazonのTrainium3やGoogleのTPU v7(FP8精度)を上回ると主張する。
推論の重要性
推論とは、訓練済みモデルを実行して応答を生成するプロセスで、AI企業にとって急速に大きなコスト要因となっている。訓練とは異なり、推論は数百万ユーザーの体験を損なわないよう継続的・効率的に動作する必要がある。
主な技術仕様
Maia 200は216 GB HBM3eメモリ(7 TB/s帯域幅)と272 MB SRAMを搭載。4ビット(FP4)精度で10 petaflops超、8ビット(FP8)で約5 petaflopsを達成し、消費電力は750W。マイクロソフトは共有したように、SRAMとHBM間の階層型メモリシステムを設計し、ワークロードを智能的に分散してモデルにデータを常時供給する。
展開場所と用途
マイクロソフトはAzure US Central(アイオワ州デモイン近郊)でMaia 200の展開を開始し、次にUS West 3(アリゾナ州フェニックス)を予定。OpenAIのGPT-5.2などをMicrosoft 365 CopilotやMicrosoft Foundryで実行し、Superinteligenciaチームは合成データ生成や強化学習に活用する。
NVIDIA依存の低減
Maia 200により、マイクロソフトはNVIDIA依存を減らす大手テック企業のトレンドに加わる。GoogleはTPU、AmazonはTrainiumを有し、マイクロソフトは2023年のMaia 100に続く第2世代を強化。Maia 200の消費電力はNVIDIABlackwell B300 Ultra(750W対1400W)のほぼ半分だが、用途(推論対訓練+推論)が異なる。
背景と今後
Maia 200(内部名Braga)の発表は遅れ気味で、Tom’s Hardwareによると2025年予定でNVIDIAB300より先行可能だった。効率とドルあたり性能を強調し、運用コスト抑制戦略に沿う。Satya Nadella CEOのデータセンター拡張に関する「社会的許可」発言とも一致する。
マイクロソフトは次世代Maiaを開発中。同メディアによると、次チップはIntel Foundry 18Aプロセス使用の可能性。Maia 200展開でAmazon・Googleとの自社インフラ競争を検証し、大規模AIサービス運用コストを抑制する。





