マイクロソフト、推論向けAIアクセラレータ「Maia 200」を発表

マイクロソフトは、自社設計の第2世代AIアクセラレータMaia 200を発表した。TSMC3nmプロセスで製造され、モデル推論の効率向上とデータセンターの運用コスト削減を目指す。詳細を以下に解説する。(約40語)

このチップの特長

同社は、Maia 2001400億個以上のトランジスタを統合し、大規模言語モデル向けに最適化されていると説明する。Maia 100比でドルあたり30%高い性能を約束し、FP4精度ではAmazonのTrainium3やGoogleのTPU v7FP8精度)を上回ると主張する。

推論の重要性

推論とは、訓練済みモデルを実行して応答を生成するプロセスで、AI企業にとって急速に大きなコスト要因となっている。訓練とは異なり、推論は数百万ユーザーの体験を損なわないよう継続的・効率的に動作する必要がある。

主な技術仕様

Maia 200216 GB HBM3eメモリ(7 TB/s帯域幅)と272 MB SRAMを搭載。4ビット(FP4)精度で10 petaflops超、8ビット(FP8)で約5 petaflopsを達成し、消費電力は750W。マイクロソフトは共有したように、SRAMとHBM間の階層型メモリシステムを設計し、ワークロードを智能的に分散してモデルにデータを常時供給する。

展開場所と用途

マイクロソフトはAzure US Central(アイオワ州デモイン近郊)でMaia 200の展開を開始し、次にUS West 3(アリゾナ州フェニックス)を予定。OpenAIのGPT-5.2などをMicrosoft 365 CopilotMicrosoft Foundryで実行し、Superinteligenciaチームは合成データ生成や強化学習に活用する。

NVIDIA依存の低減

Maia 200により、マイクロソフトはNVIDIA依存を減らす大手テック企業のトレンドに加わる。GoogleはTPU、AmazonはTrainiumを有し、マイクロソフトは2023年のMaia 100に続く第2世代を強化。Maia 200の消費電力はNVIDIABlackwell B300 Ultra750W1400W)のほぼ半分だが、用途(推論対訓練+推論)が異なる。

背景と今後

Maia 200(内部名Braga)の発表は遅れ気味で、Tom’s Hardwareによると2025年予定でNVIDIAB300より先行可能だった。効率とドルあたり性能を強調し、運用コスト抑制戦略に沿う。Satya Nadella CEOのデータセンター拡張に関する「社会的許可」発言とも一致する。

マイクロソフトは次世代Maiaを開発中。同メディアによると、次チップはIntel Foundry 18Aプロセス使用の可能性。Maia 200展開でAmazon・Googleとの自社インフラ競争を検証し、大規模AIサービス運用コストを抑制する。

Anzai Hotaka

10 年の経験を持つコンピュータ エンジニア。Linux コンピュータ システム管理者、Web プログラマー、システム エンジニア。