Meta Platforms社が、Google Cloudのカスタム人工知能(AI)チップをレンタルする数十億ドル規模の契約を締結したと、The Informationが報じました。
報道によると、テンソルプロセッシングユニット(TPU)と呼ばれるこれらのチップは、Metaの次世代大規模言語モデル(LLM)のトレーニングおよび推論に使用される予定です。
NVIDIAの独占に挑むGoogleのTPU戦略
Metaのような大手企業は、AIワークロードを支えるインフラ構築のために高性能プロセッサに数十億ドルを投じており、Googleはこれを重要な成長機会と捉えています。AIチップ市場は現在、NVIDIA社のGPU(Graphics Processing Unit)が圧倒的なシェアを占めていますが、GoogleのTPUはコストパフォーマンスに優れた代替選択肢として注目されています。
近年、TPUはGoogle Cloudインフラストラクチャプラットフォームにとって最も重要な成長エンジンの一つとなっており、同社は市場シェア拡大の大きなチャンスがあると見ています。Googleは最新のTPU「Ironwood」を発表しており、ユーザーは最大9,216基のIronwood TPUを1つのサーバーポッドにスケールアップできます。高速インターコネクトによって毎秒最大9.6テラビットの帯域幅を提供し、最大1.77ペタバイトの共有高帯域幅メモリ(HBM)に接続することが可能です。
Googleによると、Ironwoodチップは最も近い競合製品と比較してFP8 ExaFLOPSで118倍以上の性能を実現し、前世代TPU「Trillium」と比べてトレーニングおよび推論で4倍のパフォーマンス向上を達成しています。
AnthropicもTPUを採用、大規模AIモデルの提供を実現
新型TPUを最初に採用した企業の一つがAnthropic社です。同社はTPUがもたらす大幅な価格性能比の改善を高く評価しており、大規模なClaudeモデルをスケールで提供することを可能にしています。Googleは以前、Anthropicとの間で「数百億ドル」規模の契約を結び、クラウドインフラストラクチャプラットフォームを通じて100万基のTPUへのアクセスを提供すると発表しています。
AIハードウェアの多角化を進めるMeta
今回の契約は、AIハードウェアをNVIDIA以外にも分散させたいMetaにとって重要な意味を持ちます。MetaはNVIDIAの最大顧客の一つでもあり、今月初めにはNVIDIAの次世代GPU「Vera Rubin」を数百万基購入する数十億ドル規模の契約を発表したばかりです。
しかし、Metaは単一のチップサプライヤーに依存することを避けたい考えで、NVIDIAの最大のライバルであるAdvanced Micro Devices(AMD)社との関係も構築しています。今週には、AMDの最新「Instinct MI400」シリーズGPUを含むAIチップを数十億ドル規模で購入する方針を明らかにしました。さらに、MetaはAMDの株式10%を取得するオプションも得ていますが、これはAMDとの協業が合意されたパフォーマンス基準を満たした場合にのみ実行される条件付きです。
マルチベンダー戦略のメリット
MetaとGoogleの契約により、AIハードウェアのサプライヤー基盤はさらに多様化します。各種AIプロセッサにはそれぞれ長所と短所があるため、Metaはワークロードの種類に応じて最適なシリコンを組み合わせることが可能になります。加えて、複数のチップメーカーを競わせることで、AIインフラ構築に向けて有利な価格条件を引き出せる可能性もあります。
Googleの直接販売戦略とTPU市場拡大
一方、GoogleにはNVIDIAのAIチップ市場における独占的地位を崩す野心があります。企業がNVIDIAのGPU以外の選択肢を求めていることを認識しており、その機会を最大限に活用しようとしています。従来、TPUはGoogle Cloudプラットフォームを通じてのみ利用可能で、顧客はアクセスをレンタルする形態に限られていました。
しかし現在、Googleはチップを顧客に直接販売し、顧客自身のプライベートデータセンターで運用できるようにする計画を進めています。これにより、今後数年でNVIDIAのデータセンター収益の最大10%を獲得できると見込んでいます。
The Informationの報道によると、MetaはGoogleに対し、自社データセンター向けに数百万基のTPUを購入する交渉も進めているとのことです。これは今回のクラウドアクセスに関する契約とは別の取引となりますが、現時点ではまだ合意には至っていません。
Metaの自社開発チップへの影響
今回の契約がMetaの自社開発チップに与える影響も注目されます。Metaは2024年にカスタムチップ「Meta Training and Inference Accelerator(MTIA)」を更新しており、台湾積体電路製造(TSMC)と共同で新設計にも取り組んでいると報じられています。
次世代MTIAチップはAIモデルトレーニングに最適化されているとされますが、初代プロセッサはトレーニング性能に課題がありました。現在、新チップの開発においても技術的な課題が生じており、リリースが遅延しているとの情報もあります。









