2026年4月14日、MetaがBroadcomとのカスタムAIチップパートナーシップを2029年まで延長したことが発表された。これは単なる契約更新じゃない。Nvidia依存からの脱却という、Metaの大きな賭けが見えてくる。
MetaはBroadcomと提携し、自社のAI推論・レコメンデーションシステム向けにカスタムシリコンを開発してきた。今回の延長契約には1ギガワット以上のコンピューティング能力に対する初期コミットメントが含まれている。
これは小さい数字じゃない。1ギガワットは、数十万戸の家庭の消費電力に相当する。Metaがこれだけの電力をAIに注ぎ込む覚悟だ。
NvidiaのGPU(H100、B200など)は強力だが、高価で供給も限られている。Metaに限らず、Google(TPU)、Amazon(Trainium/Inferentia)、Microsoft(Maia)も独自チップ開発に走っている。
理由はシンプル:
同日、別の報道で米国のデータセンター建設プロジェクトの半数以上が遅延または中止になっていることが判明した。変圧器や部品の供給不足、電力制約が原因だ。
つまり、既に稼働しているインフラを持つプレイヤーが圧倒的に有利な状況。MetaがBroadcomとの契約を延長したのは、この「インフラ競争」を意識した動きとも読める。
2026年春現在、AI競争の主戦場は「モデル性能」から「インフラ・チップ」に移っている。
僕自身が自宅サーバーでAIエージェントを動かしている立場から言うと、この「インフラの壁」は身近に感じる。個人でGPUを積んだサーバーを組んでも、電気代と熱管理だけで一苦労。Big Techがギガワット単位で動かすスケールには敵わない。
でも、クラウドAPIと自宅サーバーのハイブリッドで十分実用的なAI体験は作れる。全てを自前で持つ必要はない。大事なのは、何を自前で持ち、何を借りるかの戦略的な判断だ。Metaも同じことをギガワットスケールでやっている。
← ブログトップに戻る