私たちがテクノロジーに対して用いる言葉は、しばしば誤解を招きやすい。飼いならし、手なずけるために設計されているかのようだ。Googleが新しい「チップ」を発表したと聞いても、それは耳障りの良い、馴染み深い言葉に過ぎない。チップとは、手の中に収まる小さな、命のないシリコンの四角形だ。
このスーパーコンピュータは、モジュール方式で構築されている。 1台の物理ホストに4個のIronwoodチップが搭載され、これらのホストで構成される1台のラックが64チップの「キューブ」を形成する。さらにスケールを拡大するために、これらのキューブは動的な光サーキットスイッチ(OCS)ネットワークによって接続され、システムは最大144個のキューブをリンクさせて9,216チップの「スーパーポッド」を構成することが可能だ。このポッド規模のアーキテクチャは、単なる規模の追求ではない。42.5 FP8 エクサフロップスの演算能力と、1.77ペタバイトの共有広帯域幅メモリへのアクセスを提供する。
Googleが何を構築したかを理解するには、まず「個別の製品」という概念を捨て去る必要がある。 真の計算単位はもはやプロセッサではなく、データセンターそのものだ。Googleの第7世代テンソル・プロセッシング・ユニット(TPU)であるIronwoodは、これら9,216個の新チップを相互接続した単一の巨大な集合体、すなわち「スーパーポッド」として存在する。この巨大なアーキテクチャは、単純なファンではなく、10メガワットの電力消費から生じる莫大な廃熱を放出するために不可欠な、産業規模の「高度な液体冷却ソリューション」によって冷却される。
参考までに、10メガワットとは、小さな都市、あるいは大規模な工業プラントに匹敵する電力消費量である。 これこそが、現代の人工知能が要求する「圧倒的な力任せ」の規模だ。AIは、雲のような掴みどころのない抽象的な存在ではない。それは、合成知能という新たな不可視の商品を生み出すために、原材料(この場合は惑星規模のエネルギー)を消費する、物理的な重工業なのだ。9,216チップ構成のIronwoodポッドは、この産業の新しいエンジンであり、これまで想像もできなかった規模で思考するという唯一の目的のために設計された、液体冷却の巨獣である。
これは即座に、21世紀を定義するテクノロジーが抱える中核的な矛盾を提示する。 産業全体にスケールアップされたこのレベルのエネルギー消費は、本質的に持続不可能だ。この10メガワットのポッドは技術的な驚異であると同時に、深刻な環境的負債でもある。AIをめぐる物語の残りの部分は、この一つの根本的な事実といかに格闘していくか、という試みに他ならない。
推論の時代
過去10年間、AIの主要な課題は「トレーニング(訓練)」だった。言語、論理、推論を「学習」させるために、インターネットのすべてを注ぎ込む、高コストで時間のかかるプロセスだ。だが、その時代は終わりつつある。新たなフロンティアは「推論の時代」(Age of Inference)だ。すなわち、モデルが訓練を終えた後に実行する、常時、大容量、リアルタイムの「思考」プロセスである。
AIが質問に答え、画像を生成し、あるいは「プロアクティブにデータを検索・生成する」たび、それは推論を実行している。Ironwoodは、Google自身が認めるように、「推論専用に設計された初のアクセラレータ」である。 これは市場の重大な転換を示している。もはや戦いは、最大のモデルを構築することだけではない。Google自身のGeminiのような、来たるべき「AIエージェント」の波を動かす「大容量、低遅延のAI推論とモデル提供」を、いかに効率的に実行するかが問われているのだ。
ここに、Googleの真の戦略が隠されている。Ironwoodは販売される製品ではなく、Googleの「AIハイパーコンピュータ」の基盤的コンポーネントである。 これは単なるハードウェアではない。ハードウェア(Ironwood TPUと新しいArmベースのAxion CPU)が、独自のソフトウェア・スタックと「共同設計(co-design)」された垂直統合システムなのだ。
この共同設計されたスタックこそが、Googleの戦略的な「堀(ほり)」である。 開発者を誘い込むためにPyTorchのようなオープンソースのフレームワークを「導入後すぐに」サポートする一方で、このスタックはGoogle自身のJAXエコシステムに真に最適化されている。
- XLA (Accelerated Linear Algebra) コンパイラは、JAXやPyTorchなどのフレームワークからのハイレベルなコードを、TPUシリコン上で直接実行される超効率的な命令に変換する、重要な翻訳者として機能する。
- **GKE (Google Kubernetes Engine) 向けの新しい「クラスター・ディレクター」**は、9,216チップのスーパーポッドを単一の強靭なユニットとして管理できるオーケストレーター(指揮者)だ。このソフトウェアは、トポロジーを認識したインテリジェントなスケジューリングを提供し、超大規模クラスターの管理を簡素化し、障害を回避する自己修復的な運用を可能にする。
- そして、vLLMのネイティブサポートは推論のスループットを最大化し、「推論の時代」におけるモデル提供の重要な要素となる。vLLMは高効率なメモリ管理技術を使用し、開発チームが最小限の変更でGPUとTPUの間でワークロードを切り替えることを可能にする。
過去10年間、NVIDIAの支配はGPUだけでなく、開発者が「ロックイン」されてきた独自のソフトウェアプラットフォームCUDAによって築かれてきた。GoogleのAIハイパーコンピュータは、それに対抗する「壁に囲まれた庭」を構築しようとする直接的な試みだ。 自社のスタックにコミットした者にのみ、ドルあたりの優れたパフォーマンスを提供することで、GoogleはAI経済の基本的な「電力会社」としての地位を確立しようとしている。彼らは「車」(NVIDIA)を売るのではなく、それを動かす「電力」を売ることを目指しているのだ。
キングメーカーとマルチクラウド戦争
この戦略の正しさを証明する究極の出来事が、2025年後半に訪れた。 OpenAIの主要なライバルであるAIラボ、Anthropicが、Googleとのパートナーシップの画期的な拡大を発表し、新しいIronwoodを含むTPUインフラを「最大100万基」という驚異的な規模で使用することを約束したのだ。
これは単なる投資ではない。2026年までにAnthropicに「1ギガワットを遥かに超える容量」をもたらす、まさに「数百億ドル」規模の契約である。 この一つの契約が、Googleの10年にわたるカスタムシリコンへの数十億ドルの賭けを、最終的に正当化するものとなった。Anthropicがこの巨大なコミットメントの理由として挙げたのは「価格性能比と効率性」であり、これはGoogleの共同設計された垂直統合スタックが、NVIDIAの支配に対する強力な経済的代替案となり得ることを明確に示している。
しかし、この物語には決定的な捻り(ひねり)がある。AI業界の真のパワーバランスを暴く捻りだ。Anthropicは、Googleだけのパートナーではない。 Anthropicは自社の発表で、Amazon Web Services (AWS) が引き続き「主要なトレーニングパートナーであり、クラウドプロバイダーである」ことを慎重に記している。このAWSとのパートナーシップは、Amazon独自のTrainium2アクセラレータを数十万個使用する大規模クラスター「プロジェクト・レーニア(Project Rainier)」を中心に構築されている。同社は、GoogleのTPU、AmazonのTrainium、そしてNVIDIAのGPUを戦略的に天秤にかける「多角的なアプローチ」を追求しているのだ。
これは優柔不断ではない。見事な生存戦略だ。リークされたデータによれば、AnthropicがAWSだけで支払うコンピューティングコストは、収益の88.9%にも達していた。 AIラボの存続そのものが、この天文学的なコストを引き下げることにかかっている。この入札戦争を強いることで、アナリストの推定によれば、Anthropicは自社ビジネスで最も高価なリソースである計算能力を、おそらく30~50%という大幅な割引価格で確保している。GoogleとAmazonの両方と公に提携することで、Anthropicは自らを「キングメーカー」へと押し上げた。 彼らはクラウドの巨人たちを価格競争に追い込み、自らの「トロフィー」としての地位を利用して、莫大なコンピューティング費用を事実上彼らに補助させているのだ。
この力学は市場を根本から変えた。最終的な勝者は、最速のチップを持つ者ではなく、計算能力、電力、コストの比率が最も優れた者となるだろう。「ワット当たり性能」は、もはや単なる環境スローガンではなく、業界全体の主要な戦略的・経済的な戦場となったのだ。
新たなシリコン・タイタンたち:不穏な寡占体制
Ironwoodの登場はNVIDIAへの直撃弾だが、戦場はすでに混み合っている。AIの軍拡競争は、この新たなゴールドラッシュの「シャベル」を作るための資本と技術的専門知識を持つ、ごく一握りの企業群「シリコン・タイタン」による新たな寡占体制によって争われている。
- 現職の王 (NVIDIA): NVIDIAのBlackwell世代GPU(B100、B200)とその前身であるH100は、依然として業界標準だ。彼らの支配力は、ほとんどのAI研究者が習熟しているCUDAという深いソフトウェアの堀によって守られている。
- 挑戦者たち (ハイパースケーラー & AMD):
- Amazon (AWS): クラウドプロバイダーの中で最も成熟したカスタムシリコン運用を行っており、コスト効率の高いトレーニング用の「Trainium」と、高速・低コストの推論用の「Inferentia」というデュアルチップ戦略を採用している。この戦略は、PyTorchやTensorFlowのワークロードを最適化するために設計されたAWS Neuron SDKによって支えられている。
- Microsoft (Azure): 主要パートナーであるOpenAIの膨大なニーズに応えるため、MicrosoftはChatGPTやGPT-4のワークロード向けに「Maia 100」アクセラレータを自社開発した。TSMCの5nmノードで構築された最大級のプロセッサの一つであり、500W~700Wのこのチップも、PyTorchなどからモデルを移植するための独自のソフトウェアスタックと共同設計されている。
- AMD: NVIDIAの伝統的なライバルであるAMDは、Instinct MI300Xアクセラレータで真っ向から性能勝負を挑んでおり、メモリ容量(192GB)などの主要な指標で新世代チップに匹敵している。
この企業間軍拡競争は、3つの単純な要因によって引き起こされている。
- コスト: NVIDIAの「70%台半ば」に達する利益率とプレミアム価格から逃れる唯一の方法は、自社でチップを設計することだ。
- 供給: 業界全体のボトルネックとなっているNVIDIA GPUの慢性的な不足から、戦略的な独立性を確保できる。
- 最適化: Googleが追求しているような「ワット当たり性能」の優位性を実現できる。つまり、特定のソフトウェアやクラウドのワークロードに完璧に「共同設計」されたチップだ。
クラウドの巨人たちは、NVIDIAを「殺す」必要はない。 彼らはただ、十分に優れた、実行可能な自社製代替品を作り出すだけでよい。それだけで市場はコモディティ化し、顧客に選択肢を与え、NVIDIAに価格引き下げを強いることになり、結果として自社の巨額な設備投資から数十億ドルを節約できるのだ。
この集約の規模は理解しがたい。Google、Meta、Amazon、Microsoftを含む主要なテクノロジー大手は、これらのデータセンターの建設と、それを満たすAIハードウェアのために、今年1年だけで 3,750億ドルもの大金を使うと見込まれている。この新市場への参入障壁はあまりにも高い。これは民主化ではない。権力の集約だ。AI革命の勝敗は、ガレージの中の賢いアルゴリズムによって決まるのではない。それは、この10メガワットの「脳」を構築する余裕のある、5つの巨大企業によって決まるのだ。
2025年 AIアクセラレータ対決
Google Ironwood (TPU v7): タイプ: ASIC。最大HBM (メモリ): 192 GB HBM3e。最大メモリ帯域幅: 7.4 TB/s。主要スケーリングアーキテクチャ: 9,216チップ・スーパーポッド (9.6 Tb/s ICI)。主な用途: 推論 & トレーニング。
NVIDIA Blackwell B200: タイプ: GPU。最大HBM (メモリ): 192 GB HBM3e。最大メモリ帯域幅: 8 TB/s。主要スケーリングアーキテクチャ: NVLink 5 (1.8 TB/s)。主な用途: 汎用トレーニング & 推論。
AMD Instinct MI300X: タイプ: GPU。最大HBM (メモリ): 192 GB HBM3。最大メモリ帯域幅: 5.3 TB/s。主要スケーリングアーキテクチャ: 8-GPU リング。主な用途: 汎用トレーニング & 推論。
AWS Trainium / Inferentia 2: タイプ: ASIC。最大HBM (メモリ): (Trn) N/A / (Inf2) 32 GB HBM。最大メモリ帯域幅: (Inf2) N/A。主要スケーリングアーキテクチャ: AWS Neuron SDK / クラスター。主な用途: 分離型: トレーニング (Trn) / 推論 (Inf)。
Microsoft Maia 100: タイプ: ASIC。最大HBM (メモリ): 64 GB HBM2E。最大メモリ帯域幅: N/A。主要スケーリングアーキテクチャ: イーサネットベースのファブリック。主な用途: 内部用 (OpenAI) トレーニング & 推論。
チップ戦争の影
Google、NVIDIA、Amazon間の企業間戦争は、それより遥かに大きく、重大な結果をもたらす対立、すなわち米国と中国の間の地政学的な「チップ戦争」の影の下で繰り広げられている。
スマートフォンから最先端の軍事システムに至るまで、現代世界のすべては、息をのむほど脆弱なサプライチェーンの上に成り立っている。TSMCを擁する台湾の「シリコンの盾」は、「世界で最も先進的な半導体の約90%」を生産している。 この「地政学的な発火点」である台湾海峡への製造業の集中は、世界経済における最大の単一脆弱性である。
近年、米国はこの依存関係を武器化し、中国の技術的・軍事的台頭を遅らせるために「先端チップの中国への輸出」を「包括的に規制」している。これに対し、中国は「半導体の自給自足」を必死に追求し、「軍民融合戦略」を加速させ、「半導体製造の野望に数十億ドル」を注ぎ込んでいる。
この追求は、Huaweiのような国家主導の企業によって体現されている。Ascend 910Cのような国産AIチップの開発は、中国国内におけるNVIDIAの優位性に対する直接的な挑戦となっている。この垂直統合は、中国の「軍民融合戦略」と相まって、西側同盟国が中国のサプライチェーンのどの部分なら安全に関与できるかを見極めることを、ますます困難にしている。
この世界的な不安定性は、ビッグテックにとって存亡に関わるリスクを生み出す。台湾での軍事衝突は、AI産業を一晩にして停止させる可能性がある。慢性的なNVIDIAの供給不足は、サプライチェーンの大変動に比べれば些細な不都合に過ぎない。
このレンズを通して見ると、GoogleのIronwoodは単なる競争力のある製品以上のもの、すなわち**「企業主権」の行使**である。Google、Amazon、Microsoftのような企業は、独自のカスタムシリコンを設計することで、「サプライチェーンのリスクを軽減」し、「第三者のサプライヤーへの依存を減らして」いる。彼らは知的財産を所有している。もはや単一の企業(NVIDIA)や単一の脆弱な地域(台湾)に依存していない。製造パートナーを多様化し、地政学的な衝撃が起きても自社のビジネスモデルが存続できるようにしているのだ。
企業間の軍拡競争と地政学的な軍拡競争は、今や同じコインの裏表だ。 GoogleとAmazonによる巨額の投資は、事実上、米国の産業政策を実行している。彼らは西側同盟の技術領域(「チップ4」同盟)の産業的バックボーンを構築し、HuaweiのAscend 910Cのような中国の国産ソリューションが必死で縮めようとしている「技術的距離」を確立している。
計算という耐え難い重荷
話は10メガワットのポッドに戻る。企業と地政学の野心に煽られたAIの軍拡競争は、今や自らの物理的な限界に直面している。 「力任せ」のスケーリングが要求する環境的代償は、あまりにも大きい。
AnthropicがGoogleのTPUを導入する契約は、「1ギガワットを超える」電力規模だ。これは、100基のIronwoodポッドが同時に稼働するのに匹敵し、あるいはフル稼働の原子力発電所が生み出す全電力が、たった一社のために捧げられることを意味する。 そして、その会社は数あるうちの一社に過ぎない。
たった一度の「思考」が生み出すカーボンフットプリントは、憂慮すべきレベルに達している。
- 単一の巨大AIモデルを訓練すると、626,000ポンド(約284,000 kg)以上のCO2が排出される可能性があり、これは「米国の車5台分の生涯排出量にほぼ匹敵」する。
- ChatGPTのようなAIへの1回のクエリは、「通常のGoogle検索の約100倍のエネルギー」を使用する。
- 生成AI産業全体のエネルギーフットプリントは「指数関数的に増加」しており、すでに「低所得国一国分に相当」している。
エネルギーだけではない。データセンターは、さらに有限な資源である水を「貪り食って」いる。 「冷却のために膨大な量の水」を必要とし、しばしば既に水不足に悩む地域の資源に甚大な負荷をかけている。業界の推定によれば、平均的なデータセンターは、消費するエネルギー1キロワット時あたり、すでに1.7リットルの水を使用しているという。
Googleを含む業界は、「効率性」の向上を誇示することで、この危機から目をそらさせようとしている。Googleは、Ironwoodが「2018年の初代Cloud TPUよりも電力効率が約30倍向上した」と主張する。しかし、これは「燻製ニシン」(目くらまし)だ。これは「ジェボンズのパラドックス」の明らかな一例である。すなわち、望ましい資源に適用された技術的効率の向上は、消費を減らすのではなく、その資源をより安価でアクセスしやすくすることによって、消費を増加させるのだ。
Ironwoodの効率性は環境問題を解決するのではなく、それを加速させる。 それは、さらに大規模なモデルを構築し、さらに多くのクエリを処理することを経済的かつ技術的に可能にし、総エネルギー消費量をこれまで以上に押し上げる。Google自身のGeminiが偏った回答を出力したような、記録に残る失敗へとつながった「安全性や倫理よりも速度を優先する」業界の競争は、環境破壊というバランスシートに計上されない巨大な外部不経済を伴う、惑星規模の倫理的危機を生み出している。
この倫理的危機は、AIシステムが人間の偏見を埋め込み増幅させ、人権を脅かし、偽情報を通じて世論を操作する可能性に起因する。 米国政府会計検査院(GAO)は、監視体制があったとしても、市場投入を急いだシステムは、事実に反する、あるいは偏ったコンテンツを生成する攻撃に対して脆弱なままである、と指摘している。企業の迅速な展開目標が安全プロトコルを覆してしまう、このような「軍拡競争」の力学は、イノベーションと責任の間に根本的な緊張関係を生み出している。
終章:空のサンキャッチャー(Suncatcher)
Googleのエンジニアたちも、このパラドックスに気づいていないわけではない。彼らはエネルギー消費のグラフを見ている。AIの「力任せ」のスケーリングには、地球上での限界があることを理解している。彼らが提案する解決策は、業界全体を象徴する完璧な、そして超現実的なメタファーだ。
それは、「プロジェクト・サンキャッチャー(Project Suncatcher)」と呼ばれる、「ムーンショット(月ロケットのように壮大な)」長期研究プロジェクトである。
その計画とは、AIデータセンターを宇宙に打ち上げることだ。 GoogleのTPUを搭載し、「自由空間光通信」によって接続された、この「太陽光発電による小型衛星コンステレーション」は、「薄明・薄暮太陽同期低軌道」に配置される。そこでは、ほぼ絶え間なく太陽光を受け続けることでエネルギー問題を解決し、同時に水のいらない宇宙の真空が冷却ソリューションを提供する。
これは空想ではない。Googleはすでに、低軌道の放射線環境をシミュレートするために、粒子加速器でTrillium世代のTPUをテストし、チップが「損傷なく生き残った」ことを確認している。 Planet Labs社との提携によるプロトタイプの打ち上げが、2027年初頭に計画されている。
プロジェクト・サンキャッチャーは、「地上での失敗」を暗黙のうちに認めるものだ。 それは、Ironwoodのような10メガワットの脳によって駆動される、業界が選択した道が、地球という惑星上では持続不可能であるという告白である。Google自身の言葉によれば、プロジェクトの目標は「地上の資源への影響を最小限に抑えること」だ。なぜなら、彼ら自身のロードマップがもたらす「環境的負荷」が、もはや耐え難いほど高くなっているからだ。
これこそが、技術的崇高(technological sublime)の究極の表現である。神のごとき知性を追求するAIの軍拡競争は、我々自身の好奇心が要求する計算コストがあまりにも膨大になり、それを維持するためには文字通り我々の惑星から脱出しなければならないような未来を創造している。 Ironwoodチップはエンジンだ。AIハイパーコンピュータは工場だ。チップ戦争は影だ。そしてプロジェクト・サンキャッチャーは、その脱出口なのだ。それは、絶望的で、鮮やかで、そして恐ろしいほど論理的な、虚空への跳躍である。
しかし、この論理にも、それ自身の深刻な技術的・経済的課題がないわけではない。懐疑論者たちは、宇宙は冷却のための魔法の解決策ではなく、「存在する最高の断熱材」であると素早く指摘する。 宇宙ベースのデータセンターは受動的に冷却されるのではなく、そのソーラーパネルに匹敵するサイズの、巨大で複雑な放熱板(ラジエーター)を必要とするだろう。また、これらのシステムは、極端なメンテナンスコストや、プロセッサを破壊する絶え間ない放射線の直撃にも対処しなければならない。これらは、この「脱出口」を、まさに天文学的な規模の賭け(ギャンビット)にする障害である。
