技術文明は今、実存的なパラドックスに直面しています。大規模言語モデル(LLM)や生成システムの普及により、人工知能(AI)への需要が指数関数的に増大する一方で、これらの進歩を支える物理的インフラは、乗り越えられない熱力学的な限界へと急速に近づいています。「ムーアの法則」――トランジスタ数と効率が絶えず倍増するという支配的な物語――は、微細化能力の欠如によってではなく、熱放散とエネルギー消費という根本的な制約によって崩れ始めています。この危機的な状況下で登場したのが「熱力学コンピューティング(Thermodynamic Computing)」です。これは単にエネルギー危機を緩和するだけでなく、情報処理の本質そのものを再定義することを約束するパラダイムシフトです。
生成AI時代におけるワットの暴政
フォン・ノイマン型モデルと決定論的なブール論理に基づく現在のコンピュータ・アーキテクチャは、専門家が「電力の壁(Power Wall)」と呼ぶものに直面しています。高度なAIモデルの学習と推論は、遍在するNVIDIA H100のようなグラフィックス処理装置(GPU)にほぼ全面的に依存しています。このユニット単体の熱設計電力(TDP)は700ワットに達し、HGX H100システムとしてクラスタ化されると、ラックあたりの消費電力は2,000ワットを超えます。この電力密度は、現代のデータセンターを巨大な冷却インフラを必要とする「デジタルの溶鉱炉」へと変貌させ、工業規模で水と電力を消費させています。
マクロ経済データもこの危機の切迫性を裏付けています。ゴールドマン・サックスは、データセンターによる世界の電力需要がこの10年の終わりまでに165%増加すると予測しています。一方、国際エネルギー機関(IEA)は、データセンターの電力消費量が2026年までに倍増し、1,000TWhに達する可能性があると推定しています。これは日本の総電力消費量に匹敵する数字です。この成長は線形ではなく、AIモデルの複雑さの指数関数的な曲線に従っており、データセンター経営者の92%がすでに電力網の制約をスケーリングの主な障害として挙げているという、持続不可能な状況を生み出しています。
決定論の本質的な非効率性
根本的な問題は、単に計算量にあるのではなく、その物理的な「質」にあります。現代のデジタル・コンピューティングは、ノイズ抑制という体制の下で動作しています。ビットが明白に0か1であることを保証するために、トランジスタは電子の自然な「熱雑音(サーマルノイズ)」をはるかに上回る電圧で動作しなければなりません。エントロピーとの絶え間ない戦い――カオス的な物理媒体の中で完全な秩序を維持しようとする努力――には、法外なエネルギーコストが伴います。
デジタルプロセッサにおけるすべての論理演算は、コンデンサの充放電と抵抗器を通じた電子の移動を伴い、計算に寄与しない廃熱を発生させます。この熱は、決定論を強制するために必要な「摩擦」によって浪費されるエネルギーを象徴しています。研究者たちが指摘するように、従来のシステムは確率性(ストキャスティシティ)を抑制するために「エネルギーを支払って」います。さらに、メモリと処理装置の物理的な分離(フォン・ノイマン・ボトルネック)は、エネルギーの大部分がデータを処理するためではなく、単にある場所から別の場所へ移動させるために費やされていることを意味します。
熱力学という代替案
このシナリオに対し、熱力学コンピューティングは動作原理の根本的な逆転を提案します。熱雑音と戦うためにエネルギーを費やすのではなく、それを計算資源として活用しようとするのです。これは、自然界が熱平衡への緩和プロセスを通じて効率的に計算を行っているという前提に基づいています。コンピュータ・アーキテクチャを情報の根底にある物理学と一致させることで、複雑なタスク――具体的には生成AIが必要とする確率的サンプリング――を、デジタル・トランジスタよりも桁違いに高い効率で実行することが可能になります。
このアプローチは単なる理論ではありません。ExtropicやNormal Computingといった企業は、これらの原理を具現化したハードウェアの製造を開始しており、現在の技術と比較して最大1万倍の効率化を約束しています。本レポートでは、この技術の現状、物理的基盤、主要なプレイヤー、そして物理ベースのコンピューティングへの移行がもたらす地政学的および経済的影響を包括的に分析します。
物理的基盤:決定論的ビットから確率論的Pビットへ
熱力学コンピューティングが示す革新の規模を理解するには、回路動作の物理レベルまで掘り下げる必要があります。従来のチップと熱力学的サンプリング・ユニット(TSU)の違いは、程度の問題ではなく、存在論的な種類の違いです。
非平衡熱力学と計算
これらの進歩を支える一般理論は、非平衡統計物理学、しばしば確率熱力学と呼ばれるものです。この分野は、コンピュータのように熱平衡から遠く離れたシステムを分析するためのツールを提供します。古典的なコンピューティングはランダウアーの原理に従い、1ビットの情報を消去するために必要なエネルギーの理論的下限を設定し、熱を環境に放散します。しかし、熱力学コンピューティングは異なる力学の下で動作します。
熱力学デバイスは、ランジュバン動力学(減衰または過減衰)の下で進化するように設計されています。これは、物理システムが自然にその最小エネルギー状態を「探索する」ことを意味します。数学的な問題がデバイスのエネルギー地形にエンコードされると、システムは単に熱平衡状態へと緩和することによって問題を解決します。このパラダイムにおいて、計算は強制された一連の論理ステップではなく、水滴が山を下る最速の経路を見つける様子や、タンパク質が最適な形状に折り畳まれる様子に似た、自然な物理プロセスとなります。
確率論的ビット(p-bit)
この新しいアーキテクチャの基本単位は、p-bit(確率論的ビット)です。変更を命じられるまで静的なデジタルビットとは異なり、p-bitは周囲の熱雑音に駆動され、ナノ秒単位の時間スケールで0と1の間を連続的に変動します。ただし、この変動は完全にランダムではありません。制御電圧を通じてバイアスをかけることで、p-bitが例えば時間の80%を状態1で、20%を状態0で過ごすように操作できます。
この挙動は確率分布を模倣します。複数のp-bitを相互に接続することで、複雑な同時確率分布を表す回路が作成されます。任意の瞬間に回路の状態を「読み取る」と、その分布の有効なサンプル(標本)が得られます。現代の生成AIは根本的に確率に関するものであるため(最も可能性の高い次の単語を予測したり、画像内の最ももっともらしいピクセルを生成したりすること)、これは極めて重要です。
ネイティブ・サンプリング vs デジタル・シミュレーション
Extropicが主張する「1万倍」の効率的優位性は、この構造的な違いから生じています。デジタル(決定論的)GPUにおいて、複雑な分布からランダムなサンプルを生成するには、疑似乱数生成(PRNG)アルゴリズムを実行する必要があり、これには数千のクロックサイクルと数百万のトランジスタ遷移が消費されます。GPUは、複雑な決定論的算術を通じて偶然性を「シミュレート」しなければなりません。
対照的に、熱力学チップはサンプルを「ネイティブ」に生成します。ノイズをシミュレートするのではなく、ノイズこそが計算のエンジンなのです。物理現象がランダム性を生成する重労働を担うため、この特定のタスクのために複雑な算術論理演算装置(ALU)を必要としません。これは本質的に、物理媒体が数学的演算を瞬時に実行する、ノイズ支援型のアナログ・コンピューティングと言えます。
表:動作特性の比較
| 動作特性 | デジタル・コンピューティング (GPU/CPU) | 熱力学コンピューティング (TSU) |
| 基本単位 | CMOSトランジスタ(決定論的スイッチ) | p-bit(確率論的発振器) |
| ノイズとの関係 | 抑制(ノイズ=エラー) | 活用(ノイズ=資源/燃料) |
| 計算メカニズム | 順次ブール算術 | 最小エネルギー状態への物理的緩和 |
| エネルギー消費 | 高(熱力学と戦う) | 最小(熱力学と共に流れる) |
| 理想的な用途 | 精密計算、厳密な論理 | 確率的推論、最適化、生成AI |
Extropic:アーキテクチャと不確実性の戦略
米国に拠点を置くExtropicは、この技術の商業的な先兵として位置づけられています。Guillaume Verdon(元Googleの物理学者であり、デジタル空間では「Beff Jezos」として知られる効果的加速主義またはe/acc運動のリーダー)とTrevor McCourtによって設立された同社は、理論から実体のあるシリコン製造へと移行しました。
X0チップ:確率論的シリコンの実証
Extropicの最初の具体的なマイルストーンは、X0チップです。このデバイスは、確率論的回路が標準的な半導体プロセスを使用して製造でき、室温で動作することを検証するために設計されたテスト・プロトタイプです。絶対零度に近い温度を必要とする量子コンピュータとは異なり、X0は周囲の熱をエントロピー源として利用します。
X0には、原始的な確率分布からサンプルを生成するように設計された回路群が搭載されています。その主な機能は、Extropicのノイズモデルの精度を確認することでした。つまり、トランジスタを予測可能かつ制御可能な方法で「ノイズが多くなる」ように設計できることを実証することです。半導体業界は60年を費やしてノイズを除去するためのプロセスを最適化してきたため、これを制御された方法で再導入するには、材料物理学への深い習熟が必要です。
開発プラットフォーム XTR-0
研究者や開発者がこの新しい物理学と対話できるようにするために、ExtropicはXTR-0プラットフォームを立ち上げました。このシステムは独立したコンピュータではなく、ハイブリッド・アーキテクチャです。物理的には、従来のCPUとFPGAを搭載した台形のマザーボードで構成され、熱力学的なX0チップを含む2つのドーターボードに接続されています。
XTR-0の機能は、架け橋となることです。CPUは一般的なワークフローと決定論的論理を管理し、FPGAは高速な翻訳者として機能して、命令とパラメータをX0チップに送信し、生成された確率論的サンプルを受信します。このアーキテクチャは実用的な現実を認識しています。熱力学コンピュータは、OSの実行やスプレッドシートの処理といったタスクでデジタルコンピュータに取って代わるものではありません。その役割は、GPUがグラフィックスを加速させるのと同様に、AIの確率的ワークロードに特化した専用アクセラレータです。
Z1チップとスケーリングのビジョン
Extropicの最終目標はX0ではなく、将来のZ1チップです。このデバイスには、数十万から数百万の相互接続されたp-bitが搭載され、熱力学基板上で深層生成AIモデルを完全に実行できるようになると予測されています。同社が行ったシミュレーションによると、このチップは同等のGPUよりも1万倍少ないエネルギー消費で、画像やテキストの生成タスクを実行できる可能性があります。
Z1のアーキテクチャは、大規模な局所的接続性に基づいています。データがチップ上を長距離移動する(エネルギーを消費する)GPUとは異なり、Extropicの設計ではメモリと計算が絡み合っています。p-bitはすぐ隣の近傍とのみ相互作用し、集合的に全体的な問題を解決する局所的な相互作用のネットワークを作り出します。これにより、データ移動に関連するエネルギーコストの大部分が排除されます。
ネイティブ・アルゴリズム:熱力学的ノイズ除去モデル(DTM)
革新的なハードウェアには革新的なソフトウェアが必要です。熱力学チップ上で標準的なディープラーニング・アルゴリズム(決定論的な行列乗算に基づく)を実行しようとすることは非効率的です。そのため、Extropicは新しいクラスのネイティブ・アルゴリズムを開発しました。
エネルギーベースモデル(EBM)
Extropicのソフトウェアの理論的基盤は、エネルギーベースモデル(Energy-Based Models:EBM)です。機械学習において、EBMは現実的に見えるデータ(猫の画像など)に低い「エネルギー」を、ノイズや不正確なデータに高いエネルギーを関連付けることを学習します。EBMでデータを生成することは、低エネルギーの構成を見つけることを意味します。
EBMは理論的には数十年前から存在していましたが、デジタルコンピュータ上でのトレーニングと使用が極めて遅いため、深層ニューラルネットワークに取って代わられていました。これらはギブスサンプリング(Gibbs Sampling)と呼ばれるプロセスを必要としますが、これはCPUやGPUでは計算コストが法外に高くなります。しかし、Extropicのチップはギブスサンプリングをネイティブかつほぼ瞬時に実行します。デジタルシリコンにとっての弱点が、熱力学シリコンにとっては根本的な強みとなるのです。
Denoising Thermodynamic Model(DTM)
Extropicの主力アルゴリズムは、熱力学的ノイズ除去モデル(DTM)です。このモデルは、純粋なノイズから始まり、鮮明な画像が得られるまで段階的に改良していく現代の拡散モデル(MidjourneyやStable Diffusionを動かしているものなど)と同様に機能します。
ただし、GPU上の拡散モデルはノイズを除去する方法をステップごとに数学的に計算する必要がありますが、DTMはチップの物理現象を利用して変換を実行します。熱力学ハードウェアは、「ノイズの多い」状態が熱力学の法則に従って物理的に「秩序ある」状態(最終画像)へと進化することを可能にします。シミュレーションによると、このアプローチは高速であるだけでなく、「ノイズ除去」プロセスが数兆回の浮動小数点乗算ではなく、平衡に向かうシステムの自然な傾向によって実行されるため、桁違いに少ないエネルギーで済みます。
競合エコシステム:物理コンピューティングにおける異なるアプローチ
Extropicはその大胆な主張とサイバーパンクな美学でメディアの注目を集めていますが、この分野における唯一のプレイヤーではありません。熱力学および確率論的コンピューティングの競争には、Normal Computingのような他の洗練された競合企業も含まれており、それぞれが異なる技術的および市場的哲学を持っています。
Normal Computing:確率性を通じた信頼性
ニューヨークに拠点を置き、元Google BrainおよびAlphabet Xのエンジニアによって設立されたNormal Computingは、少し異なる角度から問題に取り組んでいます。Extropicが生成のための速度と純粋な効率(加速主義)に焦点を当てているのに対し、Normalは重要なシステムにおける信頼性、安全性、および不確実性の定量化に大きな重点を置いています。
彼らの技術は、確率論的処理装置(Stochastic Processing Unit:SPU)に基づいています。Extropicと同様に熱雑音を利用しますが、彼らの数学的枠組みは、オルンシュタイン=ウーレンベック(OU)過程のような特定の確率過程に焦点を当てています。OU過程は平均回帰型の確率過程であり、変動しながらも安定した中心に戻る傾向があるシステムをモデル化するのに役立ちます。
Normal Computingは、CN101チップの「テープアウト」(製造に向けた設計完了)など、重要なマイルストーンに到達しています。このチップは、実際のシリコン上で熱力学アーキテクチャの実現可能性を実証するために設計されています。彼らのロードマップには、2027年から2028年までに高解像度の拡散モデルとビデオをスケーリングすることを目的とした将来のチップ、CN201およびCN301が含まれています。
主な違い: Extropicは、低エネルギーコストでの最大エントロピーと生成的創造性のために最適化しているように見えます(アート、テキスト、アイデア出しに理想的)。一方、Normal Computingは、AIが「自分が何を知らないかを知る」ようにし、ビジネスや産業アプリケーションでのリスクを管理するために確率論的ハードウェアを使用することで、「説明可能なAI」と信頼性のために最適化しているように見えます。
ニューロモーフィック vs 熱力学コンピューティング
熱力学コンピューティングをニューロモーフィック・コンピューティング(IBMのTrueNorthやIntelのLoihiなどのチップに代表される)と区別することは極めて重要です。ニューロモーフィック・コンピューティングは、多くの場合、決定論的なデジタルまたはアナログ回路を使用して、脳の生物学的構造(ニューロン、シナプス、電圧スパイク)を模倣しようとします。
一方、熱力学コンピューティングは脳の物理学を模倣します。生物学的な脳は、37℃の湿ったノイズの多い環境で動作し、化学反応と信号伝達を促進するために熱雑音を利用します。脳はノイズと戦うのではなく、それを利用します。ExtropicとNormal Computingは、物理学(熱力学)を模倣することは、構造だけを模倣すること(ニューロモーフィック)よりも、効率へのより直接的な道であると主張しています。
効率性の深層分析:「1万倍」の数字を解体する
効率が1万倍向上するという主張は並外れたものであり、厳密な技術的精査が必要です。この数字は正確にはどこから来ているのでしょうか、そしてそれは生産環境において現実的でしょうか?
節約の物理学
エネルギーの節約は主に3つの源泉から来ています:
- データ移動の排除: GPUでは、VRAMメモリからモデルの重みを読み取るだけで、計算そのものよりも多くのエネルギーを消費します。ExtropicのTSUでは、モデルの重みはp-bit間の接続に物理的にエンコードされています。計算はデータがある場所で行われます。
- 受動的な計算: デジタル回路では、クロックが1秒間に何百万回もの状態遷移を強制し、サイクルごとにアクティブなエネルギーを消費します。熱力学回路では、システムは解に向かって受動的に進化します。エネルギーの大半は、周囲の熱(熱雑音)によって供給されます。これは「無料」です。
- サンプリング効率: 前述の通り、デジタルで統計的サンプルを生成するには数千回の操作が必要です。熱力学では、これは1回の操作です。タスクが数百万のサンプルを取得する必要がある場合(ビデオ生成など)、その利点は桁違いになるまで直線的に蓄積されます。
実世界での消費電力比較
これを広い視点で見るために、LLaMA型モデルの学習と推論を考えてみましょう。Metaは16,000個のH100 GPUを使用してLLaMA 3を学習させました。保守的な平均消費電力を仮定すると、エネルギーコストは数百ギガワット時に達します。推論フェーズ(日常使用)において、何百万人ものユーザーがモデルにクエリを送信すれば、累積消費量は学習時のそれを上回ります。
もし熱力学チップが同じ推論を数百ワットではなくミリワットの消費で行えるなら、AIの経済的実現可能性は劇的に変化します。バッテリーを数分で消耗することなくスマートフォン上でGPT-4レベルのモデルを実行したり、小さなバッテリーで数年間動作するスマートセンサーを農業に展開したりすることが可能になります。
限界と注意点
ただし、「1万倍」という数字は、このハードウェア用に最適化された特定のベンチマークのシミュレーションから導き出されたものです。決定論的論理、データの前処理、CPUとの通信が必要な混合ワークロードでは、システム全体の効率(アムダールの法則)は低下します。さらに、アナログの精度は本質的に制限されています。正確な64ビット精度を必要とする金融計算には、熱力学コンピューティングは適していません。そのニッチ(適所)は確率的推論であり、正確な会計処理ではありません。
表:効率性のランドスケープ
| 効率性指標 | デジタルGPU (H100) | 熱力学TSU (予測) | 理論上の改善係数 |
| ジュールあたりの演算 | ランダウアーの限界とCMOS構造による制限 | 背景熱雑音によってのみ制限される | ~10^3 – 10^5 |
| サンプリング遅延 | 高(順次PRNG反復が必要) | 極めて低(物理的に瞬時) | ~100x – 1000x |
| 回路の複雑さ | 高(制御ロジックに数百万トランジスタ) | 低(単純なp-bitと結合) | 高い面積密度 |
製造とスケーラビリティの課題:ハードウェアの「死の谷」
コンピューティングの歴史は、スケーリングを試みて失敗した有望な技術(メモリスタ、光コンピューティング、スピントロニクス)で溢れています。熱力学コンピューティングが実験室を出るには、大きな障壁があります。
プロセスのばらつきとキャリブレーション
ExtropicとNormal Computingにとって最大の課題は均質性です。現代のチップ製造(5nmまたは3nmノード)では、トランジスタ間に微細なばらつきが存在します。デジタルでは、これは安全マージンで管理されます。「ノイズ」が信号となるアナログ/熱力学の世界では、トランジスタサイズのばらつきは確率プロファイルを変化させてしまいます。
製造上の欠陥により各p-bitがわずかに異なるバイアスを持っている場合、チップは正しい確率分布を表しません。これらのばらつきを補正するために何百万もの個々のp-bitをキャリブレーションするには、大規模なデジタル制御回路が必要になる可能性があり、それがエネルギーとスペースの節約分の一部を食いつぶしてしまうかもしれません。Extropicは堅牢な回路設計でこれを解決したと主張していますが、本当の試練はZ1チップの大量生産と共に訪れます。
ソフトウェア・エコシステムへの統合
エコシステムのないハードウェアは無用です。NVIDIAがAIを支配しているのは、チップだけでなく、ソフトウェア層であるCUDAのおかげです。開発者がTSUを採用するためには、物理的な複雑さが抽象化されなければなりません。Extropicは、開発者がエネルギーモデルを定義し、バックエンド(GPU上のシミュレーションであれ、XTR-0上の実機であれ)で実行できるようにするPythonライブラリThrmlをリリースしました。成功は、PyTorchやTensorFlowとの統合がいかに透明であるかにかかっています。機械学習エンジニアがチップをプログラムするために統計物理学を学ばなければならないのであれば、採用率はゼロになるでしょう。
ムーアの法則との競争
デジタル技術は停滞していません。NVIDIA、AMD、Intelは、AI向けにアーキテクチャを最適化し続けています(例:FP8精度、Blackwellアーキテクチャ)。熱力学コンピューティングは動く標的を追いかけています。Z1チップが商業市場に到達する頃には、従来のGPUも効率を向上させているでしょう。「1万倍」の利点は大きなバッファですが、機会の窓を逃さないためには、迅速な実行が必要です。
地政学的および経済的影響
この技術の出現は、サーバールームを超えた波及効果を持ち、国家戦略や世界のAI経済に影響を与えます。
AI主権と分散化
現在、高度なAIは、数十億ドルのデータセンターに資金を提供でき、限られたGPU供給にアクセスできる組織によって支配される寡占状態にあります。熱力学コンピューティングは、エネルギーとハードウェアのコストを劇的に削減することで(動作に最新の3nmリソグラフィを必要としないため、より古く安価なシリコン製造プロセスを使用できる)、「超知能」へのアクセスを民主化する可能性があります。
これにより、小国や中規模企業が、米国のハイパースケーラー(Microsoft、Google、Amazon)のクラウドに依存することなく、独自の基盤モデルを運用できるようになります。これは、より大きな技術的主権に向けた潜在的なベクトルです。
電力網への影響と持続可能性
IEAや各国政府はデータセンターの消費電力に警鐘を鳴らしています。アイルランドやバージニア州北部のような場所では、データセンターが電力網全体の2桁の割合を消費しています。熱力学コンピューティングは、この圧力に対する「安全弁」を提供します。業界が推論負荷の一部を熱力学ハードウェアに移行すれば、AIの成長をカーボンフットプリントの増大から切り離し、技術の進歩を止めることなく気候目標を達成できる可能性があります。
加速主義の哲学(e/acc)
イデオロギー的な要素も無視できません。ExtropicのCEOであるGuillaume Verdonは、宇宙の道徳的および熱力学的要請として、無制限かつ急速な技術進歩を提唱するe/acc運動の中心人物です。Extropicは単なる企業ではなく、このイデオロギーの物理的具現化です。彼らは宇宙のエントロピーと知性の生産を最大化しようとしています。これは、「減速(Deceleration)」や「AI安全性(Safetyism)」のビジョンとは対照的です。Extropicの成功は、シリコンバレーにおける加速主義陣営にとって、文化的かつ技術的な勝利となるでしょう。
自然な知性の夜明け
熱力学コンピューティングは、人工的な計算と自然な計算の間の溝を埋めるための、これまでで最も真剣な試みを象徴しています。70年間、私たちは厳格な官僚機構のように機能するコンピュータを構築してきました。正確なルールに従い、データを正確な場所に保管し、何一つ基準から外れないようにするために莫大なエネルギーを費やしてきたのです。その間、人間の脳――そして自然そのもの――はジャズ・アーティストのように機能してきました。即興演奏を行い、ノイズとカオスをメロディの一部として利用し、驚くべきエネルギー効率で輝かしい結果を出してきました。
ExtropicやNormal ComputingがX0やCN101といったデバイスを通じて提示する技術は、私たちがこの2つ目のアプローチを採用する準備ができていることを示唆しています。1万倍のエネルギー効率という約束は、単なる漸進的な改善ではありません。それは人工知能の遍在(ユビキタス化)を可能にするフェーズシフト(局面転換)です。
しかし、その道は技術的なリスクに満ちています。デジタル決定論から熱力学的確率論への移行には、新しいチップだけでなく、アルゴリズム、精度、そして計算の本質についての考え方を完全に再教育することが求められます。もしExtropicがp-bitのスケーリングに成功し、Normal Computingが確率過程の安全性を証明できたなら、10年後、私たちは現在のGPU――あの700ワットのシリコン製オーブン――を、今日私たちが1940年代の真空管を見るのと同じようなノスタルジーと困惑を持って振り返ることになるかもしれません。熱力学と戦う時代は終わりました。熱力学と共に計算する時代が始まったのです。
ポスト・デジタル・コンピューティングの展望
| 次元 | 古典的デジタル・アプローチ | 熱力学的アプローチ (Extropic/Normal) |
| 哲学 | 完全な制御、エラーの抑制 | カオスの受容、ノイズの利用 |
| 物理的限界 | 熱放散、ムーアの法則 | 根本的なエントロピー限界 |
| AIモデル | 深層ニューラルネットワーク(DNN) | エネルギーベースモデル(EBM)、拡散モデル |
| ハードウェア | GPU、TPU(高電力) | TSU、SPU(低電力、受動的) |
| 未来のビジョン | 都市サイズのデータセンター | 遍在的、分散型、アンビエントな知能 |
