Takeshi Ikemoto

医療 × 経営 × テクノロジー

·note記事·note·feature

【AI半導体を理解する 第2回/全6回】NVIDIAの覇権の秘密 — なぜGPUがAIの心臓部になったのか

生成AInvidiaデータセンターgpuAI半導体

はじめに:「半導体メーカー」という認識は正しいのか

NVIDIAの時価総額は2024年に一時3兆ドル(約450兆円)を超え、世界最大の企業となりました。しかし、NVIDIAを単なる「半導体メーカー」と捉えることは、同社の競争優位性を理解する上で大きな誤りのようです。

前回の記事で、AIには「学習」と「推論」という二つのフェーズがあり、それぞれ異なる計算特性を持つことを整理しました。本稿では、なぜNVIDIAがAI学習市場で圧倒的な覇権を確立できたのか、その技術的・戦略的な理由を調べてみました。

調べてみてわかったのは、NVIDIAの強さは「チップの性能」だけでは説明できないということです。ハードウェア、ソフトウェア、ネットワーキング、そしてサプライチェーンをまとめて押さえることで、結果として“プラットフォーム”になっている――ここが理解の出発点になります。

第1章:GPUとは何か — 「描画用チップ」から「演算エンジン」への転身

1-1. GPUの起源:ゲームのための並列処理装置

GPU(Graphics Processing Unit:画像処理装置)は、もともとコンピュータゲームやグラフィックス処理のために開発された半導体です。3Dゲームでは、画面上の何百万ものピクセル(画素)を毎秒数十回更新する必要があります。この処理は、各ピクセルに対して同じ計算(色の決定、影の計算など)を独立して行うため、大量の単純計算を同時並行で実行することに適しています。

GPUはこの要求に応えるため、以下のような設計思想で作られました。

(1)数千の単純なコア まずコア(core)とは、CPUやGPUの中に並んでいる計算担当の単位(小さな演算器)を指します。CPU(Central Processing Unit:中央処理装置)が10〜20個程度の高性能コアを持つのに対し、GPUは数千から数万の「単純なコア」を搭載します。各コアは複雑な処理は苦手ですが、同じ命令を異なるデータに対して同時に実行する、といった並列処理に特化しています。

(2)SIMT(Single Instruction, Multiple Threads)アーキテクチャ GPUは、1つの命令を何千もの「スレッド(処理の流れ)」に対して同時に発行する「SIMT」と呼ばれる方式を採用しています [2]。これにより、並列処理の効率が極大化されます。

(3)高いメモリ帯域幅 グラフィックス処理では、テクスチャ(画像データ)を高速に読み書きする必要があります。ここでいうメモリ帯域幅とは、かんたんに言えば「1秒あたりにメモリから出し入れできるデータ量」です。GPUはこの要求に応えるため、当初から高いメモリ帯域幅を持つよう設計されていました。

1-2. AI演算との「偶然の一致」:行列演算の並列性

AIの学習において最も多く行われる計算は、「行列積(Matrix Multiplication)」です。ニューラルネットワークの各層では、入力データ(ベクトル)とパラメータ(行列)をまとめて掛け算して、次の層に渡す値を作ります。

行列積の計算構造を見てみましょう。2つの行列 A (m×n) と B (n×p) の積 C (m×p) を求める場合:

行列積

この計算の重要な特性は、Cの各要素の計算が完全に独立していることです。C_{11}を計算するためにC_{12}の結果を待つ必要はありません。つまり、$m \times p$ 個の計算を同時に並列実行できるのです。

この特性は、GPUのSIMTアーキテクチャと驚くほど相性が良いことがわかりました。GPUは元々「各ピクセルの色を同時に計算する」ために設計されましたが、その構造がそのまま「行列の各要素を同時に計算する」ことに転用できたのです [2]。

1-3. CPUとGPUの決定的な違い:レイテンシ vs スループット

CPUとGPUの設計哲学の違いを、より具体的に比較します。

CPUはレイテンシ(「1回の依頼に対して、結果が返るまでの時間」)の最小化を目指します。言い換えると、ユーザーが1つの処理を投げたときに「待たされにくい」ことを重視します(例:アプリの操作、Web表示、会話AIの応答など)。分岐予測やキャッシュなどを使って、1つの処理をできるだけ速く完了させる設計です。

GPUはスループット(「1秒あたりに何件の処理を終えられるか」)の最大化を目指します。言い換えると、1件あたりの待ち時間よりも、「たくさんの計算をまとめて回して、全体として多く終わらせる」ことを重視します(例:同じ形の計算を大量に繰り返すAI学習など)。1つ1つの処理を最速にするというより、同じ種類の計算を大量に“まとめて”同時に進めて、全体の処理量を伸ばす設計です。

AI学習は、典型的にGPUが得意な側の仕事です。学習の中身は「同じ形の掛け算・足し算(行列演算)」を、データを変えながら何度も繰り返す負荷になりやすいからです。そのため、同じ予算でもCPUよりGPUの方が学習を速く回せるケースが多くなります。

第2章:CUDAの威力 — ソフトウェアによる「参入障壁」の構築

2-1. CUDAとは何か:GPUを汎用計算に開放したプラットフォーム

NVIDIAの覇権を理解する上で、ハードウェア(GPU)以上に重要なのがCUDA(Compute Unified Device Architecture)というソフトウェアプラットフォームです。

CUDAは2006年に発表されました。それまでGPUは、グラフィックス専用の特殊な命令セットでしかプログラムできませんでした。CUDAは、GPUをC言語に似た汎用的なプログラミング言語で制御できるようにした技術です [3]。

CUDAが提供するのは以下の要素です。

(1)プログラミング言語とコンパイラ C/C++にGPU向けの拡張を加えた言語と、それをGPU用の機械語に変換するコンパイラです。開発者は「GPUの中身の細かい仕組み」を強く意識しなくても、“同じ計算を大量のデータに一気に適用する”という発想でコードを書けます。CUDAでは、その“GPUで一斉に動かす計算”をまとめた関数をカーネル(kernel)と呼び、開発者は「このカーネルを大量のデータに対して並列に実行して」と指示するイメージです。

(2)ライブラリ群 行列演算(cuBLAS)、畳み込み演算(cuDNN)、FFT(cuFFT)など、よく使われる計算を高度に最適化したライブラリ群です。ポイントは、開発者が「行列積を速くするにはどうメモリを並べるか」といった低レベル最適化を毎回やらなくても、まずは“定番の部品”を呼び出すだけで高い性能を引き出せることです。

(3)開発ツール プロファイラ(性能分析ツール)、デバッガ、メモリチェッカーなど、開発を支援するツール群です。GPUプログラムは「計算は速いのに、データ転送やメモリ待ちで遅い」といった落とし穴が起きやすいため、どこが詰まっているのかを測って直すための道具立てが揃っていることが実務上の差になります。

要するにCUDAは、開発者にとって「GPUを使える」だけでなく、GPUを“仕事で回せる”(速く作れて、速く直せる)状態を作る基盤になっています。

2-2. 20年の蓄積:エコシステムの自己増殖

CUDAの真の強さは、長い時間をかけて積み上がった開発資産と人材・コミュニティにあります。

(1)AI研究者の習慣 世界中のAI研究者は、新しいアルゴリズムを開発する際、まずCUDA上で実装・検証します。学術論文で発表されるコードの大半はCUDAで書かれており、それが次世代の研究者に継承されています。

(2)フレームワークの最適化優先順位 PyTorchやTensorFlowなど、AI開発の主要フレームワークは、実務上「まずNVIDIA環境で性能が出る」状態になりやすい、と言われます。結果として、新機能や最適化の対応はNVIDIAが先行し、他社チップは後追いになりやすい、という構図が生まれます。

(3)スイッチングコストの創出 企業や研究機関が保有する既存コードは、CUDAに依存している場合があります。他社チップに移行するためには、コードを書き直すか、互換レイヤーを介して性能低下を受け入れる必要が出ることがあり、この「スイッチングコスト」が移行のハードルになります。

2-3. cuDNN:AI演算を「速く動かすための定番部品」

CUDAライブラリの中でも特に重要なのがcuDNN(CUDA Deep Neural Network library)です。cuDNNは、ディープラーニングで頻繁に使用される畳み込み演算やアテンション演算を、NVIDIAのハードウェアに極限まで最適化した実装を提供します。

ここでのポイントは、開発者がPyTorch/TensorFlowなどのフレームワークを使って「畳み込み」や「アテンション」を書くだけで、その裏側の重い計算がcuDNNという“最適化済みの定番部品”に自動的につながることです。つまり「同じ処理を、GPUで速く動く実装に置き換えてくれる」イメージです。結果として、同じモデルでも「速く学習できる」「同じGPUでより多く回せる」といった差につながります。

一方で、こうした最適化は簡単ではありません。GPUは「計算」だけでなく「データの動かし方(メモリ階層や帯域)」で性能が大きく変わるため、演算器の配置やメモリの使い方まで踏み込んで、各演算のデータフローを詰める必要があります。NVIDIAはGPUの設計者であるため、ハードウェアとソフトウェアを同時に最適化できるという強みを持ちます。

競合他社(AMDのROCm、IntelのoneAPI等)も同様のライブラリを提供していますが、「理論スペックどおりの性能が出るか(実効性能)」という意味では、成熟度に差が出やすい領域です。

第3章:Mellanox買収の戦略的意義 — ネットワークという「第二のモート」

3-1. まず全体像:AI学習には「3つのやり取り」がある

AI学習の規模が拡大するにつれ、個々のGPUの計算性能だけでは勝敗が決まりにくくなりました。理由は、最先端の学習が「1枚のGPUで完結しない」からです。現代の大規模言語モデル(Llama-3 70B、GPT-4等)は1つのGPUのメモリに収まりにくく、数十〜数百のGPUに処理を分担させて協調して学習させる必要があります [4]。

このとき読者が混乱しないために、先に“地図”を置きます。AI学習でボトルネックになり得る「やり取り」は、大きく次の3つです。

第3章で焦点にするのは、特に(2)(3)です。学習では各GPUの結果を何度も集約してそろえる工程が入り、そのたびに大量のデータが行き来するため、ここが詰まると学習全体が遅くなります [4]。

3-2. GPU同士のやり取りを速くする:NVLink

まず(2)の「GPU同士のやり取り」です。NVLinkは、サーバーの中でGPUとGPUを直接つなぐための高速インターコネクトです。NVIDIAはNVLinkがTB/秒級の帯域幅を提供することを示しており、複数GPUで協調して計算しやすくなります [5]。

3-3. サーバー同士のやり取りを速くする:InfiniBandとSHARP(Mellanox買収)

次に(3)の「サーバー同士のやり取り」です。NVIDIAは2019年、InfiniBand(インフィニバンド)などのネットワーク技術を持つMellanoxを買収しました [4]。これは同社が「GPUだけ」ではなく、「GPUを束ねて動かす仕組み」まで取りにいった転換点でした。

InfiniBandとは、データセンターやスーパーコンピュータで、GPUを搭載したサーバー(計算用マシン)同士を高速につなぐための高性能な通信規格・技術群です。一般的なイーサネットが「広く汎用に使えるネットワーク」だとすると、InfiniBandは「複数台のサーバーを束ねて一つの大きな計算機として使うときに、大量のデータを低い待ち時間で安定してやり取りする」用途に重点を置いて設計されています [4]。

なぜこれがAI学習に効くのかは、3つの観点で把握できます [4]。

RDMA(Remote Direct Memory Access)は、CPUを介さずにメモリ間で直接データを転送する仕組みです。サーバー間で頻繁にデータを交換する分散学習では「CPUを経由する手間」が積み重なるとボトルネックになり得るため、RDMAが効いてきます [4]。

さらにSHARP(Scalable Hierarchical Aggregation and Reduction Protocol:ネットワークスイッチ側でデータ集約を支援する仕組み)は、サーバー同士の通信を中継・振り分けする装置(ネットワークスイッチ)側で、データの集約(学習で何度も出てくる「結果を足し合わせてそろえる」処理)を助けます。サーバー側(GPU/CPU)で集約を完結させるのではなく、通信の途中で集約を進められるため、GPU/CPUの負荷とネットワーク上の待ち時間を減らせます [4]。

(3)垂直統合の完成 NVIDIAは今や、GPUチップだけでなく、GPU間接続(NVLink)、サーバー間接続(InfiniBand)、そしてネットワークスイッチまでを自社で提供できる唯一の企業となりました。これにより、システム全体を最適化した「AIファクトリー」を設計・販売することが可能になっています。

3-4. 競合排除の効果

この垂直統合は、競合他社の参入をさらに困難にしています。

GoogleやAmazonが自社製AIチップ(TPU、Trainium)を開発しても、それを大規模に接続するネットワークには依然としてNVIDIAの技術が必要な場合があります。また、イーサネットベースの代替技術(RoCE等)では、InfiniBandの性能に追いつくことが困難であり、「Ultra Ethernet Consortium」という業界団体が標準化を進めていますが、実用化には時間を要します [4]。

第4章:サプライチェーンの独占 — CoWoSという物理的制約

4-1. CoWoSとは何か:先端パッケージング技術の核心

半導体産業では、「設計」と「製造」 の分業が進んでいます。NVIDIAは主に設計を担い、工場での製造は外部に委ねることが一般的です。その製造を受託する企業が ファウンドリ(foundry) で、TSMCは最大手として知られています。

この構図があるため、AI半導体の勝敗は「良い設計ができるか」だけでなく、製造の中で詰まりやすい工程をどれだけ確保できるかにも左右されます。CoWoSは、その代表例です。

そしてAI半導体で「詰まり」になりやすいのが、計算そのものではなく、GPUが計算に必要なデータをメモリから素早く受け渡しできるかという部分です。言い換えると、AIは「演算性能」だけでなく データを運ぶ道(メモリ周り) がボトルネックになりやすいのです。

AI半導体では、高いメモリ帯域幅(GPU↔HBMのデータの出し入れの速さ)をどう実現するかが重要で、その土台になるのが先端パッケージングです。さらに、この土台は「作れる量(生産能力)に上限がある」ため、勝敗は「設計の巧拙」だけでなく、必要な供給枠をどれだけ確保できるかにも左右されます。

CoWoS(Chip on Wafer on Substrate)は、TSMC(台湾積体電路製造)が提供する先端パッケージング技術です [6]。そしてNVIDIAの強みは、CoWoSが必要な設計を量産につなげるために、供給枠を先に確保しやすい立場を築いたことにあります。

従来は、演算用のチップとメモリは別部品として扱われ、基板上で配線してつなぐのが一般的でした。ところが現代のAIチップでは、GPUが必要とするデータ量が桁違いに増えたため、演算チップ(GPU本体)とメモリチップ(HBM)を1つのパッケージ内で近接させ、短い配線で直接つなぐ必要があります。

CoWoSは以下の工程で構成されます。

この技術により、GPUとHBMの間を極めて短い配線で接続でき、高いメモリ帯域幅を実現できます。言い換えると、CoWoSの供給能力が限られるほど、CoWoSを必要とするAIチップの出荷量も制約されます。そのため、NVIDIAにとっては「チップを設計できる」だけでなく、必要なCoWoS枠をどれだけ確保できるかが競争力の一部になります。

4-2. 容量の先行確保:NVIDIAの戦略的優位性

2024〜2025年のAI半導体産業では、チップ設計だけでなく、先端パッケージング(CoWoSのような工程)の供給能力が現実的な制約になり得ます [6]。

そのため競争は「良い設計ができるか」だけでなく、量産に必要な工程の供給枠をどれだけ確保できるかにも広がります。

AMDのInstinct MI300シリーズやGoogleのTPUのように、大規模学習に使われるチップでも、メモリ周りを含めた実装(パッケージング等)が重要になります。

4-3. 戦略的含意:技術力だけでは勝てない

このサプライチェーンの制約は、AI半導体競争の本質を示しています。

優れた設計能力を持つ企業(Cerebras、Groq、d-Matrix等のスタートアップ)であっても、製造パートナーの確保と、先端パッケージング容量の獲得なしには、大規模な市場参入は困難です。これは純粋な技術競争ではなく、サプライチェーンにおける交渉力と先行投資の競争でもあるのです。

第5章:NVIDIAの三層構造戦略 — なぜ「チップ会社」ではないのか

5-1. 戦略の全体像:プラットフォームとしての不可侵性

ここまでの分析を統合すると、NVIDIAの競争優位性は以下の三層構造として整理できます(筆者の理解です)。

第1層:ソフトウェア(CUDA、cuDNN、AI Enterprise)

第2層:ネットワーキング(NVLink、InfiniBand)

第3層:サプライチェーン(CoWoS容量、HBM調達)

この三層が相互に強化し合うことで、単一の要素では追いつけない「複合的な参入障壁」が形成されています。

5-2. 推論コストを下げて市場を広げる:プラットフォーム戦の延長

三層構造(ソフトウェア/ネットワーキング/サプライチェーン)に加えて、NVIDIAの戦い方は「推論の総コストを下げて、使う企業を増やす」方向にも伸びています。ポイントは、チップ性能だけの勝負ではなく、導入・運用まで含めて“使いやすい形”を揃えることで、顧客接点を増やすことです。

方向性は大きく2つです。

この戦略の狙いは、推論の「総コスト」を下げて利用企業を増やし、競合のASIC(Application-Specific Integrated Circuit:特定用途向けチップ)が「NVIDIAより安い」だけを武器に市場へ入り込むのを難しくすることにあります。

コストが下がって導入が進めば市場は大きくなり、NVIDIAはハードだけでなくソフトも含めて顧客接点を広げられます。言い換えると、ここでも「単なるチップ会社」ではなく、市場設計まで含めたプラットフォーム戦になっています。

5-3. 企業向けソフトウェア層への進出:AI Enterprise

NVIDIAの最近の戦略的注力点は、エンタープライズ(企業向け)ソフトウェア層です [1]。

NIM(NVIDIA Inference Microservices)は、推論を本番運用するための部品群(マイクロサービス)です [11]。AI Enterpriseは、こうした企業向けのソフトウェア群を包括的に提供するサブスクリプションサービスです [1]。

この戦略の意図は明確です。

第6章:競合他社はなぜNVIDIAを崩せないのか

6-1. AMDの挑戦:メモリ容量という一点突破

AMD(Advanced Micro Devices)は、NVIDIAに対する最も現実的な対抗馬です。同社のInstinct MI300X/MI325Xは、以下の点でNVIDIAに対抗しています [7]:

強み:

弱み:

AMDの「逆転のシナリオ」は、PyTorchが推進するTritonというオープンなコンパイラ言語の普及にかかっています [7]。Tritonが成熟すれば、開発者はCUDAを直接意識せずにコードを書け、AMDハードウェアの潜在性能が解放される可能性があります。

6-2. Googleの挑戦:垂直統合型ASICの成功と限界

GoogleのTPU(Tensor Processing Unit)は、AI学習におけるNVIDIAの最も強力な対抗馬です [8]。

強み:

弱み:

Googleの戦略は、自社の巨大な内部需要でTPUの開発コストを回収し、外部にはAnthropicのような提携先に限定的に提供するというものです。すべての市場を取りに行くのではなく、自社エコシステム内での最適化を追求しています。

6-3. Intelの挑戦:コストパフォーマンスと標準化

Intelは、Habana Labs(インテルが買収したAI半導体企業)のGaudi系アクセラレータを通じて、NVIDIAに挑む構図があります [9]。

強み:

弱み:

Intelの戦略は、NVIDIAの高価格・高性能路線に対して、「十分な性能を低価格で」提供するというポジショニングです。すべての顧客にとってNVIDIAがオーバースペックである場合、Intelは現実的な選択肢となり得ます。

6-4. スタートアップの挑戦:根本的なアーキテクチャ革新

Cerebrasのようなスタートアップは、NVIDIAのGPUを「同じ土俵で置き換える」よりも、チップの作り方そのものを変えて、別の強みを出すアプローチを取ります [10]。

Cerebras WSE(Wafer Scale Engine):

制約:

このためスタートアップ勢は、GPUの汎用市場を丸ごと取りに行くというより、特定の用途で「ここは強い」と言える領域を作る戦い方になりやすいです。

第7章:NVIDIAの覇権はいつ揺らぐのか — 構造的変化の予兆

7-1. 覇権が揺らぐ3つのシナリオ

NVIDIAは「学習(Training)」を中心に強い立場にあります。しかし今後、技術と市場の条件が変われば、競争環境が変化する可能性があります。本章では、その分岐点になり得るシナリオを3つに整理します(いずれも確定した未来ではなく、筆者の見立てです)。

シナリオ1:推論市場への主戦場転移(2026年〜)

AIの投資が「学習(モデルを作る)」から「推論(モデルを使う)」へ重心移動すると、評価軸が変わります。推論では、学習ほどの高い数値精度(例:FP32、BF16)や、巨大クラスタ全体を一体で動かすための仕組みが、ケースによっては“やり過ぎ”になり得ます。すると、用途を絞って推論を安く速く動かすことに重きを置いたチップへ、部分的に置き換わる可能性があります。

シナリオ2:ソフトウェア抽象化によるハードウェアのコモディティ化(2025年末〜)

もう1つの分岐点は、ソフトウェアの「抽象化」です。たとえばPyTorchやTritonのような仕組みが成熟し、開発者がCUDA(NVIDIAのGPU向け開発基盤)を強く意識しなくても性能を引き出せるようになると、「CUDAがあるからNVIDIAを選ぶ」という理由は弱まります。その結果、競争の中心が 電力効率・価格・供給力 といった“ハードの条件”に寄りやすくなる、という見立てがあります。

シナリオ3:分散学習とアルゴリズム効率化の一般化(2025年〜)

3つ目は、「同じ性能を、より少ない計算で出す」方向の効率化です。アルゴリズムや学習手法の工夫で必要な計算量が下がれば、巨大な計算資源を一箇所に集めて動かす前提(いわゆる“AIファクトリー”型の発想)は、投資として重く見える場面が出てきます。また、学習の分散が一般化すると、NVLinkやInfiniBandのような高速接続が“必須の差”として効きにくくなる可能性もあります。

7-2. タイムライン予測

これらの分析を時間軸に置くと、次のような見立てになります(前提条件が変われば、時期は前後します)。

ただし、これは技術的・経済的要因のみを考慮した予測であり、地政学的リスク(米中対立、台湾リスク)や予期せぬ技術革新により、タイムラインは大きく変動し得ることに留意が必要です。

結論:NVIDIAは「チップ」ではなく「AI計算の統合プラットフォーム」である

本稿では、NVIDIAがなぜAI学習市場で強い立場を築いたのかを、ハードだけではなく周辺の要素まで含めて整理しました。

結論として、NVIDIAの競争力はGPU単体ではなく、「学習を大規模に回し、運用までつなげる」ための部品を一式でそろえられることにあります。具体的には、次の層が組み合わさって参入障壁になっています。

この4つがそろうことで、競争の焦点は「チップの速さ」から「学習を回して、運用までつなぐ仕組み全体」へ移ります。

NVIDIAは「高性能な部品」を売るだけではなく、顧客の意思決定単位を“チップ”から“システム(導入・運用まで)”に引き上げているように見えます。比較対象が部品からシステムになるほど、見積り・調達・運用の都合が効きやすくなり、後からの乗り換えも難しくなります。

次回は、この構造が「推論フェーズへの移行」でどう変わるのか、そしてなぜ新たなプレイヤーが台頭する余地が生まれているのかを整理していきます。

参考文献

[1] NVIDIA AI Enterprise(企業向けAIソフトウェア) `https://www.nvidia.com/en-us/data-center/products/ai-enterprise/` https://www.nvidia.com/en-us/data-center/products/ai-enterprise/%60 [2] NVIDIA CUDA C++ Programming Guide(SIMT/スレッドモデル等) `https://docs.nvidia.com/cuda/cuda-c-programming-guide/` https://docs.nvidia.com/cuda/cuda-c-programming-guide/%60 [3] NVIDIA CUDA Toolkit Documentation(CUDA概要) `https://docs.nvidia.com/cuda/` https://docs.nvidia.com/cuda/%60 [4] NVIDIA completes acquisition of Mellanox `https://nvidianews.nvidia.com/news/nvidia-completes-acquisition-of-mellanox` https://nvidianews.nvidia.com/news/nvidia-completes-acquisition-of-mellanox%60 [5] NVIDIA NVLink(GPU間高速接続) `https://www.nvidia.com/en-us/data-center/nvlink/` https://www.nvidia.com/en-us/data-center/nvlink/%60 [6] WikiChip: TSMC CoWoS(先端パッケージング) `https://en.wikichip.org/wiki/tsmc/cowos` https://en.wikichip.org/wiki/tsmc/cowos%60 [7] AMD Instinct MI300X `https://www.amd.com/en/products/accelerators/instinct/mi300/mi300x.html` https://www.amd.com/en/products/accelerators/instinct/mi300/mi300x.html%60 [8] Google Cloud TPU documentation `https://cloud.google.com/tpu/docs` https://cloud.google.com/tpu/docs%60 [9] Wikipedia: Habana Labs(IntelのGaudi系アクセラレータの背景) `https://en.wikipedia.org/wiki/Habana_Labs` https://en.wikipedia.org/wiki/Habana_Labs%60 [10] Cerebras: Chip `https://www.cerebras.ai/chip` https://www.cerebras.ai/chip%60 [11] NVIDIA NIM(NVIDIA Inference Microservices) `https://developer.nvidia.com/nim` https://developer.nvidia.com/nim%60

次回:【AI半導体を理解する 第3回】AI産業の大転換点 — 学習から推論フェーズへ