一言で言うと
AI需要の急増により、ハイパースケーラー(大規模クラウド事業者)のAIデータセンター設備投資において、メモリが占める割合が2023年の約8%から2026年には約30%へと急増する見込みです。これは、DRAM価格の高騰とHBMの供給不足が背景にあります。
何が起きているのか
アナリスト企業SemiAnalysisの予測によると、ハイパースケーラーのAIデータセンター向け設備投資(CapEx: Capital Expenditure)において、メモリが占める割合が大きく変化しています。2023年と2024年には約8%だったメモリの割合が、2026年には約30%に達し、2027年にはさらに上昇すると見られています。これはわずか4年間で約4倍の増加です。
この急増の主な要因は、DRAM(Dynamic Random Access Memory。一般的な主記憶向けメモリ)価格の急騰と、AIアクセラレータの中核となるHBM(High Bandwidth Memory。DRAMの一種で、GPUの近くに置く高速メモリ)の供給不足です。
なぜ高くなっているのかを分けてみると、まず需要側では、AIサーバー1台あたりに必要なメモリ量が急増しています。新しい世代のGPUほど、より大きく、より高速なHBMを多く積むため、同じ台数でも必要なメモリ量が一気に膨らみます。
一方の供給側では、HBMは通常のDRAMより作りにくいのが問題です。複数のメモリチップを縦に積み上げ、高速に接続する特殊な構造のため、使う製造能力が大きく、歩留まりも出にくく、先端パッケージング工程の制約も受けやすいとされます。
さらに主要メーカーは、限られた生産能力をHBMや高採算のエンタープライズ向けDRAMへ優先的に振り向けており、そのしわ寄せでDDR5やLPDDR5のような通常メモリまで需給が締まりやすくなっています。
SemiAnalysisは、DRAM価格が2026年に2倍以上になり、2027年も2桁の平均販売価格(ASP: Average Selling Price)上昇を予測しています。特にLPDDR5の契約価格は、2025年第1四半期からすでに3倍以上に高騰しています。
このメモリコストのインフレは、演算を担うグラフィックス処理装置(GPU: Graphics Processing Unit。もともとは映像向けの演算チップだが、現在はAIの学習・推論でも主役になる)を載せたAIサーバーの価格にも波及しています。例えば、NvidiaのB200サーバーは、年末までに最大20%値上がりすると予測されています。
興味深いのは、Nvidiaがサプライヤーから「VVP(Very Very Preferred)」と呼ばれる優遇価格でDRAMを調達している点です。これはハイパースケーラーや市場全体が支払う価格よりも大幅に低いとされており、Nvidia自身のサーバーコストへの影響を抑える一方で、市場全体の供給逼迫の深刻さを覆い隠している側面があると指摘されています。
一方、AMDはNvidiaのような優遇がなく、AIアクセラレータのメモリ搭載量も多いため、メモリコストのインフレに対して構造的に脆弱な立場にあります。Samsung、SK hynix、Micronといった主要メモリメーカーは、生産能力をHBMや高マージンのエンタープライズDRAMにシフトしており、従来のDDR5やLPDDR5の供給が逼迫しています。しかも、新しい生産ラインや先端パッケージング能力はすぐには増えず、本格的な供給拡大は2027年以降になる見込みです。
AI業界の文脈では
AIの進化は、高性能なGPUだけでなく、そのGPUを支える高速・大容量メモリの存在なしには語れません。特に大規模言語モデル(LLM: Large Language Model)の学習や推論には膨大なデータが必要であり、HBMのような特殊なメモリが不可欠です。
今回のレポートは、AIインフラ投資のボトルネックが、かつてのGPUそのものから、GPUに搭載されるメモリへとシフトしていることを明確に示しています。Nvidiaが優遇された価格でメモリを調達できるのは、その圧倒的な市場シェアと購買力によるものであり、これはAI半導体市場における同社の支配力をさらに強固にする要因となります。
一方で、AMDのような競合他社は、メモリ調達コストの面で不利な立場に置かれ、AIアクセラレータ市場での競争がさらに厳しくなる可能性があります。メモリメーカー各社がHBMへの投資を加速させているものの、需要の伸びに追いつくには時間がかかり、今後数年間はメモリ価格の高騰と供給不足が続くという見通しは、AIインフラを構築するすべての企業にとって重要な課題です。
私の見立て
AIデータセンターのコスト構造が激変し、メモリが設備投資の大部分を占めるようになることは、AIビジネスを展開するすべての企業にとって無視できない現実です。高性能なAIモデルを動かすためのインフラコストが上昇すれば、AIサービスの提供価格や、AIを活用した新規事業の採算性にも直接影響します。
この状況は、AIインフラの調達戦略において、単にGPUの性能だけでなく、メモリの調達安定性とコスト効率を最優先事項とすべきであることを示しています。特に、Nvidiaのような優遇を受けられない企業にとっては、長期的なメモリ供給契約の確保や、より効率的なメモリ利用技術の開発が喫緊の課題となるでしょう。
また、このコスト上昇は、AIモデルの効率化、つまりより少ないメモリで同等以上の性能を発揮する技術(例: 量子化、スパース化)への投資を加速させるインセンティブにもなります。ハードウェアコストの制約が、ソフトウェアとアルゴリズムの進化を促すという側面も持つと見るべきです。
→ 何が変わるか: AIデータセンターの構築コストはメモリ価格に大きく左右され、AIインフラの調達戦略においてメモリの安定供給とコスト効率が最重要課題となります。
→ 何をすべきか: AIインフラを構築・利用する企業は、メモリの調達戦略を再評価し、長期的な供給契約の検討や、AIモデルのメモリ効率化技術への投資を強化することで、将来的なコスト上昇リスクに備えるべきです。