一言で言うと
Nvidiaは競合でもあるMarvell Technologyに20億ドルを出資し、`NVLink Fusion`(Nvidiaの高速チップ接続技術を、自社製GPUだけでなく外部のカスタムチップにも広げる仕組み)を軸とした戦略的協業を発表しました。狙いは、クラウド事業者や大手顧客が独自AIチップを使いながらもNvidiaの接続インフラ上で動ける体制を作ることで、Nvidiaはチップ単体の競争からAIデータセンターの「標準接続基盤」としての地位確保へと戦略を転換しています。
何が起きているのか
Nvidiaは2026年3月末、半導体メーカーのMarvell Technologyに20億ドルを出資し、NVLink Fusionを中心とした戦略的パートナーシップを締結したと発表しました。NVLink Fusionは、Nvidiaが自社チップ向けに育ててきた高速接続技術を、外部のカスタムチップも含めたAIデータセンター全体の接続基盤へ広げようとする仕組みです。
今回の提携が示す戦略上の転換点は次の点にあります。
従来Nvidiaは、GPU・接続技術・ソフトウェア(CUDA)を自社で完結させる「垂直統合モデル」で成長してきました。しかし今回は、ある意味で競合でもあるMarvellに大型出資することで、`NVLink Fusion`を「外部のカスタムチップとも接続できるオープンな標準技術」として位置づける方向に転換しています。
背景として重要なのは、クラウド事業者の動きです。AWS(Trainium)、Google(TPU)、Microsoft(Maia)など大手クラウド各社は、Nvidia依存を下げるために独自AIチップの開発・採用を本格化しています。NVLink Fusionにより、それらの独自チップを使いながらもNvidiaの接続基盤に乗れる仕組みを提供することで、Nvidiaは「GPU単体の売上」に依存しない、より上位のインフラポジションを狙っています。
AI業界の文脈では
AIデータセンター市場では、2025年ごろからクラウド事業者各社が独自AIチップの開発・採用を本格化させており、Nvidiaの市場支配に対する代替が徐々に進んでいました。この動きへの対応として、Nvidiaは`NVLink`や`CUDA`を競合にも開放することで、チップ競争に巻き込まれずに済む戦略を選んだと解釈できます。
つまりNvidiaは、GPUそのものの性能で勝つだけでなく、AIデータセンター全体の接続ルールを握る側に回ろうとしている、ということです。
私の見立て
Nvidiaの今回の動きは、GPU単体の競争から「AIインフラのOSをどこが握るか」という次の競争への早期移行を示しています。NVLink FusionがAIデータセンターの標準接続規格として定着すれば、Nvidiaはチップそのものよりはるかに強固な競争優位を持つことになります。
医療AIの文脈では、こうしたインフラ投資の動向は直ちには実感しにくいですが、長期的な影響があります。AIモデルの推論コストは計算インフラの効率に依存しており、インフラの標準化が進むほど、医療AIの運用コストが下がる方向に動く可能性があります。
→ 何が変わるか: AIデータセンターの競争軸が「最速のGPUを持つか」から「誰の接続インフラが標準になるか」へ移ります。クラウド事業者の独自チップ化が進む中で、NVLink Fusionが事実上の標準として定着するかは今後数年の注目点です。
→ 何をすべきか: AIシステムの選定・更新を担う立場では、「提供元がどのインフラに依存しているか」という視点が中長期のコスト予測に役立ちます。短期的な行動変化は必要ありませんが、インフラ競争の動向をウォッチリストに入れておくことが将来の意思決定に貢献します。