一言で言うと
AIチップ開発スタートアップのCerebras Systemsが新規株式公開(IPO: Initial Public Offering)を申請しました。2024年の上場延期を経て再挑戦している点と、AWSやOpenAIとの大型案件を抱えた状態で市場に出ようとしている点がポイントです。
何が起きているのか
AIチップ開発スタートアップのCerebras Systemsが新規株式公開(IPO: Initial Public Offering)を申請しました。同社は、AIの学習(トレーニング)と推論(インファレンス)向けの高速ハードウェアを開発している企業です。
Cerebrasは2024年にもIPOを申請しましたが、アブダビを拠点とするテクノロジー投資会社G42からの出資をめぐって、米連邦政府の審査が入り、延期の末に取り下げていました。しかし、昨年にはシリーズGで11億ドル、今年2月にはシリーズHで10億ドルを調達し、その際の企業評価額は230億ドルに達したとThe Wall Street Journalが報じています。
最近では、Amazon Web Services(AWS: アマゾン ウェブ サービス)のデータセンターでCerebrasのチップを使用する契約や、OpenAIとの間で100億ドル以上の契約が報じられています。Feldman CEOは、NVIDIAがOpenAIでの高速推論ビジネスを失いたくなかったが、それを奪ったと述べています。
2025年の売上高は5億1000万ドル、純利益は2億3780万ドルでした。一方で、一時的な項目を除いて本業の収益力を見やすくした非GAAPベースでは7570万ドルの純損失となっています。IPOでどれだけの資金調達を目指すかは明らかにされていませんが、5月中旬に実施される予定です。
AI業界の文脈では
AIチップ市場は、現在NVIDIAが圧倒的なシェアを握っています。しかし、Cerebrasのような新興企業が独自のアーキテクチャで高性能チップを開発し、市場に食い込もうとしています。Cerebrasが開発するWafer-Scale Engine(ウェハー・スケール・エンジン)は、通常なら複数の小さなチップに分ける処理を、一枚の非常に大きなチップにまとめて動かそうとする発想です。
そもそも一般的なAI計算で、複数の小さなチップをつないで大きな処理を回す方式が主流だったのは、そのほうが作りやすく、歩留まりやコスト、拡張性の面で現実的だったからです。必要なら同じチップを追加して性能を伸ばせるため、データセンター運用とも相性が良い方式でした。
これに対してCerebrasは、できるだけ一枚の巨大なチップの中で計算を完結させようとしています。狙いは、チップ同士のデータ受け渡しを減らすことです。つまり、従来の主流が `つないで拡張する` 方向だったのに対し、Cerebrasは `できるだけ一枚にまとめる` 方向から勝負しているわけです。
AWSやOpenAIといった大手企業との大型契約は、NVIDIA一強の状況に変化をもたらす可能性を示唆しており、AIインフラの多様化が進む兆候と見ることができます。AIモデルの規模が拡大し続ける中で、学習と推論の両方で高い性能を持つチップへの需要は非常に高く、競争はさらに激化するでしょう。
私の見立て
AIの進化を支えるハードウェア競争は、NVIDIA一強の時代から、多様な技術とプレイヤーがしのぎを削る多極化時代へと移行しつつあります。
Cerebrasのような挑戦者が大手クラウドプロバイダーや主要AI開発企業との大型契約を獲得している事実は、AIインフラの選択肢が広がり、特定のベンダーへの依存リスクを分散させたいという市場の強いニーズを反映しています。重要なのは、単に `NVIDIAの安い代替` ではなく、違う設計思想で勝とうとしている点です。
企業は、AIインフラを構築する際に、単に高性能なだけでなく、特定のワークロードに最適化された多様なAIチップの選択肢を検討し、コスト効率と柔軟性を最大化する戦略を立てるべきです。
→ 何が変わるか: NVIDIA一択に見えていたAIチップ市場で、大型案件によっては別の選択肢も試され始める可能性が出てきます。
→ 何をすべきか: AIインフラを使う企業は、いまの主要ベンダーへの依存度を把握したうえで、Cerebrasのような代替候補が実運用で広がるかを見極めるべきです。