【2026新発表】NVIDIAの発表した次世代AIインフラ|NVIDIA「Vera CPU」および「BlueField-4 STX」を解説

2026年3月、NVIDIAは次世代のAI基盤となる「Vera Rubin」プラットフォーム、およびそれに付随する「Vera CPU」「BlueField-4 STX」ストレージアーキテクチャを発表した。

これらの新技術がどのようにAIインフラの課題を解決し、エージェンティックAI(Agentic AI)の実用化を推進するのかを解説しよう。

エージェンティックAIに向けた「Vera Rubin」プラットフォームとは

左から順に、Vera CPU Rack、Groq 3 LPX Rack、BlueField-4 STX

NVIDIAが発表したVera Rubinプラットフォームは、AIファクトリーの拡張を目的とした次世代システムだ。単一のチップ性能向上にとどまらず、Vera CPURubin GPUNVLink 6ConnectX-9BlueField-4 DPUSpectrum-6、そして新たに統合されたGroq 3 LPUという7つの新型チップを組み合わせ、ラック単位での巨大なAIスーパーコンピューターとして機能する。

特に「Vera Rubin NVL72」ラックは、72基のRubin GPUと36基のVera CPUを統合し、推論スループットを従来の10倍に引き上げる一方で、トークンあたりのコストを10分の1に抑える効率性を実現している。

自律型AIに特化した「Vera CPU」

エージェンティックAIや強化学習では、AIモデルの推論結果を検証するための膨大なCPU環境が必要となる。この課題に対応するため、NVIDIAはエージェンティックAIに特化した世界初のプロセッサ「Vera CPU」を開発した。

・性能と電力効率:従来のラック規模CPUと比較して、2倍の電力効率と50%の高速化を達成。

・アーキテクチャ:NVIDIA独自の「Olympus」コアを88基搭載し、空間マルチスレッディングによって一貫したパフォーマンスを提供する。

・メモリ帯域:LPDDR5Xメモリの採用により、従来の汎用CPUの半分の電力で2倍となる1.2TB/sの帯域幅を実現している。

AIの推論を支える記憶基盤「BlueField-4 STX」

AIが複雑な推論を複数のステップにわたって実行するためには、高速かつ大容量のコンテキストメモリ(作業記憶)が不可欠である。従来の汎用ストレージではデータパスの遅延がGPUの稼働率低下を招いていたが、「BlueField-4 STX」ストレージアーキテクチャがこれを根本から解消する。

・高速化と効率化:従来のストレージと比較して5倍のトークンスループット、4倍のエネルギー効率、2倍のデータ取り込み速度を誇る。

・コンテキストメモリストレージ「CMX」:GPUのメモリをシステム全体へシームレスに拡張し、大規模な言語モデルやエージェンティックAIの推論を高速化する。

まさにAI特化ストレージ。

まとめ

NVIDIAのVera Rubinプラットフォーム、Vera CPU、およびBlueField-4 STXは、AIが単なる応答システムから自律的な行動主体(エージェント)へと進化する過程で生じる計算・通信・記憶のボトルネックを解消するための包括的なソリューション。Nvidiaだからこそ出せる提案だろう。

クラウド事業者やハードウェアベンダーによる広範な採用も発表されており、次世代のデータセンターの標準的なインフラとして急速に普及していきそうだ。

カテゴリ: AI・人工知能
この記事を書いた人
Seita Namba
イグナイトbiz 編集長