2026年3月、NVIDIAは次世代のAI基盤となる「Vera Rubin」プラットフォーム、およびそれに付随する「Vera CPU」「BlueField-4 STX」ストレージアーキテクチャを発表した。
これらの新技術がどのようにAIインフラの課題を解決し、エージェンティックAI(Agentic AI)の実用化を推進するのかを解説しよう。
エージェンティックAIに向けた「Vera Rubin」プラットフォームとは

NVIDIAが発表したVera Rubinプラットフォームは、AIファクトリーの拡張を目的とした次世代システムだ。単一のチップ性能向上にとどまらず、Vera CPU、Rubin GPU、NVLink 6、ConnectX-9、BlueField-4 DPU、Spectrum-6、そして新たに統合されたGroq 3 LPUという7つの新型チップを組み合わせ、ラック単位での巨大なAIスーパーコンピューターとして機能する。
特に「Vera Rubin NVL72」ラックは、72基のRubin GPUと36基のVera CPUを統合し、推論スループットを従来の10倍に引き上げる一方で、トークンあたりのコストを10分の1に抑える効率性を実現している。
自律型AIに特化した「Vera CPU」
エージェンティックAIや強化学習では、AIモデルの推論結果を検証するための膨大なCPU環境が必要となる。この課題に対応するため、NVIDIAはエージェンティックAIに特化した世界初のプロセッサ「Vera CPU」を開発した。
・性能と電力効率:従来のラック規模CPUと比較して、2倍の電力効率と50%の高速化を達成。
・アーキテクチャ:NVIDIA独自の「Olympus」コアを88基搭載し、空間マルチスレッディングによって一貫したパフォーマンスを提供する。
・メモリ帯域:LPDDR5Xメモリの採用により、従来の汎用CPUの半分の電力で2倍となる1.2TB/sの帯域幅を実現している。
AIの推論を支える記憶基盤「BlueField-4 STX」
AIが複雑な推論を複数のステップにわたって実行するためには、高速かつ大容量のコンテキストメモリ(作業記憶)が不可欠である。従来の汎用ストレージではデータパスの遅延がGPUの稼働率低下を招いていたが、「BlueField-4 STX」ストレージアーキテクチャがこれを根本から解消する。
・高速化と効率化:従来のストレージと比較して5倍のトークンスループット、4倍のエネルギー効率、2倍のデータ取り込み速度を誇る。
・コンテキストメモリストレージ「CMX」:GPUのメモリをシステム全体へシームレスに拡張し、大規模な言語モデルやエージェンティックAIの推論を高速化する。
まさにAI特化ストレージ。
まとめ
NVIDIAのVera Rubinプラットフォーム、Vera CPU、およびBlueField-4 STXは、AIが単なる応答システムから自律的な行動主体(エージェント)へと進化する過程で生じる計算・通信・記憶のボトルネックを解消するための包括的なソリューション。Nvidiaだからこそ出せる提案だろう。
クラウド事業者やハードウェアベンダーによる広範な採用も発表されており、次世代のデータセンターの標準的なインフラとして急速に普及していきそうだ。

