•Vera Rubin NVL72 GPU ラック•Vera CPU ラック•NVIDIA Groq 3 LPX 推論アクセラレーター ラック•NVIDIA BlueField-4 STX ストレージ ラック•NVIDIA Spectrum-6 SPX イーサネット ラック

NVIDIA Groq 3 LPX 推論アクセラレーター ラック

カリフォルニア州サンノゼ - GTC - 2026 年 3 月 16 日 -NVIDIA は本日、NVIDIA Vera Rubin プラットフォームが次世代のエージェント型 AI を切り拓き、世界最大規模の AI ファクトリーを拡張するための 7 つの新しいチップが量産されていることを発表しました。

このプラットフォームには、NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink(TM) 6 Switch、NVIDIA ConnectX(R)-9 SuperNIC、NVIDIA BlueField(R)-4 DPU、NVIDIA Spectrum(TM)-6 Ethernet スイッチに加えて、新たに NVIDIA Groq 3 LPU が統合されています。これらのチップは、1 つの驚異的な AI スーパーコンピューターとして連携するように設計されており、大規模な事前トレーニング、ポスト トレーニング、テストタイム スケーリングからリアルタイムのエージェント型推論まで、AI のあらゆるフェーズを支えます。

NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「Vera Rubin は、世代を超えた飛躍です。画期的な 7 つのチップ、5 つのラック、1 つの巨大なスーパーコンピューターが、AI のあらゆる段階を支えるために構築されています。Vera Rubin がけん引する史上最大のインフラ構築を開始したことで、エージェント型 AI の転換期が到来しました」

Anthropic の CEO である Dario Amodei 氏は次のように述べています。「企業や開発者は、ますます複雑なリーズニング、エージェント型のワークフロー、そしてミッションクリティカルな意思決定に Claude を利用しています。それには、その進化のスピードに追従できるインフラが必要です。NVIDIA Vera Rubin プラットフォームは、お客様が信頼を寄せる安全性と信頼性を高めながら、提供し続けるためのコンピューティング、ネットワーキング、システム設計を私たちに与えてくれます」

OpenAI の CEO である Sam Altman 氏は次のように述べています。「NVIDIA インフラは、AI の最先端を継続的に推進するための基盤です。NVIDIA Vera Rubin により、より強力なモデルとエージェントを大規模に実行し、数億人のユーザーのために高速で信頼性の高いシステムを提供できるようになります」

AI インフラは、ディスクリート チップやスタンドアロン サーバーから、完全に統合されたラックスケール システム、POD スケールでの展開、AI ファクトリーやソブリン AI まで、急速に進化しています。これらの進歩は、スタートアップや中小企業、官民機関や企業まで、あらゆる規模の組織や業界でパフォーマンスの劇的な向上をもたらし、コスト効率を向上しています。同時に、AI へのアクセスの普及とエネルギー効率の向上により、世界で最も要求の厳しいワークロードに対応します。

80 社以上の MGX エコシステム パートナーとグローバルのサプライチェーンに支えられ、コンピューティング、ネットワーキング、ストレージにわたる深い協調設計を通じて、NVIDIA Vera Rubin は最も広範な NVIDIA POD スケール プラットフォームを提供します。これは、AI 専用に構築された複数のラックが、1 つの巨大で一貫したシステムとして機能するスーパーコンピューターです。

NVLink 6 で接続された 72 基の Rubin GPU と 36 基の Vera CPU、さらに ConnectX-9 SuperNIC と BlueField-4 DPU を統合した Vera Rubin NVL72 は、画期的な効率性を実現します。NVIDIA Blackwell プラットフォームと比較して 4 分の 1 の GPU 数で大規模なエキスパート混合モデルをトレーニングし、トークンあたりのコストを 10 分の 1 に削減し、ワットあたり最大 10 倍高い推論スループットを達成します。

世界中のハイパースケール AI ファクトリー向けに設計された NVL72 は、NVIDIA Quantum-X800 InfiniBand および Spectrum-X Ethernet でシームレスに拡張でき、大規模な GPU クラスター全体で高い稼動率を維持しながら、トレーニング時間と総所有コストを削減します。

強化学習とエージェント型 AI ワークロードは、GPU システムで実行されるモデルによって生成された結果をテストして検証するために、多数の CPU ベース環境に依存しています。

NVIDIA Vera CPU ラックは、NVIDIA MGX 上に構築された高密度の液冷インフラを提供します。これは、最大 256 基の Vera CPU を統合し、世界クラスのシングルスレッド パフォーマンスを備えた拡張性とエネルギー効率に優れた処理能力を提供することで、大規模なエージェント型 AIを実現します。

Spectrum-X Ethernet ネットワーキングと統合された Vera CPU ラックは、AI ファクトリー全体で CPU 環境を緊密に同期します。 GPU コンピューティング ラックと組み合わせることで、大規模なエージェント型 AI と強化学習向けの CPU 基盤を提供し、Vera は従来の CPU よりも 2 倍の効率と 50% の高速化を実現します。

NVIDIA Groq 3 LPX は、アクセラレーテッド コンピューティングにおけるマイルストーンです。エージェント型システムの低レイテンシかつ大規模コンテキストの要求に合わせて設計された LPX と Vera Rubin は、両プロセッサの究極のパフォーマンスを統合し、1 兆パラメータ モデルにおいてメガワットあたりの推論スループットを最大 35 倍向上させ、収益機会を最大 10 倍に拡大します。

大規模な展開において、LPU フリートは高速で決定論的な推論を実現する単一の巨大なプロセッサとして機能します。256 基の LPU プロセッサを搭載した LPX ラックは、128GB のオンチップ SRAM と 640TB/s のスケールアップ帯域幅を備えています。Vera Rubin NVL72 と共に展開することで、Rubin GPU と LPU は AI モデルのすべての層を共同で計算し、出力トークンごとのデコードを加速します。

1 兆パラメータのモデルと100 万トークンのコンテキストに最適化され、Vera Rubinとペアになって共同設計された LPXアーキテクチャ は、電力、メモリ、コンピューティング全体の効率を最大化します。ワットあたりのスループットとトークン パフォーマンスの向上により、超プレミアムな 1 兆パラメータ、100 万コンテキストの推論という新たな階層が開放され、すべての AI プロバイダーの収益機会を拡大します。完全に液冷式され MGX インフラス上に構築された LPX は、次世代の Vera Rubin AI ファクトリーにシームレスに統合され、今年後半に提供開始予定です。

NVIDIA BlueField-4 STXラックスケール システムは、POD 全体で GPU メモリをシームレスに拡張する AI ネイティブなストレージ インフラです。BlueField-4 を搭載し、NVIDIA Vera CPU と NVIDIA ConnectX-9 SuperNIC と組み合わせた CMX は、LLM およびエージェント型 AI ワークフローによって生成される大規模な Key-Value (KV) キャッシュ データの保存と取得に最適化された、高帯域幅の共有レイヤーを提供します。

BlueField-4 ストレージ ラックをスーパーチャージする新しい DOCA フレームワークである NVIDIA DOCA Memos(TM) は、専用の KV キャッシュ ストレージ処理を可能にし、一般的なストレージ アーキテクチャと比較して、推論スループットを最大 5 倍向上させるとともに、電力効率を大幅に改善します。その結果、POD 全体のコンテキストが可能になり、AI エージェントとの高速なマルチターン インタラクション、より拡張性のある AI サービス、全体的なインフラ稼動率の向上を実現します。

Mistral AI の共同創業者/ CTO である Timothee Lacroix 氏は次のように述べています。「NVIDIA BlueField-4 STX ラックスケール コンテキスト メモリ ストレージ システムは、Mistral AI のエージェント型 AI の取り組みを指数関数的に拡大していく上で不可欠な性能向上を実現してくれます。AI エージェントのメモリに特化して設計された新たなストレージ階層を提供することで、STX は、膨大なデータセットを対象に推論を行う際にも、Mistral AI のモデルが一貫性と高速性を維持できるようにする、理想的なソリューションとなります」

Spectrum-6 SPX Ethernet は、AI ファクトリー全体の東西トラフィックを高速化するように設計されています。Spectrum-X Ethernet または NVIDIA Quantum-X800 InfiniBand スイッチで構成可能で、低レイテンシで高スループットのラック間接続を大規模に実現します。

コパッケージド オプティクスを搭載する Spectrum-X Ethernet Photonics は、従来のプラガブル トランシーバーと比較して、最大 5 倍の光電力効率と 10 倍のレジリエンスを実現します。

NVIDIA は、200 社以上のデータセンター インフラ パートナーと共に、Vera Rubin プラットフォーム向けの DSX を発表しました。新しい DSX プラットフォームには、AI ファクトリー全体の動的な電力プロビジョニングを可能にする DSX Max-Q が含まれており、これにより、一定の電力供給制限があるデータセンター内でも、AI インフラの展開を 30% 増加させることができます。新しい DSX Flex ソフトウェアは、AI ファクトリーをグリッドに柔軟な資産へと変え、未活用となっていた 100 ギガワットのグリッド電力を開放します。

また、NVIDIA は本日、ワットあたりのトークン数と全体的なグッドプットを最大化し、システムのレジリエンスを高め、初回の本番環境までの時間を短縮するための協調設計 AI インフラのブループリントであるVera Rubin DSX AI Factory リファレンス デザインを公開しました。

このアーキテクチャは、コンピューティング、ネットワーキング、ストレージ、電力、冷却を緊密に統合することで、エネルギー効率を向上させ、AI ファクトリーが継続的な高負荷ワークロードの下で稼働時間を最大化しながら確実に拡張できるようにします。

Vera Rubin ベースの製品は、今年後半にパートナーから提供開始予定です。これには、主要なクラウド プロバイダーである Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure のほか、NVIDIA Cloud Partner である、CoreWeave、Crusoe、 Lambda、Nebius、Nscaleおよび Together AI が含まれます。

グローバル システム メーカーの Cisco、Dell Technologies、HPE、Lenovo、Supermicro およびAivres、ASUS、Foxconn、GIGABYTE、Inventec、Pegatron、Quanta Cloud Technology (QCT)、Wistron、Wiwynnからも、Vera Rubin 製品をベースにした幅広いサーバーが提供される見込みです。

Anthropic、Meta、Mistral AI や OpenAI などの AI ラボと最先端のモデル開発者は、NVIDIA Vera Rubin プラットフォームを活用して、より大規模でより高性能なモデルをトレーニングし、従来の GPU 世代よりも低レイテンシと低コストで長文コンテキストのマルチモーダル システムを提供することを目指しています。

NVIDIA(NASDAQ: NVDA) はAIとアクセラレーテッド コンピューティングの世界的なリーダーです。