NVIDIA Vera Rubin プラットフォーム

NVIDIA Vera Rubin プラットフォーム

次世代の AI を創り上げる。

概要

エージェント型 AI 時代を推進

NVIDIA Vera Rubin プラットフォームは、エージェント型 AI と推論の時代に向けて構築され、マルチステップの問題解決と大規模な長文脈ワークフローを習得するように設計されています。通信とメモリ移動における重大なボトルネックを解消することで、Vera Rubin プラットフォームは推論性能を飛躍的に向上させ、NVIDIA Blackwell 世代と比較してワットあたりのトークン数を増加させ、トークンあたりのコストを削減します。

NVIDIA が Rubin で次世代 AI を始動

この最先端のプラットフォームは、メインストリームでの導入を拡張し、推論およびエージェント型 AI モデルに適した 5 つの画期的な技術革新によりトークンあたりのコストを大幅に削減します。

NVIDIA Vera Rubin が次なる AI フロンティアを切り開く

NVIDIA Vera Rubin プラットフォームは、 AI の次のフロンティアを切り開きます。世界最大級の AI ファクトリーを拡張するべく、7 つの新しいチップが現在フル生産体制に入っています。

技術的なブレイクスルーの詳細を見る

Transformer Engine

Rubin GPU は、ハードウェア アクセラレーテッドの適応圧縮を備えた新しい Transformer Engine を搭載しています。精度を維持しながら NVFP4 パフォーマンスを向上させ、最大 50 petaFLOPS の NVFP4 推論を実現します。 Transformer Engine は、NVIDIA Blackwell と完全な互換性を持つため、シームレスなアップグレードを可能にします。そのため、これまでに最適化されたコードは、Vera Rubin プラットフォームに簡単に移行できます。

第 3 世代のコンフィデンシャル コンピューティング

第 3 世代の NVIDIA コンフィデンシャル コンピューティングは、NVIDIA Vera Rubin NVL72 によりセキュリティをフルラック スケールに拡張します。 このプラットフォームは、36 基の NVIDIA Vera CPU、72 基の NVIDIA Rubin GPU、そしてこれらをシームレスに接続する NVIDIA NVLink™ ファブリック全体にわたる統合された信頼できる実行環境を構築します。 このプラットフォームは、CPU、GPU、NVLink ドメイン全体のデータ セキュリティを維持します。 暗号化コンプライアンス証明のための認証サービスにより、大規模と完全な保護を両立させ、世界最大級の独自モデル、トレーニング データ、推論ワークロードを保護します。

第 6 世代 NVLink と NVLink スイッチ

第 6 世代 NVLink は、72 基の NVIDIA Rubin GPU を単一のパフォーマンス ドメインに統合する、NVIDIA の高速 GPU 相互接続ファブリックに大きな飛躍をもたらします。 NVIDIA Blackwell のパフォーマンスを倍増させた Rubin は、Rubin GPU あたり 3.6 テラバイト/秒 (TB/秒) の帯域幅と、低遅延で 260 TB/秒の接続を提供し、通信を高速化します。 NVIDIA® Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ と組み合わせることで、集合演算のネットワークの輻輳を最大 50% 削減するこの次世代の相互接続は、世界最大級のモデルのトレーニングと推論を大規模に性能を犠牲にすることなく高速化します。

第 2 世代の信頼性、可用性、保守性 (RAS) エンジン

NVIDIA Vera Rubin プラットフォームは、高度な信頼性機能によりラックスケールの耐障害性を実現します。 NVIDIA Rubin GPU は、専用の第 2 世代 RAS エンジンを搭載。ダウンタイムを発生させることなく、プロアクティブなメンテナンスとリアルタイムの正常性チェックを実現します。一方、NVIDIA Vera CPU は、Small Outline Compression Attached Memory Module (SOCAMM) LPDDR5X と、CPU コア向けのインシステムテストにより、保守性をさらに強化しています。 このラックはモジュール式のケーブル不要トレイ設計を採用し、NVIDIA Blackwell と比較して 18 倍高速な組み立てと保守性を実現します。また、インテリジェントな回復性とソフトウェア デファインドの NVLink ルーティングを組み合わせて、継続的な運用を確保し、保守コストを削減します。

NVIDIA Vera CPU

NVIDIA Vera CPU は、アクセラレーテッド システム全体でのデータ移動とエージェント型推論のために設計されており、コンフィデンシャル コンピューティングを完全にサポートします。 NVIDIA GPU とシームレスにペアリングできます。また、分析、クラウド、オーケストレーション、ストレージ、ハイパフォーマンス コンピューティング (HPC) ワークロード向けに独立して動作します。 Vera は、88 基の NVIDIA 設計のコア、最大 1.2 TB/秒の LPDDR5X メモリ帯域幅、NVIDIA Scalable Coherency Fabric を組み合わせて、データおよびメモリ集約型のワークロードに予測可能なエネルギー効率に優れたパフォーマンスを提供します。Arm® との完全な互換性を備えています。 内蔵された NVIDIA NVLink®-C2C 接続により、高帯域幅でコヒーレントな CPU–GPU メモリ アクセスが可能になり、システム利用率と効率性を最大化します。

NVIDIA Vera Rubin製品を詳しく見る

NVIDIA Vera Rubin NVL72

NVIDIA Vera Rubin NVL72 は、72 基の NVIDIA Rubin GPU、36 基の NVIDIA Vera CPU、NVIDIA ConnectX®-9 SuperNIC™ カード、NVIDIA BlueField®-4 DPU を統合します。データセンターでは NVIDIA LPX ラックと並んで配置され、高速で低遅延な推論を実現します。これは、第 6 世代 NVLink と NVLink スイッチを採用したラックスケール プラットフォームでインテリジェンスを拡張し、NVIDIA Quantum-X800 InfiniBand と NVIDIA Spectrum-X™ イーサネットによるスケールアウトを実現し、大規模な AI 産業革命を推進します。

NVIDIA Groq 3 LPX

NVIDIA Groq 3 LPX は、エージェント型 AI に求められる大規模なコンテキストと低遅延に対応するために設計された AI 推論アクセラレーターです。 徹底した共同設計により、LPX は NVIDIA Rubin GPU と連携することで、速度と拡張性の間のトレードオフを解消します。 128 GB SRAM、40 PB/s のメモリ帯域幅、ラックあたり 640 TB/s のスケールアップ帯域幅を備えた Groq 3 LPX は、Vera Rubin プラットフォームでの推論を大幅に強化します。

NVIDIA DGX Vera Rubin NVL72

NVIDIA DGX Vera Rubin NVL72 は、NVIDIA Vera Rubin プラットフォームを基盤とするすぐに導入可能な AI インフラ ソリューションを企業に提供します。このソリューションは、非常に複雑な AI モデルを高速化するために大規模にデプロイできるように構築されています。

NVIDIA HGX Rubin NVL8

NVIDIA HGX™ Rubin NVL8 は、8 基の NVIDIA Rubin GPU と第 6 世代の高速 NVLink 相互接続を統合し、データセンターを高速コンピューティングと生成 AI の新時代へと導きます。

NVIDIA DGX Rubin NVL8

NVIDIA DGX Rubin NVL8 は、8 基の NVIDIA Rubin GPU と 第 6 世代 NVLink を搭載した水冷 AI システムであり、あらゆる AI ワークロードのトレーニング、推論、事後トレーニングを高速化するために構築されました。

NVIDIA Vera Rubin プラットフォームの内部

この詳細な技術的解説を読んで、NVIDIA Vera Rubin がチップではなくデータセンターをコンピューティングの単位として扱い、大規模な環境において効率的、安全、予測可能な形でインテリジェンスを生成する新たな基盤を確立する仕組みをご覧ください。