黄 Renxun、創始者兼 CEO の NVIDIA は、基調講演では、コンピューティングの需要の急激な上昇と、CPU の拡張は時代遅れであり、高パフォーマンスコンピューティング (HPC) と AI サーバーの複雑さの作成は、ほとんどのシステム設計の限界に登っていると述べた。 Nvidia の HGX-2 は、テンソルコア GPU と組み合わせることで、高性能コンピューティングと AI の統合を通じて、これらの課題を克服するための強力な多目的コンピューティングプラットフォームを業界に提供しています。
これは、複数の高精度コンピューティング効率を持つ HGX-2 クラウドサーバプラットフォームは、将来と重い運用ニーズをサポートするために強力な柔軟性を提供することが報告されています。 科学とシミュレーションによると、FP64 と FP32 はそれぞれ使用され、ai のトレーニングと推論は、ai によって派生したアプリケーションの需要と組み合わせることで、より効率的な操作を行うために、FP16 と Int8 形式を使用して行うことができます。
また、製品はまた、ResNet-50 を介して1秒間の AI のトレーニングスピードを達成するために、パフォーマンスは、サーバーで構成される300の CPU を交換するのに十分です。 また、nvidia の Nvswitchtm ネットワーク相互接続アーキテクチャを持っています, nvidia のテスラ V100 gpu の操作の16内蔵テンソルコアの円滑な連結は、巨大な gpu に相当する, と HGX-2 内蔵システムは、nvidia の最近の打ち上げです DGX-2。
黄 Renxun は、HGX-2 は、NVIDIA の gpu アクセラレータサーバープラットフォームに従属することを指摘, シリーズ製品の一つ, 各大規模な市場に適した全体のデータセンターサーバーシステムのシリーズ, 別の AI に基づいてすることができます, 効率的な操作と加速度の操作は、最適 GPU と CPU 構成 ハイパーマストレーニングと HPC のための hgx-t のような; HGX-1 大規模な推論とインテリジェント画像解析 (IVA); scx は、データセンター、HPC、IVA、仮想デスクトップインフラストラクチャ (VDI) などに対応しています。