NVIDIA 創辦人暨執行長黃仁勳於會主題演講時表示, 隨著運算需求急速攀升, 擴充CPU的作法已經不合時宜, 且打造高效能運算(HPC)和AI的伺服器複雜度不停攀升, 幾乎已到了系統設計的極限; 而NVIDIA HGX-2結合搭載Tensor Core 的GPU, 透過高效能運算與AI的整合, 可提供業界一個強大的多用途運算平台以克服上述挑戰.
據悉, HGX-2 雲端伺服器平台具備多重精準運算效能, 提供強大的彈性支援未來益加繁重的運算需求; 並針對科學與類比運算分別採用FP64與FP32的高精準度運算, 同時也能運用FP16與Int8格式進行AI訓練與推論, 以因應越來越多的高效能運算結合AI所衍生的應用需求.
此外, 該產品還能透過ResNet-50達成每秒15,500張的AI訓練速度, 效能足以取代高達300顆CPU所組成的伺服器; 其還具備NVIDIA NVSwitchTM網狀互連架構, 能順暢串連16顆內建Tensor Core的NVIDIA Tesla V100 GPU 運作起來等於是一顆巨大GPU, 而以HGX-2所打造的系統正是日前所推出的NVIDIA DGX-2.
黃仁勳指出, HGX-2隸屬NVIDIA GPU加速伺服器平台系列產品之一, 該系列產品串連整個數據中心伺服器體系, 適合每個大型市場, 能因應不同AI, 高效能運算及加速運算作業建議最適 GPU 與 CPU 配置組合. 像是HGX-T針對超大規模訓練及HPC; HGX-1針對大規模推論及智能影像分析功能(IVA); 以及SCX-E針對數據中心, HPC, IVA, 虛擬案頭基礎架構(VDI)等.