NVIDIA 创办人暨执行长黄仁勋于会主题演讲时表示, 随着运算需求急速攀升, 扩充CPU的作法已经不合时宜, 且打造高效能运算(HPC)和AI的服务器复杂度不停攀升, 几乎已到了系统设计的极限; 而NVIDIA HGX-2结合搭载Tensor Core 的GPU, 透过高效能运算与AI的整合, 可提供业界一个强大的多用途运算平台以克服上述挑战.
据悉, HGX-2 云端服务器平台具备多重精准运算效能, 提供强大的弹性支持未来益加繁重的运算需求; 并针对科学与模拟运算分别采用FP64与FP32的高精准度运算, 同时也能运用FP16与Int8格式进行AI训练与推论, 以因应越来越多的高效能运算结合AI所衍生的应用需求.
此外, 该产品还能透过ResNet-50达成每秒15,500张的AI训练速度, 效能足以取代高达300颗CPU所组成的服务器; 其还具备NVIDIA NVSwitchTM网状互连架构, 能顺畅串连16颗内建Tensor Core的NVIDIA Tesla V100 GPU 运作起来等于是一颗巨大GPU, 而以HGX-2所打造的系统正是日前所推出的NVIDIA DGX-2.
黄仁勋指出, HGX-2隶属NVIDIA GPU加速服务器平台系列产品之一, 该系列产品串连整个数据中心服务器体系, 适合每个大型市场, 能因应不同AI, 高效能运算及加速运算作业建议最适 GPU 与 CPU 配置组合. 像是HGX-T针对超大规模训练及HPC; HGX-1针对大规模推论及智能影像分析功能(IVA); 以及SCX-E针对数据中心, HPC, IVA, 虚拟桌面基础架构(VDI)等.