NVIDIA Gründer und CEO Jen-Hsun Huang in der Keynote werden, wobei die IT-Anforderungen schnell ansteigen, werden die Erweiterung der Praxis überholt CPU, und erstellen High-Performance Computing (HPC) Server und die Komplexität der KI ständig steigen, fast an dem System Auslegungsgrenzen und NVIDIA HGX-2-Bindungs GPU ausgestattet Tensor Core und durch die Integration von High-Performance Computing und AI können die Industrie eine leistungsstarke, Mehrzweckrechenplattform, diese Herausforderungen zu überwinden bieten.
Es wird berichtet, dass HGX-2 Cloud-Server-Plattform mit mehrere Präzision Rechenleistung und bietet eine starke Unterstützung für sie schwer elastischen Computerbedarf in der Zukunft wachsen, und für hochpräzise wissenschaftliches Rechnen und Simulation läuft jeweils FP64 und FP32, sondern auch die FP16 verwenden kann int8 Format AI Ausbildung und Inferenz, mit einer zunehmenden Anzahl von Hochleistungscomputeranwendungen in Verbindung mit AI abgeleitet fertig zu werden.
Darüber hinaus kann das Produkt gelangen durch RESNET-50 AI Trainingsgeschwindigkeit von 15.500 Bildern pro Sekunde, die ausreicht, um up Leistungsserver 300 ersetzt der CPU aus, weiter umfassend NVIDIA NVSwitchTM Netzverbindungsarchitektur kann glatt sein, Serie 16 Einbau-Tensor-Core von NVIDIA Tesla GPU V100 und läuft zu einem großen GPU gleichbedeutend, und das HGX-2-System ist die kürzlich von NVIDIA DGX-2 ins Leben gerufen zu bauen.
Huang wies darauf hin, dass, HGX-2 unter der NVIDIA GPU eine Server-Plattform-Produkte, die Serie Tandem-Center-Server-System, für jede der wichtigsten Märkte gesamten Daten zu beschleunigen, für verschiedene KI, High-Performance Computing gerecht zu werden und eine optimale GPU empfehlen Jobs beschleunigte Rechen CPU-Konfiguration in Kombination mit solchen HGX-T für ultra-groß angelegte Ausbildung und HPC ;. HGX-1 für eine groß angelegte Inferenz und intelligente Videoanalyse (IVA) und SCX-E für Datencenter, HPC, IVA, virtuellen Desktop-Infrastruktur ( VDI) usw.