Wie man eine Lösung für dieses unmögliche Problem finden kann, gab Nvidias CEO Jensen Huang (Huang Renxun) seine Antwort auf der GTC Taiwan 2018 Konferenz am 30. Mai.
NVIDIA-Plattform Yewang
Überprüfen Sie NVIDIA-Entwicklungsprozess, von der einfachen GPU zu starten, zu helfen und ausländischen Herstellern GPU, zu bauen und dann die Verbraucher-Entertainment-Erlebnis für Computerspiele zu verbessern, obwohl einmal im Smartphone-Markt verloren, aber in den letzten Jahren begann die KI Feld aktiv Layout, sondern auch Begann mit dem Rechenzentrum die Entwicklung des Automobilbereichs.
Aus Sicht der Geschäftsarchitektur investierte NVIDIA zunächst 90% seiner F & E-Ausgaben in die GPU-Architektur und die CUDA-Softwareplattform und wandte dieses Modell dann auf verschiedene Plattformen an: Spiele, Datenzentren, künstliche Intelligenz und autonomes Fahren.
NVIDIA war schon immer führend auf dem GPU-Markt und die Gaming-Industrie stellt die größte Quelle von GPU-Nutzern dar. Das Rechenzentrum ist der am schnellsten wachsende Geschäftsmarkt.
In den vergangenen drei Jahren lag die durchschnittliche jährliche Wachstumsrate dieses Geschäftsteils bei 85% und die Wachstumsrate im Geschäftsjahr 2018 bei 133%, wobei dieses Wachstum von verschiedenen vertikalen Feldern wie HPC (High Performance Computer Group), Cloud-Computing-Unternehmen und KI-Forschern ausging.
In der KI-Technologie hat NVIDIA bereits andere Konkurrenten übertroffen: Im Juni 2017 hat Nvidia die nächste Generation der Volta-GPU mit Tensor-Kernen auf den Markt gebracht, Volta ist fünf Mal schneller als sein Vorgänger Pascal und wurde von allen Mainstream-Clouds übernommen. Server-Computing-Anbieter und Hersteller.
Die HGX-2, NVIDIA offiziell in künstliche Intelligenz integriert und eine High-Performance-Computing-Plattform von NVIDIA veröffentlicht.
Es ist HGX-2 als Cloud-Server-Plattform zu verstehen, mit Funktionen Multi-precision computing hochpräzisen FP64 und FP32 computing für wissenschaftliches Rechnen und Simulation, und unterstützt auch FP16 und INT8 Präzision AI Ausbildung und Argumentieren benutzt zu unterstützen. HGX-2 Umsetzung von AI Training Geschwindigkeit, RESNET-50-Benchmark erreicht 15.500 Bildern pro Sekunde, um das Äquivalent von nur 300 Einheiten CPU-Server installiert.
GPU-Computing-Ära angekommen
In dem GTC Taiwan, sagte der Huang auch, dass die nächsten 10 Jahre, für jedes Jahr der Umfang der Operationen wird die Nachfrage der 100-fache wachsen, während Moores Gesetz in der aktuellen Situation erwartet wird, wird allmählich verblassen, GPU-Berechnung weltweit Top-50 Supercomputer der Zukunft sein werden In fünf Jahren wird es 15-mal wachsen, gleichzeitig wird GPU-beschleunigtes Computing zur Hauptform des Mooreschen Gesetzes.
Zur Zeit der Super-Computer ein wichtiges Instrument für die Entwicklung der modernen Wissenschaft worden waren eine wichtige Rolle bei der Entwicklung von molekularem Aufbau, Quantenchemie, Quantenmechanik, wetter, meteorologischer Forschung, Energieforschung, physikalischer Simulation, Datenanalyse und künstlicher Intelligenz-Technologie zu spielen, und bietet Einhundert Milliarden oder Milliarden Betriebsleistung.
Und OpenAI Statistiken zeigen, dass in den nächsten fünf Jahren künstliche Intelligenz-Computing-Modell 30-mal wachsen, im Vergleich zu Moores Gesetz wird erwartet, dass 3-mal schneller wachsen. Durch die GPU-Beschleunigung Fähigkeiten, werden die Daten ermöglichen, erheblich die Komplexität des Berechnungsprogramms erhöht wird, indem Dies löst die Rechenanforderungen, die Menschen in der Vergangenheit nicht lösen konnten.
Jen-Hsun Huang betonte erneut, dass die Schaffung der Vergangenheit NVIDIA CUDA Computing-Modell angetrieben Vorteile zu beschleunigen, sowie die Zukunft mittels GPU erklären beschleunigte Rechenmodell wird weiter expandieren, erwartet im Jahr 2028 die weltweite Nachfrage wird auf 10 Millionen Operationen Gruppe Volta GPU-Architektur angetrieben Leistung entsprechen. in Bezug auf der Tradition durch einen Stapel von mehreren Sätzen von CPU-Supercomputer Ebene Rechenleistung, wird es den großen Raum und die hohen Kosten für Strom besetzen, wenn die GPU, sie zu ersetzen, können Sie mehr Platz und Stromverbrauch und bieten gleichzeitig höheren Beschleunigungseffekt sparen .
Darüber hinaus sagte Huang NVIDIA offiziell zu der führenden ODM Partnerschaftsprogramme der Welt ins Leben gerufen, Hon Hai Precision, Inventec, Quanta Computer und Wistron globales Design und Produktion dieser Hersteller werden die Partner in Reaktion auf die unterschiedlichen Bedürfnisse der AI Cloud Computing beschleunigen werden.
Unified Computing-Plattform NVIDIA HGX-2
30. Mai 2018, kündigte Nvidia die Einführung der ersten künstlichen Intelligenz gilt für High-Performance Computing und Unified-Computing-Plattform NVIDIA HGX-2.
Von der Produktlinie ist HGX-2-Referenzarchitektur eine verbesserte Version des letzten Jahres HGX-1, die die Amazon AWS, Facebook und Microsoft und anderen Cloud-Service, anstatt HGX-2 noch eine Cloud-Services-Plattform ist, angewandt werden kann, Gehen Sie zum HPC (High Performance Computer) und werden Sie zur branchenweit ersten Standardplattform für domänenübergreifende Computeranwendungen.
HGX-2 Cloud-Server-Plattform mit Multi-Präzision Computing-Funktionen, einzigartige Flexibilität bieten kann starke Unterstützung für die Zukunft des Computing zu liefern. Nvidia sagte die Plattform von hohen Präzision FP64 und FP32 Betrieb für wissenschaftliches Rechnen und Simulation und Ausbildung für die KI der Lage ist, und Argumentation FP16 und Int8 Operationen, diverse Funktionen zu erfüllen heutigen Anwendungen erfordern mehr und mehr Integration von HPC und die KI.
HGX-2 mit einem Kernabschnitt 16 Volta tensor Kern GPU durch NVSwitch Verbindungsstruktur unter Verwendung einer großen Kerngruppe als einzelne Riese GPU, HGX-2 enthält die AI 2 petaflops Leistung. HGX-2 verwendet, um bilden eine erste zu bauen Systeme ist die kürzlich veröffentlichte NVIDIA DGX-2.
Huang wies darauf hin, dass, HGX-2 unter der NVIDIA GPU eine Server-Plattform-Produkte, die Serie Tandem-Center-Server-System, für jede der wichtigsten Märkte gesamten Daten zu beschleunigen, für verschiedene KI, High-Performance Computing gerecht zu werden und eine optimale GPU empfehlen Jobs beschleunigte Rechen CPU-Konfiguration in Kombination mit solchen HGX-T für ultra-groß angelegte Ausbildung und HPC ;. HGX-1 für eine groß angelegte Inferenz und intelligente Videoanalyse (IVA) und SCX-E für Datencenter, HPC, IVA, virtuellen Desktop-Infrastruktur ( VDI) usw.
Huang Renxun sagte: "Die HGX-2 mit Tensor Core GPUs hat der Industrie eine leistungsstarke, universelle Computing-Plattform verschafft, die HPC und AI kombinieren kann, um die enormen Herausforderungen der Welt zu bewältigen."
Es versteht sich, dass die vier größten ODM-Hersteller Foxconn, Inventec, Quanta und Wistron sind auch System auf der Basis HGX-2 ausgelegt ist, wird voraussichtlich in der zweiten Hälfte der weltweit größten Cloud mehrere Rechenzentren in Betrieb setzen.
Vor mehr als einem Jahrzehnt beschloss NVIDIA, von einem Grafikchip-Unternehmen zu einem Computerunternehmen zu wechseln und begann mit dem Aufbau der Infrastruktur und des Ökosystems, die für die Förderung von GPU-Computing erforderlich sind.
Heute, nach mehr als einem Jahrzehnt, NVIDIA Transformationsergebnisse haben offensichtlich gewesen von der modernsten Physik, medizinische Forschung, um die beliebtesten künstlichen Intelligenz und der Forschung und Entwicklung automatisierte Fahren, NVIDIA Plattformen weiterhin höhere Rechenleistung für Entwickler zur Verfügung zu stellen, zu Werden Sie ein Motor, um den wissenschaftlichen und technologischen Fortschritt zu fördern!