Cómo encontrar una solución a este problema imposible, el CEO de Nvidia Jensen Huang (Huang Renxun) dio su respuesta en la conferencia GTC Taiwan 2018 celebrada el 30 de mayo.
Plataforma de NVIDIA Yewang
Recordando la historia del desarrollo de NVIDIA desde simplemente lanzar GPU hasta ayudar a fabricantes nacionales y extranjeros a construir GPU y luego mejorar las experiencias de entretenimiento del consumidor para juegos de computadora. Aunque una vez perdió en el mercado de teléfonos inteligentes, AI se ha desplegado activamente en los últimos años. Comenzó en el centro de datos, el desarrollo del campo automotriz.
A partir de la estructura de negocio es, NVIDIA primer 90% de los gastos en I + D se ponen en la arquitectura de la GPU y el software de la plataforma CUDA, a continuación, este modelo se aplicará a cada plataforma: juegos, centros de datos, inteligencia artificial y la conducción automática.
NVIDIA siempre ha sido un líder en el mercado de GPU, y la industria del juego es la fuente más grande de usuarios de GPU. El centro de datos es su mercado empresarial de más rápido crecimiento.
En los últimos tres años, esta parte de los ingresos del negocio de una tasa promedio anual de 85%, la tasa de crecimiento anual en el año fiscal 2018 fue de 133%. Estos aumentos de HPC (cluster de ordenadores de alto rendimiento), la compañía de computación en la nube y los investigadores de IA y otras verticales.
En los aspectos técnicos de la IA, NVIDIA ha estado por delante de otros competidores. De junio de 2017, NVIDIA ha lanzado la próxima generación de Tensor núcleos Volta GPU, basándose en el aprendizaje profundo, Volta cinco veces más rápido que la generación anterior de Pascal. Volta ha sido los principales nube Calculado por proveedores y fabricantes de servidores.
El HGX-2, NVIDIA integrado formalmente en la inteligencia artificial y una plataforma de computación de alto rendimiento publicado por NVIDIA.
Se entiende, HGX-2 como una plataforma de servidor de la nube, con capacidades de computación de precisión múltiple para apoyar FP64 de alta precisión y FP32 de cálculo para la computación científica y simulación, y también es compatible con FP16 y INT8 precisión formación AI y el razonamiento utilizado. HGX-2 implementación de la capacitación AI velocidad, en ResNet-50 de referencia alcanzó 15.500 imágenes por segundo, el equivalente de sólo 300 unidades instaladas servidor CPU.
La era de la computación GPU ha llegado
En el GTC Taiwán, Huang también dijo que los próximos 10 años, la escala de operaciones para cada año la demanda crecerá de 100 veces, mientras que se espera que la Ley de Moore en la situación actual se está desvaneciendo poco a poco, los 50 mejores superordenadores GPU cómputo del mundo será en el futuro Crecerá 15 veces en cinco años. Al mismo tiempo, la computación acelerada por GPU se convertirá en el modo principal de extender la Ley de Moore.
Actualmente la super computadora se ha convertido en una herramienta importante para el desarrollo de la ciencia moderna fueron a jugar un papel importante en el desarrollo de la construcción molecular, química cuántica, mecánica cuántica, el clima, la investigación meteorológica, la exploración de energía, simulación física, análisis de datos y tecnología de inteligencia artificial, y proporciona Cien mil millones de millones de rendimiento operacional.
Y las estadísticas OpenAI muestran que en los próximos cinco años, modelo de computación de inteligencia artificial crecerá 30 veces, en comparación con el se espera que la Ley de Moore creciendo 3 veces más rápido. A través de las capacidades de aceleración de GPU, permitirá a los datos, lo que aumenta significativamente la complejidad del programa de cálculo, por Esto resuelve las necesidades computacionales que las personas en el pasado no pudieron resolver.
Jen-Hsun Huang subrayó una vez más que la aceleración de la creación de los últimos beneficios impulsados modelo de computación NVIDIA CUDA, así como explicar el futuro por medio de la GPU acelerada modelo de computación continuará expandiéndose, que se espera en el año 2028 la demanda mundial será equivalente al grupo de 10 millones de operaciones de la arquitectura Volta GPU basado en el rendimiento. en términos de la tradición a través de una pila de varios conjuntos de CPU superordenador nivel de potencia de computación, que ocupará el espacio a gran escala y el alto costo de la electricidad, si la GPU para reemplazarlo, puede ahorrar más espacio y consumo de energía, al tiempo que ofrece mayor efecto de aceleración .
Además, Huang dijo NVIDIA lanzó oficialmente programas mundiales líderes del ODM de asociación, Hon Hai Precision, Inventec, Quanta Computer y Wistron de diseño y producción de estos fabricantes mundial se convertirá en socios para acelerar en respuesta a las diversas necesidades de AI computación en la nube.
Plataforma Unificada de Computación NVIDIA HGX-2
El 30 de mayo de 2018, Nvidia anunció el lanzamiento de la primera plataforma informática unificada NVIDIA HGX-2 para inteligencia artificial y computación de alto rendimiento.
A partir de la línea de productos, HGX-2 Arquitectura de referencia es una versión mejorada del año pasado HGX-1, que es la AWS de Amazon, Facebook y Microsoft y otros servicios en la nube, en lugar de HGX-2 sigue siendo una plataforma de servicios en la nube, se puede aplicar Vaya a HPC (computadora de alto rendimiento), convirtiéndose en la primera plataforma estándar de la industria para aplicaciones de computación entre dominios.
HGX-2 plataforma de servidor de la nube con capacidades de computación de precisión múltiple, puede proporcionar una flexibilidad única para proporcionar un fuerte apoyo para el futuro de la computación. Nvidia dijo que la plataforma es capaz de alta precisión y operación FP64 FP32 para la computación científica y la simulación y la formación de AI Y razonamiento para las operaciones FP16 e Int8, versatilidad para satisfacer las necesidades de las aplicaciones cada vez más integradas de HPC y AI.
HGX-2 utilizando una porción de núcleo 16 Volta GPU núcleo tensor, por la estructura de interconexión NVSwitch para formar un grupo central grande como GPU solo gigante, HGX-2 proporciona la AI 2 petaflops rendimiento. HGX-2 utiliza para construir una primera El sistema es el recientemente lanzado NVIDIA DGX-2.
Huang señaló que, HGX-2 bajo la GPU NVIDIA para acelerar una plataforma de productos de servidor, el sistema completo de datos de servidores de centros serie en tándem, para cada uno de los mercados más importantes, para atender a diferentes AI, computación de alto rendimiento y recomendar GPU óptima aceleró los trabajos de computación configuración de la CPU en combinación con tales HGX-T para la formación a gran escala de ultra y HPC ;. HGX-1 para la inferencia a gran escala y el análisis inteligente de video (IVA), y SCX-e para el centro de datos, HPC, IVA, la infraestructura de escritorio virtual ( VDI) y así sucesivamente.
Huang Renxun dijo: "El HGX-2 con GPUs Tensor Core ha traído a la industria una poderosa plataforma informática de propósito general que puede combinar HPC y AI para resolver los enormes desafíos que enfrenta el mundo".
Se entiende que el sistema de cuatro ODM fabricante más grande Foxconn, Inventec, Quanta y Wistron también están siendo diseñados en base HGX-2, se espera poner en uso en la segunda mitad de varios centros de datos más grande de la nube del mundo.
Hace más de una década, NVIDIA decidió hacer la transición de una empresa de chips gráficos a una empresa de informática y comenzó a construir la infraestructura y el ecosistema necesarios para promover la computación GPU.
Hoy, después de más de una década, NVIDIA resultados de la transformación haber sido obvio desde la más física de vanguardia, la investigación médica, a la inteligencia artificial más popular y automatizado de la investigación y el desarrollo de prácticas, plataformas NVIDIA siguen proporcionando un mayor rendimiento de computación para los desarrolladores, también ¡Conviértase en un motor para promover el progreso científico y tecnológico!