En medio de escenas entre AI arquitectura románica y el sentido de la tecnología, de Intel timón Naveen Rao hablando de AI Inteligencia Artificial Intel combinación de hardware y software, pero la más pesada que la información publicada aviso Nervana chip de red neuronal, de acuerdo con el plan , El último chip de IA de Intel, Nervana NNP L-1000, se lanzará oficialmente al mercado en 2019, este es el primer procesador de red neuronal comercial de Intel.
Hace dos años, Naveen Rao y profundidad del aprendizaje, CEO y co-fundador de inicio Nervana Systems. Después de que la compañía fue adquirida por Intel, Nervana se convierten en el núcleo de Intel envía inteligencia artificial, la serie PNN Nervana han surgido, Naveen Rao es Nombrado como jefe de la división de productos de inteligencia artificial.
Intel vicepresidente productos de inteligencia artificial división, miembro del equipo Nervana Carey Kloss en el camino en una entrevista con el reportero Business Herald entrevistó el siglo 21: 'Nuestros primeros días comenzaron el desarrollo de Lake Crest (Nervana serie PNN de chips de primera generación, cuyo nombre en código) era todo nuestro equipo alrededor del 45 hombre, es la construcción de uno de los más grandes de matriz (chip de silicio), hemos desarrollado el neón (software de aprendizaje de profundidad), pila de nubes también construido, estos son pequeño equipo logrado. pero aquí es donde el reto, habrá un pequeño equipo dolores de crecimiento Nos tomó mucho tiempo sacar los primeros productos. Nervana se fundó en 2014. Hasta el año pasado, el chip realmente se introdujo.
Sin embargo, después de unirse a Intel, Nervana puede usar los diversos recursos de Intel: "Por supuesto, llamar recursos no es una tarea fácil, pero Intel tiene una amplia experiencia en la comercialización de productos. Al mismo tiempo, Intel ha visto hasta ahora El mejor análisis de arquitectura y análisis posterior al silicio Carey Kloss le dijo al periodista de 21st Century Business Herald: "Tenemos cientos de sistemas funcionando al mismo tiempo en el chip de producción, los empleados de Nervana y 6 meses Los miembros que acababan de unirse también estaban trabajando día y noche para trabajar juntos en la búsqueda de nuevos productos. "En su opinión, Nervana ahora tiene un ritmo razonable y tiene todos los elementos para tener éxito el próximo año.
Además de Nervana, Intel adquirió artificial empresa insignia de inteligencia también incluye Movidius enfoque en el procesamiento visual, FPGA (Field Programmable matriz de puertas) gigante de Altera, conducción inteligente relacionada Mobileye, etc. De hecho, a partir de 2011, Intel comenzó a seguir invirtiendo Empresas relacionadas con AI, incluido el Cámbrico de China, Horizon. Al mismo tiempo, los competidores de Intel también están creciendo. La GPU de Nvidia en el campo de la inteligencia artificial ha avanzado mucho: Google lanzó recientemente la tercera generación de chips de IA TPU, el chip para la optimización TensorFlow arquitectura de aprendizaje profundo de Google, y Google para ofrecer a los desarrolladores un TPU y otros servicios subyacentes, el año pasado, Baidu brazo articulado, muestran violeta aguda y HANFENG fichas DuerOS de la edición electrónica del juicio, el principal proveedor de voz interactiva resolver Programas: Facebook y Alibaba también han ingresado en el campo de los chips, entre ellos, Alibaba Dharma está desarrollando un chip de red neuronal llamado Ali-NPU, que se utiliza principalmente para imágenes, reconocimiento de video y escenarios de computación en la nube.
¿Cómo responderá Intel a la "experiencia" de este chip de inteligencia artificial?
Tres facciones luchando por la hegemonía En general, el panorama actual de inteligencia artificial global aún no está claro, y pertenece a la guerra local para la exploración tecnológica. No ha entrado en la batalla general por las multitudes. La inteligencia artificial es un concepto general. Los escenarios de aplicación específicos varían ampliamente. el enfoque es diferente, si se han clasificado de acuerdo a las escuelas técnicas y comerciales, compañías globales se pueden dividir en tres facciones. uno es las aplicaciones del sistema escolar, el más típico representante de Google y Facebook. no sólo desarrollan la inteligencia artificial marco a nivel de sistema tales como Google famosa marco de la inteligencia artificial Tensorflow, Pytorch de Facebook, sino también las solicitudes de inversión a gran escala. Por ejemplo, Google ha invertido mucho en investigación y piloto automático de desarrollo, negocio de la traducción 2C lanzamiento, mientras que Facebook también tecnología de inteligencia artificial es ampliamente utilizado en las redes sociales Procesamiento de imágenes, procesamiento de lenguaje natural y muchos otros campos.
La segunda categoría es la facción de chip, la clave es proporcionar fuerza de soporte del operador, el jugador más grande es el de Intel y NVIDIA. Oportunidad de NVIDIA GPU de computación para aprovechar las necesidades de equipos clave, el rendimiento del equipo en representación de gráficos, el campo de la inteligencia artificial y de la cadena de bloque De manera prominente, también ejerce presión sobre Intel en estos negocios. Al mismo tiempo, Nvidia parece ser diferente de Intel 'Intel Inside'. También espera convertirse en una verdadera plataforma informática y ha lanzado con éxito su propia plataforma CUDA.
Al 30 de mayo de NVIDIA lanzó la primera integración del mundo de la inteligencia artificial y la computación de alto rendimiento de computación --HGX plataforma-2, que es actualmente el más grande de la GPU - plataforma de computación DGX-2 como operador tradicional detrás del campo de fuerza. Intel natural para ser menos jefe, el negocio 50 años y no significa que las personas de edad en los últimos años lanzados con frecuencia fusiones de gran éxito y adquisiciones en el campo de la inteligencia artificial: 2.015 $ 16,7 mil millones adquisición de 'campo gigante Programmable gate array' (puertas programables de campo array, FPGA ) Altera, sentó las bases para el futuro desarrollo de la tendencia base de la fuerza de cálculo, FPGA en la computación en nube, redes y otros aspectos de la computación borde tiene un gran potencial; 2016, Intel adquirida Nervana, la compañía tiene previsto utilizar esta habilidad en el aprendizaje de profundidad para luchar GPU, el mismo año también adquiridas nuevas empresas de chips de procesamiento visual Movidius; 2017 Nian Intel para $ 15.3 mil millones adquisición de ayuda israelí en coche a la compañía Mobileye, la intención de entrar en el campo de piloto automático.
Además de la aplicación del sistema para enviar y pastel de chip, la tercera categoría es la aplicación de la tecnología para enviar la mayor parte de las empresas de descanso entran en esta categoría. A pesar de que diferentes empresas han afirmado tener una profundidad de aprendizaje, la inteligencia artificial, incluso único, profundo la acumulación de la tecnología, pero de hecho la mayoría de las aplicaciones basadas en la plataforma de tecnología para enviar y pastel de chip. acaba de enviar más usuarios de C-terminal de la tecnología orientada, incluyendo el piloto automático, reconocimiento de imágenes, y otras aplicaciones empresariales. objetivamente hablando, la tecnología enviar parte de la 'buena falsificación de caballeros a las cosas'.
La competencia desde el punto de vista actual, el sistema aplica facción ha ocupado poco a poco toda la ventaja, con una competencia básica en el campo de la inteligencia artificial. En el ordenador y la era del teléfono móvil tradicional, el sistema y el chip relación más cooperativa, e incluso más fichas dominan. específicamente, por ejemplo, en el mercado de las computadoras, Intel cuenta en el sistema de campo de fuerza completa de la hegemonía a través de máquinas de PC y Apple Mac. los sistemas, Windows y el iOS es diferente, no pueden sustituirse unos por otros, pero su Intel común pero no se puede sustituir. época de teléfono, aunque se considera protagonista fuerza va de Intel Qualcomm, pero el chip se encuentra todavía en la posición del núcleo del sistema operativo y sus acciones igual importancia.
Recientemente 1--2 años, la situación está cambiando rápidamente, Apple lanzó su propia I + D y la producción de MAC labios de chip, las acciones de Intel cayeron una vez atrapados en el campo de la inteligencia artificial, esta tendencia es más evidente, porque la demanda de polo escenarios de cómputo diferenciado. grande, Google se ha convertido madura de acuerdo con su necesidad de desarrollar los chips necesarios, técnicamente más viable. Intel Si quieres una escena diferentes chips personalizados, lo que significa que Intel será transferido totalmente 2B áreas, y antes de que el modo de 2B2C comparación con pura 2B negocio, obviamente, será más como una fiesta, la complejidad de la línea de negocio aumentará dramáticamente. e históricamente, una empresa se convierta 2B 2C general, a menudo debido a la dominancia núcleo perdido en la industria y tuvo que retirarse Buscando tiempos
Apuestas en Nervana NNP Entonces, en la feroz competencia, ¿cómo Intel incrementa aún más su negocio de chips?
Después de Naveen Rao se unió a Intel, Intel se convirtió en vicepresidente de la División IA (AIPG) persona a cargo, lo que lleva a la introducción de procesador Intel red neuronal (Nervana NNP) chip de serie. Las herramientas de software que proporcionan propuestas para la conferencia de desarrolladores de hardware AIDC la ecología en la industria parece capacidad técnica, herramientas de software de Intel y el hardware no es un problema, pero la ecología era una cuestión abierta. en la era de la PC, es el núcleo de la eco-chips, para que pueda construir eco-alrededor de chips Intel hacen impenetrable, pero en la era de la inteligencia artificial, la inteligencia artificial es el núcleo del sistema ecológico, proporcionando el número de fichas de energía es parte de la ecología, el recuento de CPU puede proporcionar energía, GPU también se puede proporcionar, Intel puede producir, Nvidia puede producir, incluso Google, Apple sí mismos la producción ahora puede aprender en profundidad los datos y la informática científica, el diseño de chips de Intel Xeon principalmente (Xeon) de la serie de chips, Movidius VPU chip de visión, la serie Nervana PNN, así como FPGA (Field Programmable matriz de puertas). estos artículos Las líneas de productos corresponden a varios escenarios de aplicación subdivididos diferentes.
serie Nervana NNP es un procesador de red neuronal, la formación en profundidad fase de inferencia y el aprendizaje, Nervana PNN principalmente para el cálculo de fase de entrenamiento, según el plan de Intel, 2020 Para la profundidad del aprendizaje y la formación (aprendizaje profundo, conocido como el 'DL' ) el efecto de 100 veces. este procesador de red neuronal por Intel y diseñado en colaboración con Facebook, se puede predecir que el chip debe ser en gran medida marco de aprendizaje de máquina Pytorch Facebook tiene un buen soporte, después de todo Pytorch de las ambiciones de Facebook Ciertamente es para competir con Tensorflow de Google. Sin embargo, los últimos chips se lanzarán oficialmente en 2019. ¿Cómo cambiará el patrón de aprendizaje profundo de forma impredecible?
Naveen Rao escribió en su blog: 'Estamos desarrollando los primeros procesadores de red neuronal comerciales de Intel Nervana PNN-L1000 (cuyo nombre en código Spring Crest), prevista para el lanzamiento en 2019 en comparación con la primera generación de Lake Crest producto,. Intel se espera que Nervana PNN-L1000 logrará 3-4 veces el rendimiento de la formación. Intel Nervana PNN-L1000 también apoyará bfloat16, que es ampliamente utilizado en la industria de un formato numérico para la red neuronal del futuro, Intel estará en la inteligencia artificial línea de productos se amplió el apoyo a bfloat16, incluyendo FPGA procesador Intel e Intel Xeon. 'de hecho, Spring Crest puso en marcha a finales de 2018 ha sido largamente rumoreado, pero ahora parece que, en el año 2019 este punto en el tiempo la estrategia oficial en este sentido hay un retraso, Carey Kloss explicó a los periodistas: 'en el nodo de proceso más moderno, integramos más mueren (chips de silicio) se puede obtener mayor velocidad de procesamiento, pero se necesita tiempo para la fabricación de obleas de silicio También lleva tiempo que el chip de silicio se convierta en un nuevo procesador de red neuronal, que es la razón de la demora.
Por la diferencia entre dos generaciones de chips de, dijo que su análisis: 'procesador Lake Crest como la primera generación, en GEMM (cálculo de matriz) y una computación neural convolucional han logrado una muy buena utilización de no sólo se refiere a 96% de rendimiento. la cantidad de uso, pero en ausencia de una personalización completa, también hemos hecho la mayor parte de la situación para lograr 80% más alto que en la utilización de la computación GEMM. cuando desarrollamos la siguiente chip de generación, si somos capaces de mantener un alto calculado utilizando Tasa, el nuevo producto tiene una mejora en el rendimiento de 3 a 4 veces.
En cuanto a la competencia, Carey Kloss, dijo: 'No sé lo que la hoja de ruta es la de nuestros competidores, pero nuestra velocidad de reacción es relativamente rápido, así que creo que no vamos a estar en desventaja en el procesamiento de red neural, como bfloat16 ha sido durante algún tiempo. , y se ha vuelto más popular, muchos clientes invocados en apoyo de la bfloat16 requisitos, hemos cambiado gradualmente a favor de bfloat16. 'TPU y el punto de vista contrario de Google, cree que la segunda generación de TPU similar a Lake Crest, TPU tres generaciones similar a la primavera Crest.
Ataque por todos los lados Además de referirse a Nervana PNN, chips de Intel Xeon para servidores y grandes dispositivos de computación principales, tales como nuestra superordenador Tianhe-I y II sobre el uso de procesadores Intel Xeon de seis núcleos.
En términos de chips visual, el negocio de Intel creció rápidamente. Virutas Movidius VPU que ya se enfrenta en los vehículos automotores, aéreos no tripulados y otros equipos en los mercados emergentes, como Dajiang no tripulado Movidius vehículos aéreos, Tesla y Google cámaras Clips han adoptado El chip visual.
Movidius el líder del mercado Gary Brown dijo al reportero Century Business Herald 21: 'En Movidius, hemos desarrollado el chip se llama unidad de procesamiento visual VPU VPU es un chip de visión por ordenador y procesador de la cámara inteligente, de modo que ambos chips. Se realizan tres tipos de procesamiento: procesamiento de ISP, que es procesamiento de señal de imagen, procesamiento basado en tecnología de captura de cámara y visión por computadora y aprendizaje profundo.
Citó Road, escenarios de uso específicos incluyen productos de realidad virtual y robótica, domótica, cámaras industriales, cámara de AI, así como la vigilancia y seguridad. ¿Dónde está la vigilancia y la seguridad es un mercado enorme, especialmente en China, cámaras de vigilancia y seguridad El mercado es particularmente grande y algunas grandes empresas están desarrollando cámaras de vigilancia como Hikvision y Dahua.
Gary Brown también mencionó que el campo actual de la casa inteligente está creciendo rápidamente, aunque el mercado es pequeño, pero en rápido desarrollo. 'Hay muchas empresas en el desarrollo de dispositivos inteligentes, como la seguridad inteligente hogar, hogar asistente personal, timbre inteligente, y el acceso a los apartamentos y la familia el control. pero en la casa de campo, para lograr bajo costo, bajo consumo de energía, batería de larga duración, y una muy precisa es bastante difícil. porque tal como una sombra al aire libre en móvil, es posible activar la alarma antirrobo, y por lo tanto muy baja La tasa de falsas alarmas es muy importante y debe tener una buena precisión.
Y uno de los retos que la empresa es cómo continuar para crear chips de alto rendimiento, 'Tenemos una serie de estrategias, tales como menor consumo de energía con un algoritmo de front-end, por lo que podemos apagar la mayor parte del chip, sólo una pequeña parte de la optimización de la operación de la función de detección de rostros cuando apareció un rostro, se pondrá en marcha otros chips. esto evitará que el sistema de vigilancia facial está encendida. todavía tenemos una gran cantidad de cálculos de la tecnología de ahorro de energía, el tiempo de vida de cámara inteligente para viviendas de aproximadamente seis meses. 'explicó Gary Brown.
Además, la carga de esta línea por la situación FPGA de Altera. Con la llegada de la onda 5G, análisis de datos y el cálculo de la demanda Cosas IO se disparará, trabajo en red y el acceso nodo o al menos decenas de miles de tamaño de la clase que el tamaño de un teléfono móvil a 1-2 órdenes de magnitud mayor que la demanda típica de las cosas que se deben utilizar de forma flexible cambiar el algoritmo, que es la fuerza de la FPGA, FPGA puede ser personalizado para satisfacer las necesidades de los escenarios de computación, cambiando su propia estructura, que también fabrica Intel en el futuro Se ha hecho posible ofrecer chips eficientes para más tipos diferentes de dispositivos. Del monto de adquisición de $ 16,7 billones, se puede ver que la compra de Intel obviamente no es solo un valor inmediato.
Escenarios rápidos a nivel empresarial Intel Una encuesta reciente muestra que los clientes corporativos en los Estados Unidos, más del 50% están moviendo hacia la solución de nube basado en procesadores Intel Xeon existente para satisfacer sus necesidades iniciales de la inteligencia artificial, mientras que el número de ejecutivos de Intel han dicho en una entrevista con la prensa, no hay una única solución para todos los escenarios de inteligencia artificial, Intel llevará a cabo con el negocio técnica y de acuerdo a la demanda del cliente. por ejemplo, Intel Xeon y FPGA, o Xeon y Movidius configurado juntos, Para lograr una función de inteligencia artificial de mayor rendimiento.
Para Intel, éstos inteligencia artificial mejorada se utiliza ampliamente en la escena de clase empresarial Naveen Rao dice: 'Cuando acelerada de computación para conducir el futuro de la transición de la inteligencia artificial, que necesitamos para proporcionar una gama completa de soluciones empresariales. Esto significa que nuestra solución ofrece la más amplia gama de potencia informática y puede admitir múltiples arquitecturas, desde milivatios a kilovatios.
Carey Kloss explicó además a la prensa 21st Century Business Herald escenario chip de inteligencia artificial: 'Spring Crest se puede decir que los más altos niveles de la arquitectura del procesador Nervana neurona para que sus clientes incluyen centro de computación a gran escala, ya cuenta con un dato muy fuertes. Grandes empresas con trabajo científico, gobiernos, etc. Si necesita modelos pequeños y de gama baja, Xeon puede ayudarlo, puede abrir los datos desde la nube hasta el final.
En concreto, Intel también está hecho para explorar la medicina, no tripulado, nuevos espacios comerciales, redes y otros escenarios, como en el cuidado de la salud, de acuerdo con los informes, Intel es Novartis (Novartis) en cooperación con, el uso de redes neuronales para acelerar la profundidad de contenido de alta detección - esto es un desarrollo de fármacos temprana es un elemento clave de la cooperación entre el tiempo de dos partes para formar la imagen modelo de análisis se redujo de 11 horas a 31 minutos - más de 20 veces más eficiente.
Nadie en la tienda, Intel proporciona ninguna tienda de conveniencia Jingdong 'cerebro computing', desplegado actualmente en las tiendas más inteligentes (tiendas de conveniencia Sinopec Express, Jingdong casa) y proyecto de la máquina expendedora inteligente. Algorithmically, jingdong lado de dicho algoritmo de aprendizaje automático utilizado en tiendas no tripulados principalmente en saber, productos conocidos, juegos conocidos tres direcciones, ya que los datos en línea y fuera de línea se refiere a abrir, otros datos no estructurados de vídeo y en las estructuras de datos, etc., necesidad en algoritmos de aprendizaje automático tradicionales para ahora más populares en la visión artificial CNN (red neuronal de convolución) algoritmos, la cadena de suministro inteligente utilizado, como SVM, estadística de regresión lineal, regresión logística y otras condiciones de la red mejor situación , una gran mayoría de los datos de vídeo se puede utilizar para completar el modelo en la nube. en el caso de la mala red, tal como un terminal móvil se calcula por el terminal, la red de borde se calcula utilizando una pequeña usando hardware completado incluyendo servidores de borde de Intel.
Aunque los enemigos asunto Intel, la transformación, el ritmo de expansión es muy firme. Valor de I + D sólo desde el punto de vista, de acuerdo con las estadísticas de IC Insights, antes de 2017, las 10 empresas de semiconductores superior en el total de los gastos de I + D de $ 35,9 mil millones, Intel ocupa el primer lugar el informe muestra que en 2017 el gasto de Intel I + D fue de $ 13.1 mil millones, que representan el 36% del gasto total del grupo, alrededor de una quinta parte de 2017 las ventas de Intel. con la enorme inversión en diversas batallas de, chip de AI también Intensificado