Huawei | 'Proyecto Da Vinci' | Exposición: Introducción de AI a todos los productos, desarrollo de nuevos chips

La información de acuerdo con reportes de medios extranjeros, Huawei desarrolló internamente 'programa Leonardo da Vinci', el programa también se conoce como ejecutivos de Huawei dentro del 'programa D', encabezada por el vicepresidente de Huawei, compañías de diseño de circuitos integrados de Huawei Hass Presidente Xu Zhijun.

Los contenidos principales son: En primer lugar, la introducción de productos de IA y servicios entre Huawei, incluidas las estaciones de telecomunicaciones de base, centros de datos en la nube, teléfonos inteligentes, cámaras de seguridad, en segundo lugar, el desarrollo del nuevo chip de IA para el centro de datos, por lo que el reconocimiento de voz, imagen aplicación de reconocimiento puede ser utilizado en la nube.

La información especula que el plan es: En primer lugar, la fuerza Huawei chip de IA puede representar una amenaza para Nvidia, en segundo lugar, AI disposición de la nube de Huawei puede exacerbar las preocupaciones sobre el gobierno de Estados Unidos.

Diseño de Huawei AI

El diseño de AI de Huawei no es nada nuevo.

red de Lei Feng se ha informado, Huawei Device Huawei DigiX2018 · socio global y la conferencia de desarrolladores, que se celebró 22 de junio el director general Yu Chengdong, negocio de consumo de Huawei se establece una nueva estrategia de negocio de consumo de Huawei: la sabiduría de la estrategia ecológica en directo toda la escena.

Yu Chengdong hizo hincapié en que Huawei para construir toda la escena sabiduría ecológica de la vida es un ecosistema abierto. Para todo el ecosistema, Huawei proveerá una plataforma abierta Hiai núcleo de la inteligencia artificial, al final, los tres niveles de las tecnologías de nube abierta, permitiendo a los socios globales.

En el lado de chip, Huawei construirá una experiencia de funcionamiento suave plataformas, herramientas de audio y vídeo, juegos ayudantes de computación por Hiai móvil; en el lado del terminal de Huawei para construir unos servicios de conexión completos y toda la aplicación escena por la sabiduría de hardware, la plataforma Hiai, AR / VR y otros equipos Proporcione una serie de capacidades inteligentes de detección e interacción: en el lado de la nube, Huawei Mobile Services (HMS), AppGallery, etc. satisfacen las necesidades de uso personalizado del consumidor.

De septiembre de 2017, Huawei lanzó el primer chip del mundo de la telefonía móvil unicornio AI 970, añadir el NPU unidad de procesamiento de red neuronal (su tecnología del Cámbrico), en comparación con la CPU, la velocidad de computación aumento de 25 veces, la eficiencia energética aumento de 50 veces Huawei Mate 10 y Mate 10 Pro y Glory V10 están equipados con chips Kirin 970.

En la actualidad, Huawei aún usa el chip GPU de NVIDIA para agregar funciones AI al servidor.

China Core 'group' ingresa al chip AI de la nube

La situación de la competencia interna se está intensificando. Este año, Baidu y Cambrian ingresaron al chip AI de la nube.

En mayo de este año, Cambrian lanzó el primer chip inteligente en la nube Cambricon MLU100.

Se entiende que MLU100 utiliza la última arquitectura MLUv01 de Cambrian y el proceso TSMC 16nm, puede trabajar en modo equilibrado (frecuencia de 1 GHz) y modo de alto rendimiento (frecuencia de 1.3 GHz), la velocidad pico teórica equivalente en modo equilibrado es de 128 por segundo. Trillones de operaciones de punto fijo, la velocidad máxima teórica equivalente en modo de alto rendimiento alcanza 166,4 billones de operaciones de punto fijo por segundo, pero el consumo de energía típica a nivel de tablero es de 80 vatios, y el consumo máximo de energía no supera los 110 vatios.

4 de julio de, 2018 AI Conferencia de Desarrolladores de Baidu, CEO y Presidente Robin Li, Baidu Baidu lanzó el chip de desarrollo propio AI 'Kunlun', que incluye la formación y el chip chip de razonamiento Kunlun 818-300 818-100.

Baidu afirma que este es el primer chip con todas las funciones nube AI de China, es hasta ahora el estudio de diseño de potencia más alta de la industria del chip de AI desde el punto de parámetros de vista, 'Kunlun' usando el proceso de 14nm de Samsung, con el rendimiento 260Tops, 512 GB / s Ancho de banda de memoria: el consumo de energía excede los 100 vatios, que consta de decenas de miles de núcleos pequeños.

Patrón de mercado de chips Cloud AI

En el mercado actual de chips GPU, NVIDIA tiene una participación de mercado del 70%, que es un líder en chips bien merecido.

2016, Nvidia invirtió mil millones de dólares, gastado miles de ingenieros, presentó el primer optimizada para el aprendizaje profundo Pascal GPU. 2017 años y puso en marcha aumentó en 5 veces el rendimiento en comparación con la nueva arquitectura de la GPU Pascal Volta, red neuronal El acelerador de razonamiento TensorRT 3 también apareció al mismo tiempo. TensorRT como acelerador de razonamiento programable puede acelerar arquitecturas de red existentes y futuras.

El análisis detallado (ver: abarrotado industria de los chips IA de hoy será eventualmente dominado por la cabeza del jugador) Lei Feng red de la estructura de mercado de los chips IA estado presente, nube AI chips de hardware o software, se ha controlado gigantes tradicionales .

La siguiente imagen es la lista global de fichas AI lanzada por Compass Intelligence. Debido a que el chip AI actualmente se usa raramente en la terminal, la clasificación del jefe de la lista se puede aproximar a la estructura actual del mercado del chip AI de la nube.

Podemos ver que el gigante de los chips Nvidia ha ocupado firmemente la parte superior del chip de Inteligencia Artificial. Debido a la popularidad de la plataforma de desarrollo CUDA, la GPU de NVIDIA es la plataforma de computación de hardware de inteligencia artificial para uso general más utilizada.

Además de las empresas con fuertes chips autodesarrollados (hay pocas en el mundo), si necesita realizar trabajos relacionados con AI, debe usar los chips de Nvidia. Las aplicaciones de chips de Nvidia son comunes, y ahora todas las bibliotecas de software de AI admiten el uso de la aceleración CUDA. , incluyendo Tensorflow de Google, Caffe de Facebook, MXNet de Amazon, etc.

Ahora el foco del debate de la industria es cuál es la mejor arquitectura de procesador para los chips AI, incluyendo GPU, FPGA, DSP y ASIC, e incluso más chips neuromórficos cerebrales de vanguardia. Ahora la GPU ocupa una posición dominante, pero varios otros La arquitectura del procesador también tiene sus propias ventajas.

Intel es una apuesta multipartita, no se pierda ningún tipo de arquitectura de procesador. La gran inversión de Google en TPU (en realidad, un ASIC) ha provocado un aumento significativo en el rendimiento del hardware, parece que el impacto en la GPU será el mayor La razón no es solo por las ventajas de eficiencia que ofrece la arquitectura dedicada, sino también por la ventaja de costos que aporta el modelo comercial.

En la nube, los gigantes internacionales se han convertido en el líder ecológico de facto, porque la computación en la nube es el campo de batalla de gigantes. Ahora todos estos marcos de inteligencia artificial de código abierto son lanzados por estos gigantes. En un entorno ecológicamente sólido, Huawei quiere Tome una parte, los chips de inteligencia artificial en la nube doméstica quieren avanzar a los cinco primeros, o incluso desafiar a Nvidia, no es fácil.

2016 GoodChinaBrand | ICP: 12011751 | China Exports