Intel espera conquistar el mercado de IA con el procesador Nervana

Aunque Intel tiene una tecnología de chip impresionante, pero en los últimos años, el más popular de inteligencia artificial (IA), Intel no también para tener una actuación más destacada. Para cambiar el rumbo, Intel compró el fabricante de chips estudio en profundidad Nervana Sistemas y planes El primer Procesador de red neuronal de Nervana (NNP) con propósito de IA se introdujo a fines de 2017.

Según los informes de Engadget, la visión artificial, reconocimiento de voz y otras aplicaciones de aprendizaje profundo normalmente necesitan estar en un gran cálculo de matriz matriz, lo que no es, como chips Intel Core o Xeon universales a largo plazo. Intel espera que pedir prestado a la próxima PNN para compensar este vacío AI , E invitado a participar en el aprendizaje profundo y la exposición de AI Facebook involucrado en el diseño de chips.

Además de las sólidas aplicaciones de redes sociales de Facebook, Intel planea desplegar sus chips de Inteligencia Artificial para incluir salud, automotriz y meteorología.

Nervana NNP es un circuito integrado diseñado especialmente (ASIC) que permite el entrenamiento y la ejecución de algoritmos de aprendizaje profundo con una eficiencia computacional extrema. Intel descarta cachés comunes en la CPU y utiliza chips de software especiales para algoritmos específicos. Gestión de la memoria, con la esperanza de llevar la densidad y el rendimiento de este chip a un nuevo nivel.

Nervana NNP también puede admitir una gran cantidad de transmisión de datos bidireccional a través de interconexión de alta velocidad dentro y fuera del chip, y si conecta varios chips NNP, puede formar un enorme chip virtual para hacer frente a la escala del módulo de aprendizaje profundo.

Vale la pena mencionar que, Nervana NNP utiliza un formato Flexpoint menor precisión. Naveen Rao, vicepresidente de la IA de Intel dijo que las redes neuronales para la información de ruido tiene una tolerancia muy alta, y estos ruidos pueden incluso ayudar nuevas soluciones de red neural agruparon. Flexpoint menor precisión mejorará el procesamiento en paralelo la capacidad del sistema, para reducir la latencia y aumentar el ancho de banda.

Antes de inversión de Intel en el desarrollo de la IA, el cómputo paralelo de NVIDIA GPU a través de un paso por delante de la capacidad de capturar el mercado, pero la GPU es bueno en el algoritmo de entrenamiento en lugar de la ejecución. Por otro lado, el mayor rival de Intel Qualcomm (Qualcomm) se pone en una buena ejecución Desarrollo de chip de programa de IA.

El chip NNP de Intel también se enfoca en el entrenamiento y la ejecución de inteligencia artificial y lanzará nuevas versiones en sucesión, además de un nuevo chip neuromórfico llamado Loihi, así como también el Myriad X. I + D.

Justo cuando Intel luchaba por ponerse al día, NVIDIA también presentó el chip V100 para aplicaciones de inteligencia artificial y se llevó a Clement Farabet como vicepresidente de AI Architecture, con la esperanza de mejorar la capacidad de sus chips para ejecutar programas de aprendizaje profundo.

Mientras tanto, Google ha creado un chip de unidad de procesamiento Tensor (TPU) para sus aplicaciones de centros de datos e IBM ha lanzado un chip neuromórfico llamado True North.

2016 GoodChinaBrand | ICP: 12011751 | China Exports