Selon les rapports de Engadget, la vision par ordinateur, la reconnaissance vocale et d'autres applications d'apprentissage en profondeur doivent généralement être dans un grand calcul de la matrice du tableau, ce qui est, comme Intel puce Core ou Xeon universel à long terme. Intel prévoit d'emprunter à la PNN à venir pour compenser cet écart AI , Et invité à s'engager dans l'apprentissage en profondeur et l'exposition d'AI Facebook impliqué dans la conception de puces.
En plus des solides applications de médias sociaux de Facebook, Intel prévoit de déployer ses puces AI pour inclure les soins de santé, l'automobile et la météorologie.
Nervana NNP est un circuit intégré spécialisé (ASIC) qui permet la formation et l'exécution d'algorithmes d'apprentissage en profondeur avec une efficacité de calcul extrême.Intel rejette des caches communs sur le CPU et utilise des puces de logiciels spéciaux pour des algorithmes spécifiques Gestion de la mémoire, dans l'espoir de prendre cette densité de calcul de la puce et de la performance à un nouveau niveau.
Nervana NNP peut également prendre en charge un grand nombre de transmissions de données bidirectionnelles via une interconnexion haut débit à l'intérieur et à l'extérieur de la puce. Si vous connectez plusieurs puces NNP, vous pouvez former une puce virtuelle gigantesque pour gérer le module d'apprentissage en profondeur.
Il est à noter que Nervana NNP utilise un format Flexpoint moins précis.Naveen Rao, vice-président d'Intel AI, a déclaré que les réseaux de neurones ont un niveau de tolérance assez élevé pour le bruit basé sur les données et peuvent même aider Le réseau de neurones rassemble de nouvelles solutions, et la plus faible précision de Flexpoint contribue à augmenter le parallélisme du système, à réduire la latence et à augmenter la bande passante.
Avant que Intel n'investisse dans le développement de l'IA, NVIDIA a fait le premier pas de la puissance de calcul parallèle du GPU pour capter le marché, mais le GPU était bon en formation algorithmique plutôt qu'en exécution. D'autre part, le plus grand rival d'Intel, Qualcomm, Développement de puces de programme AI.
La puce NNP d'Intel cible également la formation et l'exécution de l'IA et lancera successivement de nouvelles versions, en plus d'une nouvelle puce neuromorphique appelée Loihi, ainsi que la Myriad X R & D
Tout comme Intel a eu du mal à se rattraper, NVIDIA a également introduit la puce V100 pour les applications AI et a pris Clement Farabet comme vice-président de AI Architecture, espérant améliorer la capacité de ses puces à exécuter des programmes d'apprentissage en profondeur.
En attendant, Google a créé une puce TPU (Tensor Processing Unit) pour ses applications de centre de données et IBM a sorti une puce neuromorphique appelée True North.