Trois factions bataille AI puce sommet: Intel mise sur le processeur de réseau de neurones

Récemment, avec un palais Art-103 ans San Francisco, la conférence de la technologie naissante d'Intel - Conférence AI développeurs (appelée 'AIDC) Ruqierzhi Cette fois, Intel se concentre sur l'élargissement de l'écologie AI.

Entre les deux scènes entre l'IA architecture romane et le sens de la technologie, la barre d'Intel Naveen Rao parler AI Intelligence artificielle matériel Intel et la combinaison de logiciels, mais le plus lourd que l'information avis affiché puce réseau de neurones Nervana, selon le plan dernière puce AI Nervana NNP l-1000 d'Intel, sera officiellement sur le marché en 2019, qui est d'abord des produits de traitement de réseau de neurones commerciaux d'Intel.

Il y a deux ans, Naveen Rao et la profondeur de l'apprentissage, PDG et co-fondateur de démarrage Nervana Systems. Après que l'entreprise a été acquise par Intel, Nervana deviennent le noyau d'Intel navires de l'intelligence artificielle, la série Nervana NNP ont émergé, Naveen Rao est a été nommé chef de la division des produits de l'intelligence artificielle.

Intel vice-président de la division des produits de l'intelligence artificielle, membre de l'équipe Nervana Carey Kloss Sur la route dans une interview avec le journaliste Business Herald a interviewé le 21e siècle: « Nos premiers jours ont commencé le développement du lac Crest (Nervana série NNP de la puce de première génération, le nom de code) a été toute notre équipe 45 l'homme, est la construction d'un des plus grands matrice (puce de silicium), nous avons développé le Neon (logiciel d'apprentissage de profondeur), la pile de nuage également construit, ce sont petite équipe accomplie. mais c'est là le défi, il y aura une petite équipe des douleurs de croissance nous avons passé beaucoup d'heures pour obtenir les premiers produits sur, Nervana fondée en 2014, jusqu'à ce que les jetons viennent vraiment l'année dernière.

Cependant, après avoir rejoint Intel, Nervana peut utiliser les diverses ressources d'Intel, « bien sûr, appeler la ressource est pas une chose facile, mais Intel possède une vaste expérience dans les aspects marketing du produit. En même temps, Intel a jusqu'à présent, je l'ai vu le meilleur (bring-up post-silicium) la culture post-silicium et l'analyse de l'architecture. « Carey Kloss a dit au journaliste Business Herald au 21e siècle, » les puces produites, nous avons des centaines de systèmes en cours d'exécution en même temps, les employés Nervana et 6 mois Les membres qui venaient de rejoindre travaillaient aussi jour et nuit pour travailler ensemble à de nouveaux produits. »Selon lui, Nervana est maintenant à un rythme raisonnable et dispose de tous les éléments pour réussir l'année prochaine.

En plus de Nervana, Intel a acquis l'entreprise phare de l'intelligence artificielle comprend également l'accent Movidius sur le traitement visuel, FPGA (champ de réseau de portes programmables) Altera géant, la conduite intelligente Mobileye liée, etc. En fait, à partir de 2011, Intel a commencé à continuer à investir entreprises liées à l'IA, y compris l'horizon Cambrian chinois en même temps, les concurrents d'Intel sont de plus en plus GPU NVIDIA triomphe dans le domaine de l'intelligence artificielle, .. Google a récemment publié la troisième génération puce AI TPU, la puce pour l'optimisation de l'architecture de l'apprentissage en profondeur de Google tensorflow et Google pour fournir aux développeurs un TPU et d'autres services sous-jacents, l'année dernière, Baidu ARM joint, violet montrent des puces de sagesse de DuerOS d'édition électronique pointue et Hanfeng, le principal fournisseur de voix interactive résoudre programme, Facebook et Alibaba ont également entrer dans les puces, qui Alibaba Dharma Institut développe puce réseau de neurones appelé Ali-NPU, principalement pour l'image, reconnaissance vidéo et des scénarios de cloud computing.

Comment Intel répondra-t-il à «l'expérience» de cette puce d'intelligence artificielle?

Trois factions se battant pour l'hégémonie Dans l'ensemble, le modèle mondial actuel de l'intelligence artificielle est pas encore clair, n'appartiennent à leur technologie de guerre locale respective pour explorer, il n'a pas encore entré dans la guerre totale bondé. L'intelligence artificielle est un concept général, des différences considérables dans les scénarios d'application spécifiques, les entreprises l'accent est différent, si elles sont classées selon les écoles techniques et commerciales, les entreprises mondiales peuvent être divisées en trois factions. on est des applications du système scolaire, le représentant le plus typique de Google et Facebook. non seulement ils développent le cadre du système de niveau de l'intelligence artificielle tels que Google célèbre cadre de l'intelligence artificielle tensorflow, Pytorch Facebook, mais aussi des applications d'investissement à grande échelle. Par exemple, Google a investi massivement dans la recherche et le pilote automatique de développement, traduction 2C entreprise de lancement, alors que Facebook a également la technologie de l'intelligence artificielle est largement utilisé dans les réseaux sociaux Traitement d'image, traitement du langage naturel et de nombreux autres domaines.

La deuxième catégorie est la faction à puce, la clé est de fournir une force de soutien de l'opérateur, le plus grand joueur est le Intel et NVIDIA. Possibilité GPU Computing de NVIDIA pour saisir les besoins clés de l'équipement, les performances de calcul dans le rendu graphique, le domaine de l'intelligence artificielle et de la chaîne de bloc très important dans ces entreprises aussi faire pression sur Intel, alors que Nvidia et Intel semble différent « Intel Inside », il préférerait devenir un véritable opérateur de la plate-forme de force, et le lancement réussi de sa plate-forme de CUDA.

Au 30 mai NVIDIA a publié la première intégration mondiale de l'intelligence artificielle et de plate-forme informatique de calcul haute performance --HGX-2, qui est actuellement le plus grand GPU - plate-forme informatique DGX-2 comme opérateur traditionnel derrière le champ de force. Intel patron naturel à surpassés, entreprise de 50 ans plutôt dire les personnes âgées au cours des dernières années souvent lancé des fusions blockbuster et acquisitions dans le domaine de l'intelligence artificielle: 2015 l'acquisition de 16,7 milliards $ de « champ géant de réseau de portes programmables » (champ réseau de portes programmables, FPGA ) Altera, a jeté les bases pour le calcul tendance du développement futur base de la force, FPGA dans le cloud computing, la mise en réseau, et d'autres aspects de l'informatique de pointe a un grand potentiel, 2016, Intel acquis Nervana, la société prévoit d'utiliser cette capacité dans l'apprentissage de la profondeur à combattre GPU, la même année a également acquis start-up puce de traitement visuel Movidius; 2017 Nian Intel pour 15,3 milliards $ l'acquisition d'une aide israélienne conduire la société Mobileye, destinée à entrer dans le champ de pilote automatique.

En plus de l'application du système pour envoyer et tarte à la puce, la troisième catégorie est l'application de la technologie pour envoyer la plupart des entreprises de repos tombent dans cette catégorie. Bien que différentes sociétés ont affirmé avoir un apprentissage en profondeur, l'intelligence artificielle, voire unique, profonde l'accumulation de la technologie, mais en fait basé principalement des applications de la plate-forme technologique pour envoyer et tarte à la puce. il suffit d'envoyer plus axées sur la technologie utilisateurs C-terminaux, y compris le pilote automatique, reconnaissance d'image, et d'autres applications d'entreprise. d'une manière objective, la technologie envoyer une partie du «faux bon gentlemen aux choses.

La concurrence du point de vue actuel, le système applique faction a progressivement occupé tout l'avantage, avec une compétence de base dans le domaine de l'intelligence artificielle. Dans l'ordinateur traditionnel et l'ère de la téléphonie mobile, système et puce relation plus coopérative, et encore plus de jetons dominent. Plus précisément, par exemple, sur le marché informatique, compte Intel dans le système complet de champ de force de l'hégémonie sur les machines PC et Apple MAC. les systèmes, Windows et iOS est différent, ne peut pas remplacer l'autre, mais leur Intel commune mais il ne peut pas remplacer. à l'ère du téléphone, bien que protagoniste de la force d'Intel va réfléchie Qualcomm, mais la puce est toujours dans la position du noyau du système d'exploitation et de son importance parts égales.

Récemment 1--2 années, la situation évolue rapidement, Apple a publié sa propre R & D et de la production à puce MAC aréoles, les actions Intel ont chuté une fois pris dans le domaine de l'intelligence artificielle, cette tendance est plus évidente, car la demande de pôle de scénarios de calcul différencié. grand, Google est devenu maturité en fonction de leur besoin de développer les puces nécessaires, techniquement plus possible. Intel Si vous voulez un différentes puces personnalisées de la scène, ce qui signifie Intel seront entièrement transférés 2B zones, et avant que le mode 2B2C par rapport à pur 2B entreprise sera évidemment plus comme une partie, la complexité de la ligne d'affaires augmentera de façon spectaculaire. et historiquement, une entreprise de tourner 2B 2C globale, souvent en raison de la domination de base perdue dans l'industrie et a dû battre en retraite Cherche des temps.

Parier sur Nervana NNP Ainsi, dans la concurrence féroce, comment Intel continue-t-il d'augmenter ses activités de puces?

Après Naveen Rao a rejoint Intel, Intel est devenu vice-président, personne Division AI (AIPG) en charge, ce qui entraîne l'introduction du processeur de réseau de neurones Intel puce série (Nervana NNP). Les propositions fournissant des outils logiciels pour la conférence des développeurs dans le matériel AIDC l'écologie dans l'industrie semble force technique Intel, des outils logiciels et le matériel ne sont pas un problème, mais l'écologie était ouvert à la question. dans l'ère du PC, est au cœur de l'éco-puce, de sorte que vous pouvez construire éco autour de la puce Intel font inexpugnable, mais à l'ère de l'intelligence artificielle, l'intelligence artificielle est le cœur du système écologique, fournit nombre nombre de jetons de puissance fait partie de l'écologie, unité centrale de traitement peut fournir de l'énergie, le GPU peut également être fourni, Intel peut produire, Nvidia peut produire, même Google, Apple eux-mêmes la production peut maintenant apprendre dans les données de profondeur et calcul scientifique, la mise en page de la puce d'Intel série de puces principalement Xeon (Xeon), puce de vision Movidius VPU, Nervana série NNP, ainsi que FPGA (de réseau de portes programmables sur le terrain). ces articles Les lignes de produits correspondent à plusieurs scénarios d'application subdivisés.

Nervana série NNP est un processeur de réseau neuronal, la formation de la profondeur de phase d'inférence et de l'apprentissage, Nervana NNP principalement pour le calcul de la phase de formation, selon le plan d'Intel, 2020 à la profondeur de l'apprentissage et de la formation (Deep Learning, désigné sous le nom « DL » ) l'effet de 100 fois. ce processeur de réseau de neurones par Intel et conçu en collaboration avec Facebook, vous pouvez prédire que la puce devrait être en grande partie cadre d'apprentissage machine Pytorch Facebook ont ​​un bon soutien, après tout Pytorch des ambitions de Facebook Certes, il s'agit de rivaliser avec le Tensorflow de Google, mais les dernières puces seront officiellement lancées en 2019. Comment le modèle d'apprentissage en profondeur changera-t-il de façon imprévisible?

Naveen Rao a écrit dans son blog: « Nous développons les premiers processeurs de réseau de neurones commerciaux Intel Nervana NNP-L1000 (nom de code Crest Spring), prévue pour la libération en 2019 par rapport à la première génération de produits Lake Crest, nous. Intel devrait Nervana NNP-L1000 atteindra 3-4 fois la performance de la formation. Intel Nervana NNP-L1000 soutiendra également bfloat16, qui est largement utilisé dans l'industrie un format de données numérique pour le réseau de neurones de l'avenir, Intel sera en intelligence artificielle la gamme de produits élargie soutien bfloat16, dont Intel et Intel Xeon FPGA. « en fait, Crest Spring a lancé à la fin de 2018 a longtemps été selon la rumeur, mais maintenant il semble, en 2019 ce moment la stratégie officielle à cet égard il y a un retard, Carey Kloss a expliqué aux journalistes: « dans le nœud de processus plus moderne, nous intégrons plus meurent (puces de silicium) peut être obtenu plus rapidement la vitesse de traitement, mais il faut du temps pour fabriquer des tranches de silicium Il faut également du temps pour que la puce de silicium devienne un nouveau processeur de réseau neuronal, ce qui est la raison du retard.

Pour la différence entre les deux générations de puces, il a analysé que: «Lake Crest en tant que première génération de processeurs a réalisé une très bonne utilisation informatique sur les GEMM (opérations matricielles) et les nerfs convolutionnels. La quantité d'utilisation, mais en l'absence de personnalisation complète, nous avons également atteint un taux d'utilisation de calcul de plus de 80% pour GEMM dans la plupart des cas.Quand nous développons des puces de nouvelle génération, si nous pouvons maintenir une utilisation informatique élevée Taux, le nouveau produit a une amélioration de la performance de 3 à 4 fois.

En ce qui concerne la concurrence, Carey Kloss a dit: « Je ne sais pas ce que la feuille de route est celle de nos concurrents, mais notre vitesse de réaction est relativement rapide, donc je pense que nous ne serons pas désavantagés dans le traitement du réseau de neurones tels que bfloat16 a été pendant un certain temps. et il est récemment devenu plus populaire, de nombreux clients avancés à l'appui des exigences bfloat16, nous avons progressivement évolué en faveur de bfloat16. « TPU et du point de vue de contraste Google, il estime que TPU de deuxième génération semblable à Lake Crest, TPU trois générations semblables à Spring Crête

Attaque de tous les côtés En plus de porter Nervana NNP, les puces Xeon d'Intel pour les serveurs et les grands dispositifs principaux de l'informatique, tels que notre supercalculateur Tianhe-I et II sur l'utilisation d'Intel Xeon à six cœurs.

En ce qui concerne la puce visuelle, l'activité d'Intel a augmenté rapidement. Movidius puces VPU face déjà dans les véhicules automobiles, aériens sans pilote et d'autres matériels sur les marchés émergents, tels que des véhicules aériens sans pilote Dajiang, Tesla et Google caméras Clips ont adopté Movidius La puce visuelle.

Movidius le leader du marché Gary Brown a déclaré au 21e siècle journaliste Business Herald: « En Movidius, nous avons développé la puce est appelée unité de traitement visuel VPU VPU est une puce de vision par ordinateur et un processeur intelligent de la caméra afin que nous les deux puces. Il existe trois types de traitement: le traitement des FAI, qui est le traitement du signal d'image, le traitement basé sur la technologie de capture de la caméra, la vision par ordinateur et l'apprentissage en profondeur.

Il a cité la route, les scénarios d'utilisation spécifiques comprennent les produits et la robotique VR, la maison intelligente, des caméras industrielles, la caméra AI, ainsi que la surveillance et la sécurité. Où est la surveillance et la sécurité est un énorme marché, en particulier en Chine, la surveillance et les caméras de sécurité Le marché est particulièrement important et certaines grandes entreprises développent des caméras de surveillance comme Hikvision et Dahua.

Gary Brown a également mentionné que le champ actuel de la maison intelligente est en croissance rapide, même si le marché est petit, mais se développe rapidement. « Il y a beaucoup d'entreprises dans le développement de dispositifs intelligents, tels que smart sécurité à domicile, maison assistant personnel, sonnette de porte intelligente, et l'accès aux appartements et famille Mais dans le domaine domestique, le faible coût, la faible consommation d'énergie, la longue durée de vie de la batterie et la très grande précision sont des défis très importants car l'ombre extérieure, par exemple, peut déclencher une alarme antivol. Le taux de fausses alarmes est très important et devrait avoir une bonne précision.

Et l'un des défis de l'entreprise est de savoir comment continuer à créer des puces de haute performance, « Nous avons un certain nombre de stratégies, telles que faible consommation d'énergie avec un algorithme frontal, afin que nous puissions fermer la majeure partie de la puce, seule une petite partie de l'optimisation du fonctionnement de la fonction de détection de visage quand un visage est apparu, d'autres puces seront lancés. cela permet de garder le système de surveillance du visage est sous tension. nous avons encore beaucoup de calculs de la technologie d'économie d'énergie, la durée de vie de la caméra maison intelligente d'environ six mois. « Gary Brown a expliqué.

En outre, la charge FPGA Altera de cette ligne par la situation. Avec l'arrivée de l'onde 5G, analyse des données et le calcul des choses demande IdO surgira, noeud de réseau et l'accès ou au moins des dizaines de milliards de taille de la classe que la taille d'un téléphone mobile à 1-2 ordres de grandeur supérieure à la demande typique des choses qui doivent être utilisés changer avec souplesse l'algorithme, qui est la force du FPGA, FPGA peut être personnalisé pour répondre aux besoins des scénarios informatiques en changeant sa propre structure, ce qui rend également Intel à l'avenir Il est devenu possible de fournir des puces efficaces pour des types de dispositifs plus différents.Avec le montant de l'acquisition de 16,7 milliards de dollars, on peut voir que l'achat d'Intel n'est évidemment pas juste une valeur immédiate.

Scénarios rapides au niveau de l'entreprise Intel Une enquête récente montre que les clients des entreprises aux États-Unis, plus de 50% se dirigent vers une solution de cloud à base de processeurs Intel Xeon existants pour répondre à leurs besoins initiaux pour l'intelligence artificielle, alors que le nombre de cadres chez Intel ont déclaré dans une interview aux journalistes, il n'y a pas de solution unique pour tous les scénarios d'intelligence artificielle, Intel procédera à la technique et commerciale selon la demande des clients. par exemple, Intel Xeon et FPGA ou Xeon et Movidius configuré ensemble, Afin d'atteindre une fonction d'intelligence artificielle plus performante.

Pour Intel, ces intelligence artificielle améliorée sera largement utilisé dans la scène de classe entreprise Naveen Rao dit: « Quand l'accélération informatique pour conduire l'avenir de la transition de l'intelligence artificielle, nous devons fournir une gamme complète de solutions d'entreprise. Cela signifie que notre solution offre la plus large gamme de puissance de calcul et peut prendre en charge plusieurs architectures de milliwatts à kilowatts.

Carey Kloss a également expliqué aux journalistes du 21e siècle scénario Business Herald puce intelligence artificielle: « Spring Crest peut dire que les plus hauts niveaux de l'architecture du processeur Nervana Neuron de sorte que ses clients comprennent un grand centre de calcul à grande échelle, a déjà une donnée très forte. Les grandes entreprises avec un travail scientifique, les gouvernements, etc. Si vous avez besoin de modèles bas de gamme et de petite taille, Xeon peut vous aider, il peut ouvrir les données depuis le cloud jusqu'à la fin.

Plus précisément, Intel est également d'explorer le domaine médical, sans pilote, nouveaux commerces de détail, la mise en réseau et d'autres scénarios, comme dans les soins de santé, selon les rapports, Intel est Novartis (Novartis) en coopération avec l'utilisation des réseaux de neurones pour accélérer la profondeur de contenu haute le dépistage - c'est un développement de médicaments précoce est un élément clé de la coopération entre les deux parties de temps pour former le modèle d'analyse d'image a été réduite de 11 heures à 31 minutes - plus de 20 fois plus efficace.

En termes de non-boutiques, Intel a fourni un «cerveau de calcul» aux dépanneurs sans pilote de Jingdong, et il a été déployé et déployé dans plusieurs magasins intelligents (Sinopec Express Store, Jingdong Home) et des distributeurs automatiques intelligents. JD.com a déclaré que les algorithmes d'apprentissage automatique utilisés par les magasins sans pilote sont principalement axés sur les connaissances, les connaissances et les connaissances.Dans trois directions, la nécessité d'utiliser des données non structurées, comme la vidéo, est convertie en données structurelles. dans les algorithmes traditionnels algorithmes d'apprentissage machine maintenant plus populaire dans la vision de la machine CNN (convolution de réseau de neurones), la chaîne d'approvisionnement intelligente utilisée, comme SVM, la régression linéaire statistique, la régression logistique et d'autres conditions de réseau situation meilleure , une grande majorité des données vidéo peut être utilisé pour compléter le modèle dans le nuage. dans le cas de mauvais réseau, tel qu'un terminal mobile est calculée par le terminal, le réseau de bord est calculé à l'aide d'un petit complété en utilisant du matériel, y compris les serveurs Edge Intel.

Bien que les ennemis affair Intel, la transformation, le rythme de l'expansion est très ferme. Valeur R & D seulement du point de vue, selon les statistiques de IC Insights, avant 2017, les 10 premières entreprises de semi-conducteurs dans les dépenses totales de R & D de 35,9 milliards $, Intel au premier rang Selon le rapport, les dépenses de R & D d'Intel en 2017 s'élevaient à 13,1 milliards de dollars américains, soit 36% des dépenses totales du groupe, soit environ un cinquième des ventes d'Intel en 2017. Avec d'énormes investissements de diverses entreprises, la bataille des puces AI se poursuivra également. intensifiée.

2016 GoodChinaBrand | ICP: 12011751 | China Exports