Nandan Nayampally ledit processeur est maintenant non seulement les appareils mobiles ont la capacité, même microcontrôleur très faible (MCU), sont fournis avec les capacités de traitement performantes IA de base, tels que l'ARM Cortex-M0, bras Cortex-M3 série, vous pouvez maintenant lancer des modèles vidéo ou d'apprentissage de la machine vocale en termes de ce qui précède.
En plus des fonctions phares AI ou caractéristiques des processeurs mobiles introduits, il a observé que l'AP a commencé plus et processeurs plus d'applications combinent des fonctions CPU et GPU à utiliser dans le traitement de différents types d'utilisation travail informatique AI , tel que la détection d'objets, la reconnaissance vocale, la reconnaissance du visage ou analogue. ces applications que l'architecture de processeur ARM, le marché comprend un certain nombre de dispositifs intelligents fonction AI, ont également l'architecture ARM, tel qu'un dispositif de voix à puce, des caméras à puce, ou smart TV et ainsi de suite, même dans le nuage, dit-il, il est maintenant l'architecture doit aussi faire des applications différentes sur des supercalculateurs à utiliser en Chine et au Japon.
Nandan Nayampally a souligné que, après l'IA sera de plus en plus populaire sur les appareils mobiles, « presque tous peuvent être effectuées sur tous les appareils. » En ce qui concerne ce type d'applications AI pour fonctionner sur, dit-il, dépendra du dispositif matériel. Il Plus d'explications, Machine Learning (ML) et AI sont à la fois logiciels et exécutés sur du matériel.S'il s'agit d'une simple application IA, il n'est pas nécessaire de faire trop de calculs.Un processeur ou un GPU suffit, si des opérations très complexes sont nécessaires À ce stade, il est nécessaire d'utiliser Neural Network Accelerator pour accélérer les calculs pour des applications IA plus avancées.
Nandan Nayampally dit que l'avenir, la société continuera à renforcer la CPU, GPU ou d'apprentissage de puissance de traitement AI de la machine, non seulement dans l'architecture de conception ajoutera plus jeu d'instructions, ou des outils, pour fournir l'apprentissage de la machine, l'apprentissage en profondeur encore plus puissant Support, mais aussi à travers le logiciel pour optimiser la planification, de jouer un usage plus efficace, par exemple, l'architecture CPU Cortex-A76 récemment introduit, dans la mise en œuvre des tâches d'apprentissage automatique que la génération précédente A75 Amélioration des performances 4x, et en outre, le GPU Mali-G76 est également 3 fois plus efficace que le G72.
Non seulement le développement de la puce et la conception en collaboration avec l'IA, ARM cette année a également commencé à se concentrer accélérateur de réseau de neurones, il a lancé le projet nouvelle architecture Trillium machine processeur d'apprentissage (MLP) et le processeur de détection d'objet (ODP) deux nouvelles séries IP, qui est publié plus tôt cette année ARM Une nouvelle famille de puces d'intelligence artificielle (IA).
Le premier est utilisé pour accélérer la machine d'apprentissage, chacun des performances du processeur en virgule flottante jusqu'à 4.6Teraflops, mais aussi plus de puissance, la consommation d'énergie peut être réalisé 3Teraflops performances en virgule flottante par watt. Ce dernier est un fonctionnement accéléré pour la vision par ordinateur par rapport au signal numérique DSP ASIC traditionnels, augmentation des performances jusqu'à 80 fois, et peut gérer jusqu'à 60 images par seconde en Full HD vidéo haute définition.
Non seulement Nandan Nayampally est optimiste quant à l'application de la détection d'objets dans les applications AR et VR, il a même déclaré que la société avait racheté Apical il y a deux ans en tant que société technologique spécialisée dans les applications de vision et d'imagerie. Pour aider à accélérer son entrée sur le marché des appareils AR, VR, en plus des produits ARM existants qui supportent déjà l'informatique de vision (Vision computing), il a déclaré qu'il y aura des solutions Vision de nouvelle génération.