L'intelligence artificielle embarquée (IA) devient rapidement la capacité technologique de base du traitement périphérique, permettant aux dispositifs «intelligents» de «reconnaître» l'environnement et de prendre des décisions basées sur les informations reçues avec peu ou pas d'intervention humaine. environnement d'apprentissage machine à NXP propice au développement de l'apprentissage de la machine dans la vision, la parole et la détection des anomalies dans le champ d'application de la croissance rapide de fournir des informations d'entrée en fonction des applications d'apprentissage de la machine vision à travers la caméra à différents types d'algorithmes d'apprentissage machine (réseau de neurones dans lequel le plus populaire). ces applications couvrent des segments de marché les plus verticales, et effectuer l'identification des objets, l'authentification, les fonctions démographiques et autres. dispositif de commande vocale (VAD) fait la promotion, tels que les besoins d'apprentissage machine à bord afin de parvenir à la détection de mot de réveil, ainsi que le traitement du langage naturel ' interface « l'application vocale de l'utilisateur. L'apprentissage de la machine de détection d'anomalies peut être identifié (vibration / mode sonore) de panne imminente, ce qui réduit considérablement les temps d'arrêt, des changements rapides dans l'industrie 4.0. NXP basé sur une variété de machines d'apprentissage pour les clients Intégré dans l'application, l'environnement de développement d'apprentissage machine NXP fournit logiciel de frais, permettant aux clients d'importer leur propre tensorflow de formation ou d'un modèle Caffe, pour les convertir à l'optimisation des moteurs d'inférence AI, et le déploiement (i.MX du MCU à des processeurs hautement intégrés et Layerscape richesse NXP de solution de traitement évolutive ).
« Lorsque vous utilisez l'apprentissage automatique dans les applications embarquées, doit tenir compte du coût et de l'expérience de l'utilisateur final. Par exemple, peut également être déployé notre MCU rentable moteur d'inférence AI, et d'obtenir une performance adéquate, que tant de gens sont toujours surpris. Markus Levy directeur de la technologie de l'intelligence artificielle NXP, a déclaré, «d'autre part, notre transfrontalier et le processeur d'applications haute performance dispose également d'une capacité de traitement puissantes, dans de nombreuses applications client peuvent être mises en œuvre rapidement le raisonnement AI et la formation. avec l'application de la grippe aviaire Alors que nous continuons à nous développer, nous continuerons de stimuler la croissance dans ce domaine grâce à des processeurs de nouvelle génération conçus pour accélérer l'apprentissage automatique.
Une autre exigence clé de la technologie d'apprentissage AI / machine dans les applications informatiques de pointe qui peuvent être configurés en toute sécurité et gérer les choses et les dispositifs de bord de la facilement nuage et déployer en toute sécurité et de mise à niveau des dispositifs embarqués. Support de plate-forme EdgeScale. EdgeScale grâce à l'intégration dans le nuage Des moteurs d'apprentissage et d'inférence AI / machine, et déploient automatiquement des modules intégrés aux périphériques pour une expérience de développement et de livraison continue de bout en bout.
Afin de répondre à un large éventail de besoins, NXP a également créé un écosystème de partenaires d'apprentissage qui relie les clients aux fournisseurs de technologie, accélère le développement de produits grâce à des outils d'apprentissage machine éprouvés, des moteurs d'inférence, des solutions et des services de conception. les membres de la production et les délais de commercialisation. écosystèmes comprennent au-Zone Technologies et Pilot.AI. au-Zone Technologies fournit la première boîte à outils d'apprentissage de la machine intégrée de bout en de l'industrie et le moteur d'inférence d'exécution DeepView, ce qui permet aux développeurs de NXP toutes les compositions de produits SoC (y compris les bras mélange Cortex-a, noyau Cortex-M d'isomères et la GPU) pour déployer et configurer CNN. Pilot.AI a construit un châssis, la plate-forme peut être dans une variété de clients (à partir du microcontrôleur Diverses tâches perceptives sont implémentées sur les GPU, y compris la détection, la classification, le suivi et l'identification, et des outils de collecte / classification des données et des modèles pré-formés sont fournis pour implémenter directement le déploiement du modèle.