La tecnologia embedded Intelligenza Artificiale (AI) sta rapidamente diventando la base di elaborazione bordo capacità, in modo che i dispositivi 'intelligenti' in grado di 'riconoscere' ambiente, e prendere decisioni sulla base delle informazioni ricevute a poco o nessun intervento umano. macchina NXP ambiente favorevole allo sviluppo di machine learning in visione, la parola e il rilevamento delle anomalie nel campo di applicazione di rapida crescita per fornire informazioni in ingresso sulla base di apprendimento automatico visione applicazioni attraverso la macchina fotografica a vari tipi di algoritmi di apprendimento automatico (rete neurale in cui il più popolare) di apprendimento. queste applicazioni comprendono segmenti di mercato più verticali, ed eseguire l'identificazione di oggetti, autenticazione, demografica e altre funzioni. dispositivo vocale (VAD) promuove, come bordo macchina di apprendimento esigenze al fine di ottenere la rilevazione di parola di sveglia, nonché l'elaborazione del linguaggio naturale ' interfaccia utente vocale 'applicazione. (vibrazione / modalità audio) guasto imminente, in tal modo riducendo notevolmente i tempi di inattività, rapidi cambiamenti dell'industria 4.0. NXP basati su una varietà di machine learning per i clienti di apprendimento automatico di rilevamento delle anomalie può essere identificato integrato nel programma applicativo. ambiente di NXP macchina di sviluppo di apprendimento fornito gratuitamente Software a pagamento, che consente ai clienti di importare i propri modelli TensorFlow o Caffe, convertendoli in un motore di inferenza AI ottimizzato e implementando le soluzioni di elaborazione scalabili di NXP dalle MCU ai processori i.MX e Layerscape altamente integrati ) in.
'Quando si utilizza l'apprendimento automatico nelle applicazioni embedded, deve tener conto dell'esperienza dei costi e degli utenti finali. Per esempio, la nostra MCU costo-efficacia può anche essere schierato motore di inferenza AI, e ottenere prestazioni adeguate, che così tante persone sono ancora sorpreso. 'Markus Levy NXP direttore tecnologia di intelligenza artificiale, ha detto,' d'altra parte, il nostro transfrontaliera e processore per applicazioni ad alte prestazioni ha anche una potente capacità di elaborazione, in molte applicazioni dei clienti possono essere implementate rapidamente AI ragionamento e di formazione. con l'applicazione di intelligenza artificiale Mentre continuiamo ad espanderci, continueremo a guidare la crescita in questa area applicativa attraverso processori di nuova generazione progettati per accelerare l'apprendimento automatico.
Un altro requisito fondamentale della / tecnologia di machine learning AI nelle applicazioni bordo di calcolo che può essere tranquillamente configurare e gestire le cose e dispositivi di ultima generazione dalla nube modo semplice e sicuro implementare e aggiornare dispositivi embedded. Supporto della piattaforma SCALASPIGOLO. SCALASPIGOLO attraverso l'integrazione nel cloud Motori di IA / apprendimento automatico e inferenza, e distribuiscono automaticamente moduli integrati su dispositivi periferici per lo sviluppo continuo e l'esperienza di consegna end-to-end.
Al fine di soddisfare una vasta gamma di esigenze dei clienti, NXP ha anche creato un ecosistema di partner di apprendimento automatico che collega i clienti con i fornitori di tecnologie, accelera lo sviluppo del prodotto attraverso strumenti di machine learning, motori di inferenza, soluzioni e servizi di progettazione. i membri della produzione e il time to market. ecosistemi includono Au-Zone Technologies e Pilot.AI. Au-Zone Technologies fornisce del settore prima end-to-machine learning integrato toolkit e motore runtime di inferenza DeepView, consentendo agli sviluppatori di NXP tutte le composizioni di prodotti SoC (compresi ARM Cortex, Cortex-M miscela di isomeri nucleo e la GPU) per distribuire e configurare CNN. Pilot.AI ha costruito un telaio, la piattaforma può essere in una varietà di clienti (dal microcontrollore per Vari compiti percettivi sono implementati su GPU, tra cui rilevamento, classificazione, tracciamento e identificazione, e strumenti di raccolta / classificazione dei dati e modelli pre-formati sono forniti per implementare direttamente la distribuzione del modello.