Nandan Nayampally detto processore è ora non solo i dispositivi mobili sono in grado, anche molto piccolo microcontrollore (MCU), vengono forniti con le capacità di elaborazione performante base AI, come ARM Cortex-M0, Braccio Cortex-M3 serie, ora è possibile eseguire modelli video o di apprendimento automatico vocale in termini di cui sopra.
Con l'introduzione di un numero sempre maggiore di processori mobili dotati di funzionalità o caratteristiche AI, osserva che esistono sempre più processori di applicazioni AP che combinano funzioni CPU e GPU e vengono utilizzati per gestire operazioni AI di diversi tipi di applicazioni. Ad esempio, rilevamento di oggetti, riconoscimento vocale o riconoscimento facciale: non solo questi processori di applicazioni utilizzano l'architettura ARM, molti dispositivi intelligenti con funzionalità AI presenti sul mercato hanno anche architetture ARM, come dispositivi vocali intelligenti, telecamere intelligenti o È una TV intelligente e così via, anche nel cloud, ha detto, e ora la sua architettura è stata utilizzata anche in Cina, i supercomputer giapponesi per fare applicazioni diverse.
Nandan Nayampally ha sottolineato che, in seguito, l'intelligenza artificiale diventerà sempre più popolare sui dispositivi mobili. "Quasi tutti i dispositivi possono essere implementati." Per quanto riguarda il tipo di applicazioni AI può essere eseguito su di esso, ha detto che dipenderà dall'hardware del dispositivo. Ulteriori spiegazioni, Machine Learning (ML) e AI sono entrambi software e funzionano su hardware.Se si tratta di una semplice applicazione AI, non ha bisogno di passare troppi calcoli.La CPU o GPU da sola è sufficiente, se sono richieste operazioni altamente complesse A questo punto, è necessario utilizzare Neural Network Accelerator per accelerare i calcoli per applicazioni IA più avanzate.
Nandan Nayampally detto che il futuro la società continuerà a rafforzare la CPU, GPU o di apprendimento AI potenza di elaborazione della macchina, non solo nella progettazione dell'architettura aggiungerà più set di istruzioni, o strumenti, per fornire machine learning, di apprendimento profondo ancora più potente il supporto sarà inoltre ottimizzato tramite software di pianificazione al fine di svolgere una maggiore efficienza, ha, per esempio, ha recentemente lanciato Cortex-A76 architettura della CPU, nella realizzazione del compito di apprendimento della macchina, è possibile ottenere rispetto alla generazione precedente A75 aumento delle prestazioni 4 volte, mentre il Mali-G76 GPU, anche, G72 3 volte superiore alla piena efficacia delle prestazioni.
Non solo lo sviluppo di chip e di design in collaborazione con AI, braccio quest'anno anche cominciato a concentrarsi neurale acceleratore di rete, ha lanciato progetto Trillium nuovo processore di apprendimento architettura della macchina (MLP) e il processore Object Detection due nuove serie IP (ODP), che è pubblicato all'inizio di quest'anno ARM Una nuova famiglia di chip di intelligenza artificiale (AI).
Funzionamento 3Teraflops Il primo è utilizzato per accelerare la macchina di apprendimento, ciascuna delle prestazioni punto processore galleggiare 4.6Teraflops, ma anche più potenza, il consumo di potenza può essere realizzato in virgola mobile per watt. Quest'ultimo è accelerato per visione artificiale rispetto ai DSP tradizionali ASIC segnale digitale, aumento delle prestazioni fino a 80 volte, e in grado di gestire fino a 60 fotogrammi al secondo in video Full HD ad alta definizione.
Nandan Nayampally è piuttosto ottimista sull'applicazione di Object Detection nelle applicazioni AR e VR. Ha anche affermato che la società ha acquistato Apical 2 anni fa come una società tecnologica che si concentra sulla visione integrata del computer e sulle applicazioni di imaging. Per aiutare ad accelerare il suo ingresso nel mercato dei dispositivi VR, oltre ai prodotti ARM già esistenti che supportano il vision computing (Vision computing), ha affermato che ci saranno soluzioni Vision di nuova generazione.