Con l'intelligenza artificiale (AI), opera sulla tecnologia (Informatica Bordo) in questi ultimi anni, il rapido sviluppo di una varietà di elettronica di consumo ed elettrodomestici concetto Smart Home inclusi sono cambiamenti rivoluzionari avverrà gradualmente. Alla fine, i vari rete di intelligenza artificiale che consiste di elettrodomestici, sarà probabilmente voi e non riesco a vedere gli altri membri della famiglia. il concetto di cloud locale e relative apparecchiature, saranno gli elementi della rete di intelligenza artificiale per la casa indispensabile.
Smart speaker / monitoring diventeranno due principali fusi di IA dei consumatori
La società di ricerche Ovum responsabile per il monitoraggio dello sviluppo della tecnologia di consumo ricercatore Ronan de Renesse (Figura 1) che l'applicazione di AI nel campo dell'elettronica di consumo, quasi due anni spesso diventano il centro dell'attenzione dei media, ma l'elettronica di consumo e AI combinato con la tendenza, solo ora appena iniziando a sviluppare nei prossimi tre-cinque anni, molti prodotti di elettronica di consumo saranno dotati di funzioni di intelligenza artificiale, e saranno collegati tra di loro, una famiglia di intelligenza artificiale nella rete.
Figura 1 Ronan de Renesse, ricercatore della tecnologia consumer di Ovum, ritiene che vari dispositivi elettronici della futura famiglia diventeranno un membro invisibile della famiglia.
Per la catena hardware, anche se questa tendenza porterà molte nuove opportunità di business, ma se da un punto più alto livello di vista, questo è entrato in silenzio la rete di intelligenza artificiale in casa, si sarà non vedo un'altra "famiglia membri ".
Dal punto di vista hardware, gli altoparlanti intelligenti che sono familiari a tutti sono fondamentalmente prodotti relativamente maturi, anche se ci sarà una crescita significativa delle vendite nei prossimi cinque anni, la crescita rallenterà gradualmente e si stima che entro il 2022, gli oratori intelligenti globali L'importo delle vendite sarà vicino a 9,5 miliardi di dollari USA, infatti, Renesse ritiene che Amazon e Google potrebbero non essere in grado di lanciare il proprio marchio di altoparlanti intelligenti in futuro, perché questo tipo di prodotto in sé ha poco margine di profitto. Per i colossi della rete domestica, purché i fornitori di hardware utilizzino i loro servizi di piattaforma, possono raccogliere i dati degli utenti di cui hanno bisogno.
Nello stesso periodo, i cambiamenti in prodotti come i sistemi di monitoraggio intelligenti a casa saranno più pronunciati rispetto agli altoparlanti intelligenti: attualmente i cosiddetti prodotti di monitoraggio domestico intelligente non dispongono di componenti di intelligenza artificiale, ma piuttosto di telecamere, allarmi, serrature, sensori e altro hardware. I prodotti sono collegati tra loro per formare un sistema di sicurezza che supporta Event Trigger, tuttavia, con l'aumentare delle maturità delle tecnologie software e hardware correlate, aumenterà la percentuale di telecamere di sorveglianza domestiche che trasportano l'intelligenza artificiale e, allo stesso tempo, sarà in grado di ottenere di più. Le applicazioni, come l'uso di assistenti vocali, forniscono a più utenti servizi più precisi in un ambiente multiutente.
Protezione della privacy dei consumatori per le app AI
Tuttavia, per il settore dell'hardware, ciò che è più degno di nota è che il concetto di cloud locale e i relativi prodotti applicativi saranno rilevati come dispositivi in casa in genere supportano l'IA. Renesse ha sottolineato che i prodotti elettronici dotati di funzione AI Produrre una grande quantità di dati dell'utente e molti di essi sono dati relativi alla privacy personale, pertanto, se questi prodotti elettronici domestici dotati di intelligenza artificiale si affidano completamente al cloud esterno per operare, ciò ovviamente causerà problemi di privacy.
D'altra parte, molte caratteristiche relativamente semplici dispositivi cose di consumo, da energia elettrica, potenza di calcolo, il costo di produzione e le altre condizioni, potrebbero non essere in grado di supportare molto high-end algoritmi di intelligenza artificiale. A questo punto, il dispositivo nuvola locali giocheranno il ruolo del cervello, Ordinare uniformemente questi dispositivi.
Tuttavia, Renesse ha anche ammesso che è ancora difficile affermare quale dispositivo riprodurrà un centro cloud locale, potrebbe essere uno speaker di ordine superiore, potrebbe essere una smart TV o altri prodotti.
Direttore Braccio Senior Marketing Ian Smythe (Figura 2) ritiene inoltre che ci saranno sempre più credere che il futuro del computing e l'inferenza (inferenza) il motore per spostare il terminale. Ciò ha portato ad un importante trasferimento di forza motrice, che è quello di proteggere la privacy dell'utente . per l'elaborazione finale e di analisi, i dati possono facilmente essere anonimi, e per garantire che i dati sensibili non saranno diffusi attraverso la rete. dell'applicazione famiglia, per esempio, i consumatori non vogliono che qualcuno dalla rete appreso che la sua famiglia non ha fatto Il tempo delle persone, e quindi facilmente da rubare a casa.
Figura 2 Ian Smythe, direttore marketing senior di Arm, ha affermato che per le applicazioni AI consumer, se il meccanismo di protezione della privacy è affidabile, sarà la chiave per capire se l'applicazione può essere resa popolare.
Per le applicazioni di visione, Smythe ritiene che le funzioni della fotocamera supporto riconoscimento visivo da considerare alcune importanti questioni di privacy in natura. Ovviamente, questi dispositivi devono essere progettati in modo che non importa quando l'unità è memorizzata o trasmessa al cloud, in grado di proteggere la la privacy e le informazioni sensibili. Poiché la trasmissione è di solito collegato in modalità wireless, è necessario prestare particolare attenzione alla sicurezza di trasmissione senza fili. Gli ingegneri di progettazione del dispositivo deve garantire che il dispositivo di connessione di rete non verrà violato, a guardare.
La durata della batteria rimane la principale sfida tecnica
Tuttavia, sull'orlo di nodi AI, la sfida tecnica più grande è ancora il consumo di energia del sistema. Per le telecamere di sorveglianza di consumo, ad esempio, i consumatori possono aspettarsi questi prodotti sono completamente wireless, è meglio non anche le linee elettriche ciò significa che questi prodotti devono essere alimentati a batteria, ma anche il supporto di rete wireless. inoltre, dovrebbe essere in grado di identificare tutti gli elementi, e la necessità di spazio illimitato.
Sopra richiedono una grande quantità di sfide per la progettazione del sistema, può richiedere diversi mesi per eseguire capacità della batteria dei costi addebitati costantemente di machine learning (ML), e la continua capacità di caricare file sul cloud storage Questi casi estremi di progettazione di sistema e componenti di chip requisiti piuttosto stringenti, cosa più importante, hanno imparato la coreografia quando abilitare queste funzionalità per estendere la durata della batteria.
Con sede controllo della macchina fotografica, una videocamera non ha bisogno di 24 ore di trasferimento stanza vuota, basta caricare l'immagine della parte è ragionevole solo quando ci sono identità non confermato della gente lì. Allo stesso modo, nel caso come la disponibilità della stessa scena abilitare algoritmo ML non ha senso. accordi attenti dove, quando abilitare queste funzioni, al fine di rendere i dispositivi di consumo previsti per essere in modalità di funzionamento, solo due batterie AA, può a lungo termine l'uso normale.
Poiché il consumo di energia è uno dei principali ostacoli che impediscono alle IA di entrare nei dispositivi terminali, molte startup sul mercato stanno ora vedendo questa opportunità per lanciare un acceleratore a rete neurale a bassa potenza (NN), la proprietà intellettuale (IP) del silicio, per assistere il chip. Riducendo il consumo energetico, gli sviluppatori possono soddisfare le prestazioni richieste dall'inferenza degli algoritmi: Kneron ha ufficialmente rilasciato la sua serie NPU, un processore dedicato per l'intelligenza artificiale progettato per i dispositivi terminali. IP Questa serie comprende tre prodotti, ovvero la versione a potenza ultra-ridotta KDP 300, la versione standard KDP 500 e la versione ad alte prestazioni KDP 700, in grado di soddisfare le esigenze di smartphone, case intelligenti, sicurezza intelligente e una varietà di dispositivi IoT. L'intera gamma di prodotti ha un basso consumo energetico, dimensioni ridotte e offre potenti capacità di calcolo. Diversamente dal consumo energetico del processore per l'intelligenza artificiale sul mercato, l'IP NPU Kneron consuma 100 milliwatt. (mW), per il KDP 300 dedicato al riconoscimento facciale per smartphone, consuma meno di 5 milliwatt.
Shi Yalun, responsabile marketing e applicativo dei prodotti Endurance (nella figura 3) ha sottolineato che la necessità di eseguire operazioni di intelligenza artificiale sul dispositivo terminale rispettando i requisiti di consumo energetico e prestazioni è una priorità assoluta, pertanto è fondamentale fornire soluzioni ottimizzate per le singole applicazioni. Al momento, l'applicazione dell'intelligenza artificiale può essere suddivisa in due categorie principali: voce e video e la struttura della rete neurale utilizzata è diversa.Il focus delle applicazioni vocali è l'analisi del linguaggio naturale.L'architettura di rete mainstream è la rete neurale ricorrente (RNN). La principale struttura di rete utilizzata per l'analisi delle immagini è la rete neurale convoluzionale (CNN) .Per ottimizzare le diverse strutture di rete, la soluzione fornita dalla capacità è diversa.
Shen Ming-feng (Figura 3 a destra) gli orsi possono integrare il design gestore del software, anche se minore domanda di linguaggio naturale performance computing analisi di chip, ma a causa del tono del linguaggio, abitudini linguistiche hanno una grande discrepanza, e, pertanto, necessario che il set di dati di training modello Molto più del riconoscimento video, d'altra parte, poiché i consumatori sono già abituati ad utilizzare gli assistenti vocali basati su cloud come Apple Siri e Google Assistant, le applicazioni di analisi semantica offline sono favorite dai consumatori. Il presupposto è che dobbiamo fornire un'esperienza di consumo simile con risorse di calcolo limitate, una sfida per i venditori di chip e gli sviluppatori di sistemi.
Figura 3 Aaron Alan (a sinistra), responsabile marketing e applicativo di prodotti Endurance, ritiene che il riconoscimento vocale e dell'immagine siano di natura molto diversa e necessiti di soluzioni diverse. Giusto è Shen Mingfeng, un responsabile della progettazione software per lo sviluppo di software.
In effetti, la stragrande maggioranza degli smart speaker non sono ancora prodotti di edge computing. Allen Aaron ha sottolineato che se è Amazon Echo, Apple's Homepod o Baidu, gli altoparlanti intelligenti della piattaforma Alibaba, devono ancora I dati vengono inviati al cloud per l'elaborazione e l'analisi semantica, al fine di rispondere agli utenti.Le operazioni vocali che possono essere eseguite direttamente sul prodotto finale sono per lo più basate su regole piuttosto che sulla comprensione semantica basata su macchine.
Dal 2016 gli orsi possono lanciare primo terminale processore AI specifico del dispositivo NPU IP della società, hanno continuato a migliorare il suo design e le specifiche, e ottimizzato per diverse applicazioni industriali. In attualmente disponibile per i clienti che cominciano nel PI, KDP 500 clienti di piante che utilizzano il sistema è stato e sarà in produzione di massa nella produzione secondo trimestre (Maschera Tape-out). riconoscimento vocale con cooperazione cani da ricerca ha raggiunto l'analisi offline semantica, quindi, anche se il dispositivo terminale non è collegato alla rete, ma anche Comprende le istruzioni vocali dell'utente.
Kneron NPU IP è dedicato processore intelligenza artificiale per il dispositivo terminale è stato progettato in modo che il dispositivo terminale in un ambiente in linea, è possibile eseguire RESNET, YOLO altra rete apprendimento profondo. Kneron NPU è un sistema completo di soluzioni hardware end-AI, compreso l'hardware IP, compilatore (compiler), e il modello di compressione (compressione modello) tre parti, in grado di supportare una varietà di modelli di reti neurali mainstream, come RESNET-18, RESNET-34, Vgg16, GoogleNet, e Lenet, così come il supporto corrente principale di apprendimento profondo Cornici, tra cui Caffe, Keras e TensorFlow.
consumo energetico Kneron NPU IP è 100 livello mW, versione ultra-bassa potenza del KDP 300 o anche meno di 5 mW, gamma completa di prodotti nelle prestazioni per watt 1,5 TOPS / W o più, l'uso di un numero di tecnologia esclusiva, può Soddisfare le esigenze dei venditori di chip, dei fornitori di sistemi per il basso consumo energetico, l'elevata potenza di calcolo.
Blocco degli elementi di base Gli acceleratori hardware non temono l'iterazione tecnica
Indurimento circuito (cablato) per migliorare l'efficienza di alcuni compiti di elaborazione, riducendo i consumi energetici, progettazione di chip per età, ma a costo di flessibilità applicativa inferiore, cambiamento significativo nel caso della domanda di mercato per le funzioni di chip o algoritmi software significativamente rivisti, i progettisti di chip devono ri-sviluppare un nuovo chip.
Nella situazione in cui la domanda di chip per il mercato è stata ampiamente determinata, questo metodo di progettazione non è un problema, tuttavia, nelle aree tecnologiche emergenti dove le iterazioni tecnologiche sono veloci, l'adozione di questo approccio progettuale avrà un rischio commerciale relativamente ampio. l'intelligenza artificiale è molto veloce iterazione abile, quasi ogni anno un nuovo algoritmo con il modello a disposizione società di ricerca. Aprire aI ha anche sottolineato che nel corso degli ultimi sei anni, modello di formazione aI per il calcolo richiesta di potenza aumenterà ogni 3,43 al mese volte.
A questo proposito, Shen Ming-Feng ha sottolineato, non è necessariamente un acceleratore hardware non è elastico. Resistente ai prodotti energetici, per esempio, nella progettazione architettonica, l'azienda utilizza scissione nucleo di convoluzione tecnologia (Filtro di decomposizione), il grande Convoluzione circonvoluzione calcolare una pluralità di piccoli blocchi suddivisi in un blocchi di calcolo convoluzione separatamente, quindi combinati accelerazione convoluzione hardware riconfigurabile (convoluzione riconfigurabile accelerazione) tecnica, il risultato dell'operazione di convoluzione del funzionamento di una pluralità di blocchetti vengono fusi per accelerare la complessiva Efficienza operativa
Parabole più facile comprendere, come i mattoni Lego possono essere combinati in una varietà di modelli per costruire un oggetto, ma l'oggetto stesso è ancora una pila da pochi scatola di base. Programma energetico resistenza è indispensabile per gli algoritmi AI Gli elementi di base vengono accelerati per migliorare le prestazioni di esecuzione dell'intero algoritmo, pertanto, anche se l'algoritmo AI viene aggiornato a una velocità molto elevata, la soluzione basata sulle prestazioni può ancora esercitare un effetto di accelerazione.
Oltre alla acceleratore stessa è progettato per gli elementi di base, invece di un algoritmo specifico per accelerare la resistenza esterna globale, può anche fornire tecniche di accelerazione e applicazioni di AI o distribuito, come suo modello compressione modello (Model Compression) tecnologia di compressione messo non ottimizzato il numero di volte; tecnologia memoria gerarchica (multi-livello cache) può ridurre il carico della CPU e ridurre la quantità di trasmissione di dati, per migliorare ulteriormente l'efficienza operativa complessiva Inoltre, Kneron NPU IP può essere combinato Kneron software di riconoscimento di immagini, fornisce analisi identificazione in tempo reale, e veloce. La risposta non è solo più stabile, ma soddisfa anche i requisiti di sicurezza e privacy. Poiché l'hardware e il software possono essere strettamente integrati, la soluzione generale è più piccola e il consumo energetico è inferiore per assistere al rapido sviluppo dei prodotti.
Riconoscimento di immagini L'intelligenza artificiale è più urgente verso il limite
Nel complesso, l'attuale domanda di mercato per il riconoscimento delle immagini è più urgente, in linea analisi semantica, anche se ci sono altoparlanti intelligenti questo enorme potenziale di applicazioni di mercato, ma questa scommessa, ma meno risorse del settore. La ragione principale di questo fenomeno è che l'immagine La trasmissione occuperà una grande quantità di larghezza di banda, il che a sua volta aumenta il costo totale di proprietà del sistema: Voice non ha questo problema.
Lin Zhiming, direttore generale di Jingxin Technology (Figura 4) ha spiegato che l'integrazione dell'intelligenza artificiale e dell'Internet of Things guiderà anche l'introduzione della tecnologia di edge computing, che verrà applicata a una varietà di applicazioni emergenti. Tra questa tendenza, la flessibilità e la velocità sono i maggiori vantaggi per i produttori taiwanesi: per la maggior parte delle aziende taiwanesi e delle società di progettazione IC, è più facile penetrare nel mercato dell'intelligenza artificiale.
Figura 4: Zhixin Lin, General Manager di Jingxin Technology stima che IP Cam sarà una delle applicazioni principali per l'esecuzione di dispositivi di inferenza artificiale su dispositivi edge.
Allo stesso tempo, grazie all'introduzione della tecnologia di edge computing, aumenteranno anche i requisiti hardware come la memoria e la trasmissione, il che aumenterà notevolmente i costi di produzione, poiché il sistema system-on-chip (SoC) correlato all'immagine è in origine più complesso di altre applicazioni, Anche la tolleranza dei costi è ampia, quindi la tecnologia di edge computing dovrebbe essere la prima ad essere importata da applicazioni relative alle immagini come la IP Cam.
Le applicazioni di intelligenza artificiale possono essere suddivise in formazione e identificazione.Nel massiccio processo di elaborazione del deep learning, il cloud computing viene ancora eseguito in un breve periodo di tempo.Il compito che il edge computing è responsabile è quello di fare prima le informazioni raccolte. L'elaborazione iniziale, dopo aver filtrato informazioni non importanti, carica i dati nel cloud per risparmiare i costi di trasmissione, mentre l'apprendimento approfondito completato dal cloud può anche rendere più intelligente la funzione di identificazione del terminale. Ad esempio, il lavoro di deep learning delle immagini può essere completato prima dal cloud computing: dopo che lo studente in standby riconosce il pedone, l'IP Cam sul bordo può eseguire solo il lavoro di identificazione.
D'altro canto, poiché IP Cam è ampiamente utilizzato nella manutenzione della sicurezza e nella sicurezza della comunità, il governo e le imprese sono relativamente disposti a sostenere gli investimenti, che costituiranno anche una ragione per il rapido sviluppo di IP Cam.
Lin Zhiming quota, molti produttori stanno brancolando come importare chip di intelligenza artificiale nel proprio sistema. La situazione attuale è simile a quando le cose hanno cominciato a fiorire, stiamo ancora esplorando come applicare i tagli, stimata a circa 2.020 produttori Lanciare più prodotti reali.
Le applicazioni in tempo reale devono utilizzare l'architettura di edge computing
L'intelligenza artificiale è un tema caldo al giorno d'oggi, che gradualmente trasferito dal architettura cloud computing per l'architettura di elaborazione bordo, porterà non poco impatto sui produttori di supply chain. Nonostante il breve periodo di tempo continuerà a sviluppare intelligenza artificiale basata su cloud computing, Tuttavia, molte funzioni di intelligenza artificiale relative alle applicazioni di visione inizieranno ad importare i bordi.
Xilinx Development Director (Xilinx) mercato strategia di intelligenza visiva Dale K. Hitt (Figura 5) ha sottolineato che in un prossimo futuro, i componenti di formazione allo sviluppo di intelligenza artificiale possono ancora dominato dal cloud computing. Tuttavia, l'inferenza / Distribuire componenti è iniziata Utilizza le operazioni marginali per supportare applicazioni che richiedono bassa latenza ed efficienza di rete.
Figura 5 Dale K. Hitt, direttore dello sviluppo del mercato per la strategia di visual intelligence Xilinx, ritiene che per le applicazioni che richiedono una latenza molto bassa, le operazioni edge saranno la soluzione migliore.
L'apprendimento automatico per le applicazioni legate alla visione sarà una delle tendenze chiave e di vasta portata per le applicazioni edge-operated, ma sarà anche forte nella visione industriale delle macchine, nelle città intelligenti, nell'analisi visiva e nel mercato dell'autoassistenza. crescita potenziale. in termini di applicazioni di visione e di consumo industriali, grazie agli algoritmi di apprendimento automatico bordo aritmetica da eseguire, quindi per le prestazioni richieste sono anche superiori ai generazioni precedenti molti programmi. inoltre, bordo macchina algoritmo di apprendimento / funzione è anche stata rapida evoluzione, e quindi tutti i settori Ha bisogno di hardware auto-adattivo per ottimizzare le future architetture di inferenza di apprendimento automatico.
Hitt auto-guida, per esempio, ogni auto dispone di sofisticati algoritmi dietro il supporto del sensore, è responsabile per l'interpretazione dei risultati della uscita dei dati del sensore percezione. L'ultima tendenza è quella di utilizzare algoritmi di apprendimento profondo all'uscita queste percezioni interpretazione dei risultati, tuttavia, Gli algoritmi di apprendimento approfondito devono essere addestrati attraverso un gran numero di situazioni potenziali per imparare a leggere tutti i dati dei sensori possibili.
Dopo l'allenamento, algoritmi di apprendimento profonde richiedono un'elevata potenza di calcolo con una latenza ultra-bassa, al fine di controllare il veicolo in modo sicuro. Per i veicoli elettrici, è necessario utilizzare a bassa potenza per far fronte al limite di temperatura di funzionamento ed estendere la batteria di business dei semiconduttori di potenza L'obiettivo è fornire soluzioni adattabili ad alta efficienza, a bassa potenza e adattabili per soddisfare le diverse esigenze dell'IA all'avanguardia.
Nello sviluppo del edge computing, la sfida più grande è che la domanda del mercato cambia troppo rapidamente, pertanto le tecnologie che possono adattarsi rapidamente ai vari cambiamenti sono estremamente importanti per consentire alle aziende di mantenere la propria competitività.
Hitt illustrare ulteriormente la profondità di algoritmi di apprendimento a un ritmo rapido progresso sostenuta, molte delle soluzioni leader nel 2017 ha finora affrontato una morte simile. Sebbene molti degli altri ora hanno una maggiore capacità, insieme con l'aumento demand, hardware ancora hardware ottimizzato deve essere aggiornato ad una velocità maggiore, per evitare di essere eliminato, anche in alcune produzioni hardware per affrontare le necessità di essere aggiornato. molte alternative deve ricordare aggiornare il chip originale.
Hitt supplemento, FPGA vantaggi unici che includono informatica, architettura memoria, e collegamenti ad altri aspetti della profondità del hardware può essere ottimizzato e la CPU e GPU confrontato ottimizzato per ottenere prestazioni più elevate con minore consumo, mentre i primi due L'architettura hardware non può essere rapidamente ottimizzata per i nuovi requisiti derivati.
L'operazione Edge è schiacciante
Basandosi su applicazioni AI in esecuzione nei data center cloud, sebbene abbia un supporto di capacità di elaborazione estremamente elevato, la precisione di identificazione è generalmente superiore a quella dei dispositivi periferici basati sull'inferenza del modello semplificata, ma dopo aver considerato problemi di privacy, risposta in tempo reale e costi online e altri fattori È ancora un'opzione allettante per fare inferenze direttamente sui dispositivi periferici, mentre le dimensioni del mercato dei dispositivi terminali sono molto più grandi di quelle dei data center cloud e ci sono forti incentivi economici: questo è anche lo slogan di gridare AIoT nell'ultimo anno. Il prezzo è alle stelle e le principali società di semiconduttori stanno implementando attivamente.
Guardando al futuro, le applicazioni AI pienamente supportate dal cloud continueranno a esistere sul mercato, ma la proporzione verrà ridotta di anno in anno, sostituendo invece una nuova architettura che combina il cloud e il computing edge, per gli sviluppatori di applicazioni AI non è possibile sostituire il cloud. Il valore risiede nella formazione del modello, non nella deduzione.Per questo motivo, anche se il fornitore di soluzioni può ottenere un'integrazione perfetta tra "cloud" e "fine" per gli sviluppatori di applicazioni sarà uno sviluppatore di applicazioni. La considerazione più importante nella valutazione dei fornitori.