1. Quando l'Internet delle cose incontra l'intelligenza artificiale;
Secondo la recente indagine di mercato condotta da SADA Systems sui gestori di grandi professionisti del settore IT, nel 2018 l'intelligenza artificiale (AI) e l'Internet of Things (IoT) stanno diventando le aree più importanti per le aziende che investono in nuove tecnologie.
Dei 500 dipendenti IT intervistati, il 38% degli intervistati ha affermato che l'IA è l'obiettivo principale degli investimenti aziendali, mentre l'Internet degli oggetti è del 31% e la blockchain è basata sul 10%. Generalmente genera enormi dati per formare modelli di apprendimento automatico (ML).
Tra le aziende intervistate, l'Internet degli oggetti ha una struttura più ampia di quella dell'intelligenza artificiale, poiché le industrie IoT e edge computing sono relativamente stabili allo stadio attuale e una base così solida può migliorare l'accuratezza dell'apprendimento automatico e diventare necessaria per l'intelligenza artificiale. prerequisiti.
Capacità di riconoscimento dell'immagine / Figura: Università di Cambridge
Le aziende vogliono anche rendere finalmente realizzabili gli investimenti dell'AI, piuttosto che la ricerca costante dell'organizzazione accademica.Il CIO dei media stranieri ha anche sollevato la questione di come rendere gli investimenti nell'IA orientati alla corretta commercializzazione e un compito importante per i leader aziendali.
Inoltre, nello scenario di oggi, anche il costo e la difficoltà dell'operazione AI sono stati notevolmente ridotti: non solo la "piattaforma come servizio" (PaaS) offre alle aziende più dati per la formazione dei computer, ma rende anche l'apparecchiatura universale. (Interoperabilità) Il livello di miglioramento.Inoltre, un gran numero di librerie e API mature per l'apprendimento automatico hanno ridotto la soglia di accesso all'IA.
Con l'avvento delle nuove tecnologie che supportano l'intelligenza artificiale e l'Internet delle cose, le organizzazioni imprenditoriali devono aderire al focus dello sviluppo e hanno impedito la diffusione di scale temporali da cicli di sviluppo indefiniti. Per raggiungere traguardi, è sempre più necessario mantenere i talenti.
/ Capacità di riconoscimento dell'immagine macchina / Grafico: Università di Cambridge
SADA e chiamato intorno notizie tecnologie emergenti, porterà le aziende sono più disposti a investire in nuove tecnologie, ma la sicurezza e la privacy tendono a restare indietro lo sviluppo della tecnologia, e gli investimenti in nuove tecnologie devono essere una sicurezza idraulica preoccupazione di proprietà, SADA credono che le aziende sono come Se vuoi veramente diventare un pioniere delle tecnologie emergenti, non puoi ignorare i test di sicurezza delle tecnologie emergenti.
In un rapporto dell'Università di Oxford nel 2018, i ricercatori citati Road, la tecnologia AI finché c'è un difetto, che potrebbe compromettere l'efficienza del flusso di lavoro di apprendimento automatico, ma anche mettere in pericolo il funzionamento del business, se ignorate importanti prove di sicurezza Sesso, ho paura di non averlo capito.
catena di blocco già dallo scorso anno ha attirato un sacco di attenzione dei media per la scienza e la tecnologia, ma è in ritardo rispetto in termini di cose di business degli investimenti e intelligenza artificiale. Come sempre più aziende iniziano a condividere il successo della tecnologia catena di blocco e casi pratici in futuro Gli investimenti in questo campo sono stimati in concorrenza con Internet of Things e AI.
2. Storia degli interpreti AI;
Nel 2018 Boao Forum per l'Asia, oltre al programma principale, in particolare l'introduzione di un punto caldo è la prima traduzione lingua parlata in tempo reale conferenza intelligenza artificiale. Tuttavia, non v'è stato alcun AI precedente arbitrariamente dichiarato "Lasciate che l'industria interpreti in tempo reale Di fronte alla minaccia di una disoccupazione imminente, al contrario, il risultato della traduzione di gravi errori ha alleviato in realtà gli interpreti in tempo reale: sembra che questa linea possa ancora essere mangiata a lungo.
"La Bibbia Antico Testamento Genesi" descritto nel capitolo 11, dopo la grande alluvione si allontanava, questo mondo umano sono i figli di Noè, parlare la stessa lingua quando gli esseri umani hanno cominciato a collaborare, costruire chiamò Babele Torre di Babele torre. la mossa allarmato il Dio, così Dio lascia gli esseri umani in tutto il mondo ha cominciato ad avere una lingua diversa, la razza umana non era più cooperazione unita. Babel fatto piani fallirono, quando le differenze linguistiche diventano anche la più grande comunicazione umana ostacolo. forse il sangue ancora voglia di sognare di ricostruzione della torre di Babele, quindi la traduzione è diventato il centro di progetti culturali umani negli ultimi migliaia di anni di storia in continua evoluzione.
La barriera linguistica non è così facile da rompere, in particolare al linguaggio trasversale per comprendere gli stessi concetti. Cross-lingua parallela corpus prima volta nella storia umana, è prodotto nel 196 aC, la Stele di Rosetta (Rosetta Stone) sopra utilizzando sia antica, antico carattere popolare greca e locale egiziana, per registrare l'antico re egiziano Tolomeo V salì al trono editto. questa è una tappa importante nella traduzione.
traduzione automatica basata su regole
Per quanto riguarda la traduzione automatica di origine, si può far risalire al 1949, teoria dell'informazione ricercatore Warren Weave formalmente proposto il concetto di traduzione automatica. Cinque anni dopo, cioè nel 1954, IBM in collaborazione con l'Università di Georgetown ha annunciato prima di traduzione automatica al mondo IBM-701. è in grado di tradurre russo in inglese, anche se ha un grande corpo, che in realtà è costruito solo sei disposizioni delle norme di legge, così come 250 parole. ma anche così, questo è ancora un importante passo avanti tecnologico, quando gli esseri umani hanno cominciato a pensare che dovremmo presto in grado di rompere le pareti del linguaggio.
Era possibile che Dio avesse notato qualcosa di diverso e versato un secchio di acqua fredda sul piano per la ricostruzione umana della Torre di Babele.Nel 1964, l'American Academy of Sciences istituì il Comitato consultivo per l'elaborazione automatica delle lingue (ALPAC). Nel rapporto presentato, si ritiene che la traduzione automatica non valga la pena di continuare a investire, perché questo rapporto ha causato negli Stati Uniti la cessazione quasi totale dello studio di traduzione automatica nei prossimi dieci anni.
Dalla nascita della prima macchina di traduzione IBM agli anni '80, il mainstream tecnologico a quel tempo era la traduzione automatica basata su regole: il metodo più comune era quello di tradurre direttamente le parole in base al dizionario, anche se alcune persone in seguito proposero di aggiungere regole di sintassi per correggerle. Ma ad essere onesti, i risultati si sono rivelati molto frustranti, perché sembrano stupidi, pertanto, a partire dagli anni '80, tali pratiche sono scomparse.
Perché le lingue non possono applicare le regole? Perché le lingue sono sistemi estremamente complessi e vaghi, dall'ambiguità delle parole alla retorica, è impossibile esaurire tutte le regole. Ma, interessante, molte recenti innovazioni nel linguaggio naturale La compagnia, che sta ancora cercando di risolvere la semantica cinese con regole esaustive, ma questa idea finirà sicuramente nel fallimento.
Farò un esempio qui per spiegare perché le regole non sono fattibili, per non parlare della complessità della traduzione in due lingue: solo dal punto di vista cinese, il concetto di consegna espressa è veloce. A quanti tipi di insegnamenti puoi pensare? 10 tipi o 100 tipi? Secondo le statistiche del linguaggio naturale che abbiamo fatto prima, ci possono essere 3.600 tipi di insegnamenti in totale, e questo numero dovrebbe comunque aumentare con il tempo. Una frase con un concetto così semplice può essere così Per un complesso sistema di regole, se si usano le traduzioni, temo che la quantità di regole sia un numero astronomico sorprendente, pertanto l'approccio basato sulle regole alla traduzione automatica è diventato un ricordo del passato.
Traduzione automatica basata sull'istanza
Nel mondo della traduzione automatica nella bassa marea, c'è un paese per la traduzione automatica ha una forte ossessione, e questo è il Giappone. Giapponese inglese poveri universalmente noto, e quindi della macchina di traduzione non v'è una forte domanda di rigidità.
Kyoto University professor Makoto Nagao proposto basato Machine Translation, è quello di fermare la macchina da zero e vogliono tradurre, finché manteniamo un numero sufficiente di frasi, anche di fronte non corrisponde esattamente la frase, abbiamo anche può essere paragonato a pene, la traduzione non è lo stesso a patto che la sostituzione della parola può essere. questo, naturalmente, non è ingenuo di traduzione automatica basata su regole quanti intelligente, non ha causato problemi. ma in poco tempo, l'umanità la speranza di ricostruire la torre di Babele sembra di ri-vedere l'alba.
Sulla base di traduzione automatica statistica
Fatto esplodere boom di traduzione automatica statistica o IBM, in "Machine Translation matematica teoria" carta emessa nel 1993 ha proposto un modello statistico è composto da cinque unità in una parola, chiamata "IBM Modello 1" al "modello 5 di IBM."
Idee modello statistico è tradotto come una questione di probabilità. In linea di principio è la necessità di utilizzare il corpus paralleli, e quindi letteralmente statistiche. Ad esempio, anche se la macchina non sapeva che cosa "conoscenza" della lingua inglese è, ma dopo la maggior parte delle statistiche corpus, troverete finché c'è la conoscenza della frase appare, i corrispondenti frasi in inglese saranno parola "conoscenza" appare. in questo modo, anche in assenza di mantenimento artificiale di dizionari e regole grammaticali, ma anche rendere le macchine a capire il significato della parola.
Questo concetto non è nuovo, perché Warren Weave ha proposto per la prima volta un concetto simile, ma in quel momento non c'era abbastanza corpo parallelo e la capacità di limitare la calcolatrice in quel momento era troppo debole e quindi non messa in pratica. dove trovare "moderna stele di Rosetta" significa? infatti, la fonte più importante sono le Nazioni Unite, perché le risoluzioni delle Nazioni Unite e l'annuncio avranno versioni linguistiche dei singoli Stati membri, ma a parte questo, si vuole rendere il proprio corpus parallelo a Ora il costo della traduzione umana si traduce nel sapere che questo costo è sorprendentemente alto.
Negli ultimi dieci anni, tutti sanno che la traduzione di Google si basa sulla traduzione automatica statistica. A questo punto, dovrebbe essere chiaro che il modello di traduzione statistica non è in grado di realizzare la grande causa della torre. Il grado di "utile" piuttosto che "utile".
Traduzione automatica della rete neurale
Entro il 2014, la traduzione automatica ha inaugurato il cambiamento più rivoluzionario della storia: "deep learning"!
rete neurale non è nuovo, infatti le reti neurali invenzione è stato 80 anni fa, ma dal momento che nel 2006 Geoffrey Hinton (primo studio tre grandi profondità di Dio) ha migliorato rete neurale ottimizzazione difetto fatale è troppo lento, l'apprendimento profondo continuerà accompagnato da una serie di successi miracolosi appaiono di frequente nella nostra vita nel 2015, la macchina per la prima volta al di là di riconoscimento delle immagini umana ;. 2016, Alpha Go ha battuto il campione mondiale di scacchi, 2017, più che lo stenografo di riconoscimento vocale umana; 2018, La comprensione della lettura della lingua inglese va oltre gli esseri umani per la prima volta. Naturalmente, anche questa area della traduzione automatica ha iniziato a prosperare grazie all'apprendimento profondo di questo super fertilizzante.
Yoshua Bengio studio approfondito dei tre dèi nel documento 2014, per la prima volta stabilito l'architettura di base della profondità di apprendimento tecnologie per la traduzione automatica. Egli si basa principalmente sulla recidiva sequenza di rete neurale (RNN), in modo che la macchina può catturare automaticamente tra le frasi funzione di parola, e quindi scritti automaticamente in un'altra lingua di traduzione. Questo articolo uno, Google tesoro. Molto rapidamente, adeguato apporto di polvere da sparo sotto la benedizione di Dio, così come di grandi dimensioni in Google, Google ha annunciato ufficialmente nel 2016 Tutte le traduzioni di macchine statiche erano pronte, le traduzioni di macchine di rete neurali diventavano la principale corrente della traduzione automatica moderna.
rete neurale di traduzione automatica di Google la caratteristica più importante è l'inserimento di meccanismi attentivi (attenzione), il meccanismo di attenzione è, infatti, la simulazione di traduzione umana, in primo luogo utilizzare occhio di nuovo, e poi sceglierà alcune parole chiave per confermare la semantica nel "British - francese" processo (Figura 2) hanno davvero meccanismi attentivi benedizione sbalzo di tensione dopo che Google ha dichiarato che, "gli inglesi - in", "gli inglesi - occidentale" più lingue, ecc, il tasso di errore con la prima. Il sistema statistico di traduzione automatica è ridotto del 60%.
Anche se la rete neurale secondo il corpus parallelo esistente può imparare e capire frasi caratteristiche del linguaggio sottile, ma non è perfetto, il problema più grande viene dal corpus, e ci vuole un sacco di scatola nera-come difficile da capire. Cioè, anche se Non c'è modo di commettere errori, ma solo di fornire un corpus più corretto per correggere "l'apprendimento profondo", pertanto lo stesso modello di frase può avere risultati di traduzione molto diversi.
Febbraio 2018, Microsoft (Microsoft) deve fare il linguaggio macchina capito subito dopo le nuove iniziative al di là umana. 14 marzo Microsoft Research Asia e Redmond Institute ricercatori annunciato che la sua ricerca e sviluppo di sistemi di traduzione automatica in comune Notizie sul set di prova nella traduzione inglese del test set Newstest2017, può raggiungere livelli paragonabili con la traduzione umana. Naturalmente, questa rete neurale è una traduzione automatica di una grande vittoria, ovviamente, ha un sacco di innovazione in architettura, il più noto dei e 'l'inserimento della doppia apprendimento (dual learning) e la rete di controllo (reti di deliberazione).
apprendimento duale per risolvere il problema della limitata corpus parallelo, in generale, la profondità di apprendimento deve essere fornita alle risposte della macchina, quindi la macchina potrà basa sulla differenza tra le definizioni e risposta corretta sostenuta miglioramento. Quanto rete controllo anche mimare il processo di traduzione umana solitamente traduzione umana farà prima una traduzione approssimativa, e quindi regolare il contenuto preciso della seconda traduzione, infatti, si potrebbe scoprire che non importa intelligente le reti neurali, sarà ancora finire sulla superficie di riferimento delle creature più intelligenti, che è il corpo noi, come esseri umani.
Il linguaggio non può sfuggire il contesto d'uso
Lo sviluppo della traduzione automatica non significa che il futuro della professione del traduttore sarà nessun cibo da mangiare. Si può notare che la presentazione di Microsoft ha sottolineato i "test di impostare Newstest2017 rapporti universali notizie" di "set di test di inglese Traduzione", l'insieme di dati buone prestazioni e versatilità non essere in grado di disegnare il segno di uguale, che può anche spiegare perché Tencent giugno, ovviamente, la traduzione di consueto è stata buona, ma perché è la prestazione imprecisa in Boao interpretazione in tempo reale.
Si può dire che l'interpretazione in tempo reale sia il culmine di un compito di traduzione, oltre ad avere una corretta comprensione dell'ascolto della frase originale, deve essere convertito in altre lingue entro un tempo limitato e ricordare che l'oratore non darà alcun tempo per la traduzione, quindi equivale al riconoscimento vocale. Traduzione automatica deve essere sincronizzato, più in loco rumore, espressioni altoparlanti, il tono delle parole e interiezioni fattori confondenti così, rischiano di provocare aborto spontaneo della giustizia della macchina.
Dal mio punto di vista, la traduzione del re da parte di Tencent può essere incolpata sul fatto che potrebbe non essere abbastanza lavoro, e non vengono inseriti i nomi propri della chiave, il che si tradurrà in un "errore classico" di "autostrada e cintura".
Una differenza interessante si può vedere anche in Fig. 3. Perché la traduzione automatica occidentale è malriposta, ma la traduzione automatica nel paese d'origine è quasi sempre sotto controllo? Questo perché la lingua non può esistere senza allontanarsi dagli scenari di utilizzo umano. Il contesto, che proviene dalla nostra cultura passata, consiste in ricordi che erano comuni nel passato.Google, che non ha letto la poesia Tang, naturalmente non può capire l'essenza di questo poema.La lingua può essere l'ultima barriera umana nell'era dell'intelligenza artificiale perché Le lingue cambieranno costantemente a causa dell'uso degli esseri umani, un sostituto molto difficile per le macchine.
Con il progresso della tecnologia, un giorno, la traduzione automatica cambierà da "utile" a "utile" per poi evolversi in "utile". Ma come ho sempre sostenuto, le macchine non derubano la gente del loro lavoro. Il fatto che gli esseri umani siano disoccupati è solo il nostro: come sfruttare l'intelligenza artificiale per diventare il tuo strumento personale, e uscire dalla noia e dal lavoro noioso, questa è la giusta postura per il futuro.
3.AI, la battaglia ardente dei big data e della privacy personale è appena iniziata;
Gli argomenti più interessanti a breve termine non sono altro che i big data, inclusa la fiera del 2018 in Cina, ed è innegabile che la cosa più importante per i big data sia la raccolta dei dati, ma l'Unione Europea ha anche annunciato il General Protection Protection Regulation (GDPR). Affermando di essere la legge di protezione dei dati personali più severa di sempre, ha anche scatenato le dispute sullo sviluppo dei big data e sui dati personali.
Il motivo per cui i big data possono diventare dati efficaci è quello di raccogliere e analizzare i dati, e più dati, i dati più rilevanti possono essere analizzati e diventare dati utili.
Ma la fonte dei dati, ma sulla bocca di tutti, nel nazionalismo, sembra che ci sia costretti a sacrificare i propri interessi personali a lasciare i paesi di svolgere la politica, che è più evidente in Cina, China Development ai dati abbastanza rapidamente, il governo molti politica di pianificazione, e anche la cosiddetta riduzione della povertà, la povertà e così via, come con big data, tutti i problemi non sono un problema, ma un sacco di grandi dati, infatti, sono le parti a sacrificare i diritti dei dati personali, che sottolineano la privacy del paese, è Cose impossibili
La direzione dello sviluppo delle imprese di Taiwan sono concentrati in grandi quantità di dati industriali, la maggior parte dei quali è ancora la più rapida crescita Hon Hai, 40 anni di dati di produzione, Hon Hai è il più grande vantaggio, ma anche nello sviluppo di Taiwan hanno la possibilità di inserire dati di grandi dimensioni.
Ma se si vuole sviluppare Taiwan la Cina continentale come big data, e si riferisce al campo della privacy delle persone, in fondo, ci sono molti problemi ricorrenti, l'ETC solo un record, è probabile che portano alla violazione della privacy, per non parlare su big Data è direttamente correlata alla privacy personale, i dati, alla fine grande successo, potrebbe essere necessario continuare a tirare su l'interesse pubblico e l'equilibrio la privacy personale. Kui rete Heng
4.AI inferenze ai nodi periferici Le applicazioni video / vocali rappresentano ciascuna metà del cielo;
2018 AIOT (AI + IoT) mercato è in crescita allarmante, guidare lo sviluppo di una varietà di dispositivi, ma anche per promuovere la funzione apprendimento profondo opera sul bordo di trasformare il cloud per ottenere una bassa latenza, bassa larghezza di banda, privacy alta e alta efficienza di intelligenza artificiale Esperienza di applicazione.
Con l'intelligenza artificiale (AI), opera sulla tecnologia (Informatica Bordo) in questi ultimi anni, il rapido sviluppo di una varietà di elettronica di consumo ed elettrodomestici concetto Smart Home inclusi sono cambiamenti rivoluzionari avverrà gradualmente. Alla fine, i vari rete di intelligenza artificiale che consiste di elettrodomestici, sarà probabilmente voi e non riesco a vedere gli altri membri della famiglia. il concetto di cloud locale e relative apparecchiature, saranno gli elementi della rete di intelligenza artificiale per la casa indispensabile.
Smart speaker / monitoring diventeranno due principali fusi di IA dei consumatori
La società di ricerche Ovum responsabile per il monitoraggio dello sviluppo della tecnologia di consumo ricercatore Ronan de Renesse (Figura 1) che l'applicazione di AI nel campo dell'elettronica di consumo, quasi due anni spesso diventano il centro dell'attenzione dei media, ma l'elettronica di consumo e AI combinato con la tendenza, solo ora appena iniziando a sviluppare nei prossimi tre-cinque anni, molti prodotti di elettronica di consumo saranno dotati di funzioni di intelligenza artificiale, e saranno collegati tra di loro, una famiglia di intelligenza artificiale nella rete.
Figura 1 Ronan de Renesse, ricercatore della tecnologia consumer di Ovum, ritiene che vari dispositivi elettronici della futura famiglia diventeranno un membro invisibile della famiglia.
Per la catena hardware, anche se questa tendenza porterà molte nuove opportunità di business, ma se da un punto più alto livello di vista, questo è entrato in silenzio la rete di intelligenza artificiale in casa, si sarà non vedo un'altra "famiglia membri ".
Sul lato hardware, gli altoparlanti intelligenti familiari, in fondo è un prodotto relativamente maturo, anche se ci sarà una crescita significativa delle vendite, ma la forza che cresce gradualmente rallentare nel corso dei prossimi cinque anni. Quando la stima 2022 altoparlante globale intelligente l'importo delle vendite di quasi $ 9.5 miliardi di dollari. in realtà, Renesse crede che Amazon (Amazon) con Google probabilmente non lanciare il proprio marchio di diffusori intelligenti in futuro, in quanto il prodotto in sé non è così i margini di profitto, questi due Per i colossi della rete domestica, purché i fornitori di hardware utilizzino i loro servizi di piattaforma, possono raccogliere i dati degli utenti di cui hanno bisogno.
Nello stesso periodo, i cambiamenti in prodotti come i sistemi di monitoraggio intelligenti a casa saranno più pronunciati rispetto agli altoparlanti intelligenti: attualmente i cosiddetti prodotti di monitoraggio domestico intelligente non dispongono di componenti di intelligenza artificiale, ma piuttosto di telecamere, allarmi, serrature, sensori e altro hardware. I prodotti sono collegati tra loro per formare un sistema di sicurezza che supporta Event Trigger, tuttavia, con l'aumentare delle maturità delle tecnologie software e hardware correlate, aumenterà la percentuale di telecamere di sorveglianza domestiche che trasportano l'intelligenza artificiale e, allo stesso tempo, sarà in grado di ottenere di più. Le applicazioni, come l'uso di assistenti vocali, forniscono a più utenti servizi più precisi in un ambiente multiutente.
Protezione della privacy dei consumatori per le app AI
Tuttavia, per il settore dell'hardware, ciò che è più degno di nota è che il concetto di cloud locale e i relativi prodotti applicativi saranno rilevati come dispositivi in casa in genere supportano l'IA. Renesse ha sottolineato che i prodotti elettronici dotati di funzione AI Produrre una grande quantità di dati dell'utente e molti di essi sono dati relativi alla privacy personale, pertanto, se questi prodotti elettronici domestici dotati di intelligenza artificiale si affidano completamente al cloud esterno per operare, ciò ovviamente causerà problemi di privacy.
D'altra parte, molte caratteristiche relativamente semplici dispositivi cose di consumo, da energia elettrica, potenza di calcolo, il costo di produzione e le altre condizioni, potrebbero non essere in grado di supportare molto high-end algoritmi di intelligenza artificiale. A questo punto, il dispositivo nuvola locali giocheranno il ruolo del cervello, Ordinare uniformemente questi dispositivi.
Tuttavia, Renesse ha anche ammesso che è ancora difficile affermare quale dispositivo riprodurrà un centro cloud locale, potrebbe essere uno speaker di ordine superiore, potrebbe essere una smart TV o altri prodotti.
Ian Smythe, senior marketing director di Arm (Figura 2) ritiene inoltre che ci saranno sempre più computer e motori di inferenza che si spostano verso il terminale in futuro, la principale forza trainante per questo trasferimento è proteggere la privacy degli utenti. Elaborando e analizzando i dati nel terminale, è possibile anonimizzare facilmente i dati e garantire che i dati sensibili non vengano trasmessi attraverso la rete. Prendendo come esempio le applicazioni domestiche, i consumatori non vogliono che nessuno sappia da Internet che non sono a casa. Il tempo delle persone, e quindi facilmente da rubare a casa.
Figura 2 Ian Smythe, direttore marketing senior di Arm, ha affermato che per le applicazioni AI consumer, se il meccanismo di protezione della privacy è affidabile, sarà la chiave per capire se l'applicazione può essere resa popolare.
Per le applicazioni visive, Smythe ritiene che le fotocamere che supportano il riconoscimento visivo siano intrinsecamente considerate importanti problemi di privacy, ovviamente questi dispositivi devono essere progettati in modo da poter essere protetti quando archiviati localmente o trasmessi al cloud. Privacy e informazioni sensibili Poiché la trasmissione di solito è connessa in modalità wireless, è necessario prestare particolare attenzione alla sicurezza della funzione di trasmissione wireless: gli ingegneri che progettano il dispositivo devono garantire che i dispositivi collegati alla rete non siano compromessi e intercalati.
La durata della batteria rimane la principale sfida tecnica
Tuttavia, per spingere l'AI verso il nodo periferico, la più grande sfida tecnica al momento è ancora il consumo energetico del sistema. Prendendo come esempio le telecamere di sorveglianza dei consumatori, i consumatori potrebbero aspettarsi che tali prodotti siano completamente wireless, ed è meglio non collegare nemmeno i cavi di alimentazione. Ciò significa che questi prodotti devono essere alimentati a batteria e supportano anche le reti wireless, oltre a poter identificare tutti gli articoli e necessitare di spazio di archiviazione illimitato.
I suddetti requisiti rappresentano una grande sfida per la progettazione del sistema, che richiede la possibilità di eseguire mesi di batterie ininterrotte per eseguire le capacità di apprendimento automatico (ML) e la possibilità di caricare continuamente file nel cloud per l'archiviazione.Questi scenari estremi riguardano la progettazione dei chip e i componenti di sistema. I requisiti sono piuttosto impegnativi e, cosa più importante, hanno imparato a padroneggiare quando abilitare l'orchestrazione di queste funzioni per prolungare la durata della batteria.
Con sede controllo della macchina fotografica, una videocamera non ha bisogno di 24 ore di trasferimento stanza vuota, basta caricare l'immagine della parte è ragionevole solo quando ci sono identità non confermato della gente lì. Allo stesso modo, nel caso come la disponibilità della stessa scena abilitare algoritmo ML non ha senso. accordi attenti dove, quando abilitare queste funzioni, al fine di rendere i dispositivi di consumo previsti per essere in modalità di funzionamento, solo due batterie AA, può a lungo termine l'uso normale.
Poiché il consumo di energia è uno dei principali ostacoli che impediscono alle IA di entrare nei dispositivi terminali, molte startup sul mercato stanno ora vedendo questa opportunità per lanciare un acceleratore a rete neurale a bassa potenza (NN), la proprietà intellettuale (IP) del silicio, per assistere il chip. Riducendo il consumo energetico, gli sviluppatori possono soddisfare le prestazioni richieste dall'inferenza degli algoritmi: Kneron ha ufficialmente rilasciato la sua serie NPU, un processore dedicato per l'intelligenza artificiale progettato per i dispositivi terminali. IP Questa serie comprende tre prodotti, ovvero la versione a potenza ultra-ridotta KDP 300, la versione standard KDP 500 e la versione ad alte prestazioni KDP 700, in grado di soddisfare le esigenze di smartphone, case intelligenti, sicurezza intelligente e una varietà di dispositivi IoT. L'intera gamma di prodotti ha un basso consumo energetico, dimensioni ridotte e offre potenti capacità di calcolo. Diversamente dal consumo energetico del processore per l'intelligenza artificiale sul mercato, l'IP NPU Kneron consuma 100 milliwatt. (mW), per il KDP 300 dedicato al riconoscimento facciale per smartphone, consuma meno di 5 milliwatt.
Shi Yalun, responsabile marketing e applicativo dei prodotti Endurance (nella figura 3) ha sottolineato che la necessità di eseguire operazioni di intelligenza artificiale sul dispositivo terminale rispettando i requisiti di consumo energetico e prestazioni è una priorità assoluta, pertanto è fondamentale fornire soluzioni ottimizzate per le singole applicazioni. Al momento, l'applicazione dell'intelligenza artificiale può essere suddivisa in due categorie principali: voce e video e la struttura della rete neurale utilizzata è diversa.Il focus delle applicazioni vocali è l'analisi del linguaggio naturale.L'architettura di rete mainstream è la rete neurale ricorrente (RNN). La principale struttura di rete utilizzata per l'analisi delle immagini è la rete neurale convoluzionale (CNN) .Per ottimizzare le diverse strutture di rete, la soluzione fornita dalla capacità è diversa.
Shen Ming-feng (Figura 3 a destra) gli orsi possono integrare il design gestore del software, anche se minore domanda di linguaggio naturale performance computing analisi di chip, ma a causa del tono del linguaggio, abitudini linguistiche hanno una grande discrepanza, e, pertanto, necessario che il set di dati di training modello Molto più del riconoscimento video, d'altra parte, poiché i consumatori sono già abituati ad utilizzare gli assistenti vocali basati su cloud come Apple Siri e Google Assistant, le applicazioni di analisi semantica offline sono favorite dai consumatori. Il presupposto è che dobbiamo fornire un'esperienza di consumo simile con risorse di calcolo limitate, una sfida per i venditori di chip e gli sviluppatori di sistemi.
Figura 3 Aaron Alan (a sinistra), responsabile marketing e applicativo di prodotti Endurance, ritiene che il riconoscimento vocale e dell'immagine siano di natura molto diversa e necessiti di soluzioni diverse. Giusto è Shen Mingfeng, un responsabile della progettazione software per lo sviluppo di software.
In effetti, la stragrande maggioranza degli smart speaker non sono ancora prodotti di edge computing. Allen Aaron ha sottolineato che se è Amazon Echo, Apple's Homepod o Baidu, gli altoparlanti intelligenti della piattaforma Alibaba, devono ancora I dati vengono inviati al cloud per l'elaborazione e l'analisi semantica, al fine di rispondere agli utenti.Le operazioni vocali che possono essere eseguite direttamente sul prodotto finale sono per lo più basate su regole piuttosto che sulla comprensione semantica basata su macchine.
Dal 2016 gli orsi possono lanciare primo terminale processore AI specifico del dispositivo NPU IP della società, hanno continuato a migliorare il suo design e le specifiche, e ottimizzato per diverse applicazioni industriali. In attualmente disponibile per i clienti che cominciano nel PI, KDP 500 clienti di piante che utilizzano il sistema è stato e sarà in produzione di massa nella produzione secondo trimestre (Maschera Tape-out). riconoscimento vocale con cooperazione cani da ricerca ha raggiunto l'analisi offline semantica, quindi, anche se il dispositivo terminale non è collegato alla rete, ma anche Comprende le istruzioni vocali dell'utente.
Kneron NPU IP è dedicato processore intelligenza artificiale per il dispositivo terminale è stato progettato in modo che il dispositivo terminale in un ambiente in linea, è possibile eseguire RESNET, YOLO altra rete apprendimento profondo. Kneron NPU è un sistema completo di soluzioni hardware end-AI, compreso l'hardware IP, Compiler e Model Compression possono supportare vari modelli di rete neurale mainstream come Resnet-18, Resnet-34, Vgg16, GoogleNet e Lenet, oltre a supportare l'apprendimento approfondito mainstream. Cornici, tra cui Caffe, Keras e TensorFlow.
consumo energetico Kneron NPU IP è 100 livello mW, versione ultra-bassa potenza del KDP 300 o anche meno di 5 mW, gamma completa di prodotti nelle prestazioni per watt 1,5 TOPS / W o più, l'uso di un numero di tecnologia esclusiva, può Soddisfare le esigenze dei venditori di chip, dei fornitori di sistemi per il basso consumo energetico, l'elevata potenza di calcolo.
Blocco degli elementi di base Gli acceleratori hardware non temono l'iterazione tecnica
Indurimento circuito (cablato) per migliorare l'efficienza di alcuni compiti di elaborazione, riducendo i consumi energetici, progettazione di chip per età, ma a costo di flessibilità applicativa inferiore, cambiamento significativo nel caso della domanda di mercato per le funzioni di chip , O l'algoritmo del software cambia drasticamente, i progettisti di chip devono ri-sviluppare nuovi chip.
Nella situazione in cui la domanda di chip per il mercato è stata ampiamente determinata, questo metodo di progettazione non è un problema, tuttavia, nelle aree tecnologiche emergenti dove le iterazioni tecnologiche sono veloci, l'adozione di questo approccio progettuale avrà un rischio commerciale relativamente ampio. L'intelligenza artificiale è un campo di iterazione della tecnologia molto veloce, quasi ogni anno vengono fuori nuovi algoritmi e modelli L'istituto di ricerca Open AI ha anche sottolineato che negli ultimi 6 anni, la domanda di formazione del modello di intelligenza artificiale sulle prestazioni di calcolo aumenterà ogni 3,43 mesi. volte.
A questo proposito, Shen Ming-Feng ha sottolineato, non è necessariamente un acceleratore hardware non è elastico. Resistente ai prodotti energetici, per esempio, nella progettazione architettonica, l'azienda utilizza scissione nucleo di convoluzione tecnologia (Filtro di decomposizione), il grande Convoluzione circonvoluzione calcolare una pluralità di piccoli blocchi suddivisi in un blocchi di calcolo convoluzione separatamente, quindi combinati accelerazione convoluzione hardware riconfigurabile (convoluzione riconfigurabile accelerazione) tecnica, il risultato dell'operazione di convoluzione del funzionamento di una pluralità di blocchetti vengono fusi per accelerare la complessiva Efficienza operativa
Con una metafora relativamente facile da capire, è come se i mattoncini LEGO possano essere assemblati in vari tipi di oggetti, ma l'intero oggetto stesso è ancora una pila di pochi blocchi di base.Il programma di resistenza è indispensabile per gli algoritmi AI. Gli elementi di base vengono accelerati per migliorare le prestazioni di esecuzione dell'intero algoritmo, pertanto, anche se l'algoritmo AI viene aggiornato a una velocità molto elevata, la soluzione basata sulle prestazioni può ancora esercitare un effetto di accelerazione.
Oltre al design dell'accelerometro che si concentra sugli elementi di base, piuttosto che accelerare l'algoritmo specifico nel suo insieme, Terrain fornisce anche altre tecniche per accelerare o implementare applicazioni AI. Ad esempio, la sua tecnologia Model Compression comprime modelli non ottimizzati. Dozzine di volte: la cache multilivello può ridurre l'utilizzo della CPU e il trasferimento dei dati, migliorando ulteriormente l'efficienza operativa complessiva.Inoltre, Kneron NPU IP può essere combinato con il software di riconoscimento immagini Kneron per fornire analisi di identificazione in tempo reale. La risposta non è solo più stabile, ma soddisfa anche i requisiti di sicurezza e privacy. Poiché l'hardware e il software possono essere strettamente integrati, la soluzione generale è più piccola e il consumo energetico è inferiore per assistere al rapido sviluppo dei prodotti.
Riconoscimento di immagini L'intelligenza artificiale è più urgente verso il limite
Nel complesso, l'attuale domanda di mercato per il riconoscimento delle immagini è più urgente, anche se c'è un mercato potenzialmente enorme per gli oratori intelligenti nell'analisi semantica offline, ci sono meno risorse per il settore delle scommesse. La trasmissione occuperà una grande quantità di larghezza di banda, il che a sua volta aumenta il costo totale di proprietà del sistema: Voice non ha questo problema.
Lin Zhiming, direttore generale di Jingxin Technology (Figura 4) ha spiegato che l'integrazione dell'intelligenza artificiale e dell'Internet of Things guiderà anche l'introduzione della tecnologia di edge computing, che verrà applicata a una varietà di applicazioni emergenti. Tra questa tendenza, la flessibilità e la velocità sono i maggiori vantaggi per i produttori taiwanesi: per la maggior parte delle aziende taiwanesi e delle società di progettazione IC, è più facile penetrare nel mercato dell'intelligenza artificiale.
Figura 4: Zhixin Lin, General Manager di Jingxin Technology stima che IP Cam sarà una delle applicazioni principali per l'esecuzione di dispositivi di inferenza artificiale su dispositivi edge.
Allo stesso tempo, grazie alla tecnologia di calcolo bordo importazione, ma anche porterà per migliorare la memoria, trasmissione e così via requisiti hardware, sarà significativamente spinto verso l'alto i costi di produzione. Grazie alla correlazione immagine system-on-chip (SoC) originariamente rispetto ad altre applicazioni più complesse, per Anche la tolleranza dei costi è ampia, quindi la tecnologia di edge computing dovrebbe essere la prima ad essere importata da applicazioni relative alle immagini come la IP Cam.
le applicazioni di intelligenza artificiale possono essere suddivisi in due sezioni discutono formazione e il riconoscimento. Nel processo di profonda apprendimento della massiccia operazione, un breve periodo di tempo sarà ancora gestito dal cloud computing. L'operatore bordo è responsabile per il compito, succhiati informazioni raccolte fanno prima trattamento preliminare, dopo che filtrano informazioni irrilevanti, e quindi caricare i dati alla nube di risparmiare sui costi di trasporto. D'altra parte, un completo risultati dell'apprendimento profondità nuvola, è possibile identificare la funzione del terminale più intelligente. IP Cam per esempio, lo studio approfondito immagine dell'opera può essere completato prima dal cloud computing per essere la macchina imparare a riconoscere i pedoni, dopo che il veicolo, solo il bordo dell'estremità del Cam IP può eseguire lavoro di identificazione.
D'altro canto, poiché IP Cam è ampiamente utilizzato nella manutenzione della sicurezza e nella sicurezza della comunità, il governo e le imprese sono relativamente disposti a sostenere gli investimenti, che costituiranno anche una ragione per il rapido sviluppo di IP Cam.
Lin Zhiming quota, molti produttori stanno brancolando come importare chip di intelligenza artificiale nel proprio sistema. La situazione attuale è simile a quando le cose hanno cominciato a fiorire, stiamo ancora esplorando come applicare i tagli, stimata a circa 2.020 produttori Lanciare più prodotti reali.
Le applicazioni in tempo reale devono utilizzare l'architettura di edge computing
L'intelligenza artificiale è un tema caldo al giorno d'oggi, che gradualmente trasferito dal architettura cloud computing per l'architettura di elaborazione bordo, porterà non poco impatto sui produttori di supply chain. Nonostante il breve periodo di tempo continuerà a sviluppare intelligenza artificiale basata su cloud computing, Tuttavia, molte funzioni di intelligenza artificiale relative alle applicazioni di visione inizieranno ad importare i bordi.
Xilinx Development Director (Xilinx) mercato strategia di intelligenza visiva Dale K. Hitt (Figura 5) ha sottolineato che in un prossimo futuro, i componenti di formazione allo sviluppo di intelligenza artificiale possono ancora dominato dal cloud computing. Tuttavia, l'inferenza / Distribuire componenti è iniziata Utilizza le operazioni marginali per supportare applicazioni che richiedono bassa latenza ed efficienza di rete.
Figura 5 Dale K. Hitt, direttore dello sviluppo del mercato per la strategia di visual intelligence Xilinx, ritiene che per le applicazioni che richiedono una latenza molto bassa, le operazioni edge saranno la soluzione migliore.
Per bordo elemento operando per applicazioni di visione industriale legati all'apprendimento, sarà uno dei trend critica e di vasta portata. E, nella visione industriale, città intelligenti, analisi visiva e di mercato self-drive ha una forte crescita potenziale. in termini di applicazioni di visione e di consumo industriali, grazie agli algoritmi di apprendimento automatico bordo aritmetica da eseguire, quindi per le prestazioni richieste sono anche superiori ai generazioni precedenti molti programmi. inoltre, bordo macchina algoritmo di apprendimento / funzione è anche stata rapida evoluzione, e quindi tutti i settori Ha bisogno di hardware auto-adattivo per ottimizzare le future architetture di inferenza di apprendimento automatico.
Hitt auto-guida, per esempio, ogni auto dispone di sofisticati algoritmi dietro il supporto del sensore, è responsabile per l'interpretazione dei risultati della uscita dei dati del sensore percezione. L'ultima tendenza è quella di utilizzare algoritmi di apprendimento profondo all'uscita queste percezioni interpretazione dei risultati, tuttavia, Gli algoritmi di apprendimento approfondito devono essere addestrati attraverso un gran numero di situazioni potenziali per imparare a leggere tutti i dati dei sensori possibili.
Dopo l'allenamento, algoritmi di apprendimento profonde richiedono un'elevata potenza di calcolo con una latenza ultra-bassa, al fine di controllare il veicolo in modo sicuro. Per i veicoli elettrici, è necessario utilizzare a bassa potenza per far fronte al limite di temperatura di funzionamento ed estendere la batteria di business dei semiconduttori di potenza L'obiettivo è fornire soluzioni adattabili ad alta efficienza, a bassa potenza e adattabili per soddisfare le diverse esigenze dell'IA all'avanguardia.
Nello sviluppo del edge computing, la sfida più grande è che la domanda del mercato cambia troppo rapidamente, pertanto le tecnologie che possono adattarsi rapidamente ai vari cambiamenti sono estremamente importanti per consentire alle aziende di mantenere la propria competitività.
Hitt illustrare ulteriormente la profondità di algoritmi di apprendimento a un ritmo rapido progresso sostenuta, molte delle soluzioni leader nel 2017 ha finora affrontato una morte simile. Sebbene molti degli altri ora hanno una maggiore capacità, insieme con l'aumento demand, hardware ancora hardware ottimizzato deve essere aggiornato ad una velocità maggiore, per evitare di essere eliminato, anche in alcune produzioni hardware per affrontare le necessità di essere aggiornato. molte alternative deve ricordare aggiornare il chip originale.
Hitt supplemento, FPGA vantaggi unici che includono informatica, architettura memoria, e collegamenti ad altri aspetti della profondità del hardware può essere ottimizzato e la CPU e GPU confrontato ottimizzato per ottenere prestazioni più elevate con minore consumo, mentre i primi due L'architettura hardware non può essere rapidamente ottimizzata per i nuovi requisiti derivati.
L'operazione Edge è schiacciante
Basandosi su applicazioni AI in esecuzione nei data center cloud, sebbene abbia un supporto di capacità di elaborazione estremamente elevato, la precisione di identificazione è generalmente superiore a quella dei dispositivi periferici basati sull'inferenza del modello semplificata, ma dopo aver considerato problemi di privacy, risposta in tempo reale e costi online e altri fattori È ancora un'opzione attraente per fare inferenze direttamente ai dispositivi periferici, mentre le dimensioni del mercato dei dispositivi terminali sono molto più grandi di quelle dei data center cloud e vi sono forti incentivi economici, come lo slogan di AIoT che ha urlato nell'ultimo anno. Il prezzo è alle stelle e le principali società di semiconduttori stanno implementando attivamente.
Guardando al futuro, esistono ancora le applicazioni di intelligenza artificiale che sono supportati dalla nube sul mercato, ma la percentuale è destinata a ridurre di anno in anno, sarà sostituito da un nuovo cloud ibrido architettura e bordo computing. Le applicazioni di sviluppatori AI, la nube non possono essere sostituiti valore sta nel treno modello, anziché eseguire l'inferenza. anche per questo motivo, gli sviluppatori di applicazioni, fornitori di soluzioni in grado di raggiungere una perfetta integrazione tra la "nuvola" e "fine" sarà sviluppatori di applicazioni La considerazione più importante nella valutazione dei fornitori: nuova elettronica
5.I diplomati del MID riceveranno un diploma blockchain questo mese
SAN FRANCISCO, Giugno 15:00 notizie, la tecnologia catena di blocco consente Massachusetts Institute of Technology (MIT) si laurea per gestire in modo digitale le loro credenziali accademiche.
Cambridge, Massachusetts società di software di apprendimento automatico e il MIT Media Lab e la collaborazione sede legale, gli studenti possono scegliere di scaricare il portafoglio catena di blocco, archiviazione sicura e la condivisione di loro diploma.
Secondo il "MIT Technology Review" ha riferito che, dopo un primo progetto pilota avrà successo, il MIT ha deciso fin dall'inizio di questo mese per fornire un servizio di portafoglio catena di blocco per tutti i nuovi laureati.
'Non credo che siamo in grado di controllare le istituzioni centrali di apprendimento al fine di registrare in digitale.' Philipp Schmidt direttore della rappresentanza di apprendimento innovativo del Media Lab.
Lo scopo del lancio di un diploma di forma blockchain è quello di consentire agli studenti di ottenere le loro credenziali accademiche in modo tempestivo e affidabile, in modo che i potenziali datori di lavoro non debbano chiamare nuovamente la scuola per confermare l'autenticità dei loro diplomi.
I neolaureati che desiderano un diploma digitale devono solo scaricare un'app.
"Prima della laurea, il MIT invierà una email di invito allo studente, che ha scritto:" Ehi, scarica Blockcerts Wallet, accetta la password e aggiungi MIT come editore ". Chris Jagers, CEO, Learning Machine Dice: "Quando il MIT rilascia un diploma, gli studenti ricevono un'email con un file digitale che possono importare direttamente nell'applicazione."