Tra le scene tra AI architettura romanica e il senso della tecnologia, timone Naveen Rao Intel parla di AI Intelligenza Artificiale hardware Intel e la combinazione di software, ma il più pesante rispetto alle informazioni avviso affisso Nervana neurale chip di rete, secondo il piano ultimo circuito integrato di Intel IA Nervana NNP L-1000, sarà ufficialmente sul mercato nel 2019, che è primi prodotti di processori di rete neurale commerciali di Intel.
Due anni fa, Naveen Rao e la profondità di apprendimento, CEO e co-fondatore di avvio Nervana Systems. Dopo che la società è stata acquisita da Intel, Nervana diventano il nucleo di Intel navi intelligenza artificiale, Nervana serie PNN sono emersi, Naveen Rao è è stato nominato capo della divisione artificiale prodotti intelligence.
Vice President di Intel prodotti di intelligenza artificiale divisione, Nervana membro del team Carey Kloss On the Road in un'intervista con Business Herald giornalista ha intervistato il 21 ° secolo: 'I nostri primi giorni ha iniziato lo sviluppo del lago di Crest (Nervana serie PNN di chip di inizio generazione, nome in codice) era tutta la nostra squadra di circa 45 l'uomo, sta costruendo uno dei più grandi die (chip di silicio), abbiamo sviluppato il Neon (software per l'apprendimento di profondità), pila nuvola costruito anche, queste sono piccola squadra compiuto. ma è qui la sfida, ci sarà un piccolo team dolori della crescita abbiamo speso un sacco di ore per ottenere i primi prodotti fuori, Nervana fondata nel 2014, fino a quando i chip davvero uscire lo scorso anno '.
Tuttavia, dopo aver aderito a Intel, Nervana può utilizzare le varie risorse di Intel, "Ovviamente, chiamare le risorse non è un compito facile, ma Intel ha una vasta esperienza nella commercializzazione dei prodotti. Allo stesso tempo, Intel ha finora visto La migliore analisi del post-silicio e dell'architettura. Carey Kloss ha dichiarato al reporter del 21st Century Business Herald: "Abbiamo centinaia di sistemi in funzione contemporaneamente nel chip di produzione, i dipendenti di Nervana e 6 mesi I membri che si erano appena uniti lavoravano anche giorno e notte per lavorare insieme per nuovi prodotti. "A suo avviso, Nervana è ora a un ritmo ragionevole e ha tutti gli elementi per il successo il prossimo anno.
Oltre a Nervana, Intel acquisito artificiale impresa intelligenza punta comprende anche Movidius attenzione alla elaborazione visiva, FPGA (Field Programmable Gate Array) gigante Altera, guida intelligente correlati Mobileye, ecc, infatti, a partire dal 2011, Intel ha iniziato a continuare a investire aziende aI-correlati, tra cui l'orizzonte Cambriano cinese, allo stesso tempo, i concorrenti di Intel stanno crescendo NVIDIA GPU trionfo nel campo dell'intelligenza artificiale; .. Google ha recentemente rilasciato il chip aI terza generazione TPU, il chip per l'ottimizzazione tensorflow architettura apprendimento profondo di Google, e Google per fornire agli sviluppatori un TPU e altri servizi di base, l'anno scorso, Baidu braccio dell'articolazione, spettacolo viola tagliente e Hanfeng chip elettronico DuerOS pubblicazione del giudizio, il principale fornitore di Interactive voice risolvere programma; Facebook e Alibaba hanno anche di entrare nei circuiti integrati, che Alibaba Dharma Istituto sta sviluppando chip di rete neurale chiamato Ali-NPU, soprattutto per gli scenari di immagine, riconoscimento di video e di cloud computing.
In che modo Intel risponderà all '"esperienza" di questo chip di intelligenza artificiale?
Tre fazioni che combattono per l'egemonia Nel complesso, l'attuale modello globale di intelligenza artificiale non è ancora chiaro, non appartengono ai rispettivi tecnologia guerra locali per esplorare, non è ancora entrata in guerra totale affollato. L'intelligenza artificiale è un concetto generale, notevoli differenze di scenari applicativi specifici, le società l'obiettivo è diverso, se classificati in base alle scuole tecniche e di business, le aziende globali possono essere divisi in tre fazioni. uno è l'applicazioni di sistema della scuola, il più tipico rappresentante di Google e Facebook. non solo essi sviluppano quadro a livello di sistema di intelligenza artificiale come ad esempio famoso quadro di intelligenza artificiale di Google tensorflow, di Facebook Pytorch, ma anche le applicazioni di investimento su larga scala. Per esempio, Google ha investito molto in ricerca e pilota automatico lo sviluppo, le imprese di traduzione 2C lancio, mentre Facebook anche la tecnologia di intelligenza artificiale è ampiamente utilizzato nelle reti sociali l'elaborazione delle immagini, elaborazione del linguaggio naturale e le altre aree.
La seconda categoria è la fazione di chip, la chiave è quello di fornire all'operatore forza di sostegno, il più grande giocatore è l'Intel e NVIDIA. Opportunità di NVIDIA GPU computing per cogliere le esigenze principali delle attrezzature, prestazioni di calcolo nel rendering grafico, il campo dell'intelligenza artificiale e catena di blocco molto importante in queste imprese anche esercitare pressioni su Intel, mentre Nvidia e Intel sembra 'Intel Inside' diverso, preferirebbe diventare una vera e propria forza di gestore della piattaforma, e il successo del lancio della sua piattaforma CUDA.
Al 30 maggio NVIDIA ha rilasciato prima integrazione al mondo di intelligenza artificiale e ad alte prestazioni piattaforma di elaborazione di calcolo --HGX-2, che è attualmente il più grande GPU - Computing Platform DGX-2 come un operatore tradizionale dietro il campo di forza. Intel sporgenza naturale essere da meno, il commercio di 50 anni, piuttosto significa anziani negli ultimi anni spesso lanciati fusioni di successo e acquisizioni nel campo dell'intelligenza artificiale: 2.015 $ il 16,7 miliardi di acquisizione di 'field programmable gate array gigante' (reti di porte programmabili array, FPGA ) Altera, ha gettato le basi per il futuro trend di sviluppo force base di calcolo, FPGA nel cloud computing, networking, e altri aspetti del bordo di calcolo ha un grande potenziale, 2016, Intel acquisito Nervana, la società prevede di utilizzare questa capacità per l'apprendimento approfondito per combattere GPU, lo stesso anno anche acquisiti start-up di chip di elaborazione visiva Movidius; 2017 Nian Intel per $ 15.3 miliardi di acquisizione di aiuto israeliano guidano l'azienda Mobileye, destinato a entrare nel campo di pilota automatico.
Oltre alle applicazioni del sistema per l'invio e la torta di chip, la terza categoria è l'applicazione della tecnologia per inviare la maggior parte delle aziende di riposo rientrano in questa categoria. Anche se diverse aziende hanno affermato di avere un apprendimento di profondità, l'intelligenza artificiale, anche unico, profondo l'accumulo di tecnologia, ma in realtà per lo più basato applicazioni della piattaforma tecnologia per inviare e torta di chip. basta inviare agli utenti C-terminale orientati alla tecnologia più, tra cui il pilota automatico, il riconoscimento delle immagini, e altre applicazioni aziendali. oggettivamente parlando, la tecnologia inviare parte del 'finto buono gentiluomini alle cose'.
Concorrenza dal punto di vista attuale, il sistema applica fazione è progressivamente occupato tutta vantaggio, con particolare competenza nel campo dell'intelligenza artificiale. Nel computer, e nell'era telefono mobile tradizionale, il sistema e il chip rapporto più cooperativo, e ancor più chip dominare. in particolare, ad esempio, nel mercato dei computer, conta Intel in pieno campo di forza del sistema di egemonia attraverso macchine PC e Apple Mac. i sistemi Windows e iOS è diverso, non può sostituire l'altro, ma la loro comune Intel ma non può sostituire. all'era telefono, pur essendo considerato forza protagonista va da Intel Qualcomm, ma il chip è ancora in posizione del nucleo del sistema operativo e le sue parti uguali importanza.
Recentemente 1--2 anni, la situazione sta cambiando rapidamente, Apple ha rilasciato proprio R & S e produzione di MAC di chip labbra, azioni Intel ricadeva catturati nel campo di intelligenza artificiale, questa tendenza è più evidente, perché la domanda di differenziata polo scenari di elaborazione. grande, Google è diventato maturo secondo le loro necessità di sviluppare i chip necessari, tecnicamente più fattibile. Intel Se si desidera un diverso chip di scena su misura, il che significa che Intel sarà pienamente trasferiti 2B aree, e prima che la modalità 2B2C rispetto al puro affari 2B sarà ovviamente più come una festa, la complessità della linea di business aumenterà notevolmente. e storicamente, una società da trasformare 2B 2C complesso, spesso a causa di dominanza nucleo perso nel settore e ha dovuto ritirarsi Cerco tempi
Scommettere su Nervana NNP Quindi, nella competizione agguerrita, come fa Intel ad aumentare ulteriormente il suo business di chip?
Dopo Naveen Rao si è unito Intel, Intel è diventato Vice President, Divisione AI (AIPG) responsabile, che porta l'introduzione del processore Intel rete neurale (Nervana PNN) circuito integrato di serie. La proposta di strumenti software che forniscono per la conferenza sviluppatori in hardware AIDC ecologia nel settore sembra Intel resistenza tecnica, strumenti software e l'hardware non è un problema, ma l'ecologia è una questione aperta. nell'era del PC, è il nucleo di eco-chip, in modo da poter costruire eco-around di chip Intel rendono inespugnabile, ma in epoca di intelligenza artificiale, l'intelligenza artificiale è il cuore del sistema ecologico, fornendo chip count potere è parte della ecologia, numero di CPU in grado di fornire energia, GPU può anche essere fornita, Intel in grado di produrre, Nvidia in grado di produrre, anche Google, Apple se stessi produzione può ora apprendere nei dati di profondità e calcolo scientifico, layout chip Intel Xeon principalmente (Xeon) serie di chip, Movidius circuito integrato visione VPU, serie Nervana PNN, nonché FPGA (field programmable gate array). questi articoli Le linee di prodotto corrispondono a diversi scenari applicativi suddivisi.
Serie Nervana NNP è un processore di rete neurale, la formazione approfondita fase di inferenza e di apprendimento, Nervana PNN principalmente per il calcolo fase di formazione, secondo i piani di Intel, il 2020 per la profondità di apprendimento e di formazione (Deep Learning, indicato come il 'DL' ) l'effetto di 100 volte. questo processore rete neurale da Intel e progettato in collaborazione con Facebook, è possibile prevedere che il chip dovrebbe essere in gran parte quadro di apprendimento macchina Pytorch Facebook hanno un buon supporto, dopo tutto Pytorch delle ambizioni di Facebook Certamente competerà con Tensorflow di Google, ma le ultime chip verranno ufficialmente lanciate nel 2019. Come cambierà in modo imprevedibile il modello di apprendimento profondo?
Naveen Rao ha scritto nel suo blog: 'Stiamo sviluppando i primi processori di rete neurale commerciali Intel Nervana NNP-L1000 (nome in codice Spring Crest), prevista per il rilascio nel 2019 rispetto alla prima generazione di prodotti Lago Crest, noi. Intel dovrebbe Nervana NNP-L1000 raggiungerà 3-4 volte le prestazioni di formazione. Intel Nervana NNP-L1000 sosterrà anche bfloat16, che è ampiamente usato nell'industria un formato di dati numerici per la rete neurale del futuro, Intel sarà in intelligenza artificiale linea di prodotti ampliata supporto per bfloat16, tra cui Intel e Intel Xeon FPGA. 'infatti, Primavera Crest lanciato alla fine del 2018 è stato a lungo vocifera, ma ora sembra che, nel 2019 questo punto nel tempo la strategia ufficiale a questo proposito c'è un ritardo, Carey Kloss spiegato ai giornalisti: 'nel nodo processo più moderno, abbiamo integrare più piastrine (chip di silicio) può essere ottenuta velocità di elaborazione, ma ci vuole tempo per fabbricare wafer di silicio , ci vuole tempo per diventare il nuovo processore di rete neurale silicio, che è il motivo del ritardo '.
Per la differenza tra due generazioni di chip, detti sua analisi: 'processore Lake Crest come la prima generazione, in GEMM (calcolo matriciale) e un calcolo neurale convoluzionale hanno raggiunto una buona utilizzazione non solo si riferisce al 96% il throughput. la quantità di utilizzo, ma in assenza di personalizzazione completa, abbiamo anche sfruttato al meglio la situazione per ottenere 80% rispetto alla utilizzazione di calcolo GEMM. quando sviluppiamo il chip di prossima generazione, se siamo in grado di mantenere un elevato calcolato utilizzando tasso, i nuovi prodotti sono tre a quattro volte il miglioramento delle prestazioni in termini di prestazioni '.
Per quanto riguarda la concorrenza, Carey Kloss ha detto: 'Io non so quello che la road map è quella dei nostri concorrenti, ma la nostra velocità di reazione è relativamente veloce, quindi penso che non saremo in svantaggio nella lavorazione rete neurale come bfloat16 è stato per qualche tempo. , ed è recentemente diventato più popolare, molti clienti dedotti a sostegno dei requisiti bfloat16, abbiamo gradualmente spostato a favore di bfloat16. 'TPU e il punto di vista contrario di Google, egli ritiene che TPU seconda generazione simile al Lago Crest, TPU tre generazioni simile a primavera Crest.
Attacco su tutti i lati Oltre a riguardare Nervana PNN, i chip Xeon di Intel per i server e grandi dispositivi informatici principali, come ad esempio il nostro supercomputer Tianhe-I e II sull'uso di processore Intel Xeon a sei core.
In termini di circuito integrato visiva, attività di Intel è cresciuto rapidamente. Fiches Movidius VPU già di fronte, nella, veicoli aerei senza equipaggio automotive e altro hardware nei mercati emergenti, come ad esempio Dajiang Unmanned Aerial Vehicles, Tesla, e Google clip telecamere hanno adottato Movidius Il chip visivo.
Movidius il leader di mercato Gary Brown ha detto al giornalista 21 ° Century Business Herald: 'In Movidius, abbiamo sviluppato il chip si chiama unità di elaborazione visiva VPU VPU è un chip di computer vision e il processore intelligente della fotocamera in modo che entrambi i chip. Esistono tre tipi di elaborazione: elaborazione ISP, che consiste nell'elaborazione del segnale immagine, elaborazione basata sulla tecnologia di acquisizione della videocamera, visione artificiale e apprendimento approfondito.
Ha citato Road, scenari di utilizzo specifiche includono VR prodotti e robotica, casa intelligente, telecamere industriali, fotocamera AI, così come la sorveglianza e la sicurezza. Dove 'la sorveglianza e la sicurezza è un mercato enorme, soprattutto in Cina, telecamere di sorveglianza e di sicurezza Il mercato è particolarmente ampio e alcune grandi aziende stanno sviluppando telecamere di sorveglianza come Hikvision e Dahua.
Gary Brown ha anche ricordato che il campo attuale di casa intelligente è in rapida crescita, anche se il mercato è piccolo, ma in rapido sviluppo. 'Ci sono molte aziende nello sviluppo di dispositivi intelligenti, come la sicurezza Smart Home, casa assistente personale, campanello intelligente, e l'accesso agli appartamenti e la famiglia Controllo. Ma nel campo domestico, il basso costo, il basso consumo energetico, la lunga durata della batteria e la precisione molto elevata sono molto impegnativi, perché l'ombra esterna, ad esempio, si muove, può attivare un allarme anti-intrusione ed è quindi molto bassa. Il tasso di falsi allarmi è molto importante e dovrebbe avere una buona precisione.
E una delle sfide della società è come continuare a creare chip ad alte prestazioni, 'Abbiamo un certo numero di strategie, come ad esempio il consumo di energia inferiore con un algoritmo di front-end, in modo da poter chiudere la maggior parte del chip, solo una piccola parte della ottimizzazione del funzionamento della funzione di rilevamento del volto quando un volto apparve, saranno lanciati altri chip. in questo modo il sistema di sorveglianza del viso è acceso. abbiamo ancora un sacco di calcoli di tecnologia di risparmio energetico, il tempo di vita della macchina fotografica casa intelligente di circa sei mesi. ', ha spiegato Gary Brown.
Inoltre, FPGA Altera carica di questa linea dalla situazione. Con l'arrivo dell'onda 5G, analisi dei dati e il calcolo della domanda preferenze degli oggetti sarà surge, rete e accesso nodo o almeno decine di miliardi di dimensione delle classi rispetto alle dimensioni di un telefono cellulare a 1-2 ordini di grandezza superiore rispetto alla tipica domanda di cose che hanno bisogno di essere utilizzato in modo flessibile modificare l'algoritmo, che è la forza della FPGA, FPGA può essere personalizzato per soddisfare le esigenze di scenari di calcolo per modificare la propria struttura, il che rende anche Intel in futuro È diventato possibile fornire chip efficienti per diversi tipi di dispositivi. Dall'importo di $ 16,7 miliardi, si può vedere che l'acquisto di Intel non è ovviamente solo un valore immediato.
Scenari a livello aziendale rivoluzionari Intel Una recente indagine mostra che i clienti aziendali negli Stati Uniti, oltre il 50% si stanno muovendo verso soluzioni di cloud basati su processori Intel Xeon esistente per soddisfare i loro bisogni iniziali per l'intelligenza artificiale, mentre il numero di dirigenti di Intel hanno detto in un'intervista con i giornalisti, non c'è un'unica soluzione per tutti gli scenari di intelligenza artificiale, Intel condurrà con l'attività tecnica e in base alla domanda dei clienti. per esempio, Intel Xeon e sarà FPGA, o Xeon e Movidius configurato insieme, Al fine di ottenere prestazioni più elevate funzione di intelligenza artificiale.
Per Intel, questi intelligenza artificiale migliorata verrà ampiamente utilizzato in scena di classe enterprise Naveen Rao dice: 'Quando accelerato computing per guidare il futuro della transizione di intelligenza artificiale, abbiamo bisogno di fornire una gamma completa di soluzioni enterprise. Ciò significa che la nostra soluzione offre la più ampia gamma di potenza di calcolo e può supportare più architetture, da milliwatt a kilowatt.
Carey Kloss ha inoltre spiegato ai giornalisti 21st Century business Herald scenario chip di intelligenza artificiale: 'Spring Crest si può dire che i più alti livelli di architettura del processore Nervana Neuron così i suoi clienti includono centro scala di calcolo di grandi dimensioni, ha già un dato molto forte. Grandi aziende con lavoro scientifico, governi, ecc. Se hai bisogno di modelli di fascia bassa e di piccole dimensioni, Xeon può aiutarti, può aprire i dati dal cloud fino alla fine.
In particolare, Intel è fatto anche per esplorare il medico, senza pilota, nuova vendita al dettaglio, networking e altri scenari, come ad esempio nella sanità, secondo i rapporti, Intel è Novartis (Novartis), in collaborazione con, l'uso di reti neurali per accelerare la profondità di contenuti di alta lo screening - questo è un primo sviluppo della droga è un elemento chiave della cooperazione tra il tempo due parti per formare un'immagine modello di analisi è stato ridotto da 11 ore a 31 minuti - più di 20 volte più efficiente.
In termini di "no-shops", Intel ha fornito il "cervello di calcolo" ai minimarket senza equipaggio di Jingdong, ed è stato distribuito e implementato in diversi smart store (Sinopec Express Store, Jingdong Home) e smart vending machine. JD.com ha affermato che gli algoritmi di apprendimento automatico utilizzati dai negozi non presidiati sono principalmente incentrati sulla conoscenza, la conoscenza e la conoscenza In tre direzioni, la necessità di utilizzare dati non strutturati, ad esempio video, viene convertita in dati strutturali a causa della comunicazione di dati online e offline. Il noto algoritmo CNN (convolutional neural network) nel campo della visione artificiale, i tradizionali algoritmi di apprendimento automatico utilizzati nella catena di approvvigionamento intelligente, come SVM, regressione lineare delle statistiche, regressione logistica, ecc. Nel caso di migliori condizioni di rete La maggior parte dei dati video può essere completata nel cloud utilizzando un modello più grande.In caso di una rete povera, attraverso il computing di bordo come il mobile, il calcolo del bordo viene eseguito utilizzando una piccola rete.L'hardware utilizzato include i server periferici Intel.
Nonostante i forti nemici di Intel, la transizione è stata molto solida con la sua espansione: dal solo valore di R & S, secondo IC Insights, la spesa totale in R & S dei primi 10 produttori di semiconduttori nel 2017 è stata di US $ 35,9 miliardi. Secondo il rapporto, nel 2017 la spesa di R & S di Intel ammontava a 13,1 miliardi di dollari USA, pari al 36% della spesa totale del gruppo, che rappresenta circa un quinto delle vendite di Intel nel 2017. Con ingenti investimenti da varie società, proseguirà anche la battaglia dei chip di intelligenza artificiale. intensificata.