Secondo i media stranieri, il rapporto Informazioni, Huawei ha formulato internamente il "Piano Da Vinci", che viene anche definito "Piano D" dai dirigenti di Huawei.Il responsabile è il vicepresidente di Huawei, la società di progettazione IC di Huawei Hai Si Presidente Xu Zhijun.
I contenuti principali sono i seguenti: In primo luogo, introdurre l'intelligenza artificiale in tutti i prodotti e servizi Huawei, comprese le stazioni base di telecomunicazione, i centri dati cloud, smartphone, telecamere di sorveglianza, ecc. In secondo luogo, sviluppare nuovi chip AI per data center, abilitando il riconoscimento vocale e le immagini. Applicazioni come il riconoscimento possono essere utilizzate nel cloud.
Le speculazioni dell'Information sul piano sono: in primo luogo, il chip di intelligenza artificiale di Huawei potrebbe rappresentare una minaccia per Nvidia, in secondo luogo, il layout di nuvola di intelligenza artificiale di Huawei potrebbe aggravare le preoccupazioni del governo degli Stati Uniti.
Layout di Huawei AI
il layout di Huawei AI, in realtà, nulla di nuovo.
Lei Feng rete è stato riportato, Huawei dispositivo Huawei DigiX2018 · partner globale e conferenza degli sviluppatori, tenutasi il 22 giugno l'amministratore delegato Yu Chengdong, business consumer di Huawei esposto una nuova strategia di business consumer di Huawei: la saggezza della strategia ecologica in diretta tutta la scena.
Yu Chengdong ha sottolineato che Huawei per costruire l'intera scena saggezza ecologica della vita è un ecosistema aperto. Per l'intero ecosistema, Huawei fornirà una piattaforma aperta HiAI nucleo di intelligenza artificiale, fine, tre livelli di tecnologie cloud aperti, consentendo ai partner globali.
Nel lato di chip, Huawei costruirà un'esperienza operativa liscia piattaforme, strumenti audio e video, giochi aiutanti di calcolo da HiAI mobile; sul lato del terminale, Huawei per la costruzione di un servizi di connessione completi e l'intera applicazione scena dalla saggezza di hardware, la piattaforma HiAI, AR / VR e altre attrezzature esso offre una serie di rilevamento intelligente e funzionalità interattive, attraverso i servizi di telefonia mobile di Huawei (HMS), AppGallery e così soddisfare le esigenze dei singoli consumatori nel lato cloud.
Settembre 2017, Huawei ha rilasciato il primo chip al mondo cellulare unicorno AI 970, aggiungere l'unità di elaborazione rete neurale NPU (la sua tecnologia dal Cambriano), rispetto alla CPU, aumento della velocità di calcolo di 25 volte, aumento di 50 volte l'efficienza energetica Huawei Mate 10 e 10 Mate Pro e gloria V10 sono dotati Kirin 970 chip.
Attualmente, Huawei è ancora utilizzando il chip GPU Nvidia per aggiungere funzionalità al server IA.
nucleo cinese 'gruppo' di chip AI nella nube
concorrenza interna si sta intensificando situazione, quest'anno, Baidu e Cambriano devono entrare nella nuvola chip di intelligenza artificiale.
Nel maggio di quest'anno, rilasciato la prima nuvola Cambriano smart chip Cambricon MLU100.
Resta inteso, MLU100 utilizzando più recente architettura Cambriano MLUv01 e processo 16nm TSMC, che può funzionare in modo bilanciato (frequenza 1 GHz) e una modalità ad alta prestazione (1.3GHz frequenza), il modo equilibrato equivalenti velocità massime ipotetiche fino a 128 al secondo trilioni aritmetica a virgola fissa, la modalità a prestazioni elevate equivalenti velocità massima teorica 166,4 trilioni volte al secondo aritmetica in virgola fissa, ma è tipicamente 80 watt scheda di potenza, non supera 110 watt di potenza di picco.
4 luglio 2018 AI Baidu Developers Conference, CEO e Presidente Robin Li, Baidu Baidu rilasciato l'auto-sviluppato chip di intelligenza artificiale 'Kunlun', che comprende la formazione e il chip ragionamento chip di Kunlun 818-300 818-100.
Baidu afferma che questo è il primo chip di intelligenza artificiale completo in tutta la Cina, ed è di gran lunga il chip IA più potente del settore. Dal punto di vista dei parametri, 'Kunlun' usa il processo di 14nm di Samsung, con prestazioni 260Tops, 512 GB / s banda di memoria; potenza oltre 100 watt, composto da decine di migliaia di piccolo nucleo.
Nube AI struttura del mercato dei chip
E nel mercato attuale di chip GPU, la quota di mercato di Nvidia alto come il 70%, è chip egemonia meritati.
2016, Nvidia ha investito miliardi di dollari, spesi migliaia di ingegneri, ha introdotto il primo ottimizzato per l'apprendimento profondo Pascal GPU. 2017 anni e lanciato aumentato di 5 volte le prestazioni rispetto alla nuova architettura GPU Pascal Volta, rete neurale ragionamento acceleratore TensorRT 3 svelato anche, TensorRT ragionamento come acceleratore programmabile può accelerare architetture di rete esistenti e futuri.
L'analisi di dettaglio (vedi: affollato settore dei chip IA di oggi finirà per essere dominata dalla testa del giocatore) Lei Feng rete della struttura del mercato dei chip AI stato presente, nuvola di chip IA da hardware o software, è stata controllata giganti tradizionali .
Sotto questa mappa è pubblicato da Compass Intelligenza AI chip di elenco globale perché il chip IA è attualmente molto poco in applicazione finale, la testa della graduatoria può approssimare l'attuale struttura del mercato è considerato di chip cloud AI.
Possiamo vedere che il gigante di chip Nvidia (Nvidia) ha fermamente occupato la piastrina superiore intelligenza artificiale, grazie alla piattaforma di sviluppo CUDA popolarità, la GPU NVIDIA è attualmente la piattaforma di AI hardware di calcolo più utilizzato per tutti gli usi.
Oltre alla forza del chip auto-sviluppato aziendali (il mondo non ha fatto un paio), se avete bisogno di fare lavoro di AI-correlato, avremo bisogno di usare i chip Nvidia. Chip Nvidia applicazione diffusa, ora tutte le librerie software AI supportano l'uso di accelerazione CUDA tra cui Google tensorflow, di Facebook Caffe, Amazon MXNet e così via.
Ora il focus del dibattito di settore è la migliore architettura di processori per chip AI, incluse GPU, FPGA, DSP e ASIC, e chip neuromorfici cerebrali ancora più all'avanguardia.Ora la GPU è in una posizione dominante, ma molti altri L'architettura del processore ha anche i suoi vantaggi.
Intel è una scommessa multipartitica, non perdere nessun tipo di architettura del processore: l'enorme investimento di Google in TPU (in realtà un ASIC) ha determinato un significativo aumento delle prestazioni dell'hardware, sembra che l'impatto sulla GPU sarà il più grande Il motivo non è solo per i vantaggi di efficienza offerti dall'architettura dedicata, ma anche per il vantaggio in termini di costi offerto dal modello di business.
Nel cloud, i giganti internazionali sono diventati il leader ecologico di fatto, perché il cloud computing è il campo di battaglia dei giganti, ora tutti i framework IA open source sono anche rilasciati da questi giganti: in un ambiente così ecologicamente solido, Huawei vuole Prendi una quota, i chip di IA domestici cloud vogliono avanzare ai primi cinque, o addirittura sfidare Nvidia, non è facile.