Anche se il mercato automobilistico è ancora limitato nelle dimensioni nei prossimi anni, Freund non ha dubbi che alla fine porterà a una crescita significativa. Ai chip nemico Ring, le

Processore di disegno la crescita dell'attività del Data Center nel 1o trimestre di NVIDIA ha rallentato notevolmente negli ultimi anni. Se NVIDIA può mantenere la sua posizione nel campo dell'intelligenza artificiale (ai), l'emergere di chip personalizzati come Google TensorFlow Processing Unit (TPU) minaccia il dominio di NVIDIA in approfondita formazione di apprendimento. Se Intel, ultra micro (AMD) e tutte le nuove imprese nel campo può sorpassare NVIDIA vale la pena di approfondire. Secondo FUBiS (Forbes), l'Istituto di ricerche di mercato Moor Insights & strateg analista Karl Freund ha pubblicato uno studio di recente, ha detto la crescita stupefacente di NVIDIA in ai ha causato un sacco di attenzione, e ha portato molti potenziali avversari, Molte di queste aziende sostengono di aver sviluppato chip che sono 10 volte più veloce di NVIDIA e hanno un minor consumo energetico. Oltre alla GPU Hyper-micro, tutte le aziende credono che il chip progettato per affrontare le reti neurali è un percorso percorribile. Intel ha acquisito Nervana nel 2016 per costruire il suo portafoglio acceleratore. Il motore originale Nervana avrebbe dovuto essere rilasciato nel 2017, e finora non c'è stata nessuna notizia. Nervana può decidere di regolare il suo design originale dopo volta Tensorcores, che è 6 volte più efficiente di Pascal, ha sconvolto la Comunità. Freund che la prima produzione in lotti di chip Nervana può essere pubblicato alla fine del 2018. La discussione di cui sopra è di circa la formazione della Deep Neural Network (DNN), che è dove NVIDIA ha fatto un grande successo in ai. Tuttavia, Intel dice che abbinando una buona progettazione software con un processore Xeon datacenter, è possibile ottenere prestazioni eccezionali nello sforzo di inferenza. La società sostiene di avere più del 80% per cento del mercato di trasformazione inferenziale. Google TPU e altri ASIC interno Google ha due tipi di ASIC disponibili per IA: uno per l'inferenza e l'altro per la formazione. Google ha reso TPU un acceleratore per il mercato. Ma in realtà, si compone di 4 ASIC identici, ogni offerta su 45TOPS. Al contrario, NVIDIA volta ogni chip offre fino a 125TOPS. Nel corso del tempo, Google potrebbe aver spostato la maggior parte del suo lavoro in-House GPU in TPU. Micro-anche se ultra micro nella preparazione del loro stack software e NVIDIA Scramble per il carico di lavoro di apprendimento automatico, ma il suo attuale chip Vega in prestazioni di picco di NVIDIA volta una generazione dietro. L'azienda attualmente ha 10 nuove imprese nel mondo che stanno progettando di competere per l'apprendimento automatico, alcuni dei quali sono pronti a lanciare chip. Il Cambriano in terraferma sembra essere ben finanziato e sostenuto dal governo del continente. Il Cambriano è focalizzato sull'affrontare le reti neurali piuttosto che costruire reti neurali. Silicon Valley Company Wave computing ha lanciato un chip che può costruire un modello di formazione. Wave utilizza un nuovo design chiamato Dataflow Architecture, che presumibilmente Elimina i colli di bottiglia negli acceleratori tradizionali. Il processore del flusso di dati Wave può addestrare ed elaborare la rete neurale direttamente senza utilizzare la CPU. A differenza di Google TPU, Wave supporta l'apprendimento approfondito di Microsoft CNTK, Amazon MxNet e TensorFlow software. Altre società ben note come Cerebras, Graphcore e GROQ sono ancora in modalità Stealth, ma hanno sollevato un sacco di soldi per costruire un acceleratore ai Custom, ma non dovrebbe essere lanciato fino al 2019. Freund che la più grande minaccia di NVIDIA potrebbe essere Google TPU. Google può continuare a comprare e utilizzare molte GPU per gestire un carico di lavoro che non è adatto per TPU, come una rete neurale ricorsiva per l'elaborazione del linguaggio. Wave è una buona scelta per le aziende che non vogliono utilizzare il cloud pubblico per lo sviluppo e la distribuzione ai, e non vogliono impostare la propria infrastruttura GPU. Infine, se Intel può prendere in prestito Nervana per entrare nel mercato ed è disposto ad investire nel suo pieno sostegno, allora Nervana potrebbe rappresentare una minaccia nel 2019. Ma Nervana ha bisogno di almeno 3 anni di tempo e una solida tabella di marcia per sviluppare 1 ecosistemi vitali. I 1 fattori da considerare sono che, con lo sviluppo di NVIDIA 7 nanotecnologia, NVIDIA sarà in grado di aggiungere una zona importante chip alla funzione ai. Di conseguenza, la percentuale di chip che si concentrano sulla ai può aumentare, in modo che questa parte diventa effettivamente un ASIC che può anche visualizzare grafica. Freund non pensa NVIDIA è 1 società GPU, ma 1 società di piattaforme con aspirazioni di crescita illimitata. Non ci sono altre aziende che hanno la profondità di NVIDIA e l'ampiezza di competenze in hardware ai e software. NVIDIA può progettare un chip migliore ai se prevede una minaccia da un micro, Intel o ASIC. NVIDIA ha fatto questo attraverso l'acceleratore di apprendimento profondo (DLA). Se la GPU è compromessa, NVIDIA può anche passare al passaggio successivo. Allo stesso tempo, ha una crescita evidente e leader di mercato posizione in chip di formazione ai. In termini di elaborazione inferenziale, NVIDIA si concentra su workload di data center e sistemi di guida visiva per applicazioni come auto-guida.

2016 GoodChinaBrand | ICP: 12011751 | China Exports