In precedenza, TPU sono utilizzati per i prodotti Google interne, con l'apertura del Cloud TPU, il che significa che chip di AI e mercato del cloud pubblico introdurrà un nuovo cambiamento della situazione.
Google ha anche rilasciato una versione beta cloud TPU, questa versione offre attraverso la piattaforma cloud di Google, per aiutare i più machine learning esperto per eseguire il modello in modo più rapido. Cloud TPU è Google acceleratore hardware progettato, progettato per accelerare, di estendere la macchina tensorflow specifica Ottimizzato per lo studio dei carichi di lavoro.
ricerca Gartner vice presidente, 'ed i chip saranno e Nvidia competere di possedere il TPU si aprono per fare servizi cloud, mostra di Google per aumentare il layout gli investimenti nel cloud aziendale Google fornirà i produttori competono servizi cloud intelligenti a tutti.' Ling Hai Sheng ha detto CBN giornalista.
Tuttavia, Google e NVIDIA hanno negato sia l'esistenza di una concorrenza diretta. Questo perché Nvidia chip orientata è più ampiamente utilizzato, mentre chip di intelligenza artificiale di Google è solo concentrando su apprendimento automatico, potenziato da domanda artificiale, azioni Nvidia è salito più di 6 volte negli ultimi due anni.
Già nel Google lo scorso 17 maggio alla conferenza I / O, Google ha annunciato il lancio ufficiale della seconda generazione di processori a concentrarsi su TPU intelligenza artificiale. TPU è un'elaborazione ad alte prestazioni di Google un dedicato, indipendente di ricerca e sviluppo di servizi informatici intelligenza artificiale dispositivo, ad esempio la prima generazione di prodotti sono stati nel centro dati e che prevede l'utilizzo di intelligenza artificiale come AlphaGo, la potenza di calcolo principale.
E lo scorso anno ha pubblicato il secondo chip TPU generazione, non solo per approfondire la capacità di apprendimento di intelligenza artificiale e il ragionamento, e Google è seriamente vogliono sapere di mercato, secondo test interni di Google, un chip di seconda generazione per la macchina di formazione di apprendimento velocità può salvare la metà del tempo di quanto lo sia ora chip grafico (GPU) sul mercato.
Li Fei-fei, capo scienziato del team di cloud computing di Google e direttore dei laboratori di intelligenza artificiale presso la Stanford University, ha dichiarato: "Questi TPU offrono 128 trilioni di operazioni in virgola mobile e sono chip progettati per guidare le tecnologie di apprendimento automatico". L'iPhone 6 offre 100 trilioni di operazioni in virgola mobile e la GPU NVIDIA Volta offre 120 trilioni di operazioni in virgola mobile.
NVIDIA è attualmente la GPU GPU dominante, ha affermato NVIDIA NVIDIA GPU Cloud (NGC), una rete neurale avanzata che sta guadagnando slancio per la comunità AI in rapida evoluzione per un pubblico globale in rapida crescita. " NGC ha fornito servizi alla piattaforma cloud di Amazon.
Google ha lanciato la seconda generazione di TPU, ha lanciato i servizi di cloud computing Cloud TPU, gli utenti possono noleggiare, fatturare e i servizi di calcolo GPU avranno anche la stessa modalità, in base ai prezzi minuto. A quel tempo, Google ha detto che questa ultima AI I chip non verranno venduti ai data center basati su società di altri server di chip maker, come Dell.
Ciò significa anche che le idee di sviluppo del chip di intelligenza artificiale di Google non sono in concorrenza diretta con la GPU, ma l'uso dello sviluppo differenziato TPU nell'industria del cloud pubblico. UrsHolzle, Chief Technology Officer di Google, ha dichiarato: "In sostanza, il TPU è uno Supercomputer per l'apprendimento automatico. Il nostro obiettivo è fornire i migliori servizi cloud. "
Google ha annunciato ai primi di febbraio, l'ultimo rapporto trimestrale degli utili, ma ha anche rilasciato il primo singolo I ricavi della gestione Ji Yun, raggiungendo $ 1 miliardo. Al contrario, Amazon e Microsoft di guadagni nuvola singola stagione sono più di $ 5 miliardi di globale cloud di Google Il mercato dei servizi è attualmente al terzo posto.
Dal punto di vista NVIDIA, secondo l'ultimo deposito trimestrale, operazioni di data center Nvidia è attualmente la seconda fonte di entrate, più di 600 milioni di $, più che raddoppiato di anno in anno, con un incremento del 105%. Lo scorso settembre GPU Technology Conference in Cina NVIDIA ha annunciato un accordo di cooperazione con i centri dati cinesi di BAT.
La voce di Google preoccupa gli investitori di NVIDIA che ritengono che il coinvolgimento di Google spazzerà via i grandi clienti degli operatori di data center, il che influenzerà i guadagni e le entrate di NVIDIA perché persino Google non può commercializzare i propri chip, Vinci l'affare.