Google eröffnet TPU | 6,5 US-Dollar pro Stunde und NVIDIA muss einen Krieg haben

Google Cloud TPU Maschine Lernwerkzeug wird der erste sein, vollständig geöffnet. Google legendärer Chip Ingenieur Jeff Dean von zehn twitter platzt kündigten die Nachrichten, Drittanbieter und Entwickler können $ 650 pro Stunde verbringen, es zu benutzen, muss aber zuerst füllen Tabellenanwendung

Zuvor sind TPU für interne Google-Produkte verwendet, mit der Eröffnung des Cloud-TPU, was bedeutet, dass AI-Chip und Public-Cloud-Markt in einer neuen Veränderung der Situation einleiten werden.

Google auch eine Cloud-TPU Beta-Version veröffentlicht, ist diese Version bietet über Google Cloud-Plattform, mehr Maschine zu helfen, Experten zu lernen, das Modell schneller laufen. Cloud-TPU ist Google entwickelte Hardware-Beschleuniger, spezifische TensorFlow Maschine zu beschleunigen entworfen, verlängern Optimiert für das Studieren von Workloads.

Gartner Research Vice President, ‚und die Chips und Nvidia konkurrieren die TPU besitzen öffnen Cloud-Services zu tun, zeigt Google Investition Layout in Cloud-Geschäft Google erhöhen werden die Hersteller auf alle intelligenten Cloud-Services im Wettbewerb bieten.‘ Ling Hai Sheng sagte CBN-Reporter.

Dennoch haben beide Google und NVIDIA leugnen die Existenz der direkten Konkurrenz. Dies liegt daran, Nvidia-Chip-orientierte mehr ist weit verbreitet, während Googles künstliche Intelligenz Chip nur auf maschinelles Lernen konzentriert, durch künstliche Nachfrage verstärkt, Nvidia-Aktie stieg um mehr als 6 mal in den letzten zwei Jahren.

Bereits am 17. Mai letzten Jahres, Google I / O Generalversammlung, Google kündigte den offiziellen Start der zweiten Generation der künstlichen Intelligenz mit Schwerpunkt auf dem TPU-Prozessor.TPU ist eine selbst entwickelte Google-für künstliche Intelligenz Computer-Services, Hochleistungs-Verarbeitung entwickelt Zum Beispiel wurde die erste Generation von Produkten in Rechenzentren und künstlicher Intelligenz eingesetzt, einschließlich AlphaGo, der wichtigsten Rechenleistung.

Der im letzten Jahr erschienene TPU-Chip der zweiten Generation vertieft nicht nur die Lern- und Denkfähigkeit der KI, Google will sie auch auf den Markt bringen. Laut den internen Tests von Google werden Chips der zweiten Generation für maschinelles Lernen entwickelt Geschwindigkeit als der aktuelle Markt Grafikchip (GPU) sparen die Hälfte der Zeit.

Google Cloud-Computing-Team Chefwissenschaftler, AI Laborleiter an der Stanford-Universität Li Feifei eingeführt wurde, sagte er: ‚Diese TPU erstaunliche 128 Teraflops bietet, die so ausgelegt sind, um Techniken des maschinellen Lernens Chips zu treiben.‘ Im Gegensatz dazu, iPhone 6 liefert 100 teraflops, Nvidia Volta GPU 120 Billionen mal Operationen Gleitkommaoperationen zu schaffen.

Nvidia ist derzeit der GPU Leader-Grafikchip, Vice President von Nvidia und General Manager der Enterprise Systems Jim McHugh sagte:. 'NVIDIA GPU Cloud (NGC) ist die Popularität von High-Level-neuronales Netz AI transformierende Kraft der Nutzer wächst weltweit rasant' NGC hat Services für die Cloud-Plattform von Amazon bereitgestellt.

Google startete die zweite Generation von TPU, es startete Cloud TPU Cloud Computing-Dienste, können die Benutzer mieten, Abrechnung und GPU-Computing-Dienste werden auch den gleichen Modus, nach dem Minutenpreis. Zu dieser Zeit, sagte Google, dass diese neueste AI Chips werden nicht an Rechenzentren verkauft, die auf Unternehmen anderer Chiphersteller wie Dell basieren.

Dies bedeutet auch, dass Googles AI-Chipentwicklungsideen nicht direkt mit der GPU konkurrieren, sondern die Verwendung von TPU differenzierter Entwicklung in der Public-Cloud-Branche. Googles Chief Technology Officer UrsHolzle sagte: "Im Wesentlichen ist TPU eine für Machine-Learning-Supercomputer. Unser Ziel ist es, die besten Cloud-Dienste zu bieten.

Google kündigte Anfang Februar das jüngste Quartalsergebnis an. Gleichzeitig kündigte das Unternehmen erstmals die Umsätze seines Single-Quarter-Cloud-Geschäfts in Höhe von 1 Milliarde US-Dollar gegenüber einem Umsatz von mehr als 5 Milliarden US-Dollar in Amazon und Microsoft Cloud an. Der Dienstleistungsmarkt ist derzeit auf Platz drei.

Aus der Sicht von NVIDIA, nach dem letzten Quartal Ergebnisbericht, NVIDIA Rechenzentrum Geschäft ist derzeit die zweitgrößte Einnahmequelle für das Unternehmen, mehr als 600 Millionen US-Dollar, mehr als verdoppelt, ein Anstieg von 105% im vergangenen September in China GPU Technologiekonferenz, NVIDIA kündigte eine Partnerschaftsvereinbarung mit Chinas BAT für ein Datenzentrum an.

Googles Einstieg beunruhigt NVIDIA-Investoren, die glauben, dass die Beteiligung von Google große Kunden von Rechenzentrumsbetreibern auslöschen wird, was die Gewinne und Einnahmen von NVIDIA beeinflussen wird, da Google seine Chips nicht vermarkten kann. Gewinnen Sie das Schnäppchen.

2016 GoodChinaBrand | ICP: 12011751 | China Exports