Obwohl der Automobilmarkt in den nächsten Jahren noch in der Größe begrenzt ist, hat Freund keinen Zweifel daran, dass er schließlich zu einem deutlichen Wachstum führen wir

Zeichnungs Prozessor das Wachstum des Rechenzentrums Geschäfts im ersten Quartal NVDIA hat sich in den letzten Jahren deutlich verlangsamt. Ob NVIDIA kann seine Position im Bereich der künstlichen Intelligenz (AI), die Entstehung von kundenspezifischen Chips wie Google TensorFlow Processing Unit (TPU) zu behaupten, droht NVIDIA Dominanz in eingehendes lernen Ausbildung. Ob Intel, Ultra Micro (AMD) und alle neuen Ventures im Bereich können überholen NVIDIA ist es Wert, Eintauchen in. Nach FUBiS (Forbes), das Marktforschungsinstitut Moor Insights & strateg Analyst Karl Freund veröffentlichte eine Studie vor kurzem, sagte NVIDIA erstaunliche Wachstum in Ai verursacht eine Menge Aufmerksamkeit, und brachte viele potenzielle Gegner, Viele dieser Firmen behaupten, Chips entwickelt zu haben, die zehnmal schneller als NVIDIA sind und einen geringeren Stromverbrauch haben. Zusätzlich zu den Hyper-Micro GPU, glauben alle Unternehmen, dass der Chip entwickelt, um mit neuronalen Netzen zu tun ist ein gangbarer Weg. Intel Intel erwarb Nervana in 2016, um sein Accelerator-Portfolio zu erstellen. Die ursprüngliche Nervana Maschine sollte in 2017 freigegeben worden sein, und bis jetzt gibt es keine Nachrichten. Nervana kann beschließen, sein ursprüngliches Design nach Volta Tensorcores zu justieren, das sechsmal Mal tüchtiger als Pascal ist, hat die Gemeinschaft schockiert. Freund, dass die erste Serienproduktion von Nervana Chips in den späten 2018 veröffentlicht werden kann. Die obige Diskussion ist über die Ausbildung der Deep Neural Network (DNN), das ist, wo NVIDIA hat großen Erfolg in Ai gemacht. Allerdings sagt Intel, dass durch die Kopplung eines guten Software-Design mit einem Xeon Datacenter-Prozessor, können Sie hervorragende Leistung in der Inferenz Aufwand zu erreichen. Das Unternehmen behauptet, mehr als 80% des folgernd-Verarbeitungs Marktes zu haben. Google TPU und andere interne ASIC Google hat zwei Arten von ASIC zur Verfügung AI: eine für Inferenz und die andere für die Ausbildung. Google hat TPU zu einem Beschleuniger für den Markt gemacht. Aber in der Tat, es besteht aus 4 identischen ASIC, jedes Angebot über 45TOPS. Im Gegensatz dazu, NVIDIA Volta jeder Chip liefert bis zu 125TOPS. Im Laufe der Zeit hat Google möglicherweise die meisten seiner internen GPU-Arbeit auf TPU verschoben. Micro-obwohl Ultra Micro in der Vorbereitung Ihrer Software-Stack und NVIDIA Scramble für Machine Learning Arbeitsbelastung, aber seine aktuelle Vega-Chip in Spitzenleistung als NVIDIA Volta eine Generation hinter sich. Das Unternehmen hat derzeit 10 neue Ventures in der Welt, die planen, für das maschinelle Lernen konkurrieren, von denen einige bereit sind, Chips zu starten. Das Cambrian auf dem Festland scheint gut finanziert zu werden und wird von der Festland Regierung unterstützt. Das Cambrian konzentriert sich auf den Umgang mit neuronalen Netzwerken, anstatt neuronale Netze zu bauen. Silicon Valley Company Wave Computing hat einen Chip, der ein Trainingsmodell bauen kann gestartet. Wave verwendet ein neuartiges Design namens Datenfluss-Architektur, die angeblich beseitigt Engpässe in der traditionellen Beschleuniger. Waves Datenstrom Prozessor kann das neuronale Netzwerk direkt trainieren und verarbeiten, ohne die CPU zu benutzen. Im Gegensatz zu Google TPU unterstützt Wave eingehendes lernen von Microsoft CNTK, Amazon Mxnet und TensorFlow Software. Andere namhafte Unternehmen wie Cerebras, Graphcore und GROQ sind noch im Stealth-Modus, aber haben eine Menge Geld, um eine benutzerdefinierte AI Accelerator, aber es sollte nicht gestartet werden, bis 2019. Freund, dass NVIDIA größte Bedrohung könnte Google TPU. Google kann weiterhin kaufen und viele GPU verwenden, um eine Arbeitslast zu handhaben, die nicht für TPU geeignet ist, wie z. b. ein rekursives neuronales Netzwerk für die Sprachverarbeitung. Wave ist eine gute Wahl für Unternehmen, die die öffentliche Cloud nicht für die Entwicklung und Bereitstellung von AI verwenden möchten und keine eigene GPU-Infrastruktur einrichten möchten. Schließlich, wenn Intel kann Nervana leihen, um den Markt zu betreten und ist bereit, in seine volle Unterstützung zu investieren, dann Nervana könnte eine Bedrohung in 2019. Aber Nervana braucht mindestens 3 Jahre Zeit und eine solide Roadmap, um 1 lebensfähige Ökosysteme zu entwickeln. Die 1 Faktoren zu berücksichtigen sind, dass mit der Entwicklung von NVIDIA 7 Nanotechnologie, NVIDIA in der Lage, eine wichtige Chip-Bereich, um die AI-Funktion hinzuzufügen. Infolgedessen kann sich der Prozentsatz der Chips, die sich auf die KI konzentrieren, erhöhen, so dass dieser Teil tatsächlich zu einem ASIC wird, der auch Grafiken anzeigen kann. Freund glaubt nicht, NVIDIA ist 1 GPU-Unternehmen, sondern 1 Plattform Unternehmen mit unbegrenzten Wachstumsbestrebungen. Es gibt keine anderen Unternehmen, die NVIDIA es tiefe und Breite von Know-how in Ai Hard-und Software. NVIDIA kann einen besseren AI-Chip entwerfen, wenn er eine Bedrohung durch ein Micro, Intel oder ASIC voraussieht. NVIDIA hat dies durch die Deep Learning Accelerator (DLA) getan. Wenn die GPU kompromittiert ist, kann NVIDIA auch auf den nächsten Schritt zu drehen. Gleichzeitig hat Sie eine offensichtliche Wachstums-und marktführende Position in Ai-Trainings Chips. Im Hinblick auf die folgernd-Verarbeitung konzentriert sich NVIDIA auf Rechenzentrums Arbeitslasten und visuelle Leitsysteme für Anwendungen wie das selbst fahren.

2016 GoodChinaBrand | ICP: 12011751 | China Exports