Mit GPUs war NVIDIA einer der größten Nutznießer des KI-Trends, aber da Technologiegiganten ihre eigenen AI-Chips entwickelt haben, darunter Googles TPU, Apples Neuronengine, Microsofts FPGA und Amazons fortlaufende Anpassung für Alexa AI-Chip, kann NVIDIA seine führende Position halten? Es kann das aktuelle alarmierende Wachstum beibehalten, oder wird eine große Anzahl von Kunden verlieren?
Der Anstieg der künstlichen Intelligenz (KI) durch eine Vielzahl von Wettrüsten verursacht wird, einer der größten Technologie-Unternehmen sucht, von neu entstehenden Technologien profitieren. NVIDIA hat gewesen der größten Nutznießer dieser Entwicklung wegen seiner Grafik-Prozessors ( GPU) ist die frühe Auswahl des KI-System zu trainieren. GPU eine Reihe von komplexen mathematischen Operationen gleichzeitig durchführen kann, ist es die perfekte Wahl für AI-Anwendungen.
Nvidias Rechenzentrum Geschäft explodiert hat, sieben aufeinander folgende Quartale im dreistelligen Wachstum im Vergleich zum Vorjahr, der Aktienkurs seit Anfang 2015 hat mehr als 1.000% gestiegen. Einige angenommen haben NVIDIA GPU bekannten Unternehmen jetzt suchen andere Lösungen zu entwickeln, Programm zu verbessern oder die GPU zu ersetzen. Amazon die neueste Technologie Riese sein kann, am Wettbewerb teilzunehmen.
Alexa-Verbindung mit der Wolke
Amazon war der erste Anwender von künstlicher Intelligenz und nach jüngsten Berichten erforscht Amazon benutzerdefinierte AI-Chips, die auf dem Gerät verarbeitet oder am Rande verarbeitet werden können, anstatt sich nur auf das Gerät zu verlassen, um sich mit der Cloud zu verbinden. Wenn der digitale Assistent Alexa eine Anfrage stellt, werden die Informationen an die Cloud übertragen, die die Anfrage verarbeitet und die Antwort zurück an das Gerät sendet. Dieser Prozess führt zu einer leichten Verzögerung. Die Fähigkeit zur lokalen Spracherkennung verbessert jedes vom digitalen Assistenten (einschließlich Echo-Serie Smart-Lautsprecher) Reaktionszeit.
Amazon steigerte seine Prozessorfähigkeiten, indem es Anfang 2015 350 Millionen US-Dollar für den israelischen Chiphersteller Annapurna Labs ausgab. Die Netzwerkchips des Unternehmens für Rechenzentren können größere Datenmengen übertragen und verbrauchen dabei weniger Strom Amazon hat derzeit mehr als 450 Mitarbeiter mit einer Chip-Erfahrung, die das Unternehmen möglicherweise in anderen Spezialchips entwickelt, und der Bericht deutete auch an, dass Amazon KI-Prozessoren für seine AWS-Cloud-Computing-Einheit entwickeln könnte.
Google, Apple, Microsoft entwickeln Programme, um die GPU zu ersetzen
Google hat Anfang 2016 bekannt gegeben, dass es kundenspezifische AI-Chips entwickelt, die als Tensor-Prozessoren (TPUs) bekannt sind. Diese sind so konzipiert, dass sie eine effizientere Leistung für die tiefgreifenden KI-Anwendungen des Unternehmens bieten, die dies ermöglichen Durch die Verarbeitung riesiger Datenmengen hat der Chip den Grundstein für TensorFlow gelegt, den Rahmen für die Schulung des KI-Systems des Unternehmens.
Die neueste Version der TPU behandelt sowohl die KI-Trainings- als auch die Denkphase, die, wie der Name schon sagt, in der Trainingsphase "lernt" und in der Argumentationsphase werden die Algorithmen trainiert. Google hat kürzlich angekündigt, dass Google Cloud-Kunden jetzt können Greifen Sie auf diese Prozessoren zu.
Apple ist seit langem ein Befürworter der Privatsphäre der Benutzer und hat einen anderen Weg als seine Technologie-Gegenstücke genommen, mit dem mobilen Gerät des Unternehmens hinzufügen elektronische Rauschen zu allen Daten in die Cloud übertragen, während dabei persönliche identifizierbare Informationen zu entfernen Sorgen Sie für mehr Privatsphäre und Sicherheit für die Benutzer. Mit der Veröffentlichung von iPhone 8 und iPhone X hat Apple eine neuronale Engine entwickelt, die Teil des neuen A11-Bionic-Chips ist, ein Chip, der mit einer Vielzahl von KI umgehen kann Fortschrittliche Prozessoren, die die Menge an Benutzerinformationen, die in die Cloud übertragen werden, erheblich reduzieren und helfen, die Daten zu schützen.
Microsoft, das zuvor auf einen anpassbaren Prozessor - ein FPGA (Field Programmable Gate Array) genannt - gesetzt hat, ist ein dedizierter Chip, der nach der Herstellung für den spezifischen Einsatz eines Kunden konfiguriert werden kann und aus Microsoft Azure Cloud Computing besteht Systemfundament und bietet eine flexiblere Architektur und geringeren Stromverbrauch als herkömmliche Produkte wie GPUs.
Das NVIDIA-Wachstum geht weiter
Obwohl diese Unternehmen unterschiedliche Prozessorstrategien verwenden, verwenden sie immer noch eine große Anzahl von NVIDIA-Grafikprozessoren.
NVIDIAs Wachstum setzt sich fort: NVIDIA erzielte im letzten Quartal einen Rekordumsatz von 2,91 Milliarden US-Dollar, ein Plus von 34% gegenüber dem Vorjahr. Die Rechenzentrumseinheit des Unternehmens, die KI-Verkäufe umfasst, wuchs um 105%. %, Erreicht 606 Millionen US-Dollar und macht derzeit 21% des Gesamtumsatzes von NVIDIA aus.
Konkurrenz ist unvermeidlich, aber bisher hat keine Lösung die GPU vollständig ersetzt, NVIDIA kann sich jetzt zurücklehnen und entspannen.