Present, Huang stellte fest, dass China für ein Drittel des Gesamtumsatzes entfielen NVIDIA, NVIDIA hat 3.000 Mitarbeiter in China.
Jen-Hsun Huang, die Weisheit der Dinge erzählt, hat gestern bekannt gegeben, und ARM kooperieren AI-Chip-Technologie zu erstellen, die von Nvidia DLA ist Nvidia einen ASIC-Chip (Deep Learning Accelerator, tiefe Lernbeschleuniger) die Art von DLA zu bauen. Nun ist für viele der AI-Chip, wie Google TPU, im Wesentlichen eine ASIC-Hardware.
Darüber hinaus Interview Huang auch gestern bestätigt, dass NVIDIA testet driverless Autos auf öffentlichen Straßen Nachrichten auszusetzen, und erklärt, warum.
Übrigens auch der Tag heute geschieht mit Adobe Summit Konferenz teilgenommen Huang in den Interviews ist immer noch auf dem Adobe-Summit in Las Vegas, Nvidia sprach über Ray-Tracing-Technologie, Bildverarbeitungstechnologie, heute Nachmittag, und zurück nach San Jose GTC Website.
Hand ARM, helfen Chiphersteller, dedizierten AI-Chip zu erstellen
Nun ist für viele chinesische AI-Chip-Start-up-Unternehmen entstehen, ob Nvidia eine Bedrohung für sie darstellen würde?
Jen-Hsun Huang sagte, AI ist die Zukunft, die Zukunft der gesamten Industrie-Software, die alle Software profitiert von AI, Wolke, Gesundheitswesen, Fertigung und so weiter, AI Zukunft sehr groß, viel größer als sein Körper eines Unternehmen. NVIDIA mit vielen AI Start-up-Unternehmen gearbeitet, AI-Chip und wird auch Venture-Unternehmen, wie die DLA diese TPU ähnlich die ARM-Hardware-Integrations-Framework, so dass die Chip-Unternehmen ihren eigenen AI-Chip aufbauen können.
In der gestrigen Rede kündigte NVIDIA eine Partnerschaft mit Chipherstellern ARM Dinge AI-Chip (IOT AI SOC) aufzubauen, in diesem Jahr die NVIDIA AI-Technologie in Februar ARM-Projekt Trillium Rahmen gestartet, so dass Chiphersteller leichter ihre eigenen bauen AI-Chips, einschließlich Handy-Chips, Unterhaltungselektronik-Chips, Chips und andere Dinge. diese Technik basiert DLA vertieftes Lernen Beschleuniger Programm im vergangenen Jahr auf NVIDIA GTC Open Source.
Szene, Jen-Hsun Huang sagte der Weisheit Sache ist Nvidia einen ASIC-Chip (Deep Learning Accelerator, tiefe Lernbeschleuniger) die Art von DLA zu bauen. Nun ist für viele der AI-Chip, wie die Google von TPU, im Wesentlichen eine ASIC-Hardware.
Huang Renxun sagte, dass Hersteller nach der Kooperation mit ARM nach der Integration von DLA in das ARM-IP-Framework AI-Architekturen mit unterschiedlichen Konfigurationen von klein auf groß herunterladen und ihre eigenen AI-Chips bauen können, die jedoch TensorRT-Software ausführen müssen.
NVIDIA DLA vs Huawei Einhorn 970, Apple A11
Deepin Talla, Global Vice President von Nvidia, ist für das Geschäft von Robotics, Smart City und DLA Deep Learning Accelerator verantwortlich und bildete die technische Grundlage für die gestrige Kooperation mit dem Chipgiganten ARM zur Schaffung einer Deep Learning Accelerator IP für Smart Chips.
Im vergangenen Jahr entschied sich Nvidia für das Open-Source-DLA-Projekt, das es den großen Chipherstellern erlaubt, das Programm kostenlos herunterzuladen und eigene Low-Power-AI-Chips zu bauen, allerdings gibt es immer noch technische Grenzen für die Nutzung von Open-Source-Projekten. Nvidia kündigte an, dass es die Schwelle für die Erstellung von AI-Chips erneut senken und mit ARM zusammenarbeiten werde.
Deepu Talla sagt Chi Chih, dass DLA ein Open-Source-Projekt ist und diese Kooperation wird ARM nicht belasten.Das DLA-Projekt wurde für drei Jahre entwickelt.Da sich Free und Open Source dafür entscheiden, liegt der Fokus von Nvidia nicht auf Projekten wie dem Internet der Dinge. .
Während der letzten sechs Monate begannen viele Ende Smart-Chip dedizierte AI entstehen, von denen die meisten Anliegen kommt, als die beiden Handy-Chip: Huawei Kirin 970, kommt Apple-A11 Deepu Talla auf der Szene, vorübergehend jetzt keine Tiefe Lernen NVIDIA Beschleuniger IP und Kirin 970 NPU, Kontrastparameter Apfel A11 neuronales Netzwerk-Engine. Doch nach den DLA drei Jahren Forschung und Entwicklung, NVIDIA eine vertiefte Lernen Beschleuniger-Hardware ist eigentlich das gesamte Projekt der einfache Teil, der schwierige Teil der Software ist, wie viel mehr zu schaffen gefunden gute Software-Unterstützung verschiedene AI, AI Rahmen, wie die neuronale Netzwerk-Bereitstellung zu verbessern.
In dieser Hinsicht haben Nvidias viele Softwareingenieure in jahrelange Forschung investiert, insbesondere in neuronale Netzwerkanwendungen (Inferenz und Einsatz) In diesen AGB hat Huang Renxun auch eine neue Version von TensorRT 4.0 vorgestellt, die neuronale Netze erlaubt Die Bereitstellung ist einfacher und schneller.
Vier Hauptgründe, warum GPUs knapp sind
Vor Ort sagte Huang Renxun, dass die aktuelle Nachfrage nach GPUs das Angebot von Nvidia aus vier Gründen übersteigt:
Auf der einen Seite entwickelt sich die Spieleindustrie rasant, und im letzten Jahr wurden mehrere Heavy-Game-Produkte veröffentlicht: Die Nachfrage nach Grafikprozessoren hat zugenommen.
Auf der anderen Seite wird gerade Content erstellt, und der Content-Sharing-Markt entwickelt sich ebenfalls, insbesondere inhaltsbasierte Content-Erstellung;
Der dritte Aspekt ist natürlich die künstliche Intelligenz: Mit der Entwicklung künstlicher Intelligenz macht die GPU von Infineon die künstliche Intelligenz noch populärer, egal wer Sie sind.
Der letzte Aspekt ist einer der heißesten Bereiche der Welt: Blockchain Da Milliarden von GPUs auf der Welt die gleiche Architektur verwenden, kann sie als die weltweit größte und dezentralste Datenbank angesehen werden.
Suspend-Test von fahrerlosen Autos auf öffentlichen Straßen
Vor kurzem hat der Fall von Fußgängertoten, die durch Straßentests auf Uber's selbstfahrenden Autos verursacht wurden, die globale Autofahrindustrie betroffen. R n r nWährend der GTC bestätigte Nvidia formell, dass es die Prüfung von fahrerlosen Autos auf öffentlichen Straßen aussetzen wird.
Zuerst Jen-Hsun Huang sagte, dass Nvidia nicht --Uber Autopilot-Technologie verwenden. Jen-Hsun Huang auch in einem früheren Interview erwähnt, hat dieser Unfall jeder traurig fühlen lassen, der auch die gesamte Branche betreffen. Nvidia auch sehr besorgt über die Sicherheit alle einschließlich der eigenen Mitarbeiter von Nvidia, weil sie im Testwagen auch verschiedene Testaufgaben übernehmen.
Daher Nvidia entschieden Tests driverless Autos auf öffentlichen Straßen zu suspendieren, und von diesem Vorfall zu verstehen, lernen, lernen, lernen aus Erfahrung, in die Zukunft machen Arbeit sicherer zu machen. Doch Huang sagte auch, dass diese Pause nicht sein sollte Lange Zeit.
In der gestrigen Keynote stellte Huang Renxun außerdem eine 3D-Autopilot-Simulationstestplattform namens DRIVE SIM und Constellation vor, die zunächst Sensordaten (einschließlich Kameras, Radar usw.) in der Cloud generiert und diese Daten dann an DRIVE Pegasus übermittelt. Um Autopilot-Systeme zu trainieren, ist es äquivalent, fahrerlose Autos in einer virtuellen Welt zu testen, die sicherer ist.