Présent, Huang a noté que la Chine représentait un tiers de NVIDIA totale de chiffre d'affaires, NVIDIA emploie 3000 personnes en Chine.
Jen-Hsun Huang a dit la sagesse des choses, a annoncé hier, et ARM collaborent pour créer une technologie de puce AI dérivé de Nvidia DLA, est Nvidia pour construire une puce ASIC (Deep Learning Accelerator, accélérateur d'apprentissage en profondeur) la nature de DLA. Maintenant, beaucoup de la puce AI, tels que celui de Google TPU, sont essentiellement un ASIC matériel.
En outre, Huang Renxun a confirmé dans l'interview d'hier que Nvidia avait suspendu le test des voitures sans conducteur sur les routes publiques et a expliqué les raisons.
Soit dit en passant, aujourd'hui de jour se trouve également Adobe conférence au sommet, Huang a participé aux entretiens suis toujours sur le sommet Adobe à Las Vegas, Nvidia a parlé de la technologie de traçage des rayons, la technologie de traitement d'image, cet après-midi, et retour à San Jose GTC Site
Main ARM, aider les fabricants de puces à créer une puce AI dédié
Maintenant, beaucoup de puces AI chinois start-up émergentes, que Nvidia constituerait une menace pour elle?
Jen-Hsun Huang a dit, AI est l'avenir, l'avenir de tous les logiciels de l'industrie, tous les logiciels bénéficiera de l'IA, nuage, soins de santé, la fabrication et ainsi de suite, l'avenir de l'IA très grande, beaucoup plus grande que son corps d'une entreprise. NVIDIA a travaillé avec de nombreuses IA start-up, puce AI et sera même les entreprises de risque, comme le TPU cette DLA similaire au cadre de l'intégration du matériel ARM, de sorte que les sociétés de premier ordre peuvent construire leur propre puce AI.
Dans le discours d'hier, Nvidia a annoncé la coopération avec le géant de la puce ARM pour construire le IOT AI SOC, intégrant la technologie AI de Nvidia dans le cadre du projet Trillium lancé par ARM en février de cette année, facilitant ainsi la création Puces AI, y compris les puces de téléphones mobiles, les puces électroniques grand public, les puces IoT, etc. Cette technologie provient du projet DLA Deep Learning Accelerator de GTC Open Source l'année dernière.
Sur les lieux, Huang Renxun a déclaré à Zhizhi que DLA (Deep Learning Accelerator) est essentiellement une puce ASIC construite par Nvidia.Aujourd'hui, beaucoup de puces AI, comme le TPU de Google, sont essentiellement du matériel ASIC.
Jen-Hsun Huang a déclaré que ce partenariat avec ARM, qui sera intégré dans le cadre DLA ARM IP pour aller après que les fabricants peuvent être téléchargés à partir de petite à grande architecture IA différentes configurations pour créer leur propre puce AI, mais ce TensorRT à puce besoin ci-dessus pour exécuter le logiciel.
NVIDIA vs Huawei Kirin DLA 970, Apple A11
Deepu Talla NVIDIA vice-président responsable des affaires mondiales, y compris la robotique, les villes intelligentes, ainsi que DLA projet d'accélérateur de l'apprentissage en profondeur, ce projet est hier Nvidia ARM géant de la puce et de la coopération technique pour renforcer la base de l'accélérateur fin de l'étude approfondie IP puce spécifique.
L'année dernière, NVIDIA a choisi DLA projet open source, de sorte que les principaux fabricants de puces peuvent télécharger ce projet d'accélérateur à puce libre, AI pour créer leur propre puce de faible puissance. Cependant, l'utilisation de projets open source ont encore un certain seuil technique. Dans ce GTC, NVIDIA a annoncé l'abaissement du seuil de puces AI pour construire à nouveau, en collaboration avec l'ARM.
Deepu Talla dit la chose la sagesse, DLA est un projet open source, cette coopération ne sera pas chargée ARM. Projet DLA a été mis au point depuis trois ans, et la raison va choisir la source libre et ouvert, est au centre de ces projets ne sont pas à cause de choses concernent NVIDIA .
Au cours des six derniers mois, beaucoup finissent puce dédiée AI a commencé à émerger, dont la plupart concernent vient que les deux puces de téléphone mobile: Huawei Kirin 970, Apple A11 Deepu Talla vient sur la scène, maintenant temporairement pas de profondeur d'apprentissage accélérateur NVIDIA IP et Kirin 970 NPU, le contraste des paramètres moteur réseau de neurones pomme A11. Cependant, après l'ANL trois années de recherche et développement, NVIDIA a trouvé pour créer un matériel d'accélérateur d'apprentissage en profondeur est en fait l'ensemble du projet la partie facile, le plus dur est le logiciel, combien plus Bon support pour divers logiciels d'IA, cadres AI, comment mieux déployer les réseaux neuronaux, etc.
À cet égard, NVIDIA nombreux ingénieurs logiciels ont investi des années de recherche, en particulier les applications de réseaux de neurones (inférence) et le déploiement (déploiement) termes, dans ce GTC, Jen-Hsun Huang a également introduit une nouvelle version TensorRT 4.0, de sorte que le réseau de neurones Le déploiement est plus facile et plus rapide.
Quatre raisons majeures pour lesquelles les GPU sont en nombre insuffisant
Site Huang a également déclaré que la demande actuelle a dépassé l'offre de NVIDIA puissance du GPU, il y a quatre raisons:
D'une part, l'industrie du jeu se développe rapidement, et plusieurs produits de jeux lourds ont été lancés l'an dernier: la demande pour les GPU a augmenté;
D'un autre côté, la création de contenu est en cours et le marché du partage de contenu se développe également, en particulier la création de contenu basé sur le contenu;
Le troisième aspect est inutile: l'intelligence artificielle Avec le développement de l'intelligence artificielle, les GPU d'Infineon rendent l'intelligence artificielle encore plus populaire, peu importe qui vous êtes.
Le dernier aspect est l'une des régions les plus chaudes du monde: la Blockchain, puisque des milliards de GPU dans le monde utilisent la même architecture, elle peut être considérée comme la base de données la plus grande et la plus décentralisée au monde.
Suspendre les essais de voitures sans conducteur sur les routes publiques
Il n'y a pas longtemps, Uber cas d'essais routiers driverless voiture causent décès de piétons qui touchent le cœur de l'industrie automobile mondiale, la conduite en cours de la GTC, NVIDIA a officiellement confirmé qu'il suspendra les voitures sans conducteur de test sur les messages des routes publiques.
Tout d'abord, Jen-Hsun Huang a dit que Nvidia n'a pas utilisé --Uber la technologie de pilote automatique. Jen-Hsun Huang a également mentionné dans une précédente interview, cet accident a fait que tout le monde se sent triste, que Nvidia a également très préoccupé par affectent également l'ensemble de l'industrie. A propos de la sécurité de tous y compris Nvidia leurs employés, car ils testent aussi la voiture faire toutes sortes de tests.
Par conséquent, Nvidia a décidé de suspendre les voitures essais driverless sur la voie publique, et de cet incident pour comprendre, étude, étude, apprendre de l'expérience, rendre le travail plus sûr à l'avenir. Cependant, Huang a également dit que cette pause ne doit pas être trop depuis longtemps.
Dans le discours d'hier, Huang Renxun a également lancé une plate-forme de simulation de pilote automatique 3D nommée DRIVE SIM et Constellation qui génère d'abord des données de capteurs (caméras, radar, etc.) dans le nuage, puis les transmet à DRIVE Pegasus. Pour aider à la formation des systèmes de pilotage automatique, cela équivaut à tester des voitures sans conducteur dans un monde virtuel plus sécurisé.