Pourquoi est-il tellement rouge: parle de l'histoire derrière l'informatique GPU

Pour l'excitation des applications de l'intelligence artificielle, le 24-ans est devenu l'une des entreprises les plus populaires dans le secteur de la technologie, le stock a explosé au cours des deux dernières années, plus de sept fois, atteignant 100 milliards de dollars, le dernier trimestre de la flambée des recettes 56%.

Derrière l'iris, vous pouvez être curieux, une fois juste responsable de dessiner sur l'image à l'écran de l'unité de traitement graphique, maintenant, pourquoi peut prendre la tâche de résoudre des problèmes informatiques complexes? GPU pleine hausse, la réponse est très claire, Trouble obsessionnel-compulsif "et un pari clé il y a plus d'une décennie.

Président de l'hégémonie du cuir du "trouble obsessionnel-compulsif"

Fondateur et PDG de cette entreprise en forte croissance, Jen-Hsun Huang a une intuition stratégique, sa personnalité est dure et porte souvent des vêtements sombres, alors quelqu'un l'emmène Par rapport à Steve Jobs, PDG d'Apple (avec Steve Jobs, Jen-Hsun a également proposé à l'entreprise de créer un nouveau bâtiment attrayant pour le siège, l'entreprise sera bientôt installée dans le nouveau siège social)

Fondateur et PDG Huang Renxun

Huang Renxun a été âgé de 54 ans cette année, toujours un noir, mais aussi portent souvent une veste en cuir, marchant dans le bureau, le personnel est généralement difficile à suivre son rythme. Il est né à Taiwan, l'enfance et la famille vivent aux États-Unis. Il a particulièrement aimé jouer au tennis de table et plus tard devenu un joueur haut de gamme et rapide. "Le PDG de Paddle Palace a également déclaré qu'il était rapide, capable et capable, Joueur de tennis de table national.

Après avoir obtenu son diplôme de Stanford, la deuxième année, il a commencé à apprendre l'expertise de l'ingénierie électronique, les anciens ingénieurs de Sun Microsystems, Chris Malachowsky et Curtis Priem, ont cofondé la société de fabrication de cartes graphiques NVIDIA.

Bientôt, le British Weida a rapidement mis une place sur le marché. Avec 47 fabricants de cartes graphiques après la concurrence féroce sur le marché en 1999, et d'autres entreprises ont été acquises ou fermées, laissant uniquement AMD est encore Et le combat britannique Weida deux forte.

Pour survivre, Huang Renxun a averti que le personnel doit être concentré. Il a toujours déclaré que si vous ne travaillez pas dur, la société pourrait faire faillite dans un mois, ce qui rend chaque employé ressentir l'oppression et la tension.

Huang Renxun de la concurrence « TOC » se reflète également dans son annonce toujours les bonnes nouvelles aux employés sur. Plénière de l'Assemblée générale en 1997, il a annoncé à tous les employés de banque NVIDIA fonds retenaient environ 1 million $. Pendant ce temps, la société a puce RIVA 128 Mettez la production de ces nouvelles est toujours fait le personnel se sentir très dérangé.Ensuite, il a sorti un morceau de papier de sa poche, pour expliquer ceci est le système STB sous la commande de carte graphique de 30 millions de dollars.C'est la première fois NVIDIA Reçu une telle grande liste, mais marque également la puce graphique NVIDIA a été ouvert avec succès le HP et DELL tels marché des fabricants d'ordinateurs, lorsque la société de haut en bas acclamations.

En 1998, les Britanniques pour la première fois pour compenser le manque de bénéfices trimestriels, lorsque Huang Renxun encore au bureau à 70 employés ont chacun fait un billet à 1 dollar pour célébrer.

Le "trouble obsessionnel-compulsif" de Huang Renxun est encore très efficace. Avant et après l'inscription, le British Weida après plusieurs expériences «mourantes». Chaque fois que la puce a été envoyée au fabricant de l'ordinateur, les employés sont toujours confrontés à une date limite d'action immédiate. La production de Taiwan de la puce a été détectée un problème, préférerait perdre une grande somme d'argent devrait également être entièrement récupéré des produits défectueux.

En 1998, Intel a lancé une carte vidéo avec le British Weida, Huang Renxun a organisé une série de réunions plénières, incitant les employés à écrire pour améliorer les performances du jeu lors du logiciel de la carte vidéo. Et plus tard pour garder l'avantage concurrentiel. La menace industrielle d'Intel dans la Weida britannique semble n'avoir jamais été atteinte.

La même année, Silicon Graphics a poursuivi l'infraction de brevet britannique.Huang Renxun a de nouveau contrôlé rapidement la situation favorable, les deux sociétés ont finalement accepté d'autoriser l'autre côté du brevet. SGI a ensuite permis à Ying Wei d'atteindre sa propre priorité de puce graphique du système informatique. Les efforts de Renhuun de Henan pour aider NVIDIA dans le premier Cycle de financement pour attirer un grand nombre d'investisseurs potentiels.

Huang Renxun a prouvé que son «peut être capable de s'étirer». Depuis la création de l'entreprise pendant 24 ans, le British Weida à plusieurs reprises face à la survie du problème, y compris les nouveaux problèmes de puce et le procès rival, etc., Huang Renxun a mené le personnel à travers la crise.

Dans la construction du nouveau siège de la St. Santa Clara britannique

Au cours des années, afin de permettre à NVIDIA d'étendre de nouveaux domaines de marché, Huang Renxun a bien fait un travail d'évaluation des risques. Il y a 10 ans, il a fait un pari crucial: parier sur une série de changements et de développement de logiciels pour faire Le GPU peut gérer des tâches plus complexes autres que la peinture sur un écran d'ordinateur.

Cependant, « un mouvement de la société a apporté beaucoup de pression sur les coûts. », A déclaré Huang Renxun. Il a estimé que appelé projet CUDA (Compute d'Unified Device Architecture) coûterait 500 millions $ par année, à un moment où la taille du chiffre d'affaires total de l'entreprise Près de 3 milliards de dollars depuis l'introduction de CUDA, toutes les dépenses de NVIDIA ont transformé le GPU en un outil informatique plus général, totalisant près de 10 milliards de dollars.

Projet interne 'CUDA' Sauvez l'empire du GPU

Si têtu président dominateur doute vraiment qu'il est la « Vierge ». Cependant, CUDA obtenir aujourd'hui les réalisations, en plus de l'insistance de Huang Renxun, il y a une personne a contribué, il est Ian Booker (Ian Buck), maintenant Renying Wei de l'informatique GPU Directeur général du logiciel.

Ian Buck a rejoint l'entreprise en 2004 et a créé CUDA

Les recherches d'Ian Buck sur l'informatique GPU ont commencé en 2000. A cette époque, Buck et sa petite équipe à l'Université de Stanford étaient très conscients des performances et des tendances du processeur graphique et ont dit que le GPU était utilisé pour l'informatique générale L'idée est de partir du support GPU programmable.

Dans les premières années, ils ont rencontré de très grandes difficultés.Bien que l'essai préliminaire peut confirmer le GPU pour l'informatique générale, un grand potentiel pour promouvoir cette idée est très difficile.Enfin, en 2003, dirigé par l'équipe de recherche Ian Buck a publié Brook, Il s'agit du premier modèle de programmation largement utilisé pour l'utilisation des extensions d'architecture parallèle de données C. Dans le même temps, Brook est également un projet pionnier pour le calcul commun des GPU.

Ivy Buck (à droite), directeur général du logiciel de calcul GPU de NVIDIA

En 2004, l'étudiant en philanthropie de l'Université de Stanford, Ian Buck, est entré au stage britannique de Weida, a commencé à mettre en place les ingénieurs matériels et logiciels pertinents pour créer le modèle GPGPU, qui est le début du développement de CUDA. À cette époque, Buck a participé à une utilisation simplifiée du GPU impliqué dans le calcul de la programmation du processus moteur Défi.

Dans un avenir proche, NVIDIA modifiera ses puces pour développer des supports logiciels, y compris un support pour les langages de programmation standard, plutôt qu'un outil mystérieux pour l'envoi d'instructions aux puces graphiques. Sous la direction d'Ian Buck, - CUDA, qui est le premier GPU au monde sur la solution informatique générale.

CUDA est une plate-forme informatique parallèle et un modèle de programmation développé par NVIDIA pour l'informatique générale sur les unités de traitement graphique (GPU), et avec CUDA, les développeurs peuvent accélérer considérablement les applications informatiques en utilisant les capacités du GPU. En fait, dans NVIDIA, CUDA Est une plate-forme commune pour toutes les séries GPU.

Performance de NVIDIA Tesla P100

Dans les applications accélérées par GPU, la séquence de charges de travail est exécutée sur la CPU, optimisée pour les performances à thread unique, et la partie à forte intensité de calcul de l'application s'exécute en milliers de noyaux GPU en parallèle. Lors de l'utilisation de CUDA, Le personnel est programmé dans des langages populaires tels que C, C ++, Fortran, Python et MATLAB et exprime le parallélisme dans plusieurs mots clés de base. La boîte à outils CUDA comprend les bibliothèques d'accélération GPU, les compilateurs, les outils de développement et CUDA Temps de fonctionnement.

La philosophie de conception de base de CUDA est le fil dans l'ordinateur. Comparé aux processeurs 4, 8 et 16 traditionnels, le GPU peut contenir des dizaines de milliers de threads.

Buck a déclaré que ces discussions semble la gestion est une question très complexe. Mais en fait, la principale difficulté réside dans la façon dont les programmeurs tirer profit de ces discussions, plutôt que de gérer ces discussions. Au début, les performances CUDA dépend principalement du manuel du programmeur Découvrez la partie du code qui peut être calculée en parallèle.

Actuellement, avec le développement de la bibliothèque CUDA, ce travail a commencé à devenir plus automatisé.L'équipe CUDA a développé beaucoup de pétrole, de gaz et de défense et d'autres industries connexes utilisées par la bibliothèque de calcul scientifique.En 2012, a publié Titan Super L'ordinateur a utilisé 18 688 GPU Tesla K20 en tant que coprocesseur, marquant la promotion et l'application réussies de GPGPU dans le calcul haute performance. Au moins 50 des 500 supercalculateurs ont été utilisés pour accélérer le GPU depuis 2011, Ces machines sont également principalement dans la liste Green 500 (liste des supercalculateurs d'énergie mondiale).

Britannique Weida AI 'armes de destruction massive' plate-forme CUDA melon mûr

CUDA a commencé à recevoir de plus en plus d'attention, l'application CUDA est également «florissante». Mais Buck a déclaré que l'un des plus influents est le système de détection et de diagnostic du cancer du sein. Comparé à la méthode traditionnelle, Tesla GPU, les médecins peuvent trouver le cancer du sein plus tôt et plus précisément, tandis que les données du National Cancer Institute montrent que les systèmes basés sur CUDA exécutent seulement des calculs de ligands de protéines (pour la recherche et le développement de nouveaux médicaments contre le cancer et la démence) Besoin de l'original 1/12 du temps.

La nouvelle puce graphique de NVIDIA, Volta, a estimé les coûts de développement à 3 milliards de dollars

Buck a également déclaré qu'il avait déjà appris de personnes de nombreuses industries qu'ils préféreraient faire des sacrifices et n'accepteraient pas une nouvelle langue. Afin de pouvoir fournir une bonne expérience d'introduction aux programmeurs concernés, il était facile de promouvoir CUDA , CUDA a adopté le langage C populaire comme base.

De cette façon, les programmeurs n'ont pas besoin d'apprendre des instructions spécifiques à la puce d'affichage ou une structure spéciale, vous pouvez écrire le programme en cours d'exécution sur le GPU, ce qui a indubitablement contribué à la popularité de CUDA entre les programmeurs.

Une salle de démonstration dans le parc Santa Clara, en Californie

En outre, la société a pris une décision est également très critique.Il est maintenant responsable de l'informatique GPU pour tous les projets, le support de tierce partie et les activités de marketing de développeur, lan Buck a rappelé que NVIDIA et son propre GPU de classe grand public et produits haut de gamme prennent en charge CUDA Cela signifie que, tant que les chercheurs, les étudiants ont un ordinateur portable ou un ordinateur de bureau, vous pouvez dans les laboratoires scolaires et les dortoirs développer des logiciels.

NVIDIA a également convaincu de nombreuses universités d'offrir des cours pour enseigner aux étudiants les dernières techniques de programmation de leur entreprise, et les programmeurs ont progressivement appliqué le GPU à la modélisation climatique, à l'exploration du pétrole et du gaz, et à de nombreux autres domaines.

Buck a déclaré que CUDA dans le domaine de l'application réussie de la supercomputation a également introduit une très bonne utilisation de la rétroaction. Actuellement, Buck dans l'équipe NVIDIA basée sur les commentaires des utilisateurs a commencé à explorer la gestion de la mémoire GPU. CUDA6 a lancé une nouvelle gestion de la mémoire logicielle Fonctionnalités compatibles avec le transfert automatique de données entre la mémoire CPU et la mémoire GPU L'architecture GPU NVIDIA Pascal prévue, disponible en 2016, contiendra NVLink pour accélérer le transfert de données entre GPU et CPU plus rapidement que les normes PCI-Express existantes 5 à 12 fois.

En outre, pour réduire encore la programmation, les principaux fournisseurs de HPC tels que Cray, PGI et NVIDIA ont également introduit la norme de programmation OpenACC en 2011. La norme définit un ensemble d'annotations de code standardisées et de haut niveau qui permettent la programmation C / C ++ et Fortran Le personnel peut utiliser le code d'accélération GPU pour s'exécuter. NVIDIA en juillet 2015 lance une nouvelle suite d'outils gratuite OpenACC, afin que les chercheurs pertinents puissent accorder plus d'attention à la science elle-même. Buck a souligné à maintes reprises que l'intention originale d'OpenACC était de laisser l'utilisateur Un scientifique, puis un programmeur.

Il a fallu plusieurs années pour que CUDA tienne ses clients, mais CUDA a également aidé l'entreprise à obtenir un retour sur le marché de l'informatique haute performance. En 2012, CUDA et GPU combinés avec des réseaux de neurones d'apprentissage profond ont choqué les universitaires À cette époque, Geoffrey Hinton, de l'Université de Toronto, au Canada, a pris deux étudiants et a remporté le Concours ImageNet Image Recognition avec GPU Training Deep Neural Network.

Buck a déclaré que, à ce moment-là, à travers le programmeur pour développer un système de formation de règles dans des millions d'images pour identifier un visage, ont besoin de passer un semestre complet, et à travers le GPU, les chercheurs en quelques semaines, quelques jours ou même plusieurs En quelques heures, vous pouvez compléter le processus de formation.

Site de GTC CHINA 2017

Cette scène, lors de la récente conférence GTC CHINA 2017, Huang Renxun avec TensorRT (un compilateur de réseau neuronal optimisé CUDA GPU) a été démontré, avec TensorRT Tesla V100 GPU par seconde pour identifier jusqu'à 5700 Image, et maintenant utiliser la CPU ne peut identifier que 140 images par seconde.

La plate-forme Tesla V100 AI est actuellement utilisée par de nombreuses entreprises chinoises, y compris BAT, Huawei, Inspur et Lenovo, pour améliorer leurs propres centres de données et nuages. Infrastructure de service.

Cependant, les paris sous Huang Renxun ne sont pas enrichissants pour la deuxième fois, et la puce Tegra a été conçue à l'origine pour les smartphones et les tablettes, mais n'a pas fonctionné sur les deux marchés, mais n'a été transférée qu'à des objectifs stratégiques.

Maintenant, le président porte-parole a attiré son attention sur l'industrie automobile.

<来源: The Information/The New York Times;编译整理: 科技行者>

2016 GoodChinaBrand | ICP: 12011751 | China Exports