Processeur de dessin la croissance des activités des datacenters au 1er trimestre de NVIDIA a sensiblement ralenti au cours des dernières années. Que NVIDIA puisse maintenir sa position dans le domaine de l'intelligence artificielle (ai), l'émergence de puces personnalisées telles que l'unité de traitement de Google TensorFlow (TPU) menace la domination de NVIDIA dans la formation en profondeur d'apprentissage. Que ce soit Intel, ultra micro (AMD) et toutes les nouvelles entreprises dans le domaine peut dépasser NVIDIA est intéressant de plonger dans. Selon FUBiS (Forbes), l'Institut de recherche de marché Moor Insights et strateg analyste Karl Freund a publié une étude récemment, a déclaré la croissance étonnante de NVIDIA en ai causé beaucoup d'attention, et a amené de nombreux adversaires potentiels, Beaucoup de ces sociétés prétendent avoir développé des puces qui sont 10 fois plus rapide que NVIDIA et ont une consommation d'énergie inférieure. En plus de l'hyper-micro-GPU, toutes les entreprises croient que la puce conçue pour traiter les réseaux neuronaux est un itinéraire viable. Intel Intel a acquis Rémi en 2016 pour construire son portefeuille d'accélérateurs. Le moteur original de Rémi aurait dû être libéré en 2017, et jusqu'ici il n'y a eu aucune nouvelle. Rémi peut décider d'ajuster sa conception originale après que Volta Tensorcores, qui est 6 fois plus efficace que Pascal, a choqué la communauté. Freund que la première production de lots de Rémi chips mai être publié à la fin 2018. La discussion ci-dessus est sur la formation du réseau de neurones profonds (DNN), qui est l'endroit où NVIDIA a fait un grand succès en ai. Cependant, Intel dit qu'en jumelant une bonne conception logicielle avec un processeur Xeon Datacenter, vous pouvez obtenir des performances exceptionnelles dans l'effort d'inférence. La société prétend avoir plus de 80% du marché du traitement préférentiel. Google TPU et d'autres ASIC interne Google a deux types d'ASIC disponibles pour ai: l'un pour l'inférence et l'autre pour la formation. Google a fait TPU un accélérateur pour le marché. Mais en fait, il est composé de 4 ASIC identiques, chaque offre sur 45TOPS. En revanche, NVIDIA Volta chaque puce fournit jusqu'à 125TOPS. Au fil du temps, Google peut avoir déplacé la plupart de son travail en interne GPU à TPU. Micro-bien que ultra micro dans la préparation de leur pile logicielle et NVIDIA brouiller pour la charge de travail d'apprentissage machine, mais son actuelle puce Vega en performance de pointe que NVIDIA Volta une génération derrière. La société a actuellement 10 nouvelles entreprises dans le monde qui prévoient de rivaliser pour l'apprentissage machine, dont certains sont prêts à lancer des jetons. Le Cambrien dans le continent semble être bien financé et soutenu par le gouvernement du continent. Le Cambrien est axé sur le traitement des réseaux neuronaux plutôt que de construire des réseaux neuronaux. Silicon Valley Company Wave Computing a lancé une puce qui peut construire un modèle de formation. Wave utilise un nouveau design appelé flux architecture, qui élimine soi-disant goulots d'étranglement dans les accélérateurs traditionnels. Le processeur de flux de données de Wave peut former et traiter le réseau neural directement sans utiliser le CPU. Contrairement à Google TPU, Wave prend en charge l'apprentissage approfondi de Microsoft CNTK, Amazon Mxnet et TensorFlow Software. D'autres sociétés bien connues telles que cérébras, Graphcore et GROQ sont encore en mode furtif, mais ont soulevé beaucoup d'argent pour construire un accélérateur ai personnalisé, mais il ne devrait pas être lancé jusqu'à 2019. Freund que la plus grande menace de NVIDIA pourrait être Google TPU. Google peut continuer à acheter et à utiliser de nombreux GPU pour gérer une charge de travail qui n'est pas adapté pour TPU, comme un réseau neuronal récursif pour le traitement de la langue. Wave est un bon choix pour les entreprises qui ne veulent pas utiliser le cloud public pour le développement et le déploiement d'ai, et ne veulent pas mettre en place leur propre infrastructure GPU. Enfin, si Intel peut emprunter Rémi pour entrer sur le marché et est disposé à investir dans son plein appui, alors Rémi pourrait poser une menace en 2019. Mais Rémi a besoin d'au moins 3 ans de temps et d'une feuille de route solide pour développer 1 écosystèmes viables. Les 1 facteurs à considérer sont que, avec le développement de la nanotechnologie NVIDIA 7, NVIDIA sera en mesure d'ajouter une zone de puce importante à la fonction ai. En conséquence, le pourcentage de jetons qui se concentrent sur l'IA peut augmenter, de sorte que cette partie devient effectivement un ASIC qui peut également afficher des graphiques. Freund ne pense pas que NVIDIA est 1 sociétés GPU, mais 1 sociétés de plate-forme avec des aspirations de croissance illimitée. Il n'y a pas d'autres entreprises qui ont la profondeur de NVIDIA et l'étendue de l'expertise dans le matériel et les logiciels ai. NVIDIA peut concevoir une puce ai mieux si elle prévoit une menace d'un micro, Intel ou ASIC. NVIDIA a fait cela par le Deep Learning Accelerator (DLA). Si le GPU est compromis, NVIDIA peut également se tourner vers l'étape suivante. Dans le même temps, il a une croissance évidente et la position de leader du marché dans les puces de formation ai. En termes de traitement préférentiel, NVIDIA se concentre sur les charges de travail des centres de données et des systèmes de guidage visuel pour les applications telles que l'auto-conduite.