Afonso degny, un analyste à Morningstar, une Agence de recherche en investissement des États-Unis, a publié le dernier rapport sur l'apprentissage des machines et de l'intelligence artificielle (ai) de recherche que Intel a une plus grande chance de gagner que NVIDIA dans la concurrence du marché des puces. Dans le marché des puces accélérateur, y compris GPU NVIDIA, ainsi que des puces de FPGA Intel et Xilinx (Xilinx), le marché 2021 pourrait être $20 milliards, et NVIDIA a la capacité de continuer à bénéficier de tendances ai, le magazine financier Barron rapporté. Cependant, Intel et ses pairs pour introduire des solutions d'ai personnalisées peuvent également être divisés en tarte de marché. Degny pense que l'avantage d'Intel et de Xilinx réside dans la phase d'inférence (inférence) de l'apprentissage de machine, la phase de formation (formation) exige une capacité de calcul pour comprendre le DataSet, mais l'assertion est que l'ordinateur déduit la réponse en manipulant le nouvel échantillon de données. Le PDG de NVIDIA Huang devrait entrer avec succès la phase d'inférence après son marché de phase de formation de GPU-LED, prédisant que chaque requête de réseau peut compter sur le GPU de NVIDIA dans l'avenir. Degny ne le pense pas, mais il est optimiste que d'autres solutions sont plus appropriées pour une étude plus approfondie de la partie d'inférence. Degny dit Intel a un plus grand choix de puces que NVIDIA, et croit que Intel peut jouer un rôle plus important dans la phase d'inférence, y compris FPGA, le processeur Synergy et les circuits intégrés d'application spéciale (ASIC) domineront le marché des accélérateurs, en particulier en termes d'inférence. Degny soutient que la phase d'inférence ne nécessite pas de fonctionnalités lancées par NVIDIA, tandis que Intel et le FPGA de Xilinx peuvent être plus appropriés. Le rapport de degny note que, contrairement à la formation parallèle à grande échelle en intelligence artificielle effectuée dans des centres de données, des smartphones, beaucoup, ou des produits connexes effectuent généralement des calculs continus des inférences. La charge de travail d'inférence peut être dispersée dans plus de types de processeurs, y compris les UC, GPU, FPGA et ASIC. Le processeur dédié smartphone haut de gamme permettra d'accélérer l'utilisation d'applications individuelles telles que l'image ou la reconnaissance vocale tout en réduisant la consommation d'énergie CPU, ainsi prolonger la durée de vie de la batterie, comme l'iPhone 7 en utilisant un processeur de signal d'image et GPU intégré dans le processeur A10 pour effectuer certaines tâches ai, mais pour le futur iPhone, Apple (AAPL) est répandu pour être en utilisant un moteur neural (moteur neural) à compter sur les puces discrètes. D'autre part, l'utilisation d'accélérateurs dédiés peut ne pas être économique pour tous les équipements terminaux, en particulier pour les produits de l'ITO. Par conséquent, lorsque le prix/performance n'est pas la contrepartie principale, il peut être effectué sur le CPU, tout en traitant un grand nombre d'opérations préférentielles, telles que le centre de données à l'aide GPU, FPGA ou client-Made Chip. Le rapport pense que le FPGA est le plus approprié, mais l'inconvénient de FPGA est que par rapport au GPU, la difficulté de programmation de puce est plus élevé. Enfin, le rapport mentionne alphabet TPU, bien que TPU ne peut pas être répertorié, mais pourrait conduire Amazon et Microsoft et d'autres entreprises pour lancer des puces plus personnalisées, comme Intel, NVIDIA et Xilinx dans le marché des puces de l'intelligence artificielle concurrents.