La plate-forme de puce de l'intelligence artificielle mondiale se déclenche de manière exhaustive, la scène actuelle utilise dans l'apprentissage de la machine et la puce réseau neural profond, a principalement la puce ASIC, la puce de dessin (GPU), le champ Programmable Logic Gate Array (FPGA) puce et le CPU et ainsi de suite, mais investit dans la puce ai et l'application terminale technologie de guerre grande industrie, y compris , Intel (Intel), Qualcomm (Qualcomm), Google, Apple (AAPL), Microsoft (Microsoft), Amazon, Facebook, IBM, Samsung Electronics (Samsung Electronics), Huawei, Baidu et Tencent, et d'autres gens d'affaires récents se bousculent pour développer différentes architectures de puces d'ai et d'applications pour saisir le marché de l'IA pour gagner le moment clé. NVIDIA, en vertu de ses nombreuses années de la technologie GPU, dans la puce ai débuts, comme l'objet du champ ai de l'étoile de demain. Le PDG de NVIDIA Huang dit que les développeurs de NVIDIA et d'ai travaillent ensemble pour améliorer la conception de GPU, l'architecture de système, les compilateurs, et les algorithmes, qui prend seulement 3 ans pour augmenter la profondeur d'entraînement par 50 fois plus rapidement que la Loi de Moore suggère. Attendez-vous à augmenter la vitesse de 10 fois dans les prochaines années. À l'heure actuelle, dans chaque PC, serveur, superordinateur ou Amazon, IBM et Microsoft Cloud Environment, les développeurs peuvent trouver NVIDIA GPU, presque toutes les grandes architectures de développement ai utilise NVIDIA GPU, dans lequel, GeForce Chip peut être utilisé dans PC, Tesla est utilisé dans les nuages et les superordinateurs, Jetson pour les robots et les drones, et le lecteur PX pour les véhicules qui utilisent la même architecture pour accélérer la profondeur de l'apprentissage. Récemment, Intel a également intensifié le plan d'ai, couvrant les produits et les technologies allant du bord du réseau au centre de données, les solutions de plate-forme de puce comprenant Xeon, processeurs de Phi de Xeon, et accélérateurs de FPGA qui soutiennent une série de charges de travail spécifiques pour optimiser. Intel emprunte également toutes sortes d'innovations d'ai des compagnies telles que Moussa, actuellement connu sous le nom de la puce de Lake Crest a été testé pour optimiser le réseau neuronal de classe (réseau neuronal), non seulement pour fournir l'efficacité d'apprentissage la plus avancée, Il fournit également la vitesse de calcul sans précédent par l'interconnexion à haute fréquence large. Intel est également un nouveau produit nommé Knights Crest, étroitement combiné avec processeur Xeon et la technologie Moussa, et Intel a lancé une puce de traitement ai vision Myriad X pour le moteur d'opérations neurales intégré pour les antennes sans pilote, caméra intelligente ou augmentée réalité dispositifs pour fournir des capacités plus autonomes, Peut percevoir et comprendre l'environnement en évolution rapide et interagir et apprendre. Le robinet de plate-forme mobile Qualcomm a libéré un moteur de traitement neuronal (moteur de traitement neural;) (NPE), dont le kit de développement (SDK) aide les développeurs à optimiser les performances de l'IA sur leurs processeurs de la série 600, 800, et prend en charge les architectures ai telles que TensorFlow, Caffe, Caffe 2 et NPE pour l'identification de l'image, la détection de scène, Filtre de caméra, système de retour d'image et d'autres fonctions, l'application d'un nombre considérable de dollars, Facebook est l'utilisation de ce SDK pour accélérer ses photos de téléphone mobile App et en temps réel amplification vidéo Real-World (AR) fonction. Moteur de recherche leader Google a lancé une opération d'apprentissage en profondeur puce TPU (tenseur unité de processus), la communauté principale des développeurs, à travers les services de Cloud utilisateurs ouverts d'affaires et les chercheurs utilisent. En outre, y compris Microsoft, Facebook, Amazon et d'autres fabricants internationaux, mais aussi d'accélérer le soft ai, la technologie matérielle et le développement d'applications. L'industrie continentale, Huawei a récemment publié Kirin 970 puce, prétendant être la première unité de traitement des nerfs (NPU) ai puce mobile, débuts octobre de la nouvelle génération de compagnon 10 et compagnon dix Pro sera le premier à porter Kirin 970 puce, formellement mis bataille ai. Comme pour Baidu a également été activement le développement d'une puce sur mesure. Avec le développement rapide de la technologie et des applications ai, est brassage de la prochaine génération de la révolution industrielle, impliqué dans l'échelle de l'industrie est plus grande, ai Field est devenu un champ de bataille, la vitesse de la plate-forme de puce ai sera connecté avec toutes les soft, les applications matérielles, le courant a été formé dans la situation chaotique de l'usine, dans la bataille après la bataille du changement est devenu l'objet de l'industrie mondiale.