Depuis le début de l'année 2017, Google a lancé le matériel personnalisé de l'unité de traitement Tensor, de sorte que le modèle d'apprentissage machine pour faire des prédictions plus rapidement, il y a quelques jours Microsoft (Microsoft) à être dépassé, le même pour le module d'apprentissage machine a lancé un nouveau système Project Brainwave. La grille de grille programmable (FPGA) pour accélérer la profondeur de l'apprentissage devrait entraîner une pression limitée de TPU. Selon InfoWorld, Microsoft a annoncé que Project Brainwave peut supporter une variété de systèmes d'apprentissage en profondeur largement utilisés. Project Brainwave couvre également de nombreuses TPU Brainwave est une utilisation à grande échelle de tableaux de portes programmables sur site (FPGA) dans Azure pour accélérer de nombreuses opérations, telles que le traitement de réseau et l'apprentissage par machine. Microsoft souligne également que, pour les développeurs utilisant Brainwave, le même objectif, y compris l'accélération de l'apprentissage à partir du module d'apprentissage machine. Brainwave est capable de prendre en charge Google TensorFlow avec son propre Cognitive Toolkit et prend en charge plus d'autres produits. Brainwave est l'utilisation de l'architecture susmentionnée des modules existants en une utilisable dans la puce native de Microsoft Le format, cependant, a fait remarquer que le modèle existant a été transplanté Microsoft a déclaré que l'utilisation de chips exclusifs peut rendre Brainwave plus rapide que prévu, la FPGA est directement connectée au réseau du centre de données, de sorte que la profondeur du réseau neuronal et la FPGA exclusive soient plus étroitement liées. Étant donné que le design à haut débit, il est plus facile de créer une application en temps réel de la profondeur des applications d'apprentissage (App), sans une longue période de formation hors ligne. Microsoft a également déclaré que l'utilisation de différentes façons d'utiliser FPGA pour prédire, Les FPGA Brainwave peuvent être sélectionnées en fonction des besoins de problèmes spécifiques, à partir de données de type, haute ou faible précision, en augmentant la vitesse en sacrifiant la précision.