Google (Google) CEO Sundar Pichai in der 8. Mai Ausgabe des dritten Generation TPU (Tensor Processor Unit, TPU3) in dem 2018 Google I / O auf der Jahrestagung. Die neue TPU kann dazu beitragen, Google AI Spracherkennung zu verbessern, suchen Sie das Foto mit einem bestimmten Objekt unter dem Film und zu verstehen, die verborgenen Gefühle hinter den Worten. Patrick Moorhead Moor Insights & Strategy Analysten erwartet Google $ 2-3000000000 über die TPU-Plan zu verbringen.
Microsofts Bing-Blog gab am 26. März bekannt, dass es tiefe neuronale Netze durch Arrias und Stratix FPGA-Chips (Field Programmable Logic Gate Arrays) von Intel gebaut hat und ein tiefgreifendes Lernprojekt namens "Project Brainwave" entwickelt hat. Beschleunigende Plattform Die intelligente Suchfunktion von Bing ist es, die enorme Rechenleistung dieser Plattform für das maschinelle Leseverstehen zu nutzen.
Reynette K. Au, Vice President der Programmable Solutions Group Marketing Group von Intel, veröffentlichte damals eine Pressemitteilung (Sourced) und wies darauf hin, dass die intelligente Suche von Microsoft Bing mit Intels FPGA-Chip die Absichten des Nutzers verstehen und Antworten liefern kann Strings benötigen eine manuelle Verarbeitung von Weblinks.
Laut dem Bericht, im November letzten Jahres die Nikkei Asien Kommentare veröffentlicht, zeigt die Analyse des Nikkei, Elsevier, 2012 - AI Forschungsberichte während 2016 erhalten die höchste Zahl notiert (Anmerkung: in der Regel als Indikatoren der Forschungsqualität betrachtet) ist die erste Microsoft.