Das Wachstum des maschinellen Lernens ist atemberaubend und es wird erwartet, dass FPGAs und ASIC-Chips die neue Hauptstütze werden

Set-Mikro umfassender Bericht, Anfang 2016 ist maschinelles Lernen noch ein wissenschaftliches Experiment betrachtet, sondern in großem Umfang in Data Mining, Computer Vision, Sprachverarbeitung, Biometrie, Suchmaschinen, medizinische Diagnose begonnen werden, Kreditkartendetektions Betrug, Aktienmarkt-Analyse, Sprach- und Handschrifterkennungsanwendungen, Strategiespiele und Roboter. in dieser kurzen Zeit des Jahres, maschinelles Lernen, wächst schneller als allgemein erwartet.

Deloitte Globaler jüngste Prognose Bericht stellt fest, dass im Jahr 2018, mittleres Unternehmen mehr Wert auf maschinelles Lernen Anwendungen in der Industrie sein werden. Im Vergleich und 2017 mit dem Einsatz der maschinellen Lernens und Umsetzung des Projektes wird verdoppelt und erneut verdoppelte bis 2020 Zeiten.

Derzeit gibt reich ‚AI-Chip‘ ist dieser neue Begriff begann mehr und mehr Arten, einschließlich GPU, CPU, FPGA, ASIC, TPU, optische Flow-Chips. Deloitte zufolge prognostiziert im Jahr 2018, dass GPU und CPU noch der Bereich des maschinellen Lernens ist Mainstream-Chip Marktnachfrage GPU wahrscheinlich rund 500.000, in der Nachfrage nach Maschinenlernaufgaben von mehr als 200.000 FPGA und ASIC-Chip Nachfrage ist etwa 100.000.

Es ist bemerkenswert, dass Deloitte gesagt, es bis Ende 2018 mehr als 25% des Rechenzentrums erwartet Lernmaschine Chips für FPGA und ASIC-Chip zu beschleunigen. Visible, FPGA wird ASIC steigen in dem Bereich des maschinellen Lernens zu erreichen.

In der Tat, einige des früheren Beginns mit FPGA, ASIC-Chip Benutzer beschleunigt, vor allem ihre Verwendung auf maschinelles Lernen Inferenz (Inferenz) Aufgabe, aber bald nach, FPGA, ASIC-Chip wird auch in der Lage sein, in dem Trainingsmodul arbeiten spielen.

Im Jahr 2016 hat der globale FPGA-Chip Umsatz mehr als $ 4 Milliarden, während im Jahr 2017 der Beginn des Berichts „Kann FPGAs GPUs schlägt in Accelerating Next-Generation Tiefe Neuronale Netze?“, Die Forscher sagten, in einigen Fällen sind die FPGA Geschwindigkeit und Rechenleistung können sogar stärker als die GPU sein.

Derzeit, wie Amazon (AWS) und Microsoft (Azure Azure Cloud Services), haben FPGA-Technologie eingeführt, die inländische Alibaba auch die Zusammenarbeit mit Intel (Intel) angekündigt, mit Xeon-FPGA-Plattform zur Beschleunigung von Cloud-Anwendungen, Intel vor kurzem Ständig betonen, dass das Rechenzentrum die Cloud-Plattform durch FPGA anpassen kann, um die Effizienz von maschinellem Lernen, Audio- und Videodatenverschlüsselung und anderer Arbeit zu verbessern.

Darüber hinaus, obwohl die ASIC ist eine Single-Chip-Implementierung der Aufgabe, aber die aktuelle Anzahl der ASIC-Chip Maker im Jahr 2017, der gesamte Umsatz der Branche von rund 15 Milliarden US-Dollar.Es wird berichtet, dass Google und andere Hersteller begannen, ASIC im maschinellen Lernen zu verwenden, Chips basierend auf TensorFlow Machine Learning Software wurden ebenfalls veröffentlicht.

Deloitte glaubt, dass die Kombination aus CPU und GPU wesentlich zum Wachstum des maschinellen Lernens beigetragen hat, und wenn die Zukunft verschiedener FPGA- und ASIC-Lösungen einen ausreichenden Einfluss auf die Verarbeitungsgeschwindigkeit, Effizienz und Kostenreduzierung ausüben kann Erfahren Sie die Anwendung wird wieder explosive Fortschritte sein.

2016 GoodChinaBrand | ICP: 12011751 | China Exports