デロイトのグローバル最新の予測報告書は2018年に、中小企業は、業界で機械学習アプリケーションをより重視されることを指摘している。比較すると2017年、機械学習とプロジェクトの実施の展開が倍増し、2020年までに再び倍になりますと回。
現在、豊かな「AIチップ」は、この新しい用語はGPU、CPU、FPGA、ASIC、TPU、オプティカルフローチップを含むより多くの種類を、始めがある。デロイトによると、2018年には、GPUとCPUは、まだ機械学習の分野であると予測します主流のチップ市場の需要のGPUおそらく50万、20万FPGAの機械学習タスクの需要、およびASICチップの需要は、約100,000です。
FPGAとASICチップのための学習機械のチップを加速するために、デロイトは、それが2018年の年末までに期待していた、というデータセンターの25%以上に注目すべきである。目に見える、FPGA、ASIC上昇は、機械学習の分野で達成することが期待されます。
実際には、FPGAを使用して、以前の開始の一部、ASICチップは、主に機械学習推論(推測)タスク上での使用に、ユーザーを加速さが、すぐ後に、FPGA、ASICチップはまた、トレーニングモジュールで作業することができます遊ぶ
2017年に報告書の冒頭には、「FPGAは、次世代ディープニューラルネットワークを加速する上でのGPUを打つことができますか?」しながら、2016年には、世界的なFPGAチップの売上高は、以上$ 40億持って、研究者は言った、いくつかのケースでは、FPGAスピードとコンピューティングパワーは、GPUよりもさらに強くなる可能性があります。
Azureのクラウドサービスでは、このようなAWSやMicrosoftのアマゾン(アマゾン)(マイクロソフト)として存在する、で、FPGAテクノロジを導入されている、国内のアリババは、インテル(インテル)を発表し、クラウドアプリケーションプラットフォームを加速する利点のXeon-FPGAを取るために、インテル最近データセンターでは、機械学習、オーディオ/ビデオデータの暗号化などの作業効率を高めるために、FPGAを通じてクラウドプラットフォームを調整できることを常に強調しています。
また、ASICはたくさんのみシングルタスクチップを実行することですが、ASICチップのメーカーが。2017年には、業界全体の総収入の約$ 15億円となりました。Googleや他のベンダーは、機械学習に使用するASICだろう、ということが報告され、 TensorFlowマシン学習ソフトウェアに基づくチップもリリースされました。
Deloitteは、CPUとGPUの組み合わせが機械学習の成長に大きく貢献していると考えています。また、さまざまなFPGAやASICソリューションの将来も処理速度、効率、コスト削減に十分な影響を与えることができれば、アプリケーションが再び爆発的な進歩を遂げることを学ぶ。