描画プロセッサ Nvdia の1th 四半期におけるデータセンター事業の成長率は、過去数年間で著しく鈍化している。 nvidia は、人工知能 (AI) の分野での地位を維持することができるかどうか、Google TensorFlow プロセッシングユニット (TPU) などのカスタムチップの出現は、徹底的な学習訓練で nvidia の優位性を脅かす。 インテル、ウルトラマイクロ (AMD) とフィールド内のすべての新しいベンチャーは、Nvidia を追い越すことができるかどうかに踏み込んで価値がある。 Fubis (フォーブス) によると、市場調査研究所ムーアインサイト & Strateg アナリストカールフロインドは最近、研究を発表した、AI の Nvidia の驚異的な成長が注目の多くを引き起こし、多くの可能性のある相手をもたらした、 これらの企業の多くは、Nvidia よりも10倍高速で、低消費電力のチップを開発していると主張している。 ハイパーマイクロ GPU に加えて、すべての企業は、チップは、ニューラルネットワークに対処するために設計された実行可能なルートであると考えています。 インテルインテルは、そのアクセラレータのポートフォリオを構築するために2016で Nervana を買収. オリジナルの Nervana エンジンは、2017でリリースされている必要があります, これまでのところ、ニュースはありませんでした. Nervana は、6倍のパスカルよりも効率的であるボルタ Tensorcores、コミュニティに衝撃を与えた後、その元のデザインを調整することがあります。 Nervana チップの最初のバッチ生産は2018後半に公開されることがフロインド。 上記の議論は、ディープニューラルネットワーク (DNN) は、Nvidia の AI で大きな成功を収めているトレーニングについてです。 しかし、Intel は、優れたソフトウェア設計を Xeon データセンター・プロセッサーとペアリングすることで、推論作業において優れたパフォーマンスを実現できるという。 同社は、推論処理市場の 80% 以上を持っていると主張している。 google の TPU および他の内部 asic の google は AI のために利用できる2つのタイプの asic を有する: 推論のための1つおよび訓練のための他。 Google は TPU に市場のための加速器をした。 しかし実際は、それは4つの同一の ASIC、45TOPS についての各提供から成っている。 対照的に、NVIDIA ボルタ各チップは、最大125TOPS を提供します。 時間の経過とともに、Google は、その社内の GPU の仕事のほとんどを TPU にシフトしている可能性があります。 マイクロ-彼らのソフトウェアの準備の超マイクロがスタックとマシンの学習ワークロードの nvidia のスクランブルが、nvidia ボルタの背後にある世代よりもピーク性能で、その現在のベガチップ。 同社は現在、マシンの学習のための競争を計画している世界で10の新しいベンチャーを持っている, そのうちのいくつかは、チップを起動する準備ができている. 本土のカンブリア紀は十分に資金を供給され、本土の政府によって支えられるようである。 カンブリアはニューラルネットワークを構築するのではなく、ニューラルネットワークを扱うことに焦点を当てています。 シリコンバレー社のウェーブコンピューティングは、トレーニングモデルを構築することができますチップを開始しました。 Wave は、従来のアクセラレータのボトルネックを排除する、データフローアーキテクチャと呼ばれる斬新なデザインを使用しています。 Wave のデータストリームプロセッサは、CPU を使用せずにニューラルネットワークを直接トレーニングおよび処理できます。 Google TPU とは異なり、wave はマイクロソフト CNTK、Amazon Mxnet および TensorFlow ソフトウェアの詳細な学習をサポートしています。 Cerebras、Graphcore と GROQ などの他の有名な企業は、ステルスモードではまだですが、カスタムの AI アクセラレータを構築するために多くのお金を調達しているが、それは2019まで起動すべきではありません。 フロインドは、Nvidia の最大の脅威は、Google の TPU かもしれない。 Google は、言語処理のための再帰的なニューラルネットワークなど、TPU に適していないワークロードを処理するために多くの GPU を購入し、使用し続けることができます。 Wave は、AI の開発と展開にパブリッククラウドを使用したくない企業にとって、独自の GPU インフラストラクチャをセットアップしたくない場合に適しています。 最後に、Intel が市場に参入するために Nervana を借りることができ、その完全なサポートに投資することをいとわない場合は、Nervana は2019で脅威をもたらす可能性があります。 しかし、Nervana は、1つの実行可能な生態系を開発するために、少なくとも3年の時間と固体ロードマップが必要です。 考慮すべき1つの要因は、nvidia 7 ナノテクノロジーの開発で、nvidia は、AI 機能に重要なチップ領域を追加することができるということです。 その結果、AI に焦点を当てたチップの割合が増加し、この部分が実際にグラフィックを表示できる ASIC になることがあります。 フロインドは、Nvidia は 1 GPU の企業が、無制限の成長願望を持つ1つのプラットフォーム企業だとは思わない。 AI ハードウェアとソフトウェアには、Nvidia の深さと幅広い専門知識を持っている他の企業はありません。 それはマイクロ、Intel または ASIC からの脅威を見込ん場合、Nvidia は、より良い AI チップを設計することができます。 Nvidia は、ディープラーニングアクセラレータ () を介してこれを行っています。 GPU が危険にさらされた場合、nvidia は次のステップにも有効になります。 同時に、それは明らかな成長と AI のトレーニングチップの市場のリーディングポジションを持っています。 推論処理の面では、Nvidia はデータセンターのワークロードと自己駆動などのアプリケーションのための視覚的なガイダンスシステムに焦点を当てています。 自動車市場は、今後数年間ではまだサイズが限られているが、フロインドは、それが最終的に重要な成長につながることは間違いない。