人工知能とHPCを組み合わせて、Nvidiaは今回何をしたいのですか?

世界を計算することは、CPUの拡張が鈍化している、変更されているが、パワーを計算するための需要の急激な上昇が。しかし、実際の展開は、CPUが古くなって、ほとんど、絶えず上昇AIの高性能コンピューティング(HPC)サーバーと複雑さを作成しますこれは、制限システムの設計に延伸されました。

問題を解決することは不可能であるどのようにNVIDIAのCEOジェンセン黄に5月30日開催されたGTC台湾2018年の会議で(黄)は彼自身の答えを与える、方法を見つけることです。

NVIDIAのプラットフォームYewang

一度スマートフォン市場で失ったものの、GPUを起動するためにGPUを構築するために国内外のメーカーを支援するために、その後、コンピュータゲームに対する消費者のエンターテイメント体験を強化するために単純なものから、NVIDIAの開発プロセスを見直し、近年になく、AI分野の積極的なレイアウトに開始しました彼は、データセンター、自動車開発の分野に向けて移動を開始しました。

事業構造があることから、R&D支出のNVIDIA最初の90%がCUDA GPUアーキテクチャとソフトウェアプラットフォームに置かれ、その後、このモデルでは、各プラットフォームに適用されます:ゲーム、データセンター、人工知能と自動運転を。

GPU市場におけるNVIDIAは、ゲーム業界で主導的な立場にされているGPU元の最大のユーザーである。データセンターは、その最も急成長しているビジネス市場です。

過去3年間で、85%の年率の事業所得のこの部分は、年度2018年の年次成長率133%であった。HPC(高性能計算機クラスタ)、クラウドコンピューティング企業とAIの研究者や他業種からのこれらの増加。

AIの技術的な側面では、NVIDIAは先に他の競合他社のとなっている。2017年6月、NVIDIAは、テンソルの次の世代は、パスカルの前の世代よりも5倍の速さ、深い学習、ボルタに頼って、ボルタGPUをコアリリースしました。ボルタは、すべての主要なクラウドとなっていますベンダーおよびサーバーメーカーによって計算されます。

今回は、NVIDIA HGX-2のリリースにより、NVIDIAは公式に人工知能と高性能コンピューティングを単一のプラットフォームに統合しました。

科学技術計算やシミュレーションのための高精度FP64とFP32・コンピューティングをサポートするために、多倍精度コンピューティング機能と、クラウドサーバプラットフォームとして、HGX-2を理解し、また使用FP16とINT8精度AIトレーニングや推論をサポートしています。AI訓練のHGX-2実装されます速度は、ResNet-50ベンチマークで15500画像/秒を達成しました。これは、CPUのみを搭載した300台のサーバーに相当します。

GPUコンピューティング時代が到来しました

GTC台湾では、黄もムーアの法則が現在の状況は徐々に退色さで、GPU計算の世界のトップ50のスーパーコンピュータは、将来的になりますが期待されながら、今後10年間という、各年の事業規模は需要は、100倍に成長するだろうと述べました5年間で15倍に成長すると同時に、GPUで高速化されたコンピューティングがムーアの法則を拡張する主な方法になります。

現在のスーパーコンピュータは、現代科学の発展のための重要なツールとなっていることは、分子の構造、量子化学、量子力学、天候、気象研究、エネルギー探査、物理シミュレーション、データ分析や人工知能技術の発展に重要な役割を果たしていた、と提供します1000億または10億の運用パフォーマンス。

そしてOpenAI統計は、今後5年間で、人工知能コンピューティングモデルは、ムーアの法則が速く3倍に成長すると予想さに比べて、30倍に成長することを示している。GPUアクセラレーション機能により、大幅によって、計算プログラムの複雑さを増す、データを許可しますこれは、過去の人々が解決できなかった計算上のニーズを解決します。

ジェン・スン・フアンは、再びGPUによって未来を過去のNVIDIA CUDAコンピューティング・モデル駆動型のメリットの創出を加速するだけでなく、説明すると、コンピューティングモデルは千万運用グループボルタGPUアーキテクチャ駆動の性能と同等になります2028年世界的な需要が期待される、拡大していきます加速していることを強調しました。 CPUのスーパーコンピュータレベルのコンピューティングパワーの複数のセットの積み重ねによる伝統の観点からは、GPUはそれを交換する場合は高い加速効果を提供しながら、あなたは、より多くのスペースと消費電力を節約することができ、大規模なスペースと電力コストの高さを占有します。

また、黄は、NVIDIAが正式に世界有数のODMのパートナーシッププログラムを立ち上げ、これらのメーカーの鴻海精密、Inventecで、クアンタ・コンピュータとWistron社グローバル設計と生産はAIのクラウドコンピューティングの多様なニーズに応じて加速するパートナーとなるだろうと述べました。

ユニファイドコンピューティングプラットフォームNVIDIA HGX-2

2018年5月30日、NVIDIAのは、最初の人工知能の打ち上げは、高性能コンピューティングおよびユニファイドコンピューティング・プラットフォームNVIDIA HGX-2に適用されると発表しました。

製品ラインからは、HGX-2リファレンスアーキテクチャはHGX-2は依然としてクラウドサービスプラットフォームであるのではなく、アマゾンAWS、Facebookとマイクロソフトで昨年HGX-1、および他のクラウドサービスのアップグレード版で、適用することができHPC(高性能コンピュータ)に、業界初の標準プラットフォームは、クロスカットの計算に適用することができます。

HGX-2マルチ精密コンピューティング機能を備えたクラウドサーバプラットフォームは、コンピューティングの将来のための強力なサポートを提供するために、独自の柔軟性を提供することができます。NVIDIAのプラットフォームはAIのための科学技術計算とシミュレーションとトレーニングのための高精度なFP64とFP32の動作が可能ですそしてFP16とINT8操作を推論、今日のアプリケーションを満たすために、多様な機能は、HPCとAIのより多くの統合が必要。

HGX-2 HGX-2は、AI 2ペタフロップス性能を提供し、単一の巨大GPUとして大きなコア基を形成するNVSwitch配線構造により、コア部16ボルタテンソルコアGPUの使用。HGX-2を最初に構築するために使用しますシステムは、最近リリースされたNVIDIA DGX-2です。

黄はHGX-2 NVIDIA GPUの下で、さまざまなAIに対応するため、主要市場ごとに、直列タンデムデータセンター全体のサーバ・システムを1つのサーバープラットフォーム製品を加速する高性能コンピューティングと最適なGPUを推奨するジョブを計算加速、と指摘しましたデータセンター、HPC、IVA、仮想デスクトップインフラストラクチャとSCX-E(;大規模な推論とインテリジェントビデオ分析(IVA)のために、超大規模な訓練とHPC ;. HGX-1のようなHGX-Tと組み合わせたCPU構成VDI)のように。

ジェン・スン・フアンは言った:「テンソルコアGPU NVIDIA HGX-2を搭載した世界が直面する大きな課題に対処するために、業界のためのHPCやAIを組み合わせることができる強力な、汎用コンピューティングプラットフォームを、もたらします。」

世界最大の4つのODMであるFoxconn、Inventec、Quanta、Wistronも、世界最大級のクラウドデータセンターの下半期に使用される予定のHGX-2に基づくシステムを設計していることが理解できます。

10年以上前、NVIDIAはグラフィックスチップ会社からコンピューティング会社に移行することを決め、GPUコンピューティングを促進するために必要なインフラとエコシステムを構築し始めました。

NVIDIAのプラットフォームは、最先端の物理学、医学研究、最新の人工知能、自動操縦の研究開発まで、開発者に高いコンピューティング性能を提供し続けています。科学技術の進歩を促進するエンジンになろう!

2016 GoodChinaBrand | ICP: 12011751 | China Exports