外国メディアの報道、Huawei社社内で開発した「レオナルド・ダ・ヴィンチプログラム」に係る情報は、プログラムはまた、Huawei社の副会長が率いる「Dプログラム」、内部のHuawei社の幹部、Huawei社のIC設計企業ハスとして知られています会長は徐Zhijun。
主な内容は以下のとおりです。まず、通信基地局、クラウドデータセンター、スマートフォン、セキュリティカメラなど、Huawei社の中でAIの製品とサービスの導入、2番目、データセンターの新しいAIチップの開発、音声認識を行う、画像認識などのアプリケーションはクラウドで使用できます。
;第二に、Huawei社のクラウドAIのレイアウトは、米国政府の懸念を悪化させる可能性があるまず、Huawei社の力AIチップは、NVIDIAに脅威を与える可能性があります情報は、計画があると推測しました。
Huawei AIのレイアウト
Huawei社のAIレイアウト、実際には、何も新しいです。
シーン全体のライブ生態戦略の知恵:雷鋒ネットワークが報告されており、華為デバイス華為DigiX2018・6月22日開催された世界的なパートナーと開発者会議、CEOゆうChengdongは、Huawei社のコンシューマ事業は、Huawei社のコンシューマ事業の新戦略を定めます。
ゆうChengdongは人生の生態知恵がオープンなエコシステムであるHuawei社は、シーン全体を構築することを強調した。生態系全体のために、Huawei社は、グローバルなパートナーを有効にする、オープンなプラットフォーム秘人工知能コア、終わり、オープンクラウド技術の三つのレベルを提供します。
チップ側では、Huawei社は、秘のモバイルによってゲームの側近をスムーズに運転経験のコンピューティング・プラットフォーム、オーディオおよびビデオツールを構築します。端末側では、Huawei社は、ハードウェアの知恵によって、完全な接続サービスやシーン全体のアプリケーションを構築するために、秘プラットフォーム、AR / VRや他の機器をこれは、インテリジェントセンシングとインタラクティブ機能のシリーズを提供しています。Huawei社のモバイルサービス(HMS)、AppGalleryなどを通じて、クラウド側で個々の消費者のニーズを満たします。
2017年9月、Huawei社は、CPU、計算速度の増加25倍、50倍の増加のエネルギー効率と比較して、ニューラルネットワーク処理部NPU(カンブリアからその技術)を追加し、世界初の携帯電話チップユニコーンAI 970をリリースHuawei社メイト10と10 Proと栄光V10メイトはキリン970チップが搭載されています。
現在、Huawei社はまだAIサーバーに機能を追加するためのNvidia GPUチップを使用しています。
中国のコア 'グループ'が雲のAIチップに入る
今年、BaiduとCambrianは雲AIチップに入った。
今年5月、カンブリアンは最初のクラウドスマートチップ「キャンブリックMLU100」をリリースしました。
これは、毎秒最大128の平衡モード同等の理論上のピーク速度を平衡モード(1GHzの周波数)と高パフォーマンスモード(周波数1.3GHzの)で動作することができる最新カンブリアMLUv01アーキテクチャとTSMCの16nmプロセスを用いて、MLU100が理解されます兆固定小数点演算、等価理論ピーク速度高性能モード第2の固定小数点演算あたり166400000000000回、しかしは、110ワットのピーク電力を超えない、典型的には80ワット電源ボードです。
2018年7月4日には、AI Baiduの開発者会議、CEO兼会長のロビン李は、BaiduのBaiduは、トレーニングと推論チップチップ崑818から300 818から100を含み、自己開発AIチップ「崑」をリリースしました。
Baiduは、これは中国初のフル機能を備えたクラウドAIチップであることを主張した性能260Topsで、これまでのビューのパラメータ点からAIチップの業界最高の電力設計の研究、「崑」を使用してサムスンの14nmのプロセスであり、512ギガバイト/秒メモリ帯域幅、小さなコアの数万からなる電力100ワットを超えます。
クラウドAIチップの市場構造
そして、現在のGPUチップ市場では、70%と高いのNvidiaの市場シェアは、当然のヘゲモニーチップです。
2016年、NVIDIAは、数十億ドルを投資した数千人のエンジニアを費やし、深い学習パスカルGPU用に最適化された最初のを導入しました。2017年と新しいパスカルGPUアーキテクチャボルタ、ニューラルネットワークに比べて5倍のパフォーマンス増加打ち上げ推論アクセラレータTensorRT 3も発表し、既存および将来のネットワーク・アーキテクチャを加速することができ、プログラム可能なアクセラレータとしてTensorRT推論。
詳細な分析は、(参照:今日の混雑したAIチップ業界は、最終的にはプレイヤーの頭によって支配されます)AIチップ市場構造の雷鋒ネットワークが存在して、ハードウェアまたはソフトウェアからクラウドAIチップ、伝統的な巨人を制御していました。
次の図はコンパスインテリジェンスによってリリースされたグローバルAIチップリストです。AIチップは現在端末でほとんど使用されていないため、リストの先頭のランクはクラウドAIチップの現在の市場構造と近似できます。
NVIDIAのGPUは、CUDA開発プラットフォームの普及により、汎用AIハードウェア・コンピューティング・プラットフォームとして最も広く使用されています。
Nvidiaのチップアプリケーションは一般的で、AIソフトウェアライブラリはすべてCUDAアクセラレーションの使用をサポートしています。 GoogleのTensorflow、FacebookのCaffe、AmazonのMXNetなど
現在、業界の議論は、GPU、FPGA、DSP、ASICなどのAIチップ、さらには最先端の脳ニューロモルフィックチップ向けの最高のプロセッサアーキテクチャーです。現在はGPUが支配的な立場にありますが、プロセッサアーキテクチャにも独自の利点があります。
インテルはマルチパーティーの賭けであり、どんな種類のプロセッサアーキテクチャーも見逃せません。TPU(実際にはASIC)へのGoogleの莫大な投資はハードウェアのパフォーマンスを大幅に向上させました.GPUへの影響は最大その理由は、専用アーキテクチャーによってもたらされる効率上の利点だけでなく、ビジネスモデルによってもたらされるコスト優位性のためです。
クラウドコンピューティングは、常に巨大な戦場となっている、と今これらの巨人のすべてのオープンソースAIフレームワークも解放されているため、クラウドでは、国際的な巨人は、生態学の事実上のリーダーとなっている。そのような生態環境では、Huawei社のために、硬化されました国内クラウドAIチップのシェアはトップ5に進出、さらにはNvidiaの、ない簡単なタスクに挑戦したいです。