Selon le rapport d'information des médias étrangers, Huawei a formulé en interne le «Plan Da Vinci», également appelé «Plan D» par les dirigeants de Huawei, le vice-président de Huawei, Hai Si, la société de conception de circuits imprimés de Huawei. Président Xu Zhijun.
Les principaux contenus sont les suivants: introduire l'IA dans tous les produits et services Huawei, y compris les stations de base télécom, les centres de données cloud, les smartphones, les caméras de surveillance, etc. Des applications telles que la reconnaissance peuvent être utilisées dans le cloud.
Les spéculations de l'Information sur le plan sont: Premièrement, la puce d'IA de Huawei pourrait constituer une menace pour Nvidia, Deuxièmement, la disposition des nuages d'IA de Huawei pourrait aggraver les inquiétudes du gouvernement américain.
Huawei AI mise en page
La disposition de l'IA de Huawei n'est en fait rien de nouveau.
Lei Feng réseau a été rapporté, Huawei Huawei Device DigiX2018 · partenaire mondial et la conférence des développeurs, tenue le 22 Juin, le PDG Yu Chengdong, l'activité grand public de Huawei mis en avant une nouvelle stratégie de l'entreprise des consommateurs de Huawei: la sagesse de toute la stratégie écologique en direct de la scène.
Yu Chengdong a souligné que Huawei pour construire toute la sagesse écologique de la scène de la vie est un écosystème ouvert. Pour l'ensemble de l'écosystème, Huawei fournira une plate-forme ouverte hiai noyau de l'intelligence artificielle, à la fin, trois niveaux de technologies de cloud computing ouvert, permettant aux partenaires mondiaux.
En ce qui concerne les terminaux, Huawei créera une expérience d'exploitation fluide grâce à la plate-forme informatique mobile HiAI, aux outils audio-visuels, aux assistants de jeu ... Du côté des terminaux, Huawei construit des services complets et des applications complètes. Fournir une série de capacités intelligentes de détection et d'interaction: du côté du cloud, Huawei Mobile Services (HMS), AppGallery, etc. répondent aux besoins d'utilisation personnalisés du consommateur.
En septembre 2017, Huawei a sorti la première puce AI du téléphone mobile Kirin 970, ajoutant l'unité de traitement de réseau neuronal NPU (la technologie vient de Cambrian), comparée au CPU, la vitesse de calcul est multipliée par 25, l'efficacité énergétique augmentée de 50 fois. Huawei Mate 10 et Mate 10 Pro et Glory V10 sont équipés de puces Kirin 970.
À l'heure actuelle, Huawei utilise toujours la puce GPU de NVIDIA pour ajouter des fonctions AI au serveur.
Le «groupe» de noyau de la Chine entre dans la puce d'AI de nuage
La situation de concurrence nationale s'intensifie: Baidu et Cambrian sont entrés cette année dans la puce IA.
En mai de cette année, Cambrian a lancé la première puce intelligente de nuage Cambricon MLU100.
Il est entendu, MLU100 à l'aide du dernier processus Cambrian l'architecture MLUv01 et TSMC 16nm, qui peut fonctionner en mode équilibré (fréquence de 1 GHz) et un mode haute performance (1,3 GHz de fréquence), le mode équilibré équivalent des vitesses de pointe théoriques allant jusqu'à 128 par seconde billion arithmétique à virgule fixe, le mode équivalent vitesse de pointe théorique de haute performance 166,4 billions de fois par seconde arithmétique à virgule fixe, mais est typiquement de 80 watts carte de puissance, ne dépasse pas 110 watts de puissance de crête.
4 juillet 2018 AI Baidu Developers Conference, PDG et Président Robin Li, Baidu Baidu a publié la puce AI auto-développé 'Kunlun', qui comprend la formation et la puce puce raisonnement Kunlun 818-300 818-100.
Baidu affirme que c'est la première puce nuage AI complet de la Chine, est jusqu'à présent le plus étude de conception de puissance de la puce AI de l'industrie du point de vue des paramètres, processus à l'aide de 14nm Samsung « Kunlun », avec les performances 260Tops, 512 Go / s Bande passante mémoire, la consommation d'énergie dépasse 100 watts, composé de dizaines de milliers de petits noyaux.
Modèle de marché de la puce IA Cloud
Sur le marché actuel des puces GPU, NVIDIA détient une part de marché de 70%, un leader bien mérité sur les puces.
En 2016, NVIDIA a investi des milliards de dollars, mobilisé des milliers d'ingénieurs et lancé le premier GPU Pascal optimisé pour l'apprentissage en profondeur: en 2017, il a introduit une nouvelle architecture GPU avec une performance cinq fois supérieure à celle de Pascal. L'accélérateur de raisonnement TensorRT 3 est également apparu en même temps: TensorRT en tant qu'accélérateur de raisonnement programmable peut accélérer les architectures de réseau existantes et futures.
Lei Feng.com a effectué une analyse détaillée de la structure du marché des puces AI (voir: L'industrie des puces AI d'aujourd'hui, qui sera le monde des joueurs de tête.) Actuellement, la puce AI a été contrôlée par des géants traditionnels, qu'ils soient matériels ou logiciels. .
L'image suivante est la liste globale des puces AI publiée par Compass Intelligence.Comme la puce AI est actuellement rarement utilisée dans le terminal, le classement de la tête de la liste peut être approché comme la structure actuelle du marché de la puce AI nuage.
On peut voir que le géant de la puce Nvidia a occupé la partie supérieure de la puce AI. En raison de la popularité de la plate-forme de développement CUDA, le GPU de NVIDIA est la plate-forme matérielle AI la plus répandue.
Si vous avez besoin de faire de l'IA, vous devez utiliser les puces de Nvidia, les applications de puces de Nvidia sont courantes, et maintenant toutes les librairies d'IA supportent l'utilisation de l'accélération CUDA. , y compris le Tensorflow de Google, le Caffe de Facebook, le MXNet d'Amazon, etc.
Maintenant, au centre du débat est l'industrie de l'architecture du processeur à puce IA dans ce qui est le meilleur, il GPU, FPGA, DSP et ASIC, et plus encore sous forme de pointe de la puce du cerveau. Maintenant GPU dans une position dominante, mais plusieurs autres L'architecture du processeur a également ses propres avantages.
Intel est un pari à plusieurs, ne manquez aucune de l'architecture du processeur. Google en TPU (en fait une sorte de ASIC) a apporté d'énormes investissements en termes de performance du matériel a été grandement améliorée, il semble maintenant l'impact du GPU sera le plus grand La raison en est non seulement en raison des avantages d'efficacité apportés par l'architecture dédiée, mais aussi de l'avantage en termes de coûts apporté par le modèle économique.
Dans le nuage, le géant international est devenu le leader de facto de l'écologie, parce que l'informatique en nuage a toujours été un champ de bataille géant, et maintenant sont également libérés tout cadre AI open source de ces géants. Dans un tel environnement écologique a été guéri, afin de Huawei une part de la puce AI nuage domestique veulent avancer vers les cinq ou même défier Nvidia, pas une tâche facile.