Huawei | Da Vinci Project | Exposure: Einführung in AI für alle Produkte, Entwicklung neuer Chips

Laut den ausländischen Medien The Information Report hat Huawei intern den "Da Vinci Plan" formuliert, der von Huawei Führungskräften auch als "D Plan" bezeichnet wird. Verantwortlich ist der stellvertretende Vorstandsvorsitzende von Huawei, Huaweis IC-Design-Firma Hai Si Vorsitzender Xu Zhijun.

Die Hauptinhalte sind wie folgt: Erstens, Einführung AI in alle Huawei Produkte und Dienstleistungen, einschließlich Telekommunikation Basisstationen, Cloud-Rechenzentren, Smartphones, Überwachungskameras, etc. Zweitens, entwickeln neue AI-Chips für Rechenzentren, Spracherkennung, Bilder zu ermöglichen. Anwendungen wie die Erkennung können in der Cloud verwendet werden.

Die Spekulationen der Information über den Plan sind: Erstens kann Huaweis AI-Chip eine Bedrohung für Nvidia darstellen, zweitens kann Huaweis KI-Cloud-Layout die Sorgen der US-Regierung verschärfen.

Huawei AI Layout

Huaweis KI-Layout ist eigentlich nichts Neues.

Lei Feng.com hat berichtet, dass auf der Huawei DigiX2018 Huawei Terminal · Globale Partner und Entwickler-Konferenz am 22. Juni Huawei Consumer Business CEO Yu Chengdong auf die neue Strategie von Huawei Consumer Business ausgearbeitet: die gesamte Szene Smart Life ökologische Strategie.

Yu Chengdong betonte, dass Huaweis voll-Szenario intelligente Lebensumgebung eine offene Ökologie ist.Vor allem die Ökologie, bietet Huawei HiAI künstliche Intelligenz offene Plattform Kern-, End- und Cloud-Technologien auf drei Ebenen und ermächtigen globale Partner.

In der Chipseite wird Huawei eine reibungslose Betriebserfahrung Computerplattformen bauen, Audio- und Video-Tool, Spiele Helfer von HiAI Mobilen; an der Terminalseite, Huawei einen vollen Verbindungsdienst und die ganze Szene Anwendung durch die Weisheit von Hardware, HiAI Plattform, AR / VR und andere Geräte zu konstruieren es bietet eine Reihe von intelligenter Sensorik und interaktiven Funktionen, durch Huawei mobile Dienste (HMS), AppGallery und so die Bedürfnisse der einzelnen Verbraucher in der Cloud Seite treffen.

2017 September Huawei veröffentlicht die erste Handy-Chip-Einhorn AI 970, fügen Sie das neuronale Netzwerk-Verarbeitungseinheit NPU (seine Technologie aus dem Kambrium) der Welt, verglichen mit der CPU, Rechengeschwindigkeit erhöhen 25-fache, 50-fache Steigerung der Energieeffizienz Huawei Mate 10 und Mate 10 Pro und Glory V10 sind mit Kirin 970 Chips ausgestattet.

Zurzeit nutzt Huawei NVIDIAs GPU-Chip, um dem Server AI-Funktionen hinzuzufügen.

China Core-Gruppe betritt den Cloud-AI-Chip

Die heimische Wettbewerbssituation verschärft sich, Baidu und Cambrian sind in diesem Jahr in den Cloud-AI-Chip eingestiegen.

Im Mai dieses Jahres veröffentlichte Cambrian den ersten Cloud Smart Chip Cambricon MLU100.

Es versteht sich, dass MLU100 Cambrian neueste MLUv01 Architektur und TSMC 16nm Prozess verwendet, kann im symmetrischen Modus (1 GHz Frequenz) und High-Performance-Modus (1,3 GHz Frequenz) arbeiten, die äquivalente theoretische Spitzengeschwindigkeit im symmetrischen Modus ist 128 pro Sekunde. Billionen von Festkomma-Operationen, die äquivalente theoretische Spitzengeschwindigkeit im Hochleistungsmodus erreicht 166,4 Billionen Festkomma-Operationen pro Sekunde, aber der typische Stromverbrauch auf Board-Ebene beträgt 80 Watt, und der maximale Stromverbrauch übersteigt 110 Watt nicht.

4. Juli 2018 AI Baidu Developers Conference, CEO und Chairman Robin Li, Baidu Baidu veröffentlicht die selbst entwickelte AI-Chip 'Kunlun', die Ausbildung und Argumentation Chip Chip Kunlun 818-300 818-100 umfasst.

Baidu behauptet, dass dies Chinas erster voll funktionsfähige Cloud-AI-Chip ist, ist bisher die höchste Leistung Designstudie von AI-Chip der Branche aus dem Parameter Sicht ‚Kunlun‘ mit Samsung 14nm-Prozess, mit der Leistung 260Tops, 512 GB / s Speicherbandbreite, Stromverbrauch über 100 Watt, bestehend aus Zehntausenden von kleinen Kernen.

Cloud-AI-Chip-Markt-Muster

Und in dem aktuellen GPU-Chip-Markt, Nvidia Marktanteil so hoch wie 70%, ist wohlverdiente Hegemonie Chips.

Im Jahr 2016 hat NVIDIA Milliarden von Dollar investiert, tausende von Ingenieuren eingesetzt und die erste Pascal-GPU für das Deep Learning eingeführt: 2017 wurde eine neue GPU-Architektur eingeführt, die fünf Mal so hoch ist wie Pascal. Gleichzeitig trat der Begründungsbeschleuniger TensorRT 3 auf, und TensorRT als programmierbarer Argumentationsbeschleuniger kann bestehende und zukünftige Netzwerkarchitekturen beschleunigen.

Lei Feng.com hat eine detaillierte Analyse der KI-Chip-Marktstruktur durchgeführt (siehe: Die heutige KI-Chip-Industrie, die die Welt des Kopfspielers wird.) Der Cloud-KI-Chip wird derzeit von traditionellen Giganten kontrolliert, egal ob von Hardware oder Software. .

Das folgende Bild stellt die von Compass Intelligence veröffentlichte globale AI-Chip-Liste dar. Da der AI-Chip im Terminal derzeit kaum genutzt wird, kann das Ranking des Listenkopfes als aktuelle Marktstruktur des Cloud-AI-Chips angenähert werden.

Wir können sehen, dass der Chipgigant Nvidia die Spitze des AI-Chips fest besetzt hat.Aufgrund der Beliebtheit der CUDA-Entwicklungsplattform ist NVIDIAs GPU die am weitesten verbreitete Allzweck-AI-Hardware-Rechenplattform.

Neben der Stärke des Unternehmens selbst entwickelte Chips (die Welt nicht wenige taten), wenn Sie AI bezogene Arbeit tun müssen, müssen wir Nvidia-Chips verwenden. Nvidia weit verbreitete Anwendung Chip, jetzt alle AI Software-Bibliotheken unterstützen die Verwendung von CUDA-Beschleunigung einschließlich Google Tensorflow, Facebook Caffe, Amazon MXNet, etc.

Jetzt liegt der Fokus der Industriedebatte auf der Frage, welche Prozessorarchitektur für AI-Chips, einschließlich GPUs, FPGAs, DSPs und ASICs, und noch mehr neuromorphe Chips der Spitzenklasse am besten geeignet ist - jetzt befindet sich die GPU in einer dominanten Position Die Prozessorarchitektur hat auch ihre eigenen Vorteile.

Intel ist eine Multi-Party-Wette, verpassen Sie keine Prozessor-Architektur: Googles riesige Investition in TPU (eigentlich ein ASIC) hat zu einer erheblichen Steigerung der Hardware-Performance geführt, es scheint, dass die Auswirkungen auf die GPU am größten sein werden Der Grund liegt nicht nur in den Effizienzvorteilen der dedizierten Architektur, sondern auch im Kostenvorteil des Geschäftsmodells.

In der Cloud haben sich internationale Giganten zum de facto ökologischen Vorreiter entwickelt, denn Cloud Computing ist das Schlachtfeld der Giganten - nun werden auch alle Open-Source-KI-Frameworks von diesen Giganten veröffentlicht - in einer solchen ökologisch soliden Umgebung will Huawei Nehmen Sie einen Anteil, Hauswolke AI-Chips wollen zu den Top Fünf avancieren, oder gar Nvidia herausfordern, es ist nicht einfach.

2016 GoodChinaBrand | ICP: 12011751 | China Exports