Layout-AI-Edge-Computing-Möglichkeiten | IP / Chip / Storage-Unternehmen haben ihre eigenen

AI raschen Anstieg der Analyse Cloud Computing hat sich auf einem Endgerät begonnen zu bewegen, ist es am Rand arbeitet, ist zwingend notwendig, dass die Entwicklung der Halbleiterindustrie viel Aufmerksamkeit und verschiedenen Bereichen der Industrie auch Schlüsselkomponenten / Technologien zu entwickeln, hetzen, und mehr werden die Technologie der Computex 2018 Lagerfeuer zeigen Gelegenheiten.

Künstliche Intelligenz (KI) die Entwicklung noch schneller und begann ein großer Schub in das Endgerät, Betriebsanalyse wurde von der Wolke Endknoten zu verschieben begonnen, Kanten Entwicklung Berechnung kann gesagt werden, dass die Halbleiterindustrie ist derzeit aktuelle Themen und die 2018 Taipei International Computer Show (Computex 2018) hat sich in allen Bereichen ausgezeichnet, wo die Industrie (wie IP, Chips, Speicher) Feuershow, neue Lösungen oder Marktlayoutplanung während der Ausstellung freigegeben hat.

Angreifende Kanten computing Marktbewegungen häufig Arm

Rene Haas (Bild 1), Präsident der Arm-IP-Produktgruppe, sagte, dass mit dem Boom im Internet der Dinge bis 2035 mehr als 1 Megawatt angeschlossener Geräte für Medizin, Automobil, Beleuchtung und Straßen zur Verfügung stehen. Das schnelle Wachstum der Anzahl der angeschlossenen Geräte wird auch zur kontinuierlichen Entwicklung von Terminals und Cloud-Computing führen.Intelected Computing wird weiterhin die neue Ära des Internets der Dinge vorantreiben, die AI-Revolution vorantreiben und Internet of Things intelligentes Computing allgegenwärtig machen.

Abbildung 1 Rene Haas, Präsident der Arm IP-Produktgruppe, sagte, dass der Boom im Internet der Dinge die Anzahl der angeschlossenen Geräte schnell erhöhen wird und die Zukunft des intelligenten Rechnens allgegenwärtig sein wird.

Als Reaktion auf diesen Trend, und für die Integration von Ökosystemen AI / maschinelles Lernen (ML) Anwendungen, Kalkül und Rahmen, und eine Kombination aus Software und Hardware-IP-Optimierung Produkten, die alle Arten von Geräten und Plattformen ermöglichen können die am häufigsten verwendeten Maschine-Learning Framework unterstützen, Arm vor kurzem angekündigt, die Einführung von drei neuen IP-Produkten, nämlich Cortex-A76 CPU, Mali-G76 GPU und Mali-V76 VPU, um das Spiel und AR / VR Erfahrung, AI und maschinelles Lernen. durch diese drei neuen Produkte zu verbessern Arm wird den Wettbewerbsvorteil des Unternehmens im Handlungsfeld weiter stärken und die Rechenleistung von mobilen Endgeräten wie Smartphones, Tablets, PCs nochmals steigern.

Arm, Vice President und General Manager der Kundenabteilung Nandan Nayampally (Abb. 2), sagte, dass die Zukunft 5G den gesamten Betrieb der industriellen Innovation vorantreiben wird, eine kommenden 5G Networking-Anwendungen, einschließlich VR, AI oder Handy-Spiele mehr Rechen Wachstum bringen in Zukunft wird es mehr unterschiedliche Rechen produzieren muss.

Abbildung 2 Arm, Vice President und General Manager der Kundenabteilung Nandan Nayampally wies darauf hin, 5G und AI wird der gesamte Betrieb der industriellen Innovation, Arm mit der Einführung der neuen IP-Produkte in Reaktion auf die Marktnachfrage treiben.

Nayampally wies außerdem darauf hin, dass das Spiel auch einen der Hauptfaktoren für den stetigen Anstieg des Mobile Computing darstellt: Die Spielindustrie ist zu einem der größten globalen Einnahmen der Welt geworden und soll bis 2018 137,9 Milliarden US-Dollar erreichen, was auch den Konsum ankurbelt. für diejenigen, die Rechenleistung verlangen.

Es wird berichtet, dass der Cortex-A76 auf der DynamIQ-Technologie von Arm basiert, die im Vergleich zu dem im letzten Jahr veröffentlichten Cortex-A75 eine um 35% und 40% höhere Leistung bietet und 4-mal mehr AI / ML auf dem Endgerät bietet. Rechenleistung für ein schnelles und sicheres Erlebnis auf PCs und Smartphones.

Das Mali-G76 liefert 30% mehr Leistung als die Vorgängergeneration Mali-G72 GPU und eine 30% ige Steigerung der Leistungsdichte, nicht nur um die Bedürfnisse der Verbraucher nach High-End-Spielen zu erfüllen, sondern auch Entwicklern mehr Performance-Platz zu bieten. Damit können sie mehr neue Anwendungen schreiben, mehr High-End-Spiele für mobile Anwendungen bereitstellen oder AR / VR in ihr Leben integrieren.

Schließlich wird, wie UHD 8K allmählich die Nachfrage steigt, um sicherzustellen, dass IP-Smartphones und anderen Geräte-Codec-Betrieb unterstützen kann, Arm wird Mali-V76 gestartet wird, unterstützt bis zu 8K Auflösung von 60 fps oder 60 fps vier von 4K-Video-Streaming, Verbrauchern die gleichzeitig vier 4K-Auflösung Filme streamen, Videoaufzeichnung in einer Videokonferenz oder 4K vier Spiele zu sehen, oder im Falle geringerer Auflösung, hochauflösende Standbildqualität (Full HD) zeigt, und kann bis zu 16 Streaming-Video-TV-Wand, bestehend aus 4 × 4 unterstützen.

Project Trillium debütiert, um den Aufbau des ML-Ökosystems zu beschleunigen

Zur gleichen Zeit, um die maschinelle Lernleistung des Endgeräts zu verbessern, hat Arm Anfang 2018 auch die Project Trillium-Plattform veröffentlicht, einschließlich der neuen ML-Prozessor-, Objektprozessor- und Arm-Neuralnetzwerk-Software (Arm). Im Vergleich zu unabhängigen CPUs, GPUs und Accelerators übertrifft die Project Trillium-Plattform bei weitem die programmierbare Logik traditioneller DSPs.

Jem Davies (Abb. 3), Vice President von Arm und General Manager der akademischen und maschinellen Lerngruppe, wies darauf hin, dass das Entwicklungspotenzial von Edge Computing sehr groß ist: Es gibt viele unabhängige Lösungen auf dem Markt, wie ASIC-Beschleuniger, CPU / GPU, usw. Terminalbetreiber Natürlich können Sie die gewünschte Lösung wählen, aber der Nachteil ist, dass Sie Zeit für die Integration von Hardware und Software (TensorFlow, Caffe) benötigen.

Abbildung 3 Arm Vice President, General Manager Jem Davies, General Manager der Academic und Machine Learning Group, glaubt, dass das Projekt Trillium voraussichtlich ein komplettes Ökosystem für das maschinelle Lernen für Endgeräte schaffen wird.

Davies zeigt, dass der Vorteil von Project Trillium in der Plattform-Architektur liegt: Die Hardware ist nicht nur mit ML Prozessor und Objects Processor verfügbar, sondern hilft auch neuronalen Netzwerken wie TensorFlow, Caffe und Android NN durch Arm NN Software zu vereinfachen. Link-Integration zwischen dem Framework und der Arm Cortex CPU, der Arm Mali GPU und dem maschinellen Lernprozessor.

Davies wies außerdem darauf hin, dass die Softwareintegration ein Schlüsselelement bei der Entwicklung von maschinellem Lernen ist.Viele Beschleuniger haben möglicherweise die Mittel, zugehörige Hardwareprozessoren (CPUs, GPUs) bereitzustellen, aber nur wenige Ressourcen können eine vollständige Plattformarchitektur bereitstellen, um Kunden bei Hardware und Software zu unterstützen. Das Projekt Trillium, das ML-Modelloperationen integriert oder verbessert, enthält den neuen Arm IP-Prozessor und neuronale Netzwerksoftware, die sowohl Hardware als auch Software den Anforderungen des heutigen Marktes gerecht werden und Arms dabei unterstützen, ein komplettes Edge-Computing-Ökosystem aufzubauen. .

Darüber hinaus stellte Davies auch fest, dass MCUs Nachfrage nach maschinellem Lernen ebenfalls sehr stark ist.Er zeigte, dass am ersten Tag der Einführung von Project Trillium, dem NN-Software-Entwicklungskit, mehr als 5.000 Benutzer mit CMSIS NN begannen. Versuchen Sie, maschinelle Lernalgorithmen mit Cortex-M zu implementieren.

Davies sagte, dass dieses Ergebnis tatsächlich über Arms Erwartungen hinausgeht und zeigt, dass die Bedürfnisse und Interessen der MCU-Benutzergruppe am maschinellen Lernen nicht ignoriert werden können, was Arm dazu veranlasste, diese Klasse im neuen Cortex-M-Kern weiter zu stärken. Die Effizienz der Kernimplementierung des ML-Algorithmus.

CMSIS NN ist eine Compute Library im Rahmen des Arm Neural Network Software Development Kit Arm NN SDK, das die Effizienz der Cortex-M-Ausführung von maschinellen Lernalgorithmen verbessert, sogar den vorhandenen Cortex-M-Kern in CMSIS NN Mit Hilfe dieser Funktion können Sie auch sehr einfache maschinelle Lerninterferenzen durchführen, beispielsweise die Bedeutung der Sensorausgabedaten interpretieren Da die Rechenleistung und der Speicherplatz der MCU nicht ausreichen, ist es natürlich nicht möglich, sehr komplexe maschinelle Lerninterferenzen durchzuführen. Wenn es sich jedoch um eine einfache Interpretation der Datenausgabe durch einen einzelnen Sensorknoten handelt, besteht immer noch die Möglichkeit, dies zu erreichen.

Davies wies darauf hin, MCU, wenn Sie nicht einige grundlegende ML-Algorithmen, KI-Anwendungen überall in der Zukunft ist schwierig, unterstützen kann jetzt durch künstliche Intelligenz Application Service Cloud-Rechenzentren zu erreichen, in der Tat, es gibt offensichtliche Einschränkungen gelten nur für die KI ständig Kante nach vorn, KI-Anwendungen werden immer beliebter zu machen. um MCU ML-Algorithmen zu machen in dem Arm Zukunft Produkt-Roadmap, die Cortex-M ML Ausführungseffizienz verbessert wird weiter ausgeführt effizienter werden.

Autopilot arbeitet auf der Kante zu einem integralen Hochleistungsprozessor

Auf der anderen Seite wird die Automobilindustrie auch in der Zukunft eines der Hauptanwendungsgebiete des Edge Computing sein: Nach der Prognose von Arm wird im Jahr 2020 im Durchschnitt ein Auto mit mehr als 200 Sensoren und mehr als 100 Motorcontrollern ( ECU) oder Mikrocontroller (MCU) verarbeiten, wie schnell solche riesigen Daten verarbeiten, in Echtzeit reagieren und die Stabilität und Sicherheit des Systems erhalten und autonome Fahrzeuge schaffen, die die Bedürfnisse der Benutzer erfüllen, wird der zukünftige Markt für Automobilelektronik werden Eine große Herausforderung.

John Ronco (Bild 4), Vice President von Arm und Vice President der Business Unit embedded and automotive, wies in diesem Zusammenhang darauf hin, dass der zunehmende Einsatz von Edge-Computing keine großen Datenmengen an die Cloud zurückgibt, sondern eine allgemeine CPU oder Maschine darstellt. Lernchips erfordern eine höhere Rechenleistung. Aus diesem Grund hat Arm das Projekt Trillium und Cortex-A76 eingeführt, und diese Produkte eignen sich auch sehr gut für elektronische Bauteile von Automobilen.

Abbildung 4 John Ronco, Vice President und General Manager der Business Unit Embedded und Automotive, sagte, dass CPUs, GPUs und andere Prozessoren effizienter sein müssen, um auf die Notwendigkeit automatischer Fahrsicherheit reagieren zu können.

Um ein automatisches Fahren zu erreichen, wird ein Auto zusätzlich zu Radar und Licht oft mit einem visuellen Sensor ausgestattet und benötigt daher eine höhere GPU, um mit der riesigen Bildoperation fertig zu werden.

Laut Ronco besteht der Unterschied zwischen Visual-Computing-Anforderungen für autonomes Fahren und allgemeinen IP-Netzwerkkameras darin, dass IP-Netzwerkkameras hauptsächlich Einzelobjektive sind und sich nicht oft bewegen, normalerweise in einer Ecke des Hauses / außerhalb Es werden mehrere fotografische Objektive benötigt, um die Straßenbedingungen und die Umgebung zu erkennen.Die empfangenen Bildinformationen sind sehr groß, und da sich das Auto ständigbewegt, verändert sich die Umgebung ständig, was die Operation kompliziertermacht, so dass sie verbessert werden muss. Lösung.

Ronco zufolge werden Objekterkennungsprozessoren wie Project Trillium hauptsächlich für IP-Netzwerkkameras eingesetzt, um den Anforderungen des visuellen Computing im Automobil gerecht zu werden, ist es für eine höhere Rechenleistung notwendig, auf effiziente GPUs wie den Mali-G76 zu setzen. Um schnelle Unfälle bei schnellen Umweltveränderungen während der Fahrt zu vermeiden.

Alles in allem hat die AI-Ära neue Geschäftsmöglichkeiten in verschiedene Anwendungsbereiche gebracht, und Edge Computing wird auch in der Automobilindustrie Einzug halten.Um Edge Computing in Automobile zu integrieren, müssen höhere Technologien eingebettet werden, um eine bessere Leistung zu erzielen. Leistung, macht das Auto intelligenter, sicherer und effizienter.

Drive Storage benötigt WDC hat einen One-Stop-Produktionsvorteil

Arbeitet am Rande steigt, nicht nur den Prozessor veranlasst, die Leistung zu erhöhen, gefolgt werden, auch den Laden auch steigende Nachfrage gefolgt, die Storage-Industrie und damit das Tempo der Produktplatzierung. Christopher Bergey (Abbildung 5), Vice President von Embedded-Anwendungen, Western Digital Solutions Division wies darauf hin, dass der Rand Betrieb Technologie wie maschinelles Lernen macht Lagerung und Betrieb ziemlich kompliziert.

Abbildung 5 Christopher Bergey, Vice President der Western Digital Embedded Applications Solutions Gruppe, erklärte, dass das One-Stop-Produktionsmodell des Unternehmens im Einklang mit dem Edge Computing-Markt einen Wettbewerbsvorteil darstellt.

Bergey stellte weiter fest, dass Edge Computing unterschiedliche Anforderungen an Speicherprodukte mit unterschiedlichen Anwendungsszenarien haben wird, wie z. B. besonderes Augenmerk auf Temperatur und Zuverlässigkeit in Automobilen zu legen und in den letzten Jahren Kosten und stabile Versorgungsüberlegungen für fünf Jahre zu berücksichtigen; Bei der Anwendung von Mobilgeräten, beispielsweise am Beispiel von Smartphones, verlangen Verbraucher zunehmend nach Fotos, und die Pixel von Fotos werden verbessert.Infolgedessen muss die Speicherkapazität von Mobiltelefonen erhöht werden, und die Nachfrage nach Edge-Speicher wird größer werden. Infolgedessen hat auch die Leistung von verwandten Embedded Flash (EFD) -Produkten zugenommen.

Als Reaktion auf diesen Trend, wie Western Digital neue iNAND-Produktfamilie starten --iNAND8521 / iNAND7550, das 64-Schicht 3D-NAND-Technologie und fortschrittlichen UFS und e.MMC Schnittstelle des Unternehmens verwendet wird, ein bessere Leistung und große Datenspeicherkapazität bereitstellt Für Smartphones und dünne und leichte Computergeräte beschleunigen diese beiden Produkte datenzentrische Anwendungen, darunter Augmented Reality (AR), hochauflösende Videoaufnahmen, Erfahrungen mit sozialen Medien und Der jüngste Aufstieg von KI und das Internet der Dinge haben Erfahrung.

Bergey enthüllte, dass der zukünftige Entwicklungstrend der mobilen Geräte zweifellos zu einer höheren Leistung führen wird: Nach der Einführung der 5G-Generation werden die Daten schneller und schneller übertragen und es werden mehr innovative Anwendungen hinzugefügt. Mit dem Anstieg von AI, wenn beide kombiniert werden, Die Nachfrage nach Workloads wird ebenfalls steigen, und die Speicherkapazität wird zunehmen.Das Unternehmen wird auch weiterhin eng mit Mobilfunkbetreibern zusammenarbeiten, um die richtigen Produkte für ihre Bedürfnisse bereitzustellen.

Bergey wies auch darauf hin, dass das Unternehmen als Reaktion auf die Entwicklung von Edge Computing einen sehr guten strategischen Vorteil hat, da WDC eine komplette Produktlinie (von Low-End-Produkten bis zu Hochleistungsprodukten) hat und WDC eine One-Stop-Produktionsstrategie darstellt. Sie sind alle von Wafern, Controllern, Firmware und Software verantwortlich und können Produkte für Marktveränderungen schnell auf den Markt bringen oder die Anforderungen der Kommerzialisierung von Geräten erfüllen. Habe den Vorteil.

NXP arbeitet mit Partnern zusammen, um die Entwicklung sicherer Kantenlösungen zu beschleunigen

Was NXP anbelangt, ist es sicher, mit Öko-Partnern wie NEXCOM, IMAGO, Accton Technology, Shenzhun Technology usw. zu beginnen, um die Edge-Computing-Sicherheitsinfrastruktur gemeinsam zu implementieren, aufstrebende KI zu unterstützen und am Rande verbundene Computer. Lernen und Sicherheits-Edge-Processing in der Cloud.

Die Hersteller kollaborativer Systeme werden Produkte entwickeln, die auf den NXP-Familien Layerscape und i.MX Anwendungsprozessoren basieren, um die Anforderungen einer Vielzahl von Anwendungen zu erfüllen, die native Verarbeitungsleistung und Cloud-Konnektivität erfordern. Ein perfektes Gleichgewicht zwischen Fähigkeiten, Online-Fähigkeiten und Speicherkapazität, geeignet für Unternehmen und industrielle Umgebungen.

, Sie können eine Vielzahl von Anwendungen, die auf dem Rand einer gemeinsamen Cloud-Infrastruktur durch Technologie und NXP EdgeScale Kubernetes Docker und Open-Source-Software, einschließlich Amazon Web Services (AWS), Greengrass, Google Cloud IoT, Microsoft Azure IoT, Ali Baba und privat durchführen Cloud-Architektur.

NXP erwähnt, EdgeScale ist eine Suite von Cloud-Service und Geräte umfassen, Secure Computing Ressourcen Einsatz am Netzwerkrand durch das Produkt vereinfacht werden können, während NXP mit diesen Partnern zusammenarbeiten, um für die Vernetzung und interne Unternehmensumgebungen (On-Premises Berechnung) Plattform mit Skalierbarkeit, Sicherheit und einfache Bereitstellung für die sichere Bereitstellung und Verwaltung.

Tareq Bustami, Senior Vice President und General Manager der Digital Networks Group von NXP, sagte, dass der Aufbau von sicheren Edge-Lösungen entscheidend für die erfolgreiche Entwicklung des Internet der Dinge und der Industrie 4.0 sei und dass das Unternehmen mit einer breiten Palette von Geräteherstellern zusammenarbeiten will. Unterstützung von Cloud-basierten Secure-Edge-Computing-Lösungen Durch die Zusammenarbeit wird das Unternehmen dabei helfen, intelligentere, funktionalere Edge-Lösungen einzuführen und leistungsstarke Sicherheitsfunktionen für die großflächige Bereitstellung und Verwaltung hinzuzufügen.

Zusammenfassend lässt sich feststellen, dass IP-Anbieter, Speicheranbieter oder Chip-Anbieter den Markt für Edge-Computing aktiv nutzen und jeweils eine offene Plattform und Hardware-Architektur entwickeln, die es AI ermöglicht, verschiedene Endgeräte zu betreten Konstruieren Sie einen gesunden ökologischen Kreis.

2016 GoodChinaBrand | ICP: 12011751 | China Exports