Es ist Zeit, ein Smartphone und kein Telefon anzurufen: Die Ära der mobilen KI ist angekommen

Liran Bar, CEVA Image und Computer Vision DSP Produktlinie, Direktor für Produktmarketing

Das neue iPhone X integriert eine neuronale Engine für die Gesichtserkennung, aber das ist erst der Anfang: Embedded Neural Engines und dedizierte intelligente Prozessoren implementieren künstliche Intelligenz (AI) auf Edge-Devices, wodurch die Abhängigkeit von der Cloud aufgehoben wird. Zu den Vorteilen der Edge-Verarbeitung gehören reduzierte Latenzzeiten, vollständige Netzwerkabdeckung, erhöhte Privatsphäre und Sicherheit sowie reduzierte Kommunikation mit der Cloud, was zu niedrigeren Kosten führt.Auf Grund dieser Vorteile können mobile Geräte künstliche Intelligenz nur in jüngster Zeit nutzen Szenen, die in Science Fiction erscheinen können.

Frühere Maschinen sind jetzt Echtzeit-Rechenzentren

Ich nahm gerade an unserem jährlichen Seminar teil und hatte die Gelegenheit, mich mit der KI-Technologie in der Embedded-Welt vertraut zu machen: Maschinen, die einst rein mechanisch waren, wie Autos, Drohnen und Roboter, werden jetzt schlau und haben Sichtbarkeit. B. Wahrnehmung, Verfolgung, Klassifizierung, Erkennung, Identifizierung usw. Diese Geräte verwenden nun Computer Vision und Sensorfusion, um Daten zu sammeln und zu verarbeiten und Entscheidungen in Echtzeit zu treffen.In einigen Fällen, wie beispielsweise fahrerlose Autos und Drohnen, Die Entscheidungsfindung ist von entscheidender Bedeutung, und Verzögerungen bei der Cloud-Verarbeitung können zu inakzeptablen Antwortzeiten führen, da diese Maschinen aufgrund der On-Chip-Intelligenz genauer als Rechenzentren definiert sind.

Die Marginalisierung von AI muss mit großen Informationsmengen in Echtzeit und mit geringem Stromverbrauch umgehen (Quelle: CEVA)

Ein fahrerloses Fahrzeug ist ein gutes Beispiel: Es benötigt eine große Anzahl visueller und anderer Sensoren, Satellitenpositionierungsinformationen und verschiedene Konnektivitätslösungen, es muss auch ein "Gehirn" haben, um die Datenfusion und -analyse zu vervollständigen Und Informationen spielen auch bei der Autopilot-Funktion eine Rolle, so dass ein On-Board-Prozessor Entscheidungen schnell treffen muss, denn auch in sporadischen Situationen ist es wichtig, das Fahrzeug gefahrlos zu betreiben Intensive Deep Learning-Berechnungen sind notwendig, keine optionale Funktion.

AI Edge Processing an Automobilen erfordert ein hohes Maß an On-Board-Intelligenz (Quelle: CEVA)

Neuronale Netzwerk-Edge-Verarbeitung wird zum Mainstream

Im Bereich der Smartphones ist Apple in der Regel ein Prüfstein für neue Funktionen, die als Mainstream- oder Nischenmarkt-Zubehör erforderlich sind.Mit der Markteinführung von Apples neuem Flaggschiff iPhone X ist eine spezialisierte neurale Engine in das Telefon integriert. Wie meine Kollegen vor der Veröffentlichung des neuesten iPhones vorausgesagt haben, bedeutet dies, dass jedes mit einer Kamera ausgestattete Gerät einen visuellen DSP oder einen anderen spezialisierten neuronalen Netzwerkprozessor enthalten wird Die neurale Engine im Spiel implementiert die Face-ID-Technologie und ermöglicht es den Benutzern, das Telefon zu sehen, um ihr iPhone zu entsperren.Die ultraschnelle Reaktionszeit sowie Datenschutz- und Sicherheitslevel erfordern, dass die gesamte Erkennungsverarbeitung auf dem Telefon durchgeführt werden muss AI-Fähigkeit, wird definitiv mehr aufregende KI-Funktionen starten.

Google hat seinem Flaggschiff-Handy, dem Pixel 2, durch einen Prozessor namens Pixel Visual Core ähnliche Funktionen hinzugefügt, die Google im hart umkämpften Smartphone-Segment unterscheiden muss. Eines ist die Einführung des Pixel-Smartphones mit der überlegenen Software auf der Kamera, aber die für Bilder erforderliche intensive Berechnung, die einmalige Hintergrundunschärfe und die dynamische Reichweite der Fotos verbessern die Funktionalität der Standard-Smartphones, die mit den meisten der heute führenden Smartphones ausgeliefert werden Das Gerät kann nicht effizient ausgeführt werden, daher entschied sich Google, diesen Funktionen einen zweiten Chip hinzuzufügen, der ein weiteres wichtiges Unterscheidungsmerkmal sein könnte, indem KI-Funktionen hinzugefügt wurden. Huawei kündigte kürzlich die Integration der neuralen Engine in Kirin 970 an Viele andere Unternehmen beteiligen sich auch am Wettbewerb.

Wie kann On-Chip-Intelligenz basierend auf visueller DSP-Engine realisiert werden?

Die Vorteile der Kantenverarbeitung liegen auf der Hand, stellen aber gleichzeitig eine Herausforderung dar. Die Herausforderung besteht darin, Datenoperationen, die auf gigantischen Servern ausgeführt werden können, in ein kleines Handheld-Gerät zu integrieren, während viele andere Verarbeitungsaufgaben Strom verbrauchen Aus diesem Grund ist visueller DSP entscheidend für die erfolgreiche Implementierung kantenbasierter KI-Verarbeitung, und die optimierte und effiziente, aber leistungsstarke Vektorisierung macht DSP-Prozessoren zur perfekten Wahl für die Ausführung von Arbeitslasten von neuronalen Engines.

Eine weitere Herausforderung besteht darin, ein bestehendes neuronales Netzwerk in eine eingebettete DSP-Umgebung zu migrieren, was viel Entwicklungszeit kosten kann, was sehr teuer sein kann, aber die automatisierte Toolchain kann "Schlüsseloperationen" und einen Service aus einer Hand unterstützen Bei der Netzwerkanalyse und -optimierung in eine eingebettete Umgebung ist es wichtig, dass ein solches Tool eine große Anzahl hochmoderner Netzwerke abdeckt, um sicherzustellen, dass jedes Netzwerk problemlos optimiert und auf eingebetteten Geräten ausgeführt werden kann.

Schneller RCNN - CEVA Kompletter automatischer Netzwerkgenerator zur effektiven Reduzierung der Bandbreite und Erhaltung der Bitgenauigkeit (Quelle: CEVA)

Nach der Transplantation und Optimierungsprozess abgeschlossen ist, hat in der Regel Eingabedaten an, mit einem minimalen Verlust von Informationen, um den Vorgang abzuschließen schnellen abgetastet wird. Zum Beispiel werden in dem Prozess RCNN (PDF) Schneller, wir zwei Verarbeitungsstufen haben, regionale Empfehlungen (Vorschlag Regionen) und klassifizieren Regionen.

Beispiel: Schnellerer RCNN-Verarbeitungsfluss (von: CEVA)

CEVA-XM Familie von Ultra-Low-Power-Prozessor visuellen DSP dazu ausgelegt ist, eine solche Arbeit durchzuführen, kann hinzugefügt werden, um die Leistung weiter zu verbessern, indem CEVA-CNN Hardware-Beschleuniger (HWA), das neuronale Netzwerk-Verarbeitungsbeschleunigung (z Faster RCNN). Aus Figur können wir sehen, dass wir der fünfte Generation Vision Prozessor CEVA-XM6 sind, im Vergleich zu der vorherige Generation der preisgekrönten CEVA-XM4 Performance wurde deutlich verbessert. in CEVA-CNN Performance Hardware-Beschleuniger ist ein wichtiger Schritt nach vorn in.

Leistung des FAST RCNN mit der CEVA-XM Vision DSP-Familie (Quelle: CEVA)

Tiefere Studie basierte auf künstliche Intelligenz unendlich viele Möglichkeiten für Handheld-Geräte bringt: Bildverbesserung, die durch DSLR-Bildqualität, verbessert und Virtual-Reality-Anwendungen, Umweltbewusstsein, Vermeidung und Navigation, Erkennung, Verfolgung, Identifizierung, Klassifizierung, Segmentierung, Kartierung, Positionierung, Videoverbesserung usw. Wir haben solche Power in unseren Handflächen, es sieht so aus, als ob die Anruffunktion des Smartphones unbedeutend ist.

AI-gestützte visuelle Intelligenzanwendung

2016 GoodChinaBrand | ICP: 12011751 | China Exports