Nandan Nayampally der Prozessor ist nun nicht nur mobile Geräte die Fähigkeit besitzen, auch sehr kleine Mikrocontroller (MCU), werden mit den Grund AI leistungsVerarbeitungsFähigkeiten versehen ist, wie beispielsweise der ARM-Cortex-M0, Arm Cortex-M3 Serie, jetzt können Sie Video- oder Sprechen Modelle für maschinelles Lernen im Hinblick auf die oben laufen.
Da mehr und mehr mobile Prozessoren mit KI-Funktionen oder -Features eingeführt werden, beobachtet er, dass es immer mehr AP-Anwendungsprozessoren gibt, die CPU- und GPU-Funktionen kombinieren und für AI-Operationen verschiedener Arten von Anwendungen verwendet werden. Zum Beispiel Objekterkennung, Spracherkennung oder Gesichtserkennung.Nicht nur diese Anwendungsprozessoren verwenden ARM-Architektur, viele intelligente Geräte mit KI-Fähigkeitenauf dem Markt haben auch ARM-Architekturen, wie zum Beispiel intelligente Sprachgeräte, intelligente Kameras oder Es ist ein Smart-TV und so weiter, sogar in der Cloud, sagte er, und jetzt ist seine Architektur auch in China, Japans Supercomputer für verschiedene Anwendungen verwendet worden.
Nandan Nayampally betonte, dass KI später auf mobilen Geräten immer beliebter wird. "Fast alle Geräte können implementiert werden." Für welche Art von KI-Anwendungen kann man darauf laufen, sagte er, es werde von der Hardware des Geräts abhängen Weitere Erklärungen, Machine Learning (ML) und AI, sind beide Software und werden auf Hardware ausgeführt.Wenn es sich um eine einfache AI-Anwendung handelt, müssen nicht zu viele Berechnungen durchgeführt werden.CPU oder GPU allein sind ausreichend, wenn hochkomplexe Operationen erforderlich sind Zu diesem Zeitpunkt ist es notwendig, Neural Network Accelerator zu verwenden, um Berechnungen für fortgeschrittene KI-Anwendungen zu beschleunigen.
Nandan Nayampally sagte, dass das Unternehmen in Zukunft die CPU weiter stärken wird.Die Verarbeitungsleistung von GPU im maschinellen Lernen oder KI wird der Designarchitektur nicht nur mehr Befehlssätze, Funktionen oder Werkzeuge hinzufügen, sondern auch maschinelles Lernen und sogar tieferes Lernen bieten. Unterstützung, aber auch durch die Software zur Optimierung der Planung, um eine effizientere Nutzung, zum Beispiel die kürzlich eingeführte Cortex-A76-CPU-Architektur, bei der Implementierung von Machine Learning-Aufgaben als die vorherige Generation A75 zu spielen 4x Leistungsverbesserung und zusätzlich ist die Mali-G76 GPU auch 3-mal effizienter als das G72.
Nicht nur die Chip-Entwicklung und Design in Verbindung mit AI, Arm in diesem Jahr begann auch neuronale Netzwerk-Beschleuniger zu konzentrieren, startete es Projekt Trillium neuen Architektur Machine Learning Prozessor (MLP) und Objekterkennung Prozessor (ODP) zwei neue IP-Serie, die früher veröffentlicht wird dieses Jahr ARM die neue künstliche Intelligenz (KI) Chip-Familie.
Die ehemalige verwendet wird, um die Lernmaschine zu beschleunigen, wobei jeder der Gleitkomma-Prozessorleistung bis 4.6Teraflops, sondern auch mehr Leistung, kann der Stromverbrauch Gleitkommaleistung erreicht wird 3Teraflops pro Watt. Latter beschleunigt Betrieb für Computer Vision im Vergleich zu herkömmlichen DSP digitalen Signal-ASIC, Leistungssteigerung bis zu 80-mal, und High-Definition-Video in Full HD zu 60 Bildern pro Sekunde verarbeiten kann.
Nicht nur das, Nandan Nayampally ist hinsichtlich der Anwendung der Objekterkennung in AR- und VR-Anwendungen ziemlich optimistisch, er sagte sogar, dass das Unternehmen Apical vor zwei Jahren als Technologieunternehmen mit Schwerpunkt auf Embedded-Computer-Vision- und Imaging-Anwendungen gekauft hat. Um seinen Einstieg in den AR- und VR-Gerätemarkt zu beschleunigen, sagte er, dass es neben den bereits bestehenden ARM-Produkten, die bereits Vision Computing (Vision Computing) unterstützen, Vision-Lösungen der nächsten Generation geben wird.