Mit der rasanten Entwicklung von Technologien wie Künstliche Intelligenz (AI) und Edge Computing (Edge Computing) in den letzten Jahren werden verschiedene Unterhaltungselektronik und Haushaltsgeräte, die in dem Konzept von Smart Home enthalten sind, einen revolutionären Wandel erfahren. Ein aus Heimgeräten bestehendes Netzwerk künstlicher Intelligenz kann ein weiteres Familienmitglied werden, das man nicht sehen kann.Das Konzept der lokalen Cloud und der zugehörigen Ausrüstung wird ein unverzichtbares Element bei der Implementierung eines Heimnetzes für künstliche Intelligenz sein.
Intelligenter Lautsprecher / Überwachung wird zu zwei Hauptspindeln der Verbraucher-KI
Ronan de Renesse, Forscher am Forschungsinstitut Ovum, verantwortlich für die Entwicklung der Verbrauchertechnologie (Abbildung 1), erklärte, dass die Anwendung von KI in der Unterhaltungselektronik in den letzten zwei Jahren häufig in den Fokus der Medien gerückt sei. Es entwickelt sich erst jetzt. In den nächsten drei bis fünf Jahren werden viele Produkte der Unterhaltungselektronik die KI-Funktionalität tragen und miteinander zu einem Heimnetzwerk für Künstliche Intelligenz verbinden.
Abbildung 1 Ronan de Renesse, Forscher für Verbrauchertechnologie bei Ovum, glaubt, dass verschiedene elektronische Geräte in der zukünftigen Familie ein unsichtbares Familienmitglied werden.
Für die Hardware-Industriekette wird dieser Trend sicherlich viele neue Geschäftschancen eröffnen, aber auf einer höheren Ebene wird das Netzwerk künstlicher Intelligenz, das heimlich angezapft wurde, eine andere "Familie", die Sie nicht sehen können. Mitglieder. "
Auf der Hardware-Seite ist die bekannten Smart-Lautsprecher, im Grunde ein relativ ausgereiftes Produkt, obwohl es eine deutliches Wachstum in Umsatz sein wird, aber wachsende Stärke wird in den nächsten fünf Jahren allmählich verlangsamen. Wenn die geschätzten 2.022 globalen Smartphone-Lautsprecher die Verkäufe belaufen sich auf fast $ 9,5 Milliarden. in der Tat glaubt Renesse, dass Amazon (Amazon) mit Google wird wahrscheinlich nicht seine eigene Marke von Smart-Lautsprechern in der Zukunft starten, weil das Produkt selbst nicht solche Gewinnmargen ist, diese beide Für Hersteller von Heimnetzwerken können Hardware-Hersteller, solange sie ihre Plattformdienste nutzen, die benötigten Benutzerdaten sammeln.
Im gleichen Zeitraum, Veränderungen in der Heimat intelligente Überwachungssysteme solcher Produkte wäre deutlicher als intelligente Lautsprecher stellen die so genannten Smart-Home-Monitoring-Produkte in der Tat nicht Komponente mit künstlicher Intelligenz, sondern die Kameras, Alarmanlagen, Schlösser, Sensoren und andere Hardware Produkt miteinander verbunden, um eine Unterstützung ereignisgesteuerte Sicherheitssystem (Ereignisauslöser) Funktion zu bilden. aber als zugehörige Hardware und Software-Technologie hat immer ausgefeilter, der Anteil der zukünftigen Kameras Hausüberwachung mit künstlicher Intelligenz ausgestattet wird immer hoch, aber auch mehr zu erreichen Anwendungen wie die Verwendung von Sprachassistenten bieten mehreren Benutzern in einer Umgebung mit mehreren Benutzern genauere Dienste.
Verbraucherschutz für KI-Apps
Für die Hardware-Industrie ist jedoch am bemerkenswertesten, dass das Konzept der lokalen Cloud und der damit verbundenen Anwendungsprodukte aufgegriffen wird, da Geräte im Haushalt allgemein die KI unterstützen. "Renesse wies darauf hin, dass die mit KI-Funktion ausgestatteten elektronischen Produkte Produzieren eine große Menge von Benutzerdaten, und viele von ihnen sind Daten im Zusammenhang mit der Privatsphäre.Wenn daher diese mit künstlicher Intelligenz ausgestatteten Home-Electronic-Produkte vollständig auf die externe Cloud zu betreiben, wird es offensichtlich Datenschutz Bedenken.
Auf der anderen Seite, viele Funktionen relativ einfache Dinge Consumer-Geräte, durch elektrische Leistung, Rechenleistung, die Kosten der Produktion und anderen Bedingungen, AI nicht in der Lage sein, sehr High-End-Algorithmen zu unterstützen. Zu diesem Zeitpunkt wird das lokale Cloud-Gerät der Rolle des Gehirns spielen, Bestellen Sie diese Geräte einheitlich.
Renesse räumte jedoch auch ein, dass es immer noch schwierig sei zu behaupten, welches Gerät ein lokales Cloud-Center spielen würde: Es könnte ein intelligenterer Lautsprecher höherer Ordnung sein, es könnte sich um Smart-TV oder andere Produkte handeln.
Arm Senior Marketing Director Ian Smythe (Abbildung 2) ist ferner die Auffassung, dass es mehr und mehr glaubt, dass die Zukunft der Rechen- und Inferenz (Inference) Motor, das Terminal zu bewegen. Dies zu einem Transfer treibender Kraft geführt, es ist die Privatsphäre des Benutzers zu schützen Daten. durch End-Verarbeitung und Analyse können leicht anonym sein, und um sicherzustellen, dass sensible Daten nicht über das Netzwerk zugänglich gemacht werden. Familie Anwendung, zum Beispiel, die Verbraucher wollen, dass jemand aus dem Netzwerk nicht gelernt, dass seine Familie nicht tat Leute Zeit und dann leicht zu Hause zu stehlen.
Abbildung 2 Ian Smythe, leitender Marketingleiter bei Arm, sagte, dass für Anwendungen der Verbraucher-KI die Frage, ob der Datenschutzmechanismus zuverlässig ist, der Schlüssel zur Verbreitung der Anwendung sein wird.
Für Vision-Anwendungen, glaubt Smythe, dass die visuelle Erkennung Unterstützung Kamerafunktionen einige wichtige Fragen der Privatsphäre in der Natur zu betrachten. Offensichtlich müssen diese Geräte so ausgelegt sein, dass unabhängig davon, wann das Gerät gespeichert oder in die Cloud übertragen wird, die schützen Privatsphäre und sensible Informationen. Da die Übertragung in der Regel drahtlos verbunden ist, müssen Sie sorgfältig auf die drahtlose Übertragung Sicherheit zahlen. Ingenieure Design des Gerätes muss die Netzverbindungseinrichtung nicht gehackt werden, beobachten sicherzustellen, dass.
Die Batterielebensdauer bleibt die größte technische Herausforderung
Jedoch an den Rand des AI-Knoten, die größte technische Herausforderung ist nach wie vor dem Stromverbrauch des Systems. Um Verbraucher Überwachungskameras, zum Beispiel Verbraucher erwarten können diese Produkte vollständig drahtlos sind, ist es am besten nicht zu, auch Stromleitungen dies bedeutet, dass diese Produkte müssen batteriebetrieben, sondern auch unterstützen drahtlose Netzwerk sein. außerdem sollte es in der Lage sein, alle Elemente zu identifizieren, und die Notwendigkeit einer unbegrenzten Speicherplatz.
Above verlangt ein hohes Maß an Herausforderungen für System-Design, kann es mehrere Monate erfordert kontinuierlich geladene Batteriekapazität von Maschine laufen diese extremen Fälle von Chip-Design und Systemkomponenten Lernen (ML) und die fortgesetzte Fähigkeit, Dateien in dem Cloud-Speicher zu laden recht hohe Anforderungen, was am wichtigsten ist, haben sie die Choreographie gemeistert, wenn diese Funktionen zu aktivieren, die Lebensdauer der Batterie zu verlängern.
Mit Home-Monitoring-Kamera, ist eine Videokamera nicht 24 benötigt Stunden Transfer leeren Raum, laden Sie einfach das Bild des Teils ist nur dann sinnvoll, wenn es nicht bestätigte Identität der Menschen gibt. Und in dem Fall, wie die Verfügbarkeit der gleichen Szene ermöglichen ML-Algorithmus ist nicht sinnvoll. sorgfältige Arrangements, wo, wenn diese Funktionen zu aktivieren, sein, um in der Betriebsart nur zwei AA-Batterien erwartet Consumer-Geräte zu machen, kann langfristige normaler Gebrauch.
Da der Stromverbrauch eines der Haupthindernisse für KIs beim Eintritt in Endgeräte ist, sehen viele Startups auf dem Markt nun die Möglichkeit, einen leistungsschwachen neuronalen Netzwerkbeschleuniger (NN), das geistige Eigentum an Silizium, zu entwickeln, um den Chip zu unterstützen. Während der Stromverbrauch reduziert wird, können die Entwickler die von der Algorithmus-Inferenz benötigte Leistung erbringen.Kneron hat offiziell seine NPU-Serie veröffentlicht, einen speziellen Prozessor für künstliche Intelligenz, der für Endgeräte entwickelt wurde. Diese Serie umfasst drei Produkte, nämlich die Ultra-Low-Power-Version KDP 300, die Standardversion KDP 500 und die Hochleistungsversion KDP 700, die die Anforderungen von Smartphones, Smart Home, Smart Security und einer Vielzahl von IoT-Geräten erfüllen. Die gesamte Produktreihe zeichnet sich durch geringen Stromverbrauch, geringe Größe und leistungsstarke Rechenleistung aus.Im Gegensatz zum Energieverbrauch des Prozessors für künstliche Intelligenz auf dem Markt verbraucht der Kneron NPU IP 100 Milliwatt. (mW) -Klasse, für die KDP 300 für Gesichtserkennung für Smartphones, verbraucht weniger als 5 Milliwatt.
Shi Yalun, Marketing- und Anwendungsmanager für Endurance-Produkte (links in Abbildung 3) wies darauf hin, dass die Notwendigkeit, künstliche Intelligenz auf dem Endgerät zu betreiben und gleichzeitig den Stromverbrauch und die Leistungsanforderungen zu erfüllen, oberste Priorität hat. Gegenwärtig kann die Anwendung von künstlicher Intelligenz grob in zwei Hauptkategorien unterteilt werden: Sprache und Video, und die verwendete neurale Netzwerkstruktur ist unterschiedlich Der Schwerpunkt von Sprachanwendungen ist die Analyse natürlicher Sprache Die gängige Netzwerkarchitektur ist das rekurrente neuronale Netzwerk (RNN). Die Hauptnetzwerkstruktur, die für die Bildanalyse verwendet wird, ist das faltungsneurale Netzwerk (Convolutional Neural Network, CNN) .Um für unterschiedliche Netzwerkstrukturen zu optimieren, ist die Lösung, die durch die Fähigkeit bereitgestellt wird, unterschiedlich.
Shen Ming-feng (Abbildung 3 rechts) trägt den Software-Design-Manager ergänzen, obwohl geringere Nachfrage nach natürlicher Analysechip Rechenleistung Sprache, sondern auch wegen des Tons der Sprache, Sprachgewohnheiten eine große Diskrepanz haben, und daher erforderlich, dass der Modell Trainingsdatensatz Weit mehr als Video-Erkennung, auf der anderen Seite, weil Verbraucher bereits gewohnt sind, Cloud-basierte Sprachassistenten wie Apple Siri und Google Assistant zu verwenden, werden offline semantische Analyse-Anwendungen von den Verbrauchern bevorzugt. Die Voraussetzung dafür ist, dass wir unter begrenzten Computerressourcen eine ähnliche Konsumentenerfahrung bieten müssen, eine Herausforderung für Chiphersteller und Systementwickler.
3 Bären können Marketing- und Produktmanager Shiya Lun (links) glaubt, dass Stimme mit Bilderkennung sind sehr unterschiedlich in der Natur, müssen verlassen sich auf verschiedene Lösungen anwenden zu erfüllen. Shen Ming-feng ist die richtige Software resistentes Design Manager sein kann.
In der Tat, die große Mehrheit der Smart-Lautsprecher sind immer noch nicht Edge-Computing-Produkte.Allen Aaron wies darauf hin, dass, ob es Amazon Echo, Apples Homepod oder Baidu, intelligente Lautsprecher Alibaba Plattform, immer noch müssen Daten zurück in die Cloud für die Verarbeitung mit semantischer Analyse, um den Benutzer zu reagieren. Sprachbedienung direkt am Endprodukt durchgeführt werden kann, im Grunde der meisten Regeln angenommen Modus (regelbasierte) und nicht auf der Grundlage des natürlichen semantische Verständnis des maschinellen Lernens.
Seit 2016 trägt das Unternehmen des ersten Endgerät spezifische AI Prozessor NPU IP kann starten, hat weiterhin das Design und Spezifikationen zu verbessern und für verschiedene industrielle Anwendungen optimiert. In derzeit an Kunden in der IP beginnen, KDP 500 Pflanzen Kunden mit dem System wurden und werden im zweiten Quartal Fertigung (Mask-Tape-out). Spracherkennung mit Suchhunden Zusammenarbeit erreichte offline semantische Analyse, also auch in der Massenproduktion, wenn das Endgerät nicht mit dem Netzwerk verbunden ist, sondern auch Kann die Sprachanweisungen des Benutzers verstehen.
Kneron NPU IP ist künstliche Intelligenz-Prozessor für das Endgerät gewidmet ist so ausgelegt, dass das Endgerät in einer Offline-Umgebung, können Sie RESNET laufen, YOLO andere tiefe Lernnetzwerk. Kneron NPU ist eine komplette End-AI Hardware-Lösungen, einschließlich Hardware IP, Compilers (Compiler) und Kompressionsmodell (Modell Kompression) drei Teile, können eine Vielzahl von Mainstream neurale Netzmodelle, wie RESNET-18, RESNET-34, Vgg16, GoogleNet und Lenet sowie Mainstream Support tief Lernen unterstützen Rahmen, einschließlich Caffe, Keras und TensorFlow.
Kneron NPU IP Leistungsaufnahme 100 mW Niveau, Ultra-Low-Power-Version des KDP 300 oder sogar weniger als 5 mW, vollständige Palette von Produkten in der Leistung pro Watt 1,5 TOPS / W oder mehr, die Verwendung einer Reihe von exklusiver Technologie, kann es treffen Chip-Anbieter, Netzbetreiber müssen für Low-Power, hohe Rechenleistung.
Die Grundelemente des Schlosses sind nicht von Technologie-Hardware-Beschleuniger Iteration Angst
Die Aushärtung (fest verdrahtete Schaltung) die Effizienz bestimmter Rechenaufgaben zu verbessern, Stromverbrauch, Chip-Design für Alter reduziert, aber auf Kosten einer geringeren Flexibilität in der Anwendung, wesentlicher Änderung bei der Nachfrage am Markt für Chip-Funktionen oder signifikant überarbeitete Software-Algorithmen, Chip-Designer haben einen neuen Chip neu zu entwickeln.
Im Fall der Nachfrage nach Chip Funktion ist im Grunde angesiedelt, und dieser Entwurf ist kein Problem, aber in den neu entstehenden Technologien schneller iterativer Techniken, nehmen Sie diesen Design-Ansatz, es wird ein relativ großes Risiko im Geschäft künstliche Intelligenz ist sehr schnell qualifizierte Iteration, fast jedes Jahr ein neuer Algorithmus mit dem Modell zur Verfügung. Öffnen Sie AI Forschungsunternehmen auch, dass 6 Jahre in den letzten wies darauf hin, AI Trainingsmodell zur Berechnung von Energiebedarf jedes 3,43 pro Monat erhöhen Zeiten.
In diesem Zusammenhang wies Shen Ming-feng aus, ist nicht unbedingt ein Hardware-Beschleuniger nicht elastisch ist. Beständig gegen Energieprodukte, zum Beispiel in der Architektur verwendet das Unternehmen Faltungskern Split (Filter Zersetzung) Technologie, die großen Faltungskern Faltung eine Vielzahl von kleinen Blöcken Berechnung getrennt in einen Faltungsberechnungsblöcke unterteilt, dann kombiniert rekonfigurierbaren Hardware-Beschleunigung Faltung (Konvolution rekonfigurierbaren Beschleunigungs) -Technik, die Faltungsoperationsergebnis der Operation eine Vielzahl von kleinen Blöcken verschmolzen sind, um die gesamte zu beschleunigen Operative Effizienz.
Gleichnisse leichter zu verstehen, wie Legosteine können in eine Vielzahl von Mustern kombiniert werden, um ein Objekt zu bauen, aber das Objekt selbst ist immer noch ein ganzer Stapel aus wenige Grundfeld. Resistance Energieprogramm für KI-Algorithmen ist unverzichtbar Die Grundelemente werden beschleunigt, um die Ausführungsleistung des gesamten Algorithmus zu verbessern, selbst wenn der AI-Algorithmus mit einer sehr hohen Geschwindigkeit aktualisiert wird, kann die leistungsbasierte Lösung dennoch einen Beschleunigungseffekt ausüben.
Neben den Beschleuniger selbst für die Grundelemente ausgebildet ist, sondern als ein spezifischer Algorithmus den äußereen Gesamtwiderstand zu beschleunigen, kann auch Beschleunigungstechniken und Anwendungen von AI oder eingesetzt werden, wie zum Beispiel ihres Modell Kompressionsmodell (Model Compression) Kompressionstechnologie nicht optimiert bereitzustellen setzen die Anzahl der Male, hierarchische Speicherspeicher-Technologie (Multi-Level-Caching) kann die CPU-Last verringern und die Menge der Datenübertragung, reduzieren, um die Gesamtbetriebseffizienz Zusätzlich zu verbessern, Kneron NPU IP Kneron Bilderkennungs-Software kombiniert werden kann, bietet Echtzeit-Identifikationsanalyse und schnell. Die Antwort ist nicht nur stabiler, sondern erfüllt auch die Sicherheits- und Datenschutzanforderungen.Weil Hardware und Software eng integriert werden können, ist die Gesamtlösung kleiner und der Stromverbrauch ist geringer, um die schnelle Entwicklung von Produkten zu unterstützen.
Die Bilderkennung AI ist zum Rand hin dringender
Insgesamt ist die aktuelle Nachfrage am Markt für die Bilderkennung dringlicher, offline semantische Analyse, obwohl es intelligente Lautsprecher dieser großen potenziellen Markt-Anwendungen sind, aber diese Wette, aber weniger Industrie-Ressourcen. Der Hauptgrund für dieses Phänomen, dass das Bild Die Übertragung beansprucht eine große Bandbreite, was wiederum die Gesamtbetriebskosten des Systems erhöht. Voice hat dieses Problem nicht.
Andes Technologie General Manager Lin Zhiming (Fig. 4) in der Künstlichen Intelligenz und der Prozess der Bindung Dinge beschrieben, wird die Nachfrage-Computing-Technologie eingeführt Kanten Rand-Computing-Technologie vorantreiben zu einer Vielzahl von neuen Anwendungen angewandt werden, in Unter diesem Trend stellen Flexibilität und Schnelligkeit die größten Vorteile für taiwanesische Hersteller dar. Für die meisten taiwanesischen Unternehmen und IC-Design-Unternehmen ist es einfacher, vom Markt aus in den Markt für künstliche Intelligenz einzusteigen.
Abbildung 4: Zhixin Lin, General Manager von Jingxin Technology schätzt, dass IP Cam eine der Hauptanwendungen für die Durchführung von KI-Inferenzen auf Edge-Geräten sein wird.
Gleichzeitig werden durch die Einführung der Edge-Computing-Technologie auch die Hardware-Anforderungen wie Speicher und Übertragung erhöht, was die Herstellungskosten erheblich erhöhen wird.Da das bildbezogene System-on-Chip (SoC) ursprünglich komplexer ist als andere Anwendungen, Die Kostentoleranz ist ebenfalls groß, so dass erwartet wird, dass die Edge-Computing-Technologie als erste von bildbezogenen Anwendungen wie IP-Cam importiert wird.
Künstliche Intelligenz Anwendungen können in Training und Identifizierung unterteilt werden.In den massiven Computer-Prozess des Deep Learning, Cloud-Computing wird immer noch in einer kurzen Zeit durchgeführt.Die Aufgabe, die die Edge-Computing ist verantwortlich für die gesammelten Informationen zuerst. Die anfängliche Verarbeitung, nachdem unwichtige Informationen ausgefiltert wurden, lädt die Daten in die Cloud, um die Übertragungskosten zu sparen, andererseits kann das tiefe Lernen, das von der Cloud durchgeführt wird, auch die Identifizierungsfunktion des Terminals intelligenter machen. Zum Beispiel kann die Arbeit des Bildtieflernens zuerst durch Cloud Computing vervollständigt werden: Nachdem der Standby-Lerner den Fußgänger erkannt hat, kann die IP-Kamera am Rand nur die Identifikationsarbeit durchführen.
Auf der anderen Seite sind die Regierung und die Unternehmen relativ bereit, Investitionen zu unterstützen, da IP Cam in der Sicherheitserhaltung und der Sicherheit der Gemeinschaft weit verbreitet ist. Dies wird auch ein Grund für die schnelle Entwicklung von IP Cam sein.
Lin Zhiming Aktie, viele Hersteller tastend, wie künstliche Intelligenz Chip in ihr eigenes System zu importieren. Die aktuelle Situation ähnlich ist, wenn die Dinge begannen gerade zu blühen, erforschen wir noch, wie die Schnitte anzuwenden, bei rund 2020 Herstellern geschätzt Wird mehr aktuelle Produkte auf den Markt bringen.
Echtzeitanwendungen müssen eine Edge-Computing-Architektur verwenden
Künstliche Intelligenz ist ein heißes Thema heute, die von der Cloud-Computing-Architektur an den Rand-Computing-Architektur nach und nach übertragen wird keine geringe Auswirkungen auf die Supply-Chain-Hersteller bringen. Trotz der kurzen Zeit entwickeln wird künstliche Intelligenz-basierte Cloud-Computing, Jedoch werden viele künstliche Intelligenzfunktionen in Bezug auf Bildverarbeitungsanwendungen beginnen, Kanten zu importieren.
Xilinx Development Director (Xilinx) visuelle Intelligenz Strategie Markt Dale K. Hitt (Abbildung 5) wies darauf hin, dass in absehbarer Zeit AI Entwicklung Training Komponenten nach wie vor von Cloud Computing dominiert werden. Doch die Schlussfolgerung / Bereitstellen von Komponenten hat begonnen Verwenden Sie Edge-Operationen, um Anwendungen zu unterstützen, die eine niedrige Latenz und Netzwerkeffizienz erfordern.
Abbildung 5 Dale K. Hitt, Leiter der Marktentwicklung für die Xilinx Visual Intelligence-Strategie, ist der Ansicht, dass Edge-Operationen für Anwendungen, die eine sehr geringe Latenz erfordern, die beste Lösung darstellen.
Für Rand Operand Element für Anwendungen, Machine-Vision für das Lernen im Zusammenhang, wird eine der kritischen und weitreichende Trend sein. Und in der industriellen Bildverarbeitung, intelligente Städte, die visuelle Analyse und Selbstfahrer-Markt hat eine starke Potenzialwachstum. in Bezug auf den wirtschaftlichen Vision und Consumer-Anwendungen aufgrund der arithmetischen Randes Maschine Lernalgorithmen ausgeführt wird, werden so zu den Leistungsanforderungen auch höher sind als die bisherigen vielen Programme Generationen. zusätzlich Ränder Maschine Lernalgorithmus / Funktion auch schnell wurde weiterentwickelt, und daher alle Bereiche des Lebens Benötigt selbstadaptive Hardware zur Optimierung zukünftiger Machine-Learning-Inferenzarchitekturen.
Hitt verwendet selbstfahrende Autos als Beispiel: Hinter jedem Sensor im Auto gibt es eine präzise Algorithmusunterstützung, die aus den Sensordaten die Ergebnisse der sensorischen Interpretation erzeugt. Der neueste Trend ist die Verwendung von Deep-Learning-Algorithmen zur Erzeugung dieser perzeptiven Interpretationsergebnisse. Deep-Learning-Algorithmen müssen durch eine Vielzahl von möglichen Situationen trainiert werden, um zu lernen, wie alle möglichen Sensordaten gelesen werden können.
Nach dem Training erfordern Deep-Learning-Algorithmen eine extrem hohe Recheneffizienz und extrem niedrige Latenzzeiten, um das Fahrzeug sicher zu steuern.Für Elektrofahrzeuge muss ein niedriger Stromverbrauch angewendet werden, um die Betriebstemperatur zu begrenzen und die Batterieleistung zu verlängern. Das Ziel ist es, hocheffiziente, energiesparende und anpassungsfähige Lösungen bereitzustellen, um die verschiedenen Anforderungen der selbstfahrenden Edge AI zu erfüllen.
Die größte Herausforderung bei der Entwicklung von Edge Computing besteht darin, dass sich die Marktnachfrage zu schnell ändert, weshalb Technologien, die sich schnell an verschiedene Veränderungen anpassen können, extrem wichtig sind, damit Unternehmen ihre Wettbewerbsfähigkeit erhalten können.
Hitt erklärte weiter, dass Deep-Learning-Algorithmen kontinuierlich mit hoher Geschwindigkeit voranschreiten und viele der führenden Lösungen von 2017 nun dem Eliminierungsschicksal ausgesetzt sind, selbst mit der Fähigkeit, viele andere heutzutage zu übertreffen, muss die Hardware immer noch steigen Optimieren: Hardware muss schneller aktualisiert werden, um zu vermeiden, dass sie eliminiert wird.Einige Hardware muss möglicherweise sogar während der Produktion aktualisiert werden.Viele alternative Technologien müssen auch aufgerufen werden, um den Chip zu aktualisieren.
Hitt fügte hinzu, dass die einzigartigen Vorteile von FPGAs eine tiefgreifende Hardware-Optimierung einschließlich Operationen, Speicherarchitektur und Verbindungen sind, die im Vergleich zu CPUs und GPUs eine höhere Leistung bei geringerem Stromverbrauch nach der Optimierung erreichen können. Die Hardware-Architektur kann nicht schnell für neue abgeleitete Anforderungen optimiert werden.
Edge-Betrieb ist überwältigend
KI-Anwendungen verlassen sich auf dem Center-Betrieb Cloud-Daten, obwohl es eine sehr hohe Rechenleistung Unterstützung ist, es ist in der Regel höher als der Rand der Richtigkeit der Identifikationsvorrichtung gemäß dem vereinfachten Modell der Argumentation, aber nach Berücksichtigung Bedenken hinsichtlich der Privatsphäre nimmt in dem Online-Echtzeitverhalten und Kosten und andere Faktoren direkte Rückschlüsse auf der Kante der Vorrichtung, ist immer noch sehr attraktive Option. auf der anderen Seite, eine große Wolke Rechenzentrum Marktgröße als das Endgerät, gibt es einen starken wirtschaftlichen Anreiz. das ist auch das letzte Jahr AIoT riefen Parolen Schock Der Preis ist himmelhoch und die großen Halbleiterunternehmen setzen aktiv ein.
Mit Blick auf die Zukunft, KI-Anwendungen, die von der Wolke noch auf dem Markt existieren unterstützt werden, aber der Anteil gebunden ist, von Jahr zu Jahr reduzieren, wird es durch einen neuen Hybrid-Cloud-Architektur und die Bereiche Computer ersetzt werden. Anwendungen von KI-Entwickler können die Wolke nicht ersetzt werden Wert liegt in der Modelleisenbahn, anstatt Inferenz durchgeführt wird. auch aus diesem Grunde, Anwendungsentwickler, Lösungsanbieter können eine nahtlose Integration zwischen der „Wolke“ und Anwendungsentwickler werden „Ende“ erreichen Die wichtigste Überlegung bei der Bewertung von Lieferanten.