1. Wenn das Internet der Dinge die KI erfüllt;
Laut der jüngsten Marktstudie von SADA Systems für professionelle Führungskräfte der IT-Branche werden die künstliche Intelligenz (AI) und das Internet der Dinge (IoT) im Jahr 2018 zu den wichtigsten Bereichen für Unternehmen, um in neue Technologien zu investieren.
Von den 500 befragten IT-Mitarbeitern nannten 38% der Befragten KI als Hauptfaktor für Unternehmensinvestitionen, 31% des Internets der Dinge und 10% der Blockchain Internet of Things verbundene Geräte In der Regel generiert es riesige Datenmengen, um Maschinenlernmodelle (ML) zu trainieren.
Unter den befragten Unternehmen hat das Internet der Dinge mehr Layout als KI, da die IoT- und Edge-Computing-Industrien in der gegenwärtigen Phase relativ stabil sind, und eine solche solide Grundlage kann die Genauigkeit des maschinellen Lernens verbessern und für KI notwendig werden. Voraussetzungen
Bilderkennungsfähigkeit / Abbildung: Cambridge University
Das Unternehmen hofft auch, die Investition der KI später realisierbar zu machen, und nicht die nicht-akademische, institutionenähnliche Forschung.Der ausländische Medien-CIO erwähnte auch, wie die KI-Investition auf die korrekte Kommerzialisierung und eine wichtige Aufgabe für den Unternehmensleiter ausgerichtet werden kann.
Darüber hinaus haben sich in der heutigen Zeit die Kosten und die Schwierigkeit des AI-Betriebs stark verringert: Die Firma "Platform as a Service" (PaaS) bietet Unternehmen nicht nur mehr Daten für Trainingscomputer, sondern macht die Geräte auch universell einsetzbar. (Interoperabilität) Der Grad der Verbesserung Darüber hinaus hat eine große Anzahl von ausgereiften Bibliotheken und APIs für maschinelles Lernen die Schwelle für den Eintritt in die KI reduziert.
Mit dem Aufkommen neuer Technologien, die KI und das Internet der Dinge unterstützen, müssen sich Unternehmensverbände an den Entwicklungsschwerpunkten orientieren und verhindern, dass sich Zeitskalen aus unbestimmten Entwicklungszyklen ausbreiten.Um Meilensteine zu erreichen, ist es zunehmend notwendig, Talente zu halten.
Machine Image Recognition Fähigkeit / Diagramm: Cambridge University
SADA und um neue Technologien Nachrichten genannt, führen Unternehmen eher bereit sind, in neue Technologien zu investieren, aber die Sicherheit und Privatsphäre sind in der Regel hinter der technologischen Entwicklung und Investitionen in neue Technologien muss eine Sorge eigenen Hochwassersicherheit, SADA zurückzubleiben glauben, dass Unternehmen wie Wenn Sie wirklich ein Vorreiter in aufstrebenden Technologien sein wollen, dann können Sie die Sicherheitstests neuer Technologien nicht ignorieren.
In einem Bericht von der Universität Oxford im Jahr 2018, die Forscher genannte Road, AI-Technologie, solange es ein Fehler ist, könnte es die Workflow-Effizienz des maschinellen Lernens untergräbt, sondern auch den Betrieb des Unternehmens gefährden, wenn wichtige Sicherheitstests ignoriert Sex, ich fürchte, ich werde es nicht verstehen.
Die Blockchain hat lange Zeit viel Aufmerksamkeit von den Tech-Medien des vergangenen Jahres auf sich gezogen, aber sie hinkt hinter dem Internet der Dinge und KI in Bezug auf Unternehmensinvestitionen zurück.Wie immer mehr Unternehmen Blockchain-Techniken und praktische Anwendungen teilen, wird die Zukunft Es wird geschätzt, dass Investitionen in diesem Bereich mit dem Internet der Dinge und KI konkurrieren.
2. Geschichte der KI-Dolmetscher;
Im 2018 Boao Forum for Asia, zusätzlich zu der Haupt Agenda, vor allem der Einführung eines Hot-Spot ist die erste Übersetzung gesprochener Sprache in Echtzeit künstlicher Intelligenz Konferenz. Allerdings gab es keine vorherige AI erklärte mutwillig „Lassen Sie die Echtzeit-Dolmetscher Industrie Im Angesicht der drohenden Arbeitslosigkeit hat das Übersetzungsergebnis von schwerwiegenden Fehlern die Echtzeit-Interpreter tatsächlich entlastet, und diese Linie scheint noch lange Zeit verzehrt zu werden.
„Die Bibel Altes Testament Genesis“ in Kapitel 11, nach der großen Flut zurückgegangen, diese menschliche Welt sind die Söhne Noah, die gleiche Sprache sprechen, wenn Menschen zusammenarbeiten begann, bauen Babel Turm von Babel Turm. der Umzug der Gott alarmiert, so Gott die Menschen lassen in der ganzen Welt eine andere Sprache, war die menschliche Rasse nicht mehr vereint Zusammenarbeit haben begonnen. Babel machte Pläne scheiterten, wenn sprachliche Unterschiede auch die größte Kommunikations Mensch geworden Hindernis. vielleicht wollen das Blut immer noch der Wiederaufbau des Turms von Babel träumen, so die Übersetzung im Mittelpunkt der menschlichen Kulturprojekte in den letzten tausend Jahren Geschichte in sich entwickelnden geworden ist.
Die Sprachbarriere ist nicht so einfach, insbesondere Quer Sprache zu brechen die gleichen Konzepte. Quer Sprache parallel corpus erstes Mal in der Geschichte der Menschheit zu verstehen, in 196 BC hergestellt wird, die Rosetta Stone (Rosetta Stone) sowohl alte ägyptische, alte griechische und lokale Volkstümlichkeit oben unter Verwendung der alten ägyptischen König Ptolemaios V. den Thron Edikt aufgestiegen. dies ist ein wichtiger Meilenstein in der Übersetzung aufzunehmen.
Regelbasierte maschinelle Übersetzung
Wie für die maschinelle Übersetzung Quelle, zurück bis 1949 zurückverfolgt werden kann, vorgeschlagen Informationstheorie Forscher Warren Weave formal das Konzept der maschinellen Übersetzung. Fünf Jahre später, also im Jahr 1954, IBM in Zusammenarbeit mit der Georgetown University dem ersten maschineller Übersetzung weltweit angekündigt IBM-701. es ist in der Lage Russisch ins englische zu übersetzen, obwohl es einen tollen Körper hat, die in der Tat ist es nur sechs Bestimmungen des Gesetzes Regeln gebaut wird, sowie 250 Wörter. aber auch so, das ist immer noch ein wichtiger technologischer Durchbruch, wenn Menschen zu denken begann sollten wir bald in der Lage sein Wände der Sprache zu brechen.
Es war möglich, dass Gott etwas anderes bemerkt und einen Eimer mit kaltem Wasser auf den Plan für den Wiederaufbau des Turms zu Babel gegossen hatte.Im Jahr 1964 gründete die American Academy of Sciences das Beratungskomitee für automatische Sprachverarbeitung (ALPAC), zwei Jahre später im Komitee In dem vorgelegten Bericht wird davon ausgegangen, dass die maschinelle Übersetzung nicht lohnend ist, weiter zu investieren, da dieser Bericht die Vereinigten Staaten veranlasste, die maschinelle Übersetzungsstudie in den nächsten zehn Jahren fast vollständig zu stoppen.
Von der Geburt der ersten Übersetzungsmaschine von IBM bis in die 1980er Jahre war der technologische Mainstream zu dieser Zeit die regelbasierte maschinelle Übersetzung: Die häufigste Methode ist die direkte Übersetzung von Wörtern nach dem Wörterbuch, obwohl einige später vorgeschlagen haben, Syntaxregeln hinzuzufügen. Aber um ehrlich zu sein, die Ergebnisse haben sich als sehr frustrierend herausgestellt, weil es dumm aussieht, daher sind solche Praktiken in den 80er Jahren verschwunden.
Warum können Sprachen keine Regeln anwenden? Weil Sprachen extrem komplexe und vage Systeme sind, von der Mehrdeutigkeit des Wortes bis zur Rhetorik, ist es unmöglich, alle Regeln zu erschöpfen.Aber interessanterweise viele neue Innovationen in natürlicher Sprache Die Firma versucht immer noch, die chinesische Semantik mit erschöpfenden Regeln zu lösen, aber diese Idee wird definitiv zum Scheitern verurteilt sein.
Ich werde ein Beispiel geben, um zu verdeutlichen, warum die Regeln nicht durchführbar sind. "Erwähnen Sie nicht die Komplexität der Übersetzung in zwei Sprachen. Aus der chinesischen Perspektive ist das Konzept der Expresszustellung schnell. Wie viele Arten von Lehren können Sie sich vorstellen? 10 Arten oder 100 Arten? Nach den Statistiken der natürlichen Sprache, die wir vorher gemacht haben, kann es insgesamt 3.600 Arten von Belehrungen geben, und diese Zahl sollte mit der Zeit zunehmen. Ein Satz mit solch einem einfachen Konzept kann so sein Für ein komplexes Regelsystem, wenn Sie Übersetzungen verwenden, fürchte ich, dass die Anzahl der Regeln eine erstaunliche astronomische Zahl sein wird, deshalb wird die regelbasierte maschinelle Übersetzungsidee gestern eine gelbe Blume werden.
Instanzbasierte maschinelle Übersetzung
In der Welt der maschinellen Übersetzung in die Ebbe gibt es ein Land für maschinelle Übersetzung eine starke Obsession hat, und das ist Japan. Japanisch Englisch schlecht allgemein bekannt und werden daher die maschinelle Übersetzung gibt es eine starke Nachfrage nach Steifigkeit ist.
Kyoto University Professor Makoto Nagao basierte Machine Translation vorgeschlagen, ist die Maschine von Grund auf neu zu stoppen und wollen, übersetzen, solange wir eine ausreichende Anzahl von Sätzen zu halten, auch im Gesicht nicht genau mit dem Satz übereinstimmen, wir auch können Sätze verglichen werden, die Übersetzung ist nicht die gleiche, solange die Ersetzung des Wortes sein kann. dies ist natürlich nicht naiv als regelbasierte maschinelle Übersetzung, wie viele kluge, es keine Probleme verursacht. aber es dauert nicht lange, die Menschheit hoffen, den Turm von Babel wieder aufbauen Scheint die Morgendämmerung wieder zu sehen.
Statistische maschinelle Übersetzung
Detonierten statistischen maschinelle Übersetzung Boom oder IBM, in „Machine Translation mathematische Theorie“ Papier im Jahr 1993 ausgestellt vorgeschlagen ein statistisches Modell mit einem Wort aus fünf Einheiten besteht, die so genanntes „IBM Modell 1“ bis „5 IBM-Modell.“
Ideen statistisches Modell wird als eine Frage von Wahrscheinlichkeiten übersetzt. Im Prinzip ist die Notwendigkeit besteht, die parallel corpus zu verwenden, und dann buchstäblich Statistiken. Zum Beispiel, obwohl die Maschine nicht wissen, was „Wissen“ der englischen Sprache ist, aber nachdem die meisten der Korpus Statistiken, werden Sie feststellen, solange es Kenntnis des Satzes erscheint, werden die entsprechenden englischen Sätze sein „Wissen“ Wort erscheint. auf diese Weise, auch ohne künstliche Aufrechterhaltung der Wörterbücher und Grammatikregeln, sondern auch Maschinen, die Bedeutung des Wortes zu verstehen machen.
Dieses Konzept ist nicht neu, weil Warren Weave zuerst ein ähnliches Konzept vorgeschlagen hat, aber dann gab es nicht genug paralleles Korpus und die Fähigkeit, den Rechner zu dieser Zeit zu begrenzen, war zu schwach und wurde deshalb nicht in die Praxis umgesetzt Wo können wir den "modernen Rosetta-Stein" finden? Die Hauptquelle sind die Vereinten Nationen. Denn die Resolutionen und Ankündigungen der Vereinten Nationen werden alle in den Sprachfassungen der verschiedenen Mitgliedsländer sein, aber zusätzlich müssen wir Parallelkorpulen selbst produzieren. Die Kosten der menschlichen Übersetzung bedeuten nun, dass diese Kosten erstaunlich hoch sind.
In den letzten zehn Jahren ist jedem bekannt, dass die Google-Übersetzung auf statistischer maschineller Übersetzung basiert, und es sollte klar sein, dass das statistische Übersetzungsmodell die große Sache des Turms nicht bewerkstelligen kann: In Ihren Abzügen bleibt die maschinelle Übersetzung nur drin Der Grad von "nützlich" anstatt "nützlich".
Neuronale Netzwerk-Computer-Übersetzung
Im Jahr 2014 hat die maschinelle Übersetzung den revolutionärsten Wandel in der Geschichte eingeleitet - "Deep Learning"!
Neuronale Netze sind nicht neu, tatsächlich gibt es seit mehr als 80 Jahren neuronale Netzwerkerfindungen, doch seit Geoffrey Hinton (tiefgründiges Studium der drei großen Götter) hat das vertiefte Lernen die fatalen Mängel der neuronalen Netzwerkoptimierung im Jahr 2006 verbessert. In unserem Leben tauchen häufig verschiedene Wunder-ähnliche Ergebnisse auf: Im Jahr 2015 realisierte die Maschine zum ersten Mal Bilderkennung jenseits der Menschheit, im Jahr 2016 besiegte Alpha Go den Schachkönig der Welt, 2017 übertraf die Spracherkennung menschliche Stenographen, 2018 Das maschinelle Englisch-Leseverstehen geht erstmals über den Menschen hinaus - natürlich hat auch dieser Bereich der maschinellen Übersetzung durch das tiefe Lernen dieses Superdüngers begonnen zu blühen.
Yoshua Bengio vom Deep Learning God in der 2014er Arbeit legte zum ersten Mal die Grundstruktur der Deep Learning Technologie für die maschinelle Übersetzung dar. Er verwendet hauptsächlich ein sequenzbasiertes Recurrent Neural Network (RNN), damit die Maschine automatisch Sätze erfassen kann Die Wortfunktion, die wiederum automatisch in das Übersetzungsergebnis einer anderen Sprache übersetzt werden kann: Dieser Artikel zeigt, dass Google den Schatz gewonnen hat. Bald darauf lieferte Google reichlich Schießpulver und den großen Segen Gottes, das hat Google 2016 offiziell angekündigt Alle statistischen Maschinenübersetzungen waren von der Stange, neuronale Maschinenübersetzungen wurden zum absoluten Mainstream der modernen maschinellen Übersetzung.
Google maschinelle Übersetzung neuronales Netz das auffälligste Merkmal der Einbeziehung von Aufmerksamkeitsmechanismen (Attention) ist, ist die Aufmerksamkeit Mechanismus in der Tat die Simulation der menschlichen Übersetzung wird zuerst Auge verwenden immer wieder, und dann ein paar wichtige Worte wählen Semantik bestätigen in der „British - Französisch“ -Prozess (Abbildung 2) wirklich attentional Mechanismen Segen Stromstoß hat nach Google, dass erklärt, „die Briten - in“, „der britische - Westen“ mehr Sprachen, usw., die Fehlerrate mit vor. statistisches Maschinenübersetzungssystem im Vergleich zu einer 60% igen Reduktion.
Obwohl das neuronale Netz zum bestehenden parallelen Korpus entsprechend kann Satz subtile Sprachfunktionen lernen und verstehen, aber es ist nicht perfekt, kommt das größte Problem aus dem Korpus, und es braucht viel Blackbox-wie so schwer zu verstehen. Das heißt, auch wenn da es keine Möglichkeit gibt, die falsch zu ändern, können wir nur mehr richtig corpus liefern „deep learning“ richtig. das gleiche daher, einen Satz zu machen, kann aber sehr unterschiedliche Übersetzung haben.
Im Februar 2018 machte Microsoft neue Schritte, um das maschinelle Sprachenverständnis über die Menschheit hinaus zu verbessern: Am 14. März gaben Forscher von Microsoft Research Asia und Redmond Research Institute bekannt, dass ihr maschinelles Übersetzungssystem für F & E in Kraft war Das Testset für die Testberichte von Newstest2017, das chinesisch-englische Übersetzungstest-Set, hat ein Niveau erreicht, das mit dem der menschlichen Übersetzung vergleichbar ist, was natürlich ein großer Erfolg für die maschinelle Übersetzung von neuronalen Netzen ist. Es ist mit Dual Learning and Deliberation Networks verbunden.
Dual-Lernen, das Problem des begrenzten parallelen Korpus, im Allgemeinen zu lösen, muss die Tiefe des Lernens an die Maschinen Antworten zur Verfügung gestellt werden, so dass die Maschine in der Lage sein, basierend auf der Differenz zwischen der Übersetzung und korrigierte Antwort nachhaltiger Verbesserung. Wie für die Kontrolle Netzwerk auch den Prozess der menschlichen Übersetzung nachahmen in der Regel menschliche Übersetzung wird zunächst eine grobe Übersetzung tun, und dann den genauen Inhalt der zweiten Übersetzung anpassen, in der Tat kann man, dass keine Materie intelligente neuronale Netze finden, wird immer noch auf der Referenzfläche der intelligenten Wesen beenden, die der Körper ist Für die Menschheit wir.
Die Sprache kann nicht außerhalb des Kontexts verwendet werden
Die Entwicklung der maschinellen Übersetzung bedeutet nicht, dass die Zukunft der Übersetzung Beruf kein Essen wird zu essen. Es sei darauf hingewiesen, dass Microsoft die Präsentation der „Universal-Testset Newstest2017 Nachrichten Berichte“ von „Englisch Übersetzung Testset“, betonte der Dataset gute Leistung und Vielseitigkeit nicht in der Lage sein, auf dem Gleichheitszeichen zu zeichnen, was auch erklären, warum Tencent Juni offensichtlich die übliche Übersetzung war gut, aber warum ist ungenau Leistung in Boao Echtzeit-Interpretation.
Echtzeit kann Übersetzung Interpretation gesagt wird der Höhepunkt der Aufgabe ist, müssen wir ein korrektes Verständnis des ursprünglichen Satz Gehörs, sondern auch die Umwandlung für eine begrenzte Zeit für andere Sprachen. Und vergessen Sie nicht, die Lautsprecher werden keine Zeit geben, für die Übersetzung, Spracherkennung zu warten und so gleich Die maschinelle Übersetzung muss synchron verarbeitet werden, zusammen mit dem Geräusch an Ort und Stelle, dem Ausdruck des Sprechers, den Interjektionen modaler Wörter usw., die alle zu Fehleinschätzungen durch die Maschine führen können.
Aus meiner Sicht Übersetzung Juni Tencent kann beschuldigt Punkte werden einfach nicht hart genug arbeiten, haben wir setzen nicht Eigennamen Tasteneingabe, die „eine Autobahn und ein Gürtel“ passieren wird „klassischen Fehler.“
Kann auch 3 aus gesehen werden kann ist ein interessanter Unterschied, warum der Westen eindeutig falsch maschinelle Übersetzung, maschinelle Übersetzung, aber das Land ist fast in der Lage, die Absicht zu meistern? Es ist, weil die menschliche Sprache nicht Nutzungsszenarien existieren geschieden werden kann. Dass wir oft die Sprache lernen Der Kontext, der aus unserer vergangenen Kultur stammt, besteht aus Erinnerungen, die in der Vergangenheit üblich waren: Google, der die Tang-Poesie nicht gelesen hat, versteht die Essenz dieses Gedichtes natürlich nicht, Sprache kann die letzte menschliche Barriere im Zeitalter der künstlichen Intelligenz sein Sprachen werden sich ständig durch den Einsatz von Menschen verändern, ein sehr schwieriger Ersatz für Maschinen.
Mit dem Fortschritt der Technologie wird sich die maschinelle Übersetzung eines Tages von "nützlich" zu "nützlich" und dann zu "nützlich" entwickeln. Aber wie ich immer argumentiert habe, werden Maschinen die Menschen nicht ihrer Arbeit berauben. Die Tatsache, dass Menschen arbeitslos sind, ist nur unser eigenes. Wie man Künstliche Intelligenz gut ausnutzt, um zu einem eigenen Werkzeug zu werden, und um sich aus Langeweile und langweiliger Arbeit zu befreien, ist dies die richtige Haltung für die Zukunft.
3.AI, der feurige Kampf um Big Data und Privatsphäre hat gerade erst begonnen;
Die heißesten Themen auf kurze Sicht sind nichts anderes als Big Data, einschließlich der Messe in China 2018. Es ist unbestreitbar, dass das Wichtigste für Big Data die Datensammlung ist, aber die Europäische Union hat auch die Allgemeine Datenschutzverordnung (DSGVO) angekündigt. Der Anspruch, das strengste Gesetz zum Schutz personenbezogener Daten zu sein, löste auch Streitigkeiten über die Entwicklung von Big Data und personenbezogene Daten aus.
Der Grund, warum Big Data zu effektiven Daten werden kann, ist das Sammeln und Analysieren von Daten, und je mehr Daten, desto relevantere Daten können analysiert und nützliche Daten werden.
Die Quelle der Daten und Daten ist jedoch in den Mittelpunkt der Diskussion gerückt.Unter Nationalismus scheinen Individuen ihre eigenen Rechte zu opfern, um dem Land eine Politik zu ermöglichen. Dies ist am deutlichsten in China. Chinas Entwicklung in Big Data ist ziemlich schnell Planung vieler Politiken und sogar der sogenannten Armutsbekämpfung, Armutsbekämpfung usw. Wie Big Data sind alle Probleme kein Problem, aber viele Big-Data-Daten sind in der Tat das Recht der Parteien, personenbezogene Daten zu opfern. Unmögliche Dinge.
Die Richtung der taiwanesischen Geschäftsentwicklung konzentriert sich auf industrielle Big Data, am schnellsten entwickelt sich Hon Hai mit 40 Jahren Produktionsdaten, der größte Vorteil von Hon Hai und auch ein Ort, an dem Taiwan große Datenmengen entwickeln kann.
Wenn Taiwan jedoch große Datenmengen wie Festlandchina entwickeln will, hat das viel mit der Privatsphäre der Menschen zu tun, im Grunde gibt es viele Hindernisse, und es ist nur ein ETC-Datensatz, der Datenschutzverletzungen auslösen kann, ganz zu schweigen von verwandten Themen In Bezug auf Big Data, die in direktem Zusammenhang mit dem Schutz der Privatsphäre stehen, ob Big Data Erfolg haben wird oder nicht, müssen wir das öffentliche Interesse und die Ausgewogenheit der Privatsphäre weiterhin schüren.
4.AI Rückschlüsse auf Randknoten Video / Sprachanwendungen machen jeweils den halben Himmel aus;
Im Jahr 2018 ist der AIoT (AI + IoT) -Markt stark gewachsen und hat die Entwicklung verschiedener Geräte vorangetrieben, während gleichzeitig tiefgreifende Lernfunktionen von Cloud Computing zu Edge Computing verlagert wurden, um geringe Latenz, geringe Netzwerkbandbreite, hohe Privatsphäre und hohe Effizienz in der künstlichen Intelligenz zu erreichen. Anwendungserfahrung.
Mit der rasanten Entwicklung von Technologien wie Künstliche Intelligenz (AI) und Edge Computing (Edge Computing) in den letzten Jahren werden verschiedene Unterhaltungselektronik und Haushaltsgeräte, die in dem Konzept von Smart Home enthalten sind, einen revolutionären Wandel erfahren. Ein aus Heimgeräten bestehendes Netzwerk künstlicher Intelligenz kann ein weiteres Familienmitglied werden, das man nicht sehen kann.Das Konzept der lokalen Cloud und der zugehörigen Ausrüstung wird ein unverzichtbares Element bei der Implementierung eines Heimnetzes für künstliche Intelligenz sein.
Intelligenter Lautsprecher / Überwachung wird zu zwei Hauptspindeln der Verbraucher-KI
Ronan de Renesse, Forscher am Forschungsinstitut Ovum, verantwortlich für die Entwicklung der Verbrauchertechnologie (Abbildung 1), erklärte, dass die Anwendung von KI in der Unterhaltungselektronik in den letzten zwei Jahren häufig in den Fokus der Medien gerückt sei. Es entwickelt sich erst jetzt. In den nächsten drei bis fünf Jahren werden viele Produkte der Unterhaltungselektronik die KI-Funktionalität tragen und miteinander zu einem Heimnetzwerk für Künstliche Intelligenz verbinden.
Abbildung 1 Ronan de Renesse, Forscher für Verbrauchertechnologie bei Ovum, glaubt, dass verschiedene elektronische Geräte in der zukünftigen Familie ein unsichtbares Familienmitglied werden.
Für die Hardware-Industriekette wird dieser Trend sicherlich viele neue Geschäftschancen eröffnen, aber auf einer höheren Ebene wird das Netzwerk künstlicher Intelligenz, das heimlich angezapft wurde, eine andere "Familie", die Sie nicht sehen können. Mitglieder. "
Auf der Hardware-Seite sind intelligente Lautsprecher, die jedem bekannt sind, im Grunde genommen relativ ausgereifte Produkte. Obwohl in den nächsten fünf Jahren ein signifikantes Umsatzwachstum zu erwarten ist, wird sich das Wachstum allmählich verlangsamen Der Umsatz wird bei knapp 9,5 Milliarden US-Dollar liegen, und Renesse ist der Ansicht, dass Amazon und Google in der Zukunft möglicherweise nicht in der Lage sein werden, ihre eigene Marke intelligenter Lautsprecher auf den Markt zu bringen, da diese Art von Produkt selbst wenig Raum für Profit bietet. Für Hersteller von Heimnetzwerken können Hardware-Hersteller, solange sie ihre Plattformdienste nutzen, die benötigten Benutzerdaten sammeln.
Im gleichen Zeitraum werden die Veränderungen bei Produkten wie intelligenten Heimüberwachungssystemen ausgeprägter sein als bei intelligenten Lautsprechern: Derzeit verfügen die so genannten intelligenten Heimüberwachungsprodukte nicht über künstliche Intelligenzkomponenten, sondern über Kameras, Alarme, Türschlösser, Sensoren und andere Hardware. Die Produkte sind miteinander verbunden, um ein Sicherheitssystem zu bilden, das Event Trigger unterstützt.Jedoch werden die entsprechenden Software- und Hardware-Technologien ausgereifter, und der Anteil von Heimüberwachungskameras, die künstliche Intelligenz tragen, wird zunehmen, und gleichzeitig wird es mehr erreichen können. Anwendungen wie die Verwendung von Sprachassistenten bieten mehreren Benutzern in einer Umgebung mit mehreren Benutzern genauere Dienste.
Verbraucherschutz für KI-Apps
Für die Hardware-Industrie ist jedoch am bemerkenswertesten, dass das Konzept der lokalen Cloud und der damit verbundenen Anwendungsprodukte aufgegriffen wird, da Geräte im Haushalt allgemein die KI unterstützen. "Renesse wies darauf hin, dass die mit KI-Funktion ausgestatteten elektronischen Produkte Produzieren eine große Menge von Benutzerdaten, und viele von ihnen sind Daten im Zusammenhang mit der Privatsphäre.Wenn daher diese mit künstlicher Intelligenz ausgestatteten Home-Electronic-Produkte vollständig auf die externe Cloud zum Betrieb angewiesen sind, wird es offensichtlich Datenschutzbedenken verursachen.
Auf der anderen Seite, viele Funktionen relativ einfache Dinge Consumer-Geräte, durch elektrische Leistung, Rechenleistung, die Kosten der Produktion und anderen Bedingungen, AI nicht in der Lage sein, sehr High-End-Algorithmen zu unterstützen. Zu diesem Zeitpunkt wird das lokale Cloud-Gerät der Rolle des Gehirns spielen, Bestellen Sie diese Geräte einheitlich.
Renesse räumte jedoch auch ein, dass es immer noch schwierig sei zu behaupten, welches Gerät ein lokales Cloud-Center spielen würde: Es könnte ein intelligenterer Lautsprecher höherer Ordnung sein, es könnte sich um Smart-TV oder andere Produkte handeln.
Arm Senior Marketing Director Ian Smythe (Abbildung 2) ist ferner die Auffassung, dass es mehr und mehr glaubt, dass die Zukunft der Rechen- und Inferenz (Inference) Motor, das Terminal zu bewegen. Dies zu einem Transfer treibender Kraft geführt, es ist die Privatsphäre des Benutzers zu schützen Daten. durch End-Verarbeitung und Analyse können leicht anonym sein, und um sicherzustellen, dass sensible Daten nicht über das Netzwerk zugänglich gemacht werden. Familie Anwendung, zum Beispiel, die Verbraucher wollen, dass jemand aus dem Netzwerk nicht gelernt, dass seine Familie nicht tat Leute Zeit und dann leicht zu Hause zu stehlen.
Abbildung 2 Ian Smythe, leitender Marketingleiter bei Arm, sagte, dass für Anwendungen der Verbraucher-KI die Frage, ob der Datenschutzmechanismus zuverlässig ist, der Schlüssel zur Verbreitung der Anwendung sein wird.
Für visuelle Anwendungen ist Smythe der Ansicht, dass Kameras, die die visuelle Erkennung unterstützen, inhärent als wichtige Datenschutzprobleme betrachtet werden, die natürlich geschützt sein müssen, wenn sie lokal gespeichert oder in die Cloud übertragen werden. Privatsphäre und sensible Informationen. Da die Übertragung in der Regel drahtlos verbunden ist, müssen Sie sorgfältig auf die drahtlose Übertragung Sicherheit zahlen. Ingenieure Design des Gerätes muss die Netzverbindungseinrichtung nicht gehackt werden, beobachten sicherzustellen, dass.
Die Batterielebensdauer bleibt die größte technische Herausforderung
Jedoch an den Rand des AI-Knoten, die größte technische Herausforderung ist nach wie vor dem Stromverbrauch des Systems. Um Verbraucher Überwachungskameras, zum Beispiel Verbraucher erwarten können diese Produkte vollständig drahtlos sind, ist es am besten nicht zu, auch Stromleitungen Dies bedeutet, dass diese Produkte batteriebetrieben sein müssen und auch drahtlose Netzwerke unterstützen, außerdem müssen sie in der Lage sein, alle Artikel zu identifizieren und unbegrenzten Speicherplatz benötigen.
Above verlangt ein hohes Maß an Herausforderungen für System-Design, kann es mehrere Monate erfordert kontinuierlich geladene Batteriekapazität von Maschine laufen diese extremen Fälle von Chip-Design und Systemkomponenten Lernen (ML) und die fortgesetzte Fähigkeit, Dateien in dem Cloud-Speicher zu laden Die Anforderungen sind ziemlich hoch und vor allem haben sie gemeistert, wann die Orchestrierung dieser Funktionen die Batterielebensdauer verlängern kann.
Mit Home-Monitoring-Kamera, ist eine Videokamera nicht 24 benötigt Stunden Transfer leeren Raum, laden Sie einfach das Bild des Teils ist nur dann sinnvoll, wenn es nicht bestätigte Identität der Menschen gibt. Und in dem Fall, wie die Verfügbarkeit der gleichen Szene ermöglichen ML-Algorithmus ist nicht sinnvoll. sorgfältige Arrangements, wo, wenn diese Funktionen zu aktivieren, sein, um in der Betriebsart nur zwei AA-Batterien erwartet Consumer-Geräte zu machen, kann langfristige normaler Gebrauch.
Aber auch, weil Stromverbrauch eines der Haupthindernisse für die AI im Endgerät stationiert ist, gibt es viele zu Hause Start-ups die Möglichkeit gesichtet haben Low-Power-neuronales Netz (NN) Beschleuniger Silizium an geistigem Eigentum (IP) auf den Markt zu bringen, um Chip zu unterstützen Entwickler reduziert den Stromverbrauch, sondern auch die Leistung erforderlich Inferenzalgorithmus Widerstand intelligent (Kneron) gerecht zu werden hat seine Neuronalnetzwerkprozessor (NPU) Serie offiziell veröffentlicht wurde, ist ein dedizierter Prozessor für künstliche Intelligenz Endgerät konzipiert IP. die Familie besteht aus drei Produkten, nämlich Ultra-Low-Power-Version von KDP 300 Standard Edition KDP 500, sowie High-Performance-Version des KDP 700, um das Smartphone zu erfüllen, um die Anwendung von Smart-Home, intelligenter Sicherheit, sowie eine Vielzahl von Dingen Geräten die ganze Palette von Produkten mit niedrigem Stromverbrauch, geringer Größe Eigenschaften und bietet eine leistungsstarke Rechenleistung. im Gegensatz zu der AI Prozessorleistung auf dem Markt verfügbar für zehn Watt ab, Kneron NPU IP Leistungsaufnahme 100 mW (mW) Ebene für Smartphones Gesichtserkennung KDP gewidmet 300 oder sogar weniger als 5 Milliwatt Leistung.
Anwendungen können beständig Product Marketing Manager cum Shiya Lun (Abbildung 3 links) weist darauf hin, sein auf der Endgerät künstlichen Intelligenz Operation durchgeführt werden, während die Nachfrage nach Energie und Leistung eine primäre Überlegung ist. Daher ist die Einführung von optimierten Lösungen für individuelle Anwendungen ist entscheidend .. die aktuelle Anwendung von künstlicher Intelligenz läßt sie grob in zwei Hauptkategorien kategorien~~POS=HEADCOMP von Stimme mit Video, Neuralnetzwerkarchitektur sie eine andere Schwerpunkt Sprachanwendungen in natürlicher Sprachanalyse verwenden aufgeteilt wird, ist die Mainstream-Netzwerkarchitektur rekurrenten neuronalen Netz (RNN); Mainstream-Netzwerkstruktur der Bildanalyse wird Faltungs neuronales Netzwerk (CNN). optimiert für verschiedene Netzstrukturen verwendet werden, können Lösungen Beständigkeit liefern, sind nicht die gleichen.
Shen Ming-feng (Abbildung 3 rechts) trägt den Software-Design-Manager ergänzen, obwohl geringere Nachfrage nach natürlicher Analysechip Rechenleistung Sprache, sondern auch wegen des Tons der Sprache, Sprachgewohnheiten eine große Diskrepanz haben, und daher erforderlich, dass der Modell Trainingsdatensatz Bilderkennung ist mehr als groß. auf der anderen Seite, da die Verbraucher bereits daran gewöhnt, mit Cloud-basierten Sprachassistenten von Apple (Apple) Siri, Google-Assistenten, usw. Daher off-line Anwendung der semantischen Analyse der Verbraucher zu bekommen, Voraussetzung ist, dass der Verbraucher ähnliche Erfahrung mit begrenzten Rechenressourcen zur Verfügung stellen muß. diese Chip-Anbieter mit Systementwicklern, die Herausforderung ist nicht klein.
3 Bären können Marketing- und Produktmanager Shiya Lun (links) glaubt, dass Stimme mit Bilderkennung sind sehr unterschiedlich in der Natur, müssen verlassen sich auf verschiedene Lösungen anwenden zu erfüllen. Shen Ming-feng ist die richtige Software resistentes Design Manager sein kann.
In der Tat ist die überwiegende Mehrheit des intelligenten Lautsprechers, nicht als Rand-Computing-Produkte angesehen. Shiya Lun darauf hingewiesen, dass, unabhängig von der Amazon (Amazon) von Echo, Apples HomePod oder Smart-Lautsprecher Baidu, Alibaba-Plattform, oder haben wollen Daten zurück in die Cloud für die Verarbeitung mit semantischer Analyse, um den Benutzer zu reagieren. Sprachbedienung direkt am Endprodukt durchgeführt werden kann, im Grunde der meisten Regeln angenommen Modus (regelbasierte) und nicht auf der Grundlage des natürlichen semantische Verständnis des maschinellen Lernens.
Seit 2016 trägt das Unternehmen des ersten Endgerät spezifische AI Prozessor NPU IP kann starten, hat weiterhin das Design und Spezifikationen zu verbessern und für verschiedene industrielle Anwendungen optimiert. In derzeit an Kunden in der IP beginnen, KDP 500 Pflanzen Kunden mit dem System wurden und werden im zweiten Quartal Fertigung (Mask-Tape-out). Spracherkennung mit Suchhunden Zusammenarbeit erreichte offline semantische Analyse, also auch in der Massenproduktion, wenn das Endgerät nicht mit dem Netzwerk verbunden ist, sondern auch Kann die Sprachanweisungen des Benutzers verstehen.
Kneron NPU IP ist künstliche Intelligenz-Prozessor für das Endgerät gewidmet ist so ausgelegt, dass das Endgerät in einer Offline-Umgebung, können Sie RESNET laufen, YOLO andere tiefe Lernnetzwerk. Kneron NPU ist eine komplette End-AI Hardware-Lösungen, einschließlich Hardware IP-, Compiler- und Modellkomprimierung kann verschiedene gängige neuronale Netzwerkmodelle wie Resnet-18, Resnet-34, Vgg16, GoogleNet und Lenet unterstützen und Mainstream-Deep Learning unterstützen. Rahmen, einschließlich Caffe, Keras und TensorFlow.
Kneron NPU IP Leistungsaufnahme 100 mW Niveau, Ultra-Low-Power-Version des KDP 300 oder sogar weniger als 5 mW, vollständige Palette von Produkten in der Leistung pro Watt 1,5 TOPS / W oder mehr, die Verwendung einer Reihe von exklusiver Technologie, kann es Erfüllen die Bedürfnisse von Chip-Anbietern, System-Anbietern für geringen Stromverbrauch, hohe Rechenleistung.
Grundelemente sperren Hardware-Beschleuniger haben keine Angst vor technischer Iteration
Die Aushärtung (fest verdrahtete Schaltung) die Effizienz bestimmter Rechenaufgaben zu verbessern, Stromverbrauch, Chip-Design für Alter reduziert, aber auf Kosten einer geringeren Flexibilität in der Anwendung, wesentlicher Änderung bei der Nachfrage am Markt für Chip-Funktionen , Oder der Software-Algorithmus ändert sich drastisch, Chip-Designer müssen neue Chips neu entwickeln.
In der Situation, in der die Nachfrage des Marktes nach Chip-Funktionen weitgehend bestimmt wurde, stellt diese Entwurfsmethode kein Problem dar. In aufstrebenden Technologiebereichen, in denen technologische Iterationen schnell sind, wird die Anwendung dieses Design-Ansatzes jedoch ein relativ großes kommerzielles Risiko haben. künstliche Intelligenz ist sehr schnell qualifizierte Iteration, fast jedes Jahr ein neuer Algorithmus mit dem Modell zur Verfügung. Öffnen Sie AI Forschungsunternehmen auch, dass 6 Jahre in den letzten wies darauf hin, AI Trainingsmodell zur Berechnung von Energiebedarf jedes 3,43 pro Monat erhöhen Zeiten.
In diesem Zusammenhang wies Shen Ming-feng aus, ist nicht unbedingt ein Hardware-Beschleuniger nicht elastisch ist. Beständig gegen Energieprodukte, zum Beispiel in der Architektur verwendet das Unternehmen Faltungskern Split (Filter Zersetzung) Technologie, die großen Faltungskern Faltung eine Vielzahl von kleinen Blöcken Berechnung getrennt in einen Faltungsberechnungsblöcke unterteilt, dann kombiniert rekonfigurierbaren Hardware-Beschleunigung Faltung (Konvolution rekonfigurierbaren Beschleunigungs) -Technik, die Faltungsoperationsergebnis der Operation eine Vielzahl von kleinen Blöcken verschmolzen sind, um die gesamte zu beschleunigen Operative Effizienz.
Gleichnisse leichter zu verstehen, wie Legosteine können in eine Vielzahl von Mustern kombiniert werden, um ein Objekt zu bauen, aber das Objekt selbst ist immer noch ein ganzer Stapel aus wenige Grundfeld. Resistance Energieprogramm für KI-Algorithmen ist unverzichtbar Die Grundelemente werden beschleunigt, um die Ausführungsleistung des gesamten Algorithmus zu verbessern, selbst wenn der AI-Algorithmus mit einer sehr hohen Geschwindigkeit aktualisiert wird, kann die leistungsbasierte Lösung dennoch einen Beschleunigungseffekt ausüben.
Neben dem eigenen Design des Beschleunigungsmessers, das sich auf die Grundelemente konzentriert, bietet Terrain nicht nur eine Beschleunigung des spezifischen Algorithmus als Ganzes, sondern auch andere Techniken zur Beschleunigung oder zum Einsatz von AI-Anwendungen, zum Beispiel komprimiert die Model Compression-Technologie nichtoptimierte Modelle. Dutzende Male kann Multi-Level-Caching die CPU-Auslastung und den Datentransfer reduzieren, wodurch die betriebliche Effizienz weiter verbessert wird.Zusätzlich kann Kneron NPU IP mit der Kneron-Bilderkennungssoftware kombiniert werden, um eine Echtzeit-Identifikationsanalyse zu ermöglichen. Die Antwort ist nicht nur stabiler, sondern erfüllt auch die Sicherheits- und Datenschutzanforderungen.Weil Hardware und Software eng integriert werden können, ist die Gesamtlösung kleiner und der Stromverbrauch ist geringer, um die schnelle Entwicklung von Produkten zu unterstützen.
Die Bilderkennung AI ist zum Rand hin dringender
Insgesamt ist die aktuelle Marktnachfrage nach Bilderkennung dringender: Obwohl es in der offline semantischen Analyse einen potenziell riesigen Markt für intelligente Sprecher gibt, gibt es weniger Ressourcen für die Wettbranche. Der Hauptgrund für dieses Phänomen ist, dass Die Übertragung beansprucht eine große Bandbreite, was wiederum die Gesamtbetriebskosten des Systems erhöht. Voice hat dieses Problem nicht.
Andes Technologie General Manager Lin Zhiming (Fig. 4) in der Künstlichen Intelligenz und der Prozess der Bindung Dinge beschrieben, wird die Nachfrage-Computing-Technologie eingeführt Kanten Rand-Computing-Technologie vorantreiben zu einer Vielzahl von neuen Anwendungen angewandt werden, in Unter diesem Trend stellen Flexibilität und Schnelligkeit die größten Vorteile für taiwanesische Hersteller dar. Für die meisten taiwanesischen Unternehmen und IC-Design-Unternehmen ist es einfacher, vom Markt aus in den Markt für künstliche Intelligenz einzusteigen.
Abbildung 4: Zhixin Lin, General Manager von Jingxin Technology schätzt, dass IP Cam eine der Hauptanwendungen für die Durchführung von KI-Inferenzen auf Edge-Geräten sein wird.
Zur gleichen Zeit, aufgrund der Importkante der Computertechnik, aber auch bringen wird Speicher, Übertragung und so weiter Hardware-Anforderungen zu verbessern, werden die Herstellungskosten signifikant nach oben gedrückt wird. Aufgrund Bildkorrelations System-on-Chip (SoC), die ursprünglich auf im Vergleich zu anderen komplexeren Anwendungen, Die Kostentoleranz ist ebenfalls groß, so dass erwartet wird, dass die Edge-Computing-Technologie als erste von bildbezogenen Anwendungen wie IP-Cam importiert wird.
Künstliche Intelligenz-Anwendungen lassen sich in zwei Abschnitte behandeln die Ausbildung und Anerkennung aufgeteilt werden. Im Prozess des tiefen Lernens der massiven Operation, eine kurze Zeit noch von Cloud Computing behandelt wird. Der Rand Betreiber ist verantwortlich für die Aufgabe, saugten gesammelte Informationen zuerst tun Vorbehandlung nach unwichtigen Informationen dem Filter aus, und dann die Daten in die Cloud hochladen auf die Transportkosten zu sparen. auf der anderen Seite, eine vollständige Cloud Tiefe Lernergebnisse ist es möglich, die Funktion des Terminals, um klüger zu identifizieren. IP Cam Zum Beispiel kann die Arbeit des Bildtieflernens zuerst durch Cloud Computing vervollständigt werden: Nachdem der Standby-Lerner den Fußgänger erkannt hat, kann die IP-Kamera am Rand nur die Identifikationsarbeit durchführen.
Auf der anderen Seite, ist es aufgrund der IP-Cam in der Polizeiarbeit, die Sicherheit der Gemeinschaft auf eine breite Palette von Anwendungen, so dass die Regierung und Unternehmen sind relativ bereit Investitionen zu unterstützen, die auch eine schnellere Entwicklung von IP-Cam Gründen wird geworden.
Lin Zhiming Aktie, viele Hersteller tastend, wie künstliche Intelligenz Chip in ihr eigenes System zu importieren. Die aktuelle Situation ähnlich ist, wenn die Dinge begannen gerade zu blühen, erforschen wir noch, wie die Schnitte anzuwenden, bei rund 2020 Herstellern geschätzt Wird mehr aktuelle Produkte auf den Markt bringen.
Echtzeitanwendungen müssen eine Edge-Computing-Architektur verwenden
Künstliche Intelligenz ist ein heißes Thema heute, die von der Cloud-Computing-Architektur an den Rand-Computing-Architektur nach und nach übertragen wird keine geringe Auswirkungen auf die Supply-Chain-Hersteller bringen. Trotz der kurzen Zeit entwickeln wird künstliche Intelligenz-basierte Cloud-Computing, Jedoch werden viele künstliche Intelligenzfunktionen in Bezug auf Bildverarbeitungsanwendungen beginnen, Kanten zu importieren.
Dale K. Hitt, Leiter der Marktentwicklung für die Xilinx-Strategie für visuelle Intelligenz (Abbildung 5), weist darauf hin, dass in der absehbaren Zukunft noch Trainingskomponenten in der KI-Entwicklung durch Cloud Computing dominiert werden, die Inferenz- / Einsatzkomponenten jedoch bereits begonnen haben. Verwenden Sie Edge-Operationen, um Anwendungen zu unterstützen, die eine niedrige Latenz und Netzwerkeffizienz erfordern.
Abbildung 5 Dale K. Hitt, Leiter der Marktentwicklung für die Xilinx Visual Intelligence-Strategie, ist der Ansicht, dass Edge-Operationen für Anwendungen, die eine sehr geringe Latenz erfordern, die beste Lösung darstellen.
Machine-Learning für Anwendungen im Bereich der Vision wird einer der wichtigsten und weitreichendsten Trends für Edge-Anwendungen sein, aber auch in den Bereichen Industrielle Bildverarbeitung, Smart Cities, visuelle Analyse und den selbstfahrenden Markt. Wachstumspotential: Was industrielle Vision und Verbraucheranwendungen betrifft, da die Kantenarithmetik maschinelle Lernalgorithmen implementieren muss, sind die Leistungsanforderungen auch viel höher als bei Lösungen der vorherigen Generation.Außerdem haben sich Algorithmen / Funktionen für die maschinelle Lernkante ebenfalls schnell entwickelt. Benötigt selbstadaptive Hardware zur Optimierung zukünftiger Machine-Learning-Inferenzarchitekturen.
Hitt verwendet selbstfahrende Autos als Beispiel: Hinter jedem Sensor im Auto gibt es eine präzise Algorithmusunterstützung, die aus den Sensordaten die Ergebnisse der sensorischen Interpretation erzeugt. Der neueste Trend ist die Verwendung von Deep-Learning-Algorithmen zur Erzeugung dieser perzeptiven Interpretationsergebnisse. Deep-Learning-Algorithmen müssen durch eine Vielzahl von möglichen Situationen trainiert werden, um zu lernen, wie alle möglichen Sensordaten gelesen werden können.
Nach dem Training erfordern Deep-Learning-Algorithmen eine extrem hohe Recheneffizienz und extrem niedrige Latenzzeiten, um das Fahrzeug sicher zu steuern.Für Elektrofahrzeuge muss ein niedriger Stromverbrauch angewendet werden, um die Betriebstemperatur zu begrenzen und die Batterieleistung zu verlängern. Das Ziel ist es, hocheffiziente, energiesparende und anpassungsfähige Lösungen bereitzustellen, um die verschiedenen Anforderungen der selbstfahrenden Edge AI zu erfüllen.
Die größte Herausforderung bei der Entwicklung von Edge Computing besteht darin, dass sich die Marktnachfrage zu schnell ändert, weshalb Technologien, die sich schnell an verschiedene Veränderungen anpassen können, extrem wichtig sind, damit Unternehmen ihre Wettbewerbsfähigkeit erhalten können.
Hitt erläutern die Tiefe von Lernalgorithmen mit einer schnellen Rate der anhaltenden Fortschritte, viele der führenden Lösungen im Jahr 2017 hat einen ähnlichen Tod bisher konfrontiert. Obwohl viele der anderen, die jetzt eine höhere Kapazität haben, zusammen mit der steigenden Nachfrage Computing, Hardware noch Optimieren: Hardware muss schneller aktualisiert werden, um zu vermeiden, dass sie eliminiert wird.Einige Hardware muss möglicherweise sogar während der Produktion aktualisiert werden.Viele alternative Technologien müssen auch aufgerufen werden, um den Chip zu aktualisieren.
Hitt fügte hinzu, dass die einzigartigen Vorteile von FPGAs eine tiefgreifende Hardware-Optimierung einschließlich Operationen, Speicherarchitektur und Verbindungen sind, die im Vergleich zu CPUs und GPUs eine höhere Leistung bei geringerem Stromverbrauch nach der Optimierung erreichen können. Die Hardware-Architektur kann nicht schnell für neue abgeleitete Anforderungen optimiert werden.
Edge-Betrieb ist überwältigend
KI-Anwendungen verlassen sich auf dem Center-Betrieb Cloud-Daten, obwohl es eine sehr hohe Rechenleistung Unterstützung ist, es ist in der Regel höher als der Rand der Richtigkeit der Identifikationsvorrichtung gemäß dem vereinfachten Modell der Argumentation, aber nach Berücksichtigung Bedenken hinsichtlich der Privatsphäre nimmt in dem Online-Echtzeitverhalten und Kosten und andere Faktoren direkte Rückschlüsse auf der Kante der Vorrichtung, ist immer noch sehr attraktive Option. auf der anderen Seite, eine große Wolke Rechenzentrum Marktgröße als das Endgerät, gibt es einen starken wirtschaftlichen Anreiz. das ist auch das letzte Jahr AIoT riefen Parolen Schock Der Preis ist himmelhoch und die großen Halbleiterunternehmen setzen aktiv ein.
Mit Blick auf die Zukunft, KI-Anwendungen, die von der Wolke noch auf dem Markt existieren unterstützt werden, aber der Anteil gebunden ist, von Jahr zu Jahr reduzieren, wird es durch einen neuen Hybrid-Cloud-Architektur und die Bereiche Computer ersetzt werden. Anwendungen von KI-Entwickler können die Wolke nicht ersetzt werden Wert liegt in der Modelleisenbahn, anstatt Inferenz durchgeführt wird. auch aus diesem Grunde, Anwendungsentwickler, Lösungsanbieter können eine nahtlose Integration zwischen der „Wolke“ und Anwendungsentwickler werden „Ende“ erreichen Die wichtigste Überlegung bei der Lieferantenbewertung Neue Elektronik
5.MIT-Absolventen erhalten in diesem Monat ein Blockchain-Diplom
Sina Technology News Beijing Zeit am 3. Juni nachmittags Nachrichten, ermöglicht Blockchain-Technologie MIT Absolventen digital ihren akademischen Lebenslauf zu verwalten.
Cambridge, Massachusetts Unternehmen Software-Lernen-Maschine und dem MIT Media Lab und Sitz Zusammenarbeit können die Schüler wählen die Blockkette Mappe, sichere Speicherung und den Austausch von ihr Diplom zum Download bereit.
Nach Angaben der „MIT Technology Review“ berichtet, dass, nachdem ein erstes Pilotprojekt erfolgreich ist, MIT von Anfang dieses Monats beschlossen Blockkette Wallet-Service für alle neuen Absolventen zu bieten.
‚Ich glaube nicht, dass wir die zentralen Institutionen des Lernens, um digital aufzeichnen steuern können.‘ Philipp Schmidt Direktor des innovativen Lern Darstellung des Media Lab.
Der Zweck der Einführung in Form eines Ketten Diplom-Block ist, damit die Studierenden zu aktuellen und zuverlässigen Zugriff auf ihre akademischen Qualifikationen können, da eine solche, potenzielle Arbeitgeber sie nicht anrufen müssen, um ihre Schulabschluss zu bestätigen gilt.
Neue Absolventen, die ein digitales Diplom wollen, müssen nur eine App herunterladen.
"Vor dem Abschluss sendet MIT eine Einladungs-E-Mail an den Studenten. Die E-Mail schrieb - 'Hey, Blockcerts Wallet herunterladen, das Passwort akzeptieren und MIT als Herausgeber hinzufügen'." Chris Jagers, CEO, Learning Machine Sagt: "Wenn MIT ein Diplom ausstellt, erhalten Studenten eine E-Mail mit einer digitalen Datei, die sie direkt in die Anwendung importieren können."