Hinter der Raserei muss man wissen, wie sich die KI-Technologie entwickelt hat

Das Grundgerüst der künstlichen Intelligenz existierte in den 1940er Jahren, und seitdem haben verschiedene Organisationen auf dem Gebiet der künstlichen Intelligenz Innovationen entwickelt.In den letzten Jahren haben Big Data und fortgeschrittene Deep-Learning-Modelle die Entwicklung künstlicher Intelligenz vorangetrieben Ein beispielloser Grad an Raffinesse wird diese neuen Technologiekomponenten letztendlich die intelligenten Maschinen produzieren, die in Science-Fiction vorgesehen sind, oder werden sie den gegenwärtigen Trend zu künstlicher Intelligenz beibehalten, einfach "den gleichen Wein in die gehobenere Flasche zu geben"?

"Es ist eigentlich ein neuer Wein, aber es gibt eine Vielzahl von Flaschen und verschiedenen Jahren", sagte James Kobielus, leitender Analyst für Wikimedia Data Science, Deep Learning und Anwendungsentwicklung.

Kobielus fügt hinzu, dass die meisten alten Weine noch recht schmackhaft sind, die neue Generation der KI nutzt frühere Ansätze und baut darauf auf, wie die Technologie, die von Apache's Big Data Framework Hadoop verwendet wird.

Das fanatische Phänomen der künstlichen Intelligenz beruht jedoch auf der fehlenden spezifischen Entwicklung einiger der ehemaligen KI-Kandidaten, die uns, so Kobielus, näher zu den Maschinen bringen, die wie Menschen aussehen und denken. Was zählt, sind Big Data ", sagte er im Studio von CUBE in Marlborough, Massachusetts. Warum Big Data das Interesse an künstlicher Intelligenz weckte, weil es eine große Hilfe bei der Ausbildung eines Deep-Learning-Modells ist Dadurch konnten sie menschlichere Schlüsse ziehen. Kobielus und Dave Vellante haben Durchbrüche in der künstlichen Intelligenz und der maschinellen Intelligenz gemacht. David Vellante ist der führende Analyst von Wikibon und Co-Gastgeber von SiliconANGLEs Live-Studio.

Die Revolution der künstlichen Intelligenz wird algorithmisch sein

AI schreitet in intelligentem Dialog, sondern spiegelt auch sein schnelles Umsatzwachstum. Tractica LLC Umfrage Forschungsunternehmen ergab, dass im Jahr 2016, künstliche Intelligenz Software Marktvolumen von $ 1,4 Milliarden im Jahr 2025 auf $ 59,8 Mrd. . ‚künstliche Intelligenz hat alle Bereiche der vertikalen Branchen und gilt als, Anwendungsfälle in fast Anwendungen die nächste große Veränderung in der Technologie, ähnlich wie bei der industriellen Revolution, die Umwandlung des Computerzeitalters und die Smartphone-Revolution usw. in der Vergangenheit aufgetreten ist, sein‘, Tractica LCC Studien Head of Aditya Kaul sagte, einige dieser Branchen umfassen Finanzen, Werbung, Gesundheitswesen, Luft- und Raumfahrt und Verbraucher.

Die nächste industrielle Revolution wird sich auf Software für künstliche Intelligenz konzentrieren, die wie eine phantasievolle Nerdy-Fantasie klingt, aber auch außerhalb von Silicon Valley verbreitet sich dieses Gefühl. Das Magazin "Time" veröffentlichte kürzlich einen Artikel der Titel „künstliche Intelligenz:. die Zukunft der Menschheit“ der Feature-Artikel, aber diese Vision der künstlichen Intelligenz in dem Sumpffieber Science-Fiction und Wissenschaft und Technologie Kreis ist seit Jahrzehnten in den letzten Jahren gibt es entwickelte ich die Technologie. So schnell ... Was können wir aus der heutigen künstlichen Intelligenz und der absehbaren Zukunft von der Realität bekommen?

Zuallererst ist AI ein weites Etikett - eigentlich eine heiße Phrase und kein genauer technischer Begriff. "Kobielus sagt, AI bezieht sich auf" alles, was einer Maschine hilft, wie ein Mensch zu denken. " , im engeren Sinne, die Maschine ‚denken‘ ist nicht das menschliche Gehirn anders denkt sie? Maschinen glauben nicht wirklich, ist es nicht? es hängt davon ab. Wenn das Synonym ‚denken‘ die ‚abgeleitete‘ ist Dann könnte die Maschine als dem Gehirn gleichwertig betrachtet werden.

. Wenn die Menschen Möglichkeiten der künstlichen Intelligenz zu diskutieren, sie über die beliebtesten künstliche Intelligenz sprechen in der Regel - maschinelles Lernen dies eine Mathematik-Anwendung ist, wird das Prinzip der ein Muster Kobielus sagte Datensatz zu entnehmen: ‚Für eine lange Zeit. Menschen, verwenden Sie die Software-Muster aus den Daten zu entnehmen. ‚Argumentation Methode einiger bestehenden Support-Vektor-Maschinen umfasst, Bayes und Entscheidungsbaum-Logik. diese Techniken sind nicht verschwunden, und weiter in dem wachsenden Bereich der künstlichen Intelligenz-Technologie verwendet werden, Machine-Learning-Modelle oder Algorithmen, die mit Daten trainiert werden, machen ihre eigenen Schlussfolgerungen, die oft als künstliche Intelligenzausgänge oder -einblicke bezeichnet werden, die keine Vorprogrammierung für eine Maschine erfordern und nur das Modell selbst programmieren müssen.

Inferenzmaschine Lernmodelle basierend auf der statistischen Wahrscheinlichkeit dafür. Inferences aus den Daten kann in gewisser Weise analog sein, den Verlauf der menschlichen Verständnisses zu prognostizieren, Relevanz, Klassifizierung, klassifizieren, identifizieren Anomalien oder Trends Formen. Für Maschinen ist der Lernmodus hierarchische Datenklassifizierer ‚Sensor‘, stratifiziert von Perceptron, bilden ein künstliches neuronales Netz. diese neuronale Netz Beziehung zwischen der Wahrnehmung ihrer Aktivierung genannt Funktionen, nicht-lineare Perceptron, wie beispielsweise Tangenten einschließlich. durch diesen neuralen Prozeß, eine Schicht aus Antworten oder Ausgabe wird zum Eingang der nächsten Schicht. die letzte Schicht der Ausgang des Endergebnisses ist.

Tiefe Lernschicht von Neuronen

Deep-Learning-Netzwerke sind künstliche neuronale Netzwerke, die eine große Anzahl von Wahrnehmungsschichten aufweisen, und je mehr Schichten des Netzwerks vorhanden sind, desto größer ist ihre Tiefe.Diese zusätzlichen Schichten werfen mehr Fragen auf, bewältigen mehr Eingaben und produzieren mehr Ausgabe, die eine höhere Datenebene abstrahiert.

Die automatische Gesichtserkennung von Facebook wird von einem Netzwerk mit einem tiefen Lernprozess gesteuert, das durch die Kombination mehrerer Ebenen eine reichhaltigere Beschreibung von Bildern ermöglicht. "Sie könnten fragen: Ist das nicht ein Gesicht? Ist ein szenebewusstes, tiefes Lernnetzwerk, das es als ein Gesicht erkennen könnte, das einer Person namens Dave entspricht, der zufälligerweise der Vater der Familienszene ist, sagte Kobielus.

Jetzt, da Sie ein neuronales Netzwerk mit 1.000 Schichten von Sensoren haben, erforschen Softwareentwickler immer noch, welche tieferen neuronalen Netzwerke das können und die neueste Gesichtserkennungssoftware von Apple iPhone stützt sich auf ein 20-schichtiges konvolutionelles neuronales Netzwerk. Im Jahr 2015 gewannen Microsoft-Forscher den ImageNet Computer Vision Competition durch ein 152-Schichten-Residuenetzwerk, sagte Peter Lee, Microsoft Research Director, der von einem Design profitieren kann, das Datenverdünnung durch das Sammeln der Bilder verhindert Zu den Informationen, jenseits der typischen Tiefe von 20 oder 30 Schichten von Restnetzen, sagte er: "Wir können eine Menge subtiler Dinge lernen."

Neben der Bildverarbeitung entstehen neue Fälle von künstlicher Intelligenz und tiefgreifendem Lernen, die von der Strafverfolgung bis hin zur Genomik reichen. In einer Studie haben Forscher im vergangenen Jahr künstliche Intelligenz eingesetzt, um Hunderte von europäischen Menschenrechtsgerichten vorherzusagen Urteil des Falles, sie sagten voraus, dass die endgültige Auflösung der menschlichen Richter erreichte 79% Genauigkeit.

Hat die Fähigkeit zu denken und verfügt über genügend Ressourcen und sogar Maschinen, um genauer zu Schlüssen zu kommen als Menschen. In letzter Zeit sind Stanford Forscher Algorithmen für das tiefe Lernen besser in der Diagnose von Lungenentzündung als menschliche Radiologen. Der CheXNet-Algorithmus verwendet ein Faltungs-Neuronennetzwerk mit 121 Schichten, das auf einem Satz von über 100.000 Röntgenaufnahmen des Brustkorbs trainiert wurde.

Artificial Intelligence Model verbessert sich weiterhin beim Lernen

Dies unterstreicht ein Schlüsselthema des Deep Learning: Die Algorithmen selbst sind so gut wie die Daten, die sie trainieren, die Genauigkeit der Vorhersagen ist im Wesentlichen proportional zur Größe des Datensatzes, auf dem sie trainiert werden, und der Trainingsprozess erfordert eine fachkundige Supervision Kobielus Er sagte: "Sie brauchen ein Team von Datenwissenschaftlern und anderen Entwicklern, die sich auf statistische Modellierung spezialisiert haben, die darauf spezialisiert sind, Trainingsdaten zu erhalten und sie zu markieren (wo die Markierung eine sehr wichtige Rolle spielt) und gut im Passieren sind Entwicklervorgänge entwickeln und implementieren ein Modell iterativ.

Machine Learning Model Tag Daten sind wirklich entscheidend, aber das menschliche Auge ist immer noch das beste Werkzeug für die Arbeit IBM sagte letztes Jahr, dass sie eine Menge Leute rekrutiert haben, nur um die Daten für die künstliche Intelligenz University of Toronto Forscher Parham Aarabi zu markieren Und Wenzhi Guo erforschte die Art und Weise, wie menschliche Gehirne und neuronale Netzwerke zusammenarbeiten, um einen Algorithmus zu entwickeln, der aus expliziten menschlichen Anweisungen lernt und nicht durch eine Reihe von Beispielen, in denen der Trainer dies tun kann Es sagt dem Algorithmus, dass der Himmel normalerweise blau ist und oben auf dem Bild ist, was besser funktioniert als herkömmliches neurales Netzwerktraining, sagte Kobielus: "Ohne den Algorithmus zu kennen, weiß man nicht, ob der Algorithmus funktioniert. Er kam auch zu dem Schluss, dass viele Schulungen in einer Cloud oder einer anderen zentralisierten Umgebung durchgeführt werden, während dezentralisierte "Netzwerk" -Geräte wie autonome Fahrzeuge die Entscheidung vor Ort treffen werden.

2016 GoodChinaBrand | ICP: 12011751 | China Exports