Der Schlüssel zum Brechen der KI-Grenze ist | menschliches Gehirn '...

Es ist nicht neu, dass Wissenschaftler zum menschlichen Gehirn zurückkehren, um neue Alternativen zu den heutigen Computertechnologien zu finden.

Barbara De Salvo, leitende Wissenschaftlerin bei CEA-Leti, stellt fest, dass es seit den frühen Anfängen der Künstlichen Intelligenz (KI) Mitte der 1950er Jahre eine Welle der KI-Forschung gegeben hat, obwohl viele Wissenschaftler und Ingenieure immer an dem Konzept interessiert sind.

Allerdings ist jetzt die Zeit, ernsthaft an der menschlichen Gehirn Technologie aussieht gelinde inspiriert: ‚Wir sollten erkennen, dass es andere Techniken zum aktuellen Modell werden uns gute Fragen stellen helfen.‘ De Salvo in diesem International Solid State Circuits Conference Jahr (ISSCC), nachdem er nach einer Keynote ein EE Times-Interview erhalten hatte, sagte: "Ohne die neuen Paradigmen und Algorithmen wird es der Industrie irgendwann schwerer fallen, die verschärften Strombedarfsanforderungen zu erfüllen."

Während die Industrie AI eingebettete Plattformen wurde drängen, wie 2, Mobileye EyeQ5 und Movidius von Myriad Xavier Nvidia, aber, um die Bedürfnisse des Endgeräts mit weniger Stromverbrauch an den Kanten (Rand) Griff eine große Anzahl von Analysen zu treffen, wobei sie: ' Wir sind weit von dem entfernt, was wir erreichen müssen. "

(Quelle: CEA-Leti)

De Salvo vergleicht die Berechnungseffizienz (GOPS / W) der Folgephase und des GOPS mehrerer AI-Chips während einer Keynote-Rede.

(Quelle: CEA-Leti)

Sie wies darauf hin, dass es immer noch eine große Lücke zwischen den Bedürfnissen der Industrie und den bestehenden Lösungen gebe. "Keine Chips - sei es für kommerzielle Veröffentlichungen, Prototypen, Chips für Design oder Entwicklung in der Wissenschaft - können weniger als 100 μW liefern Genau das müssen die Edge-Devices erreichen, denn sie müssen jahrelang auf Energy Harvesting oder Miniaturbatterien setzen.

Warum zur Forschung des menschlichen Gehirns zurückkehren?

De Salvo sagte, dass wir wissen, dass das menschliche Gehirn etwa 2% des Körpers wiegt, aber 20% des Körperstoffwechsels verbraucht.

Das menschliche Gehirn verarbeitet 1.011 GOPS bei 20 W. De Salvo betont, dass es bisher keinen Prozessor auf der Welt gibt, der eine vergleichbare Leistung und Leistung wie das menschliche Gehirn hat.

De Salvo erklärte, dass diese Klasse der Energieeffizienz sich im Laufe der Evolution des Menschen für eine lange Zeit entwickelt hat, um die Gehirnfunktion zu maximieren und gleichzeitig den Energieverbrauch zu minimieren.

"Die Halbleiterindustrie nimmt Anleihen aus der Biologie", sagte sie. "Traditionelle Computerarchitekturen sind darauf ausgerichtet, die Energieanforderungen zu erfüllen, hauptsächlich weil Energie verbraucht wird, wenn Prozessor und Speicher kommunizieren." Die Gehirn-Synapsen enthalten Speicher und Arithmetik in einer einzigen Architektur, und sie erklärt, dass diese geniale Technik die Grundlage für eine Gehirn-inspirierte Nicht-von-Neumann-Computerarchitektur liefert.

Die Essenz der vom Gehirn inspirierten Operationsprinzipien liegt in Dingen wie Spike-Kodierung und Spike-Timing-Dependent Plasticity (STDP), etc. Sie weist darauf hin, dass in Bezug auf den Zustand der Neuronen im System kodiert : In der Vergangenheit wurden Neuronen mit Analogien oder Zahlen kodiert, der neueste Trend im Neuromorphic Computing ist jedoch, den Wert eines Neurons als Impuls oder Spitze zu kodieren, und sie erklärt: "Neuronen haben keine Uhr und sind rein ereignisorientiert "

Die wissenschaftliche Gemeinschaft glaubt, dass Spike-Kodierung und STDP vielversprechend sind. Wenn das Eingangs- / Ausgangssignal durch einen Impuls (Spike) repräsentiert wird, fällt die Multiplikation zwischen dem Eingangssignal und dem synaptischen Gewicht auf Gating auf der synaptischen Ebene. Ziel ist es, den Stromverbrauch zu reduzieren, indem Spikes oder ereignisbasierte Signalisierung mit heterogenen Lösungen eingerichtet werden.

(Quelle: CEA-Leti)

Ist das genau so wie bei der ereignisgesteuerten Bildverarbeitungstechnologie von Chronocam? "Sie antwortete:" Ja, aber die Lösung von Chronocam zielt auf die "Vision" der künstlichen Netzhaut, und unsere industrielle Mission besteht darin, neuromorphe Prinzipien anzuwenden Erweitern Sie den gesamten Computerbereich jenseits der Vision. '

De Salvo sagte IBMs Truenorth ist ein ideales Beispiel für neuromorphen Chip CMOS Dynamische neuromorphen 28nm derzeit FD-SOI skalierbare heterogene Prozessoren aufzubauen Lernen (DynapSEL) ist eine groß angelegte neuromorphen Mehrkernprozessoren Ein weiteres Beispiel: DynapSEL ist derzeit eines der Entwicklungsprogramme im Rahmen des Europäischen Kooperativen Forschungsprogramms NeuRAM 3.

Während Neuronen in TrueNorth digital verarbeitet werden, ist DynapSEL analog, jedoch führt keiner dieser Chips effektiv die volle Leistung des neuromorphen Systems aus, da das Gedächtnis nicht auf dem Funktionieren der Neuromorphologie beruht.

Die wissenschaftliche Gemeinschaft versucht, das Gedächtnis der Verarbeitungseinheit näher zu bringen, die traditionelle Speicherhierarchie zu revolutionieren und "In-Memory-Computing" zu implementieren. Bisher hat die neuromorphe Hardware noch nicht ihr volles Potenzial erreicht, sagte De Salvo: Wir müssen Ultra-High-Density-3D-Architekturen für neuromorphes Computing verwenden, um eine maximale Konnektivität und Rekonfigurierbarkeit zwischen Neuronen und Synapsen zu erreichen.

Insektengehirn

Wir wissen jetzt, dass es 100 Milliarden Neuronen in unserem Gehirn gibt, und intelligente Insekten wie Bienen etwa 950.000 Neuronen in etwa einem Kubikhirn. De Salvo wies darauf hin, dass bei allen Arten von Insekten die Gehirne der Bienen am größten sind Sie sagte: "Wir haben die neuronale Kartierung im Gehirn der Biene gemeistert, aber wir wissen wenig über Neuronen im menschlichen Gehirn."

Wissenschaftler sind scharf darauf, die Gehirne der Bienen zu profilieren, denn "die Bienen sind so schlau." Die Bienen haben viele Sensoren, die durch ihre Navigationsmittel navigieren und in einer Gruppe kommunizieren können. Um in einer Gruppe zusammen zu leben, müssen die Bienen Kenne die Funktion anderer Bienen.

Bienen haben ausgezeichnete Sensorsysteme und die Fähigkeit, zu lernen und sich zu erinnern, und sie wissen, wie man sensorische Daten integriert - und komplexe Entscheidungen in Form von "Sensorfusion" trifft.

"Natürlich ist das Gehirn der Biene klein, aber ihre vereinfachte Form stellt ein gutes Modell für das KI-System dar", sagte De Salvo: "Es betont die Notwendigkeit, systematisch zu denken, weil der Organismus den Sensor nicht vom Signal trennt Verarbeitung.

AI neuesten Fortschritt?

Vor zehn Jahren konnte sich niemand den Durchbruch vorstellen, den wir jetzt bei AI erleben.

Barbara De Salvo Hauptwissenschaftlerin, CEA-Leti Barbara De Salvo

De Salvo zufolge könnte sich die Branche aufgrund der Aussicht auf KI jedoch zu schnell auf KI-Anwendungen konzentrieren, denn sie sagte: "Wir haben noch immer kein vollständiges Verständnis des KI-Systems ... genau wie tiefes Lernen."

Sie erklärte, dass es eine tiefe Schichtung im tiefen Lernen und die daraus resultierende Systemkomplexität gibt, die es schwierig macht zu sagen, welche Attribute die größte Verantwortung für die Verbesserung der Leistung haben. "Im Vergleich zu allgemeiner Intelligenz, Lernen, Abstraktion und Argumentation Die erreichte Prävalenz ist immer noch sehr begrenzt.

Deep Learning ist exzellent in Bezug auf die Klassifikation, aber "Vorhersage bleibt ein fundamentales Thema im neuronalen Computing", sagte De Salvo: "In letzter Zeit hat das neuronale Netzwerk versagt, einfache Aufgaben zu erfüllen, die Menschen nie verpasst haben." De Salvo und Zitieren von A. Nguyen et al., "Tiefe neuronale Netze sind leicht zu täuschen: hohe Vertrauenserwartungen für unerkannte Bilder", macht sie sich Sorgen Schließlich behindern sie die Entwicklung des Marktes und "verraten sogar das Vertrauen der Nutzer, was zu ernsthaften moralischen Fragen geführt hat".

Zusammenstellung: Susan Hong

2016 GoodChinaBrand | ICP: 12011751 | China Exports