Laut TechCrunch und Tech Xplore berichtet, dass der Chip von MIT Doktorand Avishek Biswas entwickelt führte seine größte Vorteil Team auf Smartphones, Haushaltsgeräte und andere tragbare Geräte, anstatt die leistungshungrige Server das neuronale Netzwerk läuft Straße.
Dies bedeutet, dass die künftige Nutzung des Wafers ein neuronales Netzwerk für die Sprach- und Gesichtserkennung und die nativen Tiefen Lernen telefonieren kann, anstatt die mehr rau, regelbasierte Algorithmen oder Informationen in den Cloud zu den Analyseergebnissen zurückzukehren vergehen senden.
Biswas sagte, dass AI-Chip-Designs im Allgemeinen einen Speicher und einen Prozessor haben, der Daten zwischen dem Speicher und dem Prozessor hin- und herbewegt. Maschinenlernalgorithmen erfordern eine große Anzahl von Operationen und somit werden Daten am meisten hin und her übertragen Die Operation dieser Algorithmen kann zu einer spezifischen Operation vereinfacht werden, die als Punktprodukt bezeichnet wird, wodurch die Notwendigkeit entfällt, Daten vor und zurück zu übertragen, wenn die Skalarproduktoperation direkt in dem Speicher ausgeführt werden kann.
Neuronale Netzwerke sind üblicherweise in viele Schichten unterteilt.Ein einzelner Verarbeitungsknoten in einer Netzwerkschicht empfängt normalerweise Datenvon mehreren Knoten in der unteren Schicht und leitet die Daten an mehrere Knotenin der oberen Schicht weiter Hat sein Gewicht. Und der Prozess des Trainings neuronales Netz ist hauptsächlich, diese Gewichte zu justieren.
Wenn ein Knoten die Daten von mehreren Knoten in der unteren Schicht erhält, multipliziert er jede Daten mit seinem Gewicht und fügt diese Ergebnisse hinzu.Dieser Prozess wird als Skalarprodukt bezeichnet. Wenn das Skalarprodukt einen bestimmten Schwellenwert überschreitet, wird das Ergebnis sein Wird an den oberen Knoten gesendet.
Tatsächlich sind diese Knoten nur die Gewichtungen, die in dem Speicher des Computers gespeichert sind. Das Skalieren des Punktprodukts beinhaltet gewöhnlich das Lesen des Gewichtes aus dem Speicher, Erhalten der relevanten Daten, Multiplizieren der zwei und Speichern des Ergebnisses irgendwo und an den Knoten Dies wird für alle Eingabedaten wiederholt, und angesichts der Tatsache, dass es in einem neuronalen Netzwerk Tausende oder sogar Millionen von Knoten gibt, müssen große Datenmengen in dem Prozess bewegt werden.
Aber diese Reihe von Operationen ist, die Ereignisse im Gehirn zu digitalisieren, wo Signale entlang mehrerer Neuronen reisen und sich an der Synapse treffen. Und die Feuerrate von Neuronen und die Spannung über Synapsen Das elektrochemische Signal entspricht den Datenwerten und Gewichten im neuronalen Netzwerk. Die neuen Wafer der MIT-Forscher erhöhen die neurale Netzwerkeffizienz durch eine genauere Replikation der Gehirnaktivität.
In diesem Chip wird der Eingangswert des Knotens in Spannung umgewandelt, mit dem entsprechenden Gewicht multipliziert, nur die kombinierte Spannung wird zurück in die Daten umgewandelt und zur weiteren Verarbeitung im Speicher gespeichert.Der Prototypchip kann daher gleichzeitig 16 berechnen Punktprodukt der Knoten, ohne dass die Daten bei jeder Ausführung der Operation zwischen dem Prozessor und dem Speicher verschoben werden müssen.
Dario Gil, Vice President von IBM AI, sagte, dass die Ergebnisse der Studie die Möglichkeit eröffnen werden, komplexere Faltungsneuronetze für die Bild- und Videoklassifizierung im Internet der Dinge (IoT) zu verwenden.