Selon TechCrunch et Tech Xplore a rapporté que la puce a été développée par un étudiant diplômé du MIT Avishek Biswas a dirigé l'équipe de son plus grand avantage est sur les téléphones intelligents, les appareils ménagers et autres appareils portables, plutôt que les serveurs assoiffés de pouvoir exécutant le réseau de neurones Road.
Cela signifie que l'utilisation future de la plaquette peut téléphoner à un réseau de neurones pour la voix et la reconnaissance faciale et l'apprentissage en profondeur natif, plutôt que d'utiliser les plus difficiles, les algorithmes basés sur des règles, ou envoyer des informations sur le nuage passera à revenir aux résultats d'analyse.
Biswas a déclaré qu'en général les conceptions de puce AI ont une mémoire et un processeur qui va déplacer les données entre la mémoire et le processeur.Les algorithmes d'apprentissage de machines nécessitent un grand nombre d'opérations et donc les données sont transmises la plupart du temps Le fonctionnement de ces algorithmes peut être simplifié pour une opération spécifique appelée produit scalaire, qui élimine le besoin de transférer des données d'avant en arrière si l'opération du produit scalaire peut être effectuée directement dans la mémoire.
Les réseaux neuronaux sont généralement divisés en plusieurs couches: un nœud de traitement unique dans une couche réseau reçoit généralement des données de plusieurs nœuds de la couche inférieure et transmet les données à plusieurs nœuds de la couche supérieure. A son poids. Et le processus de formation réseau neuronal est principalement d'ajuster ces poids.
Quand un nœud reçoit les données de plusieurs nœuds dans la couche inférieure, il multiplie chaque donnée par son poids et ajoute ces résultats, ce que l'on appelle le produit scalaire Si le produit scalaire dépasse un certain seuil, le résultat sera: Est envoyé au noeud supérieur.
En fait, ces nœuds ne sont que les poids stockés dans la mémoire de l'ordinateur. Calculer le produit scalaire implique généralement de lire le poids de la mémoire, d'obtenir les données pertinentes, de multiplier les deux et de stocker le résultat quelque part Ceci est répété pour toutes les données d'entrée, et étant donné qu'il y aura des milliers ou même des millions de nœuds dans un réseau de neurones, de grandes quantités de données doivent être déplacées dans le processus.
Mais cette série d'opérations est de numériser les événements dans le cerveau où les signaux voyagent le long de plusieurs neurones et se rencontrent à la synapse.Et le taux de décharge des neurones et la tension à travers les synapses Du signal électrochimique correspond aux valeurs de données et des poids dans le réseau neuronal. Les nouvelles plaquettes des chercheurs du MIT augmentent l'efficacité du réseau neuronal en répliquant plus fidèlement l'activité cérébrale.
Dans cette puce, la valeur d'entrée du nœud est convertie en tension, multipliée par le poids approprié, seule la tension combinée sera reconvertie en données et stockée en mémoire pour un traitement ultérieur. Produit à point des nœuds sans avoir à déplacer les données entre le processeur et la mémoire à chaque fois que l'opération est effectuée.
Dario Gil, vice-président d'IBM AI, a déclaré que les résultats de l'étude devraient ouvrir la possibilité d'utiliser des réseaux de neurones convolutionnels plus complexes pour la classification des images et des vidéos dans l'Internet des Objets (IoT).