De acuerdo con TechCrunch y Tech Xplore informó que el chip fue desarrollado por el MIT estudiante graduado Avishek Biswas dirigió el equipo de su mayor ventaja es en los teléfonos inteligentes, electrodomésticos y otros dispositivos portátiles, en lugar de los servidores de alto consumo de energía que ejecutan la red neuronal carretera.
Esto significa que el uso futuro de la oblea puede llamar a una red neuronal para la voz y el reconocimiento de rostros y el aprendizaje profundidad nativo, en lugar de utilizar los algoritmos más ásperas, basados en reglas, o enviar información a la nube pasará para volver a los resultados del análisis.
Biswas dijo que, en general, los diseños de chips AI tienen una memoria y un procesador que moverán los datos entre la memoria y el procesador. Los algoritmos de aprendizaje de máquinas requieren una gran cantidad de operaciones y, por lo tanto, los datos se transmiten con la mayor parte de la energía. El funcionamiento de estos algoritmos se puede simplificar a una operación específica llamada producto punto, que elimina la necesidad de transferir datos hacia adelante y hacia atrás si la operación del producto escalar se puede realizar directamente en la memoria.
Las redes neuronales generalmente se dividen en muchas capas. Un nodo de procesamiento único en una capa de red generalmente recibe datos de varios nodos en la capa inferior y pasa los datos a múltiples nodos en la capa superior. Cada conexión entre nodos Tiene su peso. Y el proceso de entrenamiento de la red neuronal es principalmente para ajustar estos pesos.
Cuando un nodo obtiene los datos de múltiples nodos en la capa inferior, multiplica cada datos por su peso y agrega estos resultados. Este proceso se denomina producto de puntos. Si el producto de puntos excede un cierto umbral, el resultado será Se envía al nodo superior.
De hecho, estos nodos son solo los pesos almacenados en la memoria de la computadora. Calcular el producto escalar generalmente implica leer el peso de la memoria, obtener los datos relevantes, multiplicar los dos y almacenar el resultado en algún lugar y en el nodo Esto se repite para todos los datos de entrada, y dado que habrá miles o incluso millones de nodos en una red neuronal, se deben mover grandes cantidades de datos en el proceso.
Pero esta serie de operaciones es para digitalizar los eventos en el cerebro donde las señales viajan a lo largo de múltiples neuronas y se encuentran en la sinapsis. Y la velocidad de disparo de las neuronas y el voltaje a través de las sinapsis De la señal electroquímica corresponde a los valores de datos y pesos en la red neuronal. Las nuevas obleas de los investigadores de MIT aumentan la eficiencia de la red neuronal reproduciendo más fielmente la actividad cerebral.
En este oblea, el valor del nodo de entrada se convierte en una tensión, y luego se multiplica por los pesos apropiados. Sólo la tensión combinada se convierte de nuevo a los datos, y se almacena en espera de procesamiento adicional en la memoria. Por lo tanto, la oblea prototipo 16 puede calcularse simultáneamente Dot producto de los nodos sin tener que mover los datos entre el procesador y la memoria cada vez que se realiza la operación.
Dario Gil, vicepresidente de IBM AI, dijo que se espera que los resultados del estudio abran la posibilidad de utilizar redes neuronales convolucionales más complejas para la clasificación de imágenes y videos en Internet of Things (IoT).