根据TechCrunch及Tech Xplore报导, 该晶片是由MIT研究生Avishek Biswas领导的小组所开发. 其最大优点是能在智慧型手机, 家用装置和其他便携式装置上, 而不是高耗电的伺服器运行神经网路.
这意味着未来使用该晶片的手机可用神经网路进行语音和人脸辨识及本机深度学习, 而不是使用更粗糙, 基于规则的演算法, 或将资讯传送到云端分析再回传结果.
Biswas表示, 一般AI晶片设计都有记忆体和处理器. 运算时, 数据会在记忆体和处理器之间来回移动. 机器学习演算法需要进行大量运算, 因此数据的来回传输最耗电. 但这些演算法的运算可简化为称为点积(dot product)的特定操作, 若能直接在记忆的中执行点积运算, 就不必来回传输数据.
神经网路通常会分成很多层. 某个网路层中的单个处理节点通常会接收来自下层中几个节点的数据, 并将数据传递给上层中的多个节点. 节点之间的每个连接都有其权重. 而培训神经网路的过程主要就是在调整这些权重.
某个节点获得下层多个节点的数据后, 就会将每个数据乘以其权重, 并将这些结果相加. 此运算过程就称为点积. 若点积超过某个阈值, 此结果将被传送给更上层的节点.
事实上, 这些节点仅为储存在电脑记忆体中的权重. 计算点积通常涉及从记忆体中读取权重, 获取相关数据, 将两者相乘, 并在某处储存结果, 并在节点的所有输入数据上重复此操作. 鉴于1个神经网路将有数千甚至数百万个节点, 过程中必须移动大量数据.
但这一系列的操作是以数位化方式来呈现大脑中发生的事件. 在大脑中, 信号会沿着多个神经元行进, 并在突触相遇. 而神经元的放电速率和穿过突触的电化学信号, 则对应神经网路中的数据值和权重. MIT研究人员的新晶片透过更忠实地复制大脑活动来提高神经网路的效率.
在此晶片中, 节点的输入值被转换成电压, 再乘以适当权重. 唯有组合的电压会被转换回数据, 并储存在记忆体中等待进一步处理. 因此, 该原型晶片能同时计算16个节点的点积结果, 而不必每次运算时都要在处理器和记忆体之间移动数据.
IBM AI副总裁Dario Gil表示, 这项研究的成果可望开辟在物联网(IoT)中使用更复杂的卷积神经网路进行影像和视讯分类的可能性. TOP▲