根據TechCrunch及Tech Xplore報導, 該晶片是由MIT研究生Avishek Biswas領導的小組所開發. 其最大優點是能在智慧型手機, 家用裝置和其他攜帶型裝置上, 而不是高耗電的伺服器運行神經網路.
這意味著未來使用該晶片的手機可用神經網路進行語音和人臉辨識及本機深度學習, 而不是使用更粗糙, 基於規則的演演算法, 或將資訊傳送到雲端分析再回傳結果.
Biswas表示, 一般AI晶片設計都有記憶體和處理器. 運算時, 數據會在記憶體和處理器之間來回移動. 機器學習演演算法需要進行大量運算, 因此數據的來回傳輸最耗電. 但這些演演算法的運算可簡化為稱為點積(dot product)的特定操作, 若能直接在記憶的中執行點積運算, 就不必來回傳輸數據.
神經網路通常會分成很多層. 某個網路層中的單個處理節點通常會接收來自下層中幾個節點的數據, 並將數據傳遞給上層中的多個節點. 節點之間的每個連接都有其權重. 而培訓神經網路的過程主要就是在調整這些權重.
某個節點獲得下層多個節點的數據後, 就會將每個數據乘以其權重, 並將這些結果相加. 此運算過程就稱為點積. 若點積超過某個閾值, 此結果將被傳送給更上層的節點.
事實上, 這些節點僅為儲存在電腦記憶體中的權重. 計算點積通常涉及從記憶體中讀取權重, 獲取相關數據, 將兩者相乘, 並在某處儲存結果, 並在節點的所有輸入數據上重複此操作. 鑒於1個神經網路將有數千甚至數百萬個節點, 過程中必須移動大量數據.
但這一系列的操作是以數位化方式來呈現大腦中發生的事件. 在大腦中, 訊號會沿著多個神經元行進, 並在突觸相遇. 而神經元的放電速率和穿過突觸的電化學訊號, 則對應神經網路中的數據值和權重. MIT研究人員的新晶片透過更忠實地複製大腦活動來提高神經網路的效率.
在此晶片中, 節點的輸入值被轉換成電壓, 再乘以適當權重. 唯有組合的電壓會被轉換回數據, 並儲存在記憶體中等待進一步處理. 因此, 該原型晶片能同時計算16個節點的點積結果, 而不必每次運算時都要在處理器和記憶體之間移動數據.
IBM AI副總裁Dario Gil表示, 這項研究的成果可望開闢在物聯網(IoT)中使用更複雜的卷積神經網路進行影像和視訊分類的可能性. TOP▲