Nandan Nayampally表示, 現在不只是行動裝置的處理器有這樣的能力, 就算是非常小的微控制器 (MCU) , 都已具備了基本的AI執行處理能力, 如ARM Cortex-M0, Arm Cortex-M3系列等, 現在已經可以在上面跑影像或語音方面的機器學習模型.
隨著越來越多主打AI功能或特色的行動處理器推出, 他觀察到, 開始有越來越多結合CPU與GPU功能的AP應用處理器, 被運用在處理不同類型用途的AI運算工作上, 比如物體偵測, 語音識別, 或人臉識別等. 不只這些應用處理器採用ARM架構, 市面上許多具備AI功能的智能裝置, 也都有採用ARM架構, 例如智能語音裝置, 智能相機, 或是智能電視機等等, 即便是在雲端上, 他說, 現在它的架構也有被使用在中國, 日本的超級計算機上來做不同應用.
Nandan Nayampally強調, 以後AI在行動裝置上將會越來越普及, 「幾乎在所有裝置上都能夠執行. 」至於能夠在上面跑什麼類型的AI應用, 他表示, 將取決於裝置的硬體. 他進一步說明, 機器學習 (ML) 和AI都是軟體, 跑在硬體上, 如果是簡單的AI應用, 不需要經過太多運算, 單以CPU或GPU就足以應付; 如果需要經過高度複雜的運算處理時, 則須搭配神經網路加速器 (Neural Network Accelerator) , 來加速運算, 以做為更進階的AI應用.
Nandan Nayampally表示, 未來公司也將持續強化CPU, GPU在機器學習或AI的處理能力, 不僅在設計架構上, 將加入了更多指令集, 功能或工具, 提供機器學習, 甚至深度學習更強大的支援, 還會透過軟體來優化排程, 以發揮出更高的使用效率, 他舉例說, 最近剛推出的Cortex-A76 CPU架構, 在機器學習任務的執行上, 就比前代A75能獲得4倍的效能提升, 另外在Mali-G76 GPU方面, 也比G72足足高出3倍效能表現.
不只是晶片開發設計要結合AI, ARM今年也開始聚焦神經網路加速器, 它以Project Trillium全新架構推出 Machine Learning processor (MLP) 與Object Detection processor (ODP) 兩款全新IP系列, 這是ARM今年初發表的全新人工智慧 (AI) 晶片家族.
前者用於機器學習加速, 每個處理器的浮點運算效能高達4.6Teraflops, 而且也更省電, 功耗上, 每瓦可達到3Teraflops浮點運算效能. 後者則是用於計算機視覺運算加速, 與傳統的DSP數字訊號專用晶片相比, 效能提升多達80倍, 並且能處理高達每秒60幀畫面的Full HD高畫質影片.
不僅如此, Nandan Nayampally也相當看好物體偵測(Object Detection)在AR, VR領域的應用發展, 甚至他說, 公司2年前買下Apical這家以嵌入式計算機視覺和影像應用為主的技術公司, 幫助它加快切入AR, VR裝置市場, 除了現有已支援視覺運算 (Vision computing) 的ARM產品以外, 他說, 之後也將會有下一代Vision解決方案推出.