ARM: 未来AI将可以跑在所有设备上

「未来AI将可以跑在所有类型的设备上. 」ARM副总裁暨客户事业部总经理Nandan Nayampally如此说道. 针对爆红AI芯片市场, 他近日来台时也揭露ARM未来的行动AI产品战略.

Nandan Nayampally表示, 现在不只是行动装置的处理器有这样的能力, 就算是非常小的微控制器 (MCU) , 都已具备了基本的AI执行处理能力, 如ARM Cortex-M0, Arm Cortex-M3系列等, 现在已经可以在上面跑影像或语音方面的机器学习模型.

随着越来越多主打AI功能或特色的行动处理器推出, 他观察到, 开始有越来越多结合CPU与GPU功能的AP应用处理器, 被运用在处理不同类型用途的AI运算工作上, 比如物体侦测, 语音识别, 或人脸识别等. 不只这些应用处理器采用ARM架构, 市面上许多具备AI功能的智能装置, 也都有采用ARM架构, 例如智能语音装置, 智能相机, 或是智能电视机等等, 即便是在云端上, 他说, 现在它的架构也有被使用在中国, 日本的超级计算机上来做不同应用.

Nandan Nayampally强调, 以后AI在行动装置上将会越来越普及, 「几乎在所有装置上都能够执行. 」至于能够在上面跑什么类型的AI应用, 他表示, 将取决于装置的硬件. 他进一步说明, 机器学习 (ML) 和AI都是软件, 跑在硬件上, 如果是简单的AI应用, 不需要经过太多运算, 单以CPU或GPU就足以应付; 如果需要经过高度复杂的运算处理时, 则须搭配神经网络加速器 (Neural Network Accelerator) , 来加速运算, 以做为更进阶的AI应用.

Nandan Nayampally表示, 未来公司也将持续强化CPU, GPU在机器学习或AI的处理能力, 不仅在设计架构上, 将加入了更多指令集, 功能或工具, 提供机器学习, 甚至深度学习更强大的支持, 还会透过软件来优化排程, 以发挥出更高的使用效率, 他举例说, 最近刚推出的Cortex-A76 CPU架构, 在机器学习任务的执行上, 就比前代A75能获得4倍的效能提升, 另外在Mali-G76 GPU方面, 也比G72足足高出3倍效能表现.

不只是芯片开发设计要结合AI, ARM今年也开始聚焦神经网络加速器, 它以Project Trillium全新架构推出 Machine Learning processor (MLP) 与Object Detection processor (ODP) 两款全新IP系列, 这是ARM今年初发表的全新人工智能 (AI) 芯片家族.

前者用于机器学习加速, 每个处理器的浮点运算效能高达4.6Teraflops, 而且也更省电, 功耗上, 每瓦可达到3Teraflops浮点运算效能. 后者则是用于计算机视觉运算加速, 与传统的DSP数字讯号专用芯片相比, 效能提升多达80倍, 并且能处理高达每秒60帧画面的Full HD高画质影片.

不仅如此, Nandan Nayampally也相当看好物体侦测(Object Detection)在AR, VR领域的应用发展, 甚至他说, 公司2年前买下Apical这家以嵌入式计算机视觉和影像应用为主的技术公司, 帮助它加快切入AR, VR装置市场, 除了现有已支持视觉运算 (Vision computing) 的ARM产品以外, 他说, 之后也将会有下一代Vision解决方案推出.

2016 GoodChinaBrand | ICP: 12011751 | China Exports