功耗小速度快 | 人工智能首选ASIC芯片

ASIC芯片是一种为专门目的而设计的集成电路, 功能特定的最优功耗AI芯片, 专为特定目的而设计. 不同于GPU 和FPGA 的灵活性, 定制化的ASIC一旦制造完成将不能更改, 所以初期成本高, 开发周期长的使得进入门槛高. 目前, 大多是具备AI算法又成就梦想擅长芯片研发的巨头参与, 如Google的TPU.

当前可用于加速机器学习训练及深度神经网路的主要芯片技术, 包括ASIC芯片, 绘图芯片(GPU), 现场可程式化逻辑闸阵列(FPGA)芯片以及中央处理器(CPU)等4种, 这4类芯片技术在支援AI及机器学习上各有擅场及优劣势, 其中GPU在技术上即为ASIC技术运用在处理绘图演算法上, 差异在于ASIC芯片可提供指令集及资源库可让GPU进行程式化, 借此可用在处理本地储存的资料, 好比是许多平行演算法的加速器般.

ASIC芯片

基本上GPU速度非常快且相对具弹性, ASIC技术虽同样具备处理速度很快的优势, 不过使用弹性相对较缺乏. 在开发ASIC芯片上, 要设计出一款ASIC芯片所需投入的资源及努力不少, 可能必须耗资高达数千万甚或数亿美元, 且需要组建一支成本不低的工程师团队, 显示投资甚钜, 且ASIC芯片还将必须不断升级以跟上新技术及制程水平, 加上ASIC芯片设计者在开发过程初期便已固定其逻辑, 因此若在AI这类快速演进的领域有新想法出现, ASIC芯片将无法对此快速做出反应, 反观FPGA技术还能因此进行再程式化以执行一项全新功能.

ASIC的另一个未来发展是类脑芯片. 类脑芯片是基于神经形态工程, 借鉴人脑信息处理方式, 适于实时处理非结构化信息, 具有学习能力的超低功耗芯片, 更接近人工智能目标. 由于完美适用于神经网络相关算法, ASIC在性能和功耗上都要优于GPU FPGA, TPU1 是传统GPU性能的14-16倍, NPU是GPU的118 倍. 寒武纪已发布对外应用指令集, 预计ASIC将是未来AI 芯片的核心.

理论上是这么讲, 但现实问题是, 谁来代工?

先看代工厂这边, 全球有很多代工厂, 但是因为难度太高, 能生产AI单封装系统的厂家并不多, 台积电, 三星和格罗方德都在榜单之列.

那么, 是哪些厂商在设计AI单封装系统呢?

你需要看看哪些厂商真正擅长2.5D集成和拥有设计所需的关键IP(比如HBM2物理层接口和高速SerDes). HBM2 PHY和高速SerDes模块执行该单封装系统内多个组件之间的任务关键性通信. 这些都是模拟设计中非常苛刻的挑战, 从ASIC供应商那里购买IP可以把风险降至最低.

擅长这些领域的ASIC厂商并不多, 不过由于人工智能市场可能会出现爆炸性增长, 所以这些ASIC厂商将会受益匪浅.

2016 GoodChinaBrand | ICP: 12011751 | China Exports