繪圖處理器大廠NVDIA第1季數據中心業務成長較過去幾年明顯放緩. NVIDIA能否維持在人工智慧(AI)領域的地位, Google TensorFlow Processing Unit (TPU)等定製晶片的出現會否威脅到NVIDIA在深度學習培訓中的主導地位. 而英特爾(Intel), 超微(AMD)和該領域的所有新創公司能否追上NVIDIA, 值得深入探討. 據富比士(Forbes)報導, 市場研調機構Moor Insights & Strateg分析師Karl Freund日前發表研究報告指出, NVIDIA在AI方面的驚人成長引發很多關注, 並帶來眾多潛在對手, 其中許多公司聲稱其研發中的晶片比NVIDIA的快10倍, 而且功耗更低. 而除了超微的GPU之外, 所有公司都認為專為處理神經網路設計的晶片是條可行路線. 英特爾 英特爾(Intel)於2016年收購Nervana來建構其加速器產品組合. 原始Nervana Engine應該在2017年發布, 迄今仍無消息. 在NVIDIA發表效能比Pascal高6倍的Volta TensorCores震驚各界後, Nervana可能決定調整其最初設計. Freund認為, 首批量產的Nervana晶片可能會在2018年後期問世. 上面的討論是關於訓練深度神經網路(DNN), 這是NVIDIA在AI中取得很大成功的地方. 然而, 英特爾表示, 通過將良好的軟體設計與Xeon數據中心處理器配對, 可在推論工作中實現出色的性能. 該公司聲稱享有逾80%的推論處理市場市佔. Google TPU和其他內部ASIC Google有兩種可用於AI的ASIC: 一種用於推論, 另一種用於培訓. Google將TPU做為加速器推向市場. 但實際上, 它由4個相同的ASIC構成, 每個提供約45TOPS. 相較之下, NVIDIA Volta每個晶片提供高達125TOPS. 隨著時間推移, Google可能會將其大部分內部GPU工作轉移到TPU. 超微 儘管超微在準備其軟體堆疊好與NVIDIA爭奪機器學習工作負載方面做得很好, 但其當前Vega晶片在峰值效能方面比NVIDIA的Volta落後了一代. 新創公司 全球目前有10幾家新創公司計劃競爭機器學習工作量, 其中有些已準備好推出晶片. 大陸的寒武紀看起來資金充足, 並獲得大陸政府支援. 寒武紀專註於處理神經網路, 而不是建構神經網路. 矽谷公司Wave Computing已推出能建構培訓模型的晶片. Wave採用名為DataFlow Architecture的新穎設計, 據稱能消除傳統加速器的瓶頸. Wave的數據流處理器不必使用CPU就能直接訓練和處理神經網路. 與Google TPU不同, Wave支援微軟CNTK, 亞馬遜(Amazon) MXNet和Tensorflow軟體進行深度學習. 其他知名公司如Cerebras, GraphCore和Groq仍處於隱形模式, 但已籌集大量資金來打造定製AI加速器, 但應該要到2019年才會推出產品. Freund認為, NVIDIA的最大威脅可能是Google TPU. Google可能會繼續購買和使用許多GPU來處理TPU不太適合的工作負載, 例如用於語言處理的遞歸神經網路. 而Wave對不想使用公共雲進行AI開發和部署, 並且不希望自行設置自GPU基礎設施的企業來說是不錯的選擇. 最後, 英特爾若能借Nervana進入市場, 且願投資全力支援它, 那麼Nervana可能在2019年構成威脅. 但Nervana需要至少3年的時間和堅實的路線圖來發展1個可行的生態系統. 需要考慮的1個因素是, 隨著NVIDIA 7納米製造技術的發展, NVIDIA將能為AI功能添加重要的晶片面積. 因此, 專註於AI的晶片區域百分比可能會增加, 以至於這部分實際上成為也能顯示圖形的ASIC. Freund不認為NVIDIA是1家GPU公司, 而是1家對成長抱有無限渴望的平台公司. 目前沒有其他公司擁有NVIDIA在AI硬體和軟體專業知識的上擁有NVIDIA的深度和廣度. NVIDIA若預見來自超微, 英特爾或ASIC的威脅, 大可設計出更好的AI晶片. NVIDIA已通過深度學習加速器(DLA)做到這一點. GPU若受到威脅, NVIDIA能夠也將轉向下一步. 與此同時, 它在AI培訓晶片方面有明顯的成長和市場領先地位. 在推論處理方面, NVIDIA專註於數據中心工作負載及用於自駕車等應用的視覺引導系統. 汽車市場在未來幾年雖然規模仍然有限, 但Freund毫不懷疑它最終會帶來顯著成長.