MATLAB 提供了一個完整的工作流程來快速訓練, 驗證和部署深度學習模型. 工程師可以使用 GPU 資源, 而無需額外編程操作, 因此可以專註於應用本身而不是性能調優. NVIDIA TensorRT 與 GPU Coder 的全新整合使得可以在 MATLAB 中開發深度學習模型, 然後以高吞吐量低延遲的方式部署在 NVIDIA GPU 上運行. 內部基準測試顯示, MATLAB 生成的CUDA代碼與 TensorRT 結合, 在部署 Alexnet模型進行深度學習推理時, 性能比 TensorFlow 高 5 倍; 在部署 VGG-16 模型進行深度學習推理時, 性能比 TensorFlow 高 1.25 倍. *
'不斷髮展的映像, 語音, 感測器和物聯網 (IoT) 技術促使團隊以更好的性能和效率研究人工智慧解決方案. 此外, 深度學習模型變得越來越複雜. 所有這些都給工程師們帶來了巨大的壓力, ' MathWorks 總監 David Rich 說. '現在, 團隊可以使用 MATLAB 訓練深度學習模型, NVIDIA GPU 可以將即時推理部署到從雲端到數據中心到嵌入式邊界設備等各種環境中. '