MATLAB bietet einen kompletten Workflow für die schnelle Ausbildung, Validierung und Bereitstellung von tiefem Lernmodell. Engineers GPU Ressourcen nutzen kann, ohne zusätzlichen Programmiervorgang, damit Sie sich auf der Anwendung konzentrieren sich eher als Performance-Tuning. NVIDIA TensorRT mit den neuen GPU-Coder Integration kann entwickelt werden, so dass die Tiefe des Lernmodells in MATLAB, niedrige Latenzzeit und hohen Durchsatz Weise laufen auf NVIDIA GPU bereitgestellt. interne Benchmarks zeigen, MATLAB-Code in Kombination mit dem erzeugten CUDA TensorRT, Inferenz Tiefenbereitstellungsmodell, wenn das Lernen Alexnet , 5-mal höher ist als die Leistung TensorFlow hoch; eingehende Studie Argumentation VGG-16 Modell Entfaltungsleistung * 1,25-mal höher als TensorFlow.
"Die Entwicklung von Bild-, Sprach-, Sensor- und Internet-of-Things-Technologien (IoT) hat Teams dazu veranlasst, Lösungen für künstliche Intelligenz mit höherer Leistung und Effizienz zu studieren. Darüber hinaus sind Deep-Learning-Modelle immer komplexer geworden. Es besteht ein enormer Druck ", so David Rich, Director von MathWorks." Jetzt können Teams mit MATLAB tief gehende Lernmodelle trainieren. NVIDIA-GPUs können Echtzeit-Schlussfolgerungen in einer Vielzahl von Umgebungen bereitstellen, von der Cloud über das Rechenzentrum bis hin zu eingebetteten Edge-Geräten. "