MathWorks gibt die MATLAB-Integration mit NVIDIA TensorRT zur Beschleunigung von Anwendungen für künstliche Intelligenz bekannt

Peking, China - 11. April 2018 - MathWorks gab heute bekannt, dass MATLAB nun über GPU-Coder in NVIDIA TensorRT integriert wird, um Ingenieuren und Wissenschaftlern die Entwicklung neuer Modelle für künstliche Intelligenz und Deep Learning in MATLAB zu ermöglichen und die Leistung sicherzustellen Und Effizienz entspricht der wachsenden Nachfrage nach Rechenzentren, Embedded-Anwendungen und Automotive-Anwendungen.

MATLAB bietet einen kompletten Workflow für die schnelle Ausbildung, Validierung und Bereitstellung von tiefem Lernmodell. Engineers GPU Ressourcen nutzen kann, ohne zusätzlichen Programmiervorgang, damit Sie sich auf der Anwendung konzentrieren sich eher als Performance-Tuning. NVIDIA TensorRT mit den neuen GPU-Coder Integration kann entwickelt werden, so dass die Tiefe des Lernmodells in MATLAB, niedrige Latenzzeit und hohen Durchsatz Weise laufen auf NVIDIA GPU bereitgestellt. interne Benchmarks zeigen, MATLAB-Code in Kombination mit dem erzeugten CUDA TensorRT, Inferenz Tiefenbereitstellungsmodell, wenn das Lernen Alexnet , 5-mal höher ist als die Leistung TensorFlow hoch; eingehende Studie Argumentation VGG-16 Modell Entfaltungsleistung * 1,25-mal höher als TensorFlow.

"Die Entwicklung von Bild-, Sprach-, Sensor- und Internet-of-Things-Technologien (IoT) hat Teams dazu veranlasst, Lösungen für künstliche Intelligenz mit höherer Leistung und Effizienz zu studieren. Darüber hinaus sind Deep-Learning-Modelle immer komplexer geworden. Es besteht ein enormer Druck ", so David Rich, Director von MathWorks." Jetzt können Teams mit MATLAB tief gehende Lernmodelle trainieren. NVIDIA-GPUs können Echtzeit-Schlussfolgerungen in einer Vielzahl von Umgebungen bereitstellen, von der Cloud über das Rechenzentrum bis hin zu eingebetteten Edge-Geräten. "

2016 GoodChinaBrand | ICP: 12011751 | China Exports