MathWorks, 인공 지능 애플리케이션 가속화를위한 NVIDIA TensorRT와의 MATLAB 통합 발표

베이징, 중국 - 4 월 11 일, 2018 - 매스 웍스는 오늘 엔비디아 TensorRT GPU 코더와 통합 할 수 있습니다 MATLAB 새로운 인공 지능과 MATLAB에서 모델을 학습의 깊이를 개발하는 엔지니어와 과학자하여이를 달성 할 수 있도록하고, 성능을 보장 할 수 있다고 발표했다. 과 효율성은 데이터 센터, 임베디드 애플리케이션 및 자동차 애플리케이션 수요를 충족합니다.

MATLAB은 빠른 교육, 검증, 그리고 깊은 학습 모델 구축을위한 완벽한 워크 플로우를 제공합니다. 엔지니어는 추가 프로그래밍 작업없이, GPU 자원을 이용할 수있다, 그래서 당신은 오히려 성능 튜닝에 비해 응용 프로그램 자체에 집중할 수 있습니다. NVIDIA TensorRT을 새로운 GPU 코더로 MATLAB, 낮은 지연 시간과 높은 처리량 방식으로 학습 모델의 깊이는 NVIDIA의 GPU에서 실행을 배포 할 수 있도록 통합 개발 될 수있다. 내부 벤치 마크 표시, 생성 된 CUDA TensorRT와 함께 MATLAB 코드, 추론 깊이 배포 모델 때 Alexnet 학습 상기 성능 TensorFlow 높이보다 5 배 이상, 깊이 연구 추론 VGG-16 모델을 전개 성능 * TensorFlow보다 1.25 배 이상이다.

진화하는 이미지, 음성, 센서 및 IoT (Internet of Things) 기술을 통해 팀은 더 나은 성능과 효율성을 갖춘 인공 지능 솔루션을 연구하게되었고 심층적 인 학습 모델도 점점 더 복잡해졌습니다. MathWorks Director David Rich는 "이제 팀은 MATLAB을 사용하여 심층 학습 모델을 교육 할 수 있으며 NVIDIA GPU는 클라우드에서 데이터 센터, 임베디드 에지 장치에 이르기까지 다양한 환경에서 실시간 추론을 구현할 수 있습니다."

2016 GoodChinaBrand | ICP: 12011751 | China Exports