Die Stanford University hat DAWNBenchmarks April-Ergebnisse kürzlich aktualisiert.
DAWNBench stellt eine Reihe von Benchmarks für End-to-End-Deep-Learning-Training und -Reglementierung dar. Es bietet einen gemeinsamen Satz von Deep-Learning-Evaluierungsindikatoren zur Quantifizierung von Trainingszeit, Trainingskosten, Argumentationsverzögerungen und Argumentationskosten sowie durch verschiedene Optimierungsstrategien. , Modellarchitektur, Softwareframework, Cloud und Hardware zur Berechnung von Reasoning Costs.
Das ResNet-Modell von Intel (Caffeframework), die Amazon EC2-Plattform, die vollständig von Xeon-Prozessoren gebaut wurde, erzielte als erstes Argumentationsverzögerungen und Inferenzkosten.
Insbesondere Die Verzögerung für die Intel-Plattform, um 10000 Bilder zu verarbeiten, beträgt 9,96 ms, die Kosten betragen 0,02 USD Was die Kosten anbelangt, ist NVIDIAs K80-Grafik +4-CPU-Plattform, basierend auf dem MXNet-Framework, mit 0,07 US-Dollar am nächsten bei Intel mit einer Verzögerung von 29,4 ms.
Im Test sind die Hauptgegner von Intel Xeon bei der Datenverarbeitung das von Google selbst entwickelte TPU v2 (Tensor-Prozessor) und NVIDIAs GPU-Array (einschließlich Tesl V100).
Natürlich, für die gesamte Trainingszeit für die Mustererkennung (über 93% Genauigkeit), ResNet50 Modell basiert auf Google TPU v2, TensorFlow Lernframework ist die höchste, nur 30 Minuten, 477 mal mehr als die erste Generation.
Diese Reihe von Tests können wir auf diese Weise verstehen, verschiedene Hardware-Plattform ist gleichbedeutend mit Kandidaten, alle gleichzeitig begann, eine Reihe von Testfragen und Antworten zu unterstützen, benannt Googles Kandidaten zuerst zurück, Intel ist die Geschwindigkeit und Genauigkeit der Prüfungsraum, um die höchste zu beantworten.
Wenn man bedenkt, dass Intel Grafikprozessoren voll entwickelt, hat Deep Learning einen harten Kampf gegen NVIDIA und Google.