La Universidad de Stanford recientemente actualizó los resultados de abril de DAWNBenchmark.
DAWNBench es un conjunto de aprendizaje de extremo a profundidad y el razonamiento conjunto de entrenamiento de referencia. Proporciona un conjunto común de índice profunda evaluación del aprendizaje, que se utiliza para cuantificar el tiempo de formación, los costes de formación, los retrasos y el coste razonamiento razonamiento, ya través de diferentes estrategias de optimización , Arquitectura de modelos, marco de software, nube y hardware para calcular los costos de razonamiento.
El modelo ResNet de Intel (Caffe framework), la plataforma Amazon EC2 construida en su totalidad por los procesadores Xeon, obtuvo el primer puesto en demoras de razonamiento y costos de inferencia.
Específicamente, La demora para que la plataforma Intel procese 10000 imágenes es 9.96ms, el costo es 0.02 USD En términos de costo, lo más cercano a Intel es la plataforma de gráficos NVIDIA K80 +4 basada en el framework MXNet, a $ 0.07, con un retraso de 29.4ms.
En la prueba, los principales oponentes de Intel Xeon en informática son el TPU v2 (procesador de tensor) de desarrollo propio de Google y el conjunto de GPU de NVIDIA (incluido el Tesl V100).
Por supuesto, para el tiempo total de entrenamiento para el reconocimiento de patrones (más del 93% de precisión), el modelo ResNet50 basado en Google TPU v2, el marco de aprendizaje TensorFlow es el más alto, solo 30 minutos, 477 veces más que la primera generación.
Este conjunto de pruebas que podemos entender de esta manera, diferentes plataformas de hardware es equivalente a los candidatos, todos al mismo tiempo comenzaron a respaldar un conjunto de preguntas y respuestas, primero nombrados candidatos de Google, Intel es la velocidad y la precisión de la sala de examen para responder al más alto.
Teniendo en cuenta que Intel está desarrollando completamente procesadores gráficos, el aprendizaje profundo tiene una dura batalla contra NVIDIA y Google.