Aunque el mercado de automóviles sigue siendo de tamaño limitado en los próximos años, Freund no tiene ninguna duda de que eventualmente conducirá a un crecimiento s

Procesador de dibujo el crecimiento del negocio del centro de datos en el 1er trimestre de NVDIA ha disminuido notablemente en los últimos años. Si NVIDIA puede mantener su posición en el campo de la inteligencia artificial (AI), la aparición de chips personalizados como la unidad de procesamiento de Google TensorFlow (TPU) amenaza la dominación de NVIDIA en la formación de aprendizaje en profundidad. Si Intel, ultra micro (AMD) y todas las nuevas empresas en el campo puede superar NVIDIA vale la pena profundizar en. Según FUBiS (Forbes), el Instituto de investigación de mercado Moor Insights & estrategia Analista Karl Freund publicó un estudio recientemente, dijo que el asombroso crecimiento de NVIDIA en AI causó mucha atención, y trajo a muchos oponentes potenciales, Muchas de estas compañías dicen haber desarrollado chips que son 10 veces más rápido que NVIDIA y tienen menor consumo de energía. Además de la GPU Hyper-micro, todas las empresas creen que el chip diseñado para lidiar con las redes neuronales es una ruta viable. Intel adquirió Nervana en 2016 para construir su cartera aceleradora. El motor Nervana original debería haber sido liberado en 2017, y hasta ahora no ha habido noticias. Nervana puede decidir ajustar su diseño original después de que Volta Tensorcores, que es 6 veces más eficiente que Pascal, ha conmocionado a la comunidad. Freund que la primera producción por lotes de chips Nervana se puede publicar a finales de 2018. La discusión antedicha es sobre entrenar la red de los nervios profundos (DNN), que es donde NVIDIA ha hecho gran éxito en AI. Sin embargo, Intel dice que al emparejar un buen diseño de software con un procesador de Datacenter Xeon, puede lograr un rendimiento excepcional en el esfuerzo de inferencia. La empresa afirma tener más del 80% del mercado de procesamiento inferencial. Google TPU y otros ASIC internos de Google tienen dos tipos de ASIC disponibles para AI: uno para inferencia y el otro para entrenamiento. Google ha hecho de TPU un acelerador para el mercado. Pero de hecho, se compone de 4 ASIC idénticos, cada uno ofreciendo sobre 45TOPS. Por el contrario, NVIDIA Volta cada chip entrega hasta 125TOPS. Con el tiempo, Google puede haber cambiado la mayor parte de su trabajo interno de GPU a TPU. Micro-aunque ultra micro en la preparación de su stack de software y NVIDIA Scramble para la carga de trabajo de máquina de aprendizaje, pero su chip Vega actual en el rendimiento máximo de NVIDIA Volta una generación detrás. La compañía tiene actualmente 10 nuevos emprendimientos en el mundo que están planeando competir para el aprendizaje de la máquina, algunos de los cuales están listos para lanzar fichas. El Cámbrico en el continente parece estar bien financiado y apoyado por el gobierno peninsular. El Cámbrico se centra en tratar con las redes neuronales en lugar de construir redes neuronales. La empresa de Silicon Valley Wave Computing ha lanzado un chip que puede construir un modelo de entrenamiento. Wave utiliza un diseño novedoso llamado arquitectura de flujo de los flujos de corriente, que supuestamente elimina los cuellos de botella en los aceleradores tradicionales. El procesador de la secuencia de datos de la onda puede entrenar y procesar la red de los nervios directamente sin usar la CPU. A diferencia de Google TPU, Wave soporta el aprendizaje profundo de Microsoft CNTK, Amazon Mxnet y TensorFlow software. Otras compañías bien conocidas tales como Cerebras, Graphcore y GROQ están todavía en modo oculto, pero han levantado mucho dinero para construir un acelerador de AI de encargo, pero no deben ser lanzados hasta 2019. Freund que la mayor amenaza de NVIDIA podría ser Google TPU. Google puede seguir comprando y utilizando muchas GPU para manejar una carga de trabajo que no es adecuada para TPU, como una red neural recursiva para el procesamiento del lenguaje. Wave es una buena opción para las empresas que no quieren utilizar la nube pública para el desarrollo y la implementación de AI, y no quieren configurar su propia infraestructura de GPU. Por último, si Intel puede pedir prestado Nervana para entrar en el mercado y está dispuesto a invertir en su pleno apoyo, entonces Nervana podría representar una amenaza en 2019. Pero Nervana necesita por lo menos 3 años de tiempo y una hoja de ruta sólida para desarrollar 1 ecosistema viable. Los 1 factores a considerar son que, con el desarrollo de NVIDIA 7 nanotecnología, NVIDIA será capaz de agregar un área de chip importante a la función de AI. Como resultado, el porcentaje de fichas que se centran en la AI puede aumentar, de manera que esta parte se convierte en un ASIC que también puede mostrar gráficos. Freund no cree que NVIDIA es una empresa de GPU, sino una plataforma de empresas con aspiraciones de crecimiento ilimitado. No existen otras compañías que tengan la profundidad y la amplitud de la experiencia de NVIDIA en hardware y software de AI. NVIDIA puede diseñar un mejor chip AI si prevé una amenaza de un micro, Intel o ASIC. NVIDIA ha hecho esto a través del acelerador de aprendizaje profundo (DLA). Si la GPU está comprometida, NVIDIA también puede pasar al siguiente paso. Al mismo tiempo, tiene un crecimiento obvio y la posición principal del mercado en virutas del entrenamiento del AI. En términos de procesamiento inferencial, NVIDIA se centra en cargas de trabajo de Data Center y sistemas de guía visual para aplicaciones como la autoconducción.

2016 GoodChinaBrand | ICP: 12011751 | China Exports