Los analistas dicen que NVIDIA no será el único ganador de AI chips

Abhinav Davuluri, un analista de la Agencia de investigación de inversiones de los Estados Unidos, publicó el último informe sobre investigación de máquinas y inteligencia artificial (AI) que Intel tiene una mayor probabilidad de ganar que NVIDIA en la competencia de mercado de chips. En el mercado acelerador de chips, incluyendo la GPU de NVIDIA, así como chips de FPGA de Intel y Xilinx (Xilinx), el mercado 2021 podría ser $20 mil millones, y NVIDIA tiene la capacidad de seguir beneficiándose de las tendencias de la AI, la revista financiera Barron informó. Sin embargo, Intel y sus pares para introducir soluciones de AI personalizadas también pueden dividirse en pastel de mercado. Davuluri piensa que la ventaja de Intel y Xilinx radica en la fase de inferencia (inferencia) del aprendizaje automático, la fase de entrenamiento (Training) requiere una capacidad de cálculo para entender el DataSet, pero la afirmación es que el equipo induce la respuesta manipulando la nueva muestra de datos. Se espera que el CEO de NVIDIA Huang ingrese con éxito la fase de inferencia después de su mercado de fase de entrenamiento liderado por GPU, prediciendo que cada consulta de red puede depender de la GPU de NVIDIA en el futuro. Davuluri no lo cree así, pero es optimista que otras soluciones son más adecuadas para el estudio posterior de la parte de inferencia. Davuluri dice que Intel tiene una selección más amplia de chips que NVIDIA, y cree que Intel puede desempeñar un papel más importante en la fase de inferencia, incluyendo FPGA, el procesador de sinergias y los circuitos integrados de aplicaciones especiales (ASIC) dominarán el mercado del acelerador, especialmente en términos de inferencia. Davuluri argumenta que la fase de inferencia no requiere características iniciadas por NVIDIA, mientras que Intel y la FPGA de Xilinx pueden ser más apropiadas. El informe de Davuluri señala que, contrariamente a la formación paralela a gran escala en inteligencia artificial realizada en centros de datos, smartphones, lote o productos relacionados, típicamente realiza cálculos continuos de inferencias. La carga de trabajo de inferencia se puede dispersar en más tipos de procesadores, incluyendo CPUs, GPU, FPGA y ASIC. El procesador dedicado de gama alta del smartphone acelerará el uso de aplicaciones individuales tales como reconocimiento de la imagen o del discurso mientras que reduce el consumo de energía de la CPU, prolongando así la vida de la batería, tal como iPhone 7 usando un procesador y una GPU de la señal de imagen integrados en el procesador A10 para realizar ciertas tareas del AI, pero para el iPhone futuro, Apple (AAPL) se rumorea que está usando un motor de los nervios (motor de los nervios) confiar en las virutas discretas. Por otro lado, el uso de aceleradores dedicados puede no ser económico para todos los equipos terminales, especialmente para muchos productos. Por lo tanto, cuando el precio/rendimiento no es la principal consideración, se puede realizar en la CPU, mientras que el procesamiento de un gran número de operaciones inferenciales, como el centro de datos utilizando GPU, FPGA, o el chip hecho por el cliente. El informe piensa que el FPGA es el más conveniente, pero la desventaja de FPGA es que comparado con GPU, la dificultad de programación de la viruta es más alta. Finalmente, el informe menciona el alfabeto TPU, aunque el TPU puede no ser enumerado, pero pudo conducir Amazon y Microsoft y otras compañías para lanzar más virutas modificadas para requisitos particulares, como Intel, NVIDIA y Xilinx en los competidores del mercado de la viruta de la inteligencia artificial.

2016 GoodChinaBrand | ICP: 12011751 | China Exports