1.VAR y chips inteligentes dieron a conocer el estadio de la Copa del Mundo. El equipo francés ganó el mayor premio;
Beijing Beijing, junio 16 Copa Mundial de la eléctrica, la FIFA puso en marcha importantes reformas: VAR primera marcha (vídeo árbitro asistente), y se implantaron con un chip inteligente en la pista de bolas para el tercer partido en el juego 16a. En el día, el equipo francés volvió a ser beneficiarios en el duelo con el equipo australiano y ambos ganaron la primera penalización favorable.
Después de la comunicación con el asistente del árbitro de vídeo, Cunha dio el equipo francés una pena conmutada. Gelieziman la pelota con facilidad en la meta, por lo que el equipo francés que confiar en el VAR conmutada, antes de la próxima ciudad. Esta es la primera vez conmutada VAR El puntapié penal resultante.
Esta penalización generó mucha controversia. En la rueda de prensa posterior al partido, el entrenador francés Deschamps dijo que esta pelota es exactamente igual a la penalización anotada por Portugal en España el día anterior. la decisión de arbitrar técnico holandés de mi equipo australiano Van Marwijk cree que fue un aborto involuntario de la justicia: 'Aunque no he visto la reproducción de vídeo, pero estoy bien, ver claramente en la posición en el campo, que no debería ser Un tiro penal. La posición del árbitro está más cerca, pero inicialmente dijo que no había penalidad e indicó el juego para continuar. Somos víctimas de VAR, pero no vamos a desafiar esta decisión ".
equipo francés en la Copa Mundial en una fila a partir de los beneficios VAR y chips inteligentes, también continuó su suerte antes. En 1998, la FIFA presentó oficialmente la 'muerte súbita gol de oro' y más tarde la tecnología de bola de plata en la Copa del Mundo en 1998 octavos de final de la Copa Mundial con Paraguay, el defensa francés Laurent Blanc marcó el primer gol de oro en tabletas historia de los mundiales para ayudar a Francia a clasificarse. con este grano de gol de oro no tiene precio, el equipo francés después del corte Durante todo el camino, eventualmente ganó la Copa Mundial de Dios en el local. Debido a que esta regla fue accidental y demasiado cruel, después de dos años de implementación, en 2004, la FIFA canceló el sistema de bolas de oro y el sistema de bolas plateadas.
Con el fin de promover el desarrollo del fútbol, para proteger a los jugadores y garantizar la continuidad del juego, la FIFA ha estado tratando de modificar algunas de las reglas. Sin embargo, algunas personas son felices a los demás están tristes. En 1970, el primer uso de tarjetas amarillas y rojas de la Copa Mundial de la novena celebrada en México, la primera tarjeta amarilla fue ganado por la antigua Unión Soviética Roper Gorbachov. en 1974, el décimo partido de la Copa Mundial contra Chile, República Federal de Alemania en el oeste de Alemania, Turquía Baba Kan emitió un árbitro de la Copa Mundial en la historia de los jugadores chilenos Fidel Zeljko La primera tarjeta roja será multada. (Fin)
2. GPU, chip FPGA se ha convertido en un brazo 'diestro' para mejorar el aprendizaje automático;
'Noticias inteligentes de NetEase noticias del 17 de junio' En el software comercial, los chips de computadoras se han olvidado. Para aplicaciones comerciales, esto es un producto básico. Debido a que la tecnología de robots y los dispositivos de hardware personal están más estrechamente vinculados, también la aplicación de fabricación Aún más centrado en la parte de hardware.
Desde la década de 1970, en su conjunto, la situación actual de la inteligencia artificial (IA) y la relación específica a la profundidad del aprendizaje (DL), el hardware y el software son enlaces a más fuerza que nunca. Y 'gestión recientemente varios artículos de la inteligencia artificial (AI gestión) 'con exceso de montaje y los prejuicios, existen dos riesgos principales en el sistema de aprendizaje (ML) de la máquina. esta columna examinará una serie de gestores, especialmente los gerentes de línea de negocio de hardware pueden ser procesados Acrónimos: estos acrónimos se mencionan constantemente en los sistemas de aprendizaje automático: Unidades de procesamiento de gráficos (GPU) y Arrays de puertas programables de campo (FPGA).
Esto ayuda a comprender el valor de la GPU porque la GPU acelera el proceso de tensor requerido para las aplicaciones de aprendizaje profundo. El punto de interés para los FPGA es encontrar formas de investigar nuevos algoritmos de IA, entrenar estos sistemas y comenzar a desplegar Muchos sistemas personalizados de bajo volumen estudiados en aplicaciones industriales de inteligencia artificial. Aunque esta es una discusión sobre las capacidades de los FPGA para el entrenamiento, creo que el uso temprano se debió al uso de F, el campo.
Por ejemplo, la capacitación de un motor de inferencia (el núcleo de una 'máquina' de aprendizaje automático) puede requerir gigabytes o incluso terabytes de datos. Cuando se realizan inferencias en el centro de datos, la computadora debe administrar un número potencialmente creciente de solicitudes concurrentes de usuarios. En las aplicaciones de borde, ya sea en drones utilizados para inspeccionar tuberías o en teléfonos inteligentes, el equipo debe ser pequeño y aún efectivo, pero adaptable. En términos simples, una CPU y una GPU. Hay dos dispositivos, y un FPGA puede tener diferentes bloques para hacer cosas diferentes, y es posible proporcionar un sistema de chip robusto. Teniendo en cuenta todos estos requisitos diferentes, es mejor comprender el estado actual de la arquitectura del sistema que puede soportar diferentes requisitos.
Hay dos tipos principales de diseños de chips que pueden impulsar los sistemas actuales de ML, GPU y FPGA. En el medio a futuro (al menos algunos años), también es posible convertirse en una pista de nueva tecnología para los convertidores de juegos. Echemos un vistazo.
Unidad de procesamiento de gráficos (GPU)
El chip más grande en el mundo de la máquina de aprendizaje es la unidad de procesamiento de gráficos GPU. Esto se usa principalmente para juegos de computadora, entonces, ¿cómo algo que se ve mejor en un monitor de computadora se vuelve importante para el aprendizaje automático? Para entender esto, Debe volver a la capa de software.
El aprendizaje automático es el sistema actual campeón profundo aprendizaje (DL). Sistema de DL en base a varios algoritmos, incluyendo la profundidad de la red neuronal (DNN), la red neuronal de convolución (CNN), la red neuronal recurrente (RNN) y muchas otras variantes. Se se ve estos tres términos palabra clave 'de red (red)'. algoritmo es una variante de un tema, el tema es entre capas de diferentes tipos de nodos de comunicación, los nodos y la capa.
Al ser procesada es una pluralidad de matrices o matrices. Otra matriz (Matrix) es un tensor término más preciso (tensor), por lo que se utiliza como clase TensorFlow de aprendizaje de máquina en toda la industria.
Ahora, de vuelta a la pantalla del ordenador. Se puede utilizar en filas y columnas visto como una matriz de píxeles o puntos. Esta es una matriz bidimensional o tensor. Cuando se agrega el color, añadir un poco para el tamaño de cada píxel, que desee a la misma imagen de un rápido cambio al calcular rápidamente puede llegar a ser complicado y ocupa ciclos de CPU paso a paso. la GPU tiene su propia memoria, toda la imagen se guarda como una matriz gráfica a continuación, se puede calcular utilizando un tensor matemática Los cambios en la imagen solo cambian los píxeles afectados en la pantalla. Este proceso es mucho más rápido que volver a dibujar la pantalla completa cada vez que se cambia la imagen.
En 1983, NVIDIA se propuso crear un chip para resolver problemas de la matriz que no pueden ser resueltos por computadoras de propósito general como las CPU. Este es el nacimiento de la GPU.
Las operaciones con matrices no les importa lo que el producto final es, pero sólo el procesamiento de elementos. Esta es una ligera simplificación, ya que diferentes operaciones dependiendo de matriz dispersa (cuando hay muchos cero) diferente de las matrices densas tienen diferentes formas de trabajar, Pero el hecho de que el contenido no cambia las operaciones todavía existe. Cuando los teóricos del aprendizaje profundo vieron el desarrollo de las GPU, pronto lo adoptaron para acelerar las operaciones de tensor.
Las GPU son fundamentales para el desarrollo del aprendizaje automático, el entrenamiento y el razonamiento del centro de datos. Por ejemplo, el NVIDIA Volta V100 Tensor Core continúa acelerando en su arquitectura básica y su capacidad para ejecutar inferencias con menos precisión (este será otro tema) , significa menos bits, lo que significa un procesamiento más rápido. Sin embargo, hay otros asuntos a considerar cuando se trata de Internet de las cosas.
Arreglo de puerta programable de campo (FPGA)
En el campo, todos los tipos de aplicaciones tienen requisitos diferentes. Hay muchas áreas de aplicación, vehículos, tuberías, robots, etc. diferentes. Diferentes industrias pueden diseñar chips diferentes para cada tipo de aplicación, pero esto puede Puede ser muy costoso y puede dañar el retorno de la inversión de la empresa. También puede retrasar el lanzamiento al mercado y perder importantes oportunidades comerciales, especialmente en el caso de las necesidades altamente personalizadas que no ofrecen suficientes economías de escala.
Los FPGA son chips que ayudan a las empresas e investigadores a resolver problemas. Un FPGA es un circuito integrado que puede programarse para una variedad de propósitos. Tiene una serie de 'bloques lógicos programables' y una manera de programar la relación entre bloques y bloques. Una herramienta universal que se puede personalizar para una variedad de usos. Los principales proveedores incluyen Xilinx y National Instruments.
Vale la pena señalar que el bajo costo del diseño de chips no hace que los FPGA sean una opción de bajo costo. Por lo general, son los más adecuados para investigación o aplicaciones industriales. La complejidad de los circuitos y diseños los hace programables, no adecuados para bajo costo. Aplicaciones de consumo
Desde la FPGA se puede reprogramar, lo que hace que sea valioso para el campo emergente de la máquina de aprendizaje está aumentando algoritmo de elevación y de diferentes algoritmos de bloque de reprogramación puesta a punto. Además, de baja precisión, FPGA de baja potencia para inferir sensor remoto es una buena combinación. Mientras que 'sitio (campo)' los inventores, mejor conocido como 'cliente (cliente)', pero FPGA ventaja real en la consecución de las aplicaciones prácticas de IA en el campo, ya sea para la planta , carreteras y oleoductos y otras infraestructuras, o vehículos aéreos no tripulados de detección remota, FPGA permite a los diseñadores de sistemas la flexibilidad de utilizar una pieza de hardware con el fin de lograr una variedad de propósitos, lo que permite el diseño físico más fácil, lo que puede conducir más fácilmente aplicaciones in situ.
Nueva arquitectura próximamente
GPU y FPGA actualmente están ayudando a resolver la forma de ampliar la máquina de aprendizaje de técnicas para desafiar muchos de los efectos de mercado que han hecho es permitir que más personas preocupadas por el desarrollo de esta industria, y tratar de crear un nuevo marco para la aplicación oportuna.
Por un lado, muchas compañías están tratando de aprender las lecciones de las operaciones del tensor en la GPU. Hewlett-Packard, IBM e Intel han desarrollado un proyecto especial para la próxima generación de dispositivos informáticos profundidad tensor de aprendizaje. Al mismo tiempo, como Cambricon, Graphcore y Wave Computing Estas startups también se esfuerzan por hacer lo mismo.
Por otro lado, el brazo, Intel y otras empresas están diseñando la arquitectura para aprovechar la GPU y CPU, y el dispositivo también el objetivo de conocer el mercado de la máquina, dice que son capaces de hacer algo más que centrarse cálculo del tensor para otros procesos en torno al núcleo AI El procesamiento también es más poderoso.
Aunque algunas de estas organizaciones se centran en los centros de datos y otras formas de Internet de las cosas, es demasiado pronto para hablar de ellas.
Desde la creación de empresas a las corporaciones globales, una advertencia es que, además de la primera información, parece que no hay más información. Si vemos las primeras muestras de dispositivos, a más tardar en 2020, entonces sería una sorpresa, por lo que son por lo menos cinco años No listado.
(Elegida de: Forbes Autor: David A. Teich compilación: NUEVA YORK participación inteligente: nariiy)
3.Intel 10nm exposición del procesador Pequeño lote de envío
el rendimiento del proceso de 10 nm de Intel debido a la falta de cumplimiento, la producción en masa se ha pospuesto a 2019, ahora sólo un pequeño volumen de envíos, un producto conocido sólo 15W de potencia de diseño térmico versión de bajo voltaje de la Core i3-8121U (familia cuyo nombre en código-Cannon Lago ), y solo Lenovo lo está usando.
Especificaciones para i3-8121U de doble núcleo cuatro hilos, velocidad de reloj 2.2-3.2GHz, tres de 4 MB de caché, la memoria apoya de doble canal DDR4 / LPDDR4-2400 32 GB, potencia de diseño térmico de 15W.
Nuclear no era parte de la información publicada, debe ser protegido con discapacidad debido a problemas de rendimiento, por lo que pensar en ello añade una tarjeta gráfica AMD.
Alemán hardware ComputeBase medios de comunicación descrito en la primera i3-8121U 'como si' se puede ver la disposición de paquete coherente con el producto anterior, todavía es un núcleo de procesador, un núcleo de chips conjunto de paquetes juntos, BGA integrado paquetes Soldado en la placa base.
Encontramos una versión de bajo voltaje de los ocho generación Intel Core Duo dado oficialmente una foto, se puede encontrar un procesador, chipset núcleos son pequeños, las articulaciones paquete de soldadura y elementos capacitivos también ha cambiado mucho, ya no debería ser compatible.
Después de la medición ComputeBase encontró i3-8121U tamaño del paquete global de 45 × 24 mm (y mismo índice oficial), en el que el área de sección del procesador de aproximadamente 71 mm2, la porción chipset aproximadamente 47 mm2.
Aunque, según el estudio encontró que la densidad de transistores proceso de 10 nm de Intel más de 100 millones por milímetro cuadrado, equivalente o incluso superior al nivel de Samsung, TSMC, 7 nm GlobalFoundries, pero contrastar sus propios productos de 14nm, el cambio no parece grande.
Ya sabes, que forma parte del procesador Intel de 14nm de primera generación de la zona Broadwell-T, sino también el 82 mm2, 10 nm reducir sólo el 13% de la misma, y todos estamos de doble núcleo de cuatro hilos, 4 MB de caché son, pero fue ejecutado nuclear Las unidades aumentaron de 24 a 40 y admiten el conjunto de instrucciones AVX512.
Además, el paquete general de 45 x 24 mm es ligeramente más grande que la versión actual de bajo voltaje de 14 nm de 42 x 24 mm.