Redes neurales convolucionales de Google Trains | Puede separar objetos de imágenes y fondos directamente

Google equipo de investigación publicado recientemente el artículo 'Mobile video en tiempo real Segmentación' en el blog de Google Research, explicó que se ha desarrollado una división de cine (segmentación de vídeo) nuevas características directamente en el primer plano durante el rodaje de la película (retrato etc.) y se separa del fondo, y se reemplaza con otros fondos. Siguiente Reality Según los informes, muchos directores de cine o creadores de vídeo llegará al primer plano y el fondo de la película se divide en dos capas con la película, y para mejorar el fondo a través del reemplazo efectos de vídeo, pero, tradicionalmente, esto requiere post-producción que consume tiempo, o necesita ser pantalla verde (pantalla verde) se mueven en el fondo como la captura de movimiento para la post-producción. equipo utilizado técnicas de aprendizaje automático de red neuronal de convolución corriente principal de investigación de Google ( convolucionales Redes Neuronales; ConvNets) esto simplificará el tiempo de trabajo, por lo que la película se puede dividir directamente en el primer y segundo plano de tiro inmediata, mientras que Google ha invitado a algunos YouTubera hacer videos con esta nueva característica, y subir a YouTube se encuentra todavía en la prueba Historias de YouTube para que los usuarios vean. El líder de Google y el ingeniero de software Valentin Bazarevsky y Andr del proyecto EI Tkachenka en el artículo dice que el objetivo actual es el creador de algunas de las nuevas características con la creación de vídeo para observar el efecto a través, vamos a seguir para añadir más de la escena 'marca' (etiqueta) en el futuro para permitir a los usuarios utilizar más diferentes fondo, y los planes para integrar en la mayor Google aumentada servicio de la realidad (AR). de hecho, con anterioridad Apple (Apple) tiene que el mundo a través de Apple clips de penetración en la técnica de segmentación de vídeo en tiempo real, pero requiere de la cámara del iPhone X a su TrueDepth la ejecución, la visión artificial de Google para que el público puede obtener una experiencia similar, el hecho de que el equipo es resolver la tecnología de segmentación de vídeo ConvNets diseño complejo y fácilmente representar vídeo de alta definición en teléfonos móviles, que se pueden ejecutar en todos los iPhone 7 Los videos que superan los 100 cuadros por segundo (FPS) tienen más de 40 FPS en el Pixel 2.

2016 GoodChinaBrand | ICP: 12011751 | China Exports