Este chip desarrollado por Google se activó cuando los sistemas Pixel 2 y Pixel 2 XL se actualizaron a Android 8.1, pero Google solo dijo que el chip mejorará la potencia de procesamiento HDR + mientras toma imágenes para un mejor rendimiento de la cámara.
El modo específico de usarlo no es una descripción demasiado detallada.
Sin embargo, con los teléfonos Pixel y Nexus próximos parches del sistema de febrero, solo se activará realmente Pixel Visual Core.
Google dijo que a través de Pixel Visual Core, las aplicaciones pueden llamar mejor a la API incorporada de la cámara, hacer mejores fotos directamente.
La aplicación mencionada aquí, no las aplicaciones integradas de la cámara del sistema Android, sino las aplicaciones de terceros, más precisamente aquellas que tienen permiso para abrir la aplicación de la cámara.
Google ofrece tres aplicaciones de terceros que actualmente admiten Pixel Visual Core en su documentación, Instagram, Snapchat y Whatsapp, pero ninguna de estas tres aplicaciones funciona para nosotros.
Pero eso no significa que solo estas tres aplicaciones puedan llamar a Pixel Visual Core directamente. Como tanto la API de la cámara de Google como Pixel Visual Core son de código abierto, en teoría cualquier desarrollador puede tener su aplicación llamada Pixel Visual Core para Directamente tome mejores fotos.
Por supuesto, Google una vez más ilustra las mejoras que Pixel Visual Core aporta a la toma de fotos:
Pixel visual Core está diseñado para manejar el procesamiento pesada imagen y diseño, pero su bajo consumo de energía, puede ahorrar energía de la batería. Lo más importante es, puede ejecutar el modo HDR +, utilice esta potencia de cálculo adicional para mejorar la calidad de la imagen.
Además, Google también proporcionó algunas muestras para demostrar el efecto de tomar fotografías después de activar Pixel Visual Core.
El primer conjunto de fotos muestra la capacidad de Google para mejorar la calidad de sus fotos eliminando la luz de la foto y los detalles faltantes, pero no funciona al aumentar el brillo y el ruido borroso. Es para mejorar el brillo al mismo tiempo puede recuperar más detalles, la diferencia entre las dos fotos es muy obvia.
Otro conjunto de fotos muestra Pixel's Visual Core que maneja los efectos subexpuestos y desiguales, con la posición de la cámara en una situación de retroiluminación lateral que causa subexposición a la parte de la casa y la sobreexposición de la configuración del sol. Después del Pixel Visual Core, el brillo y los detalles de la casa y el follaje y el jardín de la izquierda se han mejorado, y la luz del atardecer es más agradable para el ojo humano, también se han demostrado los detalles del árbol bajo la luz de fondo.
Además, Google también dijo que con el Pixel Visual Core se activa, sino que también mejora las capacidades de zoom digital de Pixel 2 para hacer más nítidas las fotos tomadas, los detalles pueden ser más reservados, después de todo, Pixel 2 no importa cuán buena sea la cámara, También menos es un teleobjetivo.
El beneficio de las aplicaciones de terceros que llaman a Pixel Visual Core es que los usuarios de Pixel 2 ya no necesitan encender la cámara para tomar una foto, luego abren la aplicación para cargar la foto y subirla directamente a la aplicación.
Sin embargo, Pixel Visual Core solo se puede usar en aplicaciones de terceros y no se llamará a la cámara de Pixel porque su sintonización HDR + es lo suficientemente buena, pero las aplicaciones de terceros no se pueden usar directamente. Parte del rol de Core es otorgar derechos de aplicación a terceros.
Además, aunque algunas personas modifican la cámara nativa en Pixel 2 para que otros teléfonos puedan disfrutar de HDR + de Google, pero se puede lograr la mejor cámara con Pixel 2.
Pero frente a Pixel, solo puedo decir que realmente compre el sistema para enviar un teléfono móvil ... correcto.