Los Pixel 6 solucionarán el problema de las caras borrosas
A Google le encanta la fotografía computacional, y así lo ha demostrado a lo largo de las diferentes generaciones de Pixel.
Desde el efecto de desenfoque bokeh que solo necesita una lente hasta la captura de fotos casi en la oscuridad o el super zoom mediante múltiples capturas, la compañía siempre ha apostado por el procesamiento de la imagen.
Ahora está a punto de dar un paso más con los próximos Pixel 6 y Pixel 6 Pro. Según demostraciones que Google ha hecho a unos pocos medios (The Verge, Wired), los Pixel 6 solucionarán un problema común gracias a su nuevo sistema de cámaras: los rostros borrosos cuando las personas están en movimiento.
Los sujetos en movimiento son difíciles de capturar por diversas razones, pero Google está tratando de lograrlo en el Pixel 6 a través de una combinación de software y hardware.
Cuando un usuario fotografíe a una persona en movimiento, el Pixel 6 capturará una foto con el sensor principal con exposición normal, y otra foto con la lente ultra gran angular con una velocidad de obturación mucho más rápida.
El teléfono puede entonces utilizar el nuevo chip Tensor para combinar las dos, tomando los colores y detalles de la exposición más larga y manteniendo una imagen de la cara más clara gracias a la exposición más corta.
Junto con el algoritmo de combinación de imágenes, también hay aprendizaje automático, como una función de detección de rostros que intenta mantener la cara del sujeto enfocada, así como modelos para combatir problemas comunes como el movimiento de la cámara causado por el temblor de la mano del fotógrafo.
Es difícil juzgar los resultados sin verlos todavía, pero por lo que sabemos ahora, todo parece bastante impresionante.