🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]
Los mejores smartphones del momento son auténticas bestias de la fotografía y el vídeo, gracias a que cuentan con tres o más cámaras traseras con distintas distancias focales, una gran potencia para procesar imágenes y vídeos, y apps de cámara con un montón de modos.
Lo que muchos nos preguntamos es ¿cuál será el siguiente paso para la industria?
Judd Heape, vicepresidenta de productos para cámaras en Qualcomm, tiene claro cuál será el futuro de la fotografía para los smartphones y lo ha compartido con Android Authority.
La Inteligencia Artificial (IA) va a seguir siendo una de las principales áreas de interés para los fabricantes de smartphones y chips en los próximos años, y Heape cree que la IA será la mayor área de interés para la industria. También señala algunas formas en las que la IA dará un paso adelante en los próximos años.
En el futuro, veremos mucha más capacidad de IA para entender la escena, comprender la diferencia entre la piel y el pelo, la ropa y el fondo, y ese tipo de cosas.
Y todos esos píxeles se manejan de forma diferente en tiempo real, no sólo en el postprocesamiento un par de segundos después de tomar la instantánea, sino en tiempo real durante la grabación de un vídeo con una videocámara.
El uso de la IA ha recorrido un camino desde los modos introducidos por primera vez en 2018, pero Heape explica que la IA en la fotografía puede dividirse en cuatro etapas.
La primera etapa es bastante básica; la IA se utiliza para entender una cosa específica en una imagen o escena. En la segunda etapa, la IA controla las llamadas características 3A, es decir, el enfoque automático, el balance de blancos automático y los ajustes de exposición automática.
Qualcomm considera que la industria se encuentra actualmente en la tercera etapa de la fotografía con IA, en la que ésta se utiliza para comprender los diferentes segmentos o elementos de la escena.
Tecnologías actuales como la segmentación semántica y el reconocimiento facial/de ojos aprovechan la IA para reconocer sujetos/objetos específicos en una escena y ajustarlos en consecuencia. Por ejemplo, los teléfonos actuales pueden reconocer una cara y asegurarse de que está bien expuesta, o reconocer que el horizonte está torcido y sugerirte que sujetes el teléfono correctamente.
¿Y la cuarta etapa? Heape dice que estamos a unos tres o cinco años de alcanzar el santo grial, en el que la IA procesará toda la imagen:
Imagina un mundo del futuro en el que dirías «quiero que la foto se parezca a esta escena de National Geographic» y el motor de IA diría «vale, voy a ajustar los colores y la textura y el balance de blancos y todo para que se parezca y se vea como esta imagen que acabas de mostrarme».
Sony hizo algunas afirmaciones interesantes a principios de este año cuando un ejecutivo predijo que las fotos de los smartphones superarían a las imágenes de las cámaras DSLR en los próximos años.
Es fácil de imaginar, dado el progreso que hemos visto de los smartphones, pero los teléfonos siguen teniendo componentes más pequeños debido al factor de forma más delgado en comparación con las DSLR. Qualcomm reconoce estas limitaciones, pero sigue creyendo que los smartphones superarán a las cámaras dedicadas.
En términos de acercarse a la calidad de imagen de una DSLR, sí. Creo que el sensor de imagen está ahí, creo que la cantidad de innovación que se está produciendo en los sensores de imagen de los móviles es probablemente más rápida y más avanzada que lo que está ocurriendo en el resto de la industria.
Además, explicó que la potencia de procesamiento disponible en los smartphones es una ventaja significativa con respecto a las cámaras DSLR:
El procesamiento en Snapdragon es 10 veces mejor que el que se puede encontrar en las cámaras Nikon y Canon más grandes y potentes.
Por eso somos capaces de superar la barrera de la calidad de imagen. Porque aunque tengamos un objetivo pequeño y un sensor de imagen pequeño, estamos haciendo mucho, mucho más procesamiento del que es capaz incluso una DSLR.
El ritmo de desarrollo de los chips hace que veamos grandes mejoras de rendimiento en la cámara. Por ejemplo, la serie Snapdragon 865 ofreció cámara lenta ilimitada a 960 fps, el Snapdragon 8 Gen 1 ofrece vídeo 8K HDR y la serie Snapdragon 888 introdujo la grabación simultánea en 4K HDR a través de tres cámaras. Si a esto le añadimos un procesamiento de fotogramas múltiples cada vez mejor, los smartphones están superando los límites de las cámaras de forma impresionante.
La predicción de Sony sobre las cámaras DSLR se produjo cuando la compañía presentó sensores de 1″ para móviles. Vimos el primer sensor aterrizar en el Sharp Aquos R6 de 20MP y en el Xperia Pro-I de 12MP el año pasado, mientras que Xiaomi y Sony también trabajaron juntos para traer un flamante sensor de 50MP IMX989 de una pulgada al Xiaomi 12S Ultra.
La guerra de los megapíxeles se ha reavivado silenciosamente en los últimos años. En 2018 y 2019, las cámaras de 48MP eran algo raro, pero desde entonces hemos visto que las cámaras de 108MP se han convertido en un elemento común.
Recientemente, se ha presentado el primer teléfono con una cámara de 200MP. También hay rumores de que Samsung podría ofrecer una cámara de 200MP dentro del Galaxy S23 Ultra del próximo año.
Mediatek ya admite cámaras de 320MP en la serie de chips Dimensity 9000, y Qualcomm cree que esta resolución podría ser el próximo punto de salto para la industria.
Los 320 MP son probablemente el siguiente punto en el que nos vamos a detener
Está claro que hay espacio para sensores con muchos megapíxeles y sensores con píxeles más grandes, ya que empresas como Samsung y Xiaomi van por este camino. Sin embargo, Heape tiene su preferencia:
Mi filosofía es quizá diferente a la de algunas personas del sector, ya que no creo necesariamente que necesitemos cientos y cientos de megapíxeles. Creo que necesitamos píxeles más grandes, ¿no? Tenemos que acercarnos a las DSLR y quizás tomar el punto óptimo de unos 40 o 50 MP en lugar de ir a 200 MP y 300 MP. Aunque la industria está presionando para ir en ambas direcciones.
Heape sugiere que las tecnologías innovadoras, como las lentes anamórficas, podrían contribuir a aumentar el tamaño, pero será difícil a corto plazo.
A corto plazo, no, no veo que vayamos a superar la pulgada. Pero en el futuro, sí, probablemente podamos llegar a ello.
Heape explica que el vídeo es actualmente el área de mayor interés para los aceleradores de hardware, señalando el motor bokeh y el hardware de visión por ordenador. Pero también adelanta otra novedad en futuros productos.
Muy pronto tendremos anuncios de hardware dedicado a manejar, como he dicho, diferentes partes de la escena. Un hardware que sabrá qué hacer con los píxeles de la piel, el pelo, la tela, el cielo, la hierba y el fondo. Esas son las áreas — y de nuevo todas ellas se aplican al vídeo — en las que realmente vemos la necesidad de añadir hardware específico.
En términos más generales, también hemos visto que la calidad del vídeo ha avanzado mucho en los últimos años, pero parece dudoso que veamos pronto 8K/60fps, dado que el vídeo 8K en general sigue pareciendo tan nicho para empezar. Heape está de acuerdo y sugiere que 8K/30fps está bien por ahora.
Creo que ya tenemos la resolución y la velocidad de fotogramas en un punto en el que no cambiará durante un tiempo. Ya estamos rodando en 8K/30. Puede que lleguemos a 8K/60, pero tardaremos unos años. Es una cantidad tremenda de rendimiento y, francamente, con lo que tropezamos es con las limitaciones de consumo de energía a medida que subimos de nivel.
En todo caso, esperamos que se produzcan más refinamientos para el vídeo 8K e inferior. Al fin y al cabo, Qualcomm introdujo el HDR 8K con el Snapdragon 8 Gen 1, mientras que innovaciones recientes como el vídeo superestable, el vídeo con poca luz impulsado por la IA y los hiperlapsos nocturnos tienen lugar en 4K o 1080p.
Heape considera que hay margen para mejoras como un mejor «manejo del movimiento y la comprensión del movimiento en una escena». Señala objetivos como el manejo del movimiento en los vídeos sin efecto «fantasma» y un tratamiento de movimiento y ruido al mismo tiempo.
Todos estos principios básicos de calidad de imagen que abordamos mediante técnicas de fotogramas múltiples en las instantáneas, tenemos que manejarlos en tiempo real para el vídeo 8K/30.
Ya hemos empezado a ver teléfonos con cámaras selfie bajo la pantalla en los últimos dos años, y está claro que incluso las últimas soluciones no pueden competir con las cámaras convencionales. Heape está de acuerdo con que no son una opción para quienes buscan buena calidad por sus problemas de difusión, color y artefactos «raros» por la noche.
Las cámaras bajo la pantalla pueden parecer eventualmente razonables, pero eso es todo.
Entiendo que la gente sólo quiera una pantalla de extremo a extremo muy elegante y con un aspecto maravilloso, sin nada que lo obstaculice. Pero para la gente que realmente quiere hacer buena fotografía, no creo que sea la dirección en la que deberíamos ir.
Pero las cosas que estamos logrando en la fotografía ahora — un zoom realmente bueno, la comprensión de la escena, la segmentación, la profundidad, un buen procesamiento 3A — todo esto sólo empeora si se trata de poner la cámara debajo de un montón de píxeles.
¿Conseguiremos que [las cámaras bajo la pantalla] sean lo suficientemente buenas como para que un selfie típico parezca razonable? Sí, pero todo lo que vaya más allá de eso va a ser muy, muy difícil.
Las cámaras teleobjetivo han sido un elemento fijo en los smartphones que se remontan a 2016, con zooms ópticos modernos limitados a un rango largo pero fijo de 10x. Sony también ha innovado en esta área con el Xperia 1 IV, introduciendo una cámara de teleobjetivo con zoom continuo, capaz de disparar en una variedad de factores de zoom nativos. Esto significa que no se necesitan cámaras separadas de teleobjetivo/periscopio.
Heape cree que los futuros teléfonos podrían deshacerse de la cámara de teleobjetivo dedicada en favor de una cámara principal que haga las veces de teleobjetivo.
Creo que lo mejor de todo es que puede reducir la complejidad del sistema de cámaras. Mientras que ahora se necesitan tres cámaras, como una gran angular, una ultra gran angular y un teleobjetivo.
Si se puede tener un verdadero zoom óptico, tal vez se pueda combinar el gran angular y el teleobjetivo en una sola cámara, y tener sólo dos cámaras y simplificar el sistema de cámaras, reducir el consumo de energía, etc.
Los próximos años se presentan brillantes en términos de innovación en este espacio, entre el aumento del tamaño de los sensores y del número de megapíxeles, la posible reducción de las cámaras gracias a la tecnología de teleobjetivo variable, el uso la IA para encargarse de más tareas de la cámara y un hardware más avanzado.
Ver comentarios (1)
A día de hoy con la tecnología de fotodiodos. Un sensor pequeño obtiene una calidad de imagen peor que uno grande ( recoge menos luz ) ...un móvil tiene un sensor patético en comparación a cualquier cámara de fotos de objetivos intercambiables ya sea de hoy o desde que se empezaron a comercializar...una IA mejora una imagen que el sensor no ha podido componer satisfactoriamente..pero eso es un mero retoque fotográfico la imagen en si recogida por el sensor es un mojón..y además nada impide usar una IA en una cámara de fotos de verdad..por tanto decir que la cámara de un móvil supera a una cámara de fotos de verdad..es una cagada..cuando un móvil tenga un sensor de un tamaño y calidad decente y una óptica que pueda aprovecharlo ( que es otro handycap del móvil ) entonces será igual...pero de momento solo tienen parches