La Inteligencia Artificial de NVIDIA es capaz de completar fotografías a las que les falta una parte

🎁 ¡AliExpress Big Save Day! ¡Cupones hasta 50€ en tecnología, consolas y más! [Más info ]

Los avances en machine learning y procesado de imagen están consiguiendo cosas impresionantes que, hasta ahora, solo eran posible en las películas.

El último avance llega de NVIDIA, que lleva tiempo promocionando su última GPU Tesla V100 como el procesador más idóneo para machine learning. En esta ocasión, el avance consiste en rellenar huecos en una imagen con algo que parece ser parte de la imagen original. 

TE INTERESA:
El CEO de Nvidia afirma que sus chips de IA evolucionan más rápido que la Ley de Moore

El proceso se denomina “image in painting” y no es algo completamente nuevo. Aunque hasta ahora estas técnicas estaban limitadas a áreas rectangulares pequeñas cerca del centro de la imagen original, la nueva técnica de NVIDIA puede rellenar cualquier hueco, independientemente de su tamaño, forma o posición.

Para entrenar a la red neuronal, los investigadores de NVIDIA han introducido más de 55.000 máscaras aleatorias de distintos tamaños y formas. Además se han utilizado de imágenes de prueba en las que se aplicaban las máscaras para crear huecos en las imágenes. Los resultados son bastante impresionantes, aunque obviamente no son perfectos.

NVIDIA afirma que esta técnica podría ser utilizada en software de edición de fotografía para restaurar imágenes o eliminar contenido no deseado.

🎁 ¡AliExpress Big Save Day! ¡Cupones hasta 50€ en tecnología, consolas y más! [Más info ]

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Luis A.
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario