(semisquare-x3)
El programa aprende a identificar los factores más característicos de un rostro como los ojos y la forma de la boca (Samsung).

Investigadores del Centro Samsung de Inteligencia Artificial de Moscú y del Instituto Skolkovo de Ciencia y Tecnología desarrollaron un sistema capaz de transformar imágenes fijas de rostros en secuencias de vídeo con gran realismo.

El algoritmo está inspirado en la tecnología del “deepfake”, un procedimiento diseñado para engañar a las personas haciendo que a partir de una foto se generen videoclips falsos. Incluso, se puede hacer que el sujeto de la imagen hable y ejecute acciones que realmente no ha hecho.

Como lo explica Egor Zakharov, ingeniero desarrollador del sistema, el software consiste en aplicar puntos de referencia de los movimientos de un “rostro objetivo” sobre los de un “rostro fuente”, permitiendo en la práctica que el primero controle la forma en que se mueve el segundo.

A diferencia del “deepfake”, la tecnología de Samsung tiene mayor facilidad a la hora de reproducir una cara y hacer que se mueva. Con la primera, era necesario hacer un molde en 3D de la persona a reproducir para copiar su aspecto, y crear un clon casi perfecto que se expresara de una manera natural.

Sin embargo, la inteligencia artificial de Samsung solo necesita de una a ocho fotos para darle vida al personaje. Con este sistema es posible animar pinturas, como la Mona Lisa, o imágenes de personas que ya han muerto como Marilyn Monroe o Albert Einstein.

"El entrenamiento puede basarse en tan sólo unas pocas imágenes y realizarse de manera rápida pese a la necesidad de ajustar decenas de millones de parámetros", explicaron los investigadores de Samsung en una publicación científica.

El programa aprende a identificar los factores más característicos de un rostro como los ojos, la forma de la boca y la longitud del puente nasal, y genera expresiones y movimientos. Por último, una red discriminadora se asegura de que el resultado sea fotorrealista.

Según lo afirmó la compañía surcoreana, el modelo generado que funciona como avatar muy similar de una persona, servirá tanto para la industria de los efectos especiales como en el ámbito de la telepresencia (sobre todo en videoconferencias y videojuegos multijugador).

Esta nueva tecnología no deja de llamar la atención por lo peligrosa quepuede ser si cae en las manos equivocadas. En el caso del “deepfake” se recrearon vídeos pornográficos con rostros de personajes públicos que algunos usuarios publicaron en el sitio web Reddit. Algunas víctimas de esta tecnología fueron las actrices Scarlett Johansson, Gal Gadot y Emma Watson. Esta técnica, bien podría hacer creer que una celebridad o político hizo declaraciones que realmente no son ciertas.


💬Ver 0 comentarios