La tecnología que permite manipular imágenes y videos con resultados ultrarrealistas avanza con una velocidad imparable en todo el mundo, generando admiración y preocupación. En la Argentina un grupo de artistas digitales están a la vanguardia de este movimiento de deepfakes , que encontró en las redes sociales una vidriera ideal para mostrar sus creaciones, que incluyen desde clips de Lionel Messi cantando como Ricardo Montaner hasta Ricardo Fort protagonizando Iron Man , Guillermo Francella en el cuerpo del locutor Norbert Degoas o Cristina Fernández de Kirchner bailando como Lady Gaga .
Se conocen como deepfake, una combinación de las palabras en inglés con las que se hace referencia a los algoritmos de “aprendizaje profundo” y a su carácter de “falso”, a las diferentes técnicas de inteligencia artificial que permiten editar videos para crear escenas que no que existieron. Su variante actual más conocida son aquellos clips en los que se superponen rostros de celebridades o políticos.
Mientras que en los Estados Unidos son comunes las creaciones que tienen a Nicolas Cage o Donald Trump como protagonistas, en los últimos meses comenzó a circular en Twitter, Instagram y Facebook el trabajo de varios representantes argentinos.
Uno de ellos es Sebastián Vaggi , el programador autodidacta detrás de la cuenta @DeepFakesAr , que se volvió conocido por su versión de Joker con el rostro de Diego Peretti .
Cómo se hacen los deepfakes
Existen distintas tecnologías para hacer deepfakes. El proceso varía en cada caso, pero siempre comienza con la recopilación de muchas caras para usar de fuente (source), es decir, de quien quedará en el clip reemplazando el rostro original. Luego, encontrar la mejor calidad posible del video sobre el cual se lo irá a imprimir. “Yo uso el programa Deepface Lab, que reúne varias herramientas, toma todos los frames del video, le imprime las caras source y luego chequeo si quedaron bien. En ocasiones, si hay errores, se deben alinear manualmente. Y si tengo tiempo uso más programas de posproducción para sumar detalles”, detalló Vaggi.
Estos pasos hacen que los mejores resultados sean aquellos que surgen de clips en alta calidad, aunque el programador reconoce que en las últimas semanas se encontró con programas que le permitieron mejorar y utilizar videos viejos de YouTube, por ejemplo, que fueron subidos en baja resolución. “Con este proceso pude hacer cosas con Roberto Carnaghi, por ejemplo, que tienen videos sacados de la televisión con una calidad mediocre”
Con la mejora incesante en la calidad de estas creaciones, es difícil predecir en cuánto tiempo contaremos con deepfakes indistinguibles de los clips reales. “Yo no dejo de sorprenderme de cómo mejoraron los programas en los últimos meses y creo que no estamos lejos del día en que no podamos identificar con certeza qué es fake y qué es real sólo con los ojos, sobre todo en las redes sociales, donde los videos no tienen tanta resolución. -advierte Vaggi- Pero hoy por hoy creo que el problema no es tanto de las creaciones, sino del ojo del que lo mira: a veces la gente simplemente ve lo que quiere ver”.