No hay dudas de que la Inteligencia Artificial ha revolucionado no solo las industrias tecnológicas, sino también la vida cotidiana. Sus avances ya transformaron la forma en que interactuamos con el mundo. Sin embargo, junto con sus ventajas, también ha surgido una sombra preocupante: el auge vertiginoso de los deepfakes.
Esta inquietante técnica, respaldada por algoritmos de redes neuronales generativas, permiten la creación de imágenes, videos y audios falsos extremadamente realistas que ciberdelincuentes ya están utilizando con el fin de cometer estafas digitales y engaños virtuales.
Según datos del Foro Económico Mundial, los fraudes con deepfakes crecen a un ritmo anual del 900%. Estas cifras son una muestra de cómo ha escalado en todo el mundo este ciberdelito que, no solo tiene el objetivo de cometer robos, sino también manipular o afectar la reputación de un individuo o empresas y fomentar la desinformación a través de fake news.
“Esta tecnología basada en IA se sigue perfeccionando cada vez más, siendo utilizada incluso para difundir información falsa, realizar estafas millonarias a empresas y hasta entorpecer campañas políticas”, explicó Pablo Gagliardo, director general de Noventiq Argentina.
El especialista advirtió que las campañas de deepfake son una amenaza importante capaz de impactar notablemente en la vida íntima de la gente o en el crecimiento de una marca: “Es importante estar alerta ante posibles vulnerabilidades que, si bien en algunos casos es fácil reconocer cuando se trata de una imagen o video falso, mientras más evoluciona esta tecnología, más sofisticados y difíciles de detectar se vuelven”, detalló Gagliardo.
Los desafíos que plantea el deepfake
La capacidad de manipular rostros, voces y expresiones con una precisión sorprendente plantea serios desafíos a la hora de discernir entre lo auténtico y lo falso
- Concientización y educación
La batalla contra esta técnica de manipulación de imágenes comienza con la concientización y la educación. Es fundamental que todos, desde el público en general hasta los profesionales y empresas, comprendan de qué se trata, cómo funciona y cómo se puede reconocer en algunos casos.
- Fortalecimiento de la autenticidad digital
Las plataformas deben invertir en tecnologías de autenticación robustas que permitan verificar la legitimidad de los contenidos compartidos. Algoritmos de reconocimiento facial y de voz, así como marcas de agua digitales, pueden desempeñar un papel crucial en la protección de la integridad de los archivos multimedia.
- Colaboración y cooperación
La lucha contra el deepfake requiere un esfuerzo conjunto de gobiernos, empresas tecnológicas, instituciones académicas y sociedad civil. Se deben establecer alianzas sólidas para compartir conocimientos, recursos y mejores prácticas en la detección y mitigación de esta técnica. Además, la colaboración internacional es fundamental para abordar este desafío global y establecer estándares comunes que promuevan la integridad y la autenticidad en los medios digitales.
- Legislación y regulación
En California, por ejemplo, ya se han impuesto leyes contra el uso del deepfake en cuestiones relativas a los contenidos porno y que involucren a políticos. Esto demuestra que los gobiernos deben trabajar en conjunto para establecer marcos legales que penalicen la producción y difusión de materiales manipulados con intención maliciosa.
“El deepfake puede ser identificado en algunos casos, ya sea por movimientos bruscos, cambios de iluminación de un fotograma al siguiente, parpadeo extraño o ausencia del mismo y falta de sincronía de los labios con el habla, sin embargo, esta amenaza no debe subestimarse”, explicó Gagliardo.
Combatir esta amenaza requiere un enfoque integral que abarque la educación, la tecnología, la legislación y la colaboración: “Al implementar estrategias efectivas, podemos contrarrestar el avance del deepfake y proteger la integridad de la información en la era digital. Juntos, podemos preservar la confianza en los medios que consumimos y compartimos”, concluyó el especialista.
Cómo reconocer un deepfake
Investigadores de la Universidad de Buffalo, en Nueva York, publicaron hace poco un estudio que propone un método, al parecer efectivo, para identificar deepfakes.
Los expertos dicen que el secreto para reconocer una deepfake es mirar a los ojos de la persona en el video o la imagen en cuestión. En concreto, desarrollaron un algoritmo que detecta cuando una foto ha sido manipulada y dicen que el sistema que crearon acierta en un 94% de los casos.
La clave está en el reflejo de los ojos. ¿Por qué hay que enfocar la atención allí? Según dicen, los sistemas de inteligencia artificial aún no son buenos creando reflejos en la mirada. A veces no son precisos y en ocasiones colocan elementos diferentes en cada ojo. Es decir, mejoraron mucho en la creación de la escena en general (incluyendo gestos, movimientos de la boca, incluso de los ojos), pero no lo hicieron aún en los reflejos que cualquier ojo tiene. De esa forma, al examinar con minucia esos detalles, este método puede reconocer deepfakes.
Los expertos analizaron imágenes de la base This Person Does Not Exist, una iniciativa que consistió en la creación de retratos de personas con un aspecto superrealista, aunque inexistentes en el mundo real. Para tener una fuente comparativa, usaron fotos de personas reales de Flickr. En todos los casos, examinaron con detalle los reflejos en los ojos.
El autor principal del estudio explicó que ambos ojos deberían tener patrones reflectantes muy parecidos, porque están viendo lo mismo.
Fuente: TN