20.5 C
Santa Fe
viernes, noviembre 22, 2024

Qué son los nuevos videos “deepfake”, una tendencia muy peligrosa

Además

Pablo Moyano renunció al triunvirato de la CGT

Pablo Moyano presentó su renuncia al triunvirato de la CGT. La decisión fue tomada tras los desacuerdos con la...

Cristina Kirchner reclamó ante la ANSES por su jubilación de privilegio

Cristina Kirchner presentó un recurso de nulidad ante la ANSES este viernes. La medida busca revertir la decisión del...

A Colón le deben más de 1.5 millones de dólares

Con la donducción institucional de José Vignatti Colón conoció el mayor éxito deportivo para la ciudad de Santa Fe...

Con el objetivo de sembrar la desinformación, se convirtieron en una verdadera amenaza en los últimos días gracias a la ayuda de la tecnología; cómo funcionan

Imágenes de un político diciendo lo que nunca diría o un video porno de una estrella de Hollywood. Lo que podría parecer una falla en el televisor no es otra cosa que el futuro de las “fake news”.

Los videos “deepfake”, que manipulan la realidad, se están volviendo cada vez más sofisticados gracias a los avances de la inteligencia artificial, incrementando así su potencial para generar un nuevo tipo de desinformación, con consecuencias devastadoras.

“Aún no llegamos a la etapa en la que vemos cómo se usan los deepfakes como armas, pero ese momento está cerca”, dice a la agencia de noticias AFP Robert Chesney, un profesor de derecho en la Universidad de Texas que investigó el tema.

Chesney considera que los “deepfakes” podrían sumar confusión a la ola actual de desinformación y operaciones dirigidas.

“Un deepfake oportuno con un guión intencionado o una serie de estos videos podrían dar vuelta una elección, encender la violencia en una ciudad preparada para la agitación social, impulsar discursos sobre supuestas atrocidades de un enemigo o exacerbar las divisiones políticas en una sociedad”, señalaron Chesney y Danielle Citron, profesora de la Universidad de Maryland, en una publicación de blog para el Consejo de Relaciones Exteriores.

Paul Scharre, miembro del Center for a New American Security, un think tank especializado en inteligencia artificial y temas de seguridad, dice que es casi inevitable que los “deepfakes” puedan ser utilizados en próximas elecciones.

Un video falso podría ser usado para desprestigiar a un candidato, advierte Scharre, o para que la gente pueda negar hechos expuestos en videos auténticos.

Si circulan videos falsos creíbles, la “gente puede elegir creer la versión o discurso que quieran, y esa es la verdadera preocupación”, añade.

– ¿El regreso de Chaplin?

La manipulación de videos existe desde hace décadas y puede ser inocua o incluso entretenida, como la aparición de Peter Cushing en “Rogue One: A Star Wars Story” gracias a la tecnología, 22 años después de su muerte.

Investigadores de la Universidad Carenegie Mellon revelaron el año pasado técnicas que simplifican la producción de “deepfakes” a través del aprendizaje automático para deducir la información faltante.

En la industria del cine “la esperanza es que podamos hacer regresar a antiguas estrellas como Charlie Chaplin”, dice Aayush Bansal.

La difusión de aplicaciones que hacen videos falsos de manera realista amenaza con socavar la noción de verdad en los medios, los juicios y otras áreas, apuntan los investigadores.

“Si podemos poner cualquier palabra en la boca de cualquiera, da bastante miedo”, apunta Siwei Lyu, profesor de computación en la Universidad Estatal de Nueva York en Albany, que está investigando la detección de “deepfakes”.

“Se desdibuja la línea entre lo que es verdad y lo que es falso. Si no podemos confiar realmente en que la información sea auténtica, es mejor no tener información”.

– Separar lo falso de lo real

Los investigadores trabajan desde hace un tiempo en mejores métodos de detección, con el apoyo de compañías privadas como Google y de instituciones gubernamentales como la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA) del Pentágono, que comenzó una iniciativa de análisis de los medios en 2015.

Aunque los “deepfakes” se han estado desarrollando durante varios años, el tema volvió a quedar en el centro de atención en abril después de que apareciera un video en el que se mostraba al expresidente Barack Obama utilizando una mala palabra para describir a su sucesor Donald Trump, que finalmente fue un artificio del cineasta Jordan Peele coordinado con BuzzFeed.

En 2018, la proliferación de videos porno en los que las caras de los protagonistas eran cambiadas por imágenes de Emma Watson, Scarlett Johansson y otras celebridades llevó a que los “deepfakes” fueran prohibidos por Reddit, Twitter y Pornhub. Sin embargo, no quedó claro cómo podrían cumplir esa norma. Scharre considera una forma importante de combatir a los “deepfakes” aumentar la concientización pública, haciendo que la gente sea más escéptica ante lo que solía considerarse como prueba indiscutible.

“Una vez que un video se hace viral podría ser demasiado tarde para el daño social que provocó”, asegura.

Seguí todas las noticias de RadioEME.com
en Google News

Últimas noticias

Pablo Moyano renunció al triunvirato de la CGT

Pablo Moyano presentó su renuncia al triunvirato de la CGT. La decisión fue tomada tras los desacuerdos con la...

Cristina Kirchner reclamó ante la ANSES por su jubilación de privilegio

Cristina Kirchner presentó un recurso de nulidad ante la ANSES este viernes. La medida busca revertir la decisión del gobierno de Javier Milei de...

A Colón le deben más de 1.5 millones de dólares

Con la donducción institucional de José Vignatti Colón conoció el mayor éxito deportivo para la ciudad de Santa Fe en 2021, pero en un...

Mascherano es el nuevo técnico de Inter Miami y dirigirá a Messi

Javier Mascherano tendrá su primera experiencia como técnico en un club y será el nuevo DT de Inter Miami, por lo que dirigirá a...

Ley contra las denuncias falsas: un paso hacia la justicia

Una nueva ley busca penalizar las denuncias falsas por delitos de violencia de género, abuso o acoso sexual, y violencia contra niños, niñas y...

Artículos relacionados