25.6 C
Santa Fe
viernes, febrero 28, 2025

YouTube bloqueó videos de ajedrez al interpretar que “blanco y negro” eran expresiones racistas

Además

El Senado convirtió en ley la prohibición de “heredar” cargos en la administración pública

En su sesión de este jueves la cámara de senadores hizo ley el proyecto de ley que establece la...

Un chofer de la Linea 15 fue baleado en un intento de robo

Un colectivero de la Línea 15 fue baleado este jueves alrededor de las oo:30, en un intento de robo...

Las universidades nacionales paran por 48 horas ante la falta de respuestas

El Frente Sindical de las Universidades anunció un paro de 48 horas para los días 17 y 18 de...

La falla no fue humana, sino del sistema de inteligencia artificial que modera el contenido en el portal de videos de Google. 


Un estudio de algoritmo de la Inteligencia Artificial de Youtube bloqueó videos de ajedrez porque interpretó que las referencias del “blanco contra negro” eran expresiones racistas.

Investigadores de la Universidad Carnegie Mellon, en Pensilvania, Estados Unidos, analizaron los motivos por los que un popular canal de ajedrez en YouTube fue bloqueado el año pasado por supuestamente incluir “contenido dañino y peligroso”. La conclusión fue que el sistema de inteligencia artificial de la plataforma revisó las conversaciones en los videos, encontró frases como “blanco contra negro” (evidentes referencias a las piezas del juego) y catalogó ese contenido dentro de los discursos de odio.

 

Los detalles del hallazgo

En junio de 2020, el canal de YouTube que gestiona el ajedrecista croata Antonio Radic (conocido por su alias Agadmator) fue bloqueado mientras presentaba un video con el maestro de la disciplina Hikaru Nakamura. En primera instancia, Google no explicó las razones de la decisión. El canal fue restablecido luego de 24 horas y Radic sospechó que las referencias a las fichas del juego habían sido los detonantes del bloqueo.

Tal como explican en The Idependent, la moderación de YouTube es mixta: la hacen humanos y algoritmos. La confianza en las máquinas genera, en ocasiones, fallas como las que ocurrieron con el canal de ajedrez.

“Si confían en la inteligencia artificial para detectar el lenguaje racista, este tipo de accidentes pueden suceder”, dijo uno de los investigadores del Instituto de Tecnologías del Lenguaje, de la mencionada universidad estadounidense. Para corroborarlo, el científico filtró casi 700.000 comentarios en canales de YouTube centrados en el ajedrez.

Después de revisar manualmente una selección de 1.000 comentarios que la inteligencia artificial de YouTube había clasificado como discursos de odio, encontraron que el 82% de ellos habían sido clasificados erróneamente debido al uso de palabras como “negro”, “blanco”, “ataque” y “amenaza”, terminología usual en el juego de mesa.

Seguí todas las noticias de RadioEME.com
en Google News

Últimas noticias

El Senado convirtió en ley la prohibición de “heredar” cargos en la administración pública

En su sesión de este jueves la cámara de senadores hizo ley el proyecto de ley que establece la...

Un chofer de la Linea 15 fue baleado en un intento de robo

Un colectivero de la Línea 15 fue baleado este jueves alrededor de las oo:30, en un intento de robo cuando salía a realizar su...

Las universidades nacionales paran por 48 horas ante la falta de respuestas

El Frente Sindical de las Universidades anunció un paro de 48 horas para los días 17 y 18 de marzo. Será en reclamo por...

Mauro Icardi se hartó y reaccionó a la denuncia penal de Wanda Nara y Maxi López

En las últimas horas, Mauro Icardi apuntó contra Wanda Nara y respondió a la denuncia penal que habría iniciado la empresaria en conjunto con Maxi López, luego de que el...

Hallaron muerto a un expolicía en su vivienda de Monte Vera

Un hombre de 71 años, retirado de la policía, fue encontrado sin vida en su casa de Monte Vera en la noche del jueves. La investigación sigue abierta y, por...

Artículos relacionados