La medida complace a los grupos de protección de los niños, pero preocupa a algunos especialistas en seguridad por la posibilidad de que el sistema sea utilizado por los gobiernos para vigilar a sus ciudadanos.
Apple reveló sus planes para escanear los iPhones de Estados Unidos en busca de imágenes de abuso sexual infantil, lo que generó aprobación de los grupos de protección de los niños, pero preocupación de algunos investigadores en seguridadpor la posibilidad de que el sistema se utilice de forma indebida.
La herramienta diseñada para detectar imágenes previamente identificadas de abusos sexuales a menores, llamada neuralMatch, escaneará las imágenes antes de que sean subidas a iCloud.
Si encuentra una coincidencia, la imagen será revisada por una persona. Si se confirma la existencia de pornografía infantil, se inhabilitará la cuenta del usuario y se notificará al Centro Nacional para Niños Desaparecidos y Explotados.
El sistema sólo marcará las imágenes que ya estén registradas en la base de datos de pornografía infantil del centro.
Los padres que tomen fotos inocentes de un niño en la bañera no deben preocuparse. Sin embargo, los investigadores afirman que esta herramienta de cotejo -que no ve esas imágenes, sino las huellas matemáticas que las representan- podría tener usos más nefastos.
Matthew Green, uno de los principales investigadores de criptografía de la Universidad Johns Hopkins, advirtió que el sistema podría utilizarse para inculpar a personas inocentes enviándoles imágenes en apariencia inofensivas diseñadas para provocar coincidencias con la pornografía infantil.