Ciudad de México, 06 Agosto.- De acuerdo a Matthew Green, profesor de criptografía de la Universidad Johns Hopkins, Apple trabajará en una herramienta para detectar material conocido de abuso sexual infantil, como imágenes de pornografía infantil, en los iPhones de sus usuarios.
El profesor aseveró que le confirmaron de forma independiente que este viernes Apple lanzaría una herramienta para el escaneo de material de abuso sexual infantil (CSAM) que funcionará del lado del cliente.
La herramienta utilizaría algoritmos hash para buscar coincidencias entre las imágenes almacenadas por los usuarios en sus teléfonos y el contenido conocido de pornografía infantil, lo que implica que los iPhones tendrán que descargar un conjunto de datos en forma de “huellas” para poder compararlos con las fotos de la galería de los usuarios.
Matthew Green señala algunas implicaciones negativas de este tipo de herramientas: los algoritmos hash no son infalibles y pueden generar falsos positivos.
También está por ver si Apple permitirá a las autoridades controlar esas “huellas” que se descargarán en el iPhone, porque podría abrir la puerta para que los gobiernos busquen otro tipo de imágenes en los teléfonos de los usuarios, como por ejemplo imágenes de activismo político.
Foto: Apple