Ciudad de México, 06 Agosto.- De acuerdo a Matthew Green, profesor de criptografía de la Universidad Johns Hopkins, Apple trabajará en una herramienta para detectar material conocido de abuso sexual infantil, como imágenes de pornografía infantil, en los iPhones de sus usuarios.
El profesor aseveró que le confirmaron de forma independiente que este viernes Apple lanzaría una herramienta para el escaneo de material de abuso sexual infantil (CSAM) que funcionará del lado del cliente.
La herramienta utilizaría algoritmos hash para buscar coincidencias entre las imágenes almacenadas por los usuarios en sus teléfonos y el contenido conocido de pornografía infantil, lo que implica que los iPhones tendrán que descargar un conjunto de datos en forma de “huellas” para poder compararlos con las fotos de la galería de los usuarios.
Matthew Green señala algunas implicaciones negativas de este tipo de herramientas: los algoritmos hash no son infalibles y pueden generar falsos positivos.
También está por ver si Apple permitirá a las autoridades controlar esas “huellas” que se descargarán en el iPhone, porque podría abrir la puerta para que los gobiernos busquen otro tipo de imágenes en los teléfonos de los usuarios, como por ejemplo imágenes de activismo político.
Foto: Apple
La transformación del sector Fintech no se limita a nuevos productos, sino a una reconfiguración…
La Inteligencia Artificial (IA) ha provocado un cambio generacional en el mercado laboral estadounidense y…
Alemania lanzó la semana pasada un importante proyecto de inteligencia artificial (IA) para reducir su…
En 10 años, la productividad acumulada de 106 economías será 15 por ciento mayor en…
Un equipo de investigadores creó una red de sensores para monitorizar en tiempo real la…
Tres estudiantes de secundaria obtuvieron la medalla de oro en una de las competencias científicas…