En un video transmitido por una cadena de noticias del 25 de enero, el presidente Joe Biden habla sobre tanques. Pero en una versión alterada de ese video, que ha acumulado cientos de miles de vistas esta semana en redes sociales, se hace que parezca que Biden da un discurso en el que ataca a las personas transgénero.
Los expertos en análisis forense digital afirman que el video fue creado utilizando una nueva generación de herramientas de inteligencia artificial que permiten a cualquiera crear rápidamente un audio que simule la voz de una persona con unos cuantos clics en un botón.
Y aunque el video de Biden no engañó a la mayoría de los usuarios esta vez, las imágenes muestran lo fácil que es ahora generar videos manipulados digitalmente, o deepfakes, que sí pueden ser perjudiciales en el mundo real.
«Herramientas como ésta prácticamente van a echar más leña al fuego», dijo Hafiz Malik, profesor de ingeniería eléctrica e informática en la Universidad de Michigan especializado en análisis forense multimedia.
Llegó el mes pasado con la fase beta de la plataforma sintetizadora de voz ElevenLabs. Esta permite a los usuarios generar un audio realista de la voz de cualquier persona con sólo cargar algunos minutos de muestras de audio y escribir cualquier texto para que reproduzca la voz.
La empresa afirma que la tecnología fue desarrollada para doblar a distintos idiomas el audio de películas, audiolibros y juegos a fin de preservar la voz y las emociones del hablante original.
Audio creado con IA
Los usuarios de redes sociales comenzaron de inmediato a compartir una muestra de audio de Hillary Clinton generado con inteligencia artificial en el que lee el mismo texto transfóbico que se usó en el corto alterado de Biden, así como cortos con audios falsos de Bill Gates en los que supuestamente afirma que la vacuna contra el COVID-19 causa sida y de la actriz Emma Watson que supuestamente lee el manifiesto de Hitler «Mi Lucha».
Poco después, ElevenLabs tuiteó que había advertido «un creciente número de casos de uso indebido de clonación de voz» y anunció que estaba explorando salvaguardas para frenar los abusos. Una de las primeras medidas fue hacer que la función sólo esté disponible para quienes provean información de pago. La compañía también dice que si fuera necesario, puede rastrear y llegar al creador de cualquier audio generado.
Pero rastrear a los creadores no mitigará el daño derivado de la herramienta, afirma Hany Farid, profesor de la Universidad de California, campus Berkeley, dedicado al análisis forense digital y la desinformación.
Fuente: AP