Lenguajes

Con inteligencia artificial alteran audio de Joe Biden

En un video transmitido por una cadena de noticias del 25 de enero, el presidente Joe Biden habla sobre tanques. Pero en una versión alterada de ese video, que ha acumulado cientos de miles de vistas esta semana en redes sociales, se hace que parezca que Biden da un discurso en el que ataca a las personas transgénero.

Los expertos en análisis forense digital afirman que el video fue creado utilizando una nueva generación de herramientas de inteligencia artificial que permiten a cualquiera crear rápidamente un audio que simule la voz de una persona con unos cuantos clics en un botón.

Y aunque el video de Biden no engañó a la mayoría de los usuarios esta vez, las imágenes muestran lo fácil que es ahora generar videos manipulados digitalmente, o deepfakes, que sí pueden ser perjudiciales en el mundo real.

«Herramientas como ésta prácticamente van a echar más leña al fuego», dijo Hafiz Malik, profesor de ingeniería eléctrica e informática en la Universidad de Michigan especializado en análisis forense multimedia.

Llegó el mes pasado con la fase beta de la plataforma sintetizadora de voz ElevenLabs. Esta permite a los usuarios generar un audio realista de la voz de cualquier persona con sólo cargar algunos minutos de muestras de audio y escribir cualquier texto para que reproduzca la voz.

La empresa afirma que la tecnología fue desarrollada para doblar a distintos idiomas el audio de películas, audiolibros y juegos a fin de preservar la voz y las emociones del hablante original.

Audio creado con IA

Los usuarios de redes sociales comenzaron de inmediato a compartir una muestra de audio de Hillary Clinton generado con inteligencia artificial en el que lee el mismo texto transfóbico que se usó en el corto alterado de Biden, así como cortos con audios falsos de Bill Gates en los que supuestamente afirma que la vacuna contra el COVID-19 causa sida y de la actriz Emma Watson que supuestamente lee el manifiesto de Hitler «Mi Lucha».

Poco después, ElevenLabs tuiteó que había advertido «un creciente número de casos de uso indebido de clonación de voz» y anunció que estaba explorando salvaguardas para frenar los abusos. Una de las primeras medidas fue hacer que la función sólo esté disponible para quienes provean información de pago. La compañía también dice que si fuera necesario, puede rastrear y llegar al creador de cualquier audio generado.

Pero rastrear a los creadores no mitigará el daño derivado de la herramienta, afirma Hany Farid, profesor de la Universidad de California, campus Berkeley, dedicado al análisis forense digital y la desinformación.

Fuente: AP

EDITORIAL

Entradas recientes

Jóvenes, con problemas para hallar trabajo en estas profesiones por la IA

Además de los retos tradicionales que tienen los jóvenes para entrar al mundo laboral, hoy…

57 minutos hace

Startup prepara una constelación de satélites capaces de pensar

El espacio se convirtió en el nuevo destino para la inteligencia artificial. Grandes empresas tecnológicas,…

22 horas hace

Jóvenes no encuentran trabajo en estas profesiones por la IA

Además de los retos tradicionales que tienen los jóvenes para entrar al mundo laboral, hoy…

22 horas hace

Inteligencia artificial se abre paso en la construcción

REBUILD 2026, la mayor feria multiespecialista dedicada a la construcción industrializada en Europa, que se…

22 horas hace

Previenen trastornos alimentarios con realidad virtual

La UIC Barcelona e ITI Valencia crean un proyecto para prevenir trastornos alimentarios con realidad…

1 día hace

Buscan evitar uso de IA para generar imágenes que vulneran integridad

En la Ciudad de México se han documentado múltiples casos sobre la manipulación de la…

2 días hace