Lenguajes

Con inteligencia artificial alteran audio de Joe Biden

En un video transmitido por una cadena de noticias del 25 de enero, el presidente Joe Biden habla sobre tanques. Pero en una versión alterada de ese video, que ha acumulado cientos de miles de vistas esta semana en redes sociales, se hace que parezca que Biden da un discurso en el que ataca a las personas transgénero.

Los expertos en análisis forense digital afirman que el video fue creado utilizando una nueva generación de herramientas de inteligencia artificial que permiten a cualquiera crear rápidamente un audio que simule la voz de una persona con unos cuantos clics en un botón.

Y aunque el video de Biden no engañó a la mayoría de los usuarios esta vez, las imágenes muestran lo fácil que es ahora generar videos manipulados digitalmente, o deepfakes, que sí pueden ser perjudiciales en el mundo real.

«Herramientas como ésta prácticamente van a echar más leña al fuego», dijo Hafiz Malik, profesor de ingeniería eléctrica e informática en la Universidad de Michigan especializado en análisis forense multimedia.

Llegó el mes pasado con la fase beta de la plataforma sintetizadora de voz ElevenLabs. Esta permite a los usuarios generar un audio realista de la voz de cualquier persona con sólo cargar algunos minutos de muestras de audio y escribir cualquier texto para que reproduzca la voz.

La empresa afirma que la tecnología fue desarrollada para doblar a distintos idiomas el audio de películas, audiolibros y juegos a fin de preservar la voz y las emociones del hablante original.

Audio creado con IA

Los usuarios de redes sociales comenzaron de inmediato a compartir una muestra de audio de Hillary Clinton generado con inteligencia artificial en el que lee el mismo texto transfóbico que se usó en el corto alterado de Biden, así como cortos con audios falsos de Bill Gates en los que supuestamente afirma que la vacuna contra el COVID-19 causa sida y de la actriz Emma Watson que supuestamente lee el manifiesto de Hitler «Mi Lucha».

Poco después, ElevenLabs tuiteó que había advertido «un creciente número de casos de uso indebido de clonación de voz» y anunció que estaba explorando salvaguardas para frenar los abusos. Una de las primeras medidas fue hacer que la función sólo esté disponible para quienes provean información de pago. La compañía también dice que si fuera necesario, puede rastrear y llegar al creador de cualquier audio generado.

Pero rastrear a los creadores no mitigará el daño derivado de la herramienta, afirma Hany Farid, profesor de la Universidad de California, campus Berkeley, dedicado al análisis forense digital y la desinformación.

Fuente: AP

Silvia Chavela

Entradas recientes

Hitachi lanza Fábrica Global de IA sobre

Hitachi anunció la creación de una Fábrica Global de Inteligencia Artificial (IA), construida sobre la…

18 horas hace

Acelerar la sostenibilidad con IA

Miles de líderes mundiales se reunieron en la Semana del Clima de Nueva York 2025,…

18 horas hace

Retos y oportunidades de la IA en el e-commerce: José Reynoso González

El comercio electrónico mantiene un crecimiento constante y, con la incursión de la inteligencia artificial,…

2 días hace

Valoraciones de las startups de IA aumentan el temor de una burbuja

“Hay una especie de burbuja publicitaria en el espacio de capital de riesgo en etapa…

2 días hace

HONOR ALPHA Store, la primera tienda del mundo de IA

HONOR acaba de inaugurar la HONOR ALPHA Store, un espacio definido por la compañía como…

2 días hace

América Latina acelera en inteligencia artificial

América Latina y el Caribe muestra una adopción de inteligencia artificial que supera su peso…

2 días hace