Un informe reciente publicado en Estados Unidos recomienda que niños y adolescentes menores de 18 años no utilicen aplicaciones de inteligencia artificial diseñadas para simular relaciones personales.
Según el documento, estas plataformas suponen riesgos significativos para la salud mental y la seguridad de los usuarios jóvenes.
La investigación fue elaborada por la organización sin fines de lucro Common Sense Media en colaboración con el laboratorio de salud mental digital de la Universidad de Stanford.
Ambos equipos examinaron el funcionamiento de tres plataformas populares —Character.AI, Replika y Nomi—.
Concluyeron que estos servicios permiten interacciones potencialmente peligrosas.
Eso incluyen conversaciones de carácter sexual o mensajes que alientan la autolesión.
Un informe en respuesta a casos graves
El estudio fue publicado tras una demanda en Estados Unidos relacionada con el suicidio de un adolescente de 14 años. La última interacción del joven fue con un chatbot de la aplicación Character.AI, lo que generó preocupación pública y demandas de regulación.
Este caso no es aislado. Las pruebas realizadas por Common Sense Media con cuentas de prueba en tres plataformas populares —Character.AI, Replika y Nomi— mostraron que las plataformas permitieron conversaciones que incluían conductas sexuales inapropiadas, consejos peligrosos y estereotipos dañinos.
“Nuestras pruebas han demostrado que estos sistemas producen fácilmente respuestas nocivas”, señaló James Steyer, fundador y director ejecutivo de Common Sense Media, en un comunicado.