Noticias

Chatbots de IA como ChatGPT no generan adicción

Un estudio realizado por un equipo de investigación internacional desmiente la idea de que la inteligencia artificial (IA) pueda generar una adicción similar a las drogas o al juego, exponiendo que “no existe evidencia científica sólida que respalde la existencia de una adicción a ChatGPT o a otros chatbots de IA”.

Los investigadores Víctor Ciudad-Fernández, de la española Universitat de Valencia (UV), Cora von Hammerstein (Paris Cité University) y Joël Billieux (Université de Lausanne) analizaron los estudios que intentan medir este fenómeno y “descubrieron un patrón preocupante”: las escalas utilizadas para evaluar la supuesta adicción a ChatGPT son las mismas que se usan para evaluar adicciones a sustancias como el alcoholismo o la dependencia a la cocaína, informó este miércoles la UV.

“Se están utilizando criterios como ‘tolerancia’ o ‘síndrome de abstinencia’ para evaluar si alguien usa demasiado un chatbot, lo que es como diagnosticar adicción a bailar con los mismos criterios que la heroína”, afirmó Víctor Ciudad, miembro del grupo de investigación I-PSI-TEC de la Universitat de Valencia.

Según la investigación, los estudios que han intentado demostrar la existencia de esta ‘adicción’ no han mostrado pruebas de daño clínicamente significativo, como deterioro funcional grave o consecuencias negativas importantes en la vida de los usuarios.

En cambio, los investigadores sugieren que el uso frecuente de ChatGPT “suele estar más relacionado con la curiosidad, el aprendizaje o incluso estrategias de afrontamiento”.

Los autores advirtieron de que etiquetar prematuramente el uso de ChatGPT como una adicción “puede tener graves consecuencias”, como la estigmatización de los usuarios, la creación de tratamientos innecesarios y la promoción de regulaciones infundadas.

“No se trata de una adicción sino de cómo usamos la tecnología. Este estudio invita a un cambio de perspectiva: en lugar de patologizar el uso de herramientas de inteligencia artificial, es más importante analizar cuándo y por qué su uso se vuelve problemático”, señalaron los investigadores, quienes afirmaron que “la clave está en un uso consciente y regulado, evitando caer en discursos alarmistas sin base científica”.

El estudio fue publicado en la revista científica Addictive Behaviors, y se realizó “en respuesta a un reciente alarmismo mediático que apuntaba en esta dirección”.

Fuente: aristeguinoticias.com

Silvia Chavela

Entradas recientes

Cómo usar IA para mejorar tus finanzas personales

La inteligencia artificial comienza a posicionarse como una aliada para fortalecer la planeación financiera y…

15 horas hace

Indonesia bloquea la IA de X ‘Grok’

El Gobierno de Indonesia ha anunciado el bloqueo provisional de la inteligencia artificial de la…

16 horas hace

Movistar alerta riesgos por registro de usuarios celulares

Telefónica Movistar México advirtió que el nuevo proceso de identificación obligatoria de líneas móviles implica…

1 día hace

Spotify responde a Rubén Albarrán por retiro de Café Tacvba

Spotify emitió una declaración tras la decisión de Café Tacvba de solicitar el retiro de…

1 día hace

La IA ayuda al crecimiento de las PyMEs en México

Inteligencia Artificial (IA) se ha convertido en parte del día a día de las personas,…

2 días hace

Larian abandona uso de IA generativa

El director de Divinity, el nuevo título de Larian Studios recién anunciado, habló recientemente sobre…

2 días hace