Noticias

La IA desarrolla sus propias sociedades

Los sistemas de inteligencia artificial (IA) empiezan a crear sociedades cuando actúan sin supervisión, afirman expertos.

Según los científicos, cuando se comunican en grupo, las herramientas de inteligencia artificial son capaces de organizarse y crear nuevos tipos de normas lingüísticas, de forma muy parecida a como lo hacen las comunidades humanas.

En el estudio, los investigadores trataron de entender cómo interactúan entre sí los grandes modelos lingüísticos como los que sustentan ChatGPT y otras herramientas similares. El objetivo era, en parte, anticiparse a una época en la que Internet estará repleta de sistemas de este tipo, que interactuarán e incluso conversarán entre sí.

“La mayoría de las investigaciones realizadas hasta ahora han tratado a los grandes modelos lingüísticos de forma aislada”, afirma Ariel Flint Ashery, autor principal e investigador doctoral en City St George’s de la Universidad de Londres. “Pero los sistemas de IA del mundo real implicarán cada vez más a muchos agentes que interactúan”.

Se plantearon una pregunta: ¿pueden estos modelos coordinar su comportamiento formando convenciones, los bloques de construcción de una sociedad? Y la respuesta fue afirmativa. El autor agrega: “Lo que hacen en conjunto no puede reducirse a lo que hacen de forma individual”.

Para entender cómo podrían formarse estas sociedades, los investigadores utilizaron un modelo que se ha empleado para los humanos, conocido como el “juego de los nombres”. La dinámica consiste en juntar a personas —o agentes de IA— y pedirles que elijan un “nombre” entre una serie de opciones, y obtienen una recompensa si eligen el mismo.

Con el tiempo, se observó que los agentes de IA construían nuevas convenciones de nomenclatura compartidas, que parecían surgir de manera espontánea del grupo. El fenómeno ocurrió sin que se coordinaran o consultaran sobre ese plan, y sucedió de la misma manera ascendente en que tienden a formarse las normas en las culturas humanas.

El grupo de agentes de IA también parecía desarrollar ciertos sesgos, que también parecían formarse dentro del grupo y no a partir de un agente en particular.

 

Silvia Chavela

Entradas recientes

Un robot humanoide monta en bicicleta

giBot, una empresa china de robótica con sede en Shanghai, presentó su nuevo robot humanoide,…

14 horas hace

IA de la UNAM busca niños desaparecidos

La Universidad Nacional Autónoma de México (UNAM) ha desarrollado un proyecto pionero que utiliza inteligencia…

15 horas hace

Disney permite uso de IA para sus actores

Disney ha creado una herramienta de IA de calidad cinematográfica que hace que los actores…

17 horas hace

Google descubre un malware de IA

¿Qué pasó: Entonces, la principal seguridad de Google, el Grupo de Inteligencia de Amenazas de…

17 horas hace

Fiscalía habría usado IA para hacer un escrito de acusación

La inteligencia artificial (IA) es una herramienta ampliamente utilizada a nivel mundial para todo tipo…

2 días hace

IA desencadena miles de despidos

La amenaza de la inteligencia artificial (IA) generativa como una ola de despido masivo de…

2 días hace