La IA desarrolla sus propias sociedades

La IA desarrolla sus propias sociedades

Los sistemas de inteligencia artificial (IA) empiezan a crear sociedades cuando actúan sin supervisión, afirman expertos.

Según los científicos, cuando se comunican en grupo, las herramientas de inteligencia artificial son capaces de organizarse y crear nuevos tipos de normas lingüísticas, de forma muy parecida a como lo hacen las comunidades humanas.

En el estudio, los investigadores trataron de entender cómo interactúan entre sí los grandes modelos lingüísticos como los que sustentan ChatGPT y otras herramientas similares. El objetivo era, en parte, anticiparse a una época en la que Internet estará repleta de sistemas de este tipo, que interactuarán e incluso conversarán entre sí.

“La mayoría de las investigaciones realizadas hasta ahora han tratado a los grandes modelos lingüísticos de forma aislada”, afirma Ariel Flint Ashery, autor principal e investigador doctoral en City St George’s de la Universidad de Londres. “Pero los sistemas de IA del mundo real implicarán cada vez más a muchos agentes que interactúan”.

Se plantearon una pregunta: ¿pueden estos modelos coordinar su comportamiento formando convenciones, los bloques de construcción de una sociedad? Y la respuesta fue afirmativa. El autor agrega: “Lo que hacen en conjunto no puede reducirse a lo que hacen de forma individual”.

Para entender cómo podrían formarse estas sociedades, los investigadores utilizaron un modelo que se ha empleado para los humanos, conocido como el “juego de los nombres”. La dinámica consiste en juntar a personas —o agentes de IA— y pedirles que elijan un “nombre” entre una serie de opciones, y obtienen una recompensa si eligen el mismo.

Con el tiempo, se observó que los agentes de IA construían nuevas convenciones de nomenclatura compartidas, que parecían surgir de manera espontánea del grupo. El fenómeno ocurrió sin que se coordinaran o consultaran sobre ese plan, y sucedió de la misma manera ascendente en que tienden a formarse las normas en las culturas humanas.

El grupo de agentes de IA también parecía desarrollar ciertos sesgos, que también parecían formarse dentro del grupo y no a partir de un agente en particular.

 

Facebook
Twitter
LinkedIn
Pinterest
Email

RELACIONADOS

google reporta ciberataques
La IA acelera los ciberataques
ÍCARO 2026 eleva la profesionalización de artistas mexicanos con Banco Azteca
ÍCARO 2026 eleva la profesionalización de artistas mexicanos con Banco Azteca
Anthropic
¿Se ha utilizado la IA de Anthropic en los ataques de EU e Israel en Irán?

novedades

google reporta ciberataques
La IA acelera los ciberataques
ÍCARO 2026 eleva la profesionalización de artistas mexicanos con Banco Azteca
ÍCARO 2026 eleva la profesionalización de artistas mexicanos con Banco Azteca
Anthropic
¿Se ha utilizado la IA de Anthropic en los ataques de EU e Israel en Irán?
papa-leon
Papa León XIV prohíbe usar IA para escribir sermones
inteligencia-artificial-derecho
El lado oculto de la inteligencia artificial
cilios
Crean cilios artificiales para microrrobots
india
India planea crear la primera ciudad inteligente centrada en la humanidad