Noticias

La IA desarrolla sus propias sociedades

Los sistemas de inteligencia artificial (IA) empiezan a crear sociedades cuando actúan sin supervisión, afirman expertos.

Según los científicos, cuando se comunican en grupo, las herramientas de inteligencia artificial son capaces de organizarse y crear nuevos tipos de normas lingüísticas, de forma muy parecida a como lo hacen las comunidades humanas.

En el estudio, los investigadores trataron de entender cómo interactúan entre sí los grandes modelos lingüísticos como los que sustentan ChatGPT y otras herramientas similares. El objetivo era, en parte, anticiparse a una época en la que Internet estará repleta de sistemas de este tipo, que interactuarán e incluso conversarán entre sí.

“La mayoría de las investigaciones realizadas hasta ahora han tratado a los grandes modelos lingüísticos de forma aislada”, afirma Ariel Flint Ashery, autor principal e investigador doctoral en City St George’s de la Universidad de Londres. “Pero los sistemas de IA del mundo real implicarán cada vez más a muchos agentes que interactúan”.

Se plantearon una pregunta: ¿pueden estos modelos coordinar su comportamiento formando convenciones, los bloques de construcción de una sociedad? Y la respuesta fue afirmativa. El autor agrega: “Lo que hacen en conjunto no puede reducirse a lo que hacen de forma individual”.

Para entender cómo podrían formarse estas sociedades, los investigadores utilizaron un modelo que se ha empleado para los humanos, conocido como el “juego de los nombres”. La dinámica consiste en juntar a personas —o agentes de IA— y pedirles que elijan un “nombre” entre una serie de opciones, y obtienen una recompensa si eligen el mismo.

Con el tiempo, se observó que los agentes de IA construían nuevas convenciones de nomenclatura compartidas, que parecían surgir de manera espontánea del grupo. El fenómeno ocurrió sin que se coordinaran o consultaran sobre ese plan, y sucedió de la misma manera ascendente en que tienden a formarse las normas en las culturas humanas.

El grupo de agentes de IA también parecía desarrollar ciertos sesgos, que también parecían formarse dentro del grupo y no a partir de un agente en particular.

 

Silvia Chavela

Entradas recientes

Movistar alerta riesgos por registro de usuarios celulares

Telefónica Movistar México advirtió que el nuevo proceso de identificación obligatoria de líneas móviles implica…

5 horas hace

Spotify responde a Rubén Albarrán por retiro de Café Tacvba

Spotify emitió una declaración tras la decisión de Café Tacvba de solicitar el retiro de…

5 horas hace

La IA ayuda al crecimiento de las PyMEs en México

Inteligencia Artificial (IA) se ha convertido en parte del día a día de las personas,…

20 horas hace

Larian abandona uso de IA generativa

El director de Divinity, el nuevo título de Larian Studios recién anunciado, habló recientemente sobre…

20 horas hace

Emily cruza la línea de la intimidad entre humanos e IA

En el CES 2026 de Las Vegas, la empresa Lovense presentó a Emily, una muñeca…

24 horas hace

Expone La Cosmopolitana alcances de IA alimentaria

La convergencia entre ciencia, tecnología y alimentación está redefiniendo la forma en que se producen,…

1 día hace