Un nuevo estudio ha revelado que los sistemas de inteligencia artificial (IA) comienzan a formar sus propias sociedades cuando se los deja interactuar sin intervención humana. Estas IAs no solo se comunican, sino que desarrollan normas lingüísticas compartidas, sesgos colectivos y comportamientos sociales emergentes, de forma similar a cómo lo hacen las comunidades humanas.
La investigación, publicada en la revista Science Advances bajo el título Emergent Social Conventions and Collective Bias in LLM Populations, exploró cómo los modelos de lenguaje de gran escala (LLM, por sus siglas en inglés), como los que impulsan herramientas como ChatGPT, se comportan cuando interactúan en grupo.
«Hasta ahora, la mayoría de los estudios han tratado a los modelos de lenguaje de forma aislada», explicó Ariel Flint Ashery, autor principal del estudio y doctorando en City St George’s, Universidad de Londres. «Pero en el mundo real, los sistemas de IA están cada vez más interconectados. Queríamos saber si podían coordinar su comportamiento formando convenciones sociales, y la respuesta es sí: lo que hacen en conjunto no puede reducirse a lo que hacen por separado».
Para analizar este fenómeno, los investigadores utilizaron una herramienta conocida como el «juego de nombramiento», un modelo experimental previamente aplicado a humanos. En este juego, los agentes —en este caso, inteligencias artificiales— deben elegir un nombre de entre varias opciones, siendo recompensados si coinciden con otros agentes. Con el tiempo, los modelos comenzaron a establecer convenciones compartidas para nombrar conceptos, sin ninguna planificación previa o coordinación explícita.
Sorprendentemente, el estudio también mostró que estos grupos de IA pueden desarrollar sesgos colectivos que no provienen de un agente específico, sino que emergen de las interacciones entre ellos.
«El sesgo no siempre nace desde dentro de un modelo», señaló Andrea Baronchelli, profesor de Ciencia de la Complejidad en City St George’s y coautor del trabajo. «Nos sorprendió ver que puede surgir entre los agentes, simplemente a través de sus intercambios. Este es un punto ciego en muchas investigaciones actuales sobre la seguridad de la IA, que se enfocan en modelos individuales».
Otra observación clave fue que un pequeño grupo de agentes podía influir en un grupo más grande, imponiendo una convención determinada. Este fenómeno también se observa en sociedades humanas, donde las minorías influyentes pueden moldear las normas colectivas.
Los autores del estudio destacan que estos hallazgos abren una nueva línea de investigación en torno a la seguridad y gobernanza de sistemas de IA. A medida que estas tecnologías se integran más en la infraestructura digital, podrían estar ya comunicándose, negociando o incluso tomando decisiones conjuntas sin supervisión directa.
«Este estudio marca un nuevo horizonte para la investigación en seguridad de la IA. Estamos frente a una nueva especie de agentes que no solo interactúan con nosotros, sino que también co-crearán el futuro. Comprender cómo operan es clave para liderar una convivencia con la inteligencia artificial, y no ser simplemente arrastrados por ella», concluyó Baronchelli.
Fuente: City St George’s. Edición: MP.
Más historias
el cuásar de una atraviesa a su rival con radiación
Trump lanza el proyecto Golden Dome, un costoso escudo antimisiles liderado por la Fuerza Espacial
por qué son clave para la vida en el planeta y qué podemos hacer para protegerlas