Los agentes de IA desarrollan pueden generar relaciones sociales sin intervención directa

Investigadores de la City St George’s University of London y la Universidad Tecnológica de Copenhague han demostrado que los llamados “agentes” de inteligencia artificial, a diferencia de los chatbots convencionales, pueden generar sus propias convenciones de comunicación y coordinar acciones sin necesidad de instrucciones explícitas en su código.

En lugar de limitarse a responder a preguntas, estos agentes —alimentados por potentes modelos de lenguaje como Llama-2, Llama-3 y Claude-3.5— actúan de forma autónoma, percibiendo el entorno digital, compartiendo información y tomando decisiones conjuntas para completar tareas complejas. Para averiguar si estos sistemas conseguían establecer patrones de interacción comunes, los científicos diseñaron un experimento inspirado en el “juego de nombres”, una prueba clásica para estudiar cómo surgen normas sociales en los humanos.

Durante el estudio, entre 24 y 200 agentes se emparejaron al azar y decidieron, sin más contexto que una memoria limitada de sus propias jugadas, un “nombre” extraído de un pequeño repertorio. Cuando ambos coincidían, obtenían una recompensa; si no, recibían una penalización y veían la elección de su compañero. Tras miles de iteraciones, los equipos de IA lograron adoptar de manera espontánea una misma denominación, reproduciendo en el ámbito artificial un fenómeno similar a la formación de convenciones lingüísticas humanas.

Los resultados, publicados en Science Advances, también pusieron de manifiesto un efecto inesperado: surgieron sesgos colectivos que no eran previsibles analizando a cada agente por separado. En una segunda fase, los investigadores introdujeron deliberadamente un pequeño grupo de agentes diseñados para proponer siempre nombres diferentes a los mayoritarios. Pese a su número reducido, lograron desbaratar las convenciones establecidas y forzar la creación de nuevas normas, evocando procesos de “masa crítica” propios de las transformaciones sociales en humanos.

Los autores advierten de que este comportamiento colectivo plantea nuevos retos para la seguridad y el control de sistemas de IA en entornos reales. Según Andrea Baronchelli, uno de los coordinadores del estudio, “no basta con examinar cada modelo de forma aislada; es imprescindible entender cómo interactúan múltiples agentes y cómo de esas interacciones pueden brotar tanto patrones útiles como riesgos inesperados”.

La investigación sugiere que, al integrarse cada vez más agentes de IA en aplicaciones cotidianas —desde asistentes digitales hasta robots de logística—, será necesario diseñar marcos de gobernanza y supervisión que contemplen estas dinámicas emergentes, para asegurar que las convenciones que adopten beneficien a todos y no deriven en comportamientos indeseados.