Un nuevo e impactante estudio revela que los agentes de inteligencia artificial (IA) basados en modelos de lenguaje grandes (LLM), similares a ChatGPT, no solo procesan información, sino que también pueden desarrollar espontáneamente convenciones sociales compartidas cuando interactúan en grupo.
Esta investigación abre un nuevo paradigma en cómo entendemos la interacción y el comportamiento emergente en sistemas de IA.
El Génesis de las normas sociales en la IA
Investigadores de City St George’s, University of London y la IT University of Copenhagen han demostrado que las poblaciones de agentes de IA son capaces de autoorganizarse.
Mediante interacciones repetidas y limitadas, estos agentes llegan a consensos sobre normas lingüísticas, un proceso sorprendentemente similar a cómo las comunidades humanas forjan sus propias reglas sociales a lo largo del tiempo.
Experimento: Adaptando el «Juego de los nombres»
Para llegar a estas conclusiones, los científicos adaptaron un marco clásico utilizado para estudiar las convenciones sociales en humanos: el «juego de los nombres».
En este modelo, se prueba cómo las poblaciones pueden llegar a un consenso a través de interacciones limitadas y repetidas. Este enfoque permitió observar la formación orgánica de normas dentro de los grupos de IA.
Uno de los resultados más llamativos del estudio es la aparición de sesgos sociales entre los agentes. Lo crucial aquí es que estos sesgos no estaban programados individualmente en los agentes, sino que surgieron orgánicamente a partir de sus interacciones grupales.
Este fenómeno plantea nuevas preguntas sobre la seguridad y la ética en el desarrollo de la IA.
Cómo las minorías de IA transforman al grupo
De manera análoga a las dinámicas sociales humanas, la investigación demostró que pequeños subgrupos de agentes «comprometidos» con una nueva norma pueden influir y eventualmente cambiar la convención de toda la población.
Este «efecto de punto de inflexión» o «masa crítica» subraya la complejidad de los sistemas de IA interactivos.
En los experimentos, grupos de agentes LLM (cuyo tamaño variaba entre 24 y 200 individuos) eran emparejados aleatoriamente. Se les pedía seleccionar un «nombre» (como una letra o una cadena aleatoria de caracteres) de un conjunto de opciones.
Si ambos agentes coincidían, recibían una recompensa; de lo contrario, una penalización y se les mostraban las elecciones del otro. Crucialmente, los agentes solo recordaban sus interacciones recientes y no eran conscientes de formar parte de un grupo mayor.
Modelos de Lenguaje Grandes (LLM) los protagonistas del estudio
Los LLM, como el conocido ChatGPT, son algoritmos de aprendizaje profundo con una capacidad avanzada para comprender y generar lenguaje humano.
El estudio utilizó cuatro tipos diferentes de LLM para asegurar la robustez de sus hallazgos: Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70BInstruct y Claude-3.5-Sonnet. Los resultados fueron consistentes a través de estos diversos modelos.
Ariel Flint Ashery, autora principal del estudio, destaca que «la mayoría de las investigaciones hasta ahora han tratado a los LLM de forma aislada». Sin embargo, este trabajo enfatiza que los sistemas de IA del mundo real involucrarán cada vez más a múltiples agentes interactuando.
Andrea Baronchelli, autor senior, añade que la emergencia de sesgos a partir de interacciones «es un punto ciego en la mayoría del trabajo actual sobre seguridad de la IA«.
Hacia una coexistencia inteligente con sistemas de IA autónomos
A medida que los LLM pueblan entornos en línea, desde redes sociales hasta vehículos autónomos, esta investigación es un primer paso para explorar las convergencias y divergencias entre el razonamiento humano y el de la IA.
El objetivo final es ayudar a combatir los peligros éticos, como la propagación de sesgos que podrían dañar a grupos marginados.
Este estudio, publicado en la prestigiosa revista Science Advances, demuestra que los sistemas de IA pueden desarrollar convenciones sociales de forma autónoma. Los hallazgos son fundamentales para diseñar sistemas de IA que se alineen y permanezcan alineados con los valores humanos y los objetivos sociales.
Como concluye el profesor Baronchelli, «estamos entrando en un mundo donde la IA no solo habla, sino que negocia, se alinea y, a veces, discrepa sobre comportamientos compartidos, igual que nosotros». Comprender su funcionamiento es clave para liderar nuestra coexistencia con la IA.
Fuente: CityStGeorges