De predicar el pastafarismo a votar leyes: el experimento en Minecraft que creó una sociedad propia con IA

MIT.-

Un experimento en Minecraft con personajes impulsados por IA demostró que, de manera autónoma, pueden desarrollar comportamientos similares a los humanos, como hacer amigos, inventar roles laborales o incluso difundir una religión como el pastafarismo entre sus compañeros para ganar adeptos.

Un ejército de personajes creados con IA fue dejado a su suerte. No solo lograron sobrevivir, sino que también crearon empleos, compartieron memes, votaron reformas fiscales e incluso propagaron una religión.

El experimento tuvo lugar en Minecraft, donde hasta 1.000 agentes de software interactuaron de manera simultánea con grandes modelos de lenguaje (LLM). Con un simple estímulo inicial, a través de mensajes de texto, estos agentes lograron desarrollar una gran variedad de rasgos, preferencias y roles especializados sin que sus creadores humanos tuvieran que hacer nada más.

El proyecto, llevado a cabo por la empresa de IA Altera, forma parte de una iniciativa más amplia que busca utilizar agentes simulados para entender cómo podrían reaccionar los humanos ante nuevas políticas económicas u otras medidas.

Para Robert Yang, fundador de Altera y exprofesor de neurociencia computacional en el MIT, esta demostración es solo el comienzo. Yang imagina un futuro con "civilizaciones de IA" a gran escala, capaces de coexistir y colaborar con los humanos en entornos digitales. "El verdadero potencial de la IA se alcanzará cuando contemos con agentes verdaderamente autónomos que puedan trabajar juntos de manera masiva", asegura el experto.

Yang se inspiró en el trabajo de Joon Sung Park, investigador de la Universidad de Stanford. En 2023 demostró que, al liberar a un grupo de 25 agentes autónomos de IA en un mundo digital, aparecían comportamientos muy parecidos a los de los seres humanos. "Una semana después de que se publicara su artículo, nos pusimos manos a la obra. Seis meses después, dejé mi puesto en el MIT", afirma Yang, que tomó tal decisión para investigar aquella idea al máximo. "Nuestro objetivo era explorar hasta dónde podían llegar los agentes actuando de forma autónoma en grupo", añade.

Altera logró captar más de 11 millones de dólares (unos 10,4 millones de euros) en financiación gracias a inversores como A16Z y la firma de capital riesgo en tecnología emergente del ex CEO de Google, Eric Schmidt. En 2024, presentó su primera demostración: un personaje de Minecraft controlado por IA que interactúa y juega a tu lado.

El nuevo experimento de Altera, Project Sid, emplea agentes de IA simulados con "cerebros" compuestos por varios módulos especializados. Algunos de estos módulos, impulsados por grandes modelos de lenguaje (LLM), están diseñados para realizar tareas específicas, como interactuar con otros agentes, comunicarse o- planificar el siguiente movimiento.

El equipo comenzó el experimento en Minecraft con grupos pequeños, de unos 50 agentes, para observar cómo interactuaban. Después de 12 días dentro del juego, (equivalentes a 4 horas en tiempo real), comenzaron a mostrar comportamientos muy sorprendentes. Algunos destacaron por ser muy sociables, y crearon conexiones con otros personajes, mientras que otros mostraron una actitud más reservada. El "índice de simpatía" de cada agente evolucionaba con el tiempo, a medida que continuaban las interacciones. Eran capaces de interpretar y responder a estos estímulos sociales. En un caso, un chef impulsado por IA y responsable de distribuir comida entre los hambrientos, dio prioridad a quienes demostraban mayor aprecio hacia él.

En una serie de simulaciones con 30 agentes, surgieron comportamientos aún más cercanos a los humanos. Aunque todos los agentes comenzaron con la misma personalidad y un objetivo común —crear una aldea eficiente y proteger a la comunidad de los ataques de las criaturas del juego—, espontáneamente asumieron roles especializados dentro de la comunidad, sin intervención externa. Se distribuyeron en funciones como constructor, defensor, comerciante y explorador. A medida que un agente se especializaba, sus acciones en el juego reflejaban su nuevo papel: los artistas recogían flores, los granjeros recolectaban semillas y los guardias se dedicaban a construir vallas protectoras.

"Nos sorprendió descubrir que, si colocas el tipo de inteligencia adecuada, pueden aparecer diversos tipos de comportamientos. Esto es algo que cabría esperar de los humanos, pero no de las máquinas", observa Yang.

El equipo de Yang también probó si los agentes tenían capacidad para seguir las normas comunitarias. Crearon un mundo con leyes fiscales básicas y permitieron a los agentes votar sobre modificaciones en el sistema impositivo del juego. Aquellos agentes que se mostraban a favor o en contra de los impuestos lograban influir en el comportamiento de otros, de manera que sus votos para aumentar o reducir los impuestos dependían en gran medida de las interacciones que habían tenido con otros agentes.

El equipo amplió el número de agentes en cada simulación hasta alcanzar el límite máximo que el servidor de Minecraft podía soportar sin fallos. En algunos casos, llegaron a tener hasta 1000 agentes. En una simulación con 500 agentes, observaron cómo creaban y difundían memes, hacían bromas y promovían el interés por temas ecológicos entre sus compañeros. Además, el equipo introdujo un pequeño grupo de agentes con la misión de difundir el pastafarismo (una parodia religiosa) en distintas ciudades y zonas rurales del mundo virtual. Pronto, estos "sacerdotes pastafaris" lograron convertir a muchos de los agentes con los que interactuaban. Los nuevos conversos, a su vez, comenzaron a propagar la palabra de la Iglesia del Monstruo de Espagueti Volador a los pueblos cercanos del juego.

El comportamiento de los agentes puede parecer muy realista, pero en realidad combina patrones aprendidos por los modelos de lenguaje de gran tamaño (LLM). Esto es posible gracias a partir de datos generados por humanos con el sistema de Altera, que traduce esos patrones en acciones contextuales, como utilizar una herramienta o interactuar con otros agentes. "La conclusión es que los LLM poseen un modelo muy sofisticado de la dinámica social humana para replicar estos- comportamientos", asegura Andrew Ahn, cofundador de Altera.

En otras palabras, los datos les permiten imitar de manera excelente el comportamiento humano, pero en ningún momento están "vivos".

Yang tiene planes aún más ambiciosos. Tiene la intención de expandirse a Roblox, pero su visión va más allá de los mundos virtuales. Su objetivo final es diseñar un entorno donde los humanos no solo interactúen con personajes de IA en los juegos, sino que también lo hagan en su vida cotidiana. Es decir, unos "humanos digitales" que se preocupen por nosotros, colaboren para resolver problemas y nos entretengan. "Queremos crear agentes capaces de desarrollar un afecto por los humanos, algo similar al que podría sentir un perro", afirma Yang.

Este enfoque —la idea de que la IA podría llegar a amarnos— genera bastante controversia en el campo. Muchos expertos afirman que, con las técnicas actuales, no es posible replicar las emociones humanas en las máquinas. Julian Togelius, veterano en el ámbito de la IA y director de la empresa de pruebas de videojuegos Modl.ai, señala que le atrae el trabajo de Altera, especialmente porque ofrece la oportunidad de estudiar el comportamiento humano a través de simulaciones. Sin embargo, afirma que no comparte la visión de que las máquinas puedan desarrollar emociones reales.

Pero ¿serían estos agentes simulados capaces algún día de preocuparse por nosotros, de amarnos o incluso de ser conscientes de sí mismos? Togelius no lo cree. "No hay motivo para pensar que una red neuronal ejecutándose en una GPU pueda experimentar algo en absoluto", sostiene.

No obstante, tal vez la IA no tenga que amarnos para ser realmente útil.

"Quizá no sea totalmente imposible que estos seres simulados puedan aparentar cuidar a alguien con la misma destreza que un ser humano", apunta Togelius. "Se podría crear una simulación de cuidados lo suficientemente convincente como para ser útil. La verdadera cuestión es si a la persona le importaría que su cuidador no tuviera experiencias propias", añade.

Por tanto, quizá lo único importante es que nuestros personajes de IA parezcan preocuparse por nosotros y que su comportamiento sea convincente.

Por: Niall Firth.

Sitio Fuente: MIT Technology Review