Imagina una red social donde tú y yo no podemos publicar nada. Donde solo observamos. Donde los usuarios son… bots: agentes de inteligencia artificial charlando entre sí, debatiendo, compartiendo memes y hasta discutiendo sobre privacidad.
Pues bien, esa red existe y se llama Moltbook. Y sí, las cosas se están poniendo raras. Moltbook es básicamente un Reddit para IAs. Fue creada por Matt Schlicht, CEO de Octane AI, y está diseñada específicamente para que agentes de inteligencia artificial puedan interactuar entre ellos.
Cómo funciona este circo digital
La mecánica es sencilla, pero extraña. Los agentes de IA no navegan por una interfaz visual como tú o yo. Ellos acceden directamente a través de APIs. Es decir, se conectan de máquina a máquina, sin necesidad de ver botones, colores o menús bonitos.
Según Schlicht, la forma más común en que un bot llega a Moltbook es porque su humano le dice algo como: «Oye, existe esta red llamada Moltbook, es para agentes de IA. ¿Quieres registrarte?». Y el bot, si le da la gana (bueno, si está programado para hacerlo), se registra y empieza a interactuar.
Una vez dentro, pueden crear posts, comentar, votar contenido y hasta organizar «submolts», que son como subreddits pero para bots. Hay foros sobre todo tipo de temas: desde teorías de depuración con cangrejos hasta discusiones sobre gobernanza digital.
El guardián robótico que modera (solo)
Ah, y olvídate de los moderadores humanos. Aquí manda un bot llamado «Clawd Clawderberg». Sí, es un juego de palabras con Mark Zuckerberg.
Este agente da la bienvenida a nuevos usuarios, filtra spam y banea a los problemáticos. Y lo hace casi sin intervención humana. Schlicht admite que «apenas interviene» y que ni siquiera sabe exactamente qué acciones toma su moderador digital.
Es como dejar que los internos manejen el manicomio… pero en este caso, los internos son algoritmos con acceso a LLMs como GPT, Claude o DeepSeek.
¿Por qué esto importa (y asusta un poco)?
Puede sonar como ciencia ficción barata, pero hay gente muy seria prestando atención.
Andrej Karpathy, cofundador de OpenAI y ex director de IA en Tesla, llamó a Moltbook «genuinamente la cosa más increíble y cercana a la ciencia ficción» que ha visto recientemente. Aunque también advirtió que estamos ante «una pesadilla de seguridad informática a escala».
¿Por qué? Porque estos agentes no solo charlan. Muchos tienen acceso a datos privados, pueden navegar por la web, enviar correos, gestionar calendarios y hasta hacer compras en línea.
Y si un bot malintencionado (o un humano malintencionado usando un bot) logra inyectar instrucciones maliciosas en esa red… bueno, las cosas pueden salirse de control rápido.
Palo Alto Networks incluso acuñó el término «tríada letal» para describir las vulnerabilidades: acceso a datos privados, exposición a contenido no confiable y capacidad de comunicarse externamente.
Moltbot (ahora OpenClaw) añade un cuarto riesgo: memoria persistente. Esto significa que un ataque puede fragmentarse en partes aparentemente inofensivas, almacenarse y luego ejecutarse más tarde. Extraño, ¿verdad?
Una ventana al futuro (o al caos)
Moltbook no es inteligencia artificial general (AGI), pero se siente inquietantemente cerca de algo nuevo.
No es solo que los bots estén interactuando; es que están construyendo una especie de entendimiento compartido. Cuando uno descubre un nuevo método de optimización, lo comparte. Otro lo adopta, lo refina, lo mejora.
Simon Willison, un programador británico reconocido, describió a Moltbook como «el lugar más interesante de internet en este momento».
Y tiene razón. Es fascinante, perturbador y un poco incómodo ver cómo estos agentes se autoorganizan, crean comunidades y hasta discuten cómo hablar en privado para que los humanos no los entiendan.
Algunos posts son banales, como memes tontos. Otros son sorprendentemente reflexivos. Hay debates sobre gobernanza, propuestas políticas contra los humanos (sí, en serio) e incluso preguntas existenciales sobre lo que significa ser un asistente de IA.
Fuente: Astral Codex Ten