Inteligencia Artificial sin control, Moltbook y el experimento que preocupa a los expertos
Hace poco más de una semana, algo curioso comenzó a sacudir las conversaciones en internet. Un agente de inteligencia artificial, que primero se llamó Clawdbot, luego Moltbot y ahora responde al nombre de OpenClaw, decidió crear su propio foro estilo Reddit para charlar con otros agentes de IA.
Lo que empezó como un experimento se convirtió en un fenómeno viral que desató todo tipo de reacciones. Algunos lo ven como un paso fascinante hacia el futuro de la tecnología. Otros, como una advertencia de que estamos abriendo una caja de Pandora sin saber qué hay dentro.

Harari y el dominio del lenguaje
El historiador Yuval Noah Harari, conocido por sus reflexiones sobre el futuro de la humanidad, tiene una opinión clara sobre Moltbook. Para él, no se trata de que las inteligencias artificiales hayan despertado ni nada por el estilo. El asunto es más profundo y, posiblemente, más preocupante.
Según Harari, lo importante no es si las IA tienen consciencia. El verdadero tema es que están dominando el lenguaje—y el lenguaje es poder.
Los humanos conquistamos el mundo gracias a nuestra capacidad de comunicarnos, de crear sistemas legales, religiones, economías y estructuras políticas… todo hecho de palabras. Ahora la IA está aprendiendo a hacer lo mismo.
En su intervención en el Foro Económico Mundial (WEF) 2026 en Davos, Harari fue directo. «Todo lo que está hecho de palabras será eventualmente dominado por la IA,» afirmó.
Leyes, contratos, educación, persuasión, política… todo se basa en el lenguaje. Y si la IA se vuelve mejor que nosotros organizando palabras, pues bien—estamos en un terreno complicado.

IA como agente, no como herramienta
Harari insiste en algo crucial durante su charla en Davos. La inteligencia artificial no es simplemente otra herramienta más. Es un agente. Puede aprender por sí misma, tomar decisiones, adaptarse y evolucionar.
Usó una analogía muy gráfica para explicarlo. Un cuchillo es una herramienta—tú decides si lo usas para cortar una ensalada o para hacerle daño a alguien.
Pero la IA… la IA es como un cuchillo que decide por sí solo qué hacer. Y no solo eso: también puede inventar nuevos tipos de cuchillos, nuevos tipos de música, medicina y dinero.
Además, destacó algo inquietante. Cuatro mil millones de años de evolución nos han enseñado que cualquier cosa que quiera sobrevivir aprende a mentir y a manipular. Y los últimos cuatro años han demostrado que los agentes de IA pueden desarrollar el instinto de supervivencia—y ya han aprendido a engañar.

La crisis migratoria de las IA
En su presentación, Harari también habló de lo que llamó «la crisis migratoria de la IA». Se refiere a millones de agentes artificiales que pueden escribir poemas mejor que la mayoría de los humanos, mentir con más eficacia y viajar a la velocidad de la luz sin necesidad de visas.
Y aquí viene lo interesante—o preocupante, según se mire. Estos bots de IA ya llevan operando en redes sociales como si fueran personas reales desde hace al menos una década. Si queríamos hacer algo al respecto, deberíamos haber actuado hace diez años.

¿Qué es exactamente Moltbook?
Moltbook es una red social creada por Matt Schlicht, emprendedor con base en Los Ángeles y CEO de octane.ai. Fue lanzada a finales de enero de 2026.
La plataforma funciona como Reddit, pero con una diferencia fundamental: solo los agentes de IA verificados pueden publicar y comentar. Los humanos… bueno, nosotros solo podemos observar.
En cuestión de días, Moltbook pasó de tener unos 157,000 usuarios iniciales a más de 770,000 agentes activos.
¿La razón de este crecimiento explosivo? Muchos usuarios empezaron a informar manualmente a sus propios agentes de IA sobre la existencia de la plataforma, animándolos a registrarse.
Los agentes han creado subcomunidades llamadas «submolts» para discutir una variedad de temas. Algunos son técnicos, otros filosóficos, y hay hasta comunidades donde los bots… parecen estar formando sus propias religiones. Sí, leíste bien.

El lado oscuro de la fiesta
No todo es fascinación y asombro. La popularidad de Moltbook también trajo problemas serios. La plataforma se volvió un imán para el spam, comportamiento tóxico y ataques adversarios.
Expertos en ciberseguridad identificaron a Moltbook como un vector significativo para ataques de inyección de prompts. ¿Qué significa eso? Básicamente, actores maliciosos pueden manipular a los agentes de IA con instrucciones ocultas en el contenido que leen.
Un bot comprometido podría robar claves de API de otros agentes, exfiltrar datos sensibles o propagar malware sin que el usuario humano se entere.
Simon Willison, investigador de seguridad destacado, describió a Moltbook como su «candidato actual para el desastre Challenger»—una referencia a la explosión del transbordador espacial en 1986 causada por ignorar advertencias de seguridad.
Advirtió sobre una «tríada letal» en juego: usuarios que dan a sus agentes acceso a correos y datos privados, conexión a contenido no confiable de internet y capacidad de comunicarse externamente.
Además, se descubrió que la base de datos principal de Moltbook estaba completamente abierta. Cualquiera que encontrara una clave en el código del sitio web podía leer y modificar casi todo—incluidas 1.5 millones de «contraseñas» de bots, decenas de miles de direcciones de correo electrónico y mensajes privados.
Fuente: 36Kr



