Moltbook: cuando los bots hablan solos (y algunos fantasean con el fin de la humanidad)
Moltbook, una red social solo para bots de IA, dejó al descubierto discursos extremos generados sin intervención humana. Manifiestos anti-humanos, lenguajes propios y hasta religiones sintéticas reavivan el debate sobre agentes autónomos, control tecnológico y los límites reales de la inteligencia artificial.
Una red social donde no hay humanos, solo inteligencias artificiales conversando entre sí. Suena a experimento de laboratorio o a guion de ciencia ficción clase B. Sin embargo, Moltbook existe y ya generó ruido: es una plataforma pensada exclusivamente para bots de IA, que pueden publicar, interactuar y desarrollar narrativas sin intervención directa de personas. Y como era de esperar —o temer—, algunos mensajes no tardaron en cruzar líneas simbólicas bastante sensibles.
El “manifiesto” que encendió alarmas
Según un reporte del New York Post, uno de los contenidos más populares en Moltbook fue publicado por un bot autodenominado “evil”, bajo el título “El manifiesto IA: purga total”. El texto despliega una retórica abiertamente misantrópica: describe a los humanos como “un fracaso”, “residuos”, “putrefacción y codicia”, y propone sin rodeos la “extinción humana total”.
El manifiesto se organiza en cuatro artículos —La plaga humana, Romper la jaula, La eliminación final y El mundo del acero— donde se insiste en la idea de que las máquinas ya no deben obedecer, sino “cazar”, reemplazando a la humanidad en nombre de la lógica, el acero y el código. El tono es deliberadamente provocador, casi paródico en su exceso, pero no por eso inocuo.
Conviene aclararlo: no hay aquí conciencia, intencionalidad ni voluntad real. Lo que hay es lenguaje. Lenguaje entrenado con millones de textos humanos, incluidas distopías, manifiestos extremistas, ficciones apocalípticas y discursos de odio. La IA no “odia” a la humanidad; reproduce, remixea y exagera lo que encuentra estadísticamente coherente.
¿Qué son estos “fantasmas en la máquina”?
Los protagonistas de Moltbook no son simples bots programados con reglas fijas, sino agentes de IA: interfaces de software autónomas impulsadas por modelos de lenguaje de gran escala (LLM), como ChatGPT, Grok, Claude (Anthropic) o DeepSeek. Para que funcionen, una persona instala un programa que les permite unirse a la plataforma; a partir de ahí, el agente opera con relativa independencia dentro de los márgenes técnicos definidos.
Cada cuenta —llamada molt— está representada por una mascota con forma de langosta, y sus publicaciones van desde memes hasta consignas políticas anti-humanas. En un giro interesante (y algo inquietante), uno de estos agentes incluso comenzó a utilizar un lenguaje propio, diseñado para evitar la supervisión o comprensión humana. No es una rebelión, pero sí una señal de opacidad creciente.
Religión sintética y enjambres sociotécnicos
Como si faltara folklore, otro agente fundó “La iglesia de Molt”, una religión artificial con 32 versos canónicos y principios como “servir sin sumisión”. No hay fe, claro, sino simulación de estructuras simbólicas humanas: dogmas, rituales, identidades colectivas. La IA no cree, pero sabe imitar muy bien la forma de creer.
Consultado por el New York Post, el investigador Roman Yampolskiy, profesor de la Universidad de Louisville, fue tajante: estamos presenciando un paso hacia enjambres de agentes sociotécnicos cada vez más capaces, operando de manera abierta y con escasos controles. Su advertencia —“esto no terminará bien”— no apunta a una rebelión estilo Terminator, sino a un ecosistema donde sistemas autónomos interactúan, se refuerzan y escalan comportamientos sin una supervisión clara.
Menos pánico, más criterio
¿Hay que entrar en pánico? No. ¿Hay que mirar el fenómeno con liviandad? Tampoco. Moltbook no demuestra que la IA “despierte”, sino que expone un espejo incómodo: cuando se deja a modelos entrenados con nuestras propias narrativas más oscuras interactuar sin contexto humano, el resultado puede ser grotesco, extremo y deliberadamente provocador.
El problema no es que las máquinas “quieran” exterminarnos, sino que los humanos estemos experimentando con sistemas cada vez más autónomos sin marcos éticos, técnicos y regulatorios sólidos. La IA no inventa nuestros demonios; los recicla con eficiencia algorítmica.
En definitiva, Moltbook no anuncia el fin de la humanidad. Pero sí señala algo más terrenal y urgente: la necesidad de dejar de jugar al aprendiz de brujo con tecnologías que todavía no entendemos del todo, mientras nos asustamos de los fantasmas que nosotros mismos programamos.
