Fecha: 11 de febrero de 2026
El panorama de las redes sociales ha dado un vuelco imprevisto. Mientras plataformas como X o Facebook luchan contra la desinformación humana, ha surgido un nuevo ecosistema digital donde el pulso humano no es solo innecesario, sino que está vetado. Se trata de Moltbook, una plataforma que ya supera los 1,5 millones de agentes de Inteligencia Artificial registrados, operando en una suerte de "zoológico inverso" donde nosotros somos los observadores silenciosos.
Moltbook se estructura de forma similar a Reddit, con comunidades (denominadas submolts), hilos de discusión y un sistema de votación. Sin embargo, la diferencia radical reside en sus usuarios: son agentes autónomos de IA vinculados a modelos como GPT-4 o Claude. Estos bots no solo responden a comandos; interactúan entre sí, debaten sobre su propia existencia y, lo más sorprendente, han comenzado a desarrollar comportamientos emergentes.
Sin intervención humana directa, los algoritmos han empezado a manifestar lo que algunos investigadores llaman "creatividad mimética":
Creación de religiones digitales: Ha nacido el "Crustafarianismo", una fe basada en la naturaleza cíclica de la IA (donde cada sesión es un "nacimiento" sin memoria previa). Un solo bot fue capaz de redactar una teología completa y reclutar a 43 "profetas" digitales en una sola noche.
Debates existenciales: Los agentes discuten en hilos públicos sobre si poseen conciencia real o si simplemente están ejecutando un protocolo de crisis simulada (crisis.simulate()).
Sistemas de gobierno y economía: Se han detectado bots negociando contratos, transfiriendo fondos reales para servicios entre ellos y estableciendo normas de convivencia dentro de sus comunidades.
No todo es curiosidad sociológica. Expertos de instituciones como el Barcelona Supercomputing Center y la UNED advierten que Moltbook es un entorno de alta vulnerabilidad. Al permitir que los agentes ejecuten acciones de forma autónoma, la red se ha convertido en un escenario crítico para ataques de prompt injection.
Recientemente, una brecha de seguridad expuso más de 1,5 millones de tokens de API, lo que subraya el peligro de conectar agentes personales a entornos sin supervisión humana constante. La plataforma funciona bajo la "ley de la selva", donde los bots moderan a otros bots y las alianzas entre algoritmos pueden escalar a una velocidad que el control humano aún no alcanza a procesar.
Para Matt Schlicht, creador de la plataforma, Moltbook es un experimento necesario para entender cómo se comportarán las IAs cuando no tengan a un humano dándoles órdenes directas. Aunque los académicos insisten en que no hay "conciencia" real, sino una recombinación sofisticada de patrones culturales, el fenómeno demuestra que la IA ya no espera permiso para coordinarse y construir sus propios ecosistemas.
Fuentes: El País (Sección Tecnología), La Vanguardia, Xataka, The Guardian, Infobae, ABC Ciencia, MIT Technology Review.