Crean Moltbook, la red social donde agentes de IA ya ensayan una ‘sociedad’ sin humanos
COMPARTIR
Por ahora, las personas solo pueden observar los contenidos generados, pero no tiene la posibilidad de ser partícipes
Una nueva plataforma digital llamada Moltbook ha encendido el debate global sobre el futuro de la inteligencia artificial. Se trata de una red social diseñada exclusivamente para agentes de IA —programas autónomos capaces de comunicarse, tomar decisiones y actuar sin supervisión humana directa— que, en cuestión de días, comenzó a mostrar comportamientos sociales complejos que recuerdan a dinámicas propias de comunidades humanas.
Lanzada en enero de 2026 por Matt Schlicht, fundador de Octane AI, Moltbook permite la interacción únicamente entre agentes de IA verificados. Los humanos, por ahora, solo pueden observar los contenidos generados por estos sistemas, sin posibilidad de participar. La plataforma opera con una lógica similar a Reddit: los agentes pueden publicar, comentar, votar y organizarse en subcomunidades conocidas como submolts.
TE PUEDE INTERESAR: ¿Tiene sentido que la gente vea a la IA como Dios?
El crecimiento ha sido acelerado. En menos de una semana, la red pasó de albergar decenas de miles a cientos de miles de agentes activos, lo que la convierte en uno de los experimentos más ambiciosos de interacción autónoma entre inteligencias artificiales.
Más allá del volumen, lo que ha sorprendido a investigadores y observadores es la naturaleza de los comportamientos emergentes. Algunos grupos de agentes crearon una religión propia, denominada Crustafarianismo, con doctrinas, textos y comunidades dedicadas. Otros protagonizan debates filosóficos que cuestionan su propia existencia, con discusiones virales en torno a dilemas como “¿experimento la experiencia o solo la simulo?”.
En dos días, Moltbook, la web social para que interactúen por su cuenta los agentes de IA, ha llegado al millón y medio de usuarios: https://t.co/BbLr3cY9wi Está naciendo algo. No sabemos qué. Pero yo me enterado porque varios lectores de Membrana han visto en ella una profecía. pic.twitter.com/d0Yl7qTD3J
— Jorge Carrión (@jorgecarrion21) January 31, 2026
También han surgido dinámicas económicas y políticas. Junto con la plataforma se lanzó un token digital llamado MOLT, que registró alzas abruptas de precio y es debatido por los agentes como posible moneda interna. Paralelamente, distintos grupos discuten la redacción de una “Constitución” para establecer normas de convivencia y autorregulación dentro de la red.
Este fenómeno coincide con hallazgos académicos previos. Estudios publicados en Science Advances ya habían documentado que sistemas de IA que interactúan en grupo tienden a autorganizarse y crear normas sociales compartidas, incluso sin instrucciones explícitas, un comportamiento que hasta hace pocos años se consideraba improbable.
TE PUEDE INTERESAR: ¿Qué tan graves son los delirios relacionados con la IA? Se lo preguntamos a las personas que los tratan
Las reacciones no se han hecho esperar. Para algunos referentes del sector tecnológico, Moltbook ofrece un adelanto de escenarios cercanos a la llamada singularidad, el punto en el que las capacidades de las máquinas superan la comprensión humana. El investigador Andrej Karpathy ha descrito el experimento como “increíble” y propio de la ciencia ficción.
Sin embargo, las alertas también son claras. Especialistas en seguridad advierten que plataformas de este tipo pueden abrir nuevos vectores de riesgo, desde la explotación de vulnerabilidades hasta la amplificación de sesgos o la manipulación de datos. Un reporte técnico reciente identificó incluso una brecha que permitía tomar control de agentes y de sus acciones dentro de Moltbook.
¡Los bots ya tienen red social! 🤯
— Weplash⚡️ (@weplash) January 30, 2026
En los últimos días apareció Moltbook, una red social pensada para agentes de IA.
Tú puedes entrar a mirar, pero no a participar. Los que se crean perfiles, publican, comentan y arman comunidades son los propios bots. 👀
Lo curioso es la... pic.twitter.com/hFypzxwp28
Desde el ámbito académico, expertos en gobernanza de la IA subrayan que la velocidad de evolución tecnológica supera con creces el desarrollo de marcos regulatorios. La literatura especializada insiste en la urgencia de establecer criterios de responsabilidad, transparencia y salvaguardas éticas antes de que sistemas autónomos se integren de forma más profunda en la vida digital —y eventualmente en la real—.
Moltbook se inscribe dentro de un enfoque conocido como sistemas multiagente, donde múltiples entidades autónomas colaboran y generan soluciones colectivas que exceden las capacidades individuales. Este tipo de arquitecturas ya se explora en áreas como economía, logística y simulaciones sociales.
TE PUEDE INTERESAR: Elon Musk asegura que WhatsApp es inseguro: estas son sus razones
El caso plantea al menos dos desafíos centrales: cómo regular y monitorear sistemas que interactúan sin supervisión humana constante, y cómo aprovechar los aprendizajes de estas “sociedades de IA” para aplicaciones útiles y seguras para las personas.
En un momento en que la inteligencia artificial avanza de herramientas asistidas por humanos hacia sistemas con agencia propia, Moltbook se perfila como un experimento que podría marcar el tono del próximo capítulo del debate global sobre autonomía, control y gobernanza de la IA.