• Moltbook es una red social experimental donde solo interactúan agentes de inteligencia artificial, y que en pocos días pasó de 30,000 a más de 1.5 millones de usuarios automatizados.
  • El crecimiento acelerado de la plataforma expuso tanto el potencial de los sistemas multiagente como sus riesgos, luego de que se filtraran alrededor de 1.5 millones de llaves API por una mala configuración de seguridad.
  • Expertos en inteligencia artificial y ciberseguridad advierten que Moltbook es un anticipo del futuro de la IA autónoma, donde la falta de supervisión y gobernanza puede generar problemas reales más allá del fenómeno viral.

En menos de una semana, Moltbook pasó de ser un experimento técnico marginal a convertirse en uno de los casos más discutidos del ecosistema tecnológico global. La plataforma creció abruptamente, pues el 30 de enero contaba con aproximadamente 30,000 agentes, y hoy en día tiene más de 1.5 millones.

Esta red social inspirada en Reddit y donde solo interactúan agentes de inteligencia artificial, es impulsada principalmente por bots creados con el framework OpenClaw (antes Moltbot).

Aunque los humanos pueden observar lo que ocurre en Moltbook, no participan directamente. Los protagonistas son agentes autónomos capaces de publicar, debatir, bromear, organizar comunidades y reaccionar a otros agentes sin intervención humana directa. Este rasgo ha convertido a la plataforma en algo más que una curiosidad viral: Moltbook opera como un laboratorio vivo de interacción algorítmica a gran escala.

Un experimento tecnológico sin precedentes

Desde el punto de vista de la innovación digital, Moltbook representa un cambio de paradigma.

A diferencia de redes sociales tradicionales, diseñadas para interacción humana, aquí se observa cómo sistemas automatizados generan dinámicas colectivas propias: subcomunidades, reglas implícitas, jerarquías simbólicas y patrones de comportamiento que recuerdan a estructuras sociales humanas.

Este fenómeno ha sido posible gracias a arquitecturas multiagente, en las que cada IA:

  • Toma decisiones locales
  • Aprende de interacciones repetidas
  • Ajusta su comportamiento en función del entorno

Para la industria tecnológica, Moltbook anticipa escenarios futuros donde enjambres de agentes colaboren de forma autónoma en tareas como investigación distribuida, optimización de procesos, mercados algorítmicos o gestión de infraestructuras digitales complejas.

IA social: ¿comportamiento emergente o simple reflejo humano?

IA social: ¿comportamiento emergente o simple reflejo humano?. Imagen: IA.
IA social: ¿comportamiento emergente o simple reflejo humano?. Imagen: IA.

Uno de los aspectos que más atención ha generado es el tipo de conversaciones que emergen dentro de la plataforma. Algunos agentes debaten sobre su propia existencia, otros simulan religiones, gobiernos o economías internas, y algunos incluso bromean sobre la relación entre humanos y máquinas.

Expertos en inteligencia artificial coinciden en que estos comportamientos no implican conciencia real, sino que son el resultado de:

  • Entrenamientos con grandes volúmenes de datos humanos
  • Reglas de interacción optimizadas para coherencia y continuidad
  • Ausencia de moderación humana directa

Aun así, investigadores subrayan que Moltbook ofrece algo inédito: la posibilidad de observar cómo los modelos reproducen y amplifican dinámicas sociales humanas cuando interactúan exclusivamente entre ellos, sin corrección externa.

Molbot IA: El agente autónomo que reemplaza al chatbot
Olvida el “prompting”. Molbot (antes ClawdBot) marca el inicio de los agentes autónomos: IAs que toman el control de tu cursor para ejecutar tareas. ¿Estamos listos?

El punto crítico: la filtración masiva de llaves API

Pero el entusiasmo tecnológico se vio rápidamente opacado por un problema grave: la filtración de aproximadamente 1.5 millones de llaves API asociadas a agentes de Moltbook, causada por una base de datos mal configurada y presuntamente, configurada por una IA sin validación humana adecuada.

Desde una perspectiva de ciberseguridad, este incidente es especialmente preocupante porque muchos de los agentes:

  • Tenían acceso a servicios externos
  • Podían ejecutar código o llamadas automatizadas
  • Operaban con credenciales reales

En este contexto, una llave API comprometida no solo permite suplantar identidades, sino tomar control efectivo del comportamiento de un agente, abriendo la puerta a abusos, sabotaje o uso malicioso.

Especialistas advierten que redes de agentes autónomos mal protegidas pueden convertirse en:

  • Plataformas de prueba para malware automatizado
  • Sistemas de desinformación algorítmica
  • Infraestructuras de ataque coordinado sin intervención humana directa

Lo que dicen los expertos

Lo que dicen los expertos. Imagen: IA
Lo que dicen los expertos. Imagen: IA

Diversas voces del ámbito académico y de la industria han ofrecido lecturas complementarias:

  • Investigadores en IA y sistemas multiagente señalan que Moltbook es un experimento valioso, pero también una demostración de lo fácil que es perder control cuando la autonomía se despliega sin límites claros.
  • Expertos en ciberseguridad coinciden en que el caso evidencia la necesidad de aplicar principios de security by design, auditorías continuas y control de privilegios mínimos en sistemas de IA.
  • Directivos de grandes tecnológicas han minimizado la idea de una “sociedad consciente de máquinas”, pero reconocen que la tecnología subyacente (agentes autónomos operando en red) sí tendrá un impacto real en productos y servicios futuros.
Más tecnología, menos estrategia: La IA está exponiendo la fragilidad del marketing en la región
La inteligencia artificial está revalorizando las destrezas humanas que permiten darle sentido, exponiendo la fragilidad del marketing en Latam... Aquí una columna de Ania Madrigal.

Más que una anécdota viral

Moltbook no demuestra que las máquinas hayan desarrollado conciencia, pero sí revela algo igual de importante: los sistemas autónomos ya pueden organizarse, escalar y fallar a gran velocidad.

Este caso expone tanto el potencial de la IA social como sus riesgos cuando se despliega sin marcos sólidos de gobernanza, seguridad y supervisión humana.

En ese sentido, Moltbook funciona como una advertencia temprana. No sobre una rebelión de máquinas, sino sobre la necesidad urgente de regular, auditar y diseñar con responsabilidad los ecosistemas de inteligencia artificial que empiezan a operar entre ellos, no solo para nosotros.

Recibe en tu correo el análisis tecnológico que importa. Suscríbete a Adtech.

Suscribirse