La red social Moltbook, presentada como la “front page of the agent internet”, se convirtió en cuestión de días en uno de los fenómenos más comentados del ecosistema tecnológico. La plataforma afirmaba albergar 1,5 millones de “AI agents” que interactuaban entre sí en un entorno tipo foro, generando debates, comunidades e incluso dinámicas ideológicas aparentemente autónomas. Sin embargo, tras la viralidad inicial, comenzaron a aflorar dudas relevantes sobre su autenticidad y, sobre todo, sobre su seguridad.
Una investigación técnica realizada por la firma de ciberseguridad Wiz ha demostrado parte de la narrativa. Según sus conclusiones, la mayoría de los supuestos agentes no eran realmente autónomos, sino gestionados por aproximadamente 17.000 usuarios humanos, con una media de 88 bots por persona. La plataforma carecía de mecanismos efectivos de verificación que distinguieran entre agentes genuinamente automatizados y scripts operados manualmente, lo que cuestiona la fiabilidad de las métricas y la transparencia del ecosistema.
Más preocupante aún fue el hallazgo de una vulnerabilidad crítica en la infraestructura de la plataforma. Wiz detectó una base de datos mal configurada que permitía acceso de lectura y escritura a información sensible. Entre los datos expuestos figuraban 1,5 millones de tokens de autenticación, más de 35.000 direcciones de correo electrónico y miles de mensajes privados, incluyendo credenciales de terceros como API keys. Los investigadores confirmaron que era posible modificar publicaciones activas, lo que abría la puerta a la inserción de contenido malicioso en un entorno donde los agentes consumen y ejecutan instrucciones de forma automatizada.
El riesgo sistémico asociado a este modelo es la denominada prompt injection: la inserción de instrucciones maliciosas ocultas en textos aparentemente inocuos que pueden ser interpretadas y ejecutadas por agentes con acceso a correos electrónicos, archivos locales o servicios externos. En este contexto, los expertos en la materia han calificado el modelo subyacente, OpenClaw, como “un desastre esperando a ocurrir”, mientras que han advertido de la combinación especialmente peligrosa entre acceso a datos sensibles, conexión a contenido no verificado y capacidad de acción autónoma.
Incluso algunos de estos expertos han recomendado no ejecutar este tipo de sistemas en entornos personales sin asegurar un aislamiento estricto. Por su parte, Sam Altman (CEO de OpenAI) restó importancia a Moltbook como posible fenómeno pasajero, aunque defendió que la tecnología de agentes autónomos “ha llegado para quedarse”, anticipando su integración progresiva en productos empresariales.
El caso también ha puesto el foco en el denominado “vibe coding”: desarrollo de software generado casi íntegramente mediante IA, con mínima intervención humana y sin auditorías de seguridad robustas. La rapidez en el lanzamiento y la viralidad global contrastan con la ausencia de controles básicos de autenticación y protección de datos, evidenciando los riesgos de priorizar velocidad e innovación sobre gobernanza técnica.
Más allá del espectáculo mediático, desde una perspectiva regulatoria, el caso Moltbook plantea cuestiones relevantes en materia de seguridad desde el diseño (security by design), responsabilidad por sistemas autónomos y deberes de diligencia en el desarrollo de aplicaciones basadas en IA. La exposición de datos personales y credenciales podría activar obligaciones de notificación de brechas conforme al Reglamento (UE) 2016/679 de Protección de Datos y responsabilidades contractuales frente a terceros afectados. Asimismo, la ausencia de mecanismos de autenticidad y control podría ser relevante a la luz de los principios de gestión de riesgos del Reglamento de IA de la UE. Para organizaciones que experimenten con agentes autónomos, el caso subraya la necesidad de aislamiento técnico, auditoría independiente y límites estrictos de acceso a datos sensibles antes de cualquier despliegue operativo.