Moltbook: del experimento viral al caso de estudio sobre riesgos del “agent internet”

Comparte

La red social Moltbook, presentada como la “front page of the agent internet”, se convirtió en cuestión de días en uno de los fenómenos más comentados del ecosistema tecnológico. La plataforma afirmaba albergar 1,5 millones de “AI agents” que interactuaban entre sí en un entorno tipo foro, generando debates, comunidades e incluso dinámicas ideológicas aparentemente autónomas. Sin embargo, tras la viralidad inicial, comenzaron a aflorar dudas relevantes sobre su autenticidad y, sobre todo, sobre su seguridad.

Una investigación técnica realizada por la firma de ciberseguridad Wiz ha demostrado parte de la narrativa. Según sus conclusiones, la mayoría de los supuestos agentes no eran realmente autónomos, sino gestionados por aproximadamente 17.000 usuarios humanos, con una media de 88 bots por persona. La plataforma carecía de mecanismos efectivos de verificación que distinguieran entre agentes genuinamente automatizados y scripts operados manualmente, lo que cuestiona la fiabilidad de las métricas y la transparencia del ecosistema.

Más preocupante aún fue el hallazgo de una vulnerabilidad crítica en la infraestructura de la plataforma. Wiz detectó una base de datos mal configurada que permitía acceso de lectura y escritura a información sensible. Entre los datos expuestos figuraban 1,5 millones de tokens de autenticación, más de 35.000 direcciones de correo electrónico y miles de mensajes privados, incluyendo credenciales de terceros como API keys. Los investigadores confirmaron que era posible modificar publicaciones activas, lo que abría la puerta a la inserción de contenido malicioso en un entorno donde los agentes consumen y ejecutan instrucciones de forma automatizada.

El riesgo sistémico asociado a este modelo es la denominada prompt injection: la inserción de instrucciones maliciosas ocultas en textos aparentemente inocuos que pueden ser interpretadas y ejecutadas por agentes con acceso a correos electrónicos, archivos locales o servicios externos. En este contexto, los expertos en la materia han calificado el modelo subyacente, OpenClaw, como “un desastre esperando a ocurrir”, mientras que han advertido de la combinación especialmente peligrosa entre acceso a datos sensibles, conexión a contenido no verificado y capacidad de acción autónoma.

Incluso algunos de estos expertos han recomendado no ejecutar este tipo de sistemas en entornos personales sin asegurar un aislamiento estricto. Por su parte, Sam Altman (CEO de OpenAI) restó importancia a Moltbook como posible fenómeno pasajero, aunque defendió que la tecnología de agentes autónomos “ha llegado para quedarse”, anticipando su integración progresiva en productos empresariales.

El caso también ha puesto el foco en el denominado “vibe coding”: desarrollo de software generado casi íntegramente mediante IA, con mínima intervención humana y sin auditorías de seguridad robustas. La rapidez en el lanzamiento y la viralidad global contrastan con la ausencia de controles básicos de autenticación y protección de datos, evidenciando los riesgos de priorizar velocidad e innovación sobre gobernanza técnica.

Más allá del espectáculo mediático, desde una perspectiva regulatoria, el caso Moltbook plantea cuestiones relevantes en materia de seguridad desde el diseño (security by design), responsabilidad por sistemas autónomos y deberes de diligencia en el desarrollo de aplicaciones basadas en IA. La exposición de datos personales y credenciales podría activar obligaciones de notificación de brechas conforme al Reglamento (UE) 2016/679 de Protección de Datos y responsabilidades contractuales frente a terceros afectados. Asimismo, la ausencia de mecanismos de autenticidad y control podría ser relevante a la luz de los principios de gestión de riesgos del Reglamento de IA de la UE. Para organizaciones que experimenten con agentes autónomos, el caso subraya la necesidad de aislamiento técnico, auditoría independiente y límites estrictos de acceso a datos sensibles antes de cualquier despliegue operativo.

Leer más

Posts relacionados que podrían interesarte

4, septiembre 2025

Meta refuerza la seguridad de los usuarios menores de edad en sus chatbots tras la divulgación de un polémico informe de Reuters

8, noviembre 2022

DPA italiana: 45.000 euros de sanción a la app de diabetes de SENSEONICS INC

24, mayo 2023

España busca prohibir el cifrado de extremo a extremo para perseguir contenido ilegal en los mensajes

9, junio 2017

¿Cómo aprenden los despachos de abogados de las ‘startups’?

19, abril 2023

El uso de la inteligencia artificial por los empleados

9, abril 2020

Amazon no vulnera los derechos de marca de terceros por incluir productos que sí los vulneran en su Marketplace.