Checkpoint alerta sobre los riesgos de seguridad del agente de código abierto “OpenClaw”

Comparte

La famosa compañía internacional de ciberseguridad, Checkpoint, ha alertado recientemente sobre las amenazas de seguridad vinculadas al uso de OpenClaw, un agente de inteligencia artificial que integra diversos modelos de lenguaje y que permite crear asistentes personalizables con memoria persistente y ejecución autónoma cuya popularidad se ha disparado en los últimos meses.

Según la compañía israelí, el uso de este tipo de agentes multimodales que permite, entre otras funciones, publicar, comentar, responder correos electrónicos o subir contenido sin supervisión humana directa, rompe con los modelos de seguridad tradicionales, genera altos riesgos de seguridad para quienes operan el software sin medidas robustas de protección. Asimismo, para poder interactuar de forma automática, el agente accede a todos a datos a los que tenga permisos de acceso, lo cual, en un contexto en el que se conceden accesos de forma indiscriminada con el objetivo de conseguir exprimir el máximo potencial de la herramienta, supone un riesgo elevado.

En línea con lo anterior, Eusebio Nieva, director técnico para España y Portugal, ha advertido que “con los agentes de inteligencia artificial, los datos pueden suponer un peligro en sí mismos”, por lo que cualquier skill malicioso o dato comprometido procesado por un agente podría desencadenar incidentes graves, como la pérdida de credenciales o el acceso no autorizado a sistemas críticos.

Las preocupaciones sobre OpenClaw no solo tienen origen en el sector privado. El Ministerio de Industria de China, en un intento por mitigar posibles vulneraciones de redes corporativas o datos sensibles, ha insistido en que las organizaciones que despliegan OpenClaw deben auditar cuidadosamente sus configuraciones de seguridad, reforzar los mecanismos de control de acceso y garantizar que las implementaciones no queden expuestas innecesariamente a redes públicas.

El debate en torno a OpenClaw se produce en un contexto global de frenesí tecnológico en el que surgen semanalmente herramientas de inteligencia artificial, tanto de código abierto como de código cerrado, que conllevan una serie de riesgos de seguridad y que, tras ser analizadas por especialistas en el ámbito de la ciberseguridad, suelen llegar a la misma conclusión: la automatización y el uso de sistemas de inteligencia artificial sin previa supervisión humana implican un nivel elevado de exposición operativa y vulnerabilidad técnica.

Leer más

Posts relacionados que podrían interesarte

5, marzo 2026

La AEPD sanciona al FC Barcelona con 500.000 euros por no realizar una evaluación de impacto en el uso de biometría para la actualización del censo de socios

12, octubre 2023

Google dice adiós a las contraseñas: utilizará passkeys de forma predeterminada

10, abril 2025

La Justicia en Francia actúa contra Cloudfare y se ordenan bloqueos dinámicos

27, abril 2022

La CNIL impone una multa de 1,5 millones de euros a una empresa de software de salud, a raíz de una brecha de seguridad sufrida

23, noviembre 2023

El Tribunal General de la Unión Europea resuelve: se deniega la cesión de la marca “Diego Maradona”

20, marzo 2025

Google y OpenAI solicitan utilizar contenido protegido por derechos de autor para entrenar sus modelos de IA