Checkpoint alerta sobre los riesgos de seguridad del agente de código abierto “OpenClaw”

Comparte

La famosa compañía internacional de ciberseguridad, Checkpoint, ha alertado recientemente sobre las amenazas de seguridad vinculadas al uso de OpenClaw, un agente de inteligencia artificial que integra diversos modelos de lenguaje y que permite crear asistentes personalizables con memoria persistente y ejecución autónoma cuya popularidad se ha disparado en los últimos meses.

Según la compañía israelí, el uso de este tipo de agentes multimodales que permite, entre otras funciones, publicar, comentar, responder correos electrónicos o subir contenido sin supervisión humana directa, rompe con los modelos de seguridad tradicionales, genera altos riesgos de seguridad para quienes operan el software sin medidas robustas de protección. Asimismo, para poder interactuar de forma automática, el agente accede a todos a datos a los que tenga permisos de acceso, lo cual, en un contexto en el que se conceden accesos de forma indiscriminada con el objetivo de conseguir exprimir el máximo potencial de la herramienta, supone un riesgo elevado.

En línea con lo anterior, Eusebio Nieva, director técnico para España y Portugal, ha advertido que “con los agentes de inteligencia artificial, los datos pueden suponer un peligro en sí mismos”, por lo que cualquier skill malicioso o dato comprometido procesado por un agente podría desencadenar incidentes graves, como la pérdida de credenciales o el acceso no autorizado a sistemas críticos.

Las preocupaciones sobre OpenClaw no solo tienen origen en el sector privado. El Ministerio de Industria de China, en un intento por mitigar posibles vulneraciones de redes corporativas o datos sensibles, ha insistido en que las organizaciones que despliegan OpenClaw deben auditar cuidadosamente sus configuraciones de seguridad, reforzar los mecanismos de control de acceso y garantizar que las implementaciones no queden expuestas innecesariamente a redes públicas.

El debate en torno a OpenClaw se produce en un contexto global de frenesí tecnológico en el que surgen semanalmente herramientas de inteligencia artificial, tanto de código abierto como de código cerrado, que conllevan una serie de riesgos de seguridad y que, tras ser analizadas por especialistas en el ámbito de la ciberseguridad, suelen llegar a la misma conclusión: la automatización y el uso de sistemas de inteligencia artificial sin previa supervisión humana implican un nivel elevado de exposición operativa y vulnerabilidad técnica.

Leer más

Posts relacionados que podrían interesarte

26, diciembre 2019

Francia multa a Google con 150.000 euros por prácticas abusivas en su plataforma de anuncios.

18, junio 2020

La AEPD recibe 86 reclamaciones por tratamiento de datos relacionados con el Covid-19.

5, enero 2020

Los ALSP han llegado para quedarse.

15, enero 2026

El CNIL publica unas nuevas guías para ayudar a las empresas a adecuar sus herramientas de IA al RGPD

10, septiembre 2020

¿Se puede utilizar el número de teléfono particular para llamar y enviar mensajes relacionados con el trabajo?

10, diciembre 2020

Nueva Guía de la IAB para la realización de Evaluaciones de Impacto para publicidad digital.