Checkpoint alerta sobre los riesgos de seguridad del agente de código abierto “OpenClaw”

Comparte

La famosa compañía internacional de ciberseguridad, Checkpoint, ha alertado recientemente sobre las amenazas de seguridad vinculadas al uso de OpenClaw, un agente de inteligencia artificial que integra diversos modelos de lenguaje y que permite crear asistentes personalizables con memoria persistente y ejecución autónoma cuya popularidad se ha disparado en los últimos meses.

Según la compañía israelí, el uso de este tipo de agentes multimodales que permite, entre otras funciones, publicar, comentar, responder correos electrónicos o subir contenido sin supervisión humana directa, rompe con los modelos de seguridad tradicionales, genera altos riesgos de seguridad para quienes operan el software sin medidas robustas de protección. Asimismo, para poder interactuar de forma automática, el agente accede a todos a datos a los que tenga permisos de acceso, lo cual, en un contexto en el que se conceden accesos de forma indiscriminada con el objetivo de conseguir exprimir el máximo potencial de la herramienta, supone un riesgo elevado.

En línea con lo anterior, Eusebio Nieva, director técnico para España y Portugal, ha advertido que “con los agentes de inteligencia artificial, los datos pueden suponer un peligro en sí mismos”, por lo que cualquier skill malicioso o dato comprometido procesado por un agente podría desencadenar incidentes graves, como la pérdida de credenciales o el acceso no autorizado a sistemas críticos.

Las preocupaciones sobre OpenClaw no solo tienen origen en el sector privado. El Ministerio de Industria de China, en un intento por mitigar posibles vulneraciones de redes corporativas o datos sensibles, ha insistido en que las organizaciones que despliegan OpenClaw deben auditar cuidadosamente sus configuraciones de seguridad, reforzar los mecanismos de control de acceso y garantizar que las implementaciones no queden expuestas innecesariamente a redes públicas.

El debate en torno a OpenClaw se produce en un contexto global de frenesí tecnológico en el que surgen semanalmente herramientas de inteligencia artificial, tanto de código abierto como de código cerrado, que conllevan una serie de riesgos de seguridad y que, tras ser analizadas por especialistas en el ámbito de la ciberseguridad, suelen llegar a la misma conclusión: la automatización y el uso de sistemas de inteligencia artificial sin previa supervisión humana implican un nivel elevado de exposición operativa y vulnerabilidad técnica.

Leer más

Posts relacionados que podrían interesarte

27, abril 2022

El TJUE se pronuncia sobre las obligaciones que conlleva la responsabilidad de las plataformas en línea por los contenidos publicados

10, mayo 2023

Spotify abre la veda y empieza a eliminar canciones creadas gracias a la inteligencia artificial (IA)

20, febrero 2025

China se replantea su prohibición de las criptomonedas

18, julio 2019

FaceApp: ¿A quién le estoy dando mis datos?

7, noviembre 2019

Amazon abrirá sus tres primeros centros de datos en España en 2022.

4, septiembre 2019

Multa a un colegio sueco por usar tecnologías de reconocimiento facial para controlar la asistencia de sus estudiantes.