La AEPD publica una guía sobre IA agéntica y protección de datos

Comparte

La Agencia Española de Protección de Datos (AEPD) ha publicado unas guías donde se analizan los desafíos que plantea la Inteligencia Artificial (IA) Agéntica para la privacidad. Un agente de IA se define, según las fuentes de la AEPD, como un sistema capaz de utilizar modelos de lenguaje (LLMs) para cumplir objetivos de forma autónoma, descomponiendo tareas complejas en cadenas de razonamiento y ejecutando acciones mediante el uso de herramientas. A diferencia de la IA generativa pasiva, estos agentes poseen capacidades de percepción, acción, planificación y memoria, lo que les permite operar sin intervención humana constante e interactuar dinámicamente con su entorno.

La integración de estos sistemas en tratamientos de datos introduce vulnerabilidades específicas. Destaca la capacidad de interacción con el entorno, donde el agente puede acceder a datos internos de las empresas, o conectarse a servicios de Internet, lo que podría derivar en la exposición de información confidencial o la importación de datos inexactos. La memoria, fundamental para que el agente recuerde contextos pasados, representa un riesgo si no se gestiona adecuadamente, pudiendo retener datos personales excesivos o sensibles indefinidamente. Además, la autonomía del sistema plantea retos sobre la transparencia, la explicabilidad de las decisiones y la dificultad de mantener una supervisión humana efectiva.

Desde la perspectiva del cumplimiento del RGPD, es crítico determinar correctamente los roles de responsable y encargado del tratamiento, especialmente dada la complejidad de la cadena de suministro de la IA. El uso de agentes obliga a revisar el registro de actividades de tratamiento y a garantizar el ejercicio de derechos, teniendo en cuenta que los registros (logs) y la memoria del agente pueden contener datos personales. Asimismo, se debe evaluar si las acciones del agente constituyen decisiones automatizadas (Art. 22 RGPD) que produzcan efectos jurídicos o significativos en las personas, requiriendo garantías adicionales.

Entre las amenazas identificadas se encuentran la falta de gobernanza, la inyección de prompts (directa o indirecta) y las fugas de información silenciosas o shadow leaks. Para mitigarlas, la AEPD propone medidas de protección de datos desde el diseño, tales como:

  • Gobernanza y supervisión: Integrar al Delegado de Protección de Datos (DPD) y establecer intervención humana significativa en puntos críticos.
  • Minimización y control: Aplicar políticas de acceso estricto (need to know), compartimentar la memoria entre distintos tratamientos y usuarios, y establecer plazos de retención estrictos.
  • Trazabilidad y evaluación: Mantener logs detallados para auditoría y realizar pruebas continuas (Golden testing) para asegurar que el agente se comporta según lo previsto.

Estas guías se publican como producto de las preocupaciones que ha mostrado la AEPD en los últimos meses, tras el cambio de presidencia, y suponen un recurso importante para los responsables y encargados del tratamiento que utilizan o desarrollan sistemas de IA (agéntica o no agéntica), junto con la guía “Una aproximación para la adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial” de 2020.

Leer más

Posts relacionados que podrían interesarte

10, febrero 2022

IAB EUROPE sancionada: El TCF no cumple con el RGPD

18, junio 2020

El servicio de pagos de WhatsApp empieza a funcionar en Brasil.

28, septiembre 2022

CEPD: ¿Es el certificado Europrise una garantía adecuada en la realización de transferencias internacionales?

29, abril 2021

La UE se plantea reformar el mecanismo «One Stop Shop»

22, mayo 2019

El fin del despacho tradicional.

14, mayo 2020

La OMS desmiente que el 5G ayude en la propagación del coronavirus.