Cuando la IA no olvida: el desafío del borrado de datos en la era digital

Comparte

La revista ACM Computing Surveys ha publicado el artículo científico The Many Faces of Data Deletion: On the Significance and Implications of Deleting Data (“Las múltiples caras del borrado de datos: acerca del significado y las implicaciones de la eliminación de datos”), escrito por Ignacio Marco-Pérez, Beatriz Pérez Valle y Ángel Luis Rubio, investigadores de la Universidad de La Rioja, junto con María Antonia Zapata, de la Universidad de Zaragoza. Este trabajo, desarrollado íntegramente desde instituciones españolas, ha captado la atención internacional por abordar uno de los desafíos más complejos de la inteligencia artificial contemporánea: la verdadera capacidad de los sistemas para borrar datos.

El estudio analiza cómo, incluso cuando se aplican técnicas de eliminación, los modelos de IA pueden conservar trazas, patrones o inferencias derivadas de la información original. Esto significa que el “borrado” no siempre implica una desaparición total, sino más bien una transformación del dato que puede seguir influyendo en el comportamiento del modelo. Esta constatación cuestiona la eficacia de los mecanismos actuales de machine unlearning y abre un debate técnico y ético sobre la memoria residual de los sistemas de IA.

Las conclusiones del artículo tienen implicaciones directas para el derecho al olvido, un pilar de la normativa europea en materia de protección de datos. Si los modelos no pueden garantizar un borrado completo, surge un conflicto entre las obligaciones legales y las limitaciones tecnológicas. El riesgo es que, aun después de solicitar la eliminación de información personal, esta siga siendo parcialmente recuperable o inferible, lo que compromete la privacidad y la autonomía digital de los individuos.

Como bien señala Europe Press en su análisis sobre el artículo, “la cuestión que se plantea no es ya la de qué datos hay que guardar, sino qué datos hay que borrar, estableciendo planes estructurados y protocolizados, que, una vez más mantengan un balance respecto a la seguridad y disponibilidad de los sistemas”.

Ante este escenario, los autores subrayan la necesidad de desarrollar nuevas técnicas de borrado efectivo y de adaptar los marcos regulatorios a la realidad técnica de la IA. La tensión entre innovación y derechos fundamentales se intensifica, y el estudio aporta una base sólida para repensar cómo deben diseñarse los sistemas de aprendizaje automático en un contexto donde la protección de datos no es opcional, sino un requisito estructural.

Leer más

Posts relacionados que podrían interesarte

12, abril 2023

Google es investigada por posibles prácticas competitivas con respecto a las editoriales de publicaciones de prensa y agencias de noticias

4, febrero 2021

La Autoridad Alemana de Protección de Datos declara ilegal la base de datos biométricos Clearview AI.

15, octubre 2019

El cumplimiento con el RGPD como una ventaja competitiva de negocio.

15, julio 2021

80.000 euros por enviar datos sanitarios por WhatsApp

22, marzo 2019

Agencia Española de Protección de Datos permite las comunicaciones a través de WhatsApp (con ciertos límites)

18, junio 2020

La “app” de rastreo noruega contra el Covid-19 detiene la recopilación de datos por problemas de privacidad.