Cuando la IA no olvida: el desafío del borrado de datos en la era digital

Comparte

La revista ACM Computing Surveys ha publicado el artículo científico The Many Faces of Data Deletion: On the Significance and Implications of Deleting Data (“Las múltiples caras del borrado de datos: acerca del significado y las implicaciones de la eliminación de datos”), escrito por Ignacio Marco-Pérez, Beatriz Pérez Valle y Ángel Luis Rubio, investigadores de la Universidad de La Rioja, junto con María Antonia Zapata, de la Universidad de Zaragoza. Este trabajo, desarrollado íntegramente desde instituciones españolas, ha captado la atención internacional por abordar uno de los desafíos más complejos de la inteligencia artificial contemporánea: la verdadera capacidad de los sistemas para borrar datos.

El estudio analiza cómo, incluso cuando se aplican técnicas de eliminación, los modelos de IA pueden conservar trazas, patrones o inferencias derivadas de la información original. Esto significa que el “borrado” no siempre implica una desaparición total, sino más bien una transformación del dato que puede seguir influyendo en el comportamiento del modelo. Esta constatación cuestiona la eficacia de los mecanismos actuales de machine unlearning y abre un debate técnico y ético sobre la memoria residual de los sistemas de IA.

Las conclusiones del artículo tienen implicaciones directas para el derecho al olvido, un pilar de la normativa europea en materia de protección de datos. Si los modelos no pueden garantizar un borrado completo, surge un conflicto entre las obligaciones legales y las limitaciones tecnológicas. El riesgo es que, aun después de solicitar la eliminación de información personal, esta siga siendo parcialmente recuperable o inferible, lo que compromete la privacidad y la autonomía digital de los individuos.

Como bien señala Europe Press en su análisis sobre el artículo, “la cuestión que se plantea no es ya la de qué datos hay que guardar, sino qué datos hay que borrar, estableciendo planes estructurados y protocolizados, que, una vez más mantengan un balance respecto a la seguridad y disponibilidad de los sistemas”.

Ante este escenario, los autores subrayan la necesidad de desarrollar nuevas técnicas de borrado efectivo y de adaptar los marcos regulatorios a la realidad técnica de la IA. La tensión entre innovación y derechos fundamentales se intensifica, y el estudio aporta una base sólida para repensar cómo deben diseñarse los sistemas de aprendizaje automático en un contexto donde la protección de datos no es opcional, sino un requisito estructural.

Leer más

Posts relacionados que podrían interesarte

28, mayo 2020

El Hormiguero, víctima de un robo de su formato por parte de la televisión china.

27, febrero 2020

Facebook Alemania, multada con 51.000 euros por no nombrar formalmente a un Delegado de Protección de Datos.

13, febrero 2020

Más de 27 millones de multa a Telecom Italia (TIM) por enviar publicidad sin consentimiento.

16, septiembre 2021

La polémica por el nuevo lanzamiento de las «smart glasses» de Facebook y Ray-Ban

2, marzo 2023

Tanto la Comisión Europea como el gobierno de Canadá prohíben el uso de TikTok por parte de sus empleados públicos

2, abril 2020

El Gobierno prohíbe las subidas de precios a los operadores de telefonía pero levanta el veto a las portabilidades.