La nueva estrategia de los artistas para proteger sus derechos de autor frente a la IA: el envenenamiento de datos
Es bien sabido que, entre otros profesionales, los artistas se han visto gravemente afectados por el desarrollo de las herramientas de inteligencia artificial, cuyas empresas desarrolladoras han hecho uso de sus obras sin autorización alguna para entrenar sus modelos. Precisamente, distintas demandas han sido ya presentadas por varios artistas contra las compañías tecnológicas OpenAI, Meta, Google y Stability AI por estos hechos.
Pues bien, ante esta realidad, los artistas han tomado cartas en el asunto y han optado por hacer uso de herramientas especializadas para “envenenar” estos datos de entrenamiento.
Concretamente, estas herramientas permiten a los artistas añadir cambios invisibles a los píxeles de sus obras antes de subirlas a internet. De este modo, si estas obras son incorporadas a un conjunto de entrenamiento de inteligencia artificial (IA), el modelo resultante puede romperse de forma caótica e impredecible, pudiendo dañar futuras interacciones de los modelos de IA generadores de imágenes, haciendo que sus outputs sean inútiles.
El objetivo de la creación de este tipo de herramientas es el de crear un elemento disuasorio contra la violación de los derechos de autor y la propiedad intelectual de los artistas. Ya que, a pesar de que las empresas de IA han desarrollado modelos generativos de texto a imagen, han ofrecido a los artistas la posibilidad de que sus imágenes no se utilicen para entrenar futuras versiones de los modelos, los artistas consideran que no es suficiente.