Transparencia en la IA: La Nueva Propuesta de Ley del Congreso en EE. UU

Comparte

A finales de noviembre, el Congreso de los Estados Unidos presentó el proyecto de ley TRAIN Act (Transparency and Responsibility for Artificial Intelligence Networks Act). Esta legislación tiene como objetivo establecer un control sobre los materiales utilizados por los desarrolladores de inteligencia artificial en el entrenamiento de sus modelos de aprendizaje.

El desarrollo de sistemas de inteligencia artificial requiere integrar una amplia variedad de datos. Este proceso permite que los modelos «aprendan» y generen resultados en función de la información proporcionada. Si se aprueba, la TRAIN Act exigiría que los desarrolladores divulguen de manera transparente los materiales empleados en el entrenamiento de sus modelos.

Actualmente, en Estados Unidos no existe ninguna obligación legal que exija a los desarrolladores revelar los datos utilizados en sus entrenamientos. Esto hace que la TRAIN Act represente una innovación significativa. Además, podría establecer una base jurídica y permitiría clarificar la cuestión de si el uso de obras protegidas en los datos de entrenamiento está amparado por el fair use, como se planteó a principios de este año con la demanda presentada por el New York Times contra OpenAI.

En el ámbito musical, es común utilizar mezclas o samples para crear nuevas canciones. Sin embargo, el uso de programas basados en inteligencia artificial para mezclar y crear sonidos ha planteado nuevos desafíos legales. La TRAIN Act buscaría garantizar una compensación justa para los autores originales, regulando cómo los desarrolladores entrenan sus modelos.

La importancia del proyecto de ley queda reflejada en el respaldo de grandes compañías discográficas como Sony Music Entertainment, Universal Music Group y Warner Music Group. Estas empresas consideran que la TRAIN Act sería crucial para que los creadores puedan emprender acciones legales cuando sus obras sean usadas sin autorización. Por otro lado, las empresas tecnológicas han expresado su oposición, argumentando que el volumen de datos que manejan hace impracticable notificar a todos los autores cuyos materiales están protegidos por derechos de autor. 

El proyecto también establece un procedimiento claro para reclamar compensaciones. Los autores que sospechen que sus obras han sido utilizadas sin permiso deben presentar una declaración jurada. Posteriormente, los desarrolladores de inteligencia artificial estarán obligados a proporcionar pruebas que demuestren si las obras protegidas se incluyeron en los datos de entrenamiento. Si no responden, se asumirá, bajo una presunción refutable, que dichas obras fueron utilizadas sin autorización.

Leer más

Posts relacionados que podrían interesarte

20, octubre 2022

El gobierno de Países Bajos deja congeladas las patentes rusas de gas y petróleo

30, junio 2022

Instagram prueba el uso de reconocimiento facial para verificar la edad de sus usuarios

2, abril 2020

Aprobada una ayuda 15 millones de euros a las televisiones privadas por la crisis del coronavirus.

11, junio 2020

Primera sanción de la AEPD a un Ayuntamiento por incumplir el deber de nombrar a un Delegado de Protección de Datos.

1, octubre 2020

Nueva base de datos gratuita sobre sentencias judiciales de Propiedad Intelectual.

20, abril 2022

La OSI advierte sobre un nuevo ataque de phishing por SMS