Transparencia en la IA: La Nueva Propuesta de Ley del Congreso en EE. UU

Comparte

A finales de noviembre, el Congreso de los Estados Unidos presentó el proyecto de ley TRAIN Act (Transparency and Responsibility for Artificial Intelligence Networks Act). Esta legislación tiene como objetivo establecer un control sobre los materiales utilizados por los desarrolladores de inteligencia artificial en el entrenamiento de sus modelos de aprendizaje.

El desarrollo de sistemas de inteligencia artificial requiere integrar una amplia variedad de datos. Este proceso permite que los modelos «aprendan» y generen resultados en función de la información proporcionada. Si se aprueba, la TRAIN Act exigiría que los desarrolladores divulguen de manera transparente los materiales empleados en el entrenamiento de sus modelos.

Actualmente, en Estados Unidos no existe ninguna obligación legal que exija a los desarrolladores revelar los datos utilizados en sus entrenamientos. Esto hace que la TRAIN Act represente una innovación significativa. Además, podría establecer una base jurídica y permitiría clarificar la cuestión de si el uso de obras protegidas en los datos de entrenamiento está amparado por el fair use, como se planteó a principios de este año con la demanda presentada por el New York Times contra OpenAI.

En el ámbito musical, es común utilizar mezclas o samples para crear nuevas canciones. Sin embargo, el uso de programas basados en inteligencia artificial para mezclar y crear sonidos ha planteado nuevos desafíos legales. La TRAIN Act buscaría garantizar una compensación justa para los autores originales, regulando cómo los desarrolladores entrenan sus modelos.

La importancia del proyecto de ley queda reflejada en el respaldo de grandes compañías discográficas como Sony Music Entertainment, Universal Music Group y Warner Music Group. Estas empresas consideran que la TRAIN Act sería crucial para que los creadores puedan emprender acciones legales cuando sus obras sean usadas sin autorización. Por otro lado, las empresas tecnológicas han expresado su oposición, argumentando que el volumen de datos que manejan hace impracticable notificar a todos los autores cuyos materiales están protegidos por derechos de autor. 

El proyecto también establece un procedimiento claro para reclamar compensaciones. Los autores que sospechen que sus obras han sido utilizadas sin permiso deben presentar una declaración jurada. Posteriormente, los desarrolladores de inteligencia artificial estarán obligados a proporcionar pruebas que demuestren si las obras protegidas se incluyeron en los datos de entrenamiento. Si no responden, se asumirá, bajo una presunción refutable, que dichas obras fueron utilizadas sin autorización.

Leer más

Posts relacionados que podrían interesarte

5, diciembre 2024

Entra en vigor el nuevo registro de hospedaje y alquiler de vehículos

30, marzo 2023

España sigue denegando la inscripción en el Registro de la Propiedad Intelectual a obras creadas con ChatGPT,  Midjourney o herramientas similares

5, diciembre 2024

El CEO de Glovo defiende su gestión ante el juez en el caso de los falsos autónomos

24, febrero 2022

Nike demanda a una empresa por crear y comercializar NFT basados en los productos de su marca

21, enero 2021

British Airways se enfrenta a una demanda colectiva por la brecha de seguridad ocurrida en 2018.

27, octubre 2022

Clearview AI, de nuevo sancionada por vulnerar la normativa de protección de datos: 20 millones de euros