Transparencia en la IA: La Nueva Propuesta de Ley del Congreso en EE. UU
A finales de noviembre, el Congreso de los Estados Unidos presentó el proyecto de ley TRAIN Act (Transparency and Responsibility for Artificial Intelligence Networks Act). Esta legislación tiene como objetivo establecer un control sobre los materiales utilizados por los desarrolladores de inteligencia artificial en el entrenamiento de sus modelos de aprendizaje.
El desarrollo de sistemas de inteligencia artificial requiere integrar una amplia variedad de datos. Este proceso permite que los modelos "aprendan" y generen resultados en función de la información proporcionada. Si se aprueba, la TRAIN Act exigiría que los desarrolladores divulguen de manera transparente los materiales empleados en el entrenamiento de sus modelos.
Actualmente, en Estados Unidos no existe ninguna obligación legal que exija a los desarrolladores revelar los datos utilizados en sus entrenamientos. Esto hace que la TRAIN Act represente una innovación significativa. Además, podría establecer una base jurídica y permitiría clarificar la cuestión de si el uso de obras protegidas en los datos de entrenamiento está amparado por el fair use, como se planteó a principios de este año con la demanda presentada por el New York Times contra OpenAI.
En el ámbito musical, es común utilizar mezclas o samples para crear nuevas canciones. Sin embargo, el uso de programas basados en inteligencia artificial para mezclar y crear sonidos ha planteado nuevos desafíos legales. La TRAIN Act buscaría garantizar una compensación justa para los autores originales, regulando cómo los desarrolladores entrenan sus modelos.
La importancia del proyecto de ley queda reflejada en el respaldo de grandes compañías discográficas como Sony Music Entertainment, Universal Music Group y Warner Music Group. Estas empresas consideran que la TRAIN Act sería crucial para que los creadores puedan emprender acciones legales cuando sus obras sean usadas sin autorización. Por otro lado, las empresas tecnológicas han expresado su oposición, argumentando que el volumen de datos que manejan hace impracticable notificar a todos los autores cuyos materiales están protegidos por derechos de autor.
El proyecto también establece un procedimiento claro para reclamar compensaciones. Los autores que sospechen que sus obras han sido utilizadas sin permiso deben presentar una declaración jurada. Posteriormente, los desarrolladores de inteligencia artificial estarán obligados a proporcionar pruebas que demuestren si las obras protegidas se incluyeron en los datos de entrenamiento. Si no responden, se asumirá, bajo una presunción refutable, que dichas obras fueron utilizadas sin autorización.