Informe de la evaluación de impacto sobre la propuesta de Reglamento de Inteligencia Artificial

Comparte

En este informe publicado por el Parlamento Europeo, se hace la evaluación de impacto de la propuesta de Reglamento de Inteligencia Artificial.

En esta evaluación de impacto, se identifican 6 principales problemas que surgen fruto del desarrollo y uso de la IA. Estos 6 problemas se pueden resumir en los siguientes:

  1. El uso de la IA plantea riesgos para la seguridad de los ciudadanos que no estén lo suficientemente cubiertos por el marco actual de la UE;
  2. La IA también plantea mayor riesgo para las violaciones de derechos fundamentales de los ciudadanos;
  3. Las autoridades carecen de los poderes y del marco regulatorio para garantizar y supervisar el desarrollo de la IA con sus reglas aplicables;
  4. La incertidumbre y complejidad sobre cómo se aplica la normativa la normativa existente a la IA, disuade a las empresas del desarrollo de esta tecnología;
  5. La desconfianza en la IA podría reducir su desarrollo en Europa y con ello reducir la competitividad de la economía de la UE;
  6. Las regulaciones fragmentadas por países crean barreras al mercado único de la IA.

En concreto, se menciona que la complejidad de la regulación de la IA reside precisamente en las propias características de la IA, diferente a los  avances tecnológicos previos en la historia. De esta manera, dadas las inquietudes que planteó la IA en relación a los problemas anteriormente citados, podrían generar una desventaja competitiva de las empresas europeas, que también perjudicaría a las PYMES. 

Por ello, para aprovechar las ventajas competitivas manteniendo el correcto funcionamiento adecuado del mercado interior y que se respeten las normas sobre derechos fundamentales, los objetivos que se persiguen son: que los sistemas de IA en el mercado sean seguros  y respeten los DDFF, garantizar la seguridad para incentivar la inversión e innovación, mejorar la gobernanza y aplicación entre derechos fundamentales y seguridad a los sistemas de IA, y por último, facilitar el desarrollo del mercado único. 

Así, en la evaluación de impacto se identifican cuatro opciones para abordar la regulación de la IA:

– Opción 1: A través de un sistema voluntario que certifique los sistemas de IA.

– Opción 2: Optar por una regulación Ad Hoc para cada sector. En este caso, cada sector adopta y define el nivel de riesgo de la IA.

– opción 3: Un sistema horizontal de regulación para todos basado en el riesgo que además cuente con requisitos específicos para los sistemas de alto riesgo. 

– Opción 3+: Sería un sistema igual que el número 3, que se complementa con códigos de conducta para aquellos sistemas que no se consideren de alto riesgo.

– Opción 4: los mismos requisitos para todos los sistemas independientemente del riesgo. 

A tenor de estas opciones, se muestra en el informe como la opción que parece aportar un mayor equilibrio por ser más realista, es la opción 3+.  Además, con esta opción entienden que no se perjudicaría a las PYMES por las obligaciones sobre IA, salvo a aquellas PYMES que utilicen sistemas IA de alto riesgo. 

Leer más

Posts relacionados que podrían interesarte

22, julio 2021

El Observatorio Europeo de Blockchain publica un informe sobre los aspectos legales de los NFT

27, octubre 2017

Protección de datos Así va a cambiar la forma en la que las empresas gestionan tus datos

19, julio 2023

Noruega prohíbe temporalmente a Meta el tratamiento de datos personales para hacer publicidad personalizada

18, junio 2018

El Parlamento Europeo cuestiona el Escudo de Privacidad, protocolo que regula intercambios de datos entre EE.UU. y la UE

19, noviembre 2020

California avanza hacia su propio RGPD, ¿en qué consiste la CPRA?

27, noviembre 2019

Multa de 500.000 euros a una empresa francesa por seguir llamando a clientes que se habían opuesto.