Informe de la evaluación de impacto sobre la propuesta de Reglamento de Inteligencia Artificial

Comparte

En este informe publicado por el Parlamento Europeo, se hace la evaluación de impacto de la propuesta de Reglamento de Inteligencia Artificial.

En esta evaluación de impacto, se identifican 6 principales problemas que surgen fruto del desarrollo y uso de la IA. Estos 6 problemas se pueden resumir en los siguientes:

  1. El uso de la IA plantea riesgos para la seguridad de los ciudadanos que no estén lo suficientemente cubiertos por el marco actual de la UE;
  2. La IA también plantea mayor riesgo para las violaciones de derechos fundamentales de los ciudadanos;
  3. Las autoridades carecen de los poderes y del marco regulatorio para garantizar y supervisar el desarrollo de la IA con sus reglas aplicables;
  4. La incertidumbre y complejidad sobre cómo se aplica la normativa la normativa existente a la IA, disuade a las empresas del desarrollo de esta tecnología;
  5. La desconfianza en la IA podría reducir su desarrollo en Europa y con ello reducir la competitividad de la economía de la UE;
  6. Las regulaciones fragmentadas por países crean barreras al mercado único de la IA.

En concreto, se menciona que la complejidad de la regulación de la IA reside precisamente en las propias características de la IA, diferente a los  avances tecnológicos previos en la historia. De esta manera, dadas las inquietudes que planteó la IA en relación a los problemas anteriormente citados, podrían generar una desventaja competitiva de las empresas europeas, que también perjudicaría a las PYMES. 

Por ello, para aprovechar las ventajas competitivas manteniendo el correcto funcionamiento adecuado del mercado interior y que se respeten las normas sobre derechos fundamentales, los objetivos que se persiguen son: que los sistemas de IA en el mercado sean seguros  y respeten los DDFF, garantizar la seguridad para incentivar la inversión e innovación, mejorar la gobernanza y aplicación entre derechos fundamentales y seguridad a los sistemas de IA, y por último, facilitar el desarrollo del mercado único. 

Así, en la evaluación de impacto se identifican cuatro opciones para abordar la regulación de la IA:

– Opción 1: A través de un sistema voluntario que certifique los sistemas de IA.

– Opción 2: Optar por una regulación Ad Hoc para cada sector. En este caso, cada sector adopta y define el nivel de riesgo de la IA.

– opción 3: Un sistema horizontal de regulación para todos basado en el riesgo que además cuente con requisitos específicos para los sistemas de alto riesgo. 

– Opción 3+: Sería un sistema igual que el número 3, que se complementa con códigos de conducta para aquellos sistemas que no se consideren de alto riesgo.

– Opción 4: los mismos requisitos para todos los sistemas independientemente del riesgo. 

A tenor de estas opciones, se muestra en el informe como la opción que parece aportar un mayor equilibrio por ser más realista, es la opción 3+.  Además, con esta opción entienden que no se perjudicaría a las PYMES por las obligaciones sobre IA, salvo a aquellas PYMES que utilicen sistemas IA de alto riesgo. 

Leer más

Posts relacionados que podrían interesarte

28, noviembre 2024

España da un gran paso hacia la tokenización con la primera ERIR

2, noviembre 2017

Natalia Martos: “Estamos viviendo la transición hacia una nueva economía”

31, marzo 2020

¿Ha sufrido realmente a HouseParty, la App más descargada durante la cuarentena, un robo de datos personales de sus usuarios?

28, diciembre 2022

Hitos destacados del 2022 y otros hitos previsibles para este 2023

15, febrero 2023

Burberry no logra la protección de su icónico estampado como NFT

26, diciembre 2018

Candidatas a Mujer Jurista de 2018