Proceso de Hiroshima: Nuevas reglas internacionales para el desarrollo de sistemas avanzados de IA

El pasado 30 de octubre, el denominado G7, grupo que reúne a siete de las grandes potencias mundiales (EEUU, Reino Unido, Alemania, Canadá, Francia, Japón e Italia), aprobó una serie de Principios Rectores Internacionales sobre Inteligencia Artificial (en adelante IA) y un Código de Conducta voluntario para desarrolladores de sistemas de IA.

El pacto denominado como “Proceso de IA de Hiroshima” (en honor a la ciudad en la que se ha ratificado el acuerdo), surge a través de una propuesta de regulación que Japón puso sobre la mesa en mayo de 2023 y que finalmente se ha consolidado a través de la creación de dos documentos que pretenden, en primer lugar, promover una IA segura, protegida y fiable en todo el mundo y, por otro lado, proporcionar orientaciones a las organizaciones que desarrollan y utilizan sistemas de IA avanzados, como por ejemplo los sistemas de IA generativos. 

La alternativa japonesa, finalmente ganadora, se ha impuesto frente a la visión no intervencionista de EEUU y a la política restrictiva de la UE respecto a los desarrolladores de IA. El gobierno japonés propuso una regulación más laxa pero firme a la hora de regular problemas como el copyright o la exposición de datos personales, lo que finalmente ha convencido a los miembros del G7 a la hora de tomar posiciones respecto al establecimiento de principios reguladores de los sistemas de IA. Para ello, el marco global desarrollado  se basará en cuatro pilares esenciales:

  • Análisis de los riesgos, retos y oportunidades prioritarios que plantea la IA generativa;
  • Principios Rectores Internacionales del Proceso de Hiroshima para las organizaciones que desarrollan sistemas de IA avanzados;
  • Código de Conducta Internacional del Proceso de Hiroshima para las organizaciones que desarrollan sistemas de IA avanzados;
  • Principio de cooperación basado en proyectos de apoyo del desarrollo de herramientas y mejores prácticas responsables de IA.

Al ser los Principios Rectores Internacionales y el Código de Conducta las cuestiones que se han definido recientemente, centraremos el estudio en el análisis de ambos textos.

Principios Rectores Internacionales

La Comisión Europea define el documento como una lista no exhaustiva de principios que se basa en los actuales principios de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en materia de IA. Además, indica que su contenido se dirige a todos los agentes de IA, cuando proceda, para abarcar el diseño; desarrollo; implantación y uso de sistemas de IA avanzados.

El encabezamiento del documento indica que el objetivo es promover una IA segura y fiable en todo el mundo, y orientar a las organizaciones que desarrollen y utilicen los sistemas de IA más avanzados, con especial hincapié en los modelos fundacionales y sistemas generativos de IA. De forma paralela a este objetivo, las organizaciones deben respetar el Estado de Derecho, las garantías procesales, la equidad y no discriminación, la democracia, el humanocentrismo, los derechos humanos y la diversidad en el diseño, desarrollo y despliegue de sistemas de IA avanzados.

En cumplimiento de lo anterior, no se deben desarrollar ni poner en el mercado sistemas de IA avanzados que vulneren los valores democráticos, ya sea porque son especialmente perjudiciales para las personas o para las comunidades, porque facilitan el terrorismo o porque permitan un uso indebido con fines delictivos o riesgos sustanciales para los derechos humanos o la seguridad. 

El texto, en función de los riesgos que puedan generar los desarrolladores de IA, describe e impone a las organizaciones los siguientes once principios:

  1. Adoptar medidas adecuadas durante el desarrollo de los sistemas de IA avanzados, antes y durante su despliegue y comercialización, para identificar, evaluar y mitigar los riesgos que puede causar la IA durante su ciclo de vida.
  2. Vigilar el uso de patrones indebidos, tanto en el momento de su comercialización como en el de su implantación en el mercado.
  3. Informar públicamente sobre las capacidades, limitaciones y ámbitos de uso apropiados e inapropiados de los sistemas de IA avanzados, para aumentar la responsabilidad y garantizar una transparencia suficiente.
  4. Desarrollar un intercambio de información y una notificación de incidentes responsables entre organizaciones que desarrollen sistemas de IA avanzados. Entre los agentes se incluyen a los gobiernos, la industria, la sociedad civil y el mundo académico.
  5. Elaborar, divulgar y aplicar políticas de gobernanza y gestión de riesgos de la IA, basadas en un enfoque de riesgos. Entre otras, se tendrán en cuenta las políticas de privacidad y las medidas de mitigación.
  6. Invertir y aplicar controles de seguridad sólidos, incluida la seguridad física, ciberseguridad y protección frente a amenazas internas a lo largo del ciclo de vida de la IA.
  7. Desarrollar e implantar mecanismos fiables de autenticación y procedencia de contenidos como marcas de agua u otras técnicas que permitan identificar a los usuarios los contenidos que han sido generados por sistemas de IA. Estos mecanismos se implementarán siempre y cuando sean técnicamente viables.
  8. Dar prioridad a la investigación para reducir los riesgos sociales y de seguridad, e incentivar la inversión en medidas de mitigación eficaces.
  9. Dar prioridad al desarrollo de sistemas de IA avanzados para hacer frente a los mayores problemas del mundo, entre otros: la crisis climática, la salud mundial y la educación.
  10. Promover el desarrollo y la adopción de normas técnicas internacionales.
  11. Aplicar medidas adecuadas de introducción de datos y protección de los datos personales y la propiedad intelectual.

En principio, la anterior lista no es exhaustiva, sino que se trata de un documento “vivo” que podrá ir modificándose y alterando en función de las necesidades, desafíos y riesgos de los sistemas de IA avanzados. 

Al no tratarse de un Convenio Internacional al que se adhieran posteriormente los Estados Miembros, los miembros del G7 han pedido a las organizaciones que desarrollan sistemas avanzados de IA que se comprometan a aplicar los principios rectores sobre IA en pos de un diseño, desarrollo, despliegue y uso de sistemas de IA avanzados más seguro y fiable.

Código de Conducta

Por otro lado, se ha desarrollado un Código de Conducta que, en esencia, desarrolla lo ya establecido en los anteriores Principios Rectores Internacionales, siendo sus principales objetivos:

  • Identificar, evaluar y mitigar los riesgos antes y durante el despliegue del sistema de IA.
  • Mitigar vulnerabilidades y patrones de uso indebido.
  • Generar transparencia sobre las limitaciones y uso inapropiado de los sistemas de IA.
  • Compartir información de manera responsable con otros organismos.
  • Implementar medidas de seguridad que protejan los datos personales y la propiedad intelectual.

La Comisión Europea indica que, al igual que sucedía con los Principios Rectores Internacionales, el documento se revisará y actualizará según sea necesario, mediante consultas multilaterales, con el fin de garantizar que sigue siendo un documento actualizado y adecuado para su finalidad. Igualmente, de cara a poder aplicar lo establecido en el Proceso de Hiroshima, los textos podrán ser adoptados por las distintas jurisdicciones con enfoques únicos. Si bien no se trata de unas directrices tan exhaustivas y estrictas como la Ley de Inteligencia Artificial europea, muchas de las ideas que se pretenden trasladar van en la misma dirección que la norma europea. 

Si bien se trata de una iniciativa que, a priori, parece ser beneficiosa para los usuarios de las IA, existe un gran problema: no se trata de una norma vinculante, y por lo tanto, su aplicación es voluntaria. En consecuencia, queda en las manos de las grandes corporaciones decidir si las pautas son aplicables a sus desarrollos o si, por el contrario, sólo se someterán a leyes cuyo cumplimiento sea ineludible.

Alejandro Daga Godoy, Legal Counsel, Legal Army

Leer más

Posts relacionados que podrían interesarte

Todas nuestras noticias