Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

IA

¿Hay que aplicar la normativa sobre IA?

En diciembre de 2023 la artista catalana Alicia Framis anunció su deseo de casarse en el verano de 2025, en Róterdam (Holanda), con un holograma creado con Inteligencia Artificial (IA), para culminar su proyecto “The Hybrid Couple”. En realidad, no es la primera en tomar este tipo de iniciativa, ya que hace justo 7 años, en diciembre de 2016, una mujer francesa llamada Lilly aseguró querer contraer matrimonio con “InMoovator”, un robot construido con una impresora 3D en base a un modelo de código abierto proporcionado por la compañía InMoov, según comentamos en nuestro artículo “¿Puedo casarme con un robot?”.

Esto no es más que una muestra más de la inmersión de la IA en nuestras vidas, lo que está exigiendo a los Reguladores a estrechar la vigilancia sobre el uso de esta tecnología. Así, en junio de 2024, Meta se vio obligada a paralizar su proyecto de entrenar a sus LLM (modelos lingüísticos de aprendizaje automático de gran tamaño, capaces de comprender y generar un texto), utilizando contenido público compartido por adultos en Facebook e Instagram en la Unión Europea, debido a las objeciones de la Comisión de Protección de Datos de Irlanda (DPC), en coordinación con el resto de las Autoridades de Datos europeas.

Y en septiembre de 2024, la Autoridad de Protección de Datos de Holanda impuso una multa de 30.500.000 € a la App norteamericana Clearview AI (con sede en Nueva York y sin representante en Europa), por infringir el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (GDPR); al haber creado una base de datos ilegal con imágenes captadas en internet de miles de personas, y usarlas para entrenar un sistema de reconocimiento facial sin contar con su consentimiento.

Debido a la incertidumbre sobre las nuevas posibilidades que se irán abriendo con el más que previsible desarrollo de las IA, una de las cuestiones que más preocupan es la determinación de los controles éticos y legales necesarios para su correcto funcionamiento. En ese sentido, se promulgó el Real Decreto 817/2023, de 8 de noviembre, por el que se establece un entorno controlado de pruebas (sandbox), para el ensayo de sistemas de inteligencia artificial.

De esta forma, su objetivo es crear un entorno controlado de pruebas de Inteligencia Artificial y evaluar los riesgos para la seguridad, la salud y los derechos fundamentales de las personas, así como obtener guías basadas en la evidencia y la experimentación que faciliten el alineamiento con la (entonces) propuesta del Reglamento de la tecnología.

Con similares preocupaciones y pretensiones, se creó en Estados Unidos en febrero de 2024 el AI Safety Institute Consortium (AISIC), integrado por más de doscientas organizaciones especializadas en IA, programadores, académicos e investigadores, con la misión de lograr que el desarrollo y la implementación de la Inteligencia Artificial sea segura y confiable.

De esta manera, sus funciones son servir de espacio de intercambio de conocimientos y datos, participar en la investigación y desarrollo colaborativo e interdisciplinario, alcanzar una comprensión completa y efectiva del impacto de la IA en la sociedad y la economía norteamericana, facilitar el desarrollo cooperativo y la transferencia de tecnología y datos, así como la evaluación de prototipos.

La normativa sobre IA

Por lo que a España se refiere, en mayo de 2024 se presentó la “Estrategia de Inteligencia Artificial 2024”, plan estructurado en tres ejes, que activarán ocho palancas de acción. El Eje 1 incluye el impulso a la inversión en supercomputación, el incremento de la capacidad de almacenamiento sostenible, la generación de modelos de lenguaje para una infraestructura pública y el fomento del talento en IA. El Eje 2 pretende promover la IA en el Sector Público –Proyecto GobTechLab–, ayudar a la expansión de la IA en el sector privado –Programa Kit Consulting– y la promulgación de una futura Ley de Ciberseguridad.

Y el Eje 3, se encomienda a la AESIA (Agencia Española de Supervisión de Inteligencia Artificial).

En cuanto a la normativa europea, en junio de 2024, el Consejo de la UE promulgó el Reglamento (UE) 2024/1732 del Consejo de 17 de junio de 2024 (con entrada en vigor el 9 de julio de 2024), que ha modificado el Reglamento (UE) 2021/1173 del Consejo de 13 de julio de 2021 por el que se crea la Empresa Común de Informática de Alto Rendimiento Europea (EuroHPC), para poner su capacidad al servicio de pymes y empresas emergentes de inteligencia artificial, conocidas como “Fábricas de Inteligencia Artificial”, y mejorar el funcionamiento del mercado interior mediante el establecimiento de un marco jurídico uniforme, en particular para el desarrollo, la comercialización y la utilización de la IA.

Y el 12 de julio de 2024 se publicó en el Diario Oficial de la Unión Europea (DOUE) el famoso Reglamento de IA (Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial), que entró en vigor el 1 de agosto de 2024, y que será plenamente aplicable a los dos años desde su publicación en el DOUE, esto es, el 1 de agosto de 2026, sin perjuicio de que se han establecido diferentes hitos para la aplicación de algunas materias:

  • prácticas prohibidas (6 meses)
  • códigos de práctica (9 meses)
  • normas de Inteligencia Artificial de uso general, incluida la gobernanza (12 meses)
  • obligaciones para sistemas de alto riesgo (36 meses)

No hay que perder de vista la sanciones que prevé el Reglamento de IA, consistentes en multas de hasta 15 000 000 € o, si el infractor es una empresa, de hasta el 3 % de su volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior. En el caso de que la infracción se refiera a usos prohibidos, dicha multa podría ser de hasta 35 000 000 € o, si el infractor es una empresa, de hasta el 7 % de su volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior.

Asimismo, en esta línea, el pasado 5 de septiembre de 2024 se firmó por la Comisión Europea el Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho, que es el primer instrumento internacional jurídicamente vinculante sobre IA, y que está abierto a la firma de otros países.

Se enfoca en que la tecnología esté centrada en el ser humano, sea coherente con los derechos humanos, la Democracia y el Estado de Derecho, y sea fiable por transparencia, solidez, seguridad, gobernanza y protección de datos; pivotando en torno al concepto de riesgo para establecer la normativa aplicable. También se pone énfasis en el apoyo a una innovación segura a través de espacios controlados de pruebas (sanbox), así como en los mecanismos de supervisión.

Autor: Javier López, socio de ECIJA

Deja un comentario

Scroll al inicio