Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

empleados IA miotek inteligencia artificial big data industria 4.0

Así está la legislación para la Inteligencia Artificial: ética y responsabilidad civil

Según vaticinan los Reguladores de la Unión, son múltiples los aspectos en los que la robótica y la Inteligencia Artificial (IA) van a contribuir a mejorar nuestras vidas, tanto en la esfera personal (transportes, educación, asistencia a personas vulnerables, preparación física y concesión de créditos), en el entorno de trabajo (reducción de tareas tediosas y repetitivas), así como en los retos mundiales (emergencia climática, asistencia sanitaria, nutrición y logística). Y, en efecto, la delimitación de los aspectos éticos y jurídicos de la IA es una de las cuestiones más importantes de la agenda política actual.

En este sentido, la “Information Commisioner Office” (ICO), autoridad de Protección de Datos del Reino Unido, elaboró en mayo de 2020 la guía “Explaining decisions made with AI”, partiendo de los principios establecidos en el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos. En ella se relacionaron los conceptos del funcionamiento de la IA con su impacto en las personas afectadas: “Rationale explanation” (racionalidad de la decisión), “Responsibility explanation” (responsables), “Data explanation” (datos utilizados), “Fairness explanation” (imparcialidad y ausencia de sesgos), “Safety and performance explanation” (seguridad en la implementación del sistema) e “Impact explanation” (evaluación del impacto).

Por su lado, Nueva Zelanda ha sido el primer país en aprobar una regulación del uso de algoritmos por organismos públicos con la promulgación en julio de 2020 de la “Algorithm charter for Aotearoa New Zealand” (Carta de Algoritmos de Nueva Zelanda), que establece los principios que deben aplicarse cuando una evaluación de impacto del uso de un algoritmo revele un riesgo significativo para los derechos de los ciudadanos: Transparencia, protección de la ciudadanía, adecuación del uso de datos, protección de la privacidad, la ética y los derechos humanos, y la supervisión humana.

En España, en julio de 2020 se anunció la creación del Consejo Asesor de Inteligencia Artificial, para garantizar un uso ético y seguro de la inteligencia artificial, compuesto por expertos españoles de máximo prestigio a nivel internacional en la materia, para contribuir a la finalización y puesta en marcha de la Estrategia Nacional de Inteligencia Artificial (ENIA), que tiene como objetivo alinear las políticas nacionales destinadas a fomentar el desarrollo y el uso de la IA en España, aumentando la inversión, reforzando la excelencia en tecnologías y aplicaciones de inteligencia artificial, y fortaleciendo la colaboración entre el sector público y privado, de manera que se produzca un impacto significativo en la sociedad y la economía española, habiéndose presentado recientemente un plan de acción con seis ejes estratégicos y una previsión de inversión pública de 600 millones de euros en el periodo 2021-2023.

En España, en julio de 2020, se anunció la creación del Consejo Asesor de Inteligencia Artificial, para garantizar un uso ético y seguro de la IA

Por lo que se refiere a las iniciativas legislativas de la Unión, el 20 de octubre de 2020 el Parlamento Europeo dictó la Resolución 2020/2012(INL) con recomendaciones destinadas a la Comisión sobre el “Marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas”, así como la Resolución 2020/2014(INL) con recomendaciones destinadas a la Comisión sobre el “Régimen de responsabilidad civil en materia de inteligencia artificial”. De esta forma, en cuanto a los aspectos éticos, se establece que es necesario que la normativa que se dicte garantice:

a) La aplicación uniforme del sistema de evaluación de riesgos y el respeto de las obligaciones jurídicas conexas, para asegurar la igualdad de condiciones entre los Estados miembros y prevenir la fragmentación del mercado interior, evitando que se vulneren los derechos fundamentales y las normas de seguridad establecidas en el Derecho de la Unión.

b) Una amplia protección de los consumidores y el mercado interior en sentido subjetivo (ya sean usuarios de un algoritmo, estén sujetos a él o sean sus destinatarios), geográfico (sea cual sea el lugar donde estén quienes desarrollen, comercialicen o utilicen el sistema de IA) y funcional (aplicable a todos los intervinientes en la cadena de los sistemas de IA).

c) La transparencia de la inteligencia artificial, para garantizar que se respeta el derecho a la información de los consumidores, lo que constituye un principio fundamental del Derecho de la Unión, lo que afecta a los procesos de automatización, el tratamiento de los datos y el control por las autoridades.

d) La ausencia de sesgos culturales y de género y de discriminación automatizada, aunque sea de forma involuntaria, incluida la discriminación indirecta, en particular en relación con grupos de personas con características similares, garantizando la plena protección de los derechos fundamentales y la salvaguarda de los valores de nuestra sociedad. Con ello se quieren evitar situaciones como las que acaecieron en 2018 con los sistemas de selección de personal de Facebook y Amazon, a los que se les reprochó que discriminaban a las mujeres en sus ofertas laborales.

Asimismo, desde el punto de vista de la responsabilidad civil, se considera que, en lugar de sustituir los regímenes de responsabilidad civil existentes, que funcionan correctamente, deben realizarse algunos ajustes necesarios mediante la introducción de ideas nuevas y orientadas al futuro, de forma que la normativa debe establecer:

a) La imputabilidad del operador de la inteligencia artificial causante del daño y responsable de indemnizarlo, que abarque todo el desarrollo del proceso de aplicación de la IA para evitar que se produzca indefensión a los consumidores. En el supuesto de que haya más de un operador, la protección del consumidor requiere que todos sean responsables civiles solidarios, con independencia de que luego se reclamen entre ellos por la vía de regreso en la proporción que les corresponda, lo que requiere la trazabilidad de las distintas fases.

b) Una especial cobertura preventiva de la responsabilidad en que puedan incurrir los operadores financieros, como el seguro de responsabilidad civil o las garantías bancarias, para que los consumidores puedan confiar en la nueva tecnología, a pesar de la posibilidad de sufrir un daño o de tener que enfrentarse a reclamaciones judiciales.

c) La exigencia de un seguro obligatorio de responsabilidad civil para los operadores de sistemas de inteligencia artificial de alto riesgo, que debe cubrir los importes y el alcance de la indemnización establecidos legalmente, y aunque sus perímetros son difíciles de concretar debido a la falta de estadísticas de siniestralidad, ello no debe implicar que las primas de seguro resulten prohibitivas y se conviertan en un freno para la investigación y la innovación.

Javier López, socio de ECIJA

Deja un comentario

Scroll al inicio