Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

Enterprise AI: IA

Minority Report: ¿La IA para la predicción del comportamiento laboral?

La irrupción de la inteligencia artificial (IA), sin duda, está transformando todas las facetas de nuestra vida cotidiana, pero también, está teniendo especial incidencia en la gestión y dirección de las relaciones laborales a través de la automatización de procesos y decisiones en ámbitos como la selección y contratación de personal, la evaluación del desempeño laboral o del comportamiento de las personas trabajadoras.

La IA actualmente también tiene otras aplicaciones potencialmente más preocupantes en entornos laborales. La predicción del comportamiento futuro de los empleados ya es posible mediante herramientas de scoring que evalúan la probabilidad de que un trabajador presente ciertos comportamientos o desempeñe una tarea con éxito. Estas predicciones pueden basarse en datos de productividades históricas, interacciones laborales o en las características personales de la persona trabajadora, generando perfiles que se podrían utilizan para la toma decisiones con afectación a las condiciones laborales, con un cierto reflejo de lo que ocurría en la película Minority Report dirigida por Steven Spielberg hace ya más de veinte años.

Actualmente algunas empresas también están probando estas nuevas herramientas de IA, con aplicación de neurotecnologías, no sólo para predecir conductas o comportamientos futuros, sino también para detectar cambios en las emociones de sus empleados en tiempo real (Affective Computing), mediante el análisis de varios parámetros que se producen en el lugar de trabajo (respiración, frecuencia cardiaca, cambios en la piel o la postura corporal, lenguaje en las comunicaciones internas), a partir de los cuales se pueden plantear recomendaciones corporativas para mejorar el estado de ánimo del empleado.

¿El actual marco normativo permite estas prácticas? y en su caso, ¿con qué límites?

Tras la aprobación del Reglamento Europeo de Inteligencia Artificial (Reglamento IA), el uso de los sistemas de IA (SIA) en entornos laborales ya se encuentra regulado y se encuentra sujeto a estrictos requerimientos y obligaciones de sus usuarios con objeto de proteger los derechos fundamentales en general, y en particular los derechos de los trabajadores, en especial en lo que respecta al tratamiento de datos personales, vinculándose en este punto con el Reglamento General de Protección de Datos (RGPD).

En las siguientes líneas vamos a analizar las implicaciones de estas normativas para el uso de IA en decisiones automatizadas y predictivas en el ámbito laboral, centrándonos en los límites legales y las garantías que se establecen para evitar el potencial riesgo de incumplimiento normativo en esta materia, que puede conllevar sanciones de hasta 35 millones de euros o, si el infractor es una empresa, de hasta el 7 % de su volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior.

El Reglamento de IA clasifica los SIA en función de su nivel de riesgo (bajo, medio o alto), exigiendo medidas de supervisión, transparencia y evaluación de impacto para aquellos usos considerados de alto riesgo. En los entornos laborales, se consideran de alto riesgo los SIA que sirven para tomar decisiones que afecten a las condiciones laborales, la promoción o rescisión de relaciones de trabajo, asignación de tareas a partir de comportamientos individuales, rasgos o características personales, o para supervisar y evaluar el rendimiento y el comportamiento de las personas en el marco de dichas relaciones laborales. Esta calificación de alto riesgo se debe principalmente al alto impacto que tienen en la vida profesional y personal de las personas trabajadoras y a la afectación de derechos tan básicos como la igualdad, a la no discriminación y a la protección de sus datos personales.

Las empresas que realicen estos usos con SIA, entre otras obligaciones, deberán garantizar una supervisión humana significativa, adoptar medidas técnicas y organizativas adecuadas para garantizar que utilizan dichos sistemas con arreglo a las instrucciones de uso que los acompañen, ofrecer informaciones claras sobre cómo operan, tanto a nivel individual como a los representantes legales de los trabajadores, y realizar una evaluación del impacto que pueden tener en las personas trabajadoras y en sus condiciones laborales.

El RGPD, por su parte, sigue siendo un pilar clave en la regulación del tratamiento de datos personales en el trabajo. En particular, el artículo 22 del RGPD prohíbe las decisiones basadas exclusivamente en tratamiento automatizado de datos, incluida la elaboración de perfiles, que produzcan efectos jurídicos significativos en la persona, a menos que se den excepciones como el consentimiento explícito del afectado, la autorización por una Ley de la UE o un Estado Miembro, o la necesidad de cumplimiento del contrato de trabajo. Esto incluye muchas de las aplicaciones predictivas de IA que se están utilizando en el ámbito laboral, como el pronóstico del comportamiento futuro de los empleados basado en su historial de datos.

En lo que se refiere específicamente a la predicción del comportamiento o análisis de emociones de las personas, el art. 5 Reglamento IA prohíbe directamente los usos de IA para predecir comportamientos sociales siempre que de los mismos se deriven perjuicios para las personas objeto de dicha evaluación, así como los usos que impliquen inferencia en las emociones de una persona física en los lugares de trabajo y en los centros educativos, excepto cuando el sistema de IA esté destinado a ser instalado o introducido en el mercado por motivos médicos o de seguridad.

Por lo tanto, y avanzando ya una respuesta al título de este artículo, si bien ambos usos se encuentran prohibidos por la normativa europea, cabe apreciarse excepciones, pero de forma muy restringida, con lo que se tendrá que realizar un análisis previo de dichos usos, así como del cumplimiento de dichas excepciones con carácter previo a su implementación en la empresa.

Una de las sentencias más relevantes en este ámbito es la Sentencia del Tribunal de Justicia de la Unión Europea (TJUE) C-634/21, de 7 diciembre 2023, que interpreta por primera vez que una predicción sobre la probabilidad de un comportamiento futuro de una persona (como una calificación de scoring) constituye una decisión individual automatizada bajo el RGPD. En este caso, se dictaminó que cuando la decisión de una empresa depende directamente de una puntuación generada por IA, esta debe cumplir con las normativas sobre decisiones automatizadas del RGPD, como la posibilidad de intervención humana o el derecho a impugnar la decisión.

Por su parte, tanto el RGPD (art. 35), como el Reglamento IA (art. 27), exigen que se realicen evaluaciones de impacto cuando los tratamientos de datos que utilizan nuevas tecnologías, como la IA, puedan suponer un alto riesgo para los derechos de los interesados, exigiéndose que cualquier sistema de alto riesgo, como los utilizados para gestión de personas trabajadoras, esté sujeto a esta evaluación de impacto y una intervención humana significativa para garantizar que no perpetúe sesgos o eventuales discriminaciones.

Tanto en España, como en otros países de nuestro entorno, ya se han producido varios pronunciamientos judiciales, fallando en favor de los trabajadores por conductas discriminatorias indirectas mediante la gestión algorítmica de la relación laboral, como por ejemplo la sentencia de 31/12/20 del Tribunal de Bolonia con el algoritmo Frank de Deliveroo, o la Sentencia de la Audiencia Nacional de fecha 10/5/2021, que declaró discriminatorio el sistema algorítmico de registro de jornada en teletrabajo, utilizado por la empresa, al no permitir registrar pausas diferentes de las legales (ej. para ir al lavabo).

Unido a estas limitaciones derivadas de la aplicación conjunta de ambos reglamentos europeos, se añade la reciente obligación normativa nacional introducida en el Estatuto de los Trabajadores por la llamada “Ley Rider” (Real Decreto-ley 9/2021) de informar a la representación legal de los trabajadores de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles (nuevo artículo 64.4.d) ET).

A modo de conclusión, cabe decir que con la aprobación del RGPD, y ahora del nuevo Reglamento IA, se hace necesario un previo análisis legal de las herramientas de IA que se pretendan implementar en la empresa. Este análisis deberá incluir también los usos que se vayan a realizar con la IA en relación con el impacto que pueda tener en las relaciones laborales, con la finalidad de determinar los eventuales riesgos que se puedan derivar, así como las concretas obligaciones que debe asumir la empresa para evitar un incumplimiento normativo en esta materia, cobrando especial importancia las políticas corporativas de IA para crear un marco normativo interno con los usos aceptables permitidos por la empresa.

Por Raúl Rojas, socio de Écija

Deja un comentario

Scroll al inicio