La gestión de endpoints puede garantizar la seguridad, la organización y la eficacia de una empresa al proporcionar una visión global de la salud, la ubicación y el estado de los endpoints. Descárgate esta guía con donde encontrarás las principales tendencias en gestión de endpoints, los principales retos y mucho más.

neuroderechos

Los neuroderechos y la IA en el ámbito laboral. Luces y sombras

Nuestro Gobierno ha sido uno de los pioneros en abordar este nuevo reto normativo de regular los neuroderechos de las personas, concepto que ha sido introducido recientemente por la Neuro Rights Initiative, de la Universidad de Columbia en Nueva York

El aumento cognitivo o la estimulación de las capacidades de las personas, a través de las neurotecnologías, ya es una realidad en nuestra sociedad. Los avances científicos en este campo han propiciado la posibilidad real de decodificar la información de nuestro cerebro, potenciar nuestras habilidades o, incluso, de modificar los recuerdos almacenados en nuestra memoria.

Como toda neotecnología, esta también despierta lógicos recelos por las potenciales consecuencias negativas para la intimidad, la privacidad y los derechos que tenemos como personas.

Nuestro Gobierno ha sido uno de los pioneros en abordar este nuevo reto normativo de regular los neuroderechos de las personas, concepto que ha sido introducido recientemente por la Neuro Rights Initiative, de la Universidad de Columbia en Nueva York. Por el de momento, el objetivo de la Carta de Derechos Digitales (CDD), la cual no tiene carácter normativo, es el de reconocer los nuevos retos de aplicación e interpretación que la adaptación de los derechos al entorno digital plantea, así como sugerir principios y políticas referidas a ellos en el citado contexto.

Específicamente en el campo de los neuroderechos, la CDD reconoce que la Ley podrá regular los límites y garantías de implantación y empleo en las personas de las neurotecnologías con la finalidad de garantizar el control de cada persona sobre su propia identidad, su autodeterminación individual, así como la soberanía y libertad en la toma de decisiones, asegurando también la confidencialidad y seguridad de los datos obtenidos o relativos a sus procesos cerebrales y el pleno dominio y disposición sobre los mismos.

Por su parte, será posible también regular el uso de interfaces persona-máquina susceptibles de afectar a la integridad física o psíquica, así como asegurar que las decisiones y procesos basados en neurotecnologías no sean condicionadas por el suministro de datos, programas o informaciones incompletos, no deseados, desconocidos o sesgados.

En el ámbito privado ya se están produciendo importantes avances en el campo de la estimulación profunda del cerebro. Por ejemplo, el proyecto Neuralink de Elon Musk, tiene como objetivo el desarrollo de una interfaz bidireccional que permite tanto la estimulación de partes cerebrales, como la captación, almacenaje (y posterior uso) de la información que procede del propio cerebro.

Algunos científicos ya avanzan que con la implementación de esta nueva tecnología en humanos, combinada con la IA y el Big Data, en poco tiempo permitirá la utilización de dispositivos electrónicos desde el propio cerebro, determinar de forma exacta el estado de ánimo de las personas, o incluso, inducirlas para la realización de determinados comportamientos insertando ciertos tipos de pensamientos en el cerebro de un individuo, lo que conduce a una nueva tecnología ya denominada “El Internet de los Cuerpos” (IoB). Con ello, se estaría afectado no solo a nuestra privacidad, sino también, y de forma especial, tendría impacto principalmente sobre dos de nuestras características más valiosas que nos definen como seres humanos: nuestra consciencia o la identidad personal consciente, y el libre albedrío.

En el campo de los neuroderechos, la CDD reconoce que la Ley podrá regular los límites y garantías de implantación y empleo en las personas de las neurotecnologías con la finalidad de garantizar el control de cada persona sobre su propia identidad

Es tal el alcance y la magnitud del potencial de esta tecnología, que abre la puerta a riesgos reales de manipulación e intervención directa sobre el cerebro humano, que el pasado mes de octubre de 2022, el Consejo de Derechos Humanos de la ONU solicitó al Comité Asesor un estudio sobre el impacto, las oportunidades y los desafíos de la neurotecnología con respecto a la promoción y protección de todos los derechos humanos.

La tecnología de IoB, que permitiría obtener información directamente del comportamiento humano, y trasmitirla, a su vez, para la toma decisiones, tiene indudables aplicaciones, no solo en investigación médica o en el sector de los videojuegos, sino también en el ámbito laboral, donde el dato biométrico se coloca en el centro de determinadas decisiones empresariales con impacto en RRHH y en aspectos tales como el rendimiento del trabajador, la carga de trabajo, el cumplimiento de objetivos o la prevención de riesgos psicosociales.

No obstante, estas neotecnologías aplicadas en entornos laborales, plantean también nuevos retos y riesgos específicos que necesariamente hay que abordar con carácter previo, teniendo en cuenta, entre otras circunstancias, la especial relación de dependencia existente entre el empleador y la persona trabajadora, donde el libre consentimiento tiene importantes limitaciones.

Así, recientemente nuestro Tribunal Supremo en la sentencia de fecha 8 de febrero de 2021 (Rec. 84/2019), ha reiterado que “no se puede entender que exista consentimiento libre y voluntario del trabajador” al exigir el clausulado del contrato la aportación por parte del trabajador de aquellos datos -teléfono o email-, no necesarios ni imprescindibles para el cumplimiento del contrato, en una sentencia que declara nula la práctica empresarial de incorporar dispositivos de geolocalización en los dispositivos personales de las personas trabajadoras (Proyecto Tracker Telepizza).

Concretamente en materia de privacidad y protección de datos personales, el pasado mes de abril de 2022, la Agencia de Protección de Datos de Hungría (NAIH) impuso una multa de 670.000€ a un banco por utilizar un software basado en inteligencia artificial que analizaba y evaluaba los estados emocionales de los clientes, con la finalidad de mejorar la calidad del servicio.

Con el marco normativo actual, tanto nacional como comunitario, resultarían inaceptables, y por tanto, prohibidas por la norma, las prácticas de utilización de sistemas de reconocimiento de emociones del trabajador, sin previa autorización del mismo. En esta línea se propone la regulación en la Propuesta de Directiva Europea sobre la mejora de las condiciones laborales en el trabajo en plataformas, de 9 de diciembre de 2021, en la que no se podrán tratar datos personales sobre el estado emocional o psicológico del trabajador de las plataformas digitales.

Adicionalmente del riesgo por la invasión ilícita de la intimidad o privacidad de las personas trabajadoras, se podría producir también otros efectos no deseados, tales como situaciones de discriminación y sesgos tanto en el acceso al trabajo, como durante la vida laboral, como en los casos de despido con base en la utilización del dato biométrico laboral.

Otorgar a un algoritmo de IA facultades empresariales de dirección y control de personal puede conllevar la ejecución de decisiones con consecuencias laborales negativas tanto para la empresa como para el propio empleado. Ejemplo de esto, fue el caso de un ingeniero de una compañía de desarrollo de software que en 2018 fue despedido automáticamente por una máquina de IA, cortando su acceso a las oficinas en las que trabajaba e iniciando un proceso de despido automatizado.

Los desafíos que plantean los neuroderechos y las aplicaciones prácticas de la IA adquieren una especial relevancia en entornos laborales, donde las relaciones entre empleador y trabajadores se desarrolla en una relación basada en la dependencia de estos últimos con respecto de sus empleadores, y en la consideración de constituirse en la parte más débil de la relación contractual, debiendo dotarle de un estatus especial de protección legal.

Otra propuesta normativa para la protección de las personas trabajadoras frente a las inercias o excesos desproporcionados en el uso de estas neotecnologías, proviene en este caso de Europa. La reciente propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial, de 22 de abril de 2021, pone el foco precisamente en el “alto riesgo” de los sistemas de IA que se utilizan en el empleo y la gestión de los trabajadores. El riesgo provendría, no solo de los eventuales sesgos o perpetuación de patrones históricos de discriminación, por ejemplo contra las mujeres, ciertos grupos de edad o determinadas etnias, durante el proceso de contratación o de la promoción en la relaciones laborales; sino también por la afectación de los derechos a la protección de los datos personales y a la privacidad de los empleados por el uso de estos sistemas de IA para controlar el rendimiento y el comportamiento de estas personas.

Al objeto de evitar estos efectos indeseados en el ámbito de las relaciones laborales de la aplicación indiscriminada de algoritmos informáticos, nuestro Gobierno, de nuevo, en una iniciativa pionera introdujo por primera vez en nuestro ordenamiento jurídico, mediante la Ley 12/2021, de 28 de septiembre, una nueva obligación de compliance laboral para las empresas en esta materia. En virtud de esta nueva obligación legal, recogida en el art. 64.4 ET, las empresas deberán informar a la representación legal de los trabajadores, con la periodicidad que proceda, de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles.

Como siempre, el riesgo, no estará en la tecnología en sí, que sigue evolucionando, sino en el uso (o abuso) que se haga de ella, o como acertadamente apuntaba el profesor Ignasi Beltrán, “la amenaza no radica tanto en el potencial de la herramienta, sino en el uso que se hace de la información a la que da acceso. Si el conocimiento de esta dimensión quedara reservado a la esfera estrictamente privada y, por ejemplo, se garantizara una encriptación segura (y, en paralelo, si se declara su absoluta inalienabilidad), la amenaza podría disiparse notablemente”.

Por ello será necesario, con carácter previo a la implementación de este tipo de tecnologías, que vaya acompañado de un previo acomodo y adecuación normativa, al objeto de reducir o minimizar riesgos derivados de incumplimientos laborales en materia de intimidad, privacidad o cualquier otro derecho fundamental de las personas trabajadoras.

Por Raúl Rojas. Socio de Écija

Deja un comentario

Scroll al inicio