La IA ética debe hacer recomendaciones de contratación, promoción o salario basadas en las habilidades y el rendimiento de un empleado
A raíz de 2020, los equipos de RRHH de todos los sectores están buscando estrategias para impulsar sus iniciativas de diversidad, equidad, inclusión y pertenencia (DEIB). A medida que la inteligencia artificial sigue creciendo en importancia en RRHH, la tecnología puede jugar un papel clave en el impulso de un cambio real.
La IA en RRHH ha avanzado mucho más allá de los algoritmos que rastrean los CV. Puede hacer recomendaciones sobre aumentos salariales y ascensos. En el caso de los empleados que buscan desarrollar su carrera, la IA puede evaluar sus habilidades, recomendar oportunidades de crecimiento y ofrecer contenido de aprendizaje en el camino. Para las empresas, puede ayudar a identificar y cerrar las brechas de habilidades. Y en todas estas aplicaciones, puede ayudar a eliminar los prejuicios e impulsar la inclusión.
Pero la IA no es una solución mágica y equitativa. Si no se hace con cuidado, los algoritmos de la IA podrían aumentar los prejuicios en una organización. De hecho, no faltan las historias con moraleja, desde herramientas de reconocimiento facial problemáticas (HireVue, Google) hasta algoritmos de contratación discriminatorios (Amazon).
Entonces, ¿cómo pueden las organizaciones aprovechar las ventajas de la IA sin agravar las desigualdades existentes? Comienza con un cambio de mentalidad: uno que considere la IA para RRHH como un proceso continuo, en lugar de una solución de un día para otro. Independientemente de la implementación, la IA necesita una supervisión humana constante. Los líderes de RR.HH. deben tener la capacidad de supervisar y probar la IA para asegurarse de que es ética y, a su vez, apoya el progreso de RRHH hacia los objetivos del DEIB. Esto, por cierto, es una gran oportunidad para que los profesionales de RRHH mejoren sus habilidades y se conviertan en usuarios avanzados de la IA.
¿Qué es la IA ética en RRHH y cómo elimina los prejuicios?
La ética puede ser una poderosa herramienta para este propósito. Los equipos de RRHH suelen tener directrices específicas para comportarse de forma ética en el lugar de trabajo, ya sea una declaración de intenciones o priorizar la equidad entre los empleados y evitar la discriminación. La IA ética debe hacer lo mismo: hacer recomendaciones de contratación, promoción o salario basadas en las habilidades y el rendimiento de un empleado, y eliminar cosas basadas en la discriminación, como la raza o el estatus socioeconómico. Sin embargo, no se trata simplemente de escribir un algoritmo ético.
La IA ética debe hacer lo mismo: hacer recomendaciones de contratación, promoción o salario basadas en las habilidades y el rendimiento de un empleado
Para que una IA sea ética, necesita datos de entrenamiento imparciales. Según Frida Polli, fundadora de la empresa de selección de talentos impulsada por IA pymetrics, las pruebas tradicionales de personalidad y aptitud utilizadas en la contratación son ejemplos de cómo los puntos de datos pueden contener un sesgo inherente.
Algunas pruebas cognitivas tradicionales tienen preguntas como «¿Qué es un callejón sin salida?», dijo durante un episodio reciente del podcast HR Labs de Cornerstone. «Bueno, ¿es realmente una pregunta de coeficiente intelectual? ¿O es sólo una pregunta sobre el grado de prosperidad de tu vida?».
El objetivo de su empresa es desarrollar pruebas diseñadas para medir realmente las habilidades y capacidades que buscan los empleadores, eliminando las oportunidades de sesgo en torno a la experiencia y el lenguaje.
«Uno de nuestros primeros clientes utilizó la pymetría en lugar del CV [para evaluar a los candidatos a becarios]», explicó el presentador de HR Labs. «Tenían gente que venía a una entrevista que nunca había estado en un avión. Piénsalo. Todos sus becarios eran muy diversos desde el punto de vista socioeconómico que tuvieron que cambiar sus políticas de reubicación porque la gente no podía trasladarse al otro lado del país y alquilar un apartamento y comprar muebles. Y realmente les hizo darse cuenta de que ‘hemos estado aprovechando un grupo socioeconómicamente muy homogéneo y ni siquiera lo sabíamos'».
¿Cómo puedo asegurarme de que mi IA es ética?
Incluso si la IA tiene datos éticos en el momento de la implementación, eso no significa que siga siendo así. Las desviaciones a lo largo del tiempo en el comportamiento del algoritmo pueden ser difíciles de prever y, por lo tanto, los equipos de RRHH necesitan asegurarse de que la IA se supervisa de forma continua.
Por ejemplo, si una máquina está haciendo recomendaciones sobre los candidatos a contratar, los humanos deben comparar las desviaciones de la máquina con el equipo de RRHH. Si los resultados de la máquina se alejan demasiado de las decisiones finales de los humanos, eso podría indicar un problema. Tal vez la desviación de la máquina esté poniendo de manifiesto un sesgo de género en el equipo, por ejemplo. Pero la desviación también puede ser el resultado de que la IA seleccione erróneamente a personas con títulos avanzados basándose en los antecedentes de los empleados existentes. Es necesario que haya una supervisión para que los humanos detecten indicadores como estos y los investiguen.
Muchos equipos de RRHH compran IA a proveedores externos en lugar de crear una solución interna. Pero eso no significa que el proveedor por sí solo pueda garantizar al 100% la ausencia de sesgos. Por lo tanto, mientras que el proveedor debe ser responsable de probar sus herramientas, los equipos de RRHH que utilizan la tecnología también deben supervisar de forma continua. Se necesitan dos para bailar el tango.
La oportunidad de oro para los equipos de RRHH
El uso de la IA para promover el DEIB es un proceso continuo de establecimiento de objetivos, de progreso hacia esos objetivos y de corrección del curso según sea necesario. Por ejemplo, digamos que un equipo de RRHH sabe que la brecha salarial de su organización es del 10%. Es responsabilidad del equipo de DEIB establecer objetivos de responsabilidad, como, por ejemplo, en dos años, quieren que sea del 5%, y en cuatro años, que sea del 0%. Parte del seguimiento de los progresos de la organización hacia esos objetivos se centra en la supervisión y el tratamiento de la IA.
En mi opinión, esta es una oportunidad de oro para que los equipos de RRHH y los responsables de diversidad desarrollen competencias adicionales en torno a la tecnología. Estos individuos estarán mejor equipados para asegurar el progreso de la IA ética – y por lo tanto, de los objetivos del DEIB- si son capaces de utilizar la tecnología de forma efectiva. Es una fantástica oportunidad profesional para evolucionar y desarrollar competencias adicionales.
José Rodríguez, Chief Data Protection Officer en Cornerstone OnDemand