Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

Prosegur IA

Prosegur refuerza su compromiso con el uso ético y responsable de la IA

Prosegur, el principal grupo de seguridad en España, ha dado un importante paso adelante en su compromiso de proteger a las personas y las empresas al lanzar la primera Política de Inteligencia Artificial (IA) Responsable, que será aplicable en todos los países donde opera.

Esta política tiene como objetivo garantizar los derechos y libertades de todas las personas que puedan verse afectadas por el uso de soluciones y tecnologías de Inteligencia Artificial, estableciendo principios rectores para su implementación en todos los proyectos que la utilicen. De esta manera, Prosegur demuestra su compromiso continuo de adoptar la tecnología más avanzada en todos sus productos y servicios, manteniéndose a la vanguardia de la innovación.

“Aunque la aplicación de la IA conlleva grandes beneficios, también debemos prevenir sus riesgos”, explica Miguel Soler, Presidente del Comité de IA Responsable y Director Legal y Cumplimiento del Grupo Prosegur. Esta capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar los conocimientos emulando al cerebro humano ha adquirido una gran importancia en los últimos tiempos, y cada vez son más los usos en los que se emplea. Sin embargo, al ser una tecnología tan potente en todos los sentidos, también conlleva una gran responsabilidad en cuanto a su aplicación y seguimiento.

3 pilares fundamentales de la IA

Para prevenir y mitigar posibles riesgos, Prosegur ha establecido un procedimiento que dicta que toda Inteligencia Artificial desarrollada o adquirida por la compañía debe cumplir con tres pilares fundamentales: ser lícita (para garantizar el cumplimiento de las leyes y regulaciones aplicables), ética (para asegurar la adherencia a los principios y valores éticos) y robusta (tanto en términos técnicos como sociales, considerando los posibles daños accidentales que los sistemas de IA podrían causar).

«El uso de la Inteligencia Artificial está en constante aumento, especialmente en soluciones de análisis de vídeo, como hemos observado en Prosegur. Con esta nueva política de uso responsable de la IA, queremos unirnos a otras grandes empresas que priorizan la tecnología en sus operaciones, pero lo hacemos de manera ética, lícita y robusta, tal como establece nuestra normativa», declara Soler.

Principios éticos, requisitos clave y metodología

Para la creación de esta política, se han adoptado como referencia los principios éticos establecidos por la Comisión Europea, que buscan mejorar el bienestar tanto individual como colectivo y deben regir todos los proyectos de IA de Prosegur. Estos principios incluyen, en primer lugar, el respeto a la autonomía humana y la necesidad de supervisar los procesos de trabajo de los sistemas de IA para complementar las habilidades humanas. Además, se enfatiza en la prevención del daño, asegurando que los sistemas de IA sean técnicamente seguros y robustos para no perjudicar a nadie. También se destaca el principio de equidad para garantizar una distribución justa de beneficios y costos, así como el derecho a oponerse a las decisiones tomadas por los sistemas de IA. Por último, se subraya el principio de explicabilidad, que requiere transparencia en los procesos de desarrollo de IA y una comunicación clara.

Además, se han establecido una serie de requisitos para asegurar que se trata de un sistema de Inteligencia Artificial Responsable, que deben ser aplicados durante todo el ciclo de vida de estos procesos. Esto incluye la activación de supervisión humana para garantizar la seguridad y la solidez técnica de los procesos, así como una gestión sólida de los datos para proteger la privacidad y promover la inclusión, la diversidad y la igualdad de acceso. También se enfatiza la responsabilidad y la rendición de cuentas sobre los sistemas de IA y sus resultados.

Por otra parte, la empresa ha desarrollado una metodología específica para aplicar esta política, que se detalla minuciosamente. El responsable del proyecto expondrá el modelo de negocio y la finalidad de la solución de IA propuesta, luego el Comité de Inteligencia Artificial supervisará y garantizará el cumplimiento de la solución y definirá los requisitos a evaluar. Con la aprobación del comité, el desarrollador de IA diseñará, implementará y probará la solución, y finalmente, el operador de IA ejecutará y supervisará la solución.

Deja un comentario

Scroll al inicio