Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

inteligencia artificial ineco

¿Son compatibles inteligencia artificial y privacidad?

Por más que pretenda ignorarse, es un hecho que la inteligencia artificial está invadiendo nuestras vidas en todas sus facetas: wearables (ropa con tecnología incorporada para conectarse al móvil, controlar la temperatura corporal, …), smartwatchs (relojes inteligentes que sirven como teléfono, reproductor de música, controlador de constantes vitales, videojuegos, …), chatbots (software capaz de mantener una conversación con una persona para hacer una reserva, realizar trámites, pagar multas, …), reconocimiento de matrículas de vehículos en gasolineras y aparcamientos, etc.

Las ventajas que ofrece esta tecnología está provocando la aparición de iniciativas pioneras en este campo, en especial en China, donde se les está dando multitud de aplicaciones prácticas, impensables hasta ahora. Así, se ha desarrollado un uniforme inteligente que permite a padres y profesores recibir información a tiempo real sobre las horas de entrada y salida de los estudiantes, conocer la localización de los que no han acudido al colegio para hacer novillos o alertar cuando dejan de prestar atención durante las clases.

Diez centros educativos de las provincias de Guizhou y Guangxi Zhuang han aplicado la utilización de estos uniformes en unos ochocientos alumnos desde 2016, habiéndose logrado una notable disminución del absentismo escolar. Para evitar que los más avezados burlen el sistema intercambiándose los uniformes, en las puertas de acceso hay instalado un equipo de reconocimiento facial previamente asociado con el uniforme asignado a cada alumno.

Asimismo, China tiene un intrigante proyecto científico (con un impresionante presupuesto de más de ciento diez millones de euros) en el que se pretende crear una máquina capaz de estudiar el “alma” humana mediante el acceso a la conciencia a través de una imagen radio magnética del cerebro que permita entender su estructura y cómo se comportan los elementos químicos que lo componen. Además de ayudar a avanzar en el conocimiento del cerebro, se tiene la intención de contribuir a luchar contra enfermedades como el Parkinson y el Alzheimer.

China tiene un intrigante proyecto científico (con un impresionante presupuesto de más de ciento diez millones de euros) en el que se pretende crear una máquina capaz de estudiar el “alma” humana

El uso de estas tecnologías plantea cuestionamientos legales, tales cómo si ello supone una vulneración de la intimidad de los alumnos, pues podrían ser controlados mediantes un sistema GPS fuera del horario escolar y con finalidades distintas del mero cumplimiento de sus obligaciones académicas; o una invasión en la privacidad de los pacientes en cuya consciencia se haya penetrado, pudiendo tener acceso a información que debería permanecer en la esfera íntima del afectado.

Pero aquí no acaba la cosa. China se propone poner en marcha en un plazo de tres años un sistema que evalúe el comportamiento de los ciudadanos en función de la información obtenida por la infinidad de cámaras instaladas en las calles de ciudades como Pekín o Qingdao; evaluación que tendrá castigos como la imposición de sanciones en el caso de las infracciones detectadas (fumar en lugares donde no esté permitido, tirar basura o dañar el mobiliario urbano) y recompensas, pues resultará fundamental contar con una buena valoración para obtener préstamos, poder viajar, etc.

Aunque las autoridades chinas defienden este sistema como un instrumento para instaurar la “cultura de la honestidad”, lo cierto es que esconde el peligro de montar un “big brother” donde el Estado sea onmiconsciente y omnipotente ante los indefensos ciudadanos, a los que no les quedará más remedio que comportarse como se les dicta sin tener posibilidad de valorar lo que está bien y lo que está mal, ni tener la libertad para decidir si hacer o no lo correcto.

Y es que la inteligencia artificial, al menos en el estado actual de la técnica, puede carecer de los criterios adecuados para hacer sus selecciones, como los algoritmos usados por los tribunales penales de Estados Unidos para elaborar perfiles de delincuentes, que, según se denunció en la conferencia “Data for Black Lives” celebrada en Massachusetts en enero de 2019, estarían usando datos sesgados y contaminados, con el resultado de prejuzgar como más proclives a ser delincuentes a los ciudadanos de raza negra, lo que recuerda a ciertas teorías popularizadas en la Criminología del siglo XIX, donde se partía del axioma de que las personas feas eran más propensas a cometer delitos.

Pero no es el único escenario en el que resultan cuestionables los principios aprendidos por la inteligencia artificial. En septiembre de 2018, Facebook fue acusada por la Unión para las Libertades Civiles en América (ACLU) de discriminar a las mujeres en sus ofertas laborales. Y en octubre de 2018 se anunció que Amazon prescindía de su sistema de inteligencia artificial para la contratación de personal por ser sexista, ya que el criterio para la elección de los aspirantes a incorporarse a la compañía discriminaba a las mujeres. Además del reproche machista, resulta preocupante la vulneración de la intimidad que supone que la inteligencia artificial maneje aspectos personales de las personas a la hora de hacer sus selecciones.

La preocupación por esta cuestión no es ajena a la Comisión Europea, que, sin perjuicio de que reconoce los beneficios sustanciales que aporta esta tecnología y la necesidad de su implementación para que la Unión Europea pueda competir con países como Estados Unidos o China, es consciente de que puede tener un impacto negativo, según se reflejó en el Dictamen 2017/C 288/01 de 31 de mayo de 2017del Comité Económico y Social Europeo sobre la «Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad» (Ponente: Catelijne Muller).

Por ello, tiene proyectado publicar un Código Ético con guías para garantizar una inteligencia artificial “centrada en el ser humano” y que respete los derechos fundamentales, principios éticos y valores necesarios para la dignidad de las personas, en particular en el caso de grupos vulnerables, como niños, personas con discapacidad o minorías y en situaciones de asimetría de poder o información, como podría suceder entre empleadores y empleados o empresas y consumidores.

Deja un comentario

Scroll al inicio