Los Presupuestos Generales del Estado (PGE) ofrecen sorpresas y en los del 2022, nos ha traído una de ellas. España tendrá una agencia que controle los algoritmos de inteligencia artificial que afectan a los ciudadanos mediante la creación de un organismo autónomo en su gestión, configurada como una agencia estatal con patrimonio propio y dotación que se denominará Agencia Española de Supervisión de Inteligencia Artificial. La Agencia se encargará del “desarrollo, supervisión y seguimiento de los proyectos enmarcados en la Estrategia Nacional de Inteligencia Artificial (ENIA)” como consta su publicación en el BOE.
No vamos a descubrir la presencia de los algoritmos en la inteligencia artificial y por supuesto en la aplicación de machine learning. Son indispensables para que funcionen redes sociales, buscadores, comercios on line o medios de comunicación digitales. También nos protegen de correos electrónicos maliciosos, que se derivan a la carpeta de spam. Los tenemos por todos lados. Pero es importante que la mencionada y non nata Agencia de Supervisión, actúe de paraguas protector en el caso de ser utilizados de manera discriminatoria e incluso atentatoria de derechos ciudadanos.
No vamos a descubrir la presencia de los algoritmos en la inteligencia artificial y por supuesto en la aplicación de machine learning
Teniendo en cuenta todo lo anterior y aceptando que un sistema de aprendizaje automatizado no aprende más allá de lo que esté contenido en el conjunto de datos que se le ha suministrado, podemos suponer que dicho sistema puede estar sujeto a sesgos, parcialidad, inducción al error o incluso a la subjetividad de su creador. Es el problema de la utilización de datos de aprendizaje incorrectos, sesgados o restrictivos. Por estos motivos se hace tremendamente necesario auditar no sólo los algoritmos, sino también los datos y la fiabilidad u origen de los mismos.
Muchos algoritmos son denominados de caja negra, término con el que se refiere a la opacidad de estos sistemas. La Agencia se hace imprescindible.