La inteligencia artificial se ha colado en nuestras vidas. Oímos hablar de ella en todas partes y de hecho uno de los debates más habituales gira en torno a su definición. Según muchas opiniones, el concepto de IA en su forma más verdadera todavía no existe y no existirá hasta dentro de mucho tiempo. La tecnología que tenemos ahora es el aprendizaje automático, y depende de desarrolladores y analistas humanos para funcionar eficazmente.

Publicidad

No importa cómo lo llamemos, a medida que la IA se aleja de las tareas específicas y concretas para las que ha sido diseñada y pasa a desempeñar funciones más amplias, surgen importantes cuestiones que debemos reconocer. Los vértices de este triángulo amoroso particular son los prejuicios, la ética y la transparencia; y los tres desempeñan un papel clave en el futuro de la IA. En un momento en el que las brechas de datos son innumerables y los informes sobre nuevas amenazas digitales forman parte del día a día, los desarrolladores pueden contribuir a garantizar un futuro estable para la IA si abordan desde ya aspectos como los prejuicios, la ética y la transparencia.

Sesgos del desarrollo

La IA actual o aprendizaje automático depende de la experiencia humana para operar, por lo que existe una alta probabilidad de que las soluciones se construyan con sesgos. En el desarrollo de la IA, el código detrás de la toma de decisiones cambia constantemente y la tecnología puede aprender de los prejuicios humanos. Las máquinas son objetivas, pero los humanos no. La IA utiliza datos para tomar decisiones, por lo que sólo puede actuar sobre la base de la información disponible. Por ejemplo, un altavoz inteligente no puede ponerse a “pensar” de forma independiente en formas de mejorar la vida del usuario. Pero sí puede hacer sugerencias basadas en las “conversaciones” que ha mantenido o si el desarrollador ha introducido un nuevo algoritmo.

Sin embargo, si hay un error de concepción, o si la tecnología utiliza un algoritmo defectuoso, entonces las cosas pueden salir mal muy rápido. Además, una investigación llevada a cabo por Kaspersky y la Universidad de Gante también ha revelado que los robots pueden extraer información sensible de manera muy efectiva de las personas que confían en ellos.

Una cuestión de ética

Aconsejar a desarrolladores y fabricantes que se abstengan de incorporar sesgos o prejuicios humanos en las tecnologías de IA es una cosa, poner en práctica este nivel de objetividad es otra muy diferente. De ahí el debate sobre la necesidad de contar con un marco de actuación para mantener el control. Un conjunto claro de valores, principios y técnicas sobre lo que es aceptable para la IA puede contribuir a lograrlo.

Los seres humanos no somos necesariamente los abanderados de la ética y la conducta moral modernas. Si se utilizan materiales de mala calidad, la construcción será deficiente. Lo mismo ocurre con la toma de decisiones de la IA, esta conlleva sus propios riesgos y, como tal, debe manejarse de manera responsable.

Es mucho más sensato utilizar un sistema que combine las decisiones de la IA y de expertos humanos, centrándose en los controles y equilibrios que se pueden implementar, en lugar de considerar un producto de IA como una utilidad más.

Mantener la transparencia

La naturaleza no determinista de los sistemas de IA rompe con la lógica de las aplicaciones de software tradicionales e introduce nuevas dimensiones. Aunque toda la tecnología puede ser motivo de preocupación para los usuarios – por ejemplo, entender por qué una aplicación de nuestro móvil quiere conocer nuestra ubicación – la IA puede tomar decisiones tangibles sin permisos tangibles. Por tanto, es responsabilidad de fabricantes y desarrolladores ser transparentes con sus clientes sobre el motivo por el que se toman estas decisiones.

Durante mucho tiempo, las amenazas potenciales de seguridad no se prevenían, sino que se abordaban únicamente en caso de una catástrofe tecnológica. Por ejemplo, las organizaciones de toda Europa han recopilado durante décadas una gran cantidad de datos, pero el Reglamento General de Protección de Datos (GDPR) en el que nos basamos ahora no se introdujo hasta 2018, después de años de debate. Un enfoque similar es el que se ha venido usando al adoptar la seguridad de TI. Sólo cuando una empresa sufre una brecha de datos, su equipo de seguridad hace todo lo posible para limitar los daños. La puesta en marcha de GDPR fue un logro considerable, con implantación en 27 países, y hay muchas enseñanzas de esta implementación que podemos aprovechar para informar las futuras regulaciones en torno a la IA.

Es necesario cambiar el enfoque desde soluciones reactivas a soluciones preventivas, especialmente cuando se trata de mantener la IA y el aprendizaje automático seguros frente a las últimas ciberamenazas. Si los algoritmos pueden ser cambiados por los desarrolladores, también pueden ser manipulados por los hackers. Por todo ello, proteger la IA y mantener su objetivo es posiblemente la primera ocasión en la que los desarrolladores y usuarios hayan empezado a preocuparse por las consecuencias de la tecnología antes de poder cosechar los beneficios.

Por Alfonso Ramírez, director general de Kaspersky Iberia