Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

Alfonso Ramírez, director general de Kaspersky Iberia

La seguridad de los sistemas de aprendizaje automático, una necesidad estratégica

Empresas de todos los tamaños y sectores siguen explorando los avances en servicios digitales, Internet de las Cosas, inteligencia artificial o aprendizaje automático (machine learning) para mejorar la productividad y la eficiencia. De la mano de esa generalización en el uso de estos desarrollos tecnológicos, surge también la necesidad de mantenerlos seguros o, mejor dicho, ciberseguros.

Si nos centramos en la seguridad del aprendizaje automático y la IA, lo primero que tenemos que hacer es diferenciar dos conceptos: la IA fuerte y la débil. La IA fuerte es una máquina hipotética que es capaz de pensar y es consciente de su propia existencia, además, no solo puede resolver las tareas para las que está programada, sino que también puede aprender cosas nuevas. La IA débil ya existe, se encuentra en todas las aplicaciones creadas para resolver problemas específicos, tales como reconocer imágenes o conducir un coche. La IA débil es la que habitualmente conocemos como “aprendizaje automático”.

Una vez aclarada esta importante distinción, cabe señalar que la seguridad de los sistemas de aprendizaje automático e inteligencia artificial ha sido reconocida por Gartner como una de las prioridades estratégicas para 2020, debido al aumento de su uso en muchos servicios y productos, desde los financieros y bancarios hasta la fabricación o los diferentes tipos de sistemas de seguridad de autenticación biométrica.

La IA débil es la que habitualmente conocemos como “aprendizaje automático”

Pero, aunque usemos aprendizaje automático, cuyo software se vuelve más inteligente con la experiencia, la inteligencia artificial nunca será como la inteligencia humana. Las máquinas son rápidas, coherentes e incansables, lo que complementa a la intuición e inteligencia humanas.

Es más, estamos viendo cada vez más intentos de comprometer tales sistemas de Machine Learning, incluyendo técnicas diseñadas para engañar a los algoritmos del aprendizaje automático. Hablamos, por ejemplo, de ataque cuando se utilizan datos “envenenados” o “contaminados” para el entrenamiento de un algoritmo o cuando un algoritmo es bombardeado con datos que pueden parecer correctos pero que, en cambio, incluyen una pequeña desviación de la versión original que, al ser demasiado insignificante, resulta difícil de detectar. Este método desdibuja la línea entre los archivos limpios y los dañinos, degradando el modelo y eventualmente generando falsos positivos.

Por ello, el planteamiento de Kaspersky, al que llamamos HuMachine, es una fusión big data, aprendizaje automático y la experiencia de nuestros analistas. Es decir, tiene lo mejor de ambos mundos: la rapidez y exactitud de la inteligencia artificial de una programación avanzada incrementada por la experiencia de los profesionales de la ciberseguridad que luchan contra el malware y protegen a los usuarios, a las empresas y a las infraestructuras de sistemas para que funcionen a salvo.

Alfonso Ramírez, director general de Kaspersky Iberia

Deja un comentario

Scroll al inicio