Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

ataques a la identidad

IA generativa: lo que todo CISO debe saber

Por Greg Young, vicepresidente de ciberseguridad de Trend Micro
Por Greg Young, vicepresidente de ciberseguridad de Trend Micro

Las nuevas tecnologías siempre cambian el panorama de la seguridad, pero es probable que pocas tengan el poder transformador de la IA generativa. A medida que plataformas como ChatGPT siguen ganando terreno, los CISO deben comprender los riesgos de ciberseguridad sin precedentes que conllevan y qué hacer al respecto.

La parte «disruptiva» de las innovaciones disruptivas suele venir de las consecuencias inesperadas que traen consigo. La imprenta facilitó la copia de textos, pero al hacerlo modificó el tejido social, político, económico y religioso de Europa. Al revolucionar la movilidad humana, el automóvil reconfiguró el diseño de las comunidades, dando lugar a los suburbios y a la cultura del automóvil del siglo XX. Más recientemente, la World Wide Web ha transformado por completo la forma en que las personas se conectan entre sí y acceden a la información, replanteando cuestiones como la privacidad, las fronteras geopolíticas y la libertad de expresión.

La IA generativa parece estar a punto de ser tan transformadora como todas ellas, con grandes modelos lingüísticos como ChatGPT y Google Bard y generadores de imágenes como DALL-E que han captado un enorme interés en tan sólo unos meses.

Dada la rápida adopción de estas herramientas, los CISO necesitan comprender urgentemente los riesgos de ciberseguridad asociados, y cómo estos riesgos son radicalmente diferentes de los anteriores.

Adopción desenfrenada

Decir que las empresas están entusiasmadas con las posibilidades de la IA generativa es quedarse muy corto. Según un estudio, solo seis meses después del lanzamiento público de ChatGPT, el 49% de las empresas afirmaron que ya la utilizaban, el 30% que tenían previsto utilizarla y el 93% de los primeros en adoptarla tenían intención de utilizarla más.

¿Para qué sirve? Para todo, desde redactar documentos y generar código informático hasta llevar a cabo interacciones de atención al cliente. Y eso es solo el principio de lo que está por venir. Sus defensores afirman que la IA ayudará a resolver problemas complejos como el cambio climático y a mejorar la salud humana, por ejemplo, acelerando los flujos de trabajo en radiología y haciendo más precisos los resultados de radiografías, tomografías computerizadas (CT scan) y resonancias magnéticas (MRI), al tiempo que mejora los resultados con menos falsos positivos.

Sin embargo, toda nueva tecnología conlleva riesgos, como nuevas vulnerabilidades y modalidades de ataque. En medio de todo el ruido y la confusión que rodean a la IA hoy en día, esos riesgos aún no se comprenden bien.

¿Qué hace diferente a la IA generativa?

El machine learning (ML) y las primeras formas de IA llevan ya algún tiempo entre nosotros. Los coches autónomos, los sistemas bursátiles, las soluciones logísticas, etc., funcionan hoy con alguna combinación de ML e IA. En soluciones de seguridad como XDR, el ML identifica patrones y compara comportamientos, haciendo que las anomalías sean más detectables. La IA actúa como un perro guardián, supervisando la actividad y detectando posibles amenazas basándose en el análisis de ML de lo que parece una actividad normal o que no es una amenaza, activando respuestas automáticas cuando sea necesario.

Pero el ML y las formas más sencillas de IA se limitan, en última instancia, a trabajar con los datos que se han introducido en ellos. La IA generativa es diferente porque sus algoritmos no son necesariamente fijos o estáticos, como suele ocurrir en el ML: a menudo evolucionan constantemente, basándose en las «experiencias» pasadas del sistema como parte de su aprendizaje y permitiéndole crear información completamente nueva.

Hasta ahora, los ciberdelincuentes han evitado en gran medida el ML y otras formas más limitadas de IA porque sus resultados no son especialmente valiosos para la explotación. Pero la capacidad de procesamiento de datos del ML con la creatividad de la IA generativa hace que sea una herramienta de ataque mucho más convincente.

Riesgos de seguridad de la IA Generativa: Preguntas clave

¿Con quién estás hablando realmente?

El matemático e informático británico Alan Turing concibió en la década de 1950 una prueba para comprobar si un ordenador suficientemente avanzado podía ser tomado por humano en una conversación en lenguaje natural. El sistema IA LaMDA de Google superó esa prueba en 2022, lo que pone de manifiesto uno de los principales problemas de seguridad de la IA generativa, es decir, su capacidad para imitar la comunicación humana.

Esa capacidad la convierte en una poderosa herramienta para los esquemas de phishing, que hasta ahora se basaban en mensajes falsos a menudo plagados de faltas de ortografía. En cambio, los textos y correos electrónicos de phishing creados por IA están pulidos y libres de errores, e incluso pueden emular a un remitente conocido, como el CEO de una empresa dando instrucciones a su equipo. Las tecnologías de Deep fake avanzadas llevarán esto un paso más allá con su capacidad para imitar las caras y voces de las personas y crear «escenas» completas que nunca sucedieron.

La IA generativa puede hacer esto no solo de forma individual, sino también a escala, interactuando con muchos usuarios diferentes simultáneamente para lograr la máxima eficacia y posibilidades de penetración. Y detrás de esos esquemas de phishing podría haber código malicioso también generado por programas de IA para su uso en ciberataques.

¿A quién pertenece su información?

Muchas empresas se han subido al carro de los chatbot de IA sin tener plenamente en cuenta las implicaciones para sus datos corporativos, especialmente si hablamos de la información sensible, los secretos de la competencia o los registros regulados por la legislación sobre privacidad. De hecho, actualmente no existen protecciones claras para la información confidencial que se introduce en las plataformas públicas de IA, ya se trate de datos personales de salud proporcionados para programar una cita médica o de información corporativa privada que se ejecuta a través de un chatbot para generar un folleto de marketing.

Las aportaciones a un chatbot de IA público pasan a formar parte de la experiencia de la plataforma y podrían utilizarse en futuros cursos de formación. Incluso si esa formación está moderada por humanos y protegida por la privacidad, las conversaciones aún tienen potencial para «vivir» más allá del intercambio inicial, lo que significa que las empresas no tienen el control total de sus datos una vez que se han compartido.

¿Se puede confiar en lo que dice la IA generativa?

Los chatbots de IA han demostrado ser susceptibles a las llamadas alucinaciones, generando información falsa. Los periodistas de The New York Times preguntaron a ChatGPT cuándo fue la primera vez que su periódico informó sobre inteligencia artificial y la plataforma evocó un artículo de 1956 -con título y todo- que nunca existió. Confiar en los resultados de la IA y compartirlos con clientes, partners o el público, o crear estrategias empresariales basadas en ellos, es claramente un riesgo estratégico y para la reputación de las empresas.

Igualmente, preocupante es la susceptibilidad de la IA generativa a la desinformación. Todas las plataformas de IA se entrenan a partir de conjuntos de datos, lo que hace que su integridad sea de vital importancia. Los desarrolladores utilizan cada vez más Internet en directo y en tiempo real como conjunto de datos actualizados continuamente, lo que expone a los programas de IA al riesgo de estar expuestos a información errónea, ya sea inocentemente incorrecta o manipulada con malicia para distorsionar los resultados de la IA, lo que podría crear riesgos para la seguridad.

¿Qué se puede hacer contra los riesgos de seguridad de la IA generativa?

Muchas empresas de seguridad planean utilizar la IA para combatirla, desarrollando software para reconocer estafas de phishing generadas por IA, deep fakes y otra información falsa. Este tipo de herramientas será cada vez más importante en el futuro.

Aun así, las empresas deben aportar su propia vigilancia, sobre todo porque la IA generativa puede erosionar los silos de información tradicionales que mantienen la información protegida de forma pasiva. Mientras que la nube ha proporcionado a las empresas una especie de simulacro para hacer frente a las responsabilidades de los datos distribuidos y los sistemas abiertos, la IA generativa introduce nuevos niveles de complejidad que deben abordarse con una combinación de herramientas tecnológicas y políticas informadas.

Imaginemos, por ejemplo, una empresa que históricamente ha mantenido la información de las tarjetas de pago de sus clientes (PCI) separada de otros conjuntos de datos. Si alguien de la empresa utiliza una plataforma pública de IA para identificar oportunidades de crecimiento de las ventas basadas en los patrones de gasto anteriores de los clientes, esos datos de PCI podrían convertirse en parte de la base de conocimientos de la IA y aparecer en otros lugares.

Uno de los pasos más importantes que puede dar una empresa para protegerse es evitar pensar que, como no posee ni autoriza el uso de herramientas de IA, no está en peligro. Empleados, partners y clientes pueden estar utilizando plataformas públicas de IA y, consciente o inconscientemente, alimentarlas con información corporativa potencialmente comprometedora.

Está claro que la IA generativa aporta mucho que considerar desde el punto de vista de la ciberseguridad, y solo estamos al principio de hacia dónde nos llevará esta nueva tecnología.

Deja un comentario

Scroll al inicio