Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

malware ChatGPT

ChatGPT ¿Riesgo u oportunidad para la ciberseguridad?

El lanzamiento y uso generalizado de ChatGPT, un desarrollo de Inteligencia Artificial Generativa basado en tecnología LLM (modelo de lenguaje extenso), está motivando gran curiosidad y debate sobre la conveniencia de su utilización y los riesgos que puede conllevar.

Vista previa de imagen
Por: Juan Pablo Navarro, Chief Information Security Officer, Sopra-Steria 

Se trata de una forma de aprendizaje automático, basada en modelos de lenguaje y capaz de generar y enlazar ideas y crear respuestas únicas similares a las escritas por los humanos a partir del análisis de multitud de fuentes de información. Del mismo modo, Microsoft ha presentado su propuesta de Bing con IA con una potencia mucho mayor aún que ChatGPT y también Google ha puesto en el mercado su solución Bard. Junto a ellas, están proliferando multitud de propuestas que están revolucionando la forma en la que interactuamos con las computadoras.

Estas herramientas ofrecen grandes oportunidades a las empresas y a los ciudadanos y, sin duda, cambiarán la forma de trabajar, tanto de los usuarios, como de las empresas pero, ¿suponen un riesgo para la ciberseguridad o más bien lo podemos considerar como una ayuda en la implantación de un entorno más seguro?

Hay algunos riesgos para la seguridad que se derivan de ChatGPT, y que persisten en su modelo más avanzado, GPT-4.

Usos maliciosos de la IA con ChatGPT

La principal cuestión a tener en cuenta es la potencial fuga de información y robo de datos. Las organizaciones ya están alertando a sus empleados sobre los riesgos de compartir información sobre la propia empresa en ChatGPT (y aplicaciones similares) que posteriormente pudiera ser desvelada en las respuestas que aprende para ofrecer a usuarios. También han surgido muchas dudas sobre la seguridad de la propia plataforma tras la filtración de datos sufrida recientemente, ya que la información que almacena no está encriptada.

Asimismo, existe el riesgo de que los delincuentes utilicen estas herramientas para escribir correos de phishing convincentes y en varios idiomas enviados con la intención de engañar y obtener información confidencial de los usuarios. El texto generado por la IA está redactado con una gran calidad, lo que elimina las sospechas que puede despertar un phishing normal.

El lanzamient de ChatGPT, un desarrollo de Inteligencia Artificial Generativa, está motivando gran curiosidad y debate sobre la conveniencia de su utilización y los riesgos que puede conllevar

Del mismo modo, es posible realizar otros ataques de ingeniería social mediante la capacidad de estas herramientas para generar imágenes, videos e incluso simular la voz. Se pueden crear falsos perfiles en redes sociales y hacer que parezcan muy realistas. Es fácil imaginar cómo estas identidades falsas pueden ser utilizadas para engañar a las personas y para la realización de fraudes y estafas.

El desarrollo de código malicioso es otra manera para que los ciberdelincuentes, incluso los que no tienen grandes conocimientos de programación, generen virus, troyanos, malware, ransomware y spyware. Ya se han encontrado indicios de actores malintencionados que estarían utilizando ChatGPT para la creación de scripts con fines maliciosos.

Y, aunque hay otros usos, es destacable también la posibilidad de generar noticias falsas o mensajes diseñados para influir en la opinión pública o, por ejemplo, afectar a procesos electorales. La desinformación es una clara cuestión que puede afectar a la seguridad nacional, dañando la cohesión social y los principios democráticos. Pero estas fake news también son susceptibles de afectar a empresas (‘doxing’), con la difusión de bulos, informaciones sesgadas o mediante la manipulación de documentos para dañar la credibilidad de las organizaciones. Su finalidad puede ir, desde el ataque a la reputación, hasta la influencia en los mercados.

Sin embargo, la tecnología, como gran factor de cambio de nuestras sociedades, no está diseñada para ser utilizada con fines malintencionados. Por ello, también queremos analizar aquellas oportunidades que las nuevas herramientas de IA pueden generar en el ámbito de la seguridad, entre las que destacan las siguientes: automatización de tareas rutinarias en funciones de seguridad, apoyo en la detección de phishing, pruebas y testeo de código, identificación de patrones en la gran cantidad de datos que se manejan, estructuración de recomendaciones en cuestiones de seguridad, etc.

Además, las IA generativas pueden ser el primer punto de aprendizaje sobre temas relacionados con la seguridad, la tecnología, o sobre riesgos. Especialmente serán interesantes porque proporcionan multitud de recursos que serán cada vez mejores.

Sin duda, Chat GPT puede ser una herramienta muy útil que facilite nuestra tarea diaria, pero también puede ser potencialmente peligrosa si quien la utiliza lo hace con fines poco éticos. Deberemos estar atentos a la evolución de esta herramienta, así como de todas las basadas en IA que aparecerán próximamente para poder abordar con éxito el reto que suponen, para la seguridad y para la mejora de la eficiencia.

Autor: Juan Pablo Navarro, Chief Information Security Officer, Sopra-Steria 

Deja un comentario

Scroll al inicio