La IA generativa ha experimentado un asombroso crecimiento en el sector debido a la aparición constante de nuevas aplicaciones disruptivas. Pero, ¿vemos el mismo tipo de disrupción en torno a esta tecnología en el mundo de la delincuencia? La respuesta es no.
Los ciberdelincuentes no son ajenos a las aplicaciones de IA, es más, han abusado de ella incluso antes de que la IA generativa se convirtiera en una tendencia masiva del sector. Desde que tecnologías como GPT-3 y ChatGPT irrumpieran y arrasaran en todo el mundo, el sector de las TI ha sido testigo de una erupción de nuevos grandes modelos lingüísticos (LLM) y herramientas que intentan competir con ChatGPT o llenar los huecos dejados por OpenAI. Estas tecnologías de IA promueven modelos de código abierto o especializados, así como nuevas investigaciones y aplicaciones sobre cómo mejorar e incluso atacar los LLM.
Cabría esperar que el underground de la ciberdelincuencia recogiera estas innovaciones y construyera nuevas y peligrosas aplicaciones, pero lo cierto es que el interés por la IA generativa de los ciberdelincuentes ha seguido la tendencia general del mercado. En el mundo criminal, la mayoría de las conversaciones sobre la IA giran en torno a posibles nuevas formas de eliminar las limitaciones de censura de ChatGPT o a preguntas por nuevas alternativas criminales a ChatGPT.
Evaluación general del uso de la IA criminal
Lo cierto es que ChatGPT se ha convertido en una herramienta útil para todos los desarrolladores del mundo, y los delincuentes no son una excepción, que lo usan desde para mejorar su código, hasta para optimizar los textos de las campañas de spam y phishing, o para eliminar las limitaciones de censura del chatbot. Otro uso es para realizar falsificaciones profundas o deepfakes, es decir, para sustituir una imagen de vídeo de una persona por la de otra para obtener una representación falsa de la víctima. Estos vídeos falsos pueden utilizarse para extorsionar, dar credibilidad a noticias falsas o mejorar la credibilidad de cualquier truco de ingeniería social.
Cabría esperar que el underground de la ciberdelincuencia recogiera estas innovaciones y construyera nuevas y peligrosas aplicaciones
Sin embargo, hoy, generar deepfakes requiere de conocimientos y es costoso, de ahí que sea más probable que los delincuentes opten por intensificar la creación y el uso de deepfakes de audio para reforzar cualquier ataque de ingeniería social.
En definitiva, creemos que los delincuentes no tienen ninguna necesidad real de desarrollar un LLM independiente como ChatGPT porque éste ya funciona lo suficientemente bien para sus necesidades. Está claro que los delincuentes utilizan la IA de la misma forma que todo el mundo, y ChatGPT tiene el mismo impacto entre los ciberdelincuentes que entre los programadores legítimos.
Lo que sí podemos deducir de esto es que el listón para convertirse en ciberdelincuente se ha rebajado enormemente. Cualquiera con pocos escrúpulos puede empezar a crear malware sin conocimientos de programación.
Conclusión
Aunque la IA es un tema de debate de actualidad, vale la pena señalar que ChatGPT es una herramienta reciente, aunque estemos hablando de la era pre-chatbot como si fuera historia antigua.
La IA aún está en sus inicios en el mundo de la delincuencia. Los avances que se están produciendo no son revolucionarios; de hecho, avanzan al mismo ritmo que en cualquier otro sector. Llevar la IA a la ciberdelincuencia es un gran acelerador y reduce significativamente la barrera de entrada. Además, al tratarse del underground del cibercrimen, es probable que los anuncios de estafas sobre herramientas de IA sean tan habituales como los que venden herramientas legítimas. Tal vez los delincuentes puedan pedir ayuda a ChatGPT a la hora de distinguir los buenos servicios de IA de los malos.
Por David Sancho, senior threat researcher de Trend Micro