A medida que se generaliza el uso de ChatGPT y otros modelos lingüísticos basados en IA, es importante tener en cuenta los riesgos potenciales que pueden suponer para la sociedad y el mercado laboral.

Una de las principales preocupaciones es que estos modelos puedan automatizar determinados puestos de trabajo, provocando pérdidas de empleo y trastornos económicos. Además, preocupa que la tecnología pueda utilizarse con fines malintencionados.

“Tenemos que empezar a hablar sobre la utilidad que pueden tener para el cibercrimen organizado y para la formación en malas prácticas de nuevos seguidores”, señala Hervé Lambert, Global Consumer Operations Manager de Panda Security.

¿A qué ciberriesgos nos exponemos al utilizar ChatGPT?

ChatGPT consiste en un potente modelo de lenguaje que ha sido entrenado con una gran cantidad de datos de texto. Su éxito viene de su capacidad para generar respuestas similares a las humanas a preguntas en lenguaje natural, lo que lo convierte en una herramienta para una amplia gama de aplicaciones, como chatbots.

  • Mejorar el código de un virus. Esta plataforma permite que millones de usuarios tengan respuestas automáticas y más rápidas a preguntas que ya de por sí podían buscarse en Google. “Lo que hace es facilitar la gestión del tiempo y eso, cuando se trata de un uso inadecuado, puede causar consecuencias irreversibles e importantes” puntualiza el ciberexperto.
  • Desinformación generalizada. La capacidad de ChatGPT para generar respuestas similares a las humanas a preguntas de lenguaje natural puede utilizarse para difundir información errónea. Por ejemplo, un ciberdelincuente podría utilizar el modelo para generar noticias falsas o mensajes en las redes sociales diseñados para influir en la opinión pública o perturbar unas elecciones.

ChatGPT y cuáles son los ciberriesgos al emplearlo

  • Doxing para dañar a empresas y manipular el mercado. En línea con el punto anterior, un mal uso de ChatGPT podría servir para llevar a cabo la difusión de noticias falsas sobre una empresa o producto. En dos vertientes diferentes: “Por un lado podría socavar la reputación e imagen digital de una empresa o personalidad pública o, por otro lado, podría utilizarse para afectar a los precios de las acciones y causar pérdidas financieras a los inversores”, comenta Lambert.
  • Suplantación de identidad y engaño a menores. Esta herramienta puede transformar la forma en que las personas interactúan con otros o comparten datos. Un ciberdelincuente podría utilizar el modelo para crear un perfil falso en las redes sociales o un chatbot que parezca ser una persona real, y luego utilizarlo para llevar a cabo estafas y robo de credenciales y datos bancarios.
  • Escribir emails para hacer phishing. Y no únicamente favorecería el número de ciberataques de phishing, sino que también perfeccionaría el contenido en muchos contextos, países e idiomas diferentes. “Sería mucho más fácil clonar una acción delictiva de éxito en España y lanzarla en 40 idiomas distintos, países distintos con usos y reglas algo diferentes”, explica Lambert.
  • Usar ChatGPT para crear deepfakes. Sería posible que a través de este tipo de herramientas pudiesen desarrollarse bots capaces de copiar la voz, imagen, movimientos gestuales y corporales, la forma de actuar y de hablar de una persona real. “E incluso, la forma de usar las emociones”, apunta Lambert.
  • Suplantación de identidad a través de nuevos modelos de lenguaje por voz. Aunque hay muchas más tecnologías, podemos poner el ejemplo de Microsoft, que ha desarrollado su enfoque de modelado de lenguaje para la síntesis de texto a voz. Se llama VALL-E y es una herramienta IA capaz de reproducir tu voz de forma casi idéntica tras solo escucharte hablar durante tres segundos.