Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

malware ChatGPT

ChatGPT, nuevas oportunidades, nuevos desafíos

El uso generalizado de ChatGPT está abriendo nuevos debates sobre las ventajas de su uso y los riesgos que puede conllevar. Esta tecnología de IA generativa se ha popularizado desde que fue lanzada en noviembre del año pasado por OpenAI.

“Esta nueva herramienta que viene para cambiar nuestra forma de trabajar…¿supone un riesgo para la ciberseguridad o, por el contrario, se trata de una ayuda para mejorar los entornos de seguridad de las empresas?” comenta Sergio Martínez, country manager de SonicWall para Iberia.

ChatGPT, nuevas oportunidades, nuevos desafíos

Sergio Martínez nos da las principales claves de esta herramienta:

El mayor problema radica en la privacidad de los datos, ya que cuando se utiliza para generar texto, es posible que esta herramienta procese y almacene información personal y confidencial. Empresas de la talla de Amazon o Google ya han advertido a sus empleados del peligro de introducir datos personales o confidenciales en este tipo de herramientas, ya que esa información puede ser procesada y utilizada por usuarios terceros.

Por otro lado, podemos hablar de los fraudes y estafas, como el phishing, como segundo gran problema de este tipo de herramientas. ChatGPT puede utilizarse para generar mensajes falsos con el objetivo de persuadir a los usuarios para que revelen información confidencial o hagan clic en enlaces maliciosos con el objetivo de robar credenciales o infectar sistemas con malware.

Nunca se ha invertido tanto en ciberseguridad y jamás fue tan complejo defenderse: Chat GPT y sus efectos

La desinformación también puede considerarse un gran problema de este tipo de herramientas, ya que a través de noticias falsas pueden llegar a influir en la opinión pública. Por otro lado, la suplantación de identidad o los ataques de ingeniería social también están a la orden del día ya que los modelos de lenguaje pueden ser utilizados por los atacantes para imitar la forma de hablar de un usuario específico para a incitar a otros usuarios a realizar acciones maliciosas o para obtener información confidencial.

Los directores de TI, tienen ahora una nueva tarea, minimizar todos los riesgos que esta nueva herramienta es capaz de generar, incluido todo tipo de código malicioso como virus, troyanos, malware, ransomware o spyware. Para ello es fundamental utilizar ChatGPT de manera responsable y segura, y asegurarse de que se implementan medidas de seguridad adecuadas para proteger la privacidad y seguridad de los usuarios y sus datos.

Deja un comentario

Scroll al inicio