A pesar de que muchos servicios de IA aseguran no almacenar información enviada en caché, se han reportado varios incidentes, especialmente con ChatGPT, donde datos sensibles han sido expuestos a vulnerabilidades en la construcción de estos sistemas.
Para ampliar este problema, Check Point Research ha reportado y ofrecido solución a una nueva vulnerabilidad en los Modelos de Lenguaje Amplio (LLM) utilizados en ChatGPT, Google Bard, Microsoft Bing Chat y otros servicios de IA generativa.
“Si las empresas no tienen una seguridad efectiva para este tipo de aplicaciones y servicios de IA, sus datos privados podrían verse comprometidos y pasar a formar parte de las respuestas de estas” explica Eusebio Nieva, director técnico de Check Point Software para España y Portugal.
ChatGPT expuesto
El uso de IA en el desarrollo de código de software es cada vez más común debido a su facilidad y rapidez. Sin embargo, estas herramientas también pueden ser una fuente inadvertida de filtraciones de datos.
Presente en las principales aplicaciones de IA Generativa de ChatGPT, Google y Microsoft, Check Point Research ha ayudado a evitar la filtración de datos confidenciales de las decenas de millones de usuarios que utilizan estas herramientas
La combinación de usuarios descuidados y la gran cantidad de información compartida crea una oportunidad para los ciberdelincuentes que buscan obtener datos sensibles, como números de tarjetas de crédito y registros de consultas realizadas en estos chats.
Como parte de su solución, Check Point Software pone al servicio de las empresas una herramienta de filtrado de URLs para la identificación de estas webs de IA generativa, con una nueva categoría agregada a su conjunto de controles de gestión de tráfico.
Además, las soluciones de firewall y firewall as-a-service de Check Point Software también incluyen la prevención de pérdida de datos (DLP). Esto permite a los administradores de seguridad de red bloquear la carga de ciertos tipos de datos específicos (código de software, información personal identificable, información confidencial, etc.) al utilizar aplicaciones de IA generativa.
Así, es posible activar medidas de seguridad para protegerse contra el uso indebido de ChatGPT, Bard o Bing Chat. La configuración se realiza en pocos clics a través de la política de seguridad unificada de Check Point Software.