La creciente adopción de herramientas de inteligencia artificial (IA) y modelos de lenguaje como ChatGPT ha suscitado preocupación a nivel empresarial y personal en cuanto a la seguridad de los datos más sensibles. Así lo destaca el informe sobre seguridad de la IA «ThreatLabz 2024» de Zscaler, donde se revela también que las transacciones de IA/ML aumentaron un 595% entre abril de 2023 y enero de 2024.
“Con la inteligencia artificial en constante evolución, la forma en que la operan las empresas y usuarios es esencial. Para ello, deben adoptar medidas de seguridad sólidas y fiables que les ayuden a proteger los datos sensibles. Además, deben ser proactivas al establecer políticas y controles que permitan el uso seguro de esta tecnología, sin comprometer la integridad y la privacidad de la información”, concluye Carlos Muñoz, System Engineer Manager en Zscaler.
La IA y la privacidad del dato
En la región de EMEA, el Reino Unido lidera el tráfico de transacciones de inteligencia artificial empresarial con más del 20%, seguido por España con un 5,3%, ocupando el sexto lugar en el ranking, según el informe. Pablo Vera, director regional de ventas en España y Portugal en Zscaler, ofrece cinco recomendaciones clave para utilizar la inteligencia artificial sin comprometer la seguridad de los datos:
- Establecer políticas de protección de datos. La fuga de información sensible es uno de los mayores riesgos al usar herramientas de IA generativa. Las empresas deben implementar directrices claras y soluciones robustas para prevenir filtraciones de datos, incluyendo controles de acceso estrictos y monitoreo del uso de aplicaciones de inteligencia artificial, permitiendo la interacción solo a usuarios y dispositivos verificados y autorizados. Zero Trust Exchange de Zscaler proporciona un enfoque integral para esta estrategia, ofreciendo visibilidad total del uso de herramientas de inteligencia artificial y la creación de políticas de acceso detalladas.
- Evaluar la privacidad y seguridad de las aplicaciones de IA. Las empresas deben asegurarse de que la información confidencial y la propiedad intelectual no estén en riesgo. No todas las aplicaciones de inteligencia artificial ofrecen el mismo nivel de privacidad y seguridad, por lo que es crucial evaluar las prácticas de seguridad de las herramientas utilizadas y comprender su funcionamiento antes de adoptarlas.
España ocupa el sexto lugar en las transacciones de IA empresariales en EMEA, con un 5,3%, según un reciente informe de Zscaler
- Monitoreo y análisis continuo del uso de la IA. Las empresas deben implementar mecanismos para monitorear constantemente las interacciones de IA y ML. Zscaler recomienda analizar el tráfico y las interacciones con las herramientas de IA para detectar comportamientos inusuales o potencialmente maliciosos. A través del análisis de más de 18 mil millones de transacciones de IA, la compañía ha identificado tendencias y patrones que permiten a las empresas adelantarse a las amenazas impulsadas por la inteligencia artificial.
- Asegurar la calidad de los datos. Las empresas deben garantizar que los datos utilizados para entrenar y alimentar las aplicaciones de IA sean de alta calidad para evitar resultados erróneos. Es fundamental contar con controles de seguridad sólidos para verificar la integridad y calidad de los datos procesados por las aplicaciones de inteligencia artificial.
- Prepararse contra amenazas potenciadas por la IA. Los atacantes pueden utilizar la IA para desarrollar malware sofisticado, ejecutar campañas de phishing y explotar vulnerabilidades en las superficies de ataque de las empresas. Por ello, Maldonado recomienda que las compañías adopten soluciones de seguridad avanzadas que utilicen inteligencia artificial para combatir estas amenazas. Al integrar la inteligencia artificial en su enfoque de seguridad, las empresas pueden identificar y mitigar las amenazas de manera más efectiva.