Las herramientas de IA no son sólo el futuro de nuestro trabajo, sino que ya están presentes, como es el caso de ChatGPT. Sin embargo, es esencial aprender a interactuar de manera segura con estas herramientas para proteger los datos de la empresa.
En este sentido,
OpenAI, la organización que está detrás de ChatGPT, introdujo la opción de desactivar el historial de chat, lo que evita que los datos de los usuarios se utilicen para entrenar y mejorar los modelos de IA de OpenAI.
“Las herramientas de IA pueden ayudarnos a desarrollar ideas, resumir o reformular fragmentos de texto. Sin embargo, al utilizar la IA debemos recordar que los datos que introducimos en las herramientas dejan de pertenecernos en cuanto pulsamos el botón de envío”, recuerda Josep Albors, director de investigación y concienciación de ESET España.
ChatGPT en el trabajo
Los errores técnicos pueden permitir ocasionalmente que personas no autorizadas accedan a datos pertenecientes a otros usuarios del
chatbot. Por ello,
ESET aconseja sobre cómo utilizar plataformas como ChatGPT de forma segura, y advierte de los erres más comunes al utilizar esta herramienta y cómo evitarlos:
- Utilizar datos de clientes como entrada: El primer error común que puedes cometer al utilizar las LLM es compartir inadvertidamente información sensible sobre los clientes de tu empresa. ESET aconseja que anonimices permanentemente tus consultas antes de introducirlas en los chatbots. Para proteger la privacidad de los clientes, anímales a revisar y redactar cuidadosamente los datos sensibles, como nombres, direcciones o números de cuenta. La mejor práctica es evitar el uso de información personal en primer lugar y basarse en preguntas o consultas generales.
ESET aconseja sobre cómo utilizar ChatGPT en el trabajo de manera segura y sin comprometer los datos de la empresa
- Cargar documentos confidenciales en los chatbots: Los chatbots pueden ser herramientas valiosas para resumir rápidamente grandes volúmenes de datos y crear borradores, presentaciones o informes. Aun así, subir documentos a herramientas como ChatGPT puede significar poner en peligro los datos de la empresa o del cliente almacenados en ellos.Para mitigar este riesgo, ESET recuerda que es conveniente poner en marcha políticas estrictas para el manejo de documentos sensibles y limitar el acceso a dichos registros con una política de «necesidad de saber». Es muy importante revisar manualmente los documentos antes de solicitar un resumen o asistencia del chatbot.
- Exponer los datos de la empresa en los avisos: Al igual que introducir documentos confidenciales o datos de clientes en los chatbots, incluir datos confidenciales de la empresa en la solicitud es una práctica común, aunque potencialmente perjudicial, que puede conducir a un acceso no autorizado o a la filtración de información confidencial. Para abordar este problema, la anonimización inmediata debería ser una práctica esencial. Esto significa que nunca se deben introducir nombres, direcciones, datos financieros u otra información personal en las solicitudes de chatbot. Por este motivo, una práctica útil sería utilizar mensajes estandarizados como plantillas.