Próximos eventos

Adaptando Cloud con Ciberseguridad, 7 de marzo (evento presencial)

Ciberataques

Cómo perder el control de datos personales usando ChatGPT

La relevancia de la IA generativa ha experimentado un notable aumento y ha democratizado su uso tras la aparición de ChatGPT, que en menos de dos meses logró alcanzar loslos 100 millones de usuarios. Lanzada de manera gratuita al público hace un año permite redactar correos electrónicos con el tono y enfoque deseados por el usuario, interpretar textos en diversos formatos como informes o noticias o generar contenido sobre cualquier tema en distintos estilos literarios. Pero tiene sus riesgos que pueden hacer perder a los usuarios el control de datos personales.

Es esencial tener en cuenta que el uso adecuado de ChatGPT implica comprender que se trata de una herramienta que facilita o complementa las labores humanas, pero no las reemplaza. No se puede considerar infalible, por lo que su uso debe ser siempre verificado. Además, es importante destacar que no razona; sus respuestas están directamente relacionadas con los datos con los que ha sido previamente entrenada. En este sentido, Natalia Patiño, consultora legal TIC de Secure&IT, apunta: “Hay habilidades humanas y emociones que no están al alcance de la IA, al menos de momento. Por eso, es importante mantener el equilibrio entre la automatización del Chat GPT y el trabajo humano”.

ChatGPT y su seguridad

El modelo ChatGPT funciona utilizando una técnica de aprendizaje automático conocida como “aprendizaje por transferencia”, un entrenamiento en base a un conjunto de datos a gran escala cuyo resultado sirve, a su vez, para continuar entrenando al modelo de aprendizaje. Esto implica el uso de una cantidad ingente de datos, que es lo que hace posible que las respuestas ofrecidas por la herramienta sean completas.

Cuando el usuario introduce una petición e interactúa con ChatGPT, el modelo ajusta su respuesta en función de la retroalimentación del usuario y los datos contextuales que aporta. En consecuencia, la herramienta genera respuestas cada vez más precisas y similares a la forma humana de expresión.

La información que los usuarios introducen en ChatGPT queda registrada y puede ser reutilizada para seguir “entrenando” a la aplicación.

Pero, para el “entrenamiento” de esta herramienta se utilizan todos los datos que los usuarios introducen en ella. Por eso, es importante tener presente que esa información queda registrada y puede ser reutilizada; también los datos personales.

Natalia Patiño: “La introducción de datos personales y, en general, de información confidencial, implica perder el control sobre esos datos e informaciones. Y, en el caso de los datos personales, esta situación podría suponer un incumplimiento grave de la normativa vigente. En este sentido, es importante puntualizar que un dato personal es cualquier información referida a una persona física, identificada o identificable. Por tanto, no solo habrá que evitar introducir en el ChatGPT datos directamente identificables, sino aquellos que, de forma indirecta, puedan llevar a la identificación. Por este motivo, es muy importante no incluir este tipo de información en las consultas, sobre todo, teniendo en cuenta que actualmente los chats basados en IA son, en general, muy opacos”.

Regular la Inteligencia Artificial en la Unión Europea.

La efectividad de las respuestas proporcionadas por ChatGPT está directamente influenciada por la calidad del «prompt» o la entrada proporcionada, es decir, el contexto proporcionado por el usuario al realizar la solicitud. Es esencial utilizar entradas adecuadas y bien formuladas para obtener resultados satisfactorios de ChatGPT. Una entrada de calidad debe ser clara y, de ser posible, contener palabras clave que faciliten la construcción de la respuesta. Sin embargo, es crucial tener en cuenta que el sistema puede generar respuestas incorrectas, incompletas, inexactas e incluso «alucinaciones», que son respuestas convincentes pero falsas o inventadas.

Adicionalmente, las respuestas generadas pueden estar influenciadas por diversos tipos de sesgos. Un ejemplo de esto es el sesgo de retroalimentación, que ocurre cuando los sistemas de inteligencia artificial aprenden a través de la retroalimentación de los usuarios, perpetuando así prejuicios y estereotipos existentes. Por ejemplo, el edadismo y la discriminación de género pueden persistir en la contratación de personas mayores de cuarenta y cinco años o en la selección exclusiva de perfiles masculinos para puestos directivos si el modelo de IA se basa en información previamente sesgada, según explica Patiño.

El aumento en el uso de estas tecnologías ha generado la necesidad de regular la Inteligencia Artificial en la Unión Europea. Actualmente, Europa se encuentra en las etapas finales de la aprobación de un Reglamento sobre IA, un nuevo marco legal diseñado para abordar no solo los aspectos técnicos, sino también los dilemas éticos y los desafíos prácticos que surgen en diversos sectores.

Deja un comentario

Scroll al inicio