La IA generativa y los grandes modelos lingüísticos como GPT, BERT o T5 son tendencia clara, pero presentan importantes desafíos relacionados, en su mayoría, con la seguridad y el cumplimiento normativo.
En marzo de 2023, líderes de la industria, investigadores y otros expertos en IA firmaron una carta abierta en la que pedían una «pausa» de seis meses en el desarrollo de IA a gran escala más allá del GPT-4, argumentando que el uso de IA debería ser «transparente, explicable y empíricamente sólido, fomentando la responsabilidad».
Y es que, según el informe «Large Language Models: Opportunity, Risk and Paths Forward» de expert.ai, 2 de cada 3 expertos en Inteligencia Artificial son partidarios de una regulación gubernamental inmediata para el desarrollo de los grandes modelos lingüísticos.
“En los últimos años, modelos LLM como GPT, BERT o T5 han demostrado capacidades inimaginables hasta ahora. Sin embargo, también existen desafíos, muchos de ellos directamente relacionados con la gobernanza y el cumplimiento”, explica Elisa Martínez Frade, vicepresidenta de Ventas de expert.ai para Iberia y Latinoamérica.
La IA y su regulación inmediata
El informe de expert.ai incluye una pregunta específica en cuanto a los principales hándicaps y desafíos que se encuentran actualmente a la hora de explotar los LLM.
Los encuestados consideran aspectos como la falta de veracidad, los sesgos en la interpretación y el manejo de propiedad intelectual como los principales retos a los que se enfrentan a la hora de evolucionar.
- La principal preocupación entre los profesionales es la falta de veracidad (69,8%). Un buen ejemplo son las alucinaciones, proceso por el cual el LLM genera texto sin basarse en conocimientos o experiencias del mundo real, lo que le lleva a inventar o fabricar respuestas ficticias o imposibles
- En segundo lugar, los encuestados señalan que los modelos de IA generativa como GPT a menudo presentan una gran falta de precisión, e incluso pueden llegar a presentar como hechos informaciones falsas o sesgadas (67,3%). Forrester Research llama a esto “sinsentidos coherentes”
- Por detrás se coloca la lucha contra las ciberamenazas (phishing, fraude, ingeniería social…), factor señalado por el 61,1% de los encuestados
- Un 59,3% citó como riesgo el hecho de que muchos LLM están formados en base a grandes franjas de información protegida por derechos de autor, lo cual puede dar lugar a filtraciones