Comunidad de CIOs Revista Byte TI | Noticias tecnología

Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú, donde podrás explorar tecnologías emergentes, compartir estrategias y colaborar en soluciones de vanguardia

Ciberataques transporte

Los expertos en IA, partidarios de regular los modelos de lenguaje

La IA generativa y los grandes modelos lingüísticos como GPT, BERT o T5 son tendencia clara, pero presentan importantes desafíos relacionados, en su mayoría, con la seguridad y el cumplimiento normativo.

En marzo de 2023, líderes de la industria, investigadores y otros expertos en IA firmaron una carta abierta en la que pedían una «pausa» de seis meses en el desarrollo de IA a gran escala más allá del GPT-4, argumentando que el uso de IA debería ser «transparente, explicable y empíricamente sólido, fomentando la responsabilidad».

Y es que, según el informe «Large Language Models: Opportunity, Risk and Paths Forward» de expert.ai, 2 de cada 3 expertos en Inteligencia Artificial son partidarios de una regulación gubernamental inmediata para el desarrollo de los grandes modelos lingüísticos.

“En los últimos años, modelos LLM como GPT, BERT o T5 han demostrado capacidades inimaginables hasta ahora. Sin embargo, también existen desafíos, muchos de ellos directamente relacionados con la gobernanza y el cumplimiento”, explica Elisa Martínez Frade, vicepresidenta de Ventas de expert.ai para Iberia y Latinoamérica.

La IA y su regulación inmediata 

El informe de expert.ai incluye una pregunta específica en cuanto a los principales hándicaps y desafíos que se encuentran actualmente a la hora de explotar los LLM.

Los encuestados consideran aspectos como la falta de veracidad, los sesgos en la interpretación y el manejo de propiedad intelectual como los principales retos a los que se enfrentan a la hora de evolucionar.

  • La principal preocupación entre los profesionales es la falta de veracidad (69,8%). Un buen ejemplo son las alucinaciones, proceso por el cual el LLM genera texto sin basarse en conocimientos o experiencias del mundo real, lo que le lleva a inventar o fabricar respuestas ficticias o imposibles
  • En segundo lugar, los encuestados señalan que los modelos de IA generativa como GPT a menudo presentan una gran falta de precisión, e incluso pueden llegar a presentar como hechos informaciones falsas o sesgadas (67,3%). Forrester Research llama a esto “sinsentidos coherentes”
  • Por detrás se coloca la lucha contra las ciberamenazas (phishing, fraude, ingeniería social…), factor señalado por el 61,1% de los encuestados
  • Un 59,3% citó como riesgo el hecho de que muchos LLM están formados en base a grandes franjas de información protegida por derechos de autor, lo cual puede dar lugar a filtraciones

Deja un comentario

Scroll al inicio