Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

ChatGPT

Los expertos en IA, partidarios de regular los modelos de lenguaje

La IA generativa y los grandes modelos lingüísticos como GPT, BERT o T5 son tendencia clara, pero presentan importantes desafíos relacionados, en su mayoría, con la seguridad y el cumplimiento normativo.

En marzo de 2023, líderes de la industria, investigadores y otros expertos en IA firmaron una carta abierta en la que pedían una «pausa» de seis meses en el desarrollo de IA a gran escala más allá del GPT-4, argumentando que el uso de IA debería ser «transparente, explicable y empíricamente sólido, fomentando la responsabilidad».

Y es que, según el informe «Large Language Models: Opportunity, Risk and Paths Forward» de expert.ai, 2 de cada 3 expertos en Inteligencia Artificial son partidarios de una regulación gubernamental inmediata para el desarrollo de los grandes modelos lingüísticos.

“En los últimos años, modelos LLM como GPT, BERT o T5 han demostrado capacidades inimaginables hasta ahora. Sin embargo, también existen desafíos, muchos de ellos directamente relacionados con la gobernanza y el cumplimiento”, explica Elisa Martínez Frade, vicepresidenta de Ventas de expert.ai para Iberia y Latinoamérica.

La IA y su regulación inmediata 

El informe de expert.ai incluye una pregunta específica en cuanto a los principales hándicaps y desafíos que se encuentran actualmente a la hora de explotar los LLM.

Los encuestados consideran aspectos como la falta de veracidad, los sesgos en la interpretación y el manejo de propiedad intelectual como los principales retos a los que se enfrentan a la hora de evolucionar.

  • La principal preocupación entre los profesionales es la falta de veracidad (69,8%). Un buen ejemplo son las alucinaciones, proceso por el cual el LLM genera texto sin basarse en conocimientos o experiencias del mundo real, lo que le lleva a inventar o fabricar respuestas ficticias o imposibles
  • En segundo lugar, los encuestados señalan que los modelos de IA generativa como GPT a menudo presentan una gran falta de precisión, e incluso pueden llegar a presentar como hechos informaciones falsas o sesgadas (67,3%). Forrester Research llama a esto “sinsentidos coherentes”
  • Por detrás se coloca la lucha contra las ciberamenazas (phishing, fraude, ingeniería social…), factor señalado por el 61,1% de los encuestados
  • Un 59,3% citó como riesgo el hecho de que muchos LLM están formados en base a grandes franjas de información protegida por derechos de autor, lo cual puede dar lugar a filtraciones

Deja un comentario

Scroll al inicio
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.