Únete a la Comunidad de Directivos de Tecnología, Ciberseguridad e Innovación Byte TI

Encontrarás un espacio diseñado para líderes como tú.

IA normativa

Hacia una Inteligencia Artificial responsable

Siempre he admirado la capacidad de Intel para anticipar cómo la tecnología del futuro podría activar el cambio social. Por eso en el año 2017, incluso antes de que la Inteligencia Artificial (IA) estuviera tan extendida como lo está actualmente, lanzamos nuestro programa de IA responsable (RAI). Desde entonces, hemos visto cómo la IA y, más concretamente, el aprendizaje profundo han progresado significativamente en el avance de muchos campos, como en el de la sanidad, los servicios financieros y la fabricación.

También hemos percibido cómo el rápido avance de los grandes modelos lingüísticos (large language models- LLMs) y el mayor acceso a las aplicaciones de IA generativa han cambiado el mundo. Hoy en día, las personas sin conocimientos formales de IA pueden acceder a potentes herramientas de IA. Esto ha permitido a personas de todo el mundo descubrir y utilizar las capacidades de la IA a escala, mejorando su forma de trabajar, aprender y jugar. Aunque esto ha creado enormes oportunidades para la innovación, también ha aumentado la preocupación por el uso indebido, la seguridad, los prejuicios y la desinformación.

Por todas estas razones, las prácticas responsables en IA son más importantes que nunca.

En Intel creemos que el desarrollo responsable debe ser la base de la innovación en todo el ciclo de vida de la IA para garantizar que la IA se construya, despliegue y utilice de forma segura, sostenible y ética. A medida que la IA sigue evolucionando rápidamente, también lo hacen nuestros esfuerzos de RAI.

Gobernanza Interna y Externa

Una parte clave de nuestra estrategia RAI consiste en utilizar procesos de revisión rigurosos y multidisciplinarios a lo largo del ciclo de vida de la IA. Internamente, los consejos de asesores de Intel revisan diversas actividades de desarrollo de IA a través de la lente de los principios básicos:

  • Respetar los derechos humanos
  • Permitir la supervisión humana
  • Permitir la transparencia y la explicabilidad
  • Fomentar la seguridad y la fiabilidad
  • Diseñar para la privacidad
  • Promover la equidad y la inclusión
  • Proteger el medio ambiente

Muchos aspectos han cambiado con la rápida expansión de la IA generativa, y nosotros hemos cambiado con ella. Desde la elaboración de orientaciones permanentes sobre despliegues internos más seguros de LLM, hasta la investigación y el desarrollo de una taxonomía de las formas específicas en que la IA generativa puede llevar a la gente por mal camino en situaciones del mundo real, estamos trabajando duro para adelantarnos a los riesgos.

Con la expansión de la IA generativa también ha aumentado la preocupación por el impacto medioambiental de la IA, por lo que hemos añadido «proteger el medio ambiente» como nuevo principio básico, en consonancia con los compromisos más amplios de Intel en materia de gestión medioambiental. Si bien no hay nada sencillo en abordar esta compleja área, la IA responsable nunca ha tratado de ser simple. En el año 2017, nos comprometimos a abordar el sesgo incluso cuando todavía se estaban desarrollando métodos para enfrentarlo.

Investigación y Colaboración

A pesar de los grandes avances logrados en la IA responsable, este sigue siendo un campo incipiente. Debemos seguir avanzando en el estado del arte, especialmente dada la mayor complejidad y capacidad de los modelos más recientes. Desde Intel Labs, nos centramos en áreas de investigación clave como: la privacidad, la seguridad, la colaboración entre humanos e IA, la desinformación, la sostenibilidad de la IA, la explicabilidad y la transparencia.

También colaboramos con instituciones académicas de todo el mundo para amplificar el impacto de nuestro trabajo. Recientemente hemos creado el Centro Intel de Excelencia en Sistemas Humanos de Inteligencia Artificial Responsables (RESUMAIS). Este esfuerzo de varios años reúne a cuatro instituciones líderes en investigación. En España: el Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes (ELLIS) de Alicante; y en Alemani: DFKI, el Centro Alemán de Investigación en Inteligencia Artificial; el Centro de Investigación en Tecnologías de la Información FZI; y la Leibniz Universität Hannover. RESUMAIS pretende fomentar el desarrollo ético y centrado en el usuario de la IA, centrándose en cuestiones como la equidad, la colaboración entre humanos e IA, la responsabilidad y la transparencia.

También seguimos creando y participando en varias alianzas de todo el ecosistema para aportar soluciones, normas y puntos de referencia que aborden los nuevos y complejos problemas relacionados con la RAI. Nuestra participación en el MLCommons® AI Safety Working Group, la AI Alliance; Los grupos de trabajo de la Partnership on AI, la Business Roundtable on Human Rights and AI y otras iniciativas de múltiples partes interesadas han sido decisivas para hacer avanzar esta labor, no solo como empresa, sino como sector.

IA inclusiva/Integración de la IA en todas partes Intel cree que llevar la «IA a todas partes» de forma responsable es clave para el avance colectivo de las empresas y la sociedad. Esta creencia es la base del programa de preparación digital de Intel, que trabaja para proporcionar acceso a las habilidades de IA a todo el mundo, independientemente de su ubicación, etnia, género o procedencia. Nos sentimos orgullosos de ampliar nuestros programas AI for Youth y Workforce para incluir un plan de estudios sobre ética aplicada y sostenibilidad medioambiental.

Además, en el tercer Festival AI Global Impact de Intel, los proyectos ganadores se sometieron a una auditoría ética inspirada en el proceso multidisciplinar de Intel. La plataforma del festival también contó con una lección en la que más de 4.500 estudiantes obtuvieron certificaciones en habilidades responsables de IA. Y, por primera vez, se concedieron premios a equipos de proyectos que ofrecieron soluciones innovadoras de accesibilidad utilizando IA.

Mirando hacia adelante

Estamos ampliando nuestros esfuerzos para comprender y mitigar los riesgos únicos creados por la expansión masiva de la IA generativa y desarrollar enfoques innovadores para abordar la seguridad, la protección, la transparencia y la confianza. También estamos trabajando con nuestra organización de Responsabilidad de la Cadena de Suministro para acelerar el progreso en el tratamiento de los derechos humanos de los trabajadores de enriquecimiento de datos globales de IA (es decir, las personas que hacen que los conjuntos de datos de IA sean utilizables a través del etiquetado, la limpieza, la anotación o la validación).

Abordar este problema crítico requerirá esfuerzos de toda la industria, y estamos utilizando nuestra experiencia de dos décadas en abordar cuestiones como el abastecimiento responsable y el trabajo para ayudar a hacer avanzar el ecosistema global.

En el ámbito de la IA responsable, estamos comprometidos con el aprendizaje de nuevos enfoques, la colaboración con socios del sector y con la continuación de nuestro trabajo. Solo así podremos realmente desbloquear el potencial y los beneficios de la inteligencia artificial.

Autor: Lama Nachman, Intel Fellow and director of the Intelligent Systems Research Lab at Intel Labs

Deja un comentario

Scroll al inicio