ética e inteligencia artificial IA conversacional

La inteligencia artificial (IA) ha sido durante mucho tiempo una característica de la tecnología moderna y es cada vez más común en las tecnologías usadas en el lugar de trabajo. Esto se puede ver en España con la creación de Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) en enero de 2020, o el nombramiento del primer director de la oficina del dato dentro de la propia secretaria. El gobierno español apuesta por la IA con inversiones muy potentes.

Sin embargo, según un dossier de ONTSI (Observatorio Nacional de Tecnología y Sociedad) sobre indicadores sobre el uso de la inteligencia artificial en las empresas durante el año 2020 en España y en la Unión Europea, este crecimiento sigue siendo muy lento.

Aunque hay un dato positivo, los datos muestran que España, con una incorporación de IA en las empresas del 7%, supera a la media de la Europa de los 27 que se sitúa en el 6%. Los países líderes son los angloparlantes Irlanda (20%) y Malta (15%), seguidos de Finlandia (10%) y Dinamarca (9%).

Una de las posibles razones de la falta de confianza general en la IA es la posibilidad de que se introduzcan prejuicios poco éticos en el desarrollo de las tecnologías de IA. Si bien es cierto que nadie se propone construir un modelo de IA sin ética, basta con unos pocos casos para que se aplique una ponderación desproporcionada o accidental a ciertos tipos de datos en detrimento de otros, creando sesgos involuntarios.

Los datos demográficos, los nombres, los años de experiencia, las anomalías conocidas y otros tipos de información personal identificable son los tipos de datos que pueden sesgar la IA y conducir a decisiones sesgadas. En esencia, si la IA no está bien diseñada para trabajar con datos, o los datos proporcionados no están limpios, esto puede llevar a que el modelo de IA genere predicciones que podrían plantear problemas con la ética.

Si bien es cierto que nadie se propone construir un modelo de IA sin ética, basta con unos pocos casos para que se aplique una ponderación desproporcionada

El creciente uso de la IA en todos los sectores aumenta la necesidad de modelos de IA que no estén sujetos a sesgos involuntarios, incluso si esto ocurre como un subproducto de cómo se desarrollan los modelos. Afortunadamente, los desarrolladores pueden asegurarse de que sus modelos de IA se diseñen de la forma más justa e igualitaria posible para reducir la posibilidad de sesgos involuntarios y, en consecuencia, ayudar a aumentar la confianza de los usuarios en la IA. Para mejorar el proceso, se deben seguir los siguientes pasos:

Adoptar una mentalidad que dé prioridad a la equidad

Integrar la equidad en todas las etapas del diseño y el desarrollo de la IA es un paso crucial para desarrollar modelos éticos de IA. Sin embargo, los principios de equidad no siempre se aplican de manera uniforme y pueden diferir en función del uso previsto para los modelos de IA, lo que supone un reto para los desarrolladores. Todos los modelos de IA deberían tener los mismos principios de equidad en su núcleo. Por lo tanto, educar a los científicos de datos en la necesidad de construir modelos de IA con una mentalidad de equidad tendrá un efecto significativo en la forma en que se diseñan los modelos.

Los datos limpios despejan el camino de la IA

Con una inversión tan importante en tecnologías de IA, es esencial que las herramientas que se utilicen y produzcan proporcionen un gran retorno de la inversión. Las habilidades, la experiencia y los conocimientos de los profesionales de TI y los científicos de datos que participan en los proyectos de IA pueden determinar el éxito de estos proyectos y, por lo tanto, si van a ofrecer un fuerte retorno. Ser capaz de asegurar que los datos utilizados para los modelos de IA son limpios y relevantes es una habilidad clave que se requiere antes de comenzar un proyecto de IA.

Los profesionales de TI y los científicos de datos deben ser capaces no solo de identificar y proporcionar datos limpios, sino también de entender cómo identificar los resultados que han sido sesgados por datos sesgados. A continuación, pueden volver a entrenar el modelo utilizando datos más apropiados, lo que conduce a la mejora constante de los resultados de los proyectos de IA.

Seguir participando

Aunque una de las ventajas de la IA es su capacidad de reducir la presión sobre los trabajadores humanos para que dediquen su tiempo y energía a tareas menores y repetitivas, y muchos modelos están diseñados para hacer sus propias predicciones, es esencial que los humanos sigan participando en la IA al menos en cierta medida. Esto debe tenerse en cuenta durante toda la fase de desarrollo de un modelo de IA y en su aplicación en el lugar de trabajo. En muchos casos, esto puede implicar el uso de la IA en la sombra, donde tanto los humanos como los modelos de IA trabajan en la misma tarea antes de comparar los resultados para identificar la eficacia del modelo de IA.

Alternativamente, los desarrolladores pueden optar por mantener a los trabajadores humanos dentro del modelo operativo de la tecnología de IA, especialmente en los casos en los que un modelo de IA no tiene suficiente experiencia, lo que les permitirá guiar a la IA o sobrescribir cualquier error para ayudar al sistema a lograr resultados óptimos.

Es probable que el uso de la IA siga aumentando a medida que las organizaciones de ANZ, y del mundo, sigan transformándose digitalmente. Por ello, cada vez está más claro que los desarrollos de la IA tendrán que ser aún más fiables de lo que son actualmente para reducir la posibilidad de sesgos involuntarios y aumentar la confianza de los usuarios en la tecnología.

Ramprakash Ramamoorthy, director de investigación de ManageEngine