Fujitsu Laboratories y la Universidad de Hokkaido han anunciado el desarrollo de una nueva tecnología basada en el principio de la “IA Explicable”, que presenta un área de creciente interés en el campo de la IA y el aprendizaje automático.

La “IA Explicable” ofrece la posibilidad de mejorar la transparencia y la fiabilidad de las decisiones tomadas por la IA, lo que permitirá a más personas en el futuro interactuar con las tecnologías que la utilizan, ofreciendo una sensación de confianza y tranquilidad.

A través de la investigación conjunta sobre el aprendizaje automático y data mining se ha desarrollado nuevas tecnologías de IA que pueden explicar a los usuarios las razones de las decisiones de la IA, lo que permite descubrir conocimientos útiles y procesables.

Fujitsu y Universidad de Hokkaido presentan la IA Explicable

Las tecnologías de IA como LIME y SHAP, que se han desarrollado como tecnologías de IA para apoyar la toma de decisiones de los usuarios, hacen que la decisión sea convincente al explicar por qué la IA la tomó.

La nueva tecnología desarrollada conjuntamente se basa en el concepto de explicación contrafactual y presenta la acción en el cambio de atributos y el orden de ejecución como un procedimiento.

La “IA Explicable” ofrece la posibilidad de mejorar la transparencia y la fiabilidad de las decisiones tomadas por la IA

A la vez que evita cambios irreales mediante el análisis de casos anteriores, la IA estima los efectos de los cambios de valores de atributos en otros valores, como la causalidad, y calcula la cantidad que el usuario tiene que cambiar realmente en función de ello.

Por ejemplo, si uno tiene que añadir 1 kg de masa muscular y 7 kg a su peso corporal para reducir el riesgo en el atributo de entrada y su orden que cambia para obtener el resultado deseado en un chequeo médico, es posible estimar la relación analizando la interacción entre la masa muscular y el peso corporal por adelantado.