Definición y objetivos de la XAI 

El término de explicabilidad de la IA,eXplainable AI (XAI) en inglés, tiene su origen en el año 2016 en donde la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA) lanzó el programa XAI con el cual propuso la creación de un conjunto de técnicas de Machine Learning que permitan la creación de modelos más explicables y mantengan un alto nivel de entrenamiento que permitan a los seres humanos el entendimiento y el manejo de la inteligencia artificial. Ante este nuevo paradigma, a lo largo de estos años, diversos autores y profesionales de la Inteligencia Artificial han trabajado en la materia con el fin de realizar aportaciones que fuesen relevantes en el sector intentando dar una definición de qué es la explicabilidad de la IA y cuáles son los objetivos que esta busca a la hora de trabajar con modelos y sistemas de Inteligencia Artificial. Dentro de las definiciones más relevantes y clarificadoras que le han sido dadas a la XAI se puede encontrar la ofrecida por Gunning en 2017 que la define como “Un conjunto de técnicas de aprendizaje automático que permitirá a los usuarios humanos comprender, confiar adecuadamente y gestionar de manera eficaz la generación emergente de socios con inteligencia artificial.o la ofrecida en 2019 por diversos autores que la define como “Dada una audiencia, una Inteligencia Artificial explicable es aquella que produce detalles o razones para hacer claro o fácil de entender su funcionamiento.”. A partir de estas definiciones se puede observar que el principal objetivo que se le atribuye a la XAI es el de la creación de un conjunto de técnicas de aprendizaje automático que, por un lado, produzcan modelos más explicables manteniendo al mismo tiempo un alto nivel de rendimiento de aprendizaje y que, por otro lado, permitan a los humanos comprender, confiar adecuadamente y gestionar eficazmente la generación emergente de socios artificialmente inteligentes. 

Para la consecución del objetivo de conseguir hacer que los sistemas y modelos de Inteligencia Artificial sean entendibles y sencillos para los seres humanos, en la explicabilidad de la IA, se realiza la diferenciación de los sistemas y modelos en función de si son considerados como black-box models que son aquellos que son considerados como opacos, es decir, que por sí mismos debido a su complejidad no se consideran como interpretables o white-box models que son aquellos que debido al algoritmo que se utilizan son entendibles por los seres humanos, es decir, son modelos transparentes. Para poder realizar esta diferenciación dentro de los modelos, otro de los principales objetivos de la XAI, es el de agrupar todos los términos que tienen como preocupación hacer que los modelos y sistemas de Inteligencia Artificial sean más claros y sencillos de entender por los seres humanos. Esto términos antes de la aparición de la XAI habían sido relacionados, pero habían sido tratados de manera independiente, es por este motivo que tras la aparición de la XAI son utilizados para poder definir si un modelo es considerado de caja negra o no: 

  • Interpretabilidad. La interpretabilidad puede definirse cuando hablamos de modelos de Inteligencia Artificial como el grado en el que un humano puede comprender la causa de una decisión
  • Explicabilidad. La explicabilidad puede definirse cuando hablamos de modelos de Inteligencia Artificial como el nivel en el que un sistema puede proporcionar aclaración sobre la causa de sus decisiones/resultados
  • Transparencia. La transparencia puede definirse cuando hablamos de modelos de Inteligencia Artificial como el grado de entendimiento que tiene un modelo por sí mismo
  • Entendimiento. El término de entendimiento, que se considera equivalente al de inteligibilidad, cuando hablamos de modelos de Inteligencia Artificial como la capacidad de un modelo de hacer que un ser humano comprenda su función sin necesidad de explicar su estructura interna o lo medios algorítmicos por los cuales el modelo procesa lo datos internamente
  • Comprensibilidad. El término de comprensibilidad puede definirse como la capacidad de un algoritmo de aprendizaje para representar su conocimiento aprendido de una manera comprensible para los humanos.  Debido a que este término es de difícil cuantificación, la compresibilidad normalmente está relacionada a la evaluación de la complejidad del modelo. 

Relacionado con los objetivos anteriormente mencionados, otro de los objetivos que busca la explicabilidad de la IA, es el de hacer que las explicaciones generadas para poder entender los sistemas y modelos de Inteligencia Artificial sean realizadas en función del tipo de perfil de usuario que las reciba. Por ejemplo, un usuario que tengan un alto conocimiento del dominio puede demandar explicaciones de un bajo nivel que le permitan ampliar su conocimiento, mientras que desarrolladores de los sistemas y modelos pueden demandar explicaciones más enfocadas a entender el funcionamiento interno del modelo y cómo es su rendimiento. Es por este motivo que la XAI busca ser capaz de llegar a distintos perfiles de audiencia y así poder hacer entendible y accesible los sistemas y modelos de Inteligencia Artificial en función de las necesidades de los diferentes tipos de usuarios de estos. 

Por lo tanto, tras los presentado a través de esta sección del documento, pueden definirse que la explicabilidad de la IA tiene como objetivos los siguientes:

  1. Crear un conjunto de técnicas que permita que los sistemas y modelos de Inteligencias Artificial sean entendidos de manera clara y sencilla por los seres humanos.
  2. Agrupar los diferentes términos que pueden verse relacionados en cuanto al entendimiento del funcionamiento de los modelos y sistemas de Inteligencia Artificial.
  3. Adaptar las explicaciones y conclusiones extraídas de los sistemas y modelos de Inteligencia Artificial en función del perfil de seres humanos que está intentado conocer y entender su funcionamiento.

Referencias 

Gunning, D., Stefik, M., Choi, J., Miller, T., Stumpf, S., & Yang, G.-Z. (2019). XAI—Explainable artificial intelligence. Science Robotics, 4. 

Alejandro Barredo Arrieta, Natalia Díaz-Rodríguez, Javier Del Ser, Adrien Bennetot, Siham Tabik, Alberto Barbado, Salvador García, Sergio Gil-López, Daniel Molina, Richard Benjamins, Raja Chatila, Francisco Herrera (2019) Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI 

Molnar, C. (2022). Interpretable machine learning: A guide for making black box models explainable (2nd ed.). Leanpub. https://christophm.github.io/interpretable-ml-book/