Las propiedades de los modelos en la XAI son los elementos que deben de ser valorados en un sistema o modelo de Inteligencia Artificial para que pueda ser considerado entendible y explicable para los seres humanos. Habitualmente, a la hora de valorar los modelos y sistemas de Inteligencia Artificial, los autores y profesionales tienen en cuenta la siguiente clasificación para conocer el grado de entendimiento y explicabilidad de estos [8]:
- Confiabilidad. Puede definirse como la capacidad de un modelo de actuar según los previsto ante un problema dado.
- Causalidad. Puede definirse como la capacidad que tiene un modelo de encontrar las relaciones que existen entre las variables y aprender de ellas.
- Transferibilidad. Puede definirse como la capacidad que tiene un modelo de transferir los límites que podrían afectar a un modelo permitiendo una mejor comprensión e implementación.
- Informatividad. Puede definirse como el volumen y uso que se hace de la información dada al modelo. Se considera un aspecto muy importante dentro de la XAI debido a que un volumen escaso de información puede provocar que le modelo caiga en conceptos erróneos.
- Confianza. Puede definirse como la capacidad de un modelo de realizar lo que se espera de él.
- Justicia. Puede definirse como la capacidad de garantizar la equidad dentro de un sistema o modelo. Es decir, que el sistema o modelo no caiga en ningún sesgo.
- Accesibilidad. Puede definirse como la capacidad que permite a los usuarios finales involucrase más en el proceso de mejora y desarrollo del sistema o modelo.
- Interactividad. Puede definirse como la capacidad que tiene un modelo para ser interactivo con el usuario.
- Conciencia de privacidad. Puede definirse como la capacidad de evaluar los aspectos relacionados con la privacidad en un modelo.
Dentro del marco de la XAI se puede llegar a conocer el grado de entendimiento y explicabilidad que tiene un sistema o modelo de IA a través de estas propiedades. Sin embargo, hay que tener en cuenta que el cumplimiento de estas propiedades depende del entorno y contexto en el que se implanta un sistema o modelo de IA, ya que no siempre deben cumplirse todas las propiedades. Existen escenarios en los ámbitos aeronáutico y aeroespacial en los que se debe tener en cuenta que se busca un alto grado de precisión por parte de los modelos ya que pueden encontrarse en entornos críticos. Es decir, entornos en los que su operación es esencial para evitar consecuencias graves como daños en la vida humana, el medio ambiente o pérdidas económicas significativas [2].
Por ello, a la hora de evaluar las propiedades de los modelos, se debe tener en cuenta el trade-off entre precisión e interpretabilidad del modelo [3] en donde todas las propiedades definidas deben tenerse presentes, siempre teniendo en cuenta que alguna de estas puede comprometer la precisión del sistema o modelo y hacer que este no pueda ser implantado en un entorno crítico.
Referencias
- Alejandro Barredo Arrieta (2019) Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI
- Sutthithatip, S., Perinpanayagam, S., & Aslam, S. (2022). Explainable Artificial Intelligence in Aerospace Safety-Critical Systems. IEEE Aerospace Conference.
- Tianwen Zhu, Yongyi Ran, Xin Zhou, Yonggang Wen, A Survey of Predictive Maintenance: Systems, Purposes and Approaches