La detección de anomalías es una de las aplicaciones más relevantes de la inteligencia artificial en sistemas complejos y críticos. Su objetivo es identificar comportamientos inesperados o desviaciones respecto al funcionamiento normal, lo que permite anticipar fallos, reducir riesgos y mejorar la fiabilidad de los sistemas. En muchos casos, esta tarea se aborda mediante modelos de aprendizaje automático capaces de analizar grandes volúmenes de datos y detectar patrones difíciles de identificar para los humanos.
Entre los modelos más utilizados para la detección de anomalías en datos secuenciales destacan las redes neuronales recurrentes, y en particular las Long Short-Term Memory (LSTM). Estas arquitecturas están diseñadas para capturar dependencias temporales y relaciones a largo plazo, lo que las hace especialmente adecuadas para analizar series temporales. No obstante, su elevada complejidad dificulta la interpretación de sus decisiones, convirtiéndolas en modelos de tipo black-box.
En este contexto, Explainable Artificial Intelligence (XAI) desempeña un papel clave. Las técnicas de XAI permiten explicar por qué un modelo ha identificado una anomalía, aportando información sobre las variables más relevantes o los patrones que han influido en la decisión. Este aspecto es especialmente importante en entornos donde los resultados de los modelos deben ser validados por expertos humanos.
Entre las técnicas de XAI más empleadas se encuentran LIME, SHAP e Integrated Gradients. LIME proporciona explicaciones locales aproximando el comportamiento del modelo alrededor de una predicción concreta. SHAP, basado en la teoría de juegos, asigna a cada característica una contribución cuantificable a la predicción final, ofreciendo tanto explicaciones locales como globales. Por su parte, Integrated Gradients utiliza la información de los gradientes del modelo para identificar la importancia de las características, siendo especialmente útil en redes neuronales profundas.
Estas técnicas no solo aumentan la transparencia de los modelos de detección de anomalías, sino que también facilitan la confianza, la validación y el análisis crítico de los resultados. En lugar de limitarse a indicar la presencia de una anomalía, los modelos explicables permiten comprender los factores que la originan, sentando las bases para su adopción en aplicaciones reales y críticas.
