¿Modelos temporales o clásicos? Un caso práctico de detección de anomalías para mantenimiento predictivo

La detección de anomalías es una de las piedras angulares del mantenimiento predictivo en la industria. La capacidad de anticipar fallos en maquinaria a partir de datos de sensores puede traducirse en ahorros significativos y una mayor eficiencia operativa. Sin embargo, la elección del enfoque adecuado para detectar estas anomalías no siempre es trivial: ¿es necesario recurrir a modelos complejos que explotan la temporalidad de los datos, o bastan técnicas más simples y directas?

En este artículo se explora, a través de un caso práctico, la comparación entre modelos de detección de anomalías que consideran la dimensión temporal y aquellos que no lo hacen. El objetivo es responder a una pregunta clave: ¿realmente los modelos temporales, más sofisticados y costosos computacionalmente, ofrecen mejores resultados en todos los escenarios?


El contexto: datos de sensores y mantenimiento predictivo

Imaginemos una planta industrial equipada con sensores que monitorizan variables como temperatura, presión, vibración y estado de la máquina. El objetivo es identificar, a partir de estos datos, patrones anómalos que puedan anticipar un fallo inminente.

Para este estudio, se dispone de un histórico de datos etiquetados, donde cada muestra indica si la máquina estaba en estado normal o anómalo. La pregunta es: ¿cómo abordar la detección de anomalías de la forma más eficiente y precisa?


Dos enfoques: modelos clásicos vs. modelos temporales

1. Modelos clásicos (no temporales)

Estos modelos consideran cada muestra de forma independiente, sin tener en cuenta la secuencia temporal. Entre las técnicas más habituales se encuentran:

  • Autoencoders clásicos: redes neuronales entrenadas para reconstruir la entrada. Las muestras que presentan un error de reconstrucción elevado se consideran anómalas.
  • Reducción de dimensionalidad y clustering: técnicas como t-SNE o PCA para visualizar y separar grupos de comportamiento normal y anómalo.

La principal ventaja de estos métodos es su simplicidad y bajo coste computacional. Además, suelen requerir menos datos y menos tiempo de entrenamiento.

2. Modelos temporales

En este grupo se encuentran los modelos que procesan secuencias de datos, capturando dependencias a lo largo del tiempo. Los más representativos son:

  • Autoencoders secuenciales (LSTM/GRU): diseñados para aprender patrones en ventanas temporales de datos, detectando anomalías en función de la evolución de las señales.
  • Modelos de ventanas deslizantes: la entrada al modelo es una secuencia de muestras consecutivas, permitiendo capturar transiciones y tendencias.

Estos modelos suelen ser más complejos, requieren mayor capacidad de cómputo y, en ocasiones, más datos para entrenar de forma efectiva.


El experimento: ¿la temporalidad aporta valor en este caso?

Para comparar ambos enfoques, se diseñó un experimento con los siguientes pasos:

  1. Preprocesamiento: Los datos se normalizaron y, en el caso de los modelos temporales, se organizaron en ventanas deslizantes.
  2. Entrenamiento: Se entrenaron tanto autoencoders clásicos como autoencoders LSTM/GRU sobre los datos normales.
  3. Evaluación: Se midió la capacidad de ambos enfoques para detectar anomalías en un conjunto de test, utilizando métricas como precisión, recall y F1-score.

Resultados

De forma sorprendente, los modelos temporales no superaron en rendimiento a los modelos clásicos. Las métricas obtenidas fueron muy similares, e incluso en algunos casos los modelos simples ofrecieron una mejor relación entre precisión y falsos positivos.

Esto puede deberse a varias razones:

  • Las anomalías son suficientemente evidentes en una sola muestra: Si el patrón anómalo es claro y no requiere contexto temporal, los modelos simples son suficientes.
  • Ruido temporal: En algunos escenarios, la variabilidad natural de los datos puede dificultar que los modelos temporales aprendan patrones útiles.
  • Complejidad innecesaria: Los modelos temporales pueden sobreajustar o requerir más datos para generalizar correctamente.

Conclusión: menos es más (cuando se puede)

Este caso práctico demuestra que, en ciertos contextos industriales, la simplicidad puede ser la mejor aliada. Si las anomalías pueden detectarse de forma efectiva sin explotar la temporalidad, los modelos clásicos ofrecen ventajas claras: menor coste computacional, mayor interpretabilidad y facilidad de despliegue.

Por supuesto, esto no significa que los modelos temporales no sean útiles. En escenarios donde las anomalías dependen de la evolución de las señales o de patrones complejos a lo largo del tiempo, su uso puede ser imprescindible. Sin embargo, antes de optar por la complejidad, conviene validar si realmente aporta valor en el caso concreto.

Antes de lanzarse a implementar modelos sofisticados, merece la pena probar primero soluciones sencillas. Muchas veces, la respuesta más eficiente es también la más simple.