Categoría: General
-
Modelando dependencias complejas con Cópulas
En entradas anteriores ya mostramos cómo los Modelos de Mezclas Gaussianas (GMM) pueden reproducir con éxito el comportamiento de motores de helicóptero, mejorando la detección de anomalías incluso con pocos datos. Sin embargo, los GMM no son la única forma de abordar el problema. En esta línea, decidimos explorar otra técnica más general y flexible…
-
Escasez de Datos de Fallos en el Sector Aeroespacial
En el sector aeroespacial una de las problemáticas más importantes es la seguridad. Es por ello por lo que, entre otras cosas, la aviación se ha convertido en el medio de transporte más seguro del mundo. Esta seguridad es el resultado de un proceso de mejora continua y de mucho trabajo a nivel de ingeniería…
-
UI para la creación de workflows
Como ya hemos comentado en la entrada anterior, Argo Workflows se ha consolidado como una herramienta robusta y altamente configurable para la orquestación de pipelines sobre Kubernetes. Su enfoque declarativo y su integración nativa con contenedores lo convierten en una pieza clave para arquitecturas modernas de datos, ML y CI/CD. Pero estos workflows se crean…
-
Redes Neuronales Convolucionales
emos estado explorando diferentes arquitecturas de redes neuronales que nos permiten procesar información compleja. Después de ver cómo las RNNs y Transformers manejan secuencias enfocándose en el la temporalidad o las relaciones entre tokens, hoy vamos a hablar de las Redes Neuronales Convolucionales (CNNs). Las CNNs se inspiraron originalmente en el córtex visual de los…
-
LSTM (Long Short-Term Memory)
Ya hemos hablado en nuestras entradas anteriores sobre cómo las Redes Neuronales Recurrentes (RNNs) pueden procesar secuencias y mantener información a través del tiempo. También vimos cómo las GRU simplificaron este proceso con menos parámetros. Hoy profundizaremos en otra arquitectura fundamental: las LSTM (Long Short-Term Memory). Las redes LSTM fueron propuestas en 1997 por Hochreiter…
-
Redes Neuronales Recurrentes
Hoy vamos a hablar de un tipo de red neuronal fundamental para trabajar con datos de naturaleza secuencial, las Redes Neuronales Recurrentes (RNN). Las RNNs son una clase especial de redes neuronales diseñadas específicamente para procesar datos secuenciales, como texto, audio o series temporales. A diferencia de las redes neuronales convencionales (feed-forward), que procesan cada…
-
Hidden Markov Models para la generación sintética de datos.
Los modelos ocultos de Markov (HMM), toman su nombre del matemático ruso Andrey Markov, que desarrolló el concepto de las Cadenas de Markov (Markov Chains). Estas “cadenas” hacen referencia a sistemas en los cuales el siguiente paso depende únicamente del estado actual. Un ejemplo puede ser el juego de la oca, en el cual las…
-
Gaussian Mixture Models para la generación sintética de datos.
Las distribuciones normales o gaussianas están presentes, de una manera u otra, en la mayoría de los modelos estadísticos tradicionales que se usan hoy en día, en los que describimos que los datos provienen de una distribución normal, ya que la naturaleza tiende a seguir esta distribución (lo que llamamos el Teorema del Límite Central)…
-
Elegir el mejor modelo predictivo en MPI
La elección del «mejor» modelo predictivo para un caso de uso práctico de Mantenimiento Predictivo debe realizarse de manera razonada y no en función de mejores o peores resultados con datos de entrenamiento y/o test, o en base a la tendencia generalizada del uso de modelos «de moda» como los modelos «deep learning» de uso…
-
Hacia un Mantenimiento Predictivo en la industria
La Industria 4.0/5.0 ya ha alterado el curso de la logística de fabricación tradicional al transitar hacia paradigmas de fabricación que requieren la implementación de tecnologías novedosas como el Internet de las Cosas (IoT), la Inteligencia Artificial (IA) o el Big data, por citar algunas de ellas. Entre las aplicaciones más importantes de las tecnologías…
