Categoría: General

  • Modelo C4

    En ingeniería de software, comprender y comunicar la arquitectura de un sistema es tan importante como escribir un buen código. El Modelo C4 es una técnica de notación gráfica ligera que permite describir y documentar la arquitectura de sistemas de software de forma clara, coherente y a diferentes niveles de detalle, facilitando el entendimiento tanto…

  • ¿Estamos preparados para que la IA tome decisiones por sí sola? El futuro (incómodo) del mantenimiento industrial

    Aunque para muchos la inteligencia artificial es algo nuevo, lo cierto es que esta existía mucho antes de la explosión en los medios con los nuevos grandes modelos de lenguaje (LLM). Este concepto residía en algoritmos y modelos con un papel relativamente cómodo: observar, analizar y recomendar. Nos decía cuándo una máquina podía fallar, qué…

  • Modelando dependencias complejas con Cópulas

    En entradas anteriores ya mostramos cómo los Modelos de Mezclas Gaussianas (GMM) pueden reproducir con éxito el comportamiento de motores de helicóptero, mejorando la detección de anomalías incluso con pocos datos. Sin embargo, los GMM no son la única forma de abordar el problema. En esta línea, decidimos explorar otra técnica más general y flexible…

  • Escasez de Datos de Fallos en el Sector Aeroespacial

    En el sector aeroespacial una de las problemáticas más importantes es la seguridad. Es por ello por lo que, entre otras cosas, la aviación se ha convertido en el medio de transporte más seguro del mundo. Esta seguridad es el resultado de un proceso de mejora continua y de mucho trabajo a nivel de ingeniería…

  • UI para la creación de workflows

    Como ya hemos comentado en la entrada anterior, Argo Workflows se ha consolidado como una herramienta robusta y altamente configurable para la orquestación de pipelines sobre Kubernetes. Su enfoque declarativo y su integración nativa con contenedores lo convierten en una pieza clave para arquitecturas modernas de datos, ML y CI/CD. Pero estos workflows se crean…

  • Redes Neuronales Convolucionales

    emos estado explorando diferentes arquitecturas de redes neuronales que nos permiten procesar información compleja. Después de ver cómo las RNNs y Transformers manejan secuencias enfocándose en el la temporalidad o las relaciones entre tokens, hoy vamos a hablar de las Redes Neuronales Convolucionales (CNNs). Las CNNs se inspiraron originalmente en el córtex visual de los…

  • LSTM (Long Short-Term Memory)

    Ya hemos hablado en nuestras entradas anteriores sobre cómo las Redes Neuronales Recurrentes (RNNs) pueden procesar secuencias y mantener información a través del tiempo. También vimos cómo las GRU simplificaron este proceso con menos parámetros. Hoy profundizaremos en otra arquitectura fundamental: las LSTM (Long Short-Term Memory). Las redes LSTM fueron propuestas en 1997 por Hochreiter…

  • Redes Neuronales Recurrentes

    Hoy vamos a hablar de un tipo de red neuronal fundamental para trabajar con datos de naturaleza secuencial, las Redes Neuronales Recurrentes (RNN). Las RNNs son una clase especial de redes neuronales diseñadas específicamente para procesar datos secuenciales, como texto, audio o series temporales. A diferencia de las redes neuronales convencionales (feed-forward), que procesan cada…

  • Hidden Markov Models para la generación sintética de datos.

    Los modelos ocultos de Markov (HMM), toman su nombre del matemático ruso Andrey Markov, que desarrolló el concepto de las Cadenas de Markov (Markov Chains). Estas “cadenas” hacen referencia a sistemas en los cuales el siguiente paso depende únicamente del estado actual. Un ejemplo puede ser el juego de la oca, en el cual las…

  • Gaussian Mixture Models para la generación sintética de datos.

    Las distribuciones normales o gaussianas están presentes, de una manera u otra, en la mayoría de los modelos estadísticos tradicionales que se usan hoy en día, en los que describimos que los datos provienen de una distribución normal, ya que la naturaleza tiende a seguir esta distribución (lo que llamamos el Teorema del Límite Central)…