Autor: Jesús Palomino Abreu
-
Kubeflow y su potencial en entornos de gemelo digital
Los gemelos digitales han dejado de ser un concepto futurista para convertirse en una herramienta cada vez más habitual en sectores como la industria, la energía o el transporte. Su propósito es claro: replicar digitalmente el comportamiento de un sistema físico, integrando datos en tiempo real, modelos predictivos y simulaciones para ofrecer una representación virtual…
-
Usar Next.js para construir interfaces gráficas conectadas a Argo Workflows
Cuando pensamos en construir una interfaz para diseñar y lanzar flujos de trabajo —especialmente si esos flujos acaban ejecutándose en un sistema como Argo Workflows—, necesitamos algo más que una buena librería de frontend: necesitamos una plataforma que nos permita integrar lógica del lado del servidor, gestionar peticiones a APIs, renderizar vistas dinámicas y mantener…
-
UI para la creación de workflows
Como ya hemos comentado en la entrada anterior, Argo Workflows se ha consolidado como una herramienta robusta y altamente configurable para la orquestación de pipelines sobre Kubernetes. Su enfoque declarativo y su integración nativa con contenedores lo convierten en una pieza clave para arquitecturas modernas de datos, ML y CI/CD. Pero estos workflows se crean…
-
Argo Workflows
En el mundo real, los proyectos de datos rara vez se componen de una única ejecución lineal de código. En cambio, suelen implicar múltiples pasos interdependientes: descarga de datos, preprocesamiento, validaciones, entrenamiento de modelos, pruebas, despliegues, generación de informes… Todo esto en diferentes entornos, con distintas configuraciones, y muchas veces ejecutado de forma periódica o…
-
Introducción a Prefect
Si trabajas en ciencia de datos, probablemente esta historia te suene familiar: empiezas en un notebook, explorando y limpiando datos. Luego, ese notebook se convierte en un script de Python. Pronto, tienes varios scripts: uno para preprocesar los datos, otro para entrenar el modelo, un tercero para generar resultados… y te encuentras con que tienes…
-
Redes Neuronales Convolucionales
emos estado explorando diferentes arquitecturas de redes neuronales que nos permiten procesar información compleja. Después de ver cómo las RNNs y Transformers manejan secuencias enfocándose en el la temporalidad o las relaciones entre tokens, hoy vamos a hablar de las Redes Neuronales Convolucionales (CNNs). Las CNNs se inspiraron originalmente en el córtex visual de los…
-
Transformers y Mecanismos de Atención
En nuestras publicaciones anteriores, hemos explorado cómo modelos como las Redes Neuronales Recurrentes (RNNs) y sus evoluciones, como las GRUs y LSTMs, nos permitieron trabajar con datos secuenciales, recordando información a lo largo del tiempo. Sin embargo, estas arquitecturas tienen sus limitaciones, especialmente cuando intentamos procesar secuencias muy largas o paralelizar el entrenamiento de estas…
-
LSTM (Long Short-Term Memory)
Ya hemos hablado en nuestras entradas anteriores sobre cómo las Redes Neuronales Recurrentes (RNNs) pueden procesar secuencias y mantener información a través del tiempo. También vimos cómo las GRU simplificaron este proceso con menos parámetros. Hoy profundizaremos en otra arquitectura fundamental: las LSTM (Long Short-Term Memory). Las redes LSTM fueron propuestas en 1997 por Hochreiter…
-
GRU (Gated Recurrent Units)
En nuestra entrada anterior hablamos de las Redes Neuronales Recurrentes (RNNs), las cuales eran capaces de recordar información a través del tiempo gracias a un estado oculto. Sin embargo, también vimos que entrenarlas tiene algunas complicaciones como el problema del gradiente evanescente o explosivo. Para superar estos retos, los investigadores desarrollaron arquitecturas más avanzadas, y…
-
Redes Neuronales Recurrentes
Hoy vamos a hablar de un tipo de red neuronal fundamental para trabajar con datos de naturaleza secuencial, las Redes Neuronales Recurrentes (RNN). Las RNNs son una clase especial de redes neuronales diseñadas específicamente para procesar datos secuenciales, como texto, audio o series temporales. A diferencia de las redes neuronales convencionales (feed-forward), que procesan cada…