Archivo de Etiquetas (Tags) | matriz de transición

Preguntas Frecuentes de Cadenas de Markov

cadenas de markov

Una Cadena de Markov en tiempo discreto consiste en una clase particular de un proceso estocástico donde se verifica el cumplimiento de la propiedad markoviana (en términos simples establece que el futuro es independiente del pasado dado el presente) y la propiedad estacionaria (la probabilidad de transición de un estado i a un estado j […]

Continua Leyendo

Cadenas de Markov (Ejercicios Resueltos)

ejercicios cadenas de markov

Un proceso estocástico en tiempo discreto se denomina una Cadena de Markov en tiempo discreto si y solo sí se satisface la Propiedad Markoviana (esto es básicamente que el futuro t=n+1 es independiente del pasado dado el presente t=n) y Propiedad Estacionaria (la probabilidad de pasar de un estado i a un estado j al cabo de […]

Continua Leyendo

Gestión de Inventarios a través de Cadenas de Markov en Tiempo Discreto

política de inventarios cadena de markov

La gestión de inventarios hace uso de distintas herramientas metodológicas que abordan 2 preguntas básicas: ¿de qué tamaño debe ser un pedido? y ¿cada cuánto tiempo se debe realizar un pedido?. En el siguiente artículo se propone la utilización de una Cadena de Markov en tiempo discreto para determinar la política de reposición de inventarios […]

Continua Leyendo

Distribución Límite de una Cadena de Markov en Tiempo Discreto

distribución estacionaria cadena de markov

Una Distribución Límite (estacionaria) de una Cadena de Markov en tiempo discreto consiste en una distribución de estado estable para los estados de una cadena que es independiente de la distribución inicial. En distintas aplicaciones de esta categoría de procesos estocásticos resulta de interés identificar la probabilidad de que la variable aleatoria “Xn” adopte un […]

Continua Leyendo