43
UNIVERSIDAD NACIONAL DEL ALTIPLANO CADENA DE MARKOV

cadenas de markov

Embed Size (px)

DESCRIPTION

cadenas de marcov

Citation preview

Page 1: cadenas de markov

UNIVERSIDAD NACIONAL DEL ALTIPLANO

CADENA DE MARKOV

Page 2: cadenas de markov

Un proceso estocástico es una familia de variables aleatorias parametrizadas por el tiempo

PROCESOS ESTOCÁSTICOS

Page 3: cadenas de markov

Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas.

DEFINICIÓN. DE CADENA DE MARKOV

Page 4: cadenas de markov

Las cadenas de Markov y los procesos de Markov son un tipo especial de procesos estocásticos que poseen la siguiente propiedad:

CADENAS DE MARKOV

Page 5: cadenas de markov

Cadenas de Markov

Page 6: cadenas de markov

Matriz de transición

Page 7: cadenas de markov

Matriz de transición

Page 8: cadenas de markov
Page 9: cadenas de markov

Sjiijpppp

ppp

ppp

Q

,

222120

121110

020100

............

...

...

...

Page 10: cadenas de markov
Page 11: cadenas de markov

CON VARIOS SUCESOS

TRABAJA CON PROBILIDADES

FORMACION DE LA MATRIZ

CADENA DE MARKOV

UNIVERSO

COMPROBACION DE LA MATRIZ

RESULTADOS Y INTERPRETACION

CADENA DE MARKOV

Page 12: cadenas de markov

MATRIZ DE TRANSICION

Page 13: cadenas de markov

CADENA DE MARKOV

Page 14: cadenas de markov

EJEMPLOEl departamento de estudios de mercado de una fábrica estima que el 20% de la gente que compra un producto un mes, no lo comprará el mes siguiente. Además, el 30% de quienes no lo compren un mes lo adquirirá al mes siguiente.

En una población de 1000 individuos, 100 compraron el producto el primer mes. ¿Cuántos lo comprarán al mes próximo? ¿Y dentro de dos meses?

Page 15: cadenas de markov
Page 16: cadenas de markov
Page 17: cadenas de markov
Page 18: cadenas de markov

EJEMPLOSuponga que una fábrica de cemento produce dos tipos de cemento del tipo I y cemento del tipo II. Cuando una persona ha comprado cemento del tipo I hay una probabilidad del 90% de que siga comprando la vez siguiente. Si una persona compra cemento del tipo II, existe una probabilidad del 80% de que se repita la vez siguiente. Se pide a) Si una persona actualmente es comprador de cemento del tipo II. ¿Cuál es la probabilidad de que compre cemento del tipo I pasadas dos compras a partir de hoy? b) Si en la actualidad una persona es comprador de cemento del tipo I. ¿Cuál es la probabilidad de que compre cemento del tipo I pasadas tres compras a partir de ahora?

Page 19: cadenas de markov

SOLUCIÓN•

Page 20: cadenas de markov

MATRIZ DE TRANSICIÓN Estado actual (Xt) Estado siguiente

(X t+1)

I III 0.9 0.1II 0.2 0.8

a) Si una persona actualmente es comprador de cemento del tipo II. ¿Cuál es la

probabilidad de que compre cemento del tipo I pasadas dos compras a partir de

hoy?

P²=

Por lo tanto la probabilidad de que compre cemento del tipo I , pasadas dos compras a partir del momento en el que realizó

la compra de cemento del tipo II es de 0.34.

0.83 0.17

0.34 0.66

Page 21: cadenas de markov

b) Si en la actualidad una persona es comprador de cemento del tipo I. ¿Cuál es la probabilidad de que compre cemento del tipo I pasadas tres compras a partir de ahora?

P3= 0.781 0.219

0.438 0.562

De esta forma podemos decir que la probabilidad de compra del cemento del tipo I por una persona pasadas tres compras es 0.78.

Page 22: cadenas de markov

Después de transcurridos varios días de compra

∏₁ = Probabilidad de comprar cemento del tipo I∏₂ = Probabilidad de comprar cemento del tipo II

∏₁ = (P₁₁* ∏₁) + (P₂₁* ∏₂)∏₂ = (P₁₂* ∏₁) + (P₂₂* ∏₂) 1 = ∏₁ + ∏₂

Reemplazando:∏₁ = (0.9* ∏₁) + (0.2* ∏₂)∏₂ = (0.1* ∏₁) + (0.8* ∏₂)

Resolviendo:∏₁ = 0.67∏₂ = 0.33

Page 23: cadenas de markov

EJEMPLO DE APLICACIÓN 

En una empresa de fabricación de tejas de asbesto cemento es una prioridad el manejo del Scrap(desperdicio) en el proceso productivo debido a que su acumulación sé convierte en un problema ambiental y a su vez una carga en el costo final del producto.

El objetivo es aplicar la teoría fundamental de cadenas de Markov para determinar el comportamiento de la materia prima a futuro en cada proceso.

Page 24: cadenas de markov

ETAPAS EN EL PROCESO DE PRODUCCION HUMECTACION

Page 25: cadenas de markov

ETAPAS EN EL PROCESO DE PRODUCCION FABRICACION

Page 26: cadenas de markov

ETAPAS EN EL PROCESO DE PRODUCCION DESMOLDEADO

Page 27: cadenas de markov

ETAPAS EN EL PROCESO DE PRODUCCION ALMACEN DEL PRODUCTO TERMINADO

Page 28: cadenas de markov

ETAPAS EN EL PROCESO DE PRODUCCION SCRAP(Desperdicio)

Page 29: cadenas de markov

 El proceso se define como una cadena de Markov debido a que cumple la propiedad Markoviana de la siguiente forma: La materia prima fluye por todo el proceso productivo.Al pasar

de un estado a otro. La cantidad de materia prima que llega a un estado, depende

solo de lo que sea capas de pasar como producto bueno el estado anterior.

ICONICO DEL PROCESO

Page 30: cadenas de markov

toneladas toneladas toneladas

Día producidas perdidas recibidas

1 178 0.25 177.752 180 0.13 179.873 175 0.16 174.844 178 0.25 177.755 179 0.25 178.756 176 0.26 175.747 176 0.16 175.848 180 0.25 179.759 175 0.25 174.75

10 179 0.22 178.7811 178 0.24 177.7612 178 0.18 177.8213 178 0.25 177.7514 179 0.22 178.7815 176 0.17 175.8316 176 0.23 175.7717 179 0.14 178.8618 177 0.18 176.8219 177 0.25 176.7520 177 0.22 176.7821 178 0.27 177.7322 179 0.2 178.823 179 0.17 178.8324 180 0.19 179.8125 179 0.17 178.8326 178 0.24 177.7627 176 0.23 175.7728 176 0.2 175.829 175 0.22 174.7830 179 0.15 178.85

53305323.68

6.32

Datos proceso de Humectación

Producción Total=Producción Entregada=Producción Perdida=

Page 31: cadenas de markov

toneladas toneladas toneladasDía producidas perdidas entregadas1 177.75 0.38 177.372 179.87 0.24 179.623 174.84 0.19 174.654 177.75 0.26 177.495 178.75 0.27 178.486 175.74 0.49 175.257 175.84 0.19 175.648 179.75 0.51 179.249 174.75 0.4 174.35

10 178.78 0.29 178.4911 177.76 0.52 177.2412 177.82 0.45 177.3713 177.75 0.41 177.3314 178.78 0.3 178.4815 175.83 0.23 175.616 175.77 0.5 175.2817 178.86 0.27 178.5918 176.82 0.46 176.3619 176.75 0.41 176.3420 176.78 0.5 176.2721 177.73 0.4 177.3422 178.8 0.18 178.6223 178.83 0.28 178.5524 179.81 0.22 179.5925 178.83 0.23 178.626 177.76 0.46 177.327 175.77 0.52 175.2428 175.8 0.46 175.3429 174.78 0.48 174.330 178.85 0.4 178.45

5323.67855312.77

10.9

Producción Total=Producción Entregada=Producción Perdida=

Datos proceso de Fabricación

Page 32: cadenas de markov

toneladas toneladas toneladas

Díadesmoldea

dasperdidas entregadas

1 177.37 2.4 174.962 179.62 2.1 177.523 174.65 2.15 172.54 177.49 2.04 175.455 178.48 2.67 175.816 175.25 2.46 172.797 175.64 2.39 173.258 179.24 2.63 176.619 174.35 2.84 171.5

10 178.49 2.84 175.6511 177.24 2.61 174.6312 177.37 2.13 175.2413 177.33 2.42 174.9214 178.48 2.33 176.1515 175.6 2.42 173.1816 175.28 2.13 173.1417 178.59 2.23 176.3718 176.36 2.36 174.0119 176.34 2.71 173.6420 176.27 2.84 173.4421 177.34 2.73 174.6122 178.62 2.28 176.3523 178.55 2.1 176.4524 179.59 2.03 177.5525 178.6 2.43 176.1726 177.3 2.3 17527 175.24 2 173.2428 175.34 2.8 172.5429 174.3 2.14 172.1630 178.45 2 176.45

5312.775241.27

71.51

Producción Total=Producción Entregada=Producción Perdida=

Datos proceso de Desmoldeo

Page 33: cadenas de markov

toneladas toneladas toneladasDía revisadas perdidas entregadas1 177.09 0.57 176.522 179.27 0.49 178.783 174.3 0.48 173.814 177.16 0.54 176.615 178.29 0.59 177.76 174.99 0.44 174.557 175.3 0.57 174.738 178.97 0.5 178.479 174.08 0.5 173.57

10 178.18 0.45 177.7311 176.98 0.51 176.4812 177.17 0.47 176.6913 177.09 0.55 176.5414 178.23 0.57 177.6715 175.44 0.5 174.9416 174.98 0.54 174.4417 178.3 0.56 177.7318 176.17 0.52 175.6419 176.1 0.54 175.5620 175.92 0.59 175.3421 177.07 0.45 176.6222 178.33 0.42 177.9123 178.37 0.58 177.7924 179.41 0.41 17925 178.4 0.56 177.8426 177.01 0.54 176.4727 175.05 0.41 174.6428 175.12 0.45 174.6629 174.16 0.53 173.6330 178.23 0.52 177.72

5305.15915289.79

15.37Producción Entregada=Producción Perdida=

Datos proceso APT

Producción Total=

Page 34: cadenas de markov

Proporciones

5330

5323.68 0.999

6.32 0.001

Producción Total= 5323.6785

Producción Entregada= 5312.77 0.998

Producción Perdida= 10.9 0.002

Producción Total= 5312.774

Producción Entregada= 5241.267 0.987

Producción Perdida= 71.50624 0.013

Producción Total= 5305.1591

Producción Entregada= 5289.79 0.997

Producción Perdida= 15.37 0.003

Producción Entregada= 0.01

Producción Perdida= 0.99Por norma de calidad 

Producción Perdida=

Proporciones de Fabricación

Proporciones de Desmoldeo

Proporciones de Almacén Producto Terminado

Proporciones de Scrap

Proporciones de Humectación

Producción Total=

Producción Entregada=

CALCULO DE PROBABILIDADES

Page 35: cadenas de markov

H Fab D APT SH 0 0.999 0 0 0.001

Fab 0 0 0.98 0 0.02D 0 0 0 0.987 0.013

APT 0 0 0 0.997 0.003S 0.01 0 0 0 0.99

MATRIZ DE TRANSICIÓN

Page 36: cadenas de markov

ACCESIBILIDAD DE LOS ESTADOS

J es Accesible, si pijn >0

Veamos la matriz original

H Fab D APT SH 0 0.999 0 0 0.001

Fab 0 0 0.98 0 0.02D 0 0 0 0.987 0.013

APT 0 0 0 0.997 0.003S 0.01 0 0 0 0.99

Page 37: cadenas de markov

Ahora multipliquemos la matriz original n veces por ella misma y miremos su comportamiento para P3072

Existe un n=3072 donde los valores de pijn >0.

esto indica que todos los estados j son accesibles.

P3072= 0.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.2350.002 0.002 0.002 0.758 0.235

Page 38: cadenas de markov

CONCURRENCIA DE LOS ESTADOSSea PT la transpuesta de la matriz original, elaborada para calcular las probabilidades de estado estable

Utilizaremos la notación R para indicar la variable π

PT 0 0 0 0 0.010.999 0 0 0 0

0 0.98 0 0 00 0 0.987 0.997 0

0.001 0.02 0.013 0.003 0.99

R1 R2 R3 R4 R5R1= 0 0 0 0 0.01R2= 0.999 0 0 0 0R3= 0 0.98 0 0 0R4= 0 0 0.987 0.997 01= 1 1 1 1 1

Page 39: cadenas de markov

Al resolver el sistema tenemos las siguientes ecuaciones:

Los valores de π, en este caso R son:

R1= 0.010 R5R2= 0.999 R1R3= 0.980 R2R4= 0.987 R3 0.997 R41= 1R1 1R2 1R3 1R4 1R5

R1= 0.002R2= 0.002R3= 0.002R4= 0.758R5= 0.235

Page 40: cadenas de markov

Donde los valores de recurrencia (U) son Ujj = 1/ πj

Los estados Recurrentes positivos presentan uii < inf lo cual cumple para los estados de esta cadena de Markov. Tiempos de recurrencia Uii(es el tiempo esperado que gasta el sistema en volver a estar en i partiendo de i)

U MesesU11 425.1

U22 425.5

U33 434.2

U44 1.3

U55 4.3

Page 41: cadenas de markov

Matriz original

Uij = 1 + Sk#j Pik Ukj

U14= 1 + P11 U14+ P12 U24 + P13 U34 + P15 U54

U24= 1 + P21 U14+ P22 U24 + P23 U34 + P25 U54

U34= 1 + P31 U14+ P32 U24 + P33 U34 + P35 U54

U54= 1 + P51 U14+ P52 U24 + P53 U34 + P55 U54

U14= 1+0.999 U24+0.001 U54

U24=1+0.980 U34+0.02 U54

U34=1+0.013 U54

U54=1+0.010 U14+0.990 U54

0 0.999 0 0 0.0010 0 0.98 0 0.020 0 0 0.987 0.0130 0 0 0.997 0.003

0.01 0 0 0 0.99

Page 42: cadenas de markov

Tiempo de primera ocurrencia.Es tiempo esperado que se gasta para ir del estado i al jU14= 6.46 mesesU24= 5.46 mesesU34= 2.38 mesesU54= 106 mesesEn resumen podemos decir que:A la larga el sistema estara en el estado 4(APT) con una probabilidad de p4=0.758. lo que expresa este termino es que despues de n transiciones la materia prima estara en APT con una probabilidad del 75,8%. Y para la materia prima que va a Scrap, a la larga estara en el estado 5 con una probabilidad de p5=0.235. lo que indica que la probilidad a la larga que la materia prima se vuelva Scrap es del 23.5%.Ahora el tiempo de recurrencia para que el sistema estando en estado 4(APT) vualva a este estado es U44 = 1.3 meses. En otras palabras, es el tiempo que transcurre para que vuelva haber producto terminado es 1.3 meses.En conclusión, se perdera mucha materia prima a la larga.

Page 43: cadenas de markov

GRACIAS