92
 Introducción  Cadenas de Markov en Tiempo Discreto  Cadenas de Markov en Tiempo Contínuo Cadenas de Markov Javier Pereira Núcleo de Red IIE - FING - UdelaR 12 de mayo de 2011 1/56

2011 Cadenas Markov

Embed Size (px)

DESCRIPTION

Procesos estocasticos

Citation preview

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Cadenas de Markov

    Javier Pereira

    Ncleo de Red

    IIE - FING - UdelaR

    12 de mayo de 2011

    1/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Agenda

    Introduccin

    Cadenas de Markov en Tiempo Discreto

    Cadenas de Markov en Tiempo ContnuoProcesos de PoissonProcesos de nacimiento y muerteEjemplos

    2/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Agenda

    Introduccin

    Cadenas de Markov en Tiempo Discreto

    Cadenas de Markov en Tiempo ContnuoProcesos de PoissonProcesos de nacimiento y muerteEjemplos

    3/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Conceptos Introductorios

    Proceso estocsticoUn proceso estocstico X = (Xt , t T ) es una familia devariables aleatorias cuyo ndice t T es llamado el conjunto delos ndices (o parmetro de tiempo) del proceso X.Para cada t T , Xt es una variable aleatoria sobre el espaciode estado del proceso X.

    Espacio de EstadoEl espacio de estado de un proceso estocstico X es elconjunto mnimo E de todos los valores posibles que las V.A. Xtpueden asumir (estados posibles del sistema). Notamos Xt = eel evento que indica que en el instante t el proceso seencuentra en el estado e.

    4/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Conceptos Introductorios

    Proceso estocsticoUn proceso estocstico X = (Xt , t T ) es una familia devariables aleatorias cuyo ndice t T es llamado el conjunto delos ndices (o parmetro de tiempo) del proceso X.Para cada t T , Xt es una variable aleatoria sobre el espaciode estado del proceso X.

    Espacio de EstadoEl espacio de estado de un proceso estocstico X es elconjunto mnimo E de todos los valores posibles que las V.A. Xtpueden asumir (estados posibles del sistema). Notamos Xt = eel evento que indica que en el instante t el proceso seencuentra en el estado e.

    4/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Procesos Estocsticos de Tiempo y Espacio DiscretosEspacio de estados discretoUn espacio de estado discreto X = Xn,n N, tiene comocaracterstica que su parmetro de tiempo vara sobre losnmeros naturales:

    e E n N/P(Xn = e) > 0

    Probabilidad CondicionalEstudiamos dichos procesos suponiendo conocida laprobabilidad condicional de que el proceso est en el estado enen la etapa n, suponiendo que sabemos que el proceso estuvoen el estado e1 en la etapa 1, e2 en la etapa 2 y as hasta laetapa n 1

    P (Xn = en|X0 = e0,X1 = e1, . . . ,Xn1 = en1)5/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Procesos Estocsticos de Tiempo y Espacio DiscretosEspacio de estados discretoUn espacio de estado discreto X = Xn,n N, tiene comocaracterstica que su parmetro de tiempo vara sobre losnmeros naturales:

    e E n N/P(Xn = e) > 0

    Probabilidad CondicionalEstudiamos dichos procesos suponiendo conocida laprobabilidad condicional de que el proceso est en el estado enen la etapa n, suponiendo que sabemos que el proceso estuvoen el estado e1 en la etapa 1, e2 en la etapa 2 y as hasta laetapa n 1

    P (Xn = en|X0 = e0,X1 = e1, . . . ,Xn1 = en1)5/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Evolucin de un proceso

    Evolucin de un procesoDefinimos la evolucin de un proceso como la sucesin deestados por los que va pasando el mismo.

    Probabilidad de ocurrencia de un procesoCada evolucin posible del proceso tiene una probabilidad deocurrencia dada por la distribucin conjunta de lasprobabilidades de ocurrencia en cada etapa.P (Xn = en,Xn1 = en1, . . . ,X0 = e0)

    6/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Evolucin de un proceso

    Evolucin de un procesoDefinimos la evolucin de un proceso como la sucesin deestados por los que va pasando el mismo.

    Probabilidad de ocurrencia de un procesoCada evolucin posible del proceso tiene una probabilidad deocurrencia dada por la distribucin conjunta de lasprobabilidades de ocurrencia en cada etapa.P (Xn = en,Xn1 = en1, . . . ,X0 = e0)

    6/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Evolucin de un proceso - Prob. condicional

    Probabilidad condicionalPara calcular dicha probabilidad se utilizan probabilidadescondicionales.P (Xn = en,Xn1 = en1, . . . ,X0 = e0) =P (Xn = en|Xn1 = en1, . . . ,X0 = e0)P (Xn1 = en1, . . . ,X0 = e0) =P (Xn = en|Xn1 = en1, . . . ,X0 = e0) . . .P (X1 = e1|X0 = e0)P (X0 = e0) =P (X0 = e0)P (X1 = e1|X0 = e0)

    ni=2 P (Xi = ei |Xi1 = ei1, . . . ,X0 = e0)

    7/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejemplo

    A y B dos monedas distintas A normal (con cara y nmero) y B con una cara de cada

    lado Se elige al azar una moneda entre las dos posibles Se lanza la moneda elegida y se observa el resultado Si es un nmero se lanza un dado y se observa el

    resultado Si es cara, la moneda se lanza nuevamente

    8/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejemplo

    Estados posibles: A = la moneda con cara y nmero fue elegida B = la moneda con dos caras fue elegida C = el resultado del lanzamiento de una moneda fue una

    cara N = el resultado del lanzamiento de una mondeda fue

    nmero i {1, . . . ,6} el resultado del lanzamiento del dado fue i

    9/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejemplo

    Espacio de estados discreto, E = {A,B,C,N,1, . . . ,6} Etapas:

    1. Seleccin de una moneda2. Lanzamiento de la moneda3. Se lanza la misma moneda o un dado

    10/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejemplo

    Por un lado

    P(X1 = A) = P(X1 = B) = 12 Adems

    P(X2 = C|X1 = A) = P(X2 = N|X1 = A) = 12 yP(X2 = C|X1 = B) = 1

    Por ltimoP(X3 = C|X2 = C,X1 = B) = 1P(X3 = C|X2 = C,X1 = A) = 12P(X3 = N|X2 = C,X1 = A) = 12P(X3 = i |X2 = N,X1 = A) = 16 con i = 1, . . . ,6

    11/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejemplo Se puede calcular la distribucin conjunta de

    probabilidades para cada evolucin del proceso Dado un proceso estocstico de tiempo y espacio de

    estados discreto es posible representar mediante un rbolde profundidad k todas las evoluciones posibles de ketapas

    12/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejemplo La raz del rbol corresponde al estado inicial del proceso

    estocstico A cada resultado posible de la nsima etapa le

    corresponde un nodo del nivel n + 1 del bol Los arcos estn ponderados por las probabilidades de

    transicin entre los estados del proceso

    13/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Agenda

    Introduccin

    Cadenas de Markov en Tiempo Discreto

    Cadenas de Markov en Tiempo ContnuoProcesos de PoissonProcesos de nacimiento y muerteEjemplos

    14/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generalidades

    Son una clase de procesos estocsticos El comportamiento y la evolucin futura del mismo

    depende del estado actual del proceso (no es lo mismoque sin memoria)

    Son procesos markovianos de espacio de estados discreto

    DefinicinUna cadena de Markov es una secuencia de V.A. discretasXn,n N que poseen la siguiente propiedad:P(Xn+1 = en+1|X0 = e0,X1 = e1, . . . ,Xn = en) =P(Xn+1 = en+1|Xn = en), n N,e0,e1, . . . ,en+1 E

    15/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generalidades

    Son una clase de procesos estocsticos El comportamiento y la evolucin futura del mismo

    depende del estado actual del proceso (no es lo mismoque sin memoria)

    Son procesos markovianos de espacio de estados discreto

    DefinicinUna cadena de Markov es una secuencia de V.A. discretasXn,n N que poseen la siguiente propiedad:P(Xn+1 = en+1|X0 = e0,X1 = e1, . . . ,Xn = en) =P(Xn+1 = en+1|Xn = en), n N,e0,e1, . . . ,en+1 E

    15/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generalidades

    Son una clase de procesos estocsticos El comportamiento y la evolucin futura del mismo

    depende del estado actual del proceso (no es lo mismoque sin memoria)

    Son procesos markovianos de espacio de estados discreto

    DefinicinUna cadena de Markov es una secuencia de V.A. discretasXn,n N que poseen la siguiente propiedad:P(Xn+1 = en+1|X0 = e0,X1 = e1, . . . ,Xn = en) =P(Xn+1 = en+1|Xn = en), n N,e0,e1, . . . ,en+1 E

    15/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generalidades

    Son una clase de procesos estocsticos El comportamiento y la evolucin futura del mismo

    depende del estado actual del proceso (no es lo mismoque sin memoria)

    Son procesos markovianos de espacio de estados discreto

    DefinicinUna cadena de Markov es una secuencia de V.A. discretasXn,n N que poseen la siguiente propiedad:P(Xn+1 = en+1|X0 = e0,X1 = e1, . . . ,Xn = en) =P(Xn+1 = en+1|Xn = en), n N,e0,e1, . . . ,en+1 E

    15/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    GeneralidadesHomogeneidadCuando las probabilidades condicionales de pasaje de unestado al otro son tambin independientes de la etapa ndecimos que la cadena correspondiente es homognea en eltiempo (la probabilidad de pasar a otro estado depende delestado actual y no del tiempo). Las probabilidadescondicionales se reducen a la expresin:P(Xn+1 = j |Xn = i) = pij , i , j E , n 0Probabilidades de transicinLos nmeros pij se denominan probabilidades de transicin ydefinen la probabilidad de que el proceso estando actualmenteen el estado i pase al estado j en su prxima transicin,independientemente de la etapa n en que se encuentre elproceso.

    16/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    GeneralidadesHomogeneidadCuando las probabilidades condicionales de pasaje de unestado al otro son tambin independientes de la etapa ndecimos que la cadena correspondiente es homognea en eltiempo (la probabilidad de pasar a otro estado depende delestado actual y no del tiempo). Las probabilidadescondicionales se reducen a la expresin:P(Xn+1 = j |Xn = i) = pij , i , j E , n 0Probabilidades de transicinLos nmeros pij se denominan probabilidades de transicin ydefinen la probabilidad de que el proceso estando actualmenteen el estado i pase al estado j en su prxima transicin,independientemente de la etapa n en que se encuentre elproceso.

    16/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Matriz de transicin Representamos las probabilidades de transicin en forma

    matricial Es una matriz estocstica, es decir

    pij 0 i , j E

    jE pij = 1 i E

    17/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Distribucin de la cadenaDefinicinLa distribucin de la cadena en tiempo n es el vector fila pin querepresenta las probabilidades de estar en cada estado en elinstante n.

    pin(i) = P(Xn = i), i = 0,1, . . .

    pin es un vector de probabilidad, es decir: pin(i) 0 y

    iE pin = 1

    Se cumple que pin+1 = pinP Si pi0 es la distribucin inicial pin = pi0Pn

    La probabilidad de estar en el estado j en tiempo n es lasuma en todos los caminos posibles

    pin(j) =

    i0,i1,...,in1E pi0(i0)pi0 i1pi1 i2 . . . pin1 i

    18/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Distribucin de la cadenaDefinicinLa distribucin de la cadena en tiempo n es el vector fila pin querepresenta las probabilidades de estar en cada estado en elinstante n.

    pin(i) = P(Xn = i), i = 0,1, . . .

    pin es un vector de probabilidad, es decir: pin(i) 0 y

    iE pin = 1

    Se cumple que pin+1 = pinP Si pi0 es la distribucin inicial pin = pi0Pn

    La probabilidad de estar en el estado j en tiempo n es lasuma en todos los caminos posibles

    pin(j) =

    i0,i1,...,in1E pi0(i0)pi0 i1pi1 i2 . . . pin1 i

    18/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Distribucin de la cadenaDefinicinLa distribucin de la cadena en tiempo n es el vector fila pin querepresenta las probabilidades de estar en cada estado en elinstante n.

    pin(i) = P(Xn = i), i = 0,1, . . .

    pin es un vector de probabilidad, es decir: pin(i) 0 y

    iE pin = 1

    Se cumple que pin+1 = pinP Si pi0 es la distribucin inicial pin = pi0Pn

    La probabilidad de estar en el estado j en tiempo n es lasuma en todos los caminos posibles

    pin(j) =

    i0,i1,...,in1E pi0(i0)pi0 i1pi1 i2 . . . pin1 i

    18/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Distribucin de la cadenaDefinicinLa distribucin de la cadena en tiempo n es el vector fila pin querepresenta las probabilidades de estar en cada estado en elinstante n.

    pin(i) = P(Xn = i), i = 0,1, . . .

    pin es un vector de probabilidad, es decir: pin(i) 0 y

    iE pin = 1

    Se cumple que pin+1 = pinP Si pi0 es la distribucin inicial pin = pi0Pn

    La probabilidad de estar en el estado j en tiempo n es lasuma en todos los caminos posibles

    pin(j) =

    i0,i1,...,in1E pi0(i0)pi0 i1pi1 i2 . . . pin1 i

    18/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Distribucin de la cadenaDefinicinLa distribucin de la cadena en tiempo n es el vector fila pin querepresenta las probabilidades de estar en cada estado en elinstante n.

    pin(i) = P(Xn = i), i = 0,1, . . .

    pin es un vector de probabilidad, es decir: pin(i) 0 y

    iE pin = 1

    Se cumple que pin+1 = pinP Si pi0 es la distribucin inicial pin = pi0Pn

    La probabilidad de estar en el estado j en tiempo n es lasuma en todos los caminos posibles

    pin(j) =

    i0,i1,...,in1E pi0(i0)pi0 i1pi1 i2 . . . pin1 i

    18/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Distribucin de la cadenaDefinicinLa distribucin de la cadena en tiempo n es el vector fila pin querepresenta las probabilidades de estar en cada estado en elinstante n.

    pin(i) = P(Xn = i), i = 0,1, . . .

    pin es un vector de probabilidad, es decir: pin(i) 0 y

    iE pin = 1

    Se cumple que pin+1 = pinP Si pi0 es la distribucin inicial pin = pi0Pn

    La probabilidad de estar en el estado j en tiempo n es lasuma en todos los caminos posibles

    pin(j) =

    i0,i1,...,in1E pi0(i0)pi0 i1pi1 i2 . . . pin1 i

    18/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Transicin en n pasos

    Ecuaciones Chapman - KolmogorovSea pnij = P(Xn+m = j |Xm = i) = P(Xn = j |X0 = i) laprobabilidad de pasar de i a j en n pasos.pn+mij =

    kE p

    mik p

    nkj o matricialmente P

    n+m = PnPm

    19/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Distribucin lmite

    DefinicinSe dice que el vector de probabilidad pi es una distribucinlmite para pi0 si existe pi0 tal que

    pi = lmnpin = lmnpi0P

    n

    20/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Distribucin invariante o estacionaria

    Se dice que una distribucin es invariante si el vector deprobabilidad pi cumple:

    pi = piP

    Si pin0 = pi para algn n0 entonces pin = pi n n0

    21/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ergodicidad

    Una cadena de Markov X es ergdica si existe un vectorde probabilidad pi tal que cualquiera sea la ley inicial pi0:

    pi = lmnpin = lmnpi0P

    n

    En este caso la distribucin lmite es nica

    22/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ecuaciones de Balance

    Si pi es una distribucin invariante:

    pi(j) =i0

    pijpi(i)

    Adems: iE

    pji = 1

    Multiplicando la segunda ecuacin por pij y utilizando laprimera se obtiene:

    pi(j)iE

    pji =iE

    pijpi(i)

    23/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ecuaciones de Balance

    Definicin

    pi(j)iE

    pji =iE

    pijpi(i)

    24/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ecuaciones de Balance

    Ejemplo

    pi(j)(pjm + pji + pjk

    )= pi(i)pij + pi(m)pmj + pi(k)pkj

    25/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Agenda

    Introduccin

    Cadenas de Markov en Tiempo Discreto

    Cadenas de Markov en Tiempo ContnuoProcesos de PoissonProcesos de nacimiento y muerteEjemplos

    26/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generalidades

    Las transiciones ocurren en cualquier instante P(Xt+s = j |Xt = i ,Xu = x(u), 0 u < t) =P(Xt+s = j |Xt = i) i , j E , x(u) : T E , s, t T

    Cuando la cadena es homognea:P(Xt+s = j |Xt = i) = pij(s)i , j E , t , s T

    Chapman - Kolmogorov: P(t + s) = P(t)P(s)

    27/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generalidades

    Las transiciones ocurren en cualquier instante P(Xt+s = j |Xt = i ,Xu = x(u), 0 u < t) =P(Xt+s = j |Xt = i) i , j E , x(u) : T E , s, t T

    Cuando la cadena es homognea:P(Xt+s = j |Xt = i) = pij(s)i , j E , t , s T

    Chapman - Kolmogorov: P(t + s) = P(t)P(s)

    27/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generalidades

    Las transiciones ocurren en cualquier instante P(Xt+s = j |Xt = i ,Xu = x(u), 0 u < t) =P(Xt+s = j |Xt = i) i , j E , x(u) : T E , s, t T

    Cuando la cadena es homognea:P(Xt+s = j |Xt = i) = pij(s)i , j E , t , s T

    Chapman - Kolmogorov: P(t + s) = P(t)P(s)

    27/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generalidades

    Las transiciones ocurren en cualquier instante P(Xt+s = j |Xt = i ,Xu = x(u), 0 u < t) =P(Xt+s = j |Xt = i) i , j E , x(u) : T E , s, t T

    Cuando la cadena es homognea:P(Xt+s = j |Xt = i) = pij(s)i , j E , t , s T

    Chapman - Kolmogorov: P(t + s) = P(t)P(s)

    27/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generalidades

    Las CMTC respetan las siguientes reglas: El tiempo de permanencia en el estado i es una V.A.

    independiente de ley exponencial de parmetro vi (media1/vi )

    Cuando el proceso abandona el estado i , la eleccin delestado j se realiza de acuerdo a las probabilidades detransicin pij

    Estas probabilidades deben satisfacer:pii = 0

    jE pij = 1, i E

    Se puede considerar que una CMTC es un proceso cuyastransiciones se realizan de acuerdo a una CMTD, perodonde el tiempo de permanencia en cada estado es unaV.A. exponencial

    28/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generalidades

    Las CMTC respetan las siguientes reglas: El tiempo de permanencia en el estado i es una V.A.

    independiente de ley exponencial de parmetro vi (media1/vi )

    Cuando el proceso abandona el estado i , la eleccin delestado j se realiza de acuerdo a las probabilidades detransicin pij

    Estas probabilidades deben satisfacer:pii = 0

    jE pij = 1, i E

    Se puede considerar que una CMTC es un proceso cuyastransiciones se realizan de acuerdo a una CMTD, perodonde el tiempo de permanencia en cada estado es unaV.A. exponencial

    28/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generalidades

    Las CMTC respetan las siguientes reglas: El tiempo de permanencia en el estado i es una V.A.

    independiente de ley exponencial de parmetro vi (media1/vi )

    Cuando el proceso abandona el estado i , la eleccin delestado j se realiza de acuerdo a las probabilidades detransicin pij

    Estas probabilidades deben satisfacer:pii = 0

    jE pij = 1, i E

    Se puede considerar que una CMTC es un proceso cuyastransiciones se realizan de acuerdo a una CMTD, perodonde el tiempo de permanencia en cada estado es unaV.A. exponencial

    28/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generalidades

    Las CMTC respetan las siguientes reglas: El tiempo de permanencia en el estado i es una V.A.

    independiente de ley exponencial de parmetro vi (media1/vi )

    Cuando el proceso abandona el estado i , la eleccin delestado j se realiza de acuerdo a las probabilidades detransicin pij

    Estas probabilidades deben satisfacer:pii = 0

    jE pij = 1, i E

    Se puede considerar que una CMTC es un proceso cuyastransiciones se realizan de acuerdo a una CMTD, perodonde el tiempo de permanencia en cada estado es unaV.A. exponencial

    28/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generador infinitesimal

    Se define el generador infinitesimal como la matriz talque:

    qij ={

    pijvi si i 6= jvi si i = j

    Cumple un papel similar a la matriz de transicin de unaCMTD

    La distribucin estacionaria es aquella que se obtiene deresolver el sistema lineal piQ = 0 con la restriccinadicional que:

    pii = 1

    29/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generador infinitesimal

    Se define el generador infinitesimal como la matriz talque:

    qij ={

    pijvi si i 6= jvi si i = j

    Cumple un papel similar a la matriz de transicin de unaCMTD

    La distribucin estacionaria es aquella que se obtiene deresolver el sistema lineal piQ = 0 con la restriccinadicional que:

    pii = 1

    29/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Generador infinitesimal

    Se define el generador infinitesimal como la matriz talque:

    qij ={

    pijvi si i 6= jvi si i = j

    Cumple un papel similar a la matriz de transicin de unaCMTD

    La distribucin estacionaria es aquella que se obtiene deresolver el sistema lineal piQ = 0 con la restriccinadicional que:

    pii = 1

    29/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ecuaciones de Balance

    Si pi es invariante, entonces piQ = 0 Luego:

    pi(j)iE

    qji =iE

    pi(i)qij

    30/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Agenda

    Introduccin

    Cadenas de Markov en Tiempo Discreto

    Cadenas de Markov en Tiempo ContnuoProcesos de PoissonProcesos de nacimiento y muerteEjemplos

    31/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Procesos de conteo

    Subfamilia de los procesos estocsticos de tiempocontnuo y espacio los nmeros naturales {Nt , t 0}

    Cumplen las siguientes condiciones: Nt N, t T (nmero de eventos en el intervalo (0, t ]) N0 = 0 Nt 0, t Si s < t Ns Nt

    Un proceso de conteo es homogneo en el tiempo si elnmero de eventos en un intervalo depende solamente dela longitud del mismo y no de su instante inicial

    32/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Procesos de conteo

    Subfamilia de los procesos estocsticos de tiempocontnuo y espacio los nmeros naturales {Nt , t 0}

    Cumplen las siguientes condiciones: Nt N, t T (nmero de eventos en el intervalo (0, t ]) N0 = 0 Nt 0, t Si s < t Ns Nt

    Un proceso de conteo es homogneo en el tiempo si elnmero de eventos en un intervalo depende solamente dela longitud del mismo y no de su instante inicial

    32/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Procesos de conteo

    Subfamilia de los procesos estocsticos de tiempocontnuo y espacio los nmeros naturales {Nt , t 0}

    Cumplen las siguientes condiciones: Nt N, t T (nmero de eventos en el intervalo (0, t ]) N0 = 0 Nt 0, t Si s < t Ns Nt

    Un proceso de conteo es homogneo en el tiempo si elnmero de eventos en un intervalo depende solamente dela longitud del mismo y no de su instante inicial

    32/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Definicin y propiedades T1,T2, . . . son V.A. exponenciales independientes de

    parmetro P(T1 t) = P(Nt = 0) = et

    33/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Propiedades de la ley exponencial

    34/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Propiedades de los procesos de Poisson

    Proceso de conteo Es estacionario y tiene incrementos independientes Nt+s Ns tiene la misma distribucin que Nt y es Poisson

    de parmetro t

    P(Nt+s Ns = k) = (t)k

    k !et

    35/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Agenda

    Introduccin

    Cadenas de Markov en Tiempo Discreto

    Cadenas de Markov en Tiempo ContnuoProcesos de PoissonProcesos de nacimiento y muerteEjemplos

    36/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Definicin y propiedades

    Supongamos que en el sistema hay n clientes el tiempo del siguiente arribo es exponencial de parmetro (la tasa de llegada de un nuevo individuo es una V.A. deesperanza 1 )

    el tiempo de servicio es exponencial de parmetro (eltiempo hasta la partida de un individuo presente en elsistema es una V.A. de esperanza 1 )

    Sea Nt la cantidad de clientes en el sistema en el tiempo t.Se dice que Nt es un proceso de nacimiento y muerte

    37/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Definicin y propiedades

    Supongamos que en el sistema hay n clientes el tiempo del siguiente arribo es exponencial de parmetro (la tasa de llegada de un nuevo individuo es una V.A. deesperanza 1 )

    el tiempo de servicio es exponencial de parmetro (eltiempo hasta la partida de un individuo presente en elsistema es una V.A. de esperanza 1 )

    Sea Nt la cantidad de clientes en el sistema en el tiempo t.Se dice que Nt es un proceso de nacimiento y muerte

    37/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Estabilidad

    DefinicinTodo proceso de nacimiento y muerte con espacio de estadosinfinito y de parmetros {n}n=0 , {n}n=1 es estable si y solosi se verifican las siguientes condiciones:

    n=0

    nk=0

    kk+1

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ecuaciones de balance

    Estados Ecuacinde balance

    0 1p1 = 0p00, 1 2p2 = 1p1. . . . . .

    0, 1, . . . , n 1, n n+1pn+1 = npn

    39/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ecuaciones de balance

    Se pueden despejar las probabilidades en funcin de laprobabilidad de estar en el estado inicial

    pn =n1n2 . . . 0nn1 . . . 1

    p0

    Debe cumplirse que

    n=0 pn = 1 por lo que se obtiene lasiguiente expresin para p0:

    p0 =1

    1 +

    n=1

    (n1n2...0nn1...1

    )

    40/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Clculos tiles

    Cantidad esperada de clientes en el sistemaCon esta informacin podemos calcular la cantidad media declientes en el sistema como el valor esperado del estado delproceso:

    n =n=0

    npn

    41/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Clculos tiles

    Nmero medio de clientes en la colaSea s el nmero de servidores del sistema. El largo esperadode la fila est dado por la esperanza de la cantidad depersonas en la fila. Supongamos que el proceso se encuentraen el estado n (es decir, hay n clientes en el sistema).

    v =

    n=s+1

    (n s)pn

    42/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Clculos tiles

    Cantidad esperada de servidores ocupadosDe manera similar, podemos definir la cantidad esperada deservidores ocupados.

    =s

    n=0

    npn +

    n=s+1

    spn

    Se cumple que n = v +

    43/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Clculos tiles

    Tiempo esperado de permanencia en el sistema (Little 1)

    ts =n

    =n=0

    npn

    44/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Clculos tiles

    Tiempo esperado de permanencia en la fila (Little 2)

    tf =v

    45/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Propiedad PASTA (Poisson Arrivals See Time Averages)

    Se considera un sistema de colas en estado estacionariocon arribos Poisson

    La probabilidad de que un cliente al llegar encuentre alsistema en el estado i , es igual a la probabilidadestacionaria de que el sistema se encuentre en dichoestado

    p(i) = P(Nt = i |arribo en t) = pi(i) = lmt

    Ti(t)t

    46/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Propiedad PASTA (Poisson Arrivals See Time Averages)

    La probabilidad de que al llegar un cliente, encuentre elsistema vaco, es la probabilidad estacionaria de que elsistema est vaco

    En un sistema con colas finitas, la probabilidad de que alllegar un cliente sea rechazado, es la probabilidad de queel sistema se encuentre en el estado correspondiente aesa cantidad de clientes en espera

    47/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Propiedad PASTA (Poisson Arrivals See Time Averages)

    La probabilidad de que al llegar un cliente, encuentre elsistema vaco, es la probabilidad estacionaria de que elsistema est vaco

    En un sistema con colas finitas, la probabilidad de que alllegar un cliente sea rechazado, es la probabilidad de queel sistema se encuentre en el estado correspondiente aesa cantidad de clientes en espera

    47/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Vale PASTA en otros casos?

    Supongamos arribos determinsticos cada 10 s y tiempode servicio de 9 s

    Cuando un cliente arriba el sistema est siempre vaco,por lo tanto la probabilidad de que este observe un clienteen el sistema es p(1) = 0

    Sin embargo la probabilidad de que exista un cliente en elsistema es pi(1) = 0,9

    48/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Vale PASTA en otros casos?

    Supongamos arribos determinsticos cada 10 s y tiempode servicio de 9 s

    Cuando un cliente arriba el sistema est siempre vaco,por lo tanto la probabilidad de que este observe un clienteen el sistema es p(1) = 0

    Sin embargo la probabilidad de que exista un cliente en elsistema es pi(1) = 0,9

    48/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Vale PASTA en otros casos?

    Supongamos arribos determinsticos cada 10 s y tiempode servicio de 9 s

    Cuando un cliente arriba el sistema est siempre vaco,por lo tanto la probabilidad de que este observe un clienteen el sistema es p(1) = 0

    Sin embargo la probabilidad de que exista un cliente en elsistema es pi(1) = 0,9

    48/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Agenda

    Introduccin

    Cadenas de Markov en Tiempo Discreto

    Cadenas de Markov en Tiempo ContnuoProcesos de PoissonProcesos de nacimiento y muerteEjemplos

    49/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 1

    LetraConsidere cierta parte de una red de telefona sobre IP la cuales conectada al resto de la red a travs de 4 de sus nodos. Endicha subred, se estima que el nmero promedio de paqueteses de 1000.Las tasas de arribo de los paquetes desde otras partes de lared hacia esos 4 nodos son:

    1 = 200pps 2 = 300pps 3 = 400pps 4 = 500pps

    Cunto tiempo reside, en promedio, un paquete en dichasubred?

    50/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 1

    Solucin

    Por un lado N = 1000 El trfico total ofrecido a la red es: tot =

    4i=1 i = 1400

    (paquetes) Aplicando la frmula de Little tenemos que el retardo

    medio es: T = N =10001400 0,71s

    51/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 1

    Solucin

    Por un lado N = 1000 El trfico total ofrecido a la red es: tot =

    4i=1 i = 1400

    (paquetes) Aplicando la frmula de Little tenemos que el retardo

    medio es: T = N =10001400 0,71s

    51/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 1

    Solucin

    Por un lado N = 1000 El trfico total ofrecido a la red es: tot =

    4i=1 i = 1400

    (paquetes) Aplicando la frmula de Little tenemos que el retardo

    medio es: T = N =10001400 0,71s

    51/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 2LetraPedidos de coneccin arriban a un servidor de acuerdo a unproceso de Poisson de intensidad . Si el servidor estsobrecargado, su throughput colapsa rpidamente. Paraprevenir dicho incidente, el servidor implementa un control decongestin tal que el mismo, luego de aceptar una conexin,rechaza cualquier nueva conexin durante un perodo detiempo T . Se asume que no hay reintentos de peticin deconexin por parte de las conexiones rechazadas.

    a Cuntas conexiones son aceptadas, en promedio, porunidad de tiempo?

    b Determine la tasa de pedidos aceptados en casosextremos cuando T es muy grande o muy chico,respectivamente.

    52/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 2LetraPedidos de coneccin arriban a un servidor de acuerdo a unproceso de Poisson de intensidad . Si el servidor estsobrecargado, su throughput colapsa rpidamente. Paraprevenir dicho incidente, el servidor implementa un control decongestin tal que el mismo, luego de aceptar una conexin,rechaza cualquier nueva conexin durante un perodo detiempo T . Se asume que no hay reintentos de peticin deconexin por parte de las conexiones rechazadas.

    a Cuntas conexiones son aceptadas, en promedio, porunidad de tiempo?

    b Determine la tasa de pedidos aceptados en casosextremos cuando T es muy grande o muy chico,respectivamente.

    52/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 2LetraPedidos de coneccin arriban a un servidor de acuerdo a unproceso de Poisson de intensidad . Si el servidor estsobrecargado, su throughput colapsa rpidamente. Paraprevenir dicho incidente, el servidor implementa un control decongestin tal que el mismo, luego de aceptar una conexin,rechaza cualquier nueva conexin durante un perodo detiempo T . Se asume que no hay reintentos de peticin deconexin por parte de las conexiones rechazadas.

    a Cuntas conexiones son aceptadas, en promedio, porunidad de tiempo?

    b Determine la tasa de pedidos aceptados en casosextremos cuando T es muy grande o muy chico,respectivamente.

    52/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 2

    Solucin

    a El tiempo medio entre dos peticiones aceptadas es T + 1 ,por lo que en promedio 1

    T+ 1

    peticiones son aceptadas por

    unidad de tiempob Por un lado tenemos que lmT 1T+ 1

    = 1T , mientras que

    lmT0 1T+ 1

    =

    53/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 2

    Solucin

    a El tiempo medio entre dos peticiones aceptadas es T + 1 ,por lo que en promedio 1

    T+ 1

    peticiones son aceptadas por

    unidad de tiempob Por un lado tenemos que lmT 1T+ 1

    = 1T , mientras que

    lmT0 1T+ 1

    =

    53/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 3

    LetraSea X una V.A que modela la duracin de una llamada enminutos. Suponga que X Exp() y P(X > 3) = 12 .

    a Determine el parmetro .b Cul es la duracin media de las llamadas?c Cul es la probabilidad de que la duracin de una llamada

    sea mayor a 6 minutos?

    54/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 3

    LetraSea X una V.A que modela la duracin de una llamada enminutos. Suponga que X Exp() y P(X > 3) = 12 .

    a Determine el parmetro .b Cul es la duracin media de las llamadas?c Cul es la probabilidad de que la duracin de una llamada

    sea mayor a 6 minutos?

    54/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 3

    LetraSea X una V.A que modela la duracin de una llamada enminutos. Suponga que X Exp() y P(X > 3) = 12 .

    a Determine el parmetro .b Cul es la duracin media de las llamadas?c Cul es la probabilidad de que la duracin de una llamada

    sea mayor a 6 minutos?

    54/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 3

    LetraSea X una V.A que modela la duracin de una llamada enminutos. Suponga que X Exp() y P(X > 3) = 12 .

    a Determine el parmetro .b Cul es la duracin media de las llamadas?c Cul es la probabilidad de que la duracin de una llamada

    sea mayor a 6 minutos?

    54/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 3

    Solucin

    a P(X > 3) = e3 = 12 = 0,231b E(X ) = 1 = 4,33 minutosc P(X > 6) = e6 = 0,25

    55/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 3

    Solucin

    a P(X > 3) = e3 = 12 = 0,231b E(X ) = 1 = 4,33 minutosc P(X > 6) = e6 = 0,25

    55/56

  • Introduccin Cadenas de Markov en Tiempo Discreto Cadenas de Markov en Tiempo Contnuo

    Ejercicio 3

    Solucin

    a P(X > 3) = e3 = 12 = 0,231b E(X ) = 1 = 4,33 minutosc P(X > 6) = e6 = 0,25

    55/56

  • Apndice

    Dr.Ing. Pablo BelzarenaMaterial de cadenas de Markov del curso .Evaluacin dePerformance en Redes de Telecomunicaciones (IIE)http://iie.fing.edu.uy/ense/asign/perfredes/

    Dr.Ing. Franco RobledoMaterial terico del curso Introduccin a la Investigacinde Operaciones (INCO)http://www.fing.edu.uy/inco/cursos/io/

    Helsinki University of TechnologyIndtroduction to Teletraffic Theory, Spring 2007http://www.netlab.tkk.fi/opetus/s381145/k07/exercises.shtml

    56/56

    IntroduccinCadenas de Markov en Tiempo DiscretoCadenas de Markov en Tiempo ContnuoProcesos de PoissonProcesos de nacimiento y muerteEjemplos

    ApndiceApndice