Transcript
Page 1: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

AMPLIACION DE

PROCESOS ESTOCASTICOS

Paloma Perez Fernandez5o¯ de Matematicas

Page 2: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

i

Indice

Capıtulo I: TEORIA L2 DE PROCESOS ESTOCASTICOS 1Leccion 1: Introduccion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2Leccion 2: Funciones de Covarianza. . . . . . . . . . . . . . . . . . . . . . . . . . 9Leccion 3: Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16Leccion 4: Calculo de Segundo Orden. . . . . . . . . . . . . . . . . . . . . . . . . 24Leccion 5: Desarrollo de Karhunen–Loeve. . . . . . . . . . . . . . . . . . . . . . . 29Leccion 6: Problemas de Estimacion. . . . . . . . . . . . . . . . . . . . . . . . . . 34Leccion 7: El filtro de Kalman. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

Capıtulo II: ANALISIS DE LAS TRAYECTORIAS DE PROCESOS ESTOCASTI-COS A TIEMPO CONTINUO 44Leccion 8: Separabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45Leccion 9: Medibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53Leccion 10: Analisis de las trayectorias en un movimiento browniano. . . . . . . . 57Leccion 11: Ley del logaritmo iterado: aplicacion al movimiento browniano. . . . 63

Capıtulo III: ALGUNOS TIPOS ESPECIALES DE PROCESOS ESTOCASTICOS ATIEMPO CONTINUO 67Leccion 12: Procesos de Markov. Cadenas de Markov en tiempo continuo. . . . . 68Leccion 13: Procesos con Incrementos Independientes. . . . . . . . . . . . . . . . 84Leccion 14: Martingalas a Tiempo Continuo. . . . . . . . . . . . . . . . . . . . . 88Leccion 15: Tiempos de Parada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

Page 3: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Capıtulo I

TEORIA L2 DE PROCESOS ESTOCASTICOS

I.1. Introduccion: Introduccion a la teorıa de procesos estocasticos: Definiciones deproceso estocastico y distribuciones finito-dimensionales; teorema de extension deKolmogorov; procesos equivalentes y modificacion de un proceso. La distribucionnormal en Rn.

I.2. Funciones de Covarianza: L2–procesos y funciones de covarianza. Estacionaridad.Caracterizacion analıtica de las funciones de covarianza: Teoremas de Herglotz yBochner.

I.3. Ejemplos de L2–procesos: Proceso de Poisson. Movimiento browniano o Procesode Wiener.

I.4. Calculo de segundo orden: L2–continuidad, L2–diferenciabilidad, L2–integracion.

I.5. Desarrollo de Karhunen–Loeve: Teorema de Karhunen–Loeve. Version del teo-rema para procesos gaussianos. Ejemplo.

I.6. Problemas de estimacion: Estimaciones basadas en operaciones lineales o enoperaciones Borel–medibles de las Xt. Relaciones entre ambas. Ejemplo.

I.7. El filtro de Kalman: Estimador lineal de mınima varianza: teorema de Gauss–Markov. Teorema de actualizacion estatica. El filtro de Kalman: teorema de Kalman.

Referencias capıtulo I: Ash, Gardner (1975), Catlin (1989).

1

Page 4: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

2

Leccion 1: Introduccion.

Definicion. (Proceso estocastico) Sean T un conjunto de ındices, (Ω,A, P ) un espaciode probabilidad y (Ω′,A′) un espacio medible. Un proceso estocastico (sobre T ) es unafamilia (Xt)t∈T de v.a. definidas en (Ω,A, P ) y a valores en (Ω′,A′). Cuando deseemosmas precision, llamaremos proceso estocastico la cuaterna

(Ω,A, P, (Xt)t∈T ).

Ω suele llamarse espacio muestral del proceso. Ω′ es el espacio de los estados. Para cadaω ∈ Ω, la aplicacion t ∈ T −→ Xt(ω) se llamara trayectoria de ω. T suele llamarse espaciotemporal del proceso.

Observaciones. 1) La nocion de proceso estocastico constituye un modelo matematicopara representar el estado de un sistema dependiente de un parametro (generalmente, eltiempo t) y del azar. Un tal modelo se presenta de forma natural como una aplicacion(t, ω) −→ X(t, ω) definida en T ×Ω y a valores en Ω′ que describe los estados del sistema.En un instante t fijo, el estado del sistema depende unicamente del azar, y queda descritopor el hecho de que X(t, ·) es una v.a. que en la definicion anterior hemos denotado porXt. Por ello, Xt suele llamarse estado del sistema en el instante t.

2) Puede darse una definicion mas general de proceso estocastico haciendo dependerdel tiempo el espacio de estados (es decir, suponiendo que Xt es una v.a. en Ω y a valoresen un cierto espacio medible (Ωt,At)). Este no sera, sin embargo, normalmente el caso.Incluso, el espacio de los estados (Ω′,A′) es frecuentemente un espacio discreto o un espacioeuclıdeo. Si (Ω′,A′) = (R,R) diremos que (Xt) es un proceso estocastico real.

3) Normalmente T sera un subconjunto de R: bien un intervalo de R (casi siempresera un intervalo de [0, +∞[) en el caso de parametro continuo, bien un intervalo de Z(casi siempre de N) en el caso de parametro discreto.

Definicion. (Distribuciones finito-dimensionales de un proceso) Si (Xt) es un procesoestocastico como en la definicion anterior, llamaremos distribuciones finito-dimensionalesa las distribuciones conjuntas de las subfamilias finitas de (Xt)t∈T . Ası, si t1, . . . , tn ∈ T ,la distribucion de probabilidad P(t1,...,tn) definida para C ∈ A′n por

P(t1,...,tn)(C) = P [(Xt1 , . . . , Xtn) ∈ C]

es una distribucion finito-dimensional del proceso.

Observacion. La familia de las distribuciones finito-dimensionales de un proceso cons-tituye uno de los aspectos mas importantes del mismo pues esta familia determina elproceso en algun sentido a precisar posteriormente y, porque en la practica, realizando unnumero suficientemente grande de pruebas independientes, es posible estimar con precisionarbitraria probabilidades del tipo P(t1,...,tn)(C) y, en general, nada mas se puede obtenerde las observaciones.

Nuestro objetivo inmediato consiste en obtener el teorema de extension de Kolmogorovque resuelve el problema de caracterizar el proceso en terminos de sus distribuciones finito-dimensionales. Notemos en primer lugar que las distribuciones finito-dimensionales del

Page 5: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

3

proceso (Xt) satisfacen lo siguiente:i) Si π es una permutacion en 1, . . . , n y H1, . . . , Hn ∈ A′, entonces los sucesos

(Xt1 , . . . , Xtn) ∈ H1 × · · · ×Hn y (Xtπ(1), . . . , Xtπ(n)

) ∈ Hπ(1) × · · · ×Hπ(n)

coinciden y, en particular

P(t1,,...,tn)(H1 × · · · ×Hn) = P(tπ(1),...,tπ(n))(Hπ(1) × · · · ×Hπ(n)).

ii) P(t1,...,tn−1)(H1 × · · · ×Hn−1) = P(t1,...,tn)(H1 × · · · ×Hn−1 × Ω′).

La condicion i) anterior nos permite considerar unicamente las distribuciones finito-dimensionales de la forma P(t1,,...,tn) tales que t1 < . . . < tn (si T no fuese un subconjun-to de R, considerar en T un orden total arbitrario), pues estas determinan todas lasdemas. Fijemos algunas notaciones mas comodas. Si V = t1, . . . , tn es un subcon-junto finito de T con t1 < . . . < tn denotaremos por PV la probabilidad P(t1,...,tn); siU = ti1 , . . . , tir ⊂ V y ti1 < . . . < tir , entonces denotaremos por pr(V,U) la aplicacion(xt1 , . . . , xtn) ∈ Rn −→ (xti1

, . . . , xtir ) ∈ Rr. Si V es como antes, prV denotara la apli-cacion x ∈ RT −→ (xt1 , . . . , xtn) ∈ Rn. De acuerdo con estas notaciones, la condicion ii)anterior afirma que la distribucion de probabilidad de la v.a. pr(V,t1,...,tn−1) respecto aPV es P(t1,...,tn−1). De i) e ii) se sigue tambien que si V y U son como antes entonces PU

es la distribucion de probabilidad de pr(V,U) respecto a PV .La construccion estandar de procesos estocasticos utiliza espacios producto.

Definicion. Sea T un conjunto no vacıo y supongamos que, para cada t ∈ T , (Ωt,At)es un espacio medible. Denotaremos Ω =

∏t∈T Ωt. Llamaremos cilindro medible n-dimensional

en Ω a un subconjunto de Ω de la forma

c(B) = ω ∈ Ω: (ωt1 , . . . , ωtn) ∈ B

donde B ∈ ∏ni=1Ati (se dice tambien que c(B) es un cilindro de base B). Si B = B1×· · ·×

Bn donde Bi ∈ Ati , 1 ≤ i ≤ n, diremos que c(B) es un rectangulo medible. Denotaremospor

∏t∈T At la σ-algebra en Ω engendrada por los cilindros medibles en Ω.

Observaciones. 1) Con las notaciones de la definicion anterior, tanto la familia de loscilindros medibles en Ω como la de las uniones finitas de rectangulos medibles en Ω sonalgebras en Ω que engendran la σ-algebra producto.

2) Si todos los espacios medibles (Ωt,At) coinciden con un cierto espacio medible(Ω,A), el espacio medible producto lo denotaremos por (ΩT ,AT ).

Pretendemos ahora construir en (RT ,RT ) una probabilidad a partir de probabilidadesP(t1,...,tn) en Rn definidas para cada coleccion creciente de ındices t1 < . . . < tn y cadan ∈ N, supuesto que estas probabilidades satisfacen una cierta condicion de consistencia.

Antes de enunciar y probar el teorema de extension de Kolmogorov recordaremosalgunos conceptos y resultados de teorıa de la medida que necesitaremos en la demos-tracion de ese teorema: si A0 es un algebra de partes de un conjunto Ω, una funcionde conjuntos µ : A0 −→ [0, +∞] se dice numerablemente aditiva si para cada sucesionfinita o infinita numerable y disjunta (An)n en A0 tal que ∪nAn ∈ A0 se verifica que

Page 6: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

4

µ(∪nAn) =∑

n µ(An). Se prueba que si µ es una medida finitamente aditiva en el algebraA0 y es continua por arriba en el vacıo (es decir, para cada sucesion (An) en A0 decrecien-te a ∅ se verifica que lımn µ(An) = 0) entonces µ es numerablemente aditiva. El teoremade extension de Caratheodory afirma que si µ es una medida (es decir, una funcion deconjuntos numerablemente aditiva) en un algebra A0 y si es σ–finita, entonces admiteuna unica extension a una medida en la σ–algebra σ(A0) engendrada por A0. Necesita-remos tambien el siguiente resultado: Si µ es una medida finita en la σ–algebra Rn deBorel en Rn, entonces µ es interiormente regular, es decir, para cada boreliano B en Rn,µ(B) = supµ(K) : K compacto ⊂ B.

Teorema 1. (De extension de Kolmogorov: 1a version) Sea T un conjunto no vacıo ysupongamos que, para cada subconjunto finito no vacıo V de T , PV es una probabilidad enRn si V tiene n elementos. Supongamos que estas probabilidades satisfacen la condicionde consistencia:

(CC) Para cada subconjunto U no vacıo de V la distribucion de probabilidad de pr(V,U)

respecto a PV es PU .

Entonces existe una unica probabilidad P en RT tal que, para cada subconjunto finitoV de T , la distribucion de prV respecto a P coincide con PV , es decir, tal que para cadan ∈ N, cada sucesion finita creciente t1 < . . . < tn en T y cada H ∈ Rn se verifica que

P (x ∈ RT : (xt1 , . . . , xtn) ∈ H = P(t1,...,tn)(H).

Demostracion. Si A es un cilindro n-dimensional de la forma

A = x ∈ RT : (xt1 , . . . , xtn) ∈ Hcon t1 < . . . < tn y H ∈ Rn definimos P (A) = P(t1,...,tn)(H). Debemos probar en primerlugar que esta definicion no depende de la representacion del cilindro A. Supuesto quetambien A = x ∈ RT : (xs1 , . . . , xsm) ∈ H ′ con s1 < . . . < sm y H ′ ∈ Rm, hagamos

u1, . . . , ur = t1, . . . , tn ∪ s1, . . . , smcon r ≥ max(m, n) y u1 < . . . < ur; sean tambien 1 ≤ m1 < . . . < mn ≤ r tales queti = umi , 1 ≤ i ≤ n. Entonces

A = x ∈ RT : (xt1 , . . . , xtn) ∈ H= x ∈ RT : (xum1

, . . . , xumn) ∈ H

= x ∈ RT : (xu1 , . . . , xur) ∈ H1donde H1 = (xu1 , . . . , xur) ∈ Rr : (xum1

, . . . , xumn) ∈ H, es decir, H1 = pr−1

(V,U)(H)donde V = u1, . . . , ur y U = um1 , . . . , umn = t1, . . . , tn. La condicion de consistenciaprueba que P(t1,...,tn)(H) = PV (H1). Analogamente se prueba que P(s1,...,sm)(H ′) = PV (H ′

1)donde H ′

1 = (xu1 , . . . , xur) ∈ Rr : (xs1 , . . . , xsm) ∈ H ′ = H1. Luego la definicion deP (A) es correcta. Sean ahora A y B cilindros medibles disjuntos. Puesto que todo cilindrok-dimensional puede considerarse obviamente como m-dimensional para cada m ≥ k,podemos suponer que los ındices que definen A y B son los mismos:

A = x ∈ RT : (xt1 , . . . , xtn) ∈ HA, B = x ∈ RT : (xt1 , . . . , xtn) ∈ HB.

Page 7: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

5

Siendo A ∩B = ∅ debe ser HA ∩HB = ∅ y, entonces

P (A ∪B) = P(t1,...,tn)(HA ∪HB) = P (A) + P (B)

que prueba que P es finitamente aditiva en el algebra A0 de los cilindros medibles. Sesigue tambien que P (RT ) = 1. Si probamos que P es numerablemente aditiva en A0,el teorema de extension de Caratheodory asegurara la existencia de una extension de Pa una probabilidad en RT . Basta para ello probar que si (An)n es una sucesion en A0

decreciente a ∅ entonces lımn P (An) = 0. Supongamos que, por el contrario, existe ε > 0tal que P (An) ≥ ε para cada n ∈ N. Podemos suponer sin perdida de generalidad queexiste una sucesion (tn)n en T tal que

An = x ∈ RT : (xt1 , . . . , xtn) ∈ Hncon Hn ∈ Rn para cada n ∈ N. Entonces P (An) = P(t1,...,tn)(Hn), ∀n. La regularidadinterior de las P(t1,...,tn) prueba que existen compactos Kn ⊂ Hn tales que

P(t1,...,tn)(Hn \Kn) < ε/2n+1, ∀n.

Si Bn = x : (xt1 , . . . , xtn) ∈ Kn entonces P (An \ Bn) < ε/2n+1. Sea Cn = ∩nk=1Bk.

Entonces Cn ⊂ Bn ⊂ An y P (An \ Cn) < ε/2. Luego P (Cn) > ε/2 > 0 y, en particular,Cn 6= ∅. Sea x(n) ∈ Cn, n ∈ N. Si n ≥ k entonces x(n) ∈ Cn ⊂ Ck ⊂ Bk y, por tanto,

(x(n)t1

, . . . , x(n)tk

) ∈ Kk.

Puesto que Kk es acotado, la sucesion (x(n)tk

)n∈N es acotada para cada k ∈ N. Por un

procedimiento diagonal, elijamos n1 < n2 < . . . en N tales que lımi x(ni)tk

exista para cada

k ∈ N. Sea x ∈ RT tal que xtk = lımi x(ni)tk

para cada k. Entonces, para cada k ∈ N,

(xt1 , . . . , xtk) = lımi

(x(ni)t1

, . . . , x(ni)tk

) ∈ Kk.

Luego x ∈ Bk ⊂ Ak, ∀k, en contra de que ∩kAk = ∅. De esta contradiccion se sigue queP admite una extension a una probabilidad en RT que satisface la tesis por definicion.Finalmente, si P y Q son dos probabilidades en RT satisfaciendo el teorema, entoncescoinciden sobre los cilindros medibles y, por tanto, en RT por la unicidad en el teoremade Caratheodory.

Observacion. Supongamos que Pt es una probabilidad enR para cada t ∈ T . Aplicandoel teorema anterior a las probabilidades producto

∏ni=1 Pti se obtiene un teorema de la

medida producto en el caso de una cantidad arbitraria de factores.

Consideremos ahora las aplicaciones coordenadas Zt : x ∈ RT −→ xt ∈ R. Si (PV )V finito ⊂T

es una familia de probabilidades que satisface las hipotesis del teorema anterior y si P esla probabilidad en RT que proporciona dicho teorema, entonces para cada n ∈ N, cadasucesion finita creciente t1 < . . . < tn en T y cada H ∈ Rn se verifica que

P [(Zt1 , . . . , Ztn) ∈ H] = P(t1,...,tn)(H).

Ası pues, (RT ,RT , P, (Zt)t∈T ) es un proceso estocastico cuyas distribuciones finito-dimensionalesson precisamente las PV . Podemos entonces enunciar el siguiente teorema, que asegura laexistencia de un proceso estocastico con unas distribuciones finito-dimensionales dadas deantemano (supuesto que estas verifican una condicion de consistencia).

Page 8: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

6

Teorema 2. (de extension de Kolmogorov: 2a version) Si (PV )V finito ⊂T es una fa-milia de probabilidades que satisfacen la condicion de consistencia (1) del teorema ante-rior, entonces existe un proceso estocastico (Ω,A, P, (Xt)t∈T ) cuyas distribuciones finito-dimensionales son precisamente las PV .

Demostracion. Consideremos las aplicaciones coordenadas Zt : x ∈ RT −→ xt ∈ R.Dichas aplicaciones son medibles. Si (PV )V finito ⊂T es una familia de distribuciones deprobabilidad satisfaciendo la condicion de consistencia del teorema anterior y si P es laprobabilidad en RT cuya existencia se asegura en ese teorema entonces, si n ∈ N y sit1 < . . . < tn se tiene que

P (x ∈ RT : (Zt1(x), . . . , Ztn(x)) ∈ H) = P(t1,...,tn)(H)

para cada H ∈ Rn lo que prueba que (RT ,RT , P, (Zt)t∈T ) es un proceso estocastico cuyasdistribuciones finito-dimensionales son precisamente las PV .

Las definiciones siguientes precisan hasta que punto un proceso estocastico queda de-terminado por sus distribuciones finito-dimensionales.

Definicion. a) Consideremos dos procesos estocasticos reales sobre el mismo espa-cio temporal (Ω,A, P, (Xt)t∈T ) y (Ω′,A′, P ′, (X ′

t)t∈T ). Diremos que dichos procesos sonequivalentes si

P (Xt1 ∈ A1, . . . , Xtn ∈ An) = P ′(X ′t1 ∈ A1, . . . , X

′tn ∈ An)

para cada subconjunto finito t1, . . . , tn de T y cada familia finita A1, . . . , An en R.b) Sean (Xt)t∈T e (Yt)t∈T dos procesos estocasticos reales en el mismo espacio pro-

babilıstico (Ω,A, P ) y sobre el mismo espacio temporal T . Diremos que (Yt) es una mo-dificacion de (Xt) si Xt = Yt P -c.s. para cada t ∈ T . Diremos que dichos procesos sonP -indistinguibles si existe A ∈ A tal que P (A) = 0 y Xt(ω) = Yt(ω) para cada ω ∈ Ac ycada t ∈ T .

Veamos algunas observaciones interesantes sobre lo que hemos visto hasta ahora.

Observaciones. 1) Hemos definido un proceso estocastico como una familia (Xt)t∈T dev.a. (supongamoslas reales) en (Ω,A, P ). Hemos observado tambien que podemos mirareste proceso como una aplicacion X : (t, ω) ∈ T × Ω −→ X(t, ω) ∈ R donde, paracada t, X(t, ·) es una v.a.r. en Ω. Una tercera vıa puede ser la siguiente: consideremos laaplicacion X que a cada ω ∈ Ω asocia la aplicacion t ∈ T −→ Xt(ω); X, ası definida esuna aplicacion de Ω en el conjunto RT de las aplicaciones de T en R. Es facil ver que unaaplicacion F : (Ω,A) −→ (RT ,RT ) es una v.a. sii Zt(F ) lo es para cada t ∈ T , donde Zt

denota (y denotara en lo que sigue) como antes la aplicacion coordenada t-esima en RT .Por tanto, podemos pensar en un proceso estocastico real tambien como una v.a. X de(Ω,A, P ) en (RT ,RT ). Visto de este modo, el proceso recibe a veces el nombre de funcionaleatoria.

2) (Proceso canonico asociado a un proceso dado) Sea (Ω,A, P, (Xt)t∈T ) un proce-so estocastico real sobre T . Denotemos por X la v.a. de (Ω,A) en RT definida porX(ω)(t) = Xt(ω). Consideremos la distribucion de probabilidad PX en RT de X res-pecto a P . Consideremos en fin las aplicaciones Zt de la observacion anterior. El proceso

Page 9: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

7

estocastico (RT ,RT , PX , (Zt)t∈T ) se llama proceso canonico asociado al proceso (Xt). Esclaro que todo proceso estocastico real es equivalente a su proceso canonico y que dosprocesos reales son equivalentes sii tienen el mismo proceso canonico asociado.

3) Ya hemos observado anteriormente que las distribuciones finito-dimensionales deun proceso estocastico real constituyen uno de los aspectos fundamentales del mismo envirtud del teorema de Kolmogorov (que asegura unicidad salvo equivalencia). No obstante,la nocion de distribucion finito-dimensional resulta ser insuficientemente precisa a la horade abordar algunas cuestiones interesantes tambien en teorıa de procesos estocasticoscomo posibles propiedades de regularidad de las trayectorias (p. ej., continuidad de lastrayectorias si T es un intervalo de R). Hagamos, p. ej., Ω = [0, 1] = T , A = R([0, 1]) ysea P la medida de Lebesgue en [0, 1]; consideremos dos procesos reales (Xt)t∈T y (Yt)t∈T

definidos en Ω para t ∈ T y ω ∈ Ω por

Xt(ω) = 0 e Yt(ω) =

= 1 si t = ω

= 0 si t 6= ω.

Dichos procesos tienen entonces las mismas distribuciones finito-dimensionales (es decir,son equivalentes); incluso, uno es modificacion del otro. Sin embargo, Xt tiene todas sustrayectorias continuas (es decir, para cada ω, la aplicacion t −→ Xt(ω) es continua) mien-tras que las del segundo son discontinuas. Este mismo ejemplo prueba que la nocion demodificacion de un proceso tampoco es lo suficientemente precisa en este tipo de proble-mas. La nocion de procesos indistinguibles da la mayor precision posible desde el puntode vista probabilıstico: dos procesos indistinguibles son realmente el mismo proceso. No-temos aquı que, a veces, se llama equivalencia de procesos lo que aquı hemos llamadomodificacion de un proceso.

Para finalizar esta leccion haremos un repaso de algunos aspectos de la distribucionNormal en Rn. A la hora de construir procesos gaussianos, en general, y el movimientobrowniano, en particular, tendremos que hacer referencia a la distribucion normal multi-variante.

En lo que sigue utilizaremos la siguiente notacion matricial: los puntos u de Rn y lasv.a. n–dimensionales X se consideraran como vectores columna y usaremos los sımbolosut y Xt para los correspondientes vectores fila.

Definicion. Una v.a. n–dimensional X, definida en algun espacio de probabilidad(Ω,A, P ), se dice normal si su funcion caracterıstica es de la forma

φ : u ∈ Rn −→ φ(u) = E[eiutX ] = expiutb− 12utCu

donde b ∈ Rn y C es una matriz real cuadrada de orden n simetrica y semidefinida positiva(i.e., C = Ct y utCu ≥ 0, ∀u ∈ Rn). Se dice, en concreto, que X tiene una distribucionnormal de media b y matriz de covarianzas C y se escribe X ∼ Nn(b, C).

Observaciones. 1) Sean A una matriz de orden m × n, b ∈ Rm y X ′ una v.a. n–dimensional cuyas componentes son v.a.r. independientes y normalmente distribuidas conmedia cero. Sea X = AX ′ + b. Entonces X es una v.a. m–dimensional normal de media by matriz de covarianzas C = ADAt, donde D es la matriz diagonal en la que los elementosde la diagonal son las varianzas λk de las X ′

k, 1 ≤ k ≤ n.

Page 10: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

8

2) A modo de recıproco, si X es una v.a. normal n–dimensional Nn(b, C), entoncesexisten una matriz cuadrada A de orden n que podemos elegir ortogonal y una v.a. n–dimensional X ′ cuyas componentes son v.a.r. independientes normalmente distribuidascon media cero tales que X = AX ′ + b.

En efecto, siendo C simetrica es diagonalizable y existe entonces una matriz ortogonalA tal que D := AtCA es diagonal (los elementos de la diagonal son los autovalores de C).Tomando X ′ = At(X− b), se tiene que X = AX ′+ b (A es ortogonal, i.e., A−1 = At). Cal-culando la funcion caracterıstica de X ′ se prueba que sus componentes son independientesy normales con media cero.

3) Se sigue de 2) que si X ∼ Nn(b, C) entonces X tiene media b y matriz de covarianzasC.

4) Un argumento analogo al utilizado en 2) prueba la existencia de v.a. n–dimensionalescon funcion caracterıstica expiutb− 1

2utCu, siendo b ∈ Rn y C una matriz cuadrada deorden n simetrica y semidefinida positiva.

5) Se prueba que una v.a. n –dimensional X es normal si y solo si utX es una v.a.r.normal (posiblemente degenerada) para cada u ∈ Rn.

Page 11: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Leccion 2: Funciones de Covarianza.

En lo que sigue, (Ω,A, P ) sera un espacio de probabilidad en el que estaran definidastodas las v.a. que consideremos, salvo que explıcitamente se indique otra cosa. Supon-dremos conocidos la definicion de proceso estocastico, la nocion de distribuciones finito–dimensionales y el teorema de extension de Kolmogorov.

Definicion. (L2–proceso estocastico) Un L2–proceso estocastico es una familia (Xt)t∈T

de v.a. reales o complejas tales que ‖ Xt ‖22= E(|Xt|2) < ∞, ∀t ∈ T .

A partir de ahora solo consideraremos L2–procesos estocasticos.

Definicion. (Funcion de covarianzas) La funcion de covarianzas de un L2–procesoestocastico es la aplicacion

K : (s, t) ∈ T × T −→ K(s, t) = Cov (Xs, Xt) = E[(Xs −m(s))(Xt −m(t))]

donde m(t) = E(Xt), t ∈ T .

Observaciones. 1) K(s, t) es, entonces, el producto escalar (en L2(Ω,A, P ;C)) de Xs−m(s) y Xt −m(t).

2) Es claro que K(s, t) = E(XsXt)−m(s)m(t).3) Por la desigualdad de Cauchy–Schwartz, se tiene que

|K(s, t)|2 ≤‖ Xs −m(s) ‖22 · ‖ Xt −m(t) ‖2

2= K(s, s)K(t, t).

Definiciones. (Estacionariedad) Supongamos que T es un intervalo de R.a) El L2–proceso (Xt)t∈T se dice estacionario en sentido amplio si m(t) es constante

para todo t y K(s, t) = K(s + h, t + h), para todos s, t y h tales que s, t, s + h, t + h ∈ T .Dicho de otro modo, si m(t) es constante en T y K(s, t) solo depende de s y t a traves des− t. En ese caso, escribiremos K(t) = K(s + t, s).

b) El proceso (Xt)t∈T se dice estrictamente estacionario si las distribuciones finito–dimensionales tienen la propiedad:

P (Xt1 ,...,Xtn) = P (Xt1+h,...,Xtn+h)

para todos n = 1, 2, ... y t1, ..., tn, h tales que t1 < · · · < tn y ti, ti + h ∈ T , 1 ≤ i ≤ n.

Observaciones. 1) Para un proceso estacionario en sentido amplio, haciendo m(t) = m,∀t ∈ T , la desigualdad de Cauchy–Schwartz prueba que

|K(t)| ≤ K(0) = E[|Xs −m|2] ∀t, s ∈ T.

2) Si (Xt)t∈T es un proceso estrictamente estacionario, entonces la distribucion conjuntade Xt1 , ..., Xtn solo depende de los ti a traves de las diferencias t2− t1, t3− t2, ..., tn− tn−1.

3) Todo proceso estrictamente estacionario es estacionario en sentido amplio. En efecto,

E(Xs ·Xt) =∫

xydP (Xs,Xt)(x, y) =∫

xydP (Xs+h,Xt+h)(x, y) = E(Xs+h ·Xt+h)

9

Page 12: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

10

y, analogamente,E(Xt) = E(Xt+h).

4) El recıproco de 3) no es, en cambio, cierto. Supongamos, por ejemplo, los Xt reales in-dependientes con media 0 y varianza 1. Entonces, K(t) = E(Xs+t ·Xs) = E(Xs+t)E(Xs) =0, si t 6= 0 y K(0) = 1. Pero el proceso no es necesariamente estrictamente estacionario:podemos tomar, por ejemplo, Xt con distribucion normal N(0, 1) si t ≤ 0 y Xt unifor-memente distribuida (en un intervalo apropiado) si t > 0, con lo cual PXt depende det.

5) Convencion: En este capıtulo, estacionario significara estacionario en sentido amplio.6) Una funcion de covarianzas satisface siempre K(s, t) = K(t, s). En el caso esta-

cionario ello se traduce en K(−t) = K(t). Entonces, K(t, t) = K(t, t) es real y, en elcaso estacionario, K(0) es real. Ası pues, la funcion de covarianzas de un L2–proceso essimetrica (i.e., K(t, s) = K(s, t)).

Veamos que, tambien, K es semidefinida positiva, es decir, ∀n ∈ N, ∀t1, ..., tn ∈ T ,∀a1, ..., an ∈ C,

n∑

j,k=1

ajK(tj , tk)ak

es real y mayor o igual que 0; notese, en efecto, que si X∗t = Xt − E(Xt), entonces,

n∑

j,k=1

ajK(tj , tk)ak = E

n∑

j,k=1

ajX∗tjakX

∗tk

= E

∣∣∣∣∣∣

n∑

j=1

ajX∗tj

∣∣∣∣∣∣

2 ≥ 0.

Veamos, a continuacion, que el ser K simetrica y semidefinida positiva es condicion sufi-ciente para que exista un L2–proceso estocastico cuya funcion de covarianzas es K.

Teorema 3. Sea K = K(s, t), s, t ∈ T , una funcion C–valorada en T × T que essimetrica y semidefinida positiva. Existe entonces un L2–proceso (Xt)t∈T cuya funcion decovarianzas es K (T es un conjunto de ındices arbitrario; no tiene porque ser un subcon-junto de R).

Demostracion. Supongamos en primer lugar que K es R–valorada. Dados t1, ..., tn ∈ Tcon t1 < · · · < tn, sea Pt1,...,tn una distribucion normal n–dimensional con media cero ymatriz de covarianzas (K(tj , tk))n

j,k=1. Si i1, ..., ip ∈ 1, ..., n e i1 < · · · < ip entonces ladistribucion de la v.a.

(x1, ..., xn) ∈ Rn −→ (xi1 , ..., xip) ∈ Rp

respecto a Pt1,...,tn es la distribucion Pti1 ,...tip normal p–dimensional de media cero y matrizde covarianzas (K(tij , tik))p

j,k=1.Entonces, la condicion de consistencia de Kolmogorov se verifica es para la familia

(Pt1,...tn)t1<···<tn,n≥1 ası definida y el teorema de extension de Kolmogorov acaba la pruebaen este caso.

En el caso complejo hagamos K = K1 + iK2. Si cj = aj + ibj , 1 ≤ j ≤ n,

n∑

j,k=1

cjK(tj , tk)ck =n∑

j,k=1

K1(tj , tk)(ajak + bjbk) +n∑

k,j=1

K2(tj , tk)(ajbk − akbj)

Page 13: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

11

(nos quedamos solo con la parte real pues sabemos que K es semidefinida positiva). Lasuma anterior se puede expresar matricialmente como dtLd donde

dj =

aj si 1 ≤ j ≤ nbj−n si n + 1 ≤ j ≤ 2n

y

L =[

(K1(tj , tk)nj,k=1) (K2(tj , tk)n

j,k=1)(−K2(tj , tk)n

j,k=1) (K1(tj , tk)nj,k=1)

]

Notese que el elemento (n + j, k), 1 ≤ j, k ≤ n, de L es −K2(tj , tk) = K2(tk, tj) por serK simetrica; entonces L es tambien simetrica. Ademas, siendo K semidefinida positiva, Ltambien lo es. Sean, ahora, Yt1 , ..., Ytn , Zt1 , ..., Ztn v.a.r. con distribucion conjunta normalde media cero y matriz de covarianzas L/2. Hagamos Xtj = Ytj − iZtj , 1 ≤ j ≤ n.Entonces las Xtj son v.a. complejas con distribucion conjunta normal (i.e., las partesreales e imaginarias Yt1 , ..., Ytn , Zt1 , ..., Ztn de las Xtj tienen distribucion conjunta normal)con matriz de covarianzas (K(tj , tk)n

j,k=1). La condicion de consistencia de Kolmogorov seprueba en este caso de forma analoga al caso real y el teorema de extension de Kolmogorovacabarıa la prueba.

Observaciones. 1) Convendremos en lo sucesivo que, salvo que se indique lo contrario,un vector aleatorio gaussiano consiste en v.a. reales (y no complejas) con distribucionconjunta normal.

2) Llamaremos proceso gaussiano a todo proceso estocastico cuyas distribuciones finito–dimensionales sean todas normales. Para un proceso gaussiano de media cero, la funcion decovarianzas determina completamente todas las distribuciones finito–dimensionales con locual, estacionaridad en sentido amplio es equivalente a estacionaridad estricta para estosprocesos.

3) No cabe hacer afirmacion alguna sobre unicidad en el teorema anterior. De hecho,la demostracion prueba que para cada L2–proceso existe un proceso gaussiano complejocon la misma funcion de covarianzas que aquel.

4) Si T es un intervalo real y (Xt)t∈T es un L2–proceso estacionario con covarianzaK = K(t) = Cov [Xs+t, Xs], entonces K es simetrica (i.e., K(−t) = K(t)) y semidefinidapositiva (i.e.,

∑nj,k=1 ajK(tj − tk)ak ≥ 0, ∀t1, ..., tn ∈ T , ∀a1, ..., an ∈ C, ∀n ≥ 1). Recıpro-

camente, sean T un intervalo real e I = u− v : u, v ∈ T. Si K es una funcion compleja,definida en I, simetrica y semidefinida positiva, entonces existe un L2–proceso estacionario(Xt)t∈T con funcion de covarianzas K; en efecto, si hacemos K∗(s, t) = K(s− t), s, t ∈ T ,entonces K∗ es simetrica y semidefinida positiva y, por tanto, existe un L2–proceso (Xt)t∈T

tal queCov (Xs+t, Xs) = K∗(s + t, s) = K(t).

En lo que sigue, T sera o bien Z (en el caso de ”parametro discreto”) o bien R (en el caso de”parametro continuo”). Pretendemos obtener una caracterizacion analıtica de las funcionesde covarianza estacionarias; concretamente, la clase de las funciones de covarianza de L2–procesos estacionarios coincide exactamente con la clase de las transformadas de Fourierde medidas finitas en B([−π, π]) para el caso discreto y en R para el caso continuo.

Necesitaremos algunas propiedades de funciones semidefinidas positivas.

Lema 4. Si K es una funcion compleja semidefinida positiva en T (= Z o R), entonces:

Page 14: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

12

(a) K(0) ≥ 0;

(b) K(−u) = K(u), es decir, K es automaticamente simetrica;

(c) |K(u)| ≤ K(0), y

(d) |K(u)−K(v)|2 ≤ 2K(0)[K(0)−ReK(u− v)], con lo cual, si T = R y K es continuaen 0, entonces es uniformemente continua en R.

Demostracion. Recordemos que el que K sea semidefinida positiva significa que

(1)n∑

j,k=1

zjK(tj , tk)zk ≥ 0, ∀t1, ..., tn ∈ T, ∀z1, ..., zn ∈ C, ∀n ∈ N.

(a) Basta tomar n = 1, z1 = 1 y t1 = 0 en la expresion anterior.(b) Tomando n = 2, z1 = z2 = i, t1 = 0 y t2 = u, se obtiene de (1) que 2K(0) +

K(u) + K(−u) ≥ 0, con lo cual, en virtud de (a), K(u) + K(−u) es real y, entonces,ImK(−u) = −Im K(u). Tomando ahora n = 2, z1 = 1, z2 = −i, t1 = u y t2 = 0, sesigue de (1) que 2K(0) + iK(u) − iK(−u) ≥ 0, con lo cual, i(K(u) − K(−u)) es realy K(u) − K(−u) es imaginario puro y, entonces, ReK(u) = ReK(−u). En definitiva,K(−u) = K(u).

(c)El resultado es claro si K(u) = 0. Si no, tomemos n = 2, z1 = 1, z2 = −x/K(u),t1 = u y t2 = 0 en (1), donde x es un numero real arbitrario. Utilizando (b) se obtiene

K(0)− 2x +K(0)x2

|K(u)|2 ≥ 0.

Puesto que x es arbitrario, el discriminante de esa forma cuadratica debe ser no positivo,lo que prueba (c).

(d) Tomemos n = 3, z1 = 1, z2 = z, z3 = −z, t1 = 0 y t2 = u, t3 = v en (1), donde zes un numero complejo arbitrario. Entonces

0 ≤ K(0) + zK(−u)− zK(−v) + zK(u) + |z|2K(0)−|z|2K(u− v)− zK(v)− |z|2K(v − u) + |z|2K(0)

= K(0) + 2Re (z[K(u)−K(v)]) + 2|z|2[K(0)− ReK(u− v)].

Si K(u)−K(v) = |K(u)−K(v)|eiθ, tomemos z = xe−iθ, x real. Entonces,

0 ≤ K(0) + 2x|K(u)−K(v)|+ 2x2[K(0)− ReK(u− v)].

Siendo ello cierto para cada x ∈ R, el discriminante no puede ser estrictamente positivo yla desigualdad buscada queda probada.

Consideremos, en primer lugar, el caso discreto.

Teorema 5. (Teorema de Herglozt) Una funcion K : Z −→ C es la funcion de cova-rianzas de un L2–proceso estacionario si y solo si existe una medida finita µ en B([−π, π])tal que

K(n) =∫ π

−πeinudµ(u), ∀n ∈ Z.

Page 15: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

13

Demostracion. Si K es una funcion de covarianzas entonces es semidefinida positiva y,por tanto, para cada N ≥ 1 y cada x ∈ R,

GN (x) :=1

2πN

N∑

j,k=1

e−ijxe−ikxK(j − k) ≥ 0.

Puesto que el numero de pares (j, k) en 1, ..., N2 tales que j − k = m es N − |m| sim ∈ −N, ...,−1, 0, 1, ..., N entonces

GN (x) =1

2πN

|m|<N

(N − |m|)e−imxK(m) ≥ 0.

Podemos definir entonces una medida µN en B([−π, π]) cuya densidad respecto a la medidade Lebesgue en [−π, π] es GN ; entonces, si n ∈ Z,

∫ π

−πeinudµN (u) = 1

2πN

∑|m|<N (N − |m|)K(m)

∫ π−π ei(n−m)xdx

=

(1− |n|N )K(n) si |n| < N0 en otro caso

Las medidas µN estan concentradas en el intervalo compacto [−π, π] y µN ([−π, π]) =K(0),∀N ≥ 1. Se sigue del teorema de Prokhorov 1 que existe una subsucesion (µNk

)k queconverge debilmente a una medida finita µ en B([−π, π]). Haciendo tender k a infinito sesigue de que ∫ π

−πeinudµNk

(u) −→k→∞∫ π

−πeinudµ(u)

que

K(n) =∫ π

−πeinudµ(u).

Recıprocamente, si K(n) =∫ π−π einudµ(u), entonces

n∑

j,k=1

zjzkK(nj − nk) =∫ π

−π|

n∑

j=1

zjeinju|2dµ(u) ≥ 0.

Luego K es semidefinida positiva y, por el lema anterior, simetrica. De la observacion 4)anterior se sigue que K es la funcion de covarianzas de un L2–proceso estacionario.

Consideremos ahora el caso continuo.1Convergencia debil de medidas: Dadas µ, µ1, µ2, ... medidas finitas en R, diremos que (µn)n converge

debilmente a µ si∫R fdµn −→n→∞

∫R fdµ para cada funcion continua y acotada f : R→ R. Si X, X1, X2, ...

son v.a.r. se dice que (Xn)n converge en distribucion a X si P Xn converge debilmente a P X .Teorema de Prokhorov: Sea A un conjunto de medidas finitas en R y supongamos que existe M tal que

µ(R) ≤ M , ∀µ ∈ A. Entonces A es relativamente compacto (en el sentido de que a cada sucesion se lepueda extraer una subsucesion debilmente convergente a una medida finita) si y solo si ∀ε > 0, existe Kcompacto de R tal que µ(Kc) ≤ ε, ∀µ ∈ A.

Page 16: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

14

Teorema 6. (Teorema de Bochner) Una aplicacion K : R −→ C continua en el origenes la funcion de covarianzas de un L2–proceso estacionario si y solo si existe una medidafinita µ en B(R) tal que

K(t) =∫

Reitudµ(u), ∀t ∈ T.

Demostracion. Si K es la funcion de covarianzas de un L2–proceso estacionario, essemidefinida positiva. Entonces, para cada n ∈ N, la funcion K(·/2n) es semidefinidapositiva en Z; por el teorema anterior, existe una medida finita µn en B([−π, π]) tal que,para cada k ∈ Z,

K(k/2n) =∫ π

−πeikxdµn(x).

Hagamos

fn(u) =∫ π

−πexp[i2nux]dµn(x), u ∈ R.

Entonces fn es la funcion caracterıstica de una medida concentrada en [−2nπ, 2nπ]; notesepara ello que si f es la funcion caracterıstica de una v.a.r. X y g(u) = f(2nu), entoncesg(u) = E[exp(iu2nX)], con lo cual g es la funcion caracterıstica de 2nX.

En particular, fn es semidefinida positiva y, puesto que k2−n = k2m−n2−m,

(2) fm(k2−n) = K(k2−n), ∀m ≥ n,∀k ∈ Z.

Probemos que (fm)m converge puntualmente a K. La clave de esa demostracion es pro-bar que fm es una familia uniformemente equicontinua en R; supuesto probado eso, elteorema de Ascoli–Arcela2 garantiza la existencia de una subsucesion (fnj )j convergentepuntualmente a un lımite continuo f (usar el teorema de Ascoli–Arcela en cada intervalocompacto [−p, p], p = 1, 2, ... y construir los fnj por diagonalizacion). Por el teorema deLevy3 f es una funcion caracterıstica. Pero por (27), f y K coinciden sobre los racionalesdiadicos y, por el apartado d) del lema 10, K es continua en R; entonces f = K en R.

K es pues una funcion caracterıstica, es decir, podemos escribir

K(t) =∫

Reitxdµ(x)

para alguna meida finita µ.El recıproco se prueba de forma analoga al teorema de Herglotz.Solo queda, para concluir la demostracion, probar que la sucesion (fm)m es uniforme-

mente equicontinua en R. Notemos que si u, v ∈ R podemos escribir u − v = (k + θ)2−m

2Teorema de Ascoli–Arcela: Sea Ω un espacio compacto Haussdorff. Un subconjunto A de C(Ω,C)es relativamente compacto (equiv., relativamente secuencialmente compacto) si y solo si es puntualmenteacotado y equicontinuo (i.e., ∀ε > 0, ∃δ > 0 : x, y ∈ Ω, d(x, y) ≤ δ =⇒ |f(x)− f(y)| ≤ ε, ∀f ∈ A).

3Teorema de Levy: Sea (Fn)n una sucesion de funciones de distribucion en R y (hn)n la sucesion desus funciones caracterısticas. Si Fn converge en distribucion a F , donde F es una funcion de distribucioncon funcion caracterıstica h, entonces hn converge puntualmente a h. Recıprocamente, si hn convergepuntualmente a una funcion compleja h continua en el origen, entonces h es la funcion caracterıstica dealguna funcion de distribucion acotada F y Fn converge en distribucion a F .

Page 17: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

15

para algun k ∈ Z tal que |k2−m| ≤ |u− v| y |θ| ≤ 1. Entonces por el lema 10 (d) y usandola desigualdad triangular,

|fm(u)− fm(v)|2 ≤ fm(0)[fm(0)− Re fm(u− v)] ≤(3)≤ 2fm(0)|fm(0)− Re fm(k2−m)|+ 2fm(0)|Re fm(k2−m)− Re fm(u− v)|(4)

Por (27), el primer termino de (28) es igual a 2K(0)|K(0)− ReK(k2−m)|; puesto que Kes continua en 0 y que |k2−m| ≤ |u − v|, ese termino se puede hacer menor o igual queε2/2 si |u− v| es suficientemente pequeno, digamos si |u− v| < δ. El cuadrado del segundosumando es a lo mas

4K2(0)|fm(k2−m)− fm(u− v)|2≤ 8K3(0)[fm(0)− Re fm(u− v − k2−m)] por el lema 10 (d)

= 8K3(0)[fm(0)− Re fm(θ2−m)]

= 8K3(0)∫ π

−π[1− cos θx]dµn(x) por definicion de fm

≤ 8K3(0)∫ π

−π[1− cosx]dµn(x) pues cos θx ≥ cosx si |θ| ≤ 1 y |x| ≤ π

= 8K3(0)[fm(0)− Re fm(2−m)] por definicion de fm

= 8K3(0)[K(0)− Re K(2−m)] por (27)

Puesto que K es continua en 0, se sigue que el segundo sumando en (28) se hace menoro igual que ε2/2 si m es grande, digamos m ≥ M . Ası, si m ≥ M y |u− v| ≤ δ, |fm(u)−fm(v)| ≤ ε. Por el lema 10 (d), cada fj , j ≤ M , es uniformemente continua en R. Luego,(fm)m es una familia uniformemente equicontinua.

Observacion. Resumiendo, se ha probado que si K : T −→ C es una aplicacion, lassiguientes proposiciones son equivalentes:

(a) K es semidefinida positiva y continua en 0 (la continuidad en 0 es automatica siT = Z).

(b) K es la funcion de covarianzas de un L2–proceso estacionario y K es continua en 0.

(c) K es la funcion caracterıstica de una medida finita µ, definida en B([−π, π]) si T = Zy en B(R) si T = R.

La equivalencia de (a) y (b) fue probada en la observacion anterior. (b) y (c) son equivalen-tes por los teoremas de Herglotz y Bochner. Notese que en (c) la medida µ esta determinadapor K.

Page 18: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Leccion 3: Ejemplos.

A continuacion presentamos dos ejemplos de L2–procesos estocasticos a tiempo con-tinuo: el proceso de Poisson (en el que las v.a. son discretas) y el movimiento browniano(en el que las v.a. son absolutamente continuas).

Antes de empezar a ver el primer ejemplo recordaremos algunas propiedades de ladistribucion exponencial, distribucion que es de gran utilidad en la construccion del procesode Poisson. Sea X una v.a.r. en un espacio de probabilidad (Ω,A, P ) con distribucionexponencial de parametro α, es decir,

P (X > x) = e−x/α, x ≥ 0.

Entonces P (X > x) > 0 para cada x ∈ R y, si x, y ≥ 0, se verifica

(5) P (X > x + y|X > x) = P (X > y).

Pensemos en X como el tiempo de espera hasta la ocurrencia de un cierto suceso (porejemplo, la llegada de un cliente a una ventanilla). La ecuacion (5) atribuye al tiempode espera un mecanismo de perdida de memoria en el sentido de que, si despues de uncierto tiempo x el suceso aun no ha ocurrido, el tiempo que falta para que ocurra sedistribuye condicionalmente de la misma forma que X. Es conocido que eso caracteriza ladistribucion exponencial, es decir, si P (X > x) > 0, ∀x ≥ 0 y si se verifica (5), entoncesexiste α > 0 tal que X tiene distribucion exponencial de parametro α (para probarlo,denotemos F la funcion de distribucion de X y hagamos U = 1 − F ; entonces U(t) > 0,∀t ≥ 0 y U(t + s) = U(t)U(s), ∀t, s ≥ 0; se sigue de ahı que U(0) = 1; tomar α ∈ R talque U(1) = e−1/α y probar que U(t) = e−t/α, primero si t ∈ N, luego si t = 1/n, despuessi t ∈ Q+ y, en fin, si t ≥ 0; notar que α > 0).

Ejemplo 1. (Proceso de Poisson): Consideremos ahora una sucesion de sucesos(por ejemplo, llamadas a una central). Denotemos T1 el tiempo de espera para el primersuceso, T2 el tiempo de espera desde la ocurrencia del primer suceso hasta la ocurrenciadel segundo, y ası sucesivamente. El modelo formal consiste en una sucesion T1, T2, ... dev.a.r. definidas en algun espacio de probabilidad (Ω,A, P ). Sn = T1 + · · · + Tn, n ≥ 1,representa el tiempo de espera hasta la ocurrencia de n sucesos; es conveniente escribirS0 = 0. Si asumimos que dos sucesos no pueden ocurrir simultaneamente, la sucesion Sn

debe ser estrictamente creciente y si solo un numero finito de sucesos puede ocurrir encada intervalo acotado de tiempo entonces Sn debe converger a +∞, es decir, para cadaobservacion ω se debe verificar

(1) 0 = S0(ω) < S1(ω) < S2(ω) < · · · y supn

Sn(ω) = +∞

o, equivalentemente,

(2) Ti(ω) > 0, ∀i ≥ 1 y∑

n

Tn(ω) = +∞.

Observacion. Supondremos que (1) y (2) se verifican para cada observacion ω ∈ Ω. Sisolo se verificasen sobre un conjunto A de probabilidad 1, podemos redefinir Tn(ω) = 1si ω /∈ A y entonces (1) y (2) se verifican para cada ω sin que resulten afectadas lasdistribuciones conjuntas de las Tn y Sn.

16

Page 19: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

17

Consideremos la siguiente condicion:Condicion 0: Para cada ω ∈ Ω, (1) y (2) se verifican.El numero Nt de sucesos que ocurren en el intervalo de tiempo [0, t] es el mayor entero

n tal que Sn ≤ t, es decir,

Nt(ω) := maxn ≥ 0 : Sn(ω) ≤ t.

Entonces Nt(ω) ∈ N (pues supSn(ω) = +∞). Se verifica que Nt(ω) = 0 si t < S1(ω) =T1(ω); en particular, N0 ≡ 0. El numero de sucesos que ocurren en el intervalo ]s, t], s < t,es el incremento Nt −Ns. La relacion basica entre Nt y Sn viene dada por

ω ∈ Ω : Nt(ω) ≥ n = ω ∈ Ω : Sn(ω) ≤ t.

Se sigue de ello sin dificultad que

ω ∈ Ω : Nt(ω) = n = ω ∈ Ω : Sn(ω) ≤ t < Sn+1(ω),

lo que prueba que las Nt son v.a.. Notese que

NSn(ω)(ω) = n y SNt(ω)(ω) ≤ t < SNt(ω)+1(ω).

Observacion. (Nt)t≥0 es, entonces un proceso estocastico. La condicion 0 implica que,para cada ω ∈ Ω, Nt(ω) es un entero no negativo si t ≥ 0, que N0(ω) = 0 y lımt→∞Nt(ω) =∞; ademas, Nt(ω) como funcion de t es no decreciente y continua por la derecha y, si t0 esuna discontinuidad de la trayectoria de ω, el salto Nt0(ω)− supt<t0 Nt(ω) es exactamenteigual a 1.

A modo de recıproco, supongamos que (Nt)t≥0 es un proceso estocastico con las pro-piedades precedentes y hagamos

Sn(ω) = ınft ≥ 0 : Nt(ω) ≥ n y Tn(ω) = Sn(ω)− Sn−1(ω).

Entonces (1) y (2) se verifican.

Nos proponemos estudiar la distribucion conjunta de las Nt bajo condiciones en los tiemposde espera Tn. El modelo mas frecuente supone las Tn independientes y atribuye al tiempode espera el mecanismo de perdida de memoria de la ecuacion (5). Es decir, asumiremosla condicion siguiente:

Condicion 1: Las Tn son independientes y exponencialmente distribuidas con parame-tro α.

Observaciones. 1) Asumida la condicion 1 se verifica que P (Tn > 0) = 1, ∀n, y quen−1Sn −→n→∞ α con probabilidad 1, en virtud de la ley fuerte de los grandes numeros;ası pues, (1) y (2) se verifican con probabilidad 1 bajo la condicion 1.

2) Recordemos que la distribucion exponencial de parametro α es la distribucion gam-ma G(1, α). Siendo las Tn independientes se verifica que Sn tiene distribucion gammaG(n, α) y entonces,

P (Nt ≥ n) = P (Sn ≤ t) =∞∑

i=n

e−t/α (t/α)i

i!

Page 20: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

18

(la densidad de la distribucion G(n, α) es

fn(t) = [αn(n− 1)!]−1tn−1e−t/αI]0,∞[(t).

Derivando∑∞

i=n e−t/α (t/α)i

i! = 1 −∑n−1i=0 e−t/α (t/α)i

i! se obtiene que esa es, efectivamente,la funcion de distribucion de Sn).

Por tanto,

P (Nt = n) = e−t/α (t/α)n

n!, es decir, Nt tiene distribucion de Poisson de parametro (media) t/α.

Podemos mejorar la afirmacion de la observacion 2) anterior considerando la siguientecondicion:

Condicion 2: (i) Si 0 < t1 < t2 < · · · < tk, entonces los incrementos Nt1 , Nt2 −Nt1 , ..., Ntk −Ntk−1

son independientes y(ii) Los incrementos individuales tienen distribucion de Poisson:

P (Nt −Ns = n) = e−t−sα

(t−sα

)n

n!, n = 0, 1, 2, ..., 0 ≤ s < t.

Definicion. (Proceso de Poisson) Un proceso estocastico (Nt)t≥0 que satisfaga lacondicion 2 se llamara un proceso de Poisson de promedio 1/α.

El resultado principal que probaremos afirma que la condicion 1 implica la condicion 2(asumida la condicion 0). En su demostracion haremos uso de los tiempos de espera apartir de un instante t ≥ 0 dado, que introducimos a continuacion.

Fijemos t ≥ 0 y consideremos los sucesos que ocurren despues del instante t. Ya cono-cemos las relaciones

Ns(ω) = n ⇐⇒ Sn(ω) ≤ s < Sn+1(ω),

NSn(ω)(ω) = n,

SNt(ω)(ω) ≤ t < SNt(ω)+1(ω).

La tercera de estas relaciones afirma que el tiempo que transcurre desde el instante thasta la ocurrencia del siguiente suceso es SNt(ω)+1(ω) − t; el tiempo de espera entrelas ocurrencias del primer y segundo sucesos despues del instante t es TNt(ω)+2(ω); yası sucesivamente. Ası pues,

T(t)1 = SNt+1 − t, T

(t)2 = TNt+2, T

(t)3 = TNt+3, ...

definen los tiempos de espera sucesivos a partir del instante t.Puesto que Nt(ω) ≥ n ⇐⇒ Sn(ω) ≤ t se verifica que

Nt+s(ω)−Nt(ω) ≥ m ⇐⇒ Nt+s(ω) ≥ Nt(ω) + m

⇐⇒ SNt(ω)+m(ω) ≤ t + s

⇐⇒ T(t)1 (ω) + · · ·T (t)

m (ω) ≤ s.

Se deduce de ello que

(6) Nt+s −Nt = maxm ∈ N0 : T(t)1 + · · ·+ T (t)

m ≤ s

Page 21: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

19

y de (6) se sigue que

Nt+s −Nt = m = T (t)1 + · · ·+ T (t)

m ≤ s < T(t)1 + · · ·+ T

(t)m+1.

Debe notarse que, fijo t ≥ 0, Nt+s−Nt esta definido para s ≥ 0 en terminos de la sucesionT

(t)n , n ≥ 1, del mismo modo que Ns esta definido en terminos de la sucesion original Tn.

Teorema 7. Bajo la condicion 0, la condicion 1 implica la condicion 2.

Demostracion. Dividiremos la demostracion en varias etapas.1a etapa: Veamos, en primer lugar, que ∀n ≥ 0, ∀j ≥ 1, ∀H ∈ Rj ,

P [Nt = n, (T (t)1 , ..., T

(t)j ) ∈ H] = P (Nt = n)P [(T1, ..., Tj) ∈ H].

Supongamos primero que j = 1 y H =]y, +∞[. Entonces,

P (Nt = n, T(t)1 > y) = P (Sn ≤ t < Sn+1, Sn+1 − t > y)

= P (Sn ≤ t, Sn + Tn+1 > t + y)

= P (Sn,Tn+1)((u, v) ∈ R2 : u ≤ t, u + v > t + y)= (PSn × P Tn+1)((u, v) ∈ R2 : u ≤ t, u + v > t + y)

=∫ t

0

∫ ∞

t+y−udP Tn+1(v)dPSn(u)

=∫ t

0P (Tn+1 > t + y − u)dPSn(u)

= e−y/α

∫ t

0P (Tn+1 > t− u)dPSn(u)

= e−y/αP (Sn ≤ t, Sn + Tn+1 > t)

= P (Nt = n)e−y/α = P (Nt = n)P (T1 > y).

En el caso de que j ≥ 1 y H =∏j

k=1]yk,+∞[,

P (Nt = n, T(t)1 > y1, ..., T

(t)j > yj) =

P (Sn ≤ t < Sn+1, Sn+1 − t > y1, Tn+2 > y2, ..., Tn+j > yj) =P (Sn ≤ t < Sn+1, Sn+1 − t > y1) · P (Tn+2 > y2) · ... · P (Tn+j > yj) =

P (Nt = n)P (T1 > y1)P (T2 > y2) · · ·P (Tj > yj) =P (Nt = n)P [(T1, ..., Tj) ∈ H]

Luego, la tesis de la 1a etapa es cierta si H =∏j

k=1]yk,+∞[. Puesto que los borelianos Hde esa forma engendran Rj , queda probada la 1a etapa.

2a etapa: Veamos ahora que si 0 = t0 < t1 < · · · < tk, entonces

P (Nti −Nti−1 = ni, 1 ≤ i ≤ k) =k∏

i=1

P (Nti−ti−1 = ni).

Page 22: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

20

Probaremos, en primer lugar, que si s1, ..., sn > 0 entonces

(7) P (Nt = n,Nt+si −Nt = mi, 1 ≤ i ≤ n) = P (Nt = n)P (Nsi = mi, 1 ≤ i ≤ n)

y a partir de ahı lo que queremos. En efecto, notese que

∩ni=1ω ∈ Ω : Nsi(ω) = mi = ω ∈ Ω : (T1(ω), ..., Tj(ω)) ∈ H

donde j = maxmi : 1 ≤ i ≤ n+ 1 y

H = x ∈ Rj : x1 + · · ·+ xmi ≤ si < x1 + · · ·+ xmi+1, 1 ≤ i ≤ n.

Del mismo modo, usando (6) se obtiene

∩ni=1ω ∈ Ω : Nt+si(ω)−Nt(ω) = mi = ω ∈ Ω : (T (t)

1 (ω), ..., T (t)j (ω)) ∈ H

y, de lo probado en la 1a etapa, se sigue que

P (Nt = n, Nt+si −Nt = mi, 1 ≤ i ≤ n) = P (Nt = n)P (Nsi = mi, 1 ≤ i ≤ n),

como querıamos probar. A partir de esto y por induccion sobre k probaremos que si0 = t0 < t1 < · · · < tk, entonces

P (Nti −Nti−1 = ni, 1 ≤ i ≤ k) =k∏

i=1

P (Nti−ti−1 = ni).

En efecto, eso se sigue trivialmente de (7) en el caso k = 2. Supuesto cierto para kprobemoslo para k + 1

P (Nt1 = n1, Nt2 −Nt1 = n2, Nt3 −Nt2 = n3, ..., Ntk+1−Ntk = nk+1) =

P (Nt1 = n1, Nt2 −Nt1 = n2, Nt3 −Nt1 = n2 + n3, ..., Ntk+1−Nt1 = n2 + · · ·+ nk+1) =

P (Nt1 = n1)P (Nt2−t1 = n2, Nt3−t1 = n2 + n3, ..., Ntk+1−t1 = n2 + · · ·+ nk+1) =P (Nt1 = n1)P (Nt2−t1 = n2, Nt3−t1 −Nt2−t1 = n3, ..., Ntk+1−tk −Ntk−t1 = nk+1) =

P (Nt1 = n1)P (Ns1 = n2, Ns2 −Ns1 = n3, ..., Nsk−Nsk1

= nk+1) =

P (Nt1 = n1)P (Ns1 = n2)P (Ns2−s1 = n3) · · ·P (Nsk−sk1= nk+1) =

P (Nt1 = n1)P (Nt2−t1 = n2)P (Nt3−t2 = n3) · · ·P (Ntk+1−tk = nk+1).

3a etapa: (Conclusion) Hemos visto que la condicion 1 implica

P (Nti −Nti−1 = ni, 1 ≤ i ≤ k) =k∏

i=1

P (Nti−ti−1 = ni)

si o = t0 < t1 < · · · < tk. Ya vimos tambien que

P (Nt = n) = e−t/α (t/α)n

n!, n = 0, 1, 2, ...

Page 23: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

21

Veamos que de ambas cosas se sigue la condicion 2. En efecto, si 0 ≤ s < t, entonces

P (Nt −Ns = n) =∞∑

m=0

P (Ns = m,Nt −Ns = n) =

∞∑

m=0

P (Ns = m)P (Nt−s = n) =∞∑

m=0

e−s/α (s/α)m

m!e−(t−s)/α

(t−sα

)n

n!=

e−t/α

(t−sα

)n

n!

∞∑

m=0

(s/α)m

m!= e−(t−s)/α

(t−sα

)n

n!,

es decir, Nt−Ns tiene distribucion de Poisson de parametro (t−s)/α, la misma que Nt−s.Ademas, si 0 = t0 < t1 < · · · < tk, entonces

P (∩ki=1Nti −Nti−1 = ni) =

k∏

i=1

P (Nti−ti−1 = ni) =k∏

i=1

P (Nti −Nti−1 = ni),

lo que prueba que los incrementos son independientes.

Corolario 8. Las distribuciones finito–dimensionales del proceso de Poisson (Nt)t≥0

son

P (∩kj=1Ntj = nj) =

k∏

j=1

e−tj−tj−1

α

(tj−tj−1

α

)nj−nj−1

(nj − nj−1)!

si 0 = t0 < t1 < · · · < tk y 0 = n0 ≤ n1 ≤ · · · ≤ nk.

Demostracion. Basta notar que

∩kj=1Ntj = nj = Nt1 = n1, Nt2 −Nt1 = n2 − n1, ..., Ntk −Ntk−1

= nk − nk−1

y aplicar el teorema anterior.

Corolario 9. La funcion de covarianzas del proceso de Poisson (Nt)t≥0 es

K(s, t) =1α

mın(s, t), s, t ≥ 0.

Demostracion. Supongamos 0 ≤ s ≤ t. Entonces

K(s, t) = Cov (Ns, Nt) = E[(Ns − E(Ns))(Nt − E(Nt))] = E

[(Ns − s

α

)(Nt − t

α

)].

Pero(Ns − s

α

)(Nt − t

α

)=

(Ns − s

α

)(Ns − s

α

)+

(Ns − s

α

)[(Nt − t

α

)−

(Ns − s

α

)]

y la independencia de los incrementos prueba que

K(s, t) = Var (Ns) =s

α.

Page 24: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

22

Ejemplo 2. (Movimiento browniano o proceso de Wienner)El movimiento browniano es un proceso estocastico real (Bt)t≥0 gaussiano tal que

E(Bt) = 0, ∀t ≥ 0, y con funcion de covarianzas

K(s, t) = σ2 mın(s, t), s, t ≥ 0

donde σ2 > 0.Se puede probar que K es, efectivamente, una funcion de covarianzas teniendo en cuenta

que coincide con la funcion de covarianzas del proceso de Poisson de promedio σ2. De ellose deduce que dos procesos estocasticos pueden tener la misma funcion de covarianzasmientras que sus distribuciones finito–dimensionales son muy distintas (se podrıa hacertambien una demostracion directa de este hecho construyendo el movimiento brownianomediante el teorema de extension de Kolmogorov y calculando su funcion de covarianzas,para lo cual necesitarıamos de algunas suposiciones y resultados auxiliares).

Notese que E(B20) = K(0, 0) = 0 y, entonces B0 = O P–c.s.. Por otra parte, si

0 ≤ t1 < t2 ≤ t3 < t4, entonces

E[(Bt2 −Bt1)(Bt4 −Bt3)] = E(Bt2Bt4)− E(Bt2Bt3)− E(Bt1Bt4) + E(Bt1Bt3)

= K(t2, t4)−K(t2, t3)−K(t1, t4) + K(t1, t3) = σ2(t2 − t2 − t1 + t1) = 0.

Analogamente, si 0 ≤ t1 < t2 ≤ t3 < t4 ≤ · · · ≤ t2n−1 < t2n, las v.a. Bt2 − Bt1 , Bt4 −Bt3 , ..., Bt2n −Bt2n−1 son incorreladas. Puesto que

−1 1 0 0 · · · 0 00 0 −1 1 · · · 0 0

...0 0 0 0 · · · −1 1

Bt1

Bt2...

Bt2n

=

Bt2 −Bt1

Bt4 −Bt3...

Bt2n −Bt2n−1

la distribucion conjunta de dichas v.a. es normal n–dimensional y, por tanto, son indepen-dientes.

Hemos probado que el movimiento browniano tiene incrementos independientes. Ademas,cada incremento Bt+h −Bt, con h > 0, tiene distribucion normal de media 0 y varianza

E[(Bt+h −Bt)2] = K(t + h, t + h)− 2K(t, t + h) + K(t, t) = σ2h.

Luego la distribucion de Bt+h−Bt no depende de t, es decir, el proceso tiene incrementosestacionarios.

Observaciones. 1)El movimiento browniano o proceso de Wiener fue estudiado porprimera vez por Wiener. Imaginemos una partıcula sumergida en un fluido y bombardea-da por las moleculas del mismo (que se suponen en movimiento termico). La partıculadescribe un movimiento que fue descrito en 1826 por el botanico ingles Brown. Einsteiny Smoluchovsky y, sobre todo, Wiener sentaron las bases matematicas adecuadas parael estudio del movimiento de dicha partıcula. Consideremos una sola componente de esemovimiento -supongamos que estamos interesados en la componente vertical- y denotemosBt la altura de la misma en el instante t respecto a un plano horizontal. El hecho de queB0 = 0 es solo una convencion: la partıcula comienza el movimiento en 0. La independenciade los incrementos se interpreta como sigue: los desplazamientos Bti−Bti−1 , 1 ≤ i ≤ k−1,

Page 25: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

23

que la partıcula sufre en los intervalos [ti−1, ti] no influyen de modo alguno en el despla-zamiento Btk − Btk−1

que sufre en el intervalo [tk−1, tk]. Que Bt tenga media cero reflejaque la partıcula tiene la misma predisposicion a moverse hacia arriba que hacia abajo. Lavarianza crece como la longitud h del intervalo: con el tiempo se hacen mas frecuentes lasgrandes desviaciones de la partıcula.

2) Consideremos ahora un recorrido aleatorio con un gran numero de pasos siendo eltamano de cada paso muy pequeno; ese recorrido aleatorio puede parecer una aproximacionrazonable para el movimiento de la partıcula descrito en la observacion anterior. Veamoslointuitivamente: supongamos que la partıcula comienza en 0 y salta cada 4t segundosmoviendose una distancia 4x hacia arriba con probabilidad 1/2 o hacia abajo con lamisma probabilidad (solo consideramos una componente del movimiento). Si Xn(t) esla posicion de la partıcula en el instante t = n4t, entonces Xn(t) es la suma de v.a.r.independientes Y1, ..., Yn donde

P (Yi = 4x = P (Yi = −4x) =12, 1 ≤ i ≤ n.

Entonces, Var[Xn(t)] = n(4x)2 = t4t(4x)2 y

Xn(t) =Y1 + · · ·+ Yn√

n4x

√n4x = Zn

√n4x

donde Zn tiene media cero y varianza 1. Supongamos ahora que 4x −→ 0 y 4t −→ 0de tal forma que el proceso lımite no sea trivial (si tomamos 4x = 4t y hacemos que4t −→ 0 entonces E[Xn(t)] y Var[Xn(t)] convergen ambos a 0 y el lımite serıa trivial),por ejemplo, supongamos que se verifica lo anterior y que, cuando

(4x)2

4t−→4t→0 σ2 > 0.

Entonces, el teorema lımite central prueba que Xn(t) converge en distribucion a una v.a.normal N(0, σ2t), digamos Xn(t) d−→n→∞ Bt. Si 0 ≤ t1 < · · · < tk, un argumento analo-go prueba la convergencia en distribucion de (Xn(t1), ..., Xn(tk)) a (Bt1 , ..., Btk), comoquerıamos probar.

Page 26: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Leccion 4: Calculo de Segundo Orden

A lo largo de esta leccion, (Xt)t∈T sera un L2–proceso, con T un intervalo de R. Inten-taremos desarrollar una teorıa en la que sea posible hablar de continuidad, diferenciacione integracion del proceso. Puesto que el conocimiento de la funcion de covarianzas no re-vela propiedad alguna de este tipo de las trayectorias, desarrollaremos esos conceptos ensentido L2.

Lema 10. Sean (Yn)n, (Zm)m, Y y Z variables aleatorias en L2. Si YnL2−→ Y y Zm

L2−→Z entonces E(YnZm) −→n,m→∞ E(Y Z).

Demostracion. Es simplemente el enunciado de que el producto escalar en L2 es con-tinuo en ambas variables.

El siguente resultado muestra como la existencia de un lımite L2 puede deducirse de laexistencia de lımites de sucesiones en C.

Teorema 11. Sean (Ys)s∈T un L2–proceso y s0 ∈ T . Son equivalentes

(i) Existe Y ∈ L2 tal que YsL2−→s→s0 Y .

(ii) Existe un numero complejo L tal que para cada par de sucesiones sn → s0 y s′m → s0,se tiene que E(YsnYs′m) −→n,m→∞ L

Demostracion. (i)=⇒(ii). Si YsL2−→s→s0 Y , entonces, por el lema anterior,

E(YsnYs′m) −→n,m→∞ L.

(ii)=⇒(i). Sea L ∈ C verificando (ii). Elijamos sn −→ s0. Entonces

E[|Ysn − Ysm |2] = E[(Ysn − Ysm)(Ysn − Ysm)] −→n,m→∞ 0

por hipotesis. Siendo L2 completo, (Ysn)n converge en L2 a un lımite Y . Si tomamos otrasucesion tn → s0, entonces

‖Ytn − Y ‖2 ≤ ‖Ytn − Ysn‖2 + ‖Ysn − Y ‖2

y

E[|Ytn − Ysn |2] = E(YtnYtn)− E(YtnYsn)−E(YsnYtn) + E(YsnYsn) = L− L− L + L = 0.

Luego YtnL2−→ Y y el resultado se sigue de ahı.

Como siempre, K denotara la funcion de covarianzas del L2–proceso (Xt)t∈T y m la funcionde medias: m(t) = mt = E(Xt), t ∈ T .

Definiciones. (L2–continuidad, L2–diferenciabilidad) El proceso (Xt)t∈T se dice L2–

continuo en el punto t ∈ T si y solo si Xt+hL2−→h→0 Xt. El proceso se dice L2–diferenciable

en t ∈ T si (Xt+h −Xt)/h converge en L2 a un lımite X ′t cuando h → 0.

24

Page 27: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

25

Teorema 12. Supongamos que m es continua en T . Entonces el proceso (Xt)t∈T esL2–continuo en t ∈ T si y solo si K es continua en (t, t).

Demostracion. Puesto que (Xt)t∈T es L2–continuo si y solo si (Xt−mt)t es L2–continuoy que (Xt −mt)t tiene funcion de covarianzas K, podemos suponer m ≡ 0. Si el procesoes L2 continuo en t ∈ T entonces

Xt+hL2−→h→0 Xt, Xt+h′

L2−→h′→0 Xt

y, por el lema anterior, K(t + h, t + h′) −→h,h′→0 K(t, t). Luego K es continua en (t, t).Recıprocamente, si K es continua en (t, t) entonces

E[|Xt+h −Xt|2] = E[(Xt+h −Xt)(Xt+h −Xt)] =

K(t + h, t + h)−K(t, t + h)−K(t, t + h) + K(t, t) −→h→0 0.

Corolario 13. Si K es continua en (t, t) para todo t ∈ T , entonces K es continua en(s, t) para todos s, t ∈ T .

Demostracion. Suponemos que m ≡ 0. Por el teorema anterior, Xs+hL2−→h→0 Xs y

Xt+h′L2−→h′→0 Xt. Por el lema, K(s + h, t + h′) −→h,h′→0 K(s, t).

En el caso estacionario se obtienen resultados analogos.

Teorema 14. Sea (Xt)t∈T un L2–proceso estacionario con funcion de covarianzas K =K(t), t ∈ u− v : u, v ∈ T.

a) Si el proceso es L2–continuo en un punto s entonces K es continua en el origen.

b) Si K es continua en el origen entonces K es continua en todo punto y el proceso esL2–continuo en cada punto t ∈ T .

Demostracion. a) Tenemos que Xs+tL2−→t→0 Xs y Xs

L2−→t→0 Xs y, por el lema,K(t) −→t→0 K(0).

b) Puesto que E[|Xt+h −Xt|2] = K(0)−K(h)−K(h) + K(0) −→h→0 0 el proceso es

continuo en cada punto t. Entonces, Xs+t+hL2−→h→0 Xs+t y Xs

L2−→h→0 Xs y, por el lema,K(t + h) −→h→0 K(t).

En el siguiente resultado relacionamos la L2–diferenciabilidad del proceso y la diferencia-bilidad de la funcion de covarianzas en el caso estacionario.

Teorema 15. Sea (Xt)t∈T un L2–proceso estacionario con funcion de covarianzas K =K(t). Si el proceso es L2–diferenciable en todo punto t ∈ T entonces K es dos vecesdiferenciable en T y (X ′

t)t∈T es un L2–proceso estacionario con funcion de covarianzas−K ′′(t).

Page 28: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

26

Demostracion. Puesto que Xs+tL2−→h→0 Xs+t y Xs+h−Xs

hL2−→h→0 X ′

s se sigue del lemaque

K(t− h)−K(t)h

−→h→0 E(Xs+t ·X ′s).

Entonces K es diferenciable en cada punto t ∈ T y

−K ′(t) = E(Xs+tX ′s).

Por otra parte, puesto que

Xs+t+h′ −Xs+t

h′L2−→h′→0 X ′

s+t y X ′s

L2−→h′→0 X ′s

se sigue del lema y de lo anterior que

−K ′(t + h′) + K ′(t)h′

−→h′→0 E(X ′s+tX

′s).

Existe pues K ′′(t) para cada t ∈ T y vale −E(X ′s+tX

′s).

Introducimos ahora la nocion de integracion en sentido L2.

Definicion. (L2–integral) Sea (Xt)a≤t≤b, (a, b ∈ R), un L2–proceso con funcion decovarianzas K y funcion de medias m, y sea g : [a, b] −→ C una aplicacion. Definamos∫ ba g(t)Xtdt como sigue:

Sea ∆ = a = t0 < t1 < · · · < tn = b una particion de [a, b] con |∆| = max1≤i≤n |ti −ti−1|; hagamos

I(∆) =n∑

k=1

g(tk)Xtk(tk − tk−1)

Es claro que I(∆) ∈ L2. Si I(∆) converge en L2 a alguna v.a. I cuando |∆| → 0 diremosque

I =∫ b

ag(t)Xtdt.

El siguiente teorema da una condicion suficiente para la L2–integrabilidad.

Teorema 16. Si m y g son continuas en [a, b] y K es continua en [a, b]×[a, b], entoncesg(t)Xt es L2–integrable en [a, b].

Demostracion. Podemos suponer m ≡ 0. Sean ∆ = a = s0 < s1 < · · · < sm = b y∆′ = a = t0 < t1 < · · · < tn = b. Entonces

I(∆)I(∆′) =m∑

j=1

n∑

k=1

g(sj)g(tk)XsjXtk(sj − sj−1)(tk − tk−1);

por tanto,

E[I(∆)I(∆′)] =m∑

j=1

n∑

k=1

g(sj)g(tk)K(sj , tk)(sj − sj−1)(tk − tk−1)

es una suma que aproxima a una integral de Riemann. El teorema que sigue al lema deesta leccion prueba que I(∆) converge en L2 a un lımite I cuando |∆| → 0.

Page 29: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

27

Observaciones. 1) La hipotesis de continuidad de g puede ser debilitada a continuidadc.s. respecto a la medida de Lebesgue.

2) El teorema anterior es un caso particular del siguiente resultado: Si f es una funcioncontinua definida en [a, b] y a valores en un espacio de Banach, entonces la integral deRiemann

∫ ba f(t)dt existe. Este resultado se puede probar imitando una de las pruebas

clasicas de la existencia de la integral de Riemann de una funcion real continua en [a, b].En nuestro caso la aplicacion f es t ∈ [a, b] → g(t)Xt ∈ L2.

Veamos algunas propiedades de la L2–integral.

Teorema 17. Si m ≡ 0, g y h son continuas en [a, b] y K es continua en [a, b]× [a, b],entonces

E

[∫ b

ag(s)Xsds

∫ b

ah(t)Xtdt

]=

∫ b

a

∫ b

ag(s)h(t)K(s, t)dsdt.

Ademas

E

[∫ b

ag(s)Xsds

]= E

[∫ b

ah(t)Xtdt

]= 0.

Demostracion. Sean

I(∆) =m∑

j=1

g(sj)Xsj (sj − sj−1),

J(∆′) =n∑

k=1

h(tk)Xtk(tk − tk−1),

I =∫ b

ag(s)Xsds y J =

∫ b

ah(t)Xtdt.

Por el teorema anterior,

I(∆) L2−→ I, J(∆′) L2−→ J.

Por el lema, E[I(∆)J(∆′)] −→ E[IJ ]. Se prueba, como en el teorema anterior, que

E[I(∆)J(∆′)] −→∫ b

a

∫ b

ag(s)h(t)K(s, t)dsdt

lo que prueba la primera afirmacion.

Por otra parte, I(∆) L2−→ I y 1 L2−→ 1 y, por el lema, E[I(∆)] −→ E[I]. Pero E[I(∆)] ≡ 0y, por tanto, E[I] = 0. Analogamente, E[J ] = 0.

Teorema 18. Si m ≡ 0, h es continua en [a, b] y K es continua en [a, b] × [a, b],entonces

E

[Xs

∫ b

ah(t)Xtdt

]=

∫ b

aK(s, t)h(t)dt.

Page 30: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

28

Demostracion. Sean J(∆′) =∑n

k=1 h(tk)Xtk(tk − tk−1) y J =∫ ba h(t)Xtdt. Entonces

J(∆′) L2−→ J . Como en el teorema anterior,

E[XsJ(∆′)] −→∫ b

aK(s, t)h(t)dt

de donde se sigue el resultado.

Ejemplos. 1) Consideremos v.a.r. Xt, t ∈ R, independientes con media cero y va-rianza comun σ2. Entonces (Xt)t∈R es un L2–proceso estacionario (en sentido amplio, sesobreentiende siempre en este capıtulo) con covarianza

K(t) = K(t, 0) = E(X0 ·Xt) = 0 · 0 = 0 si t 6= 0,

K(0) = K(0, 0) = E(X20 ) = Var (X0) = σ2.

Se sigue de los resultados precedentes que el proceso no es L2–continuo.2) (Movimiento browniano) El movimiento browniano (Bt)t≥0 es L2–continuo pero no

L2–diferenciable. Es L2–continuo pues K(s, t) = σ2 mın(s, t) es continua.Por otra parte, del teorema que sigue al lema se sigue que

E[(Xt+h −Xt)(Xt+h′ −Xt)]hh′

converge a un unico lımite finito cuando h y h′ tienden a cero si y solo si

Xt+h −Xt

h

converge a un lımite en L2 cuando h → 0. En nuestro caso, Bt+h−Bt

h converge a un lımiteen L2 cuando h tiende a cero si y solo si

[K(t + h, t + h′)−K(t, t + h′)−K(t, t + h) + K(t, t)]hh′

converge a un lımite finito cuando h, h′ → 0. Puesto que K(s, t) = σ2 mın(s, t), tomandoh = h′ > 0 se obtiene que la expresion anterior es igual a

σ2 t + h− t− t + t

h2=

σ2

h

que converge a infinito cuando h tiende a cero. Luego (Bt)t≥0 no es L2–diferenciable.

Page 31: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Leccion 5: Desarrollo de Karhunen–Loeve.

Sea (Xt)a≤t≤b, a, b ∈ R, un L2–proceso con media cero y funcion de covarianzas continuaK. Nos preguntamos por la posibilidad de obtener un desarrollo ortogonal de Xt:

Xt =∞∑

k=1

Zkek(t), a ≤ t ≤ b,

donde la serie converge en L2; deseamos que las Zk sean v.a. en L2 de media cero yortogonales, es decir, tales que E(ZjZk) = 0 si j 6= k; deseamos tambien que las funcionesek : T −→ C sean ortonormales, es decir, que

∫ b

aej(t)ek(t)dt =

0 si j 6= k1 si j = k

Ası, si∑n

j=1 Zjej(s)L2−→n→∞ Xs y

∑nk=1 Zkek(t)

L2−→n→∞ Xt, el lema de la leccion anteriorprueba que

E[n∑

j,k=1

ZjZkej(s)ek(t)] −→n→∞ K(s, t)

es decir,

K(s, t) =∞∑

k=1

λkek(s)ek(t)

donde λk = E(|Zk|2). Supuesto que podemos integrar termino a termino, tendrıamos

∫ b

aK(s, t)en(t)dt = λnen(s), a ≤ s ≤ b.

Entonces, si un desarrollo como el anterior existe, las funciones ek aparecen como auto-vectores (autofunciones) del operador integral asociado con la funcion de covarianzas delproceso, y las varianzas λk de las v.a. Zk son los autovalores del operador. Notese que siλn 6= 0 entonces en es continua (dividir la ultima expresion por λn y utilizar el teoremade la convergencia dominada).

Antes de probar que un desarrollo tal es posible necesitaremos algunos resultados sobreteorıa de espacios de Hilbert.

Sea K una funcion de covarianzas continua, es decir, una aplicacion K : [a, b]×[a, b] −→C continua, simetrica y semidefinida positiva. Sea A : L2[a, b] −→ L2[a, b] el operadorintegral en L2[a, b] asociado a K, definido en un punto x ∈ L2[a, b] por

(Ax)(s) =∫ b

aK(s, t)x(t)dt, a ≤ s ≤ b.

Las autofunciones de A (es decir, los puntos x ∈ L2[a, b] tales que Ax = λx para algunλ ∈ C) engendran L2[a, b], es decir, el mas pequeno subespacio cerrado de L2[a, b] quecontiene las autofunciones de A es el propio L2[a, b]. El operador A tiene a lo mas unacantidad numerable de autovalores, todos ellos reales, con 0 como unico posible puntolımite. Los autovalores no nulos son mayores que cero por ser K semidefinida positiva. El

29

Page 32: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

30

subespacio engendrado por las autofunciones correspondientes a un autovalor mayor quecero es finito dimensional.

Sea en : n = 1, 2, ... una base ortonormal para el subespacio engendrado por lasautofunciones correspondientes a autovalores no nulos. Si tomamos la base de forma queen es un autovector correspondiente al autovalor λn, el teorema de Mercer prueba que

K(s, t) =∞∑

n=1

λnen(s)en(t), ∀(s, t) ∈ [a, b]2,

donde la serie es absolutamente convergente y converge ademas uniformemente en ambasvariables. (Ver Riesz and Sz. Nagy: ”Funtional Analysis”, 1955, o Assh, R.B.: ”InformationTheory”, 1965, para los resultados precedentes).

Estamos ya en condiciones de establecer el teorema que deseabamos.

Teorema 19. (Karhunen–Loeve) Sea (Xt)a≤t≤b, a, b ∈ R, un L2–proceso con mediacero y funcion de covarianzas continua K. Sea (en)n=1,2,... una base ortonormal del subes-pacio cerrado engendrado por las autofunciones de los autovalores no nulos del operadorintegral asociado a K, donde en es un autovector correspondiente al autovalor λn. Entonces

Xt =∞∑

n=1

Znen(t), a ≤ t ≤ b,

donde Zn =∫ ba Xten(t)dt, y las Zn son v.a. ortogonales con media cero y varianzas

E(|Zn|2) = λn. La serie converge en L2 a Xt uniformemente en t ∈ [a, b], en otras pa-labras,

supt∈[a,b]

E[|Xt −n∑

k=1

Zkek(t)|2] −→n→∞ 0.

Demostracion. El teorema 16 prueba que∫ ba Xten(t)dt define una v.a. Zn en L2. El

teorema 17 prueba que E(Zn) = 0 y que

E(ZjZk) =∫ ba ej(s)

∫ ba K(s, t)ek(t)dtds

= λk

∫ ba ej(s)ek(s)ds =

0 si j 6= kλk si j = k

Sea Sn,t =∑n

k=1 Zkek(t). Entonces

E[|Xt − Sn,t|2] = E(|Xt|2)− 2ReE(XtSn,t) + E[|Sn,t|2](8)

= K(t, t)− 2Re∑n

k=1 E(XtZk)ek(t) +∑n

k=1 λk|ek(t)|2.(9)

Por el teorema 18, E(XtZk) =∫ ba K(t, u)ek(u)du = λkek(t). Entonces,

E[|Xt − Sn,t|2] = K(t, t)−n∑

k=1

λk|ek(t)|2 −→n→∞ 0

uniformemente en t ∈ [a, b], por el teorema de Mercer.

Page 33: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

31

Para un proceso gaussiano el teorema de Karhunen–Loeve toma una forma especial; ne-cesitamos el siguiente resultado previo:

Teorema 20. Para n = 1, 2, ..., sean In1 , ..., In

p v.a. complejas con distribucion con-

junta normal. Supongamos que Inj

L2−→ Ij , cuando n → ∞, 1 ≤ j ≤ p. Entonces I1, ..., Ip

tienen distribucion conjunta normal.

Demostracion. Puesto que la L2 convergencia de v.a. complejas es equivalente a laL2 convergencia de sus partes real e imaginaria, podemos suponer reales todas las v.a.consideradas. La funcion caracterıstica conjunta de In

1 , ..., Inp es

hn(u1, ..., up) = E[exp(ip∑

j=1

ujInj )]

= exp[ip∑

j=1

ujbnj ] exp[−1

2

p∑

j,m=1

ujσnjmum]

donde bnj = E(In

j ) y σnjm = Cov (In

j , Inm). El lema 10 prueba que bn

j → bj = E(Ij) yσn

jm → σjm = Cov (Ij , Im). Entonces

(10) hn(u1, ..., up) −→ exp(ip∑

j=1

ujbj ] exp[−12

p∑

j,m=1

ujσnjmum],

para cada (u1, ..., up) ∈ Rp.Pero u1I

n1 + · · ·+ upI

np converge a u1I1 + · · ·+ upIp en L2 y, entonces, en probabilidad

y, entonces, en distribucion. Por el teorema de Levy, la funcion caracterıstica de u1In1 +

· · ·+upInp converge puntualmente a la funcion caracterıstica de u1I1 + · · ·+upIp, es decir,

E[exp(itp∑

j=1

ujInj )] −→n→∞ E[exp(it

p∑

j=1

ujIj)], ∀t ∈ R,

y, en particular, para t = 1. Por tanto,

hn(u1, ..., up) −→ h(u1, ..., up),

donde h es la funcion caracterıstica conjunta de I1, ..., Ip. De esto y de (10) se sigue queI1, ..., Ip tienen distribucion conjunta normal.

Teorema 21. (Karhunen–Loeve para procesos gaussianos) En las hipotesis del teore-ma de Karhunen–Loeve, si ademas (Xt)t es un proceso gaussiano, entonces las Zk formanuna sucesion gaussiana, es decir, Z1, ..., Zk tienen distribucion conjunta normal para cadak ≥ 1. Si las v.a. Xt son reales, entonces las Zk son independientes.

Demostracion. Sea Ij(∆) =∑n

m=1 Xtmej(tm)(tm− tm−1), j = 1, ..., p, una suma apro-ximada a Zj =

∫ ba Xtej(t)dt. De las propiedades de la distribucion normal multivariante se

sigue que I1(∆), ..., Ip(∆) tienen distribucion conjunta normal. Pero Ij(∆) L2−→ Zj cuando

Page 34: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

32

|∆| → 0, 1 ≤ j ≤ p. Luego Z1, ..., Zp tienen distribucion conjunta normal por el teoremaanterior.

En el caso real, puesto que E(Zj · Zk) = Cov(Zj , Zk) = 0 si j 6= k (las Zk sonortogonales), las Zj son dos a dos incorreladas y, entonces, independientes.

Observacion. Ası pues, para un proceso gaussiano real, el desarrollo de Karhunen–Loeve es una serie de v.a. independientes. Puesto que la serie converge en L2 (por tanto,en distribucion), para cada t fijo, la serie converge con probabilidad 1. Existe pues un sucesoNt de probabilidad 0 tal que, para cada ω /∈ Nt,

∑∞n=1 Zn(ω)en(t) converge a Xt(ω). Son

demasiados Nt como para poder concluir de ahı que existe un suceso N de probabilidadnula tal que

∑∞n=1 Zn(ω)en(t) converge a Xt(ω), ∀ω /∈ N , ∀t. No obstante, se prueba que

existe un suceso N de probabilidad 0 tal que, para cada ω /∈ N ,∑∞

n=1 Zn(ω)en(t) convergea Xt(ω) para casi todo t (medida de Lebesgue).

Ejemplo 3. Sea K(s, t) = mın(s, t), s, t ∈ [0, 1] (si suponemos ademas que el procesoes gaussiano obtenemos un movimiento browniano restringido a [0, 1]). Para encontrar losautovalores del operador integral asociado a K, debemos resolver la ecuacion integral

∫ 1

0mın(s, t)e(t)dt = λe(s), 0 ≤ s ≤ 1,

es decir,

(11)∫ s

0te(t)dt + s

∫ 1

se(t)dt = λe(s), 0 ≤ s ≤ 1.

Si λ 6= 0, entonces e es continua y podemos derivar con respecto a s para obtener

(12)∫ 1

se(t)dt = λe′(s).

Derivemos de nuevo para obtener

(13) −e(s) = λe′′(s).

Si λ = 0, el desarrollo anterior da e(s) = 0 c.s. con lo cual 0 no es un autovalor.La solucion de la ecuacion diferencial anterior es

(14) e(s) = A sins√λ

+ B coss√λ

.

Hagamos s = 0 en (19) para obtener e(0) = 0; luego B = 0 en (30).Hagamos ahora s = 1 en (27) para obtener e′(1) = 0. Luego

cos1√λ

= 0, o1√λ

= (2n− 1)π

2, n = 1, 2, ...

Los autovalores son entoncesλn =

4(2n− 1)2

/π2

Page 35: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

33

y las autofunciones ortonormalizadas son

en(t) =√

2 sin2n− 1

2πt, n = 1, 2, ...

Finalmente, haciendo Z∗n = Zn/√

λ, donde las Zn son como en el teorema de Karhunen–Loeve, se obtiene

Xt =√

2∞∑

n=1

Z∗nsin(n− 1

2)πt

(n− 12)π

donde las Z∗n son ortogonales con media 0 y varianza 1. En el caso gaussiano son inde-pendientes y, entonces, para cada t la serie converge c.s.. De hecho puede probarse (verproblema 1.4.5. en Ash, Gardner) que existe un suceso nulo N tal que si ω /∈ N , entonces

√2

2n∑

k=1

Z∗k(ω)(k − 1

2)πsin(k − 1

2)πt

converge cuando n → ∞, digamos a Yt(ω), uniformemente para t ∈ [0, 1]. Entonces, siω /∈ N , Yt(ω) es continua en t y si hacemos Yt(ω) = 0 para ω /∈ N y todo t, entonces Yt(ω)es continua en t para todo ω. Ahora bien, para cada t, Xt(ω) = Yt(ω) para casi todo ω y, enese sentido, (Xt)0≤t≤1 es equivalente a (Yt)0≤t≤1; en particular, los dos procesos tienen lasmismas distribuciones finito–dimensionales y, entonces, la misma funcion de covarianzas.He aquı otra forma de probar la existencia de un movimiento browniano con trayectoriascontinuas.

Page 36: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Leccion 6: Problemas de Estimacion.

Sea (Xt)t∈T un L2–proceso, y sea S = L2Xt, t ∈ T el subespacio cerrado engendradopor las Xt, es decir, S consiste en todos los L2–lımites de combinaciones lineales finitas deX ′

ts. Podemos pensar en S como en el espacio de todas las v.a. que se obtienen por unaoperacion lineal en las Xt. Ası pues, las L2–derivadas y las L2–integrales de (Xt)t∈T , siexisten, estan en S.

Por otra parte, la aplicacion

X = (Xt)t∈T : (Ω,A, P ) −→ (RT ,RT ), (o CT ,B(CT ))

definida por X(ω) = (Xt(ω))t∈T para cada ω ∈ Ω es medible. Sea AX = X−1(RT ) laσ–algebra engendrada por X. Es sabido que una aplicacion Z : Ω −→ R es AX–mediblesi y solo si existe una v.a.r. g : (RT ,RT ) −→ (R,R) tal que Z = g X (algo analogo estambien cierto en el caso complejo). Diremos de Z que es una funcion Borel medible deX en ese caso. Denotemos S0 = L2(Ω,AX , P ) (es decir, la clase de las funciones mediblesde X que pertenecen a L2).

Consideraremos dos problemas de estimacion. Sea Y una v.a.r. en L2(Ω,A, P ):1) Encontrar el elemento Y de S mas proximo a Y , es decir, Y ∈ S e ‖Y − Y ‖ =

ınfW∈S ‖W − Y ‖. Entonces Y es el mejor estimador de Y basado en una operacion linealde las Xt.

2) Encontrar el elemento Y ∗ de S0 mas proximo a Y . Entonces Y ∗ es el mejor estimadorde Y basado en una operacion Borel medible arbitraria de las Xt.

Dicho de otro modo, Y es la proyeccion ortogonal de Y sobre S, caracterizada como elelemento de S (identificamos v.a. que coinciden c.s.) tal que Y − Y⊥S. Equivalentemente,Y − Y es ortogonal a todas las Xt, es decir,

E(Y ·Xt) = E(Y ·Xt), ∀t ∈ T.

Ejemplo 4. Sea Xn = Zn +Wn, n ∈ Z; interpretaremos Z como una ”senal 2W comoun ruido”no deseable. Supongamos que (Zn)n y (Wn)n son estacionarios con media cero yfunciones de covarianzas KZ y KW . Supongamos tambien que Zn y Wm son incorreladaspara todo par n,m ∈ Z. Pretendemos estimar una v.a. Y a partir de una combinacionlineal en Xr, Xr−1, ..., Xr−M . Ası pues, en este caso, T = r, r− 1, ..., r−M y S consisteen todas las combinaciones lineales

∑Mj=0 cjXr−j . Por ejemplo, si Y = Zr+α, α ∈ N, α > 0,

tenemos un problema de ”prediccion”; si Y = Zr tenemos un problema de ”suavizacion”.Puesto que Y ∈ S podemos escribir Y =

∑Mj=0 hjXr−j para algunas constantes h0, ..., hM .

Y queda caracterizado por las condiciones

E(Y ·Xr−i) = E(Y ·Xr−i), i = 0, 1, ..., M

o bien

E(Y ·Xr−i) =M∑

j=0

KX(i− j)hj , i = 0, 1, ...M.

Si Y = Zr+α entonces

E(Y ·Xr−i) = E(Zr+α[Zr−i + Wr−i] = KZ(α + i);

34

Page 37: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

35

ademas KX = KZ + KW . Entonces, las ecuaciones que determinan Y son

KX(0) KX(−1) · · · KX(−M)KX(1) KX(0) · · · KX(−M + 1)...

...KX(M) KX(M − 1) · · · KX(0)

h0

h1...hM

=

KZ(α)KZ(α + 1)...KZ(α + M)

.

Notese que si KX es singular (de modo que Xr, ..., Xr−M son linealmente dependientes)existen infinitas soluciones a esa ecuacion, pero todas ellas corresponden (c.s.) al mismoY puesto que Y es unico en virtud del teorema de la proyeccion ortogonal. En vista dela dependencia lineal, cada elemento de S puede representarse de muchas formas comocombinacion lineal de Xr, ..., Xr−M .

Consideremos ahora el segundo problema. Se verifica que Y ∗ = E(Y |AX) (que se denotatambien por E(Y |X) sin que ello nos lleve a confusion).

En efecto, Y ∗ es la proyeccion de Y sobre S0 y, por tanto, < Y, Z >=< Y ∗, Z > ,∀Z ∈ S0. En particular, si A ∈ AX y Z = IA,

AY dP =

AY ∗dP ;

ademas Y ∗ ∈ S0 y, por tanto, es AX–medible.Notese que S ⊂ S0 y, entonces, ‖Y − Y ∗‖ ≤ ‖Y − Y ‖.Existe un caso particularmente importante en el que Y = Y ∗, con lo cual el mejor

estimador lineal coincide con el mejor estimador.

Teorema 22. Si Y ∪ Xt : t ∈ T es un proceso gaussiano y todas las variablestienen media cero entonces Y = Y ∗.

Demostracion. Puesto que Y ∈ S, Y es L2–lımite de alguna sucesion de combinacioneslineales finitas de X ′

ts, digamos

Yn =rn∑

j=1

cnjXtnj

L2−→ Y .

Dados t1, ..., tm, Y − Yn, Xt1 , ..., Xtm tienen distribucion conjunta normal (pues el vec-tor Y − Yn, Xt1 , ..., Xtm se obtiene multiplicando el vector Y, Xt1 , ..., Xtm por una ma-triz y este ultimo tiene distribucion conjunta normal) y, entonces, por el teorema ??Y − Y , Xt1 , ..., Xtm tienen distribucion conjunta normal. Luego Y − Y ∪ Xt : t ∈ T esun proceso gaussiano.

Fijemos t1, ..., tn. Puesto que Y −Y es ortogonal a todas las Xt, la matriz de covarianzasde Y − Y , Xt1 , ..., Xtn tiene la forma

K =

a 0 0 · · · 00 b11 b12 · · · b1n

0 b21 b22 · · · b2n...

...0 bn1 bn2 · · · bnn

.

Page 38: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

36

Si a = Var (Y − Y ) = 0, entonces Y = Y c.s. y, entonces, Y ∈ S ⊂ S0, con lo cualY = Y ∗ c.s. y, habremos terminado. Supongamos ahora a > 0. Si B = (bij)i,j=1,...,n es nosingular, K−1 es de la misma forma que K. Se sigue de la forma de la densidad conjunta deY − Y , Xt1 , ..., Xtn que Y − Y y Xt1 , ..., Xtn son independientes. Si B es singular, el mismoargumento prueba que Y − Y y Xs1 , ..., Xsr son independientes, donde Xs1 , ..., Xsr es unsubconjunto libre maximal de Xt1 , ..., Xtn. Puesto que, en ese caso (Xt1 , ..., Xtn) es unafuncion lineal de (Xs1 , ..., Xsr), Y −Y y (Xt1 , ..., Xtn) son independientes tambien en el casoB singular. Puesto que t1, ..., tn son arbitrarios, Y − Y y X son independientes. EntoncesE(Y − Y |AX) = E(Y − Y ) = 0 (pues Y y las Xt tienen media 0). Pero Y ∈ S ⊂ S0 y,entonces, Y es AX–medible. Se sigue pues que E(Y |AX) = Y . Luego Y ∗ = E(Y |AX) = Y .

Page 39: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Leccion 7: El filtro de Kalman.

Consideremos el siguiente modelo para un proceso estocastico:

X(k + 1) = Φ(k)X(k) + U(k), k = 0, 1, 2, ...

donde X(k) y U(k) son v.a. n–dimensionales y Φ(k) es una matriz cuadrada de ordenn conocida. Si X(k) representa el estado del sistema en el instante k, X(k + 1) es unatransformacion lineal conocida de X(k) mas un “ruido” aleatorio U(k). Supondremos quelas U(k) tienen media 0 y son ortogonales: E[U(j)U∗(k)] = Q(k)δjk donde ∗ denota eltraspuesto conjugado, δjk es la delta de Kronecker y Q(k) es una matriz de orden nsemidefinida positiva.

Supondremos tambien que no podemos observar directamente X(k) pero que, en sulugar, observamos un proceso V (k) relacionado con X(k) mediante:

V (k) = H(k)X(k) + W (k), k = 0, 1, 2, ...

donde V (k) y W (k) son v.a. m–dimensionales y H(k) una matriz de orden m×n conocida.Ası V (k), la observacion en el instante k, es una conocida transformacion lineal de X(k)mas un ruido aleatorio W (k). Supondremos tambien que las W (k) tienen media 0 y sonortogonales: E[W (j)W ∗(k)] = R(k)δjk.

Supondremos finalmente que X(0) y los procesos ruido (U(k))k y (W (k))k son mu-tuamente ortogonales, es decir, para cada j, k = 0, 1, 2, ..., E[U(j)W ∗(k)], E[X(0)U∗(j)] yE[X(0)W ∗(k)] son matrices nulas.

Antes de continuar con el problema planteado por Kalman veamos algunos conceptosy resultados utiles a la hora de resolver dicho problema.

Pretendemos encontrar el estimador de mınimos cuadrados X(k) de X(k) basado enlas observaciones anteriores V (0), ..., V (k − 1). Ası X(k) sera el vector n–dimensionalcuya i–esima componente, Xi(k), es la proyeccion ortogonal de la i–esima componentede X(k), Xi(k), sobre el subespacio de L2(Ω,A, P ) generado por las componentes deV (0), ..., V (k − 1).

Definicion. (Estimador lineal de mınima varianza) Sean X ∈ Ln2 (Ω,A, P ) e Y ∈

Lm2 (Ω,A, P ). El estimador lineal de mınima varianza de X basado en Y es una v.a. n–

dimensional de cuadrado sumable X ∈ Ln2 (Ω,A, P ) tal que

1)X = K · Y para alguna matriz escalar K de orden n×m.2) ‖X −X‖ es mınimo entre todos los estimadores de X de la forma C · Y siendo C

una matriz de orden n×m.

Observaciones. 1) En Ln2 (Ω,A, P ) la operacion < X, Y >≡ E(Xt · Y ) es un producto

interior y Ln2 (Ω,A, P ) dotado con dicha operacion es un espacio de Hilbert.

2) Si M es un subespacio cerrado de L2(Ω,A, P ) entonces Mn es un subespacio cerradode Ln

2 (Ω,A, P ).3) X = (X1, ..., Xn) es la proyeccion de X = (X1, ..., Xn) sobre Mn si y solo si Xi es

la proyeccion de Xi sobre M , para cada i.

Teorema 23. (Gauss–Markov) Sean X e Y v.a. n– y m–dimensionales de cuadradosumable. Entonces el estimador lineal de mınima varianza de X basado en Y es X = K ·Ydonde K = E(XY t)E(Y Y t)−1, si E(Y Y t) es inversible. Ademas

E[(X −X)(X −X)t] = E(XXt)−KE(Y Xt).

37

Page 40: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

38

Demostracion. Denotemos por M el subespacio lineal de L2(Ω,A, P ) generado porlas componentes Y1, ..., Ym de Y . Para cada i ∈ 1, ..., n, sea Xi la proyeccion de lacoordenada i–esima Xi de X sobre M . Xi sera de la forma

Xi =m∑

j=1

kijYj .

Puesto que Xi −Xi ⊥ M , 1 ≤ i ≤ n, se tiene que

0 = E[(Xi −m∑

j=1

kijYj)Yr], 1 ≤ r ≤ m,

es decir,

E(XiYr) =m∑

j=1

kijE(YjYr), 1 ≤ r ≤ m,

que en forma matricial se puede expresar como

E(XiY1)...

E(XiYm)

=

E(Y1Y1)... E(Y1Ym)

......

E(YmY1) · · · E(YmYm)

ki1...

kim

de donde se deduce que

ki1...

kim

=

E(Y1Y1)... E(Y1Ym)

......

E(YmY1) · · · E(YmYm)

−1

E(XiY1)...

E(XiYm)

o bien

(ki1, ..., ki,m) = (< Y1, Xi >, ..., < Ym, Xi >)

< Y1, Y1 >... < Y1, Ym >

......

< Ym, Y1 > · · · < Ym, Ym >

−1

.

Si K = (kij)i,j , entoncesK = E(XY t)E(Y Y t)−1

como querıamos probar.Para calcular la covarianza error (que no la matriz de covarianzas del error X − X),

notemos que

E[(X −X)(X −X)t] = E[(X −X)Xt]− E[(X −X)Xt].

Pero X −X ⊥ Mn y, por tanto, E[(X −X)Y t] = 0. Entonces,

(15) E[(X −X)Xt] = E[(X −X)(KY )t] = E[(X −X)Y t]Kt = 0

Luego

E[((X −X)(X −X)t] =−E[(X −X)Xt] =

= E(XXt)−E(XXt) =E(XXt)−KE(Y Xt)

Page 41: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

39

Antes de demostrar el teorema de actualizacion estatica veamos un lema tecnico.

Lema 24. Sean X ∈ Ln2 (Ω,A, P ), Y2 ∈ Lm

2 (Ω,A, P ), M1 un subespacio cerrado deL2(Ω,A, P ) y M2 el subespacio engendrado por las componentes de Y2. Denotemos porX1 la proyeccion de X sobre Mn

1 y por Y2 la proyeccion de Y2 sobre Mm1 , y hagamos

Y2 = Y2 − Y2. Entonces, la proyeccion de X sobre (M1 + M2)n viene dada por

X2 = X1 + E(XY t2 )E(Y2Y

t2 )−1Y2

supuesto que la matriz E(Y2Yt2 ) es inversible.

Demostracion. Puesto que Y2 := Y2− Y2, se deduce que Y2 ⊥ Mm1 . Entonces Y2i ⊥ M1,

1 ≤ i ≤ m, donde Y2i denota la componente i–esima de Y2. Sea M2 el subespacio vectorialengendrado por las componentes de Y2. Entonces M2 ⊥ M1 en L2(Ω,A, P ). Por tanto,Mn

2 ⊥ Mn1 en Ln

2 (Ω,A, P ).Por otra parte, puesto que Y2 = Y2 − Y2, cada componente de Y2 es la suma de un

vector de M2 y otro de M1; ası pues, cada vector en M2 es la suma de un vector de M2 yotro de M1, es decir,

(16) M2 ⊂ M1 + M2.

Ademas Y2 = Y2 + Y2 y un argumento similar prueba que

(17) M2 ⊂ M1 + M2.

Sumando M1 a cada miembro en (16) y (17) se obtiene

M1 + M2 = M1 + M2.

Entonces(M1 + M2)n = (M1 + M2)n = Mn

1 + Mn2 ,

donde la ultima igualdad se sigue de que si x1, ..., xn ∈ M1 e y1, ..., yn ∈ M2, (x1 +y1, ..., xn + yn) = (x1, ..., xn) + (y1, ..., yn) ∈ Mn

1 + Mn2 .

Puesto que Mn2 ⊥ Mn

1 , la proyeccion de X sobre (M1 +M2)n = Mn1 +Mn

2 , que es iguala X2, es la suma de la proyeccion de X sobre Mn

1 (que es X1) mas la proyeccion de X

sobre Mn2 (que, por el teorema de Gauss–Markov es igual a E(XY t

2 )E(Y2Yt2 )−1Y2), lo que

acaba la prueba.

Nota: Se ha usado que si M y N son subespacios cerrados y m y n son las proyeccionesde X sobre M y N respectivamente, entonces, m + n es la proyeccion de X sobre M + N .En efecto, dicha proyeccion existe pues M + N es un subespacio cerrado. Por otra parte,si (xk) es una sucesion en M + N convergente a x entonces xk = mk + nk (mk ∈ M ,nk ∈ N), para cada k ∈ N y

‖xk − xk′‖2 = ‖mk −mk′‖2 + ‖nk − nk′‖2 −→k,k′→∞ 0,

Page 42: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

40

que prueba que (mk) converge a m ∈ M y (nk) converge a n ∈ N y x = m + n ∈ M + N .Ademas, para cada m′ ∈ M y n′ ∈ N ,

< X −m− n,m′ + n′ > =< X −m,m′ > + < X −m,n′ > − < n, n′ > − < n,m′ >=< X −m,n′ > − < n, n′ >=< X − n, n′ > − < m, n′ > .

Luego, m + n es la proyeccion de X sobre M + N .

Lema 25. (Teorema de actualizacion estatica) Supongamos que los vectores aleatoriosX e Y2 estan relacionados por

Y2 = HX + W

donde H es una matriz escalar m × n y W un vector aleatorio tal que R = E(WW t)es conocida. Ademas, supongamos que X1 es el estimador lineal de mınima varianza deX basado en un vector aleatorio Y1 tal que E(Y1Y

t1 ) es inversible, y que X1 y P1 =

E[(X − X1)(X − X1)t] son conocidos. Supongamos en fin que

E(XW t) = 0 y E(Y1Wt) = 0.

Si Y =(

Y1

Y2

), entonces el estimador lineal de mınima varianza X2 de X basado en Y

viene dado por

X2 = X1 + P1Ht(HP1H

t + R)−1(Y2 −HX1),

si HP1H + R es inversible, y el nuevo error covarianza P2 = E[(X − X2)(X − X2)t] vienedado por

P2 = P1 − P1Ht[HP1H

t + R]−1HP1.

Demostracion. Sea M1 el subespacio generado por las componentes de Y1. Por el teo-rema de Gauss–Markov, la proyeccion Y2 de Y2 sobre Mm

1 viene dada por

Y2 = E(Y2Yt1 )E(Y1Y

t1 )−1Y1.

Puesto que Y2 = HX + W , se sigue que

Y2 =E[(HX + W )Y t1 ]E(Y1Y

t1 )−1Y1

=[HE(XY t1 ) + E(WY t

1 )]E(Y1Yt1 )−1Y1

=HE(XY t1 )E(Y1Y

t1 )−1Y1;

entonces, Y2 = HX1.Hagamos Y2 = Y2 − Y2. Por el lema anterior,

X2 = X1 + E(XY t2 )E(Y2Y

t2 )−1Y2.

Puesto que Y2 = HX1 e Y2 = HX + W , se tiene que

Y2 = Y2 − Y2 = H(X − X1) + W.

Page 43: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

41

Entonces

E(XY t2 ) =E[X(H(X − X1) + W )t]

=E[X(X − X1)tHt] + E(XW t)

=E[X(X − X1)t]Ht.

Puesto que X − X1 ⊥ Mn1 , se tiene que Xi − X1i ⊥ M1, ∀i. Pero X1j ∈ M1, ∀j. Luego

Xi − X1i ⊥ X1j , ∀i, j. Por tanto, E[X1(X − X1)t] = 0. Se deduce que

E(XY t2 ) = E[(X − X1)(X − X1)t]Ht = P1H

t.

Analogamente,

E(Y2Yt2 ) =E[(H(X − X1) + W )(H(X − X1) + W )t]

=HE[(X − X1)(X − X1)t]Ht + HE[(X − X1)W t]

+ E[W (X − X1)t]Ht + E(WW t).

Ahora, X1 = KY1 donde K es la matriz escalar del teorema de Gauss–Markov. Entonces

0 = K · 0 = KE(Y1Wt) = E(KY1W

t) = E(X1Wt).

Por hipotesis E(XW t) = 0. Entonces

E(Y2Yt2 ) = HP1H

t + R.

LuegoX2 = X1 + P1H

t(HP1Ht + R)−1(Y2 −HX1),

que es la primera parte del lema.Denotemos M = (HP1H

t + R)−1. Notemos que M = M t. Entonces

X2 = X1 + P1HtM(Y2 −HX1)

y

P2 =E[(X − X2)(X − X2)t]

=E[(X − X1 − P1HtMY2)(X − X1 − P1H

tMY2)t]

=E[(X − X1)(X − X1)t]− P1HtME[Y2(X − X1)t]

−E[(X − X1)Y2)t]MHP1 + P1HtME(Y2Y

t2 )MHP1

=P1 − P1HtME[(H(X − X1) + W )(X − X1)t]

−E[(X − X1)(H(X − X1) + W )t]MHP1

+ PHtME[Y2Yt2 ]MHP1

=P1 − P1HtMHP1 − P1H

tMHP1 + P1HtMM−1MHP1

=P1 − 2P1HtMHP1 + P1H

tMHP1

=P1 − P1HtMHP1

LuegoP2 = P1 − P1H

t(HP1Ht + R)−1HP1.

Page 44: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

42

A partir de ahora consideraremos el modelo que definıamos al comienzo de esta leccion.El teorema que sigue proporciona formulas recursivas para el estimador lineal de mınimoscuadrados de X(k) basado en las observaciones anteriores y la covarianza error producidapor dicha estimacion.

Teorema 26. (Kalman, 1960) Sean X(k|j) la proyeccion de X(k) sobre Mnj , donde

Mj es el subespacio de L2(Ω,A, P ) generado por las componentes de V (0), V (1), ..., V (j)y

P (k|j) = E

[(X(k|j)−X(k)

)(X(k|j)−X(k)

)t]

.

Entonces, si K(k) es la matriz de ganancia de Kalman definida por

K(k + 1) = P (k + 1|k)H(k + 1)t[H(k + 1)P (k + 1|k)H(k + 1)t + R(k + 1)

]−1

se verifican las siguientes igualdades

(a) X(k + 1|k + 1) = φ(k)X(k|k) + K(k + 1)[V (k + 1)−H(k + 1)φ(k)X(k|k)

]

(b) P (k|k) = [I −K(k)H(k)]P (k|k − 1)

(c) P (k + 1|k) = φ(k)P (k|k)φ(k)t + Q(k), y

(d) X(k + 1|k) = φ(k)X(k|k) = φ(k)X(k|k − 1) + φ(k)K(k)[V (k)−H(k)X(k|k − 1)

].

Demostracion. Denotemos Yj =

V (0)V (1)

...V (j)

. De acuerdo con el teorema de Gauss–

Markov se tiene que

X(k|k) = E(X(k)Y t

k

)E

(YkY

tk

)+Yk.

Por hipotesis U(k) es ortogonal, para j ≤ k, a X(j) y a W (j) y, por tanto,

(18) E[U(k)Y t

j

]= 0, si j ≤ k.

Ahora bien, teniendo en cuenta la igualdad anterior,

X(k + 1|k) = E[X(k + 1)Y t

k

]E

[YkY

tk

]+Yk

= E[(φ(k)X(k) + U(k))Y t

k

]E

[YkY

tk

]+Yk

= φ(k)E(X(k)Y t

k

)E

(YkY

tk

)+Yk

Luego, X(k + 1|k) = φ(k)X(k|k).

Page 45: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

43

Por tanto,

P (k + 1|k) = E

[(X(k + 1|k)−X(k + 1)

)(X(k + 1|k)−X(k + 1)

)t]

= E

[(φ(k)

(X(k|k)−X(k)

)− U(k)

) (φ(k)

(X(k|k)−X(k)

)− U(k)

)t]

= φ(k)E[(

X(k|k)−X(k))(

X(k|k)−X(k))t

]φ(k)t

− φ(k)E[(

X(k|k)−X(k))

U(k)t]

−E

[U(k)

(X(k|k)−X(k)

)t]

φ(k)t + E[U(k)U(k)t

]

= φ(k)P (k|k)φ(k)t + Q(k)

pues los dos terminos centrales son nulos por ser U(k) ortogonal a Yj para j ≤ k.Esto prueba (c).Aplicando el apartado (a) del teorema de actualizacion estatica (tomando Y1 = Yk, Y2 =

V (k+1),H = H(k+1), X = X(k+1),W = W (k+1), R = R(k+1), X1 = X(k+1|k), P1 =P (k + 1|k)) se obtiene

(19) X(k + 1|k + 1) = X(k + 1|k) + K(k + 1)[V (k + 1)−H(k + 1)X(k + 1|k)

],

es decir, se verifica el apartado (a).Ademas, por el teorema de actualizacion estatica se tiene que

P (k + 1|k + 1) = P (k + 1|k)−K(k + 1)H(k + 1)P (k + 1|k);

de aquı reemplazando k por k − 1 se obtiene el apartado (b).El apartado (d) se obtiene de (19) (reemplazando k por k− 1) teniendo en cuenta que

X(k + 1|k) = φ(k)X(k|k).

Observacion. Por induccion se prueba que

X(j + k|j) = φ(j + k − 1)φ(j + k − 2) · · ·φ(j + 1)X(j + 1|j).

Page 46: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Capıtulo II

ANALISIS DE LAS TRAYECTORIAS DE PROCESOSESTOCASTICOS A TIEMPO CONTINUO

II.8. Separabilidad: Criterio de separabilidad. Condicion suficiente para la continuidadde las trayectorias de un proceso separable. Teorema de separabilidad.

II.9. Medibilidad: Procesos medibles y progresivamente medibles. Teorema de medibi-lidad.

II.10. Analisis de las trayectorias en el movimiento browniano unidimensional:Continuidad y diferenciabilidad de las trayectorias en el movimiento browniano.

II.11. Ley del logaritmo iterado: Aplicacion al movimiento browniano: Ley dellogaritmo iterado. Ley del logaritmo iterado para el movimiento browniano.

Referencias capıtulo II: Ash, Gardner (1975).

44

Page 47: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

45

Leccion 8: Separabilidad.

En la leccion de introduccion veıamos un ejemplo de dos procesos estocasticos con lasmismas distribuciones finito–dimensionales uno de los cuales tenıa todas sus trayectoriascontinuas y el otro, todas discontinuas. El estudio de las trayectorias es posible paraprocesos con propiedades especiales como son las de separabilidad y medibilidad que seintroducen en este capıtulo.

El objetivo es, dado un proceso estocastico (Xt)t∈T , encontrar otro proceso que seaseparable y medible y que tenga las mismas distribuciones finito–dimensionales que elanterior.

En lo que sigue todos los procesos estocasticos tendran espacio de estados (S,S), dondeS es un espacio metrico compacto y S es su σ–algebra de Borel. El espacio temporalsera un subconjunto de R (aunque todos los resultados siguen siendo ciertos si T es unsubconjunto de un espacio metrico separable). Utilizaremos indistintamente las notacionesXt(ω) o X(t, ω) para denotar el valor de Xt en ω.

Definicion. Un proceso estocastico (Xt)t∈T se dice separable si existen un subconjun-to denso y numerable T0 ⊂ T (llamado conjunto separante) y un suceso A de probabilidadnula tales que si ω /∈ A y t ∈ T existe una sucesion (tn)n∈N ⊂ T0 tal que tn −→n→∞ t yX(tn, ω) −→n→∞ X(t, ω). Diremos tambien que (Xt)t∈T es (T0, A)–separable.

Observacion. Se pretende con esta definicion que el comportamiento de las trayectoriasen T quede determinado por su comportamiento en un conjunto numerable T0.

Teorema 27. (Criterio de separabilidad) Son equivalentes las proposiciones siguien-tes:

(i) (Xt)t∈T es separable.

(ii) Existen un conjunto denso y numerable T0 ⊂ T y un conjunto A de probabilidadnula tales que para cada ω /∈ A, cada compacto K ⊂ S y cada intervalo I de R severifica

[X(t, ω) ∈ K, ∀t ∈ To ∩ I] =⇒ [X(t, ω) ∈ K, ∀t ∈ T ∩ I] .

Demostracion. (i)⇒ (ii). Sea ω /∈ A y X(t, ω) ∈ K, ∀t ∈ T0∩I, entonces, ∀t ∈ T∩I, porla hipotesis de separabilidad, existira (tn)n ⊂ T0 ∩ I tal que tn → t y X(tn, ω) → X(t, ω).Puesto que X(tn, ω) ∈ K, ∀n y K es cerrado, se tiene que X(t, ω) ∈ K.

(ii)⇒ (i). Supongamos ahora que se verifica (ii). Si el proceso no es (T0, A)–separable,existira ω /∈ A y t ∈ T de forma que para cada sucesion (tn)n en T0 convergente a t setiene que X(tn, ω) no converge a X(t, ω). Deben existir entonces un intervalo abierto Ique contiene a t y ε > 0 tales que d (X(t, ω), X(t′, ω)) > ε, ∀t′ ∈ T0 ∩ I (pues en otro caso,∀I intervalo abierto, ∃t tal que ∀ε > 0, ∃t′I ∈ T0 ∩ I tal que d (X(t, ω), X(t′I , ω)) ≤ ε, ytomando In =]t− 1

n , t + 1n [ obtendrıamos una sucesion t′n ∈ T0 ∩ In -convergente entonces

a t- tal que d (X(t, ω), X(t′n, ω)) ≤ 1n , ∀n, en contra de lo dicho). Sea K el compacto

K = y ∈ S : d(y,X(t, ω)) ≥ ε,

entonces X(t′, ω) ∈ K, ∀t′ ∈ T0 ∩ I y, por hipotesis, X(t′, ω) ∈ K, ∀t′ ∈ T0 ∩ I y, enparticular, X(t, ω) ∈ K, lo que es una contradiccion.

Page 48: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

46

Corolario 28. Si (Xt)t∈T es (T0, A)–separable y f : S → S es continua entonces(f Xt)t∈T es (T0, A)–separable.

Demostracion. Consecuencia inmediata de la definicion (o del teorema anterior).

El comportamiento de una funcion continua en T queda determinado por sus valores enun subconjunto denso y numerable T0 de T y, por tanto, cabe esperar que un proceso contrayectorias continuas sea separable.

Teorema 29. Si existe un suceso A de modo que, para ω /∈ A, X(·, ω) es una fun-cion continua en T , entonces (Xt)t∈T es (T0, A)–separable para cada subconjunto denso ynumerable T0 de T .

Demostracion. Si ω /∈ A y t ∈ T entonces, para cada sucesion (tn)n en T0 convergentea t se verifica que X(tn, ω) → X(t, ω).

Observacion. Si T es un intervalo de R, el mismo resultado se obtiene si reemplazamoscontinuidad por continuidad a la derecha (teniendo en cuenta que si T tiene extremosuperior y, T0 debe contener a y).

Bajo ciertas condiciones, T0 puede ser un conjunto denso y numerable arbitrario.

Teorema 30. Sea (Xt)t∈T un proceso real separable y continuo en probabilidad (i.e.,Xt →t→t0 Xt0 en probabilidad). Entonces cualquier subconjunto denso y numerable T0 deT sirve como conjunto separante.

Demostracion. Supongamos que (Xt)t∈T es (T ′0, A)–separable y sea T0 un subconjuntodenso y numerable de T . Si t ∈ T , sea (tn)n una sucesion en T0 convergente a t. Porhipotesis, Xtn converge en probabilidad a Xt y, por tanto, existe una subsucesion (Xtnk

)k

convergente a Xt c.s., digamos, existe At suceso de probabilidad nula tal que

Xtnk(ω) →k→∞ Xt(ω) si ω /∈ At.

Sea B = A ∪ At : t ∈ T ′0 y tomemos ω /∈ B y t0 ∈ T . Existe, por hipotesis, una sucesiont′n en T ′0 convergente a t0 tal que

X(t′n, ω) →n→∞ X(t0, ω).

Puesto que ω /∈ At′n existe t′′n ∈ T0 tal que |t′n − t′′n| ≤ 1/n y |X(t′n, ω) −X(t′′n, ω)| ≤ 1/n.Entonces (t′′n)n es una sucesion en T0 convergente a t0 y tal que

X(t′′n, ω) →n→∞ X(t0, ω).

Observaciones. 1) La L2–continuidad de un proceso estocastico implica la continuidaden probabilidad del mismo, es decir, que para todo ε > 0 y t ∈ T , P (|Xt+h−Xt| > ε) →h→0

0. Ello se sigue de la desigualdad de Chevyshev pues,

P (|Xt+h −Xt| > ε) ≤ 1ε2‖Xt+h −Xt‖2

2.

2) Si (fn)n es una sucesion de v.a.r. convergente en probabilidad a f entonces admite unasubsucesion convergente a f puntualmente.

Page 49: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

47

Aplicamos ya la nocion de separabilidad al estudio de las trayectorias.

Lema 31. Sea (Xt)t∈T un proceso (T0, A)–separable. Sean ω /∈ A y t0 un punto de acu-mulacion de T , y supongamos que existe lımt→t0,t∈T0 X(t, ω). Entonces existe lımt→t0,t∈T X(t, ω)y los dos lımites coinciden.

Demostracion. De no existir lımt→t0,t∈T X(t, ω) podrıamos encontrar sucesiones tn →t0 y t′n → t0 y ε > 0 tales que d(X(tn, ω), X(t′n, ω)) ≥ ε, para cada n ∈ N (se pruebasin dificultad que para que exista lımt→t0,t∈T X(t, ω) es necesario y suficiente que ∀ε > 0exista η > 0 de modo que si 0 < |t − t0| < η, 0 < |t′ − t0| < η, t, t′ ∈ T entoncesd(X(t, ω), X(t′, ω)) < ε; este es el llamado criterio de Cauchy y de el se sigue lo dicho).

Por la hipotesis de separabilidad podemos elegir, para cada n ∈ N puntos un, u′n ∈ T0

tales que |un − tn| < 1/n, |u′n − t′n| < 1/n y d(X(t′n, ω), X(u′n, ω)) < 1/n.Se sigue de ello que un, u′n →n→∞ t0 y, para n grande,

d(X(un, ω), X(u′n, ω))≥ d(X(tn, ω), X(t′n, ω))− d(X(tn, ω), X(un, ω))− d(X(t′n, ω), X(u′n, ω))

≥ ε− 2n

2

en contra de que existe lımt→t0,t∈T0 X(t, ω). Siendo T0 denso podemos elegir una sucesion(tn)n en T0 convergente a t0, lo que prueba que ambos lımites coinciden.

El siguiente teorema establece una condicion suficiente para garantizar la continuidad decasi todas las trayectorias de un proceso separable. Lo utilizaremos en particular paraprobar la continuidad de las trayectorias de un movimiento browniano separable.

Teorema 32. Sea (Xt)a≤t≤b un proceso separable. Supongamos que existen numerosreales r, c, ε > 0 de forma que, si h > 0 es suficientemente pequeno, entonces

E[|Xt+h −Xt|r] ≤ ch1+h, ∀t ∈ [a, b] tal que t + h ∈ [a, b].

Entonces casi todas las trayectorias son continuas; en otras palabras, para casi todo ω,X(·, ω) es continua en [a, b].

Demostracion. Sin perdida de generalidad podemos suponer a = 0 y b = 1 (en otrocaso trabajese con el proceso Yt = Xa+(b−a)t). Tomemos un numero positivo K tal queε− rK > 0. Entonces, se sigue de la desigualdad de Chebyshev que

(20) P [|Xt+h −Xt| > hK ] ≤ 1hrK

E[|Xt+h −Xt|r] ≤ ch1+ε−rK →h→0 0.

En particular el proceso es continuo en probabilidad.Un resultado anterior nos permite utilizar como conjunto separante T0 cualquier sub-

conjunto denso y numerable de [0, 1]. Tomaremos como T0 los racionales diadicos:

T0 = j

2n: 0 ≤ j ≤ 2n; n = 1, 2, ....

Page 50: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

48

Notese que

P

[max

0≤j≤2n−1

∣∣∣X j+12n−X j

2n

∣∣∣ ≥ 2−nK

]≤

2n−1∑

j=0

P[∣∣∣X j+1

2n−X j

2n

∣∣∣ ≥ 2−nK]≤

2nc2−n(1+ε−rK) = c2−n(ε−rK).

Para cada n ∈ N, sea

An =

max0≤j≤2n−1

∣∣∣X j+12n−X j

2n

∣∣∣ ≥ 2−nK

.

Entonces∑∞

n=1 P (An) < +∞ y por el lema de Borel–Cantelli4, P (B) = 0 siendo B =lım supAn(:= ∩n∈N ∩i≥n Ai).

Ası pues, si ω /∈ B entonces existe un N(ω) tal que si n ≥ N(ω) entonces∣∣∣X j+1

2n(ω)−X j

2n(ω)

∣∣∣ <1

2nk, j = 0, 1, ..., 2n − 1.(21)

Fijemos ω /∈ B, n ≥ N(ω) y sea s un racional diadico en el intervalo[

j2n , j+1

2n

[. Entonces

s admite una representacion de la forma

s =j

2n+

a1

2n+1+ · · ·+ am

2n+mcon a1, ..., am ∈ 0, 1.

Para r = 0, ...,m hagamos

br =j

2n+

a1

2n+1+ · · ·+ ar

2n+r(bo =

j

2n, bm = s).

Entonces ∣∣∣∣X(s, ω)−X(j

2n, ω)

∣∣∣∣ ≤m−1∑

r=0

∣∣Xbr+1(ω)−Xbr(ω)∣∣ .

Notese que [br, br+1[= ∅ si ar+1 = 0 y

[br, br+1[=[

l

2n+r+1,

l + 12n+r+1

[, (para algun l ∈ 0, 1, ..., 2n+r+1 − 1)

si ar+1 = 1. Se deduce de (21) que

∣∣∣∣X(s, ω)−X(j

2n, ω)

∣∣∣∣ ≤m−1∑

r=0

2−(n+r+1)K ≤(22)

2−nK∞∑

r=0

2−(r+1)K ≤ M2−nK(23)

4Lema de Borel–Cantelli: Sean (Ω,A, P ) un espacio de probabilidad y (An)n una coleccion de sucesosde A. Si

∑n P (An) < ∞, entonces, P (lım supn→∞An) = 0. En el caso de que

∑n P (An) = ∞ se obtiene

que P (lım supn→∞An) = 1

Page 51: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

49

para una cierta constante M que tomaremos ≥ 1.Dado δ > 0 tomemos N1 ∈ N tal que M2−nK < δ/3 si n ≥ N1, puesto que M ≥ 1 se

tiene ademas que 2−nK < δ/3 si n ≥ N1. Si t1, t2 ∈ T0 y |t1 − t2| < mın(2−N1 , 2−N(ω)),entonces a lo mas un racional diadico de rango n = maxN1, N(ω) (es decir, de la formaj/2n, 0 ≤ j ≤ 2n) puede estar entre t1 y t2 y entonces, se sigue de (21) y de (22) que

|X(t1, ω)−X(t2, ω)| < δ.

En efecto, pueden ocurrir para algun j ∈ 0, 1, ..., 2n − 1 uno de los dos casos siguientes:

j

2n< t1 <

j + 12n

< t2 oj

2n< t1 < t2 <

j + 12n

;

en el primero de ellos,

|X(t1, ω)−X(t2, ω)| ≤|X(t1, ω)−X(

j

2n, ω)|+ |X(

j

2n, ω)−X(

j + 12n

, ω)|+ |X(j + 12n

, ω)−X(t2, ω)| <δ

3+

δ

3+

δ

3= δ

y en el segundo caso,

|X(t1, ω)−X(t2, ω)| ≤ |X(t1, ω)−X(j

2n, ω)|+ |X(t2, ω)−X(

j

2n, ω)| < δ.

Queda ası probado que casi todas las trayectorias son uniformemente continuas en T0

y, por tanto, tienen una extension continua a T = [0, 1]. El lema anterior y la hipotesisde separabilidad prueban que esa extension debe coincidir con la trayectoria original; enefecto, si t0 ∈ T y ω /∈ A∪B entonces lımt→t0,t∈T0 X(t, ω) = fω(t0) donde fω es la extensioncontinua mencionada; por el lema, existe tambien lımt→t0,t∈T X(t, ω) y coincide con fω(t0);por la hipotesis de separabilidad existe una sucesion(tn)n en T0 convergente a t0 tal queX(tn, ω) converge a X(t0, ω) y, entonces,

|fω(t0)−X(t0, ω)| ≤ |X(t0, ω)−X(tn, ω)|+ |X(tn, ω)− fω(t0)| →n→∞ 0.

Luego lımt→t0,t∈T X(t, ω) = X(t0, ω).Ası pues, casi todas las trayectorias son continuas en [0, 1].

Observacion. Una propiedad basica de los procesos separables es que muchos conjuntosen cuya definicion interviene una cantidad no numerable de valores de t son medibles. Porejemplo, si (Xt)t∈T es separable entonces ω ∈ Ω : X(·, ω) es continua en t0, t0 ∈ T0,y ω ∈ Ω : X(·, ω) es uniformemente continua en T son medibles, es decir, estan en lacomplecion de A respecto a P . En efecto: si el proceso es (T0, A)–separable, entonces

ω ∈ Ω : X(·, ω) es continua en t0 =∞⋂

n=1

∞⋃

m=1

t∈T0,|t−t0|<1/m

ω /∈ A : d(X(t, ω), X(t0, ω)) < 1/n

Page 52: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

50

y

ω ∈ Ω : X(·, ω) es uniformemente continua en T =∞⋂

n=1

∞⋃

m=1

t1,t2∈T0,|t1−t2|<1/m

ω /∈ A : d(X(t1, ω), X(t2, ω)) < 1/n .

Si B ∈ R entonces

ω ∈ Ω : d(X(t1, ω), X(t2, ω)) ∈ B = ω ∈ Ω : (X(t1, ω), X(t2, ω)) ∈ d−1(B) ∈ Apor continuidad de d. Puesto que que ω ∈ A : X(·, ω) es continua en t0 ⊂ A y P (A) =0, el resultado se sigue. Debe notarse tambien que esos conjuntos no estan en general enla σ–algebra RT que proporciona el teorema de Kolmogorov.

En muchas ocasiones el proceso (Xt)t∈T se construye por medio de sus distribucionesfinito–dimensionales aplicando el teorema de extension de Kolmogorov. A pesar de que(Xt)t∈T no es necesariamente separable, probaremos a continuacion que siempre existe unproceso (Yt)t∈T separable definido en el mismo espacio de probabilidad que (Xt)t∈T y quees una modificacion del mismo, es decir, para cada t ∈ T , Xt = Yt, P–c.s.. En particular,ambos procesos tienen las mismas distribuciones finito–dimensionales.

Teorema 33. (de separabilidad) Sea (Xt)t∈T un proceso estocastico con espacio deestados (S,S), donde S es un espacio metrico compacto y S = B(S). Supongamos queT ⊂ R (o, mas generalmente, que T es un subconjunto de un espacio metrico separable).Entonces existe una modificacion separable de (Xt)t∈T .

Demostracion. Dividiremos la demostracion en tres partes.a)Veremos en primer lugar que existe un subconjunto numerable T0 en T y, para

cada t ∈ T , un conjunto At de probabilidad nula tal que si ω /∈ At entonces X(t, ω) ∈X(t′, ω) : t′ ∈ T0.

En efecto, puesto que S admite una base numerable de abiertos, cada cerrado (i.e.,compacto) de S es interseccion numerable de complementarios de abiertos de la base,es decir, existe una sucesion (Kn)n de compactos en S tal que cada compacto de S esinterseccion de ciertos K ′

ns. Sea

λn = ınft1,...,tr∈T,r=1,2,...

PXti ∈ Kn, 1 ≤ i ≤ r.

Considerando una sucesion de aproximaciones al ınfimo λn y tomando la union de loscorrespondientes conjuntos t1, ..., tr obtenemos un subconjunto numerable Tn de T demodo que

λn = P (Xt ∈ Kn, t ∈ Tn).Fijemos t ∈ T y hagamos An(t) = Xt′ ∈ Kn, ∀t′ ∈ Tn;Xt /∈ Kn. Entonces P (An(t)) = 0pues, si no,

P (Xt′ ∈ Kn, ∀t′ ∈ Tn) > P (Xt′ ∈ Kn, ∀t′ ∈ Tn; Xt ∈ Kn)

y podrıamos reemplazar Tn por Tn ∪ t para contradecir que λn es el ınfimoPor definicion de An(t), si ω /∈ An(t), entonces

[X(t′, ω) ∈ Kn, ∀t′ ∈ T ] =⇒ [X(t, ω) ∈ Kn].(24)

Page 53: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

51

Sean At = ∪∞n=1An(t) y T0 = ∪∞n=1Tn. Si K es unn compacto de S y ω /∈ At entonces severifica

[X(t′, ω) ∈ K, ∀t′ ∈ T0] =⇒ [X(t, ω) ∈ Kn].(25)

En efecto, escribamos K = ∩∞j=1Knj , si ω /∈ At y X(t′, ω) ∈ K para cada t′ ∈ T0 entoncesX(t′, ω) ∈ Knj , ∀t′ ∈ T0 y, por (24), X(t, ω) ∈ Knj , y siendo eso cierto para cada j ∈ N setiene que X(t, ω) ∈ K. Finalmente, si ω /∈ At, hagamos K = X(t′, ω) : t? ∈ T0. EntoncesX(t′, ω) ∈ K, ∀t′ ∈ T0 y, por (25), X(t, ω) ∈ K.

b) Probemos ahora que el proceso (Xt)t∈T es separable si y solo si existen un sucesoA de probabilidad nula y un subconjunto denso y numerable T0 de T tal que si ω /∈ Aentonces

(t,X(t, ω)) : t ∈ T ∩ I ⊂ (t′, X(t′, ω)) : t′ ∈ T0 ∩ Ipara cada intervalo abierto I de R.

Supongamos que se verifica esta ultima condicion y veamos que el proceso es entoncesseparable. Para ello tomemos un compacto K en S, un intervalo abierto I de R y un ω /∈ Atales que X(t′, ω) ∈ K, ∀t′ ∈ T0 ∩ I. Entonces

(t,X(t, ω)) : t ∈ T ∩ I ⊂ (t′, X(t′, ω)) : t′ ∈ T0 ∩ I⊂ I ×K = I ×K = I ×K

y, por tanto, X(t, ω) ∈ K, ∀t ∈ T ∩ I; el criterio de separabilidad (teorema 27) prueba queel proceso es separable.

Recıprocamente, supongamos que el proceso es (T0, A)–separable; tomemos un inter-valo abierto I de R y un punto t ∈ T ∩ I tal que t /∈ T0 (si t ∈ T0 no hay nada queprobar). Si ω /∈ A podemos encontrar una sucesion de puntos tn ∈ T0 ∩ I tal que tn → Ty X(tn, ω) → X(t, ω). Entonces

(tn, X(tn, ω)) →n→∞ (t,X(t, ω)).

Consecuentemente, (t,X(t, ω)) ∈ (t′, X(t′, ω) : t′ ∈ T0 ∩ I.c) (Demostracion del teorema de separabilidad). Debemos encontrar una modificacion

separable de (Xt)t∈T .Sea J un intervalo con extremos racionales. Por a) existen un conjunto numerable

T (J) ⊂ T ∩ J y sucesos At(J) de probabilidad nula para cada t ∈ T ∩ J tales quesi ω /∈ At(J) entonces X(t, ω) ∈ X(t′, ω) : t′ ∈ T (J). (Si T es un subconjunto de unespacio metrico separable tomese un subconjunto denso y numerable D y como conjuntosJ las bolas abiertas centradas en Dy con radio racional) Hagamos

At = ∪t∈JAt(J), T ′0 = ∪JT (J)

y sea T0 la union de T ′0 y un conjunto denso y numerable fijo de T . Ası, T0 tambien esdenso y numerable en T .

Ahora bien, si t ∈ T ∩ J y ω /∈ At entonces ω /∈ At(J) y, por tanto,

X(t, ω) ∈ X(t′, ω) : t′ ∈ T (J) ⊂ X(t′, ω) : t′ ∈ T0 ∩ J =: K(J, ω).(26)

Entonces, si t ∈ T y ω /∈ At se tiene X(t, ω) ∈ K(J, ω), ∀t ∈ J y, por tanto,

X(t, ω) ∈ ∩t∈JK(J, ω) =: K(t, ω);

Page 54: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

52

K(t, ω) es un compacto no vacıo (Si ω /∈ At entonces X(t, ω) ∈ K(t, ω) y K(t, ω) es enton-ces no vacıo. Por otra parte, si ω ∈ At y ∅ = K(t, ω) = ∩t∈JK(J, ω) = ∩t∈JX(t′, ω) : t′ ∈ T0 ∩ Jentonces existen J1, ..., Jn tales que t ∈ Ji, 1 ≤ i ≤ n, y ∩n

i=1K(Ji, ω) = ∅ -por compacidad-en contra de que K(∩n

i=1Ji, ω) = ∩ni=1K(Ji, ω)).

Se define un nuevo proceso (Yt)t∈T como sigue. Si ω /∈ At entonces Yt(ω) := Xt(ω).Si ω ∈ At, sea Yt(ω) un punto cualquiera de K(t, ω). Puesto que P (At) = 0, ∀t, (Yt)t∈T

es una modificacion de (Xt)t∈T (notese que Yt es P–medible, es decir, medible respectoa la complecion de A respecto de P ). Hagamos A = ∪t∈T0At. Para probar que (Yt)t∈T

es (T0, A)–separable utilizaremos el apartado b) de la demostracion. Sean ω /∈ A e I unintervalo abierto tal que t ∈ T ∩ I. Entonces existe un intervalo J con extremos racionalescontenido en I tal que t ∈ T ∩ J . Si ω /∈ At entonces

Y (t, ω) = X(t, ω) ∈ K(J, ω) = X(t′, ω) : t′ ∈ T0 ∩ J ⊂X(t′, ω) : t′ ∈ T0 ∩ I = Y (t′, ω) : t′ ∈ T0 ∩ I

pues ω /∈ At′ si t′ ∈ T0. Si ω ∈ At entonces

Y (t, ω) ∈ K(t, ω) ⊂ K(J, ω) ⊂ Y (t′, ω) : t′ ∈ T0 ∩ I

como antes. Puesto que t ∈ t′ : t′ ∈ T0 ∩ I se sigue que

(t, Y (t, ω)) : t ∈ T ∩ I ⊂ Y (t′, ω) : t′ ∈ T0 ∩ I

lo que acaba la prueba.

Observacion. Si el proceso (Xt)t∈T , mas que a valores en un compacto, es R–valorado,podemos tomar como S el espacio metrico compacto R. Ası, la modificacion (Yt)t∈T puedetomar ocasionalmente los valores +∞ y −∞. No obstante, puesto que para cada t ∈ T setiene Xt = Yt, P–c.s., Yt es finita c.s., a t fijo.

Page 55: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Leccion 9: Medibilidad.

En esta leccion estudiamos la nocion de medibilidad. Para situar el problema, suponga-mos que (Xt)t∈I , I intervalo de R, es un proceso estocastico real; nos preguntamos si lastrayectorias son (casi todas) Lebesgue integrables en I. Utilizando el teorema de Fubinise tiene ∫

Ω

I|X(t, ω)|dtdP (ω) =

I

Ω|Xt(ω)|dP (ωdt =

IE[|Xt|]dt.

Ası, si∫I E[|Xt|]dt < +∞ entonces

∫I |Xt(ω)|dt es finita para casi todo ω, como querıamos.

La dificultad de este argumento estriba en que para aplicar el teorema de Fubini necesi-tamos que X(t, ω) sea medible en ambas variables.

El problema consiste en construir una modificacion medible del proceso dado, conser-vando la separabilidad si es posible.

Para este problema consideramos por simplicidad procesos R–valorados en los queT = [0, +∞[. Ademas, con un pequeno esfuerzo adicional, desarrollaremos una propiedadalgo mas fuerte como es la de medibilidad progresiva, util en teorıa de procesos de Markov.

Definicion. (Procesos medibles y progresivamente medibles) Sea (Xt)t≥0 un procesoestocastico que supondremos adaptado a la familia (At)t≥0 de sub–σ–algebras de A enel sentido de que As ⊂ At si s < t y que Xt es At–medible, ∀t. Si no se especificanexplıcitamente las At tomaremos At := σ(Xs : s ≤ t), es decir, la mas pequena σ–algebraque hace medibles las v.a. Xs, s ≤ t. El proceso se dice progresivamente medible si paracada t > 0 la aplicacion

(s, ω) ∈ [0, t]× Ω −→ X(s, ω) ∈ R

es B[0, t]×At–medible. El proceso se dice medible si la aplicacion

(s, ω) ∈ [0, +∞[×Ω −→ X(s, ω) ∈ R

es B[0, +∞[×At–medible.

Observaciones. !) Un proceso progresivamente medible es medible. En efecto, si B ∈ Rentonces

(s, ω) : X(s, ω) ∈ B = ∪∞n=0(s, ω) : 0 ≤ s ≤ n,X(s, ω) ∈ By (s, ω) : 0 ≤ s ≤ n,X(s, ω) ∈ B ∈ B[0, n]×An. Puesto que B[0, n]×An ⊂ B[0, +∞]×Aqueda probada la afirmacion.

2) Las trayectorias de un proceso medible son medibles. Ademas, el teorema de Fu-bini prueba que si

∫T E[|Xt|]dt < +∞ entonces casi todas las trayectorias son Lebesgue

integrables en T .

A diferencia del teorema de separabilidad, el de medibilidad progresiva requiere la hipotesisadicional de continuidad con probabilidad, hipotesis que la verifica, por ejemplo, un L2–proceso con media y funcion de covarianzas continua.

Teorema 34. Sea (Xt)t≥0 un proceso estocastico real adaptado a la familia (At)t≥0

de sub–σ–algebras de A. Si el proceso es continuo en probabilidad, existe una modificacion(Yt)t≥0 de (Xt)t≥0 adaptada tambien a la familia (At)t≥0 y que es progresivamente medible.

53

Page 56: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

54

Probaremos antes un lema que introduce una metrica correspondiente a la convergenciaen probabilidad.

Lema 35. Sea g : [0, +∞[→ [0, +∞[ una funcion medible, acotada, creciente, continuaen 0 y tal que g(x + y) ≤ g(x) + g(y), para cada x, y ≥ 0, g(0) = 0 y g(x) > 0 si x > 0.(Por ejemplo, g(x) = x/(1 + x) o g(x) = mın(1, x)). Si X e Y son v.a.r. en (Ω,A, P ) sedefine

d(X, Y ) = E[g(|X − Y |)].Entonces d es una metrica en el espacio M de las v.a.r. en (Ω,A, P ) si identificamosfunciones en M que coinciden c.s.. Ademas, la d–convergencia equivale a la convergenciaen probabilida.

Demostracion. Es sencillo ver que d es una metrica. Por otra parte, si ε > 0 y X ∈ Mentonces

P (|X| ≥ ε) ≤ P (g(|X|) ≥ g(ε)) ≤ 1g(ε)

E[g(|X|)].

Puesto que g(ε) > 0 si ε > 0, la d–convergencia implica convergencia en probabilidad.Ademas

E[g(|X|)] =∫

|X|<εg(|X|)dP +

|X|≥εg(|X|)dP ≤ g(ε) + (sup |g|)P (|X| ≥ ε).

Siendo g acotada y g(ε) −→ε→0 g(0) = 0, la convergencia en probabilidad implica lad–convergencia.

Demostracion. (Teorema) Sea M el espacio de las v.a.r. en (Ω,A, P ) -identificandofunciones que coinciden P–c.s.- provisto de la metrica

d(X, Y ) = E[mın(|X − Y |, 1)];

como sabemos, d–convergencia equivale a convergencia en probabilidad. Por la hipotesisde continuidad en probabilidad, la aplicacion

t ∈ [0, +∞[−→ Xt ∈ M

es continua. Para cada entero positivo n, esa aplicacion es uniformemente continua en[0, n] y, por tanto, existe δn > 0 tal que si t, t′ ∈ [0, n] y |t− t′| ≤ δn entonces

d(Xt, Xt′) ≤ 2−n.

Podemos suponer que (δn)n es una sucesion decreciente a 0. Construyamos para cadan ∈ N una particion

0 = t(n)0 < t

(n)1 < · · · < t(n)

an= n

de [0, n] de modo quemax

0≤j≤an−1|t(n)

j+1 − t(n)j | ≤ δn.

Supondremos que t(n)j : 0 ≤ j ≤ an ⊂ t(n+1)

j : 0 ≤ j ≤ an+1. Para n ∈ N se define

Xn(t) =

X

t(n)j−1

si t(n)j−1 ≤ t ≤ t

(n)j , 1 ≤ j ≤ an

Xn si t ≥ n

El resto de la demostracion se divide en varias etapas:

Page 57: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

55

(a) Veamos, en primer lugar, que

d(Xn(t), Xn+1(t)) ≤ 2−n, ∀t < n.

En efecto, si t < n entonces existen enteros j, k tales que t(n)j−1 ≤ t < t

(n)j y t

(n+1)k−1 ≤

t < t(n+1)k .

Necesariamente |t(n)j−1 − t

(n+1)k−1 | ≤ δn de donde se sigue el resultado.

(b) Para cada t ≥ 0, Xn(t) converge P–c.s.. Para probarlo escribamos

P(|Xn(t)−Xn+1(t)| ≥ n−2

)= P

(|Xn(t)−Xn+1(t)| ∧ 1 ≥ n−2)

≤ n2 · d(Xn(t), Xn+1(t)) ≤ n2

2n, si n > t por (a).

(la primera desigualdad es debida a la desigualdad de Chebyshev). Puesto que∑ n2

2n < +∞ el lema de Borel–Cantelli prueba que

P

(∪n≥n ∩k≥n

|Xk(t)−Xk+1(t)| < 1

k2

)= 1,

es decir, con probabilidad 1 se verifica que |Xn(t)−Xn+1(t)| < 1n2 si n es grande; se

sigue de ahı que, para casi todo ω, (Xn(t)(ω))n es de Cauchy y, entonces, convergente.

(c) La aplicacion(s, ω) ∈ [0, t]× Ω −→ Xn(s)(ω := Xn(s, ω) ∈ R

es B[0, t]×At–medible si n > t. n efecto, podemos escribir

Xn(s, ω) =an∑

j=1

Xt(n)j−1

(ω)I[t

(n)j−1,t

(n)j [×Ω

(s, ω) + Xn(ω)I[n,+∞[×Ω(s, ω).

Restringiendo Xn(·, ω) a [0, t], la suma anterior queda truncada siendo el ultimosumando

Xt(n)j−1

(ω)I[t

(n)j−1,t]×Ω

(s, ω)

si t(n)j−1 ≤ t < t

(n)j . Puesto que X

t(n)j−1

(ω) (como funcion de ω) es At(n)j−1

⊂ At–medible,

queda probada nuestra afirmacion.

(d) Se defineY (t, ω) = lım sup

n→∞Xn(t, ω), ω ∈ Ω, t ≥ 0.

Entonces (Yt)t≥0 es una modificacion de (Xt)t≥0.

En efecto, dados t ≥ 0 y n ∈ N (n > t) existe jn ∈ 1, ..., an tal que t(n)jn−1 ≤ t <

t(n)jn

. Es claro que t(n)jn−1 −→n→∞ t y, por hipotesis, Xn(t) = X

t(n)jn−1

−→n→∞ Xt en

probabilidad. Por otra parte, se sigue de (b) que Xn(t) converge P–c.s. y el lımitec.s. no puede ser otro que Yt. Puesto que la convergencia en probabilidad implica laconvergencia puntual de una subsucesion, se sigue que Yt = Xt, P–c.s. (notese queYt puede tomar los valores ±∞).

Page 58: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

56

(e) Veamos que (Yt)t≥0 es progresivamente medible.

Se sigue de (c) y de la definicion de Yt que la aplicacion

(s, ω) ∈ [0, t]× Ω −→ Y (s, ω) ∈ R

es lımite superior de funciones B[0, t]×At–medibles.

(f) Se tiene que el proceso (Yt)t≥0 es separable.

Sea T0 = t(n)j : j = 1, 2, ..., an, n = 1, 2, .... Entonces Y (t, ω) = lım supn→∞ x −

n(t, ω) y, para t fijo y n grande, Xn(t, ω) = X(t(n)j−1, ω) para algun j = j(n), donde

t(n)j−1 ≤ t < t

(n)j . Por definicion de Y (t, ω), existe una sucesion creciente nk en N tal

queX(t(nk)

j(nk)−1, ω) −→n→∞ Y (t, ω).

Pero X(t(nk)j(nk)−1, ω) = Y (t(nk)

j(nk)−1, ω), pues si s es uno de los puntos de una particion(lo es entonces tambien de todas las siguientes) entonces Xn(s) = Xs para n grandey, por tanto, Ys = Xs. Puesto que t

(nk)j(nk)−1 −→k→∞ t, la condicion de separabilidad

se verifica (el conjunto nulo A es, en este caso, el vacıo).

Page 59: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Leccion 10: Analisis de las trayectorias en un movimientobrowniano.

En esta leccion analizaremos el movimiento browniano unidimensional es decir, un procesoestocastico (Bt)t≥0 gaussiano con media 0 y funcion de covarianzas K(s, t) = σ2 mın(s, t).

En lecciones anteriores veıamos que el movimiento browniano puede verse como lımi-te de recorridos aleatorios cuando el tamano de cada salto tiende a 0. Sin embargo, elmovimiento browniano tiene muchas propiedades que no posee el recorrido aleatorio.

Por el teorema de separabilidad, existe una version separable del movimiento brow-niano. Restringiremos nuestra atencion a esta ultima. A partir de ahora, (Bt)t≥0 sera unmovimiento browniano separable y utilizaremos indistintamente las notaciones Bt(ω) yB(t, ω) para el valor de Bt en ω.

Antes de empezar n a estudiar las trayectorias de (Bt)t≥0, recordemos que una v.a. realX definida en un espacio de probabilidad (Ω,A, P ) se dice simetrica si para cada A ∈ Rse tiene que P (X ∈ A) = P (−X ∈ A), es decir, si PX = P−X . La siguiente proposicionmuestra una caracterizacion de las v.a. simetricas.

Proposicion 36. Sea X una v.a.r. definida en un espacio de probabilidad (Ω,A, P ).Entonces X es simetrica si y solo si su funcion caracterıstica ϕX es R–valorada.

Demostracion. Si ϕX es R–valorada entonces

ϕ−X(t) = E(e−itX) = E(eitX)ϕX(t) = ϕX(t).

Luego X y −X tienen la misma distribucion y entonces para cada B ∈ R, P (X ∈ B) =P (−X ∈ B), es decir, X es simetrica.

Recıprocamente, si PX = P−X y g es una funcion impar PX–integrable entonces∫

Rg(x)dP−X(x) =

Ωg(−X(ω))dP (ω) = −

Ωg(X(ω))dP (ω) = −

Rg(x)dP−X(x)

con lo cual∫R g(x)dPX(x) = 0. Tomando g(x) = sen tx se tiene

ϕX(t) = E(cos tx + isen tx) = E(cos tx) ∈ R.

El siguiente teorema prueba que casi todas las trayectorias del movimiento browniano(Bt)t≥0 son continuas.

Teorema 37. Para casi todo ω, B(·, ω) es continua en [0,∞).

Demostracion. Puesto que Bt+h−Bt tiene distribucion normal con media 0 y varianzaσ2h, se tiene

E[|Bt+h −Bt|r] = E

[∣∣∣∣Bt+h −Bt

σ√

h

∣∣∣∣r]

σrhr/2 = chr/2,

donde c = σrE[|Z|r], siendo Z una v.a. con distribucion normal N(0, 1). Por el teorema32 (tomando r como un numero mayor que 2) aplicado a cada intervalo de la forma [0, n],con n un numero entero positivo, se tiene que para casi todo ω, B(·, ω) es continua en[0, n]. Siendo n arbitrario, se verifica que, para casi todo ω, B(·, ω) es continua en [0,∞).

57

Page 60: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

58

Los teoremas que veremos a continuacion son la llave de muchas propiedades de las tra-yectorias del movimiento browniano.

Teorema 38. Dado a > 0 se verifica que

P

max0≤s≤t

Bs > a

= 2PBt > a.

Demostracion. Para la demostracion de este resultado nos basaremos en la igualdad

P

max0≤s≤t

Bs > a, Bt > a

= P

max0≤s≤t

Bs > a, Bt < a

que probaremos posteriormente. Teniendo en cuenta que la distribucion de Bt es absoluta-mente continua y que, por tanto P (Bt = a) = 0, se tiene que la suma de los dos miembrosde la igualdad anterior es P max0≤s≤t Bs > a y, por tanto,

P

max0≤s≤t

Bs > a, Bt > a

=

12P

max0≤s≤t

Bs > a

.

Puesto que max0≤s≤t

Bs > a, Bt > a

= Bt > a

se tiene que

P

max0≤s≤t

Bs > a

= 2PBt > a.

Los dos siguientes resultados proporcionan caracterizaciones de las trayectorias del movi-miento browniano en entornos de infinito y de 0. Concretamente, el primero de ellos pruebaque, en un entorno de infinito, las trayectorias son no acotadas superior ni inferiormentey tienen siempre una raız tan proxima a infinito como queramos. En el segundo teoremase prueba que, en un entorno de cero, las trayectorias son acotadas y tienen una raız tanproxima a cero como queramos.

Teorema 39.

P

supt≥0

Bt = +∞

= P

ınft≥0

Bt = −∞

= 1.

Como consecuencia de ello, para casi todo ω, B(·, ω) es no acotada y tiene un cero en[M,∞), para cada M > 0.

Demostracion. Si a > 0 se tiene que

P

supt≥0

Bt > a

≥ P

sup

0≤s≤tBs > a

P

max0≤s≤t

Bs > a

= 2PBt > a

pues siendo B(·, ω) continua, para casi todo ω, en el compacto [0, t] se alcanza el supremoen algun punto de ese compacto y, por tanto, coincide con el maximo. Ahora bien, comoBt sigue una distribucion normal N(0, σ2t),

P [Bt > a] = P

[Bt

σ√

t> a

]= 1− F ∗

(a

σ√

t

)

Page 61: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

59

siendo F ∗ la funcion de distribucion de la distribucion normal N(0, 1). Siendo a > 0 y porla continuidad por la derecha de F ∗, se tiene que, cuando t → ∞, F ∗(a/(σ

√t)) tiende a

F ∗(0) = 1/2.De todo lo anterior se deduce que

P

[supt≥0

Bt > a

]= 1

y, por tanto,

P

[supt≥0

Bt = +∞]

= P

[ ∞⋂

a=1

supt≥0

Bt > a

]= lım

a→∞P

[supt≥0

Bt > a

]= 1.

Por otra parte,

P

[ınft≥0

Bt = −∞]

= P

[supt≥0

(−Bt) = +∞]

= 1

pues (−Bt)t≥0 es tambien un movimiento browniano separable.Veamos ahora la consecuencia. Que, para casi todo ω, B(·, ω) no esta acotada es trivial.

Veamos entonces que, con probabilidad 1, para cada M > 0, B(·, ω) tiene un cero en[M,∞). Supongamos que no, es decir, que existe un suceso A probabilidad mayor quecero tal que, si ω ∈ A, B(·, ω) no tiene ningun cero en [M,∞). En ese caso, sucederıaque, para casi todo ω de A, B(·, ω) tiene un cero en [0,M ] (pues, siendo el ınfimo y elsupremo −∞ y +∞ respectivamente, y las trayectorias casi todas continuas, estas tienenque cortar al eje de abcisas). Ademas para casi todo ω de A, la trayectoria de ω es continuay, por tanto, acotada sobre el compacto [0,M ]. Puesto que, para todo ω ∈ A, tiene quesuceder que B(t, ω) > 0, ∀t ∈ [M,∞) o bien que B(t, ω) < 0, ∀t ∈ [M,∞) y que, comoacabamos de probar, la trayectoria de ω es acotada en [0,M ], tendrıa que suceder queP [ınft≥0 Bt = −∞] < 1 o bien que P

[supt≥0 Bt = +∞]

< 1 en contra de la tesis delteorema.

Teorema 40. Si h > 0, entonces

P

[max

0≤s≤hBs > 0

]= P

[mın

0≤s≤hBs < 0

]= 1.

Como consecuencia de ello, para casi todo ω, B(·, ω) tiene un cero en (0, h], para todoh > 0.

Demostracion. Por el teorema 38 se tiene que, si a > 0

P

[max

0≤s≤hBs > 0

]≥ P

[max

0≤s≤hBs > a

]= 2P [Bh > a] = 2[1− F ∗(a/(σ

√h)] −→a→0+ 1

donde F ∗ denota la funcion de distribucion de la distribucion normal N(0, 1).Luego,

P

[max

0≤s≤hBs > 0

]= 1.

Page 62: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

60

De forma analoga que en el teorema anterior, teniendo en cuenta que (−Bt)t≥0 es unmovimiento browniano separable, se tiene que

P

[mın

0≤s≤hBs < 0

]= P

[max

0≤s≤h(−Bs) > 0

]= 1.

Para la consecuencia, se tiene que

P

[max

0≤s≤hBs > 0, ∀h > 0

]= P

[ ∞⋂

n=1

max

0≤s≤hBs > 0

]= lım

n→∞P

[max

0≤s≤hBs > 0

]= 1.

Ademas,

P

[mın

0≤s≤hBs < 0, ∀h > 0

]= P

[ ∞⋂

n=1

mın

0≤s≤hBs < 0

]= lım

n→∞P

[mın

0≤s≤hBs < 0

]= 1.

Ahora bien, puesto que B(·, ω) es continua, para casi todo ω, en [0,∞) y, en particular en[0, h], por las igualdades probadas anteriormente, nos damos cuenta que B(·, ω) tiene quetomar valores positivos y negativos en [0, h] para casi todo ω y, por el teorema de Bolzano,para casi todo ω, B(·, ω) tiene, al menos, un cero en (0, h], para cada h > 0.

El siguiente teorema prueba que las trayectorias del movimiento browniano (Bt)t≥0 no sondiferenciables par casi ninguna observacion.

Teorema 41. Para casi todo ω, la trayectoria B(·, ω) no es diferenciable en ningunpunto. Concretamente, si

D = ω : B(t, ω) es diferenciable para al menos un t ∈ [0,∞)

entonces D esta incluido en un suceso de probabilidad nula.

Demostracion. Fijemos un constante k > 0 y definimos el conjunto

A = A(k) =

ω : lım sup|B(t + h, ω)−B(t, ω)|

h< k para al menos un t ∈ [0, 1)

.

Si ω ∈ A, entonces existe un t ∈ [0, 1) tal que

lım sup|B(t + h, ω)−B(t, ω)|

h< k

y, por tanto, la trayectoria B(·, ω) se encuentra, en un entorno de t, en el “abanico”dependiente k que sale de B(t, ω). Podemos tomar un entero positivo m y un j ∈ 1, ..., mtales que (j−1)/m ≤ t < j/m de tal forma que si t ≤ s ≤ (j+3)/m entonces B(s, ω) caigadentro del abanico anteriormente senalado. Ası, si ω ∈ A = A(k) entonces se verifican

1.∣∣∣∣B

(j + 1m

)−B

(j

m, ω

)∣∣∣∣ ≤3k

m

2.∣∣∣∣B

(j + 2m

)−B

(j + 1m

)∣∣∣∣ ≤5k

m

Page 63: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

61

3.∣∣∣∣B

(j + 3m

)−B

(j + 2m

)∣∣∣∣ ≤7k

m

En efecto, para la primera desigualdad se tiene∣∣∣∣B

(j + 1m

)−B

(j

m, ω

)∣∣∣∣ ≤∣∣∣∣B

(j + 1m

)−B(t, ω)

∣∣∣∣ +∣∣∣∣B(t, ω)−B

(j

m, ω

)∣∣∣∣

≤ 2k

m+

k

m=

3k

m

Las otras dos desigualdades se prueban de forma analoga.Ademas se tiene que dados a > 0, t ≥ 0 y h > 0,

P [|B(t + h, ω)−B(t, ω)| < a] = P

[ |B(t + h, ω)−B(t, ω)|σ√

h<

a

σ√

h

]=

P

[− a

σ√

h<

B(t + h, ω)−B(t, ω)σ√

h<

a

σ√

h

]=

∫ a

σ√

h

− a

σ√

h

12Π

exp−x2

2

dx ≤

∫ a

σ√

h

− a

σ√

h

12Π

dx =2a

σ√

2Πh

Para cada m ∈ N y cada j ∈ 1, ..., m se define Amj como el conjunto de las observacionesω que satisfacen las tres desigualdades anteriores. Entonces, por la independencia de losincrementos, y la desigualdad anterior, se tiene

P (Amj ) ≤2(3k/m)

σ√

2Π(1/m)· 2(5k/m)σ√

2Π(1/m)· 2(7k/m)σ√

2Π(1/m)= cm−3/2

para cierta constante positiva c.Si Am = ∪m

j=1Amj , entonces

P (Am) = P(∪m

j=1Amj

) ≤m∑

j=1

P (Amj ) ≤m∑

j=1

cm−3/2 = cm−1/2.

Para el caso particular de que m sea de la forma n4 para algun n ∈ N se tiene queP (An4) ≤ c/n2. Luego la serie

∑∞n=1 P (An4) es convergente. Ademas, por el lema de

Borel–Cantelli se tiene que P (lım supn An4) = 0. Pero

A = A(k) ⊂ lım infm

Am ⊂ lım infn

An4 ⊂ lım supn

An4

(la primera contencion es debida a que A(k) ⊂ Amj ⊂ Am para el m y el j que fijabamosal principio y que si m′ > m, A(k) ⊂ Am′ ; siendo lım infm Am = ∪∞n=1 ∩∞j=n Aj se verificalo deseado). Ası tendrıamos que P [A(k)] = 0.

Si definimos ahora

D0 = ω : B(t, ω) es diferenciable para al menos un t ∈ [0, 1)

se tiene que D0 ⊂ ∪∞k=1A(k) y, por tanto, que D0 esta incluido en un suceso de probabilidadnula.

Page 64: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

62

Si denotamos ahora

Dn = ω : B(t, ω) es diferenciable para al menos un t ∈ [n, n + 1)

tendrıamos que D = ∪∞n=1Dn. Ademas para cada n ∈ N se verifica la siguiente igualdad

Dn = ω : B(n + ·)−B(n) es diferenciable para al menos un t ∈ [0, 1).

Puesto que (B(n + t)−B(n))t≥0 es tambien un movimiento browniano separable se tieneque cada Dn esta incluido en un suceso de probabilidad nula y, por tanto, D esta incluidoen un suceso de probabilidad nula, como querıamos probar.

Page 65: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Leccion 11: Ley del logaritmo iterado: aplicacion al movimientobrowniano.

Sea Y1, Y2, ... una sucesion de v.a.r. independientes e identicamente distribuidas con media0. La ley fuerte de los grandes numeros prueba que, si Xn = Y1 + · · ·+ Yn, entonces Xn/nconverge a 0 c.s.. Ası para cada k > 0, podemos decir que |Xn| es menor que kn para nsuficientemente grande o, lo que es lo mismo, que Xn oscila con una amplitud menor quekn. Pero podrıamos estar interesados en obtener mayor informacion sobre esta oscilacion;por ejemplo, podemos preguntarnos si |Xn| es menor que k

√n eventualmente. Este tipo

de cuestiones son las que nos vamos a plantear en esta leccion, especialmente en el casode que nuestras v.a. esten normalmente distribuidas, para poder aplicar los resultados almovimiento browniano.

Concretamente, probaremos que la oscilacion de puede medirse mediante f(n) =(2σ2n ln lnn)1/2, donde σ2 es la varianza comun de las Yk. Veamos, en primer lugar doslemas previos.

Lema 42. Sean Y1, Y2, ... v.a.r. independientes y normalmente distribuidas todas ellascon media 0 y varianza 1 y sea Xn =

∑nk=1 Yk, n = 1, 2.... Entonces, para casi todo ω,

lım supn→∞

Xn(ω)(2n ln lnn)1/2

≤ 1.

Demostracion. Fijemos un numero λ > 1, y sean nk = λk, k = r, r + 1, r + 2, ... donder es el menor entero positivo tal que λr ≥ 3 (de forma que (ln lnnk)1/2 este bien definidopara k ≥ r). Sea

Ak = ω : Xn(ω > (2n ln lnn)1/2 para algun n ∈ (nk, nk+1],y tomemos a(n) = λ(2n ln lnn)1/2: Entonces

P (Ak) ≤ P [Xn > a(nk) para algun n ≤ nk+1]

= P

[max

1≤n≤[nk+1]Xn > a(nk)

]

≤ 2P[X[nk+1] > a(nk)

]por un problema

∼ 2√

[nk+1]√2πa(nk)

exp

a2(nk)2[nk+1]

por otro problema

≤ 2√nk+1√2πa(nk)

exp

a2(nk)2nk+1

≤ c exp−λ ln lnλk= c′ exp−λ ln k = c′k−λ

donde c = 1/(2πλ ln ln 3)1/2 y c′ = c exp−λ ln lnλ.Pero la serie

∑k kλ es convergente y, por tanto, tambien lo es la serie

∑k P (Ak) y,

por el lema de Borel–Cantelli5 se tiene que P (lım supk Ak) = 0 o, lo que es lo mismo,5Lema de Borel–Cantelli: Sean (Ω,A, P ) un espacio de probabilidad y (An)n una coleccion de sucesos

de A. Si∑

n P (An) < ∞, entonces, P (lım supn→∞An) = 0. En el caso de que∑

n P (An) = ∞ se obtieneque P (lım supn→∞An) = 1

63

Page 66: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

64

que solo ocurren con probabilidad 1 una cantidad finita de A′ks. De ello se deduce que,para n suficientemente grande, Xn ≤ λ(2n ln lnn)1/2 c.s.. Puesto que esto ocurre paraλ = 1 + 1/m, m = 1, 2, ... concluimos que

P (∀λ > 1, Xn ≤ λ(2n ln lnn)1/2 eventualmente) = 1

es decir, para casi todo ω,

lım supn→∞

Xn(ω)(2n ln lnn)1/2

≤ 1.

Lema 43. Bajo las hipotesis del lema anterior se verifica

lım supn→∞

Xn

(2n ln ln n)1/2= 1 c.s..

Demostracion. Si λ < 1, queremos probar que, con probabilidad 1,

Xn(ω)(2n ln lnn)1/2

> λ

para n suficientemente grande.Aplicando el lema anterior a (−Xn) se obtiene que, con probabilidad 1, −Xn ≤

2(2 ln lnn)1/2 para n suficientemente grande. Ası, si mk = Mk, (M > 1), se tiene que,para k suficientemente grande,

Xmk−1≥ −2(2 ln lnmk−1)1/2 c.s..

Sea Zk = Xmk−Xmk−1

, entonces

Xmk≥ Zk − 2(2 ln lnmk−1)1/2 c.s.

para k suficientemente grande y, para obtener la tesis, sera suficiente probar que, para ksuficientemente grande,

Zk > λ(2mk ln lnmk)1/2 + 2(2 ln lnmk−1)1/2 c.s..

Tomemos λ′ ∈ (λ, 1). Entonces, para algun M se tiene que

λ′[2(Mk −Mk−1) ln ln Mk]1/2 > λ(2Mk ln ln Mk)1/2 + 2(2Mk−1 ln lnMk−1)1/2 , ∀k

(pues el cocienteλ(2Mk ln lnMk)1/2 + 2(2Mk−1 ln lnMk−1)1/2

λ′[2(Mk −Mk−1) ln lnMk]1/2

es menor queλ

λ′

(1− 1

M

)−1/2

+2λ′

(M − 1)−1/2

que converge a λ/λ′ < 1 cuando M →∞.Teniendo en cuenta lo anterior, serıa suficiente probar que, para k suficientemente

grande,Zk > λ′[2(Mk −Mk−1) ln lnMk]1/2 , c.s..

Page 67: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

65

Ahora, como Zk tiene distribucion normal N(0,Mk −Mk−1) se tiene que

P (Zk > λ′[2(Mk −Mk−1) ln lnMk]1/2) ∼ 1√2πλ′(2 ln lnMk)1/2

exp−λ′2 ln ln Mk

≥ c

(ln k)1/2k−λ′2

≥ c

k ln kpues λ′ < 1.

Pero∑

k 1/(k ln k) = ∞ y, por tanto,∑

k P (Zk > λ′[2(Mk − Mk−1) ln lnMk]1/2) = ∞.Finalmente, el resultado se obtiene mediante la aplicacion de la segunda parte del lemade Borel–Cantelli.

Veamos ahora el resultado para variables normales.

Teorema 44. Sea Xn =∑n

k=1, n = 1, 2, ..., donde Y1, Y2, ... son v.a.r. independientesy normalmente distribuidas todas ellas con media 0 y varianza σ2. Entonces, para casitodo ω,

lım supn→∞

Xn(ω)(2σ2n ln lnn)1/2

= 1

y

lım infn→∞

Xn(ω)(2σ2n ln lnn)1/2

= −1.

Demostracion. Para la primera igualdad, basta aplicar el lema anterior a la sucesion(Xn/σ)n y, para la segunda, basta aplicar el mismo lema a (−Xn/σ)n.

Teorema 45. (Ley del logaritmo iterado para el movimiento browniano) Sea (Bt)t≥0

un movimiento browniano separable. Entonces, para casi todo ω,

lım supt→∞

Bt(ω)(2σ2t ln lnn)1/2

= 1

y

lım inft→∞

Bt(ω)(2σ2t ln lnn)1/2

= −1.

Demostracion. Podemos suponer sin perdida de generalidad que σ2 = 1 (en caso con-trario, considerarıamos (Bt/σ)). La afirmacion para el lımite inferior se obtendrıa de ladel lımite superior considerando (−Bt), de tal forma que es suficiente probar la primeraigualdad.

Teniendo en cuenta la igualdad

Bn = B1 + (B2 −B1) + (B3 −B2) + · · ·+ (Bn −Bn−1)

tenemos Bn expresado como suma de n v.a.r. independientes y normalmente distribuidastodas ellas con media 0 y varianza 1 y, por el teorema anterior,

lım supn→∞

Bn(ω)(2n ln lnn)1/2

= 1, c.s.

Page 68: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

66

y, por tanto,

lım supt→∞

Bt(ω)(2t ln lnn)1/2

≥ 1, c.s..

Ademas,max

n≤t≤n+1B(t) = B(n) + max

n≤t≤n+1[B(t)−B(n)]

y

P

(max

n≤t≤n+1[B(t)−B(n)] > a

)= P

(max0≤t≤1

B(t) > a

)

= 2P (B(1) > a) ∼ 2√2πa

e−a2/2.

Sea a = n1/4; entonces, e−a2/2 = e−√

n/2. Puesto que∑

n e−√

n/2 < ∞, el lema de Borel–Cantelli prueba que, con probabilidad 1, para n suficientemente grande,

maxn≤t≤n+1

[B(t)−B(n)] ≤ n1/4.

Ası, si λ′ > 1, ε > 0 tenemos que, para n suficientemente grande, con probabilidad 1,

maxn≤t≤n+1

B(t) < λ′(2n ln lnn)1/2 + n1/4

< (λ′ + ε)(2n ln lnn)1/2 ≤ (λ′ + ε)(2t ln ln t)1/2 si n ≤ t ≤ n + 1.

Ası pues, si λ > 1, tenemos que, para n suficientemente grande,

B(t) < λ(2t ln ln t)1/2

y, por tanto,

lım supt→∞

Bt(ω)(2t ln lnn)1/2

≤ 1, c.s..

Page 69: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Capıtulo III

ALGUNOS TIPOS ESPECIALES DE PROCESOSESTOCASTICOS A TIEMPO CONTINUO

III.13. Cadenas de Markov en tiempo continuo: Procesos de Markov: Cadenas deMarkov en tiempo continuo. Propiedades de la matriz de transicion. Clasificaciond los estados. Construccion de una cadena de Markov a partir de su generadorinfinitesimal. Interpretacion de los elementos de Q. Procesos de nacimiento puro.Procesos de nacimiento y muerte.

III.14. Procesos con incrementos independientes:

III.15. Martingalas a tiempo continuo:

III.16. Tiempos de parada:

Referencias capıtulo III: Ash, Gardner (1975).

67

Page 70: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

68

Leccion 12: Procesos de Markov. Cadenas de Markov en tiempocontinuo

Definicion. Sean T un conjunto de ındices totalmente ordenado, Xtt∈T un procesoestocastico en (Ω,A, P ) con espacios de estados (S,S) y Att∈T una familia de sub-σ-algebras de A. Supongamos que Xtt∈T es un proceso adaptado a la familia Att∈T , i.e.As ⊆ At si s ≤ t y Xt es At-medible para cada t ∈ T . Diremos que Xtt∈T es un procesode Markov relativo a Att∈T si para cada B ∈ S y cada s, t ∈ T , s < t,

(27) P (Xt ∈ B | As) = P (Xt ∈ B | Xs) c.s.

Observaciones. 1) La propiedad (27) se llama propiedad de Markov. Hemos escrito,P (· | Xs), pero en realidad pensaremos en P (· | Xs) Xs o bien P (· | X−1

s (S)).2) Equivalente a la propiedad de Markov es la siguiente propiedad: para s < t y g :(S,S) → (R,R) tal que E[g Xt] sea finita, se verifique:

(28) E[g Xt | As] = E[g Xt | Xs] c.s.

3) Si se afirma que Xtt∈T es un proceso de Markov, sin hacer referencia a ninguna familiade sub-σ-algebras, se supone que nos estamos refiriendo a As = σ(Xt : t ≤ s). En estecaso, la propiedad de Markov es,

P (Xt ∈ B | Xr, r ≤ s) = P (Xt ∈ B | Xs) c.s para todo B ∈ SIntuitivamente, podemos decir que un proceso de Markov es un proceso que tiene la

propiedad de que dado el valor de Xt, los valores de Xs, s > t, no dependen de los valoresde Xu, u < t, esto es, que la probabilidad de cualquier comportamiento futuro del proceso,cuando se conoce exactamente su presente, no se ve alterado, no depende de la informacionadicional relativa a su comportamiento pasado.

Proposicion 46. Sea Xtt∈T un proceso de Markov relativo a Att∈T y A ∈ σ(Xr, r ≥t) entonces

P (A | At) = P (A | Xt) c.s.

Demostracion. Definimos C = A ∈ σ(Xr, r ≥ t) : P (A | At) = P (A | Xt) c.s..Se trata de probar que los conjuntos de la forma X−1(B), siendo X = (Xr, r ≥ t)y B ∈ ∏

r≥t S, pertenecen a C, y haciendo uso del Teorema de la clase monotona seconcluye (C es una clase monotona, es decir estable frente a uniones numerables crecientese intersecciones numerables decrecientes que contiene a los conjuntos de la forma X−1(B),luego contiene a la sigma-ßlgebra generada por estos conjuntos esta es, σ(Xr, r ≥ t)).

Definicion. Una cadena de Markov es un proceso de Markov con espacio de estadosdiscreto. Cuando el espacio temporal sea un conjunto numerable o finito hablaremos decadenas de Markov en tiempo discreto (CMTD) y en otro caso hablaremos de cadenas deMarkov en tiempo continuo (CMTC). Generalmente T = [0,∞).

Centrando nuestra atencion en las CMTCs, con T = [0,∞), la propiedad de Markov,es mas habitual encontrarla en la forma: Para todo n ≥ 2, t1, . . . , tn ∈ T tales que 0 ≤t1 < t2 < . . . < tn, e i1, . . . , in ∈ S se verifica:

P (Xtn = in | Xt1 = i1, . . . , Xtn−1 = in−1) = P (Xtn = in | Xtn−1 = in−1)

Page 71: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

69

siempre que el miembro de la izquierda este bien definido. Teniendo en cuenta la Propo-sicion 46, se deduce que para cualquier m ≥ 0 y t1, . . . , tn+m ∈ T tales que 0 ≤ t1 < . . . <tn < . . . < tn+m y cualesquiera i1, . . . , in, . . . , in+m ∈ S se verifica

P (Xtr = ir, n ≤ r ≤ n + m | Xt1 = i1, . . . , Xtn−1 = in−1)

coincide conP (Xtr = ir, n ≤ r ≤ n + m | Xtn−1 = in−1)

Definicion. Diremos que una CMTC tiene probabilidades de transicion estacionariassi

P (Xt+s = j | Xs = i)

cuando esten bien definidas, son independientes de s, cualesquiera que sean i, j ∈ S. A lafuncion

(29) Pij(t) = P (Xt+s = j | Xs = i), t > 0

la llamaremos funcion de probabilidad de transicion desde el estado i al j y a la matrizP (t) = (Pij(t))i,j∈S , t > 0, matriz de probabilidad de transicion.

Observacion. Observemos que nos referimos con el termino matriz de probabilidadde transicion o mas abreviadamente matriz de transicion a un conjunto de funciones(Pij(·))i,j∈S definida sobre (0,∞).

De ahora en adelante cuando hablemos de una CMTC la supondremos con probabili-dades de transicion estacionarias.

Ejemplos: 1) Consideremos una maquina que puede estar operativa o no operativa. Sila maquina esta operativa, esta falla y pasa a estar no operativa, despues de un tiempoexp(1/λ), es decir, que la variable, T , que mide el tiempo que transcurre hasta que seproduce un fallo en el funcionamiento de la maquina se distribuye segun una distribucionde probabilidad exp(1/λ). Una vez que la maquina falla, el fallo no tiene arreglo y lamaquina permanece no operativa. Sea Xt una variable que indique el estado de la maquinaen el tiempo t, establecemos que,

Xt =

0 si la maquina no esta operativa en el tiempo t1 si la maquina esta operativa en el tiempo t

Veamos que Xtt≥0 es una CMTC con probabilidades de transicion estacionarias. Esclaro que el proceso es una CMTC, pues el conocimiento del estado futuro de la maquinadepende del conocimiento del estado de la maquina mas actualizado. Por otra parte,

P (Xt+s = 0 | Xs = 0) = 1 y P (Xt+s = 1 | Xs = 0) = 0

Ahora, Xs = 1 si y solo si T > s y ademas si Xs = 1 entonces Xu = 1, para 0 ≤ u ≤ s.Luego

P (Xt+s = 1 | Xs = 1) =P (Xt+s = 1 Xs = 1)

P (Xs = 1)= P (T > s + t | T > s) = P (T > t) = exp(−λt)

Page 72: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

70

Por tanto Xtt≥0 es una CMTC con probabilidades de transicion estacionarias y matrizde transicion, t > 0

P (t) =(

1 01− exp(−λt) exp(−λt)

)

2) El proceso de Poisson es una CMTC con probabilidades de transicion estacionarias.

Propiedades de la matriz de transicion

Vamos a ir analizando las principales propiedades de la matriz de transicion de una CMTC.

Proposicion 47. La matriz de transicion P (t) de una CMTC tiene las siguientespropiedades:

a) Pij(t) ≥ 0, t > 0

b)∑

j Pij(t) = 1, t > 0

c) Pij(t + s) =∑

k Pik(t)Pkj(s), t, s > 0

Observacion. Las condicion c) es conocida como la ecuacion de Chapman-Kolmogorov.

Proposicion 48. Sea Xtt≥0 una CMTC. Si 0 ≤ t0 < t1 < . . . < tn, se verifica que

(30) P (Xtν = iν , 1 ≤ ν ≤ n | Xt0 = i0) =n∏

ν=1

Piν−1iν (tν − tν−1)

Observaciones. 1) Denotamos p(t) = pi(t), i ∈ S siendo pi(t) = P (Xt = i),∑

i pi(t) =1, t ≥ 0. A la distribucion p(0) la llamaremos distribucion inicial. Una CMTC quedacompletamente determinada por su distribucion inicial y la matriz de probabilidad detransicion P (t) puesto que se verifica que p(t) = p(0)P (t), t ≥ 0.

2) Dada una matriz de transicion P (t) = (Pij(t))i,j∈S , t > 0 verificando a)-c) de la Pro-posicion 47 y una distribucion arbitraria pi, i ∈ S, existe una CMTC Xtt∈T verificando(29) y pi = P (X0 = i), y en consecuencia (30). (Chung pag. 141)

3) Observemos que las expresiones que se obtienen para las probabilidades que intervie-nen en una CMTC son muy parecidas a las obtenidas para CMTD; la principal diferenciaconsiste en que en el tiempo continuo no hay una unidad de tiempo, que represente elmınimo lapso de tiempo entre dos instantes consecutivos, y en funcion de la cual se pue-dan expresar las probabilidades de transicion en mas etapas. Debido a ello no basta conuna unica matriz de transicion sino que se necesita una para cada t (recordar observaciondefinicion 3).

Definicion. La matriz de transicion P (t) se llamara estandar si lımt→0 Pij(t) = δij ,i, j ∈ S

Demostramos a continuacion la continuidad de Pij(t) en (0,∞) para una matriz estandar.

Teorema 49. Si la matriz de transicion es estandar, para cualesquiera i, j ∈ S severifica que Pij(t) es una funcion uniformemente continua en t ∈ (0,∞).

Page 73: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

71

La demostracion en los apuntes.

Observacion. En general se verifica, que Pij(t) son continuas en (0,∞) si y solo siexiste lımt→0 Pij(t). La demostracion puede verse en Chung(1967), pag. 123.

De ahora en adelante asumimos que la matriz de transicion P (t) de la CMTC esestandar y en consecuencia, Pij(t) son continuas en (0,∞). Para una matriz de transicionestandar es natural extender la definicion de Pij(t) a Pij(0), ası pues, pondremos:

Pij(0) = δij

Teorema 50.

a) Pii(t) > 0 para todo t ≥ 0 e i ∈ S.

b) Si Pij(t0) > 0 entonces Pij(t) > 0, para todo t ≥ t0.

Demostracion. a) Observemos que

Pii(t) =∑

k∈S

Pik

(t

n

)Pki

(n− 1

nt

)≥ Pii

(t

n

)Pii

(n− 1

nt

).

La desigualdad anterior es independiente del valor de n ∈ N. Por lo tanto,

Pii(t) ≥ (Pii(t/n))n , para todo n ∈ N.

Luego, fijado t > 0, como Pii(h) → 1, cuando h → 0, podemos tomar n suficientementegrande para que Pii(t/n) > 0, y por tanto Pii(t) > 0.

b) Para todo t > t0, Pij(t) =∑

k Pik(t0)Pkj(t− t0) ≥ Pij(t0)Pjj(t− t0) > 0.

Teorema 51. Para todo i 6= j, Pij(t) > 0, ∀t > 0 o Pij(t) = 0, ∀t > 0.

La demostracion puede verse en Chung(1967), pag. 127.

Estudiamos a continuacion, las propiedades de diferenciabilidad de Pij(t) en t = 0.Obviamente nosotros solo consideraremos derivadas por la derecha de cero.

Teorema 52. Para cada i,

−P ′ii(0) = lım

t→0

1− Pii(t)t

existe aunque puede ser infinito.

La demostracion puede verse en Karlin y Taylor(1981), pag. 139.

Teorema 53. Para i y j, i 6= j,

P ′ij(0) = lım

t→0

Pij(t)t

existe y es finito.

Page 74: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

72

La demostracion puede verse en Karlin y Taylor(1981), pag. 141.

Observaciones. 1) Si S es finito, P ′ii(0) no pueden ser infinito. En efecto,

1− Pii(t)t

=

∑k 6=i Pij(t)

t

de donde se deduce que−P ′

ii(0) =∑

k 6=i

P ′ij(0).

2) Denotaremos qij = P ′ij(0), i 6= j y qi = −P ′

ii(0). Es habitual tambien usar la notacionqii = −qi. La matriz (qij) = (P ′

ij(0)) se llama Q-matriz asociada a la CMTC o matriz ogenerador infinitesimal de la CMTC.

3) En general se verifica que

(31)∑

j 6=i

qij ≤ qi para todo i

En efecto: Se tiene que∑

j 6=i Pij(h) = 1− Pii(h). Luego para cualquier N finito,

N∑

j=1,j 6=i

Pij(h) ≤ 1− Pii(h)

Dividiendo por h, h → 0, se sigue que∑N

j=1,j 6=i qij ≤ qi, puesto que N es arbitrario ytodos los terminos son positivos, se sigue (31).

Definicion. Una CMTC se dice que es conservativa si∑

j 6=i

qij = qi < ∞ para todo i ∈ S.

Ahora vamos a probar que para una CMTC conservativa no solo todas las Pij(t) sondiferenciables, si qi < ∞ (i ≥ 0), sino que satisfacen un conjunto de ecuaciones diferencialesconocidas como las ecuaciones atrasadas (“backward”) de Kolmogorov. Aunque para ladiferenciabilidad de Pij(t) no es necesario que la matriz sea conservativa, ahora bien lademostracion es mas facil bajo esta suposicion. De hecho,

Teorema 54. (Ecuaciones atrasadas de Kolmogorov) Para una CMTC conservativase verifica para todo i, j y t ≥ 0,

(32) P ′ij(t) =

k 6=i

qikPkj(t)− qiPij(t)

Demostracion.

Pij(s + t)− Pij(t) =∑

k

Pik(s)Pkj(t)− Pij(t)

=∑

k 6=i

Pik(s)Pkj(t) + (Pii(s)− 1)Pij(t)

Page 75: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

73

Dividiendo por s, s → 0, se sigue:

P ′ij(t) =

k 6=i

qikPkj(t)− qiPij(t) para todo i

Para derivar estas ecuaciones rigurosamente nosotros debemos probar que

lıms→0+

1s

k 6=i

Pik(s)Pkj(t) =∑

k 6=i

qikPkj .

Ahora,

lım infs→0+

1s

k 6=i

Pik(s)Pkj(t) ≥ lım infs→0+

1s

N∑

k=1,k 6=i

Pik(s)Pkj(t) =N∑

k=1,k 6=i

qikPkj

para cualquier N > 0, por lo que

lım infs→0+

1s

k 6=i

Pik(s)Pkj(t) ≥∑

k 6=i

qikPkj .

Por otra parte, para N > i,

k 6=i

Pik(s)Pkj(t) ≤N∑

k=1,k 6=i

Pik(s)Pkj(t)+∞∑

k=N+1

Pik(s) =N∑

k=1,k 6=i

Pik(s)Pkj(t)+1−Pii(s)−N∑

k=1,k 6=i

Pik(s).

Dividiendo por s y tomando lım sups→0+ en ambos lados obtenemos

lım sups→0+

1s

k 6=i

Pik(s)Pkj(t) ≤N∑

k=1,k 6=i

qikPkj(t) + qi −N∑

k=1,k 6=i

qik.

Tomando N →∞ y usando que la matriz es conservativa, tenemos que,

lım sups→0+

1s

k 6=i

Pik(s)Pkj(t) ≤∑

k 6=i

qikPkj(t).

Observacion. El recıproco tambien es cierto i.e. si se satisfacen las ecuaciones atrasadasde Kolmogorov la matriz Q es conservativa. El sentido de llamar ecuaciones atrasadas alas ecuaciones diferenciales obtenidas en el Teorema previo es porque en el calculo de ladistribucion de probabilidad del estado en el tiempo s + t condicionamos sobre el estado(todos los posibles) atras en un tiempo s. Esto es, empezamos nuestra demostracion con:

Pij(s + t) =∑

k

P (Xs+t = j | X0 = i,Xt = k)P (Xt = k | X0 = i)

=∑

k

Pik(t)Pkj(s)

De forma similar podemos obtener,

Page 76: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

74

Teorema 55. (Ecuaciones adelantadas “forward” de Kolmogorov) Bajo ciertas con-diciones de regularidad,

(33) P ′ij(t) =

k 6=j

Pik(t)qkj − Pij(t)qj para todo i, j

Observacion. La demostracion sigue pasos analogos a la anterior. Ahora bien no vamosa profundizar en la condiciones de regularidad que han de verificarse para que sea cierto laconmutatividad entre el lımite y la suma debido a una mayor complejidad en las mismas.

Calculo de las funciones de probabilidad de transicion

Las ecuaciones atrasadas y adelantadas de Kolmogorov son sistemas de ecuaciones dife-renciales de primer orden lineales y con coeficientes constantes (que son los terminos de lamatriz P ′(0)), acompanados por la condicion inicial P (0) = Id. Estas tienen como solucionunica,

(34) P (t) = eQt

definiendo como la exponencial de una matriz Qt como sigue

eQt = Id +∞∑

n=1

(Qt)n

n!.

Ahora bien, esta expresion para la exponencial de Qt es numericamente intratable. Al-ternativamente, supongamos que el espacio de estado de la cadena es finito, p.e. S =0, 1, . . . , N. La funcion de probabilidades de transicion viene dada por (34). Sean λj ,j = 0, 1, . . . , N , los autovalores de Q (i.e. las soluciones de det(q−λId) = 0) y supongamosque Q puede se escrita como Q = HJH−1 para alguna matriz H no singular, donde Jes la matriz diagonal con los elementos de la diagonal λj . Si existe tal matriz H, se diceque la matriz Q es diagonalizable. Una condicion suficiente para que la matriz Q sea dia-gonalizable es que todos los autovalores sean distintos. En el caso de que la matriz Q seadiagonalizable entonces la columna i-esima de la matriz H es el autovector por la derecha,denotemosle νi, de λi i.e. Qνi = λiνi. En consecuencia

P (t) = HeJtH−1

siendo eJt una matriz diagonal cuyos elementos de la diagonal son eλit.En el caso infinito, no se puede dar una forma explıcita para la solucion de las ecuaciones

de Kolmogorov, estas constituyen cuando son validas y se saben resolver, un metodo paradeterminar las matrices de transicion P (t) a partir de la la matriz de derivadas en el origenP ′(0).

Ejemplos:1) Caso finito. Problema de fallos. 2) Caso infinito. Definicion equivalente de Proceso

de Poisson. Un proceso de Poisson es una cadena de Markov con espacios de estadosS = 0, 1, . . . y probabilidades de transicion estacionarias verificando,

1. Pi i+1(h) = αh + o(h) h ↓ 0+, i ≥ 0

2. Pi i(h) = 1− αh + o(h) h ↓ 0+, i ≥ 0

Page 77: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

75

3. Pi j(0) = δij

4. X0 = 0

Clasificacion de los estados

Para cada h > 0 fija, la matriz (Pij(h)) es la matriz de transicion de la CMTD, Ch =Xnh, n ≥ 0, i.e. que corresponde a observar el proceso unicamente en los instantesmultiplos de la unidad de tiempo h. Su matriz de transicion en n− pasos son dadas por(Pij(nh)). La relacion entre la CMTC Xtt∈T y las CMTDs Ch, h > 0 son muy util a lahora de clasificar los estados.

Definicion. Diremos que i conduce a j, y lo denotamos i à j si existe un t > 0 talque Pij(t) > 0. Diremos que i comunica con j, y lo denotamos i ! j, si i à j y j à i.

Observacion. Teniendo en cuenta el Teorema 50, a) se sigue que i ! i y por tantotodas las CMTDs son a periodicas. A partir del apartado b), se verifica que si i à jpara Xtt∈T entonces i à j para Ch, h > 0, el recıproco es trivial. Luego la nocion decomunicacion para la CMTC es equivalentes a la de las CMTDs Ch, h > 0. En particularla clasificacion de todos los estados dentro de clases de estados comunicantes es la mismapara la CMTC y todas las CMTDs Ch, h > 0.

Definicion. Un estado i ∈ S se dice que es recurrente para la CMTC si∫ ∞

0Pii(t)dt = ∞

En caso contrario se denominara transitorio.

Teorema 56.

a)∫∞0 Pii(t)dt = ∞ si y solo si

∞∑

n=0

Pii(nh) = ∞ para algun h > 0

y en tal caso para cualquier h > 0. Es decir que i es recurrente si y solo si lo es enalguna cadena Ch, y en tal caso lo es para todas.

b) La descomposicion de S en estados transitorios y recurrentes, divididos a su vez ensubcadenas cerradas e irreducibles, es la misma para cualquiera de las cadenas Ch.

Demostracion. a) Dado h > 0, sea δ(h) = mınr∈[0,h] Pii(r). Observemos que

mınr∈[0,h]

Pii(t + r) ≥ Pii(t) mınr∈[0,h]

Pii(r) = Pii(t)δ(h)

por tantoδn(h) = mın

r∈[nh,(n+1)h]Pii(r) ≥ Pii(nh)δ(h)

Page 78: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

76

Analogamente, puesto quePii(t) ≥ Pii(t− r)δ(h)

tenemos que

∆n(h) = maxt∈[nh,(n+1)h]

Pii(t) ≤ Pii((n + 1)h)δ(h)

Ası que ∫ Nh

0Pii(t)dt ≥ h

N−1∑

n=0

δn(h) ≥ hδ(h)N−1∑

n=1

Pii(nh)

y ∫ Nh

0Pii(t)dt ≤ h

N−1∑

n=1

δn(h) ≤ h

δ(h)

N∑

n=1

Pii(nh)

De donde se deduce, al tender N →∞ que∫∞0 Pii(t)dt = ∞ si y solo si

∞∑

n=0

Pii(nh) = ∞

Como la demostracion es valida para cualquier h, se tiene a).b) La descomposicion de los estados recurrentes en subcadenas cerradas e irreducibles

para las cadenas de Markov, se hacıa estableciendo las clases de equivalencia de la relacioni ! j. Ahora bien, segun el resultado del Teorema 51, fijados i y j de S, Pij(t) = 0 paratodo t > 0 o Pij(t) > 0 para todo t > 0, y obviamente lo mismo para Pji(t), por tanto sededuce b).

Resulta del Teorema anterior que el teorema de descomposicion que se enuncia paraCMTDs, es valido sin ninguna variacion para CMTCS.

Observacion. Analicemos mas detenidamente el concepto de recurrencia. Sea

Si = t ≥ 0 : Xt = ii.e. conjunto de los instantes en que el proceso ocupa el estado i. Sea µi una variablealeatoria que representa la longitud total de tiempo que el proceso permanece en el estadoi, a lo largo de su evolucion, y que podemos expresar

µi =∫ ∞

0ISi(t)dt

siendo

ISi(t) =

1 si t ∈ Si

0 si t 6∈ Si

Ası pues, aplicando el Teorema de Fubbini,

E[µi | X0 = j] =∫

Ωµi(w)P (dw | X0 = j) =

Ω

∫ ∞

0ISi(w)(t)dtP (dw | X0 = j)

=∫ ∞

0

(∫

ΩISi(w)(t)P (dw | X0 = j)

)dt.

Page 79: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

77

Ahora bien,w : t ∈ Si(w) = w : Xt(w) = i.

Luego puesto que,

Pji(t) = P (Xt = i | X0 = j) = E[IXt=i | X0 = j] =∫

ΩIXt=i(w)P (dw | X0 = j)

se verifica que

E[µi | X0 = j] =∫ ∞

0Pji(t)dt

Luego∫∞0 Pji(t)dt representa el tiempo total esperado que el proceso permanece en i

cuando su posicion inicial es j. En estos terminos i es recurrente si y solo si el tiempototal esperado de permanencia en i partiendo de i es infinito. Ademas se puede probar(ver Chung pag. 185) que

P (Si es un conjunto no acotado | X0 = i) = P (µi = ∞ | X0 = i)

y o bien la probabilidad es igual a cero o a uno segun sea∫∞0 Pii(t)dt finita o infinita.

Comportamiento asintotico

Vamos a ver a continuacion como se comportan las matrices de transicion P (t) cuandot →∞.

Teorema 57. Para cada i, j en S existe

(35) lımt→∞Pij(t) = πij .

Corolario 58. Para todo s > 0 se verifica

Π = ΠP (s) = P (s)Π = ΠΠ

Definicion. Una distribucion de probabilidad π = πii∈S sobre S es una distribucionestacionaria para una CMTC con matriz de transicion P (t), t ≥ 0, si πP (t) = π, parat ≥ 0 i.e.

πj =∑

i

πiPij(t), para todo t ≥ 0 y j ∈ S

Proposicion 59. Si para algun i ∈ S es πii 6= 0, entonces πijj∈S es una distribucionestacionaria para la CMTC.

Demostracion. Teniendo en cuenta el corolario anterior bastarıa probar que en talsituacion ∑

j∈S

πij = 1.

Por una parte puesto que ∑

j∈S

Pij(t) = 1, t > 0

Page 80: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

78

es claro que ∑

j∈S

πij ≤ 1.

Por otra parte consideremosui = sup

k∈Sπki

y tendremos queπji =

k

πjkπki ≤∑

k

πjkui + πji(πii − ui)

es decir,πji(1 + ui − πii) ≤ ui

k

πjk ≤ ui

o bien comoui 6= 0, ui = πii

Entoncesπii =

k∈S

πikπki ≤∑

k

πikui = πii

k

πik

con lo cual ∑

k

πik ≥ 1

Definicion. Diremos que i es un estado recurrente positivo si πii > 0 en (35).

Corolario 60. Las filas de la matriz lımite Π correspondientes a estados recurrentespositivos son distribuciones estacionarias frente a P (s), s > 0.

Observaciones. 1) Si ξTi es el tiempo de permanencia en i durante el intervalo de tiempo

[0, T ], tendrıamos que

E[ξTi | X0 = j] =

∫ T

0Pji(t)dt

con lo cual lımT→∞ 1T

∫ T0 Pji(t)dt = πji representa la proporcion lımite de tiempo que hay

que esperar permanecer en i si la evolucion empieza en j.2)La nocion de recurrente positivo para la CMTC es la misma que para la existente

en las CMTDs Ch, y por lo tanto de ahı la definicion.

Para la determinacion de la matriz Π resulta comodo emplear el siguiente resultado.

Corolario 61. Si se cumplen las ecuaciones atrasadas de Kolmogorov entonces lımt→∞ p′ij(t) =0 y QΠ = 0. Si se cumplen las del futuro entonces tambien se verifica ΠQ = 0.

Demostracion. La ecuacion atrasada de Kolmogorov es

p′ij(t) =∑

k∈S

p′ik(0)pkj(t).

Page 81: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

79

Observemos que la serie del segundo miembro es absolutamente convergente puesto que∑

k∈S

|p′ik(0)|pkj(t) ≤∑

k∈S

|p′ik(0)| = −2p′ii(0).

Entonces cuando t →∞, de lo anterior se sigue que

lımt→∞ p′ij(t) =

k∈S

p′ik(0)πkj

lo cual prueba que lımt→∞ p′ij(t) existe. Ademas puesto que pij(t) converge a una constante,ha de ser

lımt→∞ p′ij(t) = 0

En las ecuaciones diferenciales de Kolmogorov queda entonces

0 = QΠ = ΠQ.

Construccion de una cadena de Markov a partir de su generador infinitesimal

Supongamos que tenemos un conjunto de numeros no negativos (qij) que satisfacen lapropiedad: ∑

j 6=i

qij ≤ qi para todo i.

Para unificar la notacion escribimos qii = −qi. Nos preguntamos si existe una cadena deMarkov en tiempo continuo, i.e. una matriz de transicion estandar P = (Pij(t)), para lacual

P ′ij(0) = qij , j 6= i

y P ′ii(0) = −qi. Si asumimos que

∑j 6=i qij = qi < ∞ para todo i, se verifica que cualquier

cadena de Markov asociada con los (qij) debe al menos satisfacer las ecuaciones atrasadasatras. La importancia practica de este hecho es porque a menudo una cadena de Markovse define de manera que uno sea capaz de derivar las ecuaciones hacia atras. Y luego tratarde resolverlas para calcular la matriz de transicion completa. Hasta el presente momentoresultados definitivos para el caso general no son conocidos. Si es conocido que bajo elsupuesto de que

∑j 6=i qij = qi < ∞ para todo i, existe al menos una matriz de transicion

asociada y que si existe mas de una entonces existen infinitas de ellas. En Chung(1967)y Cinlar(1975), se prueba que si con probabilidad una la CMTC realiza un numero finitode transiciones en un intervalo finito de tiempo (tales CMTC se llaman regulares) sı quela matriz infinitesimal Q (junto con la distribucion inicial) identifican unıvocamente unaCMTC. Si se tiene un conocimiento mas implıcito de la matriz Q se puede profundizar masen la existencia del mismo. En general, el problema de clasificar el generador infinitesimaly su proceso asociado es complicado.

Interpretacion de los elementos de Q

Sea i tal que 0 < qi < ∞. Sea t > 0 fijo y n > 0 un entero positivo arbitrario.Supongamos que el proceso empieza en el estado i. Entonces consideremos

P (Xτ = i, para τ = 0, t/n, 2t/n, 3t/n, . . . , t | X0 = i) = [Pii(t/n)]n.

Page 82: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

80

Puesto que1− Pii(t)

t= qi + o(1),

tenemos que

[Pii(t/n)]n = [1− t/nqi + o(t/n)]n = expn log[1− tqi

n+ o(t/n)].

Usamos la expansion para el logaritmo de la forma log(1 − x) = −x + θ(x)x2 validopara |x| ≤ 1/2 y |θ| ≤ 1, con x = −tqi/n + o(t/n) y haciendo tender n → ∞, obtenemosque

lımn→∞[Pii(t/n)]n = exp(−qit).

Nosotros podemos considerar que

lımP (Xτ = i, para τ = 0, t/n, 2t/n, 3t/n, . . . , t | X0 = i)

justo comoP (Xτ = i para todo 0 ≤ τ < t | X0 = i).

(Afirmacion que se basa en el concepto de separabilidad)Se prueba que

P (Xτ = i, para todo 0 ≤ τ ≤ t | Xt = i) = exp(−qit)

Es decir exp(−qit) es la probabilidad de permanecer en el estado i durante al menos unalongitud de tiempo t. En otras palabras la distribucion del tiempo de espera en el estadoi es una distribucion exponencial con parametro 1/qi. Luego el razonamiento expresadoarriba nos conduce al siguiente Teorema. Denotando por Ti a la duracion de la permanenciaen el estado i, es decir, Ti = ınft/Xt 6= i.

Teorema 62. Para todo i ∈ S,

P (Ti ≥ t | X0 = i) = P (Xs = i para todo s ∈ [0, t] | X0 = i) = exp−qit.

Un estado i verificando 0 < qi < ∞ se llama estable. En este caso el tiempo de esperaen el estado i es una variable aleatoria cuya distribucion es una autentica distribucion ex-ponencial y por tanto las transiciones ocurren en tiempo finito. Diremos que es absorbentesi qi = 0, lo cual obviamente implica que una vez que se entra en el estado i el procesopermanece allı para siempre. Un estado i es instantaneo si qi = ∞. El valor esperado en talestado es cero, de ahı el nombre, puesto que el tiempo de permanencia es cero. La teorıasobre cadenas de Markov con estados instantaneos es complicada. Vale la pena apreciar losproblemas tecnicos inherentes en tales procesos, ahora bien cabe destacar que la mayorıade las cadenas de Markov en tiempo continuo que surgen en la practica tienen solo estadosestables. De hecho en la mayorıa de los casos de interes el proceso bajo estudio es defi-nido especificando los parametros infinitesimales como datos conocidos. Para completarla teorıa, es entonces necesario establecer la existencia de un proceso que posea la matrizinfinitesimal descrita.

Centrando la atencion a las cadenas de Markov en tiempo continuo con solo estadosestables, vamos a establecer un significado intuitivo a las cantidades qij . De hecho si

Page 83: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

81

el procesos es conservativo los elementos qij/qi (i 6= j) pueden interpretarse como lasprobabilidades condicionadas de que ocurra una transicion del estado i al j. Para ver esto,consideremos

Rij(h) = P (Xh = j | X0 = i,Xh 6= i), j 6= i

y calculemos el lımh→0 Rij(h). Esta es la probabilidad de una transicion desde el estadoi al j, dado que un transicion ha ocurrido. El hecho de hacer tender h a cero hay queentenderlo pensando que la transicion de un estado a otro es instantanea, el instante en elque se produce el salto, estamos en un tiempo t en i, dejamos de estar en i para estar enj, ocurriendo este salto en un tiempo instantaneo. No podemos decir hablando en tiempocontinuo cuando hemos dejado de estar en i para pasar a j, ese salto es instantaneo deahı hacer tender h a cero.

Ası pues si denotamos Pij la probabilidad de una transicion desde el estado i al j,tenemos que:

qij = Pijqi ∀i 6= j

Puesto que qi es la tasa en la cual el proceso abandona el estado i, se sigue que qij esla tasa que cuando en el estado i se produzca una transicion sea al estado j. De hechollamaremos a qij tasa de transicion de i a j.

Luego si definimos como sucesion de tiempos de salto de Xtt≥0 a la sucesion Jnn≥0

definida recursivamente por J0 = 0,

Jn+1 = ınft ≥ Jn : Xt 6= XJn n = 0, 1, . . .

(donde ınf ∅ = ∞) y sucesion de tiempos de permanencia de Xtt≥0 a la sucesion Snn≥1

definida por

Sn =

Jn − Jn−1 si Jn−1 < +∞∞ si Jn−1 = +∞

Finalmente definimos tambien el proceso o cadena de saltos, Yn = XJn , n = 0, 1, . . . (siJn+1 = ∞ para algun n definimos X∞ = XJn , en otro caso X∞ queda sin definir). De loexpresado anteriormente se deduce que:

Proposicion:Sea i ∈ S tal que qi > 0. Se verifica que Sn+1, condicionado a queYn = i, sigue una distribucion exponencial de parametro 1/qi.

Proposicion: Sea i ∈ S tal que qi > 0. Se verifica que P (Yn+1 = j|Yn = i) = qij/qi,j 6= i.

En la practica es mas habitual modelizar el comportamiento de un sistema por mediode una CMTC a partir del conocimiento de la matriz infinitesimal. Ejemplo: Una tıpicarealizacion de un proceso: Consideremos un sistema con un espacio de estados contable.Para cada par de estados (i, j) (i 6= j) tenemos asociado un suceso Eij . Cuando el sistemaentra en el estado i, su proxima transicion esta gobernada por los sucesos Eij como sigue:Supongamos que el sistema entra en el estado i en el tiempo t. Entonces Eij esta establecidoque ocurrira en el tiempo t + Tij , donde Tij es una variable aleatoria exponencialmentedistribuida con parametro 1/qij , qij ≥ 0 (Si qij = 0, entonces Eij no ocurre.) Ademas lasvariables aleatorias Tijj 6=i son mutuamente independientes y tambien independientes dela historia del proceso hasta el tiempo t. Supongamos que j es tal que Tij = mınk 6=iTik,i.e. Eij es el primer suceso que tiene lugar despues de que el sistema se mueva del estado

Page 84: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

82

i. Entonces el sistema permanece en i hasta t + Tij y entonces se mueve a j. Todos losdemas sucesos son cancelados. Un nuevo conjunto de sucesos se establecen, y el procesocontinua. Modelizamos la realizacion de este sistema por medio de una CMTC. Sea Xt elestado del sistema en el tiempo t. Si definimos qi =

∑j 6=i qij , veamos que qi es el parametro

asociado a la distribucion exponencial del tiempo de permanencia en el estado i. El tiempode permanencia en el estado i coincide mınk 6=i Tik. Teniendo en cuenta que las variablesaleatorias Tikk 6=i son mutuamente independiente y Tik ∼ exp(1/qik), se sigue:

P (mınk 6=i

Tik ≤ x) = 1− P (mınk 6=i

Tik > x) = 1−∏

k 6=i

(1− P (Tik ≤ x))

= 1− exp(∑

k 6=i

qikx) = 1− exp(−qix)

Veamos como calcularıamos la probabilidad de que haya una transicion del estadio i alestado j, Pij :

Pij = P (Tij = mınk 6=i

Tik) = P (Til − Tij > 0, l 6= j, i) = E(P (Til − Tij > 0, l 6= j, i | Tij))

= E(∏

l 6=j,i

P (Til − Tij > 0 | Tij))

Sea l 6= j, i,

P (Til − Tij > 0 | Tij)(x) = E(ITil−Tij>0 | Tij)(x) =∫

I(0,∞)(ul)dPUl|Tij=x(ul)

=∫ ∞

0fUl|Tij=x(ul)dul

donde Ul = Til−Tij . Ahora, calculemos la fUl|Tij=x(ul). Realizamos el cambio bidimesionalde (Til, Tij), a (Ul, Tij). Obtenemos que

f(Ul,Tij)(ul, x) = fTil(ul + x)fTij (x)

luegof(Ul,Tij)(ul, x) = qil exp(−qil(ul + x))qij exp(−qijx), x > 0, ul + x > 0

De donde,fUl|Tij=x(ul) = qil exp(−qil(ul + x)), uj > −x, x > 0

Para x > 0,∫ ∞

0fUl|Tij=x(ul)dul =

∫ ∞

0qil exp(−qil(ul + x))Iul>−x(ul)dul

=∫ ∞

0qil exp(−qil(ul + x))dul = exp(−qilx)

Luego ∏

l 6=j,i

P (Til − Tij > 0 | Tij)(x) =∏

l 6=j,i

exp(−qilx)

Page 85: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

83

Y por lo tanto

Pij =∫ ∏

l 6=j,i

P (Til − Tij > 0 | Tij)(x)dP Tij (x) =∫ ∞

0

l 6=j,i

exp(−qilx)qij exp(−qijx)dx

=∫ ∞

0qij exp(−

l 6=i

qilx)dx =qij∑l 6=i qil

Page 86: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Leccion 13: Procesos con Incrementos Independientes

Los procesos que estudiaremos en esta leccion constituyen una util fuente de ejemplos deprocesos de Markov a tiempo continuo.

Comenzamos esta seccion con el concepto de distribuciones infinitamente divisibles queesta estrechamente relacionado con los procesos con incrementos independientes, comoveremos posteriormente.

Definicion. (Distribuciones infinitamente divisibles) Una v.a. X (o su funcion dedistribucion F o su funcion caracterıstica h) se dice infinitamente divisible si, para cadan, X tiene la misma distribucion que la suma de n v.a. independientes e identicamentedistribuidas. En otras palabras si, para cada n, podemos escribir h = (hn)n, donde hn esla funcion caracterıstica de una v.a.

Ejemplos. (Ejemplos de v.a. infinitamente divisibles)

1) La distribucion de Poisson: Si X ∼ P (λ), P (X = k) = e−λλk/k!, k = 0, 1, ... y sufuncion caracterıstica es de la forma

ϕX(t) = E[eitX ] = eλ(eit−1).

Es conocido que si X1, ...Xn son v.a.r. independientes tales que Xi ∼ P (λi), entonces∑ni=1 Xi tiene distribucion de Poisson P (

∑ni=1 λi). De ahı se sigue que, para cada

n, X tiene la misma distribucion que∑n

i=1 Xi, siendo las Xi independientes y talesque Xi ∼ P (λ/n).

2) La distribucion gamma: Si X ∼ G(α, β), su funcion caracterıstica es

ϕX(t) = (1− iβt)−α.

Para cada n ∈ N, podemos expresar

ϕX(t) = [(1− iβt)−α/n]n = [ϕn(t)]n

donde ϕn es la funcion caracterıstica de una distribucion gamma G(α/n, β)

Teorema 63. Sean h, h1, h2 funciones caracterısticas infinitamente divisibles enton-ces, tambien lo son

(i) h1 · h2

(ii) h (conjugado complejo de h)

(iii) |h|2

Demostracion. Si hi = (hin)n, i = 1, 2, entonces h1h2 = (h1nh2n)n, con lo que quedaprobado (i) puesto que h1nh2n es la funcion caracterıstica de la suma de dos v.a. indepen-dientes con funciones caracterısticas h1n y h2n. Si X tiene funcion caracterıstica h entonces−X tiene funcion caracterıstica h, ası si h = (hn)n, entonces h = (hn)n y h es infinitamentedivisible si lo es h. Puesto que |h|2 = hh, |h|2 es tambien infinitamente divisible.

84

Page 87: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

85

Definicion. (Procesos con incrementos independientes) Sea (Xt)t≥0 un proceso es-tocastico real. Se dice que dicho proceso tiene incrementos independientes si cualesquieraque sean 0 < t1 < · · · < tn, X0, Xt1 −X0, Xt2 −Xt1 , ..., Xtn −Xtn−1 son independientes.

Observaciones. 1) Si (Xt)t≥0 tiene incrementos independientes e Yt = Xt − X0,entonces, X0 e (Yt)t≥0 son independientes y el proceso (Yt)t≥0 tambien tiene incre-mentos independientes.

2) Recıprocamente, si (Yt)t≥0 tiene incrementos independientes, Y0 ≡ 0 y definimosXt = X0 + Yt, siendo X0 una v.a.r. independiente de (Yt)t≥0 entonces (Xt)t≥0 tieneincrementos independientes.

3) Como consecuencia de 1) y 2), en el estudio de procesos con incrementos indepen-dientes no hay perdida de generalidad si restamos la v.a. inicial X0.

Definicion. (Procesos con incrementos independientes y estacionarios) Si (Xt)t≥0

tiene incrementos independientes y Xt−Xs tiene la misma distribucion que Xt+h−Xs+h

para todos s, t, h ≥ 0, s < t, se dice que el proceso tiene incrementos independientes yestacionarios.

Teorema 64. Sea (Xt)t≥0 un proceso estocastico con incrementos independientes yestacionarios, e Yt = Xt−X0. Entonces para cada s < t, Yt−Ys es infinitamente divisible.Si ht es la funcion caracterıstica de Yt y ht(u) es continua (o mas generalmente Borelmedible) en t para cada u fijo, entonces

ht(u) = [h1(u)]t = exp[t log h1(u)],

donde ” log ” significa el unico logaritmo continuo de h1 tal que log h1(0) = 0. Recıpro-camente, si h1 es una funcion caracterıstica infinitamente divisible, existe un proceso es-tocastico (Yt)t≥0 con incrementos independientes y estacionarios tal que, para cada t, Yt

tiene funcion caracterıstica ht1.

Demostracion. Si (Xt)t≥0 tiene incrementos independientes, entonces, para cada n ∈ N

Y (t)− Y (s) =n∑

k=1

[Y

(s +

k(t− s)n

)− Y

(s +

(k − 1)(t− s)n

)],

de forma que Y (t)− Y (s) es infinitamente divisible. Puesto que Y (s + t) = Y (s) + (Y (s +t)− Y (s)), y que por la estacionaridad de los incrementos Y (s + t)− Y (s) tiene la mismadistribucion que Y (t), se tiene que, siendo independientes los incrementos, hs+t(u) =hs(u)ht(u), para cada u. Como para u fijo ht(u) es Borel-medible en t, ht(u) tiene que serde la forma A(u) exp[B(u)t].

Puesto que Y (0) ≡ 0, hagamos t = 0 para obtener que A(u) = 1. Haciendo ahora t = 1se obtiene que h1(u) = eB(u), de forma que B(u) es un logaritmo de h1(u). Si la funcion Bfuese discontinua en algun u0 entonces ht serıa discontinua en u0 para cada t, en contra deque ht es una funcion caracterıstica y toda funcion caracterıstica es continua. Ası pues, Bes continua, y siendo log h1 y B dos logaritmos continuos de la misma funcion h1, se tieneque B(u) = log h1(u) + i2kπ para algun entero k. Por lo tanto, ht(u) = exp[t log h1(u)],como deseabamos.

Page 88: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

86

Recıprocamente, sea h1 una funcion caracterıstica infinitamente divisible y veamosque, para cada t ≥ 0, la funcion ht

1 es una funcion caracterıstica. Siendo h1 infinitamentedivisible, dado q entero positivo, se tiene que h1 = hq, para alguna funcion caracterısticah. Pero h1 = [exp(q−1 log h1)]q y, por tanto, h = exp(q−1 log h1) y, dado un numero p

entero positivo, hp = exp[pq−1 log h1] = hp/q1 . Siendo h una funcion caracterıstica, tambien

lo es hp = hp/q1 .

Hemos probado que, para todo racional positivo p/q, hp/q1 es una funcion caracterıstica.

Dado t ≥ 0 existe una sucesion de racionales positivos pn/qn convergente a t. Se tieneentonces que, para cada u fijo, h

pn/qn

1 (u) converge a ht1(u). El teorema de Levy prueba

entonces que ht1 es una funcion caracterıstica.

Sea ahora (Yt)t≥0 un proceso estocastico tal que, para cada 0 ≤ t1 < t2 < · · · < tn, ladistribucion conjunta de Yt1 , ..., Ytn queda especificada por el hecho de que los incrementosYt1 , Yt2 − Yt1 , ..., Ytn − Ytn−1 sean independientes y que cada incremento Ytk − Ytk−1

tengafuncion caracterıstica (h1)tk−tk−1 . Esta especificacion satisface la condicion de consistencia(CC) y el teorema de extension de Kolmogorov prueba la existencia de tal proceso, lo queacaba la demostracion.

Ejemplos. (Ejemplos de aplicacion)

1) Sea h1(u) = exp[−u2σ2/2] la funcion caracterıstica de una v.a. con distribucionnormal N(0, σ2). Entonces, ht

1(u) = e−u2σ2t/2, de forma que Ys+t − Ys es normalN(0, σ2t). Puesto que Yt1 , Yt2−Yt1 , ..., Ytn−Ytn−1 son v.a. normales e independientes,(Yt1 , Yt2 , ..., Ytn) es normal y el proceso (Yt)t≥0 es gaussiano. La funcion de covarian-zas viene dada por

E(YsYt) = E[Ys(Yt − Ys + Ys)] = E(Y 2s ) = σ2s, s ≤ t,

de forma que (Yt)t≥0 es un movimiento browniano. El proceso (X0+Yt)t≥0 donde X0

e (Yt)t≥0 son independientes recibe el nombre de movimiento browniano con inicioen X0.

2) Para h1(u) = e−|u|, se tiene que ht1(u) = e−t|u|, e Yt tiene distribucion de Cauchy de

parametro t, cuya densidad es

ft(y) = t/π(t2 + y2).

El proceso (Yt)t≥0 que se obtiene recibe el nombre de proceso de Cauchy.

3) Si h1(u) = exp[λ(eiu−1)], ht1(u) = exp[λt(eiu−1)], de forma que Yt tiene distribucion

de Poisson de parametro λt; ademas, si 0 ≤ t1 < · · · < tn, Yt1 , Yt2 − Yt1 , ..., Ytn −Ytn−1 son independientes e Ytk − Ytk−1

tiene distribucion de Poisson con parametroλ(tk − tk−1). Ası pues, el proceso (Yt)t≥0 que se obtiene es el proceso de Poisson depromedio λ.

Lema 65. Si Xn =∑n

k=1 Yk, n = 1, 2, ... donde las Yk son v.a. independientes, entonces(Xn)n es un proceso de Markov.

Page 89: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

87

Demostracion. Si C, D ∈ R, entonces

P (Xn−1 ∈ C, Yn ∈ D|Y1, ..., Yn−1) = P (Xn−1 ∈ C, Yn ∈ D|Xn−1)

ya que, por una parte,

P (Xn−1 ∈ C, Yn ∈ D|Y1, ..., Yn−1) = E(IC(Xn−1)ID(Yn)|Y1, ..., Yn−1) = IC(Xn−1)E[ID(Yn)]

y, por otra

P (Xn−1 ∈ C, Yn ∈ D|Xn−1) = E[IC(Xn−1)ID(Yn)|Xn−1] = IC(Xn−1)E[ID(Yn)].

De ello se sigue que

P [(Xn−1, Yn) ∈ A|Y1, ...Yn] = P [(Xn−1, Yn) ∈ A|Xn−1]

para cada A ∈ B(R2). In particular, si B ∈ R, entonces

P (Xn−1 + Yn ∈ B|Y1, ..., Yn) = P (Xn−1 + Yn ∈ B|Xn−1).

De lo anterior se sigue el resultado pues σ(X1, ..., Xn) = σ(Y1, ..., Yn) y Xn = Xn−1 + Yn.

Teorema 66. Todo proceso (Xt)t≥0 con incrementos independientes es un proceso deMarkov.

Demostracion. Si 0 ≤ t1 < t2 < · · · < tn, entonces

Xtn =n∑

k=1

(Xtk −Xtk−1) =

n∑

k=1

Yk,

donde las Yk son independientes. Por el lema anterior,

P (Xtn ∈ B|Xt1 , ..., Xtn) = P (Xtn ∈ B|Xtn−1).

Teniendo en cuenta que si (Xt)t∈I0 es un proceso de Markov para todo subconjunto finitoI0 de [0, +∞) tambien lo es (Xt)t≥0, con lo que queda demostrado el resultado.

Page 90: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Leccion 14: Martingalas a Tiempo Continuo

En esta leccion extendemos el concepto de martingala al caso de parametro continuo yestudiaremos ciertas propiedades de sus trayectorias.

Definicion. Sean (Ω,A, P ) un espacio de probabilidad, T un conjunto totalmenteordenado y (Xt)t∈T un proceso estocastico real adaptado a la familia de sub-σ-algebrasde A, (At)t∈T (i.e., tal que si s < t, As ⊂ At y que cada Xt es At–medible). Diremosque (Xt)t es una martingala respecto a (At)t o que (Xt, At)t es una martingala (resp.submartingala o supermartingala) si Xt es P–integrable, para cada t ∈ T , y

E(Xt|As) = Xs (resp., E(Xt|As) ≥ Xs o E(Xt|As) ≤ Xs),

para cada s < t, s, t ∈ T . Diremos que (Xt)t es una martingala cuando lo sea respecto ala familia de sub-σ-algebras (σ(Xs : s ≤ t))t.

Observaciones. 1) Si (Xt)t∈T es una martingala respecto a una familia (At)t∈T , tambienlo es respecto a la familia (σ(Xs : s ≤ t))t∈T . En efecto, teniendo en cuenta que As ⊂ At,∀s ≤ t, tenemos que At hace medibles a todas las v.a. Xs con s ≤ t, y por tanto, σ(Xs :s ≤ t) ⊂ At. Ası pues, si t′ > t,

E[Xt′ |σ(Xs : s ≤ t)] = E[E(Xt′ |At)|σ(Xs : s ≤ t)] = E[Xt|σ(Xs : s ≤ t)] = Xt.

2) Si (Xt)t∈I es una martingala para cada subconjunto finito I de T , entonces (Xt)t∈T estambien una martingala. En efecto, sean s < t y consideremos r1 < r2 < · · · < rn = s < t;Siendo, por hipotesis, Xr1 , Xr2 , ..., Xrn , Xt una martingala, se tiene que, para cada A ∈σ(Xr1 , Xr2 , ..., Xrn , Xt),

AXtdP =

AE(Xt|Xr1 , Xr2 , ..., Xrn)dP =

AXrndP =

AXsdP,

y una aplicacion del teorema de la clase monotona probarıa que esa igualdad es cierta paracada A ∈ σ(Xs : s ≤ t).

3) A modo de recıproco, si (Xt)t∈T es una martingala, entonces tambien lo es (Xt)t∈I

para cada subconjunto I de T .4) Se pueden enunciar resultados analogos a los de 2) y 3) para sub y supermartingalas.

Teorema 67. Si (Xt)t≥0 es un proceso estocastico con incrementos independientes yE(|Xt|) < +∞, para cada t, entonces (Xt −E(Xt))t≥0 es una martingala.

Demostracion. Si (Xt)t≥0 tiene incrementos independientes, tambien los tendra [Xt −E(Xt)]t≥0, por lo que podemos suponer, sin perdida de generalidad, que E(Xt) = 0,para cada t. Si 0 ≤ t1 < t2 < · · · < tn < tn+1, entonces X0, Xt1 − X0, ..., Xtn+1 − Xtn

son independientes, y ası lo son Xtn+1 − Xtn y (X0, Xt1 − X0, ..., Xtn − Xtn−1). Siendo(Xt1 , ..., Xtn) funcion medible de (X0, Xt1 −X0, ..., Xtn −Xtn−1), se tiene que Xtn+1 −Xtn

y (Xt1 , ..., Xtn) son independientes, y ası

E[Xtn+1 |Xt1 , ..., Xtn ] = Xtn + E[Xtn+1 −Xtn |Xt1 , ..., Xtn ] = Xtn + E[Xtn+1 −Xtn ] = Xtn .

88

Page 91: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

89

A continuacion estudiaremos el comportamiento de las trayectorias para sub y supermar-tingalas. Solo probaremos los resultados para submartingalas pues cambiando Xt por −Xt

se obtienen los correspondientes para supermartingalas.

Lema 68. (1) Sea X1, ..., Xn una submartingala. Si λ ≥ 0, entonces

λP ( max1≤i≤n

Xi ≥ λ) ≤∫

max1≤i≤n Xi≥λXndP ≤ E(X+

n ).

(2) Si X1, ..., Xn es una supermartingala y λ ≥ 0, entonces

λP ( max1≤i≤n

Xi ≥ λ) ≤ E(X1) + E(X−n ).

Teorema 69. Sean T un intervalo de R y (Xt)t∈T una submartingala separable. En-tonces, para casi todo ω, la trayectoria de ω, X(·, ω), es acotada en cada subintervaloacotado de T .

Demostracion. Siendo (Xt)t separable, existen un conjunto denso y numerable T0 ⊂ Ty un suceso A de probabilidad nula tales que, para cada t ∈ T , existe una sucesion (tn)n

en T0 convergente a t y tal que X(tn, ω) converge a X(t, ω), para cada ω /∈ A.Si t1, ..., tn ∈ T0 y λ > 0, siendo Xt1 , ..., Xtn una submartingala y por el lema anterior

se tiene que

P

(max1≤i≤n

Xti > λ

)≤ 1

λE[X+

tn ], y

P

(mın

1≤i≤nXti < −λ

)= P

(max1≤i≤n

(−Xti) > λ

)≤ 1

λ

[E(−Xt1)−E[(−Xtn)−]

]

=1λ

[−E(Xt1) + E(X+tn)

]

pues −Xt1 , ...,−Xtn es una submartingala.Ası, si [c, d] es un subintervalo de T y tomamos t1, ..., tn ∈ [c, d]∩ T0, siendo (Xt)t una

submartingala se tiene que E(Xc) ≤ E(Xt1) y E(X+tn) ≤ E(X+

d ) (pues X+t1

, ..., X+tn , X+

d es una submartingala). De esto y de lo anterior se obtiene que

P

(max1≤i≤n

Xti > λ

)≤ 1

λE[X+

d ], y P

(mın

1≤i≤nXti < −λ

)≤ 1

λ

[−E(Xc) + E(X+d )

].

Como el conjunto T0 ∩ [c, d] es numerable, podemos tomar una enumeracion t1, t2, ... delmismo y, haciendo tender tn a infinito en las desigualdades anteriores se tiene que

P

(sup

t∈T0∩[c,d]Xt > λ

)≤ 1

λE[X+

d ], y P

(ınf

t∈T0∩[c,d]Xt < −λ

)≤ 1

λ

[−E(Xc) + E(X+d )

].

Por separabilidad, podemos reemplazar T0 por T para obtener

P

(sup

t∈T0∩[c,d]Xt = +∞

)= lım

λ→∞P

(sup

t∈T0∩[c,d]Xt > λ

)≤ lım

λ→∞1λ

E(X+d = 0 y

Page 92: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

90

P

(ınf

t∈T0∩[c,d]Xt = −∞

)= lım

λ→∞P

(ınf

t∈T0∩[c,d]Xt < −λ

)≤ lım

λ→∞1λ

[−E(Xc) + E(X+d )

]= 0.

Como consecuencia de lo anterior,

Pω : X(·, ω) esta acotado en cada subintervalo acotado de T

= P

( ∞⋂

n=1

ω : X(·, ω) esta acotado en [−n, n] ∩ T)

= 1.

Teorema 70. Sean T un intervalo de R y (Xt)t∈T una submartingala separable. En-tonces, para casi todo ω, X(·, ω) no tiene discontinuidades oscilatorias, es decir,

X(t+, ω) = lımt′→t+

X(t′, ω) y X(t−, ω) = lımt′→t−

X(t′, ω)

existen para todo t ∈ T .

Demostracion. Sean t1, ..., tn ∈ [c, d] ∩ T0, t1 < · · · < tn. Si a < b denotaremos Ua,b lav.a. que a cada ω le asocia el numero de saltos desde debajo de a hasta encima de b enla sucesion Xt1(ω), ..., Xtn(ω). Como Xt1 , ..., Xtn es una submartingala, el teorema deDoob prueba que

E(Ua,b) ≤ 1b− a

E[(Xtn − a)+

] ≤ 1b− a

E[(Xd − a)+

]

siendo cierta la ultima desigualdad por ser [(Xt − a)+]t una submartingala.Hagamos tender n a infinito para concluir que, para casi todo ω, el numero de saltos a lo

largo de [a, b] por la sucesion Xt(ω) : t ∈ T0∩ [c, d] es finito. De ello se deduce que existeun suceso de probabilidad nula A tal que, si ω /∈ A, la sucesion Xt(ω) : t ∈ T0 ∩ [c, d]tiene un numero finito de saltos a lo largo de [a, b], para todos racionales a y b con a < b.Por separabilidad, lo anterior es tambien cierto para Xt(ω) : t ∈ T ∩ [c, d].

Supongamos ahora que f : T −→ R es una funcion que no tiene lımite por la izda en unpunto t; entonces podrıamos encontrar una sucesion (tn)n convergente a t por la izquierday tal que lım infn f(tn) = u < v = lım supn f(tn). Tomemos dos racionales a y b tales queu < a < b < v. Entonces, f(tn) sera menor que a infinitas veces y mayor que b infinitasveces y, por tanto, f tendra un numero infinito de saltos desde debajo de a hasta encimade b. Tomemos f = X(·, ω) definida en T ∩ [c, d] para concluir que para cada ω /∈ A, lafuncion anterior posee lımite a la izquierda en cada t ∈ T ∩ [c, d]. La afirmacion para ellımite por la derecha se harıa de forma analoga. Siendo c y d arbitrarios se obtiene que,para casi todo ω, X(·, ω) tiene lımites a la izquierda y a la derecha en todo t ∈ T .

Page 93: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

Leccion 15: Tiempos de Parada

El concepto de tiempo de parada esta ıntimamente relacionado con la teorıa de martin-galas. En un principio solo se introdujo relacionado con procesos a tiempo discreto, peroaquı daremos la definicion para el caso de parametro continuo y discutiremos la relacioncon el concepto de medibilidad progresiva.

Definiciones. a) Sean (Ω,A, P ) un e.p. y (At)t≥0 una sucesion creciente de sub-σ-algebras de A, es decir, tal que si s < t, As ⊂ At. Un tiempo de parada para (At)t≥0 esuna funcion T : Ω −→ [0,+∞] tal que, para cada t ≥ 0, T ≤ t ∈ At.

b) Dado un proceso estocastico (Xt)t≥0 definido en (Ω,A, P ), un tiempo de paradapara (Xt)t≥0 es un tiempo de parada para la sucesion de σ-algebras (At)t≥0, siendo At =σ(Xs : s ≤ t), para cada t.

c) Si A ∈ A, diremos que A en anterior a T si A ∩ T ≤ t ∈ At, para cada t ≥ 0.Denotaremos AT la coleccion de todos los sucesos anteriores a T ; es facil probar que AT

es una σ-algebra.

Teorema 71. a) Si S y T son tiempos de parada tambien lo son S ∧ T = mın(S, T )y S ∨ T = max(S, T ). En particular, si t ≥ 0 y T es un tiempo de parada, tambien lo esT ∧ t.

b) Si T es un tiempo de parada, entonces T : (Ω,AT ) −→ ([0, +∞],B([0, +∞])) es unav.a., es decir, T es AT -medible.

c) Sean T un tiempo de parada y S una v.a.r. no negativa con S ≥ T . Si S es AT -medible entonces S es un tiempo de parada.

d) Si S y T son tiempos de parada y A ∈ AS entonces A ∩ S ≤ T ∈ AT .e) Si S y T son tiempos de parada y S ≤ T entonces AS ⊂ AT .

Demostracion. a) Si t ≥ 0,

S ∧ T ≤ t = S ≤ t ∪ T ≤ t ∈ At y

S ∨ T ≤ t = S ≤ t ∩ T ≤ t ∈ At

b) Si r es un numero real,

T ≤ r ∩ T ≤ t = T ≤ r ∧ t ⊂ Ar∧t ⊂ At.

Ası pues, para cada r ∈ R, T ≤ r ∈ AT .c) Si t ≥ 0,

S ≤ t = S ≤ t ∩ T ≤ t.Siendo S AT -medible, S ≤ t ∈ AT y, por tanto, S ≤ t ∩ T ≤ t ∈ At. Luego S es untiempo de parada para (At)t≥0.

d) Se tiene que

A ∩ S ≤ T ∩ T ≤ t = A ∩ S ≤ T ∩ T ≤ t ∩ S ∧ T ≤ T ∧ t,pero A∩S ≤ T ∈ At (pues A ∈ AS y T ≤ t ∈ At. Ademas T ∧ t ≤ r = T ∧r∧ t ∈Ar∧t ⊂ At y, de forma analoga, S ∧ t ≤ r ∈ At. Ası pues, T ∧ t y S ∧ t son At-mediblesy, de todo lo anterior se sigue que

A ∩ S ≤ T ∩ T ≤ t ∈ At, ∀t ≥ 0 i.e.

91

Page 94: AMPLIACION DE¶ PROCESOS ESTOCASTICOS¶ - …matematicas.unex.es/~paloma/HTM/apuntes.pdf · Cap¶‡tulo I TEOR¶IA L2 DE PROCESOS ESTOCASTICOS¶ I.1. Introducci¶on: Introducci¶on

92

A ∩ S ≤ T ∈ AT .

e) Si A ∈ AS entonces A = A ∩ Ω = A ∩ S ≤ T ∈ AT por d).

Si (Xt)t≥0 es un proceso adaptado a (At)t≥0 y T es un tiempo de parada finito para(At)t≥0 es natural considerar el valor XT del proceso cuando ocurren paradas; si T (ω) = tdefinimos XT (ω) = Xt(ω). Serıa deseable que XT fuese una v.a.. Veamos que para unproceso progresivamente medible eso se verifica.

Teorema 72. Sea (Xt)t≥0 un proceso progresivamente medible adaptado a la familiade σ-algebras (At)t≥0. Si T es un tiempo de parada finito para (At)t≥0 entonces XT esAT -medible.

Demostracion. Queremos probar que si B ∈ R entonces XT ∈ B ∈ AT . Pero

XT ∈ B ∩ T ≤ t = XT∧t ∈ B ∩ T ≤ t

y es suficiente probar que XT∧t ∈ B ∈ At, para cada t, en otras palabras, que XT∧t esAt-medible para cada t. Pero XT∧t es la composicion de la funcion ω −→ ((T ∧ t)(ω), ω), que esuna funcion medible de (Ω,At) en ([0, t]× Ω,B([0, t])×At), y la funcion (s, ω) −→ Xs(ω),que es una funcion medible de ([0, t]× Ω,B([0, t])×At) en (R,B(R)), por la hipotesis demedibilidad progresiva.


Recommended