Dispense di Istituzioni di Probabilità (F. Flandoli)

Embed Size (px)

Citation preview

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    1/156

    Capitolo 1

    Introduzione ai Processi Stocastici

    1.1 Prime denizioni

    1.1.1 Processi stocastici

    Ricordiamo che uno spazio di probabilit una terna (; F; P) dove un insieme, F una -algebra di parti di , P una misura di probabilit su (; F); la coppia (; F) chiamata spazio misurabile. In uno spazio topologico E indicheremo con B (E) la-algebra dei boreliani (la pi piccola -algebra che contiene gli aperti). Una variabilealeatoria Y su (; F) a valori in uno spazio misurabile (E; E) una funzione Y : ! Emisurabile da (; F) in (E; E), cio tale che f! 2 : Y (!) 2 Bg 2 Fper ogni B 2 E.Una variabile aleatoria reale Y su (; F) una variabile aleatoria su (; F) a valori in(R; B (R)).

    Sia T un insieme non vuoto. Linsieme T sar linsieme dei parametri del processostocastico. A livello interpretativo, pu essere ad esempio un insieme di tempi, oppuredi posizioni spaziali o di spazio-tempo. In alcuni momenti sar necessario supporre diavere uno spazio misurabile (T; T) ed in altri uno spazio topologico T, con T = B (T);altrimenti T del tutto arbitrario. Tutto ci no al momento in cui introdurremo leltrazioni; con lintroduzione del concetto di ltrazione, restringeremo lattenzione alcaso in sia T [0; 1), T = B (T) ed interpreteremo T come insieme dei tempi. Tuttigli sviluppi avanzati del corso riguarderanno il caso T = [0; 1) (o T = [0; t0]) percui avrebbe senso restringersi n da ora a quel caso. Per pu essere concettualmenteinteressante osservare che questi primi paragra hanno carattere pi generale, per cuiper ora supporremo solo che T sia un insieme, non vuoto.

    Siano dati, oltre a T, uno spazio di probabilit (; F; P) ed uno spazio misurabile(E; E) (detto spazio degli stati). Un processo stocastico X = (Xt)t2T, denito su(; F; P) a valori in (E; E) una funzione X denita su T a valori in E, tale cheper ogni t 2 T la funzione ! 7! Xt (!) sia misurabile da (; F) in (E; E). Ne segue

    1

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    2/156

    2 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

    che, dati t1 < ::: < tn 2 T, la funzione! 7! (Xt1 (!) ;:::;Xtn (!))

    misurabile da (;F

    ) in (En;n

    E). Le leggi di probabilit di questi vettori (leggi

    immagine di P rispetto a queste applicazioni) si chiamano distribuzioni di dimensionenita del processo.

    Le funzioni t 7! Xt (!) da T in E (ad ! ssato) si dicono realizzazioni o traiettoriedel processo stocastico. Il termine traiettoria va forse riservato al caso in cui sia T [0; 1).

    Due processi stocastici X = (Xt)t2T e Y = (Yt)t2T si dicono equivalenti se hannole stesse distribuzioni di dimensione nita. Si dicono modicazione (o versione) unodellaltro se per ogni t 2 T vale

    P(Xt = Yt) = 1:

    Si dicono indistinguibili seP (Xt = Yt per ogni t 2 T) = 1:

    Due processi indistinguibili sono modicazione uno dellaltro. Due processi che sonomodicazione uno dellaltro sono equivalenti. Si veda lesercizio 1. Si noti che, adierenza delle altre due, la denizione di processi equivalenti non richiede che essisiano deniti sullo stesso spazio (; F; P).

    Supponiamo che T ed E siano spazi topologici e siano T = B (T), E = B (E).Un processo si dice continuo se le sue realizzazioni sono funzioni continue; si dice q.c.continuo se ci avviene per P-quasi ogni realizzazione.

    Quando T

    [0;

    1), le denizioni di continuo a destra e/o a sinistra, costante a

    tratti ed altre della stessa natura sono simili. Un processo si dice cdlg (continue droite, limite gauche) se le sue traiettorie sono continue a destra ed hanno limitenito a sinistra.

    Se (T; T) uno spazio misurabile, possiamo dare la seguente denizione. Un proces-so si dice misurabile se lapplicazione (t; !) 7! Xt (!) misurabile da (T ; T F)in (E; E).

    Elenchiamo anche alcune nozioni che si usano soprattutto nella cosiddetta teoriadella correlazione dei processi stazionari, per noi marginale ma toccata almeno nel casodei processi gaussiani. Supponiamo che sia (E; E) = (R; B (R)). Indichiamo con E[] lasperanza matematica su (; F; P) (E[Y] =

    R Y dP, per ogni Y v.a. reale (; F; P) in-

    tegrabile), con V ar [] la varianza (V ar [Y] = E(Y E[Y])2 quando Y di quadratointegrabile), con Cov (; ) la covarianza (Cov (Y; Z) = E[(Y E[Y]) (Z E[Z])] seY e Z sono v.a. di quadrato integrabile). Sia X un processo stocastico a valori in(R; B (R)), su (; F; P). Se E[jXtj] < 1 per ogni t 2 T, chiamiamo m (t) = E[Xt],t 2 T, funzione valor medio del processo X. Se E[X2t ] < 1 per ogni t 2 T, chiamiamo2 (t) = V ar [Xt], t 2 T, funzione varianza di X e chiamiamo C(t; s) = Cov (Xt; Xs),t; s 2 T, funzione covarianza di X.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    3/156

    1.1. PRIME DEFINIZIONI 3

    Esercizio 1 Costruire due processi equivalenti che non siano modicazione uno del-laltro e due processi modicazione uno dellaltro che non siano indistinguibili.

    1.1.2 Legge di un processoSia ET lo spazio di tutte le funzioni f : T ! E. Indichiamo con S linsieme di tuttele n-ple ordinate = (t1;:::;tn) di elementi di T tali che ti 6= tj per ogni i 6= j,i; j = 1;:::;n. Indichiamo con En la -algebra prodotto di n copie di E.

    Presa = (t1;:::;tn) 2 Se preso B 2 En consideriamo linsiemeC( ; B) ET

    di tutte le funzioni f : T ! E tali che(f(t1) ;:::;f(tn)) 2 B:

    Lo chiameremo insieme cilindrico (con base B e coordinate t1;:::;tn). Sia A la famigliadi tutti gli insiemi cilindrici C( ; B), con n 2 N, = (t1;:::;tn) 2 S e B 2 En. Lafamiglia A unalgebra di parti di ET: contiene ET; il complementare di un insiemedella forma f(f(t1) ;:::;f(tn)) 2 Bg linsieme cilindrico f(f(t1) ;:::;f(tn)) 2 Bcg; chiusa per intersezione nita. Questultima propriet noiosa da scrivere in gen-erale ma ovvia se si pensa ad esempio al caso particolare dei due insiemi cilindriciff(t1) 2 B1g, ff(t2) 2 B2g, con = (t1; t2), B1; B2 2 E, la cui intersezione linsiemef(f(t1) ; f(t2)) 2 B1 B2g che appartiene ad A.

    Sia ET la pi piccola -algebra di parti di ET che contiene gli insiemi cilindrici.Dato un processo stocastico X = (Xt)t2T denito su uno spazio di probabilit

    (;F

    ; P) a valori in uno spazio misurabile (E;E

    ) consideriamo lapplicazione

    !7! X (!)

    da (; F) in ET; ET. Essa misurabile. Infatti, preso un insieme cilindrico C( ; B), = (t1;:::;tn) 2 S, B 2 En, la sua controimmagine linsieme

    f(Xt1 ;:::;Xtn ) 2 Bge questo insieme sappiamo essere misurabile, un elemento di F. Rammentiamo che pervericare la misurabilit di unapplicazione basta farlo su una famiglia generante la-algebra in arrivo (in simboli generali, se X : (; F) ! (E; E) soddisfa X1 (B) 2 Fper ogni B

    2 G, dove

    G Eed

    E= (

    G), allora X misurabile; infatti, si prenda la

    famiglia H P(E) degli insiemi B E tali che X1 (B) 2 F; si verica che H una-algebra e contiene G, quindi contiene (G)).

    Possiamo quindi considerare la legge dellapplicazione (misura immagine di Pattraverso ). Si chiamer legge del processo. E una misura di probabilit su

    ET; ET.

    Indichiamola col simbolo PX. Vale

    PX (C(; B)) = P((Xt1;:::;Xtn ) 2 B)

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    4/156

    4 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

    per ogni = (t1;:::;tn) 2 Se B 2 En.

    Proposizione 1 Due processiX edX0, deniti rispettivamente su(; F; P) e(0; F0; P0)a valori in (E;

    E), sono equivalenti se e solo se hanno la stessa legge su ET; ET.

    Proof. Se hanno la stessa legge allora, presi = (t1;:::;tn) 2 Se B 2 En, valeP ((Xt1;:::;Xtn ) 2 B) = PX (C( ; B)) = P0X0 (C( ; B))

    = P0

    X0t1;:::;X0tn

    2 Bquindi hanno le stesse distribuzioni di dimensione nita.

    Viceversa, se hanno le stesse distribuzioni di dimensione nita, vale

    PX (C( ; B)) = P((Xt1 ;:::;Xtn ) 2 B) = P0

    X0t1;:::;X

    0tn

    2 B

    = P0X0 (C( ; B))quindi le misure di probabilit PX e P

    0X0, misure su

    ET; ET, coincidono sugli insiemi

    cilindrici. La famiglia A di tali insiemi genera ET ed chiusa per intersezione nita equindi, per un noto teorema di Caratheodory, le due misure coincidono su tutta ET.La dimostrazione completa.

    1.1.3 Legge nello spazio delle funzioni continue

    Esaminiamo adesso un problema pi delicato. Supponiamo che X sia continuo. Percapire bene il problema senza complicazioni topologiche collaterali, iniziamo discutendo

    il caso in cui T = R+ := [0; 1); E = Rn (1.1)e le -algebre sono quelle dei boreliani. Indichiamo con C0 linsieme C(R+;Rn) dellefunzioni continue da R+ in Rn, munito della topologia della convergenza uniforme suicompatti.

    Linsieme () non solo un sottoinsieme di ER+ ma anche di C0. E naturale pen-sare che denisca una misura immagine su (C0; B (C0)). Purtroppo si pu dimostrareche C0 =2 B (E)R+ (omettiamo la dimostrazione) e questo non permette facilmente direstringere la legge del processo, precedentemente denita su

    ER+; B (E)R+

    , ad

    una legge su (C0; B (C0)) (in realt anche questa strada percorribile con opportuneconsiderazioni basate sulla misura esterna, applicabili dopo aver vericato che la misuraesterna dellinsieme non misurabile C0 pari ad 1).

    Per aggirare questo ostacolo basta dimostrare il risultato seguente.

    Proposizione 2 Se X = (Xt)t0 un processo continuo a valori reali, allora misurabile da (; F) in(C0; B (C0)). Possiamo quindi considerare la misura immaginediP attraverso , su(C0; B (C0)), che chiameremo legge del processo X su(C0; B (C0)).

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    5/156

    1.1. PRIME DEFINIZIONI 5

    Proof. La -algebra B (C0) generata dagli insiemi della forma

    B (f0;n ;R) = f 2 C0 : maxt2[0;n] jf(t) f0 (t)j Ral variare di f0 2 C0, n 2 N, R > 0. Sia ftjg R+ una successione che conta irazionali non negativi. Indichiamo con

    nt(n)j

    ola sotto-successione composta dai tj che

    appartengono a [0; n];n

    t(n)j

    o densa in [0; n]. Vale

    B (f0; n ; R) =n

    f 2 C0 :ft(n)j f0 t(n)j R; 8 j 2 No :

    Poniamo inoltre

    B (f0;n ;N ;R) = nf 2 C0 : ft(n)j f0 t(n)j R; 8 j No

    per ciascun N 2 N. La controimmagine di B (f0;n ;N ;R) attraverso linsiemen! 2 :

    Xt(n)j

    (!) f0

    t(n)j

    R; 8 j Noche appartiene ad F( anche la controimmagine di un insieme cilindrico). Vale inoltre

    B (f0; n ; R) =\N2N

    B (f0;n ;N ;R) :

    La controimmagine di questo insieme intersezione numerabile di elementi diF

    , quindi elemento di F. Siccome questi insiemi, come detto sopra, generano B (C0), misurabile tra le -algebre indicate. La dimostrazione completa.

    Osservazione 1 Con ragionamenti non molto diversi si dimostra che due proces-si continui con le stesse distribuzioni di dimensione nita, hanno la stessa legge su(C0; B (C0)).

    Se un processo X solamente q.c. continuo, denisce ugualmente una misura diprobabilit su (C0; B (C0)) del tutto analoga al caso precedente, che continueremo achiamare misura immagine di P attraverso su (C0; B (C0)). Infatti, esiste un insieme0 2 F di P-misura 1 tale che (0) C0. Consideriamo lo spazio probabilizzato(0; F0; P0) dove F0 = F \ 0 e P0 la restrizione di P ad F0. Ora : 0 ! C0 bendenita e induce una misura di probabilit su (C0; B (C0)). Si verica facilmente cheessa non dipende dalla scelta di 0 con le propriet precedenti.

    Le considerazioni illustrate sopra si estendono a varie situazioni pi generali. Unamolto simile quella in cui T uno spazio metrico, unione numerabile di compatti(spazio metrico -compatto) ed E uno spazio metrico separabile.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    6/156

    6 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

    1.2 Teorema di estensione di Kolmogorov

    Abbiamo visto che, dato un processo X = (Xt)t2T, questo denisce una misura diprobabilit su ET; ET. Quando vale il viceversa, cio per quali misure di probabilitsu ET; ET esiste un processo che ha come legge? Per tutte: basta prendere ilprocesso canonico, = ET, F = ET, Xt (!) = ! (t). Meno banale il problema diinversione che ora descriveremo.

    Data una misura di probabilit su

    ET; ET, deniamo le sue distribuzioni didimensione nita nel seguente modo. Presa = (t1;:::;tn) 2 S, indichiamo con :ET ! En lapplicazione (f) = (f(t1) ;:::;f(tn)). E misurabile, rispetto a ET e En(preso B 2 En la sua controimmagine linsieme cilindrico f 2 ET : (f(t1) ;:::;f(tn)) 2 B,che appartiene ad ET): La distribuzione di dimensione n di relativa a la leggeimmagine di attraverso :

    (B) = f 2 ET : (f(t1) ;:::;f(tn)) 2 B ; B 2 En:Se = PX, essa la legge del vettore aleatorio (Xt1;:::;Xtn ) e f; 2 Sg la famigliadelle distribuzione di dimensione nita del processo X.

    Il problema di inversione il seguente: data una famiglia di misure di probabilitf; 2 Sg (si sottintende che se = (t1;:::;tn) 2 S, allora una misura di proba-bilit su (En; En)), esiste una misura di probabilit su ET; ET di cui f; 2 Sg siala famiglia delle distribuzioni di dimensione nita? Siccome lesistenza di un processocon legge ovvia, il problema equivalente a: data una famiglia di misure di prob-abilit f; 2 Sg, esiste uno spazio probabilizzato (; F; P) ed un processo X su(;

    F; P) che abbia

    f;

    2 Sgcome famiglia delle distribuzioni di dimensione nita?

    Osservazione 2 Alla base dei seguenti ragionamenti c il fatto che un insieme cilin-drico non ha una sola rappresentazione. Ad esempio, dati t1;:::;tn; tn+1 2 T, B 2 En,vale

    f 2 ET : (f(t1) ;:::;f(tn)) 2 B

    =

    f 2 ET : (f(t1) ;:::;f(tn) ; f(tn+1)) 2 B E

    oppure, dati t1; t2 2 T, B1; B2 2 E, vale

    f 2 ET : (f(t1) ; f(t2)) 2 B1 B2

    =

    f 2 ET : (f(t2) ; f(t1)) 2 B2 B1

    :

    Servono due ingredienti: una propriet di compatibilit tra le ed un po diregolarit dello spazio (E; E). La propriet di compatibilit tra le si intuisce facil-mente a posteriori, quando esse sono le distribuzioni di dimensione nita di . Sitratta di due condizioni, che a parole potremmo chiamare invarianza sotto permu-tazioni degli indici e invarianza sotto contrazioni degli indici. Vediamo la prima.Se = (t1;:::;tn) 2 S e se (i1;:::;in) una permutazione di (1;:::;n), indicata con

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    7/156

    1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 7

    P(i1;:::;in) : En ! En lapplicazione che manda la generica sequenza (x1;:::;xn) nella

    (xi1 ;:::;xin ), deve valere (per le distribuzioni di dimensione nita di un processo)

    (t1;:::;tn) (B) =

    (ti1 ;:::;tin ) P(i1;:::;in) (B) : (1.2)Vediamo ora la seconda. Data = (t1;:::;tn) 2 S, indichiamo con bn la sequen-za bn = (t1;:::;tn1) (la sequenza ottenuta omettendo tn dalla ), le misure ebn sono legate dalla proiezione bn : En ! En1 che manda una generica sequenza(x1;:::;xn) 2 En nella sequenza (x1;:::;xn1) 2 En1 (la sequenza ottenuta omettendolultima componente di (x1;:::;xn)). Vale

    bn = bn () (1.3)

    nel senso che bn la legge immagine di attraverso bn, ovvero esplicitamentebn (B) = (b

    n

    2B) per ogni B

    2 En1.

    Si pu vericare facilmente che equivalente richiedere queste condizioni per insiemiB di tipo rettangolare, rispetto a cui esse si scrivono pi agevolmente. Possiamorichiedere che

    (t1;:::;tn) (B1 Bn) = (ti1 ;:::;tin ) (Bi1 Bin )

    (t1;:::;tn) (B1 E) = (t1;:::;tn1) (B1 Bn1)per ogni n 2 N, (t1;:::;tn) 2 S, B1;:::;Bn 2 E.

    Denizione 1 Sia f; 2 Sg una famiglia di misure di probabilit (sempre sottin-tendendo che se = ft1;:::;tng 2 S, sia una misura di probabilit su (E

    n

    ; En

    )).Quando valgono (1.2)-(1.3) per ogni scelta di n 2 N, = (t1;:::;tn) 2 S, i = 1;:::;n,diciamo che la famiglia f; 2 Sg consistente.

    Ricordiamo che uno spazio metrico E si dice -compatto se unione numerabiledi compatti di E. Un risultato di teoria della misura dice che su uno spazio metricoE si dice -compatto, se una misura di probabilit denita sui boreliani B (E),allora per ogni B 2 B (E) ed " > 0 esiste un compatto K B tale che (BnK) < ".Useremo questo risultato nella dimostrazione del seguente teorema.

    Teorema 1 Se f; 2 Sg una famiglia consistente, E uno spazio metrico -compatto, E= B (E), allora esiste una ed una sola misura di probabilit suET; ETdi cuif; 2 Sg sia la famiglia delle distribuzioni di dimensione nita.

    Proof. Passo 1 (preparazione). Lunicit del tutto analoga a quella della Propo-sizione 1: due misure con le stesse distribuzioni di dimensione nita coincidono su unaclasse chiusa per intersezione nita e generante la -algebra ET, quindi coincidono sututta ET.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    8/156

    8 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

    Per lesistenza, ricordiamo il seguente teorema di Charateodory: dato uno spaziomisurabile (; G) ed unalgebra A che genera G, se una misura nitamente addi-tiva su (; A), continua in ? (cio tale che, se fAng una successione di eventi diA decrescente con intersezione vuota allora limn!1 (An) = 0), allora si estendeunivocamente ad una misura numerabilmente additiva su (; G).

    Prendiamo lalgebra A di tutti gli insiemi cilindrici C(; B), con n 2 N, =ft1;:::;tng 2 S e B 2 En. Lalgebra A genera ET. Basta denire una misura suA con le propriet del teorema di Charateodory ed avente f; 2 Sg come famigliadelle distribuzioni di dimensione nita, ed il teorema dimostrato.

    Preso un insieme cilindrico C 2 A, esistono innite sue rappresentazioni nella formaC = C( ; B) con = (t1;:::;tn) e B 2 En. Presa una di tali rappresentazioni, possiamocalcolare (B) e porre

    (C) = (B) :

    Ma la denizione ben data solo se non dipende dalla rappresentazione di C. Quiinterviene lipotesi di consistenza della famiglia. Se C(0; B0) e C(00; B00) sono duerappresentazioni dello stesso insieme cilindrico C, abbiamo 0 (B

    0) = 00 (B00). La

    dimostrazione elementare ma un po laboriosa da scrivere, per cui la isoliamo nelLemma 1.

    La verica che , cos denita, nitamente additiva su A, si esegue nel seguentemodo: presi degli insiemi disgiunti C1;:::;Ck 2 A, c una sequenza = (t1;:::;tn)tale che tutti gli insiemi Ci possono essere rappresentati tramite , cio esistonoB1;:::;Bk 2 En, oltretutto disgiunti, tali che Cj = C( ; Bj), j = 1;:::;k. Valek

    [j=1 Cj = C ;k

    [j=1 Bj! per cui

    k[

    j=1

    Cj

    !=

    k[

    j=1

    Bj

    !=

    kXj=1

    (Bj) =

    kXj=1

    (Cj)

    dove il passaggio intermedio si basa sulladditivit di su En. Ladditivit su A siriconduce cio a quella di unopportuna distribuzione di dimensione nita.

    Passo 2 (continuit della misura). Dobbiamo inne dimostrare la continuit in ?.Sia fCng una successione di eventi di A decrescente con intersezione vuota. Dobbiamodimostrare che limn!1 (Cn) = 0.

    Facciamo una piccola digressione che pu aiutare a capire la dimostrazione. Ci sonoalcune famiglie di successioni fCng per cui la dimostrazione facile. Gli esercizi 2 e3 illustrano esempi in cui ci si pu ricondurre ad usare una singola distribuzione didimensione nita, un po come nella verica fatta sopra delladditivit. In questi casi,la dimostrazione che limn!1 (Cn) = 0 facile. Se ci si potesse restringere ad insiemicilindrici come quelli descritti agli esercizi 2 e 3, non ci sarebbe bisogno dellipotesi diregolarit dello spazio E.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    9/156

    1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 9

    Ma le famiglie di insiemi cilindrici descritte da tali esercizi non sono algebre. Trale successioni di insiemi cilindrici esistono esempi, come quello dellesercizio 4, in cuinon si vede come ricondursi ad usare una singola distribuzione di dimensione nita.

    Facendo per riferimento a concetti topologici, precisamente alla compattezza, cunaltra classe in cui la dimostrazione che limn!1 (Cn) = 0 si riesce a completarefacilmente. Supponiamo che la successione fCng di eventi di A decrescente con inter-sezione vuota abbia la forma Cn = C(n; Kn) con Kn insieme compatto (per inciso, seE non compatto, questa rappresentazione unica, quando esiste). Allora gli insiemiKn non possono essere tutti diversi dal vuoto. Rimandiamo la verica al Lemma 2.Ma allora, se per un certo n0 linsieme Kn0 vuoto, vale (Cn0) = 0, da cui discende(per monotonia) (Cn) = 0 per ogni n n0 e quindi anche limn!1 (Cn) = 0.

    Lidea della dimostrazione allora la seguente: data una rappresentazione Cn =C(n; Bn) degli insiemi cilindrici della successione, ssato " > 0, usando la proprietdi regolarit dello spazio E si pu trovare una successione di compatti

    fKn

    g, Kn

    Bn

    tali che, detto Dn linsieme cilindrico di base Kn (invece che Bn) e coordinate n,insieme che verica Dn Cn, vale

    (Cn) (Dn) = (CnnDn) ":Se riusciamo a trovare fKng in modo che fDng sia anche decrescente, allora per ilLemma 2, limn!1 (Dn) = 0. Questo implica che esiste n0 0 tale che per ognin n0, (Cn) ". Per larbitrariet di " si ottiene limn!1 (Cn) = 0.

    Lunico punto che richiede un attimo di lavoro fare in modo che fDng sia decres-cente. Sia quindi, ssato " > 0, fK01g una successione di compatti, K0n Bn, tali chen (BnnK0n) < "2n (essi esistono per la regolarit di E). Indichiamo con fD0ng la succes-sione degli insiemi cilindrici di base K0n e coordinate n; D

    0n

    Cn in quanto K

    0n

    Bn,

    ma non sappiamo se fD0ng decrescente. Poniamo Dn = D01 \ ::: \ D0n. SicuramentefDng una successione di insiemi cilindrici decrescente. Mostriamo che esistono deicompatti Kn Bn, tali che Dn ha base Kn e coordinate n; e (CnnDn) ".

    Gli insiemi Dn hanno la forma

    Dn =

    fj1 2 K01 ;:::;fjn 2 K0n

    :

    Si immagini lesempio D2 =

    fj(t1;t2) 2 K01 ; fj(t2;t3) 2 K02

    . Si pu descrivere nellaforma

    D2 =

    fj(t1;t2;t3) 2 K01 E; fj(t1;t2;t3) 2 E K02

    = fj(t1;t2;t3) 2 K01 E \ E K02e linsieme (K01 E) \ (E K02 ) compatto. Il caso generale si scrive con fatica ma identico. Quindi esiste Kn Bn, tali che Dn ha base Kn e coordinate n.

    Vale poi (si osservi che D0k Ck Cn; si scriva inoltre CnnDn = Cn\(D01 \ ::: \ D0n)c)CnnDn =

    CnnD01

    [ CnnD02 [ ::: [ CnnD0n C1nD01 [ C2nD02 [ ::: [ CnnD0n

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    10/156

    10 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

    da cui

    (CnnDn) nXk=1

    CknD0k

    nXk=1

    "

    2k ":

    La dimostrazione completa.Nella dimostrazione del seguente lemma usiamo la notazione jj per la cardinalit

    di 2 S. Se = (t1;:::;tn), vale jj = n.Lemma 1 Se C(0; B0) e C(00; B00) sono due rappresentazioni dello stesso insiemecilindrico C, abbiamo 0 (B

    0) = 00 (B00).

    Proof. Se vale 0 = 00, si pu riconoscere che vale anche B0 = B00. In questo caso latesi ovvia. Se 00 ottenuta da 0 tramite una permutazione degli indici (i1;:::;in),allora B00 = P(i1;:::;in) (B

    0) e linvarianza della denizione di garantita dalla propriet(1.2).

    Se, cosiderando 0 e 00 come insiemi non oridinati, vale 0

    00, a meno di permu-

    tazione delle coordinate risulta B00 della forma B0 Ej00jj0j. Quando j00j j0j = 1basta applicare la propriet (1.3); quando j00j j0j > 1 si agisce in j00j j0j passisempre con la propriet (1.3).

    Se 0 e 00, cosiderate come insiemi non oridinati, non sono contenute una nellaltra,si consideri = 0 \ 00. Esiste B tale che C( ; B) una terza rappresentazione; B la proiezione lungo le coordinate di B0 o di B00. Per capire che cos, si pensi al caso0 = (t1; t2), 00 = (t2; t3) (il caso generale solo notazionalmente pi faticoso): vale

    f 2 ET : (f(t1) ; f(t2)) 2 B0

    =

    f 2 ET : (f(t2) ; f(t3)) 2 B00

    ovvero

    f(f(t1) ; f(t2) ; f(t3)) 2 B0 Eg = f(f(t1) ; f(t2) ; f(t3)) 2 E B00g :Questo implica che gli insiemi di E3 dati da B0 E e E B00 coincidono. Questo compatibile solo con la struttura E B E.

    Vale allora C(0; B0) = C( ; B) ma 0, quindi 0 (B0) = (B). Lo stesso sipu dire per C(00; B00) e quindi 0 (B

    0) = 00 (B00). La dimostrazione completa.

    Lemma 2 SiafCng A decrescente con intersezione vuota, della formaCn = C(n; Kn)con Kn insieme compatto. Allora gli insiemi Kn non possono essere tutti diversi dalvuoto.

    Esercizio 2 Siaftng T una successione data e sia fCng A della formaCn = ff(t1) 2 B1;n;:::;f(tn) 2 Bn;ng

    dove la famiglia a due indici interi positivi fBk;ng EsoddisfaBk;n+1 Bk;n

    per ogni k; n 2 N. Quindi fCng decrescente. Mostrare in questo caso che, sefCng ha intersezione vuota, allora limn!1 (Cn) = 0.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    11/156

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    12/156

    12 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

    b 2 Rm. Tra le equivalenze con coi si pu riscrivere questa denizione, ricordiamola seguente: un vettore Y = (Y1;:::;Ym) gaussiano se e solo se la v.a.

    Pmi=1 iYi

    gaussiana per ogni scelta di (1;:::;m) 2 Rm. Segue subito da queste denizioni chese Y = (Y1;:::;Ym) un vettore gaussiano, B una matrice m k e c 2 R

    k

    , allora ilvettore aleatorio BY + c un vettore gaussiano (in Rk).Ricordiamo inoltre che per matrice di covarianza di un vettore Y = (Y1;:::;Ym) si

    intende la matrice Q 2 Rmm denita daQij = Cov (Yi; Yj) ; i; j = 1;:::;m:

    E simmetrica e semi-denita positiva. La media (o vettore dei valori medi) il vettoredi coordinate E[Yi], i = 1;:::;m. Un vettore gaussiano standard Z = (Z1;:::;Zn)ha media nulla e covarianza pari allidentit di Rn. Un vettore gaussiano della formaY = AZ+ b come sopra, ha media b e matrice di covarianza Q = AAT. Pi in generale,ricordiamo la seguente proposizione:

    Proposizione 3 Se Y = (Y1;:::;Ym) un vettore gaussiano di media Y e covarianzaQY, B una matrice m k e c 2 Rk, allora il vettore aleatorio BY + c un vettoregaussiano di media BY + c e covarianza

    Q = AQYAT:

    Sia Y = (Y1;:::;Ym) un vettore gaussiano di media e covarianza Q. Quandodet Q 6= 0, Y ha densit di probabilit congiunta (la sua legge assolutamente continuarispetto alla misura di Lebesgue di Rm), data da

    f(x) = 1p(2)n det Q

    exphQ1 (x ) ; (x )i2

    dove x = (x1;:::;xn). Altrimenti, se det Q = 0, la legge di Y singolare rispetto allamisura di Lebesgue di Rm ed concentrata su un sottospazio proprio (precisamenteuna variet ane, di codimensione maggiore di zero).

    Chiameremo gaussiana ogni misura di probabilit su (Rn; B (Rn)) che sia legge diuna v.a. gaussiana. Equivalentemente, una misura di probabilit su (Rn; B (Rn)) gaussiana se la sua legge immagine su (R; B (R)) attraverso qualsiasi proiezione uni-dimensionale una misura con densit gaussiana o una delta di Dirac. Ricordiamo chevale il seguente risultato:

    Proposizione 4 Dati un vettore b 2 Rn ed una matrice Q 2 Rnn simmetrica e semi-denita positiva, esiste una ed una sola misura gaussiana su (Rn; B (R)n) che hab comevettore delle medie e Q come matrice di covarianza.

    Fatte queste premesse sui vettori gaussiani, possiamo denire ed analizzare i processigaussiani. Osserviamo che anche in questo paragrafo linsieme T qualsiasi.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    13/156

    1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 13

    Denizione 2 Un processo a valori reali X = (Xt)t2T si dice gaussiano se tutte lesue marginali di dimensione nita (Xt1;:::;Xtn ) sono vettori gaussiani. Analogamente,

    una misura di probabilit suRT; B (R)T si dice gaussiana se tutte le sue distribuzionidi dimensione nita sono gaussiane.

    Un processo reale quindi gaussiano se e solo se la sua legge suRT; B (R)T

    gaussiana.Se T un sottoinsieme di uno spazio euclideo, unione numerabile di compatti, dici-

    amo che una misura su (C(T; E) ; B (C(T; E))) gaussiana se tutte le sue distribuzionidi dimensione nita sono gaussiane.

    Un processo gaussiano ha la legge caratterizzata da poche funzioni: la funzionevalor medio m (t) = E[Xt], t 2 T e la funzione di covarianza C(t; s) = Cov (Xt; Xs),t; s 2 T.

    Proposizione 5 Se due processi gaussiani hanno le stesse funzioni m (t) e C(t; s),allora hanno la stessa legge.

    Proof. La legge identicata dalle distribuzioni di dimensione nita. Le leggi dei dueprocessi sono misure gaussiane, con distribuzioni di dimensione nita gaussiane. Taligaussiane, diciamo in Rn, sono univocamente determinate dai loro vettori medi e dallematrici di covarianza, che per a loro volta hanno come componenti le valutazioni dellefunzioni m (t) e C(t; s) in opportuni punti, quindi coincidono.

    Ancor pi economica la descrizione nel caso di processi stazionari. Supponiamoche sullinsieme T sia denita unoperazione di somma +, cio t + s

    2T se t; s

    2T.

    Ad esempio si possono considerare T = Rn o T = [0; 1) con lusuale somma euclidea.

    Denizione 3 Un processo stocastico X = (Xt)t2T a valori in(E; E) si dice stazionarioin senso stretto se, per ogni = (t1;:::;tn) 2 Sle leggi di(Xt1 ;:::;Xtn ) e(Xt1+h;:::;Xtn+h)coincidono per ogni h 2 T.

    Denizione 4 Un processo reale X = (Xt)t2T, con E[X2t ] < 1 per ogni t 2 T, si

    dice stazionario in senso lato o debole se

    m (t + h) = m (t)

    C(t + h; s + h) = C(t; s)

    per ogni h;s;t 2 T.

    Nel caso di un processo reale, la stazionariet in senso stretto implica quella insenso lato, ma non viceversa (non possiamo risalire alle leggi dai momenti di ordineuno e due).

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    14/156

    14 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

    Proposizione 6 Se un processo gaussiano stazionario in senso lato allora anchestazionario in senso stretto.

    Proof. Dati = (t1;:::;tn) 2 Se h 2 T, le leggi di (Xt1;:::;Xtn ) e (Xt1+h;:::;Xtn+h),essendo gaussiane, sono identicate dai vettori medi di componenti E[Xtk ] e E[Xtk+h],che coincidono essendo m (tk + h) = m (tk), k = 1;:::;n, e dalle matrici di covarianza dicomponenti Cov

    Xti ; Xtj

    e Cov

    Xti+h; Xtj+h

    , che coincidono essendo C(ti + h; tj + h) =

    C(ti; tj). Quindi le leggi di (Xt1;:::;Xtn ) e (Xt1+h;:::;Xtn+h) coincidono ed abbiamo lastazionariet in senso stretto.

    Supponiamo che T sia un gruppo rispetto alla somma + e sia 0 lelemento neutro.In questo caso la stazionariet in senso lato permette di descrivere la legge del processogaussiano in modo estremamente economico.

    Proposizione 7 Se un processo gaussiano stazionario in senso lato allora la sua

    legge identicata dal numero m := E[Xt] e dalla funzione di una variabile

    C(t) := Cov (Xt; X0) ; t 2 T:

    Proof. Le distribuzioni di dimensione nita sono identicate dalle funzioni m (t) eC(t; s) ma queste, a loro volta, per la stazionariet in senso lato sono luna costante,m (t) = m, laltra identicata dai suoi valori nei punti (t; s) della forma (r; 0), in quanto

    C(t s; 0) = C(t; s)

    (h = s nella denizione di stazionariet).

    Concludiamo con un risultato di esistenza.

    Proposizione 8 Date due funzioni m (t) e C(t; s), t; s 2 T, se C(t; s) = C(s; t) evale

    nXi;j=1

    C(ti; tj) ij 0

    per ogni n 2 N, (t1;:::;tn) 2 Tn, (1;:::;n) 2 Rn, allora esiste un processo gaussianoche ha queste funzioni come media e covarianza.

    Proof. Basta costruire una misura gaussiana su RT; B (R)T e prendere il processocanonico. Per il teorema di costruzione di Kolmogorov ((E; E) = (R; B (R)) soddis-fa lipotesi del teorema), basta costruire una famiglia consistente f; 2 Sg di dis-tribuzioni di dimensione nita, che siano gaussiane (quindi la misura ed il processosaranno gaussiani) e tali che valga la seguente propriet: presa = (t1;:::;tn) 2 S, se(Xt1 ;:::;Xtn ) un vettore aleatorio di legge , quindi gaussiano, valga E[Xtk ] = m (tk)e Cov

    Xti ; Xtj

    = C(ti; tj) per ogni k;i;j = 1;:::;n.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    15/156

    1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 15

    Dato = (t1;:::;tn) 2 S, sia la misura gaussiana su Rn avente vettore medio dicomponenti m (tk) e matrice di covarianza di componenti C(ti; tj), per ogni k;i;j =1;:::;n. Un tale misura esiste ed unica. Infatti la matrice di componenti C(ti; tj)

    semidenita positiva, per ipotesi, ed abbiamo ricordato sopra che un vettore ed unamatrice semidenita positiva deniscono univocamente una misura gaussiana. La va-lidit della propriet detta poco sopra (E[Xtk ] = m (tk) e Cov

    Xti ; Xtj

    = C(ti; tj),

    se (Xt1;:::;Xtn ) ha legge ) assicurata per denizione. Resta da vericare la consis-tenza. Omettiamo, per non appesantire la trattazione, la verica della propriet (1.2)e limitiamoci alla (1.3).

    Con le notazioni usate in precedenza, = (t1;:::;tn) 2 S, bn = (t1;:::;tn1),bn : En ! En1 che manda la generica sequenza (x1;:::;xn) 2 En nella sequenza(x1;:::;xn1) 2 En1, dobbiamo dimostrare che

    bn = bn () :

    La trasformazione bn lineare e quindi i vettori delle medie mbn e m di bn e rispettivamente sono legati dalla relazione mbn = bnm, le matrici di covarianza Qbne Q di bn e rispettivamente sono legate dalla relazione Qbn = bnQTbn (us-ando la notazione bn anche per la matrice associata alla trasformazione nella basecanonica). Il vettore m ha componenti m (tk), k = 1;:::;n, quindi bnm il vettore(m (t1) ;:::;m (tn1)) 2 En1, che proprio il vettore delle medie di bn .

    La verica della propriet Qbn = bnQTbn elementare ma noiosa da scrivere. Percompletezza la riportiamo. La matrice bn ha componenti (bn)j; = j;, per j =0;:::;n

    1, = 1;:::;n. Quindi la matrice Tn;i ha componenti

    T

    bn;k = (bn)k; = k; ,per k = 0;:::;n 1, = 1;:::;n. Quindi, dallidentit

    bnQTbn

    jk

    =nX

    ;=1

    (bn)j; (Q);

    Tbn;k

    si deduce, per j; k = 0;:::;n 1,

    =nX

    ;=1

    j;C(t; t) k; = C(tj; tk) :

    Questa la matrice Qbn . La dimostrazione completa.

    Esercizio 6 Costruire un processo X con T = [0; 1] che si annulli in t = 0 e t = 1q.c., ed invece Xt abbia densit di probabilit strettamente positiva per ogni t 2 (0; 1)(un ponte stocastico).

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    16/156

    16 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

    1.2.2 Filtrazioni

    A partire da questo paragrafo supponiamo che T sia un intervallo di R, o pi precisa-mente per ssare le idee

    T = [0; 1):Si intuisce che si possa svolgere una teoria pi generale ma gli esempi che tratteremonel corso non la motivano.

    Chiamiamo ltrazione su (; F; P) una famiglia (Ft)t2T di -algebre di insiemi di, Ft Fper ogni t 2 T, che sia crescente: Fs Ft se s < t 2 T.

    Un processo X = (Xt)t2T denito su (; F; P) a valori in (E; E) si dice adattato allaltrazione (Ft)t2T se per ogni t 2 T la funzione Xt misurabile da (; Ft) in (E; E).

    Supponiamo T = [0; 1); se T un intervallo che contiene 0 la denizione analoga.Il processo X si dice progressivamente misurabile se per ogni t 0 lapplicazione(s; !) 7! Xs (!) da ([0; t] ; B ([0; t]) Ft) in (E; E) misurabile.

    Se X progressivamente misurabile, allora misurabile ed adattato. Viceversa,vale ad esempio il seguente risultato.

    Proposizione 9 Sia E uno spazio topologico, E= B (E). Se X adattato e q.c.continuo a destra (oppure q.c. continuo a sinistra) allora progressivamente misurabile.

    Proof. Sia G una -algebra su . Il seguente criterio di misurabilit noto: seuna funzione f : [a; b] ! E continua a destra ed ! 7! f(t; !) misura-bile da (; G) in (E; E) per ogni t 2 [a; b], allora (t; !) 7! f(t; !) misurabile da([a; b] ; B ([a; b]) G) in (E; E). La dimostrazione si fa ad esempio approssimandof con funzioni continue a destra e costanti a tratti in t.

    Basta allora applicare questo criterio ad ogni restrizione di X ad insiemi della forma[0; t] . La dimostrazione completa.Un insieme N trascurabile rispetto a (; F; P) se P (N) = 0 dove P (A) =

    inffP(B) ; B 2 F; A Bg. Quindi N trascurabile se inffP(B) ; B 2 F; N Bg =0. Indichiamo con N linsieme degli insiemi trascurabili rispetto a (; F; P). Una l-trazione (Ft)t2T completa se ogni Ft contiene N. E equivalente che F0 contenga N.[Una -algebra G si dice completa quando contiene gli insiemi trascurabili rispetto a(; G; P). Quindi il chiedere che F0 contenga N - famiglia degli insiemi trascurabilirispetto a (; F; P) - o che sia completa sono aermazioni dierenti.]

    E comodo che tutte le -algebre di una ltrazione contengano N. Altrimenti sicreano tante piccole complicazioni un po innaturali; ad esempio se Y modicazione

    di un processo adattato X e la ltrazione non completa, non si pu concludere cheanche Y sia adattato. Infatti, preso B 2 Ee t 2 T, levento fYt 2 Bg pu dierire dafXt 2 Bg per un insieme di N, ma tale insieme potrebbe non appartenere a Ft, quindila propriet fXt 2 Bg 2 Ft pu non implicare fYt 2 Bg 2 Ft. Invece, vale:Osservazione 4 Se(Ft)t2T completa, X adattato ed Y una modicazione di X,allora Y adattato.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    17/156

    1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 17

    Una ltrazione (Ft)t2T si dice continua a destra se per ogni t 2 T

    Ft = \">0Ft+":

    Questa condizione interviene ogni tanto nei teoremi successivi, e la completezza ancoradi pi, per cui spesso per unicare gli enunciati di una teoria si assume sin dallinizioche la ltrazione di riferimento della teoria sia completa a continua a destra. Diremoche una ltrazione soddisfa le condizioni abituali se completa e continua a destra.

    Si ricordi che lintersezione (arbitraria) di -algebre una -algebra, quindi\">0

    Ft+" sempre una -algebra. Invece lunione no; indicheremo col simbolo F_G la pi piccola-algebra che contiene F [ G; per cui scriveremo ad esempio

    _t0

    Ft per la pi piccola

    -algebra che contiene ogni Ft, denotata con F1.Dato un processo stocastico X, ad esso associata la ltrazione generata da Xdenita da

    F00t = fXs; s 2 T; s tgA livello interpretativo, gli eventi di F00t sono gli eventi conoscibili al tempo t se os-serviamo il processo X. La notazione F00t non universale ed usata qui solo perdistinguere questa ltrazione dalle seguenti.

    Essendo comodo che la ltrazione di riferimento sia completa, si introduce la l-trazione (F0t )t2T denita da F0t = fF00t [ Ng. La ltrazione (F0t )t2T il completa-mento della ltrazione (F00t )t2T (naturalmente questo procedimento si pu applicare aqualsiasi ltrazione).

    Volendo richiedere che la ltrazione sia anche continua a destra, poniamo

    Ft =\">0

    F0t+":

    Osservazione 5 Questa ltrazione continua a destra: Ft =\">0

    Ft+". Infatti, F0t

    Ft (per ogni t 2 T) per monotonia di (F0t )t2T e denizione di Ft, quindi\">0

    F0t+"

    \">0Ft+", per cui Ft \">0Ft+" per denizione di Ft. Viceversa, Ft+" F0t+2" per ognit 2 T ed " > 0, per denizione di Ft, quindi

    \">0

    Ft+" \">0

    F0t+2" = Ft.

    La ltrazione cos costruita la pi piccola che soddis le condizioni abituali erispetto a cui il processo sia adattato.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    18/156

    18 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

    1.3 Speranza condizionale e probabilit condizionale

    1.3.1 Speranza condizionale

    Teorema 2 Data una v.a. X a valori reali, integrabile su (; F; P) ed una -algebraG F, esiste una v.a. G-misurabile X0 tale cheZ

    B

    XdP =

    ZB

    X0dP

    per ogni B 2 G. Inoltre unica a meno di P-equivalenze.

    La dimostrazione dellesistenza si basa sul teorema di Radon-Nikodym, lunicit suun semplice argomento prendendo levento B = fX0 > X00g, se X0; X00 soddisfano lestesse condizioni.

    Denizione 5 Sia X una v.a. integrabile su (; F; P) e sia G una -algebra, G F. Chiamiamo speranza condizionale di X rispetto a G ogni variabile aleatoria G-misurabile X0 tale che Z

    B

    XdP =

    ZB

    X0dP

    per ogni B 2 G. Chiameremo con lo stesso nome anche la classe di P-equivalenza ditali variabili. La speranza condizionale di X rispetto a G viene indicata con E[XjG].

    Quando scriveremo uguaglianze tra diverse speranze condizonali o tra una speranzacondizionale ed una v.a., si intender sempre luguaglianza come classi di equivalenza,o P-q.c.

    Lintuizione che, avendo a disposizione il grado di informazione fornito da G, lanostra attesa circa il valore di X pi precisa della semplice E[X] (attesa incon-dizionata), dipende da ci che si avvera nei limiti della nezza di G, quindi una v.a.G-misurabile. Inoltre, se B un atomo di G con P(B) > 0, per cui X0 deve esserecostante su B, lidentit della denizione dice che

    X0jB = 1P(B)

    ZB

    XdP

    cio X0 una sorta di media locale di X; per un B generale lidentit stabilisce una gen-eralizzazione di tale propriet. Si risolva il seguente esercizio, per aiutare ulteriormentelintuizione.

    Esercizio 7 SiaG generata da una partizione misurabilefB1;:::;Bng. AlloraE[XjG] =Pni=1

    1

    P(Bi)

    RBi

    XdP

    1Bi . In altre parole, E[XjG] costante su ciascun Bi e l valela media di X su Bi,

    1P(Bi)

    RBi

    XdP.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    19/156

    1.3. SPERANZA CONDIZIONALE E PROBABILIT CONDIZIONALE 19

    Proof. La v.a. X0 =Pni=1

    1

    P(Bi)

    RBi

    XdP

    1Bi G-misurabile. Prendiamo Y = 1B1.Vale

    E[XY] = ZB1 XdPE[X0Y] =

    nXi=1

    1

    P(Bi)

    ZBi

    XdP

    E[1Bi 1B1 ]

    =

    nXi=1

    1

    P(Bi)

    ZBi

    XdP

    i1P(B1) =

    ZB1

    XdP

    e quindi sono uguali.

    Osservazione 6 La denizione data sopra equivale a chiedere che X0 siaG-misurabilee valga

    E[XY] = E[X0Y]per ogni v.a. Y limitata G-misurabile. Unimplicazione ovvia (prendendo Y della

    forma1B conB 2 G). Per laltra, dalla denizione, che si riscriveE[X1B] = E[X01B],discende che E[XY] = E[X0Y] per Y della forma Y =

    Pyi1Bi , yi 2 R, Bi 2 G. Con

    variabili di quel tipo possiamo approssimare dal basso puntualmente ogni Y limitataG-misurabile e passare al limite per convergenza monotona.Proposizione 10 Siano X, Y, fXng integrabili, G una sotto -algebra diF. Valgonole seguenti aermazioni:

    i) Se G 0 G F allora E[E[XjG] jG 0] = E[XjG 0]; in particolare (G 0 = f?; g),E[E[X

    jG]] = E[X]

    ii) Se X G-misurabile ed XY integrabile, allora E[XYjG] = XE[YjG]iii) Se X indipendente da G allora E[XjG] = E[X]iv) E[aX+ bY + cjG] = aE[XjG] + bE[YjG] + cv) SefXng una successione di v.a. monotona non decrescente, con X = limn!1

    Xn integrabile, allora E[XnjG] ! E[XjG] q.c.La verica di queste propriet un utile esercizio; rimandiamo comunque ai corsi di

    base di Probabilit. Utile tecnicamente la seguente generalizzazione delle propriet(ii)-(iii). Si noti che ' G 0-misurabile nel suo secondo argomento, X G-misurabile, eG, G 0 sono -algebre indipendenti.Proposizione 11 Dato uno spazio probabilizzato (;

    F; P) ed uno spazio misurabile

    (E; E), siano G F e G 0 F due -algebre indipendenti. Sia ' : (E ; E G0) !(R; B (R)) misurabile limitata e sia X : (; G) ! (E; E) misurabile. Allora

    E[' (X; ) jG] = (X)dove denita da

    (x) := E[' (x; )] ; x 2 E:

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    20/156

    20 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

    Proof. Supponiamo ' a variabili separate, ' (x; !) = '1 (x) '2 (!), con '1 : (E; E) !(R; B (R)), '2 : (; G 0) ! (R; B (R)) misurabili limitate. Allora

    E[' (X;)jG

    ] = E['1

    (X) '2

    ()jG

    ] = '1

    (X) E['2

    ()]

    (X) = E[' (x; )]x=X = E['1 (x) '2 ()]x=X = '1 (X) E['2 ()]

    quindi la formula vericata. Per linearit, vale per combinazioni lineari di funzioni' della forma ' (x; !) = '1 (x) '2 (!). Si passa al caso generale per convergenzamonotona, usando la stabilit della speranza condizionale rispetto a tale convergenza.

    Apparentemente potrebbe sembrare che, rimuovendo lipotesi che G 0 sia indipen-dente da G, ovvero prendendo una qualsiasi funzione ' : (E ; E F) ! (R; B (R))misurabile limitata, valga lidentit

    E[' (X; ) jG] = E[' (x; ) jG] jx=Xdi cui quella della proposizione un caso particolare. Qui per si pone un problema diversioni: per ogni x la speranza condizionale E[' (x; ) jG] denita a meno di insiemidi misura nulla e quindi la sostituzione E[' (x; ) jG] jx=X non ha un senso ovvio.

    Tra i risultati rilevanti citiamo anche il seguente. Se X di quadrato integra-bile, E[XjG] la proiezione ortogonale di X sul sottospazio chiuso L2 (; G; P) diL2 (; F; P) (funzioni di quadrato integrabile misurabili rispetto a G e F rispettiva-mente).

    1.3.2 Probabilit condizionale

    Sia (; F; P) uno spazio probabilizzato. Dati due eventi A; B 2 F con P(B) > 0,chiamiamo probabilit condizionale di A sapendo B il numero

    P(AjB) := P(A \ B)P(B)

    :

    Data una partizione misurabile fB1;:::;Bng di , possiamo denire in numeriP(AjBi) per tutti gli i = 1;:::;n tali che P(Bi) > 0. Potremmo dire che la famiglia dinumeri fP(AjBi)g la probabilit di A condizionata alla partizione fB1;:::;Bng. Inanalogia col caso della speranza condizionale, potremmo codicare questa informazione

    nella funzione nXi=1

    P(AjBi) 1Bi

    (se per un certo i vale P (Bi) = 0, la funzione 1Bi equivalente a quella nulla e quindipossiamo denire P(AjBi) arbitrariamente). C quindi una funzione G-misurabile,P(AjG) := Pni=1 P(AjBi) 1Bi, che racchiude le informazioni utili circa la probabilit

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    21/156

    1.3. SPERANZA CONDIZIONALE E PROBABILIT CONDIZIONALE 21

    condizionale di A rispetto ai vari elementi della partizione fB1;:::;Bng e quindi delleinformazioni contenute nella -algebra G.

    Tra laltro, si noti che, sempre nel caso particolare di G generata da fB1;:::;Bng,vale E[1AjG] = P(AjG)in quanto

    RBi

    1AdP = P(A \ Bi). Inoltre,

    P(A) = E[P (AjG)]

    o pi in generale

    P (A \ B) =ZB

    P (AjG) dP

    per ogni B 2 G (si verichino queste due identit). Queste ultime formule sono una

    riscrittura compatta dellutilissima formula di fattorizzazione (o delle probabilit totali)

    P(A) =nXi=1

    P(AjBi) P (Bi)

    e sua generalizazione a P (A \ B).Possiamo estendere queste denizioni e propriet al caso di una -algebra G F

    pi generale, raggiungendo due livelli di generalizzazione.Innanzi tutto, data G Fqualsiasi, poniamo

    P(AjG) := E[1AjG]

    detta probabilit condizionale di A rispetto alla -algebra G. Quindi P (AjG), denitaa meno di P-equivalenza (o come classe di equivalenza), una v.a. G-misurabile taleche Z

    B

    P(AjG) dP =ZB

    1AdP = P (A \ B)

    per ogni B 2 G. Questa identit, data ora per denizione, una versione generalizzatadella formula di fattorizzazione. La probabilit condizionale di A rispetto ad una -algebra G denita tramite la formula di fattorizzazione; o in altre parole, quellav.a. che fa funzionare la formula di fattorizzazione anche nel caso non nito (cio diuna -algebra generale invece che generata da una partizione nita). Questo il primo

    livello.C poi un secondo livello, pi complesso. Nasce dalla seguente domanda natu-

    rale. Per ogni A 2 F, P(AjG) una classe di equivalenza, o comunque denita ameno di insiemi trascurabili. Non ha senso ssare ! 2 e considerare la funzioneA 7! P(AjG) (!). Possiamo scegliere un rappresentante P (AjG) da ciascuna classedi equivalenza in modo che la funzione dinsieme A 7! P (AjG) (!) sia una misura di

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    22/156

    22 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

    probabilit? Se prendiamo degli insiemi disgiunti A1; A2;::: 2 F, nel senso delle classidi equivalenza (oppure quasi certamente per ogni scelta di rappresentanti) vale

    P[i

    AijG! = Xi

    P(AijG) :

    Ma non possiamo sperare che valga per P (jG) (!), con ! ssato, senza operare unascelta molto oculata e non banale dei rappresentanti.

    Denizione 6 Dati (; F; P) eG F, chiamiamo versione regolare della probabilitcondizionale rispetto a G una funzione (A; !) 7! PG (A; !), denita suF , con leseguenti propriet:

    i) per P-q.o. !, la funzione dinsieme A 7! PG (A; !) una misura di probabilitsu (;

    F)

    ii) per ogni A 2 F, la funzione ! 7! PG (A; !) misurabile ed appartiene allaclasse di equivalenza P(AjG).

    Vale il seguente teorema non banale:

    Teorema 3 Se (; d) uno spazio metrico completo e separabile (spazio polacco) edF= B (), esiste sempre versione regolare della probabilit condizionale rispetto adogni G B ().

    Per la versione regolare valgono, come sopra,

    PG (A; ) = E[1AjG]ZB

    PG (A; ) dP = P (A \ B)

    per ogni A 2 F, B 2 G. In pi per, possiamo denire integrali del tipoZ

    X(!0) PG (d!0; !)

    con ! ssato ed X ad esempio limitata misurabile. Si pu allora dimostrare che vale

    Z

    X(!0) PG (d!0; ) = E[XjG]

    (nel senso che lintegrale a sinistra un elemento della classe di equivalenza a destra).Questo inverte il procedimento visto sopra: a livello uno si pu denire la probabil-it condizionale a partire dalla speranza condizionale; a livello due si pu denire lasperanza condizionale a partire da una versione regolare della probabilit condizionale.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    23/156

    1.4. PROPRIET DI MARKOV 23

    Concludiamo con alcune varianti dei concetti precedenti. Data una v.a. X su(; F; P) ed un evento A 2 Findichiamo con (X) la pi piccola -algebra rispetto acui X misurabile e con P (AjX) la v.a. P(Aj (X)). Per un teorema di Doob, esisteuna funzione misurabile gA : R ! R tale che P(AjX) = gA (X). A causa di questo,viene anche usata la notazione P(AjX = x) per intendere gA (x):

    P(AjX = x) = gA (x) :Ovviamente in generale P(X = x) non positivo, per cui non sarebbe lecito denireP(AjX = x) come P(A \ fX = xg) =P(X = x).

    1.4 Propriet di Markov

    La propriet di Markov si pu esprimere a vari livelli, sia per un singolo processo

    stocastico, sia per una famiglia di processi, sia per una famiglia di misure di proba-bilit relativamente ad uno stesso processo. Inoltre si pu riscrivere in innumerevolimodi. Inne, esiste la propriet di Markov e quella di Markov forte. Illustriamo quiuna possibilit tra le tante, riservandoci in seguito di descrivere altri casi ed altreformulazioni.

    Sia X = (Xt)t0 un processo stocastico su (; F; P) a valori nello spazio misurabile(E; E). Sia (Ft)t0 una ltrazione (qualsiasi) in (; F; P).

    Denizione 7 Il processo X si dice di Markov se

    E[' (Xt+h)

    jFt] = E[' (Xt+h)

    jXt] (1.4)

    per ogni funzione ' : (E; E) ! (R; B (R)) misurabile limitata, ed ogni t 0, h > 0.

    Proposizione 12 Chiedere luguaglianza E[' (Xt+h) jFt] = E[' (Xt+h) jXt] equivalesemplicemente a chiedere che E[' (Xt+h) jFt] sia (Xt)-misurabile. Inoltre, equivale achiedere che per ogni A 2 Evalga

    P(Xt+h 2 AjFt) = P(Xt+h 2 AjXt) : (1.5)Oppure, che per ogni A 2 Ela v.a. P(Xt+h 2 AjFt) sia (Xt)-misurabile.

    Proof. Se vale lidentit (1.4), allora E[' (Xt+h) jFt] (Xt)-misurabile. Viceversa,supponiamo che Y := E[' (Xt+h) jFt] sia (Xt)-misurabile. Dal momento che Ysoddisfa luguaglianza E[Y Z] = E[' (Xt+h) Z] per ogni v.a. Z che sia Ft-misurabile,la soddisfa anche per tutte le v.a. Z che siano (Xt)-misurabili. Quindi Y unasperanza condizionale di ' (Xt+h) sapendo Xt, ovvero vale (1.4).

    Inne, se vale (1.4), allora prendendo ' (x) = 1x2A vale (1.5). Viceversa, se vale(1.5) per ogni A 2 E, vale (1.4) per le indicatrici ' (x) = 1x2A e poi per linearit per le

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    24/156

    24 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

    loro combinazioni lineari. Si passa alle funzioni misurabili limitate o con un teoremagenerale o con un esplicito passaggio al limite monotono (ogni funzione misurabile limi-tata limite crescente puntuale di funzioni semplici; poi si usa la convergenza monotona

    delle speranze condizionali). Lultima aermazione si dimostra con ragionamenti simili.

    La propriet di Markov esprime il fatto che ci che possiamo prevedere del futuro inuenzato in uguale misura dal presente come dal presente incluso il passato. Dettoaltrimenti, il passato non inuisce sul futuro, noto il presente. Con un po di pazienzasi possono dimostrare varie formulazioni equivalenti, alcune delle quali ad esempioenfatizzano il ruolo simmetrico del passato e del futuro. Ad esempio, vale:

    Proposizione 13 Il processo X di Markov se e solo se

    E Xj[t;1) Xj[0;t] jXt = E Xj[t;1)E Xj[0;t]per ogni coppia di funzioni :

    E[0;1); E[0;1) ! (R; B (R)), : E[0;t]; E[[0;t] !

    (R; B (R)), misurabili limitate, ed ogni t 0.

    Il futuro indipendente dal passato, noto il presente.Una classe interessante di processi di Markov quella dei processi a incrementi

    indipendenti, che contiene processi di fondamentale importanza.

    Denizione 8 Sia E uno spazio vettoriale. Diciamo che un processo stocastico X =(Xt)t0, rispetto ad una ltrazione (Ft)t0, ha incrementi indipendenti, se per ognit; h 0 la v.a. Xt+h Xt indipendente da Ft.Proposizione 14 Un processo a incrementi indipendenti di Markov.

    Proof. Applichiamo la Proposizione 11. Dati t; h 0, sia G 0= fXt+h Xtg, G = Ft.Le -algebre G e G0 sono indipendenti. La v.a. Xt+h Xt G-misurabile. Pre-sa una funzione misurabile limitata : (E; E) ! (R; B (R)), vogliamo vericare cheE[ (Xt+h) jFt] fXtg-misurabile. Scriviamo

    E[ (Xt+h) jFt] = E[ (Xt + Xt+h Xt) jFt]

    e consideriamo la funzione ' (x; !) = (x + Xt+h (!) Xt (!)). Essa EG0-misurabile.Quindi sono soddisfatte tutte le ipotesi della Proposizione 11 (con X = Xt), che forniscelidentit

    E[ (Xt + Xt+h Xt) jFt] = E[' (x; )] jx=Xt :Quindi E[ (Xt+h) jFt] fXtg-misurabile. La dimostrazione completa.

    Introduciamo ora un concetto collegato alla propriet di Markov.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    25/156

    1.4. PROPRIET DI MARKOV 25

    Denizione 9 Su uno spazio misurabile(E; E), diciamo che una funzionep (s;t;x;A),denita per t > s 0, x 2 E, A 2 E, una funzione di transizione markoviana se:

    i) per ogni (s;t;A), x 7! p (s;t;x;A) E-misurabileii) per ogni (s;t;x), A 7! p (s;t;x;A) una misura di probabilit su (E; E)iii) vale lequazione di Chapman-Kolmogorov

    p (s;t;x;A) =

    ZE

    p (u;t;y;A)p (s;u;x;dy)

    per ogni t > u > s 0, x 2 E, A 2 E.Denizione 10 Data una funzione di transizione markoviana p ed una misura di prob-abilit 0 su (E; E), diciamo che un processo stocastico X = (Xt)t0, rispetto ad una

    ltrazione (Ft)t0 (su uno spazio probabilizzato (; F; P)) un processo di Markovassociato a p con legge iniziale 0 se:

    i) X0 ha legge 0ii) per ogni t 0, h > 0, A 2 Evale

    P (Xt+h 2 AjFt) = p (t; t + h; Xt; A) : (1.6)Si noti che se un processo soddisfa le condizioni di questultima denizione, allora

    di Markov, per la Proposizione 12. La denizione quindi arricchisce la propriet diMarkov.

    Come sopra, la propriet (1.6) equivalente a

    E[' (Xt+h)

    jFt] = Z' (y)p (t; t + h; Xt; dy) (1.7)

    per ogni ' misurabile limitata.Lintroduzione della funzione p (s;t;x;A) concettualmente (ed anche tecnica-

    mente) un eettivo arricchimento. Essa corrisponde allidea intuitiva che, ad ogniistante s 0, a causa della propriet di Markov il processo riparta dalla posizionex occupata in quellistante, scordandosi del passato. La posizione x al tempo s iden-tica la probabilit p (s;t;x;A) di occupare una posizione in A in un generico istantesuccessivo t.

    Nascono due domande naturali:

    1. dato un processo di Markov, esiste una funzione di transizione markoviana p ad

    esso associata?

    2. Data una funzione di transizione markovianap ed una generica probabilit iniziale0, esiste un processo di Markov X ad esse associato?

    La prima domanda delicata per cui ci accontenteremo di vericare lesistenza invari esempi o di supporla in certi teoremi.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    26/156

    26 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

    Osservazione 7 Mostriamo alcuni passi nella direzione di una costruzione di p par-tendo da un processo di Markov. Se il processo X denito su uno spazio (; F; P)in cui metrico completo e separabile, F= B (), presa la sotto--algebra G = Fs,esiste una versione regolare della probabilit condizionale di P rispetto a G, che in-dichiamo con Ps (A0; !), A0 2 F, ! 2 . Essa soddisfa, oltre alla misurabilit rispettoaFs ed allessere una misura di probabilit rispetto ad A0,

    Ps (A0; ) = P(A0jFs) :

    Preso A0 della forma A0 = fXt 2 Ag con A 2 E, scriviamo (s;t;!;A) := Ps (fXt 2 Ag ; !) :

    Questo soddisfa

    (s;t; ; A) = P(Xt 2 AjFs) = P(Xt 2 AjXs)dove abbiamo usato lipotesi di markovianit. La funzione A 7! (s;t;!;A) unamisura di probabilit. Il problema passare da (s;t;!;A), ! 2 , a p (s;t;x;A),x 2 E.

    La seconda domanda ha risposta aermativa in spazi degli stati -compatti. Premet-tiamo una proposizione che illustra come la conoscenza della funzione di transizionemarkoviana e della legge iniziale sono sucienti a identicare la legge di un processo,se si suppone che esso sia di Markov.

    Proposizione 15 Se X un processo di Markov con funzione di transizione marko-viana p, allora, per ogni = (t1;:::;tn) 2 S, A1;:::;An 2 E, vale

    P(Xtn 2 A3; ; Xt1 2 A1)ZA1

    t1 (dy1)

    ZA2

    p (t1; t2; y1; dy2) ZAn

    p (tn1; tn; yn1; dyn)

    dove t1 la legge di Xt1.

    Proof. Il caso n = 3 chiarisce completamente la dimostrazione, che va poi svolta perinduzione. Chi avesse visto la dimostrazione perle catene di Markov ne riconoscerebbe

    la struttura, basata sulla disintegrazione rispetto allultimo istante di tempo. Vale

    P(Xt3 2 A3; Xt2 2 A2; Xt1 2 A1) = E[1A3 (Xt3) 1A2 (Xt2) 1A1 (Xt1)]= E[E[1A3 (Xt3) 1A2 (Xt2) 1A1 (Xt1) jFt2 ]]= E[1A2 (Xt2) 1A1 (Xt1) E[1A3 (Xt3) jFt2 ]]= E[1A2 (Xt2) 1A1 (Xt1)p (t2; t3; Xt2 ; A3)] :

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    27/156

    1.4. PROPRIET DI MARKOV 27

    Analogamente, usando (1.6),

    E[1A2 (Xt2) 1A1 (Xt1)p (t2; t3; Xt2; A3)]

    = E[E[1A2 (Xt2) 1A1 (Xt1)p (t2; t3; Xt2; A3) jFt1]]= E[1A1 (Xt1) E[1A2 (Xt2)p (t2; t3; Xt2; A3) jFt1]]= E

    1A1 (Xt1)

    Z1A2 (y)p (t2; t3; y ; A3)p (t1; t2; Xt1; dy)

    E

    1A1 (Xt1)

    ZA2

    p (t2; t3; y ; A3)p (t1; t2; Xt1; dy)

    :

    Inne, questultima espressione si pu riscrivere nella forma

    Z1A1 (y1) ZA2

    p (t2; t3; y2; A3)p (t1; t2; y1; dy2) t1 (dy1)

    =ZA1

    t1 (dy1)ZA2

    p (t1; t2; y1; dy2)ZA3

    p (t2; t3; y2; dy3) :

    Proposizione 16 Supponiamo E metrico -compatto. Date una funzione di tran-sizione markoviana p ed una generica probabilit iniziale 0, esiste un processo diMarkov X ad esse associato, unico in legge.

    Proof. Diamo solo la traccia. Cerchiamo di usare il Teorema di Kolmogorov dicostruzione dei processi. Per far questo, dobbiamo costruire quelle che saranno ledistribuzioni di dimensione nita del processo. Sulla base della proposizione precedente,per ogni = (t1;:::;tn) 2 Sindichiamo con la misura di probabilit su (En; En) taleche

    (A1 ::: An) =ZA1

    t1 (dy1)

    ZA2

    p (t1; t2; y1; dy2) ZAn

    p (tn1; tn; yn1; dyn) :

    La consistenza si verica immediatamente usando lequazione di Chapman-Kolmogorov(si deve prendere Ai = E). Le altre propriet richiedono un po di lavoro che nonriportiamo.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    28/156

    28 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    29/156

    Capitolo 2

    Il moto browniano

    2.1 Denizione, esistenza e propriet di Markov

    Denizione 11 Un moto browniano grossolano un processo stocastico B = (Bt)t0tale che

    i) P (Bt = 0) = 1ii) per ogni t > s 0, Bt Bs una gaussiana N(0; t s)iii) per ogni n 2 N ed ogni sequenza tn > ::: > t1 0, le v.a. Btn Btn1,

    Btn1 Btn2, ... , Bt2 Bt1 sono indipendenti.Se aggiungiamo che sia continuo, lo chiameremo moto browniano perfezionato o

    semplicemente moto browniano. La sua legge su (C[0; 1); B (C[0; 1))) sar dettamisura di Wiener.

    A causa della propriet (i) si suole dire che un moto browniano standard. Al-trimenti si pu considerare il caso in cui il processo esca da un altro punto iniziale,diverso dallo zero.

    A volte utile considerare il concetto di moto browniano rispetto ad una ltrazionedata.

    Denizione 12 Un moto browniano, rispetto ad una ltrazione (Ft)t0, un processostocastico B = (Bt)t0 tale che

    i) P (Bt = 0) = 1ii) adattatoiii) per ogni t > s 0, Bt Bs una gaussiana N(0; t s) indipendente da Fs.Se non imponiamo che sia continuo, lo diremo moto browniano grossolano, altri-

    menti lo chiameremo moto browniano perfezionato o semplicemente moto browniano.

    Nel caso della denizione 11, sia (F00t )t0 la ltrazione naturale: F00t la pi piccola-algebra che rende misurabili tutte le v.a. Bs, con s 2 [0; T].

    29

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    30/156

    30 CAPITOLO 2. IL MOTO BROWNIANO

    Proposizione 17 Un processo soddisfa la denizione 12 rispetto alla ltrazione natu-rale (F00t )t0, se e solo se soddisfa la denizione 11.Proof. Supponiamo che valga la denizione 12 rispetto alla ltrazione naturale (

    F00t )t

    0.

    Presi tn > ::: > t1 0, osserviamo che gli incrementi Btn1 Btn2, ... , Bt2 Bt1 sonomisurabili rispetto a F00tn1, quindi Btn Btn1 indipendente da essi:

    P

    Btn Btn1 2 An;

    Btn1 Btn2;:::;Bt2 Bt1 2 A0

    = P

    Btn Btn1 2 An

    P

    Btn1 Btn2;:::;Bt2 Bt1 2 A0

    per ogni An 2 B (R) ed A0 2 B (Rn1). Questo vale in particolare per insiemi del tipoA0 = An1 A2 con Ai 2 B (R). Basta poi iterare il ragionamento per ottenere

    P

    Btn Btn1 2 An;:::;Bt2 Bt1 2 A2

    =

    n

    Yi=2P

    Bti Bti1 2 Ai

    che la condizione (iii) della denizione 11. Le altre propriet sono ovvie.

    Viceversa, supponiamo che valga la denizione 11. Presi t > s 0, lunico problema dimostrare che BtBs indipendente da F00s . Ricordando il criterio dellesercizio 8, suciente dimostrare lindipendenza tra (Bt Bs) e gli elementi di una base di F00s .Prendiamo la famiglia A F00s degli eventi della forma fBu1 2 A1;:::;Bun 2 Ang alvariare di u1 ::: un 2 [0; s], A1;:::;An 2 B (R). Questa una base, in quanto generaF00s , chiusa per intersezione nita, contiene . Basta allora dimostrare lindipenden-za tra (Bt Bs) e gli elementi di A. Fissati u1 ::: un 2 [0; s], basta quindidimostrare lindipendenza tra (Bt Bs) e gli elementi di (Bu1; Bu2;:::;Bun ). Ledue -algebre (Bu1 ; Bu2;:::;Bun ) e Bu1; Bu2 Bu1 ;:::;Bun Bun1 coincidono (ivettori (Bu1; Bu2;:::;Bun ) e Bu1 ; Bu2 Bu1;:::;Bun Bun1 sono legati da una trasfor-mazione biunivoca). Quindi basta mostrare lindipendenza tra (Bt Bs) ed una basedi

    Bu1 ; Bu2 Bu1;:::;Bun Bun1

    , ad esempio quella formata dagli eventi della for-

    ma

    Bu1 2 A1; Bu2 Bu1 2 A2;:::;Bun Bun1 2 An

    al variare di A1;:::;An 2 B (R).A questo punto la verica ovvia, basandoci sullindipendenza delle v.a. Bt Bs,Bs Bun , Bun Bun1, ... , Bu2 Bu1; Bu1. La dimostrazione completa.

    Esistono numerose formulazioni equivalenti della denizione di moto browniano (siveda anche la sezione 2.1.1). Eccone una utile per la costruzione successiva.

    Proposizione 18 Se B = (Bt)t0 un moto browniano standard grossolano, presa = (t1;:::;tn)

    2 S, la distribuzione marginale su (R

    n;B

    (R)n) una gaussiana dimedia nulla e matrice di covarianza Q() di componenti

    Q()ij = ti ^ tj :

    Quindi B un processo gaussiano, con funzione valor medio m (t) = 0 e funzione dicovarianza

    C(t; s) = t ^ s:

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    31/156

    2.1. DEFINIZIONE, ESISTENZA E PROPRIET DI MARKOV 31

    Viceversa, un processo gaussiano con tali funzioni media e covarianza, un motobrowniano grossolano.

    Proof. Il vettore Btn Btn1; Btn1 Btn2 ;:::;Bt2 Bt1; Bt1 gaussiano (si notiche possiamo scrivere Bt1 come Bt1 B0). Infatti, ha componenti indipendenti egaussiane (in generale non sarebbe vero se le componenti non fossero indipendenti),quindi la densit congiunta si pu scrivere come prodotto delle marginali, che essendogaussiane conducono con facili calcoli ad una densit congiunta gaussiana.

    Il vettore (Bt1;:::;Btn ) si ottiene dal precedente con una trasformazione lineare,quindi anchesso gaussiano. La sua media nulla (per verica diretta). Calcoliamo lasua matrice di covarianza direttamente, piuttosto che con la regola di trasformazionecitata a suo tempo. Se j > i, quindi tj > ti, vale

    Q()

    ij

    = Cov Bti ; Btj = Cov Bti ; Btj Bti + Cov (Bti ; Bti )= Cov (Bti ; Bti ) = V ar [Bti ] = tiper linearit della covarianza nei suoi argomenti, indipendenza tra Btj Bti e Bti edaltri fatti ovvi. Quindi Q

    ()ij = ti ^ tj .

    Viceversa, supponiamo che B sia un processo gaussiano con funzioni m (t) = 0 eC(t; s) = t^s. Al tempo t = 0 abbiamo E[B0] = 0, V ar [B0] = C(0; 0) = 0, quindi B0 una v.a. che vale 0 quasi certamente (ad esempio si deduce dalla disuguaglianza diChebyshev). Quindi la (i) vericata. Il vettore (Bt1 ;:::;Btn ) gaussiano. Usando latrasformazione inversa di quella usata nella prima parte della dimostrazione, si deduceche il vettore Btn Btn1; Btn1 Btn2 ;:::;Bt2 Bt1; Bt1 gaussiano. La sua media nulla per verica diretta. Gli elementi della sua matrice di covarianza valgono

    Cov

    Btni Btni1 ; Btnj Btnj1

    = Cov

    Btni ; Btnj Cov Btni ; Btnj1 Cov Btni1 ; Btnj + Cov Btni1; Btnj1

    che, per i > j diventano (tni1 < tni tnj1 < tnj), usando la formula Cov (Bt; Bs) =t ^ s,

    = tni tni tni1 + tni1 = 0mentre per i = j diventano (tni1 = tnj1 < tni = tnj)

    = tni tni1 tni1 + tni1 = tni tni1:

    Quindi la covarianza diagonale, cio le componenti del vettore aleatorio sono scorre-late e questo implica che sono indipendenti, perch si tratta di un vettore gaussiano.Le componenti sono gli incrementi del moto browniano, che quindi sono indipendenti(propriet (iii)), oltre che gaussiani. Vale inne la propriet (ii): abbiamo gi stabilito

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    32/156

    32 CAPITOLO 2. IL MOTO BROWNIANO

    che il generico incremento gaussiano e centrato; vale poi, con gli stessi calcoli appenaeseguiti, per t > s 0,

    V ar [Bt

    Bs] = Cov (Bt; Bt)

    Cov (Bt; Bs)

    Cov (Bs; Bt) + Cov (Bs; Bs)

    = t s s + s = t s:La dimostrazione completa.

    Esistono numerose costruzioni di un moto browniano grossolano. Fatta la faticadella proposizione precedente, per noi la strada pi breve basarsi sul teorema dicostruzione di Kolmogorov, nella sua applicazione generale ai processi gaussiani.

    Proposizione 19 Un moto browniano grossolano esiste. La legge suR[0;1); B (R)[0;1)

    univocamente determinata.

    Proof. La legge su R[0;1); B (R)[0;1)

    univocamente determinata dalle marginali,che sono univocamente note in base al lemma precedente. Veniamo alla costruzione.Per lesistenza, grazie alla Proposizione 18, basta che mostriamo lesistenza di un

    processo gaussiano con m (t) = 0 e C(t; s) = t^s. Possiamo usare il criterio di esistenzadi processi gaussiani con funzioni m (t) e C(t; s) date. Per far questo, basta vericareche C(t; s) = t ^ s sia una funzione semidenita positiva, nel senso che valga

    nXi;j=1

    (ti ^ tj) ij 0 (2.1)

    per ogni (t1;:::;tn) 2 [0; 1)n, (1;:::;n) 2 Rn. Il resto della dimostrazione si occupadi questa verica.

    Ispirandoci a quanto gi scoperto sopra (Proposizione 18), possiamo mostrare cheesiste un vettore aleatorio con matrice di covarianza avente componenti ti^tj. Siccomeuna matrice di covarianza semidenita positiva, la propriet (2.1) sar dimostrata.Prendiamo delle v.a. X1;:::;Xn indipendenti, centrate e di varianze t1; t2 t1;:::;tn tn1. Deniamo delle v.a. Y1;:::;Yn tramite le relazioni

    X1 = Y1

    X2 = Y2 Y1:::

    Xn = Yn

    Yn

    1

    (relazioni chiaramente invertibili). Per ogni i = 2;:::;n, vale

    Yi = Yi Yi1 + ::: + Y2 Y1 + Y1 = Xi + ::: + X2 + X1quindi

    V ar [Yi] = V ar [Xi] + ::: + V ar [X1] = ti ti1 + ::: + t2 t1 + t1 = ti

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    33/156

    2.1. DEFINIZIONE, ESISTENZA E PROPRIET DI MARKOV 33

    ovveroCov (Yi; Yi) = ti = ti ^ ti:

    Inoltre, se j > i, per ragioni analoghe (essendo cio Yi = Xi + ::: + X2 + X1), le v.a.

    Xj; Xj1:::;Xi+1 sono indipendenti da Yi, quindi

    Cov (Yj ; Yi) = Cov (Yj Yj1 + ::: + Yi+1 Yi + Yi; Yi)= Cov (Xj + ::: + Xi+1 + Yi; Yi)

    = Cov (Yi; Yi) = ti = ti ^ tj:Quindi la matrice di covarianza di (Y1;:::;Yn) ha le componenti desiderate. Questoconclude la dimostrazione.

    Volendo si possono perseguire dimostrazioni pi algebriche, o ragionando sui minoridella matrice, oppure vericando la condizione (2.1) per n basso e trovando poi unastruttura iterativa. Per n = 2 vale

    2Xi;j=1

    (ti ^ tj) ij = t1 (1 + 2)2 + (t2 t1) 22

    mentre per n = 3 vale

    3Xi;j=1

    (ti ^ tj) ij = t1 (1 + 2 + 3)2

    + (t2 t1) 22 + 2 (t2 t1) 23 + (t3 t1) 23dove la somma degli ultimi tre termini simile al punto di partenza del caso n = 2. Civuole per molta pazienza a completare il conto in questo modo. La dimostrazione completa.

    Esaminiamo ora lesistenza di un moto browniano continuo. Premettiamo il seguenteteorema che non dimostriamo in quanto ha fatto parte di un corso precedente. E dettoteorema di regolarit di Kolmogorov.

    Teorema 4 Se un processo stocastico X = (Xt)t2D denito in un aperto D Rnsoddisfa

    E[jXt Xsjp] Cjt sjn+per certe costanti p ;C; > 0, allora esiste una modicazione X0t di Xt tale che le

    traiettorie di X0t sono -hlderiane per ogni < p .

    Proposizione 20 Esiste un moto browniano continuo e le sue traiettorie sono -hlderiane, per ogni 2 (0; 1=2). Precisamente, per ogni T > 0 ed ogni 2 (0; 1=2)esiste una funzione CT; : ! (0; 1) tale che

    jBt (!) Bs (!)j CT; (!) jt sj per ogni t; s 2 [0; T] ed ogni ! 2 :

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    34/156

    34 CAPITOLO 2. IL MOTO BROWNIANO

    Proof. Sia B un moto browniano grossolano. La v.a. BtBspts (per t > s) una normale

    standard. Fissiamo n 2 N, diciamo n > 2. Siccome R+11 jxjn ex2=2dx < 1, esiste unacostante Cn > 0 tale che

    EBt Bspt s n Cn

    e quindi

    E[jBt Bsjn] Cn (t s)n=2 = Cn (t s)1+n22 :

    La costante Cn non dipende da t > s 0. In base al teorema di regolarit di Kol-mogorov, esiste una modicazione B

    (n)t di Bt tale che le traiettorie di B

    (n)t sono -

    hlderiane per ogni 3qualsiasi. E una modicazione continua di Bt, quindi anche di B

    (3)t . Ma due processi

    X ed Y continui che sono modicazione uno dellaltro sono indistinguibili: numeratii tempi positivi razionali con la successione ftng, posto Nn = fXtn 6= Ytng, linsiemeN = [nNn ha misura nulla, per ! 2 Nc vale Xt (!) = Yt (!) per ogni t 2 Q\ [0; 1), equindi per ogni t 0 essendo processi continui.

    Abbiamo cos dimostrato che B(n)t indistinguibile da B

    (3)t . Sia Nn linsieme dove

    dieriscono, di misura nulla. Sia N = [nNn, di misura nulla. Per ! 2 Nc, B(3)t ha laregolarit delle traiettorie di qualsiasi B

    (n)t , quindi -hlderiane per ogni 0 tale che E

    jXhj3 C per h sucientemente piccolo.Un simile processo unico, cio univocamente identicato da questi requisiti? Si

    pu precisare la distribuzione statistica degli incrementi, o si pu calcolare quella della

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    36/156

    36 CAPITOLO 2. IL MOTO BROWNIANO

    posizione Xt? La risposta aermativa. Omettiamo la dimostrazione completa delteorema che richiede alcuni argomenti un po tecnici sulle funzioni caratteristiche.

    Teorema 5 La varianza di Xt nita per ogni t. Supponendo (per ssare ununit dimisura) che V ar [X1] = 1, X una moto browniano.

    Proof. Fissato t > 0, preso n 2 N e detto h = tn , vale

    Xt =

    Xt Xn1nt

    + ::: +

    X2

    nt X1

    nt

    +

    X1nt X0

    :

    Le v.a. tra parentesi sono indipendenti ed hanno varianza nita (almeno se n grande)per cui Xt ha varianza nita. Fissiamo la scala ponendo V ar [X1] = 1.

    Mostriamo che V ar [Xt] = t per ogni t razionale positivo. Se t =nm

    con n; minteri positivi, vale Xt =

    Xn=m X(n1)=m

    + ::: +

    X1=m X0

    , quindi V ar

    Xn=m

    =

    nV ar X1=m. La relazione vale anche per n = m, quindi 1 = mV ar X1=m. ValequindiV ar

    Xn

    m

    =

    n

    m:

    Per lipotesi sul momento terzo e la continuit delle traiettorie, possiamo applicare ilcriterio di passaggio al limite in valore atteso di Vitali e dedurre V ar [Xt] = t perogni t 0. Questa dimostrazione si pu ripetere per il generico incremento Xt Xsprovando che V ar [Xt Xs] = t s per ogni t > s 0.

    Manca solo la gaussianit di Xt Xs, per aver vericato tutte le condizioni diun moto browniano. La gaussianit si dimostra nello stesso modo del teorema limitecentrale, ma facendo entrare in gioco la continuit delle traiettorie. Questa parte

    piuttosto tecnica e la omettiamo.

    2.2 Regolarit del moto browniano

    2.2.1 Dicolt ad usare il MB come integratore

    Nei capitoli successivi saremo interessati ad integrali del tipoZt0

    XsdBs

    dove B un moto browniano. Come potrebbe essere denito questo integrale? Elenchi-amo alcune possibilit (nessuna funzionante), in ordine di dicolt.

    1. Se le traiettorie del MB fossero funzioni dierenziabili, e la derivata dBs(!)ds

    avesseun minimo di integrabilit, potremmo denire lintegrale precedente in modo ovvio,come

    Rt0

    Xs (!)dBs(!)ds ds. Invece il MB ha traiettorie che, q.c., non sono dierenziabili

    in alcun punto. Questa propriet cos speciale che la dimostreremo in dettaglio nelseguito del capitolo.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    37/156

    2.2. REGOLARIT DEL MOTO BROWNIANO 37

    2. Unapparente ancora di salvezza sembra venire da un ragionamento semplicissi-mo. Se X sucientemente regolare, possiamo denire

    Zt0

    Xs (!) dBs (!) = [Xs (!) Bs (!)]s=ts=0 Zt0

    Bs (!) dXs (!)

    cio scaricare il problema della regolarit su X. Basta ad esempio che X abbia traiet-torie a variazione limitata. Ma questo, pur vero, troppo restrittivo per i nostri scopi.Infatti, il caso per noi di maggior interesse sar quello di integrali del tipoZt

    0

    f(Xs) dBs

    dove f regolare ed X risolve unequazione dierenziale contenente B, e fatta in modo

    che la (poca) regolarit delle traiettorie di X sia simile a quella di B (si immagini adesempio unequazione della forma Xt = Bt + At, dove A un processo con traiettoriemolto regolari). Allora X non ha traiettorie a variazione limitata, come non le ha B,e quindi il trucchetto di integrare per parti non si pu applicare.

    3. Se le traiettorie di B fossero funzioni a variazione limitata (ricorderemo trapoco cosa questo signichi), allora potremmo denire

    Rt0

    Xs (!) dBs (!) per q.o. !,per processi X opportuni, come integrale di Lebesgue-Stieltjes. Ma questo non vero,le traiettorie di B non sono a variazione limitata, come dimostreremo poco sotto nelcapitolo. La derivata delle traiettorie browniane dBs (!) =ds non una misura, solouna distribuzione di classe meno regolare e non utile per eettuare integrazioni.

    4. Esiste poi un concetto di integrale secondo Young che si applicherebbe se B (!)fosse di classe C ([a; b]) con > 12

    (funzioni hlderiane di ordine ), cosa non vera,come vedremo sotto. E una teoria utile ad esempio per integrare rispetto a variantidel MB come il moto browniano frazionario con indice di Hurst H > 1

    2.

    5. In conclusione, serve un concetto nuovo di integrale, detto integrale secondo It,di cui ci occuperemo in un capitolo successivo. Va detto che in anni recenti statasviluppata la teoria dellintegrazione dei rough paths, che, entro certi limiti e con molteprecisazioni piuttosto complesse, permette di integrare rispetto a traiettorie browniane,senza bisogno della teoria di It. Sia per la complessit, sia per le limitazioni, non harimpiazzato la teoria di It, per gli usuali scopi di questa teoria. E invece risultatautile per scopi particolari ed attualmente in grande evoluzione.

    2.2.2 Commenti sulle funzioni a variazione limitata

    Consideriamo funzioni f : [a; b] ! R. Usiamo le seguenti notazioni: indichiamouna generica partizione di [a; b] con = fa t1 < ::: < tn bg e scriviamo jj =maxi=1;:::;n1 jti+1 tij.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    38/156

    38 CAPITOLO 2. IL MOTO BROWNIANO

    Una funzione f : [a; b] ! R si dice a variazione limitata, e scriviamo f 2 BV [a; b],se

    sup

    n1

    Xi=1 jf(ti+1) f(ti)j < 1:Se f 2 BV [a; b] e g 2 C([a; b]) allora, presa una successione fkgk2N di partizioni di

    [a; b], con limk!1 jkj = 0, della forma k =n

    a tk1 < ::: < tknk bo

    , esiste il limite

    limjj!0

    nk1Xi=1

    g (i)

    f

    tki+1 ftki

    per ogni scelta di i 2

    tki ; t

    ki+1

    , indicato con

    Rb

    agdf e chiamato integrale di Riemann-

    Stieltjes. Tale integrale si estende poi ad altre funzioni, in particolare nella direzione

    dellintegrazione di Lebesgue, ma sostanzialmente serve sempre lipotesi che f siaBV [a; b].

    Useremo poco pi tardi la seguente proposizione. A parole, potremmo dire chese la variazione quadratica non nulla, allora la funzione non a variazione limitata.Indichiamo inoltre con C ([a; b]) lo spazio delle funzioni hlderiane di ordine 2 (0; 1).

    Proposizione 22 Sia f una funzione continua e sia fkgk2N una successione di par-tizioni di [a; b], con limk!1 jkj = 0, della forma k =

    na tk1 < ::: < tknk b

    o.

    Se

    limk!1

    nk1

    Xi=1 ftki+1 ftki 2 > 0allora f non di classe BV [a; b]. Non nemmeno di classe C ([a; b]) per qualche 2 12 ; 1. In altre parole, se f una funzione continua BV, oppure C ([a; b]) perqualche 2 12 ; 1, allora limk!1Pnk1i=1 ftki+1 ftki 2 = 0.Proof. Osserviamo che vale

    nk1Xi=1

    f

    tki+1

    f

    tki

    2

    nk1Xi=1

    f

    tki+1

    f

    tki

    maxi=1;:::;nk1

    f

    tki+1

    f

    tki

    ! (f; k) sup

    n1Xi=1

    jf(ti+1) f(ti)j

    dove ! (f; k), oscillazione di f su k, denita da

    ! (f; k) = maxi=1;:::;nk1

    ftki+1 ftki :

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    39/156

    2.2. REGOLARIT DEL MOTO BROWNIANO 39

    Vale limk!1 ! (f; k) = 0, essendo f uniformemente continua su [a; b]. Se per assurdofosse f 2 BV [a; b], allora dedurremmo limk!1

    Pnk1i=1

    f

    tki+1 ftki

    2

    = 0, incontraddizione con lipotesi. Quindi f =2 BV [a; b].

    Se per assurdo fosse f 2 C

    ([a; b]) per un qualche 2 12 ; 1, cio se relativamentead una costante C > 0 valessejf(t) f(s)j Cjt sj ; t; s 2 [a; b]

    allorank1Xi=1

    ftki+1 ftki 2 Cnk1Xi=1

    tki+1 tki 2 = Cnk1Xi=1

    tki+1 tki tki+1 tki 21 C

    nk1

    Xi=1 tki+1 tki

    jkj21 = C(b a) jkj21

    da cui dedurremmo dedurremmo limk!1Pnk1i=1

    ftki+1 ftki 2 = 0, in contrad-dizione con lipotesi. La dimostrazione completa.

    2.2.3 Variazione quadratica del MB e variazione non limitata

    Teorema 6 SiaB un moto browniano (continuo) e siaT > 0. Siafkgk2N una succes-sione di partizioni di[0; T], conlimk!1 jkj = 0, della formak =

    n0 = tk1 < ::: < t

    knk

    = To

    .

    Allora

    limk!1E240@nk1

    Xi=1 Btki+1 Btki 2

    T1A2

    35 = 0ePnk1i=1

    Btki+1 Btki 2 converge aT in probabilit. Ne discende che, q.c., le traiettoriebrowniane non sono di classe BV [0; T] e non appartengono ad alcun C ([a; b]) per 2 12 ; 1.Proof. La v.a.

    Btk

    i+1B

    tkip

    tki+1tki N(0; 1), quindi la v.a. Yk;i =

    Btki+1

    Btk

    i

    2

    tki+1tkiha legge in-

    dipendente da k ed i. Inoltre, ssato k, le v.a. Yk;1;:::;Yk;nk1 sono indipendenti.Pertanto

    E240@nk1X

    i=1

    Btki+1 Btki 2 T1A235 = E240@nk1X

    i=1

    Yk;i

    tki+1 tki T1A235

    = E

    240@nk1Xi=1

    (Yk;i 1)

    tki+1 tki1A235

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    40/156

    40 CAPITOLO 2. IL MOTO BROWNIANO

    = E

    2

    4

    nk1Xi;j=1

    (Yk;i 1) (Yk;j 1)

    tki+1 tki

    tkj+1 tkj3

    5= nk1Xi;j=1

    tki+1 tki tkj+1 tkjE[(Yk;i 1) (Yk;j 1)] :I termini con i 6= j sono nulli: per lindipendenza

    E[(Yk;i 1) (Yk;j 1)] = E[Yk;i 1] E[Yk;j 1]e ciascun fattore nullo:

    E[Yk;i 1] = E[Yk;i] 1 = 1tki+1 tki

    E

    Btki+1 Btki

    2

    1 = 0:

    Quindi

    E

    240@nk1Xi=1

    Btki+1 Btki 2 T1A235 = nk1X

    i;j=1

    tki+1 tki

    2E

    (Yk;i 1)2

    = C

    nk1Xi;j=1

    tki+1 tki

    2dove C = E

    (Yk;1 1)2

    (nita perch le v.a. gaussiane hanno momenti di ogni ordine

    niti)

    Cjkjnk1Xi;j=1

    tki+1 tki

    = Cjkj T

    da cui la convergenza in media quadratica, e da essa la convergenza in probabilit per illemma di Chebyshev. Inne, da queste convergenze discende la convergenza quasi certadi una sottosuccessione; ma allora vale (per le partizioni di quella sottosuccessione)lipotesi della Proposizione 22, da cui il fatto che le traiettorie non sono BV [0; T], conprobabilit uno.

    Esercizio 10 Mostrare che lungo le partizioni diadiche vale la convergenza quasi certa

    diPnk1i=1 Btki+1 Btki 2 a T.2.2.4 Non dierenziabilit

    Per capire la dimostrazione della non dierenziabilit, arontiamo prima un problemapi semplice: la non dierenziabilit in un punto pressato.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    41/156

    2.2. REGOLARIT DEL MOTO BROWNIANO 41

    Proposizione 23 Dato t0 0, q.c. le traiettorie di un moto browniano non sonodierenziabili in t0. Detto pi formalmente,

    P! 2 : limh!0 Bt0+h (!) Bt0 (!)h esiste nito = 0:Proof. Per ogni R > 0, sia NR levento

    NR =

    ! 2 : l (!) := lim

    h!0Bt0+h (!) Bt0 (!)

    hesiste, jl (!)j R

    :

    Vogliamo dimostrare che P(NR) = 0 (dallarbitrariet di R segue la tesi della propo-sizione). Come osservazione generale, se per un evento N abbiamo N [k0 \nk Ane vale limn!1 P(An) = 0, allora P(N) = 0. Infatti, N [k0Nk con Nk = \nkAn;quindi Nk An per ogni n k, da cui segue P (Nk) infnk P(An) = 0; questoimplica inne P(N) = 0.

    Premettiamo un facile fatto di analisi. Se l (!) := limh!0Bt0+h(!)Bt0(!)

    hesiste, con

    jl (!)j R, allora esiste (!) > 0 tale che per ogni h con jhj (!) valejBt0+h (!) Bt0 (!)j (R + 1) jhj :

    Infatti, per denizione di limite, (preso " = 1) esiste (!) > 0 tale che per ogni h con

    jhj (!) vale l (!)1 Bt0+h(!)Bt0(!)h

    l (!) +1, da cui R1 Bt0+h(!)Bt0(!)h

    R + 1, da cui jBt0+h (!) Bt0 (!)j (R + 1) jhj.

    In particolare, esiste k (!) > 0 tale che per ogni n con n k (!) vale

    Bt0+ 1n (!) Bt0 (!) R + 1n :Quindi

    NR [k0 \nk A(R)k;nA(R)n : =

    ! 2 :

    Bt0+ 1n (!) Bt0 (!) R + 1n

    :

    Ma

    PA(R)n = PBt0+ 1n Bt0 R + 1

    n = P

    Bt0+ 1n Bt0p1=n R + 1pn

    != P

    jZj R + 1p

    n

    dove Z una N(0; 1). Si verica facilmente che limn!1 P

    A(R)n

    = 0, quindi P (NR) =

    0. La dimostrazione completa.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    42/156

    42 CAPITOLO 2. IL MOTO BROWNIANO

    Corollario 1 Dato un insieme numerabile D [0; 1), q.c. le traiettorie di un motobrowniano non sono dierenziabili in alcun punto di D:

    P! 2 : esiste t0 2 D tale chelimh!0 Bt0+h (!) Bt0 (!)h esiste nito = 0:Proof. Detto Nt0 linsieme di misura nulla della proposizione precedente e detto NDquello di questo corollario, vale

    ND = [t02DNt0da cui discende subito la tesi.

    Teorema 7 Sia B un moto browniano. Allora

    P! 2 : esiste t0 2 [0; 1) tale chelimh!0Bt0+h (!) Bt0 (!)

    h

    esiste nito = 0:Proof. Dati R > 0, k 2 N, sia NR;k linsieme degli ! 2 tali che la funzionet 7! Bt (!) dierenziabile almeno in un punto t0 2 [k; k + 1] con derivata in modulonon superiore ad R. Basta vericare che P (NR;k) = 0 per ogni R > 0, k 2 N. Si capisceche se lo dimostriamo per k = 0, il caso generale sar uguale. Quindi dimostriamoP(NR) = 0 dove

    NR =

    ! 2 : esiste t0 2 [0; 1] tale che esiste lim

    h!0Bt0+h (!) Bt0 (!)

    h2 [R; R]

    :

    Volendo ricalcare la dimostrazione vista sopra, si deve cercare di esprimere NR

    tramite unioni ed intersezioni numerabili riconducendosi ad insiemi pi elementariaventi probabilit molto piccola. Ma qui la prima dicolt che la condizione dif-ferenziabile almeno in un punto coinvolge a priori lunione pi che numerabile dieventi. Cerchiamo allora di dedurre, dalla condizione che denisce NR, una condizioneesprimibile in modo numerabile.

    Abbiamo gi vericato nella dimostrazione della Proposizione 23 che, se Bt (!) dierenziabile in t0 con derivata in modulo non superiore ad R, allora esiste (!) > 0tale che jBt0+h (!) Bt0 (!)j (R + 1) h per ogni h 2 [0; (!)]. Allora, postoAM; := f! 2 : esiste t0 2 [0; 1] tale che jBt0+h (!) Bt0 (!)j Mh per ogni h 2 [0; ]gvale

    NR [>0

    AR+1;:

    Ma vale anche[>0

    AR+1; =[n2N

    AR+1;1=n, quindi se dimostriamo che P (AM;) = 0 per

    ogni M > 0, > 0, possiamo dedurre P(NR) = 0 per ogni R > 0. Mostriamo quindiche P(AM;) = 0.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    43/156

    2.2. REGOLARIT DEL MOTO BROWNIANO 43

    Per inquadrare i calcoli che seguono, pu essere utile introdurre anche gli eventi(ssato t0 2 [0; 1])

    AM;;t0 :=f

    !2

    :jBt0+h (!)

    Bt0 (!)

    j Mh per ogni h

    2[0; ]

    g:

    Vale AM; =[

    t02[0;1]AM;;t0 ma, come gi osservato, si tratta di ununione pi che

    numerabile.Tuttavia, per ogni n tale che 22n < , e per ogni t0 2 [0; 1], vale

    AM;;t0 DM;n;k(t0) [

    k=0;:::;2n

    DM;n;k

    dove

    DM;n;k := ! 2 : B k+12n (!) B k2n (!) 3M2n e k (t0) il valore in f0;:::; 2ng per cui k(t0)12n < t0 k(t0)2n . Infatti, se ! 2 AM;;t0,vale jBt0+h (!) Bt0 (!)j Mh per ogni h 2 [0; ]; quindi, osservando che grazie allacondizione 22n < i numeri

    k(t0)2n e

    k+12n stanno in [t0; t0 + ], e che

    k(t0)2n

    t0 12n ek(t0)+1

    2n t0 22n , valeB k(t0)+1

    2n(!) B k(t0)

    2n(!)

    B k(t0)2n

    (!) Bt0 (!) + B k(t0)+1

    2n(!) Bt0 (!)

    che per la condizione ! 2 AM;;t0 risulta

    Mk (t0)2n

    t0 + k (t0) + 12n

    t0 3M2n

    :

    Linclusione AM;;t0 [

    k=0;:::;2n

    DM;n;k cos dimostrata vale per ogni t0 2 [0; 1] e levento

    di destra non dipende da t0, quindi possiamo dire che AM; [

    k=0;:::;2n

    DM;n;k. Siamo

    riusciti a tradurre lunione pi che numerabile AM; in ununione numerabile (conuninclusione, non unidentit).

    Purtroppo questa fatica non basta. Infatti

    P

    [k=0;:::;2n

    DM;n;k

    !

    2nXk=0

    P (DM;n;k) 2nXk=0

    C

    r1

    2n

    che diverge, dove la disuguaglianza P(DM;n;k) Cq

    12n si dimostra come descritto

    sotto. Bisogna allora introdurre lultimo elemento non banale della dimostrazione.

  • 7/27/2019 Dispense di Istituzioni di Probabilit (F. Flandoli)

    44/156

    44 CAPITOLO 2. IL MOTO BROWNIANO

    Per ogni n tale che 42n

    < , e per ogni t0 2 [0; 1], vale

    AM;;t0 e

    DM;n;k(t0) [k=0;:::;2n e

    DM;n;k

    dove

    eDM;n;k := B k+12n

    B k2n

    3M2n

    ;B k+2

    2n B k+1

    2n