Appunti di Probabilita’ 2 - dmi.unipg.it candelor/dispense/   Appunti di Probabilita’ 2 D. Candeloro

  • View
    218

  • Download
    1

Embed Size (px)

Text of Appunti di Probabilita’ 2 - dmi.unipg.it candelor/dispense/   Appunti di...

Appunti di Probabilita 2

D. Candeloro

December 5, 2013

1 Introduzione

In questi appunti si riportano gli argomenti trattati in alcuni corsi tenuti presso

lUniversita degli Studi di Perugia, su temi riguardanti Processi aleatori ed Inte-

grazione Stocastica. Essendo un corso per studenti di II livello universitario, gli

elementi di base di Calcolo delle Probabilita sono supposti come gia acquisiti, an-

che se nei primi 4 capitoli vengono ripresi, piu che altro sotto forma di esempi,

alcuni temi di particolare interesse: abbiamo infatti ritenuto opportuna una breve

digressione sulle principali distribuzioni in piu dimensioni, un richiamo sulle for-

mule di convoluzione, e alcuni esempi di calcolo del valor medio condizionato e di

distribuzioni condizionate in varie situazioni che possono poi presentarsi nello studio

di svariati processi.

Abbiamo quindi trattato una serie di processi piu o meno classici: passeggiate

aleatorie, processi branching, catene di Markov; altri processi di piu ampio respiro

sono stati trattati piu a grandi linee: processi stazionari, martingale, processi gaus-

siani sono visti in forma generale, corredati dei principali teoremi, anche se non tutte

le dimostrazioni sono state inserite.

Un discorso a parte e stato riservato al Moto Browniano, che quasi da solo

occupa i capitoli finali, a partire dal cenno (inevitabilmente superficiale) ai concetti

riguardanti la convergenza in distribuzione negli spazi polacchi, proseguendo poi con

una veloce panoramica delle principali caratteristiche di questo processo, come la

Legge dellArcoseno o quella del Logaritmo Iterato, e approdando infine nellampio

settore relativo allIntegrazione Stocastica e alle Equazioni Differenziali Stocastiche:

1

qui, piu che affrontare in dettaglio le numerose e pesanti questioni teoriche, abbiamo

preferito incentrare lattenzione sui metodi risolutivi delle equazioni lineari, basati

principalmente sulle Formule di Ito, e naturalmente corredando il tutto con diversi

esempi dei vari casi studiati.

2 Distribuzioni Multidimensionali

In questo capitolo presentiamo alcuni esempi di distribuzioni in dimensione mag-

giore di 1. Essenzialmente tratteremo un caso di tipo discreto (le distribuzioni

multinomiali) e uno di tipo continuo (la normale multivariata, naturalmente). Per

i risultati che riportiamo senza dimostrazione, si puo consultare il testo [6] o altro

testo classico di Calcolo delle Probabilita.

A tal proposito, segnaliamo una abbreviazione che adopreremo spesso per deno-

tare le marginali finito-dimensionali di un processo: assegnata una famiglia qualunque

(anche infinita) (Xt)t di variabili aleatorie, ogni sottofamiglia finita (Xt1 , ..., Xtn) ha

una sua distribuzione n-dimensionale. Tale distribuzione e una marginale di tutta

la famiglia (Xt)t, e prende il nome di distribuzione finito-dimensionale: questa de-

nominazione spesso sara abbreviata in fidi, o al plurale fidis.

Esempio 2.1 (Distribuzione multinomiale)

E il tipo di distribuzione che sincontra quando simmagina di lanciare n volte

un dado, e si vuole tener conto di quante volte esce la faccia 1, quante volte la

faccia 2, ecc. In questa semplice descrizione, il vettore X e composto di 6 variabili

scalari, X1, ..., X6, dove la v.a. Xj indica quante volte e uscita la faccia col numero

j. Si vede facilmente che la distribuzione della marginale Xj e di tipo B(n,16)

(supponendo che il dado sia onesto): infatti, luscita della faccia j equivale alluscita

di Testa in un lancio di monetina, con P (T ) = 16, tutte le altre facce essendo

collassate e considerate come insuccesso. Ora, mentre il risultato di ciascun lancio

e indipendente da tutti gli altri, le v.a. Xj non sono tra loro indipendenti. Infatti,

e chiaro ad esempio che la somma X1 + ...+X6 e sempre uguale a n: pertanto, date

ad esempio X1, ..., X5, il valore di X6 a questo punto e univocamente determinato.

2

Ma, anche prescindendo da questo indubbio legame lineare, e ovvio che certi eventi

riguardanti X1 possono condizionare fortemente le probabilita degli eventi relativi

alle altre Xj: ad esempio, se si sa che X1 = n 1 (evento molto raro, ma nonimpossibile), non restano poi molte possibilita per le altre Xj, il che e chiaramente

un forte condizionamento. Ora, determiniamo la distribuzione congiunta del vettore

X := (X1, ..., X6). Scelti 6 numeri interi, x1, ..., x6, compresi fra 0 e n, valutiamo

la probabilita P (X1 = x1, X2 = x2, ..., X6 = x6). Chiaramente, tale probabilita

e diversa da 0 solo se risulta x1 + ... + x6 = n. Dunque, supponiamo che la somma

degli xj sia n, e valutiamo la probabilita richiesta. Per fare cio, possiamo chiederci

in quanti modi si puo avere x1 volte la faccia 1, e, per ciascuno di questi, in quanti

modi si puo avere x2 volte la faccia 2, etc.. Le risposte sono familiari: ci sono(nx1

)modi per scegliere gli x1 lanci in cui esce la faccia numero 1; per ciascuno di questi,

esistono poi(nx1x2

)modi per scegliere i lanci in cui esce la faccia numero 2, etc.

Infine, una volta scelti i posti in cui collocare gli 1, i 2, i 3 etc., esiste un solo

evento elementare favorevole a tale collocazione, dunque avremo

P (X1 = x1, X2 = x2, ..., X6 = x6) = 6n(n

x1

)(n x1x2

)...

(n x1 x2

x3

)...

(x5 + x6x5

).

Un facile calcolo porta a semplificare molti fattoriali, per cui alla fine si ha

P (X1 = x1, X2 = x2, ..., X6 = x6) = 6n n!

x1!x2!...x6!.

In maniera piu generale, si puo dire che un vettore aleatorio X := (X1, ..., Xk)

ha distribuzione multinomiale se

i) ciascuna Xi ha distribuzione B(n, pi), con

i pi = 1;

ii) P (X1 = x1, ..., Xk = xk) =n!

x1!x2!...xk!px11 ...p

xkk ogniqualvolta x1, ..., xk sono

numeri interi compresi fra 0 e n, con somma uguale a n.

A titolo di esempio, valutiamo la covarianza di due v.a. marginali di un vet-

tore aleatorio multinomiale. Scegliamo le marginali X1 e X2, e calcoliamo la loro

covarianza, tramite la formula

cov(X1, X2) = E(X1X2) E(X1)E(X2).

3

Qui, il problema principale e nel calcolo della quantita E(X1X2). Mediante il

teorema del valor medio iterato, si puo scrivere

E(X1X2) =ni=0

E(X2i|[X1 = i])P ([X1 = i]) =ni=1

ipiE(X2|[X1 = i]) =ni=1

ipi(ni)p2/(1p1),

lultima relazione essendo dovuta al fatto che, se Xi = i, allora le altre variabili

possono assumere valori compresi fra 0 e n i, con probabilita proporzionali aquelle originarie. Avremo allora

E(X1X2) =np2

1 p1E(X1)

p21 p1

E(X21 ) = np1p2(n 1).

Di conseguenza, avremo

cov(X1, X2) = np1p2(n 1) n2p1p2 = np1p2.

Da qui, si deduce facilmente anche il coefficiente di correlazione:

(X1, X2) = np1p2

np1(1 p1)p2(1 p2)

=

p1p2(1 p1)(1 p2)

.

Il fatto che la covarianza sia negativa rispecchia una forma di antagonismo tra le

due v.a.: se una delle due diventa grande, laltra tendera a diventare piccola (dato

il vincolo X1 +X2 n, cio era prevedibile). Il coefficiente di correlazione non e mainullo (esclusi casi degeneri), e risulta uguale a 1 se e solo se p1 + p2 = 1, e quindisolo se n = 2: in tal caso, e chiaro che X1 +X2 = n, e quindi tra le due v.a. ce un

legame lineare.

Il prossimo esempio e nel caso continuo. Esso e ancora piu importante, in quanto

rappresenta il corrispondente multidimensionale della distribuzione normale.

Esempio 2.2 Si dice che un vettore aleatorio X := (X1, ..., Xn) ha distribuzione

normale multivariata, o semplicemente gaussiana, e si denota con X MVN , seessa ha come densita la funzione

f(x) =1

(2)n/2(detV)1/2exp

{1

2(x )tV1(x )

}(1)

con x IRn, ove e il vettore (1, ..., n), le cui componenti sono le medie E(Xi), i =1, ..., n, (in notazione matriciale, x e inteso come vettore colonna, e la notazione xt

4

denota il trasposto di x, ossia lo stesso vettore pensato come vettore riga); inoltre

V e una matrice n n, simmetrica e definita positiva, detta la matrice covarianza:gli elementi vi,j di V non sono altro che le covarianze cov(Xi, Xj).

(La teoria delle matrici assicura che, sotto tali condizioni, detV e diverso da 0, e

quindi linversa V1 esiste ed ha caratteristiche simili; ne consegue che la quantita

ad esponente e in pratica una forma quadratica definita positiva.)

Nel caso n = 2, lespressione della densita ha una forma piu comprensibile. Per

semplificare ancora, supponiamo che sia = 0 (il che non cambia molto la sostanza)

e scriviamo

V =

21 1212

22

intendendo che e il coefficiente di correlazione (X1, X2) tra le due v.a. marginali,

e 21, 22 sono le loro rispettive varianze (supposte non nulle).

Lasciando per esercizio al lettore i calcoli del caso, si ottiene

fX1,X2(x1, x2) =1

212

1 2exp

{1

2

22x21 212x1x2 + 21x22

2122(1 2)

}(2)

Qui si puo vedere facilmente che sia X1 che X2 hanno distribuzione normale

(questo accade in generale, in qualsiasi dimensione), e che, nel caso = 0, si ot-

tiene lindipendenza tra X1 e X2 (anche questo e un fatto tipico della distribuzione

gau