47
ESTAD ´ ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Mero˜ no Quatrimestre Primavera 2019 Grau en Matem` atiques Balidajr 14

ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

  • Upload
    others

  • View
    4

  • Download
    0

Embed Size (px)

Citation preview

Page 1: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

ESTADISTICA

David Anglada RotgerGerard Contreras Molina

Marcel Juan MeronoQuatrimestre Primavera 2019

Grau en Matematiques

Balidajr 14

Page 2: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

2

Page 3: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

Index

2 Distribucions relacionades amb la Normal 52.1 Breu repas de la Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52.2 Distribucio χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52.3 Distribucio t-Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.4 Distribucio de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

3 Estimacio puntual 93.1 Funcio de distribucio empırica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93.2 Estimacio pel metode del moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103.3 Estimacio de maxima versemblanca (m.l.e) . . . . . . . . . . . . . . . . . . . . . . . 11

3.3.1 Cas Uniparametric . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113.3.2 Cas Multiparametric . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3.4 Principi d’invariancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143.5 Estadıstica Bayesiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

3.5.1 Famılies conjugades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183.6 Avaluacio d’estimadors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203.7 Estadıstic Suficient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223.8 Millor estimador no esbiaixat per un parametre. . . . . . . . . . . . . . . . . . . . . 24

3.8.1 Unicitat de l’UMVUE en cas d’existir . . . . . . . . . . . . . . . . . . . . . . 253.9 Estadıstic complet per a una famılia de probabilitats . . . . . . . . . . . . . . . . . . 263.10 Score vector i matriu d’informacio de Fisher . . . . . . . . . . . . . . . . . . . . . . . 273.11 Comportament assimptotic de successions d’estimadors . . . . . . . . . . . . . . . . 32

4 Estimacio per Intervals de Confianca i Tests d’Hipotesi 374.1 Intervals de Confianca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

4.1.1 Interval aleatori i Interval de Confianca . . . . . . . . . . . . . . . . . . . . . 374.1.2 Funcio Pivotal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414.1.3 IC per la diferencia de dos valors esperats en poblacions normals. . . . . . . . 41

4.2 Tests d’Hipotesi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434.2.1 Tipus de conjectures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434.2.2 Tipus d’errors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434.2.3 Regio crıtica d’un test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444.2.4 Decisio entre dues hipotesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 454.2.5 Comparacio del valor esperat amb un valor concret (N) . . . . . . . . . . . . 45

3

Page 4: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

4 INDEX

Page 5: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

Capıtol 2

Distribucions relacionades amb laNormal

2.1 Breu repas de la Normal

Definicio: Es diu que una variable aleatoria X segueix una distribucio Normal

X ∼ N(µ, σ2)

quan la seva funcio de densitat de probabilitat es

f(x;µ, σ2) =1√

2πσ2e−

(x−µ)

2σ2

La distribucio Normal es important per tres motius:

i) Existeixen moltes variables a la vida real amb la distribucio Normal.

ii) Teorema Central del lımit.

iii) x1, x2, . . . , xn, llavors x = 1n

∑ni=1 xi ∼ N(µ, σ2)

2.2 Distribucio χ2

Definicio: Si X1, . . . , Xn son variables aleatories independents identicament distribuıdes tals queXi ∼ N(0, 1) i es defineix Y = X2

1 + . . . X2n, llavors es diu que Y segueix una distribucio χ2χ2χ2 amb

n− 1 graus de llibertat, es a dir

Y ∼ χ2n−1

Proposicio: Sigui Y ∼ χ2n, es compleix que:

E[Y ] = n

Var(Y ) = 2n

5

Page 6: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

6 CAPITOL 2. DISTRIBUCIONS RELACIONADES AMB LA NORMAL

Observacio: Es compleix:

i) Γ(n/2, 1/2) ∼ χ2n

ii) Quan n es gran, χ2n ∼ N(n, 2n)

Exemple: Siguin x1, . . . , xn m.a.s. X ∼ N(µ, σ2) es equivalent a dir que x1, . . . , xn son respecti-vament una realitzacio d’una variable aleatoria Xi on X1, . . . , Xn son variables aleatories i.i.d. ambdistribucio N(µ, σ2):

(xi − µ)2

σ2∼ χ2

1 =⇒n∑i=1

(xi − µ)2

σ2∼ χ2

n =⇒n∑i=1

(xi − x)2

σ2∼ χ2

n−1

=⇒ (n− 1)S2

σ2∼ χ2

n−1

2.3 Distribucio t-Student

Definicio: Sigui Z ∼ N(0, 1) i sigui Y ∼ χ2n i suposem que Z i Y son independents. La distribucio

de la variable aleatoria

T =Z√YN

es, per definicio, una distribucio t-Student amb n graus de llibertat.

Proposicio: Sigui T ∼ tn. Llavors:

E[T ] = 0

Var(T ) =n

n− 2

Exemple: Siguin x1, . . . , xn m.a.s. N(µ, σ2). Siguin x−µσ/√n∼ N(0, 1) i (n−1)S2

σ2 ∼ χ2n−1 indepen-

dents, llavors:

x−µσ/√n

(n−1)S2

σ2

=(x− µ)

√n

S∼ tn−1

Page 7: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

2.4. DISTRIBUCIO DE FISHER 7

2.4 Distribucio de Fisher

Definicio: Siguin Y1 ∼ χ2n1

i Y1 ∼ χ2n2

tal que Y1 i Y2 son independents, llavors la distribucio dela variable aleatoria

F =Y1n1

Y2n2

es, per definicio, una distribucio de Fisher

F ∼ zn1,n2

Proposicio: Sigui F ∼ zn1,n2. Llavors:

E[F ] =n2

n2 − 2n2 ≥ 3

Var(F ) = 2

(n2

n2 − 2

)2 n1 + n2 − 2

n1(n2 − 4)n2 ≥ 5

Exemple: Siguin x1, . . . , xn m.a.s. d’una N(µ1, σ2) i x1, . . . , xn m.a.s. d’una N(µ2, σ

2) indepen-dents. Llavors,

(n1 − 1)S21

σ2∼ χ2

n1−1

(n2 − 1)S22

σ2∼ χ2

n2−1

i, per tant

(n1−1)S21

σ2 ∼ χ2n1−1

(n2−1)S22

σ2 ∼ χ2n2−1

∼ zn1−1,n2−1 =⇒ S21

S22

∼ zn1−1,n2−1

Proposicio: Si denotem per Fα,n1,n2 el valor de les x’s que s’acumula una probabilitat per sotaigual a α en una Fn1,n2, llavors es compleix que:

zα,n1,n2 =1

z1−α,n1,n2

Demostracio:

P (zn1,n2 ≤ zα,n1,n2) = α⇐⇒ P (zn1,n2 ≥ zα,n1,n2) = 1− α⇐⇒

⇐⇒ P

( χ2n2/n2

χ2n1/n1︸ ︷︷ ︸

zn2,n1

≤ 1

zα,n1,n2︸ ︷︷ ︸zα,n2,n1

)= 1− α

Page 8: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

8 CAPITOL 2. DISTRIBUCIONS RELACIONADES AMB LA NORMAL

Exemple: x1, . . . , xn m.a.s. d’una N(3, 0.5) quina es la P (S2 ≥ 1.7) si n = 25 ?

P (S2 ≥ 1.7) = P

(24 · S2

0.5≥ 24 · 1.7

0.5

)= P (χ2

24 ≥ 81.6) =

= 1− P (χ224 ≤ 81.6) = 1− pchisq(81.6, 24) = 3.37 · 10−3

Exemple: Si tenim n1 = 15 i n2 = 18

P

(S2

1

S22

≤ 2.3

)= P (14,17≤ 2.3) = pf(2.3, 14, 17) = 0.9475

Page 9: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

Capıtol 3

Estimacio puntual

3.1 Funcio de distribucio empırica

A partir d’ara ens situarem en el cas que x1, . . . , xn mostra d’una variable aleatoria X ∼ f(x; θ),on θ ∈ Θ ⊆ Rk on:

- f es la funcio de densitat si X es contınua.

- f es la funcio de denstita si X es discreta.

En la majoria de vegades, si no es diu res, assumirem que k = 1 i, per tant, la distribucio esuniparametrica.

Definicio: Donada una mostra de minda n de la variable aleatoria X, es defineix la funcio dedistribucio empırica com:

Fn(x) =#{xi ≤ x}

n

Observacio: Son les probabilitats acumulades si es suposa com a distribucio de probabilitat laque dona probabilitat fa(xi)

n als valors que hem observat i 0 als no observats.

Teorema: (Glivenko - Cantelli): Sigui X ∼ f(x; θ) on θ ∈ Θ ⊆ Rk i x1, . . . , xn. Si Fn(x) es lafuncio de distribucio empırica i F (x) la real, llavors es compleix:

supx∈S

∣∣Fn(x)− F (x)∣∣ n→∞−−−→ 0

Conclusio: Fn(x) esta molt propera a F (x) en tots els punts per a n gran.

Corol.lari: El parametre θ de la distribucio sovint es desconegut i a partir de les dades el voldremestimar.

Si θ = ψ(F (x))G-C−−→ una bona estimacio es θ = ψ(Fn(x))

9

Page 10: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

10 CAPITOL 3. ESTIMACIO PUNTUAL

3.2 Estimacio pel metode del moments

Suposem que θ te dimensio k, θ = (θ1, . . . , θk). El metode proposa trobar θ com la solucio delsistema que s’obte d’igualar els k primers moments teorics als k primers moments mostrals.

E[X] = 1n

∑xi

E[X2] = 1n

∑x2i

. . .E[Xk] = 1

n

∑xki

obtenint aixı θMM .

Exemple: X ∼ f(x;λ) exponencial, f(x;λ) = λe−λx, on x > 0, λ > 0 i E[X] = 1λ,

x1, . . . , xn mostra.

1

λ= x =⇒ λMM =

1

x

Exemple: Si X ∼ N(µ, σ2) θ = (µ, σ2) ∈ R× R+ llavors tenim.

E[X] = x µMM = x

=⇒ =⇒ σMM = 1n

∑x2i − x2

E[X2] = 1n

∑x2i σ2 + µ2 = 1

n

∑x2i σMM =

1

n

∑(xi − x)2

Definicio: Ates que els estimadors son estadıstics (funcio de la mostra) son tambe variablesaleatories. Si θ es un estimador de θ, es defineix el seu biaix com:

b(θ) = Eθ(θ)− θ

Definicio: Es diu que θ es un estimador sense biaix si Eθ(θ) = θ.

Exemple: Si tenim X ∼ N(µ, σ2), llavors tenim que X ∼ N(µ, σ2

n ) i, per tant, no tenim biaix enl’esperanca ja que E[X] = E[X] = µ. Vegem-ho amb la variacia, S2 = 1

n

∑ni=1(xi − x)2.

E[S2] =1

nE

n∑i=1

(xi − x)2

=σ2

nE

n∑i=1

(xi − x)2

σ2

=σ2

nE

[ 2·χ2n−1︷ ︸︸ ︷

(n− 1)S2

σ2

]=σ2

n(n− 1)

Biaix(S2) = E[S2]− σ2 = σ2

[n− 1

n− 1

]= −σ

2

n

Proposicio: Si X ∼ f(x; θ on θ ∈ Θ. Si definim µk = E[xk] =∫S x

kf(x; θ)dx, es compleix que elmoment d’ordre k mostral es un estimador sense biaix del moment teoric.

Page 11: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

3.3. ESTIMACIO DE MAXIMA VERSEMBLANCA (M.L.E) 11

Demostracio:

µk = 1n

∑xki

E[µ] = 1n

∑E[xki ]︸ ︷︷ ︸µk

= 1nn · µk = µk

Biaix(µk) = E[µk]− µk = 0

3.3 Estimacio de maxima versemblanca (m.l.e)

3.3.1 Cas Uniparametric

Sigui X ∼ f(x; θ) una variable aleatoria, θ ∈ Θ ⊂ R. Sigui ∼x = (x1, . . . , xn) una mostra de X.

L’objectiu es trobar θ = t(x) estimacio de θ.

Definicio: Es defineix la funcio de versemblanca conjunta de la mostra com:

f∗(∼x; θ) =

n∏i=1

f(xi; θ)

Interpretacio: Es la probabilitat de que, si la funcio de densitat es f(x; θ) i θ es el parametrereal, s’observi la mostra ∼x.

Definicio: Es defineix la funcio de versemblanca com:

L(∼x; θ) =n∏i=1

f(xi; θ)

Interpretacio: Es la probabilitat de que ens surtin els valors obtinguts quan el parametre es θ.

Llavors, el θMV es el valor del parametre que maximitza la probabilitat d’obtenir la nostra mostra.

Definicio: Es defineix la funcio de log-versemblanca com:

l(∼x; θ) = logL(∼x; θ) =

n∑i=1

log f(xi; θ)

Page 12: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

12 CAPITOL 3. ESTIMACIO PUNTUAL

Exemple: X ∼ Exp(λ), f(x;λ) = λe−λx, on λ, x > 0.

L(∼x;λ) =∏ni=1(λe−λxi) = λne−λ

∑ni=n xi

l(∼x;λ) = log(λne−λ∑ni=n xi) = n log λ− λ

∑ni=n xi

Calculem el maxim de la funcio log-versemblanca:∂l∂λ = n

λ −∑xi = 0 =⇒ n

λ =∑xi =⇒ λ = 1

x

Comprovem que es maxim:∂2l∂λ2 = −n

λ2 |λ= 1x

= −nx−2 = −nx2 < 0 =⇒ λMV es maxim

Observacio: L’equacio ∂l∂θ = 0 s’anomena equacio normal.

Exemple: X ∼ N(µ, 1), ∼x = (x1, · · · , xn) una mostra de X, on µ ∈ R.

L(x;µ) =∏ni=1

[1√2πe−

(xi−µ)2

2

]=(

1√2π

)ne−

12

∑ni=1(xi−µ)2

Aixo sera maxim quan∑n

i=1(xi − µ)2 sigui mınim, es a dir, quan µ = x

Si ho fem derivant:

l(x;λ) = −n log√

2π − 12

∑ni=1(xi − µ)2

∂l∂µ =

∑ni=1(xi − µ) = 0⇐⇒

∑ni=1 xi − nµ = 0⇐⇒ µMV = x

∂2l∂µ2 =

∑ni=1(−1) < 0 =⇒ Es maxim

Exemple: Trobar l’estimador de maxima versemblanca en els casos seguents:

a) Si X ∼ Po(λ).

L(x;λ) =∏ni=1

[e−λ λ

xi

xi!

]= e−λn λ

∑xi∏xi!

l(x;λ) = −λn+∑xi log λ−

∑log(xi!)

∂l∂λ = −n+

∑xiλ = 0 =⇒ λMV = x

∂2l∂λ2 = −

∑xi

λ2 < 0 =⇒ Maxim

Pel metode dels moments: E[X] = λ =⇒ λMV = x

Page 13: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

3.3. ESTIMACIO DE MAXIMA VERSEMBLANCA (M.L.E) 13

b) Si X ∼ Geom(p).

L(x; p) =∏ni=1

(p(1− p)xi−1

)= pn(1− p)

∑(xi−1) = pn(1− p)−n+

∑xi

l(x; p) = n log p+ (−n+∑xi) log(1− p)

∂l∂p = n

p −∑xi−n

1−p = 0 =⇒ (1− p)n− p∑xi + np = 0 =⇒ n = p

∑xi =⇒ p = n∑

xi=⇒ p = 1

x

3.3.2 Cas Multiparametric

Suposem X ∼ f(x; θ), θ ∈ Θ ⊂ Rk, θ = (θ1, · · · , θk). Sigui S = (x1, · · · , xn) una mostra de X. Pertal de trobar θMV de θ cal seguir els passos seguents:

1. Suposem Θ obert. En aquest cas caldra:

a) Calcular la funcio de versemblanca.

b) Calcular la funcio de log-versemblanca.

c) Resoldre el sistema ∂l∂θi

= 0, i = 1 : k, les equacions normals.

d) Calcular la Hessiana.

e) Evaluar la Hessiana a θ : H(θ).

f) Comprovar que H(θ) esta definida negativa. En el cas k = 2, es suficient comprovar que∆1 < 0 i ∆2 < 0.

2. Si Θ no es obert pero fitat:

a) Trobar els punts crıtics solucionant les equacions normals a Θ.

b) Aplicar multiplicadors de Lagrange per trobar els candidats a maxim de la vora.

c) Si hi ha punts on l no es derivable, tambe son candidats a ser maxim

d) Un com determinats els candidats, es trobara el maxim versemblant d’entre ells.

Page 14: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

14 CAPITOL 3. ESTIMACIO PUNTUAL

Exemple: Calcul de l’estimador de maxima versemblanca de la N(µ, σ2)

L(x;λ, σ2) =∏ni=1

[1√

2πσ2e−

(xi−µ)2

2σ2

]=(

1√2πσ

)ne−

12σ2

∑ni=1(xi−µ)2

l(x;λ, σ‘2) = −n log√

2πσ2 − 12σ2

∑ni=1(xi − µ)2

∂l∂µ = 1

σ2

∑ni=1(xi − µ) = 0⇐⇒

∑ni=1 xi − nµ = 0⇐⇒ µMV = x

∂l∂σ2 = −n−

12

2π√2πσ2√

2πσ2+ 1

2(σ2)2

∑(xi − µ)2 = 0 =⇒ − n

2σ2 + 12(σ2)2

∑(xi − µ)2 = 0 =⇒

=⇒ −nσ2 +∑

(xi − µ)2 = 0 =⇒ σ2MV =

∑(xi − µ)2

n

Vegem que es un maxim:∂2l∂µ2 = − n

σ2 = ∆1 < 0 =⇒ − nσ2MV

< 0

∂2l∂µ∂σ2 =

∑(xi − µ) −1

(σ2)2 =⇒ ∂2l∂µ∂σ2 (µMV , σ

2MV ) = 0

∂2l∂(σ2)2 = n

2σ2 − 1(σ2)3

∑(xi − µ)2 =⇒ ∂2l

∂(σ2)2 (σ2MV ) < 0

Llavors la Hessiana es definida negativa =⇒ Maxim

3.4 Principi d’invariancia

Si X ∼ f(x; θ), θ ∈ Θ, x = (x1, · · · , xn) una mostra.

Proposicio (Principi d’invariancia): Si θ es l’estimador de maxima versemblanca de θ llavorsper a tota funcio τ , τ(θ) es l’estimador de maxima versemblanca de η = τ(θ).

Demostracio: Suposem que τ es bijectiva. Definim L∗(∼x; η) = L(∼x; τ−1(η)) on L es la versem-blanca en la parametritzacio θ. Si η denota l’estimacio de η, tenim que:

L∗(∼x; η) = supηL∗(∼x; η) = sup

ηL(∼x; τ−1(η)) = sup

θL(∼x; θ) = L(∼x; θ)

Si τ no es bijectiva, es a dir, existeixen θ1, θ2 tals que τ(θ1) = τ(θ2) = η es defineix la versemblancainduıda com:

L∗(∼x; η) = supθ|τ(θ)=η

L(∼x; θ)

Aixı doncs, tenim que:

L∗(∼x; η) = supηL∗(∼x; η) = sup

ηsup

θ|τ(θ)=ηL(∼x; θ) = sup

θ|τ(θ)=τ(θ)=η

L(∼x; θ)

Llavors η = τ(θ) = ˆτ(θ)

Page 15: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

3.4. PRINCIPI D’INVARIANCIA 15

Exemple: Si X ∼ N(µ, σ2) l’estimacio de maxima versemblanca de µ2 es (x2, ja que µMV = x il’estimador de maxima versemblanca de 1

µ es 1x .

Exemple: Si X ∼ Bin(n, p) ates que l’estimacio de maxima versemblanca de pMV = xn , es te que

l’estimador de maxima versemblanca de log(

p1−p

)es log

(xn

1− xn

)Exemple: X ∼ Po(λ), i ∼x = (x1, · · · , xn). Sabem que λMV = x, llavors si θ =

log(λ), θ = log(x). Reparametritzar la famılia amb θ i trobar l’estimador de maximaversemblanca a partir de la log-versemblanca.

e−λ λx

x! =⇒ e−eθ eθx

x!

L(∼x; θ) =∏ni=1

(e−e

θ eθxixi!

)= e−ne

θ 1∏ni=1 xi!

eθ∑xi

l(∼x; θ) = −neθ −∑

log xi! + θ∑xi

∂l∂θ = −nθeθ +

∑xi = 0 =⇒

∑xin = θeθ = x

Exemple: X ∼ Bin(n, p) p coneguda i n desconeguda. Volem estimar n per MV .

∼x = (x1, · · · , xk).

L(∼x;n) =∏ki=1

((nxi

)pxi(1− p)n−xi

)=(∏k

i=1

(nxi

))p∑xi(1− p)nk−

∑xi

n ha de ser enter, per tant el MV sera aquell valor tal que:L(∼x;n)

L(∼x;n−1) ≥ 1 iL(∼x;n+1)

L(∼x;n) ≤ 1

Llavors:

L(∼x;n)

L(∼x;n−1) =

(∏ki=1 (nxi)

)p∑xi (1−p)nk−

∑xi(∏k

i=1 (n−1xi

))p∑xi (1−p)(n−1)k−

∑xi

=(∏k

i=1n

n−xi

)(1− p)k ≥ 1

L(∼x;n+1)

L(∼x;n) =(∏k

i=1n+1

n+1−xi

)(1− p)k ≤ 1

Observem que∏ki=1

nn−xi = nk∏k

i=1(n−xi)Aleshores:

nk(1− p)k ≥∏ki=1(n− xi) i (n+ 1)k(1− p)k ≤

∏ki=1(n+ 1− xi)

(1− p)k ≥∏ki=1(1− xi

n ) i (1− p)k ≤∏ki=1(1− xi

n+1)

Definim g(z) =∏ki=1(n− xiz) ∀z ∈

[0, 1

x(n)

]Observem que g(z) es descreixent i g(0) = 1, g( 1

x(n)) = 0 =⇒

=⇒ ∃z0 tal que g(z0) = (1− p)k =⇒ nMV = b 1z0c

Page 16: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

16 CAPITOL 3. ESTIMACIO PUNTUAL

3.5 Estadıstica Bayesiana

Sigui X una variable aleatoria, X ∼ f(x; θ), θ ∈ Θ.

Els estadıstics es divideixen entre frequentistes i bayesians. Els primers assumeixen que θ es unparametre fix i desconegut. L’objectiu dels frequentistes es estimat θ a partir d’una mostra i aixıpoder dir coses respecte la variable aleatoria.

Els bayesians per contra assumeixen que θ es tambe una variable aleatoria i li assignen una distri-bucio de probabilitat π(θ) (distribucio a-priori basant-se en el sentit comu, el coneixement que ente de l’experiment o be basant-se en estudis previs del mateix esdeveniment.

L’objectiu dels Bayesians no es estimar θ sino actualitzar la distribucio a-priori en el que s’anomenadistribucio a posteriori. No estan interessats en l’estimacio puntual del parametre sino en la sevadistribucio.

No obstant, en el cas de voler una estimacio puntual, agafen

θBayes = E[ π(θ|∼x)︸ ︷︷ ︸Dist. a-posteriori

]

Definicio: Sigui X ∼ f(x; θ), θ ∈ Θ, π(θ) la distribucio a-priori. Sigui ∼x = (x1, · · · , xn) unamostra de X i f(∼x|θ) =

∏ni=1 f(xi|θ). Es defineix la distribucio conjunta com:

f(∼x; θ) = f(∼x|θ)π(θ)

Definicio: En les mateixes condicions que abans, es defineix la distribucio marginal com:

m(∼x) =

∫Θf(∼x; θ) dθ

Definicio: En les mateixes condicions que abans, es defineix la distribucio a-posteriori com:

π(θ|∼x) =f(∼x; θ)

m(∼x)=

f(∼x|θ)π(θ)∫Θ f(∼x; θ) dθ

Exemple:X es el temps de vida d’un component electronic, f(x|λ) = λe−λx, x, λ > 0. El temps de vidanormal es de 5000h (esperat).

E[x] =1

λ=⇒ λ =

1

5000

Page 17: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

3.5. ESTADISTICA BAYESIANA 17

Assumim que π(λ) es la distribucio a-priori i es una Gamma(α;β)

E[λ] = αβ = 15000 α = 4

=⇒Var(λ) = αβ2 = 10−8 β = 1

20000

Donat que f(∼x|λ) = λhe−λ∑xi tenim que:

Conjunta:

f(∼x;λ) = f(∼x|λ)π(λ) = λhe−λ∑xi

1

Γ(α)βαλ1−αe

−λβ = λn+α−1e

−λ(∑

xi+1β

)1

Γ(α)βα

Marginal:

m(∼x) =

∫ ∞0

f(∼x;λ dλ =1

Γ(α)βα

∫ ∞0

λn+α−1e−λ(∑

xi+1β

)dλ =

=Γ(n+ α)

(∑xi + 1

β

)−n+α

Γ(α)βα

∫ ∞0

λn+α−1e−λ(∑

xi+1β

)Γ(n+ α)

(∑xi + 1

β

)−n+α dλ

︸ ︷︷ ︸=1

A-posteriori :

π(λ|∼x) =f(∼x;λ)

m(∼x)=

f(∼x|λ)π(λ)∫∞0 f(∼x;λ) dλ

=

=λn+α−1e

−λ(∑

xi+1β

)1

Γ(α)βα

Γ(n+α)(∑

xi+1β

)−n+α

Γ(α)βα

=

= Gamma

(n+ α,

(∑xi +

1

β

)−1)

Recordatori: Si X ∼ Gamma(α, β) llavors f(x;α, β) = 1Γ(α)βαx

α−1e− xβ

Suposem que tenim una mostra de grandaria n = 25 tal que∑xi = 150000. Trobem λBayes.

λBayes = E(Gamma(29, (50000 + 20000)−1)) =29

170000= 5862h

Si fem estimacio per maxima versemblanca

(λMV )−1 =

(25

150000

)−1

= 6000

Page 18: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

18 CAPITOL 3. ESTIMACIO PUNTUAL

3.5.1 Famılies conjugades

Definicio: Sigui F la famılia de distribucions de probabilitat F = {f(x; θ) | θ ∈ Θ}, X una variablealeatoria amb distribucio de la famılia F i ∼x = (x1, · · · , xn) una mostra de x. Sigui Π = {π(θ), · · · }la famılia de disttibucions a-priori de θ. Es diu que Π es una famılia conjugada de F sı i nomessı

∀f(x; θ) ∈ F , ∀∼x, ∀π(θ) ∈ Π es compleix que π(θ|x) ∈ Π

Observacio: La Gamma es una famılia conjugada de l’Exponencial.

Teorema: Si F = {Bin(n, p)|p ∈ (0, 1)}, llavors Π = {Beta(α, β)|α, β > 0} es famılia conjugadade F .

Recordatori: Si X ∼ Beta(α, β) llavors f(x;α, β) = Γ(α+βΓ(α) p

α−1(1− p)β−1

Demostracio:

p(x|p) =

(n

k

)px(1− p)n−xsi x1, · · · , xm = ∼x mostra de X ∼ Bin(n, p)

p(∼x|p) =

m∏i=1

(n

xi

) p∑mi=1 xi(1− p)nm−

∑mi=1 xi

A-priori:

π(p) =Γ(α+ β)

Γ(α)Γ(β)pα−1(1− p)β−1

Conjunta:

f(∼x; p) = f(∼x|p)π(p) =

m∏i=1

(n

xi

) p∑mi=1 xi+α−1(1− p)nm−

∑mi=1 xi+β−1 Γ(α+ β)

Γ(α)Γ(β)

Marginal:

m(∼x) =

∫ 1

0f(∼x; p) dp =

m∏i=1

(n

xi

) Γ(α+ β)

Γ(α)Γ(β)

∫ 1

0p∑mi=1 xi+α−1(1− p)nm−

∑mi=1 xi+β−1 dp =

=Beta(

∑mi=1 xi+α, nm−

∑mi=1 xi+β)

=

m∏i=1

(n

xi

) Γ(α+ β)

Γ(α)Γ(β)

Γ(∑m

i=1 xi + α)Γ(nm−∑m

i=1 xi + β)

Γ(α+ β + nm)

Page 19: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

3.5. ESTADISTICA BAYESIANA 19

A-posteriori:

π(θ|∼x) =f(∼x|θ)m(∼x)

=Γ(α+ β + nm)

Γ(∑m

i=1 xi + α)Γ(nm−∑m

i=1 xi + β)p∑mi=1 xi+α−1(1− p)nm−

∑mi=1 xi+β−1 =⇒

=⇒ π(θ|∼x) es una Beta((

m∑i=1

xi + α, nm−m∑i=1

xi + β)) ∈ Π

Teorema: Si F = {Po(λ)|λ > 0}, llavors Π = {Gamma(α, β)|α, β > 0} es famılia conjugada de F .

Demostracio:

p(x|λ) = e−λλx

x!

p(∼x|λ) = e−nλλ∑ni=1 xi∏n

i=1 xi!

A-priori:

π(λ) =1

Γ(α)βαλα−1e

−λβ λ > 0

Conjunta:

f(∼x;λ) = f(∼x|λ)π(λ) = e−nλλ∑ni=1 xi+α−1∏ni=1 xi!

1

Γ(α)βαe−λβ

Marginal:

m(∼x) =1

Γ(α)βα1∏xi!

∫ ∞0

e−λ(n+ 1

β)λ∑xi+α−1 dλ =

=1

Γ(α)βα1∏xi!

Γ(∑

xi + α)(n+1

β)−(

∑xi+α)

∫ ∞0

e−λ(n+ 1

β)λ∑xi+α−1

Γ(∑xi + α)(n+ 1

β )−(∑xi+α)︸ ︷︷ ︸

Gamma(∑

xi+α,(n+ 1β

)−1)

dλ =

=1

Γ(α)βα1∏xi!

Γ(∑

xi + α)(n+1

β)−(

∑xi+α)

A-posteriori :

π(λ|∼x) =f(∼x, λ)

m(λ)=

e−λ(n+ 1

β)λ∑xi+α−1

Γ(∑xi + α)(n+ 1

β )−(∑xi+α)

=⇒

=⇒ π(λ|∼x) es una Gamma

(∑xi + α, (n+

1

β)−1

)∈ Π

Teorema: Si F = {N(0, σ2)|σ2 coneguda}, llavors Π = {N(µ, γ2)|µ ∈ R, γ2 ∈ R+} es famıliaconjugada de F i la distribucio a-posteriori es N(µ, γ2) ∈ Π.

Page 20: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

20 CAPITOL 3. ESTIMACIO PUNTUAL

3.6 Avaluacio d’estimadors

Objectiu: Quin estimador es ”mes boı quin te mes bones propietats? Dependra de si el tamanyes fini o infinit. Si es finit, aixo ho contesta la teoria assimptotica.

Definicio: Sigui x ∼ f(x; θ), θ ∈ Θ i ∼x = (xi, · · · , xn) una mostra. Sigui θ = w(x) un estimadorde θ. Observem que w(x) es un estadıstic, es a dir, es una variable aleatoria.

1. θ − θ es l’error comes al estimar θ per θ.

2. (θ − θ)2 es l’error quadratic comes.

Aleshores, es defineix l’error quadratic mig (EQM) com

EQM(θ) := Eθ[(θ − θ)]2 =

∫(θ − θ)2f(∼x; θ) dx

Observacio: Ens interessen estimadors amb un EQM petit, que vol dir que, en mitjana, l’estima-cio discrepa poc de la variable.

Proposicio: Es compleix que

EQM(θ = Biaix2(θ) + Varθ(θ)

Demostracio:

EQM(θ) = Eθ[(θ − θ)2] = Eθ[(θ − Eθ[θ] + Eθ[θ]− θ)2] =

= Eθ[(θ − Eθ[θ])2] + Eθ[(Eθ[θ]− θ)2] + 2Eθ[(θ − Eθ[θ])(Eθ[θ]− (θ)] = Biaix2(θ) + Varθ(θ)

Interpretacio:

Figura 3.1: Bias - Variance

Page 21: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

3.6. AVALUACIO D’ESTIMADORS 21

Observacio: El biaix ens dona informacio sobre l’exactitud de l’estimador. La variancia ensdona informacio sobre la precisio.

Observacio: Si l’estimador es sense biaix EQM(θ) = Varθ(θ).

Per tant, l’estimador de θ que minimitza l’EQM de tots els estimadors sense biaix es el que mini-mitza la variancia.

Exemple: X ∼ N(µ, σ2), ∼xmostra deX. µMV = x, σ2MV = 1

n

∑(xi−x)2. EQM(µMV )?

Biaix(µMV ) = Eµ[µMV ]− µ = µ− µ = 0 (x ∼ N(µ, σ2

n ))

Var(x) = σ2

n = 1n2

∑Var[xi] = 1

n2nVar(xi) = σ2

n

=⇒ EQM(µMV ) =σ2

n

n→∞−−−→ 0

EQM(µMV )?

Biaix(σ2MV ) = Biaix

(n−1n S2

)= E

[n−1n S2

]− σ2 = σ2

n E[

(n−1)S2

σ2

]− σ2 =

=E[χ2

n−1]=n−1

σ2

n (n− 1)− σ2 = −σ2

nn→∞−−−→ 0

Var(σ2MV ) = Var

(n−1n S2

)= σ4

n2 Var(

(n−1)S2

σ2

)=

Var[χ2n−1]=2(n−1)

σ4

n2 2(n− 1) = 2σ4(n−1)n2

=⇒ EQM(σ2MV ) =

2σ4(n− 1)

n2+σ4

n2=σ4

n2(2(n− 1) + 1) =

σ4

n2(2n− 1)

Exemple: x ∼ f(µ;σ2), ∼x mostra de X. µ = ∼x, σ2 = 1n−1

∑(xi − ∼x)2 = S2

EQM(µ) = σ2

n

EQM(σ2) = Biaix2(S2) + Var(S2) =(E(S2)− σ2

)2+ σ4

(n−1)2 Var(

(n−1)S2

σ2

)=(

σ2

n−1E[χ2n−1]− σ2

)+ σ4

(n−1)2 Var(χ2n−1) = 0 + 2σ4

n−1

=⇒ EQM(σ2) =2σ4

n− 1

Observem que 2σ4

n−1 > σ4

n2 (2n − 1) ⇐⇒ 2n2 > 2n2 − 3n + 1 ⇐⇒ 3n − 1 > 0 sempre. Tot i aixı

estimem la variancia amb S2 perque no te biaix.

Page 22: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

22 CAPITOL 3. ESTIMACIO PUNTUAL

3.7 Estadıstic Suficient

X ∼ f(x; θ), θ ∈ Θ, ∼x = (x1, · · · , xn) una mostra de X. Sigui T (∼x) un estadıstic que es un estima-dor de θ.

Definicio: Es diu que T (∼x) es un estimador suficient per θ (per un determinat metode d’a-proximacio), si tota la informacio que conte la mostra respecte θ esta contingua en T (∼x). Aixo es

equivalent a dir que si ∼x i∼y son dues mostres de X tal que T (∼x) = T (

∼y), llavors θ(∼x) = θ(

∼y).

Observacio: Trobar estadıstics suficients per un parametre es util perque ens permet reduir ladimensionalitat de les dades. No cal guardar tota la mostra, guardant T (∼x) es suficient. Ma-tematicament, dir que T (∼x) es suficient per θ es equivalent a dir que:

f(∼x|T (∼x) = t) no depen de θ (densitat de la mostra condicionada a l’estadıstic)

Exemple: Sigui X ∼ B(p) θ = p∼x = (x1, · · · , xn).

Veiem que T (∼x) =∑n

i=1 xi es un estadıstic suficient per a p.

f(∼X = ∼x|p) = p∑xi(1− p)n−

∑xi

Densitat de probabilitat = probabilitat puntual en el cas discret q(T (∼x) = t|p) =(nt

)pt(1− p)n−t.

f(∼X = ∼x|T (∼x) = t) =P (∼X = ∼x ∪ T (∼x) = t)

P (T (∼x) = t)=

P (∼X = ∼x)

P (T (∼x) = t)=

pt(1− p)n−t(nt

)pt(1− p)n−t

=1(nt

)que no depen de p.

Teorema: (Primer Teorema de Caracteritzacio) En les mateixes hipotesis anteriors, T (∼x)es un estadıstic suficient per θ si

f(∼x|θ)q(T (∼x)|θ)

(quocient entre la funcio de densitat mostral i la funcio de densitat de l’estadıstic)

es independent de θ.

Observacio: Estem dient exactament el mateix que abasn pero ara amb unes altres paraules(evitant parlar de probabilitats condicionades) ja que:

f(∼x|θ)q(T (∼x)|θ)

= P (X = ∼x|T (∼x) = t)

Page 23: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

3.7. ESTADISTIC SUFICIENT 23

Teorema: (Segon Teorema de Caracteritzacio d’Estadıstics Suficients) X ∼ f(x; θ),θ ∈ Θ, ∼x = (x1, · · · , xn) mostra de X si

f(∼x|θ) = g(T (∼x); θ)h(∼x) (3.1)

Llavors T (∼x) es suficient per θ. L’invers tambe es compleix.

Demostracio:

⇐=

Suposem que T (∼x) es un estadıstic suficient per θ per definicio, tenim que f(∼x = ∼x|T (∼x) = t) esindependent de θ, pero

f(∼x = ∼x|T (∼x) = t) =f(∼x = ∼x ∪ T (∼x) = t)

q(T (∼x) = t)=

f(∼x = ∼x|θ)q(T (∼x) = t)

=g(T (∼x)|θ)

=⇒

Suposem que es compleix (3.1) i volem veure que T (∼x) es suficient. Per veure que T (∼x) es suficient,

veurem quef(∼x=∼x|θ)q(T (∼x)=t) es independent de θ.

f(∼x = ∼x|θ)q(T (∼x) = t)

=g(T (∼x); θ)h(∼x)∑y|T (

∼y)=t f(∼x =

∼y|θ)

=3.1

g(T (∼x); θ)h(∼x)∑y|T (

∼y)=t g(T (

∼y); θ)h(

∼y)

=

=h(∼x∑

y|T (∼y)=t h(

∼y)

que no depen de θ

Exemple: Aplicacio del segon teorema de factoritzacio

X ∼ N(µ, σ2) amb σ2 coneguda i ∼x mostra de X.

f(∼x;µ) =

n∏i=1

f(xi;µ) =

n∏i=1

(1√

2πσ2e−

xi−µ)2

2σ2

)=

1

(√

2πσ2)ne−

12σ2

∑ni=1(xi−µ)2

=

=1

(√

2πσ2)ne−

12σ2

∑ni=1(xi−x+x−µ)2

=1

(√

2πσ2)ne−

12σ2 (

∑ni=1(xi−x)2+n(x−µ)+2(x−µ)

∑ni=1(xi−x)) =

=1

(√

2πσ2)ne−

12σ2

∑ni=1(xi−x)2

︸ ︷︷ ︸n(∼x)

e−1

2σ2

∑ni=1(x−µ)2︸ ︷︷ ︸

g(T (∼x);µ)

on T (∼x) = x es l’estadıstic suficient

Page 24: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

24 CAPITOL 3. ESTIMACIO PUNTUAL

3.8 Millor estimador no esbiaixat per un parametre.

X ∼ f(x; θ), θ ∈ Θ, ∼xmostradeX. Volem estimar τ(θ) per a una determinada funcio τ .

Definicio: Es defineix el conjunt d’estimaors sense biaix de τ(θ) com

Cτ ={w(∼x)|Eθ = τ(θ)

}

Definicio: ∀w1, w2 ∈ Cτ , es defineix l’eficiencia relativa com

RE(τ(θ), w1(∼x), w2(∼x)

)=

Varθ(w2(∼x))

Varθ(w1(∼x))

Observacio: ∀w(z) ∈ Cτ , es te que EQM(w(∼x)) = Varθ(w(∼x))

Per tant, si RE(τ(θ), w1(∼x), w2(∼x)

)≥ 1 implica que w1(∼x) es mes eficient que w2(∼x) per estimar

τ(θ). L’objectiu sera trobar, en cas que existeixi, l’estimador de τ(θ) que sigui sense biaix i unifor-mament de mınima variancia (UMVUE).

Definicio: Es defineix l’UMVUE com l’estimador de w(∼x) que compleix

1. Eθ[w(x)] = E[θ]∀θ, es a dir, es sense biaix.

2. ∀w′ ∈ Cθ es comleix que ∀θ ∈ Θ Varθ(w(∼x)) ≤ Varθ(w′(∼x))

Observacio: No sempre existeix. Depen de la famılia de probabilitat i de la funcio τ(θ) quevolguem estimar. Es podra donar que, donats w1, w2 ∈ Cτ .

1. ∃θ ∈ Θ tal que Varθ(w1(∼x)) ≤ Varθ(w2(∼x))

2. ∃θ ∈ Θ tal que Varθ(w2(∼x)) ≤ Varθ(w1(∼x))

Si passa aixo w1 es mes eficient que w2 i viceversa.

Teorema: (Rao - Blakwell) X ∼ f(x; θ), θ ∈ Θ, ∼x mostra de X, Varθ(w(∼x)) < +∞. τ(θ)funcio del parametre a estimar. w(x) estimador sense biaix de τ(θ). T (∼x) estimador suficient perθ. Llavors, wT (∼x) = Eθ[w(∼x)|T (∼x)] compleix:

1. wT no depen de θ.

2. Eθ[wT (∼x)] = τ(θ), es a dir, wτ es un estimador sense biaix de τ(θ).

3. Varθ[wT (∼x)] ≤ Varθ[w(∼x)], ∀θ ∈ Θ, es a dir, wT te menys variancia que w.

Demostracio:

1. wT (∼x) = E[w(∼x)|T (∼x)] =∫S w(∼x)f(∼X = ∼x|T (∼x) = t) d∼x

Page 25: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

3.8. MILLOR ESTIMADOR NO ESBIAIXAT PER UN PARAMETRE. 25

2. Eθ[wT (∼x)] = Eθ[Eθ[w(∼x)|T (∼x)]] = E[w(∼x)] =w(∼x) no biaix

E[θ]

3. Aplicant la llei de la variancia iterada fem que:

Varθ[w(∼x)] = Varθ(Eθ[w(∼x)|T (∼x)]) + Eθ[Varθ(w(∼x)|T (∼x))] =

= Varθ[wT (∼x)] + positiu =⇒ Varθ[wT (∼x)] ≤ Varθ[w(∼x)]

3.8.1 Unicitat de l’UMVUE en cas d’existir

En les mateixes hipotesis d’abans, suposem que w(∼x) i w∗(∼x) son UMVUE de τ(θ) i arribem acontradicio.

Sabem que

1. Eθ[w(∼x)] = τ(θ) = Eθ[w ∗ (∼x)]

2. ∀θ ∈ Θ, Varθ[w(∼x)] = Varθ[w ∗ (∼x)]

Definint w(∼x) =w(∼x)+w∗(∼x)

2 , tenim que:

Eθ [(w)(∼x)] =1

2

(Eθ[w(∼x)] + Eθ[w ∗ (∼x)] = τ(θ)

)

Per tant, el nou estimador es no esbiaixat per τ(θ).

Varθ(w(∼x)) =1

4

(Varθ(w) + Varθ(w∗) + 2Cov(w,w∗)

)≤(

1

4+

1

4+

1

2

)= Varθ(w) = Varθ(w)

Observacio: En l’ultima desigualtat s’ha aplicat que Cov(w,w∗) ≤√

Var(w∗)Var(w), per Cauchy-Schwarz.

Ates que si w es UMVUE, ha d’haver igualtat i, per tant, Varθ(w(∼x)) = Varθ(w(∼x)). Llavors,perque es doni aquesta igualtat s’ha de complir que

Cov(w,w∗) =√

Varθ(w)Varθ(w∗)⇐⇒ Cov(w,w∗) = 1⇐⇒ w∗(∼x) = a(θ) + b(θ)w(∼x)

Cov(w∗(∼x), w(∼x)) = Cov(a(θ) + b(θ)w(∼x), w(∼x)

)= a(θ) Cov(1, w(∼x))︸ ︷︷ ︸

0

+b(θ)Cov(w∗(∼x), w(∼x))

Page 26: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

26 CAPITOL 3. ESTIMACIO PUNTUAL

Ates que Cov(w∗(∼x), w(∼x)) = Varθ(w)

Varθ(w) = b(θ)Varθ(w) =⇒ b(θ) = 1∀θ

Ates que w∗(∼x) = a(θ) + w(∼x), prenent esperances

Eθ[w∗(∼x)] = a(θ) + Eθ[w(∼x)] =⇒ a(θ) = 0 =⇒ w∗(∼x) = w(∼x)

3.9 Estadıstic complet per a una famılia de probabilitats

Definicio: X ∼ f(x; θ), θ ∈ Θ, ∼x mostra de X. Sigui T (∼x) un estadıstic, es diu que T (∼x) escomplet quan es compleix que:

si g(T (∼x)) es tal que ∀θEθ[g(T (∼x))] = 0 llavors ∀θPθ{∼x|g(T (∼x)) = 0} = 1

Teorema: (Lehmann-Scheffe) X ∼ f(x; θ), θ ∈ Θ, sigui T (∼x) un estadıstic suficient i complet,sigui w(∼x) un estimador sense biaix de τ(θ) amb variancia finita, llavors

wT (∼x) = Eθ[w(∼x)|T (∼x)]

es l’UMVUE per τ(θ) i es unic dins del conjunt dels estimadors sense biaix de variancia finita.

Demostracio: Primer observem que

1. wT (∼x) no depen de θ ja que T (∼x) es un estadıstic suficient.

2. wT (∼x) es estimador sense biaix de τ(θ) per Rao-Blackwell

Ens queda veure que es el de uniformament mınima variancia. Previament veurem que si w(∼x) iw′(∼x) son dos estimadors sense biaix de τ(θ), llavors

Eθ[w(∼x)|T (∼x)] = Eθ[w′(∼x)|T (∼x)]

Per tant, que wT (∼x) es el mateix independentment de l’estimador sense biaix de τ(θ) que s’agafi.

Definim

g(T (∼x)) = Eθ[w(∼x)|T (∼x)]− Eθ[w′(∼x)|T (∼x)]

∀θEθ[g(T (∼x))] = Eθ[Eθ[w(∼x)|T (∼x)]− Eθ[w′(∼x)|T (∼x)]

]=

= Eθ[w(∼x)]− Eθ[w′(∼x)] = τ(θ)− τ(θ) = 0

Page 27: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

3.10. SCORE VECTOR I MATRIU D’INFORMACIO DE FISHER 27

Ates que T (∼x) es complet, llavors

∀θPθ{∼x|g(T (∼x)) = 0} = 1⇐⇒ ∀θPθ{∼x|Eθ[w(∼x)|T (∼x)] = Eθ[w′(∼x)|T (∼x)]} = 1

wT (∼x) = Eθ[w(∼x)|T (∼x)]

Veiem que si w∗ es un estimador sense biaix de τ(θ), llavors ∀θ Varθ(wT ) ≤ Varθ(w∗). Aixo es cert

ja que wT (∼x) = Eθ[w(∼x)|T (∼x)].

Varθ(wT (∼x)) = Varθ(Eθ[w(∼x)|T (∼x)]) ≤ Var(w∗(∼x))

3.10 Score vector i matriu d’informacio de Fisher

Sigui X ∼ f(x; θ), θ ∈ Θ, ∼x mostra de X.

Definicio: ES defineix el score vector com el vector de les devidades de la log-versemblanca. Esa dir, si tenim que l(∼x; θ) = logL(θ,∼x) =

∑ni=1 log f(xi; θ), llavors el score vector sera

S(θ;∼x) =∂

∂θl(θ;∼x)

Observacio: Si θ es unidimensional sera una funcio escalar i, si es multidimensional, sera unafuncio vectorial.

Proposicio: El score vector compleix que

1. θ maxim versemblant es tal que es la solucio de S(θ;∼x) = 0

2. Sota la condicio de regularitat de que es poden intercanviar derivacio i integracio es compleixque

Eθ[S(θ;∼x)

]3. θ es tal que Eθ

[S(θ;∼x)

]= S(θ;x) ja que ambdos son iguals a 0 per 1) i per 2)

Demostracio: Comencem veient que sota certes condicions de regularitat Eθ[S(θ;∼x)

]= 0. Su-

posem que X ∼ f(x; θ), θ ∈ Θ, i (x1, · · · , xn) = ∼x es una mostra de X. La funcio de vesermblancaes igual a:

L(∼x; θ) =

n∏i=1

f(xi; θ)

La funcio score sera, per tant:

S(θ;∼x) =∂

∂θlogL(∼x; θ) =

∂θ

n∑i=i

log f(xi; θ)

Page 28: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

28 CAPITOL 3. ESTIMACIO PUNTUAL

Per tant, es te que:

Eθ[S(θ;∼x)

]=

∫SnS(θ;∼x)L(∼x; θ) d∼x =

∫Sn

∂θ

n∑i=i

log f(xi; θ)L(∼x; θ) d∼x =

=

∫Sn

∂∂θL(xi; θ)

L(∼x; θ)L(∼x; θ) d∼x =

∫Sn

∂θL(∼x; θ) d∼x

Ara be, donat que hem assumit la hipotesi de regularitat (H1), es a dir, ∀h(∼x) tal que Eθ[h(∼x)] <+∞, llavors ∂

∂θ

∫hθ(∼x)L(∼x; θ) d∼x =

∫∂∂θ

[hθ(∼x)L(∼x; θ)

]d∼x. Aixı doncs ens queda que

Eθ[S(θ;∼x)

]=

∫Sn

∂θL(∼x; θ) d∼x =

∂θ

∫SnL(∼x; θ) d∼x =

∂θ1 = 0

Definicio: Sigui X ∼ f(x; θ), θ ∈ Θ, ∼x mostra de X, es defineix la matriu d’informacio deFisher associada a la mostra ∼x com

I∼x

(θ) = Eθ

[(∂

∂θlogL(∼x; θ)

)2]

Observacio: Assumint que la hipotesi de regularitat es compleix (Eθ[S(θ;∼x)

]= 0) es te que

I∼x

(θ) = Varθ[S(θ;∼x)

]

Proposicio: Si I∼x

(θ) denota la matriu d’informacio de Fisher associada a una mostra i Ix(θ)l’associada a una observacio, llavors

I∼x

(θ) = nIx(θ)

Demostracio:

I∼x

(θ) = Varθ[S(θ;∼x)

]= Varθ

[∂

∂θlogL(∼x; θ)

]= Varθ

∂θ

n∑i=1

log f(xi; θ)

=

= Varθ

n∑i=1

∂θlog f(xi; θ)

=Obs. ind.

n∑i=1

Varθ

[∂

∂θlog f(xi; θ)

]= nIx(θ)

Exemple: X ∼ Po(λ), ∼x mostra

L(∼x;λ) =

n∏i=1

(e−λ

λxi

xi!

)= e−nλ

λ∑ni=1 xi∏xi!

Page 29: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

3.10. SCORE VECTOR I MATRIU D’INFORMACIO DE FISHER 29

l(∼x; θ) = logL(∼x;λ) = −nλ+

n∑i=1

xi

log λ−n∑i=1

log xi!

∂l

∂λ= −n+

1

λ

n∑i=1

xi = S(∼x;λ)

Page 30: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

30 CAPITOL 3. ESTIMACIO PUNTUAL

Pel cas d’una observacio,

∂l

∂λ= −1 +

x

λ=⇒ Eθ

[(∂l

∂λ

)2]

= Eθ

[(−1 +

x

λ

)2]

=

= Eθ

[1 +

x2

λ2+−2

x

λ

]= 1 +

λ+ λ2

λ2− 2

λ

λ= 1 +

1

λ+ 1− 2 =

1

λ

Per tant, I∼x

(λ) = nIx(λ) = nλ

La seguent proposicio ens dona una manera mes facil de calcular la matriu d’informacio de Fishersempre que es compleixi que

H2: ∀h(∼x) tal que Eθ[hθ(∼x)] < +∞ es tengui que

∂2

∂θ2

∫hθ(∼x)L(∼x; θ) d∼x =

∫∂2

∂θ2

[hθ(∼x)L(∼x; θ)

]d∼x

Proposicio: Si es compleix H2, llavors

I∼x

(θ) = Eθ

[− ∂2

∂θ2logL(∼x; θ)

]

Demostracio: Ho provarem per dimensio 1. Per dimensio n es fa de manera semblant.

∂2

∂θ2logL(∼x; θ) =

∂θ

(∂

∂θlogL(∼x; θ)

)=

∂θ

(∂∂θL(∼x; θ

L(∼x; θ)

)=

=

( ∂2

∂θ2L(∼x; θ)

)L(∼x; θ)−

(∂

∂θL(∼x; θ)

)2 1

L(∼x; θ)2=

=

(∂2

∂θ2L(∼x; θ)

)1

L(∼x; θ)−

(∂∂θL(∼x; θ)

L(∼x; θ)

)2

Prenent esperances

[∂2

∂θ2logL(∼x; θ)

]= Eθ

( ∂2

∂θ2L(∼x; θ)

)1

L(∼x; θ)

− Eθ

[(∂

∂θlogL(∼x; θ)

)2]

= 0− I∼x

(θ)

Comprovem que, efectivament, Eθ[(

∂2

∂θ2L(∼x; θ))

1L(∼x;θ)

]= 0

( ∂2

∂θ2L(∼x; θ)

)1

L(∼x; θ)

=

∫Sn

(∂2

∂θ2L(∼x; θ)

)1

L(∼x; θ)L(∼x; θ) d∼x =

∫Sn

∂2

∂θ2L(∼x; θ) d∼x =

Page 31: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

3.10. SCORE VECTOR I MATRIU D’INFORMACIO DE FISHER 31

=∂2

∂θ2

∫SnL(∼x; θ) d∼x =

∂2

∂θ21 = 0

Proposicio: (Desigualtat de Cramer-Rao) Sigui X ∼ f(x; θ), θ ∈ Θ, ∼x una mostra de X.Sigui w(∼x) un estimador sense biaix de τ(θ), τ diferenciable. Llavors es compleix que

Varθ(w(∼x)) ≥ (τ ′(θ))2

I∼x

(θ)

Observacio: En el cas de τ(θ) = θ, es te que Varθ(w(∼x)) ≥(I∼x

(θ))−1

. D’aquı que quan mes gran

sigui I∼x

(θ) mes informacio ens donen sobre el parametre.

Observacio: La importancia de la desigualtat de Cramer-Rao es que si tenim un estimador sensebiaix de τ(θ) tal que la seva variancia sigui igual a la cota de Cramer-Rao, aquest es l’UMVUE.

Demostracio: Per Cauchy-Schwartz es te que Cov(X,Y )√Var(X)Var(Y )

≤ 1, que es equivalent a dir que(Cov(X,Y )

)2Var(X)

≤ Var(Y ) (3.2)

Definim X = S(θ;∼x) i Y = w(∼x). Aplicant 3.2 tindrem que(Cov(w(∼x), S(θ;∼x))

)2Varθ(S(θ;∼x))

≤ Varθ(w(∼x))

Sabem que Varθ[S(θ;∼x)

]= I

∼x(θ). A mes,

Cov(w(∼x), S(θ;∼x)) = Eθ[w(∼x)S(θ;∼x)]− Eθ[w(∼x)]Eθ[S(θ;∼x)]︸ ︷︷ ︸0

=

= Eθ[w(∼x)S(θ;∼x)] = Eθ

[w(∼x)

∂∂θL(∼x; θ)

L(∼x; θ)

]=

∫Snw(∼x)

∂θL(∼x; θ)

1

L(∼x; θ)L(∼x; θ) d∼x =

=∂

∂θ

∫Snw(∼x)L(∼x; θ) d∼x =

∂θE[w(∼x)] =

∂θτ(θ) = τ ′(θ)

Per tant 3.2 es converteix en (τ ′(θ))2

I∼x

(θ) ≤ Var(w(∼x))

Proposicio: (Desigualtat de Cramer-Rao pel cas multidimensional) Sigui X ∼ f(x; θ),θ ∈ Θ ⊆ Rn, ∼x una mostra de X. Llavors es te que

S(θ;∼x) =∂

∂θlogL(θ;∼x) =

=

(∂

∂θ1logL, · · · , ∂

∂θnlogL

)tLa matriu d’informacio en aquest cas es igual a

Page 32: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

32 CAPITOL 3. ESTIMACIO PUNTUAL

I∼x

(θ) = Eθ

(− ∂2

∂θi∂θjlogL(∼x; θ)

)Si w(∼x) es un estimador sense biaix de τ(θ) es compleix que:

Varθ(w(∼x)) ≥(∇τ(θ)t

(I∼x

(θ))−1∇τ(θ)

)

Definicio: Diem que un estimador sense biaix w(∼x) de τ(θ) diem es eficient si

Varθ(∼x) =(τ ′(θ))2

I∼x

(θ)

Exemple: Sigui X ∼ Po(λ), θ = λ, τ(θ) = θ = λ, τ ′(θ) = 1, λ = x es l’estimador maximversemblant sense biaix.

Var(λ) =Var(x)

n=λ

n

Fita de Cramer-Rao, I∼x

(λ) = λn . Cota de Cramer-Rao, 1

λn

= nλ = Varθ(∼x) i, per tant, l’estimador

maxim versemblant es eficient.

3.11 Comportament assimptotic de successions d’estimadors

Ates que els estimadors son funcions de la mostra, depenen en certa manera del cardinal de lamostra. Ara tindrem en compte aquest fet i assumirem que tenim una successio d’estimadors delparametre a estimar.

Definicio: Sigui(wn(∼x)

)n

una succesio d’estimadors de θ es diu que la succesio es consistent si

∀ε > 0 , ∀θ ∈ Θ es compleix que Pθ(|wn(∼x)− θ| > ε

) n→∞−−−→ 0

Teorema: Si(wn(∼x)

)n

compleix que

1. limn→∞Varθ(wn(∼x)) = 0

2. limn→∞Biaixθ(wn(∼x)) = 0

Llavors(wn(∼x)

)n

es consistent per θ.

Observacio: Per demostrar si una successio es consistent per un parametre, comprovarem 1) i 2).

Definicio: Una successio(wn(∼x)

)n

d’estimadors de τ(θ) es diu que es assimptoticament normalsi

Page 33: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

3.11. COMPORTAMENT ASSIMPTOTIC DE SUCCESSIONS D’ESTIMADORS 33

√n(wn(∼x)− τ(θ)

) n→∞−−−→D

N(a(θ), σ2(θ))

on σ2 es la variancia assimtotica.

Exemple: Sigui X ∼ N(µ, σ2) amb σ2 coneguda, θ = µ i considerem wn(∼x) = xn. Sabem que

∀n xn−µσ/√

(n)∼ N(0, 1)⇐⇒

√(n)(x− µ) ∼ N(0, σ2). Per tant, es normal.

Observacio: Si la distribucio de X no es normal, es te el mateix resultat al lımit.

Observacio: La majoria de successions d’estimadors correctament centrats i normalitzats son as-simtoticament normals per Teorema Central del Lımit.

Definicio: Una successio d’estimadors es diu assimtoticament sense biaix si

1. Es assimptoticament normal

2. a(θ) = 0∀θ

Exemple: (xn)n es una successio assimptoticament sense biaix per a µ.

Definicio: Una successio(wn(∼x)

)n

d’estimadors snese biaix de τ(θ) es assimptoticament efi-cient quan

limn→∞

Varθ(wn(∼x))(τ ′(θ))2

I∼x

(θ)

= 1

Definicio: Donades(Tn(∼x)

)n

i(Sn(∼x)

)n

dues successions d’estimadors de τ(θ) assimptoticamentsense biaix, es defineix la eficiencia relativa assimptotica com

ARE(τ(θ), Tn, Sn) =σ2S(θ)

σ2T (θ)

on σ2S(θ) es la variancia assimptotica de Sn(∼x). Si ARE(τ(θ), Tn, Sn) > 1 implica que

(Tn(∼x)

)n

es

mes eficient que(Sn(∼x)

)n

Teorema: X ∼ f(x; θ), θ ∈ Θ, ∼x mostra. Suposem que es compleixen les hipotesis de regularitat

H1 i H2. Sigui(θMVn

)n

la successio d’estimadors maxim versemblants de θ, es compleix que

1. La succesio es assimptoticament normal.

2. La succesio es assimptoticament sense biaix.

3. La succesio es assimptoticament eficient.

Aixo vol dir que

√n

((θMVn

)n− θ)

n→∞−−−→D

N(

0,(Ix(θ)

)−1)

Page 34: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

34 CAPITOL 3. ESTIMACIO PUNTUAL

A nivell practic, ates que(Ix(θ)

)−1depen de θ i/o de X, per tal de poder calcular necessitem

estimar-la i ho fem a partir de E[Ix(θMV )

]= Ix(θ).

Exemple: Sigui X ∼ Bin(m, p), volem calcular S(p;x), Ix(p), I∼x

(p) i pMV . Mireu sies eficient, si es assimptoticament eficient i trobeu-ne la distribucio assimptotica.

1. Score vector i estimador maxim versemblant

L(∼x; p) =

n∏i=1

(m

xi

) p∑ni=1(1− p)mn−

∑ni=1 xi

l(∼x; p) =n∑i=1

log

(m

xi

)+

n∑i=1

xi log

(p

1− p

)+mn log(1− p)

S(p;∼x) =∂

∂l(∼x; p) =

∑ni=1 xi −mnpp(1− p)

S(p;∼x) = 0⇐⇒n∑i=1

xi = mnp =⇒ pMV =x

m

2. Matriu d’informacio de Fisher d’una observacio i d’una mostra

L(x; p) = f(x; p) =

(m

x

)px(1− p)m−x

logL(x; p) = log

(m

x

)+ x log

(p

1− p

)+m log(1− p)

∂plogL(x; p) =

x

p(1− p)− m

1− p∂2

∂p2logL(x; p) = − (1− 2p)x

p2(1− p2)− m

(1− p)2

Ix(p) = Ep

[− ∂2

∂p2logL(x; p)

]= Ep

[(1− 2p)x

p2(1− p2)+

m

(1− p)2

]= · · · = m

p(1− p)

I∼x

(p) = nIx(p) =nm

p(1− p)

3. Veiem que pMV es sense biaix i eficient com estimador de p.

Ep[pMV ] = Ep[x

m

]=

E[x]

m=mp

p= p =⇒ Sense Biaix

Varp(pMV ) = Varp

(x

m

)=

1

m2Varp(x) =

Varp(x)

m2n=mp(1− p)m2n

=p(1− p)mn

Fita de Cramer-Rao(τ ′(p))2

I∼x

(p)=

τ(p)=p

1nm

p(1−p)=p(1− p)mn

=⇒

=⇒ Coincideix amb la cota de Cramer-Rao =⇒ pMV es eficient.

Page 35: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

3.11. COMPORTAMENT ASSIMPTOTIC DE SUCCESSIONS D’ESTIMADORS 35

4. Distribucio assimptotica de pMV

√n(pMV − p) ' N

(0,p(1− p)mn

)distribucio que aproximem per N

(0,pMV (1− pMV )

mn

)Ara be, en cas que Ix(θ) no es pugui calcular analıticament, s’agafa com a matriu de variancies icovariancies assimptotica la inversa de la matriu d’informacio observada que es defineix com

IObs(θ)) = − ∂2

∂θ2logL(∼x; θ)|θ=θMV

Proposicio: Si el que es vol estimar es τ(θ) enlloc de θ on τ es diferenciable, es compleix que

√n(τ(θMV

n )− τ(θ))N→∞−−−−→D

N

(0,

(τ ′(θ))2

Ix(θ)

)Pel cas biparametric

τ ′(θ) = ∇τ(θ)tIx(θ)∇τ(θ)

Page 36: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

36 CAPITOL 3. ESTIMACIO PUNTUAL

Page 37: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

Capıtol 4

Estimacio per Intervals de Confianca iTests d’Hipotesi

4.1 Intervals de Confianca

4.1.1 Interval aleatori i Interval de Confianca

Sigui X ∼ f(x; θ), θ ∈ Θ, ∼x mostra de X.

Definicio: Sigui L(∼x) i U(∼x) dos estadıstics tal que ∀∼x L(∼x) ≤ U(∼x). S’anomena interval ale-atori a l’interval

(L(∼x), U(∼x)

)Exemple: (X(1), X(n)) es aleatori L(∼x) = X(1), U∼x = X(n).

Definicio: Donat un interval aleatori, es defineix la probabilitat de cobertura per a un θ ∈ Θcom

Pθ(L(∼x) ≤ θ ≤ U(∼x)

)

Exemple: Si X ∼ Po(λ) i(L(∼x), U(∼x)

)=(X(1), X(n)

)Si λ = 5, llavors PPo(5)

(X(1) ≤ 5 ≤ X(n)

)Definicio: Es defineix el coeficient o nivell de confianca d’un interval aleatori com

infθ∈Θ

Pθ[L(∼x) ≤ θ ≤ U(∼x)

]

Definicio: Es defineix un interval de confianca com un interval aleatori juntament amb el seunivell de confianca, i es denota per IC1−α, on 1− α es el nivell de confianca.

Observacio: A nivell practic, es pren α = 0.05 o α = 0.01.

37

Page 38: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

38 CAPITOL 4. ESTIMACIO PER INTERVALS DE CONFIANCA I TESTS D’HIPOTESI

Exemple: IC95% per µ sota normalitat N(µ, σ2) amb σ2 coneguda.

X ∼ N(µ, σ2) =⇒ x− µσ√n

∼ N(0, 1)

P

−z1−α2≤ x− µ

σ√n

≤ z1−α2

= 1− α

P

(−z1−α

2

σ√n≤ x− µ ≤ σ√

nz1−α

2

)= 1− α

P

(x+ z1−α

2

σ√n≤ µ ≤ x− σ√

nz1−α

2

)= 1− α

Llavors, observem que el IC1−α per µ d’una normal amb σ2 coneguda es

x± σ√nz1−α

2

Observacio: za es el punt on N(0, 1) acumula la probabilitat a.

Exemple: IC95% per µ sota normalitat N(µ, σ2) amb σ2 desconeguda.

x−µσ√n∼ N(0, 1)

(n−1)S2

σ2 ∼ χ2n−1

=⇒x−µσ√n√

(n−1)S2

(n−1)σ2

∼ tn−1 ⇐⇒x− µS√n

P (−t1−α2,n−1 ≤

x− µS√n

≤ t1−α2,n−1) = 1− α

P (x+ t1−α2,n−1

S√n≤ µ ≤ x− t1−α

2,n−1

S√n

) = 1− α

Llavors µ ∈(x± t1−α

2,n−1

S√n

)

Exemple: IC95% per σ2 sota normalitat.

X ∼ N(µ, σ2) es te(n− 1)S2

σ2∼ χ2

n−1

P

(χ2α2,n−1 ≤

(n− 1)S2

σ2≤ χ2

1−α2,n−1

)= 1− α

P

(n− 1)S2

χ2α2,n−1

≤ σ2 ≤ (n− 1)S2

χ21−α

2,n−1

= 1− α

Page 39: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

4.1. INTERVALS DE CONFIANCA 39

σ2 ∈

(n− 1)S2

χ2α2,n−1

,(n− 1)S2

χ21−α

2,n−1

Observacio:

1. L’IC de σ2 no esta centrat en S2 (La distribucio no es simetrica).

2. S2 esta mes a prop de l’extrem inferior que del superior (ja que s’acumula mes probabilitat).

Exemple: IC per a θ amb X ∼ U[0, θ].

X ∼ U[0, θ], x mostra de n = 1.

X ∼ U[0, θ] =⇒ x

θ∼ U[0, 1]

(1− b)1 =α

2=⇒ b = 1− α

2a = α

2

}

P

2≤ x

θ≤ 1− α

2

)= 1− α

P

(2x

α≥ θ ≥ 2x

2− α

)= 1− α

IC1−α

(2x

2− α,2x

α

)Exemple: IC per a la p d’una Bernoulli (Assimptotic).

X ∼ B(p), ∼x mostra de x, n → ∞, x1 + · · · + xn ∼ Bin(n, p). Quan n → ∞, Bin(n, p) ∼N(np, np(1− p)). Llavors

∑xi − np√np(1− p)

∼ N(0, 1)

P

(−z1−α

2≤∑xi − np√np(1− p)

≤ z1−α2

)= 1− α

P

−z1−α2≤∑ xi

n − p√p(1−p)n

≤ z1−α2

= 1− α

Arribats a aquest punt, denotant p =∑ xi

n podem continuar de diferents maneres:

Page 40: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

40 CAPITOL 4. ESTIMACIO PER INTERVALS DE CONFIANCA I TESTS D’HIPOTESI

a) P

(−z1−α

2

√p(1−p)n ≤ p− p ≤ z1−α

2

√p(1−p)n

)= 1− α. S’ha de complir:

(p− p)2 = z1−α2

√p(1− p)

n

Llavors, l’interval (p1, p2) on p1 i p2, s’anomena Interval d’Score.

b) Estimem les p del denominador per p:

p± z1−α2

√p(1− p)

n

Aquest s’anomena Interval de Wald.

c) Prenem l’interval mes gran possible (quan p = 12)

p± z1−α2

√0.52

n

Exemple: 7 de 12 llavors germinen al cap de 2 mesos (Bin(12, p))

a) Estimacio σ

p =7

12= 0.583

σ =√

Var(p) =

√Var

(x

n

)=

1

n

√Var(x) =

√np(1− p)

n2=

√p(1− p)

n

σ =

√p(1− p)

n= 0, 142 (n = 12)

b) Interval d’Score

IC99% : (p− p)2 = z21−α

2

p(1− p)n

=⇒ p =

{0, 320, 807

=⇒ Score IC99% = (0, 32, 0, 807)

c) Interval de Wald

p± z1−α2

√p(1− p)

n= (0, 304, 0, 862)

Page 41: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

4.1. INTERVALS DE CONFIANCA 41

4.1.2 Funcio Pivotal

Definicio: X ∼ f(x, θ), θ ∈ Θ, ∼x mostra de x. Sigui Q(∼x; θ) una funcio que depen de la mostra idel parametre. Q(∼x; θ) s’anomena funcio pivotal si la distribucio de Q(∼x; θ) es independent de θ.Exemple:

1. X ∼ U(0, θ) =⇒ xθ ∼ U[0, 1] =⇒ Q(x; θ) = x

θ pivotal

2. X ∼ N(µ, σ2), σ2 coneguda.

x− µσn

∼ N(0, 1) =⇒ Q. pivotal

3. X ∼ N(µ, σ2)(n− 1)S2

σ2∼ χ2

n−1 =⇒ Q. pivotal

4. X ∼ N(µ, σ2), σ2 desconeguda.

x− µS√n

∼ tn−1 =⇒ Q. pivotal

Observacio: Les q. pivotals son molt utils per trobar Intervals de Confianca del parametre queapareix a Q(∼x, θ), ja que nomes cal trobar els punts que acumulen una prob de α

2 .

Observacio: ICAssimptotic√n(θ − θ) ∼ N

(0, (Ix(θ))−1

)Observacio: ICAssimptotic per τ(θ):

√n(τ(θ)− τ(θ)) ∼ N

(0,(τ ′(θ)2

Ix(θ)

))

4.1.3 IC per la diferencia de dos valors esperats en poblacions normals.

Volem comparar dues companyies aeries en termes de retard que pateixen els vols.

∼x mostra de X ∼ N(µ1, σ21)

∼y mostra de Y ∼ N(µ2, σ

22)

Volem trobar IC per µ1 − µ2:

a) σ21, σ2

2 conegudes

x ∼ N(µ,

σ21n1

)y ∼ N

(µ,

σ22n2

) =⇒ x− y ∼ N

(µ1 − µ2,

σ21

n1+σ2

2

n2

)

=⇒ x− y − µ1 + µ2√σ2

1n1

+σ2

2n2

∼ N(0, 1) (pivotal)

Page 42: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

42 CAPITOL 4. ESTIMACIO PER INTERVALS DE CONFIANCA I TESTS D’HIPOTESI

P

−z1−α2≤ x− y − µ1 + µ2√

σ21n1

+σ2

2n2

≤ z1−α2

= 1− α

Aıllant: IC1−α(µ1, µ2) = x− y ± z1−α2

√σ2

1

n1+σ2

2

n2

b) σ21 = σ2

2 =: σ2 desconeguda.

Sabem que x−y−µ1+µ2√σ2

1n1

+σ2

2n2

∼ N(0, 1)

(n1 − 1)S2

1σ2 ∼ χ2

n1−1

(n2 − 1)S2

2σ2 ∼ χ2

n2−1

=⇒ (n1 − 1)S21 + (n2 − 1)S2

2

σ2∼ χ2

n1+n2−2

Aleshores es te:

x−y−µ1+µ2√σ2

1n1

+σ2

2n2√

(n1−1)S21+(n2−1)S2

2σ2(n1+n2−2)

∼ tn1+n2−2

Per tant, l’IC1−α per µ1 i µ2:

x− y ± t1−α2,n1+n2−2

√(n1 − 1)S2

1 + (n2 − 1)S22

n1 + n2 − 2

√1

n1+

1

n2

Definicio: Definim la pooled estimation de σ2 com:

S2p =

(n1 − 1)S21 + (n2 − 1)S2

2

n1 + n2 − 2

per tant, x− y ± t1−α2,n1+n2−2Sp

√1

n1+

1

n2

Page 43: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

4.2. TESTS D’HIPOTESI 43

4.2 Tests d’Hipotesi

4.2.1 Tipus de conjectures

Un test d’hipotesi es una conjectura que s’ha de decidir si es rebutja o no en base a les dadesobservades. Els tipus de conjectures son:

1. Conjectures sobre els parametres

X ∼ f(x; θ), θ ∈ Θ, Θ = Θ0 ∪Θ1, Θ0 ∩Θ1 = ∅. Si ∼x mostra de X, en base a ∼x volem decidirsi rebutgem o no la Hipotesi nula (H0) en front a la Hipotesi alternativa (H1).

H0 : θ ∈ Θ0

H1 : θ ∈ Θ1 = Θc0

2. Conjectures sobre la distribucio

Si f0 es una distribucio de probabilitat concreta:

H0 : f = f0

H1 : f 6= f0

3. Conjectures sobre dues mostres

∼x mostra de X ∼ fx(x; θ), θ ∈ Θ

∼y mostra de X ∼ fx(x; ξ), ξ ∈ Ξ

H0 : fx = fyH1 : fx 6= fy

Exemple: Tenim una maquina que divideix la massa del pa en blocs de 125g. Aixo vol dir quesi la maquina funciona be i agafem una mostra x1, · · · , xn llavors ∼x ∈ X ∼ N(125, σ2). Per tal desaber si la maquina funciona be, hem de fer el seguent test d’hipotesi:

H0 : µ = 125H1 : µ 6= 125

Observacio: Quan es defineix un test d’hipotesi, a H0 es poda l’actitud mes conservadora en elsentit que no provoca canvis.

4.2.2 Tipus d’errors

a) Error de tipus I: Rebutja H0 quan es certa.

b) Error de tipus II: No rebuta H0 quan es falsa.

Quan la probabilitat de l’error de tipus I creix, la probabilita de l’error de tipus II decreix, iviceversa. Si l’error de tipus I te pitjors consequencies, es porta a terme el test de forma que:

P (Error de tipus I) = P (Rebutjar H0|H0 certa) ≤ α

Page 44: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

44 CAPITOL 4. ESTIMACIO PER INTERVALS DE CONFIANCA I TESTS D’HIPOTESI

Definicio: α s’anomena nivell de significacio del test i normalment pren els valors α = 0.05o α = 0.01.

4.2.3 Regio crıtica d’un test

Un cop especificat el test d’hipotesi, s’ha de definir la regio crıtica.

Definicio: C es una regio crıtica per a un determinat test a nivell α sı, i nomes sı, C ⊆ S on Ses l’espai mostral i

Pθ(∼x ∈ C) ≤ α ∀θ subespai de θ de H0

Es decideix que si ∼x ∈ C, llavors es rebutja H0.

De totes les possibles regions crıtiques que compleixen que Pθ(∼x ∈ C) ≤ α ∀θ ∈ Θ0 s’agafara aquellaque te un error de tipus II mes petit.

Definicio: Suposem que estem en una conjectura de tipus 1):

H0 : θ ∈ Θ0

H1 : θ ∈ Θ1 = Θc0

Suposem que C es una regio de rebuig de nivell α. Es defineix la funcio potencia com:

∀θ ∈ Θπ(θ) = Pθ(Rebutjar H0|θ) = Pθ(∼x ∈ C|θ)

Observacio: Ideal:

π(θ) =

{0, si θ ∈ Θ0

1, si θ ∈ Θ1

Observacio: Com que la situacio ideal no es pot considerar, s’agafa C de forma que:

supθ∈Θ0

π(θ) ≤ α

I de totes les possibles C amb grandaria ≤ α s’agafa la que te π(θ) el maxim gran ∀θ ∈ Θ1

Definicio: Si existeix uniformament, es diu que C defineix un test a nivell α Uniformament deMaxima Potencia (UPM).

Page 45: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

4.2. TESTS D’HIPOTESI 45

4.2.4 Decisio entre dues hipotesis

Siguin H0 i H1 les hipotesis a contrastar.

1. Es recullen les dades.

2. Es calcula l’estadistic de prova (Es coneix la distribucio si H0 certa i aquesta distribucios’anomena distribucio de referencia.)

3. A partir de la distribucio de referencia es calculen els anomenats punts crıtics, que defineixenla regio de rebuig.

4. Si el nostre estadıstic cau a la regio de rebuig el rebutgem.

4.2.5 Comparacio del valor esperat amb un valor concret (N)

Sigui X ∼ N(µ, σ2), σ2 coneguda i ∼x mostra de X.

I

{H0 : µ = µ0

H1 : µ > µ0

II

{H0 : µ = µ0

H1 : µ < µ0

UNILATERALS

III

{H0 : µ = µ0

H1 : µ 6= µ0

}BILATERAL

III:

Si H0 es certa, llavors x−µ0σ√n∼ N(0, 1). Aixı doncs tenim que x−µ0

σ√n

es l’estadıstic de prova i N(0, 1)

es la distribucio de referencia.

Regla de decisio (III): Rebutgem H0 quan x−µ0σ√n∈ (−z1−α

2, z1−α

2)

Zona de rebuig: (−∞,−z1−α2) ∪ (z1−α

2,+∞)

Figura 4.1: Punts crıtics i regio de rebuig del test d’hipotesi III

Page 46: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

46 CAPITOL 4. ESTIMACIO PER INTERVALS DE CONFIANCA I TESTS D’HIPOTESI

Observacio: Aquesta zona de rebuig defineix un test a nivell α

P (rebuig |H0 certa) = α ≤ α

P (no rebuig |H0 falsa) = Zona vermella de la figura 2

Si H0 es falsa =⇒ x−µ0σ√n∼ N(

∼µ,∼σ2)

Figura 4.2: Probabilitat de no rebuig si H0 es falsa

Observacio: L’error de tipus II i la potencia depenen de la distribucio que hi hagi a H1.

I:L’estadıstic de prova es x−µ0

σ√n∼ N(0, 1) i, per tant, la distribucio de referencia es N(0, 1)

Regla de decisio (I): Rebutgem H0 quan x−µ0σ√n≥ z1−α

Regio de rebuig: (z1−α,+∞)

Figura 4.3: Punt crıtic i regio de rebuig del test d’hipotesi I

Observacio: P (rebutjar H0|H0 certa) = α. Si afagem com a punt crıtic zp, p > 1 − α i prenemcom a regio de rebuig (zp,+∞):

P (rebutjar H0|H0 certa) = 1− p < α (Tambe ofereix un test a nivell α

Per tal de minimitzar l’error de tipus II es pren z1−α com a punt crıtic.

Page 47: ESTAD ISTICA - ApuntsFME · ESTAD ISTICA David Anglada Rotger Gerard Contreras Molina Marcel Juan Merono~ Quatrimestre Primavera 2019 Grau en Matem atiques Balidajr 14

4.2. TESTS D’HIPOTESI 47