80
Arthur CHARPENTIER - Rappels de probabilitΒ΄ es & statistiques ProbabilitΒ΄ es & statistiques quelques brefs rappels # 2 Arthur Charpentier, 2014 http ://freakonometrics.hypotheses.org/category/courses/m1-statistique 1

Rappels stats-2014-part2

Embed Size (px)

DESCRIPTION

Β 

Citation preview

Page 1: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Probabilites & statistiques

quelques brefs rappels # 2

Arthur Charpentier, 2014

http ://freakonometrics.hypotheses.org/category/courses/m1-statistique

1

Page 2: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Plan du cours

β—¦ Introduction, la modelation statistique

β€’ Rappels de probabilite

β—¦ Fonctions usuelles, P, F , f , E, Var

β—¦ Lois uselles, discetes et continues

β—¦ Conditionnement, esperance conditionnelle et melanges

β—¦ Convergence, approximations et theoremes limites

Β· Loi(s) des grands nombres

Β· Theoreme central limite

β€’ Rappels de statistique (mathematique)

β—¦ De la statistique descriptive a la statistique mathematique

β—¦ Echantillonnage, moyenne et variance

β—¦ Intervalle de confiance

β—¦ Introduction aux tests

2

Page 3: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

L’estimateur comme variable aleatoire

En statistique descriptive, on construit des estimateurs comme des fonctions des

valeurs de l’echantillon, {x1, Β· Β· Β· , xn}, e.g.

xn =x1 + Β· Β· Β·+ xn

n

En statistique mathematique, on suppose que xi = Xi(Ο‰), i.e. la realisation d’un

variable aleatoire sous-jacente

Xn =X1 + Β· Β· Β·+Xn

n

X1,..., Xn etant des variables aleatoires, Xn devient une variable aleatoire.

Exemple : supposons que nous disposons d’un echantillon de n = 20 valeurs

tirees suivant une loi uniforme sur [0, 1].

3

Page 4: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Distribution de la moyenne d'un Γ©chantillon U([0,1])

FrΓ©

quen

ce

0.0 0.2 0.4 0.6 0.8 1.0

050

100

150

200

250

300

0.457675

●

0.0 0.2 0.4 0.6 0.8 1.0

Figure 1 – Distribution de la moyenne de {X1, Β· Β· Β· , X10}, Xi ∼ U([0, 1]).

4

Page 5: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Distribution de la moyenne d'un Γ©chantillon U([0,1])

FrΓ©

quen

ce

0.0 0.2 0.4 0.6 0.8 1.0

050

100

150

200

250

300

0.567145

●● ●● ●●● ●●●● ● ●● ●●● ●●● ●●● ●● ●● ● ●● ●● ●●● ●● ● ●●● ●● ● ●● ● ●● ●●●● ● ●● ●●●● ●● ● ● ●●●●●● ●● ● ●● ●●● ● ●● ●● ● ●● ●● ● ●● ●● ●●● ●● ●●● ●● ●●●● ●●●● ●● ●●● ● ●●●● ● ● ●●● ●● ● ●● ●●●●● ●● ● ●● ●● ●●●●●● ● ●● ●●● ● ●● ● ●● ●●●●● ● ●●●●● ●●● ● ● ●●● ●●●●● ●●● ●● ● ●●● ●● ●●● ● ●●● ●● ●● ●● ●●● ●● ●● ●●●●● ●●●●● ●●● ●●●● ●● ● ● ●●●● ●●● ●●●● ●● ●●●● ● ●● ●●●●● ●●●● ●● ●●● ●● ●● ●● ● ● ● ●●● ● ●●● ● ●●● ● ●● ●●● ● ●●●● ●● ●● ●●● ●● ● ●● ●●● ● ● ●●● ●●● ●●● ●●● ●●● ●● ●●● ●● ●● ● ●● ●● ● ●●● ●●● ●● ● ●●● ● ●● ●●● ●● ●● ●●● ●● ●●●●●●● ●● ● ●●● ●●●●● ● ● ●●● ●● ●● ●●●● ●● ●●● ●● ●● ●● ●●●● ●●●●●●●● ●●●● ●●● ●● ●●● ●●● ●● ●●●● ●● ●● ● ●● ●● ●●● ●●● ●●●●● ●● ●● ●● ●● ● ●● ● ●●● ●●● ●● ●● ●● ●●● ● ●● ●● ●●● ●●●● ●●● ●● ●●●● ●● ●● ●● ●●● ● ●● ●● ●●●● ●●●●● ● ●●● ●●●●● ●●●● ●●●● ●● ●● ● ● ●● ●● ●● ●● ●● ● ●●● ● ●● ●● ● ●● ●● ● ● ●●●●●●●●● ●●●● ●●● ● ●●● ●● ●● ●● ●● ●● ●●● ● ●●● ●● ● ●●●● ● ●● ● ●●● ●● ●● ●● ●●●●● ●● ●● ●● ● ●● ● ● ●●● ●● ● ●● ●●● ●●●● ●● ●● ●● ● ●●●● ●● ●● ●● ●●● ●●● ● ●● ●● ● ●● ● ●● ●●● ●●●● ●●● ●● ● ●●●●● ●●● ●●● ●● ● ●●● ●● ●●● ● ●●●● ●● ●● ●●●● ●● ● ●●● ●● ●●● ●● ●● ●●●● ●●● ● ●●●● ●● ●●●● ● ●●● ● ●●● ●● ●● ● ●● ● ●●● ●● ●●● ●●● ●●● ● ●●●●● ● ●● ● ●●● ●●● ●● ●●●● ● ● ●● ●● ●●● ●● ●●● ●●●● ●●● ●● ●● ●●● ●●●● ●●● ●● ●●●● ●● ● ●●●●● ●● ● ●● ●●● ● ●●● ●●● ●●●● ●●● ●●●●● ●●● ●● ● ●●● ●●● ● ●●● ● ●●●● ●● ●●● ● ●● ●● ● ●● ● ●● ●●● ●●● ● ●● ●● ●●● ● ●●● ●● ●● ● ●●● ●● ● ● ●●●● ● ● ●● ● ●●

0.0 0.2 0.4 0.6 0.8 1.0

Figure 2 – Distribution de la moyenne de {X1, Β· Β· Β· , X10}, Xi ∼ U([0, 1]).

5

Page 6: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

L’estimateur comme variable aleatoire

Si l’echantillon change, l’estimateur n’est pas le meme.

Constituons 1000 echantillons de maniere aleatoire. En moyenne, l’estimateur

vaut 1/2. Aussi, la moyenne empirique est un estimateur sans biais de 1/2,

l’esperance mathematique de la loi uniforme sur [0, 1].

Cet estimateur a une variance, et aussi une loi (en l’occurence une densite). Ici,

la moyenne empirique suit (presque) une loi normale.

On distingera toutefois les comportements a distance finie (n fixe) et

asymptotique (theoremes limites - loi des grands nombres et theoreme central

limite - obtenus lorsque nβ†’βˆž).

6

Page 7: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Petites proprietes preliminaires

Soit x = (x1, · · · , xn) ∈ Rn. Posons x =x1 + · · ·+ xn

n. Alors,

minm∈R

{nβˆ‘i=1

[xi βˆ’m]2

}=

nβˆ‘i=1

[xi βˆ’ x]2

etnβˆ‘i=1

[xi βˆ’ x]2 =nβˆ‘i=1

x2i βˆ’ nx2

7

Page 8: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

La moyenne (empirique)

Definition 1. Soit {X1, Β· Β· Β· , Xn} des variables i.i.d. de loi F . La moyenne

empirique est

Xn =X1 + Β· Β· Β·+Xn

n=

1

n

nβˆ‘i=1

Xi

Si on suppose les Xi d’esperance finie (notee Β΅), alors

E(Xn) = E

(1

n

nβˆ‘i=1

Xi

)βˆ—=

1

n

nβˆ‘i=1

E (Xi) =1

nnΒ΅ = Β΅

βˆ— par linearite de l’esperance

Proposition 2. Si on suppose les Xi d’esperance finie (notee Β΅),

E(Xn) = Β΅.

La moyenne est un estimateur sans biais de l’esperance mathematique.

8

Page 9: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

La moyenne (empirique)

Si on suppose les Xi independants de variance finie (notee Οƒ2), alors

Var(Xn) = Var

(1

n

nβˆ‘i=1

Xi

)βˆ—=

1

n2

nβˆ‘i=1

Var (Xi) =1

n2nσ2 =

Οƒ2

n

βˆ— car les variables sont independantes, et car la variance est quadratique.

Proposition 3. Si on suppose les Xi i.i.d. de variance finie (notee Οƒ2),

Var(Xn) =Οƒ2

n.

9

Page 10: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

La variance (empirique)

Definition 4. Soit {X1, Β· Β· Β· , Xn} des variables i.i.d. de loi F . La variance

empirique est

S2n =

1

nβˆ’ 1

nβˆ‘i=1

[Xi βˆ’Xn]2.

Si on suppose les Xi de variance finie (notee Οƒ2),

E(S2n) = E

(1

nβˆ’ 1

nβˆ‘i=1

[Xi βˆ’Xn]2

)βˆ—= E

(1

nβˆ’ 1

[nβˆ‘i=1

X2i βˆ’ nX

2

n

])

βˆ— par la propriete preliminaire enoncee auparavant

E(S2n) =

1

nβˆ’ 1[nE(X2

i )βˆ’ nE(X2)]βˆ—=

1

nβˆ’ 1

[n(Οƒ2 + Β΅2)βˆ’ n

(Οƒ2

n+ Β΅2

)]= Οƒ2

βˆ— car Var(X) = E(X2)βˆ’ E(X)2

10

Page 11: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

La variance (empirique)

Proposition 5. Si on suppose les Xi independants de variance finie (notee Οƒ2),

E(S2n) = Οƒ2.

La variance (empirique) est un estimateur sans biais de la variance.

Remarque Pour avoir un estimateur sans biais, on considere comme estimateur

S2n, avec un facteur nβˆ’ 1, et non pas

S2n =

1

n

nβˆ‘i=1

[Xi βˆ’Xn]2

(qui reste un estimateur classique).

11

Page 12: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Cas d’un echantillon Gaussien

Proposition 6. Si on suppose les Xi i.i.d. de loi N (Β΅, Οƒ2), alors

β€’ Xn et S2n sont des variables aleatoires independantes,

β€’ Xn a pour loi N(Β΅,Οƒ2

n

)β€’ (nβˆ’ 1)S2

n/Οƒ2 a pour loi Ο‡2(nβˆ’ 1).

Remarque Pour comprendre l’histoire du nβˆ’ 1 degres de libertes pour une

somme de n termes, notons que

S2n =

1

nβˆ’ 1

[nβˆ‘i=1

(Xi βˆ’Xn)2

]=

1

nβˆ’ 1

[(X1 βˆ’Xn)2 +

nβˆ‘i=2

(Xi βˆ’Xn)2

]

soit S2n =

1

nβˆ’ 1

( nβˆ‘i=2

(Xi βˆ’Xn)

)2

+nβˆ‘i=2

(Xi βˆ’Xn)2

car

nβˆ‘i=1

(Xi βˆ’Xn) = 0. Aussi S2n est fonction de nβˆ’ 1 variables (centrees),

X2 βˆ’Xn, Β· Β· Β· , Xn βˆ’Xn

12

Page 13: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Cas d’un echantillon Gaussien

Proposition 7. Si on suppose les Xi i.i.d. de loi N (Β΅, Οƒ2), alors

β€’βˆšnXn βˆ’ Β΅

Οƒsuit une loi N (0, 1)

β€’βˆšnXn βˆ’ Β΅Sn

suit une loi de Student a nβˆ’ 1 degres de liberte

En effet,

√nXn βˆ’ Β΅S

=√nXn βˆ’ Β΅

ΟƒοΈΈ οΈ·οΈ· οΈΈN (0,1)

/

√(nβˆ’ 1)S2

n

Οƒ2οΈΈ οΈ·οΈ· οΈΈΟ‡2(nβˆ’1)

Γ—βˆšnβˆ’ 1

13

Page 14: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Proprietes asymptotiques

Proposition 8. Si on suppose les Xi i.i.d. de loi F , de moyenne Β΅ et de

variance Οƒ2 (finie). Alors pour tout Ξ΅ > 0,

limnβ†’βˆž

P(|Xn βˆ’ Β΅| > Ξ΅) = 0

i.e. XnP→ ¡ (convergence en probabilite).

Proposition 9. Si on suppose les Xi i.i.d. de loi F , de moyenne Β΅ et de

variance Οƒ2 (finie). Alors pour tout Ξ΅ > 0,

limnβ†’βˆž

P(|S2n βˆ’ Οƒ2| > Ξ΅) ≀ Var(S2

n)

Ξ΅2

i.e. une condition suffisante pour que S2n

P→ σ2 (convergence en probabilite) est

que Var(S2n)β†’ 0 lorsque nβ†’βˆž.

14

Page 15: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Proprietes asymptotiques

Proposition 10. Si on suppose les Xi i.i.d. de loi F , de moyenne Β΅ et de

variance Οƒ2 (finie). Alors pour tout z ∈ R,

limnβ†’βˆž

P(√

nXn βˆ’ Β΅

σ≀ z)

=

∫ z

βˆ’βˆž

1√2Ο€

exp

(βˆ’ t

2

2

)dt

i.e.√nXn βˆ’ Β΅

Οƒ

L→ N (0, 1).

Remarque Si les Xi ont pour loi N (Β΅, Οƒ2), alors

√nXn βˆ’ Β΅

ΟƒβˆΌ N (0, 1).

15

Page 16: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Estimation de la variance

Considerons un echantillon Gaussien, alors

Var

((nβˆ’ 1)S2

n

Οƒ2

)= Var(Z) avec Z ∼ Ο‡2

nβˆ’1

donc cette quantite vaut

(nβˆ’ 1)2

Οƒ4Var(S2

n) = 2(nβˆ’ 1)

de telle sorte que

Var(S2n) =

2(nβˆ’ 1)Οƒ4

(nβˆ’ 1)2=

2Οƒ4

(nβˆ’ 1).

16

Page 17: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Estimation de l’ecart-type et de la variance

Considerons le cas ou Xi ∼ N (Β΅, Οƒ2). Un estimateur naturel de Οƒ est

Sn =√S2n =

√√√√ 1

nβˆ’ 1

nβˆ‘i=1

(Xi βˆ’Xn)2

On peut alors montrer que

E(Sn) =

√2

nβˆ’ 1

Ξ“(n/2)

Ξ“([nβˆ’ 1]/2)Οƒ ∼

(1βˆ’ 1

4nβˆ’ 7

32n2

)Οƒ 6= Οƒ

mais

SnP→ σ et

√n(Sn βˆ’ Οƒ)

L→ N(

0,Οƒ

2

)

17

Page 18: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Estimation de l’ecart-type et de la variance

0 50 100 150

0.93

0.95

0.97

0.99

Taille de l'Γ©chantillon (n)

Bia

is (

mul

tiplic

atif)

Figure 3 – Biais lors de l’estimation de l’ecart-type.

18

Page 19: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Echantillon transforme

Soit g : R→ R suffisemment reguliere pour ecrire un developpement de Taylor en

tout point,

g(x) = g(x0) + gβ€²(x0) Β· [xβˆ’ x0] + un reste

Soit Yi = g(Xi). Alors, si E(Xi) = Β΅ avec gβ€²(Β΅) 6= 0

Yi = g(Xi) β‰ˆ g(Β΅) + gβ€²(Β΅) Β· [Xi βˆ’ Β΅]

de telle sorte que

E(Yi) = E(g(Xi)) β‰ˆ g(Β΅)

et

Var(Yi) = Var(g(Xi)) β‰ˆ [gβ€²(Β΅)]2Var(Xi)

Remarque Il ne s’agit que d’approximations.

19

Page 20: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Echantillon transforme

La delta-method permet d’obtenir des proprietes asymptotiques.

Proposition 11. Si on suppose les Xi i.i.d. de loi F , de moyenne Β΅ et de

variance Οƒ2 (finie), alors

√n(Xn βˆ’ Β΅)

L→ N (0, σ2)

Et si gβ€²(Β΅) 6= 0, alors

√n(g(Xn)βˆ’ g(Β΅))

L→ N (0, [g′(¡)]2σ2)

Proposition 12. Si on suppose les Xi i.i.d. de loi F , de moyenne Β΅ et de

variance Οƒ2 (finie), et si gβ€²(Β΅) = 0 mais gβ€²β€²(Β΅) 6= 0, alors

√n(g(Xn)βˆ’ g(Β΅))

L→ g′′(¡)

2Οƒ2Ο‡2(1)

20

Page 21: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Echantillon transforme

Example Si ¡ 6= 0,√n

(1

Xn

βˆ’ 1

Β΅

)L→ N

(0,

1

Β΅4Οƒ2

)

21

Page 22: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Intervalle de confiance pour Β΅

Quand on parlera de l’intervalle de confiance de Β΅ a un niveau de confiance 1βˆ’ Ξ±(e.g. 95%), il s’agira du plus petit intervallle I tel que

P(Β΅ ∈ I) = 1βˆ’ Ξ±.

Notons uΞ± le quantile de la loi N (0, 1) au niveau Ξ±, i.e.

uΞ±/2 = βˆ’u1βˆ’Ξ±/2 verifie Ξ¦(uΞ±/2) = Ξ±/2

Comme Z =√nXn βˆ’ Β΅

ΟƒβˆΌ N (0, 1),

on peut en deduire que P(Z ∈ [uΞ±/2, u1βˆ’Ξ±/2]) = 1βˆ’ Ξ±,

et donc

P(¡ ∈

[X +

uΞ±/2√nΟƒ,X +

u1βˆ’Ξ±/2√n

Οƒ

])= 1βˆ’ Ξ±.

22

Page 23: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Intervalle de confiance, moyenne d’un echantillon normal

β€’ si Ξ± = 10%, u1βˆ’Ξ±/2 = 1.64 et donc, avec une probabilite de 90%,

X βˆ’ 1.64√nΟƒ ≀ Β΅ ≀ X +

1.64√nΟƒ,

β€’ si Ξ± = 5%, u1βˆ’Ξ±/2 = 1.96 et donc, avec une probabilite de 95%,

X βˆ’ 1.96√nΟƒ ≀ Β΅ ≀ X +

1.96√nΟƒ,

23

Page 24: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Intervalle de confiance, moyenne d’un echantillon normal

Si la variance est inconnue, on l’estime par S2n =

1

nβˆ’ 1

(nβˆ‘i=1

X2i

)βˆ’X2

n.

On a vu que

(nβˆ’ 1)S2n

Οƒ2=

nβˆ‘i=1

Xi βˆ’ E(X)

ΟƒοΈΈ οΈ·οΈ· οΈΈN (0,1)

2

οΈΈ οΈ·οΈ· οΈΈloi du Ο‡2(n)

βˆ’

Xn βˆ’ E(X)

Οƒ/√nοΈΈ οΈ·οΈ· οΈΈ

N (0,1)

2

οΈΈ οΈ·οΈ· οΈΈloi du Ο‡2(1)

Le theoreme de Cochrane permet de conclure que(nβˆ’ 1)S2

n

Οƒ2∼ Ο‡2(nβˆ’ 1).

24

Page 25: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Intervalle de confiance, moyenne d’un echantillon normal

Comme Xn et S2n sont independantes,

T =√nβˆ’ 1

Xn βˆ’ Β΅Sn

=

Xnβˆ’Β΅Οƒ/√nβˆ’1√

(nβˆ’1)S2n

(nβˆ’1)Οƒ2

∼ St(nβˆ’ 1).

Si t(nβˆ’1)Ξ±/2 designe le quantile de la loi St(nβˆ’ 1) au niveau Ξ±/2, i.e.

t(n)Ξ±/2 = βˆ’t(nβˆ’1)1βˆ’Ξ±/2 verifie P(T ≀ t(nβˆ’1)Ξ±/2 ) = Ξ±/2

on peut en deduire que P(T ∈ [t(nβˆ’1)Ξ±/2 , t

(nβˆ’1)1βˆ’Ξ±/2]) = 1βˆ’ Ξ±, et donc

P

¡ ∈X +

t(nβˆ’1)Ξ±/2√nβˆ’ 1

Οƒ,X +t(nβˆ’1)1βˆ’Ξ±/2√nβˆ’ 1

Οƒ

= 1βˆ’ Ξ±.

25

Page 26: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Intervalle de confiance, moyenne d’un echantillon normal

β€’ si n = 10 et Ξ± = 10%, u1βˆ’Ξ±/2 = 1.833 et donc, avec une probabilite de 90%,

X βˆ’ 1.833√nΟƒ ≀ Β΅ ≀ X +

1.833√nΟƒ,

β€’ si n = 10 et si Ξ± = 5%, u1βˆ’Ξ±/2 = 2.262 et donc, avec une probabilite de 95%,

X βˆ’ 2.262√nΟƒ ≀ Β΅ ≀ X +

2.262√nΟƒ,

βˆ’3 βˆ’2 βˆ’1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

Quantiles

Inte

rvall

e de

conf

iance IC 90%

IC 95%

Figure 4 – Quantiles pour n = 10, Οƒ connue ou inconnue.

26

Page 27: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Intervalle de confiance, moyenne d’un echantillon normal

β€’ si n = 20 et Ξ± = 10%, u1βˆ’Ξ±/2 = 1.729 et donc, avec une probabilite de 90%,

X βˆ’ 1.729√nΟƒ ≀ Β΅ ≀ X +

1.729√nΟƒ,

β€’ si n = 20 et si Ξ± = 5%, u1βˆ’Ξ±/2 = 2.093 et donc, avec une probabilite de 95%,

X βˆ’ 2.093√nΟƒ ≀ Β΅ ≀ X +

2.093√nΟƒ,

βˆ’3 βˆ’2 βˆ’1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

Quantiles

Inte

rvall

e de

conf

iance IC 90%

IC 95%

Figure 5 – Quantiles pour n = 20, Οƒ connue ou inconnue.

27

Page 28: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Intervalle de confiance, moyenne d’un echantillon normal

β€’ si n = 100 et Ξ± = 10%, u1βˆ’Ξ±/2 = 1.660 et donc, avec une probabilite de 90%,

X βˆ’ 1.660√nΟƒ ≀ Β΅ ≀ X +

1.660√nΟƒ,

β€’ si n = 100 et si Ξ± = 5%, u1βˆ’Ξ±/2 = 1.984 et donc, avec une probabilite de 95%,

X βˆ’ 1.984√nΟƒ ≀ Β΅ ≀ X +

1.984√nΟƒ,

βˆ’3 βˆ’2 βˆ’1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

Quantiles

Inte

rvall

e de

conf

iance IC 90%

IC 95%

Figure 6 – Quantiles pour n = 100, Οƒ connue ou inconnue.

28

Page 29: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

La lecture des tables

Fonction de repartition de la loi normale X ∼ N (0, 1),

P(X ≀ u) = Ξ¦(u) =

∫ u

βˆ’βˆž

1√2Ο€eβˆ’y

2/2dy

Example P(X ≀ 1, 96) = 0, 975.

29

Page 30: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Interpretation d’un intervalle de confiance

Si on genere des echantillons i.i.d. suivant une loi N (Β΅, Οƒ2), avec Β΅ et Οƒ2 fixes, il y

a 90 chances sur 100 que Β΅ soit dans un des intervalles suivants[X +

uΞ±/2√nΟƒ,X +

u1βˆ’Ξ±/2√n

Οƒ

]

●

●

●

●

●●●

●

●

●

●

●

●●●

●●●●

●●

●

●●●

●●

●

●

●

●

●

●

●

●

●

●

●

●●●

●

●

●●●●

●

●●

●●

●●

●

●●

●

●

●

●●

●●●

●

●

●

●●

●

●●

●

●

●

●

●

●

●●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●●

●

●

●●

●

●

●●

●●

●

●

●

●●●

●

●

●●●

●

●●

●

●

●

●

●

●

●●

●

●

●●

●●

●●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●●

●

●

●●

●

●

●

●●

●

●

●●●●

●

●

●

●●

●●

●

0 50 100 150 200

βˆ’1.0

βˆ’0.5

0.00.5

1.0

interv

alle de

confi

ance

Figure 7 – Intervalle de confiance pour Β΅, avec Οƒ2 connue.

30

Page 31: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Interpretation d’un intervalle de confiance

ou X +t(nβˆ’1)Ξ±/2√nβˆ’ 1

Οƒ,X +t(nβˆ’1)1βˆ’Ξ±/2√nβˆ’ 1

Οƒ

●

●

●

●

●●●

●

●

●

●

●

●●●

●●●●

●●

●

●●●

●●

●

●

●

●

●

●

●

●

●

●

●

●●●

●

●

●●●●

●

●●

●●

●●

●

●●

●

●

●

●●

●●●

●

●

●

●●

●

●●

●

●

●

●

●

●

●●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●●

●

●

●●

●

●

●●

●●

●

●

●

●●●

●

●

●●●

●

●●

●

●

●

●

●

●

●●

●

●

●●

●●

●●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●●

●

●

●

●

●

●

●

●

●

●

●

●

●

●

●●

●

●

●●

●

●

●

●●

●

●

●●●●

●

●

●

●●

●●

●

0 50 100 150 200

βˆ’1.0

βˆ’0.5

0.00.5

1.0

interv

alle de

confi

ance

Figure 8 – Intervalle de confiance pour Β΅, avec Οƒ2 estimee.

31

Page 32: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Un peu de tests

Le lien entre la decision est la vraie valeur peut etre represente par le tableau

ci-dessous

H0 vraie H1 vraie

Decision d0 Bonne decision erreur de seconde espece

Decision d1 erreur de premiere espece Bonne decision

32

Page 33: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Resumons les principaux tests usuels

Considerons un test d’egalite de moyenne sur un echantillon H0 : Β΅ = Β΅0

H0 : Β΅6=Β΅0

La statistique de test est

T =√nxβˆ’ Β΅0

sou s2 =

1

nβˆ’ 1

nβˆ‘i=1

(xi βˆ’ x)2,

qui verifie, sous H0, T ∼ St(nβˆ’ 1).

βˆ’6 βˆ’4 βˆ’2 0 2 4 6

0.00.1

0.20.3

0.4

33

Page 34: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Comparaison de moyennes de deux echantillons

Considerons un test d’egalite de moyenne sur deux echantillons.

On dispose de deux echantillons, {x1, Β· Β· Β· , xn} et {y1, Β· Β· Β· , ym}. On souhaite tester H0 : Β΅X = Β΅Y

H0 : Β΅X 6=Β΅Y

On rajoute une hypothese, X ∼ N (Β΅X , Οƒ2X) et Y ∼ N (Β΅Y , Οƒ

2Y ), i.e.

X ∼ N(¡X ,

Οƒ2X

n

)et Y ∼ N

(Β΅Y ,

Οƒ2Y

m

)

34

Page 35: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Comparaison de moyennes de deux echantillons

βˆ’1 0 1 2

0.0

0.5

1.0

1.5

2.0

●●● ● ● ●● ●●● ●●● ●●

35

Page 36: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Comparaison de moyennes de deux echantillons

Par independance entre X et Y , notons que βˆ† = X βˆ’ Y suit une loi normale,

E(βˆ†) = Β΅X βˆ’ Β΅Y et V ar(βˆ†) =Οƒ2X

n+Οƒ2Y

m

Donc sous H0, Β΅X βˆ’ Β΅Y = 0 et donc

D ∼ N(

0,Οƒ2X

n+Οƒ2Y

m

),

i.e. βˆ† =X βˆ’ YβˆšΟƒ2X

n+Οƒ2Y

m

∼ N (0, 1).

36

Page 37: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Comparaison de moyennes de deux echantillons

Probleme ΟƒX et ΟƒY sont inconnus : on les remplace par des estimateurs ΟƒX et

ΟƒY ,

i.e. βˆ† =X βˆ’ YβˆšΟƒ2X

n+Οƒ2Y

m

∼ St(ν),

ou Ξ½ est une fonction (compliquee) de n1 et n2.

On se donne un seuil d’acceptation Ξ± ∈ [0, 1] (e.g. 10%), on accepte H0 si tΞ±/2 ≀ Ξ΄ ≀ t1βˆ’Ξ±/2on accepte H0 si Ξ΄ < tΞ±/2 ou Ξ΄ > t1βˆ’Ξ±/2

37

Page 38: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

βˆ’2 βˆ’1 0 1 2

0.0

0.1

0.2

0.3

0.4

0.5

●●● ● ● ●● ●●● ●●● ●●

ACCEPTATIONREJET REJET

38

Page 39: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

On peut se demander la probabilite p d’obtenir une valueur au moins aussi

grande que Ξ΄ si H0 est vraie,

p = P(|Z| > |δ||H0 vraie) = P(|Z| > |δ||Z ∼ St(ν)).

βˆ’2 βˆ’1 0 1 2

0.0

0.1

0.2

0.3

0.4

0.5

●●● ● ● ●● ●●● ●●● ●●

34.252 %

39

Page 40: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Sous R, t.test(x, y, alternative = c("two.sided", "less", "greater"), mu = 0,

var.equal = FALSE, conf.level = 0.95) permet de tester si les moyennes de deux

chantillons x et y sont egales (mu=0), contre H1 : Β΅X 6= Β΅Y ("two.sided").

βˆ’2 βˆ’1 0 1 2

0.0

0.5

1.0

1.5

2.0

●● ●● ● ●●● ●● ●● ● ●● ●●

40

Page 41: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

βˆ’2 βˆ’1 0 1 2

0.0

0.1

0.2

0.3

0.4

0.5

●● ●● ● ●●● ●● ●● ● ●● ●●

ACCEPTATIONREJET REJET

41

Page 42: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

βˆ’2 βˆ’1 0 1 2

0.0

0.1

0.2

0.3

0.4

0.5

●● ●● ● ●●● ●● ●● ● ●● ●●

2.19 %

42

Page 43: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Resumons les principaux tests usuels

Considerons un test d’egalite de moyenne sur un echantillon H0 : Β΅ = Β΅0

H0 : Β΅β‰₯Β΅0

La statistique de test est

T =√nxβˆ’ Β΅0

sou s2 =

1

nβˆ’ 1

nβˆ‘i=1

(xi βˆ’ x)2,

qui verifie, sous H0, T ∼ St(nβˆ’ 1).

βˆ’6 βˆ’4 βˆ’2 0 2 4 6

0.00.1

0.20.3

0.4

43

Page 44: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Resumons les principaux tests usuels

Considerons un test d’egalite de moyenne sur un echantillon H0 : Β΅ = Β΅0

H0 : ¡≀¡0

La statistique de test est

T =√nxβˆ’ Β΅0

sou s2 =

1

nβˆ’ 1

nβˆ‘i=1

(xi βˆ’ x)2,

qui verifie, sous H0, T ∼ St(nβˆ’ 1).

βˆ’6 βˆ’4 βˆ’2 0 2 4 6

0.00.1

0.20.3

0.4

44

Page 45: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Resumons les principaux tests usuels

Considerons un test d’egalite de variance sur un echantillon H0 : Οƒ2 = Οƒ20

H0 : Οƒ2 6=Οƒ20

La statistique de test est

T =(nβˆ’ 1)s2

Οƒ20

ou s2 =1

nβˆ’ 1

nβˆ‘i=1

(xi βˆ’ x)2,

qui verifie, sous H0, T ∼ Ο‡2(nβˆ’ 1).

0 10 20 30 40

0.00

0.02

0.04

0.06

0.08

0.10

45

Page 46: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Resumons les principaux tests usuels

Considerons un test d’egalite de variance sur un echantillon H0 : Οƒ2 = Οƒ20

H0 : Οƒ2β‰₯Οƒ20

La statistique de test est

T =(nβˆ’ 1)s2

Οƒ20

ou s2 =1

nβˆ’ 1

nβˆ‘i=1

(xi βˆ’ x)2,

qui verifie, sous H0, T ∼ Ο‡2(nβˆ’ 1).

0 10 20 30 40

0.00

0.02

0.04

0.06

0.08

0.10

46

Page 47: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Resumons les principaux tests usuels

Considerons un test d’egalite de variance sur un echantillon H0 : Οƒ2 = Οƒ20

H0 : Οƒ2≀σ20

La statistique de test est

T =(nβˆ’ 1)s2

Οƒ20

ou s2 =1

nβˆ’ 1

nβˆ‘i=1

(xi βˆ’ x)2,

qui verifie, sous H0, T ∼ Ο‡2(nβˆ’ 1).

0 10 20 30 40

0.00

0.02

0.04

0.06

0.08

0.10

47

Page 48: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Resumons les principaux tests usuels

Considerons un test d’egalite de moyennes sur deux echantillons H0 : Β΅1 = Β΅2

H0 : Β΅1 6=Β΅2

La statistique de test est

T =

√n1n2n1 + n2

[x1 βˆ’ x2]βˆ’ [Β΅1 βˆ’ Β΅2]

sou s2 =

(n1 βˆ’ 1)s21 + (n2 βˆ’ 1)s22n1 + n2 βˆ’ 2

,

qui verifie, sous H0, T ∼ St(n1 + n2 βˆ’ 2).

βˆ’6 βˆ’4 βˆ’2 0 2 4 6

0.00.1

0.20.3

0.4

48

Page 49: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Resumons les principaux tests usuels

Considerons un test d’egalite de moyennes sur deux echantillons H0 : Β΅1 = Β΅2

H0 : Β΅1β‰₯Β΅2

La statistique de test est

T =

√n1n2n1 + n2

[x1 βˆ’ x2]βˆ’ [Β΅1 βˆ’ Β΅2]

sou s2 =

(n1 βˆ’ 1)s21 + (n2 βˆ’ 1)s22n1 + n2 βˆ’ 2

,

qui verifie, sous H0, T ∼ St(n1 + n2 βˆ’ 2).

βˆ’6 βˆ’4 βˆ’2 0 2 4 6

0.00.1

0.20.3

0.4

49

Page 50: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Resumons les principaux tests usuels

Considerons un test d’egalite de moyennes sur deux echantillons H0 : Β΅1 = Β΅2

H0 : Β΅1≀¡2

La statistique de test est

T =

√n1n2n1 + n2

[x1 βˆ’ x2]βˆ’ [Β΅1 βˆ’ Β΅2]

sou s2 =

(n1 βˆ’ 1)s21 + (n2 βˆ’ 1)s22n1 + n2 βˆ’ 2

,

qui verifie, sous H0, T ∼ St(n1 + n2 βˆ’ 2).

βˆ’6 βˆ’4 βˆ’2 0 2 4 6

0.00.1

0.20.3

0.4

50

Page 51: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Resumons les principaux tests usuels

Considerons un test d’egalite de variances sur deux echantillons H0 : Οƒ21 = Οƒ2

2

H0 : Οƒ21 6=Οƒ2

2

La statistique de test est

T =s21s22, si s21 > s22,

qui verifie, sous H0, T ∼ F(n1 βˆ’ 1, n2 βˆ’ 1).

0 10 20 30 40

0.00

0.02

0.04

0.06

0.08

0.10

51

Page 52: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Resumons les principaux tests usuels

Considerons un test d’egalite de variances sur deux echantillons H0 : Οƒ21 = Οƒ2

2

H0 : Οƒ21β‰₯Οƒ2

2

La statistique de test est

T =s21s22, si s21 > s22,

qui verifie, sous H0, T ∼ F(n1 βˆ’ 1, n2 βˆ’ 1).

0 10 20 30 40

0.00

0.02

0.04

0.06

0.08

0.10

52

Page 53: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Resumons les principaux tests usuels

Considerons un test d’egalite de variances sur deux echantillons H0 : Οƒ21 = Οƒ2

2

H0 : Οƒ21≀σ2

2

La statistique de test est

T =s21s22, si s21 > s22,

qui verifie, sous H0, T ∼ F(n1 βˆ’ 1, n2 βˆ’ 1).

0 10 20 30 40

0.00

0.02

0.04

0.06

0.08

0.10

53

Page 54: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Modele parametrique

On dispose d’un echantillon {x1, Β· Β· Β· , xn}, de n observations independantes.

On suppose que les xi sont des realisations d’une variable aleatoire X dont la loi

F est inconnue. Le but est de determiner F .

En statistique parametrique, on suppose que F appartient necessairement a une

famille caracterisee par un parametre θ ∈ Θ.

β€’ X suit une loi de Bernoulli, X ∼ B(p), ΞΈ = p ∈ (0, 1),

β€’ X suit une loi de Poisson, X ∼ P(Ξ»), ΞΈ = Ξ» ∈ R+,

β€’ X suit une loi normale, X ∼ N (Β΅, Οƒ), ΞΈ = (Β΅, Οƒ) ∈ RΓ— R+,

On cherche donc une valeur de ΞΈ, notee ΞΈ0, inconnue, telle que l’on supposera

que X suit une loi FΞΈ0.

Remarque On supposera souvent que Θ est un ouvert, il est delicat d’estimer

sur les bords.

54

Page 55: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Exemple : jeu de pile ou face

On dispose d’un echantillon

{pile,pile, face,pile, face,pile, face, face,pile, face, pile, face}

que l’on interpretera en posant

X =

1 si pile

0 si face.

On dispose de l’echantillon

{1, 1, 0, 1, 0, 1, 0, 0, 1, 0, 1, 0}

On peut supposer ici que X suite une loi binomiale, X ∼ B(p), de parametre p

inconnu (mais que l’on va chercher a estimer).

55

Page 56: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Inference statistique

Quelle est la vraie valeur de p, que l’on ne connaΔ±t pas ?

β€’ Quelle est la valeur de p la plus vraisemblable ?

Sur n lancers, la probabilite d’obtenir precisement l’echantillon {x1, Β· Β· Β· , xn} est

P(X1 = x1, Β· Β· Β· , Xn = xn),

ou X1, Β· Β· Β· , Xn sont n versions independentes de X, supposees suivre la loi B(p).

Aussi,

P(X1 = x1, · · · , Xn = xn) =n∏i=1

P(Xi = xi) =n∏i=1

pxi Γ— (1βˆ’ p)1βˆ’xi ,

car pxi Γ— (1βˆ’ p)1βˆ’xi =

p si xi vaut 1

1βˆ’ p si xi vaut 0

56

Page 57: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Inference statistique

Aussi,

P(X1 = x1, Β· Β· Β· , Xn = xn) = pβˆ‘n

i=1 xi Γ— (1βˆ’ p)βˆ‘n

i=1 1βˆ’xi .

Cette fonction, qui depend de p mais aussi de {x1, Β· Β· Β· , xn} est appelee

vraisemblance de l’echantillon, et sera notee L (likelihood),

L(p;x1, Β· Β· Β· , xn) = pβˆ‘n

i=1 xi Γ— (1βˆ’ p)βˆ‘n

i=1 1βˆ’xi .

Ici, nous avons obtenu 5 valeurs de 1 et 6 fois 0. On en deduit les vraisemblances

suivante en fonction de l’echantillon.

57

Page 58: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Valeur de p L(p;x1, Β· Β· Β· , xn)

0.1 5.314410e-06

0.2 8.388608e-05

0.3 2.858871e-04

0.4 4.777574e-04

0.5 4.882812e-04

0.6 3.185050e-04

0.7 1.225230e-04

0.8 2.097152e-05

0.9 5.904900e-07

0.0 0.2 0.4 0.6 0.8 1.0

0e

+0

01

eβˆ’

04

2e

βˆ’0

43

eβˆ’

04

4e

βˆ’0

45

eβˆ’

04

ProbabilitΓ© p

Vra

ise

mb

lan

ce

L

●

●

●

● ●

●

●

●●

La valeur la plus vraisemblance pour p est obtenue au maximum de la

vraisemblance, i.e. 0.4545.

58

Page 59: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Inference statistique

β€’ Peut-on utiliser la moyenne empirique ?

Rappelons que l’on dispose de l’echantillon

{1, 1, 0, 1, 0, 1, 0, 0, 1, 0, 1, 0}

Rappelons que pour une loi binomiale, E(X) = p. Aussi, il pourrait etre legitime

de considerer comme estimateur de p la version empirique de E(X), i.e. x.

Un estimateur naturel de p serait donc x 5/11 = 0.4545.

59

Page 60: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Le maximum de vraisemblance

Formellement, si fΞΈ designe la vraie loi (inconnue) de X,

β€’ la densite de X si X est continue, i.e. fΞΈ(x) =dF (x)

dx= F β€²(x),

β€’ la loi de probabilite de X si X n’est pas continue, i.e. fΞΈ(x) = P(X = x),

La vraisemblance s’ecrit, comme les Xi sont i.i.d.

L(θ;x1, · · · , xn) = P(X1 = x1, · · · , Xn = xn) =n∏i=1

fΞΈ(xi)

Un estimateur naturel pour ΞΈ est obtenu au maximum de la vraisemblance,

θ ∈ argmax{L(θ;x1, · · · , xn),θ ∈ Θ}.

Petite remarque pratique : pour toute fonction croissante h,

θ ∈ argmax{h (L(θ;x1, · · · , xn)) ,θ ∈ Θ}.

60

Page 61: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Le maximum de vraisemblance

0 1 2 3 4 5

0.4

0.6

0.8

1.0

1.2

1.4

1.6

1.8

Figure 9 – Invariance de la position du maximum par transformation croissante.

61

Page 62: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Le maximum de vraisemblance

Prenons le cas particulier de la fonction h = log

θ ∈ argmax{log (L(θ;x1, · · · , xn)) ,θ ∈ Θ}.

i.e. on cherche le maximum de la log-vraisemblance, qui s’ecrit simplement

logL(ΞΈ;x1, Β· Β· Β· , xn) =nβˆ‘i=1

log fΞΈ(xi)

et pour chercher le maximum, la condition du 1er ordre impose de calculer des

derivees (et la derivee d’une somme est plus simple a calculer que la probabilite

d’un produit), si ΞΈL(ΞΈ;x) est derivable.

62

Page 63: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

0.0 0.2 0.4 0.6 0.8 1.0

0e

+0

01

eβˆ’

04

2e

βˆ’0

43

eβˆ’

04

4e

βˆ’0

45

eβˆ’

04

ProbabilitΓ© p

Vra

ise

mb

lan

ce

L

●

●

●

● ●

●

●

●●

0.0 0.2 0.4 0.6 0.8 1.0

βˆ’3

0βˆ’

25

βˆ’2

0βˆ’

15

βˆ’1

0

ProbabilitΓ© pL

og

vra

ise

mb

lan

ce

L

●

●● ● ● ●

●

●

●

Figure 10 – Fonction de vraisemblance et de log-vraisemblance.

63

Page 64: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Le maximum de vraisemblance

Les quations de vraisemblance sont alors

β€’ condition du premier ordre

si ΞΈ ∈ Rk,βˆ‚ log (L(ΞΈ;x1, Β· Β· Β· , xn))

βˆ‚ΞΈ

∣∣∣∣θ=θ

= 0

si ΞΈ ∈ R,βˆ‚ log (L(ΞΈ;x1, Β· Β· Β· , xn))

βˆ‚ΞΈ

∣∣∣∣θ=θ

= 0

β€’ condition du second ordre

si ΞΈ ∈ Rk,βˆ‚2 log (L(ΞΈ;x1, Β· Β· Β· , xn))

βˆ‚ΞΈβˆ‚ΞΈβ€²

∣∣∣∣θ=θ

est definie negative

si ΞΈ ∈ R,βˆ‚2 log (L(ΞΈ;x1, Β· Β· Β· , xn))

βˆ‚ΞΈ

∣∣∣∣θ=θ

< 0

La fonctionβˆ‚ log (L(ΞΈ;x1, Β· Β· Β· , xn))

βˆ‚ΞΈest appele fonction score : au maximum de

vraisemblance, le score est nul.

64

Page 65: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

La notion d’information de Fisher

Un estimateur ΞΈ de ΞΈ sera dit exhaustif s’il fournit autant d’information sur ΞΈ que

l’ensemble des observations {x1, Β· Β· Β· , xn}.

L’information de Fisher associee a une densite fΞΈ, ΞΈR est

I(ΞΈ) = E(d

dΞΈlog fΞΈ(X)

)2

ou X a pour loi fΞΈ,

I(ΞΈ) = V ar

(d

dΞΈlog fΞΈ(X)

)= βˆ’E

(d2

dΞΈ2log fΞΈ(X)

).

Notons que l’information de Fisher est simplement la variance du score.

Pour parle aussi d’information de Fisher pour un observation unique. Dans le cas

d’un echantillon X1, Β· Β· Β· , Xn de densite fΞΈ, l’information est In(ΞΈ) = n Β· I(ΞΈ).

65

Page 66: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Notions d’efficacite et d’optimalite

Si ΞΈ est une estimateur sans biais de ΞΈ, alors V ar(ΞΈ) β‰₯ 1

nI(ΞΈ). Un estimateur qui

atteint cette borne sera dit efficace.

Mais la borne n’est pas toujours atteignable.

Un estimateur ΞΈ sans biais sera dit optimal s’il est de variance minimale parmi

tous les estimateurs sans biais.

La notion d’information de Fisher en dimension plus grande

L’information de Fisher est la matrice k Γ— k I = [Ii,j ] ou

Ii,j = E(βˆ‚

βˆ‚ΞΈiln fΞΈ(X)

βˆ‚

βˆ‚ΞΈjln fΞΈ(X)

).

66

Page 67: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Exemple de calcul d’information de Fisher

Soit X suivant une loi P(ΞΈ),

log fΞΈ(x) = βˆ’ΞΈ + x log ΞΈ βˆ’ log(x!) etd2

dΞΈ2log fΞΈ(x) = βˆ’ x

ΞΈ2

I(ΞΈ) = βˆ’E(d2

dΞΈ2log fΞΈ(X)

)= βˆ’E

(βˆ’XΞΈ2

)=

1

ΞΈ

Pour une loi B(n, ΞΈ), I(ΞΈ) =n

ΞΈ(1βˆ’ ΞΈ)

Pour une loi BN (ΞΈ, Οƒ2), I(ΞΈ) =1

Οƒ2

Pour une loi BN (Β΅, ΞΈ), I(ΞΈ) =1

2ΞΈ2

67

Page 68: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Le maximum de vraisemblance

Definition 13. Soit {x1, · · · , xn} un echantillon de loi fθ, ou θ ∈ Θ. On appelle

estimateur du maximum de vraisemblance ΞΈn de ΞΈ

θn ∈ argmax{L(θ;x1, · · · , xn),θ ∈ Θ}.

Proposition 14. Sous quelques conditions techniques, ΞΈn converge presque

surement vers ΞΈ, ΞΈnp.s.β†’ ΞΈ.

Proposition 15. Sous quelques conditions techniques, ΞΈn est un estimateur

asymptotiquement efficace de ΞΈ,

√n(ΞΈn βˆ’ ΞΈ)

Lβ†’ N (0, Iβˆ’1(ΞΈ)).

L’estimateur du maximum de vraisemblance n’a aucune raison d’etre sans biais.

68

Page 69: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Le maximum de vraisemblance, cas N (Β΅, Οƒ2)

Soit {x1, Β· Β· Β· , xn} un echantillon independant, distribue suivant la loi N (Β΅, Οƒ2),

de densite

f(x | Β΅, Οƒ2) =1√

2Ο€ Οƒexp

(βˆ’ (xβˆ’ Β΅)2

2Οƒ2

).

La vraisemblance est alors

f(x1, . . . , xn | Β΅, Οƒ2) =n∏i=1

f(xi | Β΅, Οƒ2) =

(1

2πσ2

)n/2exp

(βˆ’βˆ‘ni=1(xi βˆ’ Β΅)2

2Οƒ2

),

ou encore

f(x1, . . . , xn | Β΅, Οƒ2) =

(1

2πσ2

)n/2exp

(βˆ’βˆ‘ni=1(xi βˆ’ x)2 + n(xβˆ’ Β΅)2

2Οƒ2

).

69

Page 70: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Le maximum de vraisemblance, cas N (Β΅, Οƒ2)

Le maximum de vraisemblance en Β΅ est obtenu a l’aide de la condition du

premier ordre,

βˆ‚

βˆ‚Β΅log

((1

2πσ2

)n/2exp

(βˆ’βˆ‘ni=1(xi βˆ’ x)2 + n(xβˆ’ Β΅)2

2Οƒ2

))

=βˆ‚

βˆ‚Β΅

(log

(1

2πσ2

)n/2βˆ’βˆ‘ni=1(xi βˆ’ x)2 + n(xβˆ’ Β΅)2

2Οƒ2

)

= 0βˆ’ βˆ’2n(xβˆ’ Β΅)

2Οƒ2= 0.

qui donne Β΅ = x =βˆ‘ni=1 xi/n.

70

Page 71: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

La seconde condition du premier ordre s’ecrit

βˆ‚

βˆ‚Οƒlog

((1

2πσ2

)n/2exp

(βˆ’βˆ‘ni=1(xi βˆ’ x)2 + n(xβˆ’ Β΅)2

2Οƒ2

))

=βˆ‚

βˆ‚Οƒ

(n

2log

(1

2πσ2

)βˆ’βˆ‘ni=1(xi βˆ’ x)2 + n(xβˆ’ Β΅)2

2Οƒ2

)= βˆ’n

Οƒ+

βˆ‘ni=1(xi βˆ’ x)2 + n(xβˆ’ Β΅)2

Οƒ3= 0.

Le maximum est alors obtenu pour Οƒ2 =βˆ‘ni=1(xi βˆ’ Β΅)2/n.

Par substitution de Β΅, on peut ecrire

Οƒ2 =1

n

nβˆ‘i=1

(xi βˆ’ x)2 =1

n

nβˆ‘i=1

x2i βˆ’1

n2

nβˆ‘i=1

nβˆ‘j=1

xixj .

On peut noter facilement que E [Β΅] = Β΅, mais aussi E[Οƒ2]

=nβˆ’ 1

nσ2.

71

Page 72: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Le maximum de vraisemblance, cas uniforme sur [0, ΞΈ]

La densite des Xi est ici fΞΈ(x) =1

ΞΈ1(0 ≀ x ≀ ΞΈ).

La vraisemblance s’ecrit alors

L(ΞΈ;x1, Β· Β· Β· , xn) =1

ΞΈn

n∏i=1

1(0 ≀ xi ≀ ΞΈ) =1

ΞΈn1(0 ≀ inf{xi} ≀ sup{xi} ≀ ΞΈ).

Cette fonction n’est pas derivable en ΞΈ, mais on note que L est maximale pour ΞΈ

le plus petit possible, i.e. ΞΈ = sup{xi}.

●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●

●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●

0.0 0.5 1.0 1.5 2.0 2.5 3.0

0.000

0.001

0.002

0.003

0.004

72

Page 73: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Le maximum de vraisemblance

Notons que l’estimateur du maximum de vraisemblance n’est par necessairement

unique.

Supposons que {x1, Β· Β· Β· , xn} soient uniforment distribuees sur [ΞΈ, ΞΈ + 1]. Si

ΞΈβˆ’ = sup{xi} βˆ’ 1 < inf{xi} = ΞΈ+

Alors tout estimateur ΞΈ ∈ [ΞΈβˆ’, ΞΈ+] est un estimateur du maximum de

vraisemblance de ΞΈ.

Enfin l’estimateur du maximum de vraisemblance n’est pas forcement sans biais.

Dans le cas de la loi exponentielle ΞΈ = 1/x. En utilisant des proprietes de la loi

inverse-gamma, onm peut montrer que

E(ΞΈ) =n

nβˆ’ 1ΞΈ > ΞΈ.

73

Page 74: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Le maximum de vraisemblance, aspects numeriques

Pour les lois usuelles, sous R, library(MASS) permet de calculer le maximum de

vraisemblance pour les lois usuelles, e.g. fitdistr(x.norm,"normal") pour estimer les

parametres d’une loi normale pour un echantillon x.

Si on souhaite utiliser des methodes numeriques sous R, LV <-

function(theta){-sum(log(dexp(x,theta)))} puis optim(2,LV) permet de calculer

numeriquement le maximum de la fonction de log-vraisemblance.

Parfois, obtenir le maximum de la vraisemblance peut etre difficile, ou impossible.

On peut alors utiliser des methodes de type Newton-Rahpson ou la methode du

score pour approcher numeriquement le maximum.

Soit S(x, ΞΈ) =βˆ‚

βˆ‚ΞΈlog f(x, ΞΈ) la fonction score. On pose

Sn(ΞΈ) =nβˆ‘i=1

S(Xi, ΞΈ).

74

Page 75: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

En faisant un developpement de Taylor, de Sn au voisinage de ΞΈ0,

Sn(x) = Sn(ΞΈ0) + (xβˆ’ ΞΈ0)Sβ€²n(y) pour y ∈ [x, ΞΈ0]

En x = ΞΈn,

Sn(ΞΈn) = 0 = +(ΞΈn βˆ’ ΞΈ0)Sβ€²n(y) pour y ∈ [ΞΈ0, ΞΈn]

Aussi, ΞΈn = ΞΈ0 βˆ’Sn(ΞΈ0)

Sβ€²n(y)pour y ∈ [ΞΈ0, ΞΈn]

75

Page 76: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Le maximum de vraisemblance, aspects numeriques

Construisons la suite (Newton-Raphson)

ΞΈ(i+1)n = ΞΈ(i)n βˆ’

Sn(ΞΈ(i)n )

Sβ€²n(ΞΈ(i)n )

,

a partir d’une valeur initiale ΞΈ(0)n bien choisie.

Construisons la suite (methode du score)

ΞΈ(i+1)n = ΞΈ(i)n βˆ’

Sn(ΞΈ(i)n )

nI(ΞΈ(i)n )

,

a partir d’une valeur initiale ΞΈ(0)n bien choisie.

76

Page 77: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

La methode des moments

La methode des moments est la methode la plus simple et la plus intuitive pour

estimer un parametre ΞΈ. Si E(X) = g(ΞΈ), on cherche ΞΈ tel que x = g(ΞΈ).

Exemple Dans le cas d’une loi exponentielle sur E(ΞΈ), P(X ≀ x) = 1βˆ’ eβˆ’ΞΈx,

E(X) = 1/ΞΈ, donc ΞΈ = 1/x.

Exemple Dans le cas d’une loi uniforme sur [0, ΞΈ], E(X) = ΞΈ/2, donc ΞΈ = 2x.

Si θ ∈ R2, on utilise egalement soit V ar(X), soit E(X2).

77

Page 78: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Comparer des estimateurs

Parmi les proprietes usuelles des estimateurs,

β€’ sans biais, E(ΞΈn) = ΞΈ,

β€’ convergent, ΞΈnPβ†’ ΞΈ, quand nβ†’βˆž

β€’ asymptotiquement normal,√n(ΞΈ βˆ’ ΞΈ) Lβ†’ N (0, Οƒ2) quand nβ†’βˆž,

β€’ efficace

β€’ optimal

Soient T1 et T2 deux estimateurs sans biais, alors T1 sera dit plus efficace que T2

s’il est de variance plus faible.

Pour comparer deux estimateurs sans biais, on compare souvent leur variance. Le

meilleur estimateur aura la variance la plus faible.

78

Page 79: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Comparer des estimateurs, biais vs. variance

βˆ’2 βˆ’1 0 1 2 3 4

0.0

0.2

0.4

0.6

0.8

1.0

Figure 11 – Choisir un estimateur, ΞΈ1 versus ΞΈ2.

79

Page 80: Rappels stats-2014-part2

Arthur CHARPENTIER - Rappels de probabilites & statistiques

Comparer des estimateurs, biais vs. variance

β€’ ΞΈ1 estime avec biais ΞΈ (E(ΞΈ1) 6= E(ΞΈ)),

β€’ ΞΈ2 estime sans biais ΞΈ (E(ΞΈ2) = E(ΞΈ)),

β€’ V ar(ΞΈ1) ≀ V ar(ΞΈ2).

L’estimateur ΞΈ1 peut etre interessant des lors que l’on peut estimer correctement

le biais. Mais

β€’ le biais est souvent une fonction de ΞΈ (qui est inconnu),

β€’ le biais est souvent une fonction compliquee de ΞΈ.

80