Upload
brian-arturo-mora
View
33
Download
3
Tags:
Embed Size (px)
DESCRIPTION
Curso Magistral Mate Estadistica
Citation preview
PROBABILITES - STATISTIQUE
V 1.6
Marc MENOU
Janvier 2012
M. MENOU / PROBABILITES ET STATISTIQUE 2
TABLE DES MATIERES
RAPPELS MATHEMATIQUES 8
2 NOTIONS SUR LES ENSEMBLES 8
2.1 ENSEMBLE : 8
2.2 CARDINAL : 9
2.3 INCLUSION : 9
2.4 SOUS-ENSEMBLE : 9
2.5 EGALITE D’ENSEMBLES : 10
2.6 COMPLEMENTAIRE : 10
2.7 REUNION : 10
2.8 INTERSECTION : 11
2.9 DIFFERENCE : 12
2.10 ENSEMBLE DES PARTIES D'UN ENSEMBLE : 12
2.11 PRINCIPE DE DUALITE : 13
2.12 PARTITION D'UN ENSEMBLE E : 13
2.13 PRODUIT CARTESIEN : 14
3 DENOMBREMENTS OU ANALYSE COMBINATOIRE 15
3.1 ANALYSE COMBINATOIRE SANS REPETITION (N ≥ P) 15
3.1.1Arrangements : 16
3.1.2 Permutations : 16
3.1.3 combinaisons : 17
3.2 ANALYSE COMBINATOIRE AVEC REPETITION 19
3.2.1 Arrangements 19
3.2.2 Permutations 19
3.2.3 combinaisons 20
EN PRATIQUE : 21
3
4 LES PROBABILITES 22
4.1 EPREUVE ALEATOIRE : 22
4.2 RESULTAT D'UNE EPREUVE : 22
4.3 UNIVERS DES POSSIBLES : 23
4.4 EVENEMENTS : 23
4.5 CORRESPONDANCE ENTRE ENSEMBLES ET EVENEMENTS 24
4.6 PROBABILITE ET FREQUENCE : 25
4.7 DEFINITION AXIOMATIQUE DES PROBABILITES : 25
4.7.1 AXIOMES DES PROBABILITES : 26
4.7.2 PROPRIETES DES PROBABILITES : 26
4.8 EQUIPROBABILITE : 26
4.9 PROBABILITES CONDITIONNELLES : 27
4.10 INDEPENDANCE : 28
4.11 THEOREME DE BAYES : 29
4.12 THEOREME DES PROBABILITES TOTALES : 30
4.13 FORMULE DE POINCARE 31
4.14 EXERCICES 32
5 VARIABLES ALEATOIRES REELLES 35
5.0.1 DEFINITION D’UNE VARIABLE ALEATOIRE : 35
5.1 VARIABLES ALEATOIRES DISCRETES 36
5.1.1 LOI DE PROBABILITE : 36
5.1.2 FONCTION DE REPARTITION : 37
5.1.3 MOMENTS 38
5.1.3.1 espérance mathématique : 39
5.1.3.2 variance 39
5.1.3.3 autres moments 40
M. MENOU / PROBABILITES ET STATISTIQUE 4
5.2 VARIABLE ALEATOIRE CONTINUE 41
5.2.1 FONCTION DE REPARTITION 42
5.2.2 PROPRIETES DE LA FONCTION DE REPARTITION 42
5.2.3 VARIABLE ALEATOIRE ABSOLUMENT CONTINUE 43
5.2.4 DENSITE DE PROBABILITE 43
5.2.5 PROPRIETES DE LA FONCTION DENSITE 44
5.2.6 PROBABILITE D'UN INTERVALLE 44
5.2.7 MOMENTS 44
5.2.7.1 espérance mathématique : 44
5.2.7.2 variance : 45
5.2.7.3 autres moments 45
6 PRINCIPALES LOIS DE PROBABILITES 49
6.1 PRINCIPALES LOIS DISCRETES 49
6.1.1 LOI CERTAINE 49
6.1.2 LOI UNIFORME 50
6.1.3 LOI DE BERNOULLI 50
6.1.4 LOI BINOMIALE 51
6.1.5 LOI DE POISSON 52
6.1.6 LOI MULTINOMIALE 53
6.1.7 LOI GEOMETRIQUE 54
6.1.8 LOI HYPERGEOMETRIQUE 55
6.2 PRINCIPALES LOIS DE VARIABLES CONTINUES 56
6.2.1 LOI UNIFORME CONTINUE 56
6.2.2 LOI NORMALE 57
6.2.12 LOI DU KHI-DEUX 61
6.2.13 LOI DE STUDENT (W. S. GOSSET) 62
6.2.15 LOI DE FISHER-SNEDECOR 63
5
M. MENOU / PROBABILITES ET STATISTIQUE 6
1 INTRODUCTION
La réalité est trop complexe pour être directement intelligible par l'être humain. Aussi, le rôle de
la statistique est-il de permettre à l’homme la compréhension du réel. Elle constitue, en effet, un
ensemble de techniques intermédiaires entre le concret et l'abstrait. Elle cherche à évacuer
objectivement le culturel qui filtre médiatiquement la perception.
De ce fait, elle peut être sujette à caution, car, comme le remarque P. VALERY : "Ce qui est
simple est faux, ce qui ne l'est pas est inutilisable".
Cependant, comme la démarche statistique, dans la recherche de la simplification, est
relativement rationnelle, il est possible d'affirmer qu'il n'y a de vérité que statistique, que tout le
reste n'est que littérature.
La réalité se traduit par des objets caractérisés par des distributions d'effectifs (absolus) et de
fréquences (relatives). L'observation, le classement, la représentation et la simplification de ces
données constituent l'objet des statistiques descriptives étudiées en première année.
Les statistiques descriptives permettent la connaissance. Mais le but de la connaissance c'est
l'action.
Agir, dans un contexte économique caractérisé par la rareté, c'est faire des choix qui présentent
des coûts alternatifs. Ce choix a toujours un caractère inter-temporel. Or, le futur est inconnu et
donc source d'incertitude. Pour agir, il faut lever l'incertitude.
Le corps de connaissances accumulées par les sciences permet cependant d'envisager et d'évaluer
un certain nombre d'hypothèses quant à ce futur. Les probabilités fournissent une méthode
d'évaluation des choix alternatifs par anticipation. Elles servent donc de base aux techniques
d'estimation et de décision.
L'objet de ce cours est donc, de préparer à la statistique inférentielle.
7
NOTE IMPORTANTE :
Ce mémento a pour objet d’éviter la prise de notes en cours, il ne dispense en aucun cas de
l'assiduité. Le cours sera enrichi d'exemples, de démonstrations et d'exercices. L’examen porte
sur le cours dispensé.
M. MENOU / PROBABILITES ET STATISTIQUE 8
RAPPELS MATHEMATIQUES
2 Notions sur les ensembles
Ce chapitre rappelle les notions : d’ensemble (2.1), de cardinal (2.2), d’inclusion (2.3), de sous-
ensemble (2.4), d’égalité (2.5), de complémentaire (2.6), de réunion (2.7), d’intersection (2.8), de
différence (2.9), d’ensemble des parties d’un ensemble (2.10), de principe de dualité (2.11), de
partition d’un ensemble (2.12) et de produit cartésien (2.13).
2.1 Ensemble :
Un ensemble est une collection d'objets, appelés éléments, possédant au moins une
caractéristique commune à tous.
Un ensemble est défini lorsqu'il est possible pour tout objet de préciser s'il appartient ou non à
l'ensemble considéré. Définir un ensemble c'est créer une enveloppe distinguant un dedans et un
dehors.
Un ensemble est défini en extension lorsque ses éléments sont cités, en compréhension lorsqu'une
propriété caractéristique permet de préciser l'appartenance à l'ensemble.
Remarque : ce mode binaire de définition d'un ensemble peut cependant être remis en question.
La théorie des sous-ensembles flous1 (fuzy sets) module le degré d'appartenance des éléments.
Les ensembles sont représentés par des diagrammes de VENN.
1 BOUCHON-MEUNIER B., La logique floue, Que sais-je ?, PUF, 1993.
9
2.2 Cardinal :
Le cardinal d'un ensemble E, noté card E, est le nombre d'éléments de l'ensemble.
Lorsque le cardinal est :
0 l'ensemble est dit vide noté ∅ ou
1 il est appelé singleton
2 il forme une paire
3 un triplet
n c'est un n-uplet
2.3 Inclusion :
Un ensemble F est strictement inclus dans l'ensemble E, F ⊂ E, si et seulement si tout élément de
F est élément de E.
2.4 Sous-ensemble :
Un sous-ensemble, ou partie, F de E est un ensemble d'éléments inclus dans E.
F
E
M. MENOU / PROBABILITES ET STATISTIQUE 10
2.5 Egalité d’ensembles :
Des ensembles sont égaux lorsqu'ils ont les mêmes éléments, et non lorsqu’ils ont le même
nombre d’éléments. L’égalité est ici qualitative.
E = F <==> E ⊂ F et F ⊂ E
2.6 Complémentaire :
Le complémentaire dans E du sous-ensemble A est l'ensemble des éléments de E qui
n'appartiennent pas à A. Il est souvent noté non A ou A .
E est appelé le référentiel
EXEMPLE : E = a, e, i, o, u, y A = i, y
non A = a, e, o, u
2.7 Réunion :
La réunion de deux ensembles, notée A ∪ B, est l'ensemble formé des éléments appartenant à l'un
ou (non exclusif) à l'autre ensemble.
La réunion est :
Commutative A ∪ B = B ∪ A
Complémentaire
A
E
11
Associative A ∪ B ∪ C = A ∪ (B ∪ C) = (A ∪ B) ∪ C
Distributive par rapport à l'intersection
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
EXEMPLE : A = 0, 2, 4, 6, 8 B = 0, 1, 2, 3, 4
A ∪ B = 0, 1, 2, 3, 4, 6, 8
2.8 Intersection :
L'intersection de deux ensembles, notée A ∩ B, est l'ensemble formé des éléments communs à
l'un et à l'autre.
L'intersection est
Commutative A ∩ B = B ∩ A
Associative A ∩ B ∩ C = A ∩ (B ∩ C) = (A ∩ B) ∩ C
Distributive par rapport à la réunion
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
Si des ensembles n'ont aucun élément commun, si l’intersection est vide, ils sont dits disjoints.
A
B
M. MENOU / PROBABILITES ET STATISTIQUE 12
EXEMPLE : A = 0, 2, 4, 6, 8 B = 0, 1, 2, 3, 4
A ∩ B = 0, 2, 4
2.9 Différence :
L'ensemble de tous les éléments de A qui n'appartiennent pas à B est appelé différence de A et B
noté A - B.
EXEMPLE : A = 0, 2, 4, 6, 8 B = 0, 1, 2, 3, 4
A - B = 6, 8
2.10 Ensemble des parties d'un ensemble :
C'est l'ensemble formé par tous les sous-ensembles de E qu’il est possible de constituer avec les
A B
A B
13
éléments de E.
si card E = n ==> card P(E) = 2n
L’ensemble des parties d’un ensemble peut se déterminer facilement et exhaustivement en
utilisant un arbre dichotomique.
EXEMPLE : E = a, b, c
P(E) = ∅ , a , b , c , a , b , a , c , b , c , E
card E = 3 ==> card P(E) = 23 = 8
2.11 Principe de dualité :
Tout résultat vrai relatif à des ensembles est également vrai si l'on remplace les réunions par des
intersections, les intersections par des réunions, les ensembles par leurs complémentaires et si
l'on renverse les symboles d'inclusions.
Les lois de DE MORGAN en constituent un exemple.
AUB = AIB
AIB = AUB
2.12 Partition d'un ensemble E :
C'est un ensemble de parties de l'ensemble E tel que ces parties soient disjointes deux à deux et
que leur réunion corresponde à E.
AiIAj = !
Ai
i
U = E
M. MENOU / PROBABILITES ET STATISTIQUE 14
2.13 Produit cartésien :
A X B (lire A croix B) est l'ensemble des couples (a,b) où a ∈ A et b ∈ B.
card (A X B) = card A x card B
Ex : A X B B
A
1 2 3
a (a , 1) (a , 2) (a , 3 )
b (b , 1) (b , 2) (b , 3)
Le produit cartésien n’est pas commutatif. A X B ≠ B X A
15
3 Dénombrements ou Analyse combinatoire
Les dénombrements constituent la base des statistiques.
Les dénombrements s'effectuent :
• Soit par des comptages directs, à partir d'ensembles ou de leurs représentations
(arbres)(cas simple)
• soit par l'utilisation des concepts de l'analyse combinatoire. (cas complexe)
L'analyse combinatoire est basée sur l'établissement d'applications entre deux ensembles, un
d'objets, l'autre de cases. Ainsi, tout problème de dénombrement se ramène à la disposition de n
objets dans p cases.
Il est possible de distinguer l'analyse sans (3.1) ou avec répétition ( 3.2).
Rappels : Factorielle n : n! = 1 x 2 x 3 x ... x (n-1) x n 3! = 1 x 2 x 3 = 6 4! = 1 x 2 x 3 x 4 = 3! x 4 = 6 x 4 = 24 n! = (n-1) ! x n 0! = 1 par convention
Approximation de STIRLING : n!= 2! nn +1
2e" n
(si n grand)
3.1 Analyse combinatoire sans répétition (n ≥ p)
Chaque objet ne peut être utilisé qu'une fois. Il ne peut figurer que dans une seule case. Cela
correspond à des tirages dans une urne sans remise.
Il existe trois concepts : les arrangements (3.1.1), les permutations (3.1.2) et les combinaisons
M. MENOU / PROBABILITES ET STATISTIQUE 16
(3.1.3).
3.1.1Arrangements :
Un arrangement de n objets dans p cases est toute suite ordonnée obtenue en plaçant les p objets
choisis parmi les n dans les p cases.
Un arrangement est donc une application injective de l'ensemble des cases dans celui des objets.
Deux choix successifs sont à effectuer : il faut d'abord choisir les p objets à retenir parmi les n, et
ensuite choisir leur place (case). La place des objets a donc de l'importance, ce qui peut
s'exprimer en disant que les cases sont repérées (numérotées par exemple), ou qu’elles repèrent
les objets.
Les p éléments objets sont tirés successivement.
Le nombre d'arrangements est donné par :
!
An
p= n(n "1)(n " 2)...(n " p +1) =
n!
(n " p)!
EXEMPLE : On considère l’ensemble E = ♣, ♥, ♠ Indiquer toutes les possibilités
d’arrangements de deux éléments. ♣, ♥ ♣, ♠ ♥, ♠ ♥,♣ ♠, ♥ ♠, ♣
Vérifier le nombre d’arrangements.
On cherche à dénombrer toutes les possibilités d’arrivée d’un tiercé de 20 chevaux dans l’ordre.
6840 possibilités
3.1.2 Permutations :
Une permutation est un cas particulier d’arrangement de n éléments dans n cases (p = n). Tous les
objets sont utilisés, il n'y a donc pas de choix à effectuer parmi les objets, seule leur place
importe.
17
Une permutation est donc une application bijective de l'ensemble des cases dans celui des objets.
Le nombre de permutations est donné par :
!
Pn
= An
n=
n!
(n " n)!=n!
0!=n!
1= n!
EXEMPLE : On considère l’ensemble E = ♣, ♥, ♠
Indiquer toutes les possibilités de permutations.
♣, ♥, ♠ ♥, ♠, ♣ ♠, ♥, ♣ ♣, ♠, ♥ ♥, ♣, ♠ ♠, ♣, ♥ Vérifier le nombre de
permutations.
3! = 6
Quatre enfants ont à leur disposition 4 déguisements, combien de cas de figure peut-on trouver ?
4! = 24
3.1.3 combinaisons :
Une combinaison de n éléments est constituée de tout sous-ensemble de p éléments.
Ce sont les arrangements, de n objets dans p cases dont la place n'a pas d'importance. Il faut donc
de ces arrangements déduire toutes les permutations de p objets. Les cases jouent toutes le même
rôle, elles ne se distinguent pas, le seul problème est celui du choix des objets à retenir.
Les p éléments objets sont tirés en une fois, ce sont des tirages simultanés.
Le nombre de combinaisons est donné par :
!
Cn
p=An
p
p!=
n!
(n " p)!p!
M. MENOU / PROBABILITES ET STATISTIQUE 18
Triangle de PASCAL :
1
1 1
1 2 1
1 3 3 1
1 4 6 4 1
1 5 10 10 5 1
C0
0
C1
0C1
1
C2
0C2
1C2
2
C3
0C3
1C3
2C3
3
p propriétés de Cn (cf. le triangle de PASCAL): p n-p Cn = Cn Symétrie p p p-1 Cn = Cn-1 + Cn-1
formule du binome :
n n k k n-k (a + b) = ∑ Cn a b k=0
EXEMPLE : On considère l’ensemble E = ♣, ♥, ♠ Indiquer toutes les possibilités de
combinaisons de deux éléments. ♣, ♥ ♣, ♠ ♥, ♠ ♥,♣ ♠, ♥ ♠, ♣
Vérifier le nombre de combinaisons.
Dénombrer le nombre de tiercés dans le désordre d’une course de 20 chevaux.
1140 possibilités
19
3.2 Analyse combinatoire avec répétition
Les mêmes concepts se retrouvent : les arrangements (3.2.1), les permutations (3.2.2) et les
combinaisons (3.2.3).
Le même objet peut être réutilisé (il peut se trouver dans plusieurs cases). Cela correspond à des
tirages avec remise.
3.2.1 Arrangements
Le nombre de tels arrangements est donné par :
p n
EXEMPLE : On considère l’ensemble E = ♣, ♥, ♠
Indiquer toutes les possibilités d’arrangements de 2 éléments avec répétition.
♣, ♥ ♥, ♠ ♠, ♥ ♣, ♠ ♥, ♣ ♠, ♣ ♣,♣ ♥, ♥ ♠, ♠
Vérifier le nombre d’arrangements.
3.2.2 Permutations
Ici, ce n’est pas véritablement une permutation avec répétition car, si on dispose d’autant d’objets
que de cases, comme le veut la définition des permutations, il n’y a pas de place pour les
répétitions. Si n objets sont distinguables en r groupes de tailles respectives n1 ... nr, il faut
considérer que chaque permutation des objets d'un même groupe ne constitue pas une
permutation différente de l'ensemble. Ces permutations-là doivent donc être déduites.
M. MENOU / PROBABILITES ET STATISTIQUE 20
B B R V
B R B V en permutant le 2ème et le 3ème élément cela change
B B R V en permutant le 1er et 2ème élément il n’y a pas de changement
Le nombre de permutations est donné par :
!
n!
n1!n
2!...n
r!
= Cn
n1C
n"n1
n2 ...C
n"n1"..."n
r"1
nr
De cette expression se déduit la formule multinomiale.
EXEMPLE : On dispose de 3 ♥ et de 2 ♣ Quelles sont toutes les dispositions possibles.
♥♥♥♣♣ ♥♥♣♣♥ ♥♣♣♥♥ ♥♣♥♣♥ ♥♥♣♥♣
♣♣♥♥♥ ♣♥♥♥♣ ♣♥♥♣♥ ♣♥♣♥♥ ♥♣♥♥♣
3.2.3 combinaisons
Le même objet pouvant se répéter p - 1 fois au maximum, cela revient à disposer de n+p-1 objets
dont il s'agit d'en choisir p. Il faut rajouter p - 1 objets aux n existants et considérer alors que l’on
est dans le cas des combinaisons sans répétition.
Le nombre de combinaison est donné par :
p p Kn = Cn+p-1
EXEMPLE : On considère l’ensemble E = ♣, ♥, ♠
Indiquer toutes les possibilités de combinaisons de 2 éléments avec répétition.
♣, ♥ ♥, ♠ ♣, ♠ ♣,♣ ♥, ♥ ♠, ♠
Vérifier le nombre de combinaisons.
21
En pratique :
Pour comprendre les exercices, il est conseillé de visualiser le problème avec des ensembles plus
simples (cardinaux n et p inférieurs), de constituer des modèles réduits.
Pour effectuer tout dénombrement, il est nécessaire de chercher à adopter un dispositif matériel
susceptible de permettre d'obtenir l'évènement, dont on cherche à évaluer tous les cas, à tous les
coups.
M. MENOU / PROBABILITES ET STATISTIQUE 22
4 LES PROBABILITES
L’intérêt des probabilités en statistique repose sur le fait que :
L’observation est entachée d’erreurs ;
Les phénomènes observés s’apparentent à des modèles mathématiques de lois aléatoires ;
La composition des échantillons dépend du hasard.
Seront successivement passés en revue les concepts : d’épreuve aléatoire (4.1), résultat d’une
épreuve (4.2), univers des possibles (4.3), événement (4.4), correspondance entre ensembles et
événements (4.5), probabilité et fréquence (4.6), définition axiomatique des probabilités (4.7),
équiprobabilité (4.8), probabilités conditionnelles (4.9), indépendance (4.10), théorème de Bayes
(4.11), théorème des probabilités totales (4.12) et formule de Poincaré.
4.1 Epreuve aléatoire :
Tous les actes des humains, ou de leur environnement, ont des conséquences dont l'issue n'est pas
toujours très certaine. Ainsi, tout peut être interprété en termes d'expérience aléatoire, même si,
toutes les causes ne sont pas maîtrisées.
Exemple : la face qui résulte du jet d'un dé, le chiffre d'affaires d'une entreprise.
4.2 Résultat d'une épreuve :
Ce qui se produit réellement est appelé résultat de l'épreuve, ou réalité.
Exemple : le "6", 36 800 €
23
4.3 Univers des possibles :
C'est l'ensemble de tout ce qui est susceptible de se produire dans le cadre d’une expérience
aléatoire. Il est généralement désigné par Ω.
Ω peut être fini, infini dénombrable ou infini non dénombrable.
Un ensemble est fini quand son cardinal est défini.
Un ensemble est infini dénombrable s'il a la puissance de IN l'ensemble des entiers naturels,
infini non dénombrable s'il a la puissance de IR l'ensemble des nombres réels.
Exemple : 1,2,3,4,5,6, [0 ; 200 000K€]
4.4 Evénements :
Un événement est une partie (et non un élément) de l'univers des possibles. Il est nécessaire de
bien distinguer les événements élémentaires des événements « tout court ».
Un événement élémentaire est un élément de Ω ou un singleton de P(Ω).
Exemple : 6
Un événement « tout court » est un élément de l'ensemble des parties de Ω.
Exemple : "un nombre pair" = 2,4,6
Un événement est réalisé si la réalité est un élément de cet événement, c’est-à-dire de cette partie
de Ω.
M. MENOU / PROBABILITES ET STATISTIQUE 24
Exemple : 2,4,6 est réalisé si c'est 6 qui est obtenu.
Evénement certain : un événement est certain s'il correspond à Ω, c'est-à-dire à la partie pleine de
P(Ω).
Evénement impossible : un événement impossible correspond à l'ensemble vide, qui ne peut
comprendre d’élément.
Evénements incompatibles : des événements sont incompatibles si la réalisation de l’un exclut la
réalisation des autres.
4.5 Correspondance entre ensembles et événements
Univers des possibles Ω Référentiel Ω
résultat possible a élément a de Ω
résultat réalisé r élément r (réalité)
événement A de Ω partie A de Ω
événement A réalisé r ∈ A
événement certain ensemble Ω
événement impossible ensemble vide
événement contraire de A complémentaire A de A
événement B non réalisé r ∉ B ou r ∈ B
événement A ou B A U B
événement A ou B réalisé r ∈ A U B
événement A et B A ∩ B
l'événement A et B est réalisé r ∈ A ∩ B
les événements A et B sont incompatibles A ∩ B = ∅
25
l'événement A implique l'événement B A ⊆ B
système complet d'événements partition de Ω
4.6 Probabilité et fréquence :
Les probabilités peuvent être rapprochées de la notion de fréquence. Une probabilité est la
fréquence obtenue lors d'un grand nombre d'essais. J. BERNOULLI énonça au XVIIIe siècle la
loi des grands nombres ainsi : lorsque n augmente indéfiniment, la fréquence fn tend vers une
limite f qui est égale à la probabilité p. Cette loi est parfois considérée comme une tautologie, car
c'est justement ainsi que peut être défini la probabilité. Cette approche est dite a posteriori. Une
fréquence est une probabilité empirique.
Un raisonnement a priori peut permettre d'évaluer la probabilité d'un événement en rapportant le
nombre de façons de réaliser l'événement au nombre d'éventualités totales.
4.7 Définition axiomatique des probabilités :
Une définition axiomatique2 des probabilités, due à KOLMOGOROV, peut être donnée pour
éviter les difficultés des approches a priori et a posteriori.
Une probabilité est une application, de l'ensemble des parties de Ω dans l'intervalle [0, 1] de IR,
qui vérifie certains axiomes.
Une probabilité constitue une mesure d’ensemble.
IR
2 Un axiome est une vérité non démontrable qui s’impose avec évidence
M. MENOU / PROBABILITES ET STATISTIQUE 26
1
P(A)
0
4.7.1 Axiomes des probabilités :
P(A) ≥ 0 ∀ A ∈ P(Ω)
P(Ω) = 1
P( U An ) = ∑ P(An) où les An constituent une suite d'événements deux à deux incompatibles.
4.7.2 Propriétés des probabilités :
A ⊆ B ==> P(A) ≤ P(B) et P(B - A) = P(B) - P(A)
P(∅) = 0 _ P(A) = 1 - P(A)
0 ≤ P(A) ≤ 1
4.8 équiprobabilité :
Lorsque le bon sens indique qu'aucun événement élémentaire ne semble devoir être plus favorisé
qu'un autre, ces événements sont dits équiprobables. Cela signifie que chaque événement
élémentaire a la même probabilité, la distribution de probabilités est dite uniforme.
Exemple : Un dé non pipé.
A
Ω
27
Si le cardinal de Ω est n, comme P(Ω) = 1, la probabilité d'un événement élémentaire est 1/card
Ω = 1/n.
Tout événement A correspondant à la réunion d'événements élémentaires, sa probabilité est card
A / card Ω.
Ce théorème permet de définir, de façon opérationnelle, la probabilité d'un événement comme
étant le rapport d'un nombre de cas favorables sur un nombre de cas également possibles. Il est
cependant nécessaire de ne pas oublier que les événements élémentaires doivent être
équiprobables.
Si p est la probabilité d’un événement, sa cote est p / q (p contre q), c’est le rapport de p sur q.
4.9 probabilités conditionnelles :
Une probabilité conditionnelle est une probabilité pour laquelle une information partielle sur le
résultat est donnée.
EXEMPLE : la probabilité d'avoir obtenu 6 sachant que le nombre obtenu est pair.
Il s'agit de déterminer la probabilité d'un événement A sachant que l'événement B est réalisé.
Le fait que B soit réalisé apporte une information plus ou moins grande quant à la réalisation de
A. Quoi qu'il en soit, l'univers des possibles peut alors se restreindre du fait de cette information.
Le possible est même connu puisqu'il s'agit de B qui remplace Ω.
A
M. MENOU / PROBABILITES ET STATISTIQUE 28
Exemple : Ω = 1,2,3,4,5,6 ----> B = 2,4,6
P(A/B) = Nombre cas favorables / Nombre cas possibles = cardA! BcardB
En divisant par card Ω haut et bas :
P(A/B) = P(A ∩ B) / P(B)
Exemple : P(6 / nombre pair) = 1 / 3
Ceci peut aussi s'écrire :
P(A ∩ B) = P(A/B) x P(B)
Comme l'intersection est commutative :
P(A ∩ B) = P(B/A) x P(A)
4.10 Indépendance :
Deux événements sont indépendants si la réalisation de l'un n'agit pas sur la réalisation de l'autre.
Si A et B sont indépendants, la connaissance de la réalisation de l'un n'apporte aucune
information, sur la probabilité de l'autre.
B
Ω
29
P(A/B) = P(A) ==> P(A ∩ B ) = P(A) x P(B)
A et Ø sont indépendants
A et Ω sont indépendants
A et B sont indépendants si et seulement si A et non B sont indépendants
L’indépendance se distingue de l’incompatibilité.
Supposons A et B à la fois indépendants et incompatibles :
P(A ∩ B ) = P(A) x P(B) (Indépendance)
P(A ∩ B ) = P(Ø) = 0 (Incompatibilité)
donc P(A) ou P(B) = 0
A et B sont compatibles et indépendants :
P(A ∪ B) = P(A) + P(B) - P(A).P(B)
A et B sont compatibles et dépendants :
P(A ∪ B) = P(A) + P(B) - P(A).P(B/A)
Exemple : P(6 / le dé est blanc) = P(6)
4.11 Théorème de BAYES :
Le théorème de BAYES est encore appelé théorème des probabilités des causes.
Soient deux causes incompatibles, il est généralement possible d'évaluer leurs effets et de
déterminer a priori les probabilités des effets connaissant les causes. Le théorème de BAYES
permet de calculer, alors, la probabilité des causes sachant que les effets se sont produits.
M. MENOU / PROBABILITES ET STATISTIQUE 30
E non E
C P(E/C) P(C)
non C 1 - P(C)
P(C /E) =nombre de cas favorables
nombre de cas egalement possibles
P(C /E) =P(E!C)
P(E)=
P(E! C)
P(E!C) + P(E!C)
_ __ P(C/E) = (P(E/C).P(C)) / (P(E/C).P(C) + P(E/C).P(C))
EXEMPLE : L’équipe de France de rugby gagne (E) 8 fois sur 10 quand il fait beau (C) et 4 fois
sur 10 quand il pleut (non C). La météo indique qu’il fait beau une fois sur 3. Sachant que les
Français ont gagné, quelle est la probabilité qu’il ait fait beau ?
p(C/ E) =
810 x
13
810 x
13 +
410 x
23
=
830
1630
=8
16= 0,5
4.12 Théorème des probabilités totales :
Un axiome, de la définition des probabilités, supposait que si A et B étaient des événements
incompatibles, la probabilité de A ∪ B était la somme des probabilités de A et de B. Le théorème
suivant généralise l'axiome au cas où A et B sont quelconques.
P(A ∪ B) = P(A) + P(B) - P(A ∩ B)
si A ∩ B = ∅ alors P(A ∪ B) = P(A) + P(B)
31
EXEMPLE : Au jet d’un dé, quelle est la probabilité d’obtenir 6 (A) ou un nombre pair (B).
P(A ∪ B) = P(A) + P(B) - P(A ∩ B)
= 1/6 + 3/6 - 1/6 = 3/6 = 1/2
4.13 Formule de POINCARE
La formule de POINCARE généralise le théorème des probabilités totales au cas de n
événements. Soit un ensemble E fini, soit A1, A2, ..., An des parties de E
P(∑Ai) = ∑ P(Ai) - ∑ P(Ai∩Aj) + ∑ P(Ai∩Aj∩Ak) - ... i i<j i<j<k Cette formule donne la probabilité de (A1 ou A2 ou ... ou An)
EXEMPLE : Dans un bal 4 couples dansent le rock. Une coupure d’électricité sépare les couples.
Chaque cavalier choisit alors une partenaire au hasard. Quelle est la probabilité qu’il y ait au
moins un cavalier qui retrouve sa cavalière du départ ?
P(Ai) = 0,25 = 1/4
P(Ai ∩ Aj) = 0,25 x 0,33 = 0,0825 = 1/4 x 1/3
P(Ai ∩ Aj ∩ Ak) = 0,04125 = 1/4 x 1/3 x 1/2
P(AI ∩ Aj ∩ Ak ∩ Al) = 1 / 4! = 0,04125 = 1/4 x 1/3 x 1/2 x 1/1
p Aii=1
4
U!
" # #
$
% & & = C
4
1O, 25 ' C4
20, 0825 + C
4
30, 04125 ' C
4
40, 04125
= 4x0, 25 ' 6x0, 0825 + 4x0, 04125 ' 0, 04125 = 1 ' 0, 495 + 0,165 ' 0, 04125 = 0, 6283
M. MENOU / PROBABILITES ET STATISTIQUE 32
4.14 Exercices
EXERCICE : On jette une pièce de monnaie 3 fois de suite. Soit A l’événement : le même côté
apparaît trois fois et l’événement B : le côté face apparaît au moins deux fois.
Donner la composition de l’univers des possibles
Avec l’arbre dichotomique :
PPP
PPF
PFP
PFF
FPP
FPF
FFP
FFF
1er jet 2ème jet 3ème jet
Ω
33
Autre méthode : Avec le produit cartésien
Ω = P, F
Ω Ω P F
P (P, P) (P, F)
F (F, P) (F, F)
Ω2 = Ω x Ω
Ω x Ω Ω P F
PP PPP PPF
PF PFP PFF
FP FPP FPF
FF FFP FFF
Ω3 = Ω x Ω X Ω
Donner le cardinal de Ω.
Card Ω3 = 23 = 8
Avec l’analyse combinatoire :
Anp = np = 23 = 8 (arrangement avec répétition)
Donner la composition des événements A, B, A ∩ B
A = PPP, FFF Card A = 2
B = FFP, PFF, FPF, FFF Card B = 4
A ∩ B = FFF Card A ∩ B = 1
En déduire la probabilité de chacun des trois événements.
M. MENOU / PROBABILITES ET STATISTIQUE 34
P(A) = 2 / 8 = 0,25
P(B) = 4 / 8 = 0,5
P(A ∩ B) = 1 / 8 = 0,125
EXERCICE : On tire 8 cartes d’un jeu de 32
Probabilité d’avoir 2 as ?
Probabilité d’avoir k as ?
Probabilité d’avoir au moins 1 as ?
P(1 as ou 2 as ou 3 as ou 4 as) = 1 - P(0 as) = 1 ! C40xC
28
8
C32
8
Probabilité d’avoir au plus 1 as ?
P(1 as ou 0 as) = C4
1xC
28
7
C32
8+C4
0xC
28
8
C32
8
Probabilité d’avoir 2 as et 3 piques dont l’as de pique ?
C1
1xC
3
1xC
7
2xC
21
4
C32
8
EXERCICE : Un sac contient 4 billes rouges et 6 billes noires. On tire 2 billes successivement et
on s’intéresse à la probabilité de l’événement : la première bille tirée est rouge et la seconde est
noire. Quelle est la probabilité de (R1 et N2) ?
P(R1 et N2) = P(R1 ∩ N2) = P(N2/R1) x P(R1)
a) si on remet la première bille tirée dans le sac avant le deuxième tirage ?
P(R1 et N2) = P(R1 ∩ N2) = P(N2) x P(R1) = 6/10 x 4/10 = 24/100
b) si on ne la remet pas ?
P(R1 et N2) = P(R1 ∩ N2) = P(N2/R1) x P(R1) = 6/9 x 4/10 = 24/90
35
5 VARIABLES ALEATOIRES REELLES
5.0.1 Définition d’une variable aléatoire :
Une variable aléatoire est, en fait, une application déterminée. Il ne s'agit, en effet, ni d'une
variable, ni d'une quantité aléatoire. C'est une application de Ω dans IR qui, à chaque événement,
fait correspondre un nombre réel. Il s'agit, en fait, d'une sorte de codage plus ou moins arbitraire.
L'objectif poursuivi est de permettre d'appliquer le calcul numérique à des événements dont la
définition, ou l’expression, est souvent littéraire.
ex : P(face du dé comprend 3 points) se traduit par P(X = 3)
Les variables aléatoires sont généralement représentées par X, ou par une autre lettre majuscule,
les minuscules étant réservées aux valeurs certaines prises par les v. a.
ei ∈ Ω ------> X(ei) = xi ∈ IR
IR
Ω 1
ei P(X = xi)
0
X(ei)=xi IR
EXEMPLE : A la belote le valet d’atout correspond à X = 20
M. MENOU / PROBABILITES ET STATISTIQUE 36
Deux cas sont à distinguer :
- Les valeurs prises par l'application sont en nombre fini ou infini dénombrable, la
variable est dite discrète.(éléments distinguables)
- Les valeurs sont en nombre infini non dénombrable, la variable est dite continue.
(éléments fusionnés)
Il est donc toujours nécessaire de définir X et X(Ω), l'ensemble des valeurs théoriquement prises
par la variable aléatoire.
Deux types de variables aléatoires sont à distinguer : les variables discrètes (5.1) et les variables
continues (5.2).
5.1 Variables aléatoires discrètes
Il y a deux types de variables aléatoires discrètes :
- les v.a. discrètes finies : l'ensemble des valeurs possibles est fini.
- les v.a. discrètes infinies : l'ensemble des valeurs possibles est infini, mais dénombrable.
Les points suivants sont abordés : loi de probabilité (5.1.1), fonction de répartition (5.1.2) et
moments (5.1.3).
5.1.1 loi de probabilité :
c'est l'ensemble des couples (xi, pi), qui, à chaque événement i représenté par la valeur de la
variable aléatoire associé xi, fait correspondre sa probabilité, pi.
pi = P(X = xi)
37
∑ pi = 1 i xi pi = P(X = xi)
1 0,10
2 0,50
3 0,35
4 0,05 Pi
0 1 2 3 4 xi
5.1.2 fonction de répartition :
c'est l'application F de IR dans IR définie par :
-1 F(x) = P(X ≤ x) = P(X ] -∞, x [) (définition anglo-saxonne)
M. MENOU / PROBABILITES ET STATISTIQUE 38
La définition française est F(x) = P(X < x) = ∑ pi i
Il s'agit donc d'effectuer le cumul des probabilités pour les valeurs de X inférieures ou égales à x.
xi P(X ≤ xi)
1 0,10
2 0,60
3 0,95
4 1
P(X ≤ xi)
0 1 2 3 4 xi
Propriétés :
F est une fonction en escalier croissante de 0 à 1, continue à droite.
5.1.3 moments
Les moments sont des valeurs caractéristiques de la variable. Ils renseignent sur son ordre de
39
grandeur, sa dispersion, sa symétrie, etc.
5.1.3.1 espérance mathématique :
L’espérance mathématique correspond à la moyenne arithmétique étudiée en statistique
descriptive. C’est le moment non centré d’ordre 1.
E(X) = ∑ xi P(X = xi) = ∑ pi xi i i propriétés de l'espérance :
E(a) = a
E(aX) = a E(X)
E(X+a) = E(X) + a
E(ΣX) = Σ E(X)
xi pi xi pi
1 0,10 0,1
2 0,50 1
3 0,35 1,05
4 0,05 0,2
E(X) = 2,35
5.1.3.2 variance
faible E(X) forte E(X)
La variance est le moment centré d’ordre 2 : 2 2 2 V(X) = E[X-E(X)] = E(X ) - (E(X)) (KOENIG) 2 2
M. MENOU / PROBABILITES ET STATISTIQUE 40
V(X) = ∑ pi xi - (E(X)) i
xi pi xi2 pi
1 0,10 0,1
2 0,50 2
3 0,35 3,15
4 0,05 0,8 V(X) = 6,05 - (2,35)2 = 0,53 propriétés de la variance : V(a) = 0 2 V(aX) = a V(X)
V(X + a) = V(X)
V(ΣX)≠∑ V(X) en général sauf si les variables sont indépendantes
Ecart type :
Pour se ramener à la même unité que la variable, on calcule l’écart type. La variance faisant
intervenir le carré de la variable, l’écart type se calcule en prenant la racine carrée de la variance.
ET(X) = 0,728
5.1.3.3 autres moments
moments non centrés d'ordre r : r r mr = E(X ) = ∑ pi xi i r = 1 espérance mathématique moments centrés d'ordre r : r r µr = E[X - E(X)] = ∑ pi [xi - E(X)] i r = 2 variance Les moments n'existent que si les séries convergent.
41
EXERCICE : On a placé dans une urne 4 pièces de 0,1 € et 6 pièces de 0,5 €. On tire
simultanément 2 de ces pièces. On définit une variable aléatoire X par le total des pièces tirées.
a) Quelles sont les valeurs possibles de X ?
b) Loi de probabilité de X ?
c) Fonction de répartition de X ?
d) Espérance mathématique de X ?
e) Variance de X ?
a) X(Ω) = 0,2 ; 0,6 ; 1
b) P(X = 0,2) = 12/90 = 0,13
P(X = 0,6) = 48/90 = 0,53
P(X = 1) = 30/90 = 0,34
C) P(X ≤ x)
P(X ≤ 0,2) = 12/90 = 0,13
P(X ≤ 0,6) = 60/90 = 0,66
P(X ≤ 1) = 90/90 = 1
d) E(X) = 0,13 x 0,2 + 0,53 x 0,6 + 0,34 x 1 =
E(X) = 0,026 + 0,318 + 0,34 = 0,684 €
e) E(X2) = 0,0052 + 0,1908 + 0,34 = 0,536 €2
V(X) = 0,13 x 0,22 + 0,53 x 0,62 + 0,34 x 12 - 6,842 =
V(X) = 0,536 - 6,842 = 0,068144 €2
ET(X) = 0,261044 €
5.2 variable aléatoire continue
L'ensemble des valeurs possibles pour une variable aléatoire réelle continue est infini non
dénombrable ce qui leur donne un caractère de continuité. Les valeurs ne sont plus distinguables.
M. MENOU / PROBABILITES ET STATISTIQUE 42
Les événements de la forme X = x sont de probabilité nulle, non parce qu'ils sont impossibles,
mais parce qu'ils exigent une trop grande précision. En revanche, se situer à proximité de x c’est-
à-dire dans un voisinage ([x-ε ; x+ε]) proche de X = x est probable.
Pour une variable aléatoire continue, il est dit qu’il n’existe pas de probabilité ponctuelle. En
géométrie, le point est réputé être sans dimension, il ne peut donc être l’objet d’une mesure. Or,
la probabilité est précisément une mesure d’ensemble.
Les concepts sont les suivants : fonction de répartition (5.2.1), propriétés de la fonction de
répartition (5.2.2), variable aléatoire absolument continue (5.2.3), densité de probabilité (5.2.4),
propriété de la fonction densité (5.2.5), probabilité d’un intervalle (5.2.6), moments (5.2.7).
5.2.1 fonction de répartition
Puisque les probabilités ponctuelles sont nulles, les variables continues seront définies par la
probabilité d'intervalles.
Ainsi, peuvent être considérés des événements de la forme :
X ∈ ] -∞ , x [ ou X < x
La probabilité de tels événements est la probabilité cumulée jusqu'à x.
F(x) = P(X < x)
Tout intervalle [x-ε ; x+ε] peut être considéré comme la différence entre deux événements du
type ] -∞ , x [ :
] -∞ , x+ε [ - ] -∞ , x-ε [
F(x) est appelée fonction de répartition.
5.2.2 Propriétés de la fonction de répartition
F est continue, croissante au sens large sur IR
43
lim F(x) = 1 quand x --> + ∞
lim F(x) = 0 quand x --> - ∞
F est dérivable sur IR sauf, peut être, sur un ensemble fini de points, où elle est dérivable à
gauche et à droite.
F est continue à gauche en tout point.
F a une dérivée continue
1
0
5.2.3 variable aléatoire absolument continue
X est absolument continue si, et seulement si :
- F admet, sauf peut être en certains points en nombre fini, une dérivée f ≥ 0 qui possède
certaines propriétés.
- F(x) = f (t)
!"
x
# dt
5.2.4 densité de probabilité
La fonction f(x) représente une densité de probabilité de X.
C’est ce qui correspond, dans le cas continu, à la loi de probabilité, dans le cas discret.
F(x)
x
M. MENOU / PROBABILITES ET STATISTIQUE 44
L'élément différentiel f(x) dx est appelé probabilité élémentaire, c'est ce qui, par abus de langage,
correspond à la probabilité pi (car la probabilité ponctuelle n'existe pas).
f(x) dx = P(x ≤ X < x + dx)
f(x) est la dérivée de la fonction de répartition F(x).
5.2.5 propriétés de la fonction densité
f est positive ou nulle
f est continue par morceaux sur IR
f admet une limite finie à gauche et à droite là où elle est discontinue
f (x)!"
+"
# dx = 1
5.2.6 probabilité d'un intervalle
P(a ≤ X ≤ b) = F(b) - F(a) =
f(x)
a
b
! dx = f(x)dx " f(x)dx
"#
a
!"#
b
!
P(a ≤ X ≤ b) = P(a < X < b)
5.2.7 moments
5.2.7.1 espérance mathématique :
45
E(X ) = xf (x)!"
+"
# dx
L’espérance mathématique a, bien entendu, les mêmes propriétés que dans le cas discret.
5.2.7.2 variance :
V(X) = x ! E(x )( )2f(x)
!"
+"
# dx = x2
!"
+"
# f(x)dx ! xf(x)dx
!"
+"
#$
% &
'
( )
2
V(X) = E(X2)-E2(X)
La variance a, bien entendu, les mêmes propriétés que dans le cas discret.
A partir de la variance, on calcule l’écart type. L’écart type est la racine carrée de la variance.
5.2.7.3 autres moments
non centré d'ordre r :
E(Xr) = x
rf (x)
!"
+"
# dx
centré d'ordre r :
M. MENOU / PROBABILITES ET STATISTIQUE 46
E(Xr) = x ! E(x)( )
rf (x)
!"
+"
# dx
EXERCICE :
f(x) =k
xpour x ! 1, 4[ ]
= 0 sinon
a) Calculer k pour que f soit une densité
b) Etudier la fonction
c) Déterminer la fonction de répartition
d) Calculer l’espérance mathématique
e) Calculer la variance
a)
k
x1
4
! dx = 1
k x
"1
2
1
4
! dx = 1
2k x
1
2#
$ %
&
' ( 1
4
= 1
2k 4 " 1( ) = 1
k =1
2
b)
f ' (x) = !1
2"1
2x
!3
2 < 0
x 0 1 4 +∞
f’ -
1/2
47
f +∞
0
c)
F(x) =1
2 t1
x
! dt = t
1
2"
# $
%
& ' 1
x
= x
1
2 (1
d)
E(x) =x
2 x1
4
! dx =1
2x
1
2
1
4
! dx =1
2"2
3x
3
2#
$ %
&
' ( 1
4
=1
34
3
2 ) 13
2*
+ , -
. / =
1
38 )1( ) =
7
3
e)
1/4
1/2
1/4
1 4
1
1 4
M. MENOU / PROBABILITES ET STATISTIQUE 48
V(x) =x2
2 x1
4
! dx " E2 (x) =1
2x
3
2
1
4
! dx "7
3
# $ % &
2
=1
2'2
5x
5
2(
) *
+
, - 1
4
"7
3
# $ % &
2
=1
54
5
2 "15
2#
$ . %
& / "
7
3
# $ % &
2
=1
532 "1( ) "
49
9=31x9
45"49x5
45=279 " 245
45=34
45
49
6 PRINCIPALES LOIS DE PROBABILITES
Les lois de probabilités se distinguent en lois discrètes (6.1) et lois continues (6.2).
6.1 Principales lois discrètes
Les différents types de distributions empiriques de fréquences peuvent se ramener à des
distributions relatives à un certain nombre d'expériences aléatoires types. Ces phénomènes types
sont appelés des lois théoriques. Les modèles d'urne permettent d'illustrer de telles expériences.
Le problème consiste généralement à reconnaître la loi suivie par un phénomène empirique
aléatoire observé.
La description des principales lois tant par la définition de l'épreuve, que par le graphe du
résultat, permet, par la comparaison avec les observations empiriques, de résoudre ce problème.
Les principales lois discrètes sont : loi certaine (6.1.1), loi uniforme (6.1.2), loi de Bernoulli
(6.1.3), loi binomiale (6.1.4), loi de Poisson (6.1.5), loi multinomiale (6.1.6), loi géométrique
(6.1.7) et loi hypergéométrique (6.1.8).
6.1.1 loi certaine
Une variable certaine est une v.a. X constante. L’urne ne contient qu’une catégorie d’éléments.
X(Ω) = a
loi de probabilité :
P(X = a) = 1
moments :
E(X) = a
V(X) = 0
M. MENOU / PROBABILITES ET STATISTIQUE 50
6.1.2 loi uniforme
Cette v.a. correspond au numéro d'un objet choisi au hasard parmi n, numérotés de 1 à n
(équiprobabilité). L’urne contient des boules numérotées. On tire une boule au hasard. On note
son numéro.
X(Ω) = [1 , n] ∈ IN X prend n valeurs, n étant fini.
loi de probabilité :
P(X = xi) = 1/n
P(x) F(x)
moments :
E(X) = (n + 1) / 2
V(X) = (n2 - 1) / 12
Coefficient d'asymétrie 0
Coefficient d'aplatissement -6/5 (n2+1)/(n2-1) + 3
EXEMPLE : On jette un dé non pipé.
6.1.3 loi de BERNOULLI
Une v.a. X de BERNOULLI est une v.a. qui ne prend que les valeurs 0 et 1 avec des probabilités
non nulles.
51
Cette v.a. correspond au résultat d'une expérience comportant deux issues E et S. Elle est aussi
dénommée variable indicatrice, car elle permet d'indiquer si un événement s'est produit ou pas.
L’urne contient deux catégories de boules en proportion p et q. On effectue un tirage, et on note
si c’est un succès ou un échec.
X(Ω) = 0 , 1 O pour échec, 1 pour succès
loi de probabilité :
P(X = 1) = p P(X = 0) = q = 1 - p
moments :
E(X) = p
V(X) = pq
6.1.4 loi binomiale
Une loi binomiale correspond à la répétition de n épreuves indépendantes de BERNOULLI.
Cela correspond à n tirages, avec remise, dans une urne comprenant deux catégories d'éléments
en proportion p et q.
La variable X représente le nombre k de succès obtenus.
X(Ω) = [0 , n]
loi de probabilité :
Son nom provient du développement de la puissance d'un binôme : 2 2 2 0 2 1 2 2 ( p + q ) = p + 2 pq + q = C2 p + C2 pq + C2 q k k n-k P(X = k) = Cn p q
moments :
Espérance E(X) = np
M. MENOU / PROBABILITES ET STATISTIQUE 52
Variance V(X) = npq
Coefficient d'asymétrie (q - p) / √(npq)
Coefficient d'aplatissement ((1 - 6pq) / npq) + 3
somme :
La somme de variables aléatoires indépendantes suivant des lois binomiales de paramètres (n1 ,
p) et (n2 , p), donc de même probabilité de succès p, est une variable aléatoire suivant une loi
binomiale de paramètres (n1 + n2 , p).
comportement asymptotique :
La loi binomiale peut être approximée par une loi de POISSON si n ≥ 30, p ≤ 0,1 , np ≤ 10.
La loi binomiale peut être approximée par une loi normale si n > 20, p et q voisin de 0,5 , np et
nq > 15.
EXEMPLE : On prélève au hasard 50 spécimens dans une chaîne de mise en boîtes de conserve
et l’on en pèse le contenu. On s’intéresse au nombre de boîtes qui ont un poids supérieur ou égal
au poids indiqué.
6.1.5 loi de POISSON
La loi de POISSON concerne des phénomènes à caractère accidentel, soit de faible probabilité.
Elle concerne des tirages avec remise dans une urne comprenant deux catégories d’éléments.
X suit une loi de POISSON de paramètre λ si X ∈ IN
X(Ω) = IN
loi de probabilité :
!
P(X = k) =e"##k
k!
moments :
53
E(X) = λ
V(X) = λ
Coefficient de symétrie 1/√λ
Coefficient d'aplatissement 3 + (1/λ)
somme :
La somme de deux variables aléatoires indépendantes suivant des lois de POISSON est une
variable de POISSON dont le paramètre est la somme des paramètres.
comportement asymptotique :
La loi de POISSON est la limite d'une loi binomiale. Le paramètre λ (espérance de la loi de
Poisson) est égal à np (espérance de la loi binomiale).
Les conditions à vérifier pour que l'approximation soit relativement correcte sont :
n ≥ 30 , p ≤ 0,1 , np ≤ 10
La loi de POISSON peut être approximée par une loi normale si np > 15.
(X - λ ) / √λ suit une N(0,1) pour λ grand
EXEMPLE : Une nuit d’été, on observe en moyenne une étoile filante toutes les 10 minutes.
Quelle est la probabilité d’en observer 2 en un quart d’heure ?
6 par h. donc λ = 1,5 par quart d’h. P(X = 2) = 0,25
6.1.6 loi multinomiale
Généralisation de la loi binomiale.
Tirages avec remise (donc indépendants) de n éléments dans une urne à m catégories d'éléments
en proportion p1, ..., pm.
On cherche la probabilité d’obtenir un Nombre nj d'éléments de type j.
M. MENOU / PROBABILITES ET STATISTIQUE 54
loi de probabilité : n1 nm P(N1 = n1, ..., Nm = nm) = n! / (n1! ... nm!) p1 ... pm moments :
E(Nj) = n pj
V(Nj) = n pj qj
Cov(Nj,Nk) = - n pj pk j = k
EXEMPLE : On dispose de 3 livres en français, 2 en anglais et 1 en espagnol. On tire avec remise
deux livres au hasard. Quelle est la probabilité de tirer 1 livre en anglais et celui en espagnol ?
p1 = 3/6 = 1/2 p2 = 2/6 = 1/3 p3 = 1/6
P =2!
1!1!
1
2
! " # $
01
3
! " # $
11
6
! " # $
1
=1
9% 11%
6.1.7 loi géométrique
Tirages, avec remise, dans une urne comprenant deux catégories d'éléments en proportion p (S) et
q (E).
La variable correspond au rang x du premier succès.
Cette loi correspond à une loi de PASCAL d'ordre 1.
X(Ω) = IN*
loi de probabilité : x-1 P(X = x) = q p moments :
E(X) = 1 / p 2 V(X) = q / p
55
EXEMPLE : Un tireur à l’arc atteint le centre de la cible 1 fois sur 4. Quelle est la probabilité
qu’il réussisse pour la première fois au deuxième tir ?
p = 0,25 q = 1 – 0,25 = 0,75
P(X = 2) = q p = 0,75 x 0,25 = 0,1875 = 18,75 %
6.1.8 loi hypergéométrique
Tirages, sans remise, donc dépendants, dans une urne de N éléments répartis en deux catégories
d'éléments de proportion p (S) et q (E).
La variable X est le nombre x de succès en n tirages.
X(Ω) inclus dans [0 , n]
loi de probabilité :
!
P(X = k) =CNp
kCNq
n"k
CN
n
moments :
E(X) = n p
V(X) = npq (N - n) / (N - 1)
comportement asymptotique :
La loi hypergéométrique peut être approximée par une loi binomiale si :
N est grand et si n/N < 0,1
EXEMPLE : On tire 8 cartes d’un jeu de 32, quelle est la probabilité d’avoir 4 as ?
M. MENOU / PROBABILITES ET STATISTIQUE 56
6.2 Principales lois de variables continues
Les principales lois de probabilités sont : la loi uniforme continue (6.2.1), loi normale (6.2.2),
loi du khi-deux (6.2.12), loi de student (6.2.13) et la loi de Fisher Snédécor (6.2.15).
6.2.1 loi uniforme continue
Une loi uniforme est définie par :
X(Ω) = [a,b]
fonction densité :
f(x) = constante sur [a , b]
f(x) = 0 ailleurs
Du fait de la propriété de la fonction densité :
f(x) = 1 / (b - a) 1I[a,b] (x)
fonction de répartition :
F(x) = 0 x ≤ a
F(x) = (x - a) / (b - a) a < x ≤ b
F(x) = 1 x > b
57
moments :
E(X) = (a + b) / 2
V(X) = (b - a)2 / 12
Coefficient d'asymétrie 0
Coefficient d'aplatissement 9/5
6.2.2 Loi normale
La loi normale ou de LAPLACE-GAUSS est une des lois les plus importantes car elle sert à
représenter de nombreux phénomènes.
Lorsqu’un phénomène résulte de multiples causes aléatoires indépendantes, dont aucune ne
domine, il suit une loi normale.
X est une variable aléatoire réelle absolument continue suivant une loi normale de paramètres :
espérance µ et écart type σ.
X(Ω) = ] -∞,+∞ [
fonction densité :
S
S
a b x
1
M. MENOU / PROBABILITES ET STATISTIQUE 58
!
f (x) =1
" 2#e
$1
2" 2(x$µ )2
X est symétrique par rapport à µ. E(X) = µ est aussi médiane.
fonction de répartition :
P(X ≤ x) = F(x) = f (t)!"
x
# dt
de même :
P(a ≤ X ≤ b) = f (x)
a
b
! dx
Le calcul de ces intégrales étant peu facile, les valeurs de la fonction de répartition sont
répertoriées dans une table, tabulées. Mais, le nombre de couples (µ,σ) étant infini, il devrait
exister un nombre infini de tables. Afin de pallier cet inconvénient, il est défini une loi dite
normale standard. Cette loi normale est aussi appelée loi centrée réduite, car ses paramètres sont
µ = 0 et σ = 1.
fonction densité :
!
f (x) =1
2"e
#1
2(x )
2
Pour passer d'une variable X, suivant une loi normale quelconque, à une variable Z suivant la loi
59
centrée réduite, il faut effectuer le changement de variable
!
Z =X "µ
#
La table de la loi normale centrée réduite ne reproduit généralement les valeurs de P(Z < z),
notées φ(z), que pour les valeurs de Z ≥ 0. Un certain nombre de relations sont donc utiles pour se
servir des tables :
P(Z > z) = 1 - P(Z < z)
P(Z < - z) = 1 - P(Z < z)
P(Z > - z) = P(Z < z)
P(|Z| ≤ z) = 2 P(Z < z) - 1
P(|Z| ≥ z) = 2 ( 1 - P(Z < z) )
P(a < Z < b) = P(Z < b) – P(Z < a)
Quelques valeurs sont intéressantes :
P(-1<Z<+1) = 0,6827 P(-2<Z<+2) = 0,9545 P(-3<Z<+3) = 0,9973
moments :
E(X) = µ
V(X) = σ2 agit sur la largeur de la distribution et sur la hauteur.
coefficient de symétrie 0
coefficient d'applatissement 3
comportement asymptotique :
approximation d'une loi binomiale :
X suit une loi binomiale (n,p)
si n --> ∞ (X - np)/√(npq) suit une loi normale (0,1)
conditions : n grand, p proche de 0.5 (0,1 < p < 0,9)
soit np > 15
M. MENOU / PROBABILITES ET STATISTIQUE 60
en pratique n > 50 (fin des tables binomiales)
correction de continuité :
Comme la loi Normale est une loi continue, la probabilité ponctuelle n’existe pas.
Donc P(X = xi) = 0
La largeur du rectangle est 1 donc la surface est f(xi).
Les deux triangles étant approximativement égaux, la surface est toujours f(xi).
xi Xi+0,5 xi-0,5
f(xi)
xi Xi+0,5 xi-0,5
f(xi)
61
P(X = xi) = P(xi - 0.5 ≤ X ≤ xi + 0.5)
somme algébrique de variables normales indépendantes:
X1 suit une loi normale (µ1 ,σ1)
X2 suit une loi normale (µ2 ,σ2)
X1 + X2 suit une loi normale [(µ1 + µ2);√(σ12 + σ22)]
X1 - X2 suit une loi normale [(µ1 - µ2);√(σ12 + σ22)]
EXEMPLE 1: La capacité respiratoire de 400 hommes suit une loi normale de paramètres 3,7 l en
moyenne et de 0,7 l d’écart type. Quel est le nombre de personnes qui ont une capacité
respiratoire inférieure ou égale à 3,21 l.
P(Z < - 0,7) = 1 - P(Z < 0,7) = 1 - 0,75804 = 0,24196
n = 400 x 0,24196 ≈ 96
EXEMPLE 2 : La durée de vie de 2000 lampes suit une loi normale N(1000, 200). Après
combien d’heures d’utilisation peut-on estimer que 10 % des lampes sont hors d’usage.
P(X ≤ x) = 0,1
1 - P(Z ≤ ?) = 0,9
table : P(Z ≤ 1,285) = 0,9
1,285 = - x !1000200
X = 1000 - 1,285 x 200 = 743 h
6.2.12 loi du khi-deux
La loi du khi-deux (de PEARSON), à n degrés de liberté est la loi suivie par une variable
M. MENOU / PROBABILITES ET STATISTIQUE 62
aléatoire égale à la somme des carrés de n variables aléatoires indépendantes suivant toutes la loi
normale N (0,1).
X(Ω) = [0,+∞ [
fonction densité :
f(x) = (2 n/2 Γ(n/2))-1 e-x/2 x(n/2)-1 1IIR+(x)
fonction de répartition:
voir table
moments :
E(X) = n
V(X) = 2n
somme :
La variable aléatoire, formée par la somme de deux variables aléatoires indépendantes suivant
des lois du khi-deux à n et m degrés de liberté, suit une loi du khi-deux à n+m degrés de liberté.
comportement asymptotique :
!
X " n
2n converge en loi vers une N(0,1) quand n --> ∞
En pratique n > 100
Cette loi est utile pour les tests d’indépendance entre deux variables, les tests d’adéquation d’une
distribution empirique à une loi théorique, etc.
6.2.13 loi de STUDENT (W. S. GOSSET)
La variable aléatoire :
!
T =X
Y
n
suit une loi de STUDENT à n degrés de liberté si X suit une N(0,1) et Y un khi-deux à n degrés
de liberté, X et Y étant indépendantes.
63
X(Ω) = ] -∞,+∞ [
fonction de répartition:
voit table
moments :
E(T) = 0
!
V (T) =n
n " 2 n > 2
comportement asymptotique :
T converge en loi vers une N(0,1) lorsque n --> ∞ (n > 30)
Cette loi est utile pour l’établissement d’intervalles de confiance, pour les tests de signification de
coefficients de régression, etc.
6.2.15 loi de FISHER-SNEDECOR
La variable :
!
F =
X
n
Y
m
suit une loi de FISHER-SNEDECOR à n et m degrés de liberté si X et Y sont deux variables
aléatoires indépendantes suivant des khi-deux respectivement à n et m degrés de liberté.
fonction de répartition :
voir table
moments :
E(X) = n / (n - 2) n > 2
V(X) = 2 n2 (m+n-2) / m (n-2)2 (n-4) n > 4
F1-p,n,m = 1/Fp,m,n
M. MENOU / PROBABILITES ET STATISTIQUE 64
Cette loi est utile pour l’établissement d’intervalles de confiance, pour les tests d’hypothèses, etc.
65
BIBLIOGRAPHIE
ANDERSON D. R. SWEENEY D. J. WILLIAMS T. A., Statistiques pour l’économie et la gestion, De Boeck Université, 2001. AUDROING J.-F. ABBOUD N., Probabilités et inférence statistique, Nathan. AULIAC G., Probabilités et statistique. Cours et exercices corrigés, Ediscience international, 1995. AVENEL M. RIFFAULT J.-F., Mathématiques appliquées à la gestion, Foucher, 2005. BENICHOU P. et R. BOY N. POUGET J.-P., Statistique et probabilités, Dunod, 1992. BERRUNDO-AGRELL M. FOURASTIE J., Pour comprendre les probabilités, Hachette, 1994. BOREL E., Probabilité et certitude, P.U.F., 1969. BOUGET D. VIENOT A., Traitement de l’information : statistiques et probabilités, Vuibert, 1995. BOURSIN J.-L., Comprendre les probabilités, Cursus, Armand Colin, 1989. BOURSIN J.-L., Les structures du hasard. Les probabilités et leurs usages, Seuil, 1986. BOUZITAT C. BOUZITAT P. PAGES G., Statistique : probabilités - estimation ponctuelle, Cujas, 1991. BOY C. NIZARD A., Exercices corrigés de probabilités, Armand colin, 1995. CALOT G., Cours de calcul des probabilités, Dunod, 1989. CALOT G., Exercices de calcul des probabilités, Dunod, 1989. COMTE M. GADEN J., Statistiques et probabilités pour les sciences économiques et sociales, PUF, 2000. CORNUEL D. DERREUMAUX, Calcul des probabilités, exercices corrigés, rappels de cours, Sirey, 1976. DAGNELIE P., Théorie et méthodes statistiques, Presses agronomiques de Gembloux, 1985 DEGRAVE C. DEGRAVE D. BOULANGER, Probabilités Statistiques, Bréal.
DEGRAVE C. DEGRAVE D. BOULANGER, Problèmes résolus de Probabilités Statistiques,
Bréal.
DEGRAVE BOULANGER, Précis de mathématiques tome 3 : Probabilités Statistiques, (préparation HEC) Breal.
M. MENOU / PROBABILITES ET STATISTIQUE 66
DEHEUVELS P., La probabilité, le hasard et la certitude, QSJ 3, PUF, 1990. DEVINAT H. POULOS D. RABINO P., Statistique et probabilités - Problèmes et corrigés, Economica, 1989. DUBOS J., Collecte des traitements statistiques de l'information économique et sociale : 1 Echantillonnage - Estimation, Cujas, 1987. DUGACHEV V., Théorie des probabilités et statistiques mathématiques, Mir 1982 DUSSAIX A.-M. GROSBRAS J.-M., Les sondages : principes et méthodes, QSJ 701, PUF, 1993. FAVRO E., Statistique et probabilités, Dunod, 1991. FOURASTIE J. SAHLER B., Probabilités et statistique, Dunod, 19. FOURASTIE J. LASLIER J.F., Probabilité et statistique, Série J. QUINET, Dunod, 1990. FOURGEAUD C. FUCHS A., Statistique, Dunod, 1972. GHORBANZADEH D., Probabilités. Exercices corrigés, Technip, 1998. GRAIS B., Méthodes statistiques, Dunod, 1992. HAMMAD P., Cours de probabilités, Cujas, 1985. HAMMAD P. TARANCO A., Exercices de probabilités, Cujas, 1985. HARARI J. PERSONNAZ D., Cours de mathématiques -3 probabilités, Belin, 1984 HARTHONG J., Probabilités et Statistiques. De l’intuition aux applications, Diderot multimédia, 1996. JACQUARD A., Les probabilités, QSJ 1571, PUF, 1992. LABROUSSE C., Statistique. Exercices corrigés t2 t3, Dunod, 1991. LAPRESTE J.T., Probabilités 92 exercices corrigés, Dunod. LEBOEUF C. ROQUE JL. GUEGAND J., Cours de probabilités et de statistiques, Marketing, 1983 LECOUTRE JP. LEGAIT S. TASSI P., Statistiques exercices corrigés avec rappel de cours, Masson, 1987 LIPSCHUTZ S., Probabilités. Cours et problèmes, Série SCHAUM, McGraw-Hill, 1990. MARCEIL Aide mémoire de probabilités et statistiques, Ellipses. MASIERI W., Statistique et calcul des probabilités, Sirey MASIERI W., Statistique et calcul des probabilités, travaux pratiques : énoncés et solutions,
67
Sirey MONFORT A., Cours de probabilités, Economica, 1980 MONFORT A., Cours de statistique mathématique, Economica, 1982 MONINO J.-L. SOL J.-L., Statistique et probabilités, Dunod, 1994. MORONEY "Comprendre les statistiques" PELLAUMAIL J., Probabilités, Statistiques, Files d'attente. Cours et exercices résolus, Dunod, 1989. PUPION G., Statistiques descriptives et décisionnelles appliquées à l'économie et à la gestion, P.U.F., 1988. RAFFIN C., Statistiques et probabilités, Armand Colin, 1987 REAU J.P. CHAUVAT G., Probabilités et Statistiques, Flash U, Armand Colin, 1988. RENAULT J., Formulaire de probabilités et de statistiques, Dunod, 1992. Revue de statistique appliquée "Aide mémoire pratique des techniques statistiques", CERESTA, 1986 ROBERT C., L'analyse statistique bayésienne, Economica, 1992. SANDERS H.D. MURPH A.F. ENG R.J., Les statistiques une approche nouvelle, Mac Graw Hill, 1984 SANDRETTO R., Probabilités. Exercices corrigés et rappels de cours, Dunod, 1992. SAPORTA G., Probabilités, analyse des données et statistique, Technip, 1990. SPIEGEL MURRAY R., Théorie et applications de la statistique, Série SCHAUM, McGraw-Hill, 1972. TAGUSHI TASSI P., Méthodes statistiques, Economica, 1985. TRIGNAN J., Probabilités statistiques et leurs applications. cours et exercices résolus, Bréal, 1991. VERLANT BIGOT, Statistiques et probabilités, Foucher. VESSEREAU A., La statistique, QSJ 281, PUF 1992. VO KHAC, Estimation et tests paramétriques et non paramétriques, Ellipses. WONNACOTT T.H. WONNACOTT R.J., Statistique, Economica, 1984