Post on 23-Jan-2023
Montassar Zayati : Cours de « Statistique Inductive » 1
Université de Sousse
École Supérieure Privée des Technologies d'Informatique et de Management
COURS DE STATISTIQUE
INDUCTIVE
Enseignant : M. Zayati Montassar
Année Universitaire : 2013/2014
Montassar Zayati : Cours de « Statistique Inductive » 2
Sommaire CHAPITRE 0 : INTRODUCTION ET RAPPELS 3
I. GENERALITES 3
II. RAPPEL 5
1. Notion de Probabilité : 5
1.1. L’expérience aléatoire : 5
1.2. L’Ensemble Fondamental (Ω): 5
1.3. Propriétés 6
III. LE CONCEPT DE PROBABILITE 6
1. L’équiprobabilité : 6
2. Propriétés : 7
3. Probabilité Conditionnelle : 7
4. Le Concept d’Indépendance en Probabilité : 7
CHAPITRE 1 : LA VARIABLE ALEATOIRE REELLE 8
I. GENERALITE : 8
II. VARIABLE ALEATOIRE DISCRETE : 8
1. Définition : 8
2. La Loi de Probabilité : 8
2.1. Définitions 8
3. La Fonction de Répartition : 9
3.1. Exercice 9
4. Les Moments d’ordre k d’une Variable Aléatoire Discrète : 11
4.1. Généralités : 11
4.2. Espérance Mathématique : 11
4.3. La Variance : 11
4.4. Coefficient de Corrélation Linéaire: 12
III. QUELQUES LOIS DISCRETE D’USAGES COURANT 12
1. La Loi de Bernoulli de paramètre (p) : 12
1.1. Les Caractéristiques 13
2. La loi Binomiale de paramètre (n, p) 13
Montassar Zayati : Cours de « Statistique Inductive » 3
Chapitre 0 : Introduction et Rappels
I. Généralités
Le but de la statistique est de dégager les significations de données (numériques ou non)
obtenues au cours de l'étude d'un phénomène. Il faut distinguer les données statistiques (qui
sont les résultats d'observations recueillies lors de l'étude d'un phénomène), et la méthode
statistique (qui a pour objet l'étude rationnelle des données).
D’un autre côté, La problématique de l’inférence statistique consiste, à partir d’un
échantillon de données provenant d’une population de loi de probabilité inconnue, à déduire
des propriétés sur cette population : quelle est sa loi (problème d’estimation, chapitre 3),
comment prendre une décision en contrôlant au mieux le risque de se tromper (problème de
test, chapitre 4).
En fait, nous allons utilisés des raisonnements inductifs c'est-à-dire des raisonnements de
passage du particulier au général. Cette statistique utilise des repères de référence qui sont les
modèles théoriques (lois de probabilités : chapitre 2). Cette statistique nécessite la recherche
d'échantillons qui représentent le mieux possible la diversité de la population entière ; il est
nécessaire qu'ils soient constitués au hasard ; on dit qu'ils résultent d'un tirage non exhaustif.
L'étude sur échantillon se justifie pour réduire le coût élevé et limiter la destruction
d'individus pour obtenir la réponse statistique.
Fig1 : Relation entre population et échantillon
Montassar Zayati : Cours de « Statistique Inductive » 4
L’échantillon tente de nous donner des informations sur la population (telle la moyenne et
la variance), les vrais paramètres d’une population étant souvent inconnus. Peut-on conclure
par exemple que la moyenne la moyenne de notre échantillon? Jusqu’à quel point
peut-on être confiant de cette inférence? Si quelqu’un d’autre affirme qu’en réalité, μ est un
millième plus petit, est-t-il possible qu’il ait raison lui aussi? Si un autre encore affirme que μ
devrait être de tant, peut-on le discréditer?
Par exemple, en période électorale, les politiciens aimeraient bien connaître l’intention de
vote de toute la population. Ils doivent pourtant se contenter des mesures prises par les
maisons de sondage sur des échantillons limités.
Tout ceci peut se synthétiser au moyen du schéma suivant :
Données Importance de la manière de les collecter
(Théorie des Sondages) Présentation des données recueillies (Statistique Descriptive)
Modélisation Les différents modèles probabilistes disponibles et
Outils nécessaires à la déduction (Théorie des Probabilités)
Statistiques Inductive (ou mathématique ou Inférentielle) Un modèle statistique paramétrique ( ) Induction ou inférence statistique :
Estimation : quelle est la valeur de
Test : est-ce que
Il reste à déterminer dans quel cadre cette formalisation à l’aide de modèles aléatoires sera
nécessaire.
Montassar Zayati : Cours de « Statistique Inductive » 5
II. Rappel
1. Notion de Probabilité :
Nous allons rappeler la définition d’un certain nombre de termes du vocabulaire utilisé dans ce
contexte non déterministe. La notion essentielle introduite est bien sur celle de probabilité avec la
notion d’indépendance qui lui est associée et qui joue un rôle très important en statistique.
1.1. L’expérience aléatoire :
Elle désigne une expérience dont on connait l’ensemble des résultats possibles sans savoir
les quels de ceux-ci se réalisera.
1.2. L’Ensemble Fondamental (Ω):
C’est l’ensemble (ou Univers) de tous les résultats possibles d’une expérience aléatoire.
Le résultat d’une expérience aléatoire s’appelle événement ( ).
La quantification des « chances » qu’un tel événement a de se réaliser correspond à la
notion intuitive de probabilité.
Exemple 1 :
Jet d’un dé de six faces numérotées : est un ensemble fini dénombrable.
Exemple 2 :
On tire une boule dans une urne contenant une boule noire, deux blanches et cinq rouges.
L’ensemble fondamentale retenu est Ω = noire, blanche, rouge ; Ω est ici fini dénombrable.
Remarque :
- toute partie sera un événement.
- L’ensemble peut être fini ou infini, continu ou discret.
- L’ensemble dépend évidemment de l’expérience considérée, mais aussi du choix de
celui qui construit le modèle, et par la présente donc un certain arbitraire.
Exemple 3 : soit E une expérience aléatoire qui consiste à jeter un dé une fois :
. Soit A l’événement : le résultat du lancé est un nombre paire ; alors
A = 2, 4, 6.
Exemple 4 : si on tire une carte d’un jeu de 32 cartes, on peut retenir comme ensemble
fondamentaux Ω = noire, rouge ; Ω = une carte supérieure à 9 : 10, valet, dame, roi, as ou
Ω = trèfle, carreau, cœur, pique.
Exemple 5 : on observe la durée de vie d’une lampe : Ω = [0, +∞ [ = ;
Montassar Zayati : Cours de « Statistique Inductive » 6
Remarque : le couple ( c’est-à-dire le couple qui est formé de l’ensemble
fondamental et de l’ensemble des parties de ( ) constitue un espace
probabilisable liée à l’expérience aléatoire.
1.3. Propriétés
Si
Le couple ( ) constitue un espace probabiliste liée à l’expérience aléatoire.
Quelques types d’événements :
- Evénement Certains : est dit événement certains car il se réalise toujours.
- Evénement Impossible : l’ensemble vide est un événement impossible car il ne
se réalise jamais.
- Evénement Incompatible : soit A et B deux événements qui définit sur
( ) ; on dit que A et B sont incompatible (disjoints) s’ils ne peuvent pas être
réalisé en même temps, c-à-d.
III. Le Concept de Probabilité Soit ( ) un espace probabiliste ; on appelle probabilité sur de ou loi de probabilité
toute application « P » de da ns [0, 1] :
tq si contient un nombre fini (n) de résultats ( alors
on a dans ce cas et avec sont n possibilités tq :
Soit A un événement (c-à-d un sous-ensemble de ) ; la probabilité de réalisation de A
« p(A) » est donnée par :
1. L’équiprobabilité :
Soit ( ) un espace probabiliste fini ( ) ; l’application appelée « équiprobabilité »
est la suivante :
D’une façon générale :
Montassar Zayati : Cours de « Statistique Inductive » 7
2. Propriétés :
Soit p une probabilité sur ( ) on a alors les propriétés suivantes :
Si , alors
si A et B sont compatibles alors
si A et B sont incompatibles alors
le triplet ( ) est dis espace probabiliste de probabilité p
3. Probabilité Conditionnelle :
Soit ( ) un espace probabiliste tq A et b sont deux événements de où B est un
événement de probabilité non nul (p(B) ≠ 0) ; la probabilité conditionnelle de réalisation de A
sachant que l’événement B se réalise est donnée par :
4. Le Concept d’Indépendance en Probabilité :
L’événement A et B sont dites indépendant en probabilité si la réalisation de l’un deux
n’empêche pas la réalisation de l’autre, en terme de probabilité on a :
Montassar Zayati : Cours de « Statistique Inductive » 8
Chapitre 1 : La Variable Aléatoire Réelle
I. Généralité :
Soit « E » une expérience aléatoire, et ( ) l’espace associé à cette expérience. À
chaque résultat de l’expérience « E » on associe un nombre réel, on défini ainsi l’application :
Définition : une variable aléatoire est une fonction qui associe à chaque résultat de
l’expérience aléatoire un nombre réel.
Exemple : soit « E » une expérience aléatoire qui consiste à lancer une pièce de
monnaie deux fois, l’ensemble fondamentale associé à cette expérience est
. Soit X la variable aléatoire réelle indiquant le nombre des
faces obtenus de cette expérience, il est clair qu’on ne peut pas trouver face, ou
bien on va trouver une seule fois face (FP, PF), comme on peut trouver 2 fois face
(FF). On a alors 0, 1 et 2 ; on écrit donc : variable aléatoire
II. Variable Aléatoire Discrète :
1. Définition :
Soit ( ) un espace probabiliste, une variable aléatoire est une application :
tq
, soit dénombrable, est L’ensemble des valeurs prisent
pour la variable aléatoire X. on dit que X est discrète si elle prend des variables finies
ou infinies et dénombrable
2. La Loi de Probabilité :
La loi de probabilité c’est faire correspondre à chacune des valeurs de la variable aléatoire
sa chance d’être réalisée. Son poids dans l’ensemble fondamentale se défini comme la loi de
probabilité ou distribution de probabilité à la variable.
2.1. Définitions : soit X une variable aléatoire discrète, on appelle loi de
probabilité ou distribution de probabilité de x :
Montassar Zayati : Cours de « Statistique Inductive » 9
Exemple : en revenant à l’exemple précédant on a = 4 élts et
l’ensemble des valeurs des variables : et la loi de probabilité de X ou la
distribution de probabilité de X est donnée dans le tableau suivant :
x 0 1 2 ∑
1/4 2/4 1/4 1
3. La Fonction de Répartition :
Soit X une variable aléatoire (V.A) de loi de probabilité : ; la fonction de
répartition de x notée : est une application :
Vérifiant les propriétés suivantes :
La courbe de prend la forme d’escalier.
est une fonction croissante au sens large.
est continu en tout point de , il résulte de l’additivité de qui
:
3.1. Exercice
Soit X une V.A discrète de loi de probabilité défini par :
x 0 1 2 3 4
0,7 a 0,1 b 0,05
1°/ déterminer les probabilités a et b sachant que .
2°/ déterminer et représenter graphiquement la fonction de répartition de la variable X.
3°/ calculer
Montassar Zayati : Cours de « Statistique Inductive » 10
Solution :
1°/ on a
On sait que :
x 0 1 2 3 4 ∑
0,7 0,1 0,1 0,05 0,05 1
2°/ en définitif on a :
x 0 1 2 3 4 ∑
0,7 0,1 0,1 0,05 0,05 1
0,7 0,8 0,9 0,95 1
3°/
00,10,20,30,40,50,60,70,80,9
11,11,2
-2 -1 0 1 2 3 4 5
Montassar Zayati : Cours de « Statistique Inductive » 11
4. Les Moments d’ordre k d’une Variable Aléatoire Discrète :
4.1. Généralités :
Soit X une V.A c-à-d fini ou infini. On appelle moment d’ordre k de
la variable x notée , la valeur donnée par :
4.2. Espérance Mathématique :
L’espérance mathématique d’une V.A.D si elle existe, est le nombre réel E(X) défini par :
Ce n’est rien d’autre que le moment non centré d’ordre 1.
∑
1
A/ Propriétés :
P1/ si on ajoute une constante à une V.A, il en va de même pour son espérance :
P2/ si on multiplie une v.a par une constante, il en va de même pour son espérance :
P3/ l’espérance d’une somme de deux v.a est la somme des espérances :
Résumé : l’opérateur espérance mathématique est linéaire :
4.3. La Variance :
Il s’agit d’un indicateur mesurant la dispersion des valeurs Xi que peut prendre la v.a X
autour de la moyenne en probabilité E(X) et défini par :
C’est l’espérance mathématique du carré de la v.a X-E(X) :
A/ Propriétés :
P1/
P2/
P3/
P4/ ; désigne l’écart-type (standard déviation) de X.
P5/
Montassar Zayati : Cours de « Statistique Inductive » 12
P6/ Si X et Y sont deux v.a indépendantes, alors :
P7/ Dans le cas général :
P8/
P9/
P10/
P11/
4.4. Coefficient de Corrélation Linéaire:
Exercice :
Soit la distribution de probabilité suivante :
0 1 2 ∑
1/4 1/2 1/4 1
Calculer l’espérance, la variance de X et son écart-type.
Solution :
0 1 2 ∑
1/4 1/2 1/4 1
0 1/2 1/2 1=
0 1/2 1 1,5 =
III. Quelques Lois Discrète d’usages courant
1. La Loi de Bernoulli de paramètre (p) :
Dans une épreuve à deux issues (résultats) (P ou F ; Vrai ou Faux) effectué une fois.
L’événement Pile ou Vrai est associé à une probabilité « p » correspondant au succès c-à-d sa
chance de réalisation. Cette épreuve ou expérience est dite épreuve de Bernoulli.
Exemple :
Dans une expérience qui consiste à lancer une pièce de monnaie une fois, on a
et et la loi de X s’écrit de façon générale :
0 1 ∑
1-p = q p 1
Montassar Zayati : Cours de « Statistique Inductive » 13
On a
Et
La loi de Bernoulli s’écrit sous la forme :
1.1. Les Caractéristiques :
A. L’Espérance Mathématique :
Par définition
B. La Variance :
On sait que
2. La loi Binomiale de paramètre (n, p) :
C’est la répétition (n) fois de l’épreuve de Bernoulli.
Toute série de n épreuves (expérience) avec (n≥2) successives et indépendantes de
Bernoulli dont le résultat de chaque épreuve est soit succès avec une probabilité (p), soit
échec avec une probabilité (q=1-p) est dite loi Binomiale de paramètres n et p. En effet, soit X
la v.a égale en nombre de succès rencontrée au cours de n épreuves ; .
L’expérience étant une épreuve qui n’accepte que X résultats succès ou échec avec
respectivement les probabilités p et 1-p ; si on donne 1 au succès et 0 à l’échec on trouve que
parmi les n épreuves on peut avoir x=1, par conséquent, nous aurons n-x=0 (échec). Dans ce
cas, on trouve que le nombre d’épreuves est
2.1. Les Caractéristiques de la loi Binomiale :
A. L’Espérance Mathématique :
B. La Variance :
Montassar Zayati : Cours de « Statistique Inductive » 14
Exemple 1:
On lance 10 fois la pièce de monnaie. La v. a. X « nombre de faces obtenues » suit une
.
Exemple 2:
Le nombre X de boules Rouges apparues au cours de n tirages avec remises dans une urne
contenant 2 rouges, 3 bleu et 1 noire. .
Exemple 3:
Un joueur à une chance sur trois de marquer un but, il effectue 5 tires.
1) Identifier la loi associée à cette expérience. En déduire l’espérance et la variance.
2) Calculer la probabilité qu’il marque :
a) 3 buts
b) 5 buts
c) Au plus un but
d) Au moins 2 buts
Corrigé :
1) .
2)
a)
b)
c)
d)
Montassar Zayati : Cours de « Statistique Inductive » 15
C. Somme de variables aléatoires binomiales indépendantes
Si X1 et X2 sont deux variables aléatoires indépendantes suivants les lois binomiales
et alors . On notera que le deuxième paramètre
(probabilité de succès au cours d’une épreuve) est le pour X1 et X2.
D. Conséquences :
- Si alors .
Il existe la table de la loi binomiale qui indique les probabilités cumulés pour diverses valeurs
de n et p. le nombre des valeurs de n et de p envisagés dans la table est forcément très limité.
Mais, on peut à partir d’une loi déduire les probabilités d’une loi .
E. Lecture de la table de la loi Binomiale :
La table indique les probabilités cumulées de la loi binomiale. On fixe d’abord, le nombre
d’épreuves « n » dans la 1ière
colonne de la table, ensuite, on repère le nombre de succès « x »
dans la deuxième colonne et enfin on choisit la probabilité « p » dans la 1ière
ligne. Puis à
l’intersection de cette ligne et de ces deux colonnes, on lit la probabilité cherchée.
Exemple 4:
.
Déterminer .
D’après la lecture de la table :
Déterminer
Dans certains tables, la probabilité p = 0,9 n’existe pas, donc on utilise la propriété de la
loi binomiale selon laquelle : Si alors .
alors
Ainsi si
Alors
Montassar Zayati : Cours de « Statistique Inductive » 17
3. La loi de Poisson de paramètre λ :
Siméon-Denis Poisson (1781-1840) : mathématicien, probabiliste et physicien français.
3.1. Définition :
Soit λ un réel strictement positif donné ; une variable aléatoire discrète X suit la loi de poisson
de paramètre λ si elle peut prendre toutes les valeurs entières positives ou nulles k (k>0) avec
la probabilité :
3.2. Les caractéristiques de la loi :
A. Espérance Mathématique et Variance:
B. Somme de variables aléatoires de Poisson indépendante :
Si X1 et X2 sont deux variables aléatoires indépendantes tels que :
C. Approximation de la loi Binomiale par la loi de Poisson :
Si les trois conditions suivantes sont vérifiées :
- n « grand » (par exemple n ≥ 30).
- p « petit » (par exemple p ≤ 0,1).
- np « pas trop grand » (par exemple np ≤ 15).
On peut approcher la loi Binomiale par la loi de Poisson avec , ce qui
permet d’écrire ( ) :
Plus n est grand et p petit, meilleure sera l’approximation. L’intérêt d’utiliser une telle
approximation est :
de remplacer une loi à 2 paramètres par une loi à un seul paramètre.
De simplifier les calculs numériques
Voire de les éviter puisqu’il existe, pour la loi de poisson, des tables indiquant
les
D. Lecture de la table de la loi de Poisson :
La table indique les probabilités cumulées de la loi de Poisson. On fixe « x » situé dans la 1ière
colonne, on choisit le paramètre dans la 1ière
ligne, puis à l’intersection de cette ligne et de
cette colonne, on lit la probabilité cherchée.