Cours de statistique Inductif

17
Montassar Zayati : Cours de « Statistique Inductive » 1 Université de Sousse École Supérieure Privée des Technologies d'Informatique et de Management COURS DE STATISTIQUE INDUCTIVE Enseignant : M. Zayati Montassar Année Universitaire : 2013/2014

Transcript of Cours de statistique Inductif

Montassar Zayati : Cours de « Statistique Inductive » 1

Université de Sousse

École Supérieure Privée des Technologies d'Informatique et de Management

COURS DE STATISTIQUE

INDUCTIVE

Enseignant : M. Zayati Montassar

Année Universitaire : 2013/2014

Montassar Zayati : Cours de « Statistique Inductive » 2

Sommaire CHAPITRE 0 : INTRODUCTION ET RAPPELS 3

I. GENERALITES 3

II. RAPPEL 5

1. Notion de Probabilité : 5

1.1. L’expérience aléatoire : 5

1.2. L’Ensemble Fondamental (Ω): 5

1.3. Propriétés 6

III. LE CONCEPT DE PROBABILITE 6

1. L’équiprobabilité : 6

2. Propriétés : 7

3. Probabilité Conditionnelle : 7

4. Le Concept d’Indépendance en Probabilité : 7

CHAPITRE 1 : LA VARIABLE ALEATOIRE REELLE 8

I. GENERALITE : 8

II. VARIABLE ALEATOIRE DISCRETE : 8

1. Définition : 8

2. La Loi de Probabilité : 8

2.1. Définitions 8

3. La Fonction de Répartition : 9

3.1. Exercice 9

4. Les Moments d’ordre k d’une Variable Aléatoire Discrète : 11

4.1. Généralités : 11

4.2. Espérance Mathématique : 11

4.3. La Variance : 11

4.4. Coefficient de Corrélation Linéaire: 12

III. QUELQUES LOIS DISCRETE D’USAGES COURANT 12

1. La Loi de Bernoulli de paramètre (p) : 12

1.1. Les Caractéristiques 13

2. La loi Binomiale de paramètre (n, p) 13

Montassar Zayati : Cours de « Statistique Inductive » 3

Chapitre 0 : Introduction et Rappels

I. Généralités

Le but de la statistique est de dégager les significations de données (numériques ou non)

obtenues au cours de l'étude d'un phénomène. Il faut distinguer les données statistiques (qui

sont les résultats d'observations recueillies lors de l'étude d'un phénomène), et la méthode

statistique (qui a pour objet l'étude rationnelle des données).

D’un autre côté, La problématique de l’inférence statistique consiste, à partir d’un

échantillon de données provenant d’une population de loi de probabilité inconnue, à déduire

des propriétés sur cette population : quelle est sa loi (problème d’estimation, chapitre 3),

comment prendre une décision en contrôlant au mieux le risque de se tromper (problème de

test, chapitre 4).

En fait, nous allons utilisés des raisonnements inductifs c'est-à-dire des raisonnements de

passage du particulier au général. Cette statistique utilise des repères de référence qui sont les

modèles théoriques (lois de probabilités : chapitre 2). Cette statistique nécessite la recherche

d'échantillons qui représentent le mieux possible la diversité de la population entière ; il est

nécessaire qu'ils soient constitués au hasard ; on dit qu'ils résultent d'un tirage non exhaustif.

L'étude sur échantillon se justifie pour réduire le coût élevé et limiter la destruction

d'individus pour obtenir la réponse statistique.

Fig1 : Relation entre population et échantillon

Montassar Zayati : Cours de « Statistique Inductive » 4

L’échantillon tente de nous donner des informations sur la population (telle la moyenne et

la variance), les vrais paramètres d’une population étant souvent inconnus. Peut-on conclure

par exemple que la moyenne la moyenne de notre échantillon? Jusqu’à quel point

peut-on être confiant de cette inférence? Si quelqu’un d’autre affirme qu’en réalité, μ est un

millième plus petit, est-t-il possible qu’il ait raison lui aussi? Si un autre encore affirme que μ

devrait être de tant, peut-on le discréditer?

Par exemple, en période électorale, les politiciens aimeraient bien connaître l’intention de

vote de toute la population. Ils doivent pourtant se contenter des mesures prises par les

maisons de sondage sur des échantillons limités.

Tout ceci peut se synthétiser au moyen du schéma suivant :

Données Importance de la manière de les collecter

(Théorie des Sondages) Présentation des données recueillies (Statistique Descriptive)

Modélisation Les différents modèles probabilistes disponibles et

Outils nécessaires à la déduction (Théorie des Probabilités)

Statistiques Inductive (ou mathématique ou Inférentielle) Un modèle statistique paramétrique ( ) Induction ou inférence statistique :

Estimation : quelle est la valeur de

Test : est-ce que

Il reste à déterminer dans quel cadre cette formalisation à l’aide de modèles aléatoires sera

nécessaire.

Montassar Zayati : Cours de « Statistique Inductive » 5

II. Rappel

1. Notion de Probabilité :

Nous allons rappeler la définition d’un certain nombre de termes du vocabulaire utilisé dans ce

contexte non déterministe. La notion essentielle introduite est bien sur celle de probabilité avec la

notion d’indépendance qui lui est associée et qui joue un rôle très important en statistique.

1.1. L’expérience aléatoire :

Elle désigne une expérience dont on connait l’ensemble des résultats possibles sans savoir

les quels de ceux-ci se réalisera.

1.2. L’Ensemble Fondamental (Ω):

C’est l’ensemble (ou Univers) de tous les résultats possibles d’une expérience aléatoire.

Le résultat d’une expérience aléatoire s’appelle événement ( ).

La quantification des « chances » qu’un tel événement a de se réaliser correspond à la

notion intuitive de probabilité.

Exemple 1 :

Jet d’un dé de six faces numérotées : est un ensemble fini dénombrable.

Exemple 2 :

On tire une boule dans une urne contenant une boule noire, deux blanches et cinq rouges.

L’ensemble fondamentale retenu est Ω = noire, blanche, rouge ; Ω est ici fini dénombrable.

Remarque :

- toute partie sera un événement.

- L’ensemble peut être fini ou infini, continu ou discret.

- L’ensemble dépend évidemment de l’expérience considérée, mais aussi du choix de

celui qui construit le modèle, et par la présente donc un certain arbitraire.

Exemple 3 : soit E une expérience aléatoire qui consiste à jeter un dé une fois :

. Soit A l’événement : le résultat du lancé est un nombre paire ; alors

A = 2, 4, 6.

Exemple 4 : si on tire une carte d’un jeu de 32 cartes, on peut retenir comme ensemble

fondamentaux Ω = noire, rouge ; Ω = une carte supérieure à 9 : 10, valet, dame, roi, as ou

Ω = trèfle, carreau, cœur, pique.

Exemple 5 : on observe la durée de vie d’une lampe : Ω = [0, +∞ [ = ;

Montassar Zayati : Cours de « Statistique Inductive » 6

Remarque : le couple ( c’est-à-dire le couple qui est formé de l’ensemble

fondamental et de l’ensemble des parties de ( ) constitue un espace

probabilisable liée à l’expérience aléatoire.

1.3. Propriétés

Si

Le couple ( ) constitue un espace probabiliste liée à l’expérience aléatoire.

Quelques types d’événements :

- Evénement Certains : est dit événement certains car il se réalise toujours.

- Evénement Impossible : l’ensemble vide est un événement impossible car il ne

se réalise jamais.

- Evénement Incompatible : soit A et B deux événements qui définit sur

( ) ; on dit que A et B sont incompatible (disjoints) s’ils ne peuvent pas être

réalisé en même temps, c-à-d.

III. Le Concept de Probabilité Soit ( ) un espace probabiliste ; on appelle probabilité sur de ou loi de probabilité

toute application « P » de da ns [0, 1] :

tq si contient un nombre fini (n) de résultats ( alors

on a dans ce cas et avec sont n possibilités tq :

Soit A un événement (c-à-d un sous-ensemble de ) ; la probabilité de réalisation de A

« p(A) » est donnée par :

1. L’équiprobabilité :

Soit ( ) un espace probabiliste fini ( ) ; l’application appelée « équiprobabilité »

est la suivante :

D’une façon générale :

Montassar Zayati : Cours de « Statistique Inductive » 7

2. Propriétés :

Soit p une probabilité sur ( ) on a alors les propriétés suivantes :

Si , alors

si A et B sont compatibles alors

si A et B sont incompatibles alors

le triplet ( ) est dis espace probabiliste de probabilité p

3. Probabilité Conditionnelle :

Soit ( ) un espace probabiliste tq A et b sont deux événements de où B est un

événement de probabilité non nul (p(B) ≠ 0) ; la probabilité conditionnelle de réalisation de A

sachant que l’événement B se réalise est donnée par :

4. Le Concept d’Indépendance en Probabilité :

L’événement A et B sont dites indépendant en probabilité si la réalisation de l’un deux

n’empêche pas la réalisation de l’autre, en terme de probabilité on a :

Montassar Zayati : Cours de « Statistique Inductive » 8

Chapitre 1 : La Variable Aléatoire Réelle

I. Généralité :

Soit « E » une expérience aléatoire, et ( ) l’espace associé à cette expérience. À

chaque résultat de l’expérience « E » on associe un nombre réel, on défini ainsi l’application :

Définition : une variable aléatoire est une fonction qui associe à chaque résultat de

l’expérience aléatoire un nombre réel.

Exemple : soit « E » une expérience aléatoire qui consiste à lancer une pièce de

monnaie deux fois, l’ensemble fondamentale associé à cette expérience est

. Soit X la variable aléatoire réelle indiquant le nombre des

faces obtenus de cette expérience, il est clair qu’on ne peut pas trouver face, ou

bien on va trouver une seule fois face (FP, PF), comme on peut trouver 2 fois face

(FF). On a alors 0, 1 et 2 ; on écrit donc : variable aléatoire

II. Variable Aléatoire Discrète :

1. Définition :

Soit ( ) un espace probabiliste, une variable aléatoire est une application :

tq

, soit dénombrable, est L’ensemble des valeurs prisent

pour la variable aléatoire X. on dit que X est discrète si elle prend des variables finies

ou infinies et dénombrable

2. La Loi de Probabilité :

La loi de probabilité c’est faire correspondre à chacune des valeurs de la variable aléatoire

sa chance d’être réalisée. Son poids dans l’ensemble fondamentale se défini comme la loi de

probabilité ou distribution de probabilité à la variable.

2.1. Définitions : soit X une variable aléatoire discrète, on appelle loi de

probabilité ou distribution de probabilité de x :

Montassar Zayati : Cours de « Statistique Inductive » 9

Exemple : en revenant à l’exemple précédant on a = 4 élts et

l’ensemble des valeurs des variables : et la loi de probabilité de X ou la

distribution de probabilité de X est donnée dans le tableau suivant :

x 0 1 2 ∑

1/4 2/4 1/4 1

3. La Fonction de Répartition :

Soit X une variable aléatoire (V.A) de loi de probabilité : ; la fonction de

répartition de x notée : est une application :

Vérifiant les propriétés suivantes :

La courbe de prend la forme d’escalier.

est une fonction croissante au sens large.

est continu en tout point de , il résulte de l’additivité de qui

:

3.1. Exercice

Soit X une V.A discrète de loi de probabilité défini par :

x 0 1 2 3 4

0,7 a 0,1 b 0,05

1°/ déterminer les probabilités a et b sachant que .

2°/ déterminer et représenter graphiquement la fonction de répartition de la variable X.

3°/ calculer

Montassar Zayati : Cours de « Statistique Inductive » 10

Solution :

1°/ on a

On sait que :

x 0 1 2 3 4 ∑

0,7 0,1 0,1 0,05 0,05 1

2°/ en définitif on a :

x 0 1 2 3 4 ∑

0,7 0,1 0,1 0,05 0,05 1

0,7 0,8 0,9 0,95 1

3°/

00,10,20,30,40,50,60,70,80,9

11,11,2

-2 -1 0 1 2 3 4 5

Montassar Zayati : Cours de « Statistique Inductive » 11

4. Les Moments d’ordre k d’une Variable Aléatoire Discrète :

4.1. Généralités :

Soit X une V.A c-à-d fini ou infini. On appelle moment d’ordre k de

la variable x notée , la valeur donnée par :

4.2. Espérance Mathématique :

L’espérance mathématique d’une V.A.D si elle existe, est le nombre réel E(X) défini par :

Ce n’est rien d’autre que le moment non centré d’ordre 1.

1

A/ Propriétés :

P1/ si on ajoute une constante à une V.A, il en va de même pour son espérance :

P2/ si on multiplie une v.a par une constante, il en va de même pour son espérance :

P3/ l’espérance d’une somme de deux v.a est la somme des espérances :

Résumé : l’opérateur espérance mathématique est linéaire :

4.3. La Variance :

Il s’agit d’un indicateur mesurant la dispersion des valeurs Xi que peut prendre la v.a X

autour de la moyenne en probabilité E(X) et défini par :

C’est l’espérance mathématique du carré de la v.a X-E(X) :

A/ Propriétés :

P1/

P2/

P3/

P4/ ; désigne l’écart-type (standard déviation) de X.

P5/

Montassar Zayati : Cours de « Statistique Inductive » 12

P6/ Si X et Y sont deux v.a indépendantes, alors :

P7/ Dans le cas général :

P8/

P9/

P10/

P11/

4.4. Coefficient de Corrélation Linéaire:

Exercice :

Soit la distribution de probabilité suivante :

0 1 2 ∑

1/4 1/2 1/4 1

Calculer l’espérance, la variance de X et son écart-type.

Solution :

0 1 2 ∑

1/4 1/2 1/4 1

0 1/2 1/2 1=

0 1/2 1 1,5 =

III. Quelques Lois Discrète d’usages courant

1. La Loi de Bernoulli de paramètre (p) :

Dans une épreuve à deux issues (résultats) (P ou F ; Vrai ou Faux) effectué une fois.

L’événement Pile ou Vrai est associé à une probabilité « p » correspondant au succès c-à-d sa

chance de réalisation. Cette épreuve ou expérience est dite épreuve de Bernoulli.

Exemple :

Dans une expérience qui consiste à lancer une pièce de monnaie une fois, on a

et et la loi de X s’écrit de façon générale :

0 1 ∑

1-p = q p 1

Montassar Zayati : Cours de « Statistique Inductive » 13

On a

Et

La loi de Bernoulli s’écrit sous la forme :

1.1. Les Caractéristiques :

A. L’Espérance Mathématique :

Par définition

B. La Variance :

On sait que

2. La loi Binomiale de paramètre (n, p) :

C’est la répétition (n) fois de l’épreuve de Bernoulli.

Toute série de n épreuves (expérience) avec (n≥2) successives et indépendantes de

Bernoulli dont le résultat de chaque épreuve est soit succès avec une probabilité (p), soit

échec avec une probabilité (q=1-p) est dite loi Binomiale de paramètres n et p. En effet, soit X

la v.a égale en nombre de succès rencontrée au cours de n épreuves ; .

L’expérience étant une épreuve qui n’accepte que X résultats succès ou échec avec

respectivement les probabilités p et 1-p ; si on donne 1 au succès et 0 à l’échec on trouve que

parmi les n épreuves on peut avoir x=1, par conséquent, nous aurons n-x=0 (échec). Dans ce

cas, on trouve que le nombre d’épreuves est

2.1. Les Caractéristiques de la loi Binomiale :

A. L’Espérance Mathématique :

B. La Variance :

Montassar Zayati : Cours de « Statistique Inductive » 14

Exemple 1:

On lance 10 fois la pièce de monnaie. La v. a. X « nombre de faces obtenues » suit une

.

Exemple 2:

Le nombre X de boules Rouges apparues au cours de n tirages avec remises dans une urne

contenant 2 rouges, 3 bleu et 1 noire. .

Exemple 3:

Un joueur à une chance sur trois de marquer un but, il effectue 5 tires.

1) Identifier la loi associée à cette expérience. En déduire l’espérance et la variance.

2) Calculer la probabilité qu’il marque :

a) 3 buts

b) 5 buts

c) Au plus un but

d) Au moins 2 buts

Corrigé :

1) .

2)

a)

b)

c)

d)

Montassar Zayati : Cours de « Statistique Inductive » 15

C. Somme de variables aléatoires binomiales indépendantes

Si X1 et X2 sont deux variables aléatoires indépendantes suivants les lois binomiales

et alors . On notera que le deuxième paramètre

(probabilité de succès au cours d’une épreuve) est le pour X1 et X2.

D. Conséquences :

- Si alors .

Il existe la table de la loi binomiale qui indique les probabilités cumulés pour diverses valeurs

de n et p. le nombre des valeurs de n et de p envisagés dans la table est forcément très limité.

Mais, on peut à partir d’une loi déduire les probabilités d’une loi .

E. Lecture de la table de la loi Binomiale :

La table indique les probabilités cumulées de la loi binomiale. On fixe d’abord, le nombre

d’épreuves « n » dans la 1ière

colonne de la table, ensuite, on repère le nombre de succès « x »

dans la deuxième colonne et enfin on choisit la probabilité « p » dans la 1ière

ligne. Puis à

l’intersection de cette ligne et de ces deux colonnes, on lit la probabilité cherchée.

Exemple 4:

.

Déterminer .

D’après la lecture de la table :

Déterminer

Dans certains tables, la probabilité p = 0,9 n’existe pas, donc on utilise la propriété de la

loi binomiale selon laquelle : Si alors .

alors

Ainsi si

Alors

Montassar Zayati : Cours de « Statistique Inductive » 16

Extrait de la table de la loi Binomiale

Montassar Zayati : Cours de « Statistique Inductive » 17

3. La loi de Poisson de paramètre λ :

Siméon-Denis Poisson (1781-1840) : mathématicien, probabiliste et physicien français.

3.1. Définition :

Soit λ un réel strictement positif donné ; une variable aléatoire discrète X suit la loi de poisson

de paramètre λ si elle peut prendre toutes les valeurs entières positives ou nulles k (k>0) avec

la probabilité :

3.2. Les caractéristiques de la loi :

A. Espérance Mathématique et Variance:

B. Somme de variables aléatoires de Poisson indépendante :

Si X1 et X2 sont deux variables aléatoires indépendantes tels que :

C. Approximation de la loi Binomiale par la loi de Poisson :

Si les trois conditions suivantes sont vérifiées :

- n « grand » (par exemple n ≥ 30).

- p « petit » (par exemple p ≤ 0,1).

- np « pas trop grand » (par exemple np ≤ 15).

On peut approcher la loi Binomiale par la loi de Poisson avec , ce qui

permet d’écrire ( ) :

Plus n est grand et p petit, meilleure sera l’approximation. L’intérêt d’utiliser une telle

approximation est :

de remplacer une loi à 2 paramètres par une loi à un seul paramètre.

De simplifier les calculs numériques

Voire de les éviter puisqu’il existe, pour la loi de poisson, des tables indiquant

les

D. Lecture de la table de la loi de Poisson :

La table indique les probabilités cumulées de la loi de Poisson. On fixe « x » situé dans la 1ière

colonne, on choisit le paramètre dans la 1ière

ligne, puis à l’intersection de cette ligne et de

cette colonne, on lit la probabilité cherchée.