s’informer

Préliminaire : répéter une expérience ou une épreuve

  • On lance un dé deux fois de suite.
    Il faut prévoir un jeu de 2 variables aléatoires \displaystyle{\big(X_1, X_2\big)}  pour distinguer les 2 lancers \displaystyle{L_1} et \displaystyle{L_2} .

\displaystyle{X_1: L_1}\longmapsto x_1
\displaystyle{X_2: L_2}\longmapsto x_2

Il va de soi que les 2 variables aléatoires sont indépendantes et de même loi de probabilité.

v.a. i.i.d.
variables aléatoires indépendantes et identiquement distribuées
  • Échantillonner : on applique un protocole de prélèvement et les échantillons sont répartis pour être analyser successivement. Une même expérience est répétée…

Il faut donc prévoir un jeu de variables aléatoires \displaystyle{\big(X_1, X_2, \;\;\ldots \;\;, X_n\big)} pour distinguer les n épreuves \displaystyle{\big(E_{i\in\llbracket 1,n\rrbracket}\big)}  :

\displaystyle{X_1: E_1}\longmapsto x_1
\displaystyle{X_2: E_2}\longmapsto x_2

\displaystyle{X_n: E_n}\longmapsto x_n

Définitions

Un n-échantillon aléatoire \displaystyle{\big(X_1, X_2, \;\;\ldots \;\;, X_n\big)} est une suite de n variables aléatoires indépendantes et identiquement distribuées [de même loi].

La moyenne du n-échantillon est alors définie par :

\displaystyle \overline{X}=\frac{X_{1}+X_{2}+. . .+X_{n}}{n}

Lois d’échantillonnage 

 

Énoncé 1       Soit un n-échantillon aléatoire \displaystyle{\big(X_1, X_2, \;\;\ldots \;\;, X_n\big)} .

Si

\displaystyle{X_1} \hookrightarrow\mathcal{N}(\mu\;;\;\sigma)

\displaystyle{X_2} \hookrightarrow\mathcal{N}(\mu\;;\;\sigma)

\displaystyle{X_n} \hookrightarrow\mathcal{N}(\mu\;;\;\sigma)

alors

\displaystyle{\overline X} \hookrightarrow\mathcal{N}(\mu\;;\;\frac{\sigma}{\sqrt{n}})

N.B. La démonstration repose bien entendu sur la stabilité de la loi normale et l’évaluation des 2 paramètres de la loi normale suivie par \displaystyle{\overline X} à l’aide des propriétés des opérateurs E et V .  voir

 

Énoncé 2      Soit un n-échantillon aléatoire \displaystyle{\big(X_1, X_2, \;\;\ldots \;\;, X_n\big)} et une loi de probabilité notée \displaystyle\mathcal{L}(\mu\;;\;\sigma).

Si

\displaystyle{X_1} \hookrightarrow\mathcal{L}(\mu\;;\;\sigma)

\displaystyle{X_2} \hookrightarrow\mathcal{L}(\mu\;;\;\sigma)

\displaystyle{X_n} \hookrightarrow\mathcal{L}(\mu\;;\;\sigma)

alors

(1)                 \displaystyle{\overline X} suit approximativement \displaystyle\mathcal{N}(\mu\;;\;\frac{\sigma}{\sqrt{n}})

(2)      \displaystyle\frac{\overline{X}-\mu}{\sigma}\times\sqrt{n}    \overrightarrow{\qquad{n\to +\infty}\qquad}     \mathcal{N}(\;0\;,\;1\;)

N.B.
(2)
 C’est une version du théorème central limite : la convergence en loi vers \mathcal{N}(\;0\;,\;1\;)

On peut également remplacer \displaystyle{\overline X} par \displaystyle{S}  (la somme des n v.a.) ce qui donne :
\displaystyle{S} suit approximativement \displaystyle\mathcal{N}({n}\mu\;;\;{\sigma}{\sqrt{n}})  et   \displaystyle\frac{S-n\mu}{\sigma\times\sqrt{n}}    \overrightarrow{\qquad{n\to +\infty}\qquad}     \mathcal{N}(\;0\;,\;1\;)

Conclusion : le résultat illustre que la loi normale est omniprésente : la loi suivie par la « mesure » pouvant être affranchie.  Par exemple, l’erreur expérimentale est un phénomène qui s’explique par une addition d’un grand nombre de variables indépendantes (« petites erreurs » dont la loi n’est pas nécessairement connue) ; on pourra donc modéliser le phénomène par une loi normale.