Préliminaire : répéter une expérience ou une épreuve
- On lance un dé deux fois de suite.
Il faut prévoir un jeu de 2 variables aléatoires \displaystyle{\big(X_1, X_2\big)} pour distinguer les 2 lancers \displaystyle{L_1} et \displaystyle{L_2} .
\displaystyle{X_1: L_1}\longmapsto x_1
\displaystyle{X_2: L_2}\longmapsto x_2
Il va de soi que les 2 variables aléatoires sont indépendantes et de même loi de probabilité.
v.a. i.i.d. variables aléatoires indépendantes et identiquement distribuées |
- Échantillonner : on applique un protocole de prélèvement et les échantillons sont répartis pour être analyser successivement. Une même expérience est répétée…
Il faut donc prévoir un jeu de n variables aléatoires \displaystyle{\big(X_1, X_2, \;\;\ldots \;\;, X_n\big)} pour distinguer les n épreuves \displaystyle{\big(E_{i\in\llbracket 1,n\rrbracket}\big)} :
\displaystyle{X_1: E_1}\longmapsto x_1
\displaystyle{X_2: E_2}\longmapsto x_2
…
\displaystyle{X_n: E_n}\longmapsto x_n
Définitions
Un n-échantillon aléatoire \displaystyle{\big(X_1, X_2, \;\;\ldots \;\;, X_n\big)} est une suite de n variables aléatoires indépendantes et identiquement distribuées [de même loi]. La moyenne du n-échantillon est alors définie par : \displaystyle \overline{X}=\frac{X_{1}+X_{2}+. . .+X_{n}}{n} |
Lois d’échantillonnage
Énoncé 1 Soit un n-échantillon aléatoire \displaystyle{\big(X_1, X_2, \;\;\ldots \;\;, X_n\big)} .
Si
\displaystyle{X_1} \hookrightarrow\mathcal{N}(\mu\;;\;\sigma) \displaystyle{X_2} \hookrightarrow\mathcal{N}(\mu\;;\;\sigma) \displaystyle{X_n} \hookrightarrow\mathcal{N}(\mu\;;\;\sigma) |
alors
\displaystyle{\overline X} \hookrightarrow\mathcal{N}(\mu\;;\;\frac{\sigma}{\sqrt{n}}) |
N.B. La démonstration repose bien entendu sur la stabilité de la loi normale et l’évaluation des 2 paramètres de la loi normale suivie par \displaystyle{\overline X} à l’aide des propriétés des opérateurs E et V . voir
Énoncé 2 Soit un n-échantillon aléatoire \displaystyle{\big(X_1, X_2, \;\;\ldots \;\;, X_n\big)} et une loi de probabilité notée \displaystyle\mathcal{L}(\mu\;;\;\sigma).
Si
\displaystyle{X_1} \hookrightarrow\mathcal{L}(\mu\;;\;\sigma) \displaystyle{X_2} \hookrightarrow\mathcal{L}(\mu\;;\;\sigma) \displaystyle{X_n} \hookrightarrow\mathcal{L}(\mu\;;\;\sigma) |
alors
(1) \displaystyle{\overline X} suit approximativement \displaystyle\mathcal{N}(\mu\;;\;\frac{\sigma}{\sqrt{n}})
(2) \displaystyle\frac{\overline{X}-\mu}{\sigma}\times\sqrt{n} \overrightarrow{\qquad{n\to +\infty}\qquad} \mathcal{N}(\;0\;,\;1\;) |
N.B.
(2) C’est une version du théorème central limite : la convergence en loi vers \mathcal{N}(\;0\;,\;1\;)
On peut également remplacer \displaystyle{\overline X} par \displaystyle{S} (la somme des n v.a.) ce qui donne :
\displaystyle{S} suit approximativement \displaystyle\mathcal{N}({n}\mu\;;\;{\sigma}{\sqrt{n}}) et \displaystyle\frac{S-n\mu}{\sigma\times\sqrt{n}} \overrightarrow{\qquad{n\to +\infty}\qquad} \mathcal{N}(\;0\;,\;1\;)
Conclusion : le résultat illustre que la loi normale est omniprésente : la loi suivie par la « mesure » pouvant être affranchie. Par exemple, l’erreur expérimentale est un phénomène qui s’explique par une addition d’un grand nombre de variables indépendantes (« petites erreurs » dont la loi n’est pas nécessairement connue) ; on pourra donc modéliser le phénomène par une loi normale.