5 Lois usuelles de v.a.c
Loi uniforme \(U(a,b)\)
La loi uniforme est la loi exacte de phénomènes continus uniformément répartis sur un intervalle.
![Fonction de densité de $U([a,b]$)](img/unif.png)
Figure 5.1: Fonction de densité de \(U([a,b]\))
Quelques commentaires:
La loi uniforme continue étant une loi de probabilité, l’aire hachurée en bleu sur la Figure 5.1 vaut \(1\).
La fonction de répartition associée à la loi uniforme continue est \[F_X(x)= \left\lbrace \begin{array}{ll} 0 & \mbox{si} \quad x < a \\ \frac{x-a}{b-a} & \mbox{si} \quad a \le x \le b \\ 1 & \mbox{si} \quad x > b \end{array} \right.\]
Propriétés: Si \(X\) est une v.a.c qui suit la loi uniforme sur \([a,b]\):
\(E(X) = \frac{b+a}{2}\)
\(V(X) =\frac{(b-a)^2}{12}\)
Soit \(X \thicksim U(0,10)\). Calculer:
\(P(X <3)\)
\(P(X\ge 6)\)
\(P(3 < X < 8)\)
Loi exponentielle \(\mathcal{E}(\lambda)\)
Définition 5.2 On dit qu’une variable aléatoire \(X\) est exponentielle (ou suit la loi exponentielle) de paramètre \(\lambda\) si sa densité est donnée par
\[f(x)= \left\lbrace \begin{array}{ll} \lambda e^{- \lambda x} & \mbox{si} \quad x \ge 0\\ 0 & \mbox{si} \quad x < 0 \end{array} \right. = \lambda e^{- \lambda x} {1}_{\mathbb{R}^{+}}(x)\]
On dit \(X \thicksim \mathcal{E}(\lambda)\)La fonction de répartition \(F\) d’une variable aléatoire exponentielle est donnée par
\[\mbox{Si}\,\, x \ge 0 \quad F(x) = P(X \le x) = \int_0^x f(t)dt = \int_0^x \lambda e^{- \lambda t} dt = \big[ -e^{- \lambda t} \big]_0^x = 1-e^{- \lambda x} \quad\]
Propriétés: Si \(X \thicksim \mathcal{E}(\lambda)\)
\(E(X) = \frac{1}{\lambda}\)
\(V(X)= \frac{1}{\lambda^2}\)
Cas d’utilisations de la loi exponentielle : Dans la pratique, on rencontre souvent la distribution exponentielle lorsqu’il s’agit de représenter le temps d’attente avant l’arrivée d’un événement spécifié. Une loi exponentielle modélise la durée de vie d’un phénomène sans mémoire, ou sans vieillissement, ou sans usure. En d’autres termes, le fait que le phénomène ait duré pendant un temps \(t\) ne change rien à son espérance de vie à partir du temps \(t\). On dit qu’une variable aléatoire non négative \(X\) est sans mémoire lorsque
\[P(X > t+h | X > t) = P(X > h) \quad \quad \forall \quad t,h \ge 0\] Par exemple, la durée de vie de la radioactivité ou d’un composant électronique, le temps qui nous sépare d’un prochain tremblement de terre ou du prochain appel téléphonique mal aiguillé sont toutes des variables aléatoires dont les distributions tendent en pratique à se rapprocher de distributions exponentielles.Loi Normale ou de Laplace-Gauss \(\mathcal{N}(\mu,\sigma^2)\)
Définition 5.3 Une variable aléatoire \(X\) est dite normale avec paramètres \(\mu\) et \(\sigma^2\) si la densité de \(X\) est donnée par
\[f(x) = \frac{1}{\sigma \sqrt{2\pi}} e^{-(x - \mu)^2/2\sigma^2} \quad \quad \forall \,\, x \in \mathbb{R}\]
Avec \(\mu \in \mathbb{R}\) et \(\sigma \in \mathbb{R}^{+}\). On dit que \(X \thicksim \mathcal{N}(\mu,\sigma^2)\).Remarque: On admet que \(\int_{-\infty}^{+\infty}f(x)dx = 1\) dans la mesure où l’intégration analytique est impossible.
Étude de la densité de la loi Normale
La fonction \(f\) est paire autour d’un axe de symétrie \(x = \mu\) car \(f(x + \mu ) = f(\mu - x)\).
\(f'(x)=0\) pour \(x=\mu\), \(f'(x) < 0\) pour \(x < \mu\) et \(f'(x) > 0\) pour \(x > \mu\)

Figure 5.2: Représentation graphique de la densité d’une loi normale. Remarque: Le paramètre \(\mu\) représente l’axe de symétrie et s le degré d’aplatissement de la courbe de la loi normale dont la forme est celle d’une courbe en cloche
Propriétés: Soit \(X \thicksim \mathcal{N}(\mu,\sigma^2)\), on a:
- \(E(X)=\mu\)
- \(V(X)=\sigma^2\)
Loi Normale centrée réduite \(\mathcal{N}(0,1)\)
Définition 5.4 Une variable aléatoire continue \(X\) suit une loi normale centrée réduite si sa densité de probabilité est donnée par
\[\begin{equation} f(x) = \frac{1}{{\sqrt {2\pi } }}e^{- \frac{1}{2} x^2} \quad \quad \forall \,\, x \in \mathbb{R} \end{equation}\]
On dit \(X \thicksim \mathcal{N}(0,1)\).Remarque: \(E(X)=0\) et \(V(X)=1\).


Figure 5.3: (gauche): Densité d’une loi normale centrée réduite \(\mathcal{N}(0,1)\). (droite): Fonction de répartition de \(\mathcal{N}(0,1)\).
Relation entre loi normale et loi normale centrée réduite
Calcul des probabilités d’une loi normale
La fonction de répartition de la loi normale réduite permet d’obtenir les probabilités associées à toutes variables aléatoires normales \(\mathcal{N}(\mu,\sigma^2)\) après transformation en variable centrée réduite.
Définition 5.5 On appelle fonction \(\Phi\), la fonction de répartition de la loi normale centrée réduite \(\mathcal{N}(0,1)\), telle que
\[\forall \,\, x \in \mathbb{R} \quad \Phi(x) = P(X \le x) = \frac{1}{{\sqrt {2\pi}}} \int_{-\infty}^x f(t)dt\]Propriétés: Les propriétés associées à la fonction de répartition \(\Phi\) sont:
\(\Phi\) est croissante, continue et dérivable sur \(\mathbb{R}\) et vérifie:
\(\lim\limits_{x\to - \infty} \Phi(x) = 0\) et \(\lim\limits_{x\to\infty} \Phi(x) = 1\)
\(\forall \,\, x \in \mathbb{R} \quad \Phi(x) + \Phi(-x) = 1\)
\(\forall \,\, x \in \mathbb{R} \quad \Phi(x) - \Phi(-x) = 2\Phi(x) -1\)
Une application directe de la fonction \(\Phi\) est la lecture des probabilités de la loi normale sur la table de la loi normale centrée réduite.
Soit \(X\) une variable aléatoire normale de paramètres \(\mu =3\) et \(\sigma^2=4\). Calculer:
\(P(X > 0)\)
\(P(2 < X < 5)\)
\(P(|X-3| > 4)\)
Approximation normale d’une répartition binomiale
Un résultat important de la théorie de probabilité est connu sous le nom de théorème limite de Moivre-Laplace. Il dit que pour \(n\) grand, une variable binomiale \(\mathcal{B}(n,p)\) suivra approximativement la même loi qu’une variable aléatoire normale avec même moyenne et même variance. Ce théorème énonce que si “on standardise” une variable aléatoire binomiale \(\mathcal{B}(n,p)\) en soustrayant d’abord sa moyenne \(np\) puis en divisant le résultat par son écart-type \(\sqrt{np(1-p)}\), alors la variable aléatoire standardisée (de moyenne 0 et variance 1) suivra approximativement, lorsque \(n\) est grand, une distribution normale standard. Ce résultat fut ensuite progressivement généralisé par Laplace, Gauss et d’autres pour devenir le théorème actuellement connu comme théorème centrale limite qui est un des deux résultats les plus importants de la théorie de probabilités. Ce théorème sert de base théorique pour expliquer un fait empirique souvent relevé, à savoir qu’en pratique de très nombreux phénomènes aléatoires suivent approximativement une distribution normale.
On remarquera qu’à ce stade deux approximations de la répartition binomiale ont été proposées: l’approximation de Poisson, satisfaisante lorsque \(n\) est grand et lorsque \(np\) n’est pas extrême; l’approximation normale pour laquelle on peut montrer qu’elle est de bonne qualité lorsque \(np(1-p)\) est grand (dès que \(np(1-p)\) dépasse 10).

Figure 5.4: La loi de probabilité d’une variable aléatoire \(B( n,p )\) devient de plus en plus normale à mesure que \(n\) augmente.
Loi de \(\chi^{2}\) de Pearson
Définition 5.6 Soit \(X_1,X_2,\ldots,X_n\), \(n\) variables normales centrées réduites, et \(Y\) la variable aléatoire définie par
\[Y = X_1^2 + X_2^2 + \ldots + X_i^2 + \ldots + X_n^2 = \sum_{i=1}^n X_i^2\] On dit que \(Y\) suit la loi de \(\chi^2\) (ou loi de Pearson) à \(n\) degrés de liberté, \(Y \thicksim \chi^2 (n)\)Remarque: Si \(n=1\), la variable du \(\chi^2\) correspond au carré d’une variable normale centrée réduite \(\mathcal{N}(0,1)\).
Propriétés: Si \(Y \thicksim \chi^2 (n)\), alors:
\(E(Y)= n\)
\(V(Y) = 2n\)
Loi de Student \(St(n)\)
Loi de Fisher-Snedecor \(\mathcal{F}(n,m)\)
Définition 5.8 Soit \(U\) et \(V\) deux variables aléatoires indépendantes suivant une loi de \(\chi^2\) respectivement à \(n\) et \(m\) degrés de liberté.
On dit que \(F= \frac{U/n}{V/m}\) suit une loi de Fisher-Snedecor à \((n,m)\) degrés de liberté. \(F \thicksim \mathcal{F}(n,m)\)