2  Lois usuelles discrètes

Loi uniforme discrète \(\mathcal{U}(n)\)

Définition 2.1 Une distribution de probabilité suit une loi uniforme lorsque toutes les valeurs prises par la variable aléatoire sont équiprobables. Si \(n\) est le nombre de valeurs différentes prises par la variable aléatoire alors on a:

\[ P(X=x_i)=\frac{1}{n} \qquad \forall \, i \in \{1,\ldots, n\} \tag{2.1}\]

Exemple: La distribution des chiffres obtenus au lancer de dé (si ce dernier est non pipé) suit une loi uniforme dont la loi de probabilité est la suivante :

\(x_i\) 1 2 3 4 5 6
\(P(X = x_i)\) \(\frac{1}{6}\) \(\frac{1}{6}\) \(\frac{1}{6}\) \(\frac{1}{6}\) \(\frac{1}{6}\) \(\frac{1}{6}\)

Moments de loi uniforme discrète

Dans le cas particulier d’une loi uniforme discrète où chaque valeur de la variable aléatoire \(X\) correspond à son rang, i.e. \(x_i=i \, \, \forall i \in \{1,\ldots, n\}\), on a: \[E(X)=\frac{n+1}{2} \quad \text{et} \quad V(X)=\frac{n^2-1}{12}\] La démonstration de ces résultats est établie en utilisant les égalités (cf. Annexe) \[\sum_{i=1}^n i=\frac{n(n+1)}{2} \quad \text{et} \quad \sum_{i=1}^n i^2=\frac{n(n+1)(2n+1)}{6}\]

En revenant à l’exemple du lancer du dé de cette section, on peut calculer directement les moments de \(X\): \[E(X)=\frac{6+1}{2}=3.5\] et \[V(X)=\frac{6^2-1}{12}=\frac{35}{12}\simeq 2.92\]

Loi de Bernoulli \(\mathcal{B}(p)\)

Définition 2.2 On réalise une expérience dont le résultat sera interprété soit comme un succès soit comme un échec. On définit alors la variable aléatoire \(X\) en lui donnant la valeur 1 lors d’un succès et 0 lors d’un échec (variable indicatrice). La loi de probabilité de \(X\) est alors

\[ \begin{align} &p(1)=P(X=1)=p \\ &p(0)=P(X=0)= 1-p=q \notag \end{align} \tag{2.2}\]

\(p\) est la probabilité d’un succès, \(0 \leq p \leq 1\).

Une variable aléatoire \(X\) est dite de Bernoulli \(X \sim \mathcal{B} \left({p}\right)\) s’il existe un nombre \(p \, \in \, ]0,1[\) tel que la loi de probabilité de \(X\) soit donnée par (2.2).

La fonction de répartition est définie par: \[F(x) = \left\{ \begin{array}{ll} 0 & \quad \text{si $x < 0$} \\ 1 - p & \quad \text{si $0 \leq x < 1$} \\ 1 & \quad \text{si $x \geq 1$}. \end{array} \right.\]

L’espérance la loi de Bernoulli est \(p\), en effet

\[E(X) =1 \times P(X=1)+0 \times P(X=0)=P(X=1)=p\]

La variance la loi de Bernoulli est \(np\), en effet

\[V(X) =E(X^2)-E^2(X)=p-p^2=p(1-p)=pq\] car \[E(X^2) =1^2\times P(X=1)+0^2 \times P(X=0)=P(X=1)=p\]

Loi Binomiale \(\mathcal{B}(n,p)\)

Note

Décrite pour la première fois par Isaac Newton en 1676 et démontrée pour la première fois par le mathématicien suisse Jacob Bernoulli en 1713, la loi binomiale est l’une des distributions de probabilité les plus fréquemment rencontrées en statistique appliquée.

Supposons qu’on exécute maintenant \(n\) épreuves indépendantes, chacune ayant \(p\) pour probabilité de succès et \(1-p\) pour probabilité d’échec. La variable aléatoire \(X\) qui compte le nombre de succès sur l’ensemble des \(n\) épreuves est dite variable aléatoire binomiale de paramètres \(n\) et \(p\).

Astuce

Une variable de Bernoulli n’est donc qu’une variable binomiale de paramètres \((1,p)\).

Définition 2.3 Si on effectue \(n\) épreuves successives indépendantes où on note à chaque fois la réalisation ou non d’un certain événement \(A\), on obtient une suite de la forme \(AA\bar{A}A\bar{A}\ldots \bar{A}AA\). Soit \(X\) le nombre de réalisations de \(A\). On définit ainsi une v.a. \(X\) qui suit une loi binomiale de paramètres \(n\) et \(p=P(A)\), caractérisée par \(X(\Omega)=\{0, 1,\ldots, n\}\) :

\[ P(X=k)=\binom{n}{k}p^k (1-p)^{n-k} \qquad 0\leq k \leq n \tag{2.3}\]

On écrit \(X \sim \mathcal{B} \left({n, p}\right)\). Donc la loi binomiale modélise le nombre de réalisations de \(A\) (succès) obtenues lors de la répétition indépendante et identique de \(n\) épreuves de Bernoulli.

Astuce

Pour établir (2.3) il faut remarquer que \(\binom{n}{k}\) est le nombre d’échantillons de taille \(n\) comportant exactement \(k\) événements \(A\), de probabilité \(p^k\), indépendamment de l’ordre, et donc \(n-k\) événements \(\bar{A}\), de probabilité \((1-p)^{n-k}\).

Remarque: Il est possible d’obtenir aisément les valeurs des combinaisons de la loi binomiale en utilisant le triangle de Pascal.

En utilisant la formule du binôme de Newton, on vérifie bien que c’est une loi de probabilité:

\[{\sum_{k=0}^nP(X=k)=\sum_{k=0}^n\binom{n}{k} p^{k}(1-p)^{n-k}=[p+(1-p)]^n=1}\]

Exemple: On jette cinq pièces équilibrées. Les résultats sont supposés indépendants. Donner la loi de probabilité de la variable \(X\) qui compte le nombre de piles obtenus.

Moments de la loi Binomiale

Pour calculer facilement les moments de cette loi, nous allons associer à chaque épreuve \(i\), \(1\leq i \leq n\), une v.a. de Bernoulli (variable indicatrice sur \(A\)): \[{1}_A=X_i = \left\{ \begin{array}{l l} 1 & \quad \text{si $A$ est réalisé}\\ 0 & \quad \text{si $\bar{A}$ est réalisé}\\ \end{array} \right.\] On peut écrire alors: \(X=\sum_{i=1}^nX_i=X_1+X_2+\ldots+X_n\), ce qui nous permet de déduire aisément:

\[\begin{aligned} E(X) &=E\left(\sum_{i=1}^nX_i\right)=\sum_{i=1}^nE(X_i)=np \\ \text{et} \nonumber \\ V(X) &=V\left(\sum_{i=1}^nX_i\right) \\ &=\sum_{i=1}^nV(X_i)=np(1-p) \quad \text{car les v.a. $X_i$ sont indépendantes.} \end{aligned}\]

Le calcul direct des moments de \(X\) peut s’effectuer à partir de la définition générale, mais de façon beaucoup plus laborieuse:

\[\begin{aligned} E(X) &= \sum_{k=0}^nk \binom{n}{k} p^{k}(1-p)^{n-k} \\ &=\sum_{k=1}^nk \frac{n!}{k!(n-k)!} p^{k}(1-p)^{n-k} \\ &= \sum_{k=1}^n\frac{n!}{(k-1)!(n-k)!} p^{k}(1-p)^{n-k} \\ &= np \sum_{k=1}^n\frac{(n-1)!}{(k-1)!(n-k)!} p^{k-1}(1-p)^{n-k} \\ &= np \sum_{j=0}^{n-1}\frac{(n-1)!}{j!(n-1-j)!}p^j (1-p)^{n-1-j} \\ &=np \sum_{j=0}^{n-1}\binom{n-1}{j} p^{j}(1-p)^{n-1-j} \\ &= np [p+(1-p)]^{n-1}=np \end{aligned}\]

Pour obtenir \(E(X^2)\) par un procédé de calcul identique, on passe par l’intermédiaire du moment factoriel \(E[X(X-1)]=E(X^2)-E(X)\): \[\begin{aligned} E[X(X-1)]&= \sum_{k=0}^nk(k-1) \frac{n!}{k!(n-k)!} p^{k}(1-p)^{n-k} \\ &= n(n-1)p^2 \sum_{k=2}^{n}\frac{(n-2)!}{(k-2)!(n-k)!} p^{k-2}(1-p)^{n-k} \\ &= n(n-1)p^2 \sum_{j=0}^{n-2}\binom{n-2}{j} p^{j}(1-p)^{n-2-j} \\ &= n(n-1)p^2[p+(1-p)]^{n-2}= n(n-1)p^2 \end{aligned}\]

On en déduit alors:

\[E(X^2)=E[X(X-1)]+E(X)= n(n-1)p^2+np,\]

puis:

\[\begin{aligned} V(X) &=n(n-1)p^2+np-(np)^2 \\ &=n^2p^2+np(1-p)-n^2p^2 \\ &=np(1-p) \end{aligned}\]

Le nombre de résultats pile apparus au cours de \(n\) jets d’une pièce de monnaie suit une loi binomiale \(\mathcal{B} \left({n, 1/2}\right)\): \[P(X=k)=\binom{n}{k}\left(\frac{1}{2}\right)^k \left(\frac{1}{2}\right)^{n-k}=\frac{\binom{n}{k}}{2^n}, \quad 0\leq k \leq n\] avec \(E(X)=n/2\) et \(V(X)=n/4\).

Le nombre \(N\) de boules rouges apparues au cours de \(n\) tirages avec remise dans une urne contenant deux rouges, trois vertes et une noire suit une loi binomiale \(\mathcal{B} \left({n, 1/3}\right)\): \[P(N=k)=\binom{n}{k}\left(\frac{1}{3}\right)^k \left(\frac{2}{3}\right)^{n-k}=\binom{n}{k} \frac{2^{n-k}}{3^n}, \quad 0\leq k \leq n\] avec \(E(X)=n/3\) et \(V(X)=2n/9\).

Théorème 2.1 Si \(X_1 \sim \mathcal{B} \left({n_1, p}\right)\) et \(X_2 \sim \mathcal{B} \left({n_2, p}\right)\), les v.a. \(X_1\) et \(X_2\) étant indépendantes, alors \(X_1+X_2 \sim \mathcal{B} \left({n_1+n_2, p}\right)\). Ceci résulte de la définition d’une loi binomiale puisqu’on totalise ici le résultat de \(n_1+n_2\) épreuves indépendantes.

Loi de Poisson \(\mathcal{P}(\lambda)\)

Note

La loi de Poisson est découverte au début du XIX\(^e\) siècle par le magistrat français Siméon-Denis Poisson. Les variables aléatoires de Poisson ont un champ d’application fort vaste, en particulier du fait qu’on peut les utiliser pour approximer des variables aléatoires binomiales de paramètres \((n,p)\) pour autant que \(n\) soit grand et \(p\) assez petit pour que \(np\) soit d’ordre de grandeur moyen.

Définition 2.4 Une v.a. \(X\) suit une loi de Poisson de paramètre \(\lambda>0\) si c’est une variable à valeurs entières, \(X(\Omega)=\mathbb{N}\), donc avec une infinité de valeurs possibles, de probabilité:

\[ P(X=k)=e^{-\lambda} \frac{\lambda^k}{k!}, \quad k \in \mathbb{N} \tag{2.4}\]

Cette loi ne dépend qu’un seul paramètre réel positif \(\lambda\), avec l’écriture symbolique \(X \sim \mathcal{P}(\lambda)\).

Le développement en série entière de l’exponentielle \(e^\lambda=\displaystyle \sum_{k=0}^{+\infty} \frac{\lambda^k}{k!}\) permet de vérifier qu’il s’agit bien d’une loi de probabilité:

\[\sum_{k=0}^{\infty} P(X=k)=\sum_{k=0}^{\infty} e^{-\lambda} \frac{\lambda^k}{k!}=e^{-\lambda}\sum_{k=0}^{\infty} \frac{\lambda^k}{k!}=e^{-\lambda}e^{\lambda}=1\]

Moments de loi de Poisson

Le calcul de l’espérance mathématique se déduit du développement en série entière de l’exponentielle: \[\begin{aligned} E(X)&=\sum_{k=0}^{\infty} k P(X=k)=\sum_{k=1}^{\infty} k e^{-\lambda} \frac{\lambda^k}{k!} \\ &=e^{-\lambda} \sum_{k=1}^{\infty} \frac{\lambda^k}{(k-1)!}=\lambda e^{-\lambda} \sum_{k=1}^{\infty} \frac{\lambda^{k-1}}{(k-1)!} \\ &= \lambda e^{-\lambda} \sum_{j=0}^{\infty} \frac{\lambda^{j}}{j!}= \lambda e^{-\lambda} e^{\lambda} \\ &= \lambda.\end{aligned}\] Pour calculer la variance nous n’allons pas calculer \(E(X^2)\) mais le moment factoriel \(E[X(X-1)]\) qui s’obtient plus facilement, selon la méthode précédente:

\[\begin{aligned} E[X(X-1)] &=\sum_{k=0}^{\infty} k(k-1)P(X=k)=\sum_{k=2}^{\infty} k(k-1) \,e^{-\lambda} \frac{\lambda^k}{k!} \\ &=e^{-\lambda} \sum_{k=2}^{\infty} \frac{\lambda^k}{(k-2)!}=\lambda^2 e^{-\lambda} \sum_{k=2}^{\infty} \frac{\lambda^{k-2}}{(k-2)!} \\ &= \lambda^2 e^{-\lambda} \sum_{j=0}^{\infty} \frac{\lambda^{j}}{j!}= \lambda^2 e^{-\lambda} e^{\lambda} = \lambda^2.\end{aligned}\] On en déduit: \[\begin{aligned} V(X)&=E(X^2)-E^2(X)=E[X(X-1)]+E(X)-E^2(X) \\ &=\lambda^2+\lambda-\lambda^2=\lambda.\end{aligned}\]

Théorème 2.2 Si \(X\) et \(Y\) sont deux variables indépendantes suivant des lois de Poisson \[X \sim \mathcal{P}(\lambda) \quad \text{et} \quad Y \sim \mathcal{P}(\mu)\] alors leur somme suit aussi une loi de Poisson: \[X+Y \sim \mathcal{P}(\lambda+\mu)\]

Exemple: Soit \(X\) la variable aléatoire associée au nombre de micro-ordinateurs vendus chaque jour dans le magasin. On suppose que \(X\) suit une loi de Poisson de paramètre \(\lambda=5\). On écrit alors \(X \sim \mathcal{P}(5).\)
La probabilité associée à la vente de 5 micro-ordinateurs se détermine par : \[P(X=5)=e^{-5} \frac{5^5}{5!}=e^{-5}\simeq 0.1755\] La probabilité de vendre au moins 2 micro-ordinateurs est égal à:

\[\begin{aligned} P(X \geq 2)&=1-\left(e^{-5} \frac{5^0}{0!}+e^{-5} \frac{5^1}{1!}\right)\simeq 0.9596\end{aligned}\]

Le nombre moyen de micro-ordinateurs vendus chaque jour dans le magasin est égal à 5 puisque \(E(X)=\lambda=5\).

Approximation d’une loi binomiale

Le théorème de Poisson nous montre que si \(n\) est suffisamment grand et \(p\) assez petit, alors on peut approcher la distribution d’une loi binomiale de paramètres \(n\) et \(p\) par celle d’une loi de Poisson de paramètre \(\lambda=np\), en effet \[\text{si} \; n \rightarrow \infty \; \text{et}\; p \rightarrow 0 \; \text{alors} \; X: \mathcal{B}(n, p) \rightarrow \mathcal{P}(\lambda)\]

Une bonne approximation est obtenue si \(n \geq 50\) et \(np \leq 5\).

Dans ce contexte, la loi de Poisson est souvent utilisée pour modéliser le nombre de succès lorsqu’on répète un très grand nombre de fois une expérience ayant une chance très faible de réussir par une loi de Poisson (nombre de personnes dans la population française atteints d’une maladie rare, par exemple).

On cherche la probabilité de trouver au moins un centenaire parmi 200 personnes dans une population où une personne sur cent est un centenaire.

La probabilité \(p=1/100=0.01\) étant faible et \(n=200\) étant suffisamment grand, on peut modéliser le nombre \(X\) de centenaires pris parmi 200 personnes par la loi de Poisson de paramètre \(\lambda=200 \times 0.01=2\). Donc on a: \[P(X\geq 1)=1-P(X=0)=1-e^{-2}\simeq 0.86\]

Soit une v.a. \(X\) telle que \(X \sim \mathcal{B}(100, 0.01)\), les valeurs des probabilités pour \(k\) de 0 à 5 ainsi que leur approximation à \(10^{-3}\) avec une loi de Poisson de paramètre \(\lambda= np =1\) sont données dans le tableau ci-dessous :

\(k\) 0 1 2 3 4 5
\(P(X = k)\) 0.366 0.370 0.185 0.061 0.015 0.000
Approximation 0.368 0.368 0.184 0.061 0.015 0.003

Dans le cas de cet exemple où \(n =100\) et \(np =1\), l’approximation de la loi binomiale par une loi de poisson donne des valeurs de probabilités identiques à \(10^{-3}\) près.

Loi Géométrique ou de Pascal \(\mathcal{G}(p)\)

On effectue des épreuves successives indépendantes jusqu’à la réalisation d’un événement particulier \(A\) de probabilité \(p=P(A)\) et on note \(X\) le nombre aléatoire d’épreuves effectuées. On définit ainsi une v.a. à valeurs entières de loi géométrique, ou de Pascal. A chaque épreuve est associé l’ensemble fondamental \(\Omega=\{A, \bar{A}\}\) et l’événement \(\{X=k\}\) pour \(k\in \mathbb{N^*}\) est représenté par une suite de \(k-1\) événements \(\bar{A}\), terminée par l’événement \(A\): \[\underbrace{\bar{A}\bar{A}\ldots \bar{A}}_{k-1}A\] D’où:

\[ P(X=k)=(1-p)^{k-1}p \quad \forall \, k \in \mathbb{N^*} \tag{2.5}\]

Cette loi peut servir à modéliser des temps de vie, ou des temps d’attente, lorsque le temps est mesuré de manière discrète (nombre de jours par exemple).

En utilisant la série entière

\[ \sum_{k=0}^\infty x^k = 1/(1-x) \quad \text{pour} \quad |x|<1 \tag{2.6}\]

on vérifie bien que c’est une loi de probabilité:

\[\begin{aligned} \sum_{k=1}^\infty P(X=k)&= \sum_{k=1}^\infty (1-p)^{k-1}p = p \sum_{j=0}^\infty (1-p)^{j} \\ &= p \frac{1}{1-(1-p)}=1\end{aligned}\]

Moments de loi Géométrique

En dérivant la série entière (2.5) ci-dessus, on obtient \(\sum_{k=1}^\infty k x^{k-1}=1/(1-x)^2\). Ceci permet d’obtenir l’espérance:

\[E(X)=\sum_{k=1}^\infty kp(1-p)^{k-1}=\frac{p}{[1-(1-p)]^2}=\frac{1}{p}\]

En d’autres termes, si des épreuves indépendantes ayant une probabilité \(p\) d’obtenir un succès sont réalisés jusqu’à ce que le premier succès se produise, le nombre espéré d’essais nécessaires est égal à \(1/p\). Par exemple, le nombre espéré de jets d’un dé équilibré qu’il faut pour obtenir la valeur 1 est 6.

Le calcul de la variance se fait à partir du moment factoriel et en utilisant la dérivée seconde de la série entière (2.5): \(\sum_{k=2}^\infty k(k-1) x^{k-2} = 2/(1-x)^3\), Donc

\[\begin{aligned} E[X(X-1)] &=\sum_{k=2}^\infty k(k-1)p(1-p)^{k-1} \\ &= p(1-p)\sum_{k=2}^\infty k(k-1)(1-p)^{k-2} \\ &= \frac{2p(1-p)}{[1-(1-p)]^3}=\frac{2(1-p)}{p^2} \end{aligned}\]

d’où on déduit: \[V(X)=E[X(X-1)]+E(X)-E^2(X)=\frac{1-p}{p^2}\]

Si l’on considère la variable aléatoire \(X\) “nombre de naissances observées jusqu’à l’obtention d’une fille” avec p = 1/2 (même probabilité de naissance d’une fille ou d’un garçon), alors X suit une loi géométrique et on a pour tout \(k\in \mathbb{N^*}\):

\[P(X=k)=(1-1/2)^{k-1}(1/2)=1/2^k\]

avec \(E(X)=2\) et \(V(X)=2\).

Loi Binomiale Négative \(\mathcal{BN}(r,p)\)

  • \(\varepsilon\): “On répéte l’épreuve de Bernoulli jusqu’à obtenir un total de \(r\) succès”.

  • Exemple avec : \[\bar{A} \quad {A} \quad \bar{A} \quad \bar{A} \quad \bar{A} \quad {A} \quad \bar{A} \quad \bar{A} \quad {A}\] \[{E} \quad {S} \quad {E} \quad {E} \quad {E} \quad {S} \quad {E} \quad {E} \quad {S}\]

  • Mais on peut obtenir d’autres façons: \[{S} \quad {E} \quad {E} \quad {E} \quad {E} \quad {E} \quad {S} \quad {E} \quad {S}\] \[{E} \quad {E} \quad {E} \quad {E} \quad {S} \quad {E} \quad {S} \quad {E} \quad {S}\]

  • Chaque épreuve a \({p}\) pour probabilité de succès et \({1-p}\) pour probabilité d’échec.

  • Désignons \(X=\)“le nombre d’épreuves nécessaires pour atteindre ce résultat”. \[\underbrace{\overbrace{{E} \quad {S} \quad {E} \quad {E} \quad {E} \quad {S} \quad {E} \quad {E}}^{ {r-1 \, succès}\, et \, {k-r \, échecs}} \quad {S}}_{X=k}\]

  • \(X(\Omega)=\{r,r+1,r+2,\ldots\}\). On dit \(X \sim \mathcal{BN}(r,p)\).

  • \(\forall \, k \in X(\Omega),\) \[P(X=k) = \binom{{k-1}}{{r-1}} {p^r} {(1-p)^{k-r}}\]

\(\mathcal{G}(p)=\mathcal{BN}(1,p)\)

  • \(\varepsilon\): “On répéte l’épreuve de Bernoulli jusqu’à obtenir un total de \(r\) succès”.

  • Soit, \[{E} \quad \ldots \quad {E} \quad {S} \quad {E} \quad \ldots \quad {E} \quad {S} \ldots \quad {E} \ldots \quad {E} \quad {S}\]

  • Soit, \(Y_1\) le nombre d’épreuves nécessaires jusqu’au premier succès, \(Y_2\) le nombre d’épreuves supplémentaires nécessaires pour obtenir un deuxième succès, \(Y_3\) celui menant au 3ème et ainsi de suite.

  • Càd, \[\underbrace{{E} \quad \ldots \quad {E} \quad {S}}_{Y_1} \quad \underbrace{{E} \quad \ldots \quad {E} \quad {S}}_{Y_2} \quad \underbrace{\ldots}_{\ldots} \quad \underbrace{{E} \quad \ldots \quad {E} \quad {S}}_{Y_r}\]

  • Les tirages étants indépendantes et ayant toujours la même probabilité de succès, chacune des variables \(Y_1,Y_2,\ldots,Y_r\) est géométrique \(\mathcal{G}(p)\).

  • \(X=\)“le nombre d’épreuves nécessaires à l’obtention de \(r\) succès”\(=Y_1 + Y_2 + \ldots + Y_r\).

  • Donc, \[E(X)= E(Y_1) + E(Y_2) + \ldots + E(Y_r) = \sum_{i=1}^r \frac{1}{p} = \frac{r}{p}\] et \[V(X)= \sum_{i=1}^r V(Y_i) = \frac{r(1-p)}{p^2}\] car les \(Y_i\) sont indépendantes.