Vous êtes invités à annoter le contenu de ce cours. Les annotations peuvent être des corrections typographiques, des propositions ou des questions. Pour ajouter des annotations, choisissez le text que vous voulez commenter et cliquez sur . Pour accéder aux annotations crées par d'autres personnes, cliquez sur le coin supérieur de la page .

Variables Aléatoires Continues

Densité d’une variable aléatoire continue

Dans les chapitres précédents nous avons traité des variables aléatoires discrètes, c’est-à-dire de variables dont l’univers est fini ou infini dénombrable. Il existe cependant des variables dont l’univers est infini non dénombrable. On peut citer par exemple, l’heure d’arrivée d’un train à une gare donnée ou encore la durée de vie d’un transistor. Désignons par \(X\) une telle variable.

Définition 7.10 \(X\) est une variable aléatoire continue s’il existe une fonction \(f\) non négative définie pour tout \(x \in \mathbb{R}\) et vérifiant pour tout ensemble \(B\) de nombres réels la propriété

\[\begin{equation} P(X \in B) = \int_B f(x)dx \tag{7.4} \end{equation}\]

La fonction \(f\) est appelée densité de probabilité de la variable aléatoire \(X\).

Tous les problèmes de probabilité relatifs à \(X\) peuvent être traités grâce à \(f\). Par exemple pour \(B=[a,b]\), on obtient grâce à l’équation (7.4)

\[\begin{equation} P(a\le X \le b) = \int_a^bf(x)dx \tag{7.5} \end{equation}\]

Graphiquement, \(P(a\le X \le b)\) est l’aire de la surface entre l’axe de \(x\), la courbe correspondante à \(f(x)\) et les droites \(x=a\) et \(x=b\). Voire Figure 7.1 et Figure 7.2.

$P(a \leq X \leq B)=$ surface grisée

Figure 7.1: \(P(a \leq X \leq B)=\) surface grisée

L'aire hachurée correspond à des probabilités. $f(x)$ étant une fonction densité de probabilité

Figure 7.2: L’aire hachurée correspond à des probabilités. \(f(x)\) étant une fonction densité de probabilité

Définition 7.11 Pour toute variable aléatoire continue \(X\) de densité \(f\):

  • \(f(x) \ge 0 \quad \forall \, x \in \mathbb{R}\)

  • \(\int_{-\infty}^{+\infty}f(x)dx = 1\)

  • Si l’on pose \(a=b\) dans (7.5), il résulte \[P(X=a)=\int_a^a f(x)dx = 0\]

  • Ceci siginifie que la probabilité qu’une variable aléatoire continue prenne une valeur isolée fixe est toujours nulle. Aussi on peut écrire

    \[P(X < a) = P( X \le a) = \int_{-\infty}^a f(x)dx\]

Soit \(X\) la variable aléatoire réelle de densité de probabilité

\[f(x)= \left\lbrace \begin{array}{ll} kx & \mbox{si} \quad 0\le x \le 5\\ 0 & \mbox{sinon} \end{array} \right.\]

  1. Calculer \(k\).
  2. Calculer: \(P(1 \le X \le 3), P(2 \le X \le 4)\) et \(P(X < 3)\).

Soit \(X\) une variable aléatoire réelle continue ayant pour densité de probabilité \[f(x)= \left\lbrace \begin{array}{ll} \frac{1}{6} x + k & \mbox{si} \quad 0\le x \le 3\\ 0 & \mbox{sinon} \end{array} \right.\]

  1. Calculer \(k\).
  2. Calculer \(P(1 \le X \le 2)\)

Fonction de répartition d’une v.a.c

Définition 7.12 Si comme pour les variables aléatoires discrètes, on définit la fonction de répartition de \(X\) par:

\[\begin{aligned} F_X \colon \mathbb{R} &\longrightarrow \mathbb{R} \\ x &\longmapsto F_X(a) = P(X \le a)\end{aligned}\]

alors la relation entre la fonction de répartition \(F_X\) et la fonction densité de probabilité \(f(x)\) est la suivante:

\[\forall \quad a \in \mathbb{R} \quad F_X(a)= P(X \le a) = \int_{-\infty}^a f(x)dx\]

La fonction de répartition \(F_X(a)\) est la primitive de la fonction densité de probabilité \(f(x)\) (donc la densité d’une v.a.c est la dérivée de la fonction de répartition), et permet d’obtenir les probabilités associées à la variable aléatoire \(X\), en effet:

Propriétés: Pour une variable aléatoire continue X:

  • \(F'_X(x) = \frac{\text{d}}{\text{d} x} F_X(x) = f(x)\).

  • Pour tous réels \(a \le b\), \[\begin{aligned} P(a < X < b) & = P(a < X \le b) \\ & = P(a \le X < b) \\ & = P( a \le X \le b) \\ & = F_X(b) - F_X(a) = \int_a^bf(x)dx \end{aligned}\]

La fonction de répartition correspond aux probabilités cumulées associées à la variable aléatoire continue sur l’intervalle d’étude (Figure 7.3).

L'aire hachurée en vert sous la courbe de la fonction densité de probabilité correspond à la probabilité $P ( X < a ) = F_X ( a )$ et vaut 0.5 car ceci correspond exactement à la moitié de l'aire totale sous la courbe

Figure 7.3: L’aire hachurée en vert sous la courbe de la fonction densité de probabilité correspond à la probabilité \(P ( X < a ) = F_X ( a )\) et vaut 0.5 car ceci correspond exactement à la moitié de l’aire totale sous la courbe

Propriétés: Les propriétés associées à la fonction de répartition sont les suivantes:

  1. \(F_X\) est continue sur \(\mathbb{R}\), dérivable en tout point où \(f\) est continue.

  2. \(F_X\) est croissante sur \(\mathbb{R}\).

  3. \(F_X\) est à valeurs dans \([0,1]\).

  4. \(\lim\limits_{x\to - \infty} F_X(x) = 0\) et \(\lim\limits_{x\to +\infty} F_X(x) = 1\).

Fonction d’une variable aléatoire continue

Soit \(X\) une variable aléatoire continue de densité \(f_X\) et de fonction de répartition \(F_X\). Soit \(h\) une fonction continue définie sur \(X(\Omega)\), alors \(Y=h(X)\) est une variable aléatoire.

Pour déterminer la densité de \(Y\), notée \(f_Y\), on commence par calculer la fonction de répartition de \(Y\), notée \(F_Y\), ensuite nous dérivons pour déterminer \(f_Y\).

Calcul de densités pour \(h(X)=aX+b\)

\(\forall \quad y \in \mathbb{R}\),

\[F_Y(y) = P(Y\leq y)=P(h(X) \le y) = P(aX+b \le y)\] si \(a>0\), \[F_Y(y) = P(aX+b \le y) = P(X\leq \frac{y-b}{a})=F_X(\frac{y-b}{a})\] si \(a<0\), \[F_Y(y) = P(aX+b \le y) =P(X\geq \frac{y-b}{a})=1-F_X(\frac{y-b}{a})\]

En dérivant on obtient la densité de \(Y\) \[f_Y(y)=\frac{1}{|a|}f_X(\frac{y-b}{a}).\]

Calcul de densités pour \(h(X)=X^2\)

si \(y<0\), \(F_Y(y) =P(Y\leq y)=0\).
si \(y>0\),

\[F_Y(y) =P(Y\leq y)=P(X^2 \le y)=P(-\sqrt{y}\leq X \leq \sqrt{y})=F_X(\sqrt{y})-F_X(-\sqrt{y})\]

En dérivant on obtient la densité de \(Y\),

\[f_Y(y)= \left\lbrace \begin{array}{ll} \frac{1}{2\sqrt{y}}\big[f_X(\sqrt{y})+f_X(-\sqrt{y})\big] & \mbox{si} \quad y \ge 0\\ 0 & \mbox{sinon} \end{array} \right.\]

Calcul de densités pour \(h(X)=e^X\)

si \(y<0\), \(F_Y(y) = P(Y\leq y)=0\).
si \(y>0\), \(F_Y(y) = P(Y\leq y)=P(e^X \le y)=P( X \leq \ln (y))=F_X(\ln(y))\).

En dérivant on obtient la densité de \(Y\)

\[f_Y(y)= \left\lbrace \begin{array}{ll} \frac{1}{y} f\big(\ln (y)\big) & \mbox{si} \quad y \ge 0\\ 0 & \mbox{sinon} \end{array} \right.\]

Soit la v.a.c \(X\) ayant la fonction de densité

\[f_X(x)= \left\lbrace \begin{array}{ll} 2 x & \mbox{si} \quad 0 \le x \le 1\\ 0 & \mbox{sinon} \end{array} \right.\]

Déterminer la densité de: \(Y=3X+1\), \(Z=X^2\) et \(T=e^X\).

Espérance et variance de variables aléatoires continues

Espérance d’une v.a.c

Définition 7.13 Si \(X\) est une variable aléatoire absolument continue de densité \(f\), on appelle espérance de X, le réel \(E(X)\), défini par:

\[E(X)= \int_{-\infty}^{+\infty}x f(x) dx\] si cette intégrale est convergente.

Les propriétés de l’espérance d’une variable aléatoire continue sont les mêmes que pour une variable aléatoire discrète.

Propriétés: Soit \(X\) une variable aléatoire continue,

  • \(E(aX+b)=aE(X)+b \quad \quad a \ge 0 \,\, \text{et} \,\, b \in \mathbb{R}\).

  • Si \(X \ge 0\) alors \(E(X) \ge 0\).

  • Si \(X\) et \(Y\) sont deux variables aléatoires définies sur un même univers \(\Omega\) alors \[E(X+Y)=E(X)+E(Y)\]

Théorème 7.7 (Théorème de transfert) Si \(X\) est une variable aléatoire de densité \(f(x)\), alors pour toute fonction réelle \(g\) on aura

\[E[g(X)] = \int_{-\infty}^{+\infty}g(x) f(x) dx\]

Soit la v.a.c \(X\) ayant la fonction de densité

\[f_X(x)= \left\lbrace \begin{array}{ll} 2 x & \mbox{si} \quad 0 \le x \le 1\\ 0 & \mbox{sinon} \end{array} \right.\]

Calculer l’espérance des variables aléatoires \(Y=3X+1\), \(Z=X^2\) et \(T=e^X\).

Variance d’une v.a.c

La variance d’une variable aléatoire \(V(X)\) est l’espérance mathématique du carré de l’écart à l’espérance mathématique. C’est un paramètre de dispersion qui correspond au moment centré d’ordre 2 de la variable aléatoire \(X\).

Définition 7.14 Si \(X\) est une variable aléatoire ayant une espérance \(E(X)\), on appelle variance de \(X\) le réel

\[V(X)=E\big([X-E(X)]^2\big) = E(X^2) - [E(X)]^2\] Si \(X\) est une variable aléatoire continue, on calcule \(E(X^2)\) en utilisant le théorème 7.7,

\[E(X^2) = \int_{-\infty}^{+\infty}x^2 f(x)dx\]

Propriétés: Si \(X\) est une variable aléatoire admettant une variance alors:

  • \(V(X) \ge 0\), si elle existe.

  • \(\forall \quad a \in \mathbb{R}, V(aX) = a^2 V(X)\)

  • \(\forall \quad (a,b) \in \mathbb{R}, V(aX+b) = a^2 V(X)\)

  • Si \(X\) et \(Y\) sont deux variables aléatoires indépendantes, \(V(X+Y)=V(X)+V(Y)\)

Définition 7.15 (Ecart-type) Si \(X\) est une variable aléatoire ayant une variance \(V(X)\), on appelle écart-type de \(X\), le réel:

\[\sigma_X = \sqrt{V(X)}\]

Lois usuelles de v.a.c

Loi uniforme \(U(a,b)\)

La loi uniforme est la loi exacte de phénomènes continus uniformément répartis sur un intervalle.

Définition 7.16 La variable aléatoire \(X\) suit une loi uniforme sur le segment \([a,b]\) avec \(a < b\) si sa densité de probabilité est donnée par \[f(x)= \left\lbrace \begin{array}{ll} \frac{1}{b-a} & \mbox{si} \quad x \in [a,b]\\ 0 & \mbox{si} \quad x \notin [a,b] \end{array} \right. = \frac{1}{b-a} {1}_{[a,b]}(x)\]
Fonction de densité de $U([a,b]$)

Figure 7.4: Fonction de densité de \(U([a,b]\))

Quelques commentaires:

  1. La loi uniforme continue étant une loi de probabilité, l’aire hachurée en bleu sur la Figure 7.4 vaut \(1\).

  2. La fonction de répartition associée à la loi uniforme continue est \[F_X(x)= \left\lbrace \begin{array}{ll} 0 & \mbox{si} \quad x < a \\ \frac{x-a}{b-a} & \mbox{si} \quad a \le x \le b \\ 1 & \mbox{si} \quad x > b \end{array} \right.\]

Propriétés: Si \(X\) est une v.a.c qui suit la loi uniforme sur \([a,b]\):

  • \(E(X) = \frac{b+a}{2}\)

  • \(V(X) =\frac{(b-a)^2}{12}\)

Soit \(X \thicksim U(0,10)\). Calculer:

  1. \(P(X <3)\)

  2. \(P(X\ge 6)\)

  3. \(P(3 < X < 8)\)

Loi exponentielle \(\mathcal{E}(\lambda)\)

Définition 7.17 On dit qu’une variable aléatoire \(X\) est exponentielle (ou suit la loi exponentielle) de paramètre \(\lambda\) si sa densité est donnée par

\[f(x)= \left\lbrace \begin{array}{ll} \lambda e^{- \lambda x} & \mbox{si} \quad x \ge 0\\ 0 & \mbox{si} \quad x < 0 \end{array} \right. = \lambda e^{- \lambda x} {1}_{\mathbb{R}^{+}}(x)\]

On dit \(X \thicksim \mathcal{E}(\lambda)\)

La fonction de répartition \(F\) d’une variable aléatoire exponentielle est donnée par

\[\mbox{Si}\,\, x \ge 0 \quad F(x) = P(X \le x) = \int_0^x f(t)dt = \int_0^x \lambda e^{- \lambda t} dt = \big[ -e^{- \lambda t} \big]_0^x = 1-e^{- \lambda x} \quad\]

Propriétés: Si \(X \thicksim \mathcal{E}(\lambda)\)

  • \(E(X) = \frac{1}{\lambda}\)

  • \(V(X)= \frac{1}{\lambda^2}\)

Cas d’utilisations de la loi exponentielle : Dans la pratique, on rencontre souvent la distribution exponentielle lorsqu’il s’agit de représenter le temps d’attente avant l’arrivée d’un événement spécifié. Une loi exponentielle modélise la durée de vie d’un phénomène sans mémoire, ou sans vieillissement, ou sans usure. En d’autres termes, le fait que le phénomène ait duré pendant un temps \(t\) ne change rien à son espérance de vie à partir du temps \(t\). On dit qu’une variable aléatoire non négative \(X\) est sans mémoire lorsque

\[P(X > t+h | X > t) = P(X > h) \quad \quad \forall \quad t,h \ge 0\] Par exemple, la durée de vie de la radioactivité ou d’un composant électronique, le temps qui nous sépare d’un prochain tremblement de terre ou du prochain appel téléphonique mal aiguillé sont toutes des variables aléatoires dont les distributions tendent en pratique à se rapprocher de distributions exponentielles.

Loi Normale ou de Laplace-Gauss \(\mathcal{N}(\mu,\sigma^2)\)

Définition 7.18 Une variable aléatoire \(X\) est dite normale avec paramètres \(\mu\) et \(\sigma^2\) si la densité de \(X\) est donnée par

\[f(x) = \frac{1}{\sigma \sqrt{2\pi}} e^{-(x - \mu)^2/2\sigma^2} \quad \quad \forall \,\, x \in \mathbb{R}\]

Avec \(\mu \in \mathbb{R}\) et \(\sigma \in \mathbb{R}^{+}\). On dit que \(X \thicksim \mathcal{N}(\mu,\sigma^2)\).

Remarque: On admet que \(\int_{-\infty}^{+\infty}f(x)dx = 1\) dans la mesure où l’intégration analytique est impossible.

Étude de la densité de la loi Normale

  • La fonction \(f\) est paire autour d’un axe de symétrie \(x = \mu\) car \(f(x + \mu ) = f(\mu - x)\).

  • \(f'(x)=0\) pour \(x=\mu\), \(f'(x) < 0\) pour \(x < \mu\) et \(f'(x) > 0\) pour \(x > \mu\)

Représentation graphique de la densité d’une loi normale. Remarque: Le paramètre $\mu$ représente l’axe de symétrie et s le degré d’aplatissement de la courbe de la loi normale dont la forme est celle d’une courbe en cloche

Figure 7.5: Représentation graphique de la densité d’une loi normale. Remarque: Le paramètre \(\mu\) représente l’axe de symétrie et s le degré d’aplatissement de la courbe de la loi normale dont la forme est celle d’une courbe en cloche

Propriétés: Soit \(X \thicksim \mathcal{N}(\mu,\sigma^2)\), on a:

  • \(E(X)=\mu\)
  • \(V(X)=\sigma^2\)
Théorème 7.8 (Stabilité de la loi normale) Soit \(X_1\) et \(X_2\) deux variables aléatoires normales et indépendantes de paramètres respectifs \((\mu_1,\sigma_1^2)\) et \((\mu_2,\sigma_2^2)\), alors leur somme \(X_1+X_2\) est une variable aléatoire normale de paramètres \((\mu_1 + \mu_2,\sigma_1^2+\sigma_2^2)\).

Loi Normale centrée réduite \(\mathcal{N}(0,1)\)

Définition 7.19 Une variable aléatoire continue \(X\) suit une loi normale centrée réduite si sa densité de probabilité est donnée par

\[\begin{equation} f(x) = \frac{1}{{\sqrt {2\pi } }}e^{- \frac{1}{2} x^2} \quad \quad \forall \,\, x \in \mathbb{R} \end{equation}\]

On dit \(X \thicksim \mathcal{N}(0,1)\).

Remarque: \(E(X)=0\) et \(V(X)=1\).

(gauche): Densité d'une loi normale centrée réduite $\mathcal{N}(0,1)$. (droite): Fonction de répartition de $\mathcal{N}(0,1)$.(gauche): Densité d'une loi normale centrée réduite $\mathcal{N}(0,1)$. (droite): Fonction de répartition de $\mathcal{N}(0,1)$.

Figure 7.6: (gauche): Densité d’une loi normale centrée réduite \(\mathcal{N}(0,1)\). (droite): Fonction de répartition de \(\mathcal{N}(0,1)\).

Relation entre loi normale et loi normale centrée réduite

Théorème 7.9 (Relation avec la loi normale) Si \(X\) suit une loi normale \(\mathcal{N}(\mu,\sigma^2)\), alors \(Z= \frac{X-\mu}{\sigma}\) est une variable centrée réduite qui suit la loi normale centrée réduite \(\mathcal{N}(0,1)\).

Calcul des probabilités d’une loi normale

La fonction de répartition de la loi normale réduite permet d’obtenir les probabilités associées à toutes variables aléatoires normales \(\mathcal{N}(\mu,\sigma^2)\) après transformation en variable centrée réduite.

Définition 7.20 On appelle fonction \(\Phi\), la fonction de répartition de la loi normale centrée réduite \(\mathcal{N}(0,1)\), telle que

\[\forall \,\, x \in \mathbb{R} \quad \Phi(x) = P(X \le x) = \frac{1}{{\sqrt {2\pi}}} \int_{-\infty}^x f(t)dt\]

Propriétés: Les propriétés associées à la fonction de répartition \(\Phi\) sont:

  1. \(\Phi\) est croissante, continue et dérivable sur \(\mathbb{R}\) et vérifie:

    \(\lim\limits_{x\to - \infty} \Phi(x) = 0\) et \(\lim\limits_{x\to\infty} \Phi(x) = 1\)

  2. \(\forall \,\, x \in \mathbb{R} \quad \Phi(x) + \Phi(-x) = 1\)

  3. \(\forall \,\, x \in \mathbb{R} \quad \Phi(x) - \Phi(-x) = 2\Phi(x) -1\)

Une application directe de la fonction \(\Phi\) est la lecture des probabilités de la loi normale sur la table de la loi normale centrée réduite.

Soit \(X\) une variable aléatoire normale de paramètres \(\mu =3\) et \(\sigma^2=4\). Calculer:

  1. \(P(X > 0)\)

  2. \(P(2 < X < 5)\)

  3. \(P(|X-3| > 4)\)

Approximation normale d’une répartition binomiale

Un résultat important de la théorie de probabilité est connu sous le nom de théorème limite de Moivre-Laplace. Il dit que pour \(n\) grand, une variable binomiale \(\mathcal{B}(n,p)\) suivra approximativement la même loi qu’une variable aléatoire normale avec même moyenne et même variance. Ce théorème énonce que si “on standardise” une variable aléatoire binomiale \(\mathcal{B}(n,p)\) en soustrayant d’abord sa moyenne \(np\) puis en divisant le résultat par son écart-type \(\sqrt{np(1-p)}\), alors la variable aléatoire standardisée (de moyenne 0 et variance 1) suivra approximativement, lorsque \(n\) est grand, une distribution normale standard. Ce résultat fut ensuite progressivement généralisé par Laplace, Gauss et d’autres pour devenir le théorème actuellement connu comme théorème centrale limite qui est un des deux résultats les plus importants de la théorie de probabilités. Ce théorème sert de base théorique pour expliquer un fait empirique souvent relevé, à savoir qu’en pratique de très nombreux phénomènes aléatoires suivent approximativement une distribution normale.

On remarquera qu’à ce stade deux approximations de la répartition binomiale ont été proposées: l’approximation de Poisson, satisfaisante lorsque \(n\) est grand et lorsque \(np\) n’est pas extrême; l’approximation normale pour laquelle on peut montrer qu’elle est de bonne qualité lorsque \(np(1-p)\) est grand (dès que \(np(1-p)\) dépasse 10).

La loi de probabilité d’une variable aléatoire $B( n,p )$ devient de plus en plus **normale** à mesure que $n$ augmente.

Figure 7.7: La loi de probabilité d’une variable aléatoire \(B( n,p )\) devient de plus en plus normale à mesure que \(n\) augmente.

Loi de \(\chi^{2}\) de Pearson

Définition 7.21 Soit \(X_1,X_2,\ldots,X_n\), \(n\) variables normales centrées réduites, et \(Y\) la variable aléatoire définie par

\[Y = X_1^2 + X_2^2 + \ldots + X_i^2 + \ldots + X_n^2 = \sum_{i=1}^n X_i^2\] On dit que \(Y\) suit la loi de \(\chi^2\) (ou loi de Pearson) à \(n\) degrés de liberté, \(Y \thicksim \chi^2 (n)\)
La loi de \(\chi^2\) trouve de nombreuses applications dans le cadre de la comparaison de proportions, des tests de conformité d’une distribution observée à une distribution théorique et le test d’indépendance de deux caractères qualitatifs. Ce sont les tests du khi-deux.

Remarque: Si \(n=1\), la variable du \(\chi^2\) correspond au carré d’une variable normale centrée réduite \(\mathcal{N}(0,1)\).

Propriétés: Si \(Y \thicksim \chi^2 (n)\), alors:

  • \(E(Y)= n\)

  • \(V(Y) = 2n\)

L’augmentation de degré de liberté (\(n\)) déplace la distribution vers la droite (le mode devient plus grand) et augmente la dispersion (la variance de la distribution augmente).

Loi de Student \(St(n)\)

Définition 7.22 Soit \(U\) une variable aléatoire suivant une loi normale centrée réduite \(\mathcal{N}(0,1)\) et \(V\) une variable aléatoire suivant une loi de \(\chi^2(n)\), \(U\) et \(V\) étant indépendantes, on dit alors que \(T_n = \frac{U}{\sqrt{\frac{V}{n}}}\) suit une loi de Student à \(n\) degrés de liberté. \(T_n \thicksim St(n)\)
La loi de Student est utilisée lors des tests de comparaison de paramètres comme la moyenne et dans l’estimation de paramètres de la population à partir de données sur un échantillon (Test de Student).

Le graphique de plusieurs densités de la loi de Student illustre le suivant: à mesure que les degrés de liberté augmentent, la forme de la densité de Student se rapproche de celle d’une courbe de la loi normale centrée réduite. Déjà pour \(n = 25\), nous trouvons peu de différence avec la densité normale standard. Si \(n\) est petit, nous trouvons que la distribution a des queues plus lourdes qu’une normale, c’est-à-dire qu’elle a la forme d’une cloche plus grosse.

Loi de Fisher-Snedecor \(\mathcal{F}(n,m)\)

Définition 7.23 Soit \(U\) et \(V\) deux variables aléatoires indépendantes suivant une loi de \(\chi^2\) respectivement à \(n\) et \(m\) degrés de liberté.

On dit que \(F= \frac{U/n}{V/m}\) suit une loi de Fisher-Snedecor à \((n,m)\) degrés de liberté. \(F \thicksim \mathcal{F}(n,m)\)
La loi de Fisher-Snedecor est utilisée pour comparer deux variances observées et sert surtout dans les très nombreux tests d’analyse de variance et de covariance.

Couple de variables aléatoires continues

Densité conjointe

Définition 7.24 On dit que \((X,Y)\) est un couple aléatoire continu s’il existe une fonction \(f: \mathbb{R}^2 \rightarrow \mathbb{R}\) telle que pour tout \(D \subseteq \mathbb{R}\) on a

\[P\{(X,Y) \in D\} = \iint\limits_{(x,y) \in D} f(x,y) dx dy\]

Remarque: On a la condition de normalité \(\iint\limits_{\mathbb{R}^2} f(x,y)dxdy=1\)

La fonction \(f\) s’appelle densité conjointe de \(X\) et \(Y\). Notons par \(A\) et \(B\) deux ensembles de nombres réels. En définissant \(D=\{(x,y) : x \in A, y \in B\}\), on obtient

\[P(X\in A, Y \in B) = \int_A \int_B f(x,y) dxdy\]

La fonction de répartition du \((X,Y)\) est définie par

\[F(a,b)=P(X \le a, Y \le b) = \int_{- \infty}^b \int_{- \infty}^a f(x,y) dx dy\]

\(f\) est le dérivé de \(F\): \(f(a,b)= \frac{\partial^2}{\partial a \partial b} F(a,b)\)

Soit \((X,Y)\) un couple aléatoire continu de densité \[f(x,y)= \left\lbrace \begin{array}{ll} a x y^2 & \mbox{si} \quad 0 \le x \le y \le 1 \\ 0 & \mbox{sinon} \end{array} \right.\] Trouver la constante \(a\).

Soit \((X,Y)\) un couple aléatoire continu de densité

\[f(x,y)= \left\lbrace \begin{array}{ll} 2 e^{-x} e^{-2y} & \mbox{si} \quad x > 0, \,\, y > 0\\ 0 & \mbox{sinon} \end{array} \right.\] Montrer que:

  1. \(P(X > 1, Y < 1)=e^{-1}(1-e^{-2})\)

  2. \(P(X < a) = 1-e^{-a}\)

  3. \(P(X < Y ) = 1/3\)

Densités marginales

Si on dispose de la densité du couple, on peut retrouver les densités de \(X\) et de \(Y\), appelées les densités marginales:

Densité marginale de X: \[f(x,.)=f_X(x)=\int_{\mathbb{R}} f(x,y)dy\]

Densité marginale de Y: \[f(.,y)=f_Y(y)=\int_{\mathbb{R}} f(x,y)dx\]

Espérance d’une fonction du couple

Si \((X,Y)\) est un couple continu de densité \(f(x,y)\) et \(g: \mathbb{R}^2 \rightarrow \mathbb{R}\) on a

\[E[ g(X,Y)] = \iint\limits_{\mathbb{R}^2} g(x,y) f(x,y)dxdy\]

Indépendance

Les v.a. \(X\) et \(Y\) sont indépendantes ssi \(\forall \, (x,y) \in \mathbb{R}^2\) on a

\[f(x,y)=f_X(x) f_Y(y)\]

Distribution conditionnelle

Si \((X,Y)\) est un couple continu de densité \(f(x,y)\), on définit densité conditionnelle de \(X\), sous la condition \(Y=y\) et lorsque \(f_Y(y) > 0\) par la relation

\[f_{X|Y} (x|y) = \frac{f(x,y)}{f_Y(y)}\]

Supposons que \(X\) et \(Y\) aient pour densité conjointe \[f(x,y)= \left\lbrace \begin{array}{ll} \frac{1}{y} e^{- x/y}e^{-y} & \mbox{si} \quad x > 0, \,\, y > 0\\ 0 & \mbox{sinon} \end{array} \right.\]

  1. Déterminer la densité conditionnelle de \(X\) lorsque \(Y=y\).

  2. Calculer \(P(X>1 | Y = y)\)