Vous êtes invités à annoter le contenu de ce cours. Les annotations peuvent être des corrections typographiques, des propositions ou des questions. Pour ajouter des annotations, choisissez le text que vous voulez commenter et cliquez sur . Pour accéder aux annotations crées par d'autres personnes, cliquez sur le coin supérieur de la page .

Exercices

Exercice 3.1 (La variance corrigée) Soit \(X\) une variable aléatoire ayant une espérance \(m\) et une variance \(\sigma^2\), sa variance empirique est \(s_{n}^2=\frac{1}{n} \sum X_{i}^{2}-\overline{X}_{n}^{2}\) avec \(\overline{X}_{n}\) la moyenne empirique de \(X\) et \(\frac{1}{n} \sum X_{i}^{2}\) la moyenne empirique de \(X^{2}\).

  1. Calculer \(E\left(\overline{X}_{n}\right)\) et \(V\left(\overline{X}_{n}\right)\) et en déduire \(E(\overline{X}_{n}^{2})\).
  2. Montrer enfin que \(E\left(s_{n}^2\right)=\frac{n-1}{n} V(X)\) et en déduire un estimateur sans biais de la variance (on nomme cet estimateur \(s_{n}^{*^2}\)).

Exercice 3.2 (EMM) On considère l’échantillon statistique

\[1,0,2,1,1,0,1,0,0\]

  1. Cacluler sa moyenne et sa variance empirique.
  2. En supposant que les données de cet échantillon sont des réalisations d’une variable de loi inconnue, donner une estimation non biaisée de l’espérance et de la variance de cette loi.
  3. On choisit de modéliser les valeurs de cet échantillon par une loi binomiale \(\mathcal{B}(2, p)\). Utiliser la moyenne empirique pour proposer une estimation ponctuelle pour \(p\).
  4. Avec le même modèle, utiliser la variance pour proposer une autre estimation de \(p\).
  5. On choisit de modéliser les valeurs de cet échantillon par une loi de Poisson \(\mathcal{P}(\lambda)\), qui a pour espérance \(\lambda\). Quelle estimation ponctuelle proposez-vous pour \(\lambda\)?

Exercice 3.3 (EMV loi normale) Considérons un échantillon aléatoire \((X_1,\ldots,X_n)\) (les \(X_i\) sont iid) et issu d’une variable aléatoire parente \(X \thicksim \mathcal{N}(\mu,\sigma^2)\).

  1. Calculer les estimateurs de maximum de vraisemblance (EMV) de \(\mu\) et \(\sigma^2\).
  2. Ces estimateurs sont-ils sans biais?

Exercice 3.4 (EMV loi géométrique) Les oiseaux d’un certain type prennent leur envol après avoir effectué quelques sauts sur le sol. On suppose que ce nombre \(X\) de sauts peut être modélisé par une distribution géométrique sur \(\mathbb{N}^*\):

\[P(X=x)= p(1-p)^{x-1} \quad x \geq 1\]

Pour \(n=130\) oiseaux de ce type, on a relevé les données suivantes:

Nombre de sauts \(x\) 1 2 3 4 5 6 7 8 9 10 11 12
Effectifs 48 31 20 9 6 5 4 2 1 1 2 1
  1. Quel est l’estimateur du maximum de vraisemblance de \(p\)?
  2. Calculer la valeur de cet estimateur avec les données de l’échantillon.

Exercice 3.5 (Comparaison d’estimateurs) Soit \(X\) une VAR de loi uniforme sur un intervalle \([0, a]\)\(a\) est un paramètre inconnu, et on dispose de \(\left(X_{1}, \ldots, X_{n}\right)\) un \(n\) -echantillon de \(X\). On note \(\overline{X}_{n}\) la moyenne empirique de \(X\).

  1. Soit \(T_{n}=2 \overline{X}_{n}\), l’estimateur par la méthode de moments de \(a\). Montrer que \(T_{n}\) est un estimateur sans biais de \(a\) et calculer son risque quadratique.
  2. Soit \(T_{n}^{\prime}=\max \left(X_{1}, \ldots, X_{n}\right)\). Montrer que \(T_n^{\prime}\) est l’estimateur par maximum de vraisemblance de \(a\).
  3. Donner la fonction de répartition de \(T_{n}^{\prime}\). En déduire une densité de \(T_{n}^{\prime}\), puis son biais et son risque quadratique.
  4. Soit \(T_{n}^{\prime \prime}=\frac{n+1}{n} T_{n}^{\prime}\). Déterminer son biais et son risque quadratique.
  5. Pour de grandes valeurs de \(n\), quel est le meilleur estimateur de \(a\)?

Extra

Exercice 3.6 On considère une variable aléatoire \(X\) de densité \(f_{\theta}\) avec \(-\frac{1}{2} \leq \theta \leq \frac{1}{2}\) et

\[ f_{\theta}(x)=\left\{\begin{array}{cl}{\frac{1}{2}-\theta} & {\text { si } x \in[-1,0]} \\ {\frac{1}{2}+\theta} & {\text { si } x \in[0,1]} \\ {0} & {\text { sinon }}\end{array}\right. \]

  1. Représenter \(f_{\theta}\) et justifier que \(f_{\theta}\) est bien une densité de probabilité pour \(-\frac{1}{2} \leq \theta \leq \frac{1}{2}\).
  2. Calculer l’espérance et la variance de \(X\).

On considère maintenant \(X_{1}, \ldots X_{n}\) des variables aléatoires indépendantes et de même loi. On suppose que la loi commune est de densité \(f_{\theta}\) avec \(-\frac{1}{2} \leq \theta \leq \frac{1}{2}\) inconnu. On va chercher à estimer \(\theta\).

  1. Proposer un esitmateur \(\hat{\theta}\) de \(\theta\) basé sur la méthode des moments. On prend \(\hat{\theta}_{n}=\frac{1}{n} \sum X_{i}\).
  2. Calculer son biais et son risque quadratique.

On va maintenant s’intéresser à l’estimateur du maximum de vraisemblance de \(\theta\).

  1. On note \(N_{1}=\sum_{i=1}^{n} \mathbf{1}_{\left\{X_{i} \geq 0\right\}}\) et \(N_{2}=\sum_{i=1}^{n} \mathbf{1}_{\left\{X_{i}<0\right\}}\). Soient \(x_{1}, \ldots, x_{n} \in [-1,1]\) et \(-\frac{1}{2} \leq \theta \leq \frac{1}{2}\). Ecrire la vraisemblance du modèle au point \(\left(x_{1}, \ldots, x_{n} ; \theta\right)\) en fonction de \(N_{1}, N_{2}\) et \(\theta\).

  2. Montrer que l’estimateur du maximum devraisemblance existe et vaut: \[ \hat{\theta}_{M V}=\frac{N_{1}-N_{2}}{2\left(N_{1}+N_{2}\right)}=\frac{N_{1}}{n}-\frac{1}{2} \]

  3. On pose \(Y_i = 1_{\left\{X_{i} \geq 0\right\}}\), pour \(1 \leq i \leq n\). Calculer l’espérance et la variance des variables aléatoires \(Y_{i}\). En déduire l’espérance et le risque quadratique de \(\hat{\theta}_{M V}\).

  4. Quel estimateur vaut-il mieux utiliser entre \(\hat{\theta}\) et \(\hat{\theta}_{M V}\)? Justifier.