Sur les valeurs propres d'une matrice aléatoire


oral HEC, BL - 2022 - Exercice sans préparation.
Soit $X$ et $Y$ deux variables aléatoires indépendantes dfinies sur le même espace probabilisé $(\Omega, A, P)$, suivant la même loi géométrique de paramètre $p\in]0, 1[$.
Pour tout $\omega\in\Omega$, on pose
\[A(\omega)=\lp\begin{array}{cc}X(\omega)&Y(\omega)\\Y(\omega)&X(\omega)\enar\rp\]


  1. Déterminer la probabilité que $A$ soit inversible.
  2. Soit $\lambda_1$ et $\lambda_2$ les variables aléatoires égales aux valeurs propres de $A$. Calculer $Cov(\lambda_1,\lambda_2)$.

Correction
oral HEC, BL - 2022 - Exercice sans préparation.
  1. La matrice est inversible si seulement si son déterminant est non nul, soit
    \[\det(A(\omega))=X^2(\omega)-Y^2(\omega)\not=0\]

    et donc, puisque ces variables aléatoires suivent des lois géométriques, donc en particulier sont à valeurs positives, on à donc que $A(\omega)$ est inversible si et seulement si
    \[X(\omega)\not=Y(\omega)\]

    La probabilité que cela arrive est
    \[P(X\not=Y) = 1 - P(X=Y)\]

    avec
    \[P(X=Y)=\sum_{k=1}^{+\infty}P((X=k)\cap(Y=k))\]

    soit, par indépendance des deux variables,
    \[\begin{array}{ll}
  P(X=Y)&=\dsp\sum_{k=1}^{+\infty}P((X=k)\cap(Y=k))\\
  &=\dsp\sum_{k=1}^{+\infty}\left( pq^{k-1}\rp^2\\
  &=\dsp\sum_{k=1}^{+\infty}p^2(q^2)^{k-1}\\
  &=\dfrac{p^2}{1-q^2}=\dfrac{p}{2-p}\enar\]

    On obtient alors finalement la porbabilité
    \[\begin{array}{ll}P(X=Y)&=1-\dfrac{p}{2-p}\\&=\dfrac{2(1-p)}{2-p}\enar\]


  2. Les valeurs propres de $A$ sont les réels $\lambda$ tels que la matrice
    \[A-\lambda I_2 =
  \lp\begin{array}{cc}X(\omega)-\lambda&Y(\omega)\\Y(\omega)&X(\omega)-\lambda\enar\rp\]

    n'est pas inversible. On retrouve le raisonnement de la question précédente: le déterminant de cette matrice doit être nul, c'est-à-dire
    \[(X-\lambda)^2-Y^2=0\iff \lambda=X\pm Y\]

    On a donc nos deux valeurs propres
    \[\lambda_1=X(\omega)+Y(\omega)\]

    et
    \[\lambda_2=X(\omega)-Y(\omega)\]

    (ce qui montre au passage que cette matrice est toujours diagonalisable, car $\lambda_1\not=\lambda_2$ sauf si $Y=0$, dernier cas dans lequel la matrice est déjà diagonale)
    On calcule alors la covariance recherchée:
    \[Cov(\lambda_1,\lambda_2)=Cov(X+Y,X-Y)
  =E\bigl((X+Y)(X-Y)\bigr)-E(X+Y)E(X-Y)\]

    soit, en développant avec la linéarité de l'espérance,
    \[Cov(\lambda_1,\lambda_2)=V(X)-V(Y)=0\]

    car ces deux variables aléatoires suivent la même loi.

    Attention: on ne peut pas en déduire que les varaiables aléatoires $\lambda_1$ et $\lambda_2$ sont indépendantes.
    Au contraire même, vu leurs expressions, elles ne semblent pas indépendantes, à démontrer …


Cacher la correction


Tag:Variables aléatoires continues

Autres sujets au hasard: Lancer de dés
LongPage: h2: 0 - h3: 0