14.2 Sur les espaces propres d'une matrice symétrique

Commençons par une propriété élémentaire du produit scalaire:

Lemme: Soit \(B\) une matrice \(n\times n\) quelconque. Alors pour tous \(\boldsymbol{x},\boldsymbol{y}\in\mathbb{R}^n\), \[ (B\boldsymbol{x})\cdotp \boldsymbol{y}=\boldsymbol{x}\cdotp(B^T\boldsymbol{y})\,. \] En particulier, si \(B\) est symétrique, alors \[ (B\boldsymbol{x})\cdotp \boldsymbol{y}=\boldsymbol{x}\cdotp(B\boldsymbol{y})\,. \]

Par l'interprétation matricielle du produit scalaire, \[ (B\boldsymbol{x})\cdotp \boldsymbol{y}= (B\boldsymbol{x})^T\boldsymbol{y}=\boldsymbol{x}^TB^T\boldsymbol{y}=\boldsymbol{x}^T(B^T\boldsymbol{y})= \boldsymbol{x}\cdotp(B^T\boldsymbol{y})\,.\]

Une conséquence immédiate:

Soit \(G\) une matrice \(n\times n\) orthogonale. Alors pour tous \(\boldsymbol{x},\boldsymbol{y}\in\mathbb{R}^n\),

Supposons que \(G\) est orthogonale. Par le lemme précédent, \[ (G\boldsymbol{x})\cdotp(G\boldsymbol{y})=\boldsymbol{x}\cdotp(G^TG\boldsymbol{y}) =\boldsymbol{x}\cdotp\boldsymbol{y}\,. \] La deuxième identité s'obtient en prenant \(\boldsymbol{y}=\boldsymbol{x}\).

Remarque: La deuxième propriété montre qu'une application linéaire définie par une matrice orthogonale est une isométrie, c'est-à-dire qu'elle ne change pas la longueur d'un vecteur (seulement sa direction).

Exemple: Un exemple typique d'isométrie est la rotation d'angle \(\theta\) dans le plan:

Rappelons que relativement à la base canonique, la matrice de cette rotation est donnée par \[ [\mathrm{rot}_\theta]_{\mathcal{B}_{\mathrm{can}}}= \begin{pmatrix} \cos(\theta)&-\sin(\theta)\\ \sin(\theta)&\cos(\theta) \end{pmatrix}\,. \] Cette matrice est orthogonale puisque ses colonnes sont unitaires et perpendiculaires entre elles: \[\begin{aligned} {[\mathrm{rot}_\theta]_{\mathcal{B}_{\mathrm{can}}}}^{\!\!T} [\mathrm{rot}_\theta]_{\mathcal{B}_{\mathrm{can}}} &= \begin{pmatrix} \cos(\theta)&\sin(\theta)\\ -\sin(\theta)&\cos(\theta) \end{pmatrix} \begin{pmatrix} \cos(\theta)&-\sin(\theta)\\ \sin(\theta)&\cos(\theta) \end{pmatrix}\\ &=I_2\,. \end{aligned}\]

On sait que pour une matrice quelconque, des vecteurs propres associés à des valeurs propres distinctes sont indépendants. Pour une matrice symétrique, cette propriété est vérifiée dans un sens plus fort:

Soit \(A\) une matrice \(n\times n\) symétrique. Si \(\boldsymbol{v}_1\) et \(\boldsymbol{v}_2\) sont deux vecteurs propres de \(A\) associés à des valeurs propres distinctes, alors \(\boldsymbol{v}_1\perp\boldsymbol{v}_2\).

Si \(A\boldsymbol{v}_1=\lambda_1\boldsymbol{v}_1\), \(A\boldsymbol{v}_2=\lambda_2\boldsymbol{v}_2\), alors \[\begin{aligned} \lambda_1(\boldsymbol{v}_1\cdotp\boldsymbol{v}_2) =(\lambda_1\boldsymbol{v}_1)\cdotp\boldsymbol{v}_2 &=(A\boldsymbol{v}_1)\cdotp\boldsymbol{v}_2\\ &=\boldsymbol{v}_1\cdotp(A\boldsymbol{v}_2) =\boldsymbol{v}_1\cdotp(\lambda_2\boldsymbol{v}_2) =\lambda_2(\boldsymbol{v}_1\cdotp\boldsymbol{v}_2)\,, \end{aligned}\] qui implique \((\lambda_1-\lambda_2)(\boldsymbol{v}_1\cdotp\boldsymbol{v}_2)=0\). Donc si \(\lambda_1\neq \lambda_2\), on a forcément que \(\boldsymbol{v}_1\cdotp\boldsymbol{v}_2=0\).

Dans l'exemple suivant, nous vérifierons ce résultat sur un exemple concret, et nous observerons encore une propriété qui sera énoncée comme un résultat général dans la prochaine section.

Exemple: Étudions les espaces propres de la matrice symétrique \[ A= \begin{pmatrix} 3&-2&4\\ -2&6&2\\ 4&2&3 \end{pmatrix}\,. \] On calcule son polynôme caractéristique, \[\begin{aligned} P_A(\lambda) &=\det \begin{pmatrix} 3-\lambda&-2&4\\ -2&6-\lambda&2\\ 4&2&3-\lambda \end{pmatrix}\\ &=\det \begin{pmatrix} 7-\lambda&-2&4\\ 0&6-\lambda&2\\ 7-\lambda&2&3-\lambda \end{pmatrix}\\ &=\det \begin{pmatrix} 7-\lambda&-2&4\\ 0&6-\lambda&2\\ 0&4&-1-\lambda \end{pmatrix}\\ &=-(\lambda+2)(\lambda-7)^2\,. \end{aligned}\] Donc \(A\) possède deux valeurs propres, \(\lambda_1=-2\) et \(\lambda_2=7\). Les espaces propres associés se calculent facilement:

On remarque qu'effectivement, \(\boldsymbol{v}\perp\boldsymbol{w}_1\), et \(\boldsymbol{v}\perp\boldsymbol{w}_2\), et donc n'importe quel vecteur de \(E_{-2}\) est orthogonal à n'importe quel autre vecteur de \(E_7\). En d'autres termes: \[ {E_{-2}}^\perp=E_7\,,\qquad {E_7}^\perp=E_{-2}\,. \] (Pourtant, \(\boldsymbol{w}_1\) et \(\boldsymbol{w}_2\) ne sont pas orthogonaux entre eux.)
Remarquons aussi que \[\sum_{k=1}^2\mathrm{mult}_g(\lambda_k)=1+2=3\,,\] ce qui implique que \(A\) est diagonalisable. En prenant par exemple \[ D= \begin{pmatrix} -2&0&0\\ 0&7&0\\ 0&0&7 \end{pmatrix} \,,\quad P=[\boldsymbol{v}\,\boldsymbol{w}_1\,\boldsymbol{w}_2] =\begin{pmatrix} 1&1&-1/2\\ 1/2&0&1\\ -1&1&0 \end{pmatrix} \,, \] on obtient la diagonalisation \(A=PDP^{-1}\).

Mais rappelons que l'on peut former la matrice de changement de base en choisissant les vecteurs propres que l'on veut, tant qu'ils forment une base des espaces propres concernés, et que l'on respecte l'ordre des valeurs propres dans la matrice diagonale \(D\).

Donc on peut très bien, si on veut, commencer par orthogonaliser la base de \(E_{7}\) avant de mettre en place \(P\): \[\begin{aligned} \boldsymbol{w}_1'&:= \boldsymbol{w}_1\,,\\ \boldsymbol{w}_2'&:= \boldsymbol{w}_2-\mathrm{proj}_{\boldsymbol{w}_1}(\boldsymbol{w}_2)= \begin{pmatrix} -1/2\\ 2\\ 1/2 \end{pmatrix} \end{aligned}\] Ainsi, une autre diagonalisation de \(A\) serait \(A=QDQ^{-1}\), avec la même matrice \(D\) qu'avant, et \[ Q=[\boldsymbol{v}\,\boldsymbol{w}_1'\,\boldsymbol{w}_2'] =\begin{pmatrix} 1&1&-1/2\\ 1/2&0&2\\ -1&1&1/2 \end{pmatrix} \,. \] Cette fois, les colonnes de \(Q\) sont orthogonales deux à deux. Or rien ne nous empêche de les normaliser avant de définir \(Q\): \[ R= \left[ \frac{\boldsymbol{v}}{\|\boldsymbol{v}\|}\, \frac{\boldsymbol{w}_1'}{\|\boldsymbol{w}_1'\|}\, \frac{\boldsymbol{w}_2'}{\|\boldsymbol{w}_2'\|} \right]\,, \] qui donne une troisième diagonalisation de \(A\): \(A=RDR^{-1}\) (avec \(D\) la même matrice qu'avant). Mais ici, \(R\) étant orthogonale, son inverse est \(R^{-1}=R^T\), et donc le changement de base devient \[ A=RDR^T\,. \] On a donc pu diagonaliser \(A\) dans une base orthonormée de \(\mathbb{R}^3\).

Nous verrons, dans la section suivante, que ce que nous avons fait sur ce dernier exemple peut se faire avec n'importe quelle matrice symétrique.

Quiz 14.2-1 : Soit \(A\) une matrice symétrique. Vrai ou faux?
  1. Deux vecteurs propres quelconques de \(A\) sont orthogonaux.
  2. \(A\) possède au moins deux valeurs propres.