11.2 Critère de base

Le résultat suivant est une caractérisation de la diagonalisabilité d'une matrice, qui utilise les vecteurs propres de cette matrice:

Théorème: Soit \(A\) une matrice \(n\times n\). Alors \(A\) est diagonalisable si et seulement si \(A\) possède \(n\) vecteurs propres linéairement indépendants.

De plus, dans le cas où \(A\) est diagonalisable, \(A=MDM^{-1}\), alors

Supposons que \(A\) est diagonalisable: il existe donc \(D=\mathrm{diag}(d_1,\dots,d_n)\) et \(M=[\boldsymbol{m}_1\cdots\boldsymbol{m}_n]\), inversible, telle que \(A=MDM^{-1}\). Remarquons alors que puisque \(M\) est inversible, ses colonnes sont indépendantes. Ensuite, si on multiplie à droite par \(M\), on obtient \[ AM=MD\,. \] Si on exprime \(D\) comme \[ D=[d_1\boldsymbol{e}_1\cdots d_n\boldsymbol{e}_n]\,, \] alors \[\begin{aligned} MD &=M\bigl[d_1\boldsymbol{e}_1\cdots d_n\boldsymbol{e}_n\bigr]\\ &=\bigl[d_1M\boldsymbol{e}_1\cdots d_nM\boldsymbol{e}_n\bigr]\\ &=\bigl[d_1\boldsymbol{m}_1\cdots d_n\boldsymbol{m}_n\bigr]\,. \end{aligned}\] On peut donc exprimer \(AM=MD\) comme suit: \[\begin{aligned} \bigl[A\boldsymbol{m}_1\cdots A\boldsymbol{m}_n\bigr] =\bigl[d_1\boldsymbol{m}_1\cdots d_n\boldsymbol{m}_n\bigr]\,, \end{aligned}\] qui implique bien que \(A\boldsymbol{m}_j=d_j\boldsymbol{m}_j\) pour tout \(j=1,\dots,n\), et donc que \(A\) possède \(n\) vecteurs propres linéairement indépendants.

Inversément, supposons que \(A\) possède \(n\) vecteurs propres linéairement indépendants, que l'on peut noter \(\boldsymbol{v}_1,\dots,\boldsymbol{v}_n\). Nommons leurs valeurs propres respectives \(\lambda_1,\dots,\lambda_n\): \[ A\boldsymbol{v}_j=\lambda_j\boldsymbol{v}_j\,,\qquad j=1,\dots,n\,. \] Posons \[ M:= [\boldsymbol{v}_1\cdots\boldsymbol{v}_n]\,,\qquad D:= \mathrm{diag}(\lambda_1,\dots,\lambda_n)\,. \] Puisque les \(\boldsymbol{v}_j\) sont indépendants, \(M\) est inversible. Calculons: \[\begin{aligned} AM &=A[\boldsymbol{v}_1\cdots\boldsymbol{v}_n]\\ &=[A\boldsymbol{v}_1\cdots A\boldsymbol{v}_n]\\ &=[\lambda_1\boldsymbol{v}_1\cdots \lambda_n\boldsymbol{v}_n]\\ &=MD\,. \end{aligned}\] En multipliant à droite par \(M^{-1}\), on obtient \(A=MDM^{-1}\), qui signifie bien que \(A\) est diagonalisable.

Donc une matrice est diagonalisable si et seulement si il est possible de construire une base de \(\mathbb{R}^n\) composée uniquement de vecteurs propres de cette matrice.

Remarque: Ce qui n'est pas précisé, dans l'énoncé du théorème ci-dessus, mais que nous avons observé dans la preuve, c'est que l'ordre dans lequel les valeurs propres sont rangées sur la diagonale de \(D\) doit respecter l'ordre dans lequel les vecteurs propres sont rangés pour former \(M\). On le fera explicitement dans des cas particuliers, plus bas.

Avant de voir quelques exemples, donnons une conséquence directe du théorème:

Si \(A\) est \(n\times n\) et possède \(n\) valeurs propres distinctes, alors elle est diagonalisable.

Si \(A\) possède \(n\) valeurs propres distinctes, alors elle possède aussi \(n\) vecteurs propres. Puisque ces vecteurs propres sont associés à des valeurs propres distinctes, ils sont linéairement indépendants. Par le théorème ci-dessus, ceci implique que \(A\) est diagonalisable.

Exemple: Soit \(A= \begin{pmatrix} 5&-3\\ 1&5 \end{pmatrix} \). Comme \(P_A(\lambda)=(5-\lambda)^2+3\geqslant 3\), \(A\) n'a aucune valeur propre, donc aucun vecteur propre. Par conséquent, \(A\) n'est pas diagonalisable.

Exemple: Nous avons aussi vu que \(B= \begin{pmatrix} 3&1\\ 0&3 \end{pmatrix} \) possède une seule valeur propre, \(\lambda_1=3\), mais que \[ E_3 =\mathrm{Ker}(A-3I_2)=\mathrm{Vect}\left\{ \begin{pmatrix} 1\\ 0 \end{pmatrix} \right\}\,. \] Ceci implique que \(B\) ne possède pas deux vecteurs propres linéairement indépendants, donc \(B\) n'est pas diagonalisable.

Dans ce dernier exemple, on a une matrice qui possède une infinité de vecteurs propres, mais qui n'est pas diagonalisable parce que ses vecteurs propres ne ''remplissent'' pas assez \(\mathbb{R}^2\) (ils ne permettent pas de former une base).

Exemple: Étudions la diagonalisabilité de \[ B= \begin{pmatrix} 1&2&0\\ 0&3&0\\ 2&-4&2 \end{pmatrix}\,. \] On calcule: \[\begin{aligned} P_B(\lambda) &=\det \begin{pmatrix} 1-\lambda&2&0\\ 0&3-\lambda&0\\ 2&-4&2-\lambda \end{pmatrix}\\ &= (3-\lambda)\det \begin{pmatrix} 1-\lambda&0\\ 2&2-\lambda \end{pmatrix}\\ &=(1-\lambda)(2-\lambda)(3-\lambda)\,. \end{aligned}\] Puisque \(B\) est \(3\times 3\) et possède \(3\) valeurs propres distinctes, le corollaire ci-dessus implique que \(B\) est diagonalisable. Écrivons la diagonalisation explicitement.

D'abord, calculons les espaces propres: \[\begin{aligned} E_1&=\mathrm{Vect} \left\{ \begin{pmatrix} 1\\ 0\\-2\end{pmatrix} \right\}\,,\\ E_2&=\mathrm{Vect} \left\{ \begin{pmatrix} 0\\ 0\\1\end{pmatrix} \right\}\,,\\ E_3&=\mathrm{Vect} \left\{ \begin{pmatrix} 1\\ 1\\-2\end{pmatrix} \right\}\,.\quad \end{aligned}\] Pour ce faire, il nous faut un vecteur propre pour chaque valeur propre. Choisissons, pour chaque valeur propre, un vecteur propre associé:

(Les vecteurs \(\boldsymbol{v}_1,\boldsymbol{v}_2,\boldsymbol{v}_3\) sont automatiquement indépendants, puisqu'ils sont associés à des valeurs propres distinctes.)

Maintenant, pour réaliser la diagonalisation, on place ces valeurs propres sur une diagonale, et les vecteurs propres associés, dans le même ordre, dans une matrice de changement de base: \[ D:= \begin{pmatrix} {\color{orange}1}&0&0\\ 0&{\color{blue}2}&0\\ 0&0&{\color{magenta}3} \end{pmatrix}\,,\qquad M:= \left[ {\color{orange}\boldsymbol{v}_1}\, {\color{blue}\boldsymbol{v}_2}\, {\color{magenta}\boldsymbol{v}_3} \right] = \begin{pmatrix} 1&0&1\\ 0&0&1\\ -2&1&-2 \end{pmatrix}\,, \] qui donne la diagonalisation \(B=MDM^{-1}\).

Mais on pourrait aussi organiser les valeurs propres dans un ordre différent; la seule condition à respecter est que le placement des vecteurs propres dans la matrice de changement de base respecte l'ordre choisi pour les valeur propres. Par exemple, \[ \widetilde{D}:= \begin{pmatrix} {\color{blue}2}&0&0\\ 0&{\color{magenta}3}&0\\ 0&0&{\color{orange}1} \end{pmatrix}\,,\qquad \widetilde{M}:= \left[ {\color{blue}\boldsymbol{v}_2}\, {\color{magenta}\boldsymbol{v}_3}\, {\color{orange}\boldsymbol{v}_1} \right] = \begin{pmatrix} 0&1&1\\ 0&1&0\\ 1&-2&-2 \end{pmatrix}\,, \] qui donne la diagonalisation \(B=\widetilde{M}\widetilde{D}\widetilde{M}^{-1}\).

Exemple: Étudions la diagonalisabilité de \[ C= \begin{pmatrix} 1&3&3\\ -3&-5&-3\\ 3&3&1 \end{pmatrix}\,. \] Cette fois, \[ P_C(\lambda)=(1-\lambda)(\lambda+2)^2\,.\] On n'a que deux valeurs propres (et pas 3), donc les hypothèses du corollaire ne sont pas satisfaites. Pour voir si l'hypothèse du théorème est satisfaites, on doit voir s'il est possible de former une base de \(\mathbb{R}^3\) avec des vecteurs propres.

Or l'étude des espaces propres révèle que

Puisque \(\{{\color{orange}\boldsymbol{v}_1},{\color{blue}\boldsymbol{w}_1},{\color{blue}\boldsymbol{w}_2}\}\) est libre, donc forme une base de \(\mathbb{R}^3\); ainsi, le théorème implique que \(C\) est diagonalisable. La diagonalisation peut se faire par exemple avec \[ D:= \begin{pmatrix} {\color{orange}1}&0&0\\ 0&{\color{blue}-2}&0\\ 0&0&{\color{blue}-2} \end{pmatrix}\,,\qquad M:= \left[ {\color{orange}\boldsymbol{v}_1}\, {\color{blue}\boldsymbol{w}_1}\, {\color{blue}\boldsymbol{w}_2} \right] = \begin{pmatrix} 1&-1&-1\\ -1&1&0\\ 1&0&1 \end{pmatrix}\,, \] qui donne \(C=MDM^{-1}\). Bien-sûr, d'autres choix sont possibles.

Quiz 11.2-1 : Soit \(A\) une matrice \(n\times n\). Vrai ou faux?
  1. \(A\) est diagonalisable.
  2. Si \(A\) est diagonalisable, alors il existe une unique matrice inversible \(M\), et une unique matrice diagonale \(D\) telles que \(A=MDM^{-1}\).
  3. Si la réduite de \(A\) est une matrice diagonale, alors \(A\) est diagonalisable.
  4. Si \(A\) possède au moins une valeur propre, alors elle est diagonalisable.
  5. Si \(A\) est diagonalisable, alors elle possède \(n\) valeurs propres distinctes.
  6. Si il existe une matrice \(D\) et une matrice inversible \(M\) telle que \(A=MDM^{-1}\), alors \(D\) est diagonale.