Le résultat suivant est une caractérisation de la diagonalisabilité d'une matrice, qui utilise les vecteurs propres de cette matrice:
Théorème:
Soit \(A\) une matrice \(n\times n\). Alors \(A\) est diagonalisable si et
seulement si \(A\) possède \(n\) vecteurs propres linéairement indépendants.
De plus, dans le cas où \(A\) est diagonalisable, \(A=MDM^{-1}\), alors
Supposons que \(A\) est diagonalisable: il existe donc
\(D=\mathrm{diag}(d_1,\dots,d_n)\) et \(M=[\boldsymbol{m}_1\cdots\boldsymbol{m}_n]\), inversible,
telle que \(A=MDM^{-1}\).
Remarquons alors que puisque \(M\) est inversible, ses colonnes sont
indépendantes. Ensuite, si on multiplie à droite par \(M\), on obtient
\[ AM=MD\,.
\]
Si on exprime \(D\) comme
\[ D=[d_1\boldsymbol{e}_1\cdots d_n\boldsymbol{e}_n]\,,
\]
alors
\[\begin{aligned}
MD
&=M\bigl[d_1\boldsymbol{e}_1\cdots d_n\boldsymbol{e}_n\bigr]\\
&=\bigl[d_1M\boldsymbol{e}_1\cdots d_nM\boldsymbol{e}_n\bigr]\\
&=\bigl[d_1\boldsymbol{m}_1\cdots d_n\boldsymbol{m}_n\bigr]\,.
\end{aligned}\]
On peut donc exprimer \(AM=MD\) comme suit:
\[\begin{aligned}
\bigl[A\boldsymbol{m}_1\cdots A\boldsymbol{m}_n\bigr]
=\bigl[d_1\boldsymbol{m}_1\cdots d_n\boldsymbol{m}_n\bigr]\,,
\end{aligned}\]
qui implique bien que \(A\boldsymbol{m}_j=d_j\boldsymbol{m}_j\) pour tout \(j=1,\dots,n\), et
donc que \(A\) possède \(n\) vecteurs propres linéairement indépendants.
Inversément, supposons que
\(A\) possède \(n\) vecteurs propres linéairement indépendants, que l'on peut
noter \(\boldsymbol{v}_1,\dots,\boldsymbol{v}_n\). Nommons leurs valeurs propres respectives
\(\lambda_1,\dots,\lambda_n\):
\[
A\boldsymbol{v}_j=\lambda_j\boldsymbol{v}_j\,,\qquad j=1,\dots,n\,.
\]
Posons
\[
M:= [\boldsymbol{v}_1\cdots\boldsymbol{v}_n]\,,\qquad
D:= \mathrm{diag}(\lambda_1,\dots,\lambda_n)\,.
\]
Puisque les \(\boldsymbol{v}_j\) sont indépendants, \(M\) est inversible.
Calculons:
\[\begin{aligned}
AM
&=A[\boldsymbol{v}_1\cdots\boldsymbol{v}_n]\\
&=[A\boldsymbol{v}_1\cdots A\boldsymbol{v}_n]\\
&=[\lambda_1\boldsymbol{v}_1\cdots \lambda_n\boldsymbol{v}_n]\\
&=MD\,.
\end{aligned}\]
En multipliant à droite par \(M^{-1}\), on obtient \(A=MDM^{-1}\), qui signifie
bien que \(A\) est diagonalisable.
Remarque: Ce qui n'est pas précisé, dans l'énoncé du théorème ci-dessus, mais que nous avons observé dans la preuve, c'est que l'ordre dans lequel les valeurs propres sont rangées sur la diagonale de \(D\) doit respecter l'ordre dans lequel les vecteurs propres sont rangés pour former \(M\). On le fera explicitement dans des cas particuliers, plus bas.
Avant de voir quelques exemples, donnons une conséquence directe du théorème:
Si \(A\) possède \(n\) valeurs propres distinctes, alors elle possède aussi \(n\) vecteurs propres. Puisque ces vecteurs propres sont associés à des valeurs propres distinctes, ils sont linéairement indépendants. Par le théorème ci-dessus, ceci implique que \(A\) est diagonalisable.
Exemple: Soit \(A= \begin{pmatrix} 5&-3\\ 1&5 \end{pmatrix} \). Comme \(P_A(\lambda)=(5-\lambda)^2+3\geqslant 3\), \(A\) n'a aucune valeur propre, donc aucun vecteur propre. Par conséquent, \(A\) n'est pas diagonalisable.
Exemple: Nous avons aussi vu que \(B= \begin{pmatrix} 3&1\\ 0&3 \end{pmatrix} \) possède une seule valeur propre, \(\lambda_1=3\), mais que \[ E_3 =\mathrm{Ker}(A-3I_2)=\mathrm{Vect}\left\{ \begin{pmatrix} 1\\ 0 \end{pmatrix} \right\}\,. \] Ceci implique que \(B\) ne possède pas deux vecteurs propres linéairement indépendants, donc \(B\) n'est pas diagonalisable.
Exemple:
Étudions la diagonalisabilité de
\[
B= \begin{pmatrix} 1&2&0\\ 0&3&0\\ 2&-4&2 \end{pmatrix}\,.
\]
On calcule:
\[\begin{aligned}
P_B(\lambda)
&=\det
\begin{pmatrix}
1-\lambda&2&0\\ 0&3-\lambda&0\\ 2&-4&2-\lambda
\end{pmatrix}\\
&=
(3-\lambda)\det
\begin{pmatrix} 1-\lambda&0\\ 2&2-\lambda \end{pmatrix}\\
&=(1-\lambda)(2-\lambda)(3-\lambda)\,.
\end{aligned}\]
Puisque \(B\) est \(3\times 3\) et possède \(3\) valeurs propres distinctes, le
corollaire ci-dessus implique que \(B\) est diagonalisable.
Écrivons la diagonalisation explicitement.
D'abord, calculons les espaces propres:
\[\begin{aligned}
E_1&=\mathrm{Vect}
\left\{
\begin{pmatrix} 1\\ 0\\-2\end{pmatrix}
\right\}\,,\\
E_2&=\mathrm{Vect}
\left\{
\begin{pmatrix} 0\\ 0\\1\end{pmatrix}
\right\}\,,\\
E_3&=\mathrm{Vect}
\left\{
\begin{pmatrix} 1\\ 1\\-2\end{pmatrix}
\right\}\,.\quad
\end{aligned}\]
Pour ce faire, il nous faut un
vecteur propre pour chaque valeur propre. Choisissons, pour chaque valeur
propre, un vecteur propre associé:
Exemple:
Étudions la diagonalisabilité de
\[
C= \begin{pmatrix} 1&3&3\\ -3&-5&-3\\ 3&3&1 \end{pmatrix}\,.
\]
Cette fois,
\[ P_C(\lambda)=(1-\lambda)(\lambda+2)^2\,.\]
On n'a que deux valeurs propres (et pas 3),
donc les hypothèses du corollaire ne sont pas
satisfaites. Pour voir si l'hypothèse du théorème est satisfaites, on
doit voir s'il est possible de former une base de \(\mathbb{R}^3\) avec des vecteurs
propres.
Or l'étude des espaces propres révèle que