Voyons le résultat qui rendra la recherche de valeurs propres un problème purement algébrique:
Théorème: Soit \(A\) une matrice \(n\times n\). Alors \(\lambda\in \mathbb{R}\) est valeur propre de \(A\) si et seulement si \[ \det(A-\lambda I_n)=0\,. \]
En effet, \(\lambda\) est valeur propre de \(A\) si et seulement si il existe un vecteur non-nul \(\boldsymbol{v}\) tel que \(A\boldsymbol{v}=\lambda\boldsymbol{v}\). On a vu plus haut que ceci est équivalent à dire que \(\boldsymbol{v}\in \mathrm{Ker}(A-\lambda I_n)\). Mais l'existence de vecteurs non-nuls dans le noyau d'une matrice (ici: la matrice \(A-\lambda I_n\)) implique que celle-ci n'est pas inversible, ce qui est équivalent à dire que son déterminant est nul.
Exemple: Considérons encore une fois la matrice \[A= \begin{pmatrix} 1&6\\ 5&2 \end{pmatrix} \,.\] Par le théorème, toutes les valeurs propres se trouvent en étudiant l'équation \[ \det(A-\lambda I_2)=0\,. \] Comme \[\begin{aligned} \det(A-\lambda I_2) &=\det\begin{pmatrix} 1-\lambda&6\\ 5&2-\lambda \end{pmatrix}\\ &=(1-\lambda)(2-\lambda)-30\\ &=\lambda^2-3\lambda-28\\ &=(\lambda+4)(\lambda-7)\,, \end{aligned}\] \(A\) possède exactement deux valeurs propres: \(\lambda_1=-4\) (comme nous avions déjà observé) et \(\lambda_2=7\).
Comme dans ce dernier exemple, la fonction \(\lambda\mapsto \det(A-\lambda I_n)\) sera toujours un polynôme en \(\lambda\).
Les valeurs propres d'une matrice se trouvent donc en cherchant les racines de son polynôme caractéristique.
Exemple: Soit \(A= \begin{pmatrix} 1&-5\\ 1&1 \end{pmatrix} \). On a \[ P_A(\lambda)=\det \begin{pmatrix} 1-\lambda&-5\\ 1&1-\lambda \end{pmatrix} =(1-\lambda)^2+5\,. \] Comme \(P_A(\lambda)\geqslant 5\) pour tout \(\lambda\), \(P_A\) n'a pas de racines. Donc \(A\) ne possède aucune valeur propre, et aucun vecteur propre.
Exemple: Pour une matrice \(n\times n\) diagonale, \(A=\mathrm{diag}(d_1,\dots,d_n)\), on a \[\begin{aligned} P_A(\lambda) &=\det(A-\lambda I_n)\\ &=\det(\mathrm{diag}(d_1-\lambda,\dots,d_n-\lambda))\\ &=(d_1-\lambda)\cdots (d_n-\lambda)\,, \end{aligned}\] donc les valeurs propres de \(A\) sont ses éléments diagonaux \(d_1,\dots,d_n\).
Pour trouver les vecteurs propres et valeurs propres (s'il y en a) d'une matrice \(A\), on pourra donc procéder comme suit:
Exemple:
Cherchons les vecteurs et valeurs propres de
\[ A=
\begin{pmatrix} 1&-1&-1\\ -1&1&-1\\ -1&-1&1 \end{pmatrix}\,.
\]
Commençons par la recherche des valeurs propres, en calculant
\[\begin{aligned}
P_A(\lambda)
&=\det
\begin{pmatrix}
1-\lambda&-1&-1\\
-1&1-\lambda&-1\\
-1&-1&1-\lambda
\end{pmatrix}\\
&=\det
\begin{pmatrix}
-1-\lambda&-1&-1\\
-1-\lambda&1-\lambda&-1\\
-1-\lambda&-1&1-\lambda
\end{pmatrix}\\
&=-(1+\lambda) \det
\begin{pmatrix}
1&-1&-1\\
1&1-\lambda&-1\\
1&-1&1-\lambda
\end{pmatrix}\\
&=-(1+\lambda) \det
\begin{pmatrix}
1&-1&-1\\
0&2-\lambda&0\\
0&0&2-\lambda
\end{pmatrix}\\
&=-(1+\lambda)(2-\lambda)^2\,.
\end{aligned}\]
(Dans la deuxième ligne nous avons rajouté les colonnes 2 et 3 à la première,
dans la troisième nous avons extrait un \((1+\lambda)\) de la première colonne,
et dans la quatrième nous avons soustrait la première de la deuxième et
troisième ligne. Dans la dernière ligne, nous avons profité du fait que la
matrice était triangulaire.)
Nous avons donc deux valeurs propres, \(\lambda_1=-1\) et \(\lambda_2=2\).
On calcule facilement leurs espaces propres associés:
\[\begin{aligned}
E_{-1}&=\mathrm{Ker}(A+I_n)=\mathrm{Vect}\left\{
\begin{pmatrix} 1\\ 1\\ 1 \end{pmatrix}
\right\}\\
E_{2}&=\mathrm{Ker}(A-2I_n)=\mathrm{Vect}\left\{
\begin{pmatrix} -1\\ 1\\ 0 \end{pmatrix}
,
\begin{pmatrix} -1\\ 0\\ 1 \end{pmatrix}
\right\}\,.
\end{aligned}\]
Rappelons que deux matrices carrées sont semblables, \(A\sim B\), si il existe une matrice inversible \(M\) telle que \(A=MBM^{-1}\).
Théorème: Si deux matrices sont semblables, \(A\sim B\), alors elles ont le même polynôme caractéristique: \[P_A(\lambda)=P_B(\lambda)\qquad\forall \lambda\in\mathbb{R}\,.\] Par conséquent, elles ont le même spectre: \(\mathrm{Spectre}(A)=\mathrm{Spectre}(B)\).
Si \(A=MBM^{-1}\), alors en récrivant \(I_n=MM^{-1}=MI_nM^{-1}\), \[\begin{aligned} P_A(\lambda)&=\det(A-\lambda I_n)\\ &=\det(MBM^{-1}-\lambda MM^{-1})\\ &=\det(M(B-\lambda I_n)M^{-1})\\ &=\det(M)\det(B-\lambda I_n)\det(M^{-1})\\ &=\det(B-\lambda I_n)\det(M)\det(M^{-1})\\ &=\det(B-\lambda I_n)\det(MM^{-1})\\ &=\det(B-\lambda I_n)\\ &=P_B(\lambda)\,. \end{aligned}\]
Considérons une application linéaire \[ T:\mathbb{R}^n\to\mathbb{R}^n\,. \] Si on possède deux bases dans \(\mathbb{R}^n\), notées \(\mathcal{B}\) et \(\mathcal{C}\), \(T\) peut se représenter comme une matrice,
La formule du changement de base nous dit que
\[\begin{aligned}
[T]_{\mathcal{B}}
&=P_{\mathcal{B}\mathcal{C}}[T]_{\mathcal{C}}P_{\mathcal{C}\mathcal{B}}\\
&={P_{\mathcal{C}\mathcal{B}}}^{-1}[T]_{\mathcal{C}}P_{\mathcal{C}\mathcal{B}}\,.
\end{aligned}\]
Ceci implique que \([T]_{\mathcal{B}}\sim [T]_{\mathcal{C}}\), et donc, par le théorème
ci-dessus, que ces deux matrices ont le même spectre.
Ceci montre que le spectre est bel et bien
associé à l'application, pas à la matrice qui est utilisée
pour la représenter relativement à une base ou une autre.