En général, lorsqu'on multiplie un vecteur \(\boldsymbol{x}\in \mathbb{R}^n\) par une matrice \(A\) (\(n\times n\)), on change la direction de \(\boldsymbol{x}\). Or on a vu dans l'exemple de la section précédente qu'il peut exister des vecteurs \(\boldsymbol{v}\) particuliers dont la direction n'est pas modifiée lorsqu'ils sont multipliés par \(A\). En d'autres termes, pour ces vecteurs, \(A\boldsymbol{v}\) est colinéaire à \(\boldsymbol{v}\).
Exemple: Soit \(A= \begin{pmatrix} 1&6\\ 5&2 \end{pmatrix} \).
Exemple: Pour une matrice \(n\times n\) diagonale, \[ A=\mathrm{diag}(d_1,\dots,d_n)= \begin{pmatrix} d_1&0&\cdots&0\\ 0&d_2&&\\ \vdots&&\ddots&0\\ 0&\cdots&0&d_n \end{pmatrix}\,, \] on a \[ A\boldsymbol{e}_k=d_k\boldsymbol{e}_k\,,\qquad\forall k=1,\dots,n\,, \] et donc chaque vecteur de la base canonique \(\boldsymbol{e}_k\) est vecteur propre, avec valeur propre \(d_k\).
Nous verrons bientôt comment calculer les vecteurs et valeurs propres d'une matrice. Mais parfois, lorsque l'application associée a un sens géométrique direct, on peut les connaître sans faire de calculs, par simple observation.
Exemple: Considérons la projection sur une droite passant par l'origine:
Exemple: On peut faire de même avec la réflexion par rapport à une droite:
Une matrice ne possède pas toujours des vecteurs et valeurs propres. En effet, l'existence de vecteurs \(\boldsymbol{v}\) qui soient colinéaires à leur image \(A\boldsymbol{v}\) est une propriété géométrique particulière que beaucoup de transformations, même naturelles, ne satisfont pas.
Exemple: Considérons la rotation d'angle \(\theta\), \(\boldsymbol{x}\mapsto T(\boldsymbol{x})=\mathrm{rot}_\theta(\boldsymbol{x})\):
La question se pose maintenant de savoir comment calculer les vecteurs propres et valeurs propres de façon systématique, pour une matrice donnée.
Par linéarité, si \(\boldsymbol{v}\) est vecteur propre avec valeur propre \(\lambda\),
alors tout vecteur colinéaire à \(\boldsymbol{v}\) est aussi vecteur propre avec valeur
propre \(\lambda\)
.
Donc dès qu'une matrice possède une valeur propre, il y a
une infinité de vecteurs propres qui lui sont associés.
Ceci mène à considérer, pour une valeur propre
\(\lambda\) donnée, l'ensemble de tous les vecteurs propres associés à
\(\lambda\):
Remarque: Comme dit précédemment, \(E_\lambda\) contient toujours \(\boldsymbol{0}\).
Exemple: Nous avons vu plus haut que \(\lambda=-4\) était valeur propre de la matrice \[A= \begin{pmatrix} 1&6\\ 5&2 \end{pmatrix} \,.\] Calculons son espace propre associé. Pour ce faire, on cherche tous les \(\boldsymbol{v}\) solutions de \[ A\boldsymbol{v}=-4\boldsymbol{v}\,. \] Comme on sait, ce système doit posséder une infinité de solutions! En nommant les composantes de \(\boldsymbol{v}\), on peut l'écrire \[ \begin{pmatrix} 1&6\\ 5&2 \end{pmatrix} \begin{pmatrix} v_1\\ v_2 \end{pmatrix} =-4 \begin{pmatrix} v_1\\ v_2 \end{pmatrix}\,. \] En passant le second membre du côté gauche, \[ \begin{pmatrix} 5&6\\ 5&6 \end{pmatrix} \begin{pmatrix} v_1\\ v_2 \end{pmatrix} = \begin{pmatrix} 0\\ 0 \end{pmatrix}\,. \] L'espace propre associé à \(\lambda=-4\) est donc une droite: \[ E_{-4} =\Bigl\{ \boldsymbol{v} =t \begin{pmatrix} 6\\ -5 \end{pmatrix} \Big| t\in\mathbb{R} \Bigr\} =\mathrm{Vect}\left\{ \begin{pmatrix} 6\\ -5 \end{pmatrix} \right\} \]
Exemple: Considérons l'application associée à \[A= \begin{pmatrix} 4&-1&6\\ 2&1&6\\ 2&-1&8 \end{pmatrix}\,. \] Supposons que l'on ait déjà montré que \(\lambda=2\) est valeur propre. Calculons son espace propre associé, \(E_2\): on cherche tous les \(\boldsymbol{v}\in \mathbb{R}^3\) solutions de \[ A\boldsymbol{v}=2\boldsymbol{v}\,, \] c'est-à-dire \[ \begin{pmatrix} 4&-1&6\\ 2&1&6\\ 2&-1&8 \end{pmatrix} \begin{pmatrix} v_1\\ v_2\\ v_3 \end{pmatrix} =2 \begin{pmatrix} v_1\\ v_2\\ v_3 \end{pmatrix}\,. \] En passant le second membre du côté gauche, \[ \begin{pmatrix} 2&-1&6\\ 2&-1&6\\ 2&-1&6 \end{pmatrix} \begin{pmatrix} v_1\\ v_2\\ v_3 \end{pmatrix} = \begin{pmatrix} 0\\ 0\\ 0 \end{pmatrix}\,, \] qui est équivalent à \[ \begin{pmatrix} 2&-1&6\\ 0&0&0\\ 0&0&0 \end{pmatrix} \begin{pmatrix} v_1\\ v_2\\ v_3 \end{pmatrix} = \begin{pmatrix} 0\\ 0\\ 0 \end{pmatrix}\,. \] On peut donc prendre \(v_2\) et \(v_3\) comme variables libres, et prendre \(v_1=\frac12(v_2-6v_3)\) comme variable de base. Ainsi, tout vecteur de la forme \[ \boldsymbol{v}= \begin{pmatrix} \frac12 v_2-3v_3\\ v_2\\ v_3 \end{pmatrix} = v_2 \begin{pmatrix} 1/2\\ 1\\ 0 \end{pmatrix} +v_3 \begin{pmatrix} -3\\ 0\\ 1 \end{pmatrix}\, \] est vecteur propre de \(A\), avec valeur propre \(2\). Ceci montre que l'espace propre \(E_2\) est un plan: \[\begin{aligned} E_2&= \left\{ \boldsymbol{v}= s \begin{pmatrix} 1/2\\ 1\\ 0 \end{pmatrix} + t \begin{pmatrix} -3\\ 0\\ 1 \end{pmatrix} \Big| s,t\in\mathbb{R} \right\}\\ &=\mathrm{Vect}\left\{ \begin{pmatrix} 1/2\\ 1\\ 0 \end{pmatrix} , \begin{pmatrix} -3\\ 0\\ 1 \end{pmatrix} \right\}\,. \end{aligned}\]
Remarque: On l'a observé sur ces deux premiers exemples: une fois la valeur propre connue, la recherche des vecteurs propres qui lui sont associés mène toujours à un système possédant une infinité de solutions.
Donc une fois une valeur propre connue, un calcul explicite d'espace propre
n'est que la résolution d'un système du type \(A\boldsymbol{v}=\lambda
\boldsymbol{v}\). La question naturelle, à laquelle nous répondrons dans la section
suivante, est de savoir comment trouver les valeurs propres.
Mais avant ça, remarquons que dans les deux exemples ci-dessus, l'espace propre
trouvé était engendré par certains vecteurs, et avait donc une structure de
sous-espace vectoriel. C'est
l'origine du terme ''espace'' propre:
Lemme: L'espace propre associé à \(\lambda\) peut s'écrire \[ E_\lambda=\mathrm{Ker}(A-\lambda I_n)\,. \] Par conséquent, c'est un sous-espace vectoriel de \(\mathbb{R}^n\).
\[\begin{aligned} \boldsymbol{v}\in E_\lambda &\Leftrightarrow A\boldsymbol{v}=\lambda \boldsymbol{v}\\ &\Leftrightarrow A\boldsymbol{v}-\lambda \boldsymbol{v}=\boldsymbol{0}\\ &\Leftrightarrow (A-\lambda I_n)\boldsymbol{v}=\boldsymbol{0}\\ &\Leftrightarrow \boldsymbol{v}\in \mathrm{Ker}(A-\lambda I_n)\,. \end{aligned}\] Comme \(A-\lambda I_n\) est une application linéaire, nous savons depuis les chapitres précédents que son noyau est un sous-espace vectoriel de \(\mathbb{R}^n\)
Théorème: Une matrice \(A\) est inversible si et seulement si \(\lambda=0\) n'est pas valeur propre.
On sait que \(A\) est inversible si et seulement si son noyau ne contient que le vecteur nul. Or le noyau pouvant être défini comme l'ensemble des vecteurs \(\boldsymbol{v}\) tels que \(A\boldsymbol{v}=0\boldsymbol{v}\), ceci donne l'équivalence.
On trouvera ici (3Blue1Brown) une discussion qui pourra aider (ou pas) à comprendre certaines des choses faites ici, et qui motive aussi l'usage que nous ferons plus tard des vecteurs et valeurs propres.