En général, lorsqu'on multiplie un vecteur \(\boldsymbol{x}\in \mathbb{R}^n\) par une matrice \(A\) de taille \(n\times n\), on change la direction de \(\boldsymbol{x}\). Or on a vu dans l'exemple de la section précédente qu'il peut exister des vecteurs \(\boldsymbol{v}\) particuliers dont la direction n'est pas modifiée lorsqu'ils sont multipliés par \(A\). En d'autres termes, pour ces vecteurs, \(A\boldsymbol{v}\) est colinéaire à \(\boldsymbol{v}\).
Comme à toute matrice \(A\) de taille \(n\times n\) correspond une application linéaire \(T:\mathbb{R}^n\to \mathbb{R}^n\), définie par \(T(\boldsymbol{x}):= A\boldsymbol{x}\), on définit les vecteurs propres (resp., valeurs propres) de \(A\) comme étant ceux (resp., celles) de \(T\), comme indiqué dans la définition suivante, ce qui représentera le cas le plus intéressant dans ce cours.
Exemple: Soit \(A= \begin{pmatrix} 1&6\\ 5&2 \end{pmatrix} \).
Exemple: Pour une matrice de taille \(n\times n\) diagonale, \[ A=\mathrm{diag}(d_1,\dots,d_n)= \begin{pmatrix} d_1&0&\cdots&0\\ 0&d_2&\cdots&0\\ \vdots&\vdots&\ddots&\vdots\\ 0&0&\cdots&d_n \end{pmatrix}\,, \] on a \[ A\boldsymbol{e}_k=d_k\boldsymbol{e}_k\,,\qquad\forall k=1,\dots,n\,, \] et donc chaque vecteur de la base canonique \(\boldsymbol{e}_k\) est vecteur propre, avec valeur propre \(d_k\).
Nous verrons bientôt comment calculer les vecteurs et valeurs propres d'une matrice. Mais parfois, lorsque l'application associée a un sens géométrique direct, on peut les connaître sans faire de calculs, par simple observation.
Exemple: Considérons la projection sur une droite passant par l'origine:
Exemple: On peut faire de même avec la réflexion par rapport à une droite:
Une matrice ne possède pas toujours des vecteurs et valeurs propres. En effet, l'existence de vecteurs \(\boldsymbol{v}\) qui soient colinéaires à leur image \(A\boldsymbol{v}\) est une propriété géométrique particulière que beaucoup de transformations, même naturelles, ne satisfont pas.
Exemple: Considérons la rotation d'angle \(\theta\), \(\boldsymbol{x}\mapsto T(\boldsymbol{x})=\mathrm{rot}_\theta(\boldsymbol{x})\):
La question se pose maintenant de savoir comment calculer les vecteurs propres et valeurs propres de façon systématique, pour une matrice donnée.
Par linéarité, si \(\boldsymbol{v}\) est vecteur propre avec valeur propre \(\lambda\),
alors tout vecteur non nul colinéaire à \(\boldsymbol{v}\) est aussi vecteur propre avec valeur
propre \(\lambda\)
.
Donc dès qu'une application linéaire ou une matrice possède une valeur propre, il y a
une infinité de vecteurs propres qui lui sont associés.
Ceci mène à considérer, pour une valeur propre
\(\lambda\) donnée, l'ensemble de tous les vecteurs propres associés à
\(\lambda\):
Remarque: Noter que \(E_\lambda\) contient toujours le vecteur nul \(\boldsymbol{0}\).
Exemple: Nous avons vu plus haut que \(\lambda=-4\) était valeur propre de la matrice \[A= \begin{pmatrix} 1&6\\ 5&2 \end{pmatrix} \,.\] Calculons son espace propre associé. Pour ce faire, on cherche tous les \(\boldsymbol{v}\) solutions de \[ A\boldsymbol{v}=-4\boldsymbol{v}\,. \] Comme on sait, ce système doit posséder une infinité de solutions! En nommant les composantes de \(\boldsymbol{v}\), on peut l'écrire \[ \begin{pmatrix} 1&6\\ 5&2 \end{pmatrix} \begin{pmatrix} v_1\\ v_2 \end{pmatrix} =-4 \begin{pmatrix} v_1\\ v_2 \end{pmatrix}\,. \] En passant le second membre du côté gauche, \[ \begin{pmatrix} 5&6\\ 5&6 \end{pmatrix} \begin{pmatrix} v_1\\ v_2 \end{pmatrix} = \begin{pmatrix} 0\\ 0 \end{pmatrix}\,. \] L'espace propre associé à \(\lambda=-4\) est donc une droite: \[ E_{-4} =\Bigl\{ \boldsymbol{v} =t \begin{pmatrix} 6\\ -5 \end{pmatrix} \Big| t\in\mathbb{R} \Bigr\} =\mathrm{Vect}\left\{ \begin{pmatrix} 6\\ -5 \end{pmatrix} \right\}\,. \]
Exemple: Considérons l'application associée à \[A= \begin{pmatrix} 4&-1&6\\ 2&1&6\\ 2&-1&8 \end{pmatrix}\,. \] Supposons que l'on ait déjà montré que \(\lambda=2\) est valeur propre. Calculons son espace propre associé, \(E_2\): on cherche tous les \(\boldsymbol{v}\in \mathbb{R}^3\) solutions de \[ A\boldsymbol{v}=2\boldsymbol{v}\,, \] c'est-à-dire \[ \begin{pmatrix} 4&-1&6\\ 2&1&6\\ 2&-1&8 \end{pmatrix} \begin{pmatrix} v_1\\ v_2\\ v_3 \end{pmatrix} =2 \begin{pmatrix} v_1\\ v_2\\ v_3 \end{pmatrix}\,. \] En passant le second membre du côté gauche, \[ \begin{pmatrix} 2&-1&6\\ 2&-1&6\\ 2&-1&6 \end{pmatrix} \begin{pmatrix} v_1\\ v_2\\ v_3 \end{pmatrix} = \begin{pmatrix} 0\\ 0\\ 0 \end{pmatrix}\,, \] qui est équivalent à \[ \begin{pmatrix} 2&-1&6\\ 0&0&0\\ 0&0&0 \end{pmatrix} \begin{pmatrix} v_1\\ v_2\\ v_3 \end{pmatrix} = \begin{pmatrix} 0\\ 0\\ 0 \end{pmatrix}\,. \] On peut donc prendre \(v_2\) et \(v_3\) comme variables libres, et prendre \(v_1=\frac12(v_2-6v_3)\) comme variable de base. Ainsi, tout vecteur de la forme \[ \boldsymbol{v}= \begin{pmatrix} \frac12 v_2-3v_3\\ v_2\\ v_3 \end{pmatrix} = v_2 \begin{pmatrix} 1/2\\ 1\\ 0 \end{pmatrix} +v_3 \begin{pmatrix} -3\\ 0\\ 1 \end{pmatrix}\, \] est vecteur propre de \(A\), avec valeur propre \(2\). Ceci montre que l'espace propre \(E_2\) est un plan: \[\begin{aligned} E_2&= \left\{ \boldsymbol{v}= s \begin{pmatrix} 1/2\\ 1\\ 0 \end{pmatrix} + t \begin{pmatrix} -3\\ 0\\ 1 \end{pmatrix} \Big| s,t\in\mathbb{R} \right\}\\ &=\mathrm{Vect}\left\{ \begin{pmatrix} 1/2\\ 1\\ 0 \end{pmatrix} , \begin{pmatrix} -3\\ 0\\ 1 \end{pmatrix} \right\}\,. \end{aligned}\]
Remarque: On l'a observé sur ces deux premiers exemples: une fois la valeur propre connue, la recherche des vecteurs propres qui lui sont associés mène toujours à un système possédant une infinité de solutions.
Donc une fois une valeur propre connue, un calcul explicite d'espace propre
n'est que la résolution d'un système du type \(A\boldsymbol{v}=\lambda
\boldsymbol{v}\). La question naturelle, à laquelle nous répondrons dans la section
suivante, est de savoir comment trouver les valeurs propres.
Mais avant ça, remarquons que dans les deux exemples ci-dessus, l'espace propre
trouvé était engendré par certains vecteurs, et avait donc une structure de
sous-espace vectoriel. C'est
l'origine du terme ''espace'' propre:
Lemme: L'espace propre d'une application linéaire \(T : V \rightarrow V\) (resp., d'une matrice carrée \(A\) de taille \(n\)) associé à une valeur propre \(\lambda\) peut s'écrire \[ E_\lambda=\mathrm{Ker}(T-\lambda \mathrm{id}_V)\qquad \bigg(\text{resp., } E_\lambda=\mathrm{Ker}(A-\lambda I_n)\bigg). \] Par conséquent, c'est un sous-espace vectoriel de \(V\) (resp., \(\mathbb{R}^n\)).
On fait la preuve dans le cas des matrices, le cas des applications linéaires étant pareil. Dans ce cas, on note que \[\begin{aligned} \boldsymbol{v}\in E_\lambda &\Leftrightarrow A\boldsymbol{v}=\lambda \boldsymbol{v}\\ &\Leftrightarrow A\boldsymbol{v}-\lambda \boldsymbol{v}=\boldsymbol{0}\\ &\Leftrightarrow (A-\lambda I_n)\boldsymbol{v}=\boldsymbol{0}\\ &\Leftrightarrow \boldsymbol{v}\in \mathrm{Ker}(A-\lambda I_n)\,. \end{aligned}\] Comme \(A-\lambda I_n\) est une application linéaire, nous savons depuis les chapitres précédents que son noyau est un sous-espace vectoriel de \(\mathbb{R}^n\)
Théorème: Une matrice \(A\) de taille \(n \times n\) est inversible si et seulement si \(\lambda=0\) n'est pas valeur propre.
On sait que \(A\) est inversible si et seulement si son noyau ne contient que le vecteur nul. Or le noyau pouvant être défini comme l'ensemble des vecteurs \(\boldsymbol{v}\) tels que \(A\boldsymbol{v}=0\boldsymbol{v}\), ceci donne l'équivalence.
On trouvera une discussion qui pourra vous aider à mieux comprendre certaines des choses faites ici, et qui motive aussi l'usage que nous ferons plus tard des vecteurs propres et des valeurs propres.