14.3 Théorème et décomposition spectrale
Le Théorème Spectral

Un des résultats importants de l'algèbre linéaire:

Théorème: (Théorème spectral) Soit \(A\) une matrice \(n\times n\). Alors \(A\) symétrique si et seulement si elle peut se diagonaliser à l'aide d'une matrice de changement de base orthogonale.

On dit que les matrices symétriques sont orthogonalement diagonalisables.

\(\Leftarrow\): Supposons que \(A\) peut se diagonaliser à l'aide d'une matrice de changement de base \(G\) orthogonale: \(A=GDG^T\). Alors \[ A^T=(GDG^T)^T= (G^T)^TD^TG^T=GDG^T=A\,, \] donc \(A\) est symétrique.

\(\Rightarrow\): Donnons la preuve dans le cas \(n=2\). Soit \(A\) une matrice \(2\times 2\) symétrique, que l'on écrit comme suit: \[ A= \begin{pmatrix} a&b\\ b&c \end{pmatrix}\,. \] Montrons que \(A\) est toujours diagonalisable, quelles que soient les valeurs de \(a,b,c\in\mathbb{R}\). Commençons donc par calculer les valeurs propres, à l'aide du polynôme caractéristique: \[\begin{aligned} P_A(\lambda) &=\det \begin{pmatrix} a-\lambda&b\\ b&c-\lambda \end{pmatrix}\\ &=(a-\lambda)(c-\lambda)-b^2\\ &=\lambda^2-(a+c)\lambda+(ac-b^2)\,. \end{aligned}\] Calculons le discriminant \[\Delta=(a+c)^2-4(ac-b^2)=(a-c)^2+4b^2\,.\] Cette dernière ligne montre que l'on a toujours \(\Delta \geqslant 0\), et donc toujours au moins une valeur propre. Distinguons les cas.

  1. \(\Delta=(a-c)^2+4b^2=00\). Ceci signifie que \(a=c\) et \(b=0\), et donc que \(A\) est en fait la matrice \[ A= \begin{pmatrix} a&0\\ 0&a \end{pmatrix}\,, \] qui est déjà diagonale! On peut évidemment l'écrire comme \(A=I_2A I_2^T\).
  2. \(\Delta>0\). Dans ce cas, \(P_A\) possède deux racines distinctes \[\lambda_\pm=\frac{a+c\pm\sqrt{\Delta}}{2}\,.\] Si on considère un vecteur propre quelconque \(\boldsymbol{v}_+\) associé à \(\lambda_+\), et un vecteur propre quelconque \(\boldsymbol{v}_-\) associé à \(\lambda_-\), on sait par le corollaire de la section précédente que \(\boldsymbol{v}_+\perp\boldsymbol{v}_-\). Ainsi, la matrice \[ G=\left[\frac{\boldsymbol{v}_+}{\|\boldsymbol{v}_+\|}\,\,\frac{\boldsymbol{v}_-}{\|\boldsymbol{v}_-\|}\right] \] est orthogonale, et permet de diagonaliser \(A\): \(A=GDG^T\), où \(D=\mathrm{diag}(\lambda_+,\lambda_-)\).
La preuve du cas général \(n\geqslant 3\) est plus compliquée, nous ne la donnons pas ici.

Exemple: La matrice \[ \begin{pmatrix} 1&\sqrt{2}&\sqrt{3}&\sqrt{5}&\sqrt{7}&\sqrt{8}&\sqrt{11}\\ \sqrt{2}&\sqrt{\pi}&\pi&\pi^2&\pi^3&\pi^2&\pi\\ \sqrt{3}&\pi&-1&e&-e&e&-e\\ \sqrt{5}&\pi^2&e&0&0&0&0\\ \sqrt{7}&\pi^3&-e&0&1&1&1\\ \sqrt{8}&\pi^2&e&0&1&2&2\\ \sqrt{11}&\pi&-e&0&1&2&3 \end{pmatrix} \] étant symétrique, le Théorème Spectral s'applique: elle est diagonalisable. Il existe une matrice diagonale \(D\) et une matrice orthogonale \(G\) telles que \(A=GDG^T\).

Décomposition spectrale

Voyons comment le Théorème Spectral permet de représenter l'application linéaire \(T:\mathbb{R}^n\to\mathbb{R}^n\) associée à une matrice \(n\times n\) symétrique \(A\), \[ \boldsymbol{x}\mapsto T(\boldsymbol{x}):= A\boldsymbol{x}\,. \] En effet, le Théorème Spectral garantit que \(A\) peut être diagonalisée à l'aide d'une matrice de changement de base orthogonale: \[ A=GDG^{-1}=GDG^T \] Ici, \(D=\mathrm{diag}(\lambda_1,\dots,\lambda_n)\) est formée de valeurs propres de \(A\) (pas forcément distinctes), et \(G\) est formée de vecteurs propres associés, formant une base orthonormale \((\boldsymbol{u}_1\cdots \,\boldsymbol{u}_n)\) de \(\mathbb{R}^n\): \[ G=\bigl[\boldsymbol{u}_1\cdots \,\boldsymbol{u}_n\bigr]\,, \] On peut donc écrire, pour un \(\boldsymbol{x}\in\mathbb{R}^n\) quelconque, \[\begin{aligned} T(\boldsymbol{x})= A\boldsymbol{x}=GDG^T\boldsymbol{x}&= \bigl[\boldsymbol{u}_1\cdots \,\boldsymbol{u}_n\bigr]D \begin{pmatrix} \boldsymbol{u}_1^T\boldsymbol{x}\\ \vdots\\ \boldsymbol{u}_n^T\boldsymbol{x} \end{pmatrix}\\ &= \bigl[\lambda_1\boldsymbol{u}_1\cdots \,\lambda_n\boldsymbol{u}_n\bigr] \begin{pmatrix} \boldsymbol{u}_1^T\boldsymbol{x}\\ \vdots\\ \boldsymbol{u}_n^T\boldsymbol{x} \end{pmatrix}\\ &=\sum_{k=1}^n \lambda_k\boldsymbol{u}_k\boldsymbol{u}_k^T\boldsymbol{x}\\ &=\left(\sum_{k=1}^n \lambda_k\boldsymbol{u}_k\boldsymbol{u}_k^T\right)\boldsymbol{x}\,. \end{aligned}\] On peut donc écrire \(A\) comme une combinaison linéaire de matrices: \[ \boxed{ A=\sum_{k=1}^n\lambda_k\boldsymbol{u}_k\boldsymbol{u}_k^T\,. } \] On sait que chaque \(\boldsymbol{u}_k\boldsymbol{u}_k^T\) est une matrice \(n\times n\), et représente le projecteur sur \(\boldsymbol{u}_k\) . En effet, puisque chaque \(\boldsymbol{u}_k\) est unitaire, \[ \boldsymbol{u}_k\boldsymbol{u}_k^T\boldsymbol{x}= (\boldsymbol{x}\cdotp \boldsymbol{u}_k)\boldsymbol{u}_k =\frac{\boldsymbol{x}\cdotp \boldsymbol{u}_k}{\|\boldsymbol{u}_k\|^2}\boldsymbol{u}_k =\mathrm{proj}_{\boldsymbol{u}_k}(\boldsymbol{x})\,. \] On a donc pu récrire l'applications linéaire \(T\) comme la combinaison linéaire de projecteurs: \[ \boxed{ T=\sum_{k=1}^n\lambda_k\mathrm{proj}_{\boldsymbol{u}_k}\,. } \]

Les représentations de \(A\) et \(T\) à l'aide de projecteurs sur les espaces propres de \(A\) sont appelées décompositions spectrales.

Remarque: La représentation spectrale dépend bien-sûr du choix des vecteurs propres pour la matrice; elle n'est donc pas unique.

Une décomposition spectrale fournit une interprétation très géométrique de comment \(A\) agit sur un vecteur \(\boldsymbol{x}\).

En effet, l'expression \[ A\boldsymbol{x}=\sum_{k=1}^n\lambda_k\mathrm{proj}_{\boldsymbol{u}_k}(\boldsymbol{x}) \] montre que \(A\boldsymbol{x}\) est une somme vectorielle, dans laquelle chaque terme, \(\lambda_k\mathrm{proj}_{\boldsymbol{u}_k}(\boldsymbol{x})\), a une interprétion très claire:

  1. Projeter \(\boldsymbol{x}\) sur \(\boldsymbol{u}_k\).
  2. Amplifier cette projection par la valeur propre \(\lambda_k\).

L'intérêt est que l'on peut travailler indépendamment pour chaque \(k=1,2,\dots,n\), puis les sommer.

Voyons comment réaliser concrètement cette décomposition, dans des cas particuliers.

Exemple: Considérons la matrice symétrique \[ A= \begin{pmatrix} 1&2\\ 2&1 \end{pmatrix}\,. \] On vérifie facilement que les valeurs propres de \(A\) sont \(\lambda_1=-1\), \(\lambda_2=3\), et que leurs espaces propres associés sont

(On observe à nouveau, comme on sait, que ces espaces sont orthogonaux.) Pour faire la décomposition spectrale, on a besoin de vecteurs propres unitaires. On peut par exemple prendre \[ \boldsymbol{u}_1:= \frac{\boldsymbol{v}}{\|\boldsymbol{v}\|}= \begin{pmatrix} 1/\sqrt{2}\\ -1/\sqrt{2} \end{pmatrix}\,,\qquad \boldsymbol{u}_2:= \frac{\boldsymbol{w}}{\|\boldsymbol{w}\|}= \begin{pmatrix} 1/\sqrt{2}\\ 1/\sqrt{2} \end{pmatrix}\,. \] Maintenant, la décomposition spectrale de \(A\) est donnée par \[\begin{aligned} A\boldsymbol{x} &=\sum_{k=1}^2\lambda_k\boldsymbol{u}_k\boldsymbol{u}_k^T\boldsymbol{x}\\ &=(-1)\boldsymbol{u}_1\boldsymbol{u}_1^T+3\boldsymbol{u}_2\boldsymbol{u}_2^T\\ &=(-1)\mathrm{proj}_{\boldsymbol{u}_1}(\boldsymbol{x}) +3\mathrm{proj}_{\boldsymbol{u}_2}(\boldsymbol{x})\,. \end{aligned}\] L'interprétation géométrique de la transformation \(\boldsymbol{x}\mapsto A\boldsymbol{x}\) devient limpide:
Vérifions encore, pourquoi pas: \[\begin{aligned} (-1)&\boldsymbol{u}_1\boldsymbol{u}_1^T+3\boldsymbol{u}_2\boldsymbol{u}_2^T =\\ &= (-1) \begin{pmatrix} \frac{1}{\sqrt{2}}\\ \frac{-1}{\sqrt{2}} \end{pmatrix} \begin{pmatrix} \frac{1}{\sqrt{2}}& \frac{-1}{\sqrt{2}} \end{pmatrix} +3 \begin{pmatrix} \frac{1}{\sqrt{2}}\\ \frac{1}{\sqrt{2}} \end{pmatrix} \begin{pmatrix} \frac{1}{\sqrt{2}}& \frac{1}{\sqrt{2}} \end{pmatrix}\\ &= (-1)\begin{pmatrix} \frac12&-\frac12\\ -\frac12&\frac12 \end{pmatrix} +3 \begin{pmatrix} \frac12&\frac12\\ \frac12&\frac12 \end{pmatrix}\\ &= \begin{pmatrix} 1&2\\ 2&1 \end{pmatrix} =A\,. \end{aligned}\]

Exemple: Considérons la matrice symétrique déjà étudiée plus haut: \[ A= \begin{pmatrix} 3&-2&4\\ -2&6&2\\ 4&2&3 \end{pmatrix} \] \(A\) possède deux valeurs propres, \(\lambda_1=-2\) et \(\lambda_2=7\), et nous avions appliqué le procédé de Gram-Schmidt pour trouver

En normalisant ces vecteurs, \[ \boldsymbol{u}_1:=\frac{\boldsymbol{v}}{\|\boldsymbol{v}\|}\,,\qquad \boldsymbol{u}_2:=\frac{\boldsymbol{w}_1'}{\|\boldsymbol{w}_1'\|}\,\qquad \boldsymbol{u}_3:=\frac{\boldsymbol{w}_2'}{\|\boldsymbol{w}_2'\|} \] on a obtenu une matrice de changement de base, orthogonale, \[R=\left[ \boldsymbol{u}_1\, \boldsymbol{u}_2\, \boldsymbol{u}_3 \right]\,,\] qui donne \(A=RDR^T\).

Donc la décomposition spectrale obtenue est \[ A=(-2)\boldsymbol{u}_1\boldsymbol{u}_1^T +7\boldsymbol{u}_2\boldsymbol{u}_2^T +7\boldsymbol{u}_3\boldsymbol{u}_3^T\,. \]

Quiz 14.3-1 : Soit \(A\) une matrice \(n\times n\). Vrai ou faux?
  1. Si \(A\) est symétrique, elle possède au moins une valeur propre.
  2. Si \(A\) n'est pas symétrique, alors elle n'est pas diagonalisable.
  3. Si \(A\) n'est pas diagonalisable, c'est qu'il existe au moins une paire \(1\leqslant i,j\leqslant n\) telle que \(a_{ij}\neq a_{ji}\).
  4. Si \(A\) est symétrique, alors il existe des nombres \(\lambda_1,\dots,\lambda_n\), tous distincts, et une matrice orthogonale \(G\) telle que \[A=G\,\mathrm{diag}(\lambda_1,\dots,\lambda_n)G^{-1}\,.\]
  5. Si \(A\) est symétrique, alors il existe une base orthonormée de \(\mathbb{R}^n\), formée entièrement de vecteurs propres de \(A\).
  6. Si \(A\) est symétrique, alors il existe une infinité de bases orthonormées de \(\mathbb{R}^n\), formées entièrement de vecteurs propres de \(A\).