Un des résultats importants de l'algèbre linéaire:
Théorème: (Théorème spectral) Soit \(A\) une matrice \(n\times n\). Alors \(A\) symétrique si et seulement si elle peut se diagonaliser à l'aide d'une matrice de changement de base orthogonale.
On dit que les matrices symétriques sont orthogonalement diagonalisables.
\(\Leftarrow\): Supposons que \(A\) peut se diagonaliser à l'aide d'une matrice
de changement de base \(G\) orthogonale: \(A=GDG^T\). Alors
\[
A^T=(GDG^T)^T=
(G^T)^TD^TG^T=GDG^T=A\,,
\]
donc \(A\) est symétrique.
\(\Rightarrow\): Donnons la preuve dans le cas \(n=2\). Soit \(A\) une
matrice \(2\times 2\) symétrique, que l'on écrit comme suit:
\[ A=
\begin{pmatrix} a&b\\ b&c \end{pmatrix}\,.
\]
Montrons que \(A\) est toujours diagonalisable, quelles que soient les valeurs
de \(a,b,c\in\mathbb{R}\).
Commençons donc par calculer les valeurs propres, à l'aide du polynôme
caractéristique:
\[\begin{aligned}
P_A(\lambda)
&=\det
\begin{pmatrix} a-\lambda&b\\ b&c-\lambda \end{pmatrix}\\
&=(a-\lambda)(c-\lambda)-b^2\\
&=\lambda^2-(a+c)\lambda+(ac-b^2)\,.
\end{aligned}\]
Calculons le discriminant
\[\Delta=(a+c)^2-4(ac-b^2)=(a-c)^2+4b^2\,.\]
Cette dernière ligne montre que l'on a toujours \(\Delta \geqslant 0\), et donc
toujours au moins une valeur propre. Distinguons les cas.
Exemple: La matrice \[ \begin{pmatrix} 1&\sqrt{2}&\sqrt{3}&\sqrt{5}&\sqrt{7}&\sqrt{8}&\sqrt{11}\\ \sqrt{2}&\sqrt{\pi}&\pi&\pi^2&\pi^3&\pi^2&\pi\\ \sqrt{3}&\pi&-1&e&-e&e&-e\\ \sqrt{5}&\pi^2&e&0&0&0&0\\ \sqrt{7}&\pi^3&-e&0&1&1&1\\ \sqrt{8}&\pi^2&e&0&1&2&2\\ \sqrt{11}&\pi&-e&0&1&2&3 \end{pmatrix} \] étant symétrique, le Théorème Spectral s'applique: elle est diagonalisable. Il existe une matrice diagonale \(D\) et une matrice orthogonale \(G\) telles que \(A=GDG^T\).
Voyons comment le Théorème Spectral permet de représenter l'application linéaire \(T:\mathbb{R}^n\to\mathbb{R}^n\) associée à une matrice \(n\times n\) symétrique \(A\), \[ \boldsymbol{x}\mapsto T(\boldsymbol{x}):= A\boldsymbol{x}\,. \] En effet, le Théorème Spectral garantit que \(A\) peut être diagonalisée à l'aide d'une matrice de changement de base orthogonale: \[ A=GDG^{-1}=GDG^T \] Ici, \(D=\mathrm{diag}(\lambda_1,\dots,\lambda_n)\) est formée de valeurs propres de \(A\) (pas forcément distinctes), et \(G\) est formée de vecteurs propres associés, formant une base orthonormale \((\boldsymbol{u}_1\cdots \,\boldsymbol{u}_n)\) de \(\mathbb{R}^n\): \[ G=\bigl[\boldsymbol{u}_1\cdots \,\boldsymbol{u}_n\bigr]\,, \] On peut donc écrire, pour un \(\boldsymbol{x}\in\mathbb{R}^n\) quelconque, \[\begin{aligned} T(\boldsymbol{x})= A\boldsymbol{x}=GDG^T\boldsymbol{x}&= \bigl[\boldsymbol{u}_1\cdots \,\boldsymbol{u}_n\bigr]D \begin{pmatrix} \boldsymbol{u}_1^T\boldsymbol{x}\\ \vdots\\ \boldsymbol{u}_n^T\boldsymbol{x} \end{pmatrix}\\ &= \bigl[\lambda_1\boldsymbol{u}_1\cdots \,\lambda_n\boldsymbol{u}_n\bigr] \begin{pmatrix} \boldsymbol{u}_1^T\boldsymbol{x}\\ \vdots\\ \boldsymbol{u}_n^T\boldsymbol{x} \end{pmatrix}\\ &=\sum_{k=1}^n \lambda_k\boldsymbol{u}_k\boldsymbol{u}_k^T\boldsymbol{x}\\ &=\left(\sum_{k=1}^n \lambda_k\boldsymbol{u}_k\boldsymbol{u}_k^T\right)\boldsymbol{x}\,. \end{aligned}\] On peut donc écrire \(A\) comme une combinaison linéaire de matrices: \[ \boxed{ A=\sum_{k=1}^n\lambda_k\boldsymbol{u}_k\boldsymbol{u}_k^T\,. } \] On sait que chaque \(\boldsymbol{u}_k\boldsymbol{u}_k^T\) est une matrice \(n\times n\), et représente le projecteur sur \(\boldsymbol{u}_k\) . En effet, puisque chaque \(\boldsymbol{u}_k\) est unitaire, \[ \boldsymbol{u}_k\boldsymbol{u}_k^T\boldsymbol{x}= (\boldsymbol{x}\cdotp \boldsymbol{u}_k)\boldsymbol{u}_k =\frac{\boldsymbol{x}\cdotp \boldsymbol{u}_k}{\|\boldsymbol{u}_k\|^2}\boldsymbol{u}_k =\mathrm{proj}_{\boldsymbol{u}_k}(\boldsymbol{x})\,. \] On a donc pu récrire l'applications linéaire \(T\) comme la combinaison linéaire de projecteurs: \[ \boxed{ T=\sum_{k=1}^n\lambda_k\mathrm{proj}_{\boldsymbol{u}_k}\,. } \]
Remarque: La représentation spectrale dépend bien-sûr du choix des vecteurs propres pour la matrice; elle n'est donc pas unique.
Une décomposition spectrale fournit une interprétation très
géométrique de comment \(A\) agit sur un vecteur \(\boldsymbol{x}\).
En effet, l'expression
\[
A\boldsymbol{x}=\sum_{k=1}^n\lambda_k\mathrm{proj}_{\boldsymbol{u}_k}(\boldsymbol{x})
\]
montre que \(A\boldsymbol{x}\) est une somme vectorielle, dans laquelle chaque
terme, \(\lambda_k\mathrm{proj}_{\boldsymbol{u}_k}(\boldsymbol{x})\), a une interprétion très claire:
L'intérêt est que l'on peut travailler indépendamment pour chaque
\(k=1,2,\dots,n\), puis les sommer.
Voyons comment réaliser concrètement cette décomposition, dans des cas
particuliers.
Exemple: Considérons la matrice symétrique \[ A= \begin{pmatrix} 1&2\\ 2&1 \end{pmatrix}\,. \] On vérifie facilement que les valeurs propres de \(A\) sont \(\lambda_1=-1\), \(\lambda_2=3\), et que leurs espaces propres associés sont
Exemple: Considérons la matrice symétrique déjà étudiée plus haut: \[ A= \begin{pmatrix} 3&-2&4\\ -2&6&2\\ 4&2&3 \end{pmatrix} \] \(A\) possède deux valeurs propres, \(\lambda_1=-2\) et \(\lambda_2=7\), et nous avions appliqué le procédé de Gram-Schmidt pour trouver