Dans ce chapitre, on ne traitera que des matrices carrées.
Donc une matrice symétrique a ses coefficients symétriques par rapport à la diagonale.
Exemple:
Avant de commencer l'étude des propriétés remarquables des matrices symétriques, introduisons une autre classe de matrices, intimement liées (comme on le verra) aux matrices symétriques:
De par sa définition, une matrice \(A\) orthogonale est inversible,
et son inverse est égale à sa transposée:
\[A^{-1}=A^T\,.\]
Aussi, on sait qu'il suffit qu'un des conditions (\(A^TA=I_n\) ou
\(AA^T=I_n\)) soit satisfaite pour garantir l'orthogonalité.
De plus, on a déjà vu que
si on écrit une matrice carrée à l'aide de ses colonnes,
\(A=[\boldsymbol{a}_1\cdots\boldsymbol{a}_n]\), alors on peut interpréter chaque coefficient
du produit \(A^TA\) comme un produit scalaire:
\[
A^TA=
\begin{pmatrix}
\boldsymbol{a}_1\cdotp\boldsymbol{a}_1&\boldsymbol{a}_1\cdotp\boldsymbol{a}_2&\cdots&\boldsymbol{a}_1\cdotp\boldsymbol{a}_n\\
\boldsymbol{a}_2\cdotp\boldsymbol{a}_1&\boldsymbol{a}_2\cdotp\boldsymbol{a}_2&\cdots&\boldsymbol{a}_2\cdotp\boldsymbol{a}_n\\
\vdots &\vdots&\ddots&\vdots\\
\boldsymbol{a}_n\cdotp\boldsymbol{a}_1&\cdots&\cdots&\boldsymbol{a}_n\cdotp\boldsymbol{a}_n
\end{pmatrix}
\]
Ainsi, \(A\) est orthogonale (\(A^TA=I_n\)) si et seulement si
\[
\boldsymbol{a}_i\cdotp\boldsymbol{a}_j=
\begin{cases}
1&\text{ si }i=j\,,\\
0&\text{ si }i\neq j\,,\\
\end{cases}
\]
Autrement dit:
Il y a donc autant de matrices \(n\times n\) orthogonales qu'il y a de familles orthonormales de \(n\) vecteurs dans \(\mathbb{R}^n\).
Exemple: \(A= \begin{pmatrix} 1/\sqrt{3}&-1/\sqrt{2}&1/\sqrt{6}\\ 1/\sqrt{3}&1/\sqrt{2}&1/\sqrt{6}\\ -1/\sqrt{3}&0&2/\sqrt{6}\\ \end{pmatrix} \) est orthogonale, puisque ses colonnes sont unitaires et orthogonales deux-à-deux. Par conséquent, son inverse est donné par \[A^{-1}=A^T =\begin{pmatrix} 1/\sqrt{3}&1/\sqrt{3}&-1/\sqrt{3}\\ -1/\sqrt{2}&1/\sqrt{2}&0\\ 1/\sqrt{6}&1/\sqrt{6}&2/\sqrt{6}\\ \end{pmatrix} \,. \]
Exemple: La matrice représentant une rotation d'angle \(\theta\) autour de l'origine (dans \(\mathbb{R}^2\)), relativement à la base canonique, \[ A= \begin{pmatrix} \cos(\theta)&-\sin(\theta)\\ \sin(\theta)&\cos(\theta) \end{pmatrix}\,, \] est orthogonale: \[ A^TA= \begin{pmatrix} \cos(\theta)&-\sin(\theta)\\ \sin(\theta)&\cos(\theta) \end{pmatrix}\,, \begin{pmatrix} \cos(\theta)&\sin(\theta)\\ -\sin(\theta)&\cos(\theta) \end{pmatrix}=I_2\,. \]
En général, dans le cas \(n\times n\), on parle des matrices orthogonales comme des rotations, puisqu'elles représentent des transformations rigides, qui préservent l'orthogonalité. Nous reviendrons là-dessus.