14.1 Définitions

Dans ce chapitre, on ne traitera que des matrices carrées.

Une matrice \(A\) (\(n\times n\)) est symétrique si \(A^T=A\), c'est-à-dire si \[ a_{ji}=a_{ij}\qquad \forall i,j=1,2,\dots,n\,. \]

Donc une matrice symétrique a ses coefficients symétriques par rapport à la diagonale.

Exemple:

Avant de commencer l'étude des propriétés remarquables des matrices symétriques, introduisons une autre classe de matrices, intimement liées (comme on le verra) aux matrices symétriques:

Une matrice \(A\) \(n\times n\) est orthogonale si \[A^TA=AA^T=I_n\,.\]

De par sa définition, une matrice \(A\) orthogonale est inversible, et son inverse est égale à sa transposée: \[A^{-1}=A^T\,.\] Aussi, on sait qu'il suffit qu'un des conditions (\(A^TA=I_n\) ou \(AA^T=I_n\)) soit satisfaite pour garantir l'orthogonalité.

De plus, on a déjà vu que si on écrit une matrice carrée à l'aide de ses colonnes, \(A=[\boldsymbol{a}_1\cdots\boldsymbol{a}_n]\), alors on peut interpréter chaque coefficient du produit \(A^TA\) comme un produit scalaire: \[ A^TA= \begin{pmatrix} \boldsymbol{a}_1\cdotp\boldsymbol{a}_1&\boldsymbol{a}_1\cdotp\boldsymbol{a}_2&\cdots&\boldsymbol{a}_1\cdotp\boldsymbol{a}_n\\ \boldsymbol{a}_2\cdotp\boldsymbol{a}_1&\boldsymbol{a}_2\cdotp\boldsymbol{a}_2&\cdots&\boldsymbol{a}_2\cdotp\boldsymbol{a}_n\\ \vdots &\vdots&\ddots&\vdots\\ \boldsymbol{a}_n\cdotp\boldsymbol{a}_1&\cdots&\cdots&\boldsymbol{a}_n\cdotp\boldsymbol{a}_n \end{pmatrix} \] Ainsi, \(A\) est orthogonale (\(A^TA=I_n\)) si et seulement si \[ \boldsymbol{a}_i\cdotp\boldsymbol{a}_j= \begin{cases} 1&\text{ si }i=j\,,\\ 0&\text{ si }i\neq j\,,\\ \end{cases} \] Autrement dit:

Lemme: \(A=[\boldsymbol{a}_1\dots\boldsymbol{a}_n]\) est orthogonale si et seulement si ses colonnes sont des vecteurs unitaires (\(\|\boldsymbol{a}_k\|=1\) pour tout \(k=1,\dots,n\)) et orthogonaux deux à deux (\(\boldsymbol{a}_i\cdotp\boldsymbol{a}_j=0\) si \(i\neq j\)).

Il y a donc autant de matrices \(n\times n\) orthogonales qu'il y a de familles orthonormales de \(n\) vecteurs dans \(\mathbb{R}^n\).

Exemple: \(A= \begin{pmatrix} 1/\sqrt{3}&-1/\sqrt{2}&1/\sqrt{6}\\ 1/\sqrt{3}&1/\sqrt{2}&1/\sqrt{6}\\ -1/\sqrt{3}&0&2/\sqrt{6}\\ \end{pmatrix} \) est orthogonale, puisque ses colonnes sont unitaires et orthogonales deux-à-deux. Par conséquent, son inverse est donné par \[A^{-1}=A^T =\begin{pmatrix} 1/\sqrt{3}&1/\sqrt{3}&-1/\sqrt{3}\\ -1/\sqrt{2}&1/\sqrt{2}&0\\ 1/\sqrt{6}&1/\sqrt{6}&2/\sqrt{6}\\ \end{pmatrix} \,. \]

En général, dans le cas \(n\times n\), on parle des matrices orthogonales comme des rotations, puisqu'elles représentent des transformations rigides, qui préservent l'orthogonalité. Nous reviendrons là-dessus.

Quiz 14.1-1 : Soit \(A\) une matrice \(n\times n\). Vrai ou faux?
  1. Si \(A\) est symétrique, alors \(A\) est orthogonale.
  2. Si \(A\) est orthogonale, alors \(A\) est symétrique.
  3. Si \(A\) est symétrique, alors \(A^T\) est symétrique.
  4. Si \(A\) est à la fois symétrique et orthogonale, alors \(A=\pm I_n\).
Quiz 14.1-2 : Soit \(G\) une matrice \(n\times n\) orthogonale. Vrai ou faux?
  1. \(G^T\) est orthogonale.
  2. La transformation \(\boldsymbol{x}\mapsto G\boldsymbol{x}\) est bijective.
  3. Les colonnes de \(G\) forment une base orthonormée de \(\mathbb{R}^n\)
  4. Tous les coefficients de \(G\) sont positifs.
  5. \(GG^T\) est symétrique.
  6. Pour tout \(\boldsymbol{x}\in\mathbb{R}^n\), \(G\boldsymbol{x}\) est un vecteur unitaire.
  7. \(G\) est diagonalisable.