11.6 Familles orthogonales
Une famille de vecteurs \(\{\boldsymbol{w}_1,\dots,\boldsymbol{w}_k\}\subseteq \mathbb{R}^n\) est dite

Exemple: La base canonique de \(\mathbb{R}^n\), \(\mathcal{B}_{\mathrm{can}}=(\boldsymbol{e}_1,\dots,\boldsymbol{e}_n)\), est une famille orthonormée, puisque \[ \boldsymbol{e}_i\cdot \boldsymbol{e}_j= \begin{cases} 1\,,&\text{ si }i=j\,,\\ 0\,,&\text{ si }i\neq j\,. \end{cases} \]

Remarque: Si \(\{\boldsymbol{w}_1,\dots,\boldsymbol{w}_k\}\) est orthogonale, et si aucun de ses vecteurs n'est le vecteur nul, alors on la rend orthonormale en divisant chacun de ses vecteurs par sa norme: \[ \left\{ \frac{\boldsymbol{w}_1}{\|\boldsymbol{w}_1\|}, \dots, \frac{\boldsymbol{w}_k}{\|\boldsymbol{w}_k\|} \right\}\,. \]

Exemple: Dans \(\mathbb{R}^3\), la famille \[ \left\{ \begin{pmatrix} 1\\ 2\\ 1 \end{pmatrix}, \begin{pmatrix} 1\\ 0\\ -1 \end{pmatrix}, \begin{pmatrix} -2\\ 2\\ -2 \end{pmatrix} \right\} \] est orthogonale, mais pas orthonormée. Comme aucun de ses vecteurs n'est nul, on peut le diviser par sa norme, \[ \left\{ \frac{1}{\sqrt{6}} \begin{pmatrix} 1\\ 2\\ 1 \end{pmatrix}, \frac{1}{\sqrt{2}} \begin{pmatrix} 1\\ 0\\ -1 \end{pmatrix}, \frac{1}{\sqrt{12}} \begin{pmatrix} -2\\ 2\\ -2 \end{pmatrix} \right\} \] pour obtenir une famille orthonormale.

Une propriété importante des familles orthogonales:

Si \(\{\boldsymbol{w}_1,\dots,\boldsymbol{w}_k\}\) est orthogonale, et si aucun de ses vecteurs n'est nul, alors elle est libre.

Considérons la relation \[ \alpha_1\boldsymbol{w}_1+\cdots+\alpha_k\boldsymbol{w}_k=\boldsymbol{0}\,. \] Si l'on effectue le produit scalaire de cette relation avec \(\boldsymbol{w}_j\), \[ \alpha_1(\underbrace{\boldsymbol{w}_j\cdotp\boldsymbol{w}_1}_{=0}) +\cdots+ \alpha_j(\underbrace{\boldsymbol{w}_j\cdotp\boldsymbol{w}_j}_{\neq 0}) +\cdots+ \alpha_k(\underbrace{\boldsymbol{w}_j\cdotp\boldsymbol{w}_k}_{=0})=\boldsymbol{0}\,, \] qui donne \(\alpha_j\|\boldsymbol{w}_j\|^2=0\). Puisque par hypothèse \(\boldsymbol{w}_j\neq \boldsymbol{0}\), ceci implique \(\alpha_j=0\). Comme ceci vaut pour tout \(j=1,\dots,k\), on a bien montré que la famille est libre.

Le grand avantage de travailler avec des bases orthogonales:

Théorème: Soit \(W\) un sous-espace vectoriel de \(\mathbb{R}^n\), et soit \(\mathcal{B}=(\boldsymbol{w}_1,\dots,\boldsymbol{w}_k)\) une base orthogonale de \(W\). Alors la décomposition d'un \(\boldsymbol{w}\in W\) relative à \(\mathcal{B}\), \[ \boldsymbol{w}=\gamma_1\boldsymbol{w}_1+\cdots +\gamma_k\boldsymbol{w}_k\,, \] a ses coefficients \(\gamma_j\) donnés par

\[ \gamma_j= \frac{\boldsymbol{w}\cdotp \boldsymbol{w}_j}{\boldsymbol{w}_j\cdotp\boldsymbol{w}_j} = \frac{\boldsymbol{w}\cdotp \boldsymbol{w}_j}{\|\boldsymbol{w}_j\|^2}\,. \]

En particulier, si \(\mathcal{B}\) est orthonormée, alors \(\gamma_j=\boldsymbol{w}\cdotp\boldsymbol{w}_j\).

Considérons la décomposition \[ \boldsymbol{w}=\gamma_1\boldsymbol{w}_1+\cdots +\gamma_k\boldsymbol{w}_k\,. \] En prenant le produit scalaire de cette expression avec \(\boldsymbol{w}_j\), l'orthogonalité de la base fait qu'il ne survit qu'un seul terme dans le membre de droite: \[ \boldsymbol{w}_j\cdotp\boldsymbol{w}=\gamma_j (\boldsymbol{w}_j\cdotp\boldsymbol{w}_j)\,. \] Ceci démontre l'affirmation.

Rappelons qu'en principe, trouver les coordonnées d'un vecteur relatives à une base se fait en résolvant un système. Ici, on voit le grand avantage de travailler avec des bases orthogonales: pour avoir une composante, il suffit de calculer un produit scalaire.

Exemple: Considérons \[ \mathcal{B}= \left\{ \begin{pmatrix} 1\\ 2\\ 1 \end{pmatrix}, \begin{pmatrix} 1\\ 0\\ -1 \end{pmatrix}, \begin{pmatrix} -2\\ 2\\ -2 \end{pmatrix} \right\}\,. \] On a vu plus haut que cette famille est orthogonale, et donc libre puisqu'aucun de ses vecteurs n'est nul, ce qui en fait une base de \(\mathbb{R}^3\). Si on prend un vecteur quelconque de \(\mathbb{R}^n\), par exemple \[ \boldsymbol{v}= \begin{pmatrix}7 \\-5 \\3 \end{pmatrix}\,, \] on calcule ses coordonnées relatives à \(\mathcal{B}\): \[\begin{aligned} \gamma_1&=\frac{\boldsymbol{v}\cdotp\boldsymbol{b}_1}{\|\boldsymbol{b}_1\|^2}=\frac{0}{6}=0\,,\\ \gamma_2&=\frac{\boldsymbol{v}\cdotp\boldsymbol{b}_2}{\|\boldsymbol{b}_2\|^2}=\frac{4}{2}=2\,,\\ \gamma_3&=\frac{\boldsymbol{v}\cdotp\boldsymbol{b}_3}{\|\boldsymbol{b}_3\|^2}=\frac{-30}{12}=\frac{-5}{2}\,, \end{aligned}\] ce qui donne \[ [\boldsymbol{v}]_{\mathcal{B}}= \begin{pmatrix} 0\\ 2\\ -5/2 \end{pmatrix}\,, \] c'est-à-dire \[ \boldsymbol{v}= 0 \begin{pmatrix} 1\\ 2\\ 1 \end{pmatrix} +2 \begin{pmatrix} 1\\ 0\\ -1 \end{pmatrix} -\frac52 \begin{pmatrix} -2\\ 2\\ -2 \end{pmatrix}\,. \] Bien-sûr, on trouverait la même chose en cherchant les coordonnées comme on le faisait avant, en étudiant le système \[ \gamma_1 \begin{pmatrix} 1\\ 2\\ 1 \end{pmatrix} +\gamma_2 \begin{pmatrix} 1\\ 0\\ -1 \end{pmatrix} +\gamma_3 \begin{pmatrix} -2\\ 2\\ -2 \end{pmatrix} = \begin{pmatrix}7 \\-5 \\3 \end{pmatrix}\,. \]

Une matrice \(A\) de taille \(m\times n\) est orthogonale si \[A^TA=I_n\,.\]

Lemme: Une matrice \(A=[\boldsymbol{a}_1\dots\boldsymbol{a}_n]\) de taille \(m \times n\) est orthogonale si et seulement si la famille \(\{\boldsymbol{a}_1,\dots,\boldsymbol{a}_n\} \subseteq \mathbb{R}^m\) formée des colonnes de \(A\) est orthonormée.

Si l'on écrit une matrice carrée à l'aide de ses colonnes, \(A=[\boldsymbol{a}_1\cdots\boldsymbol{a}_n]\), alors on peut interpréter chaque coefficient du produit \(A^TA\) comme un produit scalaire: \[ A^TA= \begin{pmatrix} \boldsymbol{a}_1\cdotp\boldsymbol{a}_1&\boldsymbol{a}_1\cdotp\boldsymbol{a}_2&\cdots&\boldsymbol{a}_1\cdotp\boldsymbol{a}_n\\ \boldsymbol{a}_2\cdotp\boldsymbol{a}_1&\boldsymbol{a}_2\cdotp\boldsymbol{a}_2&\cdots&\boldsymbol{a}_2\cdotp\boldsymbol{a}_n\\ \vdots &\vdots&\ddots&\vdots\\ \boldsymbol{a}_n\cdotp\boldsymbol{a}_1&\boldsymbol{a}_n\cdotp\boldsymbol{a}_2&\cdots&\boldsymbol{a}_n\cdotp\boldsymbol{a}_n \end{pmatrix}\,. \] Ainsi, \(A\) est orthogonale (\(A^TA=I_n\)) si et seulement si \[ \boldsymbol{a}_i\cdotp\boldsymbol{a}_j= \begin{cases} 1\,,&\text{ si }i=j\,,\\ 0\,,&\text{ si }i\neq j\,.\\ \end{cases} \]

Exemple: \(A= \begin{pmatrix} 1/\sqrt{3}&-1/\sqrt{2}&1/\sqrt{6}\\ 1/\sqrt{3}&1/\sqrt{2}&1/\sqrt{6}\\ -1/\sqrt{3}&0&2/\sqrt{6}\\ \end{pmatrix} \) est orthogonale, puisque ses colonnes forment une famille orthonormée de \(\mathbb{R}^3\). Par conséquent, son inverse est donné par \[A^{-1}=A^T =\begin{pmatrix} 1/\sqrt{3}&1/\sqrt{3}&-1/\sqrt{3}\\ -1/\sqrt{2}&1/\sqrt{2}&0\\ 1/\sqrt{6}&1/\sqrt{6}&2/\sqrt{6}\\ \end{pmatrix} \,. \]

Il y a donc autant de matrices orthogonales de taille \(m\times n\) qu'il y a de familles orthonormales de \(n\) vecteurs dans \(\mathbb{R}^m\).

Quiz 11.6-1 : Soit \(\mathcal{F}=\{\boldsymbol{v}_1,\cdots,\boldsymbol{v}_k\}\) une famille de vecteurs de \(\mathbb{R}^n\). Vrai ou faux?
  1. Si \(\mathcal{F}\) n'est pas orthogonale, alors \(\|\boldsymbol{v}_j\|\neq 1\) pour tout \(j=1,\dots,k\).
  2. Si \(k\gt n\), alors \(\mathcal{F}\) n'est pas orthogonale.
  3. Si \(\mathcal{F}\) est libre, alors elle est orthogonale.
Quiz 11.6-2 : Soit \(\mathcal{B}=(\boldsymbol{v}_1,\cdots,\boldsymbol{v}_k)\) une base orthogonale d'un sous espace vectoriel \(W\) de \(\mathbb{R}^n\). Vrai ou faux?
  1. Pour un vecteur quelconque \(\boldsymbol{w}\in W\), \[ [\boldsymbol{w}]_\mathcal{B}= \begin{pmatrix} \frac{\boldsymbol{w}\cdotp\boldsymbol{w}_1}{\boldsymbol{w}_1\cdotp\boldsymbol{w}_1}\\ \vdots\\ \frac{\boldsymbol{w}\cdotp\boldsymbol{w}_k}{\boldsymbol{w}_k\cdotp\boldsymbol{w}_k} \end{pmatrix} \]