12.4 Familles orthogonales
Une famille de vecteurs \(\{\boldsymbol{w}_1,\dots,\boldsymbol{w}_k\}\subset \mathbb{R}^n\) est dite

Exemple: La base canonique de \(\mathbb{R}^n\), \(\mathcal{B}_{\mathrm{can}}=(\boldsymbol{e}_1,\dots,\boldsymbol{e}_n)\), est une famille orthonormale, puisque \[ \boldsymbol{e}_i\cdot \boldsymbol{e}_j= \begin{cases} 1&\text{ si }i=j\,,\\ 0&\text{ si }i\neq j\,. \end{cases} \]

Remarque: Si \(\{\boldsymbol{w}_1,\dots,\boldsymbol{w}_k\}\) est orthogonale, et si aucun de ses vecteurs n'est le vecteur nul, alors on la rend orthonormale en divisant chacun de ses vecteurs par sa norme: \[ \left\{ \frac{\boldsymbol{w}_1}{\|\boldsymbol{w}_1\|}, \dots, \frac{\boldsymbol{w}_k}{\|\boldsymbol{w}_k\|} \right\} \]

Exemple: Dans \(\mathbb{R}^3\), la famille \[ \left\{ \begin{pmatrix} 1\\ 2\\ 1 \end{pmatrix}, \begin{pmatrix} 1\\ 0\\ -1 \end{pmatrix}, \begin{pmatrix} -2\\ 2\\ -2 \end{pmatrix} \right\} \] est orthogonale, mais pas orthonormale. Comme aucun de ses vecteurs n'est nul, on peut le diviser par sa norme, \[ \left\{ \frac{1}{\sqrt{6}} \begin{pmatrix} 1\\ 2\\ 1 \end{pmatrix}, \frac{1}{\sqrt{2}} \begin{pmatrix} 1\\ 0\\ -1 \end{pmatrix}, \frac{1}{\sqrt{12}} \begin{pmatrix} -2\\ 2\\ -2 \end{pmatrix} \right\} \] pour obtenir une famille orthonormale.

Une propriété importante des familles orthogonales:

Lemme: Si \(\{\boldsymbol{w}_1,\dots,\boldsymbol{w}_k\}\) est orthogonale, et si aucun de ses vecteurs n'est nul, alors elle est libre.

Considérons la relation \[ \alpha_1\boldsymbol{w}_1+\cdots+\alpha_k\boldsymbol{w}_k=\boldsymbol{0}\,. \] Si on effectue le produit scalaire de cette relation avec \(\boldsymbol{w}_j\), \[ \alpha_1(\underbrace{\boldsymbol{w}_j\cdotp\boldsymbol{w}_1}_{=0}) +\cdots+ \alpha_j(\underbrace{\boldsymbol{w}_j\cdotp\boldsymbol{w}_j}_{\neq 0}) +\cdots+ \alpha_k(\underbrace{\boldsymbol{w}_j\cdotp\boldsymbol{w}_k}_{=0})=\boldsymbol{0}\,, \] qui donne \(\alpha_j\|\boldsymbol{w}_j\|^2=0\). Puisque par hypothèse \(\boldsymbol{w}_j\neq \boldsymbol{0}\), ceci implique \(\alpha_j=0\). Comme ceci vaut pour tout \(j=1,\dots,k\), on a bien montré que la famille est libre.

Le grand avantage de travailler avec des bases orthogonales:

Théorème: Soit \(W\) un sous-espace vectoriel de \(\mathbb{R}^n\), et soit \(\mathcal{B}=(\boldsymbol{w}_1,\dots,\boldsymbol{w}_k)\) une base de \(W\), orthogonale. Alors la décomposition d'un \(\boldsymbol{w}\in W\) relativement à \(\mathcal{B}\), \[ \boldsymbol{w}=\gamma_1\boldsymbol{w}_1+\cdots +\gamma_k\boldsymbol{w}_k\,, \] a ses coefficients \(\gamma_j\) donnés par

\[ \gamma_j= \frac{\boldsymbol{w}\cdotp \boldsymbol{w}_j}{\boldsymbol{w}_j\cdotp\boldsymbol{w}_j} = \frac{\boldsymbol{w}\cdotp \boldsymbol{w}_j}{\|\boldsymbol{w}_j\|^2}\,. \]

En particulier, si \(\mathcal{B}\) est orthonormale, alors \(\gamma_j=\boldsymbol{w}\cdotp\boldsymbol{w}_j\).

Considérons la décomposition \[ \boldsymbol{w}=\gamma_1\boldsymbol{w}_1+\cdots +\gamma_k\boldsymbol{w}_k\,. \] En prenant le produit scalaire de cette expression avec \(\boldsymbol{w}_j\), l'orthogonalité de la base fait qu'il ne survit qu'un seul terme dans le membre de droite: \[ \boldsymbol{w}_j\cdotp\boldsymbol{w}=\gamma_j (\boldsymbol{w}_j\cdotp\boldsymbol{w}_j)\,. \] Ceci démontre l'affirmation.

Rappelons qu'en principe, trouver les composantes d'un vecteur relativement à une base se fait en résolvant un système. Ici, on voit le grand avantage de travailler avec des bases orthogonales: pour avoir une composante, il suffit de calculer un produit scalaire.

Exemple: Considérons \[ \mathcal{B}= \left( \begin{pmatrix} 1\\ 2\\ 1 \end{pmatrix}, \begin{pmatrix} 1\\ 0\\ -1 \end{pmatrix}, \begin{pmatrix} -2\\ 2\\ -2 \end{pmatrix} \right)\,. \] On a vu plus haut que cette famille est orthogonale, et donc libre puisqu'aucun de ses vecteurs n'est nul, ce qui en fait une base de \(\mathbb{R}^3\). Si on prend un vecteur quelconque de \(\mathbb{R}^n\), par exemple \[ \boldsymbol{v}= \begin{pmatrix}7 \\-5 \\3 \end{pmatrix}\,, \] on calcule ses composantes relativement à \(\mathcal{B}\): \[\begin{aligned} \gamma_1&=\frac{\boldsymbol{v}\cdotp\boldsymbol{b}_1}{\|\boldsymbol{b}_1\|^2}=\frac{0}{6}=0\,,\\ \gamma_2&=\frac{\boldsymbol{v}\cdotp\boldsymbol{b}_2}{\|\boldsymbol{b}_2\|^2}=\frac{4}{2}=2\,,\\ \gamma_3&=\frac{\boldsymbol{v}\cdotp\boldsymbol{b}_3}{\|\boldsymbol{b}_3\|^2}=\frac{-30}{12}=\frac{-5}{2}\,, \end{aligned}\] ce qui donne \[ [\boldsymbol{v}]_{\mathcal{B}}= \begin{pmatrix} 0\\ 2\\ -5/2 \end{pmatrix}\,, \] c'est-à-dire \[ \boldsymbol{v}= 0 \begin{pmatrix} 1\\ 2\\ 1 \end{pmatrix} +2 \begin{pmatrix} 1\\ 0\\ -1 \end{pmatrix} -\frac52 \begin{pmatrix} -2\\ 2\\ -2 \end{pmatrix}\,. \] Bien-sûr, on trouverait la même chose en cherchant les composantes comme on le faisait avant, en étudiant le système \[ \gamma_1 \begin{pmatrix} 1\\ 2\\ 1 \end{pmatrix} +\gamma_2 \begin{pmatrix} 1\\ 0\\ -1 \end{pmatrix} +\gamma_3 \begin{pmatrix} -2\\ 2\\ -2 \end{pmatrix} = \begin{pmatrix}7 \\-5 \\3 \end{pmatrix}\,. \]

Quiz 12.4-1 : Soit \(\mathcal{F}=\{\boldsymbol{v}_1,\cdots,\boldsymbol{v}_k\}\) une famille de vecteurs de \(\mathbb{R}^n\). Vrai ou faux?
  1. Si \(\mathcal{F}\) n'est pas orthogonale, alors \(\|\boldsymbol{v}_j\|\neq 1\) pour tout \(j=1,\dots,k\).
  2. Si \(k\gt n\), alors \(\mathcal{F}\) n'est pas orthogonale.
  3. Si \(\mathcal{F}\) est libre, alors elle est orthogonale.
Quiz 12.4-2 : Soit \(\mathcal{B}=(\boldsymbol{v}_1,\cdots,\boldsymbol{v}_k)\) une base orthogonale d'un sous espace vectoriel \(W\) de \(\mathbb{R}^n\). Vrai ou faux?
  1. Pour un vecteur quelconque \(\boldsymbol{w}\in W\), \[ [\boldsymbol{w}]_\mathcal{B}= \begin{pmatrix} \frac{\boldsymbol{w}\cdotp\boldsymbol{w}_1}{\boldsymbol{w}_1\cdotp\boldsymbol{w}_1}\\ \vdots\\ \frac{\boldsymbol{w}\cdotp\boldsymbol{w}_k}{\boldsymbol{w}_k\cdotp\boldsymbol{w}_k} \end{pmatrix} \]