12.2 Définition du produit scalaire
Soient \(\boldsymbol{x},\boldsymbol{y}\in\mathbb{R}^n\). Le produit scalaire de \(\boldsymbol{x}\) et \(\boldsymbol{y}\) est défini par \[ \boldsymbol{x}\cdotp \boldsymbol{y}:= x_1y_1+x_2y_2+\cdots+x_ny_n\,. \]

Remarque: Il sera souvent utile de récrire le produit scalaire en le réinterprétant comme un produit matriciel un peu particulier: \[ \boldsymbol{x}\cdotp\boldsymbol{y}= x_1y_1+\dots+x_ny_n= \underbrace{[x_1\cdots x_n]}_{1\times n} \underbrace{ \begin{pmatrix} y_1\\ \vdots\\ y_n \end{pmatrix} }_{n\times 1} =\boldsymbol{x}^T\boldsymbol{y}\,. \]

(Propriétés du produit scalaire)
  1. \(\boldsymbol{x}\cdotp\boldsymbol{y}=\boldsymbol{y}\cdotp\boldsymbol{x}\)
  2. \((\lambda\boldsymbol{x})\cdotp\boldsymbol{y}=\boldsymbol{x}\cdotp(\lambda \boldsymbol{y})=\lambda(\boldsymbol{x}\cdotp\boldsymbol{y})\)
  3. \(\boldsymbol{x}\cdotp(\boldsymbol{y}_1+\boldsymbol{y}_2) =\boldsymbol{x}\cdotp\boldsymbol{y}_1 +\boldsymbol{x}\cdotp\boldsymbol{y}_2\)
  4. \((\boldsymbol{x}_1+\boldsymbol{x}_2)\cdotp \boldsymbol{y}=\boldsymbol{x}_1\cdotp \boldsymbol{y}+\boldsymbol{x}_2\cdotp \boldsymbol{y}\)
  5. (Lien avec la norme) \(\boldsymbol{x}\cdotp\boldsymbol{x}=\|\boldsymbol{x}\|^2\)
  6. (Inégalité de Cauchy-Schwartz) \[ |\boldsymbol{x}\cdotp\boldsymbol{y}|\leqslant \|\boldsymbol{x}\| \|\boldsymbol{y}\|\,. \]

Les cinq premières propriétés suivent directement de la définition du produit scalaire. Démontrons l'inégalité de Cauchy-Schwartz.

Pour commencer, remarquons que l'inégalité est triviale dès que \(\boldsymbol{y}\) (ou \(\boldsymbol{x}\)) est nul. On peut donc supposer que \(\boldsymbol{y}\neq \boldsymbol{0}\). Ensuite, remarquons que pour tout \(t \in\mathbb{R}\), \[\begin{aligned} 0\leqslant \|\boldsymbol{x}-t \boldsymbol{y}\|^2 &=(\boldsymbol{x}-t \boldsymbol{y})\cdotp(\boldsymbol{x}-t \boldsymbol{y})\\ &=\boldsymbol{x}\cdotp \boldsymbol{x}-2t (\boldsymbol{x}\cdotp\boldsymbol{y})+t ^2(\boldsymbol{y}\cdotp\boldsymbol{y})\\ &=\|\boldsymbol{x}\|^2 -2t (\boldsymbol{x}\cdotp\boldsymbol{y})+t ^2\|\boldsymbol{y}\|^2\\ \end{aligned}\] Comme cette inégalité est vraie pour tout \(t\), on peut l'utiliser pour la valeur \(t_*\) qui minimise le polynôme du deuxième degré défini par \[t \mapsto t ^2\|\boldsymbol{y}\|^2 -2t (\boldsymbol{x}\cdotp\boldsymbol{y}) +\|\boldsymbol{x}\|^2 \,.\] Ce dernier est minimal lorsque \[ t_*=\frac{\boldsymbol{x}\cdotp \boldsymbol{y}}{\|\boldsymbol{y}\|^2}\,. \] Si on récrit l'inégalité du haut avec \(t_*\), on obtient \[ 0 \leqslant \|\boldsymbol{x}\|^2-2 \frac{(\boldsymbol{x}\cdotp \boldsymbol{y})^2}{\|\boldsymbol{y}\|^2} +\frac{(\boldsymbol{x}\cdotp\boldsymbol{y})^2}{\|\boldsymbol{y}\|^2} = \|\boldsymbol{x}\|^2- \frac{(\boldsymbol{x}\cdotp \boldsymbol{y})^2}{\|\boldsymbol{y}\|^2}\,, \] qui entraîne \[ (\boldsymbol{x}\cdotp\boldsymbol{y})^2\leqslant \|\boldsymbol{x}\|^2\|\boldsymbol{y}\|^2\,. \] On obtient l'inégalité de Cauchy-Schwartz en prenant la racine carrée des deux côtés.

Remarque: \(\mathbb{R}^n\), muni du produit scalaire, est un cas particulier de ce que nous appellerons plus tard un espace Euclidien.

En petites dimensions (\(n=2\) ou \(3\)), le produit scalaire est relié à l'angle \(\theta\) fait par \(\boldsymbol{x}\) et \(\boldsymbol{y}\), par la relation fondamentale suivante: \[ \boldsymbol{x}\cdotp \boldsymbol{y}=\|\boldsymbol{x}\|\|\boldsymbol{y}\|\cos(\theta)\,. \] Nous ne ferons pas usage de cette relation, puisque nous utiliserons le produit scalaire surtout en grandes dimensions, et qu'on ne sait pas vraiment comment définir l'angle entre deux vecteurs.

On peut utiliser l'inégalité de Cauchy-Schwartz pour démontrer l'inégalité triangulaire de la section précédente: \[\begin{aligned} \|\boldsymbol{x}+\boldsymbol{y}\|^2 &=(\boldsymbol{x}+\boldsymbol{y})\cdotp(\boldsymbol{x}+\boldsymbol{y})\\ &=\|\boldsymbol{x}\|^2+2(\boldsymbol{x}\cdotp\boldsymbol{y})+\|\boldsymbol{y}\|^2\\ &\leqslant \|\boldsymbol{x}\|^2+2\|\boldsymbol{x}\|\|\boldsymbol{y}\|+\|\boldsymbol{y}\|^2\\ &=(\|\boldsymbol{x}\|+\|\boldsymbol{y}\|)^2\,. \end{aligned}\]

Orthogonalité

Le produit scalaire est surtout utilisé, en algèbre linéaire, pour résoudre des problèmes dans \(\mathbb{R}^n\) à l'aide d'arguments géométriques empruntés à la géométrie du plan et de l'espace. Et la première notion qui joue un rôle en géométrie est celle d'orthogonalité.

Commençons par écrire l'égalité du dessus sous une forme un peu différente: \[ (\boldsymbol{x}\cdotp\boldsymbol{y})= \frac12 \left( \|\boldsymbol{x}+\boldsymbol{y}\|^2 -\bigl(\|\boldsymbol{x}\|^2 +\|\boldsymbol{y}\|^2\bigr) \right)\,. \] Ceci implique en particulier que \(\boldsymbol{x}\perp \boldsymbol{y}\) si et seulement si \(\boldsymbol{x}\cdotp \boldsymbol{y}=0\). On peut donc donner une définition alternative de l'orthogonalité, basée uniquement sur le produit scalaire:

Deux vecteurs \(\boldsymbol{x},\boldsymbol{y}\in\mathbb{R}^n\) sont orthogonaux (ou perpendiculaires) si \(\boldsymbol{x}\cdotp\boldsymbol{y}=0\).

Exemple: Dans \(\mathbb{R}^5\), les vecteurs \[ \boldsymbol{x}= \begin{pmatrix} 3\\ 1\\ -2\\ 0\\ 2 \end{pmatrix}\,,\qquad \boldsymbol{y}= \begin{pmatrix} 2\\ 2\\ 5\\ 3\\ 1 \end{pmatrix}\, \] sont orthogonaux, puisque \(\boldsymbol{x}\cdotp\boldsymbol{y}=0\).

En géométrie, on considère souvent un objet géométrique, généralement une droite ou un plan, défini comme étant perpendiculaire à un autre. En algèbre linéaire, on définit un ensemble de vecteurs qui sont tous orthogonaux aux vecteurs d'un autre ensemble:

Soit \(W\) un sous-espace vectoriel de \(\mathbb{R}^n\). Le complément orthogonal de \(W\) est l'ensemble \[ W^\perp:= \bigl\{ \boldsymbol{v}\in\mathbb{R}^n\,\big|\,\boldsymbol{v}\perp\boldsymbol{w}\,\,\forall\boldsymbol{w}\in W \bigr\}\,. \]

Commençons par comprendre intuitivement le sens de \(W^\perp\), en petites dimensions:

Exemple: Si \(W\) est un plan (passant par l'origine) de \(\mathbb{R}^3\), alors \(W^\perp\) est la droite perpendiculaire à \(W\), passant par l'origine:

(En effet, un vecteur \(\boldsymbol{v}\) quelconque sur la droite est perpendiculaire à tous les vecteurs \(\boldsymbol{w}\) du plan.)

Exemple: Si \(W\) est une droite (passant par l'origine) de \(\mathbb{R}^3\), alors \(W^\perp\) est le plan perpendiculaire à \(W\), passant par l'origine:

(En effet, un vecteur \(\boldsymbol{v}\) quelconque sur le plan est perpendiculaire à tous les vecteurs \(\boldsymbol{w}\) de la droite.)

Ces deux derniers exemples illustrent bien les propriétés générales ci-dessous:

(Propriétés du complément orthogonal)
  1. \(W^\perp\) est un sous-espace vectoriel de \(\mathbb{R}^n\)
  2. \((W^\perp)^\perp=W\)
  3. \(\dim(W)+\dim(W^\perp)=n\)

On vérifie que \(W^\perp\) est un sous-espace vectoriel de \(\mathbb{R}^n\):

  • Clairement, le vecteur nul appartient à \(W\) puisque \(\boldsymbol{0}\cdotp \boldsymbol{w}=0\) pour tout \(\boldsymbol{w}\in W\).
  • Si \(\boldsymbol{v}\in W^\perp\), alors pour tout scalaire \(\lambda\in\mathbb{R}\), \[ (\lambda v)\cdotp \boldsymbol{w}=\lambda(\boldsymbol{v}\cdotp\boldsymbol{w})=0\,, \] donc \(\lambda \boldsymbol{v}\in W^\perp\).
  • Si \(\boldsymbol{v}_1,\boldsymbol{v}_2\in W^\perp\), alors pour tout \(\boldsymbol{w}\in W\), \[ (\boldsymbol{v}_1+\boldsymbol{v}_2)\cdotp \boldsymbol{w} =\boldsymbol{v}_1\cdotp \boldsymbol{w}+\boldsymbol{v}_2\cdotp \boldsymbol{w}=0+0=0\,, \] donc \(\boldsymbol{v}_1+\boldsymbol{v}_2\in W^\perp\).
Les autes propriétés seront démontrées en exercice.

Dans la définition, \(W^\perp\) est défini comme l'ensemble des vecteurs qui sont orthogonaux à tous les vecteurs de \(W\). Ceci implique que d'un point de vue calculatoire, on devrait a priori vérifier une infinité de conditions pour savoir si un vecteur appartient à \(W^\perp\). Mais lorsqu'on possède une base les choses sont plus simples:

Lemme: Soit \(W\) un sous-espace vectoriel de \(\mathbb{R}^n\), et soit \(\mathcal{B}=(\boldsymbol{w}_1,\dots,\boldsymbol{w}_k)\) une base de \(W\). Alors \(\boldsymbol{v}\in W^\perp\) si et seulement si \(\boldsymbol{v}\perp \boldsymbol{w}_j\) pour tout \(j=1,\dots,k\).

Supposons que \(W=\mathrm{Vect}\{\boldsymbol{w}_1,\dots,\boldsymbol{w}_k\}\).

Si \(\boldsymbol{v}\) est orthogonal à tous les vecteurs de \(W\), il est en particulier orthogonal à chacun des éléments de la base.

Inversément, supposons que \(\boldsymbol{v}\) est orthogonal à chacun des éléments de la base. Comme un élément quelconque \(\boldsymbol{w}\in W\) peut se décomposer dans la base, \(\boldsymbol{w}=\alpha_1\boldsymbol{w}_1+\cdots+\alpha_k\boldsymbol{w}_k\), la linéarité du produit scalaire implique que \[\begin{aligned} \boldsymbol{v}\cdotp \boldsymbol{w} &=\boldsymbol{v}\cdotp(\alpha_1\boldsymbol{w}_1+\cdots+\alpha_k\boldsymbol{w}_k)\\ &= \alpha_1 (\underbrace{\boldsymbol{v}\cdotp\boldsymbol{w}_1}_{=0}) +\cdots+ \alpha_k (\underbrace{\boldsymbol{v}\cdotp\boldsymbol{w}_k}_{=0})\\ &=0\,, \end{aligned}\] et donc \(\boldsymbol{v}\in W^\perp\).

Exemple: Dans \(\mathbb{R}^3\), considérons les vecteurs \[ \boldsymbol{w}_1= \begin{pmatrix} 1\\ 2\\ 0 \end{pmatrix}\,, \qquad \boldsymbol{w}_2= \begin{pmatrix} -1\\ 3\\ 1 \end{pmatrix}\,, \] et considérons le plan \[ W=\mathrm{Vect}\{\boldsymbol{w}_1,\boldsymbol{w}_2\}\,. \] Le lemme précédent dit que \[ W^\perp=\{\boldsymbol{v}\in\mathbb{R}^3\,:\,\boldsymbol{v}\perp\boldsymbol{w}_1,\,\boldsymbol{v}\perp \boldsymbol{w}_2\} \] Donc on cherche les vecteurs \(\boldsymbol{v}\in\mathbb{R}^3\) tels que les deux conditions suivantes soient satisfaites simultanément: \[ \begin{cases} \boldsymbol{v}\cdotp \boldsymbol{w}_1=0\,,\\ \boldsymbol{v}\cdotp \boldsymbol{w}_2=0\,. \end{cases} \] Si \(\boldsymbol{v}= \begin{pmatrix} v_1\\ v_2\\ v_3 \end{pmatrix} \), ceci est équivalent à \[ \left\{ \begin{array}{ccccccc} v_1 &+& 2v_2 && &=& 0\\ -v_1 &+& 3v_2 &+& v_3 &=&0 \end{array} \right. \] On peut prendre \(v_1\) comme variable libre, et donc on voit que \(W^\perp\) est une droite: \[ W^\perp =\left\{ \boldsymbol{v}= \begin{pmatrix} x_1\\ -x_1/2\\ 5x_1/2 \end{pmatrix} \,\Big|\, x_1\in\mathbb{R} \right\} =\mathrm{Vect}\left\{ \begin{pmatrix} 2\\ -1\\ 5 \end{pmatrix} \right\}\,. \] On vérifie bien dans ce cas que \[\dim(W)+\dim(W^\perp)=2+1=3\,.\]

Dans ce dernier exemple, l'intuition géométrique aurait peut-être suggéré de trouver un vecteur directeur de la droite \(W^\perp\) en calculant le produit vectoriel de \(\boldsymbol{w}_1\) et \(\boldsymbol{w}_2\). Mais ce produit (que nous ne traiterons pas dans ce cours) n'existe que dans \(\mathbb{R}^3\), alors que la méthode que nous avons utilisée fonctionne en toute dimension.

Exemple: Dans \(\mathbb{R}^4\), considérons les vecteurs \[ \boldsymbol{w}_1= \begin{pmatrix} 1\\ 2\\ -1\\ 0 \end{pmatrix}\,, \qquad \boldsymbol{w}_2= \begin{pmatrix} -1\\ 0\\ 1\\2 \end{pmatrix}\,, \] et considérons le plan \[ W=\mathrm{Vect}\{\boldsymbol{w}_1,\boldsymbol{w}_2\}\,. \] Puisque \(\dim(W)=2\) et que \[\dim(W)+\dim(W^\perp)=4\,,\] on sait que \(\dim(W^\perp)=2\), et donc \(W^\perp\) doit aussi être un plan. Et effectivement, un calcul semblable à celui de l'exemple précédent (voir exercices) montre que \[ W^\perp=\mathrm{Vect}\{\boldsymbol{p}_1,\boldsymbol{p}_2\}\,. \] où \[ \boldsymbol{p}_1= \begin{pmatrix} 1\\ 0\\ 1\\ 0 \end{pmatrix}\,, \qquad \boldsymbol{p}_2= \begin{pmatrix} 2\\ -1\\ 0\\1 \end{pmatrix}\,. \]

Quiz 12.2-1 : Vrai ou faux?
  1. \(\boldsymbol{x}\cdotp(\boldsymbol{y}\cdotp\boldsymbol{z}) =(\boldsymbol{x}\cdotp\boldsymbol{y})\cdotp\boldsymbol{z}\) pour tous \(\boldsymbol{x},\boldsymbol{y},\boldsymbol{z}\in \mathbb{R}^n\).
  2. Si \(\boldsymbol{x}\cdotp\boldsymbol{y}=0\) pour tous \(\boldsymbol{y}\in \mathbb{R}^n\), alors \(\boldsymbol{x}=\boldsymbol{0}\).
  3. \(\|\boldsymbol{x}+\boldsymbol{y}\|^2=\|\boldsymbol{x}\|^2+\|\boldsymbol{y}\|^2\) pour tous \(\boldsymbol{x},\boldsymbol{y}\in \mathbb{R}^n\).
  4. Si \(\boldsymbol{x}\cdotp\boldsymbol{y}=0\), alors \(\boldsymbol{x}\) et \(\boldsymbol{y}\) forment entre eux un angle de \(90^\circ\).
  5. Si \(\boldsymbol{x}\perp \boldsymbol{y}\), et si \(\boldsymbol{y}\perp\boldsymbol{z}\), alors \(\boldsymbol{x}\perp\boldsymbol{z}\).
Quiz 12.2-2 : Soit \(W\) un sous-espace vectoriel de \(\mathbb{R}^n\). Vrai ou faux?
  1. \(W^\perp\) contient les paires de vecteurs de \(W\) qui sont orthogonaux deux à deux.
  2. \(W^\perp\) contient une infinité de vecteurs.
  3. Si \(W\) est engendré par un vecteur non-nul \(\boldsymbol{v}\), alors \(W^\perp\) est un plan.
  4. Si \(\boldsymbol{w}\in W^\perp\), alors \(-\boldsymbol{w}\in W^\perp\).
  5. Si \(\boldsymbol{x}\in W\) et \(\boldsymbol{y}\in W^\perp\), alors \(\|\boldsymbol{x}+\boldsymbol{y}\|^2=\|\boldsymbol{x}\|^2+\|\boldsymbol{y}\|^2\).