2.1 Vecteurs de \(\mathbb{R}^n\)

Dans ce chapitre, nous allons reformuler ce qui a été dit à propos des systèmes en utilisant le langage vectoriel de l'algèbre linéaire. Ceci aura plusieurs avantages, et mènera en particulier à une compréhension plus profonde des divers aspects liés à la recherche des solutions d'un système linéaire.

On commence par introduire la notion de vecteur, centrale en algèbre linéaire, et particulièrement utile pour décrire les systèmes.

On l'a déjà mentionné plus haut: toute liste de nombres réels \((x_1,x_2,\dots, x_n)\) peut être identifiée avec un point de l'espace \(\mathbb{R}^n\).

Sans le dire, la preuve du ''Théorème \(0,1,\infty\)'' a manipulé les points de \(\mathbb{R}^n\) en les traitant comme des objets avec lesquels on peut faire des calculs. ARRANGER! On identifiera donc \((x_1,\dots,x_n)\) avec le vecteur (dit aussi vecteur-colonne), noté \[ \boldsymbol{x}= \begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix}\,, \] qui doit s'interpréter comme le déplacement depuis l'origine jusqu'au point de coordonnées \((x_1,x_2,\dots, x_n)\). Par exemple, dans le plan \(\mathbb{R}^2\),

ou dans l'espace \(\mathbb{R}^3\):

L'avantage d'identifier des points avec vecteurs est que le langage vectoriel permet d'introduire des opérations qui rendent les vecteurs propices au calcul.

On munit l'ensemble des vecteurs de \(\mathbb{R}^n\) de deux opérations:
  1. (Multiplication par un scalaire) La multiplication d'un vecteur \[ \boldsymbol{x}= \begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix}\,, \] par un scalaire \(\lambda\in \mathbb{R}\) est le vecteur \(\lambda \boldsymbol{x}\) défini par \[ \lambda\boldsymbol{x}:= \begin{pmatrix} \lambda x_1\\ \lambda x_2\\ \vdots\\ \lambda x_n \end{pmatrix}\,. \] Du point de vue géométrique, la multiplication par un scalaire \(\lambda>0\) correspond à étirer (si \(\lambda\geqslant 1\)) ou comprimer (si \(0\lt \lambda\lt 1\)):

    Lorsque \(\lambda<0\), cette transformation est en plus accompagnée d'un changement de sens:

  2. (Addition vectorielle) Si deux vecteurs \[ \boldsymbol{x}= \begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix}\qquad \text{ et }\qquad \boldsymbol{y}= \begin{pmatrix} y_1\\ y_2\\ \vdots\\ y_n \end{pmatrix} \] sont donnés, leur somme est définie par \[ \boldsymbol{x}+\boldsymbol{y}:= \begin{pmatrix} x_1+y_1\\ x_2+y_2\\ \vdots\\ x_n+y_n \end{pmatrix}\,. \]

En petites dimensions, \(n=2\) et \(n=3\), l'addition vectorielle peut s'interpréter géométriquement comme la règle du parallélogramme:

Le vecteur nul est celui dont toutes les composantes sont égales à zéro. On le notera \[ \boldsymbol{0}= \begin{pmatrix} 0\\ 0\\ \vdots\\ 0 \end{pmatrix}\,. \] Par définition, on a \(0\boldsymbol{x}=\boldsymbol{0}\) . Pour tout vecteur \(\boldsymbol{x} = \begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix} \), on appelle opposé de \(\boldsymbol{x}\) le vecteur \(-\boldsymbol{x}:= (-1)\boldsymbol{x}\). Par définition, \[\boldsymbol{x}+(-\boldsymbol{x})=(-\boldsymbol{x})+\boldsymbol{x}=\boldsymbol{0}\,.\] Il faut noter que les opérations d'addition et de multiplication par un scalaire permettent de considérer les vecteurs comme des objets avec lesquels on peut faire des calculs. Ces calculs obéissent à certaines règles, qui sont les règles standard de l'arithmétique:

Pour tous vecteurs \(\boldsymbol{x}\), \(\boldsymbol{y}\), \(\boldsymbol{z}\) de \(\mathbb{R}^n\), et pour tous scalaires \(\lambda,\mu\in \mathbb{R}\),
  1. \(\boldsymbol{x}+\boldsymbol{y}=\boldsymbol{y}+\boldsymbol{x}\) (commutativité)
  2. \(\boldsymbol{x}+(\boldsymbol{y}+\boldsymbol{z})= (\boldsymbol{x}+\boldsymbol{y})+\boldsymbol{z}\) (associativité)
  3. \(\lambda(\boldsymbol{x}+\boldsymbol{y})=\lambda\boldsymbol{y}+\lambda\boldsymbol{x}\)
  4. \((\lambda+\mu)\boldsymbol{x}=\lambda\boldsymbol{x}+\mu\boldsymbol{x}\)
  5. \((\lambda\mu)\boldsymbol{x}=\lambda(\mu\boldsymbol{x})=\mu(\lambda \boldsymbol{x})\)

Ces propriétés ne font que refléter une propriété élémentaire semblable, valide dans le corps des nombres réels. Ci-dessous, on indiquera par le symbole \(\stackrel{{\color{red}!}}{=}\) une identité obtenue en utilisant une propriété de base dans les réels, pour chacune des composantes:

  1. \[ \boldsymbol{x}+\boldsymbol{y} = \begin{pmatrix} x_1+y_1\\ x_2+y_2\\ \vdots\\ x_n+y_n \end{pmatrix} \stackrel{{\color{red}!}}{=} \begin{pmatrix} y_1+x_1\\ y_2+x_2\\ \vdots\\ y_n+x_n \end{pmatrix} = \boldsymbol{y}+\boldsymbol{x} \]
  2. \[\begin{aligned} \boldsymbol{x}+(\boldsymbol{y}+\boldsymbol{z})&= \begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix} + \begin{pmatrix} y_1+z_1\\ y_2+z_2\\ \vdots\\ y_n+z_n \end{pmatrix}\\ &= \begin{pmatrix} x_1+(y_1+z_1)\\ x_2+(y_2+z_2)\\ \vdots\\ x_n+(y_n+z_n) \end{pmatrix}\\ &\stackrel{{\color{red}!}}{=} \begin{pmatrix} (x_1+y_1)+z_1\\ (x_2+y_2)+z_2\\ \vdots\\ (x_n+y_n)+z_n \end{pmatrix}\\ &= \begin{pmatrix} x_1+y_1\\ x_2+y_2\\ \vdots\\ x_n+y_n \end{pmatrix} + \begin{pmatrix} z_1\\ z_2\\ \vdots\\ z_n \end{pmatrix}\\ &= (\boldsymbol{x}+\boldsymbol{y})+\boldsymbol{z} \end{aligned}\]
  3. \[\begin{aligned} \lambda(\boldsymbol{x}+\boldsymbol{y})&= \lambda \begin{pmatrix} x_1+y_1\\ x_2+y_2\\ \vdots\\ x_n+y_n \end{pmatrix}\\ &= \begin{pmatrix} \lambda(x_1+y_1)\\ \lambda(x_2+y_2)\\ \vdots\\ \lambda(x_n+y_n) \end{pmatrix}\\ &\stackrel{{\color{red}!}}{=} \begin{pmatrix} \lambda x_1+\lambda y_1\\ \lambda x_2+\lambda y_2\\ \vdots\\ \lambda x_n+\lambda y_n \end{pmatrix}\\ &=\lambda \boldsymbol{x}+\lambda \boldsymbol{y} \end{aligned}\]
  4. \[\begin{aligned} (\lambda+\mu)\boldsymbol{x}&= \begin{pmatrix} (\lambda+\mu)x_1\\ (\lambda+\mu)x_2\\ \vdots\\ (\lambda+\mu)x_n \end{pmatrix}\\ &\stackrel{{\color{red}!}}{=} \begin{pmatrix} \lambda x_1+\mu x_1\\ \lambda x_2+\mu x_2\\ \vdots\\ \lambda x_n+\mu x_n \end{pmatrix}=\lambda \boldsymbol{x}+\mu\boldsymbol{x} \end{aligned}\]
  5. \[\begin{aligned} (\lambda\mu)\boldsymbol{x} &= \begin{pmatrix} (\lambda\mu)x_1\\ (\lambda\mu)x_2\\ \vdots\\ (\lambda\mu)x_n \end{pmatrix}\\ &\stackrel{{\color{red}!}}{=} \begin{pmatrix} \lambda(\mu x_1)\\ \lambda(\mu x_2)\\ \vdots\\ \lambda(\mu x_n) \end{pmatrix}=\lambda(\mu\boldsymbol{x})\\ &\stackrel{{\color{red}!}}{=} \begin{pmatrix} \mu(\lambda x_1)\\ \mu(\lambda x_2)\\ \vdots\\ \mu(\lambda x_n) \end{pmatrix}=\mu(\lambda\boldsymbol{x}) \end{aligned}\]

Avec ces propriétés, on peut résoudre des équations vectorielles, dont l'inconnue est un vecteur \(\boldsymbol{x}\), de la même façon qu'on résout des équations élémentaires où l'inconnue est un réel \(x\).

Considérons deux vecteurs \(\boldsymbol{a},\boldsymbol{b}\in \mathbb{R}^n\) fixés, et étudions l'équation vectorielle \[ 2\boldsymbol{a}-3\boldsymbol{x}=5\boldsymbol{x}+7\boldsymbol{b}\,. \] Utilisons les propriétés démontrées ci-dessus pour isoler \(\boldsymbol{x}\), comme on le fait quand on résout une équation en arithmétique élémentaire.

Rajoutons \(+3\boldsymbol{x}\) des deux côtés. Du côté gauche, détaillons l'utilisation des propriétés: \[ 2\boldsymbol{a}-3\boldsymbol{x}+3\boldsymbol{x}=2\boldsymbol{a}+(-3+3)\boldsymbol{x}=2\boldsymbol{a}+0\boldsymbol{x}=2\boldsymbol{a} +\boldsymbol{0}=2\boldsymbol{a}\,. \] En procédant de même du côté droit, on obtient \[ 2\boldsymbol{a}=8\boldsymbol{x}+7\boldsymbol{b}\,. \] En soustrayant \(7\boldsymbol{b}\) des deux côtés, \[ 8\boldsymbol{x}=2\boldsymbol{a}-7\boldsymbol{b}\,, \] puis en multipliant par \(\frac18\), \[ \boldsymbol{x}=\tfrac14\boldsymbol{a}-\tfrac78\boldsymbol{b}\,. \]