3.1 Systèmes d'équations linéaires: formulation vectorielle
Description générale

Dans ce chapitre, nous allons reformuler ce qui a été dit à propos des systèmes en utilisant le langage vectoriel de l'algèbre linéaire. Ceci aura plusieurs avantages, et mènera en particulier à une compréhension plus profonde des divers aspects liés à la recherche des solutions d'un système linéaire.
Objectifs de ce chapitre:


Nouveau vocabulaire dans ce chapitre:
La formulation vectorielle

On peut voir un système d'équations linéaires de taille \(m\times n\) général, de la forme \[ (*) \left\{ \begin{array}{ccccccccc} a_{1,1}x_1&+&a_{1,2}x_2&+&\cdots&+&a_{1,n}x_n&=&b_1\,, \\ a_{2,1}x_1&+&a_{2,2}x_2&+&\cdots&+&a_{2,n}x_n&=&b_2\,, \\ \vdots&&&&&&&\vdots&\\ a_{m,1}x_1&+&a_{m,2}x_2&+&\cdots&+&a_{m,n}x_n&=&b_m\,, \end{array} \right. \] comme une égalité entre deux vecteurs de \(\mathbb{R}^m\): \[ \begin{pmatrix} a_{1,1}x_1&+&a_{1,2}x_2&+&\cdots&+&a_{1,n}x_n\\ a_{2,1}x_1&+&a_{2,2}x_2&+&\cdots&+&a_{2,n}x_n\\ &&\vdots&&&&\\ a_{m,1}x_1&+&a_{m,2}x_2&+&\cdots&+&a_{m,n}x_n \end{pmatrix} = \begin{pmatrix} b_1\\ b_2\\ \vdots\\ b_m \end{pmatrix}\,. \] Or on peut récrire cette dernière comme suit: \[ x_1 \begin{pmatrix} a_{1,1}\\ a_{2,1}\\ \vdots\\ a_{m,1} \end{pmatrix} + x_2 \begin{pmatrix} a_{1,2}\\ a_{2,2}\\ \vdots\\ a_{m,2} \end{pmatrix} +\cdots+ x_n \begin{pmatrix} a_{1,n}\\ a_{2,n}\\ \vdots\\ a_{m,n} \end{pmatrix} = \begin{pmatrix} b_1\\ b_2\\ \vdots\\ b_m \end{pmatrix}\,, \] dans laquelle on reconnaît maintenant, dans le membre de gauche, une combinaison linéaire des colonnes de la matrice associée au système, qui est donnée, rappelons-le, par \[ A= \begin{pmatrix} a_{1,1}&a_{1,2}&\cdots&a_{1,n}\\ a_{2,1}&a_{2,2}&\cdots&a_{2,n}\\ \vdots&\vdots&\ddots&\vdots\\ a_{m,1}&a_{m,2}&\cdots&a_{m,n} \end{pmatrix}\,. \] Récrivons la même chose de façon plus compacte, en commençant par définir le vecteur associé au second membre, \[ \boldsymbol{b}:= \begin{pmatrix} b_1\\ b_2\\ \vdots\\ b_m \end{pmatrix}\,, \] et récrivons la matrice du système comme une famille de colonnes, \[ A= \begin{bmatrix} \,\boldsymbol{a}_1&\boldsymbol{a}_2&\cdots&\boldsymbol{a}_n\, \end{bmatrix}\,, \] où, la \(k\)-ème colonne est le vecteur de \(\mathbb{R}^m\) donné par \[ \boldsymbol{a}_k := \begin{pmatrix} a_{1,k}\\ a_{2,k}\\ \vdots\\ a_{m,k} \end{pmatrix}\,. \] Donc la recherche de solutions \((x_1,x_2,\dots,x_n)\) au système \((*)\) est équivalente à demander si le membre de droite \(\boldsymbol{b}\) appartient à la partie de \(\mathbb{R}^m\) engendrée par les colonnes de \(A\), c'est-à-dire si on peut écrire \(\boldsymbol{b}\) comme une combinaison linéaire des colonnes de \(A\): \[ x_1\boldsymbol{a}_1+x_2\boldsymbol{a}_2+\cdots +x_n\boldsymbol{a}_n=\boldsymbol{b}\,. \] Dans cette formulation, les inconnues \(x_1,\dots,x_n\) jouent le rôle de coefficients de la combinaison linéaire.

Une dernière définition permettra de faire encore un pas dans la description du système \((*)\).

Soit \(A\) une matrice de taille \(m\times n\), dont la \(k\)-ème colonne est notée \(\boldsymbol{a}_k\in \mathbb{R}^m\), \[A= \begin{bmatrix} \,\boldsymbol{a}_1&\boldsymbol{a}_2&\cdots&\boldsymbol{a}_n\, \end{bmatrix}\,, \] et soit \(\boldsymbol{x}\) un vecteur de \(\mathbb{R}^n\), \[ \boldsymbol{x}= \begin{pmatrix} x_1\\ \vdots\\ x_n \end{pmatrix}\,. \] Le produit de \(A\) par \(\boldsymbol{x}\) est le vecteur \(A\boldsymbol{x}\in \mathbb{R}^m\) défini par la combinaison linéaire \[ A\boldsymbol{x}:= x_1\boldsymbol{a}_1+\dots+x_n\boldsymbol{a}_n\,. \]

Le produit d'une matrice \(A\) de taille \(m\times n\) par un vecteur \(\boldsymbol{x}\in \mathbb{R}^n\) crée donc un vecteur \(A\boldsymbol{x}\in \mathbb{R}^m\). Cette transformation est l'exemple standard de ce que l'on appellera plus tard une application linéaire, puisqu'elle satisfait à la propriété suivante:

Lemme: Soit \(A\) une matrice de taille \(m\times n\). Alors pour tous \(\boldsymbol{x},\boldsymbol{y}\in \mathbb{R}^n\) et pour tout scalaire \(\lambda\in \mathbb{R}\), \[ A(\boldsymbol{x}+ \lambda \boldsymbol{y})=A\boldsymbol{x}+ \lambda A\boldsymbol{y}\,. \] Cette propriété constitue la linéarité de \(A\).

Notons la matrice \(A=[\boldsymbol{a}_1\cdots\boldsymbol{a}_n]\), et les vecteurs \[ \boldsymbol{x}= \begin{pmatrix} x_1\\ x_2\\ \vdots\\ x_n \end{pmatrix} \qquad \text{ et } \qquad \boldsymbol{y}= \begin{pmatrix} y_1\\ y_2\\ \vdots\\ y_n \end{pmatrix}\,. \] Alors, \[\begin{aligned} A(\boldsymbol{x}+ \lambda \boldsymbol{y})&= \begin{bmatrix} \,\boldsymbol{a}_1&\boldsymbol{a}_2&\cdots&\boldsymbol{a}_n\, \end{bmatrix} \begin{pmatrix} x_1+ \lambda y_1\\ x_2+ \lambda y_2\\ \vdots\\ x_n+ \lambda y_n \end{pmatrix} =(x_1+ \lambda y_1)\boldsymbol{a}_1+\cdots+(x_n+ \lambda y_n)\boldsymbol{a}_n\\ &=\bigl(x_1\boldsymbol{a}_1+\cdots+x_n\boldsymbol{a}_n\bigr)+ \bigl(\lambda y_1\boldsymbol{a}_1+\cdots+ \lambda y_n\boldsymbol{a}_n\bigr) =\bigl(x_1\boldsymbol{a}_1+\cdots+x_n\boldsymbol{a}_n\bigr)+ \lambda \bigl(y_1\boldsymbol{a}_1+\cdots+ y_n\boldsymbol{a}_n\bigr)\\ &=A\boldsymbol{x}+\lambda A\boldsymbol{y}\,. \end{aligned}\]

Point clé: Équivalence entre SEL usuel et forme vectorielle d'un SEL
Avec les notations introduites ci-dessus, on peut maintenant écrire le système \[ (*) \left\{ \begin{array}{ccccccccc} a_{1,1}x_1&+&a_{1,2}x_2&+&\cdots&+&a_{1,n}x_n&=&b_1\,,\\ a_{2,1}x_1&+&a_{2,2}x_2&+&\cdots&+&a_{2,n}x_n&=&b_2\,,\\ \vdots&&&&&&&\vdots&\\ a_{m,1}x_1&+&a_{m,2}x_2&+&\cdots&+&a_{m,n}x_n&=&b_m\,, \end{array} \right. \, \] de façon équivalente sous une forme purement vectorielle: \[ (*):\quad A\boldsymbol{x}=\boldsymbol{b}\,, \] où \(A\) est la matrice du SEL \( (*) \) et \(\boldsymbol{b}\) est le vecteur formé du second membre de \( (*) \).
L'existence d'une solution \(\boldsymbol{x\) du SEL \((*)\) équivaut à dire qu'il existe au moins une façon d'écrire le membre de droite \(\overline{b}\) comme combinaison linéaire des colonnes de \(A\)}.

On finit cette section avec la preuve de l'unicité de la forme échelonnée réduite.

Théorème:\(\hskip -0.2cm{}^{{\color{red}\star}}\) Si \(A = [\boldsymbol{a}_1 \, \dots \, \boldsymbol{a}_n]\) et \(B = [\boldsymbol{b}_1 \, \dots \, \boldsymbol{b}_n]\) sont deux matrices échelonnées réduites de taille \(m \times n\) et ligne-équivalentes, alors \( A = B\).

On va procéder par récurrence sur la quantité de colonnes \(n\). Si \( n =1\), le résultat est clair. En effet, dans ce cas \(A\) et \(B\) sont des vecteurs colonnes avec \(m\) lignes. Or, il existe deux matrices échelonnées réduites de taille \(m \times 1\): \[ \mathbf{0} = \begin{pmatrix} 0 \\ 0 \\ \vdots \\ 0 \end{pmatrix} \qquad \text{et} \qquad \boldsymbol{e}_1 = \begin{pmatrix} 1 \\ 0 \\ \vdots \\ 0 \end{pmatrix}\,. \] Si \(A = \mathbf{0} = B\) ou \(A = \boldsymbol{e}_1 = B\), on obtient ce que l'on veut. Il reste à montrer que le cas \(A = \boldsymbol{e}_1\) et \(B = \mathbf{0}\) est absurde. On note que les ensembles de solutions des matrices augmentées \[ \left( \begin{array}{c|c} 0 & 0 \\ 0 & 0 \\ \vdots & \vdots \\ 0 & 0 \end{array} \right) \qquad \text{et} \qquad \left( \begin{array}{c|c} 1 & 0 \\ 0 & 0 \\ \vdots & \vdots \\ 0 & 0 \end{array} \right) \] sont différents, vu pour le premier c'est \(\mathbb{R}\) et pour le deuxième c'est \(\{ 0 \}\), ce qui nous dit que \(\boldsymbol{e}_1\) et \(\mathbf{0}\) ne sont pas ligne-équivalentes. Comme \(A\) et \(B\) sont ligne-équivalentes, le cas \(A = \boldsymbol{e}_1\) et \(B = \mathbf{0}\) est absurde, comme on voulait démontrer. On suppose désormais que \(n > 1\). En ajoutant une décoration sur les matrices \(A\) et \(B\), on écrit \[ A = [E | \boldsymbol{b}] \qquad \text{ et } \qquad B = [E' | \boldsymbol{b}']\,, \] où \( \boldsymbol{b}, \boldsymbol{b}'\) sont des vecteurs colonnes donnés par la dernière colonne de \(A\) et \(B\), respectivement, et \( E, E'\) sont les matrices de taille \(m \times (n-1)\) formées des premières \(n-1\) colonnes de \(A\) et \(B\), respectivement. Comme \(A\) et \(B\) sont ligne-équivalentes, alors les matrices \( E\) et \(E'\) le sont aussi. En plus, comme \(A\) et \(B\) sont échelonnées réduites, alors \( E\) et \(E'\) le sont aussi. Par l'hypothèse de la récurrence, \( E = E'\), i.e. \[ A = [E | \boldsymbol{b}] \qquad \text{ et } \qquad B = [E | \boldsymbol{b}']\,. \] Il suffit de montrer que \( \boldsymbol{b} = \boldsymbol{b}'\). On suppose que \( \boldsymbol{b} \neq \boldsymbol{b}'\) et on montrera un absurde. On note \(S_A\) et \(S_B\), respectivement, les ensembles de solutions des matrices augmentées \[ [A | \mathbf{0}] \qquad \text{ et } \qquad [B | \mathbf{0}]\,. \] Comme \(A\) et \(B\) sont ligne-équivalentes, \(S_A = S_B\). On définit la matrice \(D = [(\boldsymbol{a}_1-\boldsymbol{b}_1) \, \dots \, (\boldsymbol{a}_n-\boldsymbol{b}_n)]\). Si \((x_1,\dots,x_n) \in S_A = S_B\), alors par définition \((x_1,\dots,x_n)\) est aussi une solution de la matrice augmentée \([D | \mathbf{0}]\), i.e. \[ (\boldsymbol{b} - \boldsymbol{b}')x_n = D\boldsymbol{x} = \mathbf{0}, \] ce qui veut dire \(x_n = 0\), vu que \( \boldsymbol{b} \neq \boldsymbol{b}'\). En conséquence, \(x_n\) n'est une variable libre ni pour \([ A | \mathbf{0}]\) ni pour \([B | \mathbf{0}]\). En conséquence, \(\boldsymbol{b} \) et \(\boldsymbol{b}'\) contiennent un pivot, qui doit être dans la première ligne nulle de \( E\) et \(E'\), respectivement. Comme \( E = E' \), cela nous dit que \(\boldsymbol{b} = \boldsymbol{b}'\), ce qui contredit l'inégalité \(\boldsymbol{b} \neq \boldsymbol{b}'\). En conséquence, \(\boldsymbol{b} = \boldsymbol{b}'\), comme on voulait démontrer.

Quiz 3.1-1 : Vrai ou faux?
  1. Si \(A=[\boldsymbol{a}_1\cdots\boldsymbol{a}_n]\) est une matrice \(m\times n\), alors \(A\boldsymbol{x}\in\mathrm{Vect}\{\boldsymbol{a}_1,\dots,\boldsymbol{a}_n\}\), quel que soit \(\boldsymbol{x}\in\mathbb{R}^n\).
  2. Si \(A\boldsymbol{x}\in\mathrm{Vect}\{\boldsymbol{v}_1,\dots,\boldsymbol{v}_n\}\) pour tout \(\boldsymbol{x}\in\mathbb{R}^n\), alors \(A=[\boldsymbol{v}_1\cdots\boldsymbol{v}_n]\).
  3. Il existe une matrice \(A\), \(m\times n\), telle que \(A\boldsymbol{0}\neq \boldsymbol{0}\).