4.5 Bases

Dans toute cette section, \(V\) est un espace vectoriel fixé.

Soit \(W\) un sous-espace vectoriel de \(V\). Une famille finie de vecteurs \(\mathcal{B}=\{v_1,v_2,\dots,v_p\}\subset W\) est une base de \(W\) si
  1. \(\mathcal{B}\) est libre, et si
  2. \(\mathcal{B}\) engendre \(W\), c'est-à-dire que \(W=\mathrm{Vect}\{v_1,v_2,\dots,v_p\}\).

L'avantage d'une base \(\mathcal{B}=\{v_1,v_2,\dots,v_p\}\) est qu'elle fournit une manière simple et univoque de représenter les vecteurs de \(W\).

En effet, fixons un vecteur quelconque \(w\in W\). Puisque \(\mathcal{B}\) engendre \(W\), \(w\) peut s'écrire comme une combinaison linéaire des éléments de \(\mathcal{B}\): il existe des scalaires \(\alpha_1,\dots,\alpha_p\in \mathbb{R}\) tels que \[w=\alpha_1 v_1+\cdots+\alpha_p v_p\,.\] Or il se trouve que ces coefficients sont uniques. En effet, supposons qu'il existe une autre famille de scalaires \(\alpha_1',\dots,\alpha_p'\in \mathbb{R}\), telle que \[w=\alpha_1' v_1+\cdots+\alpha_p' v_p\,.\] En soustrayant ces deux dernières expressions, on obtient que \[0=(\alpha_1-\alpha_1') v_1+\cdots+(\alpha_p-\alpha_p') v_p\,.\] Mais puisque par hypothèse, \(\mathcal{B}\) est libre, ceci entraîne \[ \alpha_1-\alpha_1'=\cdots=\alpha_p-\alpha_p'=0\,,\] et donc \(\alpha_1=\alpha_1'\), \(\dots\), \(\alpha_p=\alpha_p'\). Il n'existe donc qu'une seule manière d'exprimer \(w\) comme combinaison linéaire des vecteurs de \(\mathcal{B}\).

Les scalaires \(\alpha_1,\dots,\alpha_p\) définis ci-dessus sont les composantes de \(w\) relativement à la base \(\mathcal{B}\).
Attention: les composantes sont des nombres que l'on peut utiliser pour décrire un vecteur, mais le vecteur existait, avant qu'on ne connaisse ses composantes, avant même qu'on ne parle de base!
Représentation en composantes

D'un côté, un vecteur \(w\in W\) et un objet abstrait. De l'autre, sa représentation dans la base \(\mathcal{B}\), à l'aide des nombres \(\alpha_1,\dots,\alpha_p\), en fait un objet avec lequel on peut faire des calculs. En effet, on peut stocker ces nombres dans un vecteur de \(\mathbb{R}^p\), en définissant \[ [w]_{\mathcal{B}}:= \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_p \end{pmatrix} \]

Remarque: L'ordre dans lequel on stocke les \(\alpha_1,\dots,\alpha_p\) est important. En effet, la \(k\)ème composante \(\alpha_k\) est associée au \(k\)ème vecteur de la base, \(v_k\). Il est donc important, quand on introduit une base, de fixer l'ordre de ses vecteurs. Donc pour indiquer que les vecteurs de \(\mathcal{B}\) sont ordonnés, on écrira dorénavant \[\mathcal{B}=(v_1,\dots,v_p)\,,\] qui est une famille ordonnée , au lieu de \[\mathcal{B}=\{v_1,\dots,v_p\}\,.\]

Insistons sur le fait que le vecteur \([w]_\mathcal{B}\in \mathbb{R}^p\) contient exactement la même information que \(w\) (il représente \(w\)), puisque \(w\) peut toujours être reconstruit exactement à l'aide des composantes de \([w]_\mathcal{B}\): \[\alpha_1 v_1+\cdots+\alpha_p v_p=w\,.\] Ceci implique que finalement, dès qu'on est en possession d'une base dans un sous-espace vectoriel, aussi abstrait soit-il, ses vecteurs peuvent être traités comme des vecteurs de \(\mathbb{R}^p\)!

Dans le cas où \(W=V\), la définition ci-dessus revient donc à définir une base de \(V\) comme étant une famille libre qui engendre \(V\).

Exemple: Considérons \(V=\mathbb{R}^n\). Rappelons que l'on peut écrire tout vecteur \(\boldsymbol{x}\in \mathbb{R}^n\) comme \[ \boldsymbol{x} = x_1 \boldsymbol{e}_1 +x_2 \boldsymbol{e}_2 \dots+ x_n \boldsymbol{e}_n\,, \] où \[ \boldsymbol{e}_1:= \begin{pmatrix} 1\\ 0\\ \vdots\\ 0 \end{pmatrix} \,,\quad \boldsymbol{e}_2:= \begin{pmatrix} 0\\ 1\\ \vdots\\ 0 \end{pmatrix} \,,\quad \dots \quad \boldsymbol{e}_n:= \begin{pmatrix} 0\\ 0\\ \vdots\\ 1 \end{pmatrix} \,. \] Puisque cette famille de vecteurs est libre , on conclut que \(\mathcal{B}_{\mathrm{can}}=(\boldsymbol{e}_1,\dots,\boldsymbol{e}_n)\) est bien une base, la base canonique de \(\mathbb{R}^n\).

Exemple: Dans \(V=\mathbb{R}^2\), considérons les vecteurs \[ \boldsymbol{v}_1= \begin{pmatrix} 2\\ 1 \end{pmatrix} \,,\qquad \boldsymbol{v}_2= \begin{pmatrix} -7\\ 3 \end{pmatrix}\,, \] et montrons que \(\mathcal{B}=(\boldsymbol{v}_1,\boldsymbol{v}_2)\) est une base de \(V\). D'abord, on voit que \(\boldsymbol{v}_1\) et \(\boldsymbol{v}_2\) sont ne sont pas colinéaires, et donc que \(\mathcal{B}\) est libre. Ensuite, pour montrer qu'elle engendre bien tout \(V\), fixons un \(\boldsymbol{x}\in V\) quelconque, et montrons qu'il peut s'écrire comme combinaison linéaire de \(\boldsymbol{v}_1\) et \(\boldsymbol{v}_2\), c'est-à-dire qu'il existe des scalaires \(\lambda_1\) et \(\lambda_2\) tels que \[ \boldsymbol{x}=\lambda_1\boldsymbol{v}_1+\lambda_2\boldsymbol{v}_2\,. \] Si on nome \(x_1,x_2\) les composantes de \(\boldsymbol{x}\), alors cette dernière devient \[ \begin{pmatrix} x_1\\x_2 \end{pmatrix} = \lambda_1\begin{pmatrix} 2\\ 1 \end{pmatrix} + \lambda_2\begin{pmatrix} -7\\ 3 \end{pmatrix}\,, \] qui n'est autre que \[ (*) \left\{ \begin{array}{ccccc} 2\lambda_1 &-&7 \lambda_2 &=&x_1 \\ \lambda_1 &+& 3\lambda_2 &=&x_2 \end{array} \right. \] Après \(L_2\leftarrow L_2-\frac12 L_1\), \[ (*) \left\{ \begin{array}{ccccl} 2\lambda_1 &-& 7\lambda_2 &=&x_1 \\ &&\frac{13}{2}\lambda_2 &=&x_2-\frac12 x_1 \end{array} \right. \] En procédant ''du bas vers le haut'', on trouve \[ \lambda_1=\tfrac{3}{13}x_1+\tfrac{7}{13}x_2\,, \qquad \lambda_2=-\tfrac{1}{13}x_1+\tfrac{2}{13}x_2\,. \] Ceci montre que \(\boldsymbol{x}\) peut effectivement s'écrire comme combinaison linéaire de \(\boldsymbol{v}_1\) et \(\boldsymbol{v}_2\). Comme ceci vaut pour tout \(\boldsymbol{x}\in V\), \(\mathcal{B}\) engendre bien \(V\).

On a donc montré que \(\mathcal{B}\) est une base de \(V\).

Exemple: Considérons \(V=\mathbb{P}_n\), l'ensemble des polynômes à coefficients réels, de degré au plus égal à \(n\). Rappelons que tout élément \(p\in \mathbb{P}_n\) est de la forme \[ p(t)=a_0+a_1t+a_2t^2+\dots+a_nt^n\,,\qquad t\in \mathbb{R}\,. \] Considérons les polynômes \(e_0,e_1,\dots,e_n\in \mathbb{P}_n\) définis ainsi: pour tout \(t\in \mathbb{R}\), \[\begin{aligned} e_0(t)&:= 1\,,\\ e_1(t)&:= t\,,\\ e_2(t)&:= t^2\,,\\ \vdots&\\ e_n(t)&:= t^n\,. \end{aligned}\] Pour le polynôme écrit au-dessus, \[ p=a_0e_0+a_1e_1+\cdots+a_ne_n\,. \] Donc la famille \(\{e_0,e_1,\dots,e_p\}\) engendre \(\mathbb{P}_n\). Mais on a aussi montré dans une section précédente que cette famille est libre. Ainsi, la famille \(\mathcal{B}_{\mathrm{can}}=(e_0,e_1,\dots,e_n)\) forme une base, appelée base canonique de \(\mathbb{P}_n\). Avec la base canonique \(\mathcal{B}_{\mathrm{can}}\), l'application \([\cdot]_{\mathcal{B}}\) associe au polynôme \(p\) du dessus le vecteur de \(\mathbb{R}^{n+1}\) défini par \[ [p]_{\mathcal{B}}= \begin{pmatrix} a_0\\ a_1\\ \vdots\\ a_n \end{pmatrix}\,. \] On peut alors manipuler le polynôme \(p\) à l'aide de sa représentation sous la forme \([p]_{\mathcal{B}}\), exactement comme si c'était un vecteur de \(\mathbb{R}^{n+1}\)!

Exemple: Considérons, dans \(V=\mathbb{P}_2\), la famille \(\mathcal{B}=(q_1,q_2,q_2)\), où \[ q_1(t)=3\,,\qquad q_2(t)=1-2t\,,\qquad q_3(t)=t^2+t \] Montrons que \(\mathcal{B}\) est une base de \(V\). Pour commencer, montrons que \(\mathcal{B}\) est libre, en posant \[ \lambda_1q_1+\lambda_2q_2+\lambda_3q_3=0\,, \] qui signifie, après avoir regroupé les termes, \[ (3\lambda_1+\lambda_2)+(-2\lambda_2+\lambda_3)t +\lambda_3 t^2=0\qquad \forall t\in \mathbb{R}\,. \] On sait qu'un polynôme s'annule en tout \(t\in\mathbb{R}\) si et seulement si tous ses coefficients sont nuls. On en déduit que \(\lambda_3=0\), puis que \(\lambda_2=\frac12\lambda_3=0\), puis que \(\lambda_1=-\frac13 \lambda_2=0\). Ceci montre que \(\mathcal{B}\) est libre.

Montrons ensuite que \(\mathcal{B}\) engendre \(\mathbb{P}_2\). Pour ce faire, fixons un \(p\in \mathbb{P}_2\) quelconque, et montrons qu'on peut trouver des scalaires \(\alpha_1,\alpha_2\) tels que \[ p=\alpha_1q_1+\alpha_2q_2+\alpha_3q_3\,. \] Si \(p(t)=a+bt+ct^2\), cela signifie que \[ a+bt+ct^2 =\alpha_13+\alpha_2(1-2t)+\alpha_3(t^2+t)\qquad \forall t\in \mathbb{R}\,, \] qui devient, après avoir regroupé les termes, \[(3\alpha_1+\alpha_2-a)+(-2\alpha_2+\alpha_3-b)t+(\alpha_3-c)t^2=0\qquad \forall t\in \mathbb{R}\,.\] On voit donc que \(\alpha_1,\alpha_2,\alpha_3\) doivent satisfaire \[ (*) \left\{ \begin{array}{ccccccc} 3\alpha_1 &+& \alpha_2 && &=&a \\ &-& 2\alpha_2 &+& \alpha_3 &=&b \\ && && \alpha_3 &=&c \end{array} \right. \] On trouve \[ \alpha_3=c\,,\qquad \alpha_2=\tfrac12(c-b)\,,\qquad \alpha_3=\tfrac13 a+\tfrac16 b -\tfrac16 c\,. \] Ceci montre que \(\mathcal{B}\) engendre \(\mathbb{P}_2\).

Donc on a bien montré que \(\mathcal{B}\) est une base de \(\mathbb{P}_2\).

Extraire une base d'une famille génératrice

Supposons qu'un sous-espace \(W\subset V\) soit engendré par une famille: \[ W=\mathrm{Vect}\{v_1,\dots,v_p\}\,. \] Par définition, tout vecteur \(w\in W\) peut s'écrire comme combinaison linéaire des \(v_1,\dots,v_p\), mais cela ne signifie pas que ces vecteurs forment une base pour \(W\): il se peut que certains ne soient pas nécessaires dans la description de \(W\); en d'autres termes, cette famille peut contenir ''trop'' de vecteurs, certains de ses vecteurs peuvent être superflus.

Lemme: Soit \(W\) un sous-espace vectoriel de \(V\), et soit \[\mathcal{F}=\{w_1,\dots,w_r\}\] une famille qui engendre \(W\). Si un des vecteurs de \(\mathcal{F}\), disons \(w_j\), peut s'écrire comme combinaison linéaire des autres \(w_k\) (\(k\neq j\)), alors en retirant \(w_j\), la famille \[\mathcal{F}\setminus\{w_j\} =\{w_1,\dots,w_{j-1},w_{j+1},\dots,w_r\}\] engendre toujours \(W\).

Puisque \(\mathcal{F}\) engendre \(W\), tout vecteur \(w\in W\) peut s'écrire \[w=a_1w_1+\dots+a_rw_r\,.\] Si \(w_j=\sum_{i\neq j}\alpha_iw_i\), alors \[\begin{aligned} w=\sum_{i=1}^ra_iw_i =\Bigl(\sum_{\substack{i=1\\ i\neq j}}^ra_iw_i\Bigr)+a_jw_j &=\sum_{\substack{i=1\\ i\neq j}}^ra_iw_i+a_j \sum_{\substack{i=1\\ i\neq j}}^r\alpha_iw_i \\ &=\sum_{\substack{i=1\\ i\neq j}}^r(a_i+a_j\alpha_i)w_i\,, \end{aligned}\] donc \(w\) peut s'écrire comme combinaison linéaire des éléments de \(\mathcal{F}\setminus \{w_j\}\). Ceci signifie que la famille \(\mathcal{F}\setminus\{w_j\}\) engendre aussi \(W\).

Ce dernier résultat fournit un algorithme pour construire une base d'un sous-espace \(W\), du moment que l'on possède une famille génératrice.

En effet, supposons qu'une famille finie \(\mathcal{F}=\{v_1,\dots,v_r\}\) engendre \(W\). On peut ''nettoyer'' cette famille à l'aide du lemme précédent, de la façon suivante:

  1. Chercher un vecteur \(v_j\in \mathcal{F}\) qui peut s'exprimer comme combinaison linéaire des autres.
  2. S'il y en a un, retirer \(v_j\) de la famille, et recommencer. S'il n'y en a pas, s'arrêter.

Une fois que cet algorithme s'arrête, on obtient une famille \(\mathcal{F}'\subset\mathcal{F}\) qui engendre toujours \(W\), et dans laquelle aucun vecteur ne peut s'exprimer comme combinaison linéaire des autres; c'est donc une base de \(W\).

Exemple: Soit \(V=\mathbb{R}^4\), et soit \(W\subset V\) le sous-espace défini par \[W=\mathrm{Vect}\{\boldsymbol{w}_1,\boldsymbol{w}_2,\boldsymbol{w}_3\}\,,\] où \[ \boldsymbol{w}_1= \begin{pmatrix}3 \\-1 \\0 \\2 \end{pmatrix}\,,\qquad \boldsymbol{w}_2= \begin{pmatrix}5 \\-4 \\-4 \\3 \end{pmatrix}\,,\qquad \boldsymbol{w}_3= \begin{pmatrix}1 \\2 \\4 \\1 \end{pmatrix}\,. \] Remarquons que \(\{\boldsymbol{w}_1,\boldsymbol{w}_2,\boldsymbol{w}_3\}\) n'est pas libre puisque \(\boldsymbol{w}_2=2\boldsymbol{w}_1-\boldsymbol{w}_3\). Donc \(\boldsymbol{w}_2\) est ''superflu'', et on peut le retirer, sans changer \(W\): \[W=\mathrm{Vect}\{\boldsymbol{w}_1,\boldsymbol{w}_3\}\,.\] Maintenant, \(\boldsymbol{w}_1\) et \(\boldsymbol{w}_3\) n'étant pas colinéaires, \(\mathcal{B}:=(\boldsymbol{w}_1,\boldsymbol{w}_3)\) est une base de \(W\).