Dans toute cette section, \(V\) est un espace vectoriel fixé.
L'avantage d'une base \(\mathcal{B}=\{v_1,v_2,\dots,v_p\}\)
est qu'elle fournit une manière
simple et univoque de représenter les vecteurs de \(W\).
En effet, fixons un vecteur quelconque \(w\in W\).
Puisque \(\mathcal{B}\)
engendre \(W\), \(w\) peut s'écrire comme une
combinaison linéaire des éléments de \(\mathcal{B}\): il existe des
scalaires \(\alpha_1,\dots,\alpha_p\in \mathbb{R}\) tels que
\[w=\alpha_1 v_1+\cdots+\alpha_p v_p\,.\]
Or il se trouve
que ces coefficients sont uniques. En effet, supposons qu'il existe une
autre famille de scalaires
\(\alpha_1',\dots,\alpha_p'\in \mathbb{R}\), telle que
\[w=\alpha_1' v_1+\cdots+\alpha_p' v_p\,.\]
En soustrayant ces deux dernières expressions, on obtient que
\[0=(\alpha_1-\alpha_1') v_1+\cdots+(\alpha_p-\alpha_p') v_p\,.\]
Mais puisque par hypothèse, \(\mathcal{B}\) est libre, ceci entraîne
\[ \alpha_1-\alpha_1'=\cdots=\alpha_p-\alpha_p'=0\,,\]
et donc \(\alpha_1=\alpha_1'\), \(\dots\), \(\alpha_p=\alpha_p'\).
Il n'existe donc qu'une seule manière d'exprimer \(w\) comme combinaison
linéaire des vecteurs de \(\mathcal{B}\).
D'un côté, un vecteur \(w\in W\) et un objet abstrait. De l'autre, sa représentation dans la base \(\mathcal{B}\), à l'aide des nombres \(\alpha_1,\dots,\alpha_p\), en fait un objet avec lequel on peut faire des calculs. En effet, on peut stocker ces nombres dans un vecteur de \(\mathbb{R}^p\), en définissant \[ [w]_{\mathcal{B}}:= \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_p \end{pmatrix} \]
Remarque: L'ordre dans lequel on stocke les \(\alpha_1,\dots,\alpha_p\) est important. En effet, la \(k\)ème composante \(\alpha_k\) est associée au \(k\)ème vecteur de la base, \(v_k\). Il est donc important, quand on introduit une base, de fixer l'ordre de ses vecteurs. Donc pour indiquer que les vecteurs de \(\mathcal{B}\) sont ordonnés, on écrira dorénavant \[\mathcal{B}=(v_1,\dots,v_p)\,,\] qui est une famille ordonnée , au lieu de \[\mathcal{B}=\{v_1,\dots,v_p\}\,.\]
Insistons sur le fait que le vecteur \([w]_\mathcal{B}\in \mathbb{R}^p\) contient exactement la même information que \(w\) (il représente \(w\)), puisque \(w\) peut toujours être reconstruit exactement à l'aide des composantes de \([w]_\mathcal{B}\): \[\alpha_1 v_1+\cdots+\alpha_p v_p=w\,.\] Ceci implique que finalement, dès qu'on est en possession d'une base dans un sous-espace vectoriel, aussi abstrait soit-il, ses vecteurs peuvent être traités comme des vecteurs de \(\mathbb{R}^p\)!
Dans le cas où \(W=V\), la définition ci-dessus revient donc à définir une base de \(V\) comme étant une famille libre qui engendre \(V\).
Exemple: Considérons \(V=\mathbb{R}^n\). Rappelons que l'on peut écrire tout vecteur \(\boldsymbol{x}\in \mathbb{R}^n\) comme \[ \boldsymbol{x} = x_1 \boldsymbol{e}_1 +x_2 \boldsymbol{e}_2 \dots+ x_n \boldsymbol{e}_n\,, \] où \[ \boldsymbol{e}_1:= \begin{pmatrix} 1\\ 0\\ \vdots\\ 0 \end{pmatrix} \,,\quad \boldsymbol{e}_2:= \begin{pmatrix} 0\\ 1\\ \vdots\\ 0 \end{pmatrix} \,,\quad \dots \quad \boldsymbol{e}_n:= \begin{pmatrix} 0\\ 0\\ \vdots\\ 1 \end{pmatrix} \,. \] Puisque cette famille de vecteurs est libre , on conclut que \(\mathcal{B}_{\mathrm{can}}=(\boldsymbol{e}_1,\dots,\boldsymbol{e}_n)\) est bien une base, la base canonique de \(\mathbb{R}^n\).
Exemple:
Dans \(V=\mathbb{R}^2\), considérons les vecteurs
\[ \boldsymbol{v}_1= \begin{pmatrix} 2\\ 1 \end{pmatrix}
\,,\qquad
\boldsymbol{v}_2= \begin{pmatrix} -7\\ 3 \end{pmatrix}\,,
\]
et montrons que \(\mathcal{B}=(\boldsymbol{v}_1,\boldsymbol{v}_2)\) est une base de \(V\). D'abord,
on voit que \(\boldsymbol{v}_1\) et \(\boldsymbol{v}_2\) sont ne sont pas colinéaires,
et donc que \(\mathcal{B}\) est libre.
Ensuite, pour montrer qu'elle engendre bien tout \(V\), fixons un
\(\boldsymbol{x}\in V\) quelconque, et montrons qu'il peut s'écrire comme combinaison
linéaire de \(\boldsymbol{v}_1\) et \(\boldsymbol{v}_2\), c'est-à-dire qu'il existe
des scalaires \(\lambda_1\) et \(\lambda_2\) tels que
\[ \boldsymbol{x}=\lambda_1\boldsymbol{v}_1+\lambda_2\boldsymbol{v}_2\,.
\]
Si on nome \(x_1,x_2\) les composantes de \(\boldsymbol{x}\), alors
cette dernière devient
\[
\begin{pmatrix} x_1\\x_2 \end{pmatrix}
=
\lambda_1\begin{pmatrix} 2\\ 1 \end{pmatrix}
+
\lambda_2\begin{pmatrix} -7\\ 3 \end{pmatrix}\,,
\]
qui n'est autre que
\[
(*)
\left\{
\begin{array}{ccccc}
2\lambda_1 &-&7 \lambda_2 &=&x_1 \\
\lambda_1 &+& 3\lambda_2 &=&x_2
\end{array}
\right.
\]
Après \(L_2\leftarrow L_2-\frac12 L_1\),
\[
(*)
\left\{
\begin{array}{ccccl}
2\lambda_1 &-& 7\lambda_2 &=&x_1 \\
&&\frac{13}{2}\lambda_2 &=&x_2-\frac12 x_1
\end{array}
\right.
\]
En procédant ''du bas vers le haut'', on trouve
\[
\lambda_1=\tfrac{3}{13}x_1+\tfrac{7}{13}x_2\,,
\qquad
\lambda_2=-\tfrac{1}{13}x_1+\tfrac{2}{13}x_2\,.
\]
Ceci montre que \(\boldsymbol{x}\) peut effectivement s'écrire comme combinaison
linéaire de \(\boldsymbol{v}_1\) et \(\boldsymbol{v}_2\).
Comme ceci vaut pour tout \(\boldsymbol{x}\in V\), \(\mathcal{B}\) engendre bien \(V\).
On a donc montré que \(\mathcal{B}\) est une base de \(V\).
Exemple: Considérons \(V=\mathbb{P}_n\), l'ensemble des polynômes à coefficients réels, de degré au plus égal à \(n\). Rappelons que tout élément \(p\in \mathbb{P}_n\) est de la forme \[ p(t)=a_0+a_1t+a_2t^2+\dots+a_nt^n\,,\qquad t\in \mathbb{R}\,. \] Considérons les polynômes \(e_0,e_1,\dots,e_n\in \mathbb{P}_n\) définis ainsi: pour tout \(t\in \mathbb{R}\), \[\begin{aligned} e_0(t)&:= 1\,,\\ e_1(t)&:= t\,,\\ e_2(t)&:= t^2\,,\\ \vdots&\\ e_n(t)&:= t^n\,. \end{aligned}\] Pour le polynôme écrit au-dessus, \[ p=a_0e_0+a_1e_1+\cdots+a_ne_n\,. \] Donc la famille \(\{e_0,e_1,\dots,e_p\}\) engendre \(\mathbb{P}_n\). Mais on a aussi montré dans une section précédente que cette famille est libre. Ainsi, la famille \(\mathcal{B}_{\mathrm{can}}=(e_0,e_1,\dots,e_n)\) forme une base, appelée base canonique de \(\mathbb{P}_n\). Avec la base canonique \(\mathcal{B}_{\mathrm{can}}\), l'application \([\cdot]_{\mathcal{B}}\) associe au polynôme \(p\) du dessus le vecteur de \(\mathbb{R}^{n+1}\) défini par \[ [p]_{\mathcal{B}}= \begin{pmatrix} a_0\\ a_1\\ \vdots\\ a_n \end{pmatrix}\,. \] On peut alors manipuler le polynôme \(p\) à l'aide de sa représentation sous la forme \([p]_{\mathcal{B}}\), exactement comme si c'était un vecteur de \(\mathbb{R}^{n+1}\)!
Exemple:
Considérons, dans \(V=\mathbb{P}_2\), la famille \(\mathcal{B}=(q_1,q_2,q_2)\), où
\[
q_1(t)=3\,,\qquad q_2(t)=1-2t\,,\qquad q_3(t)=t^2+t
\]
Montrons que \(\mathcal{B}\) est une base de \(V\).
Pour commencer, montrons que \(\mathcal{B}\) est libre, en posant
\[ \lambda_1q_1+\lambda_2q_2+\lambda_3q_3=0\,,
\]
qui signifie, après avoir regroupé les termes,
\[
(3\lambda_1+\lambda_2)+(-2\lambda_2+\lambda_3)t
+\lambda_3 t^2=0\qquad \forall t\in \mathbb{R}\,.
\]
On sait qu'un polynôme s'annule en tout \(t\in\mathbb{R}\) si et seulement si tous ses
coefficients sont nuls. On en déduit que \(\lambda_3=0\), puis que
\(\lambda_2=\frac12\lambda_3=0\), puis que \(\lambda_1=-\frac13 \lambda_2=0\). Ceci
montre que \(\mathcal{B}\) est libre.
Montrons ensuite que \(\mathcal{B}\) engendre \(\mathbb{P}_2\).
Pour ce faire, fixons un \(p\in \mathbb{P}_2\) quelconque, et montrons qu'on peut
trouver des scalaires \(\alpha_1,\alpha_2\) tels que
\[
p=\alpha_1q_1+\alpha_2q_2+\alpha_3q_3\,.
\]
Si \(p(t)=a+bt+ct^2\), cela signifie que
\[ a+bt+ct^2
=\alpha_13+\alpha_2(1-2t)+\alpha_3(t^2+t)\qquad \forall t\in \mathbb{R}\,,
\]
qui devient, après avoir regroupé les termes,
\[(3\alpha_1+\alpha_2-a)+(-2\alpha_2+\alpha_3-b)t+(\alpha_3-c)t^2=0\qquad
\forall t\in \mathbb{R}\,.\]
On voit donc que \(\alpha_1,\alpha_2,\alpha_3\) doivent satisfaire
\[
(*)
\left\{
\begin{array}{ccccccc}
3\alpha_1 &+& \alpha_2 && &=&a \\
&-& 2\alpha_2 &+& \alpha_3 &=&b \\
&& && \alpha_3 &=&c
\end{array}
\right.
\]
On trouve
\[ \alpha_3=c\,,\qquad \alpha_2=\tfrac12(c-b)\,,\qquad
\alpha_3=\tfrac13 a+\tfrac16 b -\tfrac16 c\,.
\]
Ceci montre que \(\mathcal{B}\) engendre \(\mathbb{P}_2\).
Donc on a bien montré que \(\mathcal{B}\) est une base de \(\mathbb{P}_2\).
Supposons qu'un sous-espace \(W\subset V\) soit engendré par une famille: \[ W=\mathrm{Vect}\{v_1,\dots,v_p\}\,. \] Par définition, tout vecteur \(w\in W\) peut s'écrire comme combinaison linéaire des \(v_1,\dots,v_p\), mais cela ne signifie pas que ces vecteurs forment une base pour \(W\): il se peut que certains ne soient pas nécessaires dans la description de \(W\); en d'autres termes, cette famille peut contenir ''trop'' de vecteurs, certains de ses vecteurs peuvent être superflus.
Lemme: Soit \(W\) un sous-espace vectoriel de \(V\), et soit \[\mathcal{F}=\{w_1,\dots,w_r\}\] une famille qui engendre \(W\). Si un des vecteurs de \(\mathcal{F}\), disons \(w_j\), peut s'écrire comme combinaison linéaire des autres \(w_k\) (\(k\neq j\)), alors en retirant \(w_j\), la famille \[\mathcal{F}\setminus\{w_j\} =\{w_1,\dots,w_{j-1},w_{j+1},\dots,w_r\}\] engendre toujours \(W\).
Puisque \(\mathcal{F}\) engendre \(W\), tout vecteur \(w\in W\) peut s'écrire \[w=a_1w_1+\dots+a_rw_r\,.\] Si \(w_j=\sum_{i\neq j}\alpha_iw_i\), alors \[\begin{aligned} w=\sum_{i=1}^ra_iw_i =\Bigl(\sum_{\substack{i=1\\ i\neq j}}^ra_iw_i\Bigr)+a_jw_j &=\sum_{\substack{i=1\\ i\neq j}}^ra_iw_i+a_j \sum_{\substack{i=1\\ i\neq j}}^r\alpha_iw_i \\ &=\sum_{\substack{i=1\\ i\neq j}}^r(a_i+a_j\alpha_i)w_i\,, \end{aligned}\] donc \(w\) peut s'écrire comme combinaison linéaire des éléments de \(\mathcal{F}\setminus \{w_j\}\). Ceci signifie que la famille \(\mathcal{F}\setminus\{w_j\}\) engendre aussi \(W\).
Ce dernier résultat fournit un algorithme pour
construire une base d'un sous-espace
\(W\), du moment que l'on possède une famille génératrice.
En effet, supposons qu'une famille finie
\(\mathcal{F}=\{v_1,\dots,v_r\}\) engendre \(W\). On peut ''nettoyer'' cette famille à
l'aide du lemme précédent, de la façon suivante:
Une fois que cet algorithme s'arrête, on obtient une famille \(\mathcal{F}'\subset\mathcal{F}\) qui engendre toujours \(W\), et dans laquelle aucun vecteur ne peut s'exprimer comme combinaison linéaire des autres; c'est donc une base de \(W\).
Exemple: Soit \(V=\mathbb{R}^4\), et soit \(W\subset V\) le sous-espace défini par \[W=\mathrm{Vect}\{\boldsymbol{w}_1,\boldsymbol{w}_2,\boldsymbol{w}_3\}\,,\] où \[ \boldsymbol{w}_1= \begin{pmatrix}3 \\-1 \\0 \\2 \end{pmatrix}\,,\qquad \boldsymbol{w}_2= \begin{pmatrix}5 \\-4 \\-4 \\3 \end{pmatrix}\,,\qquad \boldsymbol{w}_3= \begin{pmatrix}1 \\2 \\4 \\1 \end{pmatrix}\,. \] Remarquons que \(\{\boldsymbol{w}_1,\boldsymbol{w}_2,\boldsymbol{w}_3\}\) n'est pas libre puisque \(\boldsymbol{w}_2=2\boldsymbol{w}_1-\boldsymbol{w}_3\). Donc \(\boldsymbol{w}_2\) est ''superflu'', et on peut le retirer, sans changer \(W\): \[W=\mathrm{Vect}\{\boldsymbol{w}_1,\boldsymbol{w}_3\}\,.\] Maintenant, \(\boldsymbol{w}_1\) et \(\boldsymbol{w}_3\) n'étant pas colinéaires, \(\mathcal{B}:=(\boldsymbol{w}_1,\boldsymbol{w}_3)\) est une base de \(W\).