Le théorème du rang pour des applications linéaires
Théorème:
Soient \(V\) et \(V'\) deux espaces vectoriels de dimensions finies,
et soit \(T:V\to V'\) une application
linéaire.
Alors
\[ \dim\big(\mathrm{Ker}(T)\big)+\dim\big(\mathrm{Im} (T)\big)=\dim(V)\,.
\]
Soit \(n=\dim(V)\), et soit \(p=\dim(\mathrm{Ker}(T))\).
Comme \(\mathrm{Ker}(T)\) est un sous-espace vectoriel de \(V\), on a forcément que
\(p\leqslant n\).
Ce que l'on doit donc montrer, c'est que \(\dim(\mathrm{Im} (T))=n-p\).
Si \(p=n\), on a \(\mathrm{Im} (T)=\{\mathbf{0}_{V'}\}\), et
donc \(\dim(\mathrm{Im} (T))=0\), et le théorème est démontré.
Si \(p\lt n\), posons \(r:= n-p\), qui est par définition plus grand ou
égal à \(1\). Nous allons montrer que \(\dim(\mathrm{Im} (T))=r\).
Pour ce faire, commençons par considérer une
base \(\mathcal{B}_{\mathrm{Ker}(T)}\) de \(\mathrm{Ker}(T)\):
\[
\mathcal{B}_{\mathrm{Ker}(T)}=\bigl\{ v_1,\dots,v_p\bigr \}\,.
\]
Comme \(p\lt n\), \(\mathcal{B}_{\mathrm{Ker}(T)}\) n'est pas une base de \(V\). Mais on peut
malgré tout la compléter en rajoutant \(n-p=r\) vecteurs, afin
d'obtenir une base de \(V\):
\[
\mathcal{B}_V=\bigl\{v_1,\dots,v_p,w_1,\dots,w_r\bigr\}\,.
\]
Montrons maintenant que la famille
\[
\mathcal{B}'=\bigl\{T(w_1),\dots,T(w_r)\bigr\}\,
\]
est une base de \(\mathrm{Im} (T)\).
\(\mathcal{B}'\) est libre. En effet, considérons une combinaison linéaire
nulle,
\[
\alpha_1T(w_1)+\dots+\alpha_rT(w_r)=\mathbf{0}_{V'}\,.
\]
On va montrer que \(\alpha_1=\dots=\alpha_r=0\).
Par la linéarité de \(T\), on peut écrire cette dernière comme
\[
T(\alpha_1w_1+\dots+\alpha_rw_r)=\mathbf{0}_{V'}\,,
\]
qui indique que le vecteur \(\alpha_1w_1+\dots+\alpha_rw_r\) est dans
\(\mathrm{Ker}(T)\). On peut donc le décomposer dans la base \(\mathcal{B}_{\mathrm{Ker}(T)}\):
\[
\alpha_1w_1+\dots+\alpha_rw_r=
\lambda_1v_1+\dots\lambda_pv_p\,.
\]
Or, on peut récrire cette dernière comme
\[
\lambda_1v_1+\dots\lambda_pv_p-
\alpha_1w_1-\dots-\alpha_rw_r=\mathbf{0}_{V'}\,.
\]
Comme \(\mathcal{B}_V=\{v_1,\dots,v_p,w_1,\dots,w_r\}\) est une base de \(V\),
on a donc que
\[
\lambda_1=\dots=\lambda_p=-\alpha_1=\dots=-\alpha_r=0\,.
\]
Ainsi,
\(\alpha_1=\dots=\alpha_r=0\), ce qui démontre l'affirmation.
\(\mathcal{B}'\) engendre \(\mathrm{Im} (T)\).
En effet, considérons un \(v'\in \mathrm{Im} (T)\), c'est-à-dire un élément \(v'\in
V'\) pour lequel il existe un \(v\in V\) tel que \(v'=T(v)\).
Puisque l'on peut décomposer \(v\) dans la base \(\mathcal{B}_V\),
\[
v=\lambda_1v_1+\cdots+\lambda_rv_r+\lambda_{r+1}w_1+\cdots+\lambda_nw_p\,,
\]
on a donc que
\[\begin{aligned}
v'&=T(v)\\
&=T(\lambda_1v_1+\cdots+\lambda_rv_r+\lambda_{r+1}w_1+\cdots+\lambda_nw_p)\\
&=\lambda_1T(v_1)+\cdots+\lambda_rT(v_r)+\lambda_{r+1}T(w_1)+\cdots+\lambda_nT(w_p)\\
&=\lambda_{r+1}T(w_1)+\cdots+\lambda_nT(w_p)\,,
\end{aligned}\]
où l'on a utilisé dans la dernière ligne que \(v_k\in \mathrm{Ker}(T)\), et
donc \(T(v_k)=0\).
La dernière identité implique que \(\mathcal{B}'\) engendre bien
\(\mathrm{Im} (T)\).
Ainsi, \(\mathcal{B}'\) est une base de \(\mathrm{Im} (T)\), et comme elle contient \(r\)
éléments, on a que \(\dim(\mathrm{Im} (T))=r\). On a donc bien que
\[\begin{aligned}
\dim\big(\mathrm{Ker}(T)\big)+\dim\big(\mathrm{Im} (T)\big)
&=p+r\\
&=p+(n-p)=n=\dim(V)\,.
\end{aligned}\]
Une version alternative du Théorème du Rang: le cas des matrices
Dans cette sous-section on va donner une autre façon de prouver le Théorème du Rang.
Considérons une matrice \(A\) de taille \(m\times n\) et l'application linéaire
associée, \(T(\boldsymbol{x})=A\boldsymbol{x}\):
On a déjà dit que
\(\mathrm{Ker}(A)\) est un sous-espace vectoriel de \(\mathbb{R}^n\),
\(\mathrm{Im} (A)\) est un sous-espace vectoriel de \(\mathbb{R}^m\).
Exemple:
Considérons l'application linéaire \(T:\mathbb{R}^5\to\mathbb{R}^3\) rencontrée dans les
sections précédentes, dont la matrice est
\[
A=
\begin{pmatrix}
1&2&0&3&-4\\
0&-2&2&1&1\\
1&5&-3&1&-5
\end{pmatrix}\,,
\]
et dont la forme échelonnée réduite est
\[
\widetilde A=
\begin{pmatrix}
{\color{blue}1}&0&2&0&1\\
0&{\color{blue}1}&-1&0&-1\\
0&0&0&{\color{blue}1}&-1
\end{pmatrix}\,.
\]
Rappelons ce que nous avons déjà dit:
Les colonnes \(1,2,4\) de \(\widetilde A\) contiennent des pivots, ce qui
implique que les colonnes \(1,2,4\) de \(A\) sont des colonnes-pivot et forment
une base de \(\mathrm{Im} (A)\), ce qui implique que
\[\dim\big(\mathrm{Im} (A)\big)=3\,.\]
Les variables \(x_3,x_5\) sont libres, ce qui implique (voir théorème de
la section précédente) que
\[\dim\big(\mathrm{Ker}(A)\big)=2\,.\]
Par conséquent,
\[\dim\big(\mathrm{Ker}(A)\big)+\dim\big(\mathrm{Im} (A)\big)=2+3=5\,.\]
Ici, ''\(5\)'' est également la dimension de l'espace de départ (\(\mathbb{R}^5\)), qui
est également égal au nombre de colonnes de \(A\).
Ce que nous venons d'observer est en fait vrai pour toute matrice: la somme des
dimensions de l'ensemble image et du noyau est toujours égale à la dimension de
l'espace de départ.
C'est le Théorème du rang, énonce pour des application linéaires données sous la forme de matrices.
Pour le même résultat, mais démontré dans le cadre des espaces
vectoriels, voir le premier Théorème
de cette section.
Théorème:
Soit \(A\) une matrice de taille \(m\times n\).
Alors
\[ \dim\big(\mathrm{Ker}(A)\big)+\dim\big(\mathrm{Im} (A)\big)=n\,. \]
La structure générale d'une matrice réduite sera toujours du type suivant:
Le nombre de colonnes contenant un pivot (au nombre de \(5\)
en bleu sur l'image) donne le nombre
d'éléments contenus dans une base de \(\mathrm{Im} (A)\), et donc est égal à
\(\dim(\mathrm{Im} (A))\).
Ensuite toutes les autres colonnes (au nombre de \(9\) en rouge sur l'image)
représentent des variables libres, et donnent donc la dimension du noyau,
\(\dim(\mathrm{Ker}(A))\).
Comme il y a en tout \(n\) colonnes (\(n=14\) sur l'image),
on a bien
\[ \dim\big(\mathrm{Im} (A)\big)+\dim\big(\mathrm{Ker}(A)\big)=n\,. \]
Le terme ''rang'' doit encore être défini:
Soit \(A\) une matrice de taille \(m\times n\).
Le rang de \(A\)
est défini comme la dimension de son ensemble image:
\[\mathrm{rang}(A):= \dim\big(\mathrm{Im} (A)\big)\,.\]
Parfois, le rang est aussi noté \(\mathrm{rg}(A)\) (en anglais on écrit plutôt \(\mathrm{rank}(A)\)).
Si \(A\) est une matrice de taille \(m\times n\), alors
\(\mathrm{rang}(A)\leqslant m\), car l'ensemble image de \(A\) est un
sous-espace vectoriel de \(\mathbb{R}^m\), donc sa dimension est au plus égale à \(m\);
\(\mathrm{rang}(A)\leqslant n\), car la dimension de l'ensemble image de \(A\) est au plus
égale au nombre de colonnes de \(A\).
Par conséquent,
\[ \mathrm{rang}(A)\leqslant \min\{m,n\}\,.
\]
Plus le rang d'une matrice de taille \(m\times n\) est
grand, plus cette matrice définit une application qui
''remplit'' son ensemble d'arrivée.
En particulier, si l'application est surjective, alors son rang vaut \(m\).
Voyons quelques exemples d'utilisation simple du théorème du rang.
Exemple:
Soit \(A\) une matrice de taille \(6\times 9\). Alors \(\mathrm{Ker}(A)\) a
dimension au moins égale à \(3\). En
effet, \(\mathrm{rang}(A)\leqslant \min\{6,9\}=6\), et donc par le théorème du rang,
\[
\dim\big(\mathrm{Ker}(A)\big)=9-\mathrm{rang}(A)\geqslant 9-6=3\,.
\]
Une application : l'espace engendré par les lignes d'une matrice
Nous avons déjà souvent décrit un matrice de taille \(m\times n\) à l'aide de ses
colonnes \(\boldsymbol{a}_k\in \mathbb{R}^m\):
\[
A=[\boldsymbol{a}_1\cdots\boldsymbol{a}_n]\,.
\]
Mais on peut aussi aussi la décrire à l'aide de ses lignes,
\[ A=
\begin{pmatrix}
\boldsymbol{\ell}_1^T\\
\vdots\\
\boldsymbol{\ell}_m^T
\end{pmatrix}\,,
\]
où \(\boldsymbol{\ell}_1,\dots,\boldsymbol{\ell}_m\) sont des vecteurs de \(\mathbb{R}^n\).
En d'autres termes, les lignes de \(A\) sont les colonnes de \(A^T\):
\[ A^T=[\boldsymbol{\ell}_1\cdots\boldsymbol{\ell}_m]\,.
\]
Soit \(A\) une matrice de taille \(m\times n\), dont les lignes sont
\(\boldsymbol{\ell}_1^T,\dots,\boldsymbol{\ell}_m^T\).
Alors l'espace-ligne de \(A\) est
le sous-espace vectoriel de \(\mathbb{R}^n\) engendré par ses lignes:
\[ \mathrm{Lgn}(A):=\mathrm{Vect}\{\boldsymbol{\ell}_1,\dots,\boldsymbol{\ell}_m\}\,.\]
Lemme:
Si \(A\) et \(B\) sont deux matrices équivalentes selon les lignes (i.e., on peut
passer de l'une à l'autre à l'aide d'un nombre fini d'opérations élémentaires sur les lignes),
alors
\[ \mathrm{Lgn}(A)=\mathrm{Lgn}(B)\,. \]
Supposons que \(B\) peut s'obtenir par une suite d'opérations élémentaires sur
les lignes. Alors toute combinaison linéaire des lignes de \(B\) est aussi une
combinaison linéaire des lignes de \(A\).
Ceci implique
\(\mathrm{Lgn}(B)\subseteq \mathrm{Lgn}(A)\).
Le même argument montre que \(\mathrm{Lgn}(A)\subseteq \mathrm{Lgn}(B)\), ce qui entraîne
\(\mathrm{Lgn}(A)=\mathrm{Lgn}(B)\).
Si \(\widetilde A\) est la forme échelonnée réduite de \(A\),
alors \gras{les lignes de \(\widetilde A\) contenant un pivot (s'il y en a)
forment une base de \(\mathrm{Lgn}(\widetilde A)\) et de \(\mathrm{Lgn}(A)\)}.
Les lignes contenant un pivot
possèdent des ''\(1\)'' à des emplacements
différents, précédés de ''\(0\)'':
elles sont donc clairement indépendantes.
Puisqu'elles engendrent évidemment \(\mathrm{Lgn}(\widetilde A)\), elles forment une
base de \(\mathrm{Lgn}(\widetilde A)\).
Par le lemme précédent, toute famille de vecteurs qui forme une base de
\(\mathrm{Lgn}(\widetilde A)\) forme aussi une base de \(\mathrm{Lgn}(A)\).
Intéressons-nous maintenant à la dimension de l'espace engendré par les lignes.
Par définition,
\[ \dim\big(\mathrm{Lgn}(A)\big)=\mathrm{rang}(A^T).
\]
Le résultat suivant montre que les espaces engendrés
par les colonnes et les lignes d'une matrice quelconque ont toujours même
dimension:
Si \(A\) est une matrice quelconque,
\[ \mathrm{rang}(A)=\mathrm{rang}(A^T)\,.
\]
Soit \(\widetilde A\) la forme échelonnée réduite de \(A\).
La chose importante à remarquer est que dans \(\widetilde A\),
le nombre de colonnes contenant un pivot est égal au nombre de lignes non nulles.
C'est plus clair sur un dessin:
On peut donc écrire
\[\begin{aligned}
\mathrm{rang}(A)
&=\text{nombre de colonnes-pivot de }A\\
&=\text{nombre de colonnes contenant un pivot dans }\widetilde A\\
&=\text{nombre de lignes non-nulles dans }\widetilde A\\
&=\dim\big(\mathrm{Lgn}(\widetilde A)\big)\\
&=\dim\big(\mathrm{Lgn}(A)\big)\\
&=\mathrm{rang}(A^T)\,.
\end{aligned}\]
Dans la quatrième ligne, on a utilisé le corollaire ci-dessus.
Dans la cinquième ligne, on a utilisé le lemme du dessus.
Quiz 7.7-1 :
Soit \(A\) une matrice \(m\times n\), et soit \(\widetilde A\) sa réduite.
Vrai ou faux?