7.7 Le Théorème du Rang
Le théorème du rang pour des applications linéaires

Théorème: Soient \(V\) et \(V'\) deux espaces vectoriels de dimensions finies, et soit \(T:V\to V'\) une application linéaire. Alors \[ \dim\big(\mathrm{Ker}(T)\big)+\dim\big(\mathrm{Im} (T)\big)=\dim(V)\,. \]

Soit \(n=\dim(V)\), et soit \(p=\dim(\mathrm{Ker}(T))\). Comme \(\mathrm{Ker}(T)\) est un sous-espace vectoriel de \(V\), on a forcément que \(p\leqslant n\). Ce que l'on doit donc montrer, c'est que \(\dim(\mathrm{Im} (T))=n-p\).

Si \(p=n\), on a \(\mathrm{Im} (T)=\{\mathbf{0}_{V'}\}\), et donc \(\dim(\mathrm{Im} (T))=0\), et le théorème est démontré.

Si \(p\lt n\), posons \(r:= n-p\), qui est par définition plus grand ou égal à \(1\). Nous allons montrer que \(\dim(\mathrm{Im} (T))=r\). Pour ce faire, commençons par considérer une base \(\mathcal{B}_{\mathrm{Ker}(T)}\) de \(\mathrm{Ker}(T)\): \[ \mathcal{B}_{\mathrm{Ker}(T)}=\bigl\{ v_1,\dots,v_p\bigr \}\,. \] Comme \(p\lt n\), \(\mathcal{B}_{\mathrm{Ker}(T)}\) n'est pas une base de \(V\). Mais on peut malgré tout la compléter en rajoutant \(n-p=r\) vecteurs, afin d'obtenir une base de \(V\): \[ \mathcal{B}_V=\bigl\{v_1,\dots,v_p,w_1,\dots,w_r\bigr\}\,. \] Montrons maintenant que la famille \[ \mathcal{B}'=\bigl\{T(w_1),\dots,T(w_r)\bigr\}\, \] est une base de \(\mathrm{Im} (T)\).

  1. \(\mathcal{B}'\) est libre. En effet, considérons une combinaison linéaire nulle, \[ \alpha_1T(w_1)+\dots+\alpha_rT(w_r)=\mathbf{0}_{V'}\,. \] On va montrer que \(\alpha_1=\dots=\alpha_r=0\). Par la linéarité de \(T\), on peut écrire cette dernière comme \[ T(\alpha_1w_1+\dots+\alpha_rw_r)=\mathbf{0}_{V'}\,, \] qui indique que le vecteur \(\alpha_1w_1+\dots+\alpha_rw_r\) est dans \(\mathrm{Ker}(T)\). On peut donc le décomposer dans la base \(\mathcal{B}_{\mathrm{Ker}(T)}\): \[ \alpha_1w_1+\dots+\alpha_rw_r= \lambda_1v_1+\dots\lambda_pv_p\,. \] Or, on peut récrire cette dernière comme \[ \lambda_1v_1+\dots\lambda_pv_p- \alpha_1w_1-\dots-\alpha_rw_r=\mathbf{0}_{V'}\,. \] Comme \(\mathcal{B}_V=\{v_1,\dots,v_p,w_1,\dots,w_r\}\) est une base de \(V\), on a donc que \[ \lambda_1=\dots=\lambda_p=-\alpha_1=\dots=-\alpha_r=0\,. \] Ainsi, \(\alpha_1=\dots=\alpha_r=0\), ce qui démontre l'affirmation.
  2. \(\mathcal{B}'\) engendre \(\mathrm{Im} (T)\). En effet, considérons un \(v'\in \mathrm{Im} (T)\), c'est-à-dire un élément \(v'\in V'\) pour lequel il existe un \(v\in V\) tel que \(v'=T(v)\). Puisque l'on peut décomposer \(v\) dans la base \(\mathcal{B}_V\), \[ v=\lambda_1v_1+\cdots+\lambda_rv_r+\lambda_{r+1}w_1+\cdots+\lambda_nw_p\,, \] on a donc que \[\begin{aligned} v'&=T(v)\\ &=T(\lambda_1v_1+\cdots+\lambda_rv_r+\lambda_{r+1}w_1+\cdots+\lambda_nw_p)\\ &=\lambda_1T(v_1)+\cdots+\lambda_rT(v_r)+\lambda_{r+1}T(w_1)+\cdots+\lambda_nT(w_p)\\ &=\lambda_{r+1}T(w_1)+\cdots+\lambda_nT(w_p)\,, \end{aligned}\] où l'on a utilisé dans la dernière ligne que \(v_k\in \mathrm{Ker}(T)\), et donc \(T(v_k)=0\). La dernière identité implique que \(\mathcal{B}'\) engendre bien \(\mathrm{Im} (T)\).
Ainsi, \(\mathcal{B}'\) est une base de \(\mathrm{Im} (T)\), et comme elle contient \(r\) éléments, on a que \(\dim(\mathrm{Im} (T))=r\). On a donc bien que \[\begin{aligned} \dim\big(\mathrm{Ker}(T)\big)+\dim\big(\mathrm{Im} (T)\big) &=p+r\\ &=p+(n-p)=n=\dim(V)\,. \end{aligned}\]

Une version alternative du Théorème du Rang: le cas des matrices

Dans cette sous-section on va donner une autre façon de prouver le Théorème du Rang. Considérons une matrice \(A\) de taille \(m\times n\) et l'application linéaire associée, \(T(\boldsymbol{x})=A\boldsymbol{x}\):

On a déjà dit que

Exemple: Considérons l'application linéaire \(T:\mathbb{R}^5\to\mathbb{R}^3\) rencontrée dans les sections précédentes, dont la matrice est \[ A= \begin{pmatrix} 1&2&0&3&-4\\ 0&-2&2&1&1\\ 1&5&-3&1&-5 \end{pmatrix}\,, \] et dont la forme échelonnée réduite est \[ \widetilde A= \begin{pmatrix} {\color{blue}1}&0&2&0&1\\ 0&{\color{blue}1}&-1&0&-1\\ 0&0&0&{\color{blue}1}&-1 \end{pmatrix}\,. \] Rappelons ce que nous avons déjà dit:

Par conséquent, \[\dim\big(\mathrm{Ker}(A)\big)+\dim\big(\mathrm{Im} (A)\big)=2+3=5\,.\] Ici, ''\(5\)'' est également la dimension de l'espace de départ (\(\mathbb{R}^5\)), qui est également égal au nombre de colonnes de \(A\).

Ce que nous venons d'observer est en fait vrai pour toute matrice: la somme des dimensions de l'ensemble image et du noyau est toujours égale à la dimension de l'espace de départ. C'est le Théorème du rang, énonce pour des application linéaires données sous la forme de matrices. Pour le même résultat, mais démontré dans le cadre des espaces vectoriels, voir le premier Théorème de cette section.

Théorème: Soit \(A\) une matrice de taille \(m\times n\). Alors \[ \dim\big(\mathrm{Ker}(A)\big)+\dim\big(\mathrm{Im} (A)\big)=n\,. \]

La structure générale d'une matrice réduite sera toujours du type suivant:

  • Le nombre de colonnes contenant un pivot (au nombre de \(5\) en bleu sur l'image) donne le nombre d'éléments contenus dans une base de \(\mathrm{Im} (A)\), et donc est égal à \(\dim(\mathrm{Im} (A))\).
  • Ensuite toutes les autres colonnes (au nombre de \(9\) en rouge sur l'image) représentent des variables libres, et donnent donc la dimension du noyau, \(\dim(\mathrm{Ker}(A))\). Comme il y a en tout \(n\) colonnes (\(n=14\) sur l'image), on a bien \[ \dim\big(\mathrm{Im} (A)\big)+\dim\big(\mathrm{Ker}(A)\big)=n\,. \]

Le terme ''rang'' doit encore être défini:

Soit \(A\) une matrice de taille \(m\times n\). Le rang de \(A\) est défini comme la dimension de son ensemble image: \[\mathrm{rang}(A):= \dim\big(\mathrm{Im} (A)\big)\,.\]

Parfois, le rang est aussi noté \(\mathrm{rg}(A)\) (en anglais on écrit plutôt \(\mathrm{rank}(A)\)).

Si \(A\) est une matrice de taille \(m\times n\), alors

  1. \(\mathrm{rang}(A)\leqslant m\), car l'ensemble image de \(A\) est un sous-espace vectoriel de \(\mathbb{R}^m\), donc sa dimension est au plus égale à \(m\);
  2. \(\mathrm{rang}(A)\leqslant n\), car la dimension de l'ensemble image de \(A\) est au plus égale au nombre de colonnes de \(A\).

Par conséquent, \[ \mathrm{rang}(A)\leqslant \min\{m,n\}\,. \]

Plus le rang d'une matrice de taille \(m\times n\) est grand, plus cette matrice définit une application qui ''remplit'' son ensemble d'arrivée. En particulier, si l'application est surjective, alors son rang vaut \(m\).

Voyons quelques exemples d'utilisation simple du théorème du rang.

Exemple: Soit \(A\) une matrice de taille \(6\times 9\). Alors \(\mathrm{Ker}(A)\) a dimension au moins égale à \(3\). En effet, \(\mathrm{rang}(A)\leqslant \min\{6,9\}=6\), et donc par le théorème du rang, \[ \dim\big(\mathrm{Ker}(A)\big)=9-\mathrm{rang}(A)\geqslant 9-6=3\,. \]

Une application : l'espace engendré par les lignes d'une matrice

Nous avons déjà souvent décrit un matrice de taille \(m\times n\) à l'aide de ses colonnes \(\boldsymbol{a}_k\in \mathbb{R}^m\): \[ A=[\boldsymbol{a}_1\cdots\boldsymbol{a}_n]\,. \] Mais on peut aussi aussi la décrire à l'aide de ses lignes, \[ A= \begin{pmatrix} \boldsymbol{\ell}_1^T\\ \vdots\\ \boldsymbol{\ell}_m^T \end{pmatrix}\,, \] où \(\boldsymbol{\ell}_1,\dots,\boldsymbol{\ell}_m\) sont des vecteurs de \(\mathbb{R}^n\). En d'autres termes, les lignes de \(A\) sont les colonnes de \(A^T\): \[ A^T=[\boldsymbol{\ell}_1\cdots\boldsymbol{\ell}_m]\,. \]

Exemple: \(\displaystyle A= \begin{pmatrix} 1&0&2\\ -4&3&5 \end{pmatrix} \) peut s'écrire \(A= \begin{pmatrix} \boldsymbol{\ell}_1^T\\ \boldsymbol{\ell}_2^T \end{pmatrix} \), où \[ \boldsymbol{\ell}_1= \begin{pmatrix} 1\\ 0\\ 2\\ \end{pmatrix}\,,\qquad \boldsymbol{\ell}_2= \begin{pmatrix} -4\\ 3\\ 5 \end{pmatrix}\,. \]

Soit \(A\) une matrice de taille \(m\times n\), dont les lignes sont \(\boldsymbol{\ell}_1^T,\dots,\boldsymbol{\ell}_m^T\). Alors l'espace-ligne de \(A\) est le sous-espace vectoriel de \(\mathbb{R}^n\) engendré par ses lignes: \[ \mathrm{Lgn}(A):=\mathrm{Vect}\{\boldsymbol{\ell}_1,\dots,\boldsymbol{\ell}_m\}\,.\]

Lemme: Si \(A\) et \(B\) sont deux matrices équivalentes selon les lignes (i.e., on peut passer de l'une à l'autre à l'aide d'un nombre fini d'opérations élémentaires sur les lignes), alors \[ \mathrm{Lgn}(A)=\mathrm{Lgn}(B)\,. \]

Supposons que \(B\) peut s'obtenir par une suite d'opérations élémentaires sur les lignes. Alors toute combinaison linéaire des lignes de \(B\) est aussi une combinaison linéaire des lignes de \(A\). Ceci implique \(\mathrm{Lgn}(B)\subseteq \mathrm{Lgn}(A)\). Le même argument montre que \(\mathrm{Lgn}(A)\subseteq \mathrm{Lgn}(B)\), ce qui entraîne \(\mathrm{Lgn}(A)=\mathrm{Lgn}(B)\).

Si \(\widetilde A\) est la forme échelonnée réduite de \(A\), alors \gras{les lignes de \(\widetilde A\) contenant un pivot (s'il y en a) forment une base de \(\mathrm{Lgn}(\widetilde A)\) et de \(\mathrm{Lgn}(A)\)}.

Regardons \(\widetilde A\):

Les lignes contenant un pivot possèdent des ''\(1\)'' à des emplacements différents, précédés de ''\(0\)'': elles sont donc clairement indépendantes. Puisqu'elles engendrent évidemment \(\mathrm{Lgn}(\widetilde A)\), elles forment une base de \(\mathrm{Lgn}(\widetilde A)\).

Par le lemme précédent, toute famille de vecteurs qui forme une base de \(\mathrm{Lgn}(\widetilde A)\) forme aussi une base de \(\mathrm{Lgn}(A)\).

Intéressons-nous maintenant à la dimension de l'espace engendré par les lignes. Par définition, \[ \dim\big(\mathrm{Lgn}(A)\big)=\mathrm{rang}(A^T). \] Le résultat suivant montre que les espaces engendrés par les colonnes et les lignes d'une matrice quelconque ont toujours même dimension:

Si \(A\) est une matrice quelconque, \[ \mathrm{rang}(A)=\mathrm{rang}(A^T)\,. \]

Soit \(\widetilde A\) la forme échelonnée réduite de \(A\). La chose importante à remarquer est que dans \(\widetilde A\), le nombre de colonnes contenant un pivot est égal au nombre de lignes non nulles. C'est plus clair sur un dessin:

On peut donc écrire \[\begin{aligned} \mathrm{rang}(A) &=\text{nombre de colonnes-pivot de }A\\ &=\text{nombre de colonnes contenant un pivot dans }\widetilde A\\ &=\text{nombre de lignes non-nulles dans }\widetilde A\\ &=\dim\big(\mathrm{Lgn}(\widetilde A)\big)\\ &=\dim\big(\mathrm{Lgn}(A)\big)\\ &=\mathrm{rang}(A^T)\,. \end{aligned}\] Dans la quatrième ligne, on a utilisé le corollaire ci-dessus. Dans la cinquième ligne, on a utilisé le lemme du dessus.

Quiz 7.7-1 : Soit \(A\) une matrice \(m\times n\), et soit \(\widetilde A\) sa réduite. Vrai ou faux?
  1. \(\mathrm{rang}(A)=\mathrm{rang}(\widetilde A)\)
  2. \(\mathrm{Im} (A)=\mathrm{Im} (A^T)\)
  3. \(\mathrm{Im} (A)=\mathrm{Im} (\widetilde A)\).