5.4 Une base pour \(\mathrm{Ker}(A)\)

Rappelons que le noyau d'une application \(T:\mathbb{R}^n\to\mathbb{R}^m\) associée à une matrice \(A\) de taille \(m\times n\) est \[ \mathrm{Ker}(T)=\mathrm{Ker}(A) =\bigl\{\boldsymbol{x}\in\mathbb{R}^n\,|\,A\boldsymbol{x}=\boldsymbol{0}\bigr\}\,. \] Le noyau étant un sous-espace vectoriel de \(\mathbb{R}^n\) (l'ensemble de départ), il est important de trouver une base pour le décrire.

Voyons comment le calcul mène en général directement à une base du noyau, sur un exemple concret. Il est bien important de comprendre la méthode utilisée dans ce cas particulier, car elle sera exploitée dans la preuve du théorème énoncé plus bas:

Exemple: Calculons le noyau \(\mathrm{Ker}(A)\) de la matrice d'avant, \[ A= [\boldsymbol{a}_1\,\boldsymbol{a}_2\,\boldsymbol{a}_3\,\boldsymbol{a}_4,\boldsymbol{a}_5]= \begin{pmatrix} 1&2&0&3&-4\\ 0&-2&2&1&1\\ 1&5&-3&1&-5 \end{pmatrix}\,. \] Comme on cherche les \(\boldsymbol{x}\) tels que \(A\boldsymbol{x}=\boldsymbol{0}\), qui est équivalent à \(\widetilde A\boldsymbol{x}=\boldsymbol{0}\), on utilise la réduite déjà calculée, \[ \widetilde A= \begin{pmatrix} {\color{blue}1}&0&2&0&1\\ 0&{\color{blue}1}&-1&0&-1\\ 0&0&0&{\color{blue}1}&-1 \end{pmatrix} \] On en déduit la présence de deux variables libres dans le système \(\widetilde A\boldsymbol{x}=\boldsymbol{0}\), \(x_3\) et \(x_5\). Les autres composantes s'expriment en fonction de \(x_3=s\) et \(x_5=t\): \[ \begin{cases} x_1&=-2s-t\\ x_2&=s+t\\ x_4&=t \end{cases} \] Maintenant, écrivons explicitement la dépendance en \(s\) et \(t\), en mettant ces variables en évidence: \[\begin{aligned} \mathrm{Ker}(A)&= \bigl\{\boldsymbol{x}\in\mathbb{R}^5\,|\,A\boldsymbol{x}=\boldsymbol{0}\bigr\}\\ &= \left\{ \begin{pmatrix} x_1\\ x_2\\ x_3\\ x_4\\ x_5 \end{pmatrix} = \begin{pmatrix} -2s-t\\ s+t\\ s\\ t\\ t \end{pmatrix} \Big|\,s,t\in\mathbb{R} \right\}\\ &= \left\{ \begin{pmatrix} x_1\\ x_2\\ x_3\\ x_4\\ x_5 \end{pmatrix} =s \begin{pmatrix} -2\\ 1\\ 1\\ 0\\0 \end{pmatrix} +t \begin{pmatrix} -1\\ 1\\ 0\\ 1\\ 1 \end{pmatrix} \Big|\,s,t\in\mathbb{R} \right\} \end{aligned}\] Comme les vecteurs \[ \boldsymbol{v}_1= \begin{pmatrix} -2\\ 1\\ 1\\ 0\\0 \end{pmatrix}\,,\qquad \boldsymbol{v}_2= \begin{pmatrix} -1\\ 1\\ 0\\ 1\\ 1 \end{pmatrix} \] sont indépendants et engendrent le noyau, ils forment une base de \(\mathrm{Ker}(A)\). En particulier, \(\dim(\mathrm{Ker}(A))=2\).

Dans ce dernier exemple, nous avons vu apparaître deux variables libres, qui ont donné lieu à deux vecteurs qui formaient directement une base pour le noyau. Il se trouve que ce procédé mène toujours directement à une base du noyau.

Théorème: Pour toute matrice \(A\), la dimension du noyau \(\mathrm{Ker}(A)\) est égale au nombre de variables libres apparaissant dans le système \(A\boldsymbol{x}=\boldsymbol{0}\). (De plus, la méthode directe utilisée dans l'exemple précédent mène toujours à une base du noyau.)

Supposons que \(A\) est \(m\times n\). Supposons que les variables \(x_{i_1},\dots,x_{i_k}\) soient libres. Lorsqu'on met ces variables en évidence, comme dans l'exemple ci-dessus, à chacune de ces variables \(x_{i_j}\) sera associée un vecteur \(\boldsymbol{v}_j\in \mathbb{R}^n\). Or ces vecteurs possèdent la propriété suivante: pour tout \(1\leqslant j\leqslant k\), la \(i_j\)-ème composante de \(\boldsymbol{v}_j\) est un \(1\), alors que ses composantes \(i_{j'}\), pour \(j'\neq j\), sont nulles. Ceci implique que la famille \(\{\boldsymbol{v}_1,\dots,\boldsymbol{v}_k\}\) est libre. Puisqu'elle engendre \(\mathrm{Ker}(A)\), elle forme une base du noyau. Ceci implique que \(\dim(\mathrm{Ker}(A))=k\), le nombre de variables libres.