Dans cette section, on va présenter des critères d'injectivité et de surjectivité des application linéaires de \( \mathbb{R}^n \) dans \( \mathbb{R}^m \), basés sur la forme échelonnée réduite de la matrice canonique associée à l'application linéaire.
Lorsque
\(T : \mathbb{R}^n \rightarrow \mathbb{R}^m\) est linéaire, on sait qu'il
existe une unique matrice \(A\) de taille \(m\times n\) telle que
\[T(\boldsymbol{x})=A\boldsymbol{x}\,.\]
Comme \(T\) est entièrement déterminée par sa matrice \(A\), on écrira souvent \(\mathrm{Ker}(A)\) au lieu de \(\mathrm{Ker}(T)\) et
\(\mathrm{Im} (A)\) au lieu de \(\mathrm{Im} (T)\).
Rappelons qu'une application \(T:\mathbb{R}^n\to\mathbb{R}^m\) est injective si des éléments de \(\mathbb{R}^n\) distincts ont des images distinctes: \[\boldsymbol{x},\boldsymbol{x}'\in \mathbb{R}^n,\boldsymbol{x}\neq \boldsymbol{x}' \Rightarrow T(\boldsymbol{x})\neq T(\boldsymbol{x}')\,,\] ou alors, ce qui est équivalent, si \[ T(\boldsymbol{x})=T(\boldsymbol{x}')\quad \Longrightarrow\quad \boldsymbol{x}=\boldsymbol{x}'\,. \] Pour les applications qui sont linéaires, \(T(\boldsymbol{x})=A\boldsymbol{x}\), on sait que l'injectivité peut se caractériser à l'aide du noyau \[ \mathrm{Ker}(A) = \bigl\{\boldsymbol{x}\in \mathbb{R}^n\,:\,A\boldsymbol{x}=\boldsymbol{0}\bigr\}\,, \] d'après le dernier Lemme de la Section (cliquer). En plus, en raison du fait qu'une application linéaire est entièrement déterminée par sa matrice, on dit qu'une matrice \(A\) de taille \(m \times n\) est injective si l'application linéaire \(T : \mathbb{R}^n \rightarrow \mathbb{R}^m\) donnée par \(T(\boldsymbol{x}) = A\boldsymbol{x}\) est injective.
Comme \(\mathrm{Ker}(A)\)
n'est autre que l'ensemble des
solutions du système homogène \(A\boldsymbol{x}=\boldsymbol{0}\),
et comme on sait qu'il y a toujours la solution triviale, le noyau
n'est jamais vide: \(\boldsymbol{0} \in \mathrm{Ker}(A)\).
Nous avons vu qu'une application
linéaire est injective si et seulement si
son noyau ne contient que le vecteur nul:
\[\mathrm{Ker}(A)=\{\boldsymbol{0}\}\,.\]
Et comme on sait que l'unicité de la solution du problème homogène
caractérise l'indépendance des colonnes de \(A\),
l'injectivité peut se formuler en termes de l'indépendance des colonnes de
la matrice de \(T\).
De façon plus générale on a le résultat suivant:
Théorème: Soit \(T: \mathbb{R}^n \to \mathbb{R}^m\) une application linéaire. Les conditions suivantes sont équivalentes:
On a montré dans le dernier Lemme de la Section (cliquer) que les conditions (i) et (ii) sont équivalentes. On va montrer que les conditions (ii) et (iii) sont équivalentes D'après le Théorème dans la Section (cliquer), on a que \(T(\boldsymbol{x}) = [T] \boldsymbol{x}\) pour tout \(\boldsymbol{x} \in \mathbb{R}^n\), ce qui implique que l'ensemble de solutions du système linéaire \(T(\boldsymbol{x}) = [T] \boldsymbol{x} = \mathbf{0}\) est précisément \(\mathrm{Ker}(T)\). En conséquence, \(\mathrm{Ker}(T) = \{ \mathbf{0} \}\) si et seulement si le système linéaire \(T(\boldsymbol{x}) = [T] \boldsymbol{x} = \mathbf{0}\) admet uniquement la solution triviale \(\boldsymbol{x} = \mathbf{0}\). On prouve maintenant que les conditions (iii) et (iv) sont équivalentes. On notera \([T]=[\boldsymbol{c}_1 \dots \boldsymbol{c}_n]\), avec \(\boldsymbol{c}_i\) la \(i\)-ème colonne de \([T]\). Alors, par définition, \([T]\boldsymbol{x}=x_1\boldsymbol{c}_1 + \dots + x_n \boldsymbol{c}_n \), ce qui nous dit que le système linéaire \([T] \boldsymbol{x} = \mathbf{0} \) admet uniquement la solution triviale \(\boldsymbol{x} = \mathbf{0}\) si et seulement si la famille \(\{ \boldsymbol{c}_1, \dots, \boldsymbol{c}_n\}\) est libre. On montre maintenant que les conditions (iii) et (v) sont équivalentes. Pour le faire on va montrer que la condition (v) implique (iii), et que la négation de (v) implique la négation de (iii). Soit \(A\) la forme échelonnée réduite de \([T]\). D'après le Théorème dans la Section (cliquer), les systèmes linéaires \([T] \boldsymbol{x} = \mathbf{0}\) et \(A \boldsymbol{x} = \mathbf{0}\) ont les mêmes ensembles de solutions \(S\). Alors, si \(A\) n'admet pas de variables libres, alors \(S = \{ \mathbf{0} \}\), ce qui nous dit que \([T] \boldsymbol{x} = \mathbf{0}\) admet uniquement la solution triviale \(\boldsymbol{x} = \mathbf{0}\). Pour l'autre implication, on note que si \(A\) admet au moins une variable libre, alors \(S\) est infini, ce qui nous dit que \([T] \boldsymbol{x} = \mathbf{0}\) admet des solutions autres que la solution triviale \(\boldsymbol{x} = \mathbf{0}\). Finalement, on note que les conditions (v) et (vi) sont équivalentes, vu qu'une variable libre du système linéaire \([A] \boldsymbol{x} = \mathbf{0}\) est précisément celle qui correspond à une colonne sans pivot de la forme échelonnée réduite.
Exemple: Soit \(T:\mathbb{R}^3\to\mathbb{R}^3\) l'application linéaire décrite par la matrice \[ A= \begin{pmatrix} 1&1&0\\ 2&8&-2\\ 2&5&-1 \end{pmatrix}. \] On veut déterminer si l'application linéaire est injective ou non. Pour le faire, on calcule la forme échelonnée réduite de \(A\) via \[\begin{aligned} A&= \begin{pmatrix} 1&1&0\\ 2&8&-2\\ 2&5&-1 \end{pmatrix} \overset{ \substack{ L_2 \leftarrow L_2 - 2 L_1 \\ L_3 \leftarrow L_3 - 2 L_1 } }{\longrightarrow} \begin{pmatrix} 1&1&0\\ 0&6&-2\\ 0&3&-1 \end{pmatrix} \overset{L_2 \leftarrow L_2 - 2 L_3}{\longrightarrow} \begin{pmatrix} 1&1&0\\ 0&0&0\\ 0&3&-1 \end{pmatrix} \overset{L_2 \leftrightarrow L_3}{\longrightarrow} \begin{pmatrix} 1&1&0\\ 0&3&-1\\ 0&0&0 \end{pmatrix} \\ &\overset{L_2 \leftarrow \frac{1}{3} L_2}{\longrightarrow} \begin{pmatrix} 1&1&0\\ 0&1&-\frac{1}{3}\\ 0&0&0 \end{pmatrix} \overset{L_1 \leftarrow L_1 - L_2}{\longrightarrow} \begin{pmatrix} 1&0&\frac{1}{3}\\ 0&1&-\frac{1}{3}\\ 0&0&0 \end{pmatrix}. \end{aligned}\] Comme la troisième colonne de la forme échelonnée réduite \(A'\) de \(A\) n'a pas de pivot, l'application linéaire \(T\) n'est pas injective. La forme échelonnée réduite nous permet aussi de déterminer le noyau de \(T\), vu que le noyau correspond à l'ensemble des solutions de \(A\boldsymbol{x}=\boldsymbol{0}\), qui coïncide avec l'ensemble des solutions de \(A'\boldsymbol{x}=\boldsymbol{0}\): \[ \mathrm{Ker}(T)=\left\{ \begin{pmatrix} x_1\\ x_2\\ x_3 \end{pmatrix} \Big| x_1 = - x_3/3, x_2 = x_3/3 \right\} = \left\{ \begin{pmatrix} - x_3/3\\ x_3/3\\ x_3 \end{pmatrix} \Big|x_3\in \mathbb{R} \right\} =\left\{ x_3 \begin{pmatrix} - 1/3\\ 1/3\\ 1 \end{pmatrix} \Big|x_3\in \mathbb{R} \right\} =\mathrm{Vect}\left\{ \begin{pmatrix} - 1/3\\ 1/3\\ 1 \end{pmatrix} \right\}. \] Comme ce noyau contient des vecteurs non-nuls (tout choix de \(x_3\neq 0\) donne une solution non-triviale), \(T\) n'est pas injective. Ceci signifie aussi que les colonnes de \(A\) sont linéairement dépendantes. En effet, en prenant par exemple la solution correspondant à \(x_3=3\), on peut écrire \[ (-1) \begin{pmatrix}1 \\2 \\2\end{pmatrix} +1 \begin{pmatrix}1 \\8 \\5 \end{pmatrix} +3 \begin{pmatrix}0 \\-2 \\-1 \end{pmatrix} = \begin{pmatrix}0 \\0 \\0 \end{pmatrix}\,. \]
Rappelons la définition de l'ensemble image d'une application: c'est l'ensemble des points de l'ensemble d'arrivée qui possèdent au moins une préimage, \[ \mathrm{Im} (T):= \bigl\{\boldsymbol{y}\in\mathbb{R}^m\,:\,\exists \boldsymbol{x}\in\mathbb{R}^n\text{ t.q. }T(\boldsymbol{x})=\boldsymbol{y}\bigr\}\,. \]
Rappelons aussi que \(T:\mathbb{R}^n\to\mathbb{R}^m\) est surjective si \(\mathrm{Im} (T)=\mathbb{R}^m\). En raison du fait qu'une application linéaire est entièrement déterminée par sa matrice, on dit qu'une matrice \(A\) de taille \(m \times n\) est surjective si l'application linéaire \(T : \mathbb{R}^n \rightarrow \mathbb{R}^m\) donnée par \(T(\boldsymbol{x}) = A\boldsymbol{x}\) est surjective.
Soit \(A\) la matrice de l'application linéaire \(T\). Écrivons maintenant la matrice canonique \(A = [T]\) d'une application linéaire \(T:\mathbb{R}^n\to\mathbb{R}^m\) à l'aide de ses colonnes: \[A=[\boldsymbol{a}_1\cdots \boldsymbol{a}_n]\,.\] Puisque \(A\boldsymbol{x}\) est une combinaison linéaire des colonnes de \(A\), \(\mathrm{Im} (A)\) représente tous les vecteurs de \(\mathbb{R}^m\) que l'on peut obtenir à l'aide de combinaisons linéaires des colonnes de \(A\) : \[\mathrm{Im} (A)=\mathrm{Vect}\{\boldsymbol{a}_1,\dots,\boldsymbol{a}_n\}\,.\] On peut donc se souvenir de l'ensemble image de \(T(\boldsymbol{x})=A\boldsymbol{x}\) comme le sous-ensemble \(\mathrm{Col}(A)\) de \(\mathbb{R}^m\) engendré par les colonnes de \(A\): \[\mathrm{Im} (T)=\mathrm{Im} (A)=\mathrm{Col}(A)\,.\] On a donc une formulation équivalente de la surjectivité:
Théorème: Soit \(T: \mathbb{R}^n \to \mathbb{R}^m\) une application linéaire. Les conditions suivantes sont équivalentes:
L'équivalence des conditions (i) et (ii) est par définition. On va montrer que les conditions (ii) et (iii) sont équivalentes. D'après le Théorème dans la Section (cliquer), on a que \(T(\boldsymbol{x}) = [T] \boldsymbol{x}\) pour tout \(\boldsymbol{x} \in \mathbb{R}^n\), ce qui implique que, étant donné \(\boldsymbol{b} \in \mathbb{R}^m\), l'ensemble de solutions du système linéaire \(T(\boldsymbol{x}) = [T] \boldsymbol{x} = \boldsymbol{b}\) est précisément l'ensemble d'antécédents de \(\boldsymbol{b} \in \mathbb{R}^m\). En conséquence, \(\boldsymbol{b} \in \mathbb{R}^m\) admet une préimage par \(T\) si et seulement si le système linéaire \([T] \boldsymbol{x} = \boldsymbol{b}\) est compatible, ce qui montre l'équivalence des conditions (ii) et (iii). On prouve maintenant que les conditions (iii) et (iv) sont équivalentes. On notera \( [T] = [\boldsymbol{c}_1 \dots \boldsymbol{c}_n]\), avec \(\boldsymbol{c}_i\) la \(i\)-ème colonne de \([T]\). Comme, par définition, \( [T] \boldsymbol{x} = x_1 \boldsymbol{c}_1 + \dots + x_n \boldsymbol{c}_n \), étant donné \( \boldsymbol{b} \in \mathbb{R}^m \), le système linéaire \([T] \boldsymbol{x} = \boldsymbol{b} \) est compatible si et seulement si \( \boldsymbol{b} \in \mathrm{Vect}\{ \boldsymbol{c}_1, \dots, \boldsymbol{c}_n\} \). En conséquence, le système linéaire \([T] \boldsymbol{x} = \boldsymbol{b} \) est compatible pour tout \( \boldsymbol{b} \in \mathbb{R}^m \) si et seulement si \(\mathrm{Vect}\{ \boldsymbol{c}_1, \dots, \boldsymbol{c}_n\} = \mathbb{R}^m\), i.e. la famille \(\{ \boldsymbol{c}_1, \dots, \boldsymbol{c}_n\}\) des colonnes de \( [T] \) est génératrice. On montre maintenant que les conditions (iii) et (v) sont équivalentes. Pour le faire on va montrer que la condition (v) implique (iii), et que la négation de (v) implique la négation de (iii). Soit \(A\) la forme échelonnée réduite de \([T]\). D'après le Théorème dans la Section (cliquer), en effectuant des opérations élémentaires sur les lignes on voit que le système linéaire \([T] \boldsymbol{x} = \boldsymbol{b}\) est compatible pour tout \(\boldsymbol{b} \in \mathbb{R}^m\) si et seulement si \(A \boldsymbol{x} = \boldsymbol{b}'\) est compatible pour tout \(\boldsymbol{b}' \in \mathbb{R}^m\). Alors, si \(A\) n'a pas de lignes nulles, alors le système linéaire \(A \boldsymbol{x} = \boldsymbol{b}'\) est compatible pour tout \(\boldsymbol{b}' \in \mathbb{R}^m\), ce qui nous dit que le système linéaire \([T] \boldsymbol{x} = \boldsymbol{b}\) est compatible pour tout \(\boldsymbol{b} \in \mathbb{R}^m\). Pour l'autre implication, on note que si \(A\) admet une ligne nulle, ce qui nous dit en particulier que la dernière ligne de \(A\) est nulle, alors le système linéaire \(A \boldsymbol{x} = \boldsymbol{b}'\) n'est pas compatible si la dernière coordonnée de \(\boldsymbol{b}' \in \mathbb{R}^m\) est non nulle. En conséquence, il existe un \(\boldsymbol{b} \in \mathbb{R}^m\) tel que \([T] \boldsymbol{x} = \mathbf{0}\) n'est pas compatible, comme on voulait démontrer. Finalement, on note que les conditions (v) et (vi) sont équivalentes, vu qu'il existe une ligne nulle dans la forme échelonnée réduite si et seulement si une ligne de la forme échelonnée réduite n'a pas de pivot.
Exemple: Montrons que l'application \(T:\mathbb{R}^3\to \mathbb{R}^3\) associée à la matrice \[ A= \begin{pmatrix} 2&0&-1\\ 1&-1&0\\ 3&2&1 \end{pmatrix} \] est surjective et injective. Pour ce faire, on va calculer la forme échelonnée réduite de \(A\). On voit bien que \[\begin{aligned} A&= \begin{pmatrix} 2&0&-1\\ 1&-1&0\\ 3&2&1 \end{pmatrix} \overset{L_1 \leftrightarrow L_2}{\longrightarrow} \begin{pmatrix} 1&-1&0\\ 2&0&-1\\ 3&2&1 \end{pmatrix} \overset{ \substack{ L_2 \leftarrow L_2 - 2 L_1 \\ L_3 \leftarrow L_3 - 3 L_1 } }{\longrightarrow} \begin{pmatrix} 1&-1&0\\ 0&2&-1\\ 0&5&1 \end{pmatrix} \overset{L_3 \leftarrow L_3 - 2 L_2}{\longrightarrow} \begin{pmatrix} 1&-1&0\\ 0&2&-1\\ 0&1&3 \end{pmatrix} \\ &\overset{L_2 \leftrightarrow L_3}{\longrightarrow} \begin{pmatrix} 1&-1&0\\ 0&1&3\\ 0&2&-1 \end{pmatrix} \overset{ \substack{ L_1 \leftarrow L_1 + L_2 \\ L_3 \leftarrow L_3 - 2 L_2 } }{\longrightarrow} \begin{pmatrix} 1&0&3\\ 0&1&3\\ 0&0&-7 \end{pmatrix} \overset{L_3 \leftarrow \, -\frac{1}{7} L_3}{\longrightarrow} \begin{pmatrix} 1&0&3\\ 0&1&3\\ 0&0&1 \end{pmatrix} \overset{ \substack{ L_1 \leftarrow L_1 - 3 L_3 \\ L_2 \leftarrow L_2 - 3 L_3 } }{\longrightarrow} \begin{pmatrix} 1&0&0\\ 0&1&0\\ 0&0&1 \end{pmatrix}. \end{aligned}\] Comme chaque ligne de la forme échelonnée réduite de \(A\) possède un pivot, l'application linéaire \( T \) associée à \(A\) est surjective: \(\mathrm{Im} (T)=\mathbb{R}^3\). Elle aussi injective, vu que la chaque colonne de la forme échelonnée réduite de \(A\) possède un pivot.
Exemple: L'application \(T:\mathbb{R}^2\to \mathbb{R}^4\) associée à une matrice \[ A= \begin{pmatrix} a&\alpha\\ b&\beta\\ c&\gamma\\ d&\delta \end{pmatrix} \] ne peut pas être surjective, puisque ce n'est pas possible qu'une matrice de taille \(4 \times 2\) ait un pivot par ligne. De façon équivalente, deux vecteurs de \(\mathbb{R}^4\) ne suffisent jamais pour engendrer \(\mathbb{R}^4\).
Pour montrer le premier énoncé, on note que si \(T\) est une application linéaire injective, le premier Théorème section nous dit que \([T]\) possède un pivot par colonne, ce qui implique que la quantité de colonnes est inférieure ou égal à la quantité de lignes de \([T]\), i.e. \(n \leqslant m\). Pour montrer le deuxième énoncé, on note que si \(T\) est une application linéaire surjective, le dernier Théorème cette section nous dit que \([T]\) possède un pivot par ligne, ce qui implique que la quantité de lignes est inférieure ou égal à la quantité de colonnes de \([T]\), i.e. \(n \geqslant m\). Pour montrer le dernière résultat, on utilise qu'un application linéaire bijective est injective et surjective, ce qui implique \(n \leqslant m\) et \(n \geqslant m\) par les items précédents, i.e. \(n = m\).
Théorème: Soit \(T: \mathbb{R}^n \to \mathbb{R}^m\) une application linéaire. Les conditions suivantes sont équivalentes:
On montre d'abord que (i) implique les items (ii) et (iii). Le dernier item de la Proposition précédente nous dit que si \(T\) est bijective, alors \(n = m\). En outre, la définition d'application bijective nous dit que \(T\) est injective et surjective, ce qui montre que (ii) et (iii) sont des conséquences de la condition (i). On montre maintenant que la condition (ii) implique (i). Comme \(T\) est injective, la forme échelonnée réduite de \([T]\) admet un pivot par colonne. En outre, comme \(n = m\), la forme échelonnée réduite de \([T]\) est carrée, et la condition sur les pivots dans chaque colonne nous dit alors que la forme échelonnée réduite admet aussi un pivot par ligne, ce qui implique que \(T\) est sujective, d'après le deuxième Théorème dans cette section, et en conséquence \(T\) est bijective, comme on voulait démontrer. On va prouver maintenant que la condition (iii) implique (i). Comme \(T\) est surjective, la forme échelonnée réduite de \([T]\) admet un pivot par ligne. En outre, comme \(n = m\), la forme échelonnée réduite de \([T]\) est carrée, et la condition sur les pivots dans chaque ligne nous dit alors que la forme échelonnée réduite admet aussi un pivot par colonne, ce qui implique que \(T\) est injective, d'après le premier Théorème dans cette section, et en conséquence \(T\) est bijective, comme on voulait démontrer. Finalement, on montre que les conditions (i) et (iv) sont équivalentes. On va montrer d'abord que la condition (i) implique la condition (iv). Si \(T\) est bijective, alors elle est surjective, et d'après le deuxième Théorème dans cette section, pour tout \(\boldsymbol{b} \in \mathbb{R}^{m}\), le système linéaire \([T]\boldsymbol{x} = \boldsymbol{b}\) est compatible. En plus, comme \(T\) est bijective, alors elle est injective, et d'après le premier Théorème dans cette section, le système linéaire \([T]\boldsymbol{x} = \mathbf{0}\) admet uniquement la solution triviale \(\boldsymbol{x} = \mathbf{0}\). La Proposition dans la Section (cliquer) nous dit maintenant que le système linéaire \([T]\boldsymbol{x} = \boldsymbol{b}\) admet une unique solution, comme on voulait démontrer. Pour finir, on va prouver que la condition (iv) implique la condition (i). D'après le deuxième Théorème dans cette section, l'application \(T\) est surjective, tandis que la condition (iv) appliquée à \(\boldsymbol{b} = \mathbf{0}\) et le premier Théorème dans cette section nous disent que \(T\) est injective. En conséquence, \(T\) est bijective, comme on voulait démontrer.