4.6 Applications linéaires

Dans cette section, nous généralisons la notion d'application linéaire, au cas d'une application d'un espace vectoriel \(V\) (de départ) dans un espace vectoriel \(V'\) (d'arrivée):

Rappelons que pour \(v\in V\), l'élément \(v'=T(v)\in V'\) est appelé l'image de \(v\), et \(v\) est une préimage de \(v'\).

Étant des espaces vectoriels, \(V\) et \(V'\) possèdent chacun un zéro; on les notera \(0\in V\) et \(0'\in V'\) pour les distinguer. Par contre, l'addition dans ces espaces sera toujours notée ''\(+\)'' pour ne pas trop allourdir les notations .

Généralités

Rappelons rapidement, dans ce cadre général, quelques notions élémentaires de la théorie des fonctions \(T:V\to V'\). (Si nécessaire, on pourra aller voir ici, pour d'autres exemples à propos de ces notions.)

L'ensemble image d'une application \(T:V\to V'\) est défini par l'ensemble des éléments de l'ensemble d'arrivée qui possèdent au moins une préimage: \[\mathrm{Im} (T):= \{v'\in V'\,|\,\exists\, v\in V\text{ tel que }T(v)=v'\}\,. \]
Une application \(T:V\to V'\) est

Remarquons que:

Applications linéaires; définition

Généralisons maintenant la notion d'application linéaire, que nous avions précédemment définie seulement dans le cas \(T:\mathbb{R}^n\to\mathbb{R}^m\):

Soient \(V\) et \(V'\) des espaces vectoriels. Une application \(T:V\to V'\) est linéaire si les deux conditions suivantes sont satisfaites:
  1. \(T(v_1+v_2)=T(v_1)+T(v_2)\) pour tous \(v_1,v_2\in V\),
  2. \(T(\lambda v)=\lambda T(v)\) pour tout \(v\in V\) et tout scalaire \(\lambda\in \mathbb{R}\).

Remarque: On peut mettre les deux conditions de la définition en une seule: une application \(T:V\to V'\) est linéaire si pour tous \(v_1,v_2\in V\), et pour tous scalaires \(\alpha,\beta,\in \mathbb{R}\), \[ T(\alpha v_1+\beta v_2)=\alpha T(v_1)+\beta T(v_2)\,. \]

Nous avons déjà vu plusieurs exemples d'applications linéaires dans le cas \(T:\mathbb{R}^n\to\mathbb{R}^m\). Rappelons le plus important:

Exemple: Si \(A\) est une matrice réelle \(m\times n\), alors l'application \[\begin{aligned} T:\mathbb{R}^n&\to\mathbb{R}^m \\ \boldsymbol{x}&\mapsto T(\boldsymbol{x}):= A\boldsymbol{x} \end{aligned}\] est linéaire.

Exemple: Soit \(V\) l'espace des fonctions \(f:[a,b]\to \mathbb{R}\), soit \(V'=\mathbb{R}^2\), et soit \(T:V\to V'\) définie ainsi: pour tout \(f\in V\), \[ T(f):= \begin{pmatrix} f(a)\\ f(b) \end{pmatrix}\,. \] Alors \(T\) est linéaire. En effet, si \(f,g\in V\), \(\alpha,\beta\in\mathbb{R}\), alors \[\begin{aligned} T(\alpha f+\beta g) &= \begin{pmatrix} (\alpha f+\beta g)(a)\\ (\alpha f+\beta g)(b) \end{pmatrix}\\ &= \begin{pmatrix} \alpha f(a)+\beta g(a)\\ \alpha f(b)+\beta g(b) \end{pmatrix}\\ &= \alpha \begin{pmatrix} f(a)\\ f(b)\end{pmatrix}+ \beta \begin{pmatrix} g(a)\\ g(b)\end{pmatrix}\\ &= \alpha T(f)+\beta T(g)\,. \end{aligned}\]

Exemple: Soit \(V=C([a,b])\) l'espace des fonctions (à valeurs réelles) continues sur \([a,b]\), et soit \(V'=\mathbb{R}^2\). Soit \(c\in ]a,b[\) un point fixé et soit \(T:V\to V'\) définie ainsi: pour tout \(f\in V\), \[ T(f):= \begin{pmatrix} \displaystyle \int_a^c f(t)\,dt\\ \displaystyle \int_c^b f(t)\,dt \end{pmatrix}\,. \] Alors \(T\) est linéaire et surjective. (voir exercices)

Linéarité de l'application ''composantes''

On peut maintenant en dire plus sur l'application fondamentale:

Lemme: Soit \(\mathcal{B}=(v_1,\dots,v_p)\) une base d'un sous-espace vectoriel \(W\). L'application \([\cdot]_\mathcal{B}\), qui associe à \(w\) le vecteur de \(\mathbb{R}^p\) formé des composantes de \(w\) relativement à \(\mathcal{B}\), \[\begin{aligned} [\cdot]_\mathcal{B}:W&\to \mathbb{R}^p\\ w&\mapsto [w]_\mathcal{B} \end{aligned}\] est linéaire et bijective.

En exercice.

Noyau

Lorsqu'une application \(T:V\to V'\) est linéaire, plusieurs choses peuvent être dites à son sujet.

Par exemple, la linéarité implique que le zéro est toujours envoyé sur le zéro: \[ T(0)=0'\,. \] En effet, en écrivant \(0=0+0\) et en utilisant la linéarité, \[ T(0)=T(0+0)=T(0)+T(0)=(1+1)T(0)=2T(0)\,, \] ce qui implique bien que \(T(0)=0'\).

Si \(0\) est toujours envoyé sur \(0'\), il se pourrait aussi que d'autres éléments de \(V\) soient aussi envoyés sur \(0'\):

Le noyau d'une application \(T:V\to V'\) est l'ensemble de toutes les préimages de \(0'\): \[ \mathrm{Ker}(T):=\{v\in V\,|\,T(v)=0'\}\,. \]

On a vu plus haut que le noyau contient toujours le zéro de \(V\). On peut en dire un peu plus:

Lemme: Une application linéaire \(T:V\to V'\) est injective si et seulement si son noyau ne contient que le zéro: \(\mathrm{Ker}(T)=\{0\}\).

Supposons d'abord que \(T\) est injective. Considérons un \(v\in \mathrm{Ker}(T)\), c'est-à-dire tel que \(T(v)=0'\). Comme on sait que \(T(0)=0'\), on a donc \(T(v)=T(0)\), et l'injectivité implique que \(v=0\). Donc \(\mathrm{Ker}(T)=\{0\}\).

Supposons maintenant que \(\mathrm{Ker}(T)=\{0\}\). Considérons \(v_1,v_2\in V\) tels que \(T(v_1)=T(v_2)\). Par linéarité, ceci implique \(T(v_1-v_2)=0'\), et donc \(v_1-v_2\in \mathrm{Ker}(T)\), et donc \(v_1-v_2=0\), ce qui implique \(v_1=v_2\). Donc \(T\) est injective.

Exemple: Soit \(T:V\to \mathbb{R}^2\) l'application linéaire définie plus haut; pour \(f:[a,b]\to\mathbb{R}\), \[ T(f):= \begin{pmatrix} f(a)\\ f(b) \end{pmatrix}\,. \] Le noyau de cette application est formé de toutes les fonctions \(f\) pour lesquelles \[ T(f)=\boldsymbol{0}= \begin{pmatrix} 0\\ 0 \end{pmatrix}\,, \] c'est-à-dire \[ \mathrm{Ker}(T)=\{f:[a,b]\to \mathbb{R}\,:\,f(a)=f(b)=0\}\,. \] Ce noyau contient en particulier la fonction identiquement nulle bien-sûr, mais aussi une infinité de fonctions non-nulles:

Donc \(T\) n'est pas injective.

Finalement, notons que le noyau et l'image sont des sous-ensembles stables de \(V\) et \(V'\), respectivement:

Lemme: Si \(T:V\to V'\) est linéaire, alors

Commençons par le noyau:

  • On a vu que \(T(0)=0'\), ce qui signifie que \(0\in \mathrm{Ker}(T)\).
  • Si \(v_1,v_2\in \mathrm{Ker}(T)\), et \(\alpha,\beta\in \mathbb{R}\), alors la linéarité de \(T\) implique \[ T(\alpha v_1+\beta v_2)=\alpha \underbrace{T(v_1)}_{=0'} +\beta \underbrace{T(v_2)}_{=0'}=0'\,, \] et donc \(\alpha v_1+\beta v_2\in \mathrm{Ker}(T)\).
Pour \(\mathrm{Im} (T)\), voir les exercices.

Lemme: Si \(T:V\to V'\) est linéaire et bijective, alors sa réciproque \(T^{-1}:V'\to V\) est aussi linéaire.

(Voir exercices.)

Images de bases et bijections

Théorème: Soit \(T:V\to V'\) une application linéaire. Alors \(T\) est bijective si et seulement si l'image d'une base \(\mathcal{B}=(v_1,\dots,v_p)\) de \(V\), notée \(T(\mathcal{B})=(T(v_1),\dots,T(v_p))\), est une base de \(V'\).

Supposons que \(T\) est bijective, et considérons une base de \(V\), \(\mathcal{B}=(v_1,\dots,v_p)\). Montrons que \(T(\mathcal{B}):= (T(v_1),\dots,T(v_p))\) est une base.

  • Soit \(v'\) un vecteur quelconque de \(V'\). Puisque \(T\) est surjective, il existe \(v\in V\) tel que \(v'=T(v)\). Si on décompose \(v=\alpha_1v_1+\cdots+\alpha_pv_p\), on a \[ v'=T(v)=\alpha_1 T(v_1)+\cdots+\alpha_p T(v_p)\,. \] Ceci signifie que \(T(\mathcal{B})\) engendre \(V'\).
  • Considérons une combinaison linéaire nulle, \[ 0=\lambda_1 T(v_1)+\cdots +\lambda_p T(v_p)=T(\alpha_1v_1+\cdots +\alpha_pv_p)\,. \] Puisque \(T\) est injective, on a \(\alpha_1v_1+\cdots +\alpha_pv_p=0\), et comme \(\mathcal{B}\) est une base, on en déduit que \(\alpha_1=\dots=\alpha_p=0\). Donc \(T(\mathcal{B})\) est libre.
Supposons ensuite que \(\mathcal{B}=(v_1,\dots,v_p)\) est une base de \(V\), et que son image \(T(\mathcal{B}):= (T(v_1),\dots,T(v_p))\) est une base de \(V'\).
  • Soit \(v\in V\) tel que \(T(v)=0\). Puisqu'on peut décomposer \(v\) sur la base \(\mathcal{B}\), \(v=\alpha_1v_1+\cdots+\alpha_pv_p\), on a \[ 0=T(v)=\alpha_1 T(v_1)+\cdots +\alpha_p T(v_p)\,. \] Puisque \(T(\mathcal{B})\) est une base, \(\alpha_1=\cdots=\alpha_p=0\). Donc \(v=0\), ce qui implique que \(T\) est injective.
  • Soit \(v'\in V'\), que l'on peut décomposer sur \(T(\mathcal{B})\): \[v'=\lambda_1 T(v_1)+\cdots+\lambda_p T(v_p)=T(\lambda_1v_1+\cdots+\lambda_pv_p)\,,\] qui implique que \(v'\in \mathrm{Im} (T)\). Donc \(T\) eset surjective.
Donc \(T\) est bijective.