Un des axiomes qui définit le corps des
nombres réels est qu'il existe pour tout réel
\(a\neq 0\) un inverse, à savoir un nombre noté \(a^{-1}\) tel que
\[
aa^{-1}=a^{-1}a=1\,,
\]
ou le nombre ''\(1\)'' est l'élément neutre pour la multiplication dans les
réels (c'est-à-dire que \(x\cdot 1=1\cdot x=x\) pour tout \(x\in \mathbb{R}\)).
C'est à l'aide de la notion d'inverse que l'on résout une équation du genre
\[
ax=b\,,
\]
où \(a\neq 0\).
En effet, en multipliant des deux côtés de l'équation par \(a^{-1}\),
on trouve
\[
\underbrace{a^{-1}a}_{=1}x=a^{-1}b\,,
\]
et donc \(x=a^{-1}b\).
Pour les matrices, on aimerait idéalement pouvoir résoudre un système linéaire
\[ A\boldsymbol{x}=\boldsymbol{b}
\]
de la même façon.
En effet, si on sait qu'il existe
une matrice \(A^{-1}\) telle que \(A^{-1}A=I_n\),
alors en multipliant à gauche des deux côtés de l'équation vectorielle
ci-dessus,
\[
\underbrace{A^{-1}A}_{=I_n}\boldsymbol{x}=A^{-1}\boldsymbol{b}\,,
\]
qui donne \(\boldsymbol{x}=A^{-1}\boldsymbol{b}\).
Cette approche peut sembler élégante,
mais elle présuppose qu'il existe une matrice \(A^{-1}\) telle que
\(A^{-1}A=I_n\). Or une telle matrice n'existe pas toujours, comme nous verrons.
En effet, pouvoir isoler \(\boldsymbol{x}\), dans l'équation ''\(A\boldsymbol{x}=\boldsymbol{b}\)'',
en multipliant juste
par une matrice bien choisie, mène à une solution unique
\(\boldsymbol{x}=A^{-1}\boldsymbol{b}\), et implique
en particulier que la solution du système
\(A\boldsymbol{x}=\boldsymbol{b}\) est unique, ce qui n'arrive que dans certains cas
(Théorème ''\(0,1,\infty\)'').
Dans ce chapitre, on se propose donc de
chercher des conditions sur \(A\) qui garantissent
l'existence de \(A^{-1}\); c'est le problème de l'inversibilité.
Nous verrons aussi plusieurs façons d'obtenir une expression explicite pour
\(A^{-1}\).
Voyons le problème d'un point de vue un peu plus général.
Soit \( T : \mathbb{R}^n \rightarrow \mathbb{R}^m\) une application linéaire et soit \(A = [T] \) sa matrice canonique.
Pouvoir isoler \(\boldsymbol{x}\) dans \(T(\boldsymbol{x})=A\boldsymbol{x}=\boldsymbol{b}\) signifie,
en termes d'application linéaire,
que l'on cherche à récupérer la préimage de \(\boldsymbol{b}\). Pour que cette préimage
soit bien définie et unique pour tout \(\boldsymbol{b}\in \mathbb{R}^m\), il faut que \(T\)
soit bijective.
Or nous avons vu dans le dernier Théorème
dans la Section (cliquer)
qu'une application linéaire
\( T : \mathbb{R}^n \rightarrow \mathbb{R}^m\) ne peut être bijective que si \(n = m\).
En plus, on a aussi vu dans le deuxième Lemme
dans la Section (cliquer)
que dans ce cas la réciproque
\(T^{-1}:\mathbb{R}^n\to\mathbb{R}^n\) est également linéaire.
On peut donc lui associer une unique matrice \(B = [T^{-1}]\):
\[
T^{-1}(\boldsymbol{y})=B\boldsymbol{y}\,.
\]
Alors, les relations \(T \circ T^{-1} = \mathrm{id}_{\mathbb{R}^n}\) et
\(T^{-1} \circ T = \mathrm{id}_{\mathbb{R}^n}\) avec
la propriété de la composée
et \([\mathrm{id}_{\mathbb{R}^n}] = I_n\) nous disent que
\[\begin{aligned}
A B &= [T] [T^{-1}] = [T \circ T^{-1}] = [\mathrm{id}_{\mathbb{R}^n}] = I_n\,,
\\
B A &= [T^{-1}] [T] = [T^{-1} \circ T] = [\mathrm{id}_{\mathbb{R}^n}] = I_n\,.
\end{aligned}\]
La matrice \(B\) sera appelée matrice inverse de \(A\).
D'après la discussion précédente, on ne peut parler d'inverse que pour des
matrices carrées, c'est à dire ayant autant de lignes que de colonnes.
Remarque: Puisque deux matrices \(A\) et \(B\) ne commutent a priori pas, la condition ''\(AB=BA=I_n\)'' représente en fait deux conditions, à savoir \(AB=I_n\) et \(BA=I_n\).
On remarque que la bijectivité d'une application linéaire est équivalente à l'inversibilité de sa matrice canonique.
Lemme: Une application linéaire \( T : \mathbb{R}^n \rightarrow \mathbb{R}^n\) est bijective si et seulement si sa matrice canonique \( [T] \) est inversible.
En effet, on sait que si \( T \) est bijective, alors \( A := [T] \) est une matrice inversible. Réciproquement, si \( A := [T] \) est une matrice inversible, et soit \( B \) la matrice inverse, alors l'application linéaire \( S : \mathbb{R}^n \rightarrow \mathbb{R}^n\) donnée par \(S(\boldsymbol{x}) = B \boldsymbol{x}\) pour \(\boldsymbol{x} \in \mathbb{R}^n\) satisfait que \[\begin{aligned} [\mathrm{id}_{\mathbb{R}^n}] = I_n &= A B = [T] [S] = [T \circ S]\,, \\ [\mathrm{id}_{\mathbb{R}^n}] = I_n &= B A = [S] [T] = [S \circ T]\,, \end{aligned}\] ce qui implique \(T \circ S = \mathrm{id}_{\mathbb{R}^n}\) et \(S \circ T = \mathrm{id}_{\mathbb{R}^n}\), et en conséquence \(T\) est inversible, i.e. bijective.
Exemple: La matrice \(A= \begin{pmatrix} 1&2\\ 3&4 \end{pmatrix} \) est inversible. En effet, en définissant \[ B:= \begin{pmatrix} -2&1\\ 3/2&-1/2 \end{pmatrix}\, , \] on remarque que \[ AB= \begin{pmatrix} 1&2\\ 3&4 \end{pmatrix} \begin{pmatrix} -2&1\\ 3/2&-1/2 \end{pmatrix} = \begin{pmatrix} 1&0\\ 0&1 \end{pmatrix} =I_2\,, \] et que \[ BA= \begin{pmatrix} -2&1\\ 3/2&-1/2 \end{pmatrix} \begin{pmatrix} 1&2\\ 3&4 \end{pmatrix} = \begin{pmatrix} 1&0\\ 0&1 \end{pmatrix} =I_2\,. \] Donc \(A\) est inversible, et son inverse est \(A^{-1}=B\).
Dans cet exemple, on a juste vérifié que \(A\) était inversible en vérifiant que le produit de \(A\) avec \(B\) donnait bien la matrice identité. Mais en général, on aimerait des critères qui nous permettent d'étudier une matrice donnée \(A\), de savoir si elle est inversible ou pas, et si oui de calculer son inverse.
Exemple: La matrice \(A= \begin{pmatrix} 0&0\\ 1&1 \end{pmatrix} \) est singulière. En effet, quelle que soit \(B\) une matrice de taille \(2\times 2\), le coefficient \((AB)_{1,1}\) est toujours égal à \(0\), et donc \(AB\) ne peut pas être égale à \(I_2\). Cet exemple montre qu'il ne suffit pas de ne pas être identiquement nulle pour ne pas être inversible.
Listons encore quelques propriétés de base de la matrice inverse.
Considérons un système de taille \(n\times n\), \[ A\boldsymbol{x}=\boldsymbol{b}\,, \] dans lequel la matrice \(A\) est inversible. On peut alors résoudre cette équation en multipliant les deux côtés de l'inégalité ci-dessus par \(A^{-1}\), \[ \underbrace{A^{-1}A}_{=I_n}\boldsymbol{x}=A^{-1}\boldsymbol{b}\,, \] qui donne directement la solution \[\boldsymbol{x}=A^{-1}\boldsymbol{b}\,.\] Si cette méthode peut paraître élégante, elle a le désavantage (en plus de ne pouvoir être appliquée que lorsque \(A\) est inversible) d'être plus coûteuse en termes de calcul, puisqu'elle requiert le calcul de l'inversè de la matrice \(A\).