Voyons le problème d'un point de vue un peu plus général.
Pouvoir isoler \(\boldsymbol{x}\) dans \(T(\boldsymbol{x})=A\boldsymbol{x}=\boldsymbol{b}\) signifie,
en termes d'application linéaire,
que l'on cherche à récupérer la préimage de \(\boldsymbol{b}\). Pour que cette préimage
soit bien définie et unique pour tout \(\boldsymbol{b}\in \mathbb{R}^m\), il faut que \(T\)
soit bijective.
Or nous avons vu qu'une application linéaire
ne peut être bijective que si elle a des espaces de départ et d'arrivée de mêmes
dimensions:
\[
T:\mathbb{R}^n\to\mathbb{R}^n
\]
On peut aussi montrer que dans ce cas, la réciproque
\(T^{-1}:\mathbb{R}^n\to\mathbb{R}^n\) est également linéaire (exercice);
on peut donc lui associer une matrice:
\[
T^{-1}(\boldsymbol{y})=B\boldsymbol{y}\,.
\]
Les relations
\[\begin{aligned}
T(T^{-1}(\boldsymbol{y}))&=\boldsymbol{y}\qquad \forall \boldsymbol{y}\in \mathbb{R}^m\,,\\
T^{-1}(T(\boldsymbol{x}))&=\boldsymbol{x}\qquad \forall \boldsymbol{x}\in \mathbb{R}^n\,.
\end{aligned}\]
s'expriment donc, en termes des matrices et du produit matriciel,
\[\begin{aligned}
AB\boldsymbol{y}&=\boldsymbol{y}\qquad \forall \boldsymbol{y}\in \mathbb{R}^m\,,\\
BA\boldsymbol{x}&=\boldsymbol{x}\qquad \forall \boldsymbol{x}\in \mathbb{R}^n\,.
\end{aligned}\]
Or ces deux dernières conditions peuvent s'exprimer simplement par
\[AB=I_n\,,\qquad BA=I_n\,.\]
La matrice \(B\) sera appelée inverse de \(A\).
Par la discussion précédente, on ne peut parler d'inverse que pour des
matrices carrées, c'est à dire ayant autant de lignes que de colonnes.
Remarque: Puisque deux matrices \(A\) et \(B\) ne commutent a priori pas, la condition ''\(AB=BA=I_n\)'' représente en fait deux conditions, à savoir \(AB=I_n\) et \(BA=I_n\).
Exemple: La matrice \(A= \begin{pmatrix} 1&2\\ 3&4 \end{pmatrix} \) est inversible. En effet, en définissant \[ B:= \begin{pmatrix} -2&1\\ 3/2&-1/2 \end{pmatrix}\, , \] on remarque que \[ AB= \begin{pmatrix} 1&2\\ 3&4 \end{pmatrix} \begin{pmatrix} -2&1\\ 3/2&-1/2 \end{pmatrix} = \begin{pmatrix} 1&0\\ 0&1 \end{pmatrix} =I_2\,, \] et que \[ BA= \begin{pmatrix} -2&1\\ 3/2&-1/2 \end{pmatrix} \begin{pmatrix} 1&2\\ 3&4 \end{pmatrix} = \begin{pmatrix} 1&0\\ 0&1 \end{pmatrix} =I_2\,. \] Donc \(A\) est inversible, et son inverse est \(A^{-1}=B\).
Dans cet exemple, on a juste vérifié que \(A\) était inversible en vérifiant que le produit de \(A\) avec \(B\) donnait bien la matrice identité. Mais en général, on aimerait des critères qui nous permettent d'étudier une matrice donnée \(A\), de savoir si elle est inversible ou pas, et si oui de calculer son inverse.
Exemple: La matrice \(A= \begin{pmatrix} 0&0\\ 1&1 \end{pmatrix} \) est singulière. En effet, quelle que soit \(B\) (\(2\times 2\)), le coefficient \((AB)_{11}\) est toujours égal à \(0\), et donc \(AB\) ne peut pas être égale à \(I_2\). Cet exemple montre qu'il ne suffit pas de ne pas être identiquement nulle pour ne pas être inversible.
Listons encore quelques propriétés de base de la matrice inverse.
Considérons un système \(n\times n\), \[ A\boldsymbol{x}=\boldsymbol{b}\,, \] dans lequel la matrice \(A\) est inversible. On peut alors résoudre cette équation em multipliant les deux côtés de l'inégalité ci-dessus par \(A^{-1}\), \[ \underbrace{A^{-1}A}_{=I_n}\boldsymbol{x}=A^{-1}\boldsymbol{b}\,, \] qui donne directement la solution \[\boldsymbol{x}=A^{-1}\boldsymbol{b}\,.\] Si cette méthode peut paraître élégante, elle a le désavantage (en plus de ne pouvoir être appliquée que lorsque \(A\) est inversible) d'être plus coûteuse en termes de calcul, puisqu'elle