Avant de nous attaquer au problème général d'une matrice de taille \(n\times n\), attardons-nous sur le cas d'une matrice de taille \(2\times 2\). Même si ce cas est le plus simple, il va nous permettre de présenter quelques notions qui seront réutilisées dans d'autres chapitres.
Considérons une matrice de taille \(2\times 2\) quelconque: \[ A= \begin{pmatrix} a&b\\ c&d \end{pmatrix}\,. \] L'inversibilité de \(A\) va dépendre des valeurs des coefficients \(a,b,c,d\) bien-sûr, et l'avantage du cas \(2\times 2\) est qu'il y a une condition facilement exprimable en fonction de ces coefficients.
Théorème: \(A= \begin{pmatrix} a&b\\ c&d \end{pmatrix} \) est inversible si et seulement si son déterminant, c'est-à-dire le nombre réel défini par \[ \det(A):= ad-bc\,, \] est différent de zéro. De plus, lorsque \(\det(A)\neq 0\), l'inverse de \(A\) est donné par \[A^{-1}= \frac{1}{\det(A)} \begin{pmatrix} d&-b\\ -c&a \end{pmatrix}\,. \]
Supposons pour commencer que \(\det(A)\neq 0\). Dans ce cas, la matrice
\(A^{-1}\) de l'énoncé est bien définie, et on vérifie par un calcul direct que
\(AA^{-1}=A^{-1}A=I_2\). Comme l'inverse est unique, \(A^{-1}\) est bien
l'inverse de \(A\).
Pour montrer la réciproque, on remarque que
\[
\det(B B') = \det(B) \det(B')
\]
pour toutes matrices \(B\) et \(B'\) de taille \(2 \times 2\).
En effet, si
\[
B = \begin{pmatrix}
\alpha & \beta
\\
\gamma & \delta
\end{pmatrix}
\text{ et }
B' = \begin{pmatrix}
\alpha' & \beta'
\\
\gamma' & \delta'
\end{pmatrix},
\]
alors
\[
B B' = \begin{pmatrix}
\alpha \alpha' + \beta \gamma' & \alpha \beta' + \beta \delta'
\\
\gamma \alpha' + \delta \gamma' & \gamma \beta' + \delta \delta'
\end{pmatrix}\,,
\]
ce qui nous dit que
\[\begin{aligned}
\det(B B')
&= (\alpha \alpha' + \beta \gamma') (\gamma \beta'
+ \delta \delta')
- (\alpha \beta' + \beta \delta') (\gamma \alpha' + \delta \gamma') \\
&=
{\color{blue}\alpha \alpha' \gamma \beta'}
+ \alpha \alpha' \delta \delta'
+ \beta \gamma' \gamma \beta'
+ {\color{red}\beta \gamma' \delta \delta'}
- {\color{blue}\alpha \beta' \gamma \alpha'}
- \alpha \beta' \delta \gamma'
- \beta \delta' \gamma \alpha'
- {\color{red}\beta \delta' \delta \gamma'}\\
&= (\alpha \delta - \beta \gamma)
(\alpha' \delta' - \beta' \gamma') = \det(B) \det(B')\,.
\end{aligned}\]
Or, si \(A\) est inversible, alors \(A^{-1} A = I_2\), ce qui implique que
\[
\det(A^{-1}) \det( A) = \det(A^{-1} A) = \det(I_2) = 1
\]
et, en conséquence, \(\det(A) \neq 0\), comme on voulait démontrer.
Exemple:
À titre d'illustration, considérons la
matrice de taille \(2\times 2\) déjà mentionnée au début du chapitre:
\[A=
\begin{pmatrix} 1&2\\ 3&4 \end{pmatrix}\,.
\]
Son déterminant vaut \(\det(A)=1\cdot 4-2\cdot 3=-2\neq 0\), et donc \(A\) est
inversible, et son inverse est donné par la formule du théorème:
\[ A^{-1}=
\frac{1}{-2}
\begin{pmatrix} 4&-2\\ -3&1 \end{pmatrix}
=
\begin{pmatrix} -2&1\\ 3/2&-1/2 \end{pmatrix}\,,
\]
comme nous avions déjà vérifié.
Cette expression permet maintenant de résoudre n'importe quelle équation
vectorielle impliquant \(A\).
En effet, le système
\[
(*)
\left\{
\begin{array}{ccccc}
x_1 &+& 2x_2 &=& b_1\,,
\\
3x_1 &+& 4x_2 &=& b_2\,
\end{array}
\right.
\]
se formule comme \(A\boldsymbol{x}=\boldsymbol{b}\),
\[
\begin{pmatrix} 1&2\\ 3&4 \end{pmatrix}
\begin{pmatrix} x_1\\ x_2 \end{pmatrix}
=
\begin{pmatrix} b_1\\ b_2 \end{pmatrix}\,.
\]
En multipliant des deux côtés par \(A^{-1}\),
on obtient \(\boldsymbol{x}=A^{-1}\boldsymbol{b}\), qui donne
\[
\begin{pmatrix} x_1\\ x_2 \end{pmatrix}
=
\begin{pmatrix} -2&1\\ 3/2&1/2 \end{pmatrix}
\begin{pmatrix} b_1\\ b_2 \end{pmatrix}
=
\begin{pmatrix} -2b_1+b_2\\ \frac32 b_1+\frac12 b_2 \end{pmatrix}\,.
\]
Exemple: Considérons quelques transformations linéaires dans le plan.
Plus tard, nous verrons comment \gras{la notion de déterminant peut se généraliser à des matrices carrées de tailles arbitraires}, et comment celui-ci renseigne sur l'inversibilité d'une matrice. Pour l'instant, restons-en à l'étude de l'inversibilité, sans déterminant, en nous tournant vers le cas \(n\times n\).