7.3 Le cas \(2\times 2\)

Avant de nous attaquer au problème général d'une matrice \(n\times n\), attardons-nous sur le cas \(2\times 2\). Même si ce cas est le plus simple, il va nous permettre de présenter quelques notions qui seront réutilisées dans d'autres chapitres.

Considérons une matrice \(2\times 2\) quelconque: \[ A= \begin{pmatrix} a&b\\ c&d \end{pmatrix}\,. \] L'inversibilité de \(A\) va dépendre des valeurs des coefficients \(a,b,c,d\) bien-sûr, et l'avantage du cas \(2\times 2\) est qu'il y a une condition facilement exprimable en fonction de ces coefficients.

Théorème: \(A= \begin{pmatrix} a&b\\ c&d \end{pmatrix} \) est inversible si et seulement si son déterminant, c'est-à-dire le nombre réel défini par \[ \det(A):= ad-bc\,, \] est différent de zéro. De plus, lorsque \(\det(A)\neq 0\), l'inverse de \(A\) est donné par \[A^{-1}= \frac{1}{\det(A)} \begin{pmatrix} d&-b\\ -c&a \end{pmatrix}\,. \]

Supposons pour commencer que \(\det(A)\neq 0\). Dans ce cas, la matrice \(A^{-1}\) de l'énoncé est bien définie, et on vérifie par un calcul direct que \(AA^{-1}=A^{-1}A=I_2\). Comme l'inverse est unique, \(A^{-1}\) est bien l'inverse de \(A\).

Supposons maintenant que \(\det(A)=ad-bc=0\). Si tous les coefficients de \(A\) sont nuls, elle ne peut pas être inversible (on peut la multiplier par n'importe quoi, on n'obtiendra jamais \(I_n\)!). Supposons donc qu'au moins un de ses coefficients est non-nul, par exemple \(a\neq 0\). Dans ce cas, \(ad-bc=0\) implique \(d=\frac{bc}{a}\), et donc \[ A =\begin{pmatrix} a&b\\ c&d \end{pmatrix} =\begin{pmatrix} a&\frac{b}{a}a\\ c&\frac{b}{a}c \end{pmatrix}\,, \] ce qui implique que les colonnes de \(A\) sont colinéaires. Comme on sait, ceci implique que \(A\) n'est pas inversible.

Exemple: À titre d'illustration, considérons la matrice \(2\times 2\) déjà mentionnée au début du chapitre: \[A= \begin{pmatrix} 1&2\\ 3&4 \end{pmatrix}\,. \] Son déterminant vaut \(\det(A)=1\cdot 4-2\cdot 3=-2\neq 0\), et donc \(A\) est inversible, et son inverse est donné par la formule du théorème: \[ A^{-1}= \frac{1}{-2} \begin{pmatrix} 4&-2\\ -3&1 \end{pmatrix} = \begin{pmatrix} -2&1\\ 3/2&-1/2 \end{pmatrix}\,, \] comme nous avions déjà vérifié.

Cette expression permet maintenant de résoudre n'importe quelle équation vectorielle impliquant \(A\). En effet, le système \[ (*) \left\{ \begin{array}{ccccc} x_1 &+& 2x_2 &=& b_1\\ 3x_1 &+& 4x_2 &=& b_2 \end{array} \right. \] se formule comme \(A\boldsymbol{x}=\boldsymbol{b}\), \[ \begin{pmatrix} 1&2\\ 3&4 \end{pmatrix} \begin{pmatrix} x_1\\ x_2 \end{pmatrix} = \begin{pmatrix} b_1\\ b_2 \end{pmatrix}\,. \] En multipliant des deux côtés par \(A^{-1}\), on obtient \(\boldsymbol{x}=A^{-1}\boldsymbol{b}\), qui donne \[ \begin{pmatrix} x_1\\ x_2 \end{pmatrix} = \begin{pmatrix} -2&1\\ 3/2&1/2 \end{pmatrix} \begin{pmatrix} b_1\\ b_2 \end{pmatrix} = \begin{pmatrix} -2b_1+b_2\\ \frac32 b_1+\frac12 b_2 \end{pmatrix}\,. \]

Exemple: Considérons quelques transformations linéaires dans le plan.

Le déterminant pour des matrices plus grandes?

Plus tard, nous verrons comment la notion de déterminant peut se généraliser à des matrices carrées de tailles arbitraires, et comment celui-ci renseigne sur l'inversibilité d'une matrice. Pour l'instant, restons-en à l'étude de l'inversibilité, sans déterminant, en nous tournant vers le cas \(n\times n\).