Dans cette section, nous allons démontrer la propriété qui rend le déterminant réellement utile en algèbre linéaire:
Théorème: Pour toute paire de matrices \(A\) et \(B\) de taille \(n\times n\) on a \[\det(AB)=\det(A)\det(B)\,.\]
\({}^{{\color{red}\star}}\) On fixe \(A \in \mathbb{M}_{n \times n}(\mathbb{R})\) et on considère l'application \[\begin{aligned} \varphi : \mathbb{M}_{n \times n}(\mathbb{R}) &\rightarrow \mathbb{R} \\ B &\mapsto \det(A B)\,. \end{aligned}\] Or, on remarque que \(\varphi\) est multilinéaire et alternée. En effet, si l'on écrit \(B\) à partir de ses colonnes via \(B = [\boldsymbol{b}_1 \cdots \boldsymbol{b}_n]\), alors \[\begin{aligned} \varphi\big(A [\boldsymbol{b}_1 \cdots \boldsymbol{b}'_k + \lambda \boldsymbol{b}''_k \cdots \boldsymbol{b}_n]\big) &= \varphi\big([A \boldsymbol{b}_1 \cdots A(\boldsymbol{b}'_k + \lambda \boldsymbol{b}''_k) \cdots A\boldsymbol{b}_n]\big) = \varphi\big([A \boldsymbol{b}_1 \cdots A\boldsymbol{b}'_k + \lambda A\boldsymbol{b}''_k \cdots A\boldsymbol{b}_n]\big) \\ &= \varphi\big([A \boldsymbol{b}_1 \cdots A\boldsymbol{b}'_k \cdots A\boldsymbol{b}_n]\big) + \lambda \varphi\big([A \boldsymbol{b}_1 \cdots A\boldsymbol{b}''_k \cdots A\boldsymbol{b}_n]\big)\,, \end{aligned}\] où l'on a utilisé dans la dernière égalité que \(\varphi\) est multilinéaire. En outre, si \(B\) possède deux colonnes égales, par exemple \(B = [\boldsymbol{b}_1 \cdots \boldsymbol{b}_i \cdots \boldsymbol{b}_j \cdots \boldsymbol{b}_n]\) avec \(\boldsymbol{b}_i = \boldsymbol{b}_j\), alors \[ \varphi\big(A [\boldsymbol{b}_1 \cdots \boldsymbol{b}_i \cdots \boldsymbol{b}_j \cdots \boldsymbol{b}_n]\big) = \varphi\big([A\boldsymbol{b}_1 \cdots A\boldsymbol{b}_i \cdots A\boldsymbol{b}_j \cdots A\boldsymbol{b}_n]\big) = 0, \] où l'on a utilisé dans la dernière égalité que \(\varphi\) est alternée et \(A \boldsymbol{b}_i = A \boldsymbol{b}_j\). En plus, \(\varphi(I_n) = \det(A I_n) = \det(A)\). Par la dernière partie du dernier Théorème %(cliquer) dans la Section (cliquer) avec \(c = \det(A)\), on conclut que \[ \det(AB) = \varphi(B) = \det(A) \det(B), \] comme on voulait démontrer.
La preuve ci-dessus (voir les passages en gras) a comme conséquence la généralisation que nous espérions, à savoir celle du critère que nous avions établi pour les matrices \(2\times 2\):
Théorème: Une matrice carrée \(A\) est inversible si et seulement si \(\det(A)\neq 0\).
On suppose que \(A\) est inversible, ce qui nous dit qu'il existe une matrice \(A^{-1}\) de taille \(n \times n\) telle que \( A^{-1} A = I_n\). Le Théorème précédent nous dit que \[ \det(A^{-1}) \det(A) = \det(A^{-1} A) = \det(I_n) = 1, \] ce qui implique que \(\det(A) \neq 0\), comme on voulait démontrer. On suppose maintenant que \(A\) n'est pas inversible. On va montrer que \(\det(A) = 0\). Notons \(\widetilde{E}^{(1)}, \dots,\widetilde{E}^{(l)}\) les transformations qui réduisent \(A\). Dans ce cas, \(A\) ne peut pas être réduite à l'identité. On note \(\widetilde A\) la forme échelonnée réduite. Comme \[ \widetilde A =\widetilde{E}^{(l)}\cdots \widetilde{E}^{(1)}A \] n'est pas la matrice identité, c'est une matrice triangulaire supérieure possédant au moins un zéro sur sa diagonale. Ceci implique que son déterminant est nul, \(\det(\widetilde{A})=0\). On peut donc écrire que \[0= \det(\widetilde A)= \det(\widetilde{E}^{(l)})\cdots \det(\widetilde{E}^{(1)})\det(A)\,. \] Comme \(\det(\widetilde{E}^{(i)})\neq 0\) pour tout \(i\), on en déduit que \(\det(A)=0\). On a donc démontré que si \(A\) n'est pas inversible, alors \(\det(A)= 0\), comme on voulait démontrer.
Exemple: La matrice \[ A= \begin{pmatrix} 1&1&1&1&1&1&1\\ 1&1&0&0&0&0&0\\ 1&0&1&0&0&0&0\\ 1&0&0&1&0&0&0\\ 1&0&0&0&1&0&0\\ 1&0&0&0&0&1&0\\ 1&0&0&0&0&0&1 \end{pmatrix} \] est inversible, puisqu'en soustrayant à la première colonne la somme de toutes les autres, \[\begin{aligned} \det(A) &= \det \begin{pmatrix} -5&1&1&1&1&1&1\\ 0&1&0&0&0&0&0\\ 0&0&1&0&0&0&0\\ 0&0&0&1&0&0&0\\ 0&0&0&0&1&0&0\\ 0&0&0&0&0&1&0\\ 0&0&0&0&0&0&1 \end{pmatrix}\\ &= (-5) \det \begin{pmatrix} 1&0&0&0&0&0\\ 0&1&0&0&0&0\\ 0&0&1&0&0&0\\ 0&0&0&1&0&0\\ 0&0&0&0&1&0\\ 0&0&0&0&0&1 \end{pmatrix}\\ &=-5\neq 0\,. \end{aligned}\]
L'utilisation du déterminant permet maintenant d'étudier l'inversibilité de matrices contenant un paramètre, en évitant de devoir étudier un système.
Exemple:
Pour quelles valeurs du paramètre \(t\) la matrice
\[
A=
\begin{pmatrix}
0&t&-1\\
t&10&0\\
t-1&1&t
\end{pmatrix}
\]
est-elle inversible?
En développant selon la première colonne,
\[\begin{aligned}
\det(A)
&=(-1)t\det
\begin{pmatrix}
t&-1\\
1&t
\end{pmatrix}
+(t-1)\det
\begin{pmatrix}
t&-1\\
10&0
\end{pmatrix}\\
&=
(-t)(t^2+1)+10(t-1)\\
&=-t^3+9t-10\,.
\end{aligned}\]
On sait sait donc que \(A\) est inversible si et seulement si \(t\) n'est pas
racine du polynôme \(P(t)=-t^3+9t-10\).
On remarque que \(t=2\) est racine de \(P\), ce qui permet de factoriser (par
division Euclidienne par exemple):
\[
P(t)=(t-2)(-t^2-2t+5)\,.
\]
Comme les racines de \(-t^2-2t+5\) sont \(-1\pm\sqrt{6}\), on en déduit que
\(A\) est inversible si et seulement si \(t\not \in
\{2,-1-\sqrt{6},-1+\sqrt{6}\}\).
Lorsque \(A\) est inversible, \(AA^{-1}=I_n\), et la formule démontrée plus haut permet d'écrire \[ 1 = \det(I_n) = \det(AA^{-1}) = \det(A)\det(A^{-1}) \,, \] qui donne: \[ \boxed{ \det(A^{-1})=\frac{1}{\det(A)}\,. } \]
Exemple: Les matrices \[ A= \begin{pmatrix} 1&1\\ 0&0 \end{pmatrix} \qquad \text{ et } \qquad B= \begin{pmatrix} 1&0\\ 0&0 \end{pmatrix} \] sont semblables. En effet, en prenant \(M= \begin{pmatrix}1&1\\0&1\end{pmatrix}\), qui est inversible, on obtient \[ M^{-1}BM= \begin{pmatrix} 1&-1\\ 0&1 \end{pmatrix} \begin{pmatrix} 1&0\\ 0&0 \end{pmatrix} \begin{pmatrix} 1&1\\ 0&1 \end{pmatrix} = \begin{pmatrix} 1&1\\ 0&0 \end{pmatrix} =A\,. \]
(On dit que le déterminant est un invariant de similitude.)
\[\begin{aligned} \det(A) &=\det(M^{-1}BM)\\ &=\det(M^{-1})\det(B)\det(M)\\ &=\det(B)\det(M^{-1})\det(M)\\ &=\det(B)\det(M^{-1}M)\\ &=\det(B)\det(I_n)\\ &=\det(B)\,. \end{aligned}\]
Le déterminant peut donc être utilisé pour démontrer à moindre frais que deux matrices ne sont pas semblables:
Exemple: Les matrices \[ A= \begin{pmatrix} 2&0&0\\ 1&0&-1\\ 0&3&1 \end{pmatrix} \qquad\text{ et }\qquad B= \begin{pmatrix} 1&0&1\\ 0&2&13\\ 0&0&-1 \end{pmatrix} \] ne sont pas semblables, car \(\det(A)=6\) (en développant selon la première ligne), alors que \(\det(B)=-2\).