Dans cette section, nous allons démontrer la propriété qui rend le déterminant réellement utile en algèbre linéaire:
Théorème: Pour toute paire de matrices \(n\times n\), \[\det(AB)=\det(A)\det(B)\,.\]
Nous commencerons par démontrer le résultat dans un cas particulier:
Pour montrer que \(\det(AB)=\det(A)\det(B)\) est vraie généralement, on va distinguer deux cas:
La preuve ci-dessus (voir les passages en gras) a comme conséquence la généralisation que nous espérions, à savoir celle du critère que nous avions établi pour les matrices \(2\times 2\):
Théorème: \(A\) est inversible si et seulement si \(\det(A)\neq 0\).
Exemple: La matrice \[ A= \begin{pmatrix} 1&1&1&1&1&1&1\\ 1&1&0&0&0&0&0\\ 1&0&1&0&0&0&0\\ 1&0&0&1&0&0&0\\ 1&0&0&0&1&0&0\\ 1&0&0&0&0&1&0\\ 1&0&0&0&0&0&1 \end{pmatrix} \] est inversible, puisqu'en soustrayant à la première colonne la somme de toutes les autres, \[\begin{aligned} \det(A) &= \det \begin{pmatrix} -5&1&1&1&1&1&1\\ 0&1&0&0&0&0&0\\ 0&0&1&0&0&0&0\\ 0&0&0&1&0&0&0\\ 0&0&0&0&1&0&0\\ 0&0&0&0&0&1&0\\ 0&0&0&0&0&0&1 \end{pmatrix}\\ &= (-5) \det \begin{pmatrix} 1&0&0&0&0&0\\ 0&1&0&0&0&0\\ 0&0&1&0&0&0\\ 0&0&0&1&0&0\\ 0&0&0&0&1&0\\ 0&0&0&0&0&1 \end{pmatrix}\\ &=-5\neq 0 \end{aligned}\]
L'utilisation du déterminant permet maintenant d'étudier l'inversibilité de matrices contenant un paramètre, en évitant de devoir étudier un système.
Exemple:
Pour quelles valeurs du paramètre \(t\) la matrice
\[
A=
\begin{pmatrix}
0&t&-1\\
t&10&0\\
t-1&1&t
\end{pmatrix}
\]
est-elle inversible?
En développant selon la première colonne,
\[\begin{aligned}
\det(A)
&=(-1)t\det
\begin{pmatrix}
t&-1\\
1&t
\end{pmatrix}
+(t-1)\det
\begin{pmatrix}
t&-1\\
10&0
\end{pmatrix}\\
&=
(-t)(t^2+1)+10(t-1)\\
&=-t^3+9t-10\,.
\end{aligned}\]
On sait sait donc que \(A\) est inversible si et seulement si \(t\) n'est pas
racine du polynôme \(P(t)=-t^3+9t-10\).
On remarque que \(t=2\) est racine de \(P\), ce qui permet de factoriser (par
division Euclidienne par exemple):
\[
P(t)=(t-2)(-t^2-2t+5)\,.
\]
Comme les racines de \(-t^2-2t+5\) sont \(-1\pm\sqrt{6}\), on en déduit que
\(A\) est inversible si et seulement si \(t\not \in
\{2,-1-\sqrt{6},-1+\sqrt{6}\}\).
Lorsque \(A\) est inversible, \(AA^{-1}=I_n\), et la formule démontrée plus haut permet d'écrire \[ 1 = \det(I_n) = \det(AA^{-1}) = \det(A)\det(A^{-1}) \,, \] qui donne: \[ \boxed{ \det(A^{-1})=\frac{1}{\det(A)}\,. } \]
Exemple: Les matrices \[ A= \begin{pmatrix} 1&1\\ 0&0 \end{pmatrix} \,,\qquad B= \begin{pmatrix} 1&0\\ 0&0 \end{pmatrix} \] sont semblables. En effet, en prenant \(M= \begin{pmatrix}1&1\\0&1\end{pmatrix}\), qui est inversible, on obtient \[ M^{-1}BM= \begin{pmatrix} 1&-1\\ 0&1 \end{pmatrix} \begin{pmatrix} 1&0\\ 0&0 \end{pmatrix} \begin{pmatrix} 1&1\\ 0&1 \end{pmatrix} = \begin{pmatrix} 1&1\\ 0&0 \end{pmatrix} =A \]
(On dit que le déterminant est un invariant de similitude.)
\[\begin{aligned} \det(A) &=\det(M^{-1}BM)\\ &=\det(M^{-1})\det(B)\det(M)\\ &=\det(B)\det(M^{-1})\det(M)\\ &=\det(B)\det(M^{-1}M)\\ &=\det(B)\det(I_n)\\ &=\det(B)\,. \end{aligned}\]
Le déterminant peut donc être utilisé pour démontrer à moindre frais que deux matrices ne sont pas semblables:
Exemple: Les matrices \[ A= \begin{pmatrix} 2&0&0\\ 1&0&-1\\ 0&3&1 \end{pmatrix} \qquad\text{ et } B= \begin{pmatrix} 1&0&1\\ 0&2&13\\ 0&0&-1 \end{pmatrix} \] ne sont pas semblables, car \(\det(A)=6\) (en développant selon la première ligne), alors que \(\det(B)=-2\).
Exemple: Un exemple important de matrices semblables sont les matrices associées à une application linéaire \(T:\mathbb{R}^n\to\mathbb{R}^n\), relativement à des bases différentes \(\mathcal{B}\) et \(\mathcal{C}\). En effet, on sait que par la formule du changement de base, \[ [T]_\mathcal{B}={P_{\mathcal{C}\mathcal{B}}}^{-1}[T]_\mathcal{C} P_{\mathcal{C}\mathcal{B}}\,, \] et donc \([T]_\mathcal{B}\sim[T]_\mathcal{C}\). Par le lemme, \[ \det([T]_\mathcal{B})=\det([T]_\mathcal{C})\,. \]