Lorsque \(E\) est de Type I, \(E=T_{i\leftrightarrow j}\),
la matrice \(T_{i\leftrightarrow j}B\) étant \(B\) avec les lignes \(i\) et
\(j\) échangées, on a
\[
\det(T_{i\leftrightarrow j}B)=-\det(B)
\]
En utilisant cette relation avec \(B=I_n\), on obtient en particulier
\[
\det(T_{i\leftrightarrow j})=-1\neq 0\,.
\]
On peut donc écrire
\[
\det(T_{i\leftrightarrow j}B) =-\det(B)
=\det(T_{i\leftrightarrow j})\det(B)\,. \]
Lorsque \(E\) est de Type II, \(E=D_i(\lambda)\) (avec \(\lambda\neq 0\)),
\(D_i(\lambda)B\) est la matrice \(B\), dans laquelle la \(i\)-ème
ligne a été multipliée par \(\lambda\), et donc
\[
\det(D_i(\lambda)B)=\lambda \det(B)\,.
\]
En utilisant cette relation avec \(B=I_n\), on obtient en particulier
\[
\det(D_i(\lambda))=\lambda\neq 0
\]
On peut donc écrire
\[ \det(D_i(\lambda)B) =\lambda \det(B)= \det(D_i(\lambda))\det(B)\,. \]
Finalement,
lorsque \(E\) est de Type III, \(E=L_{ij}(\lambda)\),
\(L_{ij}(\lambda)B\) est la matrice \(B\), dans laquelle on a
rajouté \(\lambda\) fois la \(j\)-ème ligne à la \(i\)-ème.
On sait que cette opération ne modifie pas le déterminant, et donc
\[
\det(L_{ij}(\lambda)B)=\det(B)\,.
\]
En prenant \(B=I_n\), ceci donne en particulier
\[
\det(L_{ij}(\lambda))=1\neq 0\,,
\]
et donc aussi
\[
\det(L_{ij}(\lambda)B)=\det(L_{ij}(\lambda))\det(B)\,.
\]
La proposition est démontrée.
Preuve du théorème
Pour montrer que
\(\det(AB)=\det(A)\det(B)\) est vraie généralement,
on va distinguer deux cas:
Si \(A\) est inversible:
Dans cas, \(A\) peut s'écrire
comme un produit de matrices élémentaires: \(A=E^{(k)}\cdots E^{(1)}\).
Ceci permet d'écrire, en utilisant \(k-1\) fois la proposition,
\[\begin{aligned}
\det(A)
&=\det(E^{(k)}\cdots E^{(1)})\\
&=\det(E^{(k)})\det(E^{(k-1)}\cdots E^{(1)})\\
&=\det(E^{(k)})\det(E^{(k-1)})\det(E^{(k-2)}\cdots E^{(1)})\\
&\phantom{=}\vdots\\
&=\det(E^{(k)})\cdots \det(E^{(1)})\,.
\end{aligned}\]
En particulier, puisque les déterminants des
matrices élémentaires de ce produit sont tous
non-nuls, on a montré que
si \(A\) est inversible, alors \(\det(A)\neq 0\).
Mais en reproduisant essentiellement le même calcul,
\[\begin{aligned}
\det(AB)
&=\det(E^{(k)}\cdots E^{(1)}B)\\
&=\underbrace{\det(E^{(k)})\det(E^{(k-1)})\cdots\det(E^{(1)})}_{=\det(A)}\det(B)\\
&=\det(A)\det(B)\,.
\end{aligned}\]
Si \(A\) est singulière:
Dans ce cas, \(A\) ne peut pas être réduite à l'identité. Notons
\(\widetilde{E}^{(1)}, \dots,\widetilde{E}^{(l)}\) les transformations qui
réduisent \(A\). Puisque
\[ \widetilde A
=\widetilde{E}^{(l)}\cdots \widetilde{E}^{(1)}A\]
n'est pas la matrice identité, c'est une matrice triangulaire supérieure
possédant au moins un zéro sur sa diagonale. Ceci implique
que son déterminant est nul, \(\det(\widetilde{A})=0\). On peut donc écrire que
\[0= \det(\widetilde A)=
\det(\widetilde{E}^{(l)})\cdots \det(\widetilde{E}^{(1)})\det(A)\,.
\]
Puisque \(\det(\widetilde{E}^{(i)})\neq 0\) pour tout \(i\),
on en déduit que \(\det(A)=0\). On a donc démontré que
si \(A\) est singulière, alors \(\det(A)= 0\).
Mais si \(A\) n'est pas inversible, alors \(AB\) n'est pas inversible non plus
(exercice), et donc \(\det(AB)=0\). La relation suivante est donc vérifiée:
\[ \underbrace{\det(AB)}_{=0}=\underbrace{\det(A)}_{=0}\det(B)\,,
\]
ce qui complète la preuve du théorème.
Déterminant et inversibilité
La preuve ci-dessus (voir les passages en gras) a comme conséquence
la généralisation que nous espérions, à savoir celle
du critère que nous avions établi pour les matrices \(2\times 2\):
Théorème:
\(A\) est inversible si et seulement si \(\det(A)\neq 0\).
Exemple:
La matrice
\[
A=
\begin{pmatrix}
1&1&1&1&1&1&1\\
1&1&0&0&0&0&0\\
1&0&1&0&0&0&0\\
1&0&0&1&0&0&0\\
1&0&0&0&1&0&0\\
1&0&0&0&0&1&0\\
1&0&0&0&0&0&1
\end{pmatrix}
\]
est inversible, puisqu'en soustrayant à la première colonne la somme de toutes
les autres,
\[\begin{aligned}
\det(A)
&=
\det
\begin{pmatrix}
-5&1&1&1&1&1&1\\
0&1&0&0&0&0&0\\
0&0&1&0&0&0&0\\
0&0&0&1&0&0&0\\
0&0&0&0&1&0&0\\
0&0&0&0&0&1&0\\
0&0&0&0&0&0&1
\end{pmatrix}\\
&=
(-5)
\det
\begin{pmatrix}
1&0&0&0&0&0\\
0&1&0&0&0&0\\
0&0&1&0&0&0\\
0&0&0&1&0&0\\
0&0&0&0&1&0\\
0&0&0&0&0&1
\end{pmatrix}\\
&=-5\neq 0
\end{aligned}\]
L'utilisation du déterminant permet maintenant d'étudier l'inversibilité de
matrices contenant un paramètre, en évitant de devoir étudier un système.
Exemple:
Pour quelles valeurs du paramètre \(t\) la matrice
\[
A=
\begin{pmatrix}
0&t&-1\\
t&10&0\\
t-1&1&t
\end{pmatrix}
\]
est-elle inversible?
En développant selon la première colonne,
\[\begin{aligned}
\det(A)
&=(-1)t\det
\begin{pmatrix}
t&-1\\
1&t
\end{pmatrix}
+(t-1)\det
\begin{pmatrix}
t&-1\\
10&0
\end{pmatrix}\\
&=
(-t)(t^2+1)+10(t-1)\\
&=-t^3+9t-10\,.
\end{aligned}\]
On sait sait donc que \(A\) est inversible si et seulement si \(t\) n'est pas
racine du polynôme \(P(t)=-t^3+9t-10\).
On remarque que \(t=2\) est racine de \(P\), ce qui permet de factoriser (par
division Euclidienne par exemple):
\[
P(t)=(t-2)(-t^2-2t+5)\,.
\]
Comme les racines de \(-t^2-2t+5\) sont \(-1\pm\sqrt{6}\), on en déduit que
\(A\) est inversible si et seulement si \(t\not \in
\{2,-1-\sqrt{6},-1+\sqrt{6}\}\).
Le déterminant de l'inverse
Lorsque \(A\) est inversible, \(AA^{-1}=I_n\), et la formule démontrée plus haut
permet d'écrire
\[
1
=
\det(I_n)
=
\det(AA^{-1})
=
\det(A)\det(A^{-1})
\,,
\]
qui donne:
\[
\boxed{
\det(A^{-1})=\frac{1}{\det(A)}\,.
}
\]
Le déterminant comme invariant de similitude
Deux matrices \(n\times n\), \(A\) et
\(B\) sont semblables si il existe une matrice \(n\times n\)
inversible \(M\) telle que
\[
A=M^{-1}BM\,.
\]
Lorsque \(A\) et \(B\) sont semblables, on note \(A\sim B\).
Exemple:
Les matrices
\[
A=
\begin{pmatrix}
1&1\\
0&0
\end{pmatrix}
\,,\qquad
B=
\begin{pmatrix}
1&0\\
0&0
\end{pmatrix}
\]
sont semblables. En effet, en prenant
\(M= \begin{pmatrix}1&1\\0&1\end{pmatrix}\),
qui est inversible, on obtient
\[
M^{-1}BM=
\begin{pmatrix} 1&-1\\ 0&1 \end{pmatrix}
\begin{pmatrix} 1&0\\ 0&0 \end{pmatrix}
\begin{pmatrix} 1&1\\ 0&1 \end{pmatrix}
=
\begin{pmatrix}
1&1\\
0&0
\end{pmatrix}
=A
\]
Si \(A\sim B\), alors \(\det(A)=\det(B)\).
(On dit que le déterminant est un invariant de similitude.)
Le déterminant peut donc être utilisé pour démontrer à moindre frais que deux
matrices ne sont pas semblables:
Exemple: Les matrices
\[
A=
\begin{pmatrix}
2&0&0\\
1&0&-1\\
0&3&1
\end{pmatrix}
\qquad\text{ et }
B=
\begin{pmatrix}
1&0&1\\
0&2&13\\
0&0&-1
\end{pmatrix}
\]
ne sont pas semblables, car \(\det(A)=6\) (en développant selon la première
ligne), alors que
\(\det(B)=-2\).
Exemple:
Un exemple important de matrices semblables sont les matrices associées à une
application linéaire \(T:\mathbb{R}^n\to\mathbb{R}^n\), relativement à des bases différentes
\(\mathcal{B}\) et \(\mathcal{C}\). En effet, on sait que par la formule du changement de
base,
\[ [T]_\mathcal{B}={P_{\mathcal{C}\mathcal{B}}}^{-1}[T]_\mathcal{C} P_{\mathcal{C}\mathcal{B}}\,,
\]
et donc \([T]_\mathcal{B}\sim[T]_\mathcal{C}\). Par le lemme,
\[
\det([T]_\mathcal{B})=\det([T]_\mathcal{C})\,.
\]
Quiz 9.4-1 :
Soient \(A,B\) deux matrices \(n\times n\) quelconques.
Vrai ou faux?
\(\det(AB)=\det(BA)\)
Pour toute matrice inversible \(C\),
\[
\det(ABCABC^{-1}ABCABC^{-1})=\det(A)^4\det(B)^4
\]
Quiz 9.4-2 :
Vrai ou faux?
Toute matrice est semblable à elle-même.
Si deux matrices ont le même déterminant, elles sont semblables.
Si \(A\sim B\), alors il existe une matrice
\(Q\), inversible, telle que \(A=QBQ^{-1}\).
Une matrice et sa réduite sont toujours semblables.