6.6 La formule \(\det(AB)=\det(A)\det(B)\)

Dans cette section, nous allons démontrer la propriété qui rend le déterminant réellement utile en algèbre linéaire:

Théorème: Pour toute paire de matrices \(A\) et \(B\) de taille \(n\times n\) on a \[\det(AB)=\det(A)\det(B)\,.\]

\({}^{{\color{red}\star}}\) On fixe \(A \in \mathbb{M}_{n \times n}(\mathbb{R})\) et on considère l'application \[\begin{aligned} \varphi : \mathbb{M}_{n \times n}(\mathbb{R}) &\rightarrow \mathbb{R} \\ B &\mapsto \det(A B)\,. \end{aligned}\] Or, on remarque que \(\varphi\) est multilinéaire et alternée. En effet, si l'on écrit \(B\) à partir de ses colonnes via \(B = [\boldsymbol{b}_1 \cdots \boldsymbol{b}_n]\), alors \[\begin{aligned} \varphi\big(A [\boldsymbol{b}_1 \cdots \boldsymbol{b}'_k + \lambda \boldsymbol{b}''_k \cdots \boldsymbol{b}_n]\big) &= \varphi\big([A \boldsymbol{b}_1 \cdots A(\boldsymbol{b}'_k + \lambda \boldsymbol{b}''_k) \cdots A\boldsymbol{b}_n]\big) = \varphi\big([A \boldsymbol{b}_1 \cdots A\boldsymbol{b}'_k + \lambda A\boldsymbol{b}''_k \cdots A\boldsymbol{b}_n]\big) \\ &= \varphi\big([A \boldsymbol{b}_1 \cdots A\boldsymbol{b}'_k \cdots A\boldsymbol{b}_n]\big) + \lambda \varphi\big([A \boldsymbol{b}_1 \cdots A\boldsymbol{b}''_k \cdots A\boldsymbol{b}_n]\big)\,, \end{aligned}\] où l'on a utilisé dans la dernière égalité que \(\varphi\) est multilinéaire. En outre, si \(B\) possède deux colonnes égales, par exemple \(B = [\boldsymbol{b}_1 \cdots \boldsymbol{b}_i \cdots \boldsymbol{b}_j \cdots \boldsymbol{b}_n]\) avec \(\boldsymbol{b}_i = \boldsymbol{b}_j\), alors \[ \varphi\big(A [\boldsymbol{b}_1 \cdots \boldsymbol{b}_i \cdots \boldsymbol{b}_j \cdots \boldsymbol{b}_n]\big) = \varphi\big([A\boldsymbol{b}_1 \cdots A\boldsymbol{b}_i \cdots A\boldsymbol{b}_j \cdots A\boldsymbol{b}_n]\big) = 0, \] où l'on a utilisé dans la dernière égalité que \(\varphi\) est alternée et \(A \boldsymbol{b}_i = A \boldsymbol{b}_j\). En plus, \(\varphi(I_n) = \det(A I_n) = \det(A)\). Par la dernière partie du dernier Théorème %(cliquer) dans la Section (cliquer) avec \(c = \det(A)\), on conclut que \[ \det(AB) = \varphi(B) = \det(A) \det(B), \] comme on voulait démontrer.

Déterminant et inversibilité

La preuve ci-dessus (voir les passages en gras) a comme conséquence la généralisation que nous espérions, à savoir celle du critère que nous avions établi pour les matrices \(2\times 2\):

Théorème: Une matrice carrée \(A\) est inversible si et seulement si \(\det(A)\neq 0\).

On suppose que \(A\) est inversible, ce qui nous dit qu'il existe une matrice \(A^{-1}\) de taille \(n \times n\) telle que \( A^{-1} A = I_n\). Le Théorème précédent nous dit que \[ \det(A^{-1}) \det(A) = \det(A^{-1} A) = \det(I_n) = 1, \] ce qui implique que \(\det(A) \neq 0\), comme on voulait démontrer. On suppose maintenant que \(A\) n'est pas inversible. On va montrer que \(\det(A) = 0\). Notons \(\widetilde{E}^{(1)}, \dots,\widetilde{E}^{(l)}\) les transformations qui réduisent \(A\). Dans ce cas, \(A\) ne peut pas être réduite à l'identité. On note \(\widetilde A\) la forme échelonnée réduite. Comme \[ \widetilde A =\widetilde{E}^{(l)}\cdots \widetilde{E}^{(1)}A \] n'est pas la matrice identité, c'est une matrice triangulaire supérieure possédant au moins un zéro sur sa diagonale. Ceci implique que son déterminant est nul, \(\det(\widetilde{A})=0\). On peut donc écrire que \[0= \det(\widetilde A)= \det(\widetilde{E}^{(l)})\cdots \det(\widetilde{E}^{(1)})\det(A)\,. \] Comme \(\det(\widetilde{E}^{(i)})\neq 0\) pour tout \(i\), on en déduit que \(\det(A)=0\). On a donc démontré que si \(A\) n'est pas inversible, alors \(\det(A)= 0\), comme on voulait démontrer.

Exemple: La matrice \[ A= \begin{pmatrix} 1&1&1&1&1&1&1\\ 1&1&0&0&0&0&0\\ 1&0&1&0&0&0&0\\ 1&0&0&1&0&0&0\\ 1&0&0&0&1&0&0\\ 1&0&0&0&0&1&0\\ 1&0&0&0&0&0&1 \end{pmatrix} \] est inversible, puisqu'en soustrayant à la première colonne la somme de toutes les autres, \[\begin{aligned} \det(A) &= \det \begin{pmatrix} -5&1&1&1&1&1&1\\ 0&1&0&0&0&0&0\\ 0&0&1&0&0&0&0\\ 0&0&0&1&0&0&0\\ 0&0&0&0&1&0&0\\ 0&0&0&0&0&1&0\\ 0&0&0&0&0&0&1 \end{pmatrix}\\ &= (-5) \det \begin{pmatrix} 1&0&0&0&0&0\\ 0&1&0&0&0&0\\ 0&0&1&0&0&0\\ 0&0&0&1&0&0\\ 0&0&0&0&1&0\\ 0&0&0&0&0&1 \end{pmatrix}\\ &=-5\neq 0\,. \end{aligned}\]

L'utilisation du déterminant permet maintenant d'étudier l'inversibilité de matrices contenant un paramètre, en évitant de devoir étudier un système.

Exemple: Pour quelles valeurs du paramètre \(t\) la matrice \[ A= \begin{pmatrix} 0&t&-1\\ t&10&0\\ t-1&1&t \end{pmatrix} \] est-elle inversible?

En développant selon la première colonne, \[\begin{aligned} \det(A) &=(-1)t\det \begin{pmatrix} t&-1\\ 1&t \end{pmatrix} +(t-1)\det \begin{pmatrix} t&-1\\ 10&0 \end{pmatrix}\\ &= (-t)(t^2+1)+10(t-1)\\ &=-t^3+9t-10\,. \end{aligned}\] On sait sait donc que \(A\) est inversible si et seulement si \(t\) n'est pas racine du polynôme \(P(t)=-t^3+9t-10\). On remarque que \(t=2\) est racine de \(P\), ce qui permet de factoriser (par division Euclidienne par exemple): \[ P(t)=(t-2)(-t^2-2t+5)\,. \] Comme les racines de \(-t^2-2t+5\) sont \(-1\pm\sqrt{6}\), on en déduit que \(A\) est inversible si et seulement si \(t\not \in \{2,-1-\sqrt{6},-1+\sqrt{6}\}\).

Le déterminant de l'inverse

Lorsque \(A\) est inversible, \(AA^{-1}=I_n\), et la formule démontrée plus haut permet d'écrire \[ 1 = \det(I_n) = \det(AA^{-1}) = \det(A)\det(A^{-1}) \,, \] qui donne: \[ \boxed{ \det(A^{-1})=\frac{1}{\det(A)}\,. } \]

Le déterminant comme invariant de similitude
Deux matrices \(A\) et \(B\) de taille \(n\times n\) sont dites semblables s'il existe une matrice de taille \(n\times n\) inversible \(M\) telle que \[ A=M^{-1}BM\,. \] Lorsque \(A\) et \(B\) sont semblables, on note \(A\sim B\).

Exemple: Les matrices \[ A= \begin{pmatrix} 1&1\\ 0&0 \end{pmatrix} \qquad \text{ et } \qquad B= \begin{pmatrix} 1&0\\ 0&0 \end{pmatrix} \] sont semblables. En effet, en prenant \(M= \begin{pmatrix}1&1\\0&1\end{pmatrix}\), qui est inversible, on obtient \[ M^{-1}BM= \begin{pmatrix} 1&-1\\ 0&1 \end{pmatrix} \begin{pmatrix} 1&0\\ 0&0 \end{pmatrix} \begin{pmatrix} 1&1\\ 0&1 \end{pmatrix} = \begin{pmatrix} 1&1\\ 0&0 \end{pmatrix} =A\,. \]

Si \(A\sim B\), alors \(\det(A)=\det(B)\).

(On dit que le déterminant est un invariant de similitude.)

\[\begin{aligned} \det(A) &=\det(M^{-1}BM)\\ &=\det(M^{-1})\det(B)\det(M)\\ &=\det(B)\det(M^{-1})\det(M)\\ &=\det(B)\det(M^{-1}M)\\ &=\det(B)\det(I_n)\\ &=\det(B)\,. \end{aligned}\]

Le déterminant peut donc être utilisé pour démontrer à moindre frais que deux matrices ne sont pas semblables:

Exemple: Les matrices \[ A= \begin{pmatrix} 2&0&0\\ 1&0&-1\\ 0&3&1 \end{pmatrix} \qquad\text{ et }\qquad B= \begin{pmatrix} 1&0&1\\ 0&2&13\\ 0&0&-1 \end{pmatrix} \] ne sont pas semblables, car \(\det(A)=6\) (en développant selon la première ligne), alors que \(\det(B)=-2\).

Quiz 6.6-1 : Soient \(A,B\) deux matrices \(n\times n\) quelconques. Vrai ou faux?
  1. \(\det(AB)=\det(BA)\)
  2. Pour toute matrice inversible \(C\), \[ \det(ABCABC^{-1}ABCABC^{-1})=\det(A)^4\det(B)^4 \]
Quiz 6.6-2 : Vrai ou faux?
  1. Toute matrice est semblable à elle-même.
  2. Si deux matrices ont le même déterminant, elles sont semblables.
  3. Si \(A\sim B\), alors il existe une matrice \(Q\), inversible, telle que \(A=QBQ^{-1}\).
  4. Une matrice et sa réduite sont toujours semblables.
  5. Si \(A\sim B\), alors \(B\sim A\).