Commençons par une propriété élémentaire du produit scalaire:
Lemme: Soit \(B\) une matrice \(n\times n\) quelconque. Alors pour tous \(\boldsymbol{x},\boldsymbol{y}\in\mathbb{R}^n\), \[ (B\boldsymbol{x})\cdotp \boldsymbol{y}=\boldsymbol{x}\cdotp(B^T\boldsymbol{y})\,. \] En particulier, si \(B\) est symétrique, alors \[ (B\boldsymbol{x})\cdotp \boldsymbol{y}=\boldsymbol{x}\cdotp(B\boldsymbol{y})\,. \]
Par l'interprétation matricielle du produit scalaire, \[ (B\boldsymbol{x})\cdotp \boldsymbol{y}= (B\boldsymbol{x})^T\boldsymbol{y}=\boldsymbol{x}^TB^T\boldsymbol{y}=\boldsymbol{x}^T(B^T\boldsymbol{y})= \boldsymbol{x}\cdotp(B^T\boldsymbol{y})\,.\]
Une conséquence immédiate:
Supposons que \(G\) est orthogonale. Par le lemme précédent, \[ (G\boldsymbol{x})\cdotp(G\boldsymbol{y})=\boldsymbol{x}\cdotp(G^TG\boldsymbol{y}) =\boldsymbol{x}\cdotp\boldsymbol{y}\,. \] La deuxième identité s'obtient en prenant \(\boldsymbol{y}=\boldsymbol{x}\).
Remarque: La deuxième propriété montre qu'une application linéaire définie par une matrice orthogonale est une isométrie, c'est-à-dire qu'elle ne change pas la longueur d'un vecteur (seulement sa direction).
Exemple: Un exemple typique d'isométrie est la rotation d'angle \(\theta\) dans le plan:
On sait que pour une matrice quelconque, des vecteurs propres associés à des valeurs propres distinctes sont indépendants. Pour une matrice symétrique, cette propriété est vérifiée dans un sens plus fort:
Si \(A\boldsymbol{v}_1=\lambda_1\boldsymbol{v}_1\), \(A\boldsymbol{v}_2=\lambda_2\boldsymbol{v}_2\), alors \[\begin{aligned} \lambda_1(\boldsymbol{v}_1\cdotp\boldsymbol{v}_2) =(\lambda_1\boldsymbol{v}_1)\cdotp\boldsymbol{v}_2 &=(A\boldsymbol{v}_1)\cdotp\boldsymbol{v}_2\\ &=\boldsymbol{v}_1\cdotp(A\boldsymbol{v}_2) =\boldsymbol{v}_1\cdotp(\lambda_2\boldsymbol{v}_2) =\lambda_2(\boldsymbol{v}_1\cdotp\boldsymbol{v}_2)\,, \end{aligned}\] qui implique \((\lambda_1-\lambda_2)(\boldsymbol{v}_1\cdotp\boldsymbol{v}_2)=0\). Donc si \(\lambda_1\neq \lambda_2\), on a forcément que \(\boldsymbol{v}_1\cdotp\boldsymbol{v}_2=0\).
Dans l'exemple suivant, nous vérifierons ce résultat sur un exemple concret, et nous observerons encore une propriété qui sera énoncée comme un résultat général dans la prochaine section.
Exemple: Étudions les espaces propres de la matrice symétrique \[ A= \begin{pmatrix} 3&-2&4\\ -2&6&2\\ 4&2&3 \end{pmatrix}\,. \] On calcule son polynôme caractéristique, \[\begin{aligned} P_A(\lambda) &=\det \begin{pmatrix} 3-\lambda&-2&4\\ -2&6-\lambda&2\\ 4&2&3-\lambda \end{pmatrix}\\ &=\det \begin{pmatrix} 7-\lambda&-2&4\\ 0&6-\lambda&2\\ 7-\lambda&2&3-\lambda \end{pmatrix}\\ &=\det \begin{pmatrix} 7-\lambda&-2&4\\ 0&6-\lambda&2\\ 0&4&-1-\lambda \end{pmatrix}\\ &=-(\lambda+2)(\lambda-7)^2\,. \end{aligned}\] Donc \(A\) possède deux valeurs propres, \(\lambda_1=-2\) et \(\lambda_2=7\). Les espaces propres associés se calculent facilement:
Nous verrons, dans la section suivante, que ce que nous avons fait sur ce dernier exemple peut se faire avec n'importe quelle matrice symétrique.