Estas notas se basan en las transparencias de A. M. Robles Pérez.
Sea $V$ un $\mathbb{R}$-espacio vectorial. Un producto escalar en $V$ es una aplicación
\[\langle \cdot, \cdot \rangle \ : V \times V \rightarrow \mathbb{R}\]que verifica las siguientes propiedades;
$\langle \mathbf{u}, \mathbf{v} \rangle = \langle \mathbf{v},\mathbf{u} \rangle$ para todo $\mathbf{u}, \mathbf{v}\in V$;
$\langle \mathbf{u}, \mathbf{v}+\mathbf{w} \rangle = \langle \mathbf{u}, \mathbf{v} \rangle + \langle \mathbf{u}, \mathbf{w} \rangle$ para todo $\mathbf{u}, \mathbf{v},\mathbf{w}\in V$;
$\langle \mathbf{u}, \alpha v \rangle = \alpha \langle \mathbf{u}, \mathbf{v} \rangle$ para todo $\mathbf{u}, \mathbf{v}\in V$ y todo $\alpha\in\mathbb{R}$;
$\langle \mathbf{u}, \mathbf{u} \rangle \geq 0$ para todo $\mathbf{u}\in V$;
$\langle \mathbf{u}, \mathbf{u} \rangle = 0$ si, y sólo si, $\mathbf{u}=\mathbf{0}.$
$\langle \mathbf{u}, \mathbf{v} \rangle = {u}_1 {v}_1+\cdots+{u}_n {v}_n,$ para cualesquiera $\mathbf{u}=({u}_1,\ldots,{u}_n)$ y $\mathbf{v}=({v}_1,\ldots, {v}_n)\in \mathbb{R}^n.$
$\langle f,g \rangle = \displaystyle\int_a^b f(x) g(x) dx,$ para cualesquiera $f$ y $g$ funciones continuas en $[a,b].$
En particular, $\langle p,q \rangle = \displaystyle\int_a^b p(x) q(x) dx,$ para cualesquiera $p,q\in \operatorname{P}_n(\mathbb{R})$ (polinomios en una variable con coeficientes en $\mathbb{R}$ y de grado a lo sumo $n$) y $a,b\in\mathbb{R}.$
$\langle A,B \rangle = \sum\limits_{i=1}^n \sum\limits_{j=1}^m a_{ij}b_{ij},$ para cualesquiera $A=(a_{ij}), B=(b_{ij})\in \mathcal{M}_{n\times m}(\mathbb{R}).$
Un espacio vectorial $V$ dotado de un producto escalar $\langle \cdot, \cdot \rangle$ se denomina espacio vectorial euclídeo y se denota por $(V;\langle \cdot, \cdot \rangle).$
Sean $(V;\langle \cdot, \cdot \rangle)$ un espacio vectorial euclídeo y $\mathbf{u}, \mathbf{v}\in V.$ Entonces se define la norma del vector $\mathbf{u}$ como
\[\Vert u\Vert=\sqrt{\langle \mathbf{u}, \mathbf{u} \rangle}.\]Un vector $\mathbf{u}$ se dice unitario si $\Vert u\Vert=1.$
Para todo $\mathbf{v}\in V$ y $a\in K,$
Dados $\mathbf{u},\mathbf{v}\in V,$
\[\vert\langle \mathbf{u},\mathbf{v}\rangle | \le \Vert \mathbf{u}\Vert \Vert \mathbf{v}\Vert.\]Como consecuencia de la desigualdad de Cauchy-Schwartz obtenemos que
\[\begin{aligned} \Vert \mathbf{u}+\mathbf{v}\Vert^2& =\langle \mathbf{u},\mathbf{u}\rangle+\langle \mathbf{u},\mathbf{v}\rangle +\langle\mathbf{v},\mathbf{u}\rangle+\langle\mathbf{v},\mathbf{v}\rangle=\langle\mathbf{u},\mathbf{u}\rangle+\langle\mathbf{v},\mathbf{v}\rangle+2\langle \mathbf{u}, \mathbf{v}\rangle \\ & \le \Vert \mathbf{u}\Vert^2+ \Vert \mathbf{v}\Vert^2+2\Vert \mathbf{u}\Vert \Vert\mathbf{v}\Vert=(\Vert \mathbf{u}\Vert +\Vert\mathbf{v}\Vert)^2, \end{aligned}\]desigualdad que se conoce como desigualdad de Minkowski.
Dados $\mathbf{u},\mathbf{v}\in V,$
\[\Vert \mathbf{u}+\mathbf{v}\Vert \le \Vert \mathbf{u}\Vert + \Vert \mathbf{v}\Vert.\]En virtud de la desigualdad de Cauchy-Schwartz, podemos definir el ángulo que determinan dos vectores no nulos $\mathbf{u}$ y $\mathbf{v}$ como el ángulo $\measuredangle(\mathbf{u},\mathbf{v})\in [0,\pi]$ tal que
\[\cos(\measuredangle(\mathbf{u},\mathbf{v}))=\frac{\langle \mathbf{u}, \mathbf{v} \rangle}{\Vert u\Vert \Vert v\Vert}.\]Decimos que dos vectores, $\mathbf{u}$ y $\mathbf{v},$ son vectores ortogonales si $\langle \mathbf{u}, \mathbf{v} \rangle=0,$ y lo denotamos escribiendo $\mathbf{u} \perp \mathbf{v}.$
Sean $B=\lbrace\mathbf{v}_1,\ldots, \mathbf{v}_n\rbrace$ una base de $V.$ Decimos que $B$ es una base ortogonal de $V$ si sus vectores son ortogonales dos a dos; es decir, si $\langle \mathbf{v}_i, \mathbf{v}_j \rangle=0$ para todo $i\neq j.$
Decimos que $B$ es una base ortonormal de $V$ si es una base ortogonal y, además, todos sus vectores son unitarios; es decir, si $\langle \mathbf{v}_i, \mathbf{v}_j \rangle=0$ para todo $i\neq j,$ y $\Vert \mathbf{v}_i\Vert=1$ para todo $i\in\lbrace 1,\ldots,n\rbrace.$
Si $B=\lbrace\mathbf{v}_1,\ldots, \mathbf{v}_n\rbrace$ es una base ortonormal de $V,$ entonces para todo $\mathbf{u}\in V$ se verifica que
\[\mathbf{u}=\langle \mathbf{u}, \mathbf{v}_1 \rangle \mathbf{v}_1 + \langle \mathbf{u}, \mathbf{v}_2 \rangle \mathbf{v}_2 + \cdots + \langle \mathbf{u}, \mathbf{v}_n \rangle \mathbf{v}_n,\]es decir, $\left(\langle \mathbf{u}, \mathbf{v}_1 \rangle,\langle \mathbf{u}, \mathbf{v}_2 \rangle,\ldots,\langle \mathbf{u}, \mathbf{v}_n \rangle\right)$ son las coordenadas de $\mathbf{u}$ en la base $B$ (o coeficientes de Fourier).
Sean $(V;\langle \cdot, \cdot \rangle)$ un espacio vectorial euclídeo y $B=\lbrace\mathbf{v}_1,\ldots, \mathbf{v}_n\rbrace$ una base dada de $V.$
Los vectores $\lbrace\mathbf{u}_1,\mathbf{u}_2,\ldots,\mathbf{u}_n\rbrace$ definidos por
\[\begin{aligned} \mathbf{u}_1&=\mathbf{v}_1,\\ \mathbf{u}_2&=\mathbf{v}_2-\dfrac{\langle \mathbf{v}_2, \mathbf{u}_1 \rangle}{\Vert \mathbf{u}_1\Vert^2} \mathbf{u}_1,\\ \mathbf{u}_3&=\mathbf{v}_3-\dfrac{\langle \mathbf{v}_3, \mathbf{u}_1 \rangle}{\Vert \mathbf{u}_1\Vert^2} \mathbf{u}_1-\dfrac{\langle \mathbf{v}_3, \mathbf{u}_2 \rangle}{\Vert \mathbf{u}_2\Vert^2} \mathbf{u}_2,\\ & \vdots\\ \mathbf{u}_n&=\mathbf{v}_n-\dfrac{\langle \mathbf{v}_n, \mathbf{u}_1 \rangle}{\Vert \mathbf{u}_1\Vert^2}\mathbf{u}_1 - \dfrac{\langle \mathbf{v}_n, \mathbf{u}_2 \rangle}{\Vert \mathbf{u}_2\Vert^2} \mathbf{u}_2-\dots-\dfrac{\langle \mathbf{v}_n, \mathbf{u}_{n-1} \rangle}{\Vert \mathbf{u}_{n-1}\Vert^2} \mathbf{u}_{n-1}, \end{aligned}\]forman una base ortogonal de $V.$ Además,
\[\left\lbrace\frac{1}{\Vert \mathbf{u}_1\Vert}\mathbf{u}_1,\ldots,\frac{1}{\Vert \mathbf{u}_n\Vert}\mathbf{u}_n\right\rbrace\]es una base ortonormal de $V.$
Sean $(V;\langle \cdot, \cdot \rangle)$ un espacio vectorial euclídeo y $U$ un subespacio vectorial de $V.$ Un vector $\mathbf{v}\in V$ se dice ortogonal a $U$ si es ortogonal a todo vector de $U,$ lo que se denota por $\mathbf{v}\perp U.$
El conjunto $U^\perp$ formado por todos los vectores ortogonales a $U$ es un subespacio vectorial de $V.$
El subespacio $U^\perp$ se denomina complemento ortogonal de $U$ (respecto de $V$).
Sea $S=\lbrace\mathbf{u}_1,\ldots,\mathbf{u}_m\rbrace$ una base de $U.$ Entonces, por linealidad, tenemos que
\[\mathbf{v}\perp U \text{ si, y sólo si, } \langle \mathbf{v}, \mathbf{u}_i \rangle=0 \text{ para todo } i\in\lbrace 1,\ldots,m\rbrace.\]Imponiendo estas $m$ condiciones a un vector genérico $\mathbf{v}\in V$ obtendremos las ecuaciones cartesianas de $U^\perp.$ Por tanto
\[\dim(U^\perp)=n-m.\]Consideremos el subespacio vectorial $U \subseteq \mathbb{R}^4$ generado por los vectores $\left\lbrace (6,3,2,0),(4,1,0,-2) \right\rbrace.$ Entonces las ecuaciones cartesianas de $U^\perp$ son
\[\left\lbrace \begin{array}{r} 6x_1+3x_2+2x_3=0, \\ 4x_1+x_2-2x_4=0. \end{array}\right.\]Además, $\left\lbrace (1,-4,3,0),(1,-2,0,1) \right\rbrace$ es una base de $U^\perp.$
En un espacio vectorial euclídeo $(V;\langle \cdot, \cdot \rangle),$ consideremos un conjunto de vectores linealmente independientes $S=\lbrace\mathbf{u} _1,\ldots,\mathbf{u} _m \rbrace \subset V.$ Además, sean $U=\mathcal{L}(S)$ y $\lbrace\mathbf{u} _{m+1},\ldots,\mathbf{u} _n \rbrace$ una base de $U^\perp.$
Si $\mathbf{v}\in V,$ entonces
\[\mathbf{v}=a_1 \mathbf{u}_1+\cdots+a_m \mathbf{u}_m+ a_{m+1}\mathbf{u}_{m+1}+\cdots+a_n \mathbf{u}_n\]y, por tanto, $\mathbf{v}=\mathbf{u}+\mathbf{w}$ con
\[\begin{aligned} \mathbf{u}&=a_1 \mathbf{u}_1+\cdots+a_m \mathbf{u}_m\in U,\\ \mathbf{w}=\mathbf{v}-\mathbf{u}&=a_{m+1}\mathbf{u}_{m+1}+\cdots+a_n \mathbf{u}_n\in U^\perp. \end{aligned}\]Se llama proyección ortogonal de $\mathbf{v}$ sobre $U$ al (único) vector $\mathbf{u}\in U$ tal que $(\mathbf{v}-\mathbf{u})\perp U,$ al que denotaremos por $\mathbf{u}=p_U(\mathbf{v}).$
Para obtener $\mathbf{u}=p_U(\mathbf{v})$ podemos distinguir dos situaciones posibles.
Consideramos $\lbrace\mathbf{u}_1,\ldots,\mathbf{u}_n\rbrace$ base ortogonal de $(V;\langle \cdot, \cdot \rangle)$ tal que $\lbrace\mathbf{u} _1,\ldots,\mathbf{u} _m\rbrace$ es base de $U$ y $\lbrace\mathbf{u} _{m+1},\ldots,\mathbf{u} _n\rbrace$ es base de $U^\perp.$
Si $\mathbf{v}\in V,$ entonces
\[\begin{aligned} \mathbf{v} = & \dfrac{\langle \mathbf{v}, \mathbf{u} _1 \rangle}{\Vert \mathbf{u} _1\Vert^2}\mathbf{u} _1+\cdots+\dfrac{\langle \mathbf{v}, \mathbf{u} _m \rangle}{\Vert \mathbf{u} _m\Vert^2}\mathbf{u} _m \\ & + \dfrac{\langle \mathbf{v}, \mathbf{u} _{m+1} \rangle}{\Vert \mathbf{u} _{m+1}\Vert^2}\mathbf{u} _{m+1}+\cdots+\dfrac{\langle \mathbf{v}, \mathbf{u} _n \rangle}{\Vert \mathbf{u} _n\Vert^2}\mathbf{u} _n. \end{aligned}\]Por tanto, la proyección ortogonal de $\mathbf{v}$ sobre $U$ es
\[p_U(v)=\dfrac{\langle \mathbf{v}, \mathbf{u} _1 \rangle}{\Vert \mathbf{u} _1\Vert^2}\mathbf{u} _1+\cdots+\dfrac{\langle \mathbf{v}, \mathbf{u} _m \rangle}{\Vert \mathbf{u} _m\Vert^2}\mathbf{u} _m.\]Supongamos ahora que $(V;\langle \cdot, \cdot \rangle)$ es un espacio vectorial euclídeo y que $S=\lbrace\mathbf{u}_1,\ldots,\mathbf{u}_m\rbrace$ es una base (no necesariamente ortogonal) de un subespacio vectorial $U$ de $V.$
Si $\mathbf{v}\in V$ y $\mathbf{u}=p_U(\mathbf{v}),$ entonces $\langle \mathbf{v}-\mathbf{u}, \mathbf{w} \rangle=0$ para todo $\mathbf{w}\in U.$ Por tanto, $\langle \mathbf{v}-\mathbf{u}, \mathbf{u}_j \rangle=0$ para todo $j\in \lbrace 1,\dots,m\rbrace.$
Ahora, si $\mathbf{u}=a_1 \mathbf{u}_1+\cdots+a_m \mathbf{u}_m,$ entonces
\[\langle \mathbf{v}-a_1\mathbf{u}_1-\cdots-a_m \mathbf{u}_m,\mathbf{u}_j \rangle=0, j\in\lbrace 1,\ldots,m\rbrace,\]es decir, $a_1,\dots,a_m$ es solución del sistema
\[\left\lbrace\begin{array}{cl} \langle \mathbf{u}_1,\mathbf{u}_1 \rangle x_1 + \cdots + \langle \mathbf{u}_m,\mathbf{u}_1 \rangle x_m & = \ \langle \mathbf{v},\mathbf{u}_1 \rangle, \\ & \ \vdots \\ \langle \mathbf{u}_1,\mathbf{u}_m \rangle x_1 + \cdots + \langle \mathbf{u}_m,\mathbf{u}_m \rangle x_m & = \ \langle \mathbf{v},\mathbf{u}_m \rangle. \end{array}\right.\]A la matriz de coeficientes de este sistema
\[G = \begin{pmatrix} \langle \mathbf{u}_1,\mathbf{u}_1 \rangle & \cdots & \langle \mathbf{u}_m,\mathbf{u}_1 \rangle \\ \vdots & & \vdots \\ \langle \mathbf{u}_1,\mathbf{u}_m \rangle & \cdots & \langle \mathbf{u}_m,\mathbf{u}_m \rangle \end{pmatrix},\]se le conoce como matriz de Gram de $\langle \cdot,\cdot\rangle$ asociada a la base $\lbrace\mathbf{u}_1,\ldots,\mathbf{u}_m\rbrace$ de $U.$
Si $B=\lbrace\mathbf{v}_1,\dots,\mathbf{v}_n\rbrace$ es una base de $V,$ y $G$ es la matriz de Gram de $\langle \cdot,\cdot\rangle$ respecto de esa base, para cualesquiera $\mathbf{u}$ y $\mathbf{v}$ de $V$ con coordenadas $(u_1,\dots,u_n)$ y $(v_1,\dots,v_n),$ se tiene que
\[\langle \mathbf{u},\mathbf{v}\rangle =(u_1,\dots,u_n)\ G \begin{pmatrix} v_1\\ \vdots\\ v_n \end{pmatrix}.\]Nótese que si $\mathbf{u}$ y $\mathbf{v}$ son ortogonales, entonces
\[\Vert \mathbf{u}+\mathbf{v}\Vert^2=\langle \mathbf{u},\mathbf{u}\rangle+\langle \mathbf{u},\mathbf{v}\rangle +\langle\mathbf{v},\mathbf{u}\rangle+\langle\mathbf{v},\mathbf{v}\rangle=\langle\mathbf{u},\mathbf{u}\rangle+\langle\mathbf{v},\mathbf{v}\rangle=\Vert \mathbf{u}\Vert^2+ \Vert \mathbf{v}\Vert^2.\]Sea $\mathbf{v}$ un vector cualquiera de un espacio vectorial $V$ y $\mathbf{u}$ un elemento cualquiera de de un subespacio $U.$ Entonces
\[\Vert \mathbf{v}-\mathbf{u} \Vert = \Vert \mathbf{v}-p_U(\mathbf{v})+p_U(\mathbf{v})-\mathbf{u} \Vert,\]y como $\mathbf{v}-p_U(\mathbf{v})\in U^\perp$ y $p_U(\mathbf{v})-\mathbf{w}\in U,$ aplicando el Teorema de Pitágoras tenemos que
\[\Vert \mathbf{v}-\mathbf{u} \Vert^2 = \Vert \mathbf{v}-p_U(\mathbf{v)}\Vert^2+\Vert p_U(\mathbf{v})-\mathbf{u} \Vert^2,\]cantidad que es siempre mayor o igual que $\Vert \mathbf{v}-p_U(\mathbf{v})\Vert^2$; se da la igualdad si y sólo si $p_ U(\mathbf{v})=\mathbf{u}.$ Tenemos así demostrado el Teorema de Mejor Aproximación.
Dados $\mathbf{v}\in V$ y $U$ un subespacio vectorial, se tiene que para todo $\mathbf{u}\in U,$
\[\Vert \mathbf{v}- p_U(\mathbf{v})\Vert \le \Vert \mathbf{v}-\mathbf{u}\Vert,\]dándose la igualdad para $\mathbf{u}=p_U(\mathbf{v}).$
Sea $(V,\langle,\rangle)$ un espacio vectorial euclídeo. Un endomorfismo $f:V\to V$ se dice simétrico (o autoadjunto) si para todo $\mathbf{u},\mathbf{v}\in V$ se tiene que
\[\langle f(\mathbf{u}),\mathbf{v}\rangle =\langle \mathbf{u},f(\mathbf{v})\rangle.\]Si $B=\lbrace \mathbf{e} _1,\dots,\mathbf{e} _n\rbrace$ es una base ortonormal de $V,$ y $A=\mathcal{M}(f;B),$ entonces $a _{ij}=\langle f(\mathbf{e} _j),\mathbf{e}_i\rangle=\langle \mathbf{e} _j,f(\mathbf{e} _i) \rangle=a _{ji},$ y por tanto $A$ es simétrica.
El recíproco también es cierto pues si $A$ es simétrica, entonces si $x$ y $y$ son las coordenadas de $\mathbf{u}$ y $\mathbf{v},$ respectivamente, tenemos que $\langle f(\mathbf{u}),\mathbf{v}\rangle = (Ax)^ty=x^tA^ty=x^t(Ay)=\langle \mathbf{u},f(\mathbf{v})\rangle.$
El endomorfismo $f$ es autoadjunto si y sólo si su matriz respecto de una base ortonormal es simétrica.
Sea $A\in \mathcal{M}_n(\mathbb{R})$ simétrica. Supongamos que $\lambda=a+i b$ es un valor propio complejo de $A.$ Existen $x,y\in \mathbb{R}^n$ tales que $A(x+iy)=(a+ib)(x+iy).$ Por tanto,
\[Ax+iAy=A(x+iy)=(a+ib)(x+iy)=(ax-yb)+i(bx+ay).\]Igualando parte real con parte imaginaria, obtenemos $Ax=ax-yb$ y $Ay=bx+ay.$ Usamos ahora que $A$ es simétrica (y por tanto su endomorfismo asociado es autoadjunto)
\[\begin{aligned} \langle Ax ,y\rangle & =\langle ax-yb,y\rangle =a\langle x,y\rangle - b \langle y,y\rangle,\\ \langle x, Ay\rangle &= \langle x, bx+ay\rangle =b\langle x,x\rangle + a \langle x,y\rangle. \end{aligned}\]Como $\langle Ax,y\rangle =\langle x,Ay\rangle,$ tenemos que
\[0=b(\langle x,x\rangle +\langle y,y\rangle),\]y como $\langle x,x\rangle + \langle y,y\rangle >0,$ deducimos que $b=0.$ Tenemos así el siguiente resultado.
Todos los valores propios de una matriz simétrica con entradas reales son reales.
Supongamos ahora que $\lambda_1,\dots,\lambda_m$ son todos los valores propios (reales) de $A.$ Como $\lambda_i\neq \lambda_j$ con $i\neq j,$ si $\mathbf{v}\in V_{\lambda_i}\cap V_{\lambda_j}$ y $x$ son las coordenadas de $\mathbf{v},$ tenemos que $Ax=\lambda_ix=\lambda_jx,$ por lo que $x=0$ y $\mathbf{v}=0.$ Esto quiere decir que $V_{\lambda_i}\cap V_{\lambda_j}=\lbrace\mathbf{0}\rbrace.$ De esta forma la suma $V_{\lambda_1}+\dots+V_{\lambda_m}$ es directa. Sea $U=V_{\lambda_1}\oplus \dots \oplus V_{\lambda_m}.$
Si $f$ es el endomorfismo que viene determinado por $A,$ entonces $f(U)\subseteq U.$ Es más, por ser $f$ autoadjunto, si $\mathbf{u}\in U$ y $\mathbf{v}\in U^\perp,$ por ser $f(\mathbf{u})\in U,$ se tiene que $0=\langle \mathbf{v},f(\mathbf{u})\rangle= \langle f(\mathbf{v}),\mathbf{u}\rangle,$ por lo que $f(\mathbf{v})\in U^\perp,$ esto es, $f(U^\perp)\subseteq U^\perp.$ Si $U^\perp\neq \lbrace \mathbf{0}\rbrace,$ entonces $f$ restringido a $U^\perp$ tendrá al menos una valor propio $\lambda.$ Si $\mathbf{v}$ es un vector propio asociado a $\lambda,$ $f(\mathbf{v})=\lambda\mathbf{v},$ por lo que $\lambda\in \lbrace\lambda_1,\dots,\lambda_m\rbrace,$ lo que lleva a $\mathbf{v}\in U\cap U^\perp=\lbrace\mathbf{0}\rbrace,$ lo que es absurdo. Por tanto $U^\perp=\lbrace \mathbf{0}\rbrace$ y $U=\mathbb{R}^n.$ Acabamos de probar el siguiente resultado.
Toda matriz simétrica con entradas reales es diagonalizable.
Veamos ahora que los subespacios propios son además ortogonales entre sí. Si $\lambda$ y $\mu$ son dos valores distintos de $A$ (simétrica con entradas reales), y $\mathbf{u}$ y $\mathbf{v}$ son vectores propios asociados a $\lambda$ y $\mu$ respectivamente, entonces
\[\begin{aligned} \langle f(\mathbf{u}),\mathbf{v}\rangle &=\lambda \langle \mathbf{u},\mathbf{v}\rangle,\\ \langle \mathbf{u},f(\mathbf{v})\rangle &= \mu\langle \mathbf{u},\mathbf{v}\rangle, \end{aligned}\]con $f$ el endomorfismo determinado por $A.$ Como $f$ es autoadjunto, $(\lambda-\mu)\langle \mathbf{u},\mathbf{v}\rangle=0,$ y al ser $\lambda\neq \mu,$ concluimos que $\langle \mathbf{u},\mathbf{v}\rangle=0.$
Esto nos permite escoger dentro de cada subespacio asociado a cada valor propio de $A$ una base ortonormal. Al juntarlas todas obtenemos una base ortonormal de $V,$ y tenemos que la expresión de $f$ en esa base ortonormal es diagonal. Si llamamos $P$ a la matriz de paso (sus columnas son las coordenadas de los vectores de nuestra base ortonormal), entonces $P P^t=I_n,$ por lo que $P^{-1}=P^t.$ Estas matrices se denominan ortogonales.
Si $A$ es una matriz simétrica con entradas reales, entonces existen $P$ ortogonal y una matriz diagonal $D$ tales que $D=P^tAP.$
Sea
\[A=\begin{pmatrix} 1 & 1 \\ 1 & -1 \end{pmatrix}.\]Entonces, $D=Q^{-1}AQ,$ con
\[Q=\begin{pmatrix}1 - \sqrt{2} & 1 + \sqrt{2}\\1 & 1\end{pmatrix},\quad D=\begin{pmatrix}- \sqrt{2} & 0\\0 & \sqrt{2}\end{pmatrix}.\]Nótese que $Q$ no es ortogonal. Si tomamos $\mathbf{u}=(1-\sqrt{2},1)$ y $\mathbf{v}=(1+\sqrt{2},1),$ entonces la matriz $P$ cuyas columnas son $\frac{1}{\Vert \mathbf{u}\Vert }\mathbf{u}$ y $\frac{1}{\Vert\mathbf{v}\Vert}\mathbf{v}$ verifica que $D=P^tAP.$