Este guión está basado en los apuntes de ALEM.
Sea $K$ un cuerpo. Diremos que un conjunto $V$ tiene estructura de espacio vectorial sobre $K$ si
en $V$ hay una operación $+$ de forma que $(V,+)$ es un grupo abeliano,
existe una aplicación $K\times V\to V,$ $(a,\mathbf{v})\mapsto a\mathbf{v}$ verificando
A los elementos de $V$ los llamamos vectores y a los de $K$ escalares. La aplicación descrita arriba se conoce como producto por escalares.
Si $K$ es un cuerpo, entonces para cualesquiera enteros positivos $n$ y $m,$
son espacios vectoriales sobre $K.$
Un subconjunto $U$ no vacío de un espacio vectorial $V$ (sobre un cuerpo $K$) es un subespacio vectorial de $V$ si
Estas dos propiedades se pueden substituir por
El conjunto $\lbrace(x,y,z)\in \mathbb{Q}^3 : x+y+z=0\rbrace$ es un subespacio vectorial de $\mathbb{Q}^3.$
Sea $V$ un espacio vectorial sobre el cuerpo $K.$ Un subespacio vectorial de $V$ es un espacio vectorial sobre $K,$ con la misma suma y producto por escalares.
Sea $S$ un subconjunto no vacío de un espacio vectorial $V.$ El subespacio vectorial de $V$ generado por $S$ es la intersección de todos los subespacios vectoriales de $V$ que contienen a $S.$ A dicho subespacio lo denotaremos por $\langle S\rangle,$ y diremos que $S$ es un sistema de generadores de $\langle S\rangle.$
Sea $V$ un espacio vectorial sobre el cuerpo $K.$ Si $S=\lbrace\mathbf{u}_1,\ldots,\mathbf{u}_n\rbrace,$ entonces
\[\langle S\rangle=\lbrace a_1\mathbf{u}_1+\cdots +a_n\mathbf{u}_n : a_1,\ldots,a_n\in K\rbrace.\]Dado un espacio vectorial $V$ sobre el cuerpo $K,$ un conjunto de vectores $S\subseteq V$ es linealmente dependiente si existen $n$ un entero positivo, $\lbrace\mathbf{v}_1,\dots,\mathbf{v}_n\rbrace\subseteq S,$ con $\mathbf{v}_i\neq \mathbf{v}_j$ para todo $i\neq j,$ y $(a_1,\ldots,a_n)\in K^n\setminus\lbrace(0,\dots,0)\rbrace$ tales que $a_1\mathbf{v}_1+\dots +a_n\mathbf{v}_n=\mathbf{0}.$ En caso contrario, decimos que $S$ es un conjunto de vectores linealmente independientes.
El conjunto $\lbrace(1,1,0),(0,1,1),(1,0,1)\rbrace\subset\mathbb{R}^3$ es un conjunto de vectores linealmente independientes. Si no lo fuese, el sistema lineal de ecuaciones
\[\begin{pmatrix} 1 & 0 & 1\\ 1 & 1 & 0\\ 0 & 1 & 1 \end{pmatrix} \begin{pmatrix} x\\ y\\ z \end{pmatrix}= \begin{pmatrix} 0\\ 0\\ 0 \end{pmatrix}\]tendría solución distinta de $x=y=z=0,$ pero esto es imposible, pues el sistema es compatible determinado, y la única solución es por tanto $x=y=z=0,$ por ser el rango de la matriz de coeficientes tres.
Nótese que el rango de la matriz de coeficientes y el de la ampliada en el sistema de ecuaciones anterior siempre es el mismo, y el número de incógnitas es el número de vectores del que partimos. Un razonamiento análogo al visto en el ejemplo muestra que $S=\lbrace \mathbf{v}_1,\dots,\mathbf{v}_m\rbrace \subseteq K^n$ es un conjunto de vectores linealmente independiente si y sólo si la matriz cuyas columnas (o filas) son los vectores de $S$ tiene rango exactamente $m.$ En particular, si son linealmente independientes, entonces $m\le n.$
De esta forma, el conjunto $\lbrace (1,2,3,4),(5,6,7,8),(9,10,11,12)\rbrace \subseteq \mathbb{Q}^4$ es un conjunto de vectores linealmente dependientes.
De hecho, haciendo operaciones elementales por filas podemos saber que relación de dependencia lineal hay entre esos vectores. La forma escalonada reducida por filas de
\[\left(\begin{array}{rrrr|rrr} 1 & 2 & 3 & 4 & 1 & 0 & 0 \\ 5 & 6 & 7 & 8 & 0 & 1 & 0 \\ 9 & 10 & 11 & 12 & 0 & 0 & 1 \end{array}\right)\]es
\[\left(\begin{array}{rrrr|rrr} 1 & 0 & -1 & -2 & 0 & -\frac{5}{2} & \frac{3}{2} \\ 0 & 1 & 2 & 3 & 0 & \frac{9}{4} & -\frac{5}{4} \\ 0 & 0 & 0 & 0 & 1 & -2 & 1 \end{array}\right).\]Por lo que el primer vector menos dos veces el segundo más el tercero es cero.
Una forma alternativa de ver esto en sagemath
es la siguiente.
$S$ es un conjunto de vectores linealmente dependientes si y sólo si existe $\mathbf{v}\in S$ tal que $\mathbf{v}\in \langle S\setminus \lbrace\mathbf{v}\rbrace\rangle.$
Si $\mathbf{0}\in S,$ entonces $S$ es un conjunto de vectores linealmente dependientes.
Si $S$ es un conjunto de vectores linealmente dependientes, entonces para todo $\mathbf{v}\in V,$ $S\cup\lbrace\mathbf{v}\rbrace$ también es un conjunto de vectores linealmente dependientes.
Si $S,$ con $\sharp S\geq 2,$ es un conjunto de vectores linealmente independientes, entonces para todo $v\in S,$ el conjunto $S\setminus \lbrace\mathbf{v}\rbrace$ también es un conjunto de vectores linealmente independientes.
Una base de $V$ es un subconjunto $S$ de vectores linealmente independientes de $V$ tal que $V=\langle S\rangle.$
Si $B=\lbrace\mathbf{v}_1,\ldots,\mathbf{v}_n\rbrace$ es una base de $V,$ entonces para todo vector $\mathbf{v}\in V,$ existen $a_1,\ldots,a_n\in K$ únicos tales que $\mathbf{v}=a_1\mathbf{v}_1+\cdots +a_n\mathbf{v}_n.$
A la $n$-upla $(a_1,\ldots,a_n)$ se le llama coordenadas del vector $\mathbf{v}$ respecto de la base $B.$ Escribiremos $\mathbf{v}\equiv (a_1,\dots,a_n)_B$ para denotar que $(a_1,\dots,a_n)$ son las coordenadas de $\mathbf{v}$ respecto de $B.$
Si $B$ es una base de un espacio vectorial $V,$ y $\mathbf{u}\equiv (a_1,\dots,a_n)_B$ y $\mathbf{v}\equiv (b_1,\dots,a_n)_B,$ entonces para todo $\lambda,\mu\in K,$
\[\lambda \mathbf{u}+\mu\mathbf{v}\equiv (\lambda a_1+\mu b_1,\dots, \lambda a_n+\mu a_n)_B,\]es decir, las coordenadas de una combinación lineal de un par de vectores son la combinación lineal de las coordenadas de esos vectores. Por tanto, una vez fijamos una base $B,$ trabajar en $V$ es equivalente a trabajar con las coordenadas de los vectores de $V$ y por tanto en $K^n.$
Todo espacio vectorial distinto de $\lbrace\mathbf{0}\rbrace$ tiene al menos una base. Además todas sus bases tienen el mismo cardinal.
Al cardinal de una base de $V$ lo denotamos por $\dim(V),$ y nos referiremos a él como la dimensión de $V.$
Si $K$ es un cuerpo, $\dim(K^n)=n,$ $\dim(\mathcal M_{m\times n}(K))=nm$ y $\dim(\lbrace a(x)\in K[x] : {\rm gr}(a(x))\le n\rbrace)=n+1.$
Si $\dim(V)=n$ y $\lbrace\mathbf{v} _1,\ldots,\mathbf{v} _m\rbrace$ es un conjunto de vectores linealmente independientes de $V,$ entonces $m\le n.$ Además existen $\mathbf{v} _{m+1},\ldots,\mathbf{v} _n\in V,$ de forma que $\lbrace\mathbf{v} _1,\ldots,\mathbf{v} _m,\mathbf{v} _{m+1},\ldots,\mathbf{v} _n\rbrace$ es una base de $V.$
Si $\dim(V)=n$ y $S=\lbrace\mathbf{v} _1,\ldots,\mathbf{v} _m\rbrace$ es un sistema de generadores de $V,$ entonces $m\ge n.$ Además existen $\mathbf{v} _{i_1},\ldots,\mathbf{v} _{i_n}\in S,$ de forma que $\lbrace\mathbf{v} _{i_1},\ldots,\mathbf{v} _{i_n}\rbrace$ es una base de $V.$
Si $\dim(V)=n,$ entonces cualquier conjunto de vectores de $V$ linealmente independientes de cardinal $n$ es una base de $V.$
Los vectores $(0,1),$ $(1,-1)$ son linealmente independientes en $\mathbb{R}^2,$ y por tanto $B=\lbrace(0,1),(1,-1)\rbrace$ es una base de $\mathbb{R}^2.$ Calculemos las coordenadas de $(5,1)$ respecto de esa base. Para eso planteamos el sistema de ecuaciones
\[\begin{pmatrix} 0 & 1 \\ 1 & -1 \end{pmatrix} \begin{pmatrix} x\\ y \end{pmatrix}= \begin{pmatrix} 5 \\ 1 \end{pmatrix}.\]Nótese que el sistema es compatible por ser $B$ un sistema de generadores, y es compatible determinado por ser $B$ un conjunto de vectores linealmente independiente. La solución a este sistema es $x=6,$ $y=5,$ por lo que $(5,1)\equiv (6,5)_B.$
Sean $B=\lbrace\mathbf{v}_1,\ldots,\mathbf{v}_n\rbrace$ y $B’=\lbrace\mathbf{v}_1’,\ldots,\mathbf{v}_n’\rbrace$ dos bases de $V.$ Sea $\mathbf{x}\in V.$ Entonces existen $x_1,\ldots,x_n,x_1’,\ldots,x_n’\in K$ tales que $\mathbf{x}=x_1\mathbf{v}_1+\cdots +x_n\mathbf{v}_n$ y $\mathbf{x}=x_1’\mathbf{v}_1’+\cdots +x_n’\mathbf{v}_n’.$
Queremos ver qué relación hay entre las coordenadas de $\mathbf{x}$ respecto de $B$ y de $B’.$ Para ello utilizaremos las coordenadas de los vectores de $B$ respecto de $B’.$ Supongamos que
\[\begin{matrix} \mathbf{v} _1& = &a _{11}\mathbf{v} _1'+\cdots +a _{n1}\mathbf{v} _n',\\ &\vdots& \\ \mathbf{v} _n&=&a _{1n}\mathbf{v} _1'+\cdots+ a _{nn}\mathbf{v} _n'. \end{matrix}\]Entonces,
\[\begin{matrix} \mathbf{x} & = x_1\mathbf{v}_1+\cdots +x_n\mathbf{v}_n = x_1(a_{11}\mathbf{v}_1'+\cdots +a_{n1}\mathbf{v}_n')+\cdots +x_n(a_{1n}\mathbf{v}_1'+\cdots+ a_{nn}\mathbf{v}_n')\\ & =(x_1a_{11}+\cdots+ x_n a_{1n})\mathbf{v}_1'+\cdots+ (x_1a_{nn}+\cdots+x_na_{nn})\mathbf{v}_n'= x_1'\mathbf{v}_1'+\cdots+ x_n'\mathbf{v}_n'. \end{matrix}\]Como las coordenadas son únicas,
\[\left\lbrace \begin{matrix} x_1'= x_1a_{11}+\cdots+ x_n a_{1n},\\ \vdots \\ x_n'= x_1a_{n1}+\cdots+x_na_{nn}, \end{matrix} \right.\]que se conocen como las ecuaciones de cambio de base de $B$ a $B’.$ Éstas se pueden también expresar en forma matricial
\[\begin{pmatrix} x_1'\\ \vdots\\ x_n' \end{pmatrix} = \begin{pmatrix} a_{11} & \ldots & a_{1n}\\ \vdots & \ddots & \vdots \\ a_{n1} & \ldots & a_{nn} \end{pmatrix} \begin{pmatrix} x_1\\ \vdots \\ x_n \end{pmatrix}.\]A la matriz
\[A=\begin{pmatrix} a_{11} & \ldots & a_{1n}\\ \vdots & \ddots & \vdots \\ a_{n1} & \ldots & a_{nn} \end{pmatrix}\]se le llama matriz de cambio de base de $B$ a $B’.$ Esta matriz es siempre regular y su inversa, $A^{-1}$ es justamente la matriz de cambio de base de $B’$ a $B.$
Volvamos a la base del ejemplo anterior, $B=\lbrace (0,1),(1,-1) \rbrace.$ Los vectores de $B$ están representados por sus coordenadas respecto de la base estándar $B_C=\lbrace (1,0), (0,1)\rbrace.$ Por lo que la matriz
\[\left(\begin{array}{rr} 0 & 1 \\ 1 & -1 \end{array}\right)\]es precisamente la matriz de cambio de base de $B$ a $B_C.$ La matriz de cambio de base de $B_C$ a $B$ es la matriz inversa de $A,$
\[A^{-1}=\left(\begin{array}{rr} 1 & 1 \\ 1 & 0 \end{array}\right).\]Por tanto, las coordenadas de $(5,1)$ en la base $B$ serán
\[\left(\begin{array}{rr} 1 & 1 \\ 1 & 0 \end{array}\right) \begin{pmatrix} 5\\ 1 \end{pmatrix}= \begin{pmatrix} 6\\ 5 \end{pmatrix}.\]Supongamos ahora que tomamos otra base $B’=\lbrace(1,1),(1,-1)\rbrace$ y queremos encontrar la matriz de cambio de base de $B$ a $B’$ (su inversa será la matriz de cambio de base de $B’$ a $B$). Para “ir” de $B$ a $B’$ podemos pasar por $B_C.$
La matriz de cambio de base de $B’$ a $B_C$ es
\[\left( \begin{array}{rr} 1 & 1\\ 1 & -1 \end{array} \right),\]por lo que la matriz de cambio de base de $B_C$ a $B’$ es
\[\left( \begin{array}{rr} 1 & 1\\ 1 & -1 \end{array} \right)^{-1}= \left( \begin{array}{rr} \frac{1}{2} & \frac{1}{2}\\ \frac{1}{2} & -\frac{1}{2} \end{array} \right).\]Así, la matriz de cambio de base de $B$ a $B’$ es
\[\left( \begin{array}{rr} \frac{1}{2} & \frac{1}{2}\\ \frac{1}{2} & -\frac{1}{2} \end{array} \right) \left(\begin{array}{rr} 0 & 1 \\ 1 & -1 \end{array}\right)= \left(\begin{array}{rr} \frac{1}{2} & 0 \\-\frac{1}{2} & 1 \end{array}\right)\](pasamos primero de $B$ a $B_C,$ y luego de $B_C$ a $B’$).
Comprobemos que el resultado es correcto. El primer vector de la base de $B$ es $(0,1)\equiv(1,0)_B,$ y
\[\left(\begin{array}{rr} \frac{1}{2} & 0 \\-\frac{1}{2} & 1 \end{array}\right) \begin{pmatrix} 1\\ 0 \end{pmatrix}= \left( \begin{array}{r} 1/2\\ -1/2 \end{array} \right),\]y precisamente $\frac{1}2(1,1)-\frac{1}2(1,-1)=(0,1).$ Análogamente, $(1,-1)\equiv (0,1)_B,$ y
\[\left(\begin{array}{rr} \frac{1}{2} & 0 \\-\frac{1}{2} & 1 \end{array}\right) \begin{pmatrix} 0\\ 1 \end{pmatrix}= \left( \begin{array}{r} 0\\ 1 \end{array} \right),\]lo que viene a decir que $(1,-1)=1(1,-1).$
Supongamos que $\dim(V)=n$ y que $U$ es un subespacio vectorial de $V$ de dimensión $r.$ Sea $B=\lbrace\mathbf{v}_1,\ldots,\mathbf{v}_n\rbrace$ una base de $V,$ y $B_U=\lbrace\mathbf{u}_1,\ldots,\mathbf{u}_r\rbrace$ una base de $U.$ Supongamos que
\[\begin{matrix} \mathbf{u}_1=a_{11}\mathbf{v}_1+\cdots +a_{1n}\mathbf{v}_n,\\ \vdots \\ \mathbf{u}_r=a_{r1}\mathbf{v}_1+\cdots+ a_{rn}\mathbf{v}_n. \end{matrix}\]Sea $\mathbf{x}=x_1\mathbf{v}_1+\cdots+x_n\mathbf{v}_n$ un vector de $V.$ Veamos qué tienen que verificar las coordenadas $(x_1,\ldots,x_n)$ para que $\mathbf{x}\in U.$
El vector $\mathbf{x}\in U$ si y sólo si existen $\lambda_1,\ldots,\lambda_r\in K$ tales que $\mathbf{x}= \lambda_1\mathbf{u}_1+ \cdots +\lambda_r\mathbf{u}_r,$ y esto equivale a que
\[\begin{matrix} \mathbf{x}&=&\lambda_1(a_{11}\mathbf{v}_1+\cdots +a_{1n}\mathbf{v}_n)+ \cdots + \lambda_r (a_{r1}\mathbf{v}_1+\cdots+ a_{rn}\mathbf{v}_n) \\ &=& (\lambda_1a_{11}+\cdots+\lambda_ra_{r1})\mathbf{v}_1+\cdots+ (\lambda_1 a_{1n}+\cdots+\lambda_r a_{rn})\mathbf{v}_n. \end{matrix}\]Como las coordenadas son únicas,
\[\left\lbrace \begin{matrix} x_1= \lambda_1 a_{11}+\cdots+ \lambda_r a_{r1},\\ \vdots\\ x_n= \lambda_1 a_{1n}+\cdots+ \lambda_r a_{rn}. \end{matrix} \right.\]Estas ecuaciones son las ecuaciones paramétricas de $U$ respecto de la base $B.$
Sea $U$ un subespacio vectorial de $V.$ Sea $B=\lbrace\mathbf{v}_1,\ldots,\mathbf{v}_n\rbrace$ una base de $V,$ y $B_U=\lbrace\mathbf{u}_1,\ldots,\mathbf{u}_r\rbrace$ una base de $U.$ Supongamos que
\[\begin{matrix} \mathbf{u}_1=a_{11}\mathbf{v}_1+\cdots +a_{1n}\mathbf{v}_n,\\ \vdots \\ \mathbf{u}_r=a_{r1}\mathbf{v}_1+\cdots+ a_{rn}\mathbf{v}_n. \end{matrix}\]Sea $\mathbf{x}=x_1\mathbf{v}_1+\cdots+x_n\mathbf{v}_n$ un vector de $V.$ Recordemos que el vector $\mathbf{x}\in U$ si y sólo si existen $\lambda_1,\ldots,\lambda r\in K$ tales que
\[\left\lbrace \begin{matrix} x_1= \lambda_1 a_{11}+\cdots+ \lambda_r a_{r1},\\ \vdots\\ x_n= \lambda_1 a_{1n}+\cdots+ \lambda_r a_{rn}, \end{matrix} \right.\]Luego $\mathbf{x}\in U$ si y sólo si el sistema con incógnitas $\lambda_1,\ldots \lambda_r$
\[\begin{pmatrix} a_{11} & \ldots & a_{r1}\\ \vdots & \ddots & \vdots\\ a_{1n} & \ldots & a_{rn} \end{pmatrix} \begin{pmatrix} \lambda_1 \\ \vdots\\ \lambda_r \end{pmatrix}= \begin{pmatrix} x_1 \\ \vdots\\ x_n \end{pmatrix}\]tiene solución. Y sabemos que esto equivale a que
\[\operatorname{rg}\begin{pmatrix} a_{11} & \ldots & a_{r1}\\ \vdots & \ddots & \vdots\\ a_{1n} & \ldots & a_{rn} \end{pmatrix} = \operatorname{rg}\begin{pmatrix} a_{11} & \ldots & a_{r1} & x_1\\ \vdots & \ddots & & \vdots\\ a_{1n} & \ldots & a_{rn} & x_n \end{pmatrix}.\]Esto ocurre cuando unos cuantos determinantes valen cero, proporcionándonos así una sistema de ecuaciones de la forma
\[\left. \begin{matrix} b_{11}x_1+\cdots+b_{1n}x_n=0\\ \vdots \\ b_{k1}x_1+\cdots+b_{kn}x_n=0 \end{matrix} \right\rbrace,\]a las que llamaremos ecuaciones cartesianas de $U$ respecto de la base $B$ de $V.$
Si $k$ es el número de ecuaciones cartesianas independientes que describen a $U,$ entonces $k+\dim(U)=\dim(V).$
Una forma alternativa de calcular la ecuaciones cartesianas de $U$ es considerar $x_1,\dots,x_n$ como las componentes del término independiente del sistema
\[\left\lbrace \begin{matrix} \lambda_1 a_{11}+\cdots+ \lambda_r a_{r1}=x_1,\\ \vdots\\ \lambda_1 a_{1n}+\cdots+ \lambda_r a_{rn}=x_n, \end{matrix} \right.\]y transformar el sistema en otro equivalente que esté en forma escalonada. El número de ecuaciones en las que aparecerán $\lambda_1,\dots,\lambda_r$ será la dimensión de $U,$ mientras que el resto serán ecuaciones de la forma $0$ igual a una expresión lineal en $x_1,\dots,x_n,$ que son las que imponen que el sistema original sea compatible, y por tanto las ecuaciones de $U.$
Set $U$ el subespacio de $\mathbb{R}^3$ generado por $\lbrace (1,1,0),(0,1,1)\rbrace.$ Todo elemento $(x,y,z)$ de $U$ es de la forma $(x,y,z)=\lambda(1,1,0)+\mu(0,1,1)$ con $\lambda,\mu\in \mathbb{R}.$ Por tanto,
\[\left\lbrace \begin{array}{l} x=\lambda,\\ y=\lambda+\mu,\\ z=\mu, \end{array} \right.\]que son las ecuaciones paramétricas de $U$ (respecto de la base estándar en $\mathbb{R}^3$).
Si consideramos $\lambda$ y $\mu$ variables, y para el término independiente usamos una columna (una para cada una de las coordenadas), le sistema anterior se puede escribir como
\[\left(\begin{array}{rr|rrr} 1 & 0 & 1 & 0 & 0 \\ 1 & 1 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 & 1 \end{array}\right).\]Si ahora calculamos la forma escalonada reducida por filas, obtenemos
\[\left(\begin{array}{rr|rrr} 1 & 0 & 0 & 1 & -1 \\ 0 & 1 & 0 & 0 & 1 \\ 0 & 0 & 1 & -1 & 1 \end{array}\right).\]La última fila nos dice que $x-y+z=0,$ que es la ecuación cartesiana o implícita de $U$ (respecto de la base usual de $\mathbb{R}^3$).
La intersección de subespacios vectoriales de $V$ es de nuevo un subespacio vectorial de $V.$ Si conocemos las ecuaciones cartesianas de cada uno de los subespacios, las ecuaciones cartesianas de la intersección serán la unión de todas las ecuaciones de cada uno de los subespacios.
Sean $U_1,\dots,U_n$ subespacios vectoriales de $V.$ El subespacio vectorial suma de $U_1,\ldots, U_n$ es
\[U_1+\dots+ U_n=\lbrace\mathbf{u}_1+\dots +\mathbf{u}_n :\mathbf{u}_1\in U_1,\dots,\mathbf{u}_n\in U_n\rbrace.\]$U_1+\dots+U_n=\langle U_1\cup \cdots \cup U_n\rangle.$
Si $U_1=\langle S_1\rangle,\ldots, U_n=\langle S_n\rangle,$ entonces $U_1+\cdots+U_n= \langle S_1\cup \cdots \cup S_n\rangle.$
Sean $U$ y $W$ dos subespacios del espacio vectorial $V.$ Entonces
\[\dim(U\cap W)+\dim(U+W)=\dim(U)+\dim(W).\]Sean $U$ y $W$ subespacios vectoriales del espacio vectorial $V.$ Decimos que $V$ es suma directa de $U$ y $W,$ y lo denotamos por $V=U\oplus W,$ si todo vector $\mathbf{v}\in V$ se puede expresar de forma única como $\mathbf{v}=\mathbf{u}+\mathbf{w},$ con $\mathbf{u}\in U$ and $\mathbf{w}\in W.$ En dicho caso, diremos que los subespacios vectoriales $U$ y $W$ son complementarios.
Sea $V$ un espacio vectorial, y sean $U$y $W$ dos subespacios suyos. Entonces, $V=U\oplus W$ si, y sólo si, $V=U+W$ y $U\cap W=\lbrace\mathbf{0}\rbrace.$
Sean $U=\lbrace(x,y)\in \mathbb{R}^2 : x+y =0\rbrace$ y $W=\lbrace(x,y)\in \mathbb{R}^2 : x-y=0\rbrace.$ Entonces $\mathbb{R}^2=U\oplus W.$
Si un elemento $(x,y)$ está en la intersección de $U$ y $W,$ entonces debe verificar las ecuaciones de $U$ y de $W,$ esto es,
\[\left\lbrace \begin{array}{r} x+y=0,\\ x-y=0, \end{array} \right.\]por lo que $(x,y)=(0,0).$ Esto prueba que $U\cap W=\lbrace(0,0)\rbrace,$ y por tanto $\dim(U\cap W)=0.$ Usando que $\dim(U+W)=\dim (U)+\dim(W)-\dim(U\cap W)=\dim(U)+\dim(W),$ y que $\dim(U)=\dim(W)=1$ (ambos tienen una ecuación implícita en dimensión dos), llegamos a que $\dim(U+W)=2,$ lo que fuerza $U+W=\mathbb{R}^2.$
Nótese que $U$ está generado por $\lbrace(1,-1)\rbrace$ y que $W$ lo está por $\lbrace(1,1)\rbrace.$ Por tanto, un sistema de generadores de $U+W$ es $\lbrace(1,-1),(1,1)\rbrace.$ Como ese conjunto genera todo $\mathbb{R}^2,$ esto da otra forma de ver que $U+W$ es $\mathbb{R}^2.$