domingo, 29 de octubre de 2017

Ecuación de un plano en el espacio afín

Sea $P$ un punto del espacio (e.a.) $\mathcal{A}$ y sean $\vec{u}$ y $\vec{v}$ dos vectores libres no nulos linealmente independientes. Entonces el plano $\pi$ que pasa por $P$ y que contiene a dicho par de vectores se define como el conjunto de puntos $X$ tales que $\overset{\rightarrow}{PX}=\lambda\,\vec{u}+\mu\,\vec{v}$, donde $\lambda$ y $\mu$ son escalares ( números reales ). Llamamos determinación lineal de $\pi$ a $(P,\vec{u},\vec{v})$.

Sea el espacio afín $\mathcal{A}$ de dimensión $3$, $\{O;\mathcal{B}\}$ ( donde $\mathcal{B}=\{\vec{e_1},\vec{e_2},\vec{e_3}\}$ ) un sistema de referencia del e.a. y consideremos la d.l. de $\pi$, $(P,\vec{u},\vec{v})$. Entonces, como $\overset{\rightarrow}{OX}=\overset{\rightarrow}{OP}+\overset{\rightarrow}{PX}$ ( triángulo de vectores ), podemos escribir la ecuación vectorial del plano $$ \pi \equiv \overset{\rightarrow}{OX}=\overset{\rightarrow}{OP}+\lambda\,\vec{u}+\mu\,\vec{v}$$ esto es $$(x,y,z)=(x_P,y_P,z_P)+\lambda\,(u_1,u_2,u_3)+\mu\,(v_1,v_2,v_3)$$ con lo cual han de cumplirse las siguientes igualdades escalares $$\pi \equiv \left\{\begin{matrix}x=x_P+\lambda\,u_1+\mu\,v_1\\y=y_P+\lambda\,u_2+\mu\,v_2\\z=z_P+\lambda\,u_3+\mu\,v_3\end{matrix}\right.$$ que es un sistema de ecuaciones escalares; dichas ecuaciones constituyen las ecuaciones paramétricas del plano $\pi$

-oOo-

Despejando los términos que dependen de los parámetros $\lambda$ y $\mu$ ( considerados éstos como incógnitas) en cada una de las ecuaciones llegamos a $$\left\{\begin{matrix}\lambda\,u_1+\mu\,v_1=x-x_P\\\lambda\,u_2+\mu\,v_2=y-y_P\\\lambda\,u_3+\mu\,v_3=z-z_P\end{matrix}\right.$$ y, como $X$ pertenece a $r$, dicho sistema ha de ser compatible determinado, luego siendo el número de incógnitas $n=2$ ( $\lambda$ y $\mu$ ) tenemos que $$n=2=\text{rango}\begin{pmatrix}u_1 & v_1 \\ u_2 & v_2 \\ u_3 & v_3 \end{pmatrix}=\text{rango}\begin{pmatrix}u_1 & v_1 & x-x_p \\ u_2 & v_2 & y-y_p \\ u_3 & v_3 & z-z_p \end{pmatrix}$$ Teniendo en cuenta ahora que $\text{rango}\begin{pmatrix}u_1 & v_1 \\ u_2 & v_2 \\ u_3 & v_3 \end{pmatrix}=2$ por ser $\vec{u}$ y $\vec{v}$ linealmente independientes, deberá cumplirse que $$\begin{vmatrix}u_1 & v_1 & x-x_P \\ u_2 & v_2 & y-y_P \\ u_3 & v_3 & z-z_P \end{vmatrix}=0 \quad \quad (1)$$
esto es
$\Leftrightarrow (x-x_P)\,\begin{vmatrix}u_2 & v_2 \\ u_3 & v_3 \end{vmatrix}-(y-y_P)\,\begin{vmatrix}u_1 & v_1 \\ u_3 & v_3\end{vmatrix}+(z-z_P)\,\begin{vmatrix}u_1 & v_1 \\ u_2 & v_2 \end{vmatrix}=0 \quad \quad (1)$
Denotando por:
$A=\begin{vmatrix}u_2 & v_2 \\ u_3 & v_3 \end{vmatrix}$, $B=-\begin{vmatrix}u_1 & v_1 \\ u_3 & v_3 \end{vmatrix}$, $C=\begin{vmatrix}u_1 & v_1 \\ u_2 & v_2 \end{vmatrix}$ y $D=-A\,x_P-B\,y_P-C\,z_P$,
podemos escribir (1) -- la ecuación del plano $\pi$ -- de la forma $$\pi \equiv Ax+By+Cz+D=0$$ que denominamos ecuación implícita o general del plano.

Plano determinado por tres puntos dados:
Sean tres puntos $A(x_A,y_A,z_A)$, $B(x_B,y_B,z_B)$ y $C(x_C,y_C,z_C)$ de un plano $\pi$. Entonces, dos vectores de $\pi$ son $\vec{u}=\overset{\rightarrow}{AB}=(x_B-x_A,y_B-y_A,z_B-z_A)$ y $\vec{v}=\overset{\rightarrow}{AC}=(x_C-x_A,y_C-y_A,z_C-z_A)$, así que la ecuación del plano, según (1) vendrá dada por
$$\begin{vmatrix}x_B-x_A & x_C -x_A & x-x_A \\ y_B-y_A & y_C -y_A & y-y_A \\ z_B-z_A & z_C -z_A & z-z_A \end{vmatrix}=0 \quad \quad (2) $$ el determinante ( del primer miembro ) es igual a este otro
$$\begin{vmatrix}1&0&0&0\\ x_A & x_B-x_A & x_C -x_A & x-x_A \\ y_A & y_B-y_A & y_C -y_A & y-y_A \\ z_A & z_B-z_A & z_C -z_A & z-z_A \end{vmatrix}$$
y sumando la primera columna a cada una de las otras tres es igual a
$$\begin{vmatrix}1&1&1&1\\ x_A & x_B & x_C & x \\ y_A & y_B & y_C & y \\ z_A & z_B & z_C & z \end{vmatrix}$$ con lo cual, de (2), podemos escribir la ecuación del plano de la forma $$\pi \equiv \begin{vmatrix}1&1&1&1\\ x_A & x_B & x_C & x \\ y_A & y_B & y_C & y \\ z_A & z_B & z_C & z \end{vmatrix}=0 \quad \quad (3)$$

Por consiguiente, la condición para que cuatro puntos $A(x_A,y_A,z_A)$, $B(x_B,y_B,z_B)$, $C(x_C,y_C,z_C)$ y $D(x_D,y_D,z_D)$ sean coplanarios -- haciendo $x:=x_D$, $y:=y_D$ y $z:=z_D$ -- es la siguiente: $$\begin{vmatrix}1&1&1&1\\ x_A & x_B & x_C & x_D \\ y_A & y_B & y_C & y_D \\ z_A & z_B & z_C & z_D \end{vmatrix}=0$$

-oOo-
Ejemplo:

ENUNCIADO. Determínese la ecuación general del plano $\pi$ ( $Ax+By+Cz+D=0$ ) que contiene a los puntos $A(1,1,1)$, $B(-2,0,0)$ y $C(0,1,1)$

SOLUCIÓN. El plano pedido es
$$\pi \equiv \begin{vmatrix}1 & 1 & 1 & 1 \\ 1 & -2 & 0 & x \\ 1 & 0 & 1 & y \\ 1 & 1 & 1 & z \end{vmatrix}=0$$ Procedamos a resolver el determinante:
$\begin{vmatrix}1 & 1 & 1 & 1 \\ 1 & -2 & 0 & x \\ 1 & 0 & 1 & y \\ 1 & 1 & 1 & z\end{vmatrix}\overset{c_3-c-1 \,\rightarrow\, c_3}{=}\begin{vmatrix}1 & 1 & 0 & 1 \\ 1 & -2 & -1 & x \\ 1 & 0 & 0 & y \\ 1 & 1 & 0 & z\end{vmatrix}\overset{\text{Laplace 3.ª columna}}{=}(-1)\cdot (-1)^{2+3}\,\begin{vmatrix}1 & 1 & 1 \\ 1 & 0 & y \\ 1 & 1 & z\end{vmatrix}$
$=\begin{vmatrix}1 & 1 & 1 \\ 1 & 0 & y \\ 1 & 1 & z\end{vmatrix}\overset{c_1-c_2 \,\rightarrow c_1}{=}\begin{vmatrix}0 & 1 & 1 \\ 1 & 0 & y \\ 0 & 1 & z\end{vmatrix}=1-z$
Así pues $$\pi \equiv z-1=0$$ donde $A=B=0$, $C=1$ y $D=-1$
$\square$

Ecuación de una recta en el espacio afín

Sea $P$ un punto del espacio afín (e.a.) $\mathcal{A}$ y $\vec{v}$ un vector libre no nulo, entonces la recta $r$ que pasa por el punto $P$ y tiene la dirección de $\vec{v}$ se define como el conjunto de puntos $X$ del e.a. tales que $\overset{\rightarrow}{PX}=\lambda\,\vec{v}$, siendo $\lambda \in \mathbb{R}$. Llamamos al par $(P,\vec{v})$ determinación lineal (d.l.) de $r$.

Sea el espacio afín $\mathcal{A}$ de dimensión $3$, $\{O;\mathcal{B}\}$ ( donde $\mathcal{B}=\{\vec{e_1},\vec{e_2},\vec{e_3}\}$ ) un sistema de referencia del e.a. y consideremos la d.l. de $r$, $(P,\vec{v})$. Entonces, como $\overset{\rightarrow}{OX}=\overset{\rightarrow}{OP}+\overset{\rightarrow}{PX}$ ( triángulo de vectores ), podemos escribir la ecuación vectorial de la recta $$ r \equiv \overset{\rightarrow}{OX}=\overset{\rightarrow}{OP}+\lambda\,\vec{v}$$ esto es $$(x,y,z)=(x_P,y_P,z_P)+\lambda\,(v_1,v_2,v_3)$$ con lo cual han de cumplirse las siguientes igualdades escalares $$r \equiv \left\{\begin{matrix}x=x_P+\lambda\,v_1\\y=y_P+\lambda\,v_2\\z=z_P+\lambda\,v_3\end{matrix}\right.$$ que es un sistema de ecuaciones escalares; dichas ecuaciones constituyen las ecuaciones paramétricas de la recta $r$. Despejando el parámetro $\lambda$ de cada una de dichas ecuaciones encontramos $$\lambda=\dfrac{x-x_P}{v_1}=\dfrac{y-y_P}{v_2}=\dfrac{z-z_P}{v_3}$$ obteniendo la ecuación de la recta en forma continua ( triple igualdad de la que escribimos las ecuaciones continuas de la recta $r$ ) $$r\equiv \dfrac{x-x_P}{v_1}=\dfrac{y-y_P}{v_2}=\dfrac{z-z_P}{v_3} \quad \quad (1)$$

-oOo-

Nota: También podemos llegar al mismo resultado de una forma un tanto más alambicada, pero que tiene interés por incorporar la noción de rango en el razonamiento que vamos a realizar. Despejando los términos que dependen del parámetro $\lambda$ ( considerado como incógnita ) en cada ecuación llegamos a $$\left\{\begin{matrix}\lambda\,v_1=x-x_P\\\lambda\,v_2=y-y_P\\\lambda\,v_3=z-z_P\end{matrix}\right.$$ y, como $X$ pertenece a $r$, dicho sistema ha de ser compatible determinado, luego habiendo una sóla incógnita ( $\lambda$ ), $n=1$ y por tanto $$n=1=\text{rango}\begin{pmatrix}v_1 \\ v_2 \\ v_3 \end{pmatrix}=\text{rango}\begin{pmatrix}v_1 & x-x_p \\ v_2 & y-y_p \\ v_3 & z-z_p \end{pmatrix}$$ Y si suponemos ( sin pérdida de generalidad ) que $v_1 \neq 0$ entonces por el método del orlado ( de una submatriz cuadrada cuyo determinante sea no nulo ) vemos que, orloando el elemento $v_1$, deberá cumplirse que $$\begin{vmatrix}v_1 & x-x_P \\ v_2 & y-y_P \end{vmatrix} =0 \Leftrightarrow v_1\,(y-y_P)=v_2\,(x-x_P) \Leftrightarrow \dfrac{x-x_P}{v_1}=\dfrac{y-y_P}{v_2}$$ y $$\begin{vmatrix}v_1 & x-x_P \\ v_3 & z-z_P \end{vmatrix} =0\Leftrightarrow v_1\,(z-z_P)=v_3\,(x-x_P) \Leftrightarrow \dfrac{x-x_P}{v_1}=\dfrac{z-z_P}{v_3}$$ Así pues llegamos a la triple igualdad (1) $$\dfrac{x-x_P}{v_1}=\dfrac{y-y_P}{v_2}=\dfrac{z-z_P}{v_3}$$ y las ecuaciones de la recta en forma implícita ( o ecuaciones cartesianas de la recta ): $$r\equiv \left\{\begin{matrix}\dfrac{x-x_P}{v_1}=\dfrac{y-y_P}{v_2} \\\dfrac{x-x_P}{v_1}=\dfrac{z-z_P}{v_2}\end{matrix}\right.$$

Ejemplo 1
ENUNCIADO. Determinar la recta que tiene la dirección del vector $\vec{v}=(1,2,3)$ y que pasa por el punto $P(1,0,-1)$

SOLUCIÓN. Sea $X(x,y,z)$ un punto cualquiera de la recta $r$. Entonces,

Ecuación vectorial:
$\overset{\rightarrow}{OX}=\overset{\rightarrow}{OP}+\lambda\,\vec{v}$ con $\lambda \in \mathbb{R}$ esto es $(x,y,z)=(1,2,3)+\lambda\,(1,0,-1)$ ( ecuación vectorial de la recta ).

Ecuaciones paramétricas:
De la igualdad vectorial podemos escribir tres igualdades escalares, que son las ecuaciones paramétricas, $$\left\{\begin{matrix}x&=&1+\lambda \\ y&=&2+0\cdot \lambda \\ z&=&3-\lambda\end{matrix}\right.$$

Ecuaciones continuas de la recta:
Sabemos que $$\text{rango}\begin{pmatrix}1 \\ 2 \\ 3\end{pmatrix} = \text{rango}\begin{pmatrix}1 & x-1\\ 2 & y-0 \\ 3 & z - (-1)\end{pmatrix}=1$$ luego, orlando el elemento no nulo de la primera fila y primera columna de la matriz $3 \times 2$, deducimos que los siguientes menores complementarios de orden $2$ tienen que ser nulos:
$$\begin{vmatrix}1 & x-1 \\ 2 & y-0\end{vmatrix}=0 \Leftrightarrow \dfrac{x-1}{1}=\dfrac{y-0}{2}$$ y $$\begin{vmatrix}1 & x-1 \\ 3 & z + 1\end{vmatrix}=0 \Leftrightarrow \dfrac{z+1}{3}=\dfrac{x-1}{1}$$ por tanto $$r \equiv \dfrac{x-1}{1}=\dfrac{y-0}{2} = \dfrac{z+1}{3}$$

Ecuaciones cartesianas ( o implícitas ) de la recta:
De dos de las tres igualdades ( basta con dos ) de la forma continua, podemos escribir
$$\left\{\begin{matrix}\dfrac{x-1}{1}=\dfrac{y-0}{2} \\ \\ \dfrac{y-0}{2} = \dfrac{z+1}{3} \end{matrix}\right.$$ o lo que es lo mismo $$r \equiv \left\{\begin{matrix}-2x & + & y &+&0\,z& +&2=0 \\ 0\,x & + & 3\,y &-&2\,z& -&2=0 \end{matrix}\right.$$

Nota: Más adelante, veremos que, así, la recta viene dada por la intersección de dos planos ( cada una de cuyas ecuaciones son de la forma $Ax+By+Cz+D=0$ )
$\square$

viernes, 27 de octubre de 2017

Espacio afín tridimensional

Un espacio afín es una terna $\mathcal{A}=(\mathcal{P},V,\Phi)$, donde $\mathcal{P}$ es el conjunto de puntos del espacio ordinario, $V$ es un espacio vectorial y $\Phi$ una aplicación de $\mathcal{P} \times \mathcal{P}$ en $V$ $$\Phi:\mathcal{P} \times \mathcal{P} \rightarrow V\,;\, (A,B) \mapsto \overset{\rightarrow}{AB}$$ tal que:
i) $\Phi(A,B)+\Phi(B,C)+\Phi(C,A)=\vec{0}$
ii) Fijado un punto $O \in \mathcal{A}$, entonces $\Phi_o:\mathcal{A}\rightarrow V\,;\,A \mapsto \Phi_{o}(A)=\overset{\rightarrow}{OA}$ es una biyección

-oOo-

Si se toma un punto fijo $O$ de $\mathcal{A}$, y $\mathcal{B}=\{\vec{e_1},\vec{e_2},\vec{e_3}\}$ es una base de $V$, entonces $\{O\,;\,\mathcal{B}\}$ constituye un sistema de referencia afín, por medio del cual todo punto $P \in E$ queda unívocamente determinado por una terna ordenada $(x,y,z)$, que corresponde a las coordenadas del vector $\overset{\rightarrow}{OP}$ con respecto de la base $\mathcal{B}$, y nos referimos a ellas como coordenadas cartesianas del punto $P$, anotándolas de la forma $P(x,y,z)$ ( o, también, de la forma $P=(x,y,z)$); pudiendo por tanto escribir $\overset{\rightarrow}{OP}=x\,\vec{e_1}+y\,\vec{e_2}+z\,\vec{e_3}$. De manera parecida, si $(u_1,u_2,u_3)$ son las coordenadas de un vector $\vec{u}$ con respecto a la base $\mathcal{B}$, escribiremos $\vec{u}=(u_1,u_2,u_3)$

$\square$

Algunas propiedades sobre las matrices inversa y traspuesta

Sean $A$ una cuadrada, entonces se cumple $(A^{\top})^{\top}=A$

Sean $A$ y $B$ matrices cuadradas del mismo orden, $n$, entonces se cumple $(AB)^{\top}=B^{\top}A^{\top}$

Sean $A$ una cuadrada invertible ( regular ), entonces se cumple $(A^{-1})^{-1}=A$

Sean $A$ y $B$ matrices cuadradas invertibles ( regulares ) del mismo orden, $n$, entonces se cumple $(AB)^{-1}=B^{-1}A^{-1}$

-oOo-
Comentario: Una matriz cuadrada regular ( invertible ) $A$ tal que $A^{\top}=A^{-1}$ se llama matriz ortogonal.

$\square$

Algunas propiedades de los determinantes

Sea $A$ una matriz cuadrada de orden $n$, no regular, entonces $\text{det}(A)=\text{det}(A^{\top})$

Sean $A$ y $B$ dos matrices cuadradas de orden $n$ no singulares ( sus determinantes son no nulos ), entonces $\text{det}(AB)=\text{det}(A)\cdot \text{det}(B)$; sin embargo, en general, $\text{det}(A+B)\neq\text{det}(A)+ \text{det}(B)$

Sean $A$ y $B$ dos matrices cuadradas de orden $n$ no singulares ( sus determinantes son no nulos ), entonces $\text{det}(AB^{-1})=\dfrac{\text{det}(A)}{ \text{det}(B)}$


$\square$

Aplicaciones lineales

Definición ( Aplicación lineal ).Sean $V$ y $V'$ dos espacios vectoriales reales. Una aplicación lineal ( o homomorfismo ) de $V$ en $V'$, $f:V\rightarrow V'$ cumple las siguientes condiciones:
i) $f(\vec{u}+\vec{v})=f(\vec{u})+f(\vec{v})$ para cualesquiera $\vec{u}, \vec{v}$ de $V$
ii) $f( \lambda\,\vec{u})=\lambda\,f(\vec{u})$, para todo $\lambda \in \mathbb{R}$ y para todo $\vec{u} \in V$

-oOo-
Proposición. La condición necesaria y suficiente para que una aplicación $f:V \rightarrow V'$ sea una aplicación lineal es que para cualesquiera $\lambda$, $\mu$ (escalares) y para cualesquiera $\vec{u}, \vec{v}$ (vectores de $V$) se cumpla que $f(\lambda\,\vec{u}+\mu\,\vec{v})=\lambda\,f(\vec{u}+\mu\,f(\vec{v})$

Nota: se omite la demostración

-oOo-
Proposición. Sea $f:V \rightarrow V'$ una aplicación lineal, entonces se cumple:
1) $f(\vec{0})=\vec{0}$
2) $f(-\vec{u})=-f(\vec{u})$
3) $\displaystyle f(\sum_{i=1}^{n}\, f(\lambda_i\,\vec{u_1})=\sum_{i=1}^n \,\lambda_i\,f(\vec{u}_i)$

Nota: se omite la demostración

$\square$

jueves, 26 de octubre de 2017

Independencia lineal

ENUNCIADO. Probar que los vectores $\vec{u}=(3,1,0)$, $\vec{v}=(4,-1,2)$ y $\vec{w}=(1,0,1)$ son linealmente independientes.

SOLUCIÓN. Lo son si y sólo si la combinación lineal para formar el vector nulo $\vec{0}=(0,0,0)$ tiene coeficientes nulos. Veámoslo: $$\alpha\,(3,1,0)+\beta\,(4,-1,2)+\gamma\,(1,0,1)=(0,0,0) \Leftrightarrow \left\{\begin{matrix}3\,\alpha & + & 4\,\beta & + & \gamma & = & 0 \\ \alpha & - & \beta & & & = & 0 \\ & & 2\,\beta & + & \gamma & = & 0 \end{matrix} \right. \sim $$
$\overset{-3\,e_2+e_1 \rightarrow e_2}{\sim} \left\{\begin{matrix}3\,\alpha & + & 4\,\beta & + & \gamma & = & 0 \\ & & 7\,\beta & + &\gamma & = & 0 \\ & & 2\,\beta & + & \gamma & = & 0 \end{matrix} \right.$

$\overset{-7\,e_3+2\,e_12 \rightarrow e_3}{\sim} \left\{\begin{matrix}3\,\alpha & + & 4\,\beta & + & \gamma & = & 0 \\ & & 7\,\beta & + &\gamma & = & 0 \\ & & & & -5\,\gamma & = & 0 \end{matrix} \right.$ ( sistema reducido por Gauss )

De la última ecuación, $\gamma=0$; sustituyendo en la segunda, $7\,\beta+0=0$ y por tanto $\beta=0$ y sustituyendo estos dos valores en la primera ecuación encontramos $3\,\alpha+0+0=0$ con lo cual $\alpha=0$. Por consiguiente, los tres vectores pedidos son linealmente independientes.

Nota: Decimos, por ello, que el rango del sistema de vectores $\{ \vec{u}, \vec{v}, \vec{w}\}$ es $3$

Observación: Al formar la matriz de los coeficiente con la que nos hemos encontrado ( que se forma con las coordenadas de los vectores, disponiéndolos por filas o bien por columnas ), vemos que los rangos de dicha matriz $$\begin{pmatrix} 3 & 1 & 0 \\ 4 & -1 & 2 \\ 1 & 0 & 1 \end{pmatrix}$$ ( y la de su traspuesta ) han de ser igual a $3$ para que los vectores del conjunto dado sean linealmente independientes $$\text{rg}\,\begin{pmatrix} 3 & 1 & 0 \\ 4 & -1 & 2 \\ 1 & 0 & 1 \end{pmatrix}=\text{rg}\,\begin{pmatrix} 3 & 4 & 1 \\ 1 & -1 & 0 \\ 0 & 2 & 1 \end{pmatrix}=3$$ . Por consiguiente, los determinantes de dichas matrices tienen que ser no nulos: $$\begin{vmatrix} 3 & 1 & 0 \\ 4 & -1 & 2 \\ 1 & 0 & 1 \end{vmatrix} \neq 0$$
$$\begin{vmatrix} 3 & 4 & 1 \\ 1 & -1 & 0 \\ 0 & 2 & 1 \end{vmatrix} \neq 0$$

$\square$

miércoles, 25 de octubre de 2017

Matriz asociada a una aplicación lineal

Sean los espacios vectoriales $V\equiv \mathbb{R}^m$ y $V'\equiv \mathbb{R}^n$ y sea la aplicación lineal $f:V \rightarrow V'\,; \vec{x} \mapsto \vec{y}$ (esto es $\vec{y}=f(\vec{x})$ ), donde las coordenadas de $\vec{x}$ en una base de $V$, $\mathcal{B}=\{\vec{u}_1,\ldots,\vec{u}_m\}$, son $(x_1,\ldots,x_m)$ y las coordenadas de $\vec{y}$ en una base de $V'$, $\mathcal{B'}=\{\vec{u'}_1,\ldots,\vec{u'}_n\}$, son $(y_1,\ldots,y_n)$

Entonces podemos escribir también que $$f(\vec{x})=f(x_1\,\vec{u}_1+\ldots+x_1\,\vec{u}_m)\overset{\text{ap. lin.}}{=}x_1\,f(\vec{u}_1)+\ldots+x_m\,f(\vec{u}_m) \quad \quad (1)$$ Ahora bien, como cada $i=1\,\ldots,m$, $f(u_i) \in V'$ podemos escribir $$\begin{matrix}f(\vec{u}_1)=a_{11}\,\vec{u'}_1+\ldots+a_{1n}\,\vec{u'}_n \\ f(\vec{u}_2)=a_{21}\,\vec{u'}_1+\ldots+a_{2n}\,\vec{u'}_n\\ \ldots \\ f(\vec{u}_m)=a_{m1}\,\vec{u'}_1+\ldots+a_{mn}\,\vec{u'}_n\end{matrix}$$
con lo cual
$$f(\vec{x})=(y_1,\ldots\,y_n)=x_1\,(a_{11}\,\vec{u'}_1+\ldots+a_{1n}\,\vec{u'}_n)+\ldots+x_m\,(a_{m1}\,\vec{u'}_1+\ldots+a_{mn}\,\vec{u'}_n)$$ que podemos escribir de la forma
$$(y_1,\ldots\,y_n)=(x_1\,a_{11}+\ldots+x_m\,a_{m1})\,\vec{u'}_1+\ldots+(x_1\,a_{1n}+\ldots+x_m\,a_{mn})\,\vec{u'}_n \Leftrightarrow$$ $$\Leftrightarrow \left\{\begin{matrix}y_1=x_1\,a_{11}+\ldots+x_m\,a_{m1} \\ y_2=x_1\,a_{12}+\ldots+x_m\,a_{m2} \\ \ldots \\ y_n=x_1\,a_{1n}+\ldots+x_m\,a_{mn} \end{matrix}\right. $$ lo cual podemos expresar en forma de producto de matrices $$\begin{pmatrix}x_1 & x_2 &\ldots & x_m \end{pmatrix}\begin{pmatrix} a_{11} & a_{12} & \ldots & a_{1n} \\ a_{21} & a_{22} & \ldots & a_{2n} \\ \ldots & \ldots & \ldots &\ldots \\ a_{m1} & a_{m2} & \ldots & a_{mn} \\ \end{pmatrix}=\begin{pmatrix}y_1 & y_2 & \ldots & y_n \end{pmatrix}$$ Trasponiendo en cada miembro, también podemos escribir $$\begin{pmatrix} a_{11} & a_{21} & \ldots & a_{m1} \\ a_{12} & a_{22} & \ldots & a_{m2} \\ \ldots & \ldots & \ldots &\ldots \\ a_{1n} & a_{2n} & \ldots & a_{mn} \\ \end{pmatrix}_{n\times m}\begin{pmatrix}x_1\\x_2\\\ldots\\x_m\end{pmatrix}_{m \times 1}=\begin{pmatrix}y_1\\y_2\\\ldots\\y_n\end{pmatrix}_{n \times 1}$$ y llamamos matriz asociada a la aplicación lineal $f$ del espacio vectorial $V$ ( de dimensión $m$ ) en el espacio vectorial $V'$ ( de dimensión $n$ ), con respecto de las bases $\mathcal{B}$ de $V$ y $\mathcal{B'}$ de $V'$ a la matriz $$A_{n \times m}=\begin{pmatrix} a_{11} & a_{21} & \ldots & a_{m1} \\ a_{12} & a_{22} & \ldots & a_{m2} \\ \ldots & \ldots & \ldots &\ldots \\ a_{1n} & a_{2n} & \ldots & a_{mn} \\ \end{pmatrix}$$ Subrayemos que los vectores columna de esta matriz asociada a la aplicación lineal corresponden a ordenar en columnas las coordenadas de los vectores
$$f(\vec{u_1})=(a_{11},a_{12},\ldots,a_{1n})^{\top}$$
$$f(\vec{u_2})=(a_{21},a_{22},\ldots,a_{2n})^{\top}$$
$$\vdots$$
$$f(\vec{u_m})=(a_{m1},a_{m2},\ldots,a_{mn})^{\top}$$
-oOo-
Ejemplos: [1|]

$\square$

Espacios vectoriales

Leyes de composición interna. Suma de vectores

Leyes de composición externa. Producto por escalares

Propiedades de un espacio vectorial

Subespacio vectorial. Caracterización de subespacios vectoriales

Dependencia e independencia lineal. Combinaciones lineales. Propiedades

Sistema de generadores de un espacio vectorial. Bases de un espacio vectorial. Dimensión de un espacio vectorial.

Rango de un conjunto de vectores.

Aplicaciones lineales, matrices y vectores. Matriz asociada a una aplicación lineal.

lunes, 16 de octubre de 2017

Análisis y resolución ( en los casos que sea procedente ) de un sistema de ecuaciones lineales en función de los valores de un parámetro

ENUNCIADO. Considérese el sistema de ecuaciones lineales $$\begin{pmatrix}a&1&1 \\ 1 & a&1 \\ 1 & 1 &a\end{pmatrix}\begin{pmatrix}x \\ y \\ z\end{pmatrix}=\begin{pmatrix}0 \\ 0 \\ 1\end{pmatrix}$$ siendo $a$ un parámetro. Se pide:
a) Analizar el sistema de ecuaciones en cuanto a sus soluciones, en función de los valores del parámetro $a \in \mathbb{R}$
b) Resolver el sistema en los casos que exista solución

SOLUCIÓN.
a) Vamos a realizar el análisis de rangos, reduciendo la matriz $\tilde A$ de los coeficientes del sistema (incluyendo el vector columna de los términos independientes) por Gauss. Las siguientes son matrices equivalentes en rango:

$\left(\begin{array}{ccc|c} a&1&1&0 \\ 1 & a&1 &0\\ 1 & 1 &a&1\end{array}\right) \overset{f_3-f_2 \rightarrow f_2\,,\ -a\, f_3+f_1 \rightarrow f_3}{\sim} \left(\begin{array}{ccc|c} a&1&1&0 \\ 0 & 1-a&a-1 &1\\ 0 & 1-a &1-a^2&-a\end{array}\right) \overset{f_3-f_2 \rightarrow f_3}{\sim} $

$\sim \left(\begin{array}{ccc|c} a&1&1&0 \\ 0 & 1-a&a-1 &1\\ 0 & 0 &(1-a)(a+2)&-(a+1)\end{array}\right)$

Nota: Se han omitido los cálculos algebraicos detallados que aparecen al manejar las expresiones dependientes de $a$, pidiendo al lector/a que los reproduzca

Observemos que, por el teorema de Rouché-Fröbenius:
I) Si $a:=1$, $1=\text{rango}(A) \neq \text{rango}(\tilde{A})=3$ luego el sistema es incompatible para este valor de $a$; y, si $a:=-2$, entonces $2=\text{rango}(A) \neq \text{rango}(\tilde{A})=3$ luego el sistema es también incompatible para este otro valor de $a$. En resumen:
  Si $a \in \{-2\,,\,1\}$, entonces el sistema es incompatible.

II)   Si $a \notin \{-2\,,\,1\}$, entonces $\text{rango}(A) = \text{rango}(\tilde{A})=3 = n$ ( donde $n$ es el número de incógnitas ), por lo que el sistema es compatible determinado.

b)
Resolvamos el sistema en las condiciones de (II). Un sistema equivalente en solución al original y reducido por Gauss es:
$$\left\{\begin{matrix}a\,x & + & y &+& z&=&0 \\ & &(1-a)\, y &-& (1-a)\,z&=&1 \\ & &&& (1-a)(a+2)\,z&=&-(a+1) \end{matrix}\right.$$ De la tercera ecuación obtenemos $$z=\dfrac{a+1}{(a-1)(a+2)}$$ sustituyendo en la segunda ecuación y despejando $y$ llegamos a ( omitimos los pasos intermedios, pidiendo al lector/a que los reproduzca ) $$y=\dfrac{1}{(1-a)(a+2)}$$ y sustituyendo los valores encontrados para $x$ e $y$ en la primera ecuación, obtendremos el valor para la primera incógnita ( omitimos los pasos intermedios, pidiendo al lector/a que los reproduzca ) $$x=\dfrac{1}{(1-a)(a+2)}$$

$\square$


martes, 10 de octubre de 2017

Matrices ortogonales

ENUNCIADO. Se dice que una matriz cuadrada invertible ( no singular ) es ortogonal si su traspuesta coincide con su inversa. Compruébese que la matriz $$A=\begin{pmatrix}\sin{\alpha}&\cos{\alpha} \\ -\cos{\alpha} & \sin{\alpha}\end{pmatrix}$$

SOLUCIÓN. La matriz traspuesta de $A$ es $A^{\top}=\begin{pmatrix}\sin{\alpha}&-\cos{\alpha} \\ \cos{\alpha} & \sin{\alpha}\end{pmatrix}$. Basta comprobar que $AA^{\top}=I=A^{\top}A$; en efecto,

$A\,A^{\top}=\begin{pmatrix}\sin{\alpha}&\cos{\alpha} \\ -\cos{\alpha} & \sin{\alpha}\end{pmatrix} \begin{pmatrix}\sin{\alpha}&-\cos{\alpha} \\ \cos{\alpha} & \sin{\alpha}\end{pmatrix}=$

$=\begin{pmatrix}\sin^2{\alpha}+\cos^2{\alpha}&\sin{\alpha}\cos{\alpha}-\sin{\alpha}\cos{\alpha} \\\sin{\alpha}\cos{\alpha}-\sin{\alpha}\cos{\alpha} & \sin^2{\alpha}+\cos^2{\alpha}\end{pmatrix}=\begin{pmatrix}1&0\\0 & 1\end{pmatrix}$
$\square$

Matriz inversa

ENUNCIADO. Considérese la matriz $A=\begin{pmatrix}a^2&a&1 \\ 2a & a+1 &2 \\ 1 & 1 &1\end{pmatrix}$, donde $a$ es un parámetro. Se pide:
a) ¿ Para qué valores de $a$ la matriz $A$ es invertible ?
b) Para $a=0$, hallar la inversa de $A$

SOLUCIÓN.
a)
La condición para que $A$ no sea invertible es que su determinante sea nulo $$\begin{vmatrix}a^2&a&1 \\ 2a & a+1 &2 \\ 1 & 1 &1\end{vmatrix}=0\Leftrightarrow a^3-3\,a^2-3a-1=0 \Leftrightarrow (a-1)^3=0 \Leftrightarrow a=1$$ luego la matriz es invertible si $a\neq 1$

-oOo-
Nota: Esto se ve a simple vista pues si $a=1$ la matriz es $\begin{pmatrix}1&1&1 \\ 2 & 2 &2 \\ 1 & 1 &1\end{pmatrix}$ y como su rango es $1$ ( sólo hay un vector fila independiente ) entonces $\text{det}(A)=\begin{vmatrix}1&1&1 \\ 2 & 2 &2 \\ 1 & 1 &1\end{vmatrix}=0$, luego para $k=1$ $A$ no es invertible. De todas formas, en otros casos podría haber más de un valor que anulase el determinante y no ser tan fácil encontrarlos todos a simple vista, por lo que se aconseja que se imponga la condición para que la matriz no sea invertible para, resolviendo la ecuación resultante, encontrar todos los valores, tal como se ha hecho arriba.
-oOo-

b)
Si $a:=0$, entonces la matriz es $\begin{pmatrix}0&0&1 \\ 0 & 1 &2 \\ 1 & 1 &1\end{pmatrix}$ y su determinante es $\text{det}(A)=-1$ Así pues, teniendo en cuenta que, $$A^{-1}=\dfrac{1}{\text{det}(A)}\,(\text{Adj}(A))^{\top}$$

Es fácil calcular la matriz de los cofactores ( o de los adjuntos de los elementos de la matriz $A$ ), y sale lo siguiente: $$\text{Adj}(A)=\begin{pmatrix}-1&2&-1 \\ 1 & -1 &0 \\ -1 & 0 &0\end{pmatrix}$$ luego $$(\text{Adj}(A))^{\top}=\begin{pmatrix}-1&1&-1 \\ 2 & -1 &0 \\ -1 & 0 &0\end{pmatrix}$$ con lo cual $$A^{-1}=\dfrac{1}{-1}\,\begin{pmatrix}-1&1&-1 \\ 2 & -1 &0 \\ -1 & 0 &0\end{pmatrix}=\begin{pmatrix}1&-1&1 \\ -2 & 1 &0 \\ 1 & 0 &0\end{pmatrix}$$

$\square$

lunes, 9 de octubre de 2017

Sistemas de ecuaciones lineales. Teorema de Rouché-Fröbenius

El teorema de Rouché-Fröbenius [Eugène Rouché (1832-1910), Ferdinand Georg Fröbenius (1849-1917)] permite analizar un sistema de ecuaciones lineales (según el tipo de solución que éste pueda tener) a partir del estudio del rango de la matriz de los coeficientes y de la matriz ampliada.

A menudo, dicho estudio se realiza en función de los valores de uno o de varios parámetros ( que figuran como coeficientes del sistema de ecuaciones ). Dicho análisis permite investigar si existe o no solución, y, de existir ésta, de qué tipo es esa y para qué valores de los parámetros del escenario se puede dar, todo ello, antes de proceder a la resolución del sistema para cada uno de los escenarios posibles.

Consideremos un sistema de $m$ ecuaciones lineales con $n$ incógnitas
$$\left\{\begin{matrix}a_{11}x_1&+&a_{12}x_2&+&\ldots&+&a_{1n}x_n=&b_1 \\ a_{21}x_1&+&a_{22}x_2&+&\ldots&+&a_{2p}x_n=&b_2 \\ \ldots \\ a_{m1}x_1&+&a_{m2}x_2&+&\ldots&+&a_{mn}x_n=&b_m\end{matrix}\right.$$ -- donde $a_{ij}$ ( $i \neq j$, $i=1,\ldots,m$ y $j=1,\ldots,n$ ) son los coeficientes del sistema, y $x_1,\ldots,x_n$ las incógnitas -- podemos expresarlo en forma matricial
$$\begin{pmatrix}a_{11}&a_{12}&\ldots&a_{1n} \\ a_{21}&a_{22}&\ldots&a_{2n} \\ \ldots & \ldots &\ldots& \ldots \\ a_{m1}&a_{m2}&\ldots&a_{mn} \end{pmatrix}\begin{pmatrix}x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix}=\begin{pmatrix}b_1 \\ b_2 \\ \vdots \\ x_m \end{pmatrix}$$ esto es $$A_{m \times n}X_{n \times 1 }= B_{m \times 1}$$
Denominamos $A$ a la matriz incompleta ( pues no incluye los términos independientes ) de los coeficientes del sistema y $\widetilde{A} \equiv (A|B)$ a la matriz ampliada ( con los términos independientes ) de los coeficientes del sistema, esto es $A=\begin{pmatrix}a_{11}&a_{12}&\ldots&a_{1n} \\ a_{21}&a_{22}&\ldots&a_{2n} \\ \ldots & \ldots &\ldots& \ldots \\ a_{m1}&a_{m2}&\ldots&a_{mn} \end{pmatrix}$ y $\widetilde{A}=\left(\begin{array}{cccc|c}a_{11}&a_{12}&\ldots&a_{1n} & b_1 \\a_{21}&a_{22}&\ldots&a_{2n} & b_2 \\ \ldots & \ldots &\ldots& \ldots & \ldots \\ a_{m1}&a_{12}&\ldots&a_{mn} & b_m \\
\end{array}\right)$

El teorema de Rouché-Fröbenius dice lo siguiente:
I) Si $\text{rango}(A) \neq \text{rango}(\widetilde{A})$ el sistema es incompatible y si $r:=\text{rango}(A) =\text{rango}(\widetilde{A})$ el sistema es compatible, y el conjunto de $n$-tuplas que forman la solución del sistema constituye un subespacio vectorial de $\mathbb{R}^n$, cuya dimensión es $n-r$

II) Si, siendo el sistema compatible, $r=n$, entonces el sistema es compatible determinado ( la dimensión del subespacio vectorial que representa la solución es $0$, pues está formada por un sólo vector ); y, si $r\prec n$, entonces el sistema es compatible indeterminado ( existen infinitas $n$-tuplas como solución, y la dimensión del subespacio vectorial que forma dicha solución es mayor que $0$ y menor que $n$ )

-oOo-

Ejemplo 1.
ENUNCIADO. Estudiar y resolver ( cuando proceda ) el sistema de ecuaciones, en función de los valores que tome el parámetro $k$:
$$\left\{\begin{matrix}k\,x&+&3\,y&=&4\\ 3\,x&-&y&=&2\\ 2\,x&-&y&=&k\\ \end{matrix}\right.$$

SOLUCIÓN. La matriz ampliada del sistema es $$\widetilde{A}=\left(\begin{array}{cc|c}
k & 3 & 4 \\
3 & -1 & 2 \\
2 & -1 & k \\
\end{array}\right)$$

Vamos a estudiar su rango ( así como el rango de la matriz $A$ ) por el método de los determinantes ( el rango de una matriz es igual al orden del mayor menor no-nulo ). Observemos que el determinante de la submatriz ( o menor ) formada por los elementos de la segunda y tercera filas y primera y segunda columnas es $$\begin{vmatrix}
3 & -1 \\
2 & -1 \\
\end{vmatrix} = -1 \neq 0 \Rightarrow \text{rg}(A)=2 \quad \text{y} \quad \text{rg}(\widetilde{A}) \ge 2$$
Orlando, ahora, dicha submatriz nos encontramos con un único determinante de orden tres
$$\begin{vmatrix}
k&3 & 4 \\
3 & -1&2 \\
2 & -1&k \\
\end{vmatrix} =0 \Leftrightarrow k^2+7k-8=0 \Leftrightarrow k=\left\{\begin{matrix}
1 \\
\\
-8
\end{matrix}\right.
$$
Nos encontramos, pues, con dos casos posibles:
I) Si $k \in \{-8\,,\,1\}$, $r:=\text{rg}(A)=\text{rg}(\widetilde{A})=2=n$ ( $n$ denota el número de incógnitas ), por lo que el sistema de compatible determinado
II) Si $k \notin \{-8\,,\,1\}$, $\text{rg}(A)=2 \neq \text{rg}(\widetilde{A})=3$, por lo que el sistema es incompatible

A continuación, procedemos a resolver el sistema para el caso ( compatible determinado ) en que $k \in \{-8\,,\,1\}$. Para ello, tenemos en cuenta que las dos últimas ecuaciones son linealmente independients ( la primera ha de ser combinación lineal de éstas ), ya que la submatriz de los coeficientes del sistema de orden dos que corresponde a estas dos ecuaciones es distinto de cero ( tal como hemos visto al principio ) y ello garantiza la independencia lineal de estas dos últimas ecuaciones ( el rango del sistema es $2$ ).

Ia) Si $k=1$, el sistema equivalente es
$$\left\{\begin{matrix}3\,x&-&y&=&2\\ 2\,x&-&y&=&1\\ \end{matrix}\right. \sim \left\{\begin{matrix}3\,x&-&y&=&2\\ x&&&=&1\\ \end{matrix}\right. $$
$$\sim \left\{\begin{matrix}3&-&y&=&2\\ x&&&=&1\\ \end{matrix}\right. \sim \left\{\begin{matrix}&&y&=&1\\ x&&&=&1\\ \end{matrix}\right.$$

Ib) Si $k=-8$, el sistema equivalente es
$$\left\{\begin{matrix}3\,x&-&y&=&2\\ 2\,x&-&y&=&-8\\ \end{matrix}\right. \sim \left\{\begin{matrix}3\,x&-&y&=&2\\ x&&&=&10\\ \end{matrix}\right. $$
$$\sim \left\{\begin{matrix}30&-&y&=&2\\ x&&&=&10\\ \end{matrix}\right. \sim \left\{\begin{matrix}&&y&=&28\\ x&&&=&10\\ \end{matrix}\right.$$

-oOo-

Ejemplo 2.
EUNCIADO. Estudiar en función de los valores del parámetro $k$ y resolver ( en los casos que proceda ) el siguiente sistema de ecuaciones $$\left\{\begin{matrix}
x & +& y&+&z&=&0\\
-x & +& k\,y&+&z&=&0\\
2\,x & +& y&+&2\,k\,z&=&0\\
\end{matrix}\right.$$

SOLUCIÓN. El sistema es homogéneo. La matriz ampliada es $$\widetilde{A}=\left(\begin{array}{ccc|c}
1 & 1 & 1 & 0 \\
-1 & k & 1 & 0 \\
2 & 1 & 2\,k & 0 \\
\end{array}\right)$$
luego ( al ser homogéneo ), para cualquier valor de $k$, tendremos que $r:=\text{rg}(A|B)=\text{rg}(A)$ y, por tanto, el sistema es compatible.

Vamos a analizar ahora los posibles valores de $r$, pues si $r=n=3$ el sistema será compatible determinado y su solución será la trivial $(0,0,0)$; por otro lado, si $r \prec n=3$, el sistema será compatible indeterminado.

Reduciendo la matriz $\widetilde{A}$ por Gauss ( obteniendo así matrices equivalentes en rango ) obtenemos
$$\left(\begin{array}{ccc|c}
1 & 1 & 1 & 0 \\
-1 & k & 1 & 0 \\
2 & 1 & 2\,k & 0 \\
\end{array}\right) \overset{e_1+e_2 \rightarrow e_2\,;\, -2\,e_1+e_3 \rightarrow e_3}{\sim} $$
$$ \sim \left(\begin{array}{ccc|c}
1 & 1 & 1 & 0 \\
0 & 1+k & 2 & 0 \\
0 & -1 & 2\,(k-1) & 0 \\
\end{array}\right) \overset{(1+a)\,e_e+e_2 \rightarrow e_3}{\sim}$$
$$\sim \left(\begin{array}{ccc|c}
1 & 1 & 1 & 0 \\
0 & 1+k & 2 & 0 \\
0 & 0 & 2\,k & 0 \\
\end{array}\right) $$
Así, podemos distinguir dos casos:
I) Si $k=0$, sólo hay dos ecuaciones linealmente independientes ( dos filas no identicamente nulas en la matriz reducida por Gauss), luego $r=2 \prec n=3$, luego el sistema es compatible indeterminado con $n-r=3-2=1$ variable secundaria.
II) Si $k \neq 0$, las tres ecuaciones son linealmente independientes ( tres filas no identicamente nulas en la matriz reducida por Gauss), luego $r=3=n$, luego el sistema es compatible determinado, y su única solución es la trivial ( como ya hemos avanzado ): $(0,0,0)$

Vamos ahora a resolver el sistema en las condiciones de (I). El sistema equivalente es: $$\left\{\begin{matrix}
x & +& y&+&z&=&0\\
& & y&+&2\,z&=&0\\
\end{matrix}\right.$$

Eligiendo $z$ como variable secundaria, hacemos $\lambda:=-z$ y, por tanto, reescribimos el sistema así
$$\left\{\begin{matrix}
x & +& y&=&\lambda\\\
& & y&=&2\,\lambda\\
\end{matrix}\right.$$

Sustituyendo $y=2\,\lambda$ en la primera ecuación: $x=-\lambda$. Por consiguiente, la solución del sistema ( para el caso I ) viene dado por infinitas ternas ( puntos ) $$\{(-\lambda\,,\, 2\,\lambda\,,\,-\lambda): \lambda \in \mathbb{R} \}$$
Y, al tener un sólo grado de libertad ( el parámetro $\lambda$ ) podemos interpretar esta solución como los infinitos puntos de una recta en el espacio de dimensión $3$.

-oOo-

En muchas ocasiones, por simplicidad, no merece la pena trabajar con matrices para analizar el sistema ( empleando el teorema de Rouché-Fröbenius ), tal como se muestra en el siguiente ejemplo.

Ejemplo 2.
ENUNCIADO. Sea el sistema de ecuaciones lineales
$$\left\{\begin{matrix}
x &+ &y &+& z& = & 1 \\
x &- &y &-& z& = & 0 \\
x &+ &y &+& m\,z& = & -1 \\
\end{matrix}\right.$$
Se pide:
a) Analizar el sistema en función de los valores que tome el parámetro $m \in \mathbb{R}$
b) Resolver el sistema para $m:=-1$

SOLUCIÓN.
a)
Reduciendo el sistema por Gauss ( $f_1-f_2 \rightarrow f_2$; $f_1-f_3 \rightarrow f_3$ ) obtenemos el siguiente sistema equivalente al original $$\left\{\begin{matrix}
x &+ &y &+& z& = & 1 \\
& &2y &+& 2z& = & 1 \\
& & &+& (1-m)\,z& = & -1 \\
\end{matrix}\right.$$
de donde deducimos que en el caso de que $1-m$ sea cero ( y por tanto, $m$ sea igual a $1$ ), el sistema es incompatible ya que se llega así a una contradicción ( $0 = -1$ ); por lo tanto, el sistema es incompatible para $m=1$. Para cualquier otro valor de $m$ las tres ecuaciones son linelamente independientes: el rango del sistema es $3$, valor que es igual al número de incógnitas; así, pues, por el Teorema de Rouché-Fröbenius, el sistema es compatible determinado para todo valor de $m$ distinto de $1$.

b)
Teniendo en cuenta, ahora, el valor de $m$ ha de ser ( condición del enunciado ) igual a $-1$, el sistema de ecuaciones a resolver ( ya reducido ) es $$\left\{\begin{matrix}
x &+ &y &+& z& = & 1 \\
& &2y &+& 2z& = & 1 \\
& & &+& 2z& = & -1 \\
\end{matrix}\right.$$
que, como ya se ha demostrado, tiene solución única ( por ser $m \neq 1 $ ). Entonces, despejando $z$ de la última ecuación, obtenemos $z=-\dfrac{1}{2}$; sustituyendo este valor en la segunda ecuación y despejando $y$, llegamos a $y=1$; y, finalmente, sustituyendo los valores de $x$ e $y$, que hemos encontrado en los dos pasos anteriores, en la primera ecuación, y despejando $x$, vemos que $x=\dfrac{1}{2}$.
$\square$

domingo, 8 de octubre de 2017

Rango de un sistema de ecuaciones lineales

Consideremos un sistema de $m$ ecuaciones lineales con $n$ incógnitas $$\left\{\begin{matrix}a_{11}x_1&+&a_{12}x_2&+&\ldots&+&a_{1n}x_n=&b_1 \\ a_{21}x_1&+&a_{22}x_2&+&\ldots&+&a_{2p}x_n=&b_2 \\ \ldots \\ a_{m1}x_1&+&a_{m2}x_2&+&\ldots&+&a_{mn}x_n=&b_m\end{matrix}\right.$$ donde $a_{ij}$ ( $i \neq j$, $i=1,\ldots,m$ y $j=1,\ldots,n$ ) son los coeficientes del sistema, y $x_1,\ldots,x_n$ las incógnitas.

El rango de un sistema de ecuaciones lineales se define como el número de las mismas que son independientes. Obtenemos un sistema equivalente al dado si realizamos combinaciones lineales entre las mismas, de la forma $e_i \leftarrow \lambda \,e_i+\delta \, e_j$ ( $i \neq j$, $i=1,\ldots,m$ y $j=1,\ldots,m$ ). Mediante las apropiadas combinaciones podemos obtener un sistema reducido de tal forma que los nuevos coeficientes sean tales que formen un triángulo de ceros, partiendo del coeficiente $a_{m1}$ y ganando ceros hacia las arriba y hacia la derecha; denominaremos a este sistema, sistema reducido por Gauss.

Una vez reducido (por Gauss) el sistema original, es fácil detectar si alguna de las ecuaciones reducidas presenta alguna contradicción aritmética, del tipo $0 = 1$; si es así, el sistema es incompatible; en cualquier otro caso, el sistema es compatible.

En el caso de que el sistema sea compatible, las ecuaciones que resultan de combinaciones lineales entre otras ecuaciones dan lugar a ecuaciones idénticamente nulas ( $0=0$ ), por lo que el número de ecuaciones no identicamente nulas restantes, $r$ ( $r \le m$), nos da el número de ecuaciones independientes del sistema original. Por consiguiente, si $r=n$ ( recordemos que $n$ es el número de incógnitas ), el sistema es compatible determinado ( la solución consta de un único valor para cada incógnita ) y si $r \prec m$, entonces el sistema es compatible indeterminado con $r$ variables principales y $n-r$ variables secundarias a las cuales podemos atribuir valores arbitrarios, estando formada la solución por infinitas $n$-tuplas de números reales, que constituyen un subespacio afín de $\mathbb{R}^n$.

Ejemplo 1.
ENUNCIADO. Clasificar el siguiente sistema de ecuaciones lineales y resolverlo ( si tiene solución ). Hacer una interpretación geométrica de la situación de incidencia de planos que plantea este sistema de ecuaciones.
$$\left\{\begin{matrix}
x&+&y&+&z&=&1\\
x&-&y&+&z&=&-1\\
x&+&y&+&z&=&0\\
\end{matrix}\right.$$
SOLUCIÓN. Observemos que de la primera ecuación y de la tercera ecuación se deduce que $0=1$, lo cual es absurdo, luego debemos concluir que el sistema es incompatible ( no tiene solución ), y hemos terminado.

Nota: Como cada una de las ecuaciones representa un plano en el espacio tridimensional, interpretamos esta situación ( de incidencia de tres planos), dos de los cuales son paralelos no-coincidentes en el espacio tridimensional.

Ejemplo 2.
ENUNCIADO. Clasificar según la solución y resolver, si procede, el siguiente sistema de ecuaciones lineales, interpretando la ( posible ) solución desde el punto de vista geométrico:
$$\left.\begin{matrix}
3\,x &-&3\,y&+&z=&11 \\
2x &-&3\,y&+&2\,z=&9 \\
x &-&2\,y&+&4\,z=&3 \\
\end{matrix}\right\}$$

SOLUCIÓN. Mediante combinaciones lineales entre filas procederemos a obtener un sistema equivalente que tenga un escalonamiento de $0$s en los coeficientes de las ecuaciones ( del sistema reducido por Gauss ), que nos permitirá saber cuántas ecuaciones de las dadas son linealmente independientes ( \textit{rango} del sistema ), viendo con ello si el sistema es incompatible ( no tiene solución ) o bien compatible ( tiene solución ), y en cuyo caso, si a cada variable le corresponde un sólo valor como solución ( compatible determinado ) o bien le corresponden infinitos valores, aunque con una cierta estructura que los liga ( sistema compatible indeterminado ). Finalmente, si procede encontraremos la solución.
Empecemos. A partir del sistema original
$$\left.\begin{matrix}
3\,x &-&3\,y&+&z=&11 \\
2x &-&3\,y&+&2\,z=&9 \\
x &-&2\,y&+&4\,z=&3 \\
\end{matrix}\right\}$$
y mediante las siguientes operaciones elementales entre ecuaciones
$$\left.\begin{matrix}
-2\,e_1+3\,e_2 \rightarrow e_2\\
-2\,e_3+3\,e_2 \rightarrow e_3\\
\end{matrix}\right.$$
obtenemos el siguiente sistema equivalente
$$\left.\begin{matrix}
3\,x &-&3\,y&+&z=&11 \\
&&-3\,y&+&4\,z=&5 \\
&&y&-&6\,z=&3 \\
\end{matrix}\right\} $$
que acabamos de escalonar haciendo
$$\left.\begin{matrix}
2\,e_3+e_2 \rightarrow e_3\\
\end{matrix}\right.$$
obteniendo
$$\left.\begin{matrix}
3\,x &-&3\,y&+&z=&11 \\
&&-3\,y&+&4\,z=&5 \\
&&&-&14\,z=&14 \\
\end{matrix}\right\} $$
sistema escalonado por Gauss que tiene $3$ ecuaciones linealmente independientes, luego el rango del sistema de ecuaciones es $3$; y, como el rango coincide con el número de incógnitas, el sistema es compatible determinado, por lo que la solución es única. Veamos cuál es. De la última ecuación, despejamos $z$ sin dificultad, obteniendo $z=-1$; sustituyendo dicho valor en la segunda ecuación del sistema reducido llegamos a $y=-3$. Y, finalmente, sustituyendo $z=-1$ e $y=-3$ en la primera ecuación y despejando la incógnita $x$ resulta $x=1$.
Y se comprueba fácilmente que la solución ( que representa un punto del espacio tridimensional ) satisface las tres igualdades originales.

Ejemplo 3.
ENUNCIADO. Clasificar el siguiente sistema de ecuaciones lineales y resolverlo ( si tiene solución ). Finalmente, interpretar la situación de incidencia de planos que expresa el sistema.
$$\left\{\begin{matrix}
2\,x&+&y&-&z&=&1\\
x&-&y&+&z&=&0\\
x&+&2\,y&-&2\,z&=&1\\
\end{matrix}\right.$$
SOLUCIÓN. Reduciendo el sistema por Gauss podremos saber cuál es el número de ecuaciones linealmente independientes ( es decir, el rango del sistema ). Para ello, realizamos las operaciones elementales ( combinaciones lineales ) entre ecuaciones que sean necesarias para escalonar el sistema.

Primer etapa:
Las siguientes combinaciones lineales
$e_3-e_2 \rightarrow e_3$
$-2\,e_2 + e_1 \rightarrow e_2$
nos llevan a
$$\left\{\begin{matrix}
2\,x&+&y&-&z&=&1\\
{\bf 0}\cdot x&+&3\,y&-&3\,z&=&1\\
{\bf 0}\cdot x&+&3\,y&-&3\,z&=&1\\
\end{matrix}\right.$$

Segunda etapa:
Con la combinación lineal
$e_3-e_2 \rightarrow e_3$
obtenemos el escalonamiento de ceros deseado

$$\left\{\begin{matrix}
2\,x&+&y&-&z&=&1\\
{\bf 0}\cdot x&+&3\,y&-&3\,z&=&1\\
{\bf 0}\cdot x&+&{\bf 0}\cdot y&+&0 \cdot z&=&0\\
\end{matrix}\right.$$


Contabilizando el número de ecuaciones ( de este sistema equivalente ) que son identicamente no-nulas, vemos que sólo son dos ( la primera y la segunda ), esto es, el rango del sistema, $r$, es $2$. Como estas dos ecuaciones son compatibles entre sí, el sistema es compatible ( tiene solución ); y, teniendo en cuenta que el número de incógnitas, $n$, que es $3$, es menor que el rango, concluimos que el sistema es compatible indeterminado ( ha de tener infinitas soluciones ). Veamos a continuación cómo están ligadas estas infinitas soluciones; para ello, debemos entender que de las $3$ incógnitas ( variables ), $n-r$ deben tomar el papel de variables secundarias, por lo que hay $3-2=1$ variable secundaria, cuyos valores en la solución los podremos elegir libremente; y, $r=2$ variables principales. Elijamos ahora una de las tres variables como secundaria ( da lo mismo cuál de ellas escogemos ): pongamos que $z$; y, para remarcar su carácter ( de variable secundaria ), la denotaremos por $\lambda$ ( es decir, designamos $z:=\lambda$ ). Hecho esto, escribamos el sistema de ecuaciones equivalente ( y reducido por Gauss ):

$$\left\{\begin{matrix}
2\,x&+&y&-&\lambda&=&1\\
&&3\,y&-&3\,\lambda&=&1\\
\end{matrix}\right.$$

donde hemos ya prescindido de la última ecuación, que es trivial ( no aporta información alguna ). Trasladando al segundo miembro los términos que dependen de $\lambda$, llegamos a

$$\left\{\begin{matrix}
2\,x&+&y&=&1+\lambda\\
&&3\,y&=&1+3\,\lambda\\
\end{matrix}\right.$$

Despejando ahora $y$ de la segunda ecuación obtenemos $$y=\dfrac{1}{3}+\lambda$$ y sustituyendo este resultado en la primera ecuación encontramos la forma que debe tener $x$ ( en función de $\lambda$ ) $$2\,x+\dfrac{1}{3}+\lambda=1+\lambda$$ es decir $$2\,x=1-\dfrac{1}{3}+\lambda-\lambda$$ simplificando y despejando $x$ del primer miembro $$x=\dfrac{1}{3}$$ con lo cual concluimos que la solución del sistema de ecuaciones son las infinitas ternas ( por ternas de números podemos entender puntos de una recta en el espacio tridimensional ) $$\{(\dfrac{1}{3},\dfrac{1}{3}+\lambda,\lambda): \lambda \in \mathbb{R}\}$$

Nota: Interpretamos $\lambda$ como un parámetro en la estructura general de la solución y, desde el punto de vista geométrico, representa el único grado de libertad que tiene toda recta.

Ejemplo 4.
ENUNCIADO. Resolver el sistema de ecuaciones dado por una única ecuación $$x-y+z=1$$ Decir qué significa desde el punto de vista geométrico.
SOLUCIÓN. Como hay tres variables y el sistema consta de una sola ecuación, el sistema es compatible indeterminado, con $3-1=2$ variables secundarias. Elijamos tres de las variable como variables secundarias, pongamos que $y$ y $z$, denotándolas de la forma $\alpha:=y$ y $\beta:=z$, con lo cual podemos escribir $$x=1+\alpha-\beta$$ Como podemos dar valores arbitrarios ( infinitos valores ) a $\alpha$ y a $\beta$, describimos, pues, la solución como el conjunto de infinitas ternas de números reales dado por $$\{(1+\alpha-\beta,\alpha,\beta): \alpha,\beta \in \mathbb{R}\}$$ que interpretamos como puntos de un plano en el espacio tridimensional.

Nota: $\alpha$ y $\beta$ hacen el papel de parámetros en la estructura general de la solución. El que encontremos dos parámetros se corresponde con la noción ( geométrica ) de que un plano se entienda como un conjunto de puntos con dos grados de libertad, pues al imaginar que recorremos todos estos puntos podemos pensar que lo podemos hacer eligiendo dos direcciones básicas.

OBSERVACIÓN. Si el número de ecuaciones, $m$, fuese mayor que el número de incógnitas $n$, decimos que el sistema está sobredeterminado. Entonces o bien el sistema sería incompatible ( por contener al menos dos ecuaciones contradictorias ) o bien habría por lo menos $m-n$ ecuaciones que serían necesariamente una combinación de algunas de las $r$ ecuaciones
linealmente independientes restantes, siendo $r$ ( rango del sistema ) el número de ecuaciones independientes.

Ejemplo 5.
ENUNCIADO. Estúdiese y resuélvase ( si procede hacerlo ) el siguiente sistema de ecuaciones lineales
$$\left\{\begin{matrix}
x&+&y&=&1\\
x&-&y&=&2\\
-x&+&y&=&-2\\
\end{matrix}\right.$$
Reduciendo el sistema por Gauss ( restando la segunda ecuación de la primera, y sumando la segunda y la tercera ) obtenemos
$$\left\{\begin{matrix}
x&+&y&=&1\\
&&2y&=&-1\\
&&0&=&0\\
\end{matrix}\right.$$
esto es el rango del sistema de ecuaciones es $2$, $r=2$, ( hay $2$ ecuaciones linealmente independientes, la tercera original es combinación de las dos primeras ); y, como éste es igual al número de incógnitas, el sistema es compatible determinado.
$$\left\{\begin{matrix}
x&+&y&=&1\\
&&2y&=&-1\\
\end{matrix}\right.$$
De la última ecuación, obtenemos $y=-1/2$ y sustituyendo en la primera, $x=3/2$
$\square$



miércoles, 4 de octubre de 2017

Obtención de la matriz inversa de una matriz cuadrada ( en el caso de que exista )

Definición ( matriz inversa de $A_{n \times n}$)
Sea $A$ una matriz cuadrada $ n \times n$. Diremos que la matriz $A^{-1}$ ( que, en caso de existir, es única ) es la matriz inversa asociada a $A$ si se cumple que $AA^{-1}=A^{-1}A=I$, donde $I$ es la matriz identidad $n \times n$

Veamos un caso en el que $n$ sea igual a $2$. Lo que vamos a deducir del pequeño estudio que vamos a realizar a continuación, para un caso muy sencillo, no supondrá pérdida de generalidad. Consideremos, por ejemplo, la matriz cuadrada $A=\begin{pmatrix}1 & -1 \\ 1 & 1\end{pmatrix}$, entonces buscamos una matriz $\begin{pmatrix}x & y \\ z & t\end{pmatrix}$ tal que $$\begin{pmatrix}1 & -1 \\ 1 & 1\end{pmatrix}\begin{pmatrix}x & y \\ z & t\end{pmatrix}=\begin{pmatrix}1 & 0 \\ 0 & 1\end{pmatrix}$$

Del producto de matrices se llega al siguiente sistema de ecuaciones lineales: $$\left\{ \begin{matrix}x&&&-&z&&&=&1 \\ x&&&+&z&&&=&0 \\ &&y&&&-&t&=&0 \\ &&y&&&+&t&=&1\end{matrix}\right.$$ que se desacopla en los siguientes sistemas $\left\{ \begin{matrix}x&-&z&=&1 \\ x&+&z&=&0 \end{matrix}\right.$ y cuya solución es $x=1/2$, $z=-1/2$; y, $\left\{ \begin{matrix}x&-&t&=&0 \\ y&+&t&=&1 \end{matrix}\right.$ cuya solución es $y=1/2$, $t=1/2$

Así pues la matriz inversa de $A$ es $A^{-1}=\begin{pmatrix}1/2 & 1/2 \\ -1/2 & 1/2\end{pmatrix}$

Observación importante:
Notemos que, desde luego, es necesario que el sistema de ecuaciones sea compatible determinado para que exista la matriz inversa de $A$, y, por tanto, el rango de la matriz $A$ ha de ser $2$, y en un caso general, $n \times n$, deberá ser $n$; y, por ello, si el rango de la matriz $A_{n \times n}$ ha de ser $n$, entonces $\text{det}(A)$ tendrá que ser distinto de cero.

Una consecuencia de lo que se acaba de decir es que si una matriz $A$ tiene determinante nulo, entonces no existe la matriz inversa de dicha matriz $A$, y si dicho determinante es distinto de cero podremos asegurar que sí existe la matriz inversa de $A$.

Dicho de otra forma: el que el determinante de $A$ sea distinto de cero es condición necesaria y suficiente de existencia de la matriz inversa de $A$

Método de la matriz de los adjuntos ( o cofactores ) de una matriz invertible $A$ para encontrar su matriz inversa.
Procediendo de la misma manera que en el ejemplo expuesto, vamos a calcular la matriz inversa de una matriz invertible $A_{3 \times 3}=\begin{pmatrix}a_{11}&a_{12}&a_{13} \\ a_{21}&a_{22}&a_{23} \\ a_{31}&a_{32}&a_{33} \end{pmatrix}$, a la que designaremos por $A^{-1}=\begin{pmatrix}b_{11}&b_{12}&b_{13} \\ b_{21}&b_{22}&b_{23} \\ b_{31}&b_{32}&b_{33} \end{pmatrix}$, de tal manera que $AA^{-1}=I=A^{-1}A$. Entonces,
$$\begin{pmatrix}a_{11}&a_{12}&a_{13} \\ a_{21}&a_{22}&a_{23} \\ a_{31}&a_{32}&a_{33} \end{pmatrix}\begin{pmatrix}b_{11}&b_{12}&b_{13} \\ b_{21}&b_{22}&b_{23} \\ b_{31}&b_{32}&b_{33} \end{pmatrix}=\begin{pmatrix}1&0&0 \\ 0&1&0 \\ 0&0&1 \end{pmatrix}$$ de donde, realizando el producto del primer miembro, se llega al sistema de ecuaciones lineales:$$\left\{\begin{matrix}a_{11}b_{11}&+&a_{12}b_{21}&+&a_{13}b_{31}&=&1 \\ a_{21}b_{11}&+&a_{22}b_{21}&+&a_{23}b_{31}&=&0 \\ a_{31}b_{11}&+&a_{32}b_{21}&+&a_{33}b_{31}&=&0 \\ a_{11}b_{12}&+&a_{12}b_{22}&+&a_{13}b_{32}&=&0 \\ a_{21}b_{12}&+&a_{22}b_{22}&+&a_{23}b_{32}&=&1 \\ a_{31}b_{12}&+&a_{32}b_{22}&+&a_{33}b_{32}&=&0 \\ a_{11}b_{13}&+&a_{12}b_{23}&+&a_{13}b_{33}&=&0 \\ a_{21}b_{13}&+&a_{22}b_{23}&+&a_{23}b_{33}&=&0 \\ a_{31}b_{13}&+&a_{32}b_{23}&+&a_{33}b_{33}&=&1\end{matrix}\right.$$ cuyas $9$ incógnitas son $b_{11},b_{12},\ldots,b_{33}$
Dicho sistema de $9$ ecuacionescon $9$ incógnitas vemos que se desacopla en tres sistemas de $3$ ecuaciones con $3$ incógnitas:
$$\left\{\begin{matrix}a_{11}b_{11}&+&a_{12}b_{21}&+&a_{13}b_{31}&=&1 \\ a_{21}b_{11}&+&a_{22}b_{21}&+&a_{23}b_{31}&=&0 \\ a_{31}b_{11}&+&a_{32}b_{21}&+&a_{33}b_{31}&=&0 \end{matrix}\right.$$ cuyas incógnitas son $b_{11},b_{21},b_{31}$, que podemos determinar mediante Cramer:

$$b_{11}=\dfrac{\begin{vmatrix}1&a_{12}&a_{13} \\ 0&a_{22}&a_{23} \\ 0&a_{32}&a_{33} \end{vmatrix}}{\text{det}(A)}\overset{\text{Laplace}}{=}\dfrac{=(-1)^{1+1}\cdot \begin{vmatrix}a_{22}&a_{23} \\ a_{32}&a_{33}\end{vmatrix}}{\text{det}(A)}=\dfrac{A_{11}}{\text{det}(A)}$$

$$b_{21}=\dfrac{\begin{vmatrix}a_{11}&1&a_{13} \\ a_{21}&0&a_{23} \\ a{31}&0&a_{33} \end{vmatrix}}{\text{det}(A)}\overset{\text{Laplace}}{=}\dfrac{=(-1)^{1+2}\cdot \begin{vmatrix}a_{21}&a_{23} \\ a_{31}&a_{33}\end{vmatrix}}{\text{det}(A)}=\dfrac{A_{12}}{\text{det}(A)}$$

$$b_{31}=\dfrac{\begin{vmatrix}a_{11}&a_{12}&1 \\ a_{21}&a_{22}&0 \\ a{31}&a_{32}&0 \end{vmatrix}}{\text{det}(A)}\overset{\text{Laplace}}{=}\dfrac{=(-1)^{1+3}\cdot \begin{vmatrix}a_{21}&a_{22} \\ a_{31}&a_{32}\end{vmatrix}}{\text{det}(A)}=\dfrac{A_{13}}{\text{det}(A)}$$

donde $A_{11}$, $A_{12}$ y $A_{13}$ son los cofactores ( o adjuntos ) de los respectivos elementos de $A$ ( recordemos que $A_{ij}\overset{\text{def}}{=}(-1)^{i+j}\,\alpha_{ij}$, siendo $\alpha_{ij}$ el menor complementario ( determinante de la submatriz que se obtiene al suprimir los elementos de la fila $i$-ésima y los elementos de la columna $j$-ésima.

-oOo-

$$\left\{\begin{matrix}a_{11}b_{12}&+&a_{12}b_{22}&+&a_{13}b_{32}&=&0 \\ a_{21}b_{12}&+&a_{22}b_{22}&+&a_{23}b_{32}&=&1 \\ a_{31}b_{12}&+&a_{32}b_{22}&+&a_{33}b_{32}&=&0 \end{matrix}\right.$$ cuyas incógnitas son $b_{12},b_{22},b_{32}$ y que, resolviendo por Cramer, obtenemos ( de manera análoga a lo realizado anteriormente ): $$b_{12}=\dfrac{A_{21}}{\text{det}(A)}$$ $$b_{22}=\dfrac{A_{22}}{\text{det}(A)}$$ $$b_{32}=\dfrac{A_{23}}{\text{det}(A)}$$

-oOo-

$$\left\{\begin{matrix} a_{11}b_{13}&+&a_{12}b_{23}&+&a_{13}b_{33}&=&0 \\ a_{21}b_{13}&+&a_{22}b_{23}&+&a_{23}b_{33}&=&0 \\ a_{31}b_{13}&+&a_{32}b_{23}&+&a_{33}b_{33}&=&1\end{matrix}\right.$$ cuyas incógnitas son $b_{13},b_{23},b_{33}$ y que, por analogía con lo que hemos encontrado en los dos subsistemas anteriores tienen los siguientes resultados: $$b_{13}=\dfrac{A_{31}}{\text{det}(A)}$$ $$b_{23}=\dfrac{A_{32}}{\text{det}(A)}$$ $$b_{33}=\dfrac{A_{33}}{\text{det}(A)}$$

Con todo ello, la matriz inversa pedida es
$A^{-1}=\begin{pmatrix} \dfrac{A_{11}}{\text{det}(A)} & \dfrac{A_{21}}{\text{det}(A)} & \dfrac{A_{31}}{\text{det}(A)} \\ \dfrac{A_{12}}{\text{det}(A)} & \dfrac{A_{22}}{\text{det}(A)} & \dfrac{A_{32}}{\text{det}(A)} \\ \dfrac{A_{13}}{\text{det}(A)} & \dfrac{A_{23}}{\text{det}(A)} & \dfrac{A_{33}}{\text{det}(A)} \end{pmatrix}=\dfrac{1}{\text{det}(A)}\,\begin{pmatrix} A_{11} & A_{21} & A_{31} \\ A_{12} & A_{22} & A_{32} \\ A_{13} & A_{23} & A_{33} \\ \end{pmatrix}=$

$=\dfrac{1}{\text{det}(A)}\,\begin{pmatrix} A_{11} & A_{12} & A_{13} \\ A_{21} & A_{22} & A_{23} \\ A_{31} & A_{32} & A_{33} \\ \end{pmatrix}^{\top}=\dfrac{(\text{Adj}(A))^{\top}}{\text{det}(A)}=\dfrac{\text{Adj}(A^{\top})}{\text{det}(A)}$, donde denotamos por $\text{Adj} (A)$ a la matriz de los adjuntos ( o cofactores ) de $A$, esto es $\begin{pmatrix} A_{11} & A_{12} & A_{13} \\ A_{21} & A_{22} & A_{23} \\ A_{31} & A_{32} & A_{33} \\ \end{pmatrix}$

Dicho procedimiento se generaliza de manera evidente al cálculo de la matriz inversa asociada a una matriz invertible de orden arbitrario $n$, $A_{n \times n}$.

Método de Gauss-Jordan para calcular la matriz inversa asociada a una matriz invertible.
El método de Gauss-Jordan es un m. de reducción, en el que empleamos la reducción de Gauss para triangular la matriz $A$ por debajo y, a continuación, por encima de la diagonal principal, para, finalmente, normalizar a la unidad los elementos que nos queden en la diagonal principal, siguiendo el siguiente proceso $$(A|I) \overset{\text{operaciones elementales por filas}}{\rightarrow} (I|A^{-1})$$

Mediante un ejemplo práctico, se entenderá perfectamente. Veámoslo.
Ejemplo. Emplear el método de Gauss-Jordan para calcular la matriz inversa de la matriz
$$A=\left(\begin{array}{ccc}
3 & 1 & 0 \\
1 & 4 & -1 \\
0 & 2 & 1 \\
\end{array}\right)$$

Escribiendo la matriz $A$ concatenada con la matriz $I$ a su derecha, se tratará de obtener ( por operaciones elementales por filas ) la matriz $I$ a la izquierda ( donde estaba en un principio la matriz $A$ ), quedando al final la matriz inversa pedida a la derecha de la matriz $I$:

$\left(\begin{array}{ccc|ccc}
3 & 1 & 0 & 1 & 0 & 0\\
1 & 4 & -1 & 0 & 1 & 0\\
0 & 2 & 1 & 0 & 0 & 1\\
\end{array}\right) \overset{-3f_2+f_1\rightarrow f_2}{\rightarrow} \left(\begin{array}{ccc|ccc}
3 & 1 & 0 & 1 & 0 & 0\\
0 & -11 & 3 & 1 & -3 & 0\\
0 & 2 & 1 & 0 & 0 & 1\\
\end{array}\right) \rightarrow$

$\overset{\frac{11}{2}f_3+f2\rightarrow f_3}{\rightarrow}\left(\begin{array}{ccc|ccc}
3 & 1 & 0 & 1 & 0 & 0\\
0 & -11 & 3 & 1 & -3 & 0\\
0 & 0 & 17/2 & 1 & -3 & 11/2\\
\end{array}\right) \rightarrow$

$\overset{-\frac{17}{6}f_2+f_3\rightarrow f_2}{\rightarrow} \left(\begin{array}{ccc|ccc}
3 & 1 & 0 & 1 & 0 & 0\\
0 & 187/6 & 0 & -11/6 & 11/2 & 11/2\\
0 & 0 & 17/2 & 1 & -3 & 11/2\\
\end{array}\right) \rightarrow$

$\overset{-\frac{187}{6}f_1+f_2\rightarrow f_1}{\rightarrow} \left(\begin{array}{ccc|ccc}
-187/2 & 0 & 0 & -33 & 11/2 & 11/2\\
0 & 187/6 & 0 & -11/6 & 11/2 & 11/2\\
0 & 0 & 17/2 & 1 & -3 & 11/2\\
\end{array}\right) \rightarrow$

$\overset{-\frac{2}{187}f_1\rightarrow f_1;\frac{6}{187}f_2\rightarrow f_2;\frac{2}{17}f_3\rightarrow f_3 }{\rightarrow}
\left(\begin{array}{ccc|ccc}
1 & 0 & 0 & 6/17 & -1/17 & -1/17\\
0 & 1 & 0 & -1/17 & 3/17 & 3/17\\
0 & 0 & 1 & 2/17 & -6/17 & 11/17\\
\end{array}\right)$

y, por tanto $$A^{-1}=\left(\begin{array}{ccc}
6/17 & -1/17 & -1/17\\
-1/17 & 3/17 & 3/17\\
2/17 & -6/17 & 11/17\\
\end{array}\right)$$

$\square$

martes, 3 de octubre de 2017

Trasposición de un producto de matrices

ENUNCIADO. Demuéstrese que $(AB)^{\top}=B^{\top}A^{\top}$, siendo $A$ una matriz $m \times n$ y $B$ es una matriz $n \times p$

SOLUCIÓN. Notemos que siendo $A_{m \times n}B_{n \times p} \rightarrow \square_{m \times p}$, luego $(A_{m \times n}B_{n \times p})^{\top} \rightarrow \square_{p \times m}$; y, por otra parte, $(B^{\top})_{p \times n}(A^{\top})_{n \times m} \rightarrow \square_{p \times m}$, luego lo propuesto es coherente atendiendo a las dimensiones de la matriz que resulta de la operación de cada miembro. Procedemos a demostrar dicha proposición:

$(AB)_{ij}^{\top}=(AB)_{ji}=\displaystyle \sum_{k=1}^{n}\,(A)_{jk}(B)_{ki}=\sum_{k=1}^{n}\,(B)_{ki}(A)_{jk}=\sum_{k=1}^{n}\,(B)_{ik}^{\top}(A)_{ki}^{\top} \Rightarrow$ $$ \Rightarrow (AB)^{\top}=B^{\top}A^{\top}$$
$\square$

lunes, 2 de octubre de 2017

Rango de una matriz n x p

Rango de una matriz $n \times p$
Podemos contemplar una matriz de $n$ filas y $p$ columnas como un objeto formado por $n$ vectores fila ( cuyas coordenadas están dispuestas en filas, en cada una de las respectivas filas de la matriz ) o bien por $p$ vectores columna ( disponiendo las coordenadas de cada uno en las respectivas columnas ). Así pues, en cuanto al llamado rango de la matriz, y de manera análoga a lo dicho para los sistemas de ecuaciones lineales, diremos que es igual al número de filas ( vectores fila ) independientes, que lógicamente ha de coincidir con el número de vectores columna independientes.
De ellos se desprende que el rango, $r$, de una matriz $n \times p$ ha de ser tal que $r \le \text{mín}(\{n,p\})$

Determinación del rango por reducción de Gauss:
Para determinar el número de filas independientes -- y por tanto el rango de la matriz --, podemos reducir el sistema por Gauss, obteniendo ( por combinación de filas ) el mayor triángulo (isósceles) de ceros partiendo del vértice en el elemento $a_{n1}$; el número de filas no identicamente nulas que quedan al término de dicho proceso es precisamente el valor del rango.

Determinación del rango a partir del estudio de los menores complementarios de la matriz:
También es posible calcular el rango de la matriz mediante el estudio de los menores complementarios de la misma. Dada una matriz $A$ de dimensiones $n \times p$, llamamos menores complementarios a los determinantes de las submatrices cuadradas que contiene la matriz $A$.

Apuntemos que el rango de la matriz $A$ es igual al orden del mayor menor complementario no nulo que podamos encontrar en la matriz

Ésto podemos justificarlo por el hecho de que, dado un sistema de $n$ ecuaciones lineales del mismo número de ecuaciones que de incógnitas, éste es compatible determinado si el rango del sistema es $n$, esto es, si el determinante de la matriz de coeficientes del sistema es distinto de cero; y, en el caso que fuese compatible indeterminado, de rango $r \prec n$ ( el número de ecuaciones independientes es $r$ ), el número de variables secundarias es $n-r$, y puede comprobarse que el mayor menor complementario no nulo es de orden $r$

Pongamos por ejemplo la matriz $4 \times 4$ $$A=\begin{pmatrix}a&b&c&d\\e&f&g&h\\i&j&k&l \\ m&n&o&p \end{pmatrix}$$
Llamamos menores principales de la misma a $a$, $\begin{vmatrix}a&b\\e&f \end{vmatrix}$, $\begin{vmatrix}a&b&c\\e&f&g\\i&j&k \end{vmatrix}$ y $\begin{vmatrix}a&b&c&d\\e&f&g&h\\i&j&k&l \\ m&n&o&p \end{vmatrix}$
Sólo hay un menor de orden $4$, y hay $4^2=16$ menores de orden $1$ ( que son los elementos de la matriz), pero es evidente que hay muchos más menores de orden $2$ que el principal de ese orden, y más menores de orden $3$ que el menor principal de dicho orden. Esta reflexión nos lleva a darnos cuenta de lo arduo que puede llegar a ser examinar todos los posibles menores de un mismo orden.

Algoritmo del orlado de un menor complementario no nulo:
Sin embargo, para realizar el estudio del rango de la matriz $A$, existe un algoritmo que permite economizar el número de menores a examinar; este algoritmo toma como menor de partida a cualquiera que sea no nulo, y se orla la submatriz correspondiente a las submatrices de un orden superior hasta encontrar ( si lo hubiese ) alguno de sus determinantes ( menores complementarios de un orden superior al de partida ) distinto de cero, tras lo cual hay que volver a repetir al paso precedente hasta examinar los menores de orden máximo que salen de los orlados sucesivos. Este algoritmo se conoce con el nombre de algoritmo del orlado.

Vamos a ilustrarlo con el siguiente ejemplo, que parte de la matriz cuadrada $4 \times 4$ que hemos puesto como ejemplo en el párrafo anterior: $$A=\begin{pmatrix}a&b&c&d\\e&f&g&h\\i&j&k&l \\ m&n&o&p \end{pmatrix}$$

Nota: En general, el algoritmo puede aplicarse a cualquier matriz rectangular ( no hace falta que sea cuadrada ).

En este ejemplo, partiremos del supuesto que hemos encontrado un menor complementario de orden $2$ distinto de cero, pongamos que $\begin{vmatrix}i&j\\m&n \end{vmatrix} \neq 0$, con lo cual podemos afirmar que el rango de $A$ es, por lo menos, igual a $2$; ahora bien, puede ser mayor ( $3$ o bien $4$ ). Para dilucidar ésto, procedemos al orlado de dicho menor de orden $2$ no nulo con los $4$ menores de un orden mayor, esto es, de orden $3$:
$\begin{vmatrix}e&f&g\\i&j&k\\m&n&o\end{vmatrix}$,$\begin{vmatrix}a&b&c\\i&j&k\\m&n&o\end{vmatrix}$,$\begin{vmatrix}e&f&h\\i&j&l\\m&n&o\end{vmatrix}$ y $\begin{vmatrix}a&b&d\\i&j&l\\m&n&p\end{vmatrix}$
Si por lo menos uno de ellos es distinto de cero, podremos afirmar que el rango es mayor o igual que $3$, y, finalmente, sólo nos quedará orlar dicho menor de orden $3$ no nulo, que, obviamente nos llevará al único menor de orden $4$ ( que es el determinante de $A$ ); si dicho éste fuese distinto de cero, el rango de $A$ seria $4$ y, en caso contrario, seria $3$.

Otro ejemplo:
Consideremos ahora la matriz $3 \times 4$ $$B=\begin{pmatrix}a&b&c&d\\e&f&g&h\\i&j&k&l \end{pmatrix}$$ Partamos del supuesto ( para simplificar un poco el proceso ) que hemos encontrado un menor complementario de orden $2$ no nulo, pongamos que $\begin{vmatrix}e&f\\i&j\end{vmatrix} \neq 0$, con lo cual $2 \le r \le 3$. Para averiguar si $r=3$, orlemos la submatriz $\begin{pmatrix}e&f\\i&j\end{pmatrix}$ cuyo determinante es no nulo ( esto es, partimos del menor de orden $2$ no nulo que hemos localizado ), obteniendo en este caso sólo dos menores de un orden superior ( esto es, de orden $3$ ):
$\begin{vmatrix}a&b&c\\e&f&g\\i&j&k\end{vmatrix}$ y $\begin{vmatrix}a&b&d\\e&f&h\\i&j&l\end{vmatrix}$. Si alguno de los dos fuese no nulo, diríamos que el rango de $B$ es $3$ y si ninguno de los dos fuese no nulo, concluiríamos que el rango de $B$ seria $2$.
$\square$