miércoles, 4 de octubre de 2017

Obtención de la matriz inversa de una matriz cuadrada ( en el caso de que exista )

Definición ( matriz inversa de $A_{n \times n}$)
Sea $A$ una matriz cuadrada $ n \times n$. Diremos que la matriz $A^{-1}$ ( que, en caso de existir, es única ) es la matriz inversa asociada a $A$ si se cumple que $AA^{-1}=A^{-1}A=I$, donde $I$ es la matriz identidad $n \times n$

Veamos un caso en el que $n$ sea igual a $2$. Lo que vamos a deducir del pequeño estudio que vamos a realizar a continuación, para un caso muy sencillo, no supondrá pérdida de generalidad. Consideremos, por ejemplo, la matriz cuadrada $A=\begin{pmatrix}1 & -1 \\ 1 & 1\end{pmatrix}$, entonces buscamos una matriz $\begin{pmatrix}x & y \\ z & t\end{pmatrix}$ tal que $$\begin{pmatrix}1 & -1 \\ 1 & 1\end{pmatrix}\begin{pmatrix}x & y \\ z & t\end{pmatrix}=\begin{pmatrix}1 & 0 \\ 0 & 1\end{pmatrix}$$

Del producto de matrices se llega al siguiente sistema de ecuaciones lineales: $$\left\{ \begin{matrix}x&&&-&z&&&=&1 \\ x&&&+&z&&&=&0 \\ &&y&&&-&t&=&0 \\ &&y&&&+&t&=&1\end{matrix}\right.$$ que se desacopla en los siguientes sistemas $\left\{ \begin{matrix}x&-&z&=&1 \\ x&+&z&=&0 \end{matrix}\right.$ y cuya solución es $x=1/2$, $z=-1/2$; y, $\left\{ \begin{matrix}x&-&t&=&0 \\ y&+&t&=&1 \end{matrix}\right.$ cuya solución es $y=1/2$, $t=1/2$

Así pues la matriz inversa de $A$ es $A^{-1}=\begin{pmatrix}1/2 & 1/2 \\ -1/2 & 1/2\end{pmatrix}$

Observación importante:
Notemos que, desde luego, es necesario que el sistema de ecuaciones sea compatible determinado para que exista la matriz inversa de $A$, y, por tanto, el rango de la matriz $A$ ha de ser $2$, y en un caso general, $n \times n$, deberá ser $n$; y, por ello, si el rango de la matriz $A_{n \times n}$ ha de ser $n$, entonces $\text{det}(A)$ tendrá que ser distinto de cero.

Una consecuencia de lo que se acaba de decir es que si una matriz $A$ tiene determinante nulo, entonces no existe la matriz inversa de dicha matriz $A$, y si dicho determinante es distinto de cero podremos asegurar que sí existe la matriz inversa de $A$.

Dicho de otra forma: el que el determinante de $A$ sea distinto de cero es condición necesaria y suficiente de existencia de la matriz inversa de $A$

Método de la matriz de los adjuntos ( o cofactores ) de una matriz invertible $A$ para encontrar su matriz inversa.
Procediendo de la misma manera que en el ejemplo expuesto, vamos a calcular la matriz inversa de una matriz invertible $A_{3 \times 3}=\begin{pmatrix}a_{11}&a_{12}&a_{13} \\ a_{21}&a_{22}&a_{23} \\ a_{31}&a_{32}&a_{33} \end{pmatrix}$, a la que designaremos por $A^{-1}=\begin{pmatrix}b_{11}&b_{12}&b_{13} \\ b_{21}&b_{22}&b_{23} \\ b_{31}&b_{32}&b_{33} \end{pmatrix}$, de tal manera que $AA^{-1}=I=A^{-1}A$. Entonces,
$$\begin{pmatrix}a_{11}&a_{12}&a_{13} \\ a_{21}&a_{22}&a_{23} \\ a_{31}&a_{32}&a_{33} \end{pmatrix}\begin{pmatrix}b_{11}&b_{12}&b_{13} \\ b_{21}&b_{22}&b_{23} \\ b_{31}&b_{32}&b_{33} \end{pmatrix}=\begin{pmatrix}1&0&0 \\ 0&1&0 \\ 0&0&1 \end{pmatrix}$$ de donde, realizando el producto del primer miembro, se llega al sistema de ecuaciones lineales:$$\left\{\begin{matrix}a_{11}b_{11}&+&a_{12}b_{21}&+&a_{13}b_{31}&=&1 \\ a_{21}b_{11}&+&a_{22}b_{21}&+&a_{23}b_{31}&=&0 \\ a_{31}b_{11}&+&a_{32}b_{21}&+&a_{33}b_{31}&=&0 \\ a_{11}b_{12}&+&a_{12}b_{22}&+&a_{13}b_{32}&=&0 \\ a_{21}b_{12}&+&a_{22}b_{22}&+&a_{23}b_{32}&=&1 \\ a_{31}b_{12}&+&a_{32}b_{22}&+&a_{33}b_{32}&=&0 \\ a_{11}b_{13}&+&a_{12}b_{23}&+&a_{13}b_{33}&=&0 \\ a_{21}b_{13}&+&a_{22}b_{23}&+&a_{23}b_{33}&=&0 \\ a_{31}b_{13}&+&a_{32}b_{23}&+&a_{33}b_{33}&=&1\end{matrix}\right.$$ cuyas $9$ incógnitas son $b_{11},b_{12},\ldots,b_{33}$
Dicho sistema de $9$ ecuacionescon $9$ incógnitas vemos que se desacopla en tres sistemas de $3$ ecuaciones con $3$ incógnitas:
$$\left\{\begin{matrix}a_{11}b_{11}&+&a_{12}b_{21}&+&a_{13}b_{31}&=&1 \\ a_{21}b_{11}&+&a_{22}b_{21}&+&a_{23}b_{31}&=&0 \\ a_{31}b_{11}&+&a_{32}b_{21}&+&a_{33}b_{31}&=&0 \end{matrix}\right.$$ cuyas incógnitas son $b_{11},b_{21},b_{31}$, que podemos determinar mediante Cramer:

$$b_{11}=\dfrac{\begin{vmatrix}1&a_{12}&a_{13} \\ 0&a_{22}&a_{23} \\ 0&a_{32}&a_{33} \end{vmatrix}}{\text{det}(A)}\overset{\text{Laplace}}{=}\dfrac{=(-1)^{1+1}\cdot \begin{vmatrix}a_{22}&a_{23} \\ a_{32}&a_{33}\end{vmatrix}}{\text{det}(A)}=\dfrac{A_{11}}{\text{det}(A)}$$

$$b_{21}=\dfrac{\begin{vmatrix}a_{11}&1&a_{13} \\ a_{21}&0&a_{23} \\ a{31}&0&a_{33} \end{vmatrix}}{\text{det}(A)}\overset{\text{Laplace}}{=}\dfrac{=(-1)^{1+2}\cdot \begin{vmatrix}a_{21}&a_{23} \\ a_{31}&a_{33}\end{vmatrix}}{\text{det}(A)}=\dfrac{A_{12}}{\text{det}(A)}$$

$$b_{31}=\dfrac{\begin{vmatrix}a_{11}&a_{12}&1 \\ a_{21}&a_{22}&0 \\ a{31}&a_{32}&0 \end{vmatrix}}{\text{det}(A)}\overset{\text{Laplace}}{=}\dfrac{=(-1)^{1+3}\cdot \begin{vmatrix}a_{21}&a_{22} \\ a_{31}&a_{32}\end{vmatrix}}{\text{det}(A)}=\dfrac{A_{13}}{\text{det}(A)}$$

donde $A_{11}$, $A_{12}$ y $A_{13}$ son los cofactores ( o adjuntos ) de los respectivos elementos de $A$ ( recordemos que $A_{ij}\overset{\text{def}}{=}(-1)^{i+j}\,\alpha_{ij}$, siendo $\alpha_{ij}$ el menor complementario ( determinante de la submatriz que se obtiene al suprimir los elementos de la fila $i$-ésima y los elementos de la columna $j$-ésima.

-oOo-

$$\left\{\begin{matrix}a_{11}b_{12}&+&a_{12}b_{22}&+&a_{13}b_{32}&=&0 \\ a_{21}b_{12}&+&a_{22}b_{22}&+&a_{23}b_{32}&=&1 \\ a_{31}b_{12}&+&a_{32}b_{22}&+&a_{33}b_{32}&=&0 \end{matrix}\right.$$ cuyas incógnitas son $b_{12},b_{22},b_{32}$ y que, resolviendo por Cramer, obtenemos ( de manera análoga a lo realizado anteriormente ): $$b_{12}=\dfrac{A_{21}}{\text{det}(A)}$$ $$b_{22}=\dfrac{A_{22}}{\text{det}(A)}$$ $$b_{32}=\dfrac{A_{23}}{\text{det}(A)}$$

-oOo-

$$\left\{\begin{matrix} a_{11}b_{13}&+&a_{12}b_{23}&+&a_{13}b_{33}&=&0 \\ a_{21}b_{13}&+&a_{22}b_{23}&+&a_{23}b_{33}&=&0 \\ a_{31}b_{13}&+&a_{32}b_{23}&+&a_{33}b_{33}&=&1\end{matrix}\right.$$ cuyas incógnitas son $b_{13},b_{23},b_{33}$ y que, por analogía con lo que hemos encontrado en los dos subsistemas anteriores tienen los siguientes resultados: $$b_{13}=\dfrac{A_{31}}{\text{det}(A)}$$ $$b_{23}=\dfrac{A_{32}}{\text{det}(A)}$$ $$b_{33}=\dfrac{A_{33}}{\text{det}(A)}$$

Con todo ello, la matriz inversa pedida es
$A^{-1}=\begin{pmatrix} \dfrac{A_{11}}{\text{det}(A)} & \dfrac{A_{21}}{\text{det}(A)} & \dfrac{A_{31}}{\text{det}(A)} \\ \dfrac{A_{12}}{\text{det}(A)} & \dfrac{A_{22}}{\text{det}(A)} & \dfrac{A_{32}}{\text{det}(A)} \\ \dfrac{A_{13}}{\text{det}(A)} & \dfrac{A_{23}}{\text{det}(A)} & \dfrac{A_{33}}{\text{det}(A)} \end{pmatrix}=\dfrac{1}{\text{det}(A)}\,\begin{pmatrix} A_{11} & A_{21} & A_{31} \\ A_{12} & A_{22} & A_{32} \\ A_{13} & A_{23} & A_{33} \\ \end{pmatrix}=$

$=\dfrac{1}{\text{det}(A)}\,\begin{pmatrix} A_{11} & A_{12} & A_{13} \\ A_{21} & A_{22} & A_{23} \\ A_{31} & A_{32} & A_{33} \\ \end{pmatrix}^{\top}=\dfrac{(\text{Adj}(A))^{\top}}{\text{det}(A)}=\dfrac{\text{Adj}(A^{\top})}{\text{det}(A)}$, donde denotamos por $\text{Adj} (A)$ a la matriz de los adjuntos ( o cofactores ) de $A$, esto es $\begin{pmatrix} A_{11} & A_{12} & A_{13} \\ A_{21} & A_{22} & A_{23} \\ A_{31} & A_{32} & A_{33} \\ \end{pmatrix}$

Dicho procedimiento se generaliza de manera evidente al cálculo de la matriz inversa asociada a una matriz invertible de orden arbitrario $n$, $A_{n \times n}$.

Método de Gauss-Jordan para calcular la matriz inversa asociada a una matriz invertible.
El método de Gauss-Jordan es un m. de reducción, en el que empleamos la reducción de Gauss para triangular la matriz $A$ por debajo y, a continuación, por encima de la diagonal principal, para, finalmente, normalizar a la unidad los elementos que nos queden en la diagonal principal, siguiendo el siguiente proceso $$(A|I) \overset{\text{operaciones elementales por filas}}{\rightarrow} (I|A^{-1})$$

Mediante un ejemplo práctico, se entenderá perfectamente. Veámoslo.
Ejemplo. Emplear el método de Gauss-Jordan para calcular la matriz inversa de la matriz
$$A=\left(\begin{array}{ccc}
3 & 1 & 0 \\
1 & 4 & -1 \\
0 & 2 & 1 \\
\end{array}\right)$$

Escribiendo la matriz $A$ concatenada con la matriz $I$ a su derecha, se tratará de obtener ( por operaciones elementales por filas ) la matriz $I$ a la izquierda ( donde estaba en un principio la matriz $A$ ), quedando al final la matriz inversa pedida a la derecha de la matriz $I$:

$\left(\begin{array}{ccc|ccc}
3 & 1 & 0 & 1 & 0 & 0\\
1 & 4 & -1 & 0 & 1 & 0\\
0 & 2 & 1 & 0 & 0 & 1\\
\end{array}\right) \overset{-3f_2+f_1\rightarrow f_2}{\rightarrow} \left(\begin{array}{ccc|ccc}
3 & 1 & 0 & 1 & 0 & 0\\
0 & -11 & 3 & 1 & -3 & 0\\
0 & 2 & 1 & 0 & 0 & 1\\
\end{array}\right) \rightarrow$

$\overset{\frac{11}{2}f_3+f2\rightarrow f_3}{\rightarrow}\left(\begin{array}{ccc|ccc}
3 & 1 & 0 & 1 & 0 & 0\\
0 & -11 & 3 & 1 & -3 & 0\\
0 & 0 & 17/2 & 1 & -3 & 11/2\\
\end{array}\right) \rightarrow$

$\overset{-\frac{17}{6}f_2+f_3\rightarrow f_2}{\rightarrow} \left(\begin{array}{ccc|ccc}
3 & 1 & 0 & 1 & 0 & 0\\
0 & 187/6 & 0 & -11/6 & 11/2 & 11/2\\
0 & 0 & 17/2 & 1 & -3 & 11/2\\
\end{array}\right) \rightarrow$

$\overset{-\frac{187}{6}f_1+f_2\rightarrow f_1}{\rightarrow} \left(\begin{array}{ccc|ccc}
-187/2 & 0 & 0 & -33 & 11/2 & 11/2\\
0 & 187/6 & 0 & -11/6 & 11/2 & 11/2\\
0 & 0 & 17/2 & 1 & -3 & 11/2\\
\end{array}\right) \rightarrow$

$\overset{-\frac{2}{187}f_1\rightarrow f_1;\frac{6}{187}f_2\rightarrow f_2;\frac{2}{17}f_3\rightarrow f_3 }{\rightarrow}
\left(\begin{array}{ccc|ccc}
1 & 0 & 0 & 6/17 & -1/17 & -1/17\\
0 & 1 & 0 & -1/17 & 3/17 & 3/17\\
0 & 0 & 1 & 2/17 & -6/17 & 11/17\\
\end{array}\right)$

y, por tanto $$A^{-1}=\left(\begin{array}{ccc}
6/17 & -1/17 & -1/17\\
-1/17 & 3/17 & 3/17\\
2/17 & -6/17 & 11/17\\
\end{array}\right)$$

$\square$

No hay comentarios:

Publicar un comentario

Gracias por tus comentarios