Loading web-font TeX/Math/Italic

miércoles, 4 de octubre de 2017

Obtención de la matriz inversa de una matriz cuadrada ( en el caso de que exista )

Definición ( matriz inversa de A_{n \times n})
Sea A una matriz cuadrada n \times n. Diremos que la matriz A^{-1} ( que, en caso de existir, es única ) es la matriz inversa asociada a A si se cumple que AA^{-1}=A^{-1}A=I, donde I es la matriz identidad n \times n

Veamos un caso en el que n sea igual a 2. Lo que vamos a deducir del pequeño estudio que vamos a realizar a continuación, para un caso muy sencillo, no supondrá pérdida de generalidad. Consideremos, por ejemplo, la matriz cuadrada A=\begin{pmatrix}1 & -1 \\ 1 & 1\end{pmatrix}, entonces buscamos una matriz \begin{pmatrix}x & y \\ z & t\end{pmatrix} tal que \begin{pmatrix}1 & -1 \\ 1 & 1\end{pmatrix}\begin{pmatrix}x & y \\ z & t\end{pmatrix}=\begin{pmatrix}1 & 0 \\ 0 & 1\end{pmatrix}


Del producto de matrices se llega al siguiente sistema de ecuaciones lineales: \left\{ \begin{matrix}x&&&-&z&&&=&1 \\ x&&&+&z&&&=&0 \\ &&y&&&-&t&=&0 \\ &&y&&&+&t&=&1\end{matrix}\right.
que se desacopla en los siguientes sistemas \left\{ \begin{matrix}x&-&z&=&1 \\ x&+&z&=&0 \end{matrix}\right. y cuya solución es x=1/2, z=-1/2; y, \left\{ \begin{matrix}x&-&t&=&0 \\ y&+&t&=&1 \end{matrix}\right. cuya solución es y=1/2, t=1/2

Así pues la matriz inversa de A es A^{-1}=\begin{pmatrix}1/2 & 1/2 \\ -1/2 & 1/2\end{pmatrix}

Observación importante:
Notemos que, desde luego, es necesario que el sistema de ecuaciones sea compatible determinado para que exista la matriz inversa de A, y, por tanto, el rango de la matriz A ha de ser 2, y en un caso general, n \times n, deberá ser n; y, por ello, si el rango de la matriz A_{n \times n} ha de ser n, entonces \text{det}(A) tendrá que ser distinto de cero.

Una consecuencia de lo que se acaba de decir es que si una matriz A tiene determinante nulo, entonces no existe la matriz inversa de dicha matriz A, y si dicho determinante es distinto de cero podremos asegurar que sí existe la matriz inversa de A.

Dicho de otra forma: el que el determinante de A sea distinto de cero es condición necesaria y suficiente de existencia de la matriz inversa de A

Método de la matriz de los adjuntos ( o cofactores ) de una matriz invertible A para encontrar su matriz inversa.
Procediendo de la misma manera que en el ejemplo expuesto, vamos a calcular la matriz inversa de una matriz invertible A_{3 \times 3}=\begin{pmatrix}a_{11}&a_{12}&a_{13} \\ a_{21}&a_{22}&a_{23} \\ a_{31}&a_{32}&a_{33} \end{pmatrix}, a la que designaremos por A^{-1}=\begin{pmatrix}b_{11}&b_{12}&b_{13} \\ b_{21}&b_{22}&b_{23} \\ b_{31}&b_{32}&b_{33} \end{pmatrix}, de tal manera que AA^{-1}=I=A^{-1}A. Entonces,
\begin{pmatrix}a_{11}&a_{12}&a_{13} \\ a_{21}&a_{22}&a_{23} \\ a_{31}&a_{32}&a_{33} \end{pmatrix}\begin{pmatrix}b_{11}&b_{12}&b_{13} \\ b_{21}&b_{22}&b_{23} \\ b_{31}&b_{32}&b_{33} \end{pmatrix}=\begin{pmatrix}1&0&0 \\ 0&1&0 \\ 0&0&1 \end{pmatrix}
de donde, realizando el producto del primer miembro, se llega al sistema de ecuaciones lineales:\left\{\begin{matrix}a_{11}b_{11}&+&a_{12}b_{21}&+&a_{13}b_{31}&=&1 \\ a_{21}b_{11}&+&a_{22}b_{21}&+&a_{23}b_{31}&=&0 \\ a_{31}b_{11}&+&a_{32}b_{21}&+&a_{33}b_{31}&=&0 \\ a_{11}b_{12}&+&a_{12}b_{22}&+&a_{13}b_{32}&=&0 \\ a_{21}b_{12}&+&a_{22}b_{22}&+&a_{23}b_{32}&=&1 \\ a_{31}b_{12}&+&a_{32}b_{22}&+&a_{33}b_{32}&=&0 \\ a_{11}b_{13}&+&a_{12}b_{23}&+&a_{13}b_{33}&=&0 \\ a_{21}b_{13}&+&a_{22}b_{23}&+&a_{23}b_{33}&=&0 \\ a_{31}b_{13}&+&a_{32}b_{23}&+&a_{33}b_{33}&=&1\end{matrix}\right.
cuyas 9 incógnitas son b_{11},b_{12},\ldots,b_{33}
Dicho sistema de 9 ecuacionescon 9 incógnitas vemos que se desacopla en tres sistemas de 3 ecuaciones con 3 incógnitas:
\left\{\begin{matrix}a_{11}b_{11}&+&a_{12}b_{21}&+&a_{13}b_{31}&=&1 \\ a_{21}b_{11}&+&a_{22}b_{21}&+&a_{23}b_{31}&=&0 \\ a_{31}b_{11}&+&a_{32}b_{21}&+&a_{33}b_{31}&=&0 \end{matrix}\right.
cuyas incógnitas son b_{11},b_{21},b_{31}, que podemos determinar mediante Cramer:

b_{11}=\dfrac{\begin{vmatrix}1&a_{12}&a_{13} \\ 0&a_{22}&a_{23} \\ 0&a_{32}&a_{33} \end{vmatrix}}{\text{det}(A)}\overset{\text{Laplace}}{=}\dfrac{=(-1)^{1+1}\cdot \begin{vmatrix}a_{22}&a_{23} \\ a_{32}&a_{33}\end{vmatrix}}{\text{det}(A)}=\dfrac{A_{11}}{\text{det}(A)}


b_{21}=\dfrac{\begin{vmatrix}a_{11}&1&a_{13} \\ a_{21}&0&a_{23} \\ a{31}&0&a_{33} \end{vmatrix}}{\text{det}(A)}\overset{\text{Laplace}}{=}\dfrac{=(-1)^{1+2}\cdot \begin{vmatrix}a_{21}&a_{23} \\ a_{31}&a_{33}\end{vmatrix}}{\text{det}(A)}=\dfrac{A_{12}}{\text{det}(A)}


b_{31}=\dfrac{\begin{vmatrix}a_{11}&a_{12}&1 \\ a_{21}&a_{22}&0 \\ a{31}&a_{32}&0 \end{vmatrix}}{\text{det}(A)}\overset{\text{Laplace}}{=}\dfrac{=(-1)^{1+3}\cdot \begin{vmatrix}a_{21}&a_{22} \\ a_{31}&a_{32}\end{vmatrix}}{\text{det}(A)}=\dfrac{A_{13}}{\text{det}(A)}


donde A_{11}, A_{12} y A_{13} son los cofactores ( o adjuntos ) de los respectivos elementos de A ( recordemos que A_{ij}\overset{\text{def}}{=}(-1)^{i+j}\,\alpha_{ij}, siendo \alpha_{ij} el menor complementario ( determinante de la submatriz que se obtiene al suprimir los elementos de la fila i-ésima y los elementos de la columna j-ésima.

-oOo-

\left\{\begin{matrix}a_{11}b_{12}&+&a_{12}b_{22}&+&a_{13}b_{32}&=&0 \\ a_{21}b_{12}&+&a_{22}b_{22}&+&a_{23}b_{32}&=&1 \\ a_{31}b_{12}&+&a_{32}b_{22}&+&a_{33}b_{32}&=&0 \end{matrix}\right.
cuyas incógnitas son b_{12},b_{22},b_{32} y que, resolviendo por Cramer, obtenemos ( de manera análoga a lo realizado anteriormente ): b_{12}=\dfrac{A_{21}}{\text{det}(A)}
b_{22}=\dfrac{A_{22}}{\text{det}(A)}
b_{32}=\dfrac{A_{23}}{\text{det}(A)}


-oOo-

\left\{\begin{matrix} a_{11}b_{13}&+&a_{12}b_{23}&+&a_{13}b_{33}&=&0 \\ a_{21}b_{13}&+&a_{22}b_{23}&+&a_{23}b_{33}&=&0 \\ a_{31}b_{13}&+&a_{32}b_{23}&+&a_{33}b_{33}&=&1\end{matrix}\right.
cuyas incógnitas son b_{13},b_{23},b_{33} y que, por analogía con lo que hemos encontrado en los dos subsistemas anteriores tienen los siguientes resultados: b_{13}=\dfrac{A_{31}}{\text{det}(A)}
b_{23}=\dfrac{A_{32}}{\text{det}(A)}
b_{33}=\dfrac{A_{33}}{\text{det}(A)}


Con todo ello, la matriz inversa pedida es
A^{-1}=\begin{pmatrix} \dfrac{A_{11}}{\text{det}(A)} & \dfrac{A_{21}}{\text{det}(A)} & \dfrac{A_{31}}{\text{det}(A)} \\ \dfrac{A_{12}}{\text{det}(A)} & \dfrac{A_{22}}{\text{det}(A)} & \dfrac{A_{32}}{\text{det}(A)} \\ \dfrac{A_{13}}{\text{det}(A)} & \dfrac{A_{23}}{\text{det}(A)} & \dfrac{A_{33}}{\text{det}(A)} \end{pmatrix}=\dfrac{1}{\text{det}(A)}\,\begin{pmatrix} A_{11} & A_{21} & A_{31} \\ A_{12} & A_{22} & A_{32} \\ A_{13} & A_{23} & A_{33} \\ \end{pmatrix}=

=\dfrac{1}{\text{det}(A)}\,\begin{pmatrix} A_{11} & A_{12} & A_{13} \\ A_{21} & A_{22} & A_{23} \\ A_{31} & A_{32} & A_{33} \\ \end{pmatrix}^{\top}=\dfrac{(\text{Adj}(A))^{\top}}{\text{det}(A)}=\dfrac{\text{Adj}(A^{\top})}{\text{det}(A)}, donde denotamos por \text{Adj} (A) a la matriz de los adjuntos ( o cofactores ) de A, esto es \begin{pmatrix} A_{11} & A_{12} & A_{13} \\ A_{21} & A_{22} & A_{23} \\ A_{31} & A_{32} & A_{33} \\ \end{pmatrix}

Dicho procedimiento se generaliza de manera evidente al cálculo de la matriz inversa asociada a una matriz invertible de orden arbitrario n, A_{n \times n}.

Método de Gauss-Jordan para calcular la matriz inversa asociada a una matriz invertible.
El método de Gauss-Jordan es un m. de reducción, en el que empleamos la reducción de Gauss para triangular la matriz A por debajo y, a continuación, por encima de la diagonal principal, para, finalmente, normalizar a la unidad los elementos que nos queden en la diagonal principal, siguiendo el siguiente proceso (A|I) \overset{\text{operaciones elementales por filas}}{\rightarrow} (I|A^{-1})


Mediante un ejemplo práctico, se entenderá perfectamente. Veámoslo.
Ejemplo. Emplear el método de Gauss-Jordan para calcular la matriz inversa de la matriz
A=\left(\begin{array}{ccc} 3 & 1 & 0 \\ 1 & 4 & -1 \\ 0 & 2 & 1 \\ \end{array}\right)


Escribiendo la matriz A concatenada con la matriz I a su derecha, se tratará de obtener ( por operaciones elementales por filas ) la matriz I a la izquierda ( donde estaba en un principio la matriz A ), quedando al final la matriz inversa pedida a la derecha de la matriz I:

\left(\begin{array}{ccc|ccc} 3 & 1 & 0 & 1 & 0 & 0\\ 1 & 4 & -1 & 0 & 1 & 0\\ 0 & 2 & 1 & 0 & 0 & 1\\ \end{array}\right) \overset{-3f_2+f_1\rightarrow f_2}{\rightarrow} \left(\begin{array}{ccc|ccc} 3 & 1 & 0 & 1 & 0 & 0\\ 0 & -11 & 3 & 1 & -3 & 0\\ 0 & 2 & 1 & 0 & 0 & 1\\ \end{array}\right) \rightarrow

\overset{\frac{11}{2}f_3+f2\rightarrow f_3}{\rightarrow}\left(\begin{array}{ccc|ccc} 3 & 1 & 0 & 1 & 0 & 0\\ 0 & -11 & 3 & 1 & -3 & 0\\ 0 & 0 & 17/2 & 1 & -3 & 11/2\\ \end{array}\right) \rightarrow

\overset{-\frac{17}{6}f_2+f_3\rightarrow f_2}{\rightarrow} \left(\begin{array}{ccc|ccc} 3 & 1 & 0 & 1 & 0 & 0\\ 0 & 187/6 & 0 & -11/6 & 11/2 & 11/2\\ 0 & 0 & 17/2 & 1 & -3 & 11/2\\ \end{array}\right) \rightarrow

\overset{-\frac{187}{6}f_1+f_2\rightarrow f_1}{\rightarrow} \left(\begin{array}{ccc|ccc} -187/2 & 0 & 0 & -33 & 11/2 & 11/2\\ 0 & 187/6 & 0 & -11/6 & 11/2 & 11/2\\ 0 & 0 & 17/2 & 1 & -3 & 11/2\\ \end{array}\right) \rightarrow

\overset{-\frac{2}{187}f_1\rightarrow f_1;\frac{6}{187}f_2\rightarrow f_2;\frac{2}{17}f_3\rightarrow f_3 }{\rightarrow} \left(\begin{array}{ccc|ccc} 1 & 0 & 0 & 6/17 & -1/17 & -1/17\\ 0 & 1 & 0 & -1/17 & 3/17 & 3/17\\ 0 & 0 & 1 & 2/17 & -6/17 & 11/17\\ \end{array}\right)

y, por tanto A^{-1}=\left(\begin{array}{ccc} 6/17 & -1/17 & -1/17\\ -1/17 & 3/17 & 3/17\\ 2/17 & -6/17 & 11/17\\ \end{array}\right)


\square

No hay comentarios:

Publicar un comentario

Gracias por tus comentarios