En álgebra lineal , una matriz A n- por- n cuadrada se llama invertible (también no singular o no degenerada ), si existe una matriz B n- por- n cuadrada tal que
donde I n denota la matriz identidad n por n y la multiplicación utilizada es la multiplicación matricial ordinaria . Si este es el caso, entonces la matriz B está determinada unívocamente por A , y se llama la inversa (multiplicativa) de A , denotada por A −1 . [1] [2] La inversión de matrices es el proceso de encontrar la matriz B que satisface la ecuación anterior para una matriz A invertible dada .
Una matriz cuadrada que no es invertible se llama singular o degenerada . Una matriz cuadrada es singular si y solo si su determinante es cero. [3] Las matrices singulares son raras en el sentido de que si las entradas de una matriz cuadrada se seleccionan al azar de cualquier región finita en la recta numérica o en el plano complejo, la probabilidad de que la matriz sea singular es 0, es decir, "casi nunca" ser singular. Las matrices no cuadradas ( m- por- n matrices para las cuales m ≠ n ) no tienen una inversa. Sin embargo, en algunos casos, dicha matriz puede tener una inversa a la izquierda o una inversa a la derecha . Si A es m -by- n y el rango de A es igual a n ( n ≤ m ), entonces A tiene una inversa por la izquierda, una n -by- m matriz B tal que BA = I n . Si A tiene rango m ( m ≤ n ), entonces tiene una inversa derecha, una matriz B de n- por- m tal que AB = I m .
Si bien el caso más común es el de matrices sobre números reales o complejos , todas estas definiciones se pueden dar para matrices sobre cualquier anillo . Sin embargo, en el caso de que el anillo sea conmutativo, la condición para que una matriz cuadrada sea invertible es que su determinante sea invertible en el anillo, lo que en general es un requisito más estricto que ser diferente de cero. Para un anillo no conmutativo, el determinante habitual no está definido. Las condiciones para la existencia de inversa izquierda o derecha inversa son más complicadas, ya que no existe una noción de rango sobre anillos.
El conjunto de n × n matrices invertibles junto con la operación de multiplicación de matrices (y las entradas del anillo R ) forman un grupo , el grupo lineal general de grado n , denotado GL n ( R ) . [1]
Propiedades
El teorema de la matriz invertible
Sea A una matriz cuadrada de n por n sobre un campo K (por ejemplo, el campo R de números reales). Las siguientes afirmaciones son equivalentes (es decir, todas son verdaderas o todas falsas para cualquier matriz dada): [4]
- A es invertible, es decir, A tiene una inversa, no es singular o no es degenerado.
- A es equivalente por filas a la matriz identidad n- por- n I n .
- A es equivalente en columna a la matriz identidad n- por- n I n .
- A tiene n posiciones de pivote .
- det A ≠ 0 . En general, una matriz cuadrada sobre un anillo conmutativo es invertible si y solo si su determinante es una unidad en ese anillo.
- A tiene rango completo; es decir, rango A = n .
- La ecuación Ax = 0 tiene solo la solución trivial x = 0 .
- El núcleo de A es trivial, es decir, contiene solo el vector nulo como elemento, ker ( A ) = { 0 }.
- La ecuación Ax = b tiene exactamente una solución para cada b en K n .
- Las columnas de A son linealmente independientes .
- Las columnas de A abarcan K n .
- Col A = K n .
- Las columnas de A forman una base de K n .
- La transformación lineal que asigna x a Ax es una biyección de K n a K n .
- Hay una matriz B de n por n tal que AB = I n = BA .
- La transpuesta A T es una matriz invertible (por lo tanto, las filas de A son linealmente independientes , abarcan K n y forman una base de K n ).
- El número 0 no es un valor propio de A .
- La matriz A se puede expresar como un producto finito de matrices elementales .
- La matriz A tiene una inversa izquierda (es decir, existe una B tal que BA = I ) o una inversa derecha (es decir, existe una C tal que AC = I ), en cuyo caso existen inversas izquierda y derecha y B = C = A −1 .
Otras propiedades
Además, las siguientes propiedades son válidas para una matriz A invertible :
- ( A −1 ) −1 = A ;
- ( k A ) −1 = k −1 A −1 para un escalar distinto de cero k ;
- ( Ax ) + = x + A -1 si A tiene columnas ortonormales, donde + indica la inversa de Moore-Penrose y x es un vector;
- ( A T ) −1 = ( A −1 ) T ;
- Para cualquier n- por- n matrices A y B invertibles , ( AB ) −1 = B −1 A −1 . De manera más general, si A 1 , ..., A k son matrices n- por- n invertibles , entonces ( A 1 A 2 ⋯ A k −1 A k ) −1 = A−1
kA−1
k −1⋯ A−1
2A−1
1; - det A −1 = (det A ) −1 .
Las filas de la matriz inversa V de una matriz U son ortonormales a las columnas de U (y viceversa, intercambian filas por columnas). Para ver esto, suponga que UV = VU = I donde las filas de V se denotan comoy las columnas de U como por . Entonces, claramente, el producto interior euclidiano de dos. Esta propiedad también puede ser útil para construir la inversa de una matriz cuadrada en algunos casos, donde se conoce un conjunto de vectores ortogonales (pero no necesariamente vectores ortonormales) a las columnas de U. En cuyo caso, se puede aplicar el proceso iterativo de Gram-Schmidt a este conjunto inicial para determinar las filas de la V inversa .
Una matriz que es su propia inversa (es decir, una matriz A tal que A = A −1 y A 2 = I ), se llama matriz involutiva .
En relación a su adyuvante
El adyuvante de una matriz se puede usar para encontrar el inverso de como sigue:
Si es una matriz invertible, entonces
En relación a la matriz de identidad
De la asociatividad de la multiplicación de matrices se deduce que si
para matrices cuadradas finitas A y B , entonces también
- [5]
Densidad
Sobre el campo de los números reales, el conjunto de matrices singulares n- por- n , considerado como un subconjunto de R n × n , es un conjunto nulo , es decir, tiene la medida de Lebesgue cero . Esto es cierto porque las matrices singulares son las raíces de la función determinante . Esta es una función continua porque es un polinomio en las entradas de la matriz. Así, en el lenguaje de la teoría de la medida , casi todas las matrices n por n son invertibles.
Además, las matrices invertibles n por n son un conjunto abierto denso en el espacio topológico de todas las matrices n por n . De manera equivalente, el conjunto de matrices singulares es cerrado y en ninguna parte es denso en el espacio de n- por- n matrices.
En la práctica, sin embargo, uno puede encontrar matrices no invertibles. Y en los cálculos numéricos , las matrices que son invertibles, pero cercanas a una matriz no invertible, aún pueden ser problemáticas; se dice que tales matrices están mal acondicionadas .
Ejemplos de
Considere la siguiente matriz de 2 por 2:
La matriz es invertible. Para comprobar esto, se puede calcular que, que no es cero.
Como ejemplo de una matriz singular o no invertible, considere la matriz
El determinante de es 0, que es una condición necesaria y suficiente para que una matriz no sea invertible.
Métodos de inversión de matrices
eliminación gaussiana
La eliminación de Gauss-Jordan es un algoritmo que se puede utilizar para determinar si una matriz dada es invertible y para encontrar la inversa. Una alternativa es la descomposición LU , que genera matrices triangulares superior e inferior, que son más fáciles de invertir.
Método de Newton
Una generalización del método de Newton como se usa para un algoritmo inverso multiplicativo puede ser conveniente, si es conveniente encontrar una semilla inicial adecuada:
Victor Pan y John Reif han realizado un trabajo que incluye formas de generar una semilla inicial. [6] [7] La revista Byte resumió uno de sus enfoques. [8]
El método de Newton es particularmente útil cuando se trata de familias de matrices relacionadas que se comportan lo suficiente como la secuencia fabricada para la homotopía anterior: a veces, un buen punto de partida para refinar una aproximación para el nuevo inverso puede ser el inverso ya obtenido de una matriz anterior que casi coincide la matriz actual, por ejemplo, el par de secuencias de matrices inversas utilizadas para obtener raíces cuadradas de la matriz mediante la iteración Denman-Beavers ; esto puede necesitar más de una pasada de la iteración en cada nueva matriz, si no están lo suficientemente cerca como para que una sola sea suficiente. El método de Newton también es útil para las correcciones de "retoque" del algoritmo de Gauss-Jordan, que ha sido contaminado por pequeños errores debido a una aritmética informática imperfecta .
Método Cayley-Hamilton
El teorema de Cayley-Hamilton permite la inversa de ser expresado en términos de , rastros y poderes de : [9]
dónde es la dimensión de , y es el rastro de la matrizdado por la suma de la diagonal principal. La suma se hace cargo y los conjuntos de todos satisfaciendo la ecuación diofántica lineal
La fórmula se puede reescribir en términos de polinomios de argumentos de Bell completos. como
Descomposición propia
Si la matriz A puede descomponerse de forma propia, y si ninguno de sus valores propios es cero, entonces A es invertible y su inverso está dado por
dónde es la matriz cuadrada ( N × N ) cuya i -ésima columna es el vector propio de , y es la matriz diagonal cuyos elementos diagonales son los valores propios correspondientes, es decir,. Si es simétrico, se garantiza que es una matriz ortogonal , por lo tanto. Además, porque es una matriz diagonal, su inversa es fácil de calcular:
Descomposición de Cholesky
Si la matriz A es definida positiva , entonces su inversa se puede obtener como
donde L es la triangular inferior descomposición de Cholesky de A y L * indica la transpuesta conjugada de L .
Solución analítica
Escribir la transpuesta de la matriz de cofactores , conocida como matriz adjunta , también puede ser una forma eficiente de calcular la inversa de matrices pequeñas , pero este método recursivo es ineficaz para matrices grandes. Para determinar la inversa, calculamos una matriz de cofactores:
así que eso
donde | A | es el determinante de A , C es la matriz de cofactores y C T representa la matriz transpuesta .
Inversión de matrices 2 × 2
La ecuación del cofactor enumerada anteriormente produce el siguiente resultado para matrices de 2 × 2 . La inversión de estas matrices se puede realizar de la siguiente manera: [10]
Esto es posible porque 1 / ( ad - bc ) es el recíproco del determinante de la matriz en cuestión, y la misma estrategia podría usarse para otros tamaños de matriz.
El método Cayley-Hamilton da
Inversión de matrices 3 × 3
Una inversión de matriz 3 × 3 computacionalmente eficiente viene dada por
(donde el escalar A no debe confundirse con la matriz A ).
Si el determinante es distinto de cero, la matriz es invertible, con los elementos de la matriz intermedia en el lado derecho arriba dados por
El determinante de A se puede calcular aplicando la regla de Sarrus de la siguiente manera:
La descomposición de Cayley-Hamilton da
La inversa general de 3 × 3 se puede expresar de manera concisa en términos de producto cruzado y producto triple . Si una matriz (que consta de tres vectores de columna, , , y ) es invertible, su inverso viene dado por
El determinante de A, , es igual al producto triple de , , y - el volumen del paralelepípedo formado por las filas o columnas:
La exactitud de la fórmula se puede verificar usando propiedades de productos cruzados y triples y observando que para los grupos, las inversas izquierda y derecha siempre coinciden. Intuitivamente, debido a los productos cruzados, cada fila de es ortogonal a las dos columnas no correspondientes de (causando los términos fuera de la diagonal de ser cero). Dividiendo por
causa los elementos diagonales de ser unidad. Por ejemplo, la primera diagonal es:
Inversión de matrices 4 × 4
Al aumentar la dimensión, las expresiones para la inversa de A se complican. Para n = 4 , el método de Cayley-Hamilton conduce a una expresión que aún es manejable:
Inversión en bloque
Las matrices también se pueden invertir en bloque utilizando la siguiente fórmula de inversión analítica:
( 1 )
donde A , B , C y D son subbloques de matriz de tamaño arbitrario. ( A debe ser cuadrado, de modo que pueda invertirse. Además, A y D - CA −1 B deben ser no singulares. [11] ) Esta estrategia es particularmente ventajosa si A es diagonal y D - CA −1 B (el Schur complemento de A ) es una matriz pequeña, ya que son las únicas matrices que requieren inversión.
Esta técnica se reinventó varias veces y se debe a Hans Boltz (1923), [ cita requerida ] que la utilizó para la inversión de matrices geodésicas , ya Tadeusz Banachiewicz (1937), quien la generalizó y demostró su corrección.
El teorema de nulidad dice que la nulidad de A es igual a la nulidad del subbloque en la parte inferior derecha de la matriz inversa, y que la nulidad de B es igual a la nulidad del subbloque en la parte superior derecha de la matriz inversa.
El procedimiento de inversión que llevó a la Ecuación ( 1 ) realizó operaciones de bloques de matriz que operaron primero en C y D. En cambio, si A y B se operan primero, y siempre que D y A - BD −1 C no sean singulares, [12] el resultado es
( 2 )
La ecuación de las ecuaciones ( 1 ) y ( 2 ) conduce a
( 3 )
donde la ecuación ( 3 ) es la identidad de la matriz de Woodbury , que es equivalente al teorema de la inversa binomial .
Si A y D son ambos invertibles, entonces las dos inversas de la matriz de bloques anteriores se pueden combinar para proporcionar la factorización simple
( 2 )
Según la identidad de Weinstein-Aronszajn , una de las dos matrices en la matriz diagonal de bloques es invertible exactamente cuando la otra lo es.
Dado que una inversión en bloque de una matriz n × n requiere la inversión de dos matrices de tamaño medio y 6 multiplicaciones entre dos matrices de tamaño medio, se puede demostrar que un algoritmo de divide y vencerás que utiliza la inversión en bloque para invertir una matriz se ejecuta con el mismo complejidad del tiempo como el algoritmo de multiplicación de matrices que se utiliza internamente. [13] La investigación sobre la complejidad de la multiplicación de matrices muestra que existen algoritmos de multiplicación de matrices con una complejidad de operaciones O ( n 2,3727 ) , mientras que el límite inferior mejor probado es Ω ( n 2 log n ) . [14]
Esta fórmula se simplifica significativamente cuando la matriz de bloques superior derecha es la matriz cero. Esta formulación es útil cuando las matrices y tienen fórmulas inversas relativamente simples (o pseudo inversas en el caso de que los bloques no sean todos cuadrados. En este caso especial, la fórmula de inversión de la matriz de bloques indicada en la generalidad completa arriba
Por Neumann series
Si una matriz A tiene la propiedad de que
entonces A es no singular y su inversa puede expresarse mediante una serie de Neumann : [15]
Truncar la suma da como resultado una inversa "aproximada" que puede ser útil como preacondicionador . Tenga en cuenta que una serie truncada se puede acelerar exponencialmente si se observa que la serie de Neumann es una suma geométrica . Como tal, satisface
- .
Por lo tanto, solo se necesitan multiplicaciones de matrices para calcular términos de la suma.
De manera más general, si A está "cerca" de la matriz invertible X en el sentido de que
entonces A es no singular y su inverso es
Si también es el caso que A - X tiene rango 1, entonces esto se simplifica a
aproximación p -ádica
Si A es una matriz con coeficientes enteros o racionales y buscamos una solución en racionales de precisión arbitraria , entonces un método de aproximación p -ádico converge a una solución exacta en, asumiendo estándar se utiliza la multiplicación de matrices. [16] El método se basa en resolver n sistemas lineales mediante el método de aproximación p -ádica de Dixon (cada uno en) y está disponible como tal en software especializado en operaciones matriciales de precisión arbitraria, por ejemplo, en IML. [17]
Método de vectores de base recíproca
Dado un matriz cuadrada , , con filas interpretadas como vectores (Se asume la suma de Einstein ) donde elson una base ortonormal estándar del espacio euclidiano (), luego usando el álgebra de Clifford (o álgebra geométrica ) calculamos los vectores de columna recíprocos (a veces llamados duales ) como las columnas de la matriz inversa . Tenga en cuenta que, el lugar "" indica que ""se elimina de ese lugar en la expresión anterior para . Entonces tenemos, dónde es el delta de Kronecker . También tenemos, según sea necesario. Si los vectores no son linealmente independientes, entonces y la matriz no es invertible (no tiene inverso).
Derivada de la matriz inversa
Suponga que la matriz invertible A depende de un parámetro t . Entonces la derivada de la inversa de A con respecto a t viene dada por [18]
Para derivar la expresión anterior para la derivada de la inversa de A , se puede diferenciar la definición de la matriz inversay luego resuelve para el inverso de A :
Restando de ambos lados de lo anterior y multiplicando a la derecha por da la expresión correcta para la derivada de la inversa:
Del mismo modo, si es un número pequeño entonces
De manera más general, si
luego,
Dado un número entero positivo ,
Por lo tanto,
Inversa generalizada
Algunas de las propiedades de las matrices inversas son compartidas por inversas generalizadas (por ejemplo, la inversa de Moore-Penrose ), que se puede definir para cualquier matriz m- por- n .
Aplicaciones
Para la mayoría de las aplicaciones prácticas, es que no es necesario invertir una matriz para resolver un sistema de ecuaciones lineales ; sin embargo, para una solución única, es necesario que la matriz involucrada sea invertible.
Las técnicas de descomposición como la descomposición LU son mucho más rápidas que la inversión, y también se han desarrollado varios algoritmos rápidos para clases especiales de sistemas lineales.
Regresión / mínimos cuadrados
Aunque no es necesario un inverso explícito para estimar el vector de incógnitas, es la forma más fácil de estimar su precisión, que se encuentra en la diagonal de una matriz inversa (la matriz de covarianza posterior del vector de incógnitas). Sin embargo, en muchos casos se conocen algoritmos más rápidos para calcular solo las entradas diagonales de una matriz inversa. [19]
Matriz inversa en simulaciones en tiempo real
La inversión de matrices juega un papel importante en los gráficos por computadora , particularmente en la representación de gráficos 3D y simulaciones 3D. Los ejemplos incluyen la transmisión de rayos de pantalla a mundo , transformaciones de objetos de mundo a subespacio a mundo y simulaciones físicas.
La matriz se invierte en la comunicación inalámbrica MIMO
La inversión de matriz también juega un papel importante en la tecnología MIMO (Multiple-Input, Multiple-Output) en las comunicaciones inalámbricas. El sistema MIMO consta de N antenas transmisoras y M antenas receptoras. Las señales únicas, que ocupan la misma banda de frecuencia, se envían a través de N antenas de transmisión y se reciben a través de M antenas de recepción. La señal que llega a cada antena de recepción habrá una combinación lineal de las N señales de transmisión que forman un N × M matriz de transmisión H . Es crucial que la matriz H sea invertible para que el receptor pueda descifrar la información transmitida.
Ver también
- Teorema de la inversa binomial
- Descomposición LU
- Descomposición de la matriz
- Raíz cuadrada de la matriz
- Menor (álgebra lineal)
- Inverso parcial de una matriz
- Pseudoinverso
- Valor singular de descomposición
- Identidad de la matriz de Woodbury
Referencias
- ^ a b "Lista completa de símbolos de álgebra" . Bóveda de matemáticas . 2020-03-25 . Consultado el 8 de septiembre de 2020 .
- ^ "Matrices invertibles" . www.sosmath.com . Consultado el 8 de septiembre de 2020 .
- ^ Weisstein, Eric W. "Matriz inversa" . mathworld.wolfram.com . Consultado el 8 de septiembre de 2020 .
- ^ Weisstein, Eric W. "Teorema de la matriz invertible" . mathworld.wolfram.com . Consultado el 8 de septiembre de 2020 .
- ^ Horn, Roger A .; Johnson, Charles R. (1985). Análisis matricial . Prensa de la Universidad de Cambridge . pag. 14. ISBN 978-0-521-38632-6..
- ^ Pan, Víctor; Reif, John (1985), Solución Paralela Eficiente de Sistemas Lineales , Actas del 17 ° Simposio Anual de ACM sobre Teoría de la Computación, Providence: ACM
- ^ Pan, Víctor; Reif, John (1985), Centro de Investigación en Tecnología de Computación de la Universidad de Harvard Informe TR-02-85 , Cambridge, MA: Laboratorio de Computación Aiken
- ^ "La inversión de grandes matrices". Revista Byte . 11 (4): 181-190. Abril de 1986.
- ^ Se puede encontrar una prueba en el Apéndice B de Kondratyuk, LA; Krivoruchenko, MI (1992). "Materia de quarks superconductores en el grupo de color SU (2)" . Zeitschrift für Physik A . 344 : 99-115. doi : 10.1007 / BF01291027 . S2CID 120467300 .
- ^ Strang, Gilbert (2003). Introducción al álgebra lineal (3ª ed.). SIAM. pag. 71. ISBN 978-0-9614088-9-3., Capítulo 2, página 71
- ^ Bernstein, Dennis (2005). Matemáticas matriciales . Prensa de la Universidad de Princeton. pag. 44. ISBN 978-0-691-11802-4.
- ^ Bernstein, Dennis (2005). Matemáticas matriciales . Prensa de la Universidad de Princeton. pag. 45. ISBN 978-0-691-11802-4.
- ^ TH Cormen, CE Leiserson, RL Rivest, C. Stein, Introducción a los algoritmos , 3ra ed., MIT Press, Cambridge, MA, 2009, §28.2.
- ^ Ran Raz . Sobre la complejidad del producto matricial. En Actas del trigésimo cuarto simposio anual de ACM sobre teoría de la computación. Prensa ACM, 2002. doi : 10.1145 / 509907.509932 .
- ^ Stewart, Gilbert (1998). Algoritmos matriciales: Descomposiciones básicas . SIAM. pag. 55. ISBN 978-0-89871-414-2.
- ^ Haramoto, H .; Matsumoto, M. (2009). "Un algoritmo p-adic para calcular el inverso de matrices enteras" . Revista de Matemática Computacional y Aplicada . 225 : 320–322. doi : 10.1016 / j.cam.2008.07.044 .
- ^ "IML - Biblioteca de matrices enteras" . cs.uwaterloo.ca . Consultado el 14 de abril de 2018 .
- ^ Magnus, Jan R .; Neudecker, Heinz (1999). Cálculo diferencial matricial: con aplicaciones en estadística y econometría (edición revisada). Nueva York: John Wiley & Sons. págs. 151-152. ISBN 0-471-98633-X.
- ^ Lin, Lin; Lu, Jianfeng; Ying, Lexing; Coche, Roberto; E, Weinan (2009). "Algoritmo rápido para la extracción de la diagonal de la matriz inversa con aplicación al análisis de estructura electrónica de sistemas metálicos" . Comunicaciones en Ciencias Matemáticas . 7 (3): 755–777. doi : 10.4310 / CMS.2009.v7.n3.a12 .
Otras lecturas
- "Inversión de una matriz" , Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
- Cormen, Thomas H .; Leiserson, Charles E .; Rivest, Ronald L .; Stein, Clifford (2001) [1990]. "28.4: Inversión de matrices". Introducción a los algoritmos (2ª ed.). MIT Press y McGraw-Hill. págs. 755–760. ISBN 0-262-03293-7.
- Bernstein, Dennis S. (2009). Matemáticas matriciales: teoría, hechos y fórmulas (2ª ed.). Prensa de la Universidad de Princeton. ISBN 978-0691140391- a través de Google Books .
- Petersen, Kaare Brandt; Pedersen, Michael Syskind (15 de noviembre de 2012). "El libro de cocina de Matrix" (PDF) . págs. 17–23.
enlaces externos
- Sanderson, Grant (15 de agosto de 2016). "Matrices inversas, espacio de columna y espacio nulo" . Esencia de álgebra lineal - a través de YouTube .
- Strang, Gilbert. "Conferencia de álgebra lineal sobre matrices inversas" . MIT OpenCourseWare .
- Calculadora simbólica inversa de matriz con pasos mostrados
- Matriz inversa de Moore-Penrose