En la disciplina matemática del álgebra lineal , una descomposición de matrices o factorización de matrices es una factorización de una matriz en un producto de matrices. Hay muchas descomposiciones matriciales diferentes; cada uno encuentra uso entre una clase particular de problemas.
Ejemplo
En el análisis numérico , se utilizan diferentes descomposiciones para implementar algoritmos matriciales eficientes .
Por ejemplo, al resolver un sistema de ecuaciones lineales , la matriz A se puede descomponer mediante la descomposición LU . La descomposición LU factoriza una matriz en una matriz triangular inferior L y una matriz triangular superior U . Los sistemas y requieren menos sumas y multiplicaciones para resolver, en comparación con el sistema original , aunque uno podría requerir significativamente más dígitos en aritmética inexacta como punto flotante .
De manera similar, la descomposición QR expresa A como QR con Q una matriz ortogonal y R una matriz triangular superior. El sistema Q ( R x ) = b se resuelve mediante R x = Q T b = c , y el sistema R x = c se resuelve mediante ' sustitución hacia atrás '. El número de sumas y multiplicaciones requeridas es aproximadamente el doble que el de usar el solucionador LU, pero no se requieren más dígitos en aritmética inexacta porque la descomposición QR es numéricamente estable .
Descomposición LU
- Aplicable tradicionalmente a: matriz cuadrada A , aunque pueden aplicarse matrices rectangulares. [1] [nb 1]
- Descomposición: , donde L es triangular inferior y U es triangular superior
- Relacionado: la descomposición de LDU es, donde L es triangular inferior con unos en la diagonal, U es un triangular superior con unos en la diagonal y D es una matriz diagonal .
- Relacionado: la descomposición de LUP es, donde L es triangular inferior , U es triangular superior y P es una matriz de permutación .
- Existe una LUP descomposición para cualquier matriz cuadrada: Existencia A . Cuando P es una matriz de identidad , la descomposición LUP se reduce a la descomposición LU. Si existe la descomposición de LU, entonces existe la descomposición de LDU. [2]
- Comentarios: Las descomposiciones LUP y LU son útiles para resolver un sistema n por n de ecuaciones lineales.. Estas descomposiciones resumen el proceso de eliminación gaussiana en forma de matriz. La matriz P representa cualquier intercambio de filas realizado en el proceso de eliminación gaussiana. Si la eliminación gaussiana produce la forma escalonada de filas sin requerir ningún intercambio de filas, entonces P = I , por lo que existe una descomposición LU.
Reducción de LU
Descomposición de LU de bloque
Factorización de rango
- Aplicable a: m -por- n matriz A de rango r
- Descomposición: donde C es una matriz de rango de columna completa de m -por- r y F es una matriz de rango de fila completa de r -por- n
- Comentario: La factorización de rango se puede utilizar para calcular el pseudoinverso de A de Moore-Penrose , [3] que se puede aplicar para obtener todas las soluciones del sistema lineal. .
Descomposición de Cholesky
- Aplicable a: cuadrado , ermitaño , matriz definida positiva A
- Descomposición: , dónde es triangular superior con entradas diagonales positivas reales
- Comentario: si la matriz es hermitiano y semidefinido positivo, entonces tiene una descomposición de la forma si las entradas diagonales de se les permite ser cero
- Unicidad: para matrices definidas positivas, la descomposición de Cholesky es única. Sin embargo, no es único en el caso semidefinido positivo.
- Comentario: si A es real y simétrico, tiene todos los elementos reales
- Comentario: Una alternativa es la descomposición de LDL , que puede evitar la extracción de raíces cuadradas.
Descomposición QR
- Aplicable a: m -por- n matriz A con columnas linealmente independientes
- Descomposición: dónde es una matriz unitaria de tamaño m -por- m , yes una matriz triangular superior de tamaño m -por- n
- Singularidad: en general no es única, pero si es de rango completo , entonces existe un soloque tiene todos los elementos diagonales positivos. Si es cuadrado, también es único.
- Comentario: La descomposición QR proporciona una forma eficaz de resolver el sistema de ecuaciones. . El hecho de quees ortogonal significa que, así que eso es equivalente a , que es muy fácil de resolver ya que es triangular .
Factorización RRQR
Descomposición interpolativa
Descomposición propia
- También se llama descomposición espectral .
- Aplicable a: matriz cuadrada A con vectores propios linealmente independientes (no necesariamente valores propios distintos).
- Descomposición: , Donde D es una matriz diagonal formada a partir de los valores propios de A , y las columnas de V son los correspondientes vectores propios de A .
- Existencia: Una matriz A de n por n siempre tiene n valores propios (complejos), que pueden ordenarse (de más de una manera) para formar una matriz D diagonal de n por n y una matriz correspondiente de columnas V distintas de cero que satisfaga la ecuación de valor propio . es invertible si y solo si los n vectores propios son linealmente independientes (es decir, cada valor propio tiene una multiplicidad geométrica igual a su multiplicidad algebraica ). Una condición suficiente (pero no necesaria) para que esto suceda es que todos los valores propios sean diferentes (en este caso, la multiplicidad geométrica y algebraica son iguales a 1)
- Comentario: Siempre se pueden normalizar los autovectores para que tengan una longitud uno (ver la definición de la ecuación de autovalores)
- Comentario: Toda matriz normal A (es decir, matriz para la cual, dónde es una transpuesta conjugada ) se puede descomponer por sí misma. Para una matriz normal A (y solo para una matriz normal), los vectores propios también pueden hacerse ortonormales () y la descomposición propia se lee como . En particular, todas las matrices unitarias , hermitianas o sesgadas-hermitianas (en el caso de valores reales, todas las matrices ortogonales , simétricas o sesgadas , respectivamente) son normales y, por lo tanto, poseen esta propiedad.
- Comentario: Para cualquier matriz simétrica real A , la descomposición propia siempre existe y se puede escribir como, donde tanto D como V tienen valores reales.
- Comentario: La descomposición propia es útil para comprender la solución de un sistema de ecuaciones diferenciales lineales ordinarias o ecuaciones en diferencias lineales. Por ejemplo, la ecuación de diferencia a partir de la condición inicial es resuelto por , que es equivalente a , Donde V y D son las matrices formadas a partir de los vectores propios y valores propios de A . Como D es diagonal, elevándola a potencia, solo implica elevar cada elemento en la diagonal a la potencia t . Esto es mucho más fácil de hacer y comprender que elevar A a la potencia t , ya que A generalmente no es diagonal.
Descomposición de Jordan
La forma normal de Jordan y la descomposición de Jordan-Chevalley
- Aplicable a: matriz cuadrada A
- Comentario: la forma normal de Jordan generaliza la descomposición propia a los casos en los que hay valores propios repetidos y no se pueden diagonalizar, la descomposición de Jordan-Chevalley lo hace sin elegir una base.
Descomposición de Schur
- Aplicable a: matriz cuadrada A
- Descomposición (versión compleja): , donde U es una matriz unitaria ,es la transpuesta conjugada de U , y T es una matriz triangular superior llamada forma compleja de Schur que tiene los valores propios de A a lo largo de su diagonal.
- Comentario: si A es una matriz normal , entonces T es diagonal y la descomposición de Schur coincide con la descomposición espectral.
Descomposición de Schur real
- Aplicable a: matriz cuadrada A
- Descomposición: esta es una versión de la descomposición de Schur donde y solo contienen números reales. Siempre se puede escribirdonde V es una matriz ortogonal real ,es la transpuesta de V , y S es una matriz triangular superior en bloque llamada forma Schur real . Los bloques en la diagonal de S son de tamaño 1 × 1 (en cuyo caso representan valores propios reales) o 2 × 2 (en cuyo caso se derivan de pares complejos de valores propios conjugados ).
Descomposición QZ
- También llamado: descomposición de Schur generalizada
- Aplicable a: matrices cuadradas A y B
- Comentario: hay dos versiones de esta descomposición: compleja y real.
- Descomposición (versión compleja): y donde Q y Z son matrices unitarias , el superíndice * representa la transposición conjugada y S y T son matrices triangulares superiores .
- Comentario: en la descomposición compleja de QZ, las relaciones de los elementos diagonales de S a los elementos diagonales correspondientes de T ,, son los valores propios generalizados que resuelven el problema de valores propios generalizados (dónde es un escalar desconocido y v es un vector desconocido distinto de cero).
- Descomposición (versión real): y donde A , B , Q , Z , S y T son matrices que contienen solo números reales. En este caso, Q y Z son matrices ortogonales , el superíndice T representa la transposición y S y T son matrices triangulares superiores en bloque . Los bloques en la diagonal de S y T son de tamaño 1 × 1 o 2 × 2.
Factorización de Takagi
- Aplicable a: matriz A cuadrada, compleja y simétrica .
- Descomposición: , donde D es una matriz diagonal no negativa real y V es unitaria .denota la transpuesta de la matriz de V .
- Comentario: Los elementos diagonales de D son las raíces cuadradas no negativas de los valores propios de.
- Comentario: V puede ser complejo incluso si A es real.
- Comentario: Este no es un caso especial de la descomposición propia (ver arriba), que usa en vez de . Además, si A no es real, no es hermitiano y la forma que usa tampoco aplica.
Valor singular de descomposición
- Aplicable a: m -by- n matriz A .
- Descomposición: , donde D es una matriz diagonal no negativa , y U y V satisfacen. Aquíes la transpuesta conjugada de V (o simplemente la transpuesta , si V contiene solo números reales), e I denota la matriz de identidad (de alguna dimensión).
- Comentario: Los elementos diagonales de D se llaman los valores singulares de A .
- Comentario: Al igual que la descomposición propia anterior, la descomposición de valor singular implica encontrar direcciones de base a lo largo de las cuales la multiplicación de matrices es equivalente a la multiplicación escalar, pero tiene mayor generalidad ya que la matriz en consideración no necesita ser cuadrada.
- Singularidad: los valores singulares de siempre están determinados de forma única. y no necesita ser único en general.
Descomposiciones de escala invariante
Se refiere a variantes de descomposiciones matriciales existentes, como la SVD, que son invariantes con respecto a la escala diagonal.
- Aplicable a: m -by- n matriz A .
- Descomposición de valores singulares invariantes de escala unitaria: , donde S es una matriz diagonal única no negativa de valores singulares invariantes de escala, U y V son matrices unitarias ,es la transpuesta conjugada de V , y las matrices diagonales positivas D y E .
- Comentario: Es análogo al SVD excepto que los elementos diagonales de S son invariantes con respecto a la multiplicación izquierda y / o derecha de A por matrices diagonales arbitrarias no singulares, en contraposición al SVD estándar para el cual los valores singulares son invariantes con respecto a la izquierda y / o multiplicación correcta de A por matrices unitarias arbitrarias.
- Comentario: Es una alternativa a la SVD estándar cuando se requiere invariancia con respecto a la diagonal en lugar de transformaciones unitarias de A .
- Unicidad: Los valores singulares invariantes de escala de (dados por los elementos diagonales de S ) siempre están determinados de forma unívoca. Las matrices diagonales D y E , y las unitarias U y V , no son necesariamente únicas en general.
- Comentario: Las matrices U y V no son las mismas que las del SVD.
Se pueden derivar descomposiciones análogas invariantes de escala a partir de otras descomposiciones matriciales, por ejemplo, para obtener valores propios invariantes de escala. [4] [5]
Otras descomposiciones
Descomposición polar
- Aplicable a: cualquier matriz complejo cuadrado A .
- Descomposición: (descomposición polar derecha) o (descomposición polar izquierda), donde U es una matriz unitaria y P y P ' son matrices hermitianas semidefinidas positivas .
- Unicidad: es siempre único e igual a (que es siempre ermitaño y semidefinido positivo). Si es invertible, entonces es único.
- Comentario: Dado que cualquier matriz hermitiana admite una descomposición espectral con una matriz unitaria, Se puede escribir como . Desde es semidefinido positivo, todos los elementos en no son negativos. Dado que el producto de dos matrices unitarias es unitario, tomandouno puede escribir que es la descomposición del valor singular. Por tanto, la existencia de la descomposición polar es equivalente a la existencia de la descomposición en valor singular.
Descomposición polar algebraica
- Aplicable a: matriz A cuadrada, compleja y no singular . [6]
- Descomposición: , donde Q es una matriz ortogonal compleja y S es una matriz simétrica compleja.
- Singularidad: si no tiene valores propios reales negativos, entonces la descomposición es única. [7]
- Comentario: La existencia de esta descomposición equivale a siendo similar a . [8]
- Comentario: una variante de esta descomposición es , donde R es una matriz real y C es una matriz circular . [7]
Descomposición de Mostow
- Aplicable a: matriz A cuadrada, compleja y no singular . [9] [10]
- Descomposición: , donde U es unitario, M es antisimétrico real y S es simétrico real.
- Comentario: La matriz A también se puede descomponer como, donde U 2 es unitario, M 2 es antisimétrico real y S 2 es simétrico real. [7]
Forma normal de Sinkhorn
- Aplicable a: matriz real cuadrada A con elementos estrictamente positivos.
- Descomposición: , donde S es doblemente estocástico y D 1 y D 2 son matrices diagonales reales con elementos estrictamente positivos.
Descomposición sectorial
- Aplicable a: matriz A cuadrada y compleja con rango numérico contenido en el sector.
- Descomposición: , donde C es una matriz compleja invertible y con toda . [11] [12]
Forma normal de Williamson
- Aplicable a: matriz real A cuadrada, definida positiva con orden 2 n × 2 n .
- Descomposición: , dónde es una matriz simpléctica y D es un no negativo n -by- n matriz diagonal. [13]
Raíz cuadrada de la matriz
- Descomposición: , no único en general.
- En el caso de semidefinito positivo , hay un único semidefinito positivo tal que .
Generalizaciones
Existen análogos de las factorizaciones SVD, QR, LU y Cholesky para cuasimatrices y cmatrices o matrices continuas . [14] Una 'cuasimatriz' es, como una matriz, un esquema rectangular cuyos elementos están indexados, pero un índice discreto es reemplazado por un índice continuo. Asimismo, una 'cmatrix' es continua en ambos índices. Como ejemplo de cmatrix, se puede pensar en el núcleo de un operador integral .
Estas factorizaciones se basan en los primeros trabajos de Fredholm (1903) , Hilbert (1904) y Schmidt (1907) . Para obtener un relato y una traducción al inglés de los artículos fundamentales, consulte Stewart (2011) .
Ver también
- División de matriz
- Factorización matricial no negativa
- Análisis de componentes principales
Referencias
Notas
- ^ Sin embargo, si se utiliza una matriz no cuadrada, la matriz U también tendrá la misma forma rectangular que la matriz A original. Y así, llamando a la matriz de T sería incorrecto, ya que el término correcto sería que T es la 'forma escalonada' de una . Aparte de esto, no hay diferencias en la factorización LU para matrices cuadradas y no cuadradas.
Citas
- ^ Lay, David C. (2016). Álgebra lineal y sus aplicaciones . Steven R. Lay, Judith McDonald (Quinta edición global). Harlow. pag. 142. ISBN 1-292-09223-8. OCLC 920463015 .
- ^ Simon & Blume 1994 Capítulo 7.
- ^ Piziak, R .; Odell, PL (1 de junio de 1999). "Factorización de rango completo de matrices". Revista de Matemáticas . 72 (3): 193. doi : 10.2307 / 2690882 . JSTOR 2690882 .
- ^ Uhlmann, JK (2018), "Una matriz inversa generalizada que es consistente con respecto a las transformaciones diagonales", SIAM Journal on Matrix Analysis , 239 (2): 781–800, doi : 10.1137 / 17M113890X
- ^ Uhlmann, JK (2018), "Una matriz generalizada que conserva el rango inversa para la coherencia con respecto a la similitud", IEEE Control Systems Letters , arXiv : 1804.07334 , doi : 10.1109 / LCSYS.2018.2854240 , ISSN 2475-1456
- ^ Choudhury y Horn 1987 , págs. 219-225
- ^ a b c Bhatia, Rajendra (15 de noviembre de 2013). "La descomposición bipolar" . Álgebra lineal y sus aplicaciones . 439 (10): 3031–3037. doi : 10.1016 / j.laa.2013.09.006 .
- ^ Horn y Merino 1995 , págs. 43–92
- ^ Mostow, GD (1955), Algunos nuevos teoremas de descomposición para grupos semi-simples , Mem. Amer. Matemáticas. Soc., 14 , American Mathematical Society, págs. 31–54
- ^ Nielsen, Frank; Bhatia, Rajendra (2012). Geometría de información matricial . Saltador. pag. 224. arXiv : 1007.4402 . doi : 10.1007 / 978-3-642-30232-9 . ISBN 9783642302329.
- ^ Zhang, Fuzhen (30 de junio de 2014). "Una descomposición matricial y sus aplicaciones" (PDF) . Álgebra lineal y multilineal . 63 (10): 2033–2042. doi : 10.1080 / 03081087.2014.933219 .
- ^ Drury, SW (noviembre de 2013). "Desigualdades determinantes de Fischer y conjetura de Highamʼs" . Álgebra lineal y sus aplicaciones . 439 (10): 3129–3133. doi : 10.1016 / j.laa.2013.08.031 .
- ^ Idel, Martin; Soto Gaona, Sebastián; Wolf, Michael M. (15 de julio de 2017). "Límites de perturbación para la forma normal simpléctica de Williamson". Álgebra lineal y sus aplicaciones . 525 : 45–58. arXiv : 1609.01338 . doi : 10.1016 / j.laa.2017.03.013 .
- ^ Townsend y Trefethen 2015
Bibliografía
- Choudhury, Dipa; Horn, Roger A. (abril de 1987). "Un complejo análogo ortogonal-simétrico de la descomposición polar". Revista SIAM de Métodos Algebraicos y Discretos . 8 (2): 219–225. doi : 10.1137 / 0608019 .
- Fredholm, I. (1903), "Sur une classe d'´equations fonctionnelles", Acta Mathematica (en francés), 27 : 365–390, doi : 10.1007 / bf02421317
- Hilbert, D. (1904), "Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen", Nachr. Königl. Ges. Gött (en alemán), 1904 : 49–91
- Horn, Roger A .; Merino, Dennis I. (enero de 1995). "Equivalencia de contragredientes: una forma canónica y algunas aplicaciones" . Álgebra lineal y sus aplicaciones . 214 : 43–92. doi : 10.1016 / 0024-3795 (93) 00056-6 .
- Meyer, CD (2000), Análisis de matrices y álgebra lineal aplicada , SIAM , ISBN 978-0-89871-454-8
- Schmidt, E. (1907), "Zur Theorie der linearen und nichtlinearen Integralgleichungen. I Teil. Entwicklung willkürlichen Funktionen nach System vorgeschriebener" , Mathematische Annalen (en alemán), 63 (4): 433–476, doi : 10.1007 / bf01449770
- Simon, C .; Blume, L. (1994). Matemáticas para economistas . Norton. ISBN 978-0-393-95733-4.
- Stewart, GW (2011), Fredholm, Hilbert, Schmidt: tres artículos fundamentales sobre ecuaciones integrales (PDF) , consultado el 6 de enero de 2015
- Townsend, A .; Trefethen, LN (2015), "Análogos continuos de factorizaciones matriciales", Proc. R. Soc. A , 471 (2173): 20140585, Bibcode : 2014RSPSA.47140585T , doi : 10.1098 / rspa.2014.0585 , PMC 4277194 , PMID 25568618
enlaces externos
- Calculadora de matrices en línea
- Cálculo de descomposición de matriz Wolfram Alpha »Descomposición LU y QR
- Springer Encyclopaedia of Mathematics »Factorización de matrices
- GraphLab Biblioteca de filtrado colaborativo GraphLab , implementación paralela a gran escala de métodos de descomposición matricial (en C ++) para multinúcleo.