En la disciplina matemática del álgebra lineal , la descomposición de Schur o triangulación de Schur , llamada así por Issai Schur , es una descomposición matricial . Permite escribir una matriz cuadrada compleja arbitraria como unitariamente equivalente a una matriz triangular superior cuyos elementos diagonales son los valores propios de la matriz original.
Declaración
La descomposición de Schur dice lo siguiente: si A es una matriz cuadrada de n × n con entradas complejas , entonces A se puede expresar como [1] [2] [3]
donde Q es una matriz unitaria (de modo que su inversa Q -1 es también la transpuesta conjugada Q * de Q ), y U es una matriz triangular superior , que se llama una forma Schur de A . Desde U es semejante a A , que tiene el mismo espectro , y puesto que es triangular, sus valores propios son los elementos de la diagonal de U .
La descomposición de Schur implica que existe una secuencia anidada de subespacios invariantes A {0} = V 0 ⊂ V 1 ⊂ ⋯ ⊂ V n = C n , y que existe una base ortonormal ordenada (para la forma hermitiana estándar de C n ) de manera que los primeros i vectores base abarcan V i para cada i que aparece en la secuencia anidada. Expresado de manera algo diferente, la primera parte dice que un operador lineal J en un espacio vectorial complejo de dimensión finita estabiliza una bandera completa ( V 1 ,…, V n ) .
Prueba
Una prueba constructiva de la descomposición de Schur es la siguiente: todo operador A en un espacio vectorial complejo de dimensión finita tiene un valor propio λ , correspondiente a algún espacio propio V λ . Sea V λ ⊥ su complemento ortogonal. Está claro que, con respecto a esta descomposición ortogonal, A tiene representación matricial (aquí se puede elegir cualquier base ortonormal Z 1 y Z 2 que abarque V λ y V λ ⊥ respectivamente)
donde I λ es el operador de identidad en V λ . La matriz anterior sería triangular superior a excepción del bloque A 22 . Pero se puede aplicar exactamente el mismo procedimiento a la submatriz A 22 , vista como un operador en V λ ⊥ , y sus submatrices. Continúe de esta manera hasta que la matriz resultante sea triangular superior. Dado que cada conjugación aumenta la dimensión del bloque triangular superior en al menos uno, este proceso toma como máximo n pasos. Por lo tanto, el espacio C n se agotará y el procedimiento ha dado el resultado deseado.
El argumento anterior se puede reformular ligeramente de la siguiente manera: sea λ un valor propio de A , correspondiente a algún espacio propio V λ . A induce un operador T en el espacio del cociente C n / V λ . Este operador es precisamente la submatriz A 22 de arriba. Como antes, T tendría un espacio propio, digamos W μ ⊂ C n módulo V λ . Observe que la preimagen de W μ bajo el mapa del cociente es un subespacio invariante de A que contiene V λ . Continúe de esta manera hasta que el espacio cociente resultante tenga dimensión 0. Luego, las sucesivas preimágenes de los autoespacios que se encuentran en cada paso forman una bandera que A estabiliza.
Notas
Aunque cada matriz cuadrada tiene una descomposición de Schur, en general esta descomposición no es única. Por ejemplo, el espacio propio V λ puede tener una dimensión> 1, en cuyo caso cualquier base ortonormal para V λ conduciría al resultado deseado.
Escriba la matriz triangular U como U = D + N , donde D es diagonal y N es estrictamente triangular superior (y por lo tanto una matriz nilpotente ). La matriz diagonal D contiene los valores propios de A en orden arbitrario (de ahí que su norma de Frobenius, al cuadrado, sea la suma de los módulos al cuadrado de los valores propios de A , mientras que la norma de Frobenius de A , al cuadrado, es la suma de los valores singulares al cuadrado de A ). La parte nilpotente N generalmente tampoco es única, pero su norma Frobenius está determinada únicamente por A (solo porque la norma Frobenius de A es igual a la norma Frobenius de U = D + N ).
Está claro que si A es una matriz normales , entonces U de su descomposición de Schur debe ser una matriz diagonal y los vectores columna de Q son los vectores propios de A . Por lo tanto, la descomposición de Schur extiende la descomposición espectral . En particular, si A es positivo definido , la descomposición de Schur de A , su descomposición espectral y su descomposición de valor singular coinciden.
Una familia conmutada { A i } de matrices se puede triangularizar simultáneamente, es decir, existe una matriz unitaria Q tal que, para cada A i en la familia dada, QA i Q * es triangular superior. Esto se puede deducir fácilmente de la prueba anterior. Tome elemento A partir de { A i } y de nuevo considerar un espacio propio V A . Entonces V A es invariante bajo todas las matrices en { A i }. Por lo tanto, todas las matrices en { A i } deben compartir un vector propio común en V A . La inducción luego prueba la afirmación. Como corolario, tenemos que todas las familias de matrices normales que se desplazan al trabajo pueden diagonalizarse simultáneamente .
En la configuración de dimensión infinita, no todos los operadores acotados en un espacio de Banach tienen un subespacio invariante. Sin embargo, la triangularización superior de una matriz cuadrada arbitraria se generaliza a operadores compactos . Cada operador compacto en un espacio de Banach complejo tiene un nido de subespacios invariantes cerrados.
Cálculo
La descomposición de Schur de una matriz dada se calcula numéricamente mediante el algoritmo QR o sus variantes. En otras palabras, las raíces del polinomio característico correspondiente a la matriz no necesariamente se calculan con anticipación para obtener su descomposición de Schur. Por el contrario, el algoritmo QR se puede utilizar para calcular las raíces de cualquier polinomio característico dado al encontrar la descomposición de Schur de su matriz acompañante . De manera similar, el algoritmo QR se utiliza para calcular los valores propios de cualquier matriz dada, que son las entradas diagonales de la matriz triangular superior de la descomposición de Schur. Aunque el algoritmo QR es formalmente una secuencia infinita de operaciones, la convergencia a la precisión de la máquina se logra prácticamente en O ( norte 3 ) {\ Displaystyle {\ mathcal {O}} (n ^ {3})} operaciones. [4] Consulte la sección Problemas propios no simétricos en la Guía del usuario de LAPACK . [5]
Aplicaciones
Las aplicaciones de la teoría de la mentira incluyen:
- Cada operador invertible está contenido en un grupo Borel .
- Cada operador fija un punto del distribuidor de banderas .
Descomposición generalizada de Schur
Dadas las matrices cuadradas A y B , la descomposición de Schur generalizada factoriza ambas matrices como y , donde Q y Z son unitarios , y S y T son triangulares superiores . La descomposición generalizada de Schur también se denomina a veces descomposición QZ . [2] : 375
Los valores propios generalizados que resuelven el problema de valores propios generalizados (donde x es un vector distinto de cero desconocido) se puede calcular como la relación de los elementos diagonales de S a los de T . Es decir, utilizando subíndices para denotar elementos de la matriz, el i- ésimo valor propio generalizado satisface .
Referencias
- ^ Horn, RA y Johnson, CR (1985). Análisis matricial . Prensa de la Universidad de Cambridge. ISBN 0-521-38632-2.(Sección 2.3 y más en la p. 79 )
- ^ a b Golub, GH y Van Loan, CF (1996). Cálculos matriciales (3ª ed.). Prensa de la Universidad Johns Hopkins. ISBN 0-8018-5414-8.(Sección 7.7 en p. 313 )
- ^ Schott, James R. (2016). Análisis matricial para estadística (3ª ed.). Nueva York: John Wiley & Sons. págs. 175-178. ISBN 978-1-119-09247-6.
- ^ Trefethen, Lloyd N .; Bau, David (1997). Álgebra lineal numérica . Filadelfia: Sociedad de Matemáticas Industriales y Aplicadas. págs. 193-194. ISBN 0-89871-361-7. OCLC 36084666 .Mantenimiento CS1: fecha y año ( enlace )
- ^ Anderson, E; Bai, Z; Bischof, C; Blackford, S; Demmel, J; Dongarra, J; Du Croz, J; Greenbaum, A; Hammarling, S; McKenny, A; Sorensen, D (1995). Guía del usuario de LAPACK . Filadelfia, PA: Sociedad de Matemáticas Industriales y Aplicadas. ISBN 0-89871-447-8.