Intuitivamente, si una matriz real se interpreta como una transformación lineal de un espacio dimensional , la descomposición polar la separa en una rotación o reflexión de y una escala del espacio a lo largo de un conjunto de ejes ortogonales.
La descomposición polar de una matriz cuadrada siempre existe. Si es invertible , la descomposición es única y el factor será positivo-definido . En ese caso, se puede escribir de forma única en la forma , donde es unitario y es el logaritmo autoadjunto único de la matriz . [2] Esta descomposición es útil para calcular el grupo fundamental de grupos de Lie (matriciales) . [3]
La descomposición polar también se puede definir como donde es simétrica positiva-definida pero en general es una matriz diferente, mientras que es la misma matriz que la anterior.
La definición puede extenderse a matrices rectangulares requiriendo ser una matriz semi-unitaria y ser una matriz hermitiana semidefinida positiva. La descomposición siempre existe y es siempre única. La matriz es única si y solo si tiene rango completo. [4]
Contenido
1 Propiedades
1.1 Interpretación intuitiva
1.2 Relación con la SVD
1.3 Construcción y pruebas de existencia
1.3.1 Caso de normal A {\ Displaystyle A}
1.3.2 Caso de invertible A {\ Displaystyle A}
1.3.3 Caso general
2 operadores acotados en el espacio de Hilbert
3 operadores ilimitados
4 Descomposición polar de cuaterniones
5 Descomposiciones planas alternativas
6 Determinación numérica de la descomposición polar de la matriz
7 Véase también
8 referencias
Propiedades
La descomposición polar del conjugado complejo de viene dada por Observe que
da la correspondiente descomposición polar del determinante de A , ya que y . En particular, si tiene el determinante 1, entonces ambos y tienen el determinante 1.
La matriz semidefinida positiva P es siempre única, incluso si A es singular , y se denota como
donde denota la transposición conjugada de . La singularidad de P asegura que esta expresión esté bien definida. La unicidad está garantizada por el hecho de que es una matriz hermitiana semidefinita positiva y, por lo tanto, tiene una raíz cuadrada hermitiana semidefinita positiva única . [5] Si A es invertible, entonces P es positivo-definido, por lo tanto también invertible y la matriz U está determinada únicamente por
Interpretación intuitiva
Una matriz cuadrada real se puede interpretar como la transformación lineal de que lleva un vector columna a . Entonces, en la descomposición polar , el factor es una matriz ortonormal real. Entonces, la descomposición polar puede verse como la expresión de la transformación lineal definida por en una escala del espacio a lo largo de cada vector propio de por un factor de escala (la acción de ), seguida de una sola rotación o reflexión de (la acción de ).
Alternativamente, la descomposición expresa la transformación definida por como una rotación ( ) seguida de una escala ( ) a lo largo de ciertas direcciones ortogonales. Los factores de escala son los mismos, pero las direcciones son diferentes.
Relación con la SVD
En términos de la descomposición en valores singulares (SVD) de , , uno tiene
donde , , y son matrices unitarias (llamado matrices ortogonales si el campo es los reales ). Esto confirma que es positivo-definido y es unitario. Por tanto, la existencia de la SVD equivale a la existencia de descomposición polar.
También se puede descomponer en la forma
Aquí es el mismo que antes y viene dado por
Esto se conoce como descomposición polar izquierda, mientras que la descomposición anterior se conoce como descomposición polar derecha. La descomposición polar izquierda también se conoce como descomposición polar inversa.
La matriz es normal si y solo si . Entonces , y es posible diagonalizar con una matriz de similitud unitaria que conmuta con , dando , donde está una matriz unitaria diagonal de fases . Poniendo , uno puede entonces reescribir la descomposición polar como
por lo que a continuación, por tanto, también tiene una descomposición espectral
con autovalores complejos tales que y una matriz unitaria de autovectores complejos .
La descomposición polar de una matriz real cuadrada invertible tiene la forma
donde es una matriz definida positiva y es una matriz ortogonal.
Construcción y pruebas de existencia.
La idea central detrás de la construcción de la descomposición polar es similar a la utilizada para calcular la descomposición de valores singulares .
Para cualquiera , la matriz es hermitiana y semidefinida positiva, y por lo tanto unitariamente equivalente a una matriz diagonal semidefinida positiva. Sea entonces el unitario tal que , con diagonal y semidefinido positivo.
Caso de normal
Si es normal, entonces es unitariamente equivalente a una matriz diagonal: para algunas matrices unitarias y algunas diagonales . Entonces podemos escribir
donde es una matriz diagonal que contiene las fases de los elementos de , es decir, o un número complejo arbitrario con unidad de magnitud cuando .
La descomposición polar es así , con y diagonal en la base propia de y con valores propios iguales a las fases y valores absolutos de los valores propios de , respectivamente.
Caso de invertible
A partir de la descomposición de valores singulares , se puede demostrar que a es invertible si y solo si (de manera equivalente, ) lo es. Además, esto es cierto si y solo si los valores propios de no son todos cero. [6]
En este caso, la descomposición polar se obtiene directamente escribiendo
y observando que es unitario. Para ver esto, podemos aprovechar la descomposición espectral de escribir .
En esta expresión, es unitario porque es. Para demostrar que también es unitario, podemos usar la SVD para escribir , de modo que
donde nuevamente es unitario por construcción.
Otra forma más de mostrar directamente la unitaridad de es observar que, escribiendo la SVD de en términos de matrices de rango 1 como , donde están los valores singulares de , tenemos
lo cual implica directamente la unitaridad de porque una matriz es unitaria si y solo si sus valores singulares tienen un valor absoluto unitario.
Observe cómo, de la construcción anterior, se deduce que la matriz unitaria en la descomposición polar de una matriz invertible está definida de manera única .
Caso general
El SVD de lecturas , con matrices unitarias, y una matriz semidefinida positiva diagonal. Simplemente insertando un par adicional de so , obtenemos las dos formas de la descomposición polar de :
Operadores acotados en el espacio de Hilbert
La descomposición polar de cualquier operador lineal acotado A entre espacios de Hilbert complejos es una factorización canónica como el producto de una isometría parcial y un operador no negativo.
La descomposición polar para matrices se generaliza de la siguiente manera: si A es un operador lineal acotado, entonces hay una factorización única de A como un producto A = UP donde U es una isometría parcial, P es un operador autoadjunto no negativo y el espacio de U es el cierre de la gama de P .
El operador U debe debilitarse a una isometría parcial, en lugar de unitaria, debido a los siguientes problemas. Si A es el desplazamiento unilateral en l 2 ( N ), entonces | A | = { A * A } ½ = I . Entonces, si A = U | A |, U debe ser A , que no es unitario.
La existencia de una descomposición polar es una consecuencia del lema de Douglas :
Lema Si A , B son operadores acotados en un espacio de Hilbert H , y A * A ≤ B * B , entonces existe una contracción C tal que A = CB . Además, C es único si Ker ( B * ) ⊂ Ker ( C ).
El operador C puede ser definido por C (Bh) : = Ah para todos h en H , extendida por la continuidad para el cierre de Ran ( B ), y por cero en el complemento ortogonal a todos H . El lema sigue entonces, ya que A * A ≤ B * B implica Ker ( B ) ⊂ Ker ( A ).
En particular. Si A * A = B * B , entonces C es una isometría parcial, que es única si Ker ( B * ) ⊂ Ker ( C ). En general, para cualquier operador acotado A ,
donde ( A * A ) ½ es la única raíz cuadrada positiva de A * A dada por el cálculo funcional habitual . Entonces, por el lema, tenemos
para alguna isometría parcial U , que es única si Ker ( A * ) ⊂ Ker ( U ). Tome P como ( A * A ) ½ y se obtiene la descomposición polar A = UP . Observe que se puede usar un argumento análogo para mostrar A = P'U ' , donde P' es positivo y U ' una isometría parcial.
Cuando H es de dimensión finita, U puede extenderse a un operador unitario; esto no es cierto en general (vea el ejemplo anterior). Alternativamente, la descomposición polar se puede mostrar usando la versión del operador de la descomposición de valor singular .
Por propiedad del cálculo funcional continuo , | A | está en el C * -algebra generada por A . Una declaración similar pero más débil se mantiene para la isometría parcial: T está en el álgebra de von Neumann generada por una . Si A es invertible, la parte polar U estará también en el C * -álgebra .
Operadores ilimitados
Si A es un operador ilimitado cerrado y densamente definido entre espacios de Hilbert complejos, entonces todavía tiene una descomposición polar (única)
donde | A | es un operador autoadjunto no negativo (posiblemente ilimitado) con el mismo dominio que A , y U es una isometría parcial que desaparece en el complemento ortogonal del rango Ran (| A |).
La demostración usa el mismo lema que el anterior, que se aplica a los operadores ilimitados en general. Si Dom ( A * A ) = Dom ( B * B ) y A * Ah = B * Bh para todo h ∈ Dom ( A * A ), entonces existe una isometría parcial U tal que A = UB . U es único si Ran ( B ) ⊥ ⊂ Ker ( U). El operador A cerrado y densamente definido asegura que el operador A * A es autoadjunto (con dominio denso) y por lo tanto permite definir ( A * A ) ½ . Al aplicar el lema se obtiene una descomposición polar.
Si un operador ilimitado A está afiliado a un álgebra de von Neumann M , y A = UP es su descomposición polar, entonces U está en M y también lo está la proyección espectral de P , 1 B ( P ), para cualquier conjunto Borel B en [ 0, ∞).
Descomposición polar del cuaternión
La descomposición polar de los cuaterniones H depende de la esfera unitaria bidimensional de raíces cuadradas de menos uno . Dado cualquier r en esta esfera, y un ángulo -π < un ≤ π, el versor está en la unidad 3-esfera de H . Para a = 0 y a = π, el versor es 1 o −1 independientemente de qué r se seleccione. La norma t de un cuaternión q es la distancia euclidiana desde el origen hasta q . Cuando un cuaternión no es solo un número real, entonces hay un único descomposición polar
Descomposiciones planas alternativas
En el plano cartesiano , las descomposiciones de anillos planos alternativos surgen de la siguiente manera:
Si x ≠ 0 , z = x (1 + ε ( y / x )) es una descomposición polar de un número dual z = x + y ε , donde ε 2 = 0 ; es decir, ε es nilpotente . En esta descomposición polar, el círculo unitario ha sido reemplazado por la línea x = 1 , el ángulo polar por la pendiente y / x , y el radio x es negativo en el semiplano izquierdo.
Si x 2 ≠ y 2 , entonces la hipérbola unitaria x 2 - y 2 = 1 y su conjugado x 2 - y 2 = −1 pueden usarse para formar una descomposición polar basada en la rama de la hipérbola unitaria a través de (1, 0 ) . Esta rama es parametrizada por el ángulo hiperbólico una y se escribe
donde j 2 = +1 y se usa la aritmética [7] de números complejos divididos . La rama a través de (−1, 0) se traza mediante - e aj . Dado que la operación de multiplicar por j refleja un punto a través de la línea y = x , la segunda hipérbola tiene ramas trazadas por je aj o - je aj . Por lo tanto, un punto en uno de los cuadrantes tiene una descomposición polar en una de las formas:
El conjunto {1, −1, j, −j} tiene productos que lo hacen isomorfo al grupo de cuatro de Klein . Evidentemente, la descomposición polar en este caso involucra un elemento de ese grupo.
Determinación numérica de la descomposición polar de la matriz
Para calcular una aproximación de la descomposición polar A = UP , generalmente se aproxima el factor unitario U. [8] [9] La iteración se basa en el método de Heron para la raíz cuadrada de 1 y calcula, a partir de , la secuencia
La combinación de inversión y conjugación de Hermite se elige de modo que en la descomposición del valor singular, los factores unitarios permanezcan iguales y la iteración se reduzca al método de Heron sobre los valores singulares.
Esta iteración básica se puede refinar para acelerar el proceso:
En cada paso o en intervalos regulares, se estima el rango de los valores singulares de y luego se cambia la escala de la matriz para centrar los valores singulares alrededor de 1 . El factor de escala se calcula utilizando las normas matriciales de la matriz y su inversa. Ejemplos de tales estimaciones de escala son:
utilizando las normas matriciales de suma de filas y suma de columnas o
utilizando la norma Frobenius . Incluyendo el factor de escala, la iteración ahora es
La descomposición QR se puede utilizar en un paso de preparación para reducir una matriz A singular a una matriz regular más pequeña, y dentro de cada paso para acelerar el cálculo de la inversa.
El método de Heron para calcular las raíces de puede ser reemplazado por métodos de orden superior, por ejemplo, basados en el método de Halley de tercer orden, lo que resulta en
Esta iteración se puede volver a combinar con el cambio de escala. Esta fórmula en particular tiene la ventaja de que también es aplicable a matrices A singulares o rectangulares .
Ver también
Descomposición de Cartan
Descomposición polar algebraica
Descomposición polar de una medida compleja
Descomposición de grupos de mentiras
Referencias
^ Salón 2015 Sección 2.5
^ Teorema 2.17 de Hall 2015
^ Salón 2015 Sección 13.3
^ Higham, Nicholas J .; Schreiber, Robert S. (1990). "Descomposición polar rápida de una matriz arbitraria". SIAM J. Sci. Stat. Computación . Filadelfia, PA, EE.UU .: Sociedad de Matemáticas Industriales y Aplicadas. 11 (4): 648–655. CiteSeerX 10.1.1.111.9239 . doi : 10.1137 / 0911038 . ISSN 0196-5204 .
^ Salón 2015 Lema 2.18
^ Observe cómo esto implica, por la positividad de, que los valores propios son todos reales y estrictamente positivos.
^ Sobczyk, G. (1995) "Plano numérico hiperbólico", College Mathematics Journal 26: 268–80
^ Higham, Nicholas J. (1986). "Calculando la descomposición polar con aplicaciones". SIAM J. Sci. Stat. Computación . Filadelfia, PA, EE.UU .: Sociedad de Matemáticas Industriales y Aplicadas. 7 (4): 1160-1174. CiteSeerX 10.1.1.137.7354 . doi : 10.1137 / 0907079 . ISSN 0196-5204 .
^ Byers, Ralph; Hongguo Xu (2008). "Una nueva escala para la iteración de Newton para la descomposición polar y su estabilidad hacia atrás". SIAM J. Matrix Anal. Apl . Filadelfia, PA, EE.UU .: Sociedad de Matemáticas Industriales y Aplicadas. 30 (2): 822–843. CiteSeerX 10.1.1.378.6737 . doi : 10.1137 / 070699895 . ISSN 0895-4798 .
Conway, JB : Curso de análisis funcional. Textos de Posgrado en Matemáticas . Nueva York: Springer 1990
Douglas, RG : Sobre mayorización, factorización e inclusión de rango de operadores en Hilbert Space. Proc. Amer. Matemáticas. Soc. 17 , 413-415 (1966)
Hall, Brian C. (2015), Lie Groups, Lie Algebras, and Representations: An Elementary Introduction , Textos de posgrado en matemáticas, 222 (2a ed.), Springer, ISBN 978-3319134666.
Helgason, Sigurdur (1978), Geometría diferencial, Grupos de Lie y espacios simétricos , Academic Press, ISBN 0-8218-2848-7
vtmiTeoría espectral y * -álgebras
Conceptos básicos
Involución / * - álgebra
Álgebra de Banach
B * -álgebra
C * -álgebra
Topología no conmutativa
Medida con valor de proyección
Espectro
Espectro de un álgebra C *
Radio espectral
Espacio operador
Resultados principales
Teorema de Gelfand-Mazur
Teorema de Gelfand-Naimark
Representación de Gelfand
Descomposición polar
Valor singular de descomposición
Teorema espectral
Teoría espectral de las C * -álgebras normales
Elementos / operadores especiales
Isospectral
Operador normal
Operador hermitiano / autoadjunto
Operador unitario
Unidad
Espectro
Teorema de Kerin-Rutman
Valor propio normal
Espectro de un álgebra C *
Radio espectral
Asimetría espectral
Brecha espectral
Descomposición de un espectro
( Continuo
Punto
Residual )
Punto aproximado
Compresión
Discreto
Abscisa espectral
Teorema espectral
Cálculo funcional Borel
Teorema mínimo-máximo
Medida positiva valorada por el operador
Medida con valor de proyección
Proyector Riesz
Espacio Hilbert aparejado
Teorema espectral
Teoría espectral de operadores compactos
Teoría espectral de las C * -álgebras normales
Álgebras especiales
Álgebra de Banach adecuada
Con una identidad aproximada
Álgebra de funciones de Banach
Álgebra de disco
Álgebra uniforme
Álgebra de von Neumann
Teoría de Tomita-Takesaki
De dimensión finita
Alon – Boppana obligado
Teorema de Bauer-Fike
Rango numérico
Teorema de Schur-Horn
Generalizaciones
Espectro de Dirac
Espectro esencial
Pseudoespectro
Espacio de estructura ( límite de Shilov )
Diverso
Grupo de índice abstracto
Cohomología del álgebra de Banach
Teorema de factorización de Cohen-Hewitt
Extensiones de operadores simétricos
Principio de limitación de la absorción
Operador ilimitado
Ejemplos de
Álgebra de Wiener
Aplicaciones
Casi operador de Mathieu
Teorema de corona
Escuchar la forma de un tambor ( valor propio de Dirichlet )
Núcleo de calor
Fórmula de trazas de Kuznetsov
Par laxo
Función de protovalor
Gráfico de Ramanujan
Desigualdad de Rayleigh-Faber-Krahn
Geometría espectral
Método espectral
Teoría espectral de ecuaciones diferenciales ordinarias