En álgebra lineal , la descomposición propia o, a veces, la descomposición espectral es la factorización de una matriz en una forma canónica , mediante la cual la matriz se representa en términos de sus autovalores y autovectores . Solo las matrices diagonalizables se pueden factorizar de esta manera.
Teoría fundamental de los autovectores y autovalores matriciales
Un vector v (distinto de cero) de dimensión N es un vector propio de una matriz A cuadrada N × N si satisface la ecuación lineal
donde λ es un escalar, denominado valor propio correspondiente a v . Es decir, los vectores propios son los vectores en los que la transformación lineal A simplemente alarga o encoge, y la cantidad en la que se alargan / encogen es el valor propio. La ecuación anterior se llama ecuación de valor propio o problema de valor propio .
Esto produce una ecuación para los valores propios
Llamamos p ( λ ) el polinomio característico , y la ecuación, llamada ecuación característica , es una ecuación polinomial de orden N en la λ desconocida . Esta ecuación tendrá N λ soluciones distintas, donde 1 ≤ N λ ≤ N . El conjunto de soluciones, es decir, los valores propios, se llama el espectro de A . [1] [2] [3]
Podemos factorizar p como
El número entero n i se denomina multiplicidad algebraica del valor propio λ i . Si el campo de escalares es algebraicamente cerrado , las multiplicidades algebraicas suman N :
Para cada valor propio λ i , tenemos una ecuación de valor propio específico
Habrá 1 ≤ m i ≤ n i soluciones linealmente independientes para cada ecuación de valor propio. Las combinaciones lineales de las soluciones m i son los vectores propios asociados con el valor propio λ i . El entero m i se denomina multiplicidad geométrica de λ i . Es importante tener en cuenta que la multiplicidad algebraica n i y la multiplicidad geométrica m i pueden ser iguales o no, pero siempre tenemos m i ≤ n i . El caso más simple es, por supuesto, cuando m i = n i = 1 . El número total de vectores propios linealmente independientes, N v , se puede calcular sumando las multiplicidades geométricas
Los vectores propios pueden ser indexados por valores propios, utilizando un doble índice, con v ij ser el j ésimo vector propio para el i ésimo valor propio. Los autovectores también se pueden indexar usando la notación más simple de un solo índice v k , con k = 1, 2, ..., N v .
Descomposición propia de una matriz
Sea A una matriz cuadrada n × n con n vectores propios linealmente independientes q i (donde i = 1, ..., n ). Entonces A se puede factorizar como
donde Q es la matriz cuadrada n × n cuya i- ésima columna es el vector propio q i de A , y Λ es la matriz diagonal cuyos elementos diagonales son los valores propios correspondientes, Λ ii = λ i . Tenga en cuenta que solo las matrices diagonalizables se pueden factorizar de esta manera. Por ejemplo, la matriz defectuosa (que es una matriz de corte ) no se puede diagonalizar.
Los n autovectores q i suelen estar normalizados, pero no es necesario que lo estén. Un conjunto no normalizada de n vectores propios, v i también se puede utilizar como las columnas de Q . Eso puede entenderse observando que la magnitud de los autovectores en Q se cancela en la descomposición por la presencia de Q −1 .
La descomposición se puede derivar de la propiedad fundamental de los autovectores:
Ejemplo
La matriz real 2 × 2 A
puede descomponerse en una matriz diagonal mediante la multiplicación de una matriz no singular B
Luego
para alguna matriz diagonal real .
Multiplicando ambos lados de la ecuación de la izquierda por B :
La ecuación anterior se puede descomponer en dos ecuaciones simultáneas :
Factorizar los valores propios x y y :
Dejando
esto nos da dos ecuaciones vectoriales:
Y se puede representar mediante una única ecuación vectorial que involucra dos soluciones como valores propios:
donde λ representa los dos valores propios x y y y u representa los vectores de una y b .
El cambio λ U a la izquierda y la factorización de U a cabo
Dado que B no es singular, es esencial que u no sea cero. Por lo tanto,
Por lo tanto
dándonos las soluciones de los valores propios de la matriz A como λ = 1 o λ = 3 , y la matriz diagonal resultante de la descomposición propia de A es.
Volviendo a poner las soluciones en las ecuaciones simultáneas anteriores
Resolviendo las ecuaciones, tenemos
Por tanto, la matriz B requerida para la descomposición propia de A es
es decir:
Matriz inversa a través de autodescomposición
Si una matriz A puede descomponerse de forma propia y si ninguno de sus valores propios es cero, entonces A es invertible y su inverso está dado por
Si es una matriz simétrica, ya que se forma a partir de los autovectores de se garantiza que es una matriz ortogonal , por lo tanto. Además, debido a que Λ es una matriz diagonal , su inversa es fácil de calcular:
Implicaciones prácticas [4]
Cuando la descomposición propia se utiliza en una matriz de datos reales medidos, la inversa puede ser menos válida cuando todos los valores propios se utilizan sin modificar en la forma anterior. Esto se debe a que a medida que los valores propios se vuelven relativamente pequeños, su contribución a la inversión es grande. Aquellos cerca de cero o en el "ruido" del sistema de medición tendrán una influencia indebida y podrían obstaculizar las soluciones (detección) usando el inverso.
Se han propuesto dos mitigaciones: truncar los valores propios pequeños o nulos y extender el valor propio fiable más bajo a los que están por debajo de él.
El primer método de mitigación es similar a una muestra escasa de la matriz original, eliminando componentes que no se consideran valiosos. Sin embargo, si la solución o el proceso de detección están cerca del nivel de ruido, truncar puede eliminar componentes que influyen en la solución deseada.
La segunda mitigación extiende el valor propio de modo que los valores más bajos tengan mucha menos influencia sobre la inversión, pero aún contribuyen, de manera que aún se encontrarán soluciones cercanas al ruido.
El autovalor confiable se puede encontrar asumiendo que los autovalores de valor extremadamente similar y bajo son una buena representación del ruido de medición (que se supone bajo para la mayoría de los sistemas).
Si los autovalores están ordenados por rango por valor, entonces el autovalor confiable se puede encontrar minimizando el laplaciano de los autovalores ordenados: [5]
donde los valores propios están subindicados con una s para indicar que están ordenados. La posición de la minimización es el valor propio confiable más bajo. En los sistemas de medición, la raíz cuadrada de este valor propio confiable es el ruido promedio sobre los componentes del sistema.
Cálculo funcional
La descomposición propia permite un cálculo mucho más sencillo de las series de potencias de las matrices. Si f ( x ) está dada por
entonces sabemos que
Como Λ es una matriz diagonal , las funciones de Λ son muy fáciles de calcular:
Los elementos fuera de la diagonal de f ( Λ ) son cero; es decir, f ( Λ ) también es una matriz diagonal. Por lo tanto, calcular f ( A ) se reduce a simplemente calcular la función en cada uno de los valores propios.
Una técnica similar funciona de manera más general con el cálculo funcional holomórfico , utilizando
desde arriba . Una vez más, encontramos que
Ejemplos de
que son ejemplos de las funciones . Además,es la matriz exponencial .
Descomposición para matrices especiales
Matrices normales
Una matriz cuadrada de valor complejo A es normal (es decir, A * A = AA * , donde A * es la transposición conjugada ) si y solo si se puede descomponer como
donde U es una matriz unitaria (lo que significa U * = U −1 ) y Λ = diag ( λ 1 , ..., λ n ) es una matriz diagonal . [6] Las columnas u 1 ,…, u n de U forman una base ortonormal y son autovectores de A con sus correspondientes autovalores λ 1 ,…, λ n .
Si A está restringido a ser una matriz hermitiana ( A = A * ), entonces Λ solo tiene entradas con valor real. Si A está restringido a una matriz unitaria, entonces Λ toma todos sus valores en el círculo unitario complejo, es decir, | λ i | = 1 .
Matrices simétricas reales
Como caso especial, para cada matriz simétrica real n × n , los valores propios son reales y los vectores propios pueden elegirse reales y ortonormales . Por lo tanto, una matriz simétrica real A se puede descomponer como
donde Q es una matriz ortogonal cuyas columnas son (los anteriormente elegido, reales y ortonormales) vectores propios de A , y Λ es una matriz diagonal cuyas entradas son los valores propios de A . [7]
Hechos útiles
Datos útiles sobre los valores propios
- El producto de los valores propios es igual al determinante de A
- La suma de los valores propios es igual a la traza de A
- Si los autovalores de A son λ i , y A es invertible, entonces los autovalores de A −1 son simplemente λ−1
yo. - Si los autovalores de A son λ i , entonces los autovalores de f ( A ) son simplemente f ( λ i ) , para cualquier función holomórfica f .
Datos útiles sobre los vectores propios
- Si A es hermitiano y de rango completo, la base de los vectores propios puede elegirse para que sea mutuamente ortogonal . Los valores propios son reales.
- Los vectores propios de A -1 son los mismos que los vectores propios de A .
- Los autovectores solo se definen hasta una constante multiplicativa. Es decir, si Av = λ v entonces c v también es un vector propio para cualquier escalar c ≠ 0 . En particular, - v y e iθ v (para cualquier θ ) también son vectores propios.
- En el caso de autovalores degenerados (un autovalor que aparece más de una vez), los autovectores tienen una libertad adicional de rotación, es decir, cualquier combinación lineal (ortonormal) de autovectores que comparten un autovalor (en el subespacio degenerado), son ellos mismos autovectores ( en el subespacio).
Datos útiles sobre la descomposición propia
- A puede descomponerse de forma propia si y solo si el número de vectores propios linealmente independientes, N v , es igual a la dimensión de un vector propio: N v = N
- Si p ( λ ) no tiene raíces repetidas, es decir, sientonces A puede descomponerse por sí mismo.
- El enunciado " A puede descomponerse por sí mismo" no implica que A tenga una inversa.
- El enunciado " A tiene una inversa" no implica que A pueda descomponerse por sí mismo. Un contraejemplo es, que es una matriz defectuosa invertible .
Datos útiles sobre la matriz inversa
- A se puede invertir si y solo si todos los valores propios son distintos de cero:
- Si λ i ≠ 0 y N v = N , la inversa está dada por
Cálculos numéricos
Cálculo numérico de valores propios
Suponga que queremos calcular los valores propios de una matriz dada. Si la matriz es pequeña, podemos calcularlos simbólicamente usando el polinomio característico . Sin embargo, esto a menudo es imposible para matrices más grandes, en cuyo caso debemos utilizar un método numérico .
En la práctica, los valores propios de matrices grandes no se calculan utilizando el polinomio característico. Calcular el polinomio se vuelve costoso en sí mismo, y las raíces exactas (simbólicas) de un polinomio de alto grado pueden ser difíciles de calcular y expresar: el teorema de Abel-Ruffini implica que las raíces de polinomios de alto grado (5 o más) no pueden en general expresarse simplemente usando n th raíces. Por lo tanto, los algoritmos generales para encontrar autovectores y autovalores son iterativos .
Existen algoritmos numéricos iterativos para aproximar raíces de polinomios, como el método de Newton , pero en general no es práctico calcular el polinomio característico y luego aplicar estos métodos. Una razón es que pequeños errores de redondeo en los coeficientes del polinomio característico pueden conducir a grandes errores en los autovalores y autovectores: las raíces son una función extremadamente mal condicionada de los coeficientes. [8]
Un método iterativo simple y preciso es el método de potencia : se elige un vector aleatorio v y se calcula una secuencia de vectores unitarios como
Esta secuencia será casi siempre converger a un vector propio correspondiente al valor propio de mayor magnitud, siempre que v tiene un componente no nulo de este vector propio en la base vector propio (y también a condición de que sólo hay un valor propio de mayor magnitud). Este sencillo algoritmo es útil en algunas aplicaciones prácticas; por ejemplo, Google lo usa para calcular el rango de página de los documentos en su motor de búsqueda. [9] Además, el método de potencia es el punto de partida para muchos algoritmos más sofisticados. Por ejemplo, si se mantiene no solo el último vector de la secuencia, sino que se observa el intervalo de todos los vectores de la secuencia, se puede obtener una mejor aproximación (convergencia más rápida) para el autovector, y esta idea es la base de Arnoldi iteración . [8] Alternativamente, el importante algoritmo QR también se basa en una transformación sutil de un método de potencia. [8]
Cálculo numérico de vectores propios
Una vez que se calculan los valores propios, los vectores propios podrían calcularse resolviendo la ecuación
utilizando la eliminación gaussiana o cualquier otro método para resolver ecuaciones matriciales .
Sin embargo, en los métodos prácticos de valores propios a gran escala, los vectores propios se suelen calcular de otras formas, como un subproducto del cálculo del valor propio. En la iteración de potencia , por ejemplo, el vector propio se calcula antes del valor propio (que normalmente se calcula mediante el cociente de Rayleigh del vector propio). [8] En el algoritmo QR para una matriz hermitiana (o cualquier matriz normal ), los vectores propios ortonormales se obtienen como un producto de las matrices Q de los pasos del algoritmo. [8] (Para matrices más generales, el algoritmo QR produce primero la descomposición de Schur , a partir de la cual se pueden obtener los vectores propios mediante un procedimiento de sustitución inversa . [10] ) Para las matrices hermitianas, el algoritmo de valor propio de dividir y conquistar es más eficiente que el algoritmo QR si se desean tanto autovectores como autovalores. [8]
Temas adicionales
Espacios propios generalizados
Recordemos que el geométrica multiplicidad de un valor propio puede ser descrito como la dimensión del espacio característico asociado, el espacio nulo de λ I - A . La multiplicidad algebraica también se puede considerar como una dimensión: es la dimensión del espacio propio generalizado asociado (1er sentido), que es el espacio nulo de la matriz ( λ I - A ) k para cualquier k suficientemente grande . Es decir, es el espacio de autovectores generalizados (primer sentido), donde un autovector generalizado es cualquier vector que eventualmente se convierte en 0 si λ I - A se le aplica suficientes veces sucesivamente. Cualquier autovector es un autovector generalizado, por lo que cada autoespacio está contenido en el autoespacio generalizado asociado. Esto proporciona una prueba fácil de que la multiplicidad geométrica es siempre menor o igual que la multiplicidad algebraica.
Este uso no debe confundirse con el problema de valor propio generalizado que se describe a continuación.
Vector propio conjugado
Un autovector conjugado o coneigenvector es un vector enviado después de la transformación a un múltiplo escalar de su conjugado, donde el escalar se llama autovalor conjugado o coneigenvalor de la transformación lineal. Los vectores y valores propios representan esencialmente la misma información y significado que los vectores propios y valores propios regulares, pero surgen cuando se utiliza un sistema de coordenadas alternativo. La ecuación correspondiente es
Por ejemplo, en la teoría de la dispersión electromagnética coherente, la transformación lineal A representa la acción realizada por el objeto de dispersión, y los vectores propios representan los estados de polarización de la onda electromagnética. En óptica , el sistema de coordenadas se define desde el punto de vista de la onda, conocido como Forward Scattering Alignment (FSA), y da lugar a una ecuación de valor propio regular, mientras que en el radar , el sistema de coordenadas se define desde el punto de vista del radar, conocido como Back Scattering Alignment (BSA), y da lugar a una ecuación de valor coneigen.
Problema generalizado de valores propios
Un problema de valor propio generalizado (segundo sentido) es el problema de encontrar un vector v que obedezca
donde A y B son matrices. Si v obedece a esta ecuación, con algo de λ , entonces llamamos v el autovector generalizado de A y B (en el segundo sentido), y λ se llama autovalor generalizado de A y B (en el segundo sentido) que corresponde al generalizado vector propio v . Los posibles valores de λ deben obedecer a la siguiente ecuación
Si se pueden encontrar n vectores linealmente independientes { v 1 ,…, v n } , de manera que para todo i ∈ {1,…, n } , Av i = λ i Bv i , entonces definimos las matrices P y D tales que
Entonces se cumple la siguiente igualdad
Y la prueba es
Y como P es invertible, multiplicamos la ecuación de la derecha por su inversa, terminando la demostración.
El conjunto de matrices de la forma A - λ B , donde λ es un número complejo, se llama lápiz ; el término lápiz de matriz también puede referirse al par ( A , B ) de matrices. [11]
Si B es invertible, entonces el problema original se puede escribir en la forma
que es un problema de valores propios estándar. Sin embargo, en la mayoría de las situaciones es preferible no realizar la inversión, sino resolver el problema de los valores propios generalizados como se indicó originalmente. Esto es especialmente importante si A y B son matrices hermitianas , ya que en este caso B −1 A no es generalmente hermitiano y las propiedades importantes de la solución ya no son evidentes.
Si A y B son simétricos o hermitianos, y B también es una matriz definida positiva , los valores propios λ i son reales y los vectores propios v 1 y v 2 con valores propios distintos son B -ortogonales ( v 1 * Bv 2 = 0 ). [12] En este caso, los vectores propios se pueden elegir de modo que la matriz P definida anteriormente satisfaga
- o ,
y existe una base de autovectores generalizados (no es un problema defectuoso ). [11] Este estuche a veces se llama lápiz definido hermitiano o lápiz definido . [11]
Ver también
- Descomposición de la matriz
- Jordan forma normal
- Lista de matrices
- Autovalor, autovector y autoespacio
- Teorema espectral
- Valor singular de descomposición
- Transformación de cabeza de familia
- Covariante de Frobenius
- Fórmula de Sylvester
- Perturbación de valores propios
Notas
- ^ Golub y Van Loan (1996 , p. 310)
- ↑ Kreyszig (1972 , p. 273)
- ^ Nering (1970 , p. 270)
- ^ Hayde, AF; Twede, DR (2002). Shen, Sylvia S. (ed.). "Observaciones sobre la relación entre valores propios, ruido del instrumento y rendimiento de detección". Espectrometría de imágenes VIII . Procedimientos de SPIE. 4816 : 355. Código Bibliográfico : 2002SPIE.4816..355H . doi : 10.1117 / 12.453777 .
- ^ Twede, DR; Hayden, AF (2004). Shen, Sylvia S; Lewis, Paul E (eds.). "Refinamiento y generalización del método de extensión de la inversión de la matriz de covarianza por regularización". Espectrometría de imágenes IX . Procedimientos de SPIE. 5159 : 299. Código Bibliográfico : 2004SPIE.5159..299T . doi : 10.1117 / 12.506993 .
- ^ Horn y Johnson (1985) , p. 133, Teorema 2.5.3
- ^ Horn y Johnson (1985) , p. 136, Corolario 2.5.11
- ^ a b c d e f Trefethen, Lloyd N .; Bau, David (1997). Álgebra lineal numérica . SIAM. ISBN 978-0-89871-361-9.
- ^ Ipsen, Ilse y Rebecca M. Wills, Análisis y cálculo del PageRank de Google , Séptimo Simposio internacional de IMACS sobre métodos iterativos en informática científica, Fields Institute, Toronto, Canadá, 5-8 de mayo de 2005.
- ^ Quarteroni, Alfio; Sacco, Riccardo; Saleri, Fausto (2000). "sección 5.8.2". Matemáticas numéricas . Saltador. pag. 15. ISBN 978-0-387-98959-4.
- ^ a b c Bai, Z .; Demmel, J .; Dongarra, J .; Ruhe, A .; Van Der Vorst, H., eds. (2000). "Problemas de valores propios hermitianos generalizados". Plantillas para la solución de problemas de valores propios algebraicos: una guía práctica . Filadelfia: SIAM. ISBN 978-0-89871-471-5.
- ^ Parlett, Beresford N. (1998). El problema del valor propio simétrico (Reprint. Ed.). Filadelfia: Sociedad de Matemáticas Industriales y Aplicadas. pag. 345. doi : 10.1137 / 1.9781611971163 . ISBN 978-0-89871-402-9.
Referencias
- Franklin, Joel N. (1968). Teoría de matrices . Publicaciones de Dover. ISBN 978-0-486-41179-8.
- Golub, Gene H .; Van Loan, Charles F. (1996), Matrix Computations (3.a ed.), Baltimore: Johns Hopkins University Press , ISBN 978-0-8018-5414-9
- Horn, Roger A .; Johnson, Charles R. (1985). Análisis matricial . Prensa de la Universidad de Cambridge. ISBN 978-0-521-38632-6.
- Horn, Roger A .; Johnson, Charles R. (1991). Temas de análisis matricial . Prensa de la Universidad de Cambridge. ISBN 978-0-521-46713-1.
- Kreyszig, Erwin (1972), Matemáticas de ingeniería avanzada (3.a ed.), Nueva York: Wiley , ISBN 978-0-471-50728-4
- Nering, Evar D. (1970), Álgebra lineal y teoría de matrices (2a ed.), Nueva York: Wiley , LCCN 76091646
- Strang, G. (1998). Introducción al álgebra lineal (3ª ed.). Prensa de Wellesley-Cambridge. ISBN 978-0-9614088-5-5.
enlaces externos
- Programa interactivo y tutorial de descomposición espectral .