En el análisis numérico , uno de los problemas más importantes es diseñar algoritmos eficientes y estables para encontrar los valores propios de una matriz . Estos algoritmos de valores propios también pueden encontrar vectores propios.
Valores propios y vectores propios
Dada una matriz A n × n cuadrada de números reales o complejos , un valor propio λ y su vector propio generalizado asociado v son un par que obedece a la relación [1]
donde v es un vector de columna n × 1 distinto de cero , I es la matriz identidad n × n , k es un número entero positivo y tanto λ como v pueden ser complejos incluso cuando A es real. Cuando k = 1 , el vector se denomina simplemente vector propio y el par se denomina par propio . En este caso, A v = λ v . Cualquier valor propio λ de A tiene vectores propios ordinarios [nota 1] asociados a él, porque si k es el entero más pequeño tal que ( A - λ I ) k v = 0 para un vector propio generalizado v , entonces ( A - λ I ) k - 1 v es un vector propio ordinario. El valor k siempre se puede tomar como menor o igual que n . En particular, ( A - λ I ) n v = 0 para todos los vectores propios generalizados v asociados con λ.
Para cada autovalor λ de A , el kernel ker ( A - λ I ) consta de todos los autovectores asociados con λ (junto con 0), llamado el autoespacio de λ , mientras que el espacio vectorial ker (( A - λ I ) n ) consiste de todos los vectores propios generalizados, y se denomina espacio propio generalizado . La multiplicidad geométrica de λ es la dimensión de su espacio propio. La multiplicidad algebraica de λ es la dimensión de su espacio propio generalizado. La última terminología está justificada por la ecuación
donde det es la función determinante , λ i son todos los valores propios distintos de A y α i son las multiplicidades algebraicas correspondientes. La función p A ( z ) es el polinomio característico de A . Entonces, la multiplicidad algebraica es la multiplicidad del valor propio como cero del polinomio característico. Dado que cualquier vector propio es también un vector propio generalizado, la multiplicidad geométrica es menor o igual que la multiplicidad algebraica. Las multiplicidades algebraicas suman n , el grado del polinomio característico. La ecuación p A ( z ) = 0 se llama la ecuación característica , ya que sus raíces son exactamente los valores propios de A . Según el teorema de Cayley-Hamilton , A en sí mismo obedece a la misma ecuación: p A ( A ) = 0. [nota 2] Como consecuencia, las columnas de la matrizdebe ser 0 o vectores propios generalizados del valor propio λ j , ya que son aniquilados por. De hecho, el espacio columna es el autoespacio generalizado de λ j .
Cualquier colección de autovectores generalizados de autovalores distintos es linealmente independiente, por lo que se puede elegir una base para todo C n que consta de autovectores generalizados. Más particularmente, esta base { v i }n
yo = 1 puede ser elegido y organizado de modo que
- si v i y v j tienen el mismo valor propio, entonces también lo tiene v k para cada k entre i y j , y
- si v i no es un vector propio ordinario, y si λ i es su valor propio, entonces ( A - λ i I ) v i = v i −1 (en particular, v 1 debe ser un vector propio ordinario).
Si estos vectores base se colocan como los vectores columna de una matriz V = [ v 1 v 2 ⋯ v n ] , entonces V se puede usar para convertir A a su forma normal de Jordan :
donde λ i son los valores propios, β i = 1 si ( A - λ i +1 ) v i +1 = v i y β i = 0 en caso contrario.
De manera más general, si W es cualquier matriz invertible, y λ es un valor propio de A con un vector propio generalizado v , entonces ( W −1 AW - λ I ) k W - k v = 0 . Por tanto, λ es un valor propio de W −1 AW con un vector propio generalizado W - k v . Es decir, matrices similares tienen los mismos valores propios.
Matrices normales, hermitianas y simétricas reales
El adjunto M * de una matriz compleja M es la transpuesta de la conjugada de M : M * = M T . Una matriz cuadrada A se llama normal si conmuta con su adjunto: A * A = AA * . Se llama hermitiana si es igual a su adjunto: A * = A . Todas las matrices hermitianas son normales. Si A solo tiene elementos reales, entonces el adjunto es solo la transposición, y A es hermitiano si y solo si es simétrico . Cuando se aplica a los vectores de columna, el adjunto se puede utilizar para definir el producto interno canónico en C n : w · v = w * v . [nota 3] Las matrices normales, hermitianas y simétricas reales tienen varias propiedades útiles:
- Todo vector propio generalizado de una matriz normal es un vector propio ordinario.
- Cualquier matriz normal es similar a una matriz diagonal, ya que su forma normal de Jordan es diagonal.
- Los vectores propios de valores propios distintos de una matriz normal son ortogonales.
- El espacio nulo y la imagen (o espacio de columna) de una matriz normal son ortogonales entre sí.
- Para cualquier matriz normal de A , C n tiene una base ortonormal que consiste en vectores propios de A . La correspondiente matriz de autovectores es unitaria .
- Los valores propios de una matriz hermitiana son reales, ya que ( λ - λ) v = ( A * - A ) v = ( A - A ) v = 0 para un vector propio v distinto de cero .
- Si A es real, existe una base ortonormal para R n que consta de vectores propios de A si y solo si A es simétrico.
Es posible que una matriz real o compleja tenga todos los valores propios reales sin ser hermitiana. Por ejemplo, una matriz triangular real tiene sus valores propios a lo largo de su diagonal, pero en general no es simétrica.
Número de condición
Cualquier problema de cálculo numérico puede verse como la evaluación de alguna función ƒ para alguna entrada x . El número de condición κ (ƒ, x ) del problema es la razón entre el error relativo en la salida de la función y el error relativo en la entrada, y varía tanto con la función como con la entrada. El número de condición describe cómo crece el error durante el cálculo. Su logaritmo de base 10 indica cuántos dígitos menos de precisión existen en el resultado de los que existían en la entrada. El número de condición es el mejor de los casos. Refleja la inestabilidad incorporada al problema, independientemente de cómo se resuelva. Ningún algoritmo puede producir resultados más precisos que los indicados por el número de condición, excepto por casualidad. Sin embargo, un algoritmo mal diseñado puede producir resultados significativamente peores. Por ejemplo, como se menciona a continuación, el problema de encontrar valores propios para matrices normales siempre está bien condicionado. Sin embargo, el problema de encontrar las raíces de un polinomio puede estar muy mal condicionado . Por lo tanto, los algoritmos de valores propios que funcionan encontrando las raíces del polinomio característico pueden estar mal condicionados incluso cuando el problema no lo está.
Para el problema de resolver la ecuación lineal A v = b donde A es invertible, el número de condición κ ( A −1 , b ) viene dado por || A || op || A −1 || op , donde || || op es la norma del operador subordinada a la norma euclidiana normal en C n . Puesto que este número es independiente de b y es el mismo para A y A -1 , generalmente se acaba de llamar el número de condición κ ( A ) de la matriz A . Este valor κ ( A ) es también el valor absoluto de la relación entre el valor propio más grande de A y el más pequeño. Si A es unitario , entonces || A || op = || A −1 || op = 1 , entonces κ ( A ) = 1 . Para matrices generales, la norma del operador a menudo es difícil de calcular. Por esta razón, se utilizan comúnmente otras normas matriciales para estimar el número de condición.
Para el problema de valores propios, Bauer y Fike demostraron que si λ es un valor propio para una matriz A diagonalizable n × n con matriz de vectores propios V , entonces el error absoluto en el cálculo de λ está acotado por el producto de κ ( V ) y el error absoluto en Una . [2] Como resultado , el número de condición para encontrar λ es κ (λ, A ) = κ ( V ) = || V || op || V −1 || op . Si A es normal, entonces V es unitario y κ (λ, A ) = 1 . Por tanto, el problema de los valores propios para todas las matrices normales está bien condicionado.
El número de condición para el problema de encontrar el espacio propio de una matriz normal de A correspondiente a un valor propio λ se ha demostrado que es inversamente proporcional a la distancia mínima entre λ y los otros valores propios distintos de A . [3] En particular, el problema del espacio propio para matrices normales está bien condicionado para valores propios aislados. Cuando los autovalores no están aislados, lo mejor que se puede esperar es identificar el intervalo de todos los autovectores de autovalores cercanos.
Algoritmos
Cualquier polinomio mónico es el polinomio característico de su matriz acompañante . Por lo tanto, un algoritmo general para encontrar valores propios también podría usarse para encontrar las raíces de polinomios. El teorema de Abel-Ruffini muestra que cualquier algoritmo para dimensiones mayores que 4 debe ser infinito o involucrar funciones de mayor complejidad que las operaciones aritméticas elementales y potencias fraccionarias. Por esta razón, los algoritmos que calculan exactamente los valores propios en un número finito de pasos solo existen para unas pocas clases especiales de matrices. Para matrices generales, los algoritmos son iterativos , produciendo mejores soluciones aproximadas con cada iteración.
Algunos algoritmos producen todos los valores propios, otros producirán unos pocos o solo uno. Sin embargo, incluso los últimos algoritmos se pueden utilizar para encontrar todos los valores propios. Una vez que se ha identificado un valor propio λ de una matriz A , se puede usar para dirigir el algoritmo hacia una solución diferente la próxima vez o para reducir el problema a uno que ya no tenga λ como solución.
La redirección generalmente se logra cambiando: reemplazando A con A - μI para una constante μ . El encontrado valores propios para un - μI debe haber μ añadido de nuevo a obtener un valor propio de A . Por ejemplo, para la iteración de potencia , μ = λ . La iteración de potencia encuentra el valor propio más grande en valor absoluto, por lo que incluso cuando λ es solo un valor propio aproximado, es poco probable que la iteración de potencia lo encuentre por segunda vez. Por el contrario, los métodos basados en iteración inversa encuentran el valor propio más bajo, por lo que μ se elige muy lejos de λ y, con suerte, más cerca de algún otro valor propio.
La reducción se puede lograr restringiendo A al espacio de columna de la matriz A - λ I , que A lleva consigo. Dado que A - λ I es singular, el espacio de la columna es de menor dimensión. El algoritmo de valor propio se puede aplicar luego a la matriz restringida. Este proceso se puede repetir hasta que se encuentren todos los valores propios.
Si un algoritmo de valor propio no produce vectores propios, una práctica común es utilizar un algoritmo basado en iteración inversa con μ establecido en una aproximación cercana al valor propio. Esto convergerá rápidamente al vector propio del valor propio más cercano a μ . Para matrices pequeñas, una alternativa es mirar el espacio de columna del producto de A - λ ' I para cada uno de los otros autovalores λ ' .
Robert Thompson descubrió en 1966 una fórmula para la norma de componentes de vectores propios unitarios de matrices normales y varios otros la redescubrieron de forma independiente. [4] [5] [6] [7] [8] Si A es unmatriz normal con valores propios λ i ( A ) y vectores propios unitarios correspondientes v i cuyas entradas componentes son v i, j , sea A j elmatriz obtenida al eliminar la i -ésima fila y columna de A , y sea λ k ( A j ) su k -ésimo valor propio. Luego
Si son los polinomios característicos de y , la fórmula se puede reescribir como
asumiendo la derivada no es cero en .
Hessenberg y matrices tridiagonales
Debido a que los valores propios de una matriz triangular son sus elementos diagonales, para las matrices generales no existe un método finito como la eliminación gaussiana para convertir una matriz en forma triangular conservando los valores propios. Pero es posible llegar a algo cercano a triangular. Una matriz de Hessenberg superior es una matriz cuadrada para la cual todas las entradas por debajo de la subdiagonal son cero. Una matriz de Hessenberg inferior es aquella en la que todas las entradas por encima de la superdiagonal son cero. Las matrices de Hessenberg superior e inferior son tridiagonales . Las matrices de Hessenberg y tridiagonales son los puntos de partida para muchos algoritmos de valores propios porque las entradas cero reducen la complejidad del problema. Se utilizan comúnmente varios métodos para convertir una matriz general en una matriz de Hessenberg con los mismos valores propios. Si la matriz original era simétrica o hermitiana, entonces la matriz resultante será tridiagonal.
Cuando solo se necesitan valores propios, no es necesario calcular la matriz de similitud, ya que la matriz transformada tiene los mismos valores propios. Si también se necesitan vectores propios, la matriz de similitud puede ser necesaria para transformar los vectores propios de la matriz de Hessenberg en vectores propios de la matriz original.
Método | Se aplica a | Produce | Costo sin matriz de similitud | Costo con matriz de similitud | Descripción |
---|---|---|---|---|---|
Transformaciones de los jefes de hogar | General | Hessenberg | 2 n 3 ⁄ 3 + O ( n 2 ) [9] ( p474 ) | 4 n 3 ⁄ 3 + O ( n 2 ) [9] ( p474 ) | Refleja cada columna a través de un subespacio para poner a cero sus entradas inferiores. |
Givens rotaciones | General | Hessenberg | 4 n 3 ⁄ 3 + O ( n 2 ) [9] ( p470 ) | Aplique rotaciones planas para poner a cero entradas individuales. Las rotaciones se ordenan para que las posteriores no provoquen que las entradas cero vuelvan a ser distintas de cero. | |
Iteración de Arnoldi | General | Hessenberg | Realice la ortogonalización de Gram-Schmidt en los subespacios de Krylov. | ||
Algoritmo de Lanczos | Ermitaño | Tridiagonal | Iteración de Arnoldi para matrices hermitianas, con atajos. |
Para problemas de valores propios tridiagonales simétricos, todos los valores propios (sin vectores propios) se pueden calcular numéricamente en el tiempo O (n log (n)), utilizando la bisección en el polinomio característico. [10]
Algoritmos iterativos
Los algoritmos iterativos resuelven el problema de los valores propios produciendo secuencias que convergen a los valores propios. Algunos algoritmos también producen secuencias de vectores que convergen en los autovectores. Más comúnmente, las secuencias de valores propios se expresan como secuencias de matrices similares que convergen en una forma triangular o diagonal, lo que permite leer fácilmente los valores propios. Las secuencias de vectores propios se expresan como las correspondientes matrices de similitud.
Método | Se aplica a | Produce | Costo por paso | Convergencia | Descripción |
---|---|---|---|---|---|
Algoritmo de Lanczos | Ermitaño | m pares propios más grandes / más pequeños | |||
Iteración de poder | general | eigenpair con mayor valor | O ( n 2 ) | lineal | Aplica repetidamente la matriz a un vector inicial arbitrario y renormaliza. |
Iteración inversa | general | par propio con valor más cercano a μ | lineal | Iteración de potencia para ( A - μI ) −1 | |
Iteración del cociente de Rayleigh | Ermitaño | cualquier par propio | cúbico | Iteración de potencia para ( A - μ i I ) −1 , donde μ i para cada iteración es el cociente de Rayleigh de la iteración anterior. | |
Iteración inversa preacondicionada [11] o algoritmo LOBPCG | simétrico real positivo definido | par propio con valor más cercano a μ | Iteración inversa utilizando un preacondicionador (una inversa aproximada de A ). | ||
Método de bisección | tridiagonal simétrica real | cualquier valor propio | lineal | Utiliza el método de bisección para encontrar raíces del polinomio característico, respaldado por la secuencia de Sturm. | |
Iteración de Laguerre | tridiagonal simétrica real | cualquier valor propio | cúbico [12] | Utiliza el método de Laguerre para encontrar raíces del polinomio característico, respaldado por la secuencia de Sturm. | |
Algoritmo QR | Hessenberg | todos los valores propios | O ( n 2 ) | cúbico | Factores A = QR , donde Q es ortogonal y R es triangular, luego aplica la siguiente iteración a RQ . |
todos los pares propios | 6 norte 3 + O ( norte 2 ) | ||||
Algoritmo de valor propio de Jacobi | simétrico real | todos los valores propios | O ( n 3 ) | cuadrático | Utiliza rotaciones de Givens para intentar borrar todas las entradas fuera de la diagonal. Esto falla, pero fortalece la diagonal. |
Divide y conquistaras | Tridiagonal hermitiana | todos los valores propios | O ( n 2 ) | Divide la matriz en submatrices que se diagonalizan y luego se recombinan. | |
todos los pares propios | ( 4 ⁄ 3 ) n 3 + O ( n 2 ) | ||||
Método de homotopía | tridiagonal simétrica real | todos los pares propios | O ( n 2 ) [13] | Construye una ruta de homotopía computable a partir de un problema de valores propios diagonales. | |
Método de espectro plegado | simétrico real | par propio con valor más cercano a μ | Iteración inversa preacondicionada aplicada a ( A - μI ) 2 | ||
Algoritmo MRRR [14] | tridiagonal simétrica real | algunos o todos los pares propios | O ( n 2 ) | "Representaciones múltiples relativamente robustas": realiza una iteración inversa en una descomposición de LDL T de la matriz desplazada. |
Cálculo directo
Si bien no existe un algoritmo simple para calcular directamente valores propios para matrices generales, existen numerosas clases especiales de matrices donde los valores propios pueden calcularse directamente. Éstas incluyen:
Matrices triangulares
Dado que el determinante de una matriz triangular es el producto de sus entradas diagonales, si T es triangular, entonces. Por tanto, los valores propios de T son sus entradas diagonales.
Ecuaciones polinomiales factorizables
Si p es cualquier polinomio y p ( A ) = 0, entonces los valores propios de A también satisfacen la misma ecuación. Si p tiene una factorización conocida, entonces los valores propios de A se encuentran entre sus raíces.
Por ejemplo, una proyección es una matriz cuadrada P satisfacer P 2 = P . Las raíces de la ecuación polinomial escalar correspondiente, λ 2 = λ , son 0 y 1. Por tanto, cualquier proyección tiene 0 y 1 para sus valores propios. La multiplicidad de 0 como un valor propio es la nulidad de P , mientras que la multiplicidad de 1 es el rango de P .
Otro ejemplo es una matriz A que satisface A 2 = α 2 I para algún α escalar . Los valores propios deben ser ± α . Los operadores de proyección
satisfacer
y
Los espacios de columna de P + y P - son los espacios propios de A correspondientes a + α y - α , respectivamente.
Matrices 2 × 2
Para las dimensiones 2 a 4, existen fórmulas que involucran radicales que se pueden usar para encontrar los valores propios. Si bien es una práctica común para las matrices de 2 × 2 y 3 × 3, para las matrices de 4 × 4 la creciente complejidad de las fórmulas de raíz hace que este enfoque sea menos atractivo.
Para la matriz 2 × 2
el polinomio característico es
Por lo tanto, los valores propios se pueden encontrar usando la fórmula cuadrática :
Definiendo para ser la distancia entre los dos valores propios, es sencillo calcular
con fórmulas similares para c y d . De esto se deduce que el cálculo está bien condicionado si se aíslan los valores propios.
Los vectores propios se pueden encontrar explotando el teorema de Cayley-Hamilton . Si λ 1 , λ 2 son los valores propios, entonces ( A - λ 1 I ) ( A - λ 2 I ) = ( A - λ 2 I ) ( A - λ 1 I ) = 0 , entonces las columnas de ( A - λ 2 I ) son aniquilados por ( A - λ 1 I ) y viceversa. Suponiendo que ninguna de las matrices es cero, las columnas de cada una deben incluir vectores propios para el otro valor propio. (Si cualquiera de las matrices es cero, entonces A es un múltiplo de la identidad y cualquier vector distinto de cero es un vector propio).
Por ejemplo, suponga
entonces tr ( A ) = 4 - 3 = 1 y det ( A ) = 4 (−3) - 3 (−2) = −6 , entonces la ecuación característica es
y los valores propios son 3 y -2. Ahora,
En ambas matrices, las columnas son múltiplos entre sí, por lo que se puede utilizar cualquiera de las dos. Por lo tanto, (1, -2) se puede tomar como un vector propio asociado con el valor propio -2, y (3, -1) como un vector propio asociado con el valor propio 3, como puede ser verificado por multiplicándolos por A .
Matrices 3 × 3
La ecuación característica de una matriz simétrica de 3 × 3, A , es:
Esta ecuación puede resolverse utilizando los métodos de Cardano o Lagrange , pero un cambio afín a A simplificará considerablemente la expresión y conducirá directamente a una solución trigonométrica . Si A = pB + qI , entonces A y B tienen los mismos vectores propios, y β es un valor propio de B si y sólo si α = pβ + q es un valor propio de A . Dejando y , da
La sustitución β = 2cos θ y alguna simplificación usando la identidad cos 3 θ = 4cos 3 θ - 3cos θ reduce la ecuación a cos 3 θ = det ( B ) / 2 . Por lo tanto
Si det ( B ) es complejo o es mayor que 2 en valor absoluto, el arcocoseno debe tomarse a lo largo de la misma rama para los tres valores de k . Este problema no surge cuando A es real y simétrico, lo que resulta en un algoritmo simple: [15]
% Dada una matriz A simétrica real de 3x3, calcule los valores propios% Tenga en cuenta que acos y cos operan en ángulos en radianesp1 = A ( 1 , 2 ) ^ 2 + A ( 1 , 3 ) ^ 2 + A ( 2 , 3 ) ^ 2 si ( p1 == 0 ) % A es diagonal. eig1 = A ( 1 , 1 ) eig2 = A ( 2 , 2 ) eig3 = A ( 3 , 3 ) demás q = traza ( A ) / 3 % traza (A) es la suma de todos los valores diagonales p2 = ( A ( 1 , 1 ) - q ) ^ 2 + ( A ( 2 , 2 ) - q ) ^ 2 + ( A ( 3 , 3 ) - q ) ^ 2 + 2 * p1 p = raíz cuadrada ( p2 / 6 ) B = ( 1 / p ) * ( A - q * I ) % I es la matriz de identidad r = det ( B ) / 2 % En aritmética exacta para una matriz simétrica -1 <= r <= 1 % pero el error de cálculo puede dejarlo ligeramente fuera de este rango. si ( r <= - 1 ) phi = pi / 3 elseif ( r > = 1 ) phi = 0 demás phi = acos ( r ) / 3 final % los valores propios satisfacen eig3 <= eig2 <= eig1 eig1 = q + 2 * p * cos ( phi ) eig3 = q + 2 * p * cos ( phi + ( 2 * pi / 3 )) eig2 = 3 * q - eig1 - eig3 % desde la traza (A) = eig1 + eig2 + eig3 final
Una vez más, los vectores propios de A pueden obtenerse recurriendo al teorema de Cayley-Hamilton . Si α 1 , α 2 , α 3 son valores propios distintos de A , entonces ( A - α 1 I ) ( A - α 2 I ) ( A - α 3 I ) = 0 . Por tanto, las columnas del producto de dos de estas matrices contendrán un vector propio para el tercer valor propio. Sin embargo, si α 3 = α 1 , entonces ( A - α 1 I ) 2 ( A - α 2 I ) = 0 y ( A - α 2 I ) ( A - α 1 I ) 2 = 0 . Así, el autoespacio generalizado de α 1 está atravesado por las columnas de A - α 2 I mientras que el autoespacio ordinario está atravesado por las columnas de ( A - α 1 I ) ( A - α 2 I ) . El espacio propio ordinario de α 2 está dividido en las columnas de ( A - α 1 I ) 2 .
Por ejemplo, deja
La ecuación característica es
con valores propios 1 (de multiplicidad 2) y -1. Calculador,
y
Así (−4, −4, 4) es un autovector para −1, y (4, 2, −2) es un autovector para 1. (2, 3, −1) y (6, 5, −3) son ambos vectores propios generalizadas asociadas con 1, ya sea uno de los cuales podría combinarse con (-4, -4, 4) y (4, 2, -2) para formar una base de vectores propios generalizados de a . Una vez encontrados, los vectores propios se pueden normalizar si es necesario.
Autovectores de matrices normales de 3 × 3
Si una matriz de 3 × 3 es normal, entonces el producto cruzado puede usarse para encontrar autovectores. Si es un valor propio de , entonces el espacio nulo de es perpendicular a su espacio de columna, El producto cruzado de dos columnas independientes deestará en el espacio nulo. Es decir, será un vector propio asociado con. Dado que el espacio columna es bidimensional en este caso, el espacio propio debe ser unidimensional, por lo que cualquier otro vector propio será paralelo a él.
Si no contiene dos columnas independientes pero no es 0 , el producto cruzado aún se puede usar. En este casoes un valor propio de multiplicidad 2, por lo que cualquier vector perpendicular al espacio columna será un vector propio. Suponer es una columna distinta de cero de . Elija un vector arbitrario no paralelo a . Luego y será perpendicular a y así serán autovectores de .
Esto no funciona cuando no es normal, ya que el espacio nulo y el espacio columna no necesitan ser perpendiculares para tales matrices.
Ver también
- Lista de algoritmos de valores propios
Notas
- ^ El término "ordinario" se utiliza aquí sólo para enfatizar la distinción entre "vector propio" y "vector propio generalizado".
- ^ Donde el término constante se multiplica por la matriz de identidad I .
- ^ Los físicos prefieren este orden del producto interno (con la posición lineal conjugada a la izquierda). Los algebristas a menudo colocan la posición lineal conjugada a la derecha: w · v = v * w .
Referencias
- ^ Axler, Sheldon (1995), "¡Abajo los determinantes!" (PDF) , American Mathematical Monthly , 102 (2): 139-154, doi : 10.2307 / 2975348 , JSTOR 2.975.348 , archivado desde el original (PDF) en 09/13/2012 , recuperado 2012-07-31
- ^ FL Bauer; CT Fike (1960), "Normas y teoremas de exclusión", Numer. Matemáticas. , 2 : 137–141, doi : 10.1007 / bf01386217
- ^ SC Eisenstat; ICF Ipsen (1998), "Resultados de perturbación relativa para valores propios y vectores propios de matrices diagonalizables" , BIT , 38 (3): 502–9, doi : 10.1007 / bf02510256
- ^ Thompson, RC (junio de 1966). "Principales submatrices de matrices normales y hermitianas" . Revista de Matemáticas de Illinois . 10 (2): 296-308. doi : 10.1215 / ijm / 1256055111 .
- ^ Peter Nylen, Tin-Yau Tam y Frank Uhlig (1993). "Sobre los valores propios de las principales submatrices de matrices normales, hermitianas y simétricas". Álgebra lineal y multilineal . 36 (1): 69–78. doi : 10.1080 / 03081089308818276 .Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ N. Bebiano, S. Furtado, J. da Providência (2011). "Sobre los valores propios de las submatrices principales de matrices J-normales" . Álgebra lineal y sus aplicaciones . 435 (12): 3101–3114. doi : 10.1016 / j.laa.2011.05.033 .Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ Forrester PJ, Zhang J (2021). "Proyecciones Corank-1 y el problema de Horn aleatorio". Revista Tunecina de Matemáticas . 3 : 55–73. arXiv : 1905.05314 . doi : 10.2140 / tunis.2021.3.55 .
- ^ Denton PB, Parke SJ, Tao T, Zhang X (2021). "Autovectores de autovalores: un estudio de una identidad básica en álgebra lineal". Boletín de la Sociedad Matemática Estadounidense : 1. arXiv : 1908.03795 . doi : 10.1090 / toro / 1722 .
- ^ a b c Prensa, William H .; Teukolsky, Saul A .; Vetterling, William T .; Flannery, Brian P. (1992). Recetas numéricas en C (2ª ed.). Prensa de la Universidad de Cambridge. ISBN 978-0-521-43108-8.
- ^ Coakley, Ed S. (mayo de 2013), "Un algoritmo rápido de divide y vencerás para calcular los espectros de matrices tridiagonales simétricas reales", Applied and Computational Harmonic Analysis , 34 (3): 379-414, doi : 10.1016 / j.acha.2012.06.003
- ^ Neymeyr, K. (2006), "Una teoría geométrica para la iteración inversa IV precondicionada: en los casos de convergencia más rápida", Linear Algebra Appl. , 415 (1): 114–139, doi : 10.1016 / j.laa.2005.06.022
- ^ Li, TY; Zeng, Zhonggang (1992), "La iteración de Laguerre en la solución del problema propio tridiagonal simétrico - Revisada", SIAM Journal on Scientific Computing
- ^ Chu, Moody T. (1988), "Una nota sobre el método de homotopía para problemas de valores propios algebraicos lineales", Linear Algebra Appl. , 105 : 225–236, doi : 10.1016 / 0024-3795 (88) 90015-8
- ^ Dhillon, Inderjit S .; Parlett, Beresford N .; Vömel, Christof (2006), "El diseño e implementación del algoritmo MRRR" (PDF) , ACM Transactions on Mathematical Software , 32 (4): 533–560, doi : 10.1145 / 1186785.1186788
- ^ Smith, Oliver K. (abril de 1961), "Autovalores de una matriz simétrica de 3 × 3.", Comunicaciones del ACM , 4 (4): 168, doi : 10.1145 / 355578.366316
Otras lecturas
- Bojanczyk, Adam W .; Adam Lutoborski (enero de 1991). "Cálculo de los ángulos de Euler de una matriz simétrica de 3X3" . Revista SIAM sobre Análisis y Aplicaciones Matriciales . 12 (1): 41–48. doi : 10.1137 / 0612005 .