En álgebra lineal , un vector propio ( / aɪ ɡ ə n ˌ v ɛ k t ər / ) o vector característico de una transformación lineal es un no nulo vector que los cambios en la mayoría por un escalar factor al que la transformación lineal se aplica a ella. El valor propio correspondiente , a menudo denotado por, [1] es el factor por el cual se escala el vector propio.
Geométricamente , un vector propio, correspondiente a un valor propio real distinto de cero, apunta en una dirección en la que se estira por la transformación y el valor propio es el factor por el cual se estira. Si el valor propio es negativo, la dirección se invierte. [2] Hablando libremente, en un espacio vectorial multidimensional , el vector propio no se rota.
Definicion formal
Si T es una transformación lineal de un espacio vectorial V sobre un campo F en sí mismo yv es un vector distinto de cero en V , entonces v es un vector propio de T si T ( v ) es un múltiplo escalar de v . Esto se puede escribir como
donde λ es un escalar en F , conocido como valor propio , valor característico o raíz característica asociada con v .
Existe una correspondencia directa entre n- por- n matrices cuadradas y transformaciones lineales de un espacio vectorial n- dimensional en sí mismo, dada cualquier base del espacio vectorial. Por tanto, en un espacio vectorial de dimensión finita, es equivalente a definir valores propios y vectores propios utilizando el lenguaje de matrices o el lenguaje de transformaciones lineales. [3] [4]
Si V es de dimensión finita, la ecuación anterior es equivalente a [5]
donde A es la representación matricial de T y u es el vector de coordenadas de v .
Descripción general
Los autovalores y autovectores ocupan un lugar destacado en el análisis de transformaciones lineales. El prefijo eigen- se adopta de la palabra alemana eigen ( análoga a la palabra inglesa propia ) para "propio", "característico", "propio". [6] [7] Originalmente utilizado para estudiar los ejes principales del movimiento de rotación de cuerpos rígidos , los valores propios y los vectores propios tienen una amplia gama de aplicaciones, por ejemplo, en análisis de estabilidad , análisis de vibraciones , orbitales atómicos , reconocimiento facial y diagonalización de matrices .
En esencia, un vector propio v de una transformación lineal T es un vector distinto de cero que, cuando se le aplica T , no cambia de dirección. La aplicación de T al autovector solo escala el autovector por el valor escalar λ , llamado autovalor. Esta condición se puede escribir como la ecuación
denominada ecuación de valor propio o ecuación propia . En general, λ puede ser cualquier escalar . Por ejemplo, λ puede ser negativo, en cuyo caso el vector propio invierte la dirección como parte de la escala, o puede ser cero o complejo .
El ejemplo de Mona Lisa que se muestra aquí proporciona una ilustración simple. Cada punto de la pintura se puede representar como un vector que apunta desde el centro de la pintura a ese punto. La transformación lineal en este ejemplo se llama mapeo de corte . Los puntos en la mitad superior se mueven hacia la derecha y los puntos en la mitad inferior se mueven hacia la izquierda, proporcionalmente a lo lejos que están del eje horizontal que pasa por el centro de la pintura. Por lo tanto, los vectores que apuntan a cada punto de la imagen original se inclinan hacia la derecha o hacia la izquierda, y la transformación los hace más largos o más cortos. Los puntos a lo largo del eje horizontal no se mueven en absoluto cuando se aplica esta transformación. Por lo tanto, cualquier vector que apunte directamente a la derecha oa la izquierda sin componente vertical es un vector propio de esta transformación, porque el mapeo no cambia su dirección. Además, todos estos autovectores tienen un autovalor igual a uno, porque el mapeo tampoco cambia su longitud.
Las transformaciones lineales pueden tomar muchas formas diferentes, mapeando vectores en una variedad de espacios vectoriales, por lo que los vectores propios también pueden tomar muchas formas. Por ejemplo, la transformación lineal podría ser un operador diferencial como, en cuyo caso los vectores propios son funciones llamadas funciones propias que son escaladas por ese operador diferencial, como
Alternativamente, la transformación lineal podría tomar la forma de una matriz de n por n , en cuyo caso los vectores propios son matrices de n por 1. Si la transformación lineal se expresa en forma de una matriz A de n por n , entonces la ecuación de valor propio para una transformación lineal anterior se puede reescribir como la multiplicación de matrices
donde el vector propio v es una matriz de n por 1. Para una matriz, los valores propios y los vectores propios se pueden utilizar para descomponer la matriz, por ejemplo, diagonalizándola .
Los valores propios y los vectores propios dan lugar a muchos conceptos matemáticos estrechamente relacionados, y el prefijo eigen- se aplica libremente al nombrarlos:
- El conjunto de todos los vectores propios de una transformación lineal, cada uno emparejado con su valor propio correspondiente, se denomina sistema propio de esa transformación. [8] [9]
- El conjunto de todos los autovectores de T correspondientes al mismo autovalor, junto con el vector cero, se llama un autoespacio , o el espacio característico de T asociado con ese autovalor. [10]
- Si un conjunto de autovectores de T forma una base del dominio de T , entonces esta base se llama autobasis .
Historia
Los valores propios a menudo se introducen en el contexto del álgebra lineal o la teoría de matrices . Sin embargo, históricamente surgieron en el estudio de formas cuadráticas y ecuaciones diferenciales .
En el siglo XVIII, Leonhard Euler estudió el movimiento de rotación de un cuerpo rígido y descubrió la importancia de los ejes principales . [a] Joseph-Louis Lagrange se dio cuenta de que los ejes principales son los vectores propios de la matriz de inercia. [11]
A principios del siglo XIX, Augustin-Louis Cauchy vio cómo su trabajo podía usarse para clasificar las superficies cuádricas y lo generalizó a dimensiones arbitrarias. [12] Cauchy también acuñó el término racine caractéristique (raíz característica), para lo que ahora se llama valor propio ; su término sobrevive en ecuación característica . [B]
Más tarde, Joseph Fourier utilizó el trabajo de Lagrange y Pierre-Simon Laplace para resolver la ecuación del calor mediante la separación de variables en su famoso libro de 1822 Théorie analytique de la chaleur . [13] Charles-François Sturm desarrolló aún más las ideas de Fourier y las llamó la atención de Cauchy, quien las combinó con sus propias ideas y llegó al hecho de que las matrices simétricas reales tienen valores propios reales. [12] Esto fue ampliado por Charles Hermite en 1855 a lo que ahora se llaman matrices hermitianas . [14]
Casi al mismo tiempo, Francesco Brioschi demostró que los valores propios de las matrices ortogonales se encuentran en el círculo unitario , [12] y Alfred Clebsch encontró el resultado correspondiente para matrices simétricas sesgadas . [14] Finalmente, Karl Weierstrass aclaró un aspecto importante en la teoría de la estabilidad iniciada por Laplace, al darse cuenta de que las matrices defectuosas pueden causar inestabilidad. [12]
Mientras tanto, Joseph Liouville estudió problemas de valores propios similares a los de Sturm; la disciplina que surgió de su trabajo ahora se llama teoría de Sturm-Liouville . [15] Schwarz estudió el primer valor propio de la ecuación de Laplace en dominios generales hacia finales del siglo XIX, mientras que Poincaré estudió la ecuación de Poisson unos años más tarde. [dieciséis]
A principios del siglo XX, David Hilbert estudió los valores propios de los operadores integrales al considerarlos como matrices infinitas. [17] Fue el primero en usar la palabra alemana eigen , que significa "propio", [7] para denotar autovalores y autovectores en 1904, [c] aunque pudo haber estado siguiendo un uso relacionado de Hermann von Helmholtz . Durante algún tiempo, el término estándar en inglés fue "valor adecuado", pero el término más distintivo "valor propio" es el estándar en la actualidad. [18]
El primer algoritmo numérico para calcular valores propios y vectores propios apareció en 1929, cuando Richard von Mises publicó el método de potencia . Uno de los métodos más populares en la actualidad, el algoritmo QR , fue propuesto de forma independiente por John GF Francis [19] y Vera Kublanovskaya [20] en 1961. [21] [22]
Autovalores y autovectores de matrices
Los valores propios y los vectores propios a menudo se presentan a los estudiantes en el contexto de cursos de álgebra lineal centrados en matrices. [23] [24] Además, las transformaciones lineales sobre un espacio vectorial de dimensión finita se pueden representar usando matrices, [25] [4] que es especialmente común en aplicaciones numéricas y computacionales. [26]
Considere los vectores n- dimensionales que se forman como una lista de n escalares, como los vectores tridimensionales
Se dice que estos vectores son múltiplos escalares entre sí, o paralelos o colineales , si hay un escalar λ tal que
En este caso .
Ahora considere la transformación lineal de vectores n- dimensionales definidos por una matriz A de n por n ,
o
donde, para cada fila,
Si ocurre que v y w son múltiplos escalares, eso es si
( 1 )
entonces v es un autovector de la transformación lineal A y el factor de escala λ es el autovalor correspondiente a ese autovector. La ecuación ( 1 ) es la ecuación de valores propios para la matriz A .
La ecuación ( 1 ) puede expresarse de manera equivalente como
( 2 )
donde I es la matriz identidad n por n y 0 es el vector cero.
Autovalores y el polinomio característico
La ecuación ( 2 ) tiene una solución distinta de cero v si y solo si el determinante de la matriz ( A - λI ) es cero. Por tanto, los autovalores de A son valores de λ que satisfacen la ecuación
( 3 )
Utilizando la regla de Leibniz para el determinante, el lado izquierdo de la ecuación ( 3 ) es un polinomio en función de la variable λ y el grado de este polinomio se n , el orden de la matriz A . Sus coeficientes dependen de las entradas de A , excepto que su término de grado n es siempre (−1) n λ n . Este polinomio se llama el polinomio característico de A . La ecuación ( 3 ) se llama la ecuación característica o la ecuación secular de A .
El teorema fundamental del álgebra implica que el polinomio característico de una matriz de n- por- n A , siendo un polinomio de grado n , se puede factorizar en el producto de n términos lineales,
( 4 )
donde cada λ i puede ser real pero en general es un número complejo. Los números lambda 1 , λ 2 , ..., λ n , que no pueden tener todos los valores distintos, son las raíces del polinomio y son los valores propios de A .
Como un breve ejemplo, que se describe con más detalle en la sección de ejemplos más adelante, considere la matriz
Tomando el determinante de ( A - λI ) , el polinomio característico de A es
Ajuste de las raíces polinomio característico igual a cero, que tiene a λ = 1 y λ = 3 , que son los dos valores propios de A . Los autovectores correspondientes a cada autovalor se pueden encontrar resolviendo las componentes de v en la ecuación. En este ejemplo, los vectores propios son cualquier múltiplo escalar distinto de cero de
Si las entradas de la matriz A son todas números reales, entonces los coeficientes del polinomio característico también serán números reales, pero los valores propios aún pueden tener partes imaginarias distintas de cero. Por tanto, las entradas de los vectores propios correspondientes también pueden tener partes imaginarias distintas de cero. De manera similar, los valores propios pueden ser números irracionales incluso si todas las entradas de A son números racionales o incluso si son todos enteros. Sin embargo, si las entradas de A son todos números algebraicos , que incluyen los racionales, los valores propios son números algebraicos complejos.
Las raíces no reales de un polinomio real con coeficientes reales se pueden agrupar en pares de conjugados complejos , es decir, los dos miembros de cada par tienen partes imaginarias que solo difieren en el signo y la misma parte real. Si el grado es impar, entonces, según el teorema del valor intermedio, al menos una de las raíces es real. Por lo tanto, cualquier matriz real con orden impar tiene al menos un valor propio real, mientras que una matriz real con orden par puede no tener valores propios reales. Los autovectores asociados con estos autovalores complejos también son complejos y también aparecen en pares conjugados complejos.
Multiplicidad algebraica
Sea λ i un valor propio de una matriz A de n por n . La multiplicidad algebraica μ A ( λ i ) del valor propio es su multiplicidad como raíz del polinomio característico, es decir, el entero más grande k tal que ( λ - λ i ) k divide uniformemente ese polinomio. [10] [27] [28]
Supongamos que una matriz A tiene dimensión n y d ≤ n valores propios distintos. Mientras que la ecuación ( 4 ) factoriza el polinomio característico de A en el producto de n términos lineales con algunos términos potencialmente repetidos, el polinomio característico se puede escribir como el producto de d términos, cada uno correspondiente a un valor propio distinto y elevado a la potencia del multiplicidad algebraica,
Si d = n, entonces el lado derecho es el producto de n términos lineales y esto es lo mismo que la Ecuación ( 4 ). El tamaño de la multiplicidad algebraica de cada valor propio está relacionado con la dimensión n como
Si μ A ( λ i ) = 1, entonces se dice que λ i es un valor propio simple . [28] Si μ A ( λ i ) es igual a la multiplicidad geométrica de λ i , γ A ( λ i ), definida en la siguiente sección, se dice que λ i es un valor propio semisimple .
Espacios propios, multiplicidad geométrica y base propia para matrices
Dado un valor propio particular λ de la matriz A de n por n , defina el conjunto E como todos los vectores v que satisfacen la Ecuación ( 2 ),
Por un lado, este conjunto es precisamente el núcleo o espacio nulo de la matriz ( A - λI ). Por otro lado, por definición, cualquier vector distinto de cero que satisfaga esta condición es un vector propio de A asociado con λ . Entonces, el conjunto E es la unión del vector cero con el conjunto de todos los autovectores de A asociados con λ , y E es igual al espacio nulo de ( A - λI ). E se denomina espacio propio o espacio característico de A asociado con λ . [29] [10] En general, λ es un número complejo y los vectores propios son matrices complejas de n por 1. Una propiedad del espacio nulo es que es un subespacio lineal , por lo que E es un subespacio lineal de ℂ n .
Debido a que el autoespacio E es un subespacio lineal, está cerrado bajo adición. Es decir, si dos vectores u y v pertenece al conjunto E , escritos u , v ∈ E , entonces ( u + v ) ∈ E o equivalentemente A ( u + v ) = λ ( u + v ) . Esto se puede verificar usando la propiedad distributiva de la multiplicación de matrices. De manera similar, debido a que E es un subespacio lineal, está cerrado bajo la multiplicación escalar. Es decir, si v ∈ E y α es un número complejo, ( α v ) ∈ E o equivalentemente A ( α v ) = λ ( α v ) . Esto puede comprobarse observando que la multiplicación de matrices complejas por números complejos es conmutativa . Mientras u + v y α v no son cero, sino que también son vectores propios de A asociados con λ .
La dimensión del espacio propio E asociado con λ , o de forma equivalente, el número máximo de vectores propios linealmente independientes asociados con λ , se denomina multiplicidad geométrica del valor propio γ A ( λ ). Debido a que E también es el espacio nulo de ( A - λI ), la multiplicidad geométrica de λ es la dimensión del espacio nulo de ( A - λI ), también llamado nulidad de ( A - λI ), que se relaciona con la dimensión y rango de ( A - λI ) como
Debido a la definición de autovalores y autovectores, la multiplicidad geométrica de un autovalor debe ser al menos uno, es decir, cada autovalor tiene al menos un autovector asociado. Además, la multiplicidad geométrica de un valor propio no puede exceder su multiplicidad algebraica. Además, recuerde que la multiplicidad algebraica de un valor propio no puede exceder n .
Para probar la desigualdad , considere cómo la definición de multiplicidad geométrica implica la existencia de vectores propios ortonormales , tal que . Por tanto, podemos encontrar una matriz (unitaria) cuyo primero columnas son estos vectores propios, y cuyas columnas restantes pueden ser cualquier conjunto ortonormal de vectores ortogonales a estos autovectores de . Luego tiene rango completo y, por lo tanto, es invertible, y con una matriz cuyo bloque superior izquierdo es la matriz diagonal . Esto implica que. En otras palabras, es parecido a , lo que implica que . Pero de la definición de lo sabemos contiene un factor , lo que significa que la multiplicidad algebraica de debe satisfacer .
Suponer posee valores propios distintos , donde la multiplicidad geométrica de es . La multiplicidad geométrica total de,
es la dimensión de la suma de todos los espacios propios devalores propios, o equivalentemente el número máximo de vectores propios linealmente independientes de . Si, luego
- La suma directa de los espacios propios de todos los Los autovalores son el espacio vectorial completo .
- Una base de se puede formar a partir de vectores propios linealmente independientes de ; tal base se llama eigenbasis
- Cualquier vector en puede escribirse como una combinación lineal de autovectores de .
Propiedades adicionales de los valores propios
Dejar ser arbitrario matriz de números complejos con valores propios . Cada valor propio aparece veces en esta lista, donde es la multiplicidad algebraica del valor propio. Las siguientes son propiedades de esta matriz y sus valores propios:
- El rastro de, definida como la suma de sus elementos diagonales, es también la suma de todos los valores propios, [30] [31] [32]
- El determinante dees el producto de todos sus valores propios, [30] [33] [34]
- Los valores propios de la el poder de; es decir, los valores propios de, para cualquier entero positivo , están .
- La matriz es invertible si y solo si cada valor propio es distinto de cero.
- Si es invertible, entonces los valores propios de están y la multiplicidad geométrica de cada valor propio coincide. Además, dado que el polinomio característico de la inversa es el polinomio recíproco del original, los valores propios comparten la misma multiplicidad algebraica.
- Si es igual a su transpuesta conjugada , o equivalentemente si es hermitiano , entonces cada valor propio es real. Lo mismo ocurre con cualquier matriz real simétrica .
- Si no solo es hermitiano, sino también positivo-definido , positivo-semidefinito, negativo-definido o negativo-semidefinito, entonces cada valor propio es positivo, no negativo, negativo o no positivo, respectivamente.
- Si es unitario , todo valor propio tiene valor absoluto.
- Si es un matriz y son sus valores propios, entonces los valores propios de la matriz (dónde es la matriz de identidad) son . Además, si, los valores propios de están . De manera más general, para un polinomio los valores propios de la matriz están .
Vectores propios izquierdo y derecho
Muchas disciplinas tradicionalmente representan vectores como matrices con una sola columna en lugar de matrices con una sola fila. Por esa razón, la palabra "vector propio" en el contexto de matrices casi siempre se refiere a un vector propio derecho , es decir, un vector columna que multiplica por la derecha el matriz en la ecuación definitoria, Ecuación ( 1 ),
El problema de autovalores y autovectores también se puede definir para los vectores de fila que dejaron multiplicar la matriz. En esta formulación, la ecuación definitoria es
dónde es un escalar y es un matriz. Cualquier vector de filasatisfacer esta ecuación se llama vector propio izquierdo de y es su valor propio asociado. Tomando la transpuesta de esta ecuación,
Comparando esta ecuación con la Ecuación ( 1 ), se deduce inmediatamente que un vector propio izquierdo de es lo mismo que la transposición de un vector propio derecho de , con el mismo valor propio. Además, dado que el polinomio característico de es el mismo que el polinomio característico de , los autovalores de los autovectores izquierdos de son los mismos que los autovalores de los autovectores derechos de .
Diagonalización y autodescomposición
Suponga que los autovectores de A forman una base, o equivalentemente A tiene n autovectores linealmente independientes v 1 , v 2 ,…, v n con autovalores asociados λ 1 , λ 2 ,…, λ n . No es necesario que los valores propios sean distintos. Defina una matriz cuadrada Q cuyas columnas sean los n vectores propios linealmente independientes de A ,
Dado que cada columna de Q es un autovector de A , multiplicando A la derecha por Q se escala cada columna de Q por su autovalor asociado,
Con esto en mente, definir un Λ matriz diagonal donde cada elemento Λ diagonal ii es el valor propio asociado con el i ésima columna de Q . Luego
Debido a que las columnas de Q son linealmente independientes, Q es invertible. A la derecha multiplicando ambos lados de la ecuación por Q −1 ,
o en cambio a la izquierda multiplicando ambos lados por Q −1 ,
Por tanto, A puede descomponerse en una matriz compuesta por sus autovectores, una matriz diagonal con sus autovalores a lo largo de la diagonal y la inversa de la matriz de autovectores. Esto se llama descomposición propia y es una transformación de similitud . Se dice que dicha matriz A es similar a la matriz diagonal Λ o diagonalizable . La matriz Q es la matriz de cambio de base de la transformación de similitud. Esencialmente, las matrices A y Λ representan la misma transformación lineal expresada en dos bases diferentes. Los vectores propios se utilizan como base al representar la transformación lineal como Λ.
A la inversa, suponga que una matriz A es diagonalizable. Deje que P sea una matriz cuadrada no singular tal que P -1 AP es alguna matriz diagonal D . A la izquierda multiplicando ambos por P , AP = PD . Cada columna de P , por tanto, debe ser un vector propio de A cuyo valor propio es el elemento diagonal correspondiente de D . Dado que las columnas de P deben ser linealmente independientes para que P sea invertible, existen n vectores propios de A linealmente independientes . Entonces se deduce que los vectores propios de A forman una base si y solo si A es diagonalizable.
Se dice que una matriz que no es diagonalizable es defectuosa . Para matrices defectuosas, la noción de autovectores se generaliza a autovectores generalizados y la matriz diagonal de autovalores se generaliza a la forma normal de Jordan . Sobre un campo algebraicamente cerrado, cualquier matriz A tiene una forma normal de Jordan y, por lo tanto, admite una base de autovectores generalizados y una descomposición en autoespacios generalizados .
Caracterización variacional
En el caso hermitiano , a los valores propios se les puede dar una caracterización variacional. El mayor valor propio dees el valor máximo de la forma cuadrática . Un valor de que se da cuenta de ese máximo, es un vector propio.
Ejemplos de matrices
Ejemplo de matriz bidimensional
Considere la matriz
La figura de la derecha muestra el efecto de esta transformación en coordenadas de puntos en el plano. Los autovectores v de esta transformación satisfacen la ecuación ( 1 ), y los valores de λ para los cuales el determinante de la matriz ( A - λI ) es igual a cero son los autovalores.
Tomando el determinante para encontrar el polinomio característico de A ,
Ajuste de las raíces polinomio característico igual a cero, que tiene a λ = 1 y λ = 3 , que son los dos valores propios de A .
Para λ = 1 , la Ecuación ( 2 ) se convierte en,
- ;
Cualquier vector distinto de cero con v 1 = - v 2 resuelve esta ecuación. Por lo tanto,
es un vector propio de A correspondiente a λ = 1, al igual que cualquier múltiplo escalar de este vector.
Para λ = 3 , la ecuación ( 2 ) se convierte en
Cualquier vector distinto de cero con v 1 = v 2 resuelve esta ecuación. Por lo tanto,
es un vector propio de A correspondiente a λ = 3, al igual que cualquier múltiplo escalar de este vector.
Así, los vectores v λ = 1 y v λ = 3 son vectores propios de A asociados con los valores propios λ = 1 y λ = 3 , respectivamente.
Fórmula general para valores propios de una matriz bidimensional
Los valores propios de la matriz real son [d]
Tenga en cuenta que los valores propios son siempre reales si b y c tienen el mismo signo, ya que la cantidad bajo el radical debe ser positivo.
Ejemplo de matriz tridimensional
Considere la matriz
El polinomio característico de A es
Las raíces del polinomio característico son 2, 1, y 11, que son los únicos tres valores propios de A . Estos autovalores corresponden a los autovectores, , y, o cualquier múltiplo distinto de cero del mismo.
Ejemplo de matriz tridimensional con valores propios complejos
Considere la matriz de permutación cíclica
Esta matriz desplaza las coordenadas del vector hacia arriba en una posición y mueve la primera coordenada hacia abajo. Su polinomio característico es 1 - λ 3 , cuyas raíces son
dónde es una unidad imaginaria con.
Para el valor propio real λ 1 = 1, cualquier vector con tres entradas iguales distintas de cero es un vector propio. Por ejemplo,
Para el par conjugado complejo de valores propios imaginarios,
Luego
y
Por lo tanto, los otros dos vectores propios de A son complejos y son y con valores propios λ 2 y λ 3 , respectivamente. Los dos vectores propios complejos también aparecen en un par conjugado complejo,
Ejemplo de matriz diagonal
Las matrices con entradas solo a lo largo de la diagonal principal se denominan matrices diagonales . Los valores propios de una matriz diagonal son los propios elementos diagonales. Considere la matriz
El polinomio característico de A es
que tiene las raíces λ 1 = 1 , λ 2 = 2 y λ 3 = 3 . Estas raíces son los elementos diagonales, así como los valores propios de A .
Cada elemento diagonal corresponde a un vector propio cuyo único componente distinto de cero está en la misma fila que ese elemento diagonal. En el ejemplo, los valores propios corresponden a los vectores propios,
respectivamente, así como múltiplos escalares de estos vectores.
Ejemplo de matriz triangular
Una matriz cuyos elementos por encima de la diagonal principal son todos cero se denomina matriz triangular inferior , mientras que una matriz cuyos elementos por debajo de la diagonal principal son todos cero se denomina matriz triangular superior . Al igual que con las matrices diagonales, los valores propios de las matrices triangulares son los elementos de la diagonal principal.
Considere la matriz triangular inferior,
El polinomio característico de A es
que tiene las raíces λ 1 = 1 , λ 2 = 2 y λ 3 = 3 . Estas raíces son los elementos diagonales, así como los valores propios de A .
Estos autovalores corresponden a los autovectores,
respectivamente, así como múltiplos escalares de estos vectores.
Ejemplo de matriz con valores propios repetidos
Como en el ejemplo anterior, la matriz triangular inferior
tiene un polinomio característico que es el producto de sus elementos diagonales,
Las raíces de este polinomio, y por tanto los valores propios, son 2 y 3. La multiplicidad algebraica de cada valor propio es 2; en otras palabras, ambos son raíces dobles. La suma de las multiplicidades algebraicas de todos los valores propios distintos es μ A = 4 = n , la orden del polinomio característico y la dimensión de A .
Por otro lado, la multiplicidad geométrica del valor propio 2 es solo 1, porque su espacio propio está dividido en un solo vectory por tanto es unidimensional. De manera similar, la multiplicidad geométrica del valor propio 3 es 1 porque su espacio propio está dividido en un solo vector. La multiplicidad geométrica total γ A es 2, que es la más pequeña que podría ser para una matriz con dos valores propios distintos. Las multiplicidades geométricas se definen en una sección posterior.
Identidad autovector-autovalor
Para una matriz hermitiana , la norma al cuadrado del j- ésimo componente de un vector propio normalizado se puede calcular utilizando solo los valores propios de la matriz y los valores propios de la matriz menor correspondiente ,
dónde es la submatriz que se forma al eliminar la j- ésima fila y columna de la matriz original. [35] [36] [37]
Valores propios y funciones propias de operadores diferenciales
Las definiciones de autovalor y autovectores de una transformación lineal T siguen siendo válidas incluso si el espacio vectorial subyacente es un espacio de Hilbert o Banach de dimensión infinita . Una clase ampliamente utilizada de transformaciones lineales que actúan sobre espacios de dimensión infinita son los operadores diferenciales en espacios funcionales . Sea D un operador diferencial lineal en el espacio C ∞ de funciones reales infinitamente diferenciables de un argumento real t . La ecuación de valor propio para D es la ecuación diferencial
Las funciones que satisfacen esta ecuación son vectores propios de D y se denominan comúnmente funciones propias .
Ejemplo de operador derivado
Considere el operador derivado con ecuación de valor propio
Esta ecuación diferencial se puede resolver multiplicando ambos lados por dt / f ( t ) e integrando. Su solución, la función exponencial
es la función propia del operador derivado. En este caso, la función propia es en sí misma una función de su valor propio asociado. En particular, para λ = 0 la función propia f ( t ) es una constante.
El artículo principal sobre funciones propias ofrece otros ejemplos.
Definición general
El concepto de autovalores y autovectores se extiende naturalmente a transformaciones lineales arbitrarias en espacios vectoriales arbitrarios. Sea V cualquier espacio vectorial sobre algún campo K de escalares , y sea T una transformación lineal que mapee V en V ,
Decimos que un vector distinto de cero v ∈ V es un vector propio de T si y solo si existe un escalar λ ∈ K tal que
( 5 )
Esta ecuación se llama ecuación de valor propio para T , y el escalar λ es el valor propio de T correspondiente al vector propio v . T ( v ) es el resultado de aplicar la transformación T al vector v , mientras que λ v es el producto del escalar λ con v . [38] [39]
Espacios propios, multiplicidad geométrica y base propia
Dado un valor propio λ , considere el conjunto
que es la unión del vector cero con el conjunto de todos los autovectores asociados con λ . E se denomina espacio propio o espacio característico de T asociado con λ .
Por definición de una transformación lineal,
para x , y ∈ V y alpha ∈ K . Por lo tanto, si u y v son vectores propios de T asociados con el valor propio λ , es decir , u , v ∈ E , entonces
Entonces, tanto u + v como α v son cero o vectores propios de T asociados con λ , es decir, u + v , α v ∈ E , y E está cerrado bajo suma y multiplicación escalar. El espacio característico E asociado a λ , por tanto, es un subespacio lineal de V . [40] Si ese subespacio tiene dimensión 1, a veces se denomina línea propia . [41]
La multiplicidad geométrica γ T ( λ ) de un valor propio λ es la dimensión del espacio propio asociado con λ , es decir, el número máximo de vectores propios linealmente independientes asociados con ese valor propio. [10] [28] Según la definición de autovalores y autovectores, γ T ( λ ) ≥ 1 porque cada autovalor tiene al menos un autovector.
Los espacios propios de T siempre forman una suma directa . Como consecuencia, los autovectores de diferentes autovalores son siempre linealmente independientes. Por lo tanto, la suma de las dimensiones de los espacios propios no puede exceder la dimensión n del espacio vectorial en el que opera T , y no puede haber más de n valores propios distintos. [mi]
Cualquier subespacio generado por vectores propios de T es un subespacio invariante de T , y la restricción de T a tal subespacio es diagonalizable. Además, si todo el espacio vectorial V puede ser generado por los autovectores de T , o de manera equivalente si la suma directa de los autoespacios asociados con todos los autovalores de T es el espacio vectorial completo V , entonces una base de V llamada autobasis puede ser formado a partir de vectores propios linealmente independientes de T . Cuando T admite una base propia, T es diagonalizable.
Vector cero como vector propio
Si bien la definición de un vector propio utilizada en este artículo excluye el vector cero , es posible definir valores propios y vectores propios de modo que el vector cero sea un vector propio. [42]
Considere nuevamente la ecuación de valor propio, Ecuación ( 5 ). Defina un valor propio como cualquier escalar λ ∈ K tal que exista un vector distinto de cero v ∈ V que satisfaga la Ecuación ( 5 ). Es importante que esta versión de la definición de un valor propio especifique que el vector sea distinto de cero; de lo contrario, según esta definición, el vector cero permitiría que cualquier escalar en K sea un valor propio. Defina un vector propio v asociado con el valor propio λ como cualquier vector que, dado λ , satisfaga la Ecuación ( 5 ). Dado el valor propio, el vector cero se encuentra entre los vectores que satisfacen la ecuación ( 5 ), por lo que el vector cero se incluye entre los vectores propios según esta definición alternativa.
Teoría espectral
Si λ es un valor propio de T , entonces el operador ( T - λI ) no es uno a uno y, por lo tanto, su inverso ( T - λI ) −1 no existe. Lo contrario es cierto para los espacios vectoriales de dimensión finita, pero no para los espacios vectoriales de dimensión infinita. En general, el operador ( T - λI ) puede no tener una inversa incluso si λ no es un valor propio.
Por esta razón, en el análisis funcional, los valores propios se pueden generalizar al espectro de un operador lineal T como el conjunto de todos los escalares λ para los cuales el operador ( T - λI ) no tiene inversa acotada . El espectro de un operador siempre contiene todos sus valores propios, pero no se limita a ellos.
Álgebras asociativas y teoría de la representación
Se puede generalizar el objeto algebraico que actúa sobre el espacio vectorial, reemplazando un solo operador que actúa sobre un espacio vectorial por una representación de álgebra : un álgebra asociativa que actúa sobre un módulo . El estudio de tales acciones es el campo de la teoría de la representación .
El concepto teórico de representación del peso es un análogo de los valores propios, mientras que los vectores de peso y los espacios de peso son los análogos de los vectores propios y los espacios propios, respectivamente.
Ecuaciones dinámicas
Las ecuaciones en diferencias más simples tienen la forma
La solución de esta ecuación para x en términos de t se encuentra usando su ecuación característica
que se puede encontrar apilando en forma de matriz un conjunto de ecuaciones que consta de la ecuación en diferencias anterior y las ecuaciones k - 1dando un sistema k -dimensional de primer orden en el vector variable apiladaen términos de su valor una vez rezagado, y tomando la ecuación característica de la matriz de este sistema. Esta ecuación da k raíces características para usar en la ecuación de solución
Se utiliza un procedimiento similar para resolver una ecuación diferencial de la forma
Cálculo
El cálculo de autovalores y autovectores es un tema en el que la teoría, como se presenta en los libros de texto de álgebra lineal elemental, a menudo está muy lejos de la práctica.
Método clásico
El método clásico consiste en encontrar primero los valores propios y luego calcular los vectores propios para cada valor propio. En varios sentidos, es poco adecuado para aritmética no exacta, como el punto flotante .
Autovalores
Los valores propios de una matriz se puede determinar encontrando las raíces del polinomio característico. Esto es facil para matrices, pero la dificultad aumenta rápidamente con el tamaño de la matriz.
En teoría, los coeficientes del polinomio característico se pueden calcular con exactitud, ya que son sumas de productos de elementos de la matriz; y hay algoritmos que pueden encontrar todas las raíces de un polinomio de grado arbitrario con cualquier precisión requerida . [43] Sin embargo, este enfoque no es viable en la práctica porque los coeficientes estarían contaminados por inevitables errores de redondeo , y las raíces de un polinomio pueden ser una función extremadamente sensible de los coeficientes (como lo ejemplifica el polinomio de Wilkinson ). [43] Incluso para matrices cuyos elementos son números enteros, el cálculo no es trivial, porque las sumas son muy largas; el término constante es el determinante , que para un es una suma de diferentes productos. [F]
Las fórmulas algebraicas explícitas para las raíces de un polinomio existen solo si el gradoes 4 o menos. Según el teorema de Abel-Ruffini, no existe una fórmula algebraica general, explícita y exacta para las raíces de un polinomio con grado 5 o más. (La generalidad importa porque cualquier polinomio con gradoes el polinomio característico de alguna matriz compañera de orden.) Por lo tanto, para matrices de orden 5 o más, los autovalores y autovectores no se pueden obtener mediante una fórmula algebraica explícita y, por lo tanto, deben calcularse mediante métodos numéricos aproximados . Incluso la fórmula exacta para las raíces de un polinomio de grado 3 es numéricamente impráctica.
Vectores propios
Una vez que se conoce el valor (exacto) de un valor propio, los vectores propios correspondientes se pueden encontrar al encontrar soluciones distintas de cero de la ecuación del valor propio, que se convierte en un sistema de ecuaciones lineales con coeficientes conocidos. Por ejemplo, una vez que se sabe que 6 es un valor propio de la matriz
podemos encontrar sus autovectores resolviendo la ecuación , es decir
Esta ecuación matricial es equivalente a dos ecuaciones lineales
- es decir
Ambas ecuaciones se reducen a una única ecuación lineal. . Por lo tanto, cualquier vector de la forma, para cualquier número real distinto de cero , es un vector propio de con valor propio .
La matriz arriba tiene otro valor propio . Un cálculo similar muestra que los vectores propios correspondientes son las soluciones distintas de cero de, es decir, cualquier vector de la forma , para cualquier número real distinto de cero .
Métodos iterativos simples
El enfoque inverso, de buscar primero los autovectores y luego determinar cada autovalor a partir de su autovector, resulta ser mucho más manejable para las computadoras. El algoritmo más fácil aquí consiste en elegir un vector inicial arbitrario y luego multiplicarlo repetidamente con la matriz (opcionalmente normalizar el vector para mantener sus elementos de tamaño razonable); esto hace que el vector converja hacia un vector propio. En cambio, una variación es multiplicar el vector por; esto hace que converja a un autovector del autovalor más cercano a.
Si es (una buena aproximación de) un vector propio de , entonces el valor propio correspondiente se puede calcular como
dónde denota la transposición conjugada de.
Métodos modernos
Los métodos eficaces y precisos para calcular autovalores y autovectores de matrices arbitrarias no se conocieron hasta que se diseñó el algoritmo QR en 1961. [43] La combinación de la transformación Householder con la descomposición LU da como resultado un algoritmo con mejor convergencia que el algoritmo QR. [ cita requerida ] Para matrices dispersas hermitianas grandes , el algoritmo de Lanczos es un ejemplo de un método iterativo eficiente para calcular valores propios y vectores propios, entre varias otras posibilidades. [43]
La mayoría de los métodos numéricos que calculan los valores propios de una matriz también determinan un conjunto de vectores propios correspondientes como subproducto del cálculo, aunque a veces los implementadores optan por descartar la información del vector propio tan pronto como ya no sea necesaria.
Aplicaciones
Autovalores de transformaciones geométricas
La siguiente tabla presenta algunos ejemplos de transformaciones en el plano junto con sus matrices 2 × 2, autovalores y autovectores.
Escalada | Escala desigual | Rotación | Cizalla horizontal | Rotación hiperbólica | |
---|---|---|---|---|---|
Ilustración | |||||
Matriz | |||||
Polinomio característico | |||||
Autovalores, | , | ||||
Mult algebraico . , | |||||
Mult geométrica . , | |||||
Vectores propios | Todos los vectores distintos de cero |
La ecuación característica de una rotación es una ecuación cuadrática con discriminante , que es un número negativo siempre que θ no es un múltiplo entero de 180 °. Por lo tanto, a excepción de estos casos especiales, los dos valores propios son números complejos,; y todos los vectores propios tienen entradas no reales. De hecho, excepto en esos casos especiales, una rotación cambia la dirección de cada vector distinto de cero en el plano.
Una transformación lineal que lleva un cuadrado a un rectángulo de la misma área (un mapeo de compresión ) tiene valores propios recíprocos.
Ecuación de Schrödinger
Un ejemplo de una ecuación de valor propio donde la transformación se representa en términos de un operador diferencial es la ecuación de Schrödinger independiente del tiempo en mecánica cuántica :
dónde , el hamiltoniano , es un operador diferencial de segundo orden y, la función de onda , es una de sus funciones propias correspondiente al valor propio, interpretado como su energía .
Sin embargo, en el caso en el que uno está interesado solo en las soluciones de estado ligado de la ecuación de Schrödinger, se buscadentro del espacio de funciones cuadradas integrables . Dado que este espacio es un espacio de Hilbert con un producto escalar bien definido , se puede introducir un conjunto de bases en el que y se puede representar como una matriz unidimensional (es decir, un vector) y una matriz, respectivamente. Esto permite representar la ecuación de Schrödinger en forma de matriz.
La notación bra-ket se usa a menudo en este contexto. Un vector, que representa un estado del sistema, en el espacio de Hilbert de funciones cuadradas integrables está representado por. En esta notación, la ecuación de Schrödinger es:
dónde es un estado propio de y representa el valor propio. es un operador autoadjunto observable , el análogo de dimensión infinita de las matrices hermitianas. Como en el caso de la matriz, en la ecuación anterior se entiende que es el vector obtenido por aplicación de la transformación a .
Transporte de olas
La luz , las ondas acústicas y las microondas se dispersan al azar numerosas veces al atravesar un sistema desordenado estático . Aunque la dispersión múltiple aleatoriza repetidamente las ondas, en última instancia, el transporte coherente de ondas a través del sistema es un proceso determinista que puede describirse mediante una matriz de transmisión de campo.. [44] [45] Los vectores propios del operador de transmisiónForman un conjunto de frentes de onda de entrada específicos del desorden que permiten que las ondas se acoplen a los canales propios del sistema desordenado: las vías independientes las ondas pueden viajar a través del sistema. Los valores propios,, de corresponden a la transmitancia de intensidad asociada con cada autocanal. Una de las propiedades notables del operador de transmisión de sistemas difusivos es su distribución bimodal de valores propios con y . [45] Además, una de las propiedades sorprendentes de los canales propios abiertos, más allá de la transmitancia perfecta, es el perfil espacial estadísticamente robusto de los canales propios. [46]
Orbitales moleculares
En la mecánica cuántica , y en particular en la física atómica y molecular , dentro de la teoría de Hartree-Fock , los orbitales atómicos y moleculares pueden definirse mediante los vectores propios del operador de Fock . Los valores propios correspondientes se interpretan como potenciales de ionización a través del teorema de Koopmans . En este caso, el término autovector se usa en un significado algo más general, ya que el operador de Fock depende explícitamente de los orbitales y sus autovalores. Así, si se quiere subrayar este aspecto, se habla de problemas de valores propios no lineales. Estas ecuaciones suelen resolverse mediante un procedimiento de iteración , denominado en este caso método de campo autoconsistente . En química cuántica , a menudo se representa la ecuación de Hartree-Fock en un conjunto de bases no ortogonales . Esta representación particular es un problema de valor propio generalizado llamado ecuaciones de Roothaan .
Geología y glaciología
En geología , especialmente en el estudio de la labranza glacial , los autovectores y autovalores se utilizan como un método mediante el cual una masa de información de la orientación y el buzamiento de los constituyentes de un tejido de clastos se puede resumir en un espacio tridimensional con seis números. En el campo, un geólogo puede recopilar estos datos para cientos o miles de clastos en una muestra de suelo, que solo se pueden comparar gráficamente, como en un diagrama Tri-Plot (Sneed and Folk), [47] [48] o como un Stereonet en una red Wulff. [49]
La salida para el tensor de orientación está en los tres ejes ortogonales (perpendiculares) del espacio. Los tres autovectores están ordenados por sus valores propios ; [50] entonces es la orientación / inmersión primaria del clast, es el secundario y es el terciario, en términos de fuerza. La orientación del clastos se define como la dirección del vector propio, en una rosa de los vientos de 360 ° . La caída se mide como el valor propio, el módulo del tensor: se valora de 0 ° (sin caída) a 90 ° (vertical). Los valores relativos de, , y están dictados por la naturaleza del tejido del sedimento. Si, se dice que la tela es isotrópica. Si, se dice que la tela es plana. Si, se dice que la tela es lineal. [51]
Análisis de componentes principales
La descomposición propia de una matriz semidefinita positiva simétrica (PSD) produce una base ortogonal de vectores propios, cada uno de los cuales tiene un valor propio no negativo. La descomposición ortogonal de una matriz PSD se utiliza en análisis multivariante , donde las matrices de covarianza de muestra son PSD. Esta descomposición ortogonal se denomina análisis de componentes principales (PCA) en estadística. PCA estudia relaciones lineales entre variables. El PCA se realiza en la matriz de covarianza o la matriz de correlación (en la que cada variable se escala para que su varianza muestral sea igual a uno). Para la matriz de covarianza o correlación, los autovectores corresponden a los componentes principales y los autovalores a la varianza explicada por los componentes principales. El análisis de componentes principales de la matriz de correlación proporciona una base ortogonal para el espacio de los datos observados: en esta base, los valores propios más grandes corresponden a los componentes principales que están asociados con la mayor parte de la covariabilidad entre varios datos observados.
El análisis de componentes principales se utiliza como un medio de reducción de dimensionalidad en el estudio de grandes conjuntos de datos , como los que se encuentran en bioinformática . En la metodología Q , los valores propios de la matriz de correlación determinan el juicio de importancia práctica del metodólogo Q (que difiere de la significación estadística de la prueba de hipótesis ; cf. criterios para determinar el número de factores ). De manera más general, el análisis de componentes principales se puede utilizar como método de análisis factorial en el modelado de ecuaciones estructurales .
Análisis de vibraciones
Los problemas de valores propios ocurren naturalmente en el análisis de vibraciones de estructuras mecánicas con muchos grados de libertad . Los valores propios son las frecuencias naturales (o frecuencias propias ) de vibración, y los vectores propios son las formas de estos modos vibratorios. En particular, la vibración no amortiguada se rige por
o
es decir, la aceleración es proporcional a la posición (es decir, esperamos ser sinusoidal en el tiempo).
En dimensiones, se convierte en una matriz de masas yuna matriz de rigidez . Las soluciones admisibles son entonces una combinación lineal de soluciones al problema de valores propios generalizados
dónde es el valor propio y es la frecuencia angular (imaginaria) . Los principales modos de vibración son diferentes de los principales modos de cumplimiento, que son los vectores propios desolo. Además, la vibración amortiguada , gobernada por
conduce a un problema de valores propios cuadráticos ,
Esto puede reducirse a un problema de valor propio generalizado mediante la manipulación algebraica a costa de resolver un sistema más grande.
Las propiedades de ortogonalidad de los autovectores permiten el desacoplamiento de las ecuaciones diferenciales para que el sistema se pueda representar como suma lineal de los autovectores. El problema del valor propio de las estructuras complejas a menudo se resuelve mediante el análisis de elementos finitos , pero generaliza claramente la solución a los problemas de vibración con valores escalares.
Caras propias
En el procesamiento de imágenes, las imágenes procesadas de caras pueden verse como vectores cuyos componentes son los brillos de cada píxel . [52] La dimensión de este espacio vectorial es el número de píxeles. Los vectores propios de la matriz de covarianza asociados con un gran conjunto de imágenes normalizadas de caras se denominan caras propias ; este es un ejemplo de análisis de componentes principales . Son muy útiles para expresar cualquier imagen de rostro como una combinación lineal de algunos de ellos. En la rama de reconocimiento facial de la biometría , las caras propias proporcionan un medio para aplicar la compresión de datos a las caras con fines de identificación . También se han realizado investigaciones relacionadas con sistemas de visión propios que determinan los gestos de las manos.
De manera similar a este concepto, las voces propias representan la dirección general de variabilidad en las pronunciaciones humanas de un enunciado particular, como una palabra en un idioma. Sobre la base de una combinación lineal de tales voces propias, se puede construir una nueva pronunciación de la palabra. Estos conceptos se han encontrado útiles en sistemas de reconocimiento automático de voz para la adaptación del hablante.
Tensor de momento de inercia
En mecánica , los vectores propios del tensor del momento de inercia definen los ejes principales de un cuerpo rígido . El tensor de momento de inercia es una cantidad clave necesaria para determinar la rotación de un cuerpo rígido alrededor de su centro de masa .
Medidor de estrés
En mecánica de sólidos , el tensor de tensión es simétrico y, por lo tanto, se puede descomponer en un tensor diagonal con los valores propios en la diagonal y los vectores propios como base. Debido a que es diagonal, en esta orientación, el tensor de esfuerzos no tiene componentes de cortante ; los componentes que tiene son los componentes principales.
Gráficos
En la teoría de grafos espectrales , un valor propio de un gráfico se define como un valor propio de la matriz de adyacencia del gráfico. , o (cada vez más) de la matriz laplaciana del gráfico debido a su operador discreto de Laplace , que es(a veces llamado el laplaciano combinatorio ) o(a veces llamado laplaciano normalizado ), donde es una matriz diagonal con igual al grado de vértice , y en , la La entrada diagonal es . LaEl vector propio principal de un gráfico se define como el vector propio correspondiente al th más grande o el valor propio más pequeño del laplaciano. El primer vector propio principal del gráfico también se denomina simplemente vector propio principal.
El vector propio principal se utiliza para medir la centralidad de sus vértices. Un ejemplo es el algoritmo PageRank de Google . El vector propio principal de una matriz de adyacencia modificada del gráfico de la World Wide Web da la clasificación de la página como sus componentes. Este vector corresponde a la distribución estacionaria de la cadena de Markov representada por la matriz de adyacencia normalizada por filas; sin embargo, la matriz de adyacencia debe modificarse primero para garantizar que exista una distribución estacionaria. El segundo vector propio más pequeño se puede utilizar para dividir el gráfico en grupos, mediante agrupamiento espectral . También hay otros métodos disponibles para la agrupación en clústeres.
Número de reproducción básico
El número de reproducción básico () es un número fundamental en el estudio de cómo se propagan las enfermedades infecciosas. Si una persona infecciosa se incluye en una población de personas completamente susceptibles, entonceses el número medio de personas a las que infectará una persona infecciosa típica. El tiempo de generación de una infección es el tiempo,, de una persona infectada a la siguiente persona infectada. En una población heterogénea, la matriz de la próxima generación define cuántas personas de la población se infectarán con el tiempo. ha pasado. es entonces el valor propio más grande de la matriz de próxima generación. [53] [54]
Ver también
- Antieigenvalue theory
- Eigenoperator
- Eigenplane
- Eigenvalue algorithm
- Introduction to eigenstates
- Jordan normal form
- List of numerical analysis software
- Nonlinear eigenproblem
- Normal eigenvalue
- Quadratic eigenvalue problem
- Singular value
- Spectrum of a matrix
Notas
- ^ Note:
- In 1751, Leonhard Euler proved that any body has a principal axis of rotation: Leonhard Euler (presented: October 1751; published: 1760) "Du mouvement d'un corps solide quelconque lorsqu'il tourne autour d'un axe mobile" (On the movement of any solid body while it rotates around a moving axis), Histoire de l'Académie royale des sciences et des belles lettres de Berlin, pp. 176–227. On p. 212, Euler proves that any body contains a principal axis of rotation: "Théorem. 44. De quelque figure que soit le corps, on y peut toujours assigner un tel axe, qui passe par son centre de gravité, autour duquel le corps peut tourner librement & d'un mouvement uniforme." (Theorem. 44. Whatever be the shape of the body, one can always assign to it such an axis, which passes through its center of gravity, around which it can rotate freely and with a uniform motion.)
- In 1755, Johann Andreas Segner proved that any body has three principal axes of rotation: Johann Andreas Segner, Specimen theoriae turbinum [Essay on the theory of tops (i.e., rotating bodies)] ( Halle ("Halae"), (Germany): Gebauer, 1755). (https://books.google.com/books?id=29 p. xxviiii [29]), Segner derives a third-degree equation in t, which proves that a body has three principal axes of rotation. He then states (on the same page): "Non autem repugnat tres esse eiusmodi positiones plani HM, quia in aequatione cubica radices tres esse possunt, et tres tangentis t valores." (However, it is not inconsistent [that there] be three such positions of the plane HM, because in cubic equations, [there] can be three roots, and three values of the tangent t.)
- The relevant passage of Segner's work was discussed briefly by Arthur Cayley. See: A. Cayley (1862) "Report on the progress of the solution of certain special problems of dynamics," Report of the Thirty-second meeting of the British Association for the Advancement of Science; held at Cambridge in October 1862, 32: 184–252; see especially pp. 225–226.
- ^ Kline 1972, pp. 807–808 Augustin Cauchy (1839) "Mémoire sur l'intégration des équations linéaires" (Memoir on the integration of linear equations), Comptes rendus, 8: 827–830, 845–865, 889–907, 931–937. From p. 827: "On sait d'ailleurs qu'en suivant la méthode de Lagrange, on obtient pour valeur générale de la variable prinicipale une fonction dans laquelle entrent avec la variable principale les racines d'une certaine équation que j'appellerai l'équation caractéristique, le degré de cette équation étant précisément l'order de l'équation différentielle qu'il s'agit d'intégrer." (One knows, moreover, that by following Lagrange's method, one obtains for the general value of the principal variable a function in which there appear, together with the principal variable, the roots of a certain equation that I will call the "characteristic equation", the degree of this equation being precisely the order of the differential equation that must be integrated.)
- ^ See:
- David Hilbert (1904) "Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen. (Erste Mitteilung)" (Fundamentals of a general theory of linear integral equations. (First report)), Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse (News of the Philosophical Society at Göttingen, mathematical-physical section), pp. 49–91. From p. 51: "Insbesondere in dieser ersten Mitteilung gelange ich zu Formeln, die die Entwickelung einer willkürlichen Funktion nach gewissen ausgezeichneten Funktionen, die ich 'Eigenfunktionen' nenne, liefern: …" (In particular, in this first report I arrive at formulas that provide the [series] development of an arbitrary function in terms of some distinctive functions, which I call eigenfunctions: … ) Later on the same page: "Dieser Erfolg ist wesentlich durch den Umstand bedingt, daß ich nicht, wie es bisher geschah, in erster Linie auf den Beweis für die Existenz der Eigenwerte ausgehe, … " (This success is mainly attributable to the fact that I do not, as it has happened until now, first of all aim at a proof of the existence of eigenvalues, … )
- For the origin and evolution of the terms eigenvalue, characteristic value, etc., see: Earliest Known Uses of Some of the Words of Mathematics (E)
- ^ Determine the characteristic polynomial of A: Use the quadratic formula to find the values of λ:Simplify radicand:Bring denominator into the square root:
- ^ For a proof of this lemma, see Roman 2008, Theorem 8.2 on p. 186; Shilov 1977, p. 109; Hefferon 2001, p. 364; Beezer 2006, Theorem EDELI on p. 469; and Lemma for linear independence of eigenvectors
- ^ By doing Gaussian elimination over formal power series truncated to terms it is possible to get away with operations, but that does not take combinatorial explosion into account.
Citations
- ^ "Comprehensive List of Algebra Symbols". Math Vault. 25 March 2020. Retrieved 19 August 2020.
- ^ Burden & Faires 1993, p. 401.
- ^ Herstein 1964, pp. 228, 229.
- ^ a b Nering 1970, p. 38.
- ^ Weisstein, Eric W. "Eigenvalue". mathworld.wolfram.com. Retrieved 19 August 2020.
- ^ Betteridge 1965.
- ^ a b "Eigenvector and Eigenvalue". www.mathsisfun.com. Retrieved 19 August 2020.
- ^ Press et al. 2007, p. 536.
- ^ Wolfram.com: Eigenvector.
- ^ a b c d Nering 1970, p. 107.
- ^ Hawkins 1975, §2.
- ^ a b c d Hawkins 1975, §3.
- ^ Kline 1972, p. 673.
- ^ a b Kline 1972, pp. 807–808.
- ^ Kline 1972, pp. 715–716.
- ^ Kline 1972, pp. 706–707.
- ^ Kline 1972, p. 1063, p..
- ^ Aldrich 2006.
- ^ Francis 1961, pp. 265–271.
- ^ Kublanovskaya 1961, pp. 637–657.
- ^ Golub & Van Loan 1996, §7.3.
- ^ Meyer 2000, §7.3.
- ^ Cornell University Department of Mathematics (2016) Lower-Level Courses for Freshmen and Sophomores. Accessed on 2016-03-27.
- ^ University of Michigan Mathematics (2016) Math Course Catalogue Archived 2015-11-01 at the Wayback Machine. Accessed on 2016-03-27.
- ^ Herstein 1964, pp. 228,229.
- ^ Press et al. 2007, p. 38.
- ^ Fraleigh 1976, p. 358.
- ^ a b c Golub & Van Loan 1996, p. 316.
- ^ Anton 1987, pp. 305,307.
- ^ a b Beauregard & Fraleigh 1973, p. 307.
- ^ Herstein 1964, p. 272.
- ^ Nering 1970, pp. 115–116.
- ^ Herstein 1964, p. 290.
- ^ Nering 1970, p. 116.
- ^ Wolchover 2019.
- ^ Denton et al. 2019.
- ^ Van Mieghem 2014.
- ^ Korn & Korn 2000, Section 14.3.5a.
- ^ Friedberg, Insel & Spence 1989, p. 217.
- ^ Nering 1970, p. 107; Shilov 1977, p. 109 Lemma for the eigenspace
- ^ Lipschutz & Lipson 2002, p. 111.
- ^ Axler, p. 77.
- ^ a b c d Trefethen & Bau 1997.
- ^ Vellekoop, I. M.; Mosk, A. P. (15 August 2007). "Focusing coherent light through opaque strongly scattering media". Optics Letters. 32 (16): 2309–2311. Bibcode:2007OptL...32.2309V. doi:10.1364/OL.32.002309. ISSN 1539-4794. PMID 17700768.
- ^ a b Rotter, Stefan; Gigan, Sylvain (2 March 2017). "Light fields in complex media: Mesoscopic scattering meets wave control". Reviews of Modern Physics. 89 (1): 015005. arXiv:1702.05395. Bibcode:2017RvMP...89a5005R. doi:10.1103/RevModPhys.89.015005. S2CID 119330480.
- ^ Bender, Nicholas; Yamilov, Alexey; Yılmaz, Hasan; Cao, Hui (14 October 2020). "Fluctuations and Correlations of Transmission Eigenchannels in Diffusive Media". Physical Review Letters. 125 (16): 165901. arXiv:2004.12167. Bibcode:2020PhRvL.125p5901B. doi:10.1103/physrevlett.125.165901. ISSN 0031-9007. PMID 33124845. S2CID 216553547.
- ^ Graham & Midgley 2000, pp. 1473–1477.
- ^ Sneed & Folk 1958, pp. 114–150.
- ^ Knox-Robinson & Gardoll 1998, p. 243.
- ^ Busche, Christian; Schiller, Beate. "Endogene Geologie - Ruhr-Universität Bochum". www.ruhr-uni-bochum.de.
- ^ Benn & Evans 2004, pp. 103–107.
- ^ Xirouhakis, Votsis & Delopoulus 2004.
- ^ Journal of Mathematical Biology 1990, pp. 365–382.
- ^ Heesterbeek & Diekmann 2000.
Fuentes
- Akivis, Max A.; Goldberg, Vladislav V. (1969), Tensor calculus, Russian, Science Publishers, Moscow
- Aldrich, John (2006), "Eigenvalue, eigenfunction, eigenvector, and related terms", in Miller, Jeff (ed.), Earliest Known Uses of Some of the Words of Mathematics
- Alexandrov, Pavel S. (1968), Lecture notes in analytical geometry, Russian, Science Publishers, Moscow[ISBN missing]
- Anton, Howard (1987), Elementary Linear Algebra (5th ed.), New York: Wiley, ISBN 0-471-84819-0
- Axler, Sheldon, Linear Algebra Done Right (3rd ed.), Springer, p. 77, ISBN 978-3-319-30765-7
- Beauregard, Raymond A.; Fraleigh, John B. (1973), A First Course In Linear Algebra: with Optional Introduction to Groups, Rings, and Fields, Boston: Houghton Mifflin Co., ISBN 0-395-14017-X
- Beezer, Robert A. (2006), A first course in linear algebra, Free online book under GNU licence, University of Puget Sound
- Benn, D.; Evans, D. (2004), A Practical Guide to the study of Glacial Sediments, London: Arnold, pp. 103–107
- Betteridge, Harold T. (1965), The New Cassell's German Dictionary, New York: Funk & Wagnall, LCCN 58-7924
- Bowen, Ray M.; Wang, Chao-Cheng (1980), Linear and multilinear algebra, Plenum Press, New York, ISBN 0-306-37508-7
- Burden, Richard L.; Faires, J. Douglas (1993), Numerical Analysis (5th ed.), Boston: Prindle, Weber and Schmidt, ISBN 0-534-93219-3
- Carter, Tamara A.; Tapia, Richard A.; Papaconstantinou, Anne, Linear Algebra: An Introduction to Linear Algebra for Pre-Calculus Students, Rice University, Online Edition, retrieved 19 February 2008
- Cohen-Tannoudji, Claude (1977), "Chapter II. The mathematical tools of quantum mechanics", Quantum mechanics, John Wiley & Sons, ISBN 0-471-16432-1
- Curtis, Charles W. (1999), Linear Algebra: An Introductory Approach (4th ed.), Springer, ISBN 0-387-90992-3
- Demmel, James W. (1997), Applied numerical linear algebra, SIAM, ISBN 0-89871-389-7
- Denton, Peter B.; Parke, Stephen J.; Tao, Terence; Zhang, Xining (10 August 2019). "Eigenvectors from Eigenvalues: a survey of a basic identity in linear algebra". arXiv:1908.03795 [math.RA].
- Diekmann O, Heesterbeek JA, Metz JA (1990), "On the definition and the computation of the basic reproduction ratio R0 in models for infectious diseases in heterogeneous populations", Journal of Mathematical Biology, 28 (4): 365–382, doi:10.1007/BF00178324, hdl:1874/8051, PMID 2117040, S2CID 22275430
- Fraleigh, John B. (1976), A First Course In Abstract Algebra (2nd ed.), Reading: Addison-Wesley, ISBN 0-201-01984-1
- Fraleigh, John B.; Beauregard, Raymond A. (1995), Linear algebra (3rd ed.), Addison-Wesley Publishing Company, ISBN 0-201-83999-7
- Francis, J. G. F. (1961), "The QR Transformation, I (part 1)", The Computer Journal, 4 (3): 265–271, doi:10.1093/comjnl/4.3.265and Francis, J. G. F. (1962), "The QR Transformation, II (part 2)", The Computer Journal, 4 (4): 332–345, doi:10.1093/comjnl/4.4.332
- Francis, J. G. F. (1962), "The QR Transformation, II (part 2)", The Computer Journal, 4 (4): 332–345, doi:10.1093/comjnl/4.4.332
- Friedberg, Stephen H.; Insel, Arnold J.; Spence, Lawrence E. (1989), Linear algebra (2nd ed.), Englewood Cliffs, NJ: Prentice Hall, ISBN 0-13-537102-3
- Gelfand, I. M. (1971), Lecture notes in linear algebra, Russian, Science Publishers, Moscow
- Gohberg, Israel; Lancaster, Peter; Rodman, Leiba (2005), Indefinite linear algebra and applications, Basel, Boston, Berlin: Birkhäuser Verlag, ISBN 3-7643-7349-0
- Golub, Gene F.; van der Vorst, Henk A. (2000), "Eigenvalue computation in the 20th century" (PDF), Journal of Computational and Applied Mathematics, 123 (1–2): 35–65, Bibcode:2000JCoAM.123...35G, doi:10.1016/S0377-0427(00)00413-1
- Golub, Gene H.; Van Loan, Charles F. (1996), Matrix computations (3rd ed.), Baltimore, MD: Johns Hopkins University Press, ISBN 978-0-8018-5414-9
- Graham, D.; Midgley, N. (2000), "Graphical representation of particle shape using triangular diagrams: an Excel spreadsheet method", Earth Surface Processes and Landforms, 25 (13): 1473–1477, Bibcode:2000ESPL...25.1473G, doi:10.1002/1096-9837(200012)25:13<1473::AID-ESP158>3.0.CO;2-C, S2CID 128825838
- Greub, Werner H. (1975), Linear Algebra (4th ed.), New York: Springer-Verlag, ISBN 0-387-90110-8
- Halmos, Paul R. (1987), Finite-dimensional vector spaces (8th ed.), New York: Springer-Verlag, ISBN 0-387-90093-4
- Hawkins, T. (1975), "Cauchy and the spectral theory of matrices", Historia Mathematica, 2: 1–29, doi:10.1016/0315-0860(75)90032-4
- Heesterbeek, J. A. P.; Diekmann, Odo (2000), Mathematical epidemiology of infectious diseases, Wiley series in mathematical and computational biology, West Sussex, England: John Wiley & Sons
- Hefferon, Jim (2001), Linear Algebra, Colchester, VT: Online book, St Michael's College
- Herstein, I. N. (1964), Topics In Algebra, Waltham: Blaisdell Publishing Company, ISBN 978-1114541016
- Horn, Roger A.; Johnson, Charles F. (1985), Matrix analysis, Cambridge University Press, ISBN 0-521-30586-1
- Kline, Morris (1972), Mathematical thought from ancient to modern times, Oxford University Press, ISBN 0-19-501496-0
- Knox-Robinson, C.; Gardoll, Stephen J. (1998), "GIS-stereoplot: an interactive stereonet plotting module for ArcView 3.0 geographic information system", Computers & Geosciences, 24 (3): 243, Bibcode:1998CG.....24..243K, doi:10.1016/S0098-3004(97)00122-2
- Korn, Granino A.; Korn, Theresa M. (2000), "Mathematical Handbook for Scientists and Engineers: Definitions, Theorems, and Formulas for Reference and Review", New York: McGraw-Hill (2nd Revised ed.), Bibcode:1968mhse.book.....K, ISBN 0-486-41147-8
- Kublanovskaya, Vera N. (1961), "On some algorithms for the solution of the complete eigenvalue problem", USSR Computational Mathematics and Mathematical Physics, 3: 637–657. Also published in: "О некоторых алгорифмах для решения полной проблемы собственных значений" [On certain algorithms for the solution of the complete eigenvalue problem], Журнал вычислительной математики и математической физики (Journal of Computational Mathematics and Mathematical Physics) (in Russian), 1 (4): 555–570, 1961
- Kuttler, Kenneth (2007), An introduction to linear algebra (PDF), Brigham Young University
- Lancaster, P. (1973), Matrix theory, Russian, Moscow: Science Publishers
- Larson, Ron; Edwards, Bruce H. (2003), Elementary linear algebra (5th ed.), Houghton Mifflin Company, ISBN 0-618-33567-6
- Lipschutz, Seymour (1991), Schaum's outline of theory and problems of linear algebra, Schaum's outline series (2nd ed.), New York: McGraw-Hill Companies, ISBN 0-07-038007-4
- Lipschutz, Seymour; Lipson, Marc (12 August 2002). Schaum's Easy Outline of Linear Algebra. McGraw Hill Professional. p. 111. ISBN 978-007139880-0.
- Meyer, Carl D. (2000), Matrix analysis and applied linear algebra, Philadelphia: Society for Industrial and Applied Mathematics (SIAM), ISBN 978-0-89871-454-8
- Nering, Evar D. (1970), Linear Algebra and Matrix Theory (2nd ed.), New York: Wiley, LCCN 76091646
- Press, William H.; Teukolsky, Saul A.; Vetterling, William T.; Flannery, Brian P. (2007), Numerical Recipes: The Art of Scientific Computing (3rd ed.), ISBN 978-0521880688
- Roman, Steven (2008), Advanced linear algebra (3rd ed.), New York: Springer Science + Business Media, ISBN 978-0-387-72828-5
- Sharipov, Ruslan A. (1996), Course of Linear Algebra and Multidimensional Geometry: the textbook, arXiv:math/0405323, Bibcode:2004math......5323S, ISBN 5-7477-0099-5
- Shilov, Georgi E. (1977), Linear algebra, Translated and edited by Richard A. Silverman, New York: Dover Publications, ISBN 0-486-63518-X
- Shores, Thomas S. (2007), Applied linear algebra and matrix analysis, Springer Science+Business Media, ISBN 978-0-387-33194-2
- Sneed, E. D.; Folk, R. L. (1958), "Pebbles in the lower Colorado River, Texas, a study of particle morphogenesis", Journal of Geology, 66 (2): 114–150, Bibcode:1958JG.....66..114S, doi:10.1086/626490, S2CID 129658242
- Strang, Gilbert (1993), Introduction to linear algebra, Wellesley, MA: Wellesley-Cambridge Press, ISBN 0-9614088-5-5
- Strang, Gilbert (2006), Linear algebra and its applications, Belmont, CA: Thomson, Brooks/Cole, ISBN 0-03-010567-6
- Trefethen, Lloyd N.; Bau, David (1997), Numerical Linear Algebra, SIAM
- Van Mieghem, Piet (18 January 2014). "Graph eigenvectors, fundamental weights and centrality metrics for nodes in networks". arXiv:1401.4580 [math.SP].
- Weisstein, Eric W. "Eigenvector". mathworld.wolfram.com. Retrieved 4 August 2019.
- Wolchover, Natalie (13 November 2019). "Neutrinos Lead to Unexpected Discovery in Basic Math". Quanta Magazine. Retrieved 27 November 2019.
- Xirouhakis, A.; Votsis, G.; Delopoulus, A. (2004), Estimation of 3D motion and structure of human faces (PDF), National Technical University of Athens
- (in Russian)Pigolkina, T. S.; Shulman, V. S. (1977). "Eigenvalue". In Vinogradov, I. M. (ed.). Mathematical Encyclopedia. 5. Moscow: Soviet Encyclopedia.
Otras lecturas
- "A Beginner's Guide to Eigenvectors". Deeplearning4j. 2015. Archived from the original on 21 July 2018. Retrieved 18 August 2015.
- Hill, Roger (2009). "λ – Eigenvalues". Sixty Symbols. Brady Haran for the University of Nottingham.
enlaces externos
- What are Eigen Values? – non-technical introduction from PhysLink.com's "Ask the Experts"
- Eigen Values and Eigen Vectors Numerical Examples – Tutorial and Interactive Program from Revoledu.
- Introduction to Eigen Vectors and Eigen Values – lecture from Khan Academy
- Eigenvectors and eigenvalues | Essence of linear algebra, chapter 10 – A visual explanation with 3Blue1Brown
- Matrix Eigenvectors Calculator from Symbolab (Click on the bottom right button of the 2x12 grid to select a matrix size. Select an size (for a square matrix), then fill out the entries numerically and click on the Go button. It can accept complex numbers as well.)
Theory
- "Eigen value", Encyclopedia of Mathematics, EMS Press, 2001 [1994]
- "Eigen vector", Encyclopedia of Mathematics, EMS Press, 2001 [1994]
- "Eigenvalue (of a matrix)". PlanetMath.
- Eigenvector – Wolfram MathWorld
- Eigen Vector Examination working applet
- Same Eigen Vector Examination as above in a Flash demo with sound
- Computation of Eigenvalues
- Numerical solution of eigenvalue problems Edited by Zhaojun Bai, James Demmel, Jack Dongarra, Axel Ruhe, and Henk van der Vorst
- Eigenvalues and Eigenvectors on the Ask Dr. Math forums: [1], [2]