En álgebra lineal , el polinomio característico de una matriz cuadrada es un polinomio que es invariante bajo semejanza de matriz y tiene los valores propios como raíces . Tiene el determinante y la traza de la matriz entre sus coeficientes. El polinomio característico de un endomorfismo de espacios vectoriales de dimensión finita es el polinomio característico de la matriz del endomorfismo sobre cualquier base; no depende de la elección de una base . La ecuación característica, también conocida como ecuación determinante , [1] [2] [3] es la ecuación obtenida al igualar a cero el polinomio característico.
En la teoría de grafos espectrales , el polinomio característico de un grafo es el polinomio característico de su matriz de adyacencia . [4]
Motivación
Dada una matriz cuadrada A , queremos encontrar un polinomio cuyos ceros son los valores propios de A . Para una matriz diagonal A , el polinomio característico es fácil de definir: si las entradas diagonales son un 1 , un 2 , un 3 , etc., entonces el polinomio característico será:
Esto funciona porque las entradas diagonales también son los valores propios de esta matriz.
Para una matriz general A , se puede proceder de la siguiente manera. Un escalar λ es un autovalor de A si y solo si hay un vector v distinto de cero , llamado autovector , tal que
o equivalente,
(donde I es la matriz de identidad ). Dado que v debe ser distinto de cero, esto significa que la matriz λI - A tiene un núcleo distinto de cero . Por tanto, esta matriz no es invertible , y lo mismo ocurre con su determinante , que por tanto debe ser cero. Por tanto, los valores propios de A son las raíces de det ( λI - A ) , que es un polinomio en λ .
Definicion formal
Consideramos una matriz A de n × n . El polinomio característico de A , denotado por p A ( t ), es el polinomio definido por [5]
donde I denota la n × n matriz de identidad .
Algunos autores definen el polinomio característico como det ( A - tI ) . Ese polinomio difiere del definido aquí por un signo (-1) n , por lo que no hay diferencia para propiedades como tener como raíces los valores propios de A ; sin embargo, la definición anterior siempre da un polinomio monico , mientras que la definición alternativa es monica solo cuando n es par.
Ejemplos de
Supongamos que queremos calcular el polinomio característico de la matriz
Ahora calculamos el determinante de
cual es el polinomio característico de A .
Otro ejemplo usa funciones hiperbólicas de un ángulo hiperbólico φ. Para la matriz, toma
Su polinomio característico es
Propiedades
El polinomio característico p A ( t ) de una matriz n × n es monico (su coeficiente principal es 1) y su grado es n . El hecho más importante sobre el polinomio característico ya se mencionó en el párrafo motivacional: los valores propios de A son precisamente las raíces de p A ( t ) (esto también es válido para el polinomio mínimo de A , pero su grado puede ser menor que n ) . Todos los coeficientes del polinomio característico son expresiones polinomiales en las entradas de la matriz. En particular, su coeficiente constante p A (0) es det (- A ) = (−1) n det ( A ) , el coeficiente de t n es uno y el coeficiente de t n −1 es tr (- A ) = -tr ( A ) , donde tr ( A ) es la traza de A . (Los signos dados aquí corresponden a la definición formal dada en la sección anterior; [6] para la definición alternativa estos serían det ( A ) y (−1) n - 1 tr ( A ) respectivamente. [7] )
Para una matriz A de 2 × 2 , el polinomio característico viene dado por
Usando el lenguaje del álgebra exterior , uno puede expresar de manera compacta el polinomio característico de una matriz A n × n como
dónde es el rastro de la k- ésima potencia exterior de A , que tiene dimensión. Esta traza puede calcularse como la suma de todos los menores principales de A de tamaño k . El algoritmo recursivo de Faddeev-LeVerrier calcula estos coeficientes de manera más eficiente.
Cuando la característica del campo de los coeficientes es 0, cada traza puede calcularse alternativamente como un único determinante, el de la matriz k × k ,
El teorema de Cayley-Hamilton establece que al reemplazar t por A en el polinomio característico (interpretando las potencias resultantes como potencias de la matriz, y el término constante c como c multiplicado por la matriz identidad) se obtiene la matriz cero. Hablando informalmente, cada matriz satisface su propia ecuación característica. Esta afirmación es equivalente a decir que el polinomio mínimo de A divide el polinomio característico de A .
Dos matrices similares tienen el mismo polinomio característico. Sin embargo, lo contrario no es cierto en general: dos matrices con el mismo polinomio característico no necesitan ser similares.
La matriz A y su transpuesta tienen el mismo polinomio característico. A es similar a una matriz triangular si y solo si su polinomio característico se puede factorizar completamente en factores lineales sobre K (lo mismo ocurre con el polinomio mínimo en lugar del polinomio característico). En este caso, A es similar a una matriz en forma normal de Jordan .
Polinomio característico de un producto de dos matrices
Si A y B son dos matrices cuadradas n × n, entonces los polinomios característicos de AB y BA coinciden:
Cuando A no es singular, este resultado se deriva del hecho de que AB y BA son similares :
Para el caso en el que tanto A como B son singulares, se puede observar que la identidad deseada es una igualdad entre los polinomios en ty los coeficientes de las matrices. Así, para demostrar esta igualdad, basta con demostrar que se verifica en un subconjunto abierto no vacío (para la topología habitual , o, más generalmente, para la topología de Zariski ) del espacio de todos los coeficientes. Como las matrices no singulares forman un subconjunto abierto del espacio de todas las matrices, esto prueba el resultado.
Más en general, si A es una matriz de orden m × n y B es una matriz de orden n × m , entonces AB es m × m y BA es n × n matriz, y uno tiene
Para probar esto, se puede suponer n > m , mediante el intercambio, si es necesario, A y B . Luego, al bordear A en la parte inferior por n - m filas de ceros, y B a la derecha, por, n - m columnas de ceros, se obtienen dos n × n matrices A ' y B' tales que B'A ' = BA , y A'B ' es igual a AB bordeado por n - m filas y columnas de ceros. El resultado se deriva del caso de matrices cuadradas, al comparar los polinomios característicos de A'B ' y AB .
Polinomio característico de A k
Si es un valor propio de una matriz cuadrada A con vector propio v , entonces claramentees un valor propio de A k
También se puede demostrar que las multiplicidades concuerdan, y esto se generaliza a cualquier polinomio en lugar de : [8]
Teorema - Sea A una matriz cuadrada n × n y seaser un polinomio. Si el polinomio característico de A tiene una factorización
luego el polinomio característico de la matriz es dado por
Es decir, la multiplicidad algebraica de en es igual a la suma de las multiplicidades algebraicas de en encima tal que . En particular, y . Aquí un polinomio, por ejemplo, se evalúa en una matriz A simplemente como.
El teorema se aplica a matrices y polinomios sobre cualquier campo o anillo conmutativo . [9] Sin embargo, la suposición de quetiene una factorización en factores lineales no siempre es cierto, a menos que la matriz esté sobre un campo algebraicamente cerrado como los números complejos.
Prueba |
---|
Esta prueba solo se aplica a matrices y polinomios sobre números complejos (o cualquier campo algebraicamente cerrado). En ese caso, el polinomio característico de cualquier matriz cuadrada siempre se puede factorizar como dónde son los valores propios de , posiblemente repetido. Además, el teorema de descomposición de Jordan garantiza que cualquier matriz cuadrada se puede descomponer como , dónde es una matriz invertible yes triangular superior conen la diagonal (con cada valor propio repetido de acuerdo con su multiplicidad algebraica). (La forma normal de Jordan tiene propiedades más fuertes, pero estas son suficientes; alternativamente, se puede usar la descomposición de Schur , que es menos popular pero algo más fácil de probar). Dejar . Luego
Es fácil comprobar si hay una matriz triangular superior. con diagonal , la matriz es triangular superior con diagonal en , y por lo tanto es triangular superior con diagonal . Por tanto, los valores propios de están . Desdees similar a, tiene los mismos valores propios, con las mismas multiplicidades algebraicas. |
Función secular y ecuación secular
Función secular
El término función secular se ha utilizado para lo que ahora se llama polinomio característico (en alguna literatura todavía se utiliza el término función secular). El término proviene del hecho de que el polinomio característico se utilizó para calcular las perturbaciones seculares (en una escala de tiempo de un siglo, es decir, lentas en comparación con el movimiento anual) de las órbitas planetarias, según la teoría de oscilaciones de Lagrange .
Ecuación secular
La ecuación secular puede tener varios significados.
- En álgebra lineal a veces se usa en lugar de ecuación característica.
- En astronomía es la expresión algebraica o numérica de la magnitud de las desigualdades en el movimiento de un planeta que quedan después de que se han permitido las desigualdades de un período corto. [10]
- En los cálculos de orbitales moleculares relacionados con la energía del electrón y su función de onda, también se utiliza en lugar de la ecuación característica.
Para álgebras asociativas generales
La definición anterior del polinomio característico de una matriz con entradas en un campo F se generaliza sin ningún cambio en el caso cuando F es solo un anillo conmutativo . Garibaldi (2004) define el polinomio característico para elementos de un álgebra arbitraria de dimensión finita ( asociativa , pero no necesariamente conmutativa) sobre un campo F y prueba las propiedades estándar del polinomio característico en esta generalidad.
Ver también
- Ecuación característica (desambiguación)
- Polinomio mínimo (álgebra lineal)
- Invariantes de tensores
- Matriz complementaria
- Algoritmo de Faddeev-LeVerrier
- Teorema de Cayley-Hamilton
- Algoritmo de Samuelson-Berkowitz
Referencias
- ^ Guillemin, Ernst (1953). Introducción a la teoría de circuitos . Wiley. págs. 366, 541. ISBN 0471330663. Lay resumen .
- ^ Forsythe, George E .; Motzkin, Theodore (enero de 1952). "Una extensión de la transformación de Gauss para mejorar la condición de sistemas de ecuaciones lineales" (PDF) . Sociedad Americana de Matemáticas - Matemáticas de Computación . 6 (37): 18–34. doi : 10.1090 / S0025-5718-1952-0048162-0 . Consultado el 3 de octubre de 2020 .
- ^ Frank, Evelyn (1946). "Sobre los ceros de polinomios con coeficientes complejos" . Boletín de la American Mathematical Society . 52 (2): 144-157. doi : 10.1090 / S0002-9904-1946-08526-2 . Consultado el 3 de octubre de 2020 . Lay resumen .
- ^ "Polinomio característico de un gráfico - Wolfram MathWorld" . Consultado el 26 de agosto de 2011 .
- ^ Steven Roman (1992). Álgebra lineal avanzada (2 ed.). Saltador. pag. 137 . ISBN 3540978372.
- ^ Proposición 28 en estas notas de la conferencia [ enlace muerto permanente ]
- ^ Teorema 4 en estas notas de clase
- ^ Horn, Roger A .; Johnson, Charles R. (2013). Análisis matricial (2ª ed.). Prensa de la Universidad de Cambridge . págs. 108–109, Sección 2.4.2. ISBN 978-0-521-54823-6.
- ^ Lang, Serge (1993). Álgebra . Nueva York: Springer. p.567, Teorema 3.10. ISBN 978-1-4613-0041-0. OCLC 852792828 .
- ^ "ecuación secular" . Consultado el 21 de enero de 2010 .
- TS Blyth y EF Robertson (1998) Álgebra lineal básica , p 149, Springer ISBN 3-540-76122-5 .
- John B. Fraleigh y Raymond A. Beauregard (1990) Linear Algebra 2nd edition, p 246, Addison-WesleyISBN 0-201-11949-8 .
- Garibaldi, Skip (2004), "El polinomio característico y el determinante no son construcciones ad hoc", American Mathematical Monthly , 111 (9): 761–778, arXiv : math / 0203276 , doi : 10.2307 / 4145188 , JSTOR 4145188 , MR 2104048
- Werner Greub (1974) Linear Algebra 4th edition, pp 120–5, Springer, ISBN 0-387-90110-8 .
- Paul C. Shields (1980) Álgebra lineal elemental 3a edición, p 274, Worth PublishersISBN 0-87901-121-1 .
- Gilbert Strang (1988) Álgebra lineal y sus aplicaciones 3a edición, p 246, Brooks / ColeISBN 0-15-551005-3 .