En la teoría de matrices , el teorema de Perron-Frobenius , probado por Oskar Perron ( 1907 ) y Georg Frobenius ( 1912 ), afirma que una matriz cuadrada real con entradas positivas tiene un valor propio real único más grande y que se puede elegir que el vector propio correspondiente tenga estrictamente componentes positivos, y también afirma una declaración similar para ciertas clases de matrices no negativas . Este teorema tiene importantes aplicaciones a la teoría de la probabilidad ( ergodicidad de las cadenas de Markov ); a la teoría de sistemas dinámicos (subdesplazamientos de tipo finito ); a la economía ( teorema de Okishio , [1] condición de Hawkins-Simon [2] ); a la demografía ( modelo de distribución de edad de la población de Leslie ); [3] a las redes sociales ( proceso de aprendizaje DeGroot ); a los motores de búsqueda de Internet ( PageRank ); [4] e incluso al ranking de equipos de fútbol. [5] El primero en discutir el orden de los jugadores dentro de los torneos usando vectores propios de Perron-Frobenius es Edmund Landau . [6] [7]
Deje que positivo y no negativo describan respectivamente matrices con números reales exclusivamente positivos como elementos y matrices con números reales exclusivamente no negativos como elementos. Los valores propios de una matriz cuadrada real A son números complejos que componen el espectro de la matriz. La tasa de crecimiento exponencial de la matriz potencia A k cuando k → ∞ está controlada por el valor propio de A con el mayor valor absoluto ( módulo). El teorema de Perron-Frobenius describe las propiedades del valor propio principal y de los vectores propios correspondientes cuando A es una matriz cuadrada real no negativa. Los primeros resultados se debieron a Oskar Perron ( 1907 ) y se referían a matrices positivas. Posteriormente, Georg Frobenius ( 1912 ) encontró su extensión a ciertas clases de matrices no negativas.
Sea una matriz positiva: para . Entonces las siguientes declaraciones son válidas.
Todas estas propiedades se extienden más allá de las matrices estrictamente positivas a las matrices primitivas (ver más abajo). Los hechos 1-7 se pueden encontrar en Meyer [12] capítulo 8 afirmaciones 8.2.11-15 página 667 y ejercicios 8.2.5,7,9 páginas 668-669.
Los vectores propios izquierdo y derecho w y v a veces se normalizaron de manera que la suma de sus componentes es igual a 1; en este caso, a veces se denominan autovectores estocásticos . A menudo se normalizan de modo que el vector propio derecho v suma uno, mientras que .
Existe una extensión para matrices con entradas no negativas. Dado que cualquier matriz no negativa puede obtenerse como límite de matrices positivas, se obtiene la existencia de un vector propio con componentes no negativos; el valor propio correspondiente será no negativo y mayor o igual , en valor absoluto, a todos los demás valores propios. [13] [14] Sin embargo, para el ejemplo , el valor propio máximo r = 1 tiene el mismo valor absoluto que el otro valor propio −1; mientras que para , el valor propio máximo es r = 0, que no es una raíz simple del polinomio característico, y el vector propio correspondiente (1, 0) no es estrictamente positivo.
Sin embargo, Frobenius encontró una subclase especial de matrices no negativas, matrices irreducibles , para las que es posible una generalización no trivial. Para una matriz de este tipo, aunque los valores propios que alcanzan el valor absoluto máximo pueden no ser únicos, su estructura está bajo control: tienen la forma , donde r es un valor propio real estrictamente positivo, y se extiende por encima de las raíces h- ésimas complejas de 1 para algunos entero positivo h llamado período de la matriz. El vector propio correspondiente a rtiene componentes estrictamente positivos (en contraste con el caso general de matrices no negativas, donde los componentes son solo no negativos). Además, todos estos valores propios son raíces simples del polinomio característico. A continuación se describen otras propiedades.
Deje que A sea un n × n matriz cuadrada sobre campo F . La matriz A es irreducible si se cumple alguna de las siguientes propiedades equivalentes.
Definición 1: A no tiene subespacios de coordenadas invariantes no triviales . Aquí, un subespacio de coordenadas no trivial significa un subespacio lineal atravesado por cualquier subconjunto adecuado de vectores de base estándar de F n . Más explícitamente, para cualquier subespacio lineal generado por vectores de base estándar e i 1 , ..., e i k , 0 < k < n, su imagen bajo la acción de A no está contenida en el mismo subespacio.
Definición 2: A no se puede conjugar en forma triangular superior de bloque mediante una matriz de permutación P :
donde E y G son matrices cuadradas no triviales (es decir, de tamaño mayor que cero).
Definición 3: Uno puede asociarse con una matriz A un cierto grafo dirigido G A . Tiene n vértices etiquetados como 1, ..., n , y hay una arista desde el vértice i al vértice j precisamente cuando a ij ≠ 0. Entonces la matriz A es irreducible si y solo si su grafo asociado G A está fuertemente conectado .
Si F es el campo de números reales o complejos, también tenemos la siguiente condición.
Definición 4: La representación de grupo de sobre o sobre dada por no tiene subespacios de coordenadas invariantes no triviales. (En comparación, esto sería una representación irreductible si no hubiera subespacios invariantes no triviales en absoluto, no solo considerando los subespacios de coordenadas).
Una matriz es reducible si no es irreducible.
Una matriz real A es primitiva si no es negativa y su potencia m es positiva para algún número natural m (es decir, todas las entradas de A m son positivas).
Sea A real y no negativo. Fije un índice i y defina el período del índice i como el máximo común divisor de todos los números naturales m tal que ( A m ) ii > 0. Cuando A es irreducible, el período de cada índice es el mismo y se llama período de A . De hecho, cuando A es irreductible, el período se puede definir como el máximo común divisor de las longitudes de los caminos cerrados dirigidos en G A (ver Cocinas [15]página 16). El período también se denomina índice de imprimibilidad (Meyer [12] página 674) o el orden de ciclicidad. Si el período es 1, A es aperiódico . Se puede demostrar que las matrices primitivas son las mismas que las matrices irreducibles aperiódicas no negativas.
Todos los enunciados del teorema de Perron-Frobenius para matrices positivas siguen siendo verdaderos para matrices primitivas. Las mismas declaraciones también son válidas para una matriz irreducible no negativa, excepto que puede poseer varios valores propios cuyo valor absoluto es igual a su radio espectral, por lo que las declaraciones deben modificarse en consecuencia. De hecho, el número de esos valores propios es igual al período.
Los resultados de las matrices no negativas fueron obtenidos por primera vez por Frobenius en 1912.
Deje que A sea un irreducible no negativo n × n matriz con período h y espectral radio ρ ( A ) = r . Entonces las siguientes declaraciones son válidas.
El ejemplo muestra que las matrices cero (cuadradas) a lo largo de la diagonal pueden ser de diferentes tamaños, los bloques A j no necesitan ser cuadrados y h no necesita dividir n .
Sea A una matriz no negativa irreducible, entonces:
Una matriz A es primitiva siempre que no sea negativa y A m sea positiva para algunos m , y por lo tanto A k sea positiva para todo k ≥ m . Para verificar la primitividad, se necesita un límite de cuán grande puede ser el mínimo de tal m , dependiendo del tamaño de A : [23]
Se han escrito numerosos libros sobre el tema de las matrices no negativas, y la teoría de Perron-Frobenius es invariablemente una característica central. Los siguientes ejemplos que se dan a continuación solo muestran la superficie de su vasto dominio de aplicación.
El teorema de Perron-Frobenius no se aplica directamente a matrices no negativas. Sin embargo, cualquier matriz cuadrada reducible A puede escribirse en forma de bloque triangular superior (conocida como la forma normal de una matriz reducible ) [24]
donde P es una matriz de permutación y cada B i es una matriz cuadrada que es irreducible o cero. Ahora bien, si A no es negativo, también lo es cada bloque de PAP −1 , además, el espectro de A es solo la unión de los espectros de B i .
También se puede estudiar la invertibilidad de A. La inversa de PAP -1 (si existe) debe tener bloques diagonales de la forma B i -1 así que si cualquier B i no es invertible entonces tampoco es PAP -1 o A . Por el contrario, sea D la matriz diagonal de bloques correspondiente a PAP −1 , en otras palabras, PAP −1 con los asteriscos en cero. Si cada B i es invertible, entonces también lo es D y D −1 ( PAP −1) es igual a la identidad más una matriz nilpotente. Pero tal matriz es siempre invertible (si N k = 0 el inverso de 1 - N es 1 + N + N 2 + ... + N k −1 ) por lo que PAP −1 y A son ambos invertibles.
Por lo tanto, muchas de las propiedades espectrales de A pueden deducirse aplicando el teorema al irreducible B i . Por ejemplo, la raíz de Perron es el máximo de ρ ( B i ). Si bien todavía habrá vectores propios con componentes no negativos, es muy posible que ninguno de estos sea positivo.
Una matriz estocástica de filas (columnas) es una matriz cuadrada, cada una de cuyas filas (columnas) consta de números reales no negativos cuya suma es la unidad. El teorema no se puede aplicar directamente a tales matrices porque no es necesario que sean irreductibles.
Si A es estocástico por filas, entonces el vector de columna con cada entrada 1 es un vector propio correspondiente al valor propio 1, que también es ρ ( A ) según la observación anterior. Puede que no sea el único valor propio en el círculo unitario: y el espacio propio asociado puede ser multidimensional. Si A es estocástico por filas e irreducible, entonces la proyección de Perron también es estocástica por filas y todas sus filas son iguales.
El teorema tiene un uso particular en la teoría de grafos algebraicos . La "gráfica subyacente" de una matriz n- cuadrada no negativa es la gráfica con vértices numerados 1, ..., ny arc ij si y solo si A ij ≠ 0. Si la gráfica subyacente de dicha matriz está fuertemente conectada, entonces la matriz es irreducible y, por tanto, se aplica el teorema. En particular, la matriz de adyacencia de un gráfico fuertemente conectado es irreducible. [25] [26]
El teorema tiene una interpretación natural en la teoría de cadenas de Markov finitas (donde es el equivalente teórico de matrices de la convergencia de una cadena de Markov finita irreductible a su distribución estacionaria, formulada en términos de la matriz de transición de la cadena; ver, para ejemplo, el artículo sobre el subdesplazamiento de tipo finito ).
De manera más general, puede extenderse al caso de operadores compactos no negativos , que, en muchos sentidos, se parecen a matrices de dimensión finita. Estos se estudian comúnmente en física, bajo el nombre de operadores de transferencia , o en ocasiones operadores de Ruelle-Perron-Frobenius (después de David Ruelle ). En este caso, el valor propio principal corresponde al equilibrio termodinámico de un sistema dinámico , y los valores propios menores a los modos de desintegración de un sistema que no está en equilibrio. Así, la teoría ofrece una manera de descubrir la flecha del tiempo en lo que de otro modo parecerían ser procesos dinámicos deterministas y reversibles, cuando se examinan desde el punto de vista detopología de conjunto de puntos . [27]
Un hilo común en muchas demostraciones es el teorema del punto fijo de Brouwer . Otro método popular es el de Wielandt (1950). Usó la fórmula de Collatz- Wielandt descrita anteriormente para ampliar y aclarar el trabajo de Frobenius. [28] Otra prueba se basa en la teoría espectral [29] de la que se toman prestados parte de los argumentos.
Si A es una matriz positiva (o más generalmente primitiva), entonces existe un valor propio positivo real r ( valor propio de Perron-Frobenius o raíz de Perron), que es estrictamente mayor en valor absoluto que todos los demás valores propios, por lo que r es el radio espectral de Una .
Esta declaración no se mantiene para matrices irreducibles no negativos generales, que tienen h valores propios con el mismo valor propio absoluta como r , donde h es el período de A .
Sea A una matriz positiva, suponga que su radio espectral ρ ( A ) = 1 (de lo contrario, considere A / ρ (A) ). Por lo tanto, existe un valor propio λ en el círculo unitario, y todos los demás valores propios son menores o iguales a 1 en valor absoluto. Suponga que otro valor propio λ ≠ 1 también cae en el círculo unitario. Entonces existe un entero positivo m tal que A m es una matriz positiva y la parte real de λ m es negativa. Sea ε la mitad de la entrada diagonal más pequeña de A my establezca T = A m - εI, que es otra matriz positiva. Además, si Ax= Λx entonces A m x = λ m x así λ m - ε es un valor propio de T . Debido a la elección de m, este punto se encuentra fuera del disco unitario, por lo tanto, ρ ( T )> 1. Por otro lado, todas las entradas en T son positivas y menores o iguales a las de A m, por lo que según la fórmula de Gelfand ρ ( T ) ≤ ρ ( A m ) ≤ ρ ( A ) m = 1. Esta contradicción significa que λ = 1 y no puede haber otros valores propios en el círculo unitario.
Absolutamente los mismos argumentos se pueden aplicar al caso de matrices primitivas; solo necesitamos mencionar el siguiente lema simple, que aclara las propiedades de las matrices primitivas.
Dado un no negativo A , asumen existe m , de manera que un m es positivo, entonces A m 1 , A m 2 , A m 3 , ... son todos positivos.
A m +1 = AA m , por lo que puede tener un elemento cero solo si alguna fila de A es completamente cero, pero en este caso la misma fila de A m será cero.
Aplicando los mismos argumentos anteriores para matrices primitivas, demuestre la afirmación principal.
Para un positivo (o más generalmente irreducible no negativo) de la matriz A la dominante vector propio es real y estrictamente positivo (para no negativo A respectivamente no negativo.)
Esto se puede establecer utilizando el método de la potencia , que establece que para una matriz A suficientemente genérica (en el sentido siguiente), la secuencia de vectores b k +1 = Ab k / | Ab k | converge al vector propio con el valor propio máximo . (El vector inicial b 0 se puede elegir arbitrariamente, excepto para algún conjunto de medidas de cero). Comenzar con un vector no negativo b 0 produce la secuencia de vectores no negativos b k. Por tanto, el vector limitante tampoco es negativo. Por el método de la potencia, este vector limitante es el autovector dominante para A , lo que demuestra la afirmación. El valor propio correspondiente no es negativo.
La prueba requiere dos argumentos adicionales. Primero, el método de potencia converge para matrices que no tienen varios valores propios del mismo valor absoluto que el máximo. El argumento de la sección anterior lo garantiza.
En segundo lugar, asegurar la positividad estricta de todos los componentes del vector propio para el caso de matrices irreducibles. Esto se deriva del siguiente hecho, que es de interés independiente:
Prueba. Una de las definiciones de irreductibilidad para matrices no negativas es que para todos los índices i, j existe m , de modo que ( A m ) ij es estrictamente positivo. Dado un vector propio no negativo v , y que al menos uno de sus componentes dice que j -th es estrictamente positivo, el valor propio correspondiente es estrictamente positivo, de hecho, dado n tal que ( A n ) ii > 0, por lo tanto: r n v i = A n v i ≥ ( A n ) ii vi > 0. Por tanto, r es estrictamente positivo. El vector propio es positividad estricta. Entonces dado m , tal que ( A m ) ij > 0, por lo tanto: r m v j = ( A m v ) j ≥ ( A m ) ij v i > 0, por lo tanto v j es estrictamente positivo, es decir, el vector propio es estrictamente positivo.
Esta sección prueba que el valor propio de Perron-Frobenius es una raíz simple del polinomio característico de la matriz. Por tanto, el espacio propio asociado al valor propio r de Perron-Frobenius es unidimensional. Los argumentos aquí son cercanos a los de Meyer. [12]
Dado un autovector v estrictamente positivo correspondiente a ry otro autovector w con el mismo autovalor. (Los vectores v y w puede ser elegido para ser real, porque A y r son reales, por lo que el espacio nulo de Ar tiene una base que consiste en vectores reales.) Suponiendo al menos uno de los componentes de w es positivo (de lo contrario se multiplican w por −1). Dado el máximo posible α tal que u = v- α w no es negativo, entonces uno de los componentes de u es cero, de lo contrario α no es máximo. Vectoru es un vector propio. No es negativo, por lo tanto, según el lema descrito en la sección anterior, la no negatividad implica una positividad estricta para cualquier vector propio. Por otro lado, como antes, al menos un componente de u es cero. La contradicción implica que w no existe.
Caso: No hay celdas de Jordan correspondientes al valor propio r de Perron-Frobenius y todos los demás valores propios que tienen el mismo valor absoluto.
Si hay una celda de Jordan, entonces la norma de infinito (A / r) k ∞ tiende a infinito para k → ∞ , pero eso contradice la existencia del autovector positivo.
Dado r = 1, o A / r . Sea v un vector propio estrictamente positivo de Perron-Frobenius, por lo que Av = v , entonces:
Entonces A k ∞ está acotado para todo k . Esto da otra prueba de que no hay valores propios que tengan un valor absoluto mayor que el de Perron-Frobenius. También contradice la existencia de la celda de Jordan para cualquier valor propio que tenga un valor absoluto igual a 1 (en particular para el de Perron-Frobenius), porque la existencia de la celda de Jordan implica que A k ∞ no tiene límites. Para una matriz de dos por dos:
por tanto, J k ∞ = | k + λ | (para | λ | = 1), por lo que tiende a infinito cuando k lo hace. Dado que J k = C −1 A k C , entonces A k ≥ J k / ( C −1 C ), por lo que también tiende a infinito. La contradicción resultante implica que no hay celdas de Jordan para los valores propios correspondientes.
La combinación de las dos afirmaciones anteriores revela que el valor propio r de Perron-Frobenius es la raíz simple del polinomio característico. En el caso de matrices no primitivas, existen otros valores propios que tienen el mismo valor absoluto que r . La misma afirmación es válida para ellos, pero requiere más trabajo.
Dada positivo (o más generalmente irreducible matriz no negativa) A , el Perron-Frobenius vector propio es la única (hasta multiplicación por constante) autovector no negativo para A .
Otros autovectores deben contener componentes negativos o complejos, ya que los autovectores para diferentes autovalores son ortogonales en algún sentido, pero dos autovectores positivos no pueden ser ortogonales, por lo que deben corresponder al mismo autovalor, pero el autoespacio para Perron-Frobenius es unidimensional.
Suponiendo que existe un par propio ( λ , y ) para A , tal que el vector y es positivo, y dado ( r , x ), donde x - es el vector propio de Perron-Frobenius izquierdo para A (es decir, vector propio de A T ), entonces rx T y = ( x T A ) y = x T ( Ay ) = λx T y , también x T y > 0, entonces uno tiene: r = λ. Dado que el espacio propio para el valor propio r de Perron-Frobenius es unidimensional, el vector propio no negativo y es un múltiplo del valor propio de Perron-Frobenius. [30]
Dado un positivo (o más generalmente irreducible matriz no negativa) A , se define la función f en el conjunto de todos los no-cero vectores no negativos x tal que f (x) es el valor mínimo de [ Ax ] i / x asumí todos aquellos i tales que x i ≠ 0. Entonces f es una función de valor real, cuyo máximo es el autovalor de Perron-Frobenius r .
Para la prueba denotamos el máximo de f por el valor R . La demostración requiere mostrar R = r . Inserción de la Perron-Frobenius vector propio v en f , obtenemos f (v) = r y concluimos r ≤ R . Para la desigualdad opuesta, consideramos un vector arbitrario no negativo x y sea ξ = f (x) . La definición de f da 0 ≤ ξx ≤ Ax (por componentes). Ahora, usamos el vector propio derecho positivo w para A para el valor propio r de Perron-Frobenius , entonces ξ w T x = wT ξx ≤ w T (Ax) = (w T A) x = rw T x . Por tanto, f (x) = ξ ≤ r , lo que implica R ≤ r . [31]
Sea A una matriz positiva (o más generalmente, primitiva) y sea r su valor propio de Perron-Frobenius.
Por tanto, P es una proyección espectral para el valor propio r de Perron-Frobenius , y se denomina proyección de Perron. La afirmación anterior no es cierta para las matrices irreductibles no negativas generales.
En realidad, las reivindicaciones anteriores (excepto la reivindicación 5) son válidas para cualquier matriz M tal que exista un valor propio r que sea estrictamente mayor que los otros valores propios en valor absoluto y sea la raíz simple del polinomio característico . (Estos requisitos son válidos para matrices primitivas como se indicó anteriormente).
Dado que M es diagonalizable, M se conjuga a una matriz diagonal con valores propios r 1 , ..., r n en la diagonal (denote r 1 = r ). La matriz M k / r k será conjugada (1, ( r 2 / r ) k , ..., ( r n / r ) k ), que tiende a (1,0,0, ..., 0) , para k → ∞ , entonces el límite existe. El mismo método funciona para M general (sin asumir que M es diagonalizable).
Las propiedades de proyección y conmutatividad son corolarios elementales de la definición: MM k / r k = M k / r k M ; P 2 = lim M 2 k / r 2 k = P . El tercer hecho también es elemental: M ( Pu ) = M lim M k / r k u = lim rM k +1 / r k +1 u, por lo que tomar el límite produce M ( Pu ) = r ( Pu ), por lo que la imagen de P se encuentra en el r -eigenspace para M , que es unidimensional según los supuestos.
Denotando por v , r -eigenvector para M (por w para M T ). Las columnas de P son múltiplos de v , porque la imagen de P está abarcada por ella. Respectivamente, filas de w . Entonces P toma una forma (avw T ) , para algunos a . Por tanto, su traza es igual a (aw T v) . El rastro del proyector es igual a la dimensión de su imagen. Se demostró antes que no es más que unidimensional. De la definición se ve que P actúa de manera idéntica en el r-eigenvector para M . Entonces es unidimensional. Así que la elección ( w T v ) = 1, implica P = vw t .
Para cualquier matriz A no negativa, su valor propio r de Perron-Frobenius satisface la desigualdad:
Esto no es específico de las matrices no negativas: para cualquier matriz A con un valor propio , es cierto que . Este es un corolario inmediato del teorema del círculo de Gershgorin . Sin embargo, otra prueba es más directa:
Cualquier matriz inducida norma satisface la desigualdad para cualquier valor propio , ya que, si es un vector propio correspondiente, . La norma de infinito de una matriz es el máximo de sumas de fila: por lo tanto, la desigualdad deseada se aplica exactamente a la matriz A no negativa .
Otra desigualdad es:
Este hecho es específico de las matrices no negativas; para matrices generales no hay nada similar. Dado que A es positivo (no solo no negativo), entonces existe un vector propio positivo w tal que Aw = rw y el componente más pequeño de w (digamos w i ) es 1. Entonces r = ( Aw ) i ≥ la suma de los números en la fila i de A . Por lo tanto, la suma mínima de filas da un límite inferior para r y esta observación se puede extender a todas las matrices no negativas por continuidad.
Otra forma de argumentarlo es a través de la fórmula Collatz- Wielandt. Se toma el vector x = (1, 1, ..., 1) e inmediatamente se obtiene la desigualdad.
La prueba ahora procede usando descomposición espectral . El truco aquí es dividir la raíz de Perron de los otros valores propios. La proyección espectral asociada con la raíz de Perron se llama proyección de Perron y disfruta de la siguiente propiedad:
La proyección de Perron de una matriz cuadrada no negativa irreducible es una matriz positiva.
Los hallazgos de Perron y también (1) - (5) del teorema son corolarios de este resultado. El punto clave es que una proyección positiva siempre tiene rango uno. Esto significa que si A es una matriz cuadrada no negativa irreducible, entonces las multiplicidades algebraicas y geométricas de su raíz de Perron son ambas una. Además, si P es su proyección de Perron, entonces AP = PA = ρ ( A ) P, por lo que cada columna de P es un vector propio derecho positivo de A y cada fila es un vector propio izquierdo positivo. Además, si Ax = λ x entonces PAx = λ Px = ρ ( A )Px lo que significa Px = 0 si λ ≠ ρ ( A ). Por tanto, los únicos vectores propios positivos son los asociados con ρ ( A ). Si A es una matriz primitiva con ρ ( A ) = 1, entonces se puede descomponer como P ⊕ (1 - P ) A de modo que A n = P + (1 - P ) A n . A medida que n aumenta, el segundo de estos términos decae a cero, dejando a P como el límite de A n cuando n → ∞.
El método de potencia es una forma conveniente de calcular la proyección de Perron de una matriz primitiva. Si v y w son los vectores positivos de fila y columna que genera, entonces la proyección de Perron es simplemente wv / vw . Las proyecciones espectrales no están perfectamente bloqueadas como en la forma de Jordan. Aquí están superpuestos y cada uno generalmente tiene entradas complejas que se extienden a las cuatro esquinas de la matriz cuadrada. Sin embargo, conservan su ortogonalidad mutua que es lo que facilita la descomposición.
El análisis cuando A es irreducible y no negativo es muy similar. La proyección de Perron sigue siendo positiva, pero ahora puede haber otros valores propios de módulo ρ ( A ) que niegan el uso del método de potencia y evitan que las potencias de (1 - P ) A decaigan como en el caso primitivo siempre que ρ ( A ) = 1 Así que consideramos la proyección periférica , que es la proyección espectral de A correspondiente a todos los autovalores que tienen módulo ρ ( A ). Entonces se puede demostrar que la proyección periférica de una matriz cuadrada no negativa irreducible es una matriz no negativa con una diagonal positiva.
Suponga además que ρ ( A ) = 1 y A tiene h valores propios en el círculo unitario. Si P es la proyección periférica, entonces la matriz R = AP = PA es no negativa e irreducible, R h = P , y el grupo cíclico P , R , R 2 , ...., R h −1 representa los armónicos de Una . La proyección espectral de A en el valor propio λ en el círculo unitario viene dada por la fórmula. Todas estas proyecciones (incluida la proyección de Perron) tienen la misma diagonal positiva; además, si se elige cualquiera de ellas y luego se toma el módulo de cada entrada, se obtiene invariablemente la proyección de Perron. Todavía se necesita algo de trabajo de burro para establecer las propiedades cíclicas (6) - (8), pero esencialmente es solo una cuestión de girar el mango. La descomposición espectral de A viene dada por A = R ⊕ (1 - P ) A por lo que la diferencia entre A n y R n es A n - R n = (1 - P ) A nrepresentando los transitorios de A n que eventualmente decaen a cero. P puede calcularse como el límite de A nh cuando n → ∞.
Las matrices L = , P = , T = , M = proporcionan ejemplos sencillos de lo que puede salir mal si no se cumplen las condiciones necesarias. Se ve fácilmente que las proyecciones de Perron y periféricas de L son ambas iguales a P , por lo tanto, cuando la matriz original es reducible, las proyecciones pueden perder la no negatividad y no hay posibilidad de expresarlas como límites de sus poderes. La matriz T es un ejemplo de una matriz primitiva con diagonal cero. Si la diagonal de una matriz cuadrada no negativa irreducible es distinta de cero, entonces la matriz debe ser primitiva, pero este ejemplo demuestra que la inversa es falsa. METROes un ejemplo de una matriz con varios dientes espectrales faltantes. Si ω = e iπ / 3 entonces ω 6 = 1 y los valores propios de M son {1, ω 2 , ω 3 , ω 4 } por lo que ω y ω 5 están ausentes. [ cita requerida ]
Un problema que genera confusión es la falta de estandarización en las definiciones. Por ejemplo, algunos autores utilizan los términos estrictamente positivo y positivo para significar> 0 y ≥ 0 respectivamente. En este artículo, positivo significa> 0 y no negativo significa ≥ 0. Otra área controvertida se refiere a la descomponibilidad y reducibilidad : irreductible es un término sobrecargado. Para evitar dudas, a veces se dice que una matriz cuadrada A distinta de cero no negativa tal que 1 + A es primitiva está conectada . Entonces, las matrices cuadradas no negativas irreducibles y las matrices conectadas son sinónimos. [32]
El vector propio no negativo a menudo se normaliza de modo que la suma de sus componentes sea igual a la unidad; en este caso, el vector propio es el vector de una distribución de probabilidad y en ocasiones se denomina vector propio estocástico .
El valor propio de Perron-Frobenius y el valor propio dominante son nombres alternativos para la raíz de Perron. Las proyecciones espectrales también se conocen como proyectores espectrales e idempotentes espectrales . En ocasiones, el período se denomina índice de imprimitividad o orden de ciclicidad .