Teorema de Perron-Frobenius


De Wikipedia, la enciclopedia libre
  (Redirigido desde el vector propio de Frobenius-Perron )
Saltar a navegación Saltar a búsqueda

En la teoría de matrices , el teorema de Perron-Frobenius , probado por Oskar Perron  ( 1907 ) y Georg Frobenius  ( 1912 ), afirma que una matriz cuadrada real con entradas positivas tiene un valor propio real único más grande y que se puede elegir que el vector propio correspondiente tenga estrictamente componentes positivos, y también afirma una declaración similar para ciertas clases de matrices no negativas . Este teorema tiene importantes aplicaciones a la teoría de la probabilidad ( ergodicidad de las cadenas de Markov ); a la teoría de sistemas dinámicos (subdesplazamientos de tipo finito ); a la economía ( teorema de Okishio , [1] condición de Hawkins-Simon [2] ); a la demografía ( modelo de distribución de edad de la población de Leslie ); [3] a las redes sociales ( proceso de aprendizaje DeGroot ); a los motores de búsqueda de Internet ( PageRank ); [4] e incluso al ranking de equipos de fútbol. [5] El primero en discutir el orden de los jugadores dentro de los torneos usando vectores propios de Perron-Frobenius es Edmund Landau . [6] [7]

Declaración

Deje que positivo y no negativo describan respectivamente matrices con números reales exclusivamente positivos como elementos y matrices con números reales exclusivamente no negativos como elementos. Los valores propios de una matriz cuadrada real A son números complejos que componen el espectro de la matriz. La tasa de crecimiento exponencial de la matriz potencia A k cuando k → ∞ está controlada por el valor propio de A con el mayor valor absoluto ( módulo). El teorema de Perron-Frobenius describe las propiedades del valor propio principal y de los vectores propios correspondientes cuando A es una matriz cuadrada real no negativa. Los primeros resultados se debieron a Oskar Perron  ( 1907 ) y se referían a matrices positivas. Posteriormente, Georg Frobenius  ( 1912 ) encontró su extensión a ciertas clases de matrices no negativas.

Matrices positivas

Sea una matriz positiva: para . Entonces las siguientes declaraciones son válidas.

  1. Hay un número real positivo r , llamado raíz de Perron o autovalor de Perron-Frobenius (también llamado autovalor principal o autovalor dominante ), tal que r es un autovalor de A y cualquier otro autovalor λ (posiblemente complejo ) en valor absoluto es estrictamente menor que r , | λ | < r . Por tanto, el radio espectral es igual a r . Si los coeficientes de la matriz son algebraicos, esto implica que el valor propio es un número de Perron .
  2. El Perron-Frobenius valor propio es simple: r es una raíz sencilla del polinomio característico de A . En consecuencia, el espacio propio asociado a r es unidimensional. (Lo mismo es cierto para el espacio propio izquierdo, es decir, el espacio propio para A T , la transposición de A ).
  3. Existe un vector propio v = ( v 1 , ..., v n ) T de A con valor propio r tal que todos los componentes de v son positivos: A v = rv , v i > 0 para 1 ≤ in . (Respectivamente, existe un vector propio izquierdo positivo w  : w T A = rw T , w i > 0.) Se conoce en la literatura bajo muchas variaciones como el vector Perron ,Vector propio de Perron , vector propio de Perron-Frobenius , vector propio principal o vector propio dominante .
  4. No hay otros autovectores positivos (además no negativos) excepto los múltiplos positivos de v (respectivamente, autovectores izquierdos excepto w ), es decir, todos los demás autovectores deben tener al menos un componente negativo o no real.
  5. , donde los vectores propios izquierdo y derecho para A están normalizados de modo que w T v = 1. Además, la matriz vw T es la proyección sobre el espacio propio correspondiente a  r . Esta proyección se llama proyección Perron .
  6. Fórmula de Collatz –Wielandt : para todos los vectores x no negativos no nulos, sea f ( x ) el valor mínimo de [ Ax ] i /  x i tomado sobre todos aquellos i tales que x i ≠ 0. Entonces f es un valor real función valorada cuyo máximo sobre todos los vectores x no negativos distintos de ceroes el valor propio de Perron-Frobenius.
  7. Una fórmula Collatz-Wielandt "Mín-máx." Adopta una forma similar a la anterior: para todos los vectores x estrictamente positivos , sea g ( x ) el valor máximo de [ Ax ] i /  x i tomado sobre i . Entonces g es una función de valor real cuyo mínimo sobre todos los vectores estrictamente positivos x es el autovalor de Perron-Frobenius.
  8. Birkhoff - Varga fórmula : Let x y y ser vectores estrictamente positivos. Entonces [8]
  9. Donsker - Varadhan - Friedland fórmula : Let p sea un vector de probabilidad y x un vector estrictamente positivo. Entonces [9] [10]
  10. Fórmula de Fiedler : [11]
  11. El valor propio de Perron-Frobenius satisface las desigualdades

Todas estas propiedades se extienden más allá de las matrices estrictamente positivas a las matrices primitivas (ver más abajo). Los hechos 1-7 se pueden encontrar en Meyer [12] capítulo 8 afirmaciones 8.2.11-15 página 667 y ejercicios 8.2.5,7,9 páginas 668-669.

Los vectores propios izquierdo y derecho w y v a veces se normalizaron de manera que la suma de sus componentes es igual a 1; en este caso, a veces se denominan autovectores estocásticos . A menudo se normalizan de modo que el vector propio derecho v suma uno, mientras que .

Matrices no negativas

Existe una extensión para matrices con entradas no negativas. Dado que cualquier matriz no negativa puede obtenerse como límite de matrices positivas, se obtiene la existencia de un vector propio con componentes no negativos; el valor propio correspondiente será no negativo y mayor o igual , en valor absoluto, a todos los demás valores propios. [13] [14] Sin embargo, para el ejemplo , el valor propio máximo r = 1 tiene el mismo valor absoluto que el otro valor propio −1; mientras que para , el valor propio máximo es r = 0, que no es una raíz simple del polinomio característico, y el vector propio correspondiente (1, 0) no es estrictamente positivo.

Sin embargo, Frobenius encontró una subclase especial de matrices no negativas, matrices irreducibles , para las que es posible una generalización no trivial. Para una matriz de este tipo, aunque los valores propios que alcanzan el valor absoluto máximo pueden no ser únicos, su estructura está bajo control: tienen la forma , donde r es un valor propio real estrictamente positivo, y se extiende por encima de las raíces h- ésimas complejas de 1 para algunos entero positivo h llamado período de la matriz. El vector propio correspondiente a rtiene componentes estrictamente positivos (en contraste con el caso general de matrices no negativas, donde los componentes son solo no negativos). Además, todos estos valores propios son raíces simples del polinomio característico. A continuación se describen otras propiedades.

Clasificación de matrices

Deje que A sea un n  ×  n matriz cuadrada sobre campo F . La matriz A es irreducible si se cumple alguna de las siguientes propiedades equivalentes.

Definición 1: A no tiene subespacios de coordenadas invariantes no triviales . Aquí, un subespacio de coordenadas no trivial significa un subespacio lineal atravesado por cualquier subconjunto adecuado de vectores de base estándar de F n . Más explícitamente, para cualquier subespacio lineal generado por vectores de base estándar e i 1 , ..., e i k , 0 < k  <  n, su imagen bajo la acción de A no está contenida en el mismo subespacio.

Definición 2: A no se puede conjugar en forma triangular superior de bloque mediante una matriz de permutación P :

donde E y G son matrices cuadradas no triviales (es decir, de tamaño mayor que cero).

Definición 3: Uno puede asociarse con una matriz A un cierto grafo dirigido G A . Tiene n vértices etiquetados como 1, ..., n , y hay una arista desde el vértice i al vértice j precisamente cuando a ij ≠ 0. Entonces la matriz A es irreducible si y solo si su grafo asociado G A está fuertemente conectado .

Si F es el campo de números reales o complejos, también tenemos la siguiente condición.

Definición 4: La representación de grupo de sobre o sobre dada por no tiene subespacios de coordenadas invariantes no triviales. (En comparación, esto sería una representación irreductible si no hubiera subespacios invariantes no triviales en absoluto, no solo considerando los subespacios de coordenadas).

Una matriz es reducible si no es irreducible.

Una matriz real A es primitiva si no es negativa y su potencia m es positiva para algún número natural m (es decir, todas las entradas de A m son positivas).

Sea A real y no negativo. Fije un índice i y defina el período del índice i como el máximo común divisor de todos los números naturales m tal que ( A m ) ii > 0. Cuando A es irreducible, el período de cada índice es el mismo y se llama período de A . De hecho, cuando A es irreductible, el período se puede definir como el máximo común divisor de las longitudes de los caminos cerrados dirigidos en G A (ver Cocinas [15]página 16). El período también se denomina índice de imprimibilidad (Meyer [12] página 674) o el orden de ciclicidad. Si el período es 1, A es aperiódico . Se puede demostrar que las matrices primitivas son las mismas que las matrices irreducibles aperiódicas no negativas.

Todos los enunciados del teorema de Perron-Frobenius para matrices positivas siguen siendo verdaderos para matrices primitivas. Las mismas declaraciones también son válidas para una matriz irreducible no negativa, excepto que puede poseer varios valores propios cuyo valor absoluto es igual a su radio espectral, por lo que las declaraciones deben modificarse en consecuencia. De hecho, el número de esos valores propios es igual al período.

Los resultados de las matrices no negativas fueron obtenidos por primera vez por Frobenius en 1912.

Teorema de Perron-Frobenius para matrices no negativas irreducibles

Deje que A sea un irreducible no negativo n  ×  n matriz con período h y espectral radio ρ ( A ) =  r . Entonces las siguientes declaraciones son válidas.

  1. El número r es un número real positivo y es un valor propio de la matriz A , llamado valor propio de Perron-Frobenius .
  2. El valor propio r de Perron-Frobenius es simple. Los espacios propios derecho e izquierdo asociados con r son unidimensionales.
  3. A tiene un vector propio derecho v con un valor propio r cuyas componentes son todas positivas.
  4. Asimismo, A tiene un vector propio izquierdo w con un valor propio r cuyos componentes son todos positivos.
  5. Los únicos vectores propios cuyos componentes son todos positivos son los asociados con el valor propio r .
  6. La matriz A tiene exactamente h (donde h es el período ) valores propios complejos con valor absoluto r . Cada uno de ellos es una raíz simple del polinomio característico y es el producto de r con una h- ésima raíz de la unidad .
  7. Sea ω = 2π / h . Entonces la matriz A es similar a e A , consecuentemente el espectro de A es invariante bajo la multiplicación por e (correspondiente a la rotación del plano complejo por el ángulo ω ).
  8. Si h > 1 entonces existe una matriz de permutación P tal que
donde O denota una matriz cero y los bloques a lo largo de la diagonal principal son matrices cuadradas.
9. Fórmula de Collatz –Wielandt : para todos los vectores no negativos no nulos x sea f ( x ) el valor mínimo de [ Ax ] i /  x i tomado sobre todos aquellos i tales que x i ≠ 0. Entonces f es un función de valor real cuyo máximo es el valor propio de Perron-Frobenius.
10. El valor propio de Perron-Frobenius satisface las desigualdades

El ejemplo muestra que las matrices cero (cuadradas) a lo largo de la diagonal pueden ser de diferentes tamaños, los bloques A j no necesitan ser cuadrados y h no necesita dividir  n .

Otras propiedades

Sea A una matriz no negativa irreducible, entonces:

  1. (I + A ) n −1 es una matriz positiva. (Meyer [12] reclamación 8.3.5 p. 672 ). Para un no negativo A , esto también es una condición suficiente. (Minc, [16] Corolario 2.2, p.6).
  2. Teorema de Wielandt. [ aclaración necesaria ] Si | B | < A , entonces ρ ( B ) ≤ ρ ( A ). Si se cumple la igualdad (es decir, si μ = ρ (A) e es el valor propio de B ), entonces B = e D AD −1 para alguna matriz unitaria diagonal D (es decir, los elementos diagonales de D son iguales a e l , no diagonales son cero). [17]
  3. Si alguna potencia A q es reducible, entonces es completamente reducible, es decir, para alguna matriz de permutación P , es cierto que:, donde A i son matrices irreducibles que tienen el mismo valor propio máximo. El número de estas matrices d es el máximo común divisor de q y h , donde h es el período de A . [18]
  4. Si c ( x ) = x n + c k 1 x n-k 1 + c k 2 x n-k 2 + ... + c k s x n-k s es el polinomio característico de A en el que solo se enumeran los términos distintos de cero, entonces el período de A es igual al máximo común divisor de k 1 , k 2 , ..., k s . [19]
  5. Medias de Cesàro : donde los autovectores izquierdo y derecho para A están normalizados de manera que w T v = 1. Además, la matriz vw T es la proyección espectral correspondiente a r , la proyección de Perron. [20]
  6. Sea r el valor propio de Perron-Frobenius, entonces la matriz adjunta para ( r - A ) es positiva. [21]
  7. Si A tiene al menos un elemento diagonal distinto de cero, entonces A es primitivo. [22]
  8. Si 0 ≤ A < B , entonces r Ar B. Por otra parte, si B es irreducible, entonces la desigualdad es estricta: r A <r B .

Una matriz A es primitiva siempre que no sea negativa y A m sea ​​positiva para algunos m , y por lo tanto A k sea ​​positiva para todo k ≥ m . Para verificar la primitividad, se necesita un límite de cuán grande puede ser el mínimo de tal m , dependiendo del tamaño de A : [23]

  • Si A es una matriz primitiva no negativa de tamaño n , entonces A n 2  - 2 n  + 2 es positiva. Además, este es el mejor resultado posible, ya que para la matriz M siguiente, la potencia M k no es positiva para todo k < n 2  - 2 n  + 2, ya que ( M n 2  - 2 n +1 ) 11 = 0.

Aplicaciones

Se han escrito numerosos libros sobre el tema de las matrices no negativas, y la teoría de Perron-Frobenius es invariablemente una característica central. Los siguientes ejemplos que se dan a continuación solo muestran la superficie de su vasto dominio de aplicación.

Matrices no negativas

El teorema de Perron-Frobenius no se aplica directamente a matrices no negativas. Sin embargo, cualquier matriz cuadrada reducible A puede escribirse en forma de bloque triangular superior (conocida como la forma normal de una matriz reducible ) [24]

PAP −1 =

donde P es una matriz de permutación y cada B i es una matriz cuadrada que es irreducible o cero. Ahora bien, si A no es negativo, también lo es cada bloque de PAP −1 , además, el espectro de A es solo la unión de los espectros de B i .

También se puede estudiar la invertibilidad de A. La inversa de PAP -1 (si existe) debe tener bloques diagonales de la forma B i -1 así que si cualquier B i no es invertible entonces tampoco es PAP -1 o A . Por el contrario, sea D la matriz diagonal de bloques correspondiente a PAP −1 , en otras palabras, PAP −1 con los asteriscos en cero. Si cada B i es invertible, entonces también lo es D y D −1 ( PAP −1) es igual a la identidad más una matriz nilpotente. Pero tal matriz es siempre invertible (si N k = 0 el inverso de 1 - N es 1 + N + N 2 + ... + N k −1 ) por lo que PAP −1 y A son ambos invertibles.

Por lo tanto, muchas de las propiedades espectrales de A pueden deducirse aplicando el teorema al irreducible B i . Por ejemplo, la raíz de Perron es el máximo de ρ ( B i ). Si bien todavía habrá vectores propios con componentes no negativos, es muy posible que ninguno de estos sea positivo.

Matrices estocásticas

Una matriz estocástica de filas (columnas) es una matriz cuadrada, cada una de cuyas filas (columnas) consta de números reales no negativos cuya suma es la unidad. El teorema no se puede aplicar directamente a tales matrices porque no es necesario que sean irreductibles.

Si A es estocástico por filas, entonces el vector de columna con cada entrada 1 es un vector propio correspondiente al valor propio 1, que también es ρ ( A ) según la observación anterior. Puede que no sea el único valor propio en el círculo unitario: y el espacio propio asociado puede ser multidimensional. Si A es estocástico por filas e irreducible, entonces la proyección de Perron también es estocástica por filas y todas sus filas son iguales.

Teoría de grafos algebraicos

El teorema tiene un uso particular en la teoría de grafos algebraicos . La "gráfica subyacente" de una matriz n- cuadrada no negativa es la gráfica con vértices numerados 1, ..., ny arc ij si y solo si A ij ≠ 0. Si la gráfica subyacente de dicha matriz está fuertemente conectada, entonces la matriz es irreducible y, por tanto, se aplica el teorema. En particular, la matriz de adyacencia de un gráfico fuertemente conectado es irreducible. [25] [26]

Cadenas finitas de Markov

El teorema tiene una interpretación natural en la teoría de cadenas de Markov finitas (donde es el equivalente teórico de matrices de la convergencia de una cadena de Markov finita irreductible a su distribución estacionaria, formulada en términos de la matriz de transición de la cadena; ver, para ejemplo, el artículo sobre el subdesplazamiento de tipo finito ).

Operadores compactos

De manera más general, puede extenderse al caso de operadores compactos no negativos , que, en muchos sentidos, se parecen a matrices de dimensión finita. Estos se estudian comúnmente en física, bajo el nombre de operadores de transferencia , o en ocasiones operadores de Ruelle-Perron-Frobenius (después de David Ruelle ). En este caso, el valor propio principal corresponde al equilibrio termodinámico de un sistema dinámico , y los valores propios menores a los modos de desintegración de un sistema que no está en equilibrio. Así, la teoría ofrece una manera de descubrir la flecha del tiempo en lo que de otro modo parecerían ser procesos dinámicos deterministas y reversibles, cuando se examinan desde el punto de vista detopología de conjunto de puntos . [27]

Métodos de prueba

Un hilo común en muchas demostraciones es el teorema del punto fijo de Brouwer . Otro método popular es el de Wielandt (1950). Usó la fórmula de Collatz- Wielandt descrita anteriormente para ampliar y aclarar el trabajo de Frobenius. [28] Otra prueba se basa en la teoría espectral [29] de la que se toman prestados parte de los argumentos.

La raíz de Perron es un valor propio estrictamente máximo para matrices positivas (y primitivas)

Si A es una matriz positiva (o más generalmente primitiva), entonces existe un valor propio positivo real r ( valor propio de Perron-Frobenius o raíz de Perron), que es estrictamente mayor en valor absoluto que todos los demás valores propios, por lo que r es el radio espectral de Una .

Esta declaración no se mantiene para matrices irreducibles no negativos generales, que tienen h valores propios con el mismo valor propio absoluta como r , donde h es el período de A .

Prueba de matrices positivas

Sea A una matriz positiva, suponga que su radio espectral ρ ( A ) = 1 (de lo contrario, considere A / ρ (A) ). Por lo tanto, existe un valor propio λ en el círculo unitario, y todos los demás valores propios son menores o iguales a 1 en valor absoluto. Suponga que otro valor propio λ ≠ 1 también cae en el círculo unitario. Entonces existe un entero positivo m tal que A m es una matriz positiva y la parte real de λ m es negativa. Sea ε la mitad de la entrada diagonal más pequeña de A my establezca T = A m  -  εI, que es otra matriz positiva. Además, si Ax= Λx entonces A m x = λ m x así λ m  -  ε es un valor propio de T . Debido a la elección de m, este punto se encuentra fuera del disco unitario, por lo tanto, ρ ( T )> 1. Por otro lado, todas las entradas en T son positivas y menores o iguales a las de A m, por lo que según la fórmula de Gelfand ρ ( T ) ≤ ρ ( A m ) ≤ ρ ( A ) m = 1. Esta contradicción significa que λ = 1 y no puede haber otros valores propios en el círculo unitario.

Absolutamente los mismos argumentos se pueden aplicar al caso de matrices primitivas; solo necesitamos mencionar el siguiente lema simple, que aclara las propiedades de las matrices primitivas.

Lema

Dado un no negativo A , asumen existe m , de manera que un m es positivo, entonces A m 1 , A m 2 , A m 3 , ... son todos positivos.

A m +1 = AA m , por lo que puede tener un elemento cero solo si alguna fila de A es completamente cero, pero en este caso la misma fila de A m será cero.

Aplicando los mismos argumentos anteriores para matrices primitivas, demuestre la afirmación principal.

Método de potencia y el par propio positivo

Para un positivo (o más generalmente irreducible no negativo) de la matriz A la dominante vector propio es real y estrictamente positivo (para no negativo A respectivamente no negativo.)

Esto se puede establecer utilizando el método de la potencia , que establece que para una matriz A suficientemente genérica (en el sentido siguiente), la secuencia de vectores b k +1 = Ab k / | Ab k | converge al vector propio con el valor propio máximo . (El vector inicial b 0 se puede elegir arbitrariamente, excepto para algún conjunto de medidas de cero). Comenzar con un vector no negativo b 0 produce la secuencia de vectores no negativos b k. Por tanto, el vector limitante tampoco es negativo. Por el método de la potencia, este vector limitante es el autovector dominante para A , lo que demuestra la afirmación. El valor propio correspondiente no es negativo.

La prueba requiere dos argumentos adicionales. Primero, el método de potencia converge para matrices que no tienen varios valores propios del mismo valor absoluto que el máximo. El argumento de la sección anterior lo garantiza.

En segundo lugar, asegurar la positividad estricta de todos los componentes del vector propio para el caso de matrices irreducibles. Esto se deriva del siguiente hecho, que es de interés independiente:

Lema: dado un positivo (o más generalmente irreducible no negativo) de la matriz A y v como cualquier vector propio no negativo para A , entonces es necesariamente estrictamente positivo y el correspondiente valor propio también es estrictamente positivo.

Prueba. Una de las definiciones de irreductibilidad para matrices no negativas es que para todos los índices i, j existe m , de modo que ( A m ) ij es estrictamente positivo. Dado un vector propio no negativo v , y que al menos uno de sus componentes dice que j -th es estrictamente positivo, el valor propio correspondiente es estrictamente positivo, de hecho, dado n tal que ( A n ) ii > 0, por lo tanto: r n v i = A n v i ≥ ( A n ) ii vi > 0. Por tanto, r es estrictamente positivo. El vector propio es positividad estricta. Entonces dado m , tal que ( A m ) ij > 0, por lo tanto: r m v j = ( A m v ) j ≥ ( A m ) ij v i > 0, por lo tanto v j es estrictamente positivo, es decir, el vector propio es estrictamente positivo.

Multiplicidad uno

Esta sección prueba que el valor propio de Perron-Frobenius es una raíz simple del polinomio característico de la matriz. Por tanto, el espacio propio asociado al valor propio r de Perron-Frobenius es unidimensional. Los argumentos aquí son cercanos a los de Meyer. [12]

Dado un autovector v estrictamente positivo correspondiente a ry otro autovector w con el mismo autovalor. (Los vectores v y w puede ser elegido para ser real, porque A y r son reales, por lo que el espacio nulo de Ar tiene una base que consiste en vectores reales.) Suponiendo al menos uno de los componentes de w es positivo (de lo contrario se multiplican w por −1). Dado el máximo posible α tal que u = v- α w no es negativo, entonces uno de los componentes de u es cero, de lo contrario α no es máximo. Vectoru es un vector propio. No es negativo, por lo tanto, según el lema descrito en la sección anterior, la no negatividad implica una positividad estricta para cualquier vector propio. Por otro lado, como antes, al menos un componente de u es cero. La contradicción implica que w no existe.

Caso: No hay celdas de Jordan correspondientes al valor propio r de Perron-Frobenius y todos los demás valores propios que tienen el mismo valor absoluto.

Si hay una celda de Jordan, entonces la norma de infinito (A / r) k tiende a infinito para k → ∞ , pero eso contradice la existencia del autovector positivo.

Dado r = 1, o A / r . Sea v un vector propio estrictamente positivo de Perron-Frobenius, por lo que Av = v , entonces:

Entonces A k está acotado para todo k . Esto da otra prueba de que no hay valores propios que tengan un valor absoluto mayor que el de Perron-Frobenius. También contradice la existencia de la celda de Jordan para cualquier valor propio que tenga un valor absoluto igual a 1 (en particular para el de Perron-Frobenius), porque la existencia de la celda de Jordan implica que A k no tiene límites. Para una matriz de dos por dos:

por tanto, J k = | k + λ | (para | λ | = 1), por lo que tiende a infinito cuando k lo hace. Dado que J k = C −1 A k C , entonces A kJ k / ( C −1 C ), por lo que también tiende a infinito. La contradicción resultante implica que no hay celdas de Jordan para los valores propios correspondientes.

La combinación de las dos afirmaciones anteriores revela que el valor propio r de Perron-Frobenius es la raíz simple del polinomio característico. En el caso de matrices no primitivas, existen otros valores propios que tienen el mismo valor absoluto que r . La misma afirmación es válida para ellos, pero requiere más trabajo.

Ningún otro vector propio no negativo

Dada positivo (o más generalmente irreducible matriz no negativa) A , el Perron-Frobenius vector propio es la única (hasta multiplicación por constante) autovector no negativo para A .

Otros autovectores deben contener componentes negativos o complejos, ya que los autovectores para diferentes autovalores son ortogonales en algún sentido, pero dos autovectores positivos no pueden ser ortogonales, por lo que deben corresponder al mismo autovalor, pero el autoespacio para Perron-Frobenius es unidimensional.

Suponiendo que existe un par propio ( λ , y ) para A , tal que el vector y es positivo, y dado ( r , x ), donde x - es el vector propio de Perron-Frobenius izquierdo para A (es decir, vector propio de A T ), entonces rx T y = ( x T A ) y = x T ( Ay ) = λx T y , también x T y > 0, entonces uno tiene: r = λ. Dado que el espacio propio para el valor propio r de Perron-Frobenius es unidimensional, el vector propio no negativo y es un múltiplo del valor propio de Perron-Frobenius. [30]

Fórmula de Collatz-Wielandt

Dado un positivo (o más generalmente irreducible matriz no negativa) A , se define la función f en el conjunto de todos los no-cero vectores no negativos x tal que f (x) es el valor mínimo de [ Ax ] i /  x asumí todos aquellos i tales que x i ≠ 0. Entonces f es una función de valor real, cuyo máximo es el autovalor de Perron-Frobenius r .

Para la prueba denotamos el máximo de f por el valor R . La demostración requiere mostrar R = r . Inserción de la Perron-Frobenius vector propio v en f , obtenemos f (v) = r y concluimos r ≤ R . Para la desigualdad opuesta, consideramos un vector arbitrario no negativo x y sea ξ = f (x) . La definición de f da 0 ≤ ξx ≤ Ax (por componentes). Ahora, usamos el vector propio derecho positivo w para A para el valor propio r de Perron-Frobenius , entonces ξ w T x = wT ξx ≤ w T (Ax) = (w T A) x = rw T x . Por tanto, f (x) = ξ ≤ r , lo que implica R ≤ r . [31]

Proyección escalonada como límite: A k / r k

Sea A una matriz positiva (o más generalmente, primitiva) y sea r su valor propio de Perron-Frobenius.

  1. Existe un límite A k / r k para k → ∞ , denotamos por P .
  2. P es un operador de proyección : P 2 = P , que conmuta con A : AP = PA .
  3. La imagen de P es unidimensional y está dividida por el vector propio de Perron-Frobenius v (respectivamente para P T; por el vector propio de Perron-Frobenius w para A T ).
  4. P = vw T , donde v, w están normalizados de manera que w T v = 1.
  5. Por tanto, P es un operador positivo.

Por tanto, P es una proyección espectral para el valor propio r de Perron-Frobenius , y se denomina proyección de Perron. La afirmación anterior no es cierta para las matrices irreductibles no negativas generales.

En realidad, las reivindicaciones anteriores (excepto la reivindicación 5) son válidas para cualquier matriz M tal que exista un valor propio r que sea estrictamente mayor que los otros valores propios en valor absoluto y sea la raíz simple del polinomio característico . (Estos requisitos son válidos para matrices primitivas como se indicó anteriormente).

Dado que M es diagonalizable, M se conjuga a una matriz diagonal con valores propios r 1 , ..., r n en la diagonal (denote r 1 = r ). La matriz M k / r k será conjugada (1, ( r 2 / r ) k , ..., ( r n / r ) k ), que tiende a (1,0,0, ..., 0) , para k → ∞ , entonces el límite existe. El mismo método funciona para M general (sin asumir que M es diagonalizable).

Las propiedades de proyección y conmutatividad son corolarios elementales de la definición: MM k / r k = M k / r k M  ; P 2 = lim M 2 k / r 2 k = P . El tercer hecho también es elemental: M ( Pu ) = M lim M k / r k u = lim rM k +1 / r k +1 u, por lo que tomar el límite produce M ( Pu ) = r ( Pu ), por lo que la imagen de P se encuentra en el r -eigenspace para M , que es unidimensional según los supuestos.

Denotando por v , r -eigenvector para M (por w para M T ). Las columnas de P son múltiplos de v , porque la imagen de P está abarcada por ella. Respectivamente, filas de w . Entonces P toma una forma (avw T ) , para algunos a . Por tanto, su traza es igual a (aw T v) . El rastro del proyector es igual a la dimensión de su imagen. Se demostró antes que no es más que unidimensional. De la definición se ve que P actúa de manera idéntica en el r-eigenvector para M . Entonces es unidimensional. Así que la elección ( w T v ) = 1, implica P = vw t .

Desigualdades para el valor propio de Perron-Frobenius

Para cualquier matriz A no negativa, su valor propio r de Perron-Frobenius satisface la desigualdad:

Esto no es específico de las matrices no negativas: para cualquier matriz A con un valor propio , es cierto que . Este es un corolario inmediato del teorema del círculo de Gershgorin . Sin embargo, otra prueba es más directa:

Cualquier matriz inducida norma satisface la desigualdad para cualquier valor propio , ya que, si es un vector propio correspondiente, . La norma de infinito de una matriz es el máximo de sumas de fila: por lo tanto, la desigualdad deseada se aplica exactamente a la matriz A no negativa .

Otra desigualdad es:

Este hecho es específico de las matrices no negativas; para matrices generales no hay nada similar. Dado que A es positivo (no solo no negativo), entonces existe un vector propio positivo w tal que Aw = rw y el componente más pequeño de w (digamos w i ) es 1. Entonces r = ( Aw ) i ≥ la suma de los números en la fila i de A . Por lo tanto, la suma mínima de filas da un límite inferior para r y esta observación se puede extender a todas las matrices no negativas por continuidad.

Otra forma de argumentarlo es a través de la fórmula Collatz- Wielandt. Se toma el vector x  = (1, 1, ..., 1) e inmediatamente se obtiene la desigualdad.

Más pruebas

Proyección escalinata

La prueba ahora procede usando descomposición espectral . El truco aquí es dividir la raíz de Perron de los otros valores propios. La proyección espectral asociada con la raíz de Perron se llama proyección de Perron y disfruta de la siguiente propiedad:

La proyección de Perron de una matriz cuadrada no negativa irreducible es una matriz positiva.

Los hallazgos de Perron y también (1) - (5) del teorema son corolarios de este resultado. El punto clave es que una proyección positiva siempre tiene rango uno. Esto significa que si A es una matriz cuadrada no negativa irreducible, entonces las multiplicidades algebraicas y geométricas de su raíz de Perron son ambas una. Además, si P es su proyección de Perron, entonces AP = PA = ρ ( A ) P, por lo que cada columna de P es un vector propio derecho positivo de A y cada fila es un vector propio izquierdo positivo. Además, si Ax = λ x entonces PAx = λ Px = ρ ( A )Px lo que significa Px = 0 si λ ≠ ρ ( A ). Por tanto, los únicos vectores propios positivos son los asociados con ρ ( A ). Si A es una matriz primitiva con ρ ( A ) = 1, entonces se puede descomponer como P ⊕ (1 -  P ) A de modo que A n = P + (1 -  P ) A n . A medida que n aumenta, el segundo de estos términos decae a cero, dejando a P como el límite de A n cuando n  → ∞.

El método de potencia es una forma conveniente de calcular la proyección de Perron de una matriz primitiva. Si v y w son los vectores positivos de fila y columna que genera, entonces la proyección de Perron es simplemente wv / vw . Las proyecciones espectrales no están perfectamente bloqueadas como en la forma de Jordan. Aquí están superpuestos y cada uno generalmente tiene entradas complejas que se extienden a las cuatro esquinas de la matriz cuadrada. Sin embargo, conservan su ortogonalidad mutua que es lo que facilita la descomposición.

Proyección periférica

El análisis cuando A es irreducible y no negativo es muy similar. La proyección de Perron sigue siendo positiva, pero ahora puede haber otros valores propios de módulo ρ ( A ) que niegan el uso del método de potencia y evitan que las potencias de (1 -  P ) A decaigan como en el caso primitivo siempre que ρ ( A ) = 1 Así que consideramos la proyección periférica , que es la proyección espectral de A correspondiente a todos los autovalores que tienen módulo ρ ( A ). Entonces se puede demostrar que la proyección periférica de una matriz cuadrada no negativa irreducible es una matriz no negativa con una diagonal positiva.

Ciclicidad

Suponga además que ρ ( A ) = 1 y A tiene h valores propios en el círculo unitario. Si P es la proyección periférica, entonces la matriz R = AP = PA es no negativa e irreducible, R h = P , y el grupo cíclico P , R , R 2 , ...., R h −1 representa los armónicos de Una . La proyección espectral de A en el valor propio λ en el círculo unitario viene dada por la fórmula. Todas estas proyecciones (incluida la proyección de Perron) tienen la misma diagonal positiva; además, si se elige cualquiera de ellas y luego se toma el módulo de cada entrada, se obtiene invariablemente la proyección de Perron. Todavía se necesita algo de trabajo de burro para establecer las propiedades cíclicas (6) - (8), pero esencialmente es solo una cuestión de girar el mango. La descomposición espectral de A viene dada por A  =  R  ⊕ (1 -  P ) A por lo que la diferencia entre A n y R n es A n  -  R n = (1 -  P ) A nrepresentando los transitorios de A n que eventualmente decaen a cero. P puede calcularse como el límite de A nh cuando n  → ∞.

Contraejemplos

Las matrices L = , P = , T = , M = proporcionan ejemplos sencillos de lo que puede salir mal si no se cumplen las condiciones necesarias. Se ve fácilmente que las proyecciones de Perron y periféricas de L son ambas iguales a P , por lo tanto, cuando la matriz original es reducible, las proyecciones pueden perder la no negatividad y no hay posibilidad de expresarlas como límites de sus poderes. La matriz T es un ejemplo de una matriz primitiva con diagonal cero. Si la diagonal de una matriz cuadrada no negativa irreducible es distinta de cero, entonces la matriz debe ser primitiva, pero este ejemplo demuestra que la inversa es falsa. METROes un ejemplo de una matriz con varios dientes espectrales faltantes. Si ω = e iπ / 3 entonces ω 6 = 1 y los valores propios de M son {1, ω 2 , ω 3 , ω 4 } por lo que ω y ω 5 están ausentes. [ cita requerida ]

Terminología

Un problema que genera confusión es la falta de estandarización en las definiciones. Por ejemplo, algunos autores utilizan los términos estrictamente positivo y positivo para significar> 0 y ≥ 0 respectivamente. En este artículo, positivo significa> 0 y no negativo significa ≥ 0. Otra área controvertida se refiere a la descomponibilidad y reducibilidad : irreductible es un término sobrecargado. Para evitar dudas, a veces se dice que una matriz cuadrada A distinta de cero no negativa tal que 1 +  A es primitiva está conectada . Entonces, las matrices cuadradas no negativas irreducibles y las matrices conectadas son sinónimos. [32]

El vector propio no negativo a menudo se normaliza de modo que la suma de sus componentes sea igual a la unidad; en este caso, el vector propio es el vector de una distribución de probabilidad y en ocasiones se denomina vector propio estocástico .

El valor propio de Perron-Frobenius y el valor propio dominante son nombres alternativos para la raíz de Perron. Las proyecciones espectrales también se conocen como proyectores espectrales e idempotentes espectrales . En ocasiones, el período se denomina índice de imprimitividad o orden de ciclicidad .

Ver también

  • Teorema mínimo-máximo
  • Matriz Z (matemáticas)
  • Matriz M
  • Matriz P
  • Matriz de Hurwitz
  • Matriz de Metzler ( matriz cuasipositiva )
  • Operador positivo

Notas

  1. Bowles, Samuel (1 de junio de 1981). "El cambio técnico y la tasa de beneficio: una simple prueba del teorema de Okishio". Cambridge Journal of Economics . 5 (2): 183–186. doi : 10.1093 / oxfordjournals.cje.a035479 . ISSN  0309-166X .
  2. ^ Meyer 2000 , págs.  8.3.6 p. 681 "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 . Mantenimiento de CS1: copia archivada como título ( enlace )
  3. ^ Meyer 2000 , págs.  8.3.7 p. 683 "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 . Mantenimiento de CS1: copia archivada como título ( enlace )
  4. ^ Langville y Meyer , 2006 , p. 15,2 p. 167 Langville, Amy N .; Langville, Amy N .; Meyer, Carl D. (23 de julio de 2006). PageRank de Google y más: la ciencia de los rankings de motores de búsqueda . ISBN 978-0691122021. Archivado desde el original el 10 de julio de 2014 . Consultado el 31 de octubre de 2016 .CS1 maint: bot: estado de URL original desconocido ( enlace )
  5. ^ Keener 1993 , p. pag. 80
  6. Landau, Edmund (1895), "Zur relatedn Wertbemessung der Turnierresultaten", Deutsches Wochenschach , XI : 366–369
  7. ^ Landau, Edmund (1915), "Über Preisverteilung bei Spielturnieren" , Zeitschrift für Mathematik und Physik , 63 : 192-202
  8. ^ Birkhoff, Garrett y Varga, Richard S., 1958. Criticidad del reactor y matrices no negativas. Revista de la Sociedad de Matemáticas Industriales y Aplicadas, 6 (4), págs. 354-377.
  9. ^ Donsker, MD y Varadhan, SS, 1975. Sobre una fórmula variacional para el valor propio principal para operadores con principio máximo. Actas de la Academia Nacional de Ciencias, 72 (3), páginas 780-783.
  10. ^ Friedland, S., 1981. Funciones espectrales convexas. Álgebra lineal y multilineal, 9 (4), págs. 299-316.
  11. ^ Miroslav Fiedler; Charles R. Johnson; Thomas L. Markham; Michael Neumann (1985). "Un rastro de desigualdad para matrices M y la simetrizabilidad de una matriz real por una matriz diagonal positiva" . Álgebra lineal y sus aplicaciones . 71 : 81–94. doi : 10.1016 / 0024-3795 (85) 90237-X .
  12. ^ a b c d Meyer 2000 , págs.  capítulo 8 página 665 "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 . Mantenimiento de CS1: copia archivada como título ( enlace )
  13. ^ Meyer 2000 , págs.  Capítulo 8.3 página 670 . "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 . Mantenimiento de CS1: copia archivada como título ( enlace )
  14. ^ Gantmacher 2000 , p. capítulo XIII.3 teorema 3 página 66
  15. ^ Cocinas, Bruce (1998), Dinámica simbólica: cambios de markov de estado contables, de un solo lado y de dos lados. , Springer, ISBN 9783540627388
  16. ^ Minc, Henryk (1988), Matrices no negativas , John Wiley & Sons, Nueva York, ISBN 0-471-83966-3
  17. ^ Meyer 2000 , págs.  Reclamación 8.3.11 p. 675 "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 . Mantenimiento de CS1: copia archivada como título ( enlace )
  18. ^ Gantmacher 2000 , p. sección XIII.5 teorema 9
  19. ^ Meyer 2000 , págs.  Página 679 "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 . Mantenimiento de CS1: copia archivada como título ( enlace )
  20. ^ Meyer 2000 , págs.  Ejemplo 8.3.2 pág. 677 "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 . Mantenimiento de CS1: copia archivada como título ( enlace )
  21. ^ Gantmacher 2000 , p. sección XIII.2.2 página 62
  22. ^ Meyer 2000 , págs.  Ejemplo 8.3.3 pág. 678 "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 . Mantenimiento de CS1: copia archivada como título ( enlace )
  23. ^ Meyer 2000 , págs.  Capítulo 8 ejemplo 8.3.4 página 679 y ejercicio 8.3.9 p. 685 "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 . Mantenimiento de CS1: copia archivada como título ( enlace )
  24. ^ Varga 2002 , p. 2.43 (página 51)
  25. ^ Brualdi, Richard A .; Ryser, Herbert J. (1992). Teoría de la matriz combinatoria . Cambridge: Cambridge UP. ISBN 978-0-521-32265-2.
  26. ^ Brualdi, Richard A .; Cvetkovic, Dragos (2009). Un enfoque combinatorio de la teoría de matrices y sus aplicaciones . Boca Raton, FL: CRC Press. ISBN 978-1-4200-8223-4.
  27. ^ Mackey, Michael C. (1992). Flecha del tiempo: los orígenes del comportamiento termodinámico . Nueva York: Springer-Verlag. ISBN 978-0-387-97702-7.
  28. ^ Gantmacher 2000 , p. sección XIII.2.2 página 54
  29. ^ Smith, Roger (2006), "Una prueba teórica espectral de Perron-Frobenius" (PDF) , Procedimientos matemáticos de la Real Academia Irlandesa , 102 (1): 29-35, doi : 10.3318 / PRIA.2002.102.1.29
  30. ^ Meyer 2000 , págs.  Capítulo 8 reclamo 8.2.10 página 666 "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 . Mantenimiento de CS1: copia archivada como título ( enlace )
  31. ^ Meyer 2000 , págs.  Capítulo 8 página 666 "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 . Mantenimiento de CS1: copia archivada como título ( enlace )
  32. ^ Para encuestas de resultados sobre irreductibilidad, consulte Olga Taussky-Todd y Richard A. Brualdi .

Referencias

  • Perron, Oskar (1907), "Zur Theorie der Matrices" , Mathematische Annalen , 64 (2): 248–263, doi : 10.1007 / BF01449896 , hdl : 10338.dmlcz / 104432 , S2CID  123460172
  • Frobenius, Georg (mayo de 1912), "Ueber Matrizen aus nicht negativen Elementen", Sitzungsberichte der Königlich Preussischen Akademie der Wissenschaften : 456–477
  • Frobenius, Georg (1908), "Über Matrizen aus positiven Elementen, 1", Sitzungsberichte der Königlich Preussischen Akademie der Wissenschaften : 471–476
  • Frobenius, Georg (1909), "Über Matrizen aus positiven Elementen, 2", Sitzungsberichte der Königlich Preussischen Akademie der Wissenschaften : 514–518
  • Gantmacher, Felix (2000) [1959], The Theory of Matrices, Volumen 2 , AMS Chelsea Publishing, ISBN 978-0-8218-2664-5 (La edición de 1959 tenía un título diferente: "Aplicaciones de la teoría de matrices". También la numeración de los capítulos es diferente en las dos ediciones).
  • Langville, Amy; Meyer, Carl (2006), ranking de páginas de Google y más allá , Princeton University Press, doi : 10.1007 / s10791-008-9063-y , ISBN 978-0-691-12202-1, S2CID  7646929
  • Keener, James (1993), "El teorema de Perron-Frobenius y la clasificación de los equipos de fútbol", Revisión de SIAM , 35 (1): 80-93, doi : 10.1137 / 1035004 , JSTOR  2132526
  • Meyer, Carl (2000), Análisis de matrices y álgebra lineal aplicada (PDF) , SIAM, ISBN 978-0-89871-454-8, archivado desde el original (PDF) el 2010-03-07
  • Minc, Henryk (1988), matrices no negativas , John Wiley & Sons, Nueva York, ISBN 0-471-83966-3
  • Romanovsky, V. (1933), "Sur les zéros des matrices stocastiques", Bulletin de la Société Mathématique de France , 61 : 213–219, doi : 10.24033 / bsmf.1206
  • Collatz, Lothar (1942), "Einschließungssatz für die charakteristischen Zahlen von Matrizen", Mathematische Zeitschrift , 48 (1): 221–226, doi : 10.1007 / BF01180013 , S2CID  120958677
  • Wielandt, Helmut (1950), "Unzerlegbare, nicht negative Matrizen", Mathematische Zeitschrift , 52 (1): 642–648, doi : 10.1007 / BF02230720 , hdl : 10338.dmlcz / 100322 , S2CID  122189604

Otras lecturas

  • Abraham Berman, Robert J. Plemmons , Matrices no negativas en las ciencias matemáticas , 1994, SIAM. ISBN 0-89871-321-8 . 
  • Chris Godsil y Gordon Royle , Teoría de grafos algebraicos , Springer, 2001.
  • A. Graham, Matrices no negativas y temas aplicables en álgebra lineal , John Wiley & Sons, Nueva York, 1987.
  • RA Horn y CR Johnson, Matrix Analysis , Cambridge University Press, 1990
  • Bas Lemmens y Roger Nussbaum, Teoría no lineal de Perron-Frobenius , Cambridge Tracts in Mathematics 189, Cambridge Univ. Prensa, 2012.
  • SP Meyn y RL Tweedie, Cadenas de Markov y estabilidad estocástica Londres: Springer-Verlag, 1993. ISBN 0-387-19832-6 (segunda edición, Cambridge University Press, 2009) 
  • Seneta, E. Matrices no negativas y cadenas de Markov . 2da rev. ed., 1981, XVI, 288 p., Softcover Springer Series in Statistics. (Publicado originalmente por Allen & Unwin Ltd., Londres, 1973) ISBN 978-0-387-29765-1 
  • Suprunenko, DA (2001) [1994], "Teorema de Perron-Frobenius" , Enciclopedia de Matemáticas , EMS Press (La afirmación de que A j tiene orden n / h al final del enunciado del teorema es incorrecta).
  • Varga, Richard S. (2002), Análisis iterativo de matrices (2a ed.), Springer-Verlag.
Obtenido de " https://en.wikipedia.org/w/index.php?title=Perron–Frobenius_theorem&oldid=1048256054 "