En matemáticas , una matriz simétrica con entradas reales es positivo-definido si el número reales positivo para cada vector de columna real distinto de cero dónde es la transposición de. [1] De manera más general, una matriz hermitiana (es decir, una matriz compleja igual a su transpuesta conjugada ) es positiva-definida si el número real es positivo para cada vector de columna complejo distinto de cero dónde denota la transposición conjugada de
Las matrices semidefinidas positivas se definen de manera similar, excepto que los escalares y deben ser positivos o cero (es decir, no negativos). Las matrices negativas-definidas y negativas semi-definidas se definen de forma análoga. Una matriz que no es semidefinida positiva ni semidefinida negativa a veces se denomina indefinida .
Por tanto, una matriz es positiva-definida si y sólo si es la matriz de una forma cuadrática positiva-definida o forma hermitiana . En otras palabras, una matriz es positiva-definida si y solo si define un producto interno .
Las matrices positivas-definidas y positivas-semidefinidas se pueden caracterizar de muchas formas, lo que puede explicar la importancia del concepto en varias partes de las matemáticas. Una matriz M es positiva-definida (resp. Positiva-semidefinida) si y solo si satisface alguna de las siguientes condiciones equivalentes.
- M es congruente con una matriz diagonal con entradas reales positivas (o no negativas).
- M es simétrico o hermitiano, y todos sus valores propios son reales y positivos (o no negativos).
- M es simétrica o hermitiana, y todos sus principales menores principales son positivos (resp. Todos los menores principales son no negativos).
- Existe una matriz invertible (resp. Una matriz) con transposición conjugada tal que
Las matrices reales positivas-definidas y positivas-semidefinidas están en la base de la optimización convexa , ya que, dada una función de varias variables reales que es dos veces diferenciable , entonces si su matriz hessiana (matriz de sus segundas derivadas parciales) es positiva-definida en un punto p , entonces la función es convexa cerca de p y, a la inversa, si la función es convexa cerca de p , entonces la matriz de Hesse es positiva-semidefinida en p .
Algunos autores utilizan definiciones más generales de definición, incluidas algunas matrices reales no simétricas o complejas no hermitianas.
Definiciones
En las siguientes definiciones, es la transposición de , es la transposición conjugada de y denota el vector cero n- dimensional.
Definiciones para matrices reales
Un matriz real simétrica se dice que es positivo-definido si para todos los distintos de cero en . Formalmente,
Un matriz real simétrica se dice que es positivo semidefinido o no negativo-definido si para todos en . Formalmente,
Un matriz real simétrica se dice que es negativo-definido si para todos los distintos de cero en . Formalmente,
Un matriz real simétrica se dice que es negativo-semidefinido o no positivo-definido si para todos en . Formalmente,
Un La matriz real simétrica que no es ni semidefinida positiva ni semidefinita negativa se llama indefinida .
Definiciones para matrices complejas
Todas las siguientes definiciones involucran el término . Tenga en cuenta que este es siempre un número real para cualquier matriz cuadrada hermitiana..
Un Matriz compleja hermitiana se dice que es positivo-definido si para todos los distintos de cero en . Formalmente,
Un Matriz compleja hermitiana se dice que es positivo semi-definido o no negativo-definido si para todos en . Formalmente,
Un Matriz compleja hermitiana se dice que es negativo-definido si para todos los distintos de cero en . Formalmente,
Un Matriz compleja hermitiana se dice que es negativo semi-definido o no positivo-definido si para todos en . Formalmente,
Un La matriz compleja hermitiana que no es ni semidefinita positiva ni semidefinita negativa se llama indefinida .
Coherencia entre definiciones reales y complejas
Dado que toda matriz real es también una matriz compleja, las definiciones de "definición" para las dos clases deben coincidir.
Para matrices complejas, la definición más común dice que " es positivo-definido si y solo si es real y positivo para todos los vectores de columna complejos distintos de cero". Esta condición implica que es hermitiano (es decir, su transposición es igual a su conjugado). Para ver esto, considere las matrices y , así que eso y . Las matrices y son hermitianos, por lo tanto y son individualmente reales. Si es real, entonces debe ser cero para todos . Luego es la matriz cero y , demostrando que es hermitiano.
Según esta definición, una matriz real definida positivaes hermitiano, por lo tanto simétrico; yes positivo para todos los vectores de columna reales distintos de cero. Sin embargo, la última condición por sí sola no es suficiente paraser positivo-definido. Por ejemplo, si
luego para cualquier vector real con entradas y tenemos , que siempre es positivo si no es cero. Sin embargo, si es el vector complejo con entradas y , uno obtiene
que no es real. Por lo tanto, no es positivo-definido.
Por otro lado, para una matriz real simétrica, la condición " para todos los vectores reales distintos de cero " No implica que es positivo-definido en el sentido complejo.
Notación
Si una matriz hermitiana es positivo semi-definido, a veces se escribe y si es positivo-definido uno escribe . Para denotar que es semi-definido negativo uno escribe y para denotar que es negativo-definido uno escribe .
La noción proviene del análisis funcional donde las matrices semidefinidas positivas definen operadores positivos .
Una notación alternativa común es , , y para matrices positivas semi-definidas y positivas-definidas, negativas semi-definidas y negativas-definidas, respectivamente. Esto puede resultar confuso, ya que a veces las matrices no negativas (respectivamente, las matrices no positivas) también se indican de esta forma.
Ejemplos de
- La matriz de identidad es positivo-definido (y como tal también positivo semi-definido). Es una matriz simétrica real, y, por cualquier no-cero columna vector z con las entradas reales a y b , uno tiene
- .
Visto como una matriz compleja, por cualquier no-cero columna vector z con entradas complejas un y b uno tiene
- .
- La verdadera matriz simétrica
- Para cualquier matriz invertible real , el producto es una matriz definida positiva (si las medias de las columnas de A son 0, también se denomina matriz de covarianza ). Una prueba simple es que para cualquier vector distinto de cero, la condición ya que la invertibilidad de la matriz significa que
- El ejemplo arriba muestra que una matriz en la que algunos elementos son negativos aún puede ser definida positiva. Por el contrario, una matriz cuyas entradas son todas positivas no es necesariamente definida positiva, como por ejemplo
Autovalores
Dejar frijol Matriz hermitiana . Esto implica que todos sus valores propios son reales.
- es positivo definido si y solo si todos sus valores propios son positivos.
- es positivo semi-definido si y solo si todos sus valores propios son no negativos.
- es negativo definido si y solo si todos sus valores propios son negativos
- es semi-definido negativo si y solo si todos sus valores propios son no positivos.
- es indefinido si y solo si tiene valores propios positivos y negativos.
Dejar ser una descomposición propia de, dónde es una matriz compleja unitaria cuyas columnas comprenden una base ortonormal de vectores propios de, y es una matriz diagonal real cuya diagonal principal contiene los valores propios correspondientes . La matriz puede considerarse como una matriz diagonal que ha sido reexpresado en coordenadas de la base (vectores propios) . Dicho de otra manera, aplicar M a algún vector z en nuestro sistema de coordenadas ( M z ), es lo mismo que cambiar la base de nuestra z al sistema de coordenadas del vector propio usando P −1 ( P −1 z ), aplicando la transformación de estiramiento D a it ( DP −1 z ), y luego volviendo a cambiar la base a nuestro sistema usando P ( PDP −1 z ).
Teniendo esto en cuenta, el cambio de variable uno a uno muestra que es real y positivo para cualquier vector complejo si y solo si es real y positivo para cualquier ; en otras palabras, sies positivo definido. Para una matriz diagonal, esto es cierto solo si cada elemento de la diagonal principal, es decir, cada valor propio de-es positivo. Dado que el teorema espectral garantiza que todos los valores propios de una matriz hermitiana son reales, la positividad de los valores propios se puede comprobar utilizando la regla de Descartes de signos alternos cuando el polinomio característico de una matriz simétrica real está disponible.
Descomposición
Dejar frijol Matriz hermitiana . es positivo semidefinido si y solo si puede descomponerse como un producto
de una matriz con su transposición conjugada .
Cuándo es real, también puede ser real y la descomposición se puede escribir como
es positivo definido si y sólo si existe tal descomposición con invertible . Más generalmente, es positivo semidefinido con rango si y solo si existe una descomposición con un matriz de rango de fila completo (es decir, de rango ). Además, para cualquier descomposición, . [2]
Prueba |
---|
Si , luego , entonces es semidefinido positivo. Si ademas es invertible, entonces la desigualdad es estricta para , entonces es positivo definido. Si es de rango , luego . En la otra dirección, suponga es semidefinido positivo. Desdees hermitiano, tiene una descomposición propia dónde es unitario y es una matriz diagonal cuyas entradas son los valores propios de Desde es semidefinido positivo, los valores propios son números reales no negativos, por lo que se puede definir como la matriz diagonal cuyas entradas son raíces cuadradas no negativas de valores propios. Luego por . Si ademas es positivo definido, entonces los valores propios son (estrictamente) positivos, por lo que es invertible, y por lo tanto también es invertible. Si tiene rango , entonces tiene exactamente valores propios positivos y los otros son cero, por lo tanto, en todo pero todas las filas se ponen a cero. Cortar las filas cero da una matriz tal que . |
Las columnas de pueden verse como vectores en el espacio vectorial complejo o real , respectivamente. Entonces las entradas deson productos internos (es decir , productos escalares , en el caso real) de estos vectores
En otras palabras, una matriz hermitiana es semidefinido positivo si y solo si es la matriz de Gram de algunos vectores. Es positivo definido si y solo si es la matriz de Gram de algunos vectores linealmente independientes . En general, el rango de la matriz de Gram de vectoreses igual a la dimensión del espacio atravesado por estos vectores. [3]
Singularidad hasta transformaciones unitarias
La descomposición no es única: si para algunos matriz y si es unitario matriz (significado ), luego por .
Sin embargo, esta es la única forma en que dos descomposiciones pueden diferir: la descomposición es única hasta transformaciones unitarias . Más formalmente, si es un matriz y es un matriz tal que , entonces hay un matriz con columnas ortonormales (es decir ) tal que . [4] Cuando esto significa es unitario .
Esta declaración tiene una interpretación geométrica intuitiva en el caso real: deje que las columnas de y ser los vectores y en . Una matriz unitaria real es una matriz ortogonal , que describe una transformación rígida (una isometría del espacio euclidiano) preservando el punto 0 (es decir, rotaciones y reflexiones , sin traslaciones). Por lo tanto, los productos punto y son iguales si y solo si alguna transformación rígida de transforma los vectores a (y de 0 a 0).
Raíz cuadrada
Una matriz es semidefinito positivo si y solo si hay una matriz semidefinita positiva (En particular es hermitiano, entonces ) satisfactorio . Esta matrizes única, [5] se llama raíz cuadrada no negativa de, y se denota con . Cuándo es positivo definido, también lo es , de ahí que también se le llame la raíz cuadrada positiva de.
La raíz cuadrada no negativa no debe confundirse con otras descomposiciones . Algunos autores usan el nombre raíz cuadrada ypara cualquier tal descomposición, o específicamente para la descomposición de Cholesky , o cualquier descomposición de la forma; otros solo lo usan para la raíz cuadrada no negativa.
Si luego .
Descomposición de Cholesky
Una matriz semidefinida positiva Se puede escribir como , dónde es triangular inferior con diagonal no negativa (equivalentemente dónde es triangular superior); esta es la descomposición de Cholesky . Si es definida positiva, entonces la diagonal de es positivo y la descomposición de Cholesky es única. La descomposición de Cholesky es especialmente útil para cálculos numéricos eficientes. Una descomposición estrechamente relacionada es la descomposición de LDL ,, dónde es diagonal y es triangular unitario inferior .
Otras caracterizaciones
Dejar frijol Matriz hermitiana . Las siguientes propiedades son equivalentes a siendo positivo definido:
- La forma sesquilínea asociada es un producto interno.
- La forma sesquilínea definida por es la funcion de a tal que para todos y en , dónde es la transposición conjugada de . Para cualquier matriz compleja , esta forma es lineal en y semilineal en . Por lo tanto, la forma es un producto interno en si y solo si es real y positivo para todo distinto de cero ; eso es si y solo si es positivo definido. (De hecho, cada producto interno en surge de esta manera de una matriz definida positiva hermitiana.)
- Sus principales menores principales son todos positivos
- El k- ésimo menor principal principal de una matriz es el determinante de su parte superior izquierda submatriz. Resulta que una matriz es positiva definida si y solo si todos estos determinantes son positivos. Esta condición se conoce como criterio de Sylvester y proporciona una prueba eficaz de la definición positiva de una matriz real simétrica. Es decir, la matriz se reduce a una matriz triangular superior mediante el uso de operaciones de fila elementales , como en la primera parte del método de eliminación de Gauss , teniendo cuidado de preservar el signo de su determinante durante el proceso de pivote . Dado que el k- ésimo menor principal principal de una matriz triangular es el producto de sus elementos diagonales hasta la fila , El criterio de Sylvester equivale a comprobar si sus elementos diagonales son todos positivos. Esta condición se puede comprobar cada vez que una nueva fila de la matriz triangular se obtiene.
Una matriz semidefinida positiva es definida positiva si y solo si es invertible . [6] Una matriz es negativo (semi) definido si y solo si es positivo (semi) definido.
Formas cuadráticas
La forma (puramente) cuadrática asociada con un real matriz es la funcion tal que para todos . puede asumirse simétrico reemplazándolo con .
Una matriz simétrica es positivo definido si y solo si su forma cuadrática es una función estrictamente convexa .
De manera más general, cualquier función cuadrática de a Se puede escribir como dónde es simétrico matriz, es un real -vector y una verdadera constante. Esta función cuadrática es estrictamente convexa y, por tanto, tiene un mínimo global finito único, si y sólo sies positivo definido. Por esta razón, las matrices definidas positivas juegan un papel importante en los problemas de optimización .
Diagonalización simultánea
Una matriz simétrica y otra matriz definida simétrica y positiva se pueden diagonalizar simultáneamente , aunque no necesariamente mediante una transformación de similitud . Este resultado no se extiende al caso de tres o más matrices. En esta sección escribimos para el caso real. La extensión al caso complejo es inmediata.
Dejar ser simétrico y una matriz definida simétrica y positiva. Escriba la ecuación de valor propio generalizada como donde imponemos eso estar normalizado, es decir . Ahora usamos la descomposición de Cholesky para escribir el inverso de como . Multiplicar por y dejando , obtenemos , que se puede reescribir como dónde . La manipulación ahora cede dónde es una matriz que tiene como columnas los vectores propios generalizados y es una matriz diagonal de los valores propios generalizados. Ahora premultiplicación con da el resultado final: y , pero tenga en cuenta que esto ya no es una diagonalización ortogonal con respecto al producto interno donde . De hecho, diagonalizamos con respecto al producto interno inducido por . [7]
Nótese que este resultado no contradice lo que se dice sobre la diagonalización simultánea en el artículo Matriz diagonalizable , que se refiere a la diagonalización simultánea por una transformación de similitud. Nuestro resultado aquí es más parecido a una diagonalización simultánea de dos formas cuadráticas, y es útil para la optimización de una forma bajo condiciones en la otra.
Propiedades
Ordenamiento parcial inducido
Para matrices cuadradas arbitrarias , nosotros escribimos Si es decir, es positivo semi-definido. Esto define un ordenamiento parcial en el conjunto de todas las matrices cuadradas. De manera similar, se puede definir un orden parcial estricto. El pedido se denomina pedido de Loewner .
Inversa de la matriz definida positiva
Toda matriz definida positiva es invertible y su inversa también es definida positiva. [8] Si luego . [9] Además, según el teorema mínimo-máximo , el k- ésimo valor propio más grande dees mayor que el k- ésimo valor propio más grande de.
Escalada
Si es positivo definido y es un número real, entonces es positivo definido. [10]
Adición
- Si y son positivas-definidas, entonces la suma también es positivo-definido. [10]
- Si y son positivas-semidefinidas, entonces la suma también es positivo-semidefinito.
- Si es positivo-definido y es positivo-semidefinito, entonces la suma también es positivo-definido.
Multiplicación
- Si y son positivos definidos, entonces los productos y también son positivas definidas. Si, luego también es positivo definido.
- Si es positivo semidefinido, entonces es semidefinido positivo para cualquier matriz (posiblemente rectangular) . Si es positivo definido y tiene rango de columna completo, entonces es positivo definido. [11]
Submatrices
Cada submatriz principal de una matriz definida positiva es definida positiva.
Rastro
Las entradas diagonales de una matriz semidefinida positiva son reales y no negativos. Como consecuencia, el rastro ,. Además, [12] dado que cada submatriz principal (en particular, 2 por 2) es semidefinida positiva,
y así, cuando ,
Un Matriz hermitiana es positivo definido si satisface las siguientes desigualdades de trazas: [13]
Otro resultado importante es que para cualquier y matrices positivas-semidefinidas,
Producto Hadamard
Si , aunque no es necesario semidefinito positivo, el producto de Hadamard es,(este resultado a menudo se denomina teorema del producto de Schur ). [14]
Respecto al producto de Hadamard de dos matrices semidefinitas positivas , , hay dos desigualdades notables:
- Desigualdad de Oppenheim: [15]
- . [dieciséis]
Producto Kronecker
Si , aunque no es necesario semidefinito positivo, el producto Kronecker .
Producto Frobenius
Si , aunque no es necesario semidefinito positivo, el producto de Frobenius (Lancaster-Tismenetsky, The Theory of Matrices , pág. 218).
Convexidad
El conjunto de matrices simétricas semidefinidas positivas es convexo . Es decir, si y son semidefinidos positivos, entonces para cualquier entre 0 y 1, también es positivo semidefinido. Para cualquier vector:
Esta propiedad garantiza que los problemas de programación semidefinidos converjan en una solución óptima globalmente.
Relación con el coseno
La definición positiva de una matriz expresa que el ángulo entre cualquier vector y su imagen es siempre :
Otras propiedades
- Si es una matriz de Toeplitz simétrica , es decir, las entradas se dan en función de sus diferencias de índice absolutas: , y la estricta desigualdad aguanta, entonces es estrictamente positivo definido.
- Dejar y Hermitian. Si (resp., ) luego (resp., ). [17]
- Si es real, entonces hay un tal que , dónde es la matriz de identidad .
- Si denota el líder menor, es el k- ésimo pivote durante la descomposición LU .
- Una matriz es definida negativa si su k- ésimo orden principal principal menor es negativo cuando es extraño y positivo cuando incluso.
Una matriz hermitiana es semidefinida positiva si y solo si todos sus principales menores son no negativos. Sin embargo, no es suficiente considerar solo a los principales menores principales, como se verifica en la matriz diagonal con las entradas 0 y -1.
Matrices de bloques
Un positivo La matriz también puede estar definida por bloques :
donde está cada bloque . Al aplicar la condición de positividad, se sigue inmediatamente que y son ermitaños, y .
Tenemos eso para todo complejo , y en particular para . Luego
Se puede aplicar un argumento similar a , y así concluimos que tanto y también deben ser matrices definidas positivas.
Los resultados inversos se pueden demostrar con condiciones más fuertes en los bloques, por ejemplo, utilizando el complemento de Schur .
Extremos locales
Una forma cuadrática general en variables reales siempre se puede escribir como dónde es el vector de columna con esas variables, y es una matriz real simétrica. Por lo tanto, la matriz es positiva definida significa que tiene un mínimo único (cero) cuando es cero y es estrictamente positivo para cualquier otro .
De manera más general, una función real dos veces diferenciable en las variables reales tienen un mínimo local en los argumentos si su gradiente es cero y su hessiano (la matriz de todas las segundas derivadas) es semidefinida positiva en ese punto. Se pueden hacer afirmaciones similares para matrices negativas definidas y semidefinidas.
Covarianza
En estadística , la matriz de covarianza de una distribución de probabilidad multivariante es siempre semidefinida positiva; y es definida positiva a menos que una variable sea una función lineal exacta de las demás. Por el contrario, toda matriz semidefinida positiva es la matriz de covarianza de alguna distribución multivariante.
Extensión para matrices cuadradas no hermitianas
La definición de definido positivo se puede generalizar designando cualquier matriz compleja (por ejemplo, real no simétrico) como definido positivo si para todos los vectores complejos distintos de cero , dónde denota la parte real de un número complejo . [18] Solo la parte hermitianadetermina si la matriz es positiva definida y se evalúa en el sentido más estricto anterior. Del mismo modo, si y son reales, tenemos para todos los vectores reales distintos de cero si y solo si la parte simétrica es positivo definido en el sentido más estricto. Inmediatamente queda claro quees insensible a la transposición de M .
En consecuencia, una matriz real no simétrica con solo valores propios positivos no necesita ser definida positiva. Por ejemplo, la matriztiene valores propios positivos pero no es positivo definido; en particular un valor negativo de se obtiene con la elección (que es el vector propio asociado con el valor propio negativo de la parte simétrica de ).
En resumen, la característica que distingue entre el caso real y el complejo es que un operador positivo acotado en un espacio de Hilbert complejo es necesariamente hermitiano o autoadjunto. La afirmación general se puede argumentar utilizando la identidad de polarización . Eso ya no es cierto en el caso real.
Aplicaciones
Matriz de conductividad térmica
Ley de Fourier de conducción de calor, que da flujo de calor. en términos del gradiente de temperatura está escrito para medios anisotrópicos como , en el cual es la matriz de conductividad térmica simétrica . El negativo se inserta en la ley de Fourier para reflejar la expectativa de que el calor siempre fluirá de lo caliente a lo frío. En otras palabras, dado que el gradiente de temperatura siempre apunta de frío a caliente, el flujo de calor se espera que tenga un producto interno negativo con así que eso . Sustituyendo la ley de Fourier se obtiene esta expectativa como, lo que implica que la matriz de conductividad debe ser definida positiva.
Ver también
- Matriz de covarianza
- Matriz M
- Función definida positiva
- Núcleo positivo definido
- Complemento Schur
- El criterio de Sylvester
- Rango numérico
Notas
- ^ "Apéndice C: matrices definidas positivas semidefinidas y positivas" . Estimación de parámetros para científicos e ingenieros : 259–263. doi : 10.1002 / 9780470173862.app3 .
- ^ Horn y Johnson (2013) , p. 440, Teorema 7.2.7
- ^ Horn y Johnson (2013) , p. 441, Teorema 7.2.10
- ^ Horn y Johnson (2013) , p. 452, Teorema 7.3.11
- ^ Horn y Johnson (2013) , p. 439, Teorema 7.2.6 con
- ^ Horn y Johnson (2013) , p. 431, Corolario 7.1.7
- ^ Horn y Johnson (2013) , p. 485, Teorema 7.6.1
- ^ Horn y Johnson (2013) , p. 438, Teorema 7.2.1
- ^ Horn y Johnson (2013) , p. 495, Corolario 7.7.4 (a)
- ↑ a b Horn y Johnson (2013) , p. 430, Observación 7.1.3
- ^ Horn y Johnson (2013) , p. 431, Observación 7.1.8
- ^ Horn y Johnson (2013) , p. 430
- ^ Wolkowicz, Henry; Styan, George PH (1980). "Límites para valores propios mediante trazas". Álgebra lineal y sus aplicaciones . Elsevier (29): 471–506.
- ^ Horn y Johnson (2013) , p. 479, Teorema 7.5.3
- ^ Horn y Johnson (2013) , p. 509, Teorema 7.8.16
- ^ Styan, GP (1973). "Productos de Hadamard y análisis estadístico multivariado". Álgebra lineal y sus aplicaciones . 6 : 217-240., Corolario 3.6, pág. 227
- ^ Bhatia, Rajendra (2007). Matrices positivas definidas . Princeton, Nueva Jersey: Princeton University Press. pag. 8. ISBN 978-0-691-12918-1.
- ^ Weisstein, Eric W. Matriz definida positiva. De MathWorld - Un recurso web de Wolfram . Consultado el 26 de julio de 2012.
Referencias
- Horn, Roger A .; Johnson, Charles R. (2013). Análisis matricial (2ª ed.). Prensa de la Universidad de Cambridge . ISBN 978-0-521-54823-6.
- Bhatia, Rajendra (2007). Matrices definidas positivas . Serie de Princeton en Matemáticas Aplicadas. ISBN 978-0-691-12918-1.
- Bernstein, B .; Toupin, RA (1962). "Algunas propiedades de la matriz de Hesse de una función estrictamente convexa". Journal für die reine und angewandte Mathematik . 210 : 67–72. doi : 10.1515 / crll.1962.210.65 .
enlaces externos
- "Forma positiva definida" , Encyclopedia of Mathematics , EMS Press , 2001 [1994]
- Wolfram MathWorld: Matriz positiva definida