En matemáticas , una norma matricial es una norma vectorial en un espacio vectorial cuyos elementos (vectores) son matrices (de dimensiones dadas).
Definición
Dado un campo de números reales o complejos , y el espacio vectorial de todas las matrices de tamaño (con filas y columnas) con entradas en el campo , una norma matricial es una norma en el espacio vectorial(con normas individuales indicadas mediante barras verticales dobles como[1] ). Por tanto, la norma matricial es una función que debe satisfacer las siguientes propiedades: [2] [3]
Para todos los escalares y para todas las matrices ,
- (siendo absolutamente homogéneo )
- (ser subaditivo o satisfacer la desigualdad del triángulo )
- (siendo de valor positivo )
- (siendo definido )
Además, en el caso de matrices cuadradas (matrices con m = n ), algunas (pero no todas) las normas matriciales satisfacen la siguiente condición, que está relacionada con el hecho de que las matrices son más que simples vectores: [2]
- para todas las matrices y en
Una norma matricial que satisface esta propiedad adicional se denomina norma submultiplicativa [4] [3] (en algunos libros, la terminología norma matricial se usa solo para aquellas normas que son submultiplicativas [5] ). El conjunto de todosmatrices, junto con tal norma submultiplicativa, es un ejemplo de un álgebra de Banach .
La definición de submultiplicatividad a veces se extiende a matrices no cuadradas, como en el caso de la p -norm inducida , donde para y sostiene que . Aquí, y son las normas inducidas por y , respectivamente, donde p , q ≥ 1 .
Hay tres tipos de normas matriciales que se discutirán a continuación:
- Normas matriciales inducidas por normas vectoriales,
- Normas matriciales de entrada, y
- Normas de Schatten.
Normas matriciales inducidas por normas vectoriales
Supongamos una norma vectorial en es dado. Algunamatriz A induce un operador lineal de a con respecto a la base estándar, y se define la norma inducida correspondiente o la norma del operador en el espacio de todo matrices de la siguiente manera:
En particular, si la p -norm para vectores ( 1 ≤ p ≤ ∞ ) se usa para ambos espacios y , entonces la norma correspondiente del operador inducido es: [3]
Estas normas inducidas son diferentes de las p -normas "de entrada" y las p -normas de Schatten para las matrices tratadas a continuación, que también se denotan habitualmente por
- Nota: La descripción anterior se refiere a la norma del operador inducido cuando se utilizó la misma norma vectorial en el "espacio de salida". y el "espacio de llegada" del operador . Esta no es una restricción necesaria. De manera más general, dada una norma en y una norma en , se puede definir una norma matricial en inducida por estas normas:
- La norma de la matriz a veces se denomina norma subordinada. Las normas subordinadas son consistentes con las normas que las inducen, dando
Cualquier norma de operador inducido es una norma de matriz submultiplicativa: esto se sigue de
y
Además, cualquier norma inducida satisface la desigualdad
- ( 1 )
para todos los números enteros positivos r , donde ρ ( A ) es el radio espectral de A . Para simétrica o hermitiana A , tenemos la igualdad en ( 1 ) para el 2-norma, ya que en este caso el 2-norma es precisamente el radio espectral de A . Para una matriz arbitraria, es posible que no tengamos igualdad para ninguna norma; un contraejemplo sería
que tiene un radio espectral de desaparición. En cualquier caso, para matrices cuadradas tenemos la fórmula del radio espectral :
Casos especiales
En los casos especiales de las normas de la matriz inducida se pueden calcular o estimar mediante
que es simplemente la máxima suma absoluta de columnas de la matriz;
que es simplemente la máxima suma absoluta de filas de la matriz;
dónde representa el valor singular más grande de la matriz . Hay una desigualdad importante para el caso:
dónde es la norma de Frobenius . La igualdad es válida si y solo si la matrizes una matriz de rango uno o una matriz cero. Esta desigualdad se puede derivar del hecho de que la traza de una matriz es igual a la suma de sus valores propios.
Cuándo tenemos una definición equivalente para como . Puede demostrarse que es equivalente a las definiciones anteriores utilizando la desigualdad de Cauchy-Schwarz .
Por ejemplo, para
tenemos eso
En el caso especial de (la norma euclidiana o-norm para vectores), la norma de la matriz inducida es la norma espectral . La norma espectral de una matrizes el valor singular más grande de(es decir, la raíz cuadrada del valor propio más grande de la matriz, dónde denota la transposición conjugada de): [6]
En este caso, desde y de manera similar por descomposición en valor singular (SVD).
Normas matriciales "Entrywise"
Estas normas tratan un matriz como vector de tamaño y utilice una de las normas vectoriales familiares. Por ejemplo, usando la p -norm para vectores, p ≥ 1 , obtenemos:
Esta es una norma diferente de la p -norm inducida (ver arriba) y la p -norm de Schatten (ver abajo), pero la notación es la misma.
El caso especial p = 2 es la norma de Frobenius y p = ∞ da como resultado la norma máxima.
Normas L 2,1 y L p, q
Dejar ser las columnas de la matriz . Lanorma [7] es la suma de las normas euclidianas de las columnas de la matriz:
La La norma como función de error es más robusta, ya que el error para cada punto de datos (una columna) no se eleva al cuadrado. Se utiliza en análisis de datos robustos y codificación escasa .
Para p , q ≥ 1 , el La norma se puede generalizar a la norma de la siguiente manera:
Norma de Frobenius
Cuando p = q = 2 para elnorma, se llama la norma de Frobenius o la norma de Hilbert-Schmidt , aunque este último término se usa con mayor frecuencia en el contexto de los operadores en el espacio de Hilbert (posiblemente de dimensión infinita) . Esta norma se puede definir de varias formas:
dónde son los valores singulares de. Recuerde que la función trace devuelve la suma de las entradas diagonales de una matriz cuadrada.
La norma de Frobenius es una extensión de la norma euclidiana para y proviene del producto interno de Frobenius en el espacio de todas las matrices.
La norma de Frobenius es submultiplicativa y es muy útil para el álgebra lineal numérica . La submultiplicatividad de la norma de Frobenius se puede demostrar utilizando la desigualdad de Cauchy-Schwarz .
La norma de Frobenius es a menudo más fácil de calcular que las normas inducidas y tiene la útil propiedad de ser invariante bajo rotaciones (y operaciones unitarias en general). Es decir, para cualquier matriz unitaria . Esta propiedad se deriva de la naturaleza cíclica de la traza ():
y análogamente:
donde hemos utilizado la naturaleza unitaria de (es decir, ).
También satisface
y
dónde es el producto interior de Frobenius .
Norma máxima
La norma máxima es la norma de elementos con p = q = ∞:
Esta norma no es submultiplicativa .
Tenga en cuenta que en alguna literatura (como la complejidad de la comunicación ), una definición alternativa de norma máxima, también llamada-norm, se refiere a la norma de factorización:
Normas de Schatten
Las p -normas de Schatten surgen al aplicar la p -norm al vector de valores singulares de una matriz. [3] Si los valores singulares de la matriz se denotan por σ i , entonces la norma p de Schatten se define por
Estas normas nuevamente comparten la notación con las p -normas inducidas y de entrada, pero son diferentes.
Todas las normas de Schatten son submultiplicativas. También son unitariamente invariantes, lo que significa que para todas las matrices y todas las matrices unitarias y .
Los casos más familiares son p = 1, 2, ∞. El caso p = 2 produce la norma de Frobenius, presentada antes. El caso p = ∞ produce la norma espectral, que es la norma del operador inducida por el vector 2-norma (ver arriba). Finalmente, p = 1 da como resultado la norma nuclear (también conocida como la norma de seguimiento , o la norma Ky Fan 'n' [8] ), definida como
dónde denota una matriz semidefinida positiva tal que . Más precisamente, dado quees una matriz semidefinida positiva , su raíz cuadrada está bien definida. La norma nucleares una envolvente convexa de la función de rango, por lo que se utiliza a menudo en optimización matemática para buscar matrices de rango bajo.
Normas consistentes
Una norma matricial en se llama consistente con una norma vectorial en y una norma vectorial en , Si:
para todos . Todas las normas inducidas son consistentes por definición.
Normas compatibles
Una norma matricial en se llama compatible con una norma vectorial en , Si:
para todos .
Las normas inducidas son compatibles con la norma del vector inductor por definición. Además, cualquier norma matricial submultiplicativa en induce una norma vectorial en con el que es compatible, simplemente definiendo .
Normas monótonas
Una norma matricial se llama monótono si es monótono con respecto al orden de Loewner . Por tanto, una norma matricial aumenta si
La norma de Frobenius y la norma espectral son ejemplos de normas monótonas. [9]
Equivalencia de normas
Para dos normas matriciales cualesquiera y , tenemos eso:
para algunos números positivos r y s , para todas las matrices. En otras palabras, todas las normas sobreson equivalentes ; Inducen la misma topología en. Esto es cierto porque el espacio vectorialtiene la dimensión finita .
Además, para cada norma de vector en , existe un número real positivo único tal que es una norma matricial submultiplicativa para cada .
Una norma matricial submultiplicativa se dice que es mínima , si no existe otra norma de matriz submultiplicativa satisfactorio .
Ejemplos de equivalencia de normas
Dejar una vez más, consulte la norma inducida por el vector p -norm (como se indicó anteriormente en la sección Norma inducida).
Para matriz de rango , se cumplen las siguientes desigualdades: [10] [11]
Otra desigualdad útil entre las normas matriciales es
que es un caso especial de la desigualdad de Hölder .
Ver también
- Norma dual
- Norma logarítmica
Referencias
- ^ "Lista completa de símbolos de álgebra" . Bóveda de matemáticas . 2020-03-25 . Consultado el 24 de agosto de 2020 .
- ^ a b Weisstein, Eric W. "Matrix Norm" . mathworld.wolfram.com . Consultado el 24 de agosto de 2020 .
- ^ a b c d "Normas matriciales" . fourier.eng.hmc.edu . Consultado el 24 de agosto de 2020 .
- ^ Malek-Shahmirzadi, Massoud (1983). "Una caracterización de ciertas clases de normas matriciales". Álgebra lineal y multilineal . 13 (2): 97–99. doi : 10.1080 / 03081088308817508 . ISSN 0308-1087 .
- ^ Horn, Roger A. (2012). Análisis de matrices . Johnson, Charles R. (2ª ed.). Cambridge: Cambridge University Press. págs. 340–341. ISBN 978-1-139-77600-4. OCLC 817236655 .
- ^ Carl D. Meyer, Análisis de matrices y álgebra lineal aplicada, §5.2, p.281, Sociedad de matemáticas industriales y aplicadas, junio de 2000.
- ^ Ding, Chris; Zhou, Ding; Él, Xiaofeng; Zha, Hongyuan (junio de 2006). "R1-PCA: análisis de componente principal de la norma L1 invariante rotacional para la factorización robusta del subespacio". Actas de la 23a Conferencia Internacional sobre Aprendizaje Automático . ICML '06. Pittsburgh, Pensilvania, Estados Unidos: ACM. págs. 281–288. doi : 10.1145 / 1143844.1143880 . ISBN 1-59593-383-2.
- ^ Fan, Ky. (1951). "Máximas propiedades y desigualdades para los autovalores de operadores completamente continuos" . Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 37 (11): 760–766. Código bibliográfico : 1951PNAS ... 37..760F . doi : 10.1073 / pnas.37.11.760 . PMC 1063464 . PMID 16578416 .
- ^ Ciarlet, Philippe G. (1989). Introducción al álgebra lineal numérica y optimización . Cambridge, Inglaterra: Cambridge University Press. pag. 57. ISBN 0521327881.
- ^ Golub, Gene ; Charles F. Van Loan (1996). Cálculos matriciales - Tercera edición. Baltimore: The Johns Hopkins University Press, págs. 56–57. ISBN 0-8018-5413-X .
- ^ Roger Horn y Charles Johnson. Matrix Analysis, capítulo 5, Cambridge University Press, 1985. ISBN 0-521-38632-2 .
Bibliografía
- James W. Demmel , Álgebra lineal numérica aplicada, sección 1.7, publicado por SIAM, 1997.
- Carl D. Meyer, Análisis de matrices y álgebra lineal aplicada, publicado por SIAM, 2000. [1]
- John Watrous , Teoría de la información cuántica, 2.3 Normas de operadores , notas de clase, Universidad de Waterloo, 2011.
- Kendall Atkinson , Introducción al análisis numérico, publicado por John Wiley & Sons, Inc 1989