En matemáticas , particularmente en álgebra lineal y aplicaciones, el análisis de matrices es el estudio de matrices y sus propiedades algebraicas. [1] Algunos temas particulares de muchos incluyen; operaciones definidas en matrices (tales como suma de matrices , multiplicación de matrices y operaciones derivadas de estas), funciones de matrices (tales como exponenciación de matrices y logaritmo de matrices , e incluso senos y cosenos, etc. de matrices) y los valores propios de matrices ( descomposición propia de una matriz , perturbación de valores propiosteoría). [2]
Espacios de matriz
El conjunto de todas las matrices m × n sobre un campo F denotado en este artículo M mn ( F ) forma un espacio vectorial . Los ejemplos de F incluyen el conjunto de números racionales ℚ, los números reales ℝ y el conjunto de números complejos ℂ. La espacios M mn ( F ) y M pq ( F ) son espacios diferentes si m y p son desiguales, y si n y q son desiguales; por ejemplo M 32 ( F ) ≠ M 23 ( F ). Se pueden sumar dos matrices A y B de m × n en M mn ( F ) para formar otra matriz en el espacio M mn ( F ):
y multiplicado por α en F , para obtener otra matriz en M mn ( F ):
Combinando estas dos propiedades, una combinación lineal de matrices A y B están en M mn ( F ) es otra matriz en M mn ( F ):
donde α y β son números en F .
Cualquier matriz puede expresarse como una combinación lineal de matrices base, que desempeñan el papel de vectores base para el espacio matricial. Por ejemplo, para el conjunto de matrices 2 × 2 sobre el campo de números reales, M 22 (ℝ), un conjunto de matrices de base legítima es:
porque cualquier matriz de 2 × 2 se puede expresar como:
donde a , b , c , d son todos números reales. Esta idea se aplica a otros campos y matrices de mayores dimensiones.
Determinantes
El determinante de una matriz cuadrada es una propiedad importante. El determinante indica si una matriz es invertible (es decir , existe la inversa de una matriz cuando el determinante es distinto de cero). Los determinantes se utilizan para encontrar valores propios de matrices (ver más abajo) y para resolver un sistema de ecuaciones lineales (ver la regla de Cramer ).
Autovalores y autovectores de matrices
Definiciones
Un n × n matriz A tiene vectores propios x y valores propios lambda definida por la relación:
En palabras, la multiplicación matricial de A seguida de un autovector x (aquí una matriz de columna n- dimensional ), es lo mismo que multiplicar el autovector por el autovalor. Para una matriz n × n , hay n valores propios. Los valores propios son las raíces del polinomio característico :
donde I es la matriz identidad n × n .
Las raíces de los polinomios , en este contexto los valores propios, pueden ser todos diferentes o algunos pueden ser iguales (en cuyo caso el valor propio tiene multiplicidad , el número de veces que se produce un valor propio). Después de resolver los valores propios, los vectores propios correspondientes a los valores propios se pueden encontrar mediante la ecuación definitoria.
Perturbaciones de valores propios
Similitud de la matriz
Dos n × n matrices A y B son similares si están relacionadas por una transformación de similitud :
La matriz P se llama matriz de similitud y es necesariamente invertible .
Similitud unitaria
Formas canónicas
Forma escalonada de fila
Jordan forma normal
Forma canónica de Weyr
Forma normal de Frobenius
Factorización triangular
Descomposición LU
La descomposición LU divide una matriz en un producto matricial de una matriz triangular superior y una matriz triangular inferior.
Normas matriciales
Dado que las matrices forman espacios vectoriales, se pueden formar axiomas (análogos a los de los vectores) para definir un "tamaño" de una matriz particular. La norma de una matriz es un número real positivo.
Definición y axiomas
Para todas las matrices A y B en M mn ( F ), y todos los números α en F , una norma matricial, delimitada por barras verticales dobles || ... ||, cumple: [nota 1]
- con igualdad solo para A = 0 , la matriz cero .
Norma de Frobenius
La norma de Frobenius es análoga al producto escalar de los vectores euclidianos; multiplique los elementos de la matriz en forma de entrada, sume los resultados y luego saque la raíz cuadrada positiva:
Está definido para matrices de cualquier dimensión (es decir, sin restricción a matrices cuadradas).
Matrices positivas definidas y semidefinidas
Funciones
Los elementos de la matriz no están restringidos a números constantes, pueden ser variables matemáticas .
Funciones de matrices
Una función de una matriz toma una matriz y devuelve algo más (un número, vector, matriz, etc.).
Funciones matriciales
Una función con valor de matriz toma algo (un número, vector, matriz, etc.) y devuelve una matriz.
Ver también
Otras ramas de análisis
Otros conceptos de álgebra lineal
- Producto tensor
- Espectro de un operador
- Serie geométrica de matriz
Tipos de matriz
- Matriz ortogonal , matriz unitaria
- Matriz simétrica , matriz antisimétrica
- Matriz estocástica
Funciones de matriz
- Polinomio de matriz
- Matriz exponencial
Notas al pie
- ^ Algunos autores, por ejemplo, Horn y Johnson, utilizan barras verticales triples en lugar de dobles: ||| A |||.
Referencias
Notas
- ↑ RA Horn, CR Johnson (2012). Análisis matricial (2ª ed.). Prensa de la Universidad de Cambridge. ISBN 978-052-183-940-2.
- ^ NJ Higham (2000). Funciones de las matrices: teoría y computación . SIAM. ISBN 089-871-777-9.
Otras lecturas
- C. Meyer (2000). Manual de soluciones y libro de análisis matricial y álgebra lineal aplicada . Análisis de matrices y álgebra lineal aplicada. 2 . SIAM. ISBN 089-871-454-0.
- TS Shores (2007). Álgebra lineal aplicada y análisis matricial . Textos de Licenciatura en Matemáticas . Saltador. ISBN 978-038-733-195-9.
- Rajendra Bhatia (1997). Análisis matricial . Serie de análisis matricial. 169 . Saltador. ISBN 038-794-846-5.
- Alan J. Laub (2012). Análisis de matriz computacional . SIAM. ISBN 978-161-197-221-4.