En matemáticas , una matriz de bloques o una matriz particionada es una matriz que se interpreta como dividida en secciones llamadas bloques o submatrices . [1] Intuitivamente, una matriz interpretada como una matriz de bloques puede visualizarse como la matriz original con una colección de líneas horizontales y verticales, que la dividen o dividen en una colección de matrices más pequeñas. [2] Cualquier matriz puede interpretarse como una matriz de bloques de una o más formas, con cada interpretación definida por la forma en que se dividen sus filas y columnas.
Esta noción puede hacerse más precisa para un por matriz particionando en una colección , y luego particionando en una colección . La matriz original se considera entonces como el "total" de estos grupos, en el sentido de que elLa entrada de la matriz original se corresponde de forma 1 a 1 con algunos entrada compensada de algunos, dónde y .
El álgebra matricial de bloques surge en general de biproductos en categorías de matrices. [3]
Ejemplo
La matriz
se puede dividir en cuatro bloques de 2 × 2
La matriz particionada se puede escribir como
Multiplicación de matriz de bloques
Es posible utilizar un producto matricial dividido en bloques que involucre solo álgebra en submatrices de los factores. Sin embargo, la partición de los factores no es arbitraria y requiere "particiones conformes" [4] entre dos matrices. y de modo que se definan todos los productos de submatriz que se utilizarán. [5] Dado un matriz con particiones de fila y particiones de columna
y un matriz con particiones de fila y particiones de columna
que son compatibles con las particiones de , el producto de la matriz
se puede formar en bloque, produciendo como un matriz con particiones de fila y particiones de columna. Las matrices en la matriz resultante se calculan multiplicando:
O, usando la notación de Einstein que suma implícitamente índices repetidos:
Inversión de matriz de bloques
Si una matriz se divide en cuatro bloques, se puede invertir en bloque de la siguiente manera:
donde A y D son cuadrados de tamaño arbitrario, y B y C son compatibles para la división. Además, A y el complemento de Schur de A en P : P / A = D - CA −1 B deben ser invertibles. [6]
De manera equivalente, permutando los bloques:
Aquí, D y el complemento de Schur de D en P : P / D = A - BD −1 C deben ser invertibles.
Si A y D son ambos invertibles, entonces:
Según la identidad de Weinstein-Aronszajn , una de las dos matrices en la matriz diagonal de bloques es invertible exactamente cuando la otra lo es.
Bloquear matrices diagonales
Una matriz diagonal de bloques es una matriz de bloques que es una matriz cuadrada de modo que los bloques de la diagonal principal son matrices cuadradas y todos los bloques fuera de la diagonal son matrices cero. Es decir, una matriz diagonal de bloque A tiene la forma
donde A k es una matriz cuadrada para todo k = 1, ..., n . En otras palabras, la matriz A es la suma directa de A 1 , ..., A n . También se puede indicar como A 1 ⊕ A 2 ⊕ ... ⊕ A n o diag ( A 1 , A 2 , ..., A n ) (siendo este último el mismo formalismo utilizado para una matriz diagonal ). Cualquier matriz cuadrada puede considerarse trivialmente como una matriz diagonal de bloques con un solo bloque.
Para el determinante y la traza , se mantienen las siguientes propiedades
Una matriz diagonal de bloque es invertible si y solo si cada uno de sus bloques de la diagonal principal es invertible, y en este caso su inversa es otra matriz diagonal de bloque dada por
Los autovalores y autovectores de son simplemente los de y y y conjunto.
Bloques de matrices tridiagonales
Una matriz tridiagonal de bloques es otra matriz de bloques especial, que es como la matriz diagonal de bloques una matriz cuadrada , que tiene matrices cuadradas (bloques) en la diagonal inferior, la diagonal principal y la diagonal superior, siendo todos los demás bloques matrices cero. Es esencialmente una matriz tridiagonal pero tiene submatrices en lugares de escalares. Un bloque de matriz tridiagonal A tiene la forma
donde A k , B k y C k son submatrices cuadradas de la diagonal inferior, principal y superior respectivamente.
Las matrices tridiagonales de bloques se encuentran a menudo en soluciones numéricas de problemas de ingeniería (por ejemplo, dinámica de fluidos computacional ). Se encuentran disponibles métodos numéricos optimizados para la factorización LU y, por lo tanto, algoritmos de solución eficientes para sistemas de ecuaciones con una matriz tridiagonal de bloques como matriz de coeficientes. El algoritmo de Thomas , utilizado para la solución eficiente de sistemas de ecuaciones que involucran una matriz tridiagonal, también se puede aplicar usando operaciones matriciales para bloquear matrices tridiagonales (ver también Descomposición de bloques LU ).
Bloquear matrices de Toeplitz
Una matriz de bloques de Toeplitz es otra matriz de bloques especial, que contiene bloques que se repiten en las diagonales de la matriz, como una matriz de Toeplitz tiene elementos repetidos en la diagonal. Los elementos individuales de la matriz de bloques, Aij, también deben ser una matriz de Toeplitz.
Un bloque de matriz de Toeplitz A tiene la forma
Transposición de bloque
También se puede definir una forma especial de transposición de matrices para matrices de bloques, donde los bloques individuales se reordenan pero no se transponen. Dejar ser un matriz de bloques con bloques , el bloque de transposición de es el matriz de bloques con bloques . [7]
Al igual que con el operador de traza convencional, la transposición de bloque es un mapeo lineal tal que. Sin embargo, en general la propiedad no se sostiene a menos que los bloques de y viajar diariamente.
Suma directa
Para cualquier matriz arbitraria A (de tamaño m × n ) y B (de tamaño p × q ), tenemos la suma directa de A y B , denotada por A B y definido como
Por ejemplo,
Esta operación se generaliza naturalmente a matrices de dimensiones arbitrarias (siempre que A y B tengan el mismo número de dimensiones).
Tenga en cuenta que cualquier elemento en la suma directa de dos espacios vectoriales de matrices podría representarse como una suma directa de dos matrices.
Solicitud
En términos de álgebra lineal , el uso de una matriz de bloques corresponde a tener un mapeo lineal pensado en términos de 'racimos' correspondientes de vectores básicos . Eso nuevamente coincide con la idea de haber distinguido descomposiciones de suma directa del dominio y el rango . Siempre es particularmente significativo si un bloque es la matriz cero ; que lleva la información que un sumando mapea en una sub-suma.
Dada la interpretación a través de mapeos lineales y sumas directas, existe un tipo especial de matriz de bloques que ocurre para matrices cuadradas (el caso m = n ). Para aquellos, podemos asumir una interpretación como un endomorfismo de un espacio n -dimensional V ; la estructura de bloques en la que el agrupamiento de filas y columnas es el mismo es de importancia porque corresponde a tener una sola descomposición de suma directa en V (en lugar de dos). En ese caso, por ejemplo, los bloques diagonales en el sentido obvio son todos cuadrados. Este tipo de estructura es necesario para describir la forma normal de Jordan .
Esta técnica se utiliza para reducir los cálculos de matrices, expansiones de filas de columnas y muchas aplicaciones informáticas , incluido el diseño de chips VLSI . Un ejemplo es el algoritmo Strassen para la multiplicación rápida de matrices , así como la codificación Hamming (7,4) para la detección y recuperación de errores en las transmisiones de datos.
Ver también
- Producto Kronecker ( producto directo de matriz que da como resultado una matriz de bloques)
Notas
- ^ Eves, Howard (1980). Teoría de la matriz elemental (reimpresión ed.). Nueva York: Dover. pag. 37 . ISBN 0-486-63946-0. Consultado el 24 de abril de 2013 .
Descubriremos que a veces es conveniente subdividir una matriz en bloques rectangulares de elementos. Esto nos lleva a considerar los llamados particiones , o bloque , matrices .
- ^ Anton, Howard (1994). Álgebra lineal elemental (7ª ed.). Nueva York: John Wiley. pag. 30. ISBN 0-471-58742-7.
Una matriz se puede subdividir o dividir en matrices más pequeñas insertando reglas horizontales y verticales entre filas y columnas seleccionadas.
- ^ Macedo, HD; Oliveira, JN (2013). "Escribir álgebra lineal: un enfoque orientado a biproductos". Ciencia de la Programación de Computadores . 78 (11): 2160–2191. arXiv : 1312.4818 . doi : 10.1016 / j.scico.2012.07.012 .
- ^ Eves, Howard (1980). Teoría de la matriz elemental (reimpresión ed.). Nueva York: Dover. pag. 37 . ISBN 0-486-63946-0. Consultado el 24 de abril de 2013 .
Una partición como en el teorema 1.9.4 se denomina partición conformable de A y B .
- ^ Anton, Howard (1994). Álgebra lineal elemental (7ª ed.). Nueva York: John Wiley. pag. 36. ISBN 0-471-58742-7.
... siempre que los tamaños de las submatrices de A y B sean tales que se puedan realizar las operaciones indicadas.
- ^ Bernstein, Dennis (2005). Matemáticas matriciales . Prensa de la Universidad de Princeton. pag. 44. ISBN 0-691-11802-7.
- ^ Mackey, D. Steven (2006). Linealizaciones estructuradas para polinomios matriciales (PDF) (Tesis). Universidad de Manchester. ISSN 1749-9097 . OCLC 930686781 .
Referencias
- Strang, Gilbert (1999). "Tema 3: Multiplicación y matrices inversas" . Artículos para cursos abiertos del MIT. 18: 30–21: 10.