De Wikipedia, la enciclopedia libre
Ir a navegaciónSaltar a buscar

En álgebra lineal , una matriz diagonal es una matriz en la que las entradas fuera de la diagonal principal son todas cero; el término generalmente se refiere a matrices cuadradas . Un ejemplo de una matriz diagonal de 2 × 2 es, mientras que un ejemplo de una matriz diagonal de 3 × 3 es. Una matriz de identidad de cualquier tamaño, o cualquier múltiplo de ella (una matriz escalar ), es una matriz diagonal.

Una matriz diagonal a veces se denomina matriz de escala , ya que la multiplicación de matrices con ella da como resultado un cambio de escala (tamaño). Su determinante es el producto de sus valores diagonales.

Definición

Como se indicó anteriormente, una matriz diagonal es una matriz en la que todas las entradas fuera de la diagonal son cero. Es decir, la matriz D = ( d i , j ) con n columnas yn filas es diagonal si

Sin embargo, las entradas diagonales principales no están restringidas.

El término matriz diagonal a veces puede referirse a unamatriz diagonal rectangular , que es unamatrizm-por-ncon todas las entradas que no tienen la formad i , i es cero. Por ejemplo:

o

Más a menudo, sin embargo, la matriz diagonal se refiere a matrices cuadradas, que se pueden especificar explícitamente como unmatriz diagonal cuadrada . Una matriz diagonal cuadrada es unamatriz simétrica, por lo que también se puede llamar unamatriz diagonal simétrica .

La siguiente matriz es una matriz diagonal cuadrada:

Si las entradas son números reales o números complejos , entonces también es una matriz normal .

En el resto de este artículo consideraremos sólo matrices diagonales cuadradas, y nos referiremos a ellas simplemente como "matrices diagonales".

Matriz escalar

Una matriz diagonal con entradas diagonales iguales es una matriz escalar ; es decir, un múltiplo escalar λ de la matriz identidad I . Su efecto sobre un vector es la multiplicación escalar por λ . Por ejemplo, una matriz escalar de 3 × 3 tiene la forma:

Las matrices escalares son el centro del álgebra de matrices: es decir, son precisamente las matrices que conmutan con todas las demás matrices cuadradas del mismo tamaño. [a] Por el contrario, sobre un campo (como los números reales), una matriz diagonal con todos los elementos diagonales distintos solo conmuta con matrices diagonales (su centralizador es el conjunto de matrices diagonales). Eso es porque si una matriz diagonal posee luego dada una matriz con la plazo de los productos son: y y (ya que se puede dividir por ), por lo que no se desplazan a menos que los términos fuera de la diagonal sean cero. [b] Las matrices diagonales donde las entradas diagonales no son todas iguales o distintas tienen centralizadores intermedios entre todo el espacio y solo matrices diagonales. [1]

Para un espacio vectorial abstracto V (en lugar del espacio vectorial concreto), el análogo de las matrices escalares son transformaciones escalares . Esto es cierto de manera más general para un módulo M sobre un anillo R , con el álgebra de endomorfismo End ( M ) (álgebra de operadores lineales en M ) reemplazando el álgebra de matrices. Formalmente, la multiplicación escalar es un mapa lineal que induce un mapa(de un escalar λ a su correspondiente transformación escalar, multiplicación por λ ) mostrando End ( M ) como un R - álgebra . Para los espacios vectoriales, las transformadas escalares son exactamente el centro del álgebra de endomorfismo y, de manera similar, las transformadas invertibles son el centro del grupo lineal general GL ( V ). El primero es más generalmente verdaderos módulos gratuitos , para el cual el álgebra de endomorfismo es isomorfo a un álgebra matricial.

Operaciones vectoriales

Multiplicar un vector por una matriz diagonal multiplica cada uno de los términos por la entrada diagonal correspondiente. Dada una matriz diagonal y un vector , el producto es:

Esto se puede expresar de manera más compacta utilizando un vector en lugar de una matriz diagonal, , y tomando el producto de Hadamard de los vectores (producto por entrada), denotado:

Esto es matemáticamente equivalente, pero evita almacenar todos los términos cero de esta matriz dispersa . Por lo tanto, este producto se utiliza en aprendizaje automático , como productos de cálculo de derivados en retropropagación o multiplicación de pesos IDF en TF-IDF , [2] ya que algunos marcos BLAS , que multiplican matrices de manera eficiente, no incluyen la capacidad del producto Hadamard directamente. [3]

Operaciones de matriz

Las operaciones de suma y multiplicación de matrices son especialmente sencillas para matrices diagonales. Escriba diag ( a 1 , ..., a n ) para una matriz diagonal cuyas entradas diagonales que comienzan en la esquina superior izquierda son un 1 , ..., a n . Luego, para agregar, tenemos

diag ( una 1 , ..., una norte ) + diag ( segundo 1 , ..., segundo norte ) = diag ( una 1 + segundo 1 , ..., una norte + segundo norte )

y para la multiplicación de matrices ,

diag ( a 1 , ..., a n ) diag ( b 1 , ..., b n ) = diag ( a 1 segundo 1 , ..., a n b n ) .

La matriz diagonal diag ( a 1 , ..., a n ) es invertible si y solo si las entradas a 1 , ..., a n son todas distintas de cero. En este caso, tenemos

diag ( a 1 , ..., a n ) −1 = diag ( a 1 −1 , ..., a n −1 ) .

En particular, las matrices diagonales forman un subanillo del anillo de todas las matrices n por n .

Multiplicar una matriz A de n- por- n desde la izquierda con diag ( a 1 , ..., a n ) equivale a multiplicar la i- ésima fila de A por una i para todo i ; multiplicar la matriz A de la derecha con diag ( a 1 , ..., a n ) equivale a multiplicar la i- ésima columna de A por a ipor todo i .

Matriz de operadores en base propia

Como se explicó al determinar los coeficientes de la matriz del operador , existe una base especial, e 1 ,…, e n , para la cual la matriztoma la forma diagonal. Por lo tanto, en la ecuación definitoria, todos los coeficientes con ij son cero, dejando solo un término por suma. Los elementos diagonales supervivientes,, se conocen como valores propios y se designan con en la ecuación, que se reduce a . La ecuación resultante se conoce como ecuación de valor propio [4] y se utiliza para derivar el polinomio característico y, además, los valores propios y los vectores propios .

En otras palabras, los valores propios de diag ( λ 1 ,…, λ n ) son λ 1 ,…, λ n con vectores propios asociados de e 1 ,…, e n .

Propiedades

  • El determinante de diag ( a 1 , ..., a n ) es el producto a 1a n .
  • El adyuvante de una matriz diagonal es nuevamente diagonal.
  • Donde todas las matrices son cuadradas,
    • Una matriz es diagonal si y solo si es triangular y normal .
    • Una matriz es diagonal si y solo si es triangular superior e inferior .
    • Una matriz diagonal es simétrica .
  • La matriz identidad I n y la matriz cero son diagonales.
  • Una matriz de 1 × 1 siempre es diagonal.

Aplicaciones

Las matrices diagonales ocurren en muchas áreas del álgebra lineal. Debido a la descripción simple de la operación de la matriz y los valores propios / vectores propios dados anteriormente, normalmente es deseable representar una matriz dada o un mapa lineal mediante una matriz diagonal.

De hecho, una matriz A dada de n por n es similar a una matriz diagonal (lo que significa que hay una matriz X tal que X −1 AX es diagonal) si y solo si tiene n vectores propios linealmente independientes . Se dice que tales matrices son diagonalizables .

En el campo de los números reales o complejos , hay más verdad. El teorema espectral dice que toda matriz normal es unitariamente similar a una matriz diagonal (si AA = A A entonces existe una matriz unitaria U tal que UAU es diagonal). Además, la descomposición del valor singular implica que para cualquier matriz A , existen matrices unitarias U y V tales que UAV es diagonal con entradas positivas.

Teoría del operador

En la teoría del operador , particularmente en el estudio de las PDE , los operadores son particularmente fáciles de entender y las PDE fáciles de resolver si el operador es diagonal con respecto a la base con la que se está trabajando; esto corresponde a una ecuación diferencial parcial separable . Por lo tanto, una técnica clave para comprender los operadores es un cambio de coordenadas —en el lenguaje de los operadores, una transformación integral— que cambia la base a una base propia de funciones propias : lo que hace que la ecuación sea separable. Un ejemplo importante de esto es la transformada de Fourier., que diagonaliza a los operadores de diferenciación de coeficientes constantes (o más generalmente operadores invariantes de traducción), como el operador laplaciano, por ejemplo, en la ecuación de calor .

Especialmente fáciles son los operadores de multiplicación , que se definen como la multiplicación por (los valores de) una función fija; los valores de la función en cada punto corresponden a las entradas diagonales de una matriz.

Ver también

  • Matriz anti-diagonal
  • Matriz de bandas
  • Matriz bidiagonal
  • Matriz diagonalmente dominante
  • Matriz diagonalizable
  • Jordan forma normal
  • Operador de multiplicación
  • Matriz tridiagonal
  • Matriz de Toeplitz
  • Álgebra de Toral Lie
  • Matriz circulante

Notas

  1. ^ Prueba: dada la matriz elemental , es la matriz con solo la i -ésima fila de M yes la matriz cuadrada con sólo el M j columna -ésimo, por lo que las entradas no diagonales deben ser cero, y el i ésimo entrada diagonal igual mucho el j ésimo entrada diagonal.
  2. ^ En anillos más generales, esto no es válido, porque no siempre se puede dividir.

Referencias

  1. ^ "¿Las matrices diagonales siempre se desplazan al trabajo?" . Stack Exchange. 15 de marzo de 2016 . Consultado el 4 de agosto de 2018 .
  2. Sahami, Mehran (15 de junio de 2009). Minería de texto: clasificación, agrupación y aplicaciones . Prensa CRC. pag. 14. ISBN 9781420059458.
  3. ^ "¿Multiplicación vector-vector por elementos en BLAS?" . stackoverflow.com . 2011-10-01 . Consultado el 30 de agosto de 2020 .
  4. ^ Acercándose, James (2010). "Capítulo 7.9: Autovalores y autovectores" (PDF) . Herramientas matemáticas para la física . ISBN  048648212X. Consultado el 1 de enero de 2012 .

Fuentes

  • Horn, Roger Alan ; Johnson, Charles Royal (1985), análisis de matrices , Cambridge University Press , ISBN 978-0-521-38632-6