En álgebra lineal , la transposición de una matriz es un operador que voltea una matriz sobre su diagonal; es decir, cambia los índices de fila y columna de la matriz A produciendo otra matriz, a menudo denotada por A T (entre otras notaciones). [1] [2]
La transposición de una matriz fue introducida en 1858 por el matemático británico Arthur Cayley . [3] En el caso de una matriz lógica que representa un binario relación R, la transpuesta corresponde a la relación inversa R T .
Transponer una matriz
Definición
La transpuesta de una matriz A , denotada por A T , [1] [4] ⊤ A , A ⊤ ,, [5] [6] A ′ , [7] A tr , t A o A t , pueden construirse mediante cualquiera de los siguientes métodos:
- Refleja A sobre su diagonal principal (que va de arriba a la izquierda a abajo a la derecha) para obtener A T ;
- Escribe las filas de A como columnas de A T ;
- Escribir las columnas de A como las filas de A T .
Formalmente, el elemento i -ésima fila, j -ésima columna de A T es el elemento j -ésima fila, i -ésima columna de A :
Si A es una matriz de m × n , entonces A T es una matriz de n × m .
En el caso de matrices cuadradas, A T también puede denotar la T ésima potencia de la matriz A . Para evitar una posible confusión, muchos autores utilizan upperscripts izquierda, es decir, que denotan la transpuesta como T A . Una ventaja de esta notación es que no se necesitan paréntesis cuando hay exponentes involucrados: como ( T A ) n = T ( A n ) , la notación T A n no es ambigua.
En este artículo, esta confusión se evita al no usar nunca el símbolo T como nombre de variable .
Definiciones de matrices que involucran transposición
Una matriz cuadrada cuya transposición es igual a sí misma se llama matriz simétrica ; es decir, A es simétrico si
Una matriz cuadrada cuya transposición es igual a su negativo se llama matriz de simetría sesgada ; es decir, A es simétrica sesgada si
Una matriz compleja cuadrada cuya transpuesta es igual a la matriz con cada entrada reemplazada por su conjugado complejo (denotado aquí con una línea superior) se llama matriz hermitiana (equivalente a que la matriz sea igual a su transpuesta conjugada ); es decir, A es hermitiano si
Una matriz compleja cuadrada cuya transposición es igual a la negación de su conjugado complejo se llama matriz oblicua-hermitiana ; es decir, A es sesgado-hermitiano si
Una matriz cuadrada cuya transposición es igual a su inversa se llama matriz ortogonal ; es decir, A es ortogonal si
Una matriz compleja cuadrada cuya transpuesta es igual a su inversa conjugada se llama matriz unitaria ; es decir, A es unitario si
Ejemplos de
Propiedades
Sean A y B matrices yc un escalar .
- La operación de tomar la transpuesta es una involución (auto inversa ).
- La transposición respeta la adición .
- Tenga en cuenta que el orden de los factores se invierte. De esto se puede deducir que una matriz cuadrada A es invertible si y solo si A T es invertible, y en este caso tenemos ( A −1 ) T = ( A T ) −1 . Por inducción, este resultado se extiende al caso general de matrices múltiples, donde encontramos que ( A 1 A 2 ... A k −1 A k ) T = A k T A k −1 T … A 2 T A 1 T .
- La transposición de un escalar es el mismo escalar. Junto con (2), esto establece que la transposición es un mapa lineal desde el espacio de m × n matrices al espacio de todas las n × m matrices.
- El determinante de una matriz cuadrada es el mismo que el determinante de su transpuesta.
- El producto escalar de dos columnas vectores de una y b se puede calcular como la única entrada de la matriz producto:
- que está escrito como a i b i en la convención de suma de Einstein .
- Si A solo tiene entradas reales, entonces A T A es una matriz semidefinida positiva .
- La transpuesta de una matriz invertible también es invertible, y su inversa es la transpuesta de la inversa de la matriz original. La notación A −T se usa a veces para representar cualquiera de estas expresiones equivalentes.
- Si A es una matriz cuadrada, entonces sus autovalores son iguales a los autovalores de su transpuesta, ya que comparten el mismo polinomio característico .
Productos
Si A es un m × n matriz y A T es su transpuesta, entonces el resultado de la multiplicación de matrices con estas dos matrices da dos matrices cuadradas: AA T es m × m y A T A es n × n . Además, estos productos son matrices simétricas . De hecho, el producto de matriz AA T tiene entradas que son el producto interior de una fila de A con una columna de A T . Sin embargo, las columnas de A T son las filas de A , por lo que corresponde la entrada al producto interno de dos filas de A . Si p i j es la entrada del producto, se obtiene de filas i y j en A . La entrada p j i también se obtiene de estas filas, por lo que p i j = p j i , y la matriz del producto ( p i j ) es simétrica. De manera similar, el producto A T A es una matriz simétrica.
Una prueba rápida de la simetría de AA T resulta del hecho de que es su propia transposición:
Implementación de la transposición de matrices en computadoras
En una computadora , a menudo se puede evitar la transposición explícita de una matriz en la memoria simplemente accediendo a los mismos datos en un orden diferente. Por ejemplo, las bibliotecas de software para álgebra lineal , como BLAS , generalmente brindan opciones para especificar que ciertas matrices deben interpretarse en orden transpuesto para evitar la necesidad de movimiento de datos.
Sin embargo, quedan una serie de circunstancias en las que es necesario o deseable reordenar físicamente una matriz en la memoria a su orden transpuesto. Por ejemplo, con una matriz almacenada en orden de fila principal , las filas de la matriz son contiguas en la memoria y las columnas no son contiguas. Si es necesario realizar operaciones repetidas en las columnas, por ejemplo en un algoritmo de transformada rápida de Fourier , la transposición de la matriz en la memoria (para hacer que las columnas sean contiguas) puede mejorar el rendimiento al aumentar la localidad de la memoria .
Idealmente, uno podría esperar transponer una matriz con un almacenamiento adicional mínimo. Esto conduce al problema de transponer una matriz n × m en el lugar , con O (1) de almacenamiento adicional o, como mucho, mucho menos de mn . Para n ≠ m , esto implica una permutación complicada de los elementos de datos que no es trivial de implementar en el lugar. Por lo tanto, la transposición matricial in situ eficiente ha sido objeto de numerosas publicaciones de investigación en informática , a partir de finales de la década de 1950, y se han desarrollado varios algoritmos.
Transposiciones de mapas lineales y formas bilineales
Recuerde que las matrices se pueden colocar en una correspondencia uno a uno con operadores lineales . La transposición de un operador lineal se puede definir sin necesidad de considerar una representación matricial del mismo. Esto conduce a una definición mucho más general de la transposición que se puede aplicar a operadores lineales que no pueden ser representados por matrices (por ejemplo, que involucran muchos espacios vectoriales de dimensión infinita).
Transponer un mapa lineal
Deje X # denota el espacio dual algebraico de un R - módulo X . Deje que X y Y sean R -modules. Si u : X → Y es un mapa lineal , entonces su algebraico adjunto o dual , [9] es el mapa # u : Y # → X # definido por f ↦ f ∘ u . El funcional resultante u # ( f ) se denomina retroceso de f por u . La siguiente relación caracteriza el adjunto algebraico de u [10]
- ⟨ U # ( f ), x ⟩ = ⟨ f , u ( x )⟩ para todos f ∈ Y ' y x ∈ X
donde ⟨•, •⟩ es la pareja natural (es decir, definido por ⟨ z , h ⟩: = h ( z ) ). Esta definición también se aplica sin cambios a los módulos de la izquierda y a los espacios vectoriales. [11]
Se puede ver que la definición de la transposición es independiente de cualquier forma bilineal en los módulos, a diferencia del adjunto ( abajo ).
El espacio dual continuo de un espacio vectorial topológico (TVS) X se denota por X ' . Si X e Y son TVS, entonces un mapa lineal u : X → Y es débilmente continuo si y solo si u # ( Y ' ) ⊆ X ' , en cuyo caso dejamos que t u : Y ' → X ' denote la restricción de u # a Y ' . El mapa t u se denomina transpuesta [12] de u .
Si la matriz A describe un mapa lineal con respecto a las bases de V y W , entonces la matriz A T describe la transposición de ese mapa lineal con respecto a las bases duales .
Transponer una forma bilineal
Todo mapa lineal al espacio dual u : X → X # define una forma bilineal B : X × X → F , con la relación B ( x , y ) = u ( x ) ( y ) . Al definir la transpuesta de esta forma bilineal como la forma bilineal t B definida por la transpuesta t u : X ## → X # ie t B ( y , x ) = t u (Ψ ( y )) ( x ) , encontramos que B ( x , y ) = t B ( y , x ) . Aquí, Ψ es el homomorfismo natural X → X ## en el doble dual .
Adjunto
Si los espacios vectoriales X e Y tienen respectivamente formas bilineales no degeneradas B X y B Y , se puede definir un concepto conocido como adjunto , que está estrechamente relacionado con la transpuesta:
Si u : X → Y es un mapa lineal entre los espacios vectoriales X e Y , definimos g como el adjunto de u si g : Y → X satisface
- para todos x ∈ X y Y ∈ Y .
Estas formas bilineales definen un isomorfismo entre X y X # , y entre Y e Y # , lo que resulta en un isomorfismo entre la transposición y el adjunto de u . La matriz del adjunto de un mapa es la matriz transpuesta solo si las bases son ortonormales con respecto a sus formas bilineales. En este contexto, muchos autores utilizan el término transponer para referirse al adjunto como se define aquí.
El adjunto nos permite considerar si g : Y → X es igual a u -1 : Y → X . En particular, esto permite definir el grupo ortogonal sobre un espacio vectorial X con una forma cuadrática sin referencia a matrices (ni a sus componentes) como el conjunto de todos los mapas lineales X → X para los que el adjunto es igual al inverso.
En un espacio vectorial complejo, a menudo se trabaja con formas sesquilíneas (conjugadas lineales en un argumento) en lugar de formas bilineales. El adjunto hermitiano de un mapa entre tales espacios se define de manera similar, y la matriz del adjunto hermitiano está dada por la matriz de transposición conjugada si las bases son ortonormales.
Ver también
- Matriz adyuvada , la transposición de la matriz del cofactor
- Transposición conjugada
- Pseudoinverso de Moore-Penrose
- Proyección (álgebra lineal)
Referencias
- ^ a b "Lista completa de símbolos de álgebra" . Bóveda de matemáticas . 2020-03-25 . Consultado el 8 de septiembre de 2020 .
- ^ Nykamp, Duane. "La transposición de una matriz" . Perspectiva matemática . Consultado el 8 de septiembre de 2020 .
- ^ Arthur Cayley (1858) "Memorias sobre la teoría de matrices" , Transacciones filosóficas de la Royal Society de Londres , 148 : 17-37. La transposición (o "transposición") se define en la página 31.
- ^ TA Whitelaw (1 de abril de 1991). Introducción al álgebra lineal, 2ª edición . Prensa CRC. ISBN 978-0-7514-0159-2.
- ^ "Transposición de un producto de matriz (ProofWiki)" . ProofWiki . Consultado el 4 de febrero de 2021 .
- ^ "¿Cuál es el mejor símbolo para la transposición de vector / matriz?" . Stack Exchange . Consultado el 4 de febrero de 2021 .
- ^ Weisstein, Eric W. "Transponer" . mathworld.wolfram.com . Consultado el 8 de septiembre de 2020 .
- ^ Gilbert Strang (2006) Álgebra lineal y sus aplicaciones 4ta edición, página 51, Thomson Brooks / ColeISBN 0-03-010567-6
- ^ Schaefer y Wolff , 1999 , p. 128.
- ↑ Halmos 1974 , §44
- ↑ Bourbaki 1989 , II §2.5
- ^ Trèves , 2006 , p. 240.
Otras lecturas
- Bourbaki, Nicolas (1989) [1970]. Álgebra I Capítulos 1-3 [ Algèbre: Capítulos 1 a 3 ] (PDF) . Éléments de mathématique . Berlín Nueva York: Springer Science & Business Media. ISBN 978-3-540-64243-5. OCLC 18588156 .
- Halmos, Paul (1974), espacios vectoriales de dimensión finita , Springer, ISBN 978-0-387-90093-3.
- Maruskin, Jared M. (2012). Álgebra lineal esencial . San José: Cresta Solar. págs. 122-132. ISBN 978-0-9850627-3-6.
- Schaefer, Helmut H .; Wolff, Manfred P. (1999). Espacios vectoriales topológicos . GTM . 8 (Segunda ed.). Nueva York, NY: Springer New York Imprint Springer. ISBN 978-1-4612-7155-0. OCLC 840278135 .
- Trèves, François (2006) [1967]. Espacios, distribuciones y núcleos vectoriales topológicos . Mineola, NY: Publicaciones de Dover. ISBN 978-0-486-45352-1. OCLC 853623322 .
- Schwartz, Jacob T. (2001). Introducción a matrices y vectores . Mineola: Dover. págs. 126-132. ISBN 0-486-42000-0.
enlaces externos
- Gilbert Strang (primavera de 2010) Álgebra lineal de MIT Open Courseware