Este es un buen artículo. Haga clic aquí para más información.
De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda
Una matriz m × n : las m filas son horizontales y las n columnas son verticales. Cada elemento de una matriz a menudo se denota mediante una variable con dos subíndices . Por ejemplo, un 2,1 representa el elemento en la segunda fila y la primera columna de la matriz.

En matemáticas , una matriz ( matrices plurales ) es una matriz rectangular o una tabla de números , símbolos o expresiones , dispuestas en filas y columnas . [1] [2] Por ejemplo, la dimensión de la matriz a continuación es 2 × 3 (lea "dos por tres"), porque hay dos filas y tres columnas:

Siempre que tengan las mismas dimensiones (cada matriz tiene el mismo número de filas y el mismo número de columnas que la otra), se pueden sumar o restar dos matrices elemento por elemento (ver matriz conformable ). La regla para la multiplicación de matrices , sin embargo, es que dos matrices se pueden multiplicar solo cuando el número de columnas en la primera es igual al número de filas en la segunda (es decir, las dimensiones internas son las mismas, n para an ( m × n ) -matriz multiplicada por una ( n × p ) -matriz, lo que da como resultado una ( m × p)-matriz). Incluso cuando dos matrices tienen dimensiones que permiten multiplicarlas en cualquier orden, los resultados no tienen por qué ser los mismos. Es decir, la multiplicación de matrices no es, en general, conmutativa . Cualquier matriz se puede multiplicar por elementos por un escalar de su campo asociado . Las matrices a menudo se indican con letras mayúsculas romanas como , y . [3]

Los elementos individuales en una matriz A m × n , a menudo denotados por a i , j , donde i y j generalmente varían de 1 am y n , respectivamente, se denominan sus elementos o entradas . [4] [5] Para expresar convenientemente un elemento de los resultados de las operaciones matriciales, los índices del elemento a menudo se adjuntan a la expresión matricial entre paréntesis o entre corchetes (por ejemplo, ( AB ) i , j se refiere a un elemento de una matriz producto). En el contexto denotación de índice abstracto , esto también se refiere ambiguamente al producto de matriz completo.

Una aplicación importante de las matrices es representar transformaciones lineales (es decir, generalizaciones de funciones lineales como f ( x ) = 4 x ). Por ejemplo, la rotación de vectores en un espacio tridimensional es una transformación lineal, que se puede representar mediante una matriz de rotación R : si v es un vector columna (una matriz con una sola columna) que describe la posición de un punto en el espacio, el producto Rv es un vector de columna que describe la posición de ese punto después de una rotación. El producto de dosmatrices de transformación es una matriz que representa la composición de dos transformaciones . Otra aplicación de las matrices es la solución de sistemas de ecuaciones lineales .

Si la matriz es cuadrada (es decir, sus dimensiones son iguales), entonces es posible deducir algunas de sus propiedades calculando su determinante . Por ejemplo, una matriz cuadrada tiene una inversa si y solo si su determinante es distinto de cero. Se puede obtener información sobre la geometría de una transformación lineal (junto con otra información) a partir de los autovalores y autovectores de la matriz .

Las aplicaciones de matrices se encuentran en la mayoría de los campos científicos. [6] En todas las ramas de la física , incluidas la mecánica clásica , la óptica , el electromagnetismo , la mecánica cuántica y la electrodinámica cuántica , se utilizan para estudiar fenómenos físicos, como el movimiento de cuerpos rígidos .

En gráficos por computadora , se utilizan para manipular modelos 3D y proyectarlos en una pantalla bidimensional . En teoría y estadística de probabilidad , las matrices estocásticas se utilizan para describir conjuntos de probabilidades. Por ejemplo, se utilizan dentro del algoritmo PageRank que clasifica las páginas en una búsqueda de Google. [7] El cálculo matricial generaliza las nociones analíticas clásicas , como derivadas y exponenciales, a dimensiones superiores. Las matrices se utilizan en economía para describir sistemas de relaciones económicas.

Una rama importante del análisis numérico se dedica al desarrollo de algoritmos eficientes para cálculos matriciales, un tema que tiene siglos de antigüedad y que hoy es un área de investigación en expansión. Los métodos de descomposición de matrices simplifican los cálculos, tanto teórica como prácticamente. Los algoritmos que se adaptan a estructuras matriciales particulares, como matrices dispersas y matrices casi diagonales , agilizan los cálculos en el método de elementos finitos y otros cálculos. Las matrices infinitas ocurren en la teoría planetaria y en la teoría atómica . Un ejemplo simple de una matriz infinita es la matriz que representa el operador derivado , que actúa sobre elSerie de Taylor de una función.

Definición [ editar ]

Una matriz es una matriz rectangular de números (u otros objetos matemáticos) para los que se definen operaciones como la suma y la multiplicación . [8] Más comúnmente, una matriz sobre un campo F es una matriz rectangular de escalares, cada uno de los cuales es un miembro de F . [9] [10] La mayor parte de este artículo se centra en matrices reales y complejas , es decir, matrices cuyos elementos son respectivamente números reales o números complejos . A continuación se analizan tipos de entradas más generales.. Por ejemplo, esta es una matriz real:

Los números, símbolos o expresiones de la matriz se denominan entradas o elementos . Las líneas horizontales y verticales de entradas en una matriz se denominan filas y columnas , respectivamente.

Tamaño [ editar ]

El tamaño de una matriz se define por el número de filas y columnas que contiene. No hay límite para el número de filas y columnas que puede tener una matriz (en el sentido habitual) siempre que sean números enteros positivos. Una matriz con m filas y n columnas se llama un m  × n matriz, o m -by- n matriz, mientras que m y n son llamados sus dimensiones . Por ejemplo, la matriz A anterior es una matriz de 3 × 2.   

Las matrices con una sola fila se denominan vectores de fila y las que tienen una sola columna se denominan vectores de columna . Una matriz con el mismo número de filas y columnas se llama matriz cuadrada . [11] Una matriz con un número infinito de filas o columnas (o ambas) se llama matriz infinita . En algunos contextos, como los programas de álgebra de computadora , es útil considerar una matriz sin filas o sin columnas, llamada matriz vacía .

Notación [ editar ]

Las matrices se escriben comúnmente entre corchetes o paréntesis :

Los detalles de la notación matricial simbólica varían ampliamente, con algunas tendencias predominantes. Matrices son generalmente simbolizados usando mayúsculas letras (tales como A en los ejemplos anteriores), [3] , mientras que los correspondientes minúsculas letras, con dos índices de subíndice (por ejemplo, un 11 , o un 1,1 ), representan las entradas . Además de utilizar letras mayúsculas para simbolizar matrices, muchos autores utilizan un estilo tipográfico especial, comúnmente en negrita en posición vertical (no cursiva), para distinguir aún más las matrices de otros objetos matemáticos. Una notación alternativa implica el uso de un subrayado doble con el nombre de la variable, con o sin estilo de negrita (como en el caso de ).

La entrada en la i -ésima fila y la j -ésima columna de una matriz A a veces se conoce como la entrada i , j , ( i , j ) o ( i , j ) de la matriz, y más comúnmente se denota como a i , j o a ij . Las notaciones alternativas para esa entrada son A [ i, j ] o A i, j . Por ejemplo, el (1,3) de entrada de la siguiente matriz A es 5 (también denota un 13 , un 1,3, A [ 1,3 ] o A 1,3 ):

A veces, las entradas de una matriz se pueden definir mediante una fórmula como a i , j = f ( i , j ). Por ejemplo, cada una de las entradas de la siguiente matriz A está determinada por la fórmula a ij = i - j .

En este caso, la propia matriz a veces se define mediante esa fórmula, entre corchetes o paréntesis dobles. Por ejemplo, la matriz anterior se define como A = [ i - j ] o A = (( i - j )). Si el tamaño de la matriz es m × n , la fórmula f ( i , j ) mencionada anteriormente es válida para cualquier i = 1, ..., my cualquier j = 1, ..., n . Esto puede especificarse por separado o indicarse mediante m × ncomo subíndice. Por ejemplo, la matriz A anterior es 3 × 4, y se puede definir como A = [ i - j ] ( i = 1, 2, 3; j = 1, ..., 4), o A = [ i - j ] 3 × 4 .

Algunos lenguajes de programación utilizan matrices con doble subíndice (o matrices de matrices) para representar una matriz m - × - n . Algunos lenguajes de programación comienzan la numeración de los índices de matriz en cero, en cuyo caso las entradas de una matriz m- por- n están indexadas por 0 ≤ im - 1 y 0 ≤ jn - 1 . [12] Este artículo sigue la convención más común en escritura matemática donde la enumeración comienza desde 1.

Un asterisco se usa ocasionalmente para referirse a filas o columnas completas en una matriz. Por ejemplo, una i , * se refiere a la i ª fila de A , y un *, j se refiere a la j ésimo columna de A . El conjunto de todas las matrices m- por- n se denota o para matrices reales.

Operaciones básicas [ editar ]

Hay una serie de operaciones básicas que se pueden aplicar para modificar matrices, llamadas suma de matrices , multiplicación escalar , transposición , multiplicación de matrices , operaciones de fila y submatriz . [14]

Suma, multiplicación escalar y transposición [ editar ]

Propiedades familiares de números se extienden a estas operaciones de matrices: por ejemplo, la adición es conmutativa , es decir, la suma de la matriz no depende del orden de los sumandos: A  + B = B + A . [15] La transpuesta es compatible con la suma y la multiplicación escalar, tal como se expresa por ( c A ) T = c ( A T ) y ( A + B ) T = A T + B T . Finalmente, ( A T ) T = A             .

Multiplicación de matrices [ editar ]

Representación esquemática de la matriz producto AB de dos matrices A y B .

La multiplicación de dos matrices se define si y solo si el número de columnas de la matriz de la izquierda es el mismo que el número de filas de la matriz de la derecha. Si A es una matriz m- por- n y B es una matriz n- por- p , entonces su producto matricial AB es la matriz m- por- p cuyas entradas están dadas por el producto escalar de la fila correspondiente de A y la correspondiente columna de B : [16]

donde 1 ≤ imy 1 ≤ jp . [17] Por ejemplo, la entrada subrayada 2340 en el producto se calcula como (2 × 1000) + (3 × 100) + (4 × 10) = 2340:

La multiplicación de matrices satisface las reglas ( AB ) C = A ( BC ) ( asociatividad ) y ( A + B ) C = AC + BC así como C ( A + B ) = CA + CB ( distributividad izquierda y derecha ), siempre que el tamaño de las matrices es tal que se definen los distintos productos. [18] El producto AB puede definirse sin que BA esté definido, es decir, si A yB son matrices m- por- n y n- por- k , respectivamente, y mk . Incluso si ambos productos están definidos, generalmente no es necesario que sean iguales, es decir:

ABBA ,

En otras palabras, la multiplicación de matrices no es conmutativa , en marcado contraste con los números (racionales, reales o complejos), cuyo producto es independiente del orden de los factores. [16] Un ejemplo de dos matrices que no se conmutan entre sí es:

mientras que

Además de la multiplicación de matrices ordinaria que se acaba de describir, también existen otras operaciones de matrices que se utilizan con menos frecuencia y que pueden considerarse formas de multiplicación, como el producto de Hadamard y el producto de Kronecker . [19] Surgen al resolver ecuaciones matriciales como la ecuación de Sylvester .

Operaciones de fila [ editar ]

Hay tres tipos de operaciones de fila:

  1. suma de filas, es decir, agregar una fila a otra.
  2. multiplicación de filas, es decir, multiplicar todas las entradas de una fila por una constante distinta de cero;
  3. cambio de fila, es decir, intercambiar dos filas de una matriz;

Estas operaciones se utilizan de varias formas, incluida la resolución de ecuaciones lineales y la búsqueda de matrices inversas .

Submatriz [ editar ]

Una submatriz de una matriz se obtiene eliminando cualquier colección de filas y / o columnas. [20] [21] [22] Por ejemplo, a partir de la siguiente matriz de 3 por 4, podemos construir una submatriz de 2 por 3 eliminando la fila 3 y la columna 2:

Los menores y cofactores de una matriz se encuentran calculando el determinante de ciertas submatrices. [22] [23]

Una submatriz principal es una submatriz cuadrada que se obtiene al eliminar ciertas filas y columnas. La definición varía de un autor a otro. Según algunos autores, una submatriz principal es una submatriz en la que el conjunto de índices de filas que quedan es el mismo que el conjunto de índices de columnas que quedan. [24] [25] Otros autores definen una submatriz principal como aquella en la que las primeras k filas y columnas, para algún número k , son las que quedan; [26] este tipo de submatriz también se ha denominado una submatriz principal principal . [27]

Ecuaciones lineales [ editar ]

Las matrices se pueden utilizar para escribir de forma compacta y trabajar con múltiples ecuaciones lineales, es decir, sistemas de ecuaciones lineales. Por ejemplo, si A es una matriz m- por- n , x designa un vector columna (es decir, n × 1-matriz) de n variables x 1 , x 2 , ..., x n , y b es una m × vector de 1 columna, luego la ecuación matricial

es equivalente al sistema de ecuaciones lineales [28]

Usando matrices, esto se puede resolver de manera más compacta de lo que sería posible escribiendo todas las ecuaciones por separado. Si n = my las ecuaciones son independientes , esto se puede hacer escribiendo

donde A -1 es la matriz inversa de A . Si A no tiene inversa, las soluciones, si las hay, se pueden encontrar usando su inversa generalizada .

Transformaciones lineales [ editar ]

Los vectores representados por una matriz de 2 por 2 corresponden a los lados de un cuadrado unitario transformado en un paralelogramo.

Las matrices y la multiplicación de matrices revelan sus características esenciales cuando se relacionan con transformaciones lineales , también conocidas como mapas lineales . A real m -by- n matriz A da lugar a una transformación lineal R nR m mapeo cada vector x en R n para el producto (matriz) Ax , que es un vector en R m . Por el contrario, cada transformación lineal f : R nR m surge de un m único -por-n matriz A : explícitamente, la entrada ( i , j ) de A es la i- ésima coordenada de f ( e j ), donde e j = (0, ..., 0,1,0, ..., 0 ) es el vector unitario con 1 en la j- ésima posición y 0 en el resto. Se dice que lamatriz A representa el mapa lineal f , y A se llama matriz de transformación de f .

Por ejemplo, la matriz 2 × 2

puede verse como la transformación del cuadrado unitario en un paralelogramo con vértices en (0, 0) , ( a , b ) , ( a + c , b + d ) y ( c , d ) . El paralelogramo que se muestra a la derecha se obtiene multiplicando A con cada uno de los vectores columna , y a su vez. Estos vectores definen los vértices del cuadrado unitario.

La siguiente tabla muestra varias matrices reales 2 × 2 con los mapas lineales asociados de R 2 . El original azul se asigna a la cuadrícula y las formas verdes. El origen (0,0) está marcado con un punto negro.

Bajo la correspondencia 1 a 1 entre matrices y mapas lineales, la multiplicación de matrices corresponde a la composición de mapas: [29] si una k- por- m matriz B representa otro mapa lineal g : R mR k , entonces la composición gf está representado por BA ya que

( gf ) ( x ) = g ( f ( x )) = g ( Ax ) = B ( Ax ) = ( BA ) x .

La última igualdad se deriva de la asociatividad de la multiplicación de matrices antes mencionada.

El rango de una matriz A es el número máximo de vectores de fila linealmente independientes de la matriz, que es el mismo que el número máximo de vectores de columna linealmente independientes. [30] De manera equivalente es la dimensión de la imagen del mapa lineal representado por A . [31] El teorema de rango-nulidad establece que la dimensión del núcleo de una matriz más el rango es igual al número de columnas de la matriz. [32]

Matriz cuadrada [ editar ]

Una matriz cuadrada es una matriz con el mismo número de filas y columnas. [11] Una matriz n- por- n se conoce como matriz cuadrada de orden n. Se pueden sumar y multiplicar dos matrices cuadradas cualesquiera del mismo orden. Las entradas a ii forman la diagonal principal de una matriz cuadrada. Se encuentran en la línea imaginaria que va desde la esquina superior izquierda hasta la esquina inferior derecha de la matriz.

Tipos principales [ editar ]

Matriz diagonal y triangular [ editar ]

Si todas las entradas de A debajo de la diagonal principal son cero, A se llama matriz triangular superior . De manera similar, si todas las entradas de A por encima de la diagonal principal son cero, A se denomina matriz triangular inferior . Si todas las entradas fuera de la diagonal principal son cero, A se llama matriz diagonal .

Matriz de identidad [ editar ]

La matriz identidad I n de tamaño n es la matriz n- por- n en la que todos los elementos de la diagonal principal son iguales a 1 y todos los demás elementos son iguales a 0, por ejemplo,

Es una matriz cuadrada de orden n , y también un tipo especial de matriz diagonal . Se llama matriz de identidad porque la multiplicación con ella deja una matriz sin cambios:

AI n = I m A = A para cualquiermatriz A de m- por- n .

Un múltiplo escalar distinto de cero de una matriz de identidad se denomina matriz escalar . Si las entradas de la matriz provienen de un campo, las matrices escalares forman un grupo, bajo la multiplicación de matrices, que es isomorfo al grupo multiplicativo de elementos distintos de cero del campo.

Matriz simétrica o simétrica sesgada [ editar ]

Una matriz cuadrada A que es igual a su transpuesta, es decir, A = A T , es una matriz simétrica . Si, en cambio, A es igual al negativo de su transpuesta, es decir, A = - A T , entonces A es una matriz de simetría sesgada . En matrices complejas, la simetría a menudo se reemplaza por el concepto de matrices hermitianas , que satisfacen A = A , donde la estrella o asterisco denota la transpuesta conjugada de la matriz, es decir, la transpuesta de la matriz.conjugada compleja de A .

Según el teorema espectral , las matrices simétricas reales y las matrices hermitianas complejas tienen una base propia ; es decir, cada vector se puede expresar como una combinación lineal de autovectores. En ambos casos, todos los valores propios son reales. [33] Este teorema se puede generalizar a situaciones de dimensión infinita relacionadas con matrices con un número infinito de filas y columnas, ver más abajo .

Matriz invertible y su inversa [ editar ]

Una matriz cuadrada A se llama invertible o no singular si existe una matriz B tal que

AB = BA = I n , [34] [35]

donde I n es la matriz de identidad n × n con 1 en la diagonal principal y 0 en el resto. Si B existe, es único y se llama matriz inversa de A , denotado A −1 .

Matriz definida [ editar ]

A simétrica n × n -matrix A se llama definida positiva si el asociado forma cuadrática

f ( x ) = x T A  x

tiene un valor positivo para cada vector x distinto de cero en R n . Si f ( x ) solo arroja valores negativos, entonces A es definida negativa ; si f produce valores tanto negativos como positivos, entonces A es indefinido . [36] Si la forma cuadrática f produce solo valores no negativos (positivos o cero), la matriz simétrica se llama positiva-semidefinita (o si solo valores no positivos, entonces negativa-semidefinita); por tanto, la matriz es indefinida precisamente cuando no es ni semidefinita positiva ni semidefinita negativa.

Una matriz simétrica es positiva-definida si y solo si todos sus valores propios son positivos, es decir, la matriz es positiva-semidefinida y es invertible. [37] La tabla de la derecha muestra dos posibilidades para matrices de 2 por 2.

Permitir como entrada dos vectores diferentes en su lugar produce la forma bilineal asociada a A :

B A ( x , y ) = x T Ay . [38]

Matriz ortogonal [ editar ]

Una matriz ortogonal es una matriz cuadrada con entradas reales cuyas columnas y filas son vectores unitarios ortogonales (es decir, vectores ortonormales ). De manera equivalente, una matriz A es ortogonal si su transposición es igual a su inversa :

lo que implica

donde I n es la matriz identidad de tamaño n .

Una matriz ortogonal A es necesariamente invertible (con inversa A −1 = A T ), unitaria ( A −1 = A * ) y normal ( A * A = AA * ). El determinante de cualquier matriz ortogonal es +1 o -1 . Una matriz ortogonal especial es una matriz ortogonal con determinante +1. Como transformación lineal , toda matriz ortogonal con determinante +1es una rotación pura sin reflexión, es decir, la transformación conserva la orientación de la estructura transformada, mientras que toda matriz ortogonal con determinante -1 invierte la orientación, es decir, es una composición de una reflexión pura y una rotación (posiblemente nula). Las matrices de identidad tienen determinante 1 y son rotaciones puras por un ángulo cero.

El análogo complejo de una matriz ortogonal es una matriz unitaria .

Operaciones principales [ editar ]

Rastrear [ editar ]

La traza , tr ( A ) de una matriz cuadrada A es la suma de sus entradas diagonales. Si bien la multiplicación de matrices no es conmutativa como se mencionó anteriormente , la traza del producto de dos matrices es independiente del orden de los factores:

tr ( AB ) = tr ( BA ).

Esto es inmediato a partir de la definición de multiplicación de matrices:

De ello se deduce que la traza del producto de más de dos matrices es independiente de las permutaciones cíclicas de las matrices, sin embargo, esto no se aplica en general a las permutaciones arbitrarias (por ejemplo, tr ( ABC ) ≠ tr ( BAC ), en general). Además, la traza de una matriz es igual a la de su transposición, es decir,

tr ( A ) = tr ( A T ) .

Determinante [ editar ]

Una transformación lineal en R 2 dada por la matriz indicada. El determinante de esta matriz es -1, ya que el área del paralelogramo verde a la derecha es 1, pero el mapa invierte la orientación , ya que cambia la orientación de los vectores en sentido antihorario a una en sentido horario.

El determinante de una matriz cuadrada A (denotado det ( A ) o | A | [3] ) es un número que codifica ciertas propiedades de la matriz. Una matriz es invertible si y solo si su determinante es distinto de cero. Su valor absoluto es igual al área (en R 2 ) o volumen (en R 3 ) de la imagen del cuadrado unitario (o cubo), mientras que su signo corresponde a la orientación del mapa lineal correspondiente: el determinante es positivo si y solo si se conserva la orientación.

El determinante de matrices 2 por 2 viene dado por

[6]

El determinante de matrices de 3 por 3 involucra 6 términos ( regla de Sarrus ). La fórmula de Leibniz más extensa generaliza estas dos fórmulas a todas las dimensiones. [39]

El determinante de un producto de matrices cuadradas es igual al producto de sus determinantes:

det ( AB ) = det ( A ) · det ( B ). [40]

Agregar un múltiplo de cualquier fila a otra fila, o un múltiplo de cualquier columna a otra columna no cambia el determinante. El intercambio de dos filas o dos columnas afecta al determinante multiplicándolo por −1. [41] Usando estas operaciones, cualquier matriz se puede transformar en una matriz triangular inferior (o superior), y para tales matrices, el determinante es igual al producto de las entradas en la diagonal principal; esto proporciona un método para calcular el determinante de cualquier matriz. Finalmente, la expansión de Laplace expresa el determinante en términos de menores , es decir, determinantes de matrices más pequeñas. [42]Esta expansión se puede utilizar para una definición recursiva de determinantes (tomando como caso de partida el determinante de una matriz de 1 por 1, que es su entrada única, o incluso el determinante de una matriz de 0 por 0, que es 1) , que puede verse como equivalente a la fórmula de Leibniz. Los determinantes se pueden usar para resolver sistemas lineales usando la regla de Cramer , donde la división de los determinantes de dos matrices cuadradas relacionadas equivale al valor de cada una de las variables del sistema. [43]

Autovalores y autovectores [ editar ]

Un número λ y un vector v distinto de cero satisfacen

se denominan autovalor y autovector de A , respectivamente. [44] [45] El número λ es un valor propio de una matriz A n × n si y solo si A −λ I n no es invertible, lo que equivale a

[46]

El polinomio P A en una indeterminada X dado por la evaluación de la det determinante ( X I n - A ) se llama el polinomio característico de A . Es un polinomio mónico de grado n . Por tanto, la ecuación polinomial p A (λ)  =  0 tiene como máximo n soluciones diferentes, es decir, valores propios de la matriz. [47] Pueden ser complejas incluso si las entradas de A son reales. Según el teorema de Cayley-Hamilton , pA ( A ) = 0 , es decir, el resultado de sustituir la propia matriz en su propio polinomio característico produce lamatriz cero.

Aspectos computacionales [ editar ]

Los cálculos matriciales a menudo se pueden realizar con diferentes técnicas. Muchos problemas pueden resolverse mediante algoritmos directos o enfoques iterativos. Por ejemplo, los vectores propios de una matriz cuadrada se pueden obtener al encontrar una secuencia de vectores x n que convergen en un vector propio cuando n tiende a infinito . [48]

Para elegir el algoritmo más apropiado para cada problema específico, es importante determinar tanto la efectividad como la precisión de todos los algoritmos disponibles. El dominio que estudia estos asuntos se llama álgebra lineal numérica . [49] Al igual que con otras situaciones numéricas, dos aspectos principales son la complejidad de los algoritmos y su estabilidad numérica .

Determinar la complejidad de un algoritmo significa encontrar límites superiores o estimaciones de cuántas operaciones elementales, como sumas y multiplicaciones de escalares, son necesarias para realizar algún algoritmo, por ejemplo, la multiplicación de matrices . Para calcular el producto matricial de dos matrices n- por- n usando la definición dada arriba se necesitan n 3 multiplicaciones, ya que para cualquiera de las n 2 entradas del producto, son necesarias n multiplicaciones. El algoritmo de Strassen supera a este algoritmo "ingenuo"; solo necesita n 2.807 multiplicaciones. [50] Un enfoque refinado también incorpora características específicas de los dispositivos informáticos.

En muchas situaciones prácticas se conoce información adicional sobre las matrices involucradas. Un caso importante son las matrices dispersas , es decir, las matrices cuyas entradas son en su mayoría cero. Hay algoritmos específicamente adaptados para, digamos, resolver sistemas lineales Ax = b para matrices dispersas A , como el método de gradiente conjugado . [51]

Un algoritmo es, en términos generales, numéricamente estable, si pequeñas desviaciones en los valores de entrada no conducen a grandes desviaciones en el resultado. Por ejemplo, calcular la inversa de una matriz mediante la expansión de Laplace (adj ( A ) denota la matriz adjunta de A )

A −1 = adj ( A ) / det ( A )

puede dar lugar a errores de redondeo importantes si el determinante de la matriz es muy pequeño. La norma de una matriz se puede utilizar para capturar el condicionamiento de problemas algebraicos lineales, como calcular la inversa de una matriz. [52]

La mayoría de los lenguajes de programación de computadoras admiten matrices, pero no están diseñados con comandos integrados para matrices. En cambio, las bibliotecas externas disponibles proporcionan operaciones matriciales en matrices, en casi todos los lenguajes de programación utilizados actualmente. La manipulación de matrices fue una de las primeras aplicaciones numéricas de las computadoras. [53] El Dartmouth BASIC original tenía comandos incorporados para aritmética matricial en arreglos desde su implementación de la segunda edición en 1964. Ya en la década de 1970, algunas computadoras de escritorio de ingeniería como la HP 9830 tenían cartuchos ROM para agregar comandos BASIC para matrices . Algunos lenguajes de computadora como APL fueron diseñados para manipular matrices, ySe pueden utilizar varios programas matemáticos para ayudar a calcular con matrices. [54]

Descomposición [ editar ]

Existen varios métodos para convertir las matrices en una forma más accesible. Generalmente se les conoce como técnicas de descomposición matricial o factorización matricial . El interés de todas estas técnicas es que conservan determinadas propiedades de las matrices en cuestión, como determinante, rango o inversa, para que estas cantidades se puedan calcular tras aplicar la transformación, o que determinadas operaciones matriciales sean algorítmicamente más fáciles de realizar. para algunos tipos de matrices.

Las matrices de factores de descomposición LU como un producto de matrices triangulares inferior ( L ) y superior ( U ). [55] Una vez que se calcula esta descomposición, los sistemas lineales se pueden resolver de manera más eficiente, mediante una técnica simple llamada sustitución hacia adelante y hacia atrás . Asimismo, las inversas de matrices triangulares son algorítmicamente más fáciles de calcular. La eliminación gaussiana es un algoritmo similar; transforma cualquier matriz en forma escalonada por filas . [56] Ambos métodos proceden de multiplicar la matriz por matrices elementales adecuadas , que corresponden a permutar filas o columnas.y sumando múltiplos de una fila a otra fila. La descomposición de valores singulares expresa cualquier matriz A como un producto UDV , donde U y V son matrices unitarias y D es una matriz diagonal.

Un ejemplo de una matriz en forma normal de Jordan. Los bloques grises se llaman bloques Jordan.

La autodescomposición o diagonalización expresa A como un producto VDV −1 , donde D es una matriz diagonal y V es una matriz invertible adecuada. [57] Si A puede escribirse de esta forma, se denomina diagonalizable . De manera más general, y aplicable a todas las matrices, la descomposición de Jordan transforma una matriz en la forma normal de Jordan , es decir, matrices cuyas únicas entradas distintas de cero son los valores propios λ 1 a λ n de A, colocado en la diagonal principal y posiblemente entradas iguales a una directamente encima de la diagonal principal, como se muestra a la derecha. [58] Dada la descomposición propia, la n- ésima potencia de A (es decir, la multiplicación de matrices iterada n veces) se puede calcular mediante

A n = ( VDV −1 ) n = VDV −1 VDV −1 ... VDV −1 = VD n V −1

y la potencia de una matriz diagonal se puede calcular tomando las potencias correspondientes de las entradas diagonales, que es mucho más fácil que hacer la exponenciación para A en su lugar. Esto se puede utilizar para calcular la matriz exponencial e A , una necesidad que surge con frecuencia al resolver ecuaciones diferenciales lineales , logaritmos matriciales y raíces cuadradas de matrices . [59] Para evitar situaciones numéricamente mal condicionadas , se pueden emplear más algoritmos como la descomposición de Schur . [60]

Aspectos algebraicos abstractos y generalizaciones [ editar ]

Las matrices se pueden generalizar de diferentes formas. El álgebra abstracta usa matrices con entradas en campos más generales o incluso anillos , mientras que el álgebra lineal codifica las propiedades de las matrices en la noción de mapas lineales. Es posible considerar matrices con infinitas columnas y filas. Otra extensión son los tensores , que pueden verse como matrices de números de dimensiones superiores, en contraposición a los vectores, que a menudo se pueden realizar como secuencias de números, mientras que las matrices son matrices de números rectangulares o bidimensionales. [61] Las matrices, sujetas a ciertos requisitos, tienden a formar grupos conocidos como grupos de matrices. De manera similar, bajo ciertas condiciones, las matrices forman anillos conocidos comoanillos de matriz . Aunque el producto de las matrices no es conmutativo en general, ciertas matrices forman campos conocidos como campos matriciales .

Matrices con entradas más generales [ editar ]

Este artículo se centra en matrices cuyas entradas son números reales o complejos. Sin embargo, las matrices se pueden considerar con tipos de entradas mucho más generales que los números reales o complejos. Como primer paso de generalización, se puede usar cualquier campo , es decir, un conjunto donde las operaciones de suma , resta , multiplicación y división están definidas y se comportan bien, en lugar de R o C , por ejemplo, números racionales o campos finitos . Por ejemplo, la teoría de la codificación utiliza matrices sobre campos finitos. Dondequiera que los valores propiosse consideran, como son raíces de un polinomio, pueden existir solo en un campo más grande que el de las entradas de la matriz; por ejemplo, pueden ser complejos en el caso de una matriz con entradas reales. La posibilidad de reinterpretar las entradas de una matriz como elementos de un campo más grande (por ejemplo, para ver una matriz real como una matriz compleja cuyas entradas resultan ser todas reales) permite entonces considerar que cada matriz cuadrada posee un conjunto completo de valores propios. Alternativamente, se pueden considerar solo matrices con entradas en un campo algebraicamente cerrado , como C , desde el principio.

De manera más general, las matrices con entradas en un anillo R se utilizan ampliamente en matemáticas. [62] Los anillos son una noción más general que los campos en el sentido de que no es necesario que exista una operación de división. Las mismas operaciones de suma y multiplicación de matrices también se extienden a esta configuración. El conjunto M ( n , R ) de todas las matrices cuadradas n- por- n sobre R es un anillo llamado anillo de matriz , isomorfo al anillo de endomorfismo del R izquierdo - módulo R n . [63] Si el anillo R es conmutativo, Es decir, su multiplicación es conmutativa, entonces M ( n , R ) es un no conmutativo unitario (a menos que n = 1) asociativo álgebra sobre R . El determinante de matrices cuadradas sobre un anillo conmutativo R aún se puede definir usando la fórmula de Leibniz ; tal matriz es invertible si y solo si su determinante es invertible en R , generalizando la situación sobre un campo F , donde todo elemento distinto de cero es invertible. [64] Las matrices sobre superanillos se denominan supermatrices . [sesenta y cinco]

Las matrices no siempre tienen todas sus entradas en el mismo anillo  , ni siquiera en ningún anillo. Un caso especial pero común son las matrices de bloques , que pueden considerarse como matrices cuyas entradas en sí mismas son matrices. Las entradas no necesitan ser matrices cuadradas y, por tanto, no necesitan ser miembros de ningún anillo ; pero sus tamaños deben cumplir ciertas condiciones de compatibilidad.

Relación con mapas lineales [ editar ]

Los mapas lineales R nR m son equivalentes a matrices m- por- n , como se describió anteriormente . Más en general, cualquier mapa lineal f : VW entre finitas dimensionales espacios vectoriales puede ser descrito por una matriz A = ( a ij ), después de la elección de bases v 1 , ..., v n de V , y w 1 ,. .., w m de W (entonces nes la dimensión de V y m es la dimensión de W ), que es tal que

En otras palabras, la columna j de A expresa la imagen de v j en términos de los vectores base w i de W ; por lo tanto esta relación determina de forma única las entradas de la matriz A . La matriz depende de la elección de las bases: diferentes elecciones de bases dan lugar a matrices diferentes pero equivalentes . [66] Muchas de las nociones concretas anteriores se pueden reinterpretar bajo esta luz, por ejemplo, la matriz de transposición A T describe la transposición del mapa lineal dado por A , con respecto a las bases duales .[67]

Estas propiedades se pueden reformular de forma más natural: la categoría de todas las matrices con entradas en un campo con multiplicación como composición es equivalente a la categoría de espacios vectoriales de dimensión finita y mapas lineales sobre este campo.

Más en general, el conjunto de m × n matrices se pueden utilizar para representar el R -linear mapea entre la libre módulos R m y R n para un anillo arbitrario R con la unidad. Cuando n  = m la composición de estos mapas es posible, y esto da lugar al anillo de matriz de n × n matrices que representan el anillo de endomorfismo de R n . 

Grupos de matriz [ editar ]

Un grupo es una estructura matemática que consta de un conjunto de objetos junto con una operación binaria , es decir, una operación que combina dos objetos cualesquiera en un tercero, sujeto a ciertos requisitos. [68] Un grupo en el que los objetos son matrices y la operación de grupo es la multiplicación de matrices se denomina grupo de matrices . [69] [70] Dado que en un grupo cada elemento debe ser invertible, los grupos de matrices más generales son los grupos de todas las matrices invertibles de un tamaño dado, llamados grupos lineales generales .

Cualquier propiedad de las matrices que se conserve bajo los productos de la matriz y las inversas se puede utilizar para definir más grupos de matrices. Por ejemplo, las matrices con un tamaño dado y con un determinante de 1 forman un subgrupo de (es decir, un grupo más pequeño contenido en) su grupo lineal general, llamado grupo lineal especial . [71] Matrices ortogonales , determinadas por la condición

M T M = Yo ,

forman el grupo ortogonal . [72] Toda matriz ortogonal tiene un determinante 1 o −1. Las matrices ortogonales con determinante 1 forman un subgrupo llamado grupo ortogonal especial .

Cada grupo finito es isomorfo a un grupo de matriz, como se puede ver al considerar la representación regular del grupo simétrico . [73] Los grupos generales se pueden estudiar utilizando grupos matriciales, que se comprenden comparativamente bien, mediante la teoría de la representación . [74]

Matrices infinitas [ editar ]

También es posible considerar matrices con un número infinito de filas y / o columnas [75] incluso si, al ser objetos infinitos, no se pueden escribir tales matrices explícitamente. Todo lo que importa es que para cada elemento en las filas de indexación del conjunto, y cada elemento en las columnas de indexación del conjunto, hay una entrada bien definida (estos conjuntos de índices ni siquiera necesitan ser subconjuntos de los números naturales). Las operaciones básicas de suma, resta, multiplicación escalar y transposición aún se pueden definir sin problemas; sin embargo, la multiplicación de matrices puede involucrar sumas infinitas para definir las entradas resultantes, y estas no están definidas en general.

Si R es cualquier anillo con unidad, entonces el anillo de endomorfismos de un módulo R derecho es isomorfo al anillo de matrices finitas de columna cuyas entradas están indexadas por , y cuyas columnas cada una contiene solo un número finito de entradas distintas de cero. Los endomorfismos de M considerados como un módulo R izquierdo dan como resultado un objeto análogo, las matrices finitas de filas cuyas filas tienen cada una de ellas un número finito de entradas distintas de cero.

Si se usan matrices infinitas para describir mapas lineales, entonces solo se pueden usar aquellas matrices cuyas columnas tienen un número finito de entradas distintas de cero, por la siguiente razón. Para que una matriz A describa un mapa lineal f : VW , se deben haber elegido las bases para ambos espacios; recuerde que, por definición, esto significa que cada vector en el espacio se puede escribir de forma única como una combinación lineal (finita) de vectores básicos, de modo que, escrito como un vector (columna) v de coeficientes , solo un número finito de entradas v i son distintas de cero. Ahora las columnas de A describen las imágenes por f de vectores base individuales de V en la base de W , que solo tiene sentido si estas columnas tienen solo un número finito de entradas distintas de cero. Sin embargo, no hay restricción en las filas de A : en el producto A · v solo hay un número finito de coeficientes distintos de cero de v involucrados, por lo que cada una de sus entradas, incluso si se da como una suma infinita de productos, involucra solo una cantidad finita muchos términos distintos de cero y, por lo tanto, está bien definido. Además, esto equivale a formar una combinación lineal de las columnas de Aeso efectivamente involucra solo a un número finito de ellos, de donde el resultado solo tiene un número finito de entradas distintas de cero porque cada una de esas columnas lo hace. Los productos de dos matrices del tipo dado están bien definidos (siempre que los conjuntos de índice de columna y de índice de fila coincidan), son del mismo tipo y corresponden a la composición de mapas lineales.

Si R es un anillo normalizado , entonces la condición de finitud de filas o columnas se puede relajar. Con la norma establecida, se pueden usar series absolutamente convergentes en lugar de sumas finitas. Por ejemplo, las matrices cuyas columnas son secuencias absolutamente convergentes forman un anillo. De manera análoga, las matrices cuyas sumas de fila son series absolutamente convergentes también forman un anillo.

Las matrices infinitas también se pueden usar para describir operadores en espacios de Hilbert , donde surgen preguntas de convergencia y continuidad , lo que nuevamente da como resultado ciertas restricciones que deben imponerse. Sin embargo, el punto de vista explícito de las matrices tiende a ofuscar el asunto, [76] y en su lugar se pueden utilizar las herramientas abstractas y más poderosas del análisis funcional .

Matrices vacías [ editar ]

Una matriz vacía es una matriz en la que el número de filas o columnas (o ambas) es cero. [77] [78] Las matrices vacías ayudan a lidiar con mapas que involucran el espacio vectorial cero . Por ejemplo, si A es una matriz de 3 por 0 y B es una matriz de 0 por 3, entonces AB es la matriz cero de 3 por 3 correspondiente al mapa nulo de un espacio tridimensional V a sí mismo, mientras que BA es una matriz de 0 por 0. No existe una notación común para las matrices vacías, pero la mayoría de los sistemas de álgebra por computadora permiten crear y calcular con ellas. El determinante de la matriz 0 por 0 es 1 como sigue con respecto al producto vacíoque ocurre en la fórmula de Leibniz para el determinante como 1. Este valor también es consistente con el hecho de que el mapa de identidad de cualquier espacio de dimensión finita a sí mismo tiene determinante  1, un hecho que a menudo se usa como parte de la caracterización de determinantes.

Aplicaciones [ editar ]

Existen numerosas aplicaciones de las matrices, tanto en matemáticas como en otras ciencias. Algunos de ellos simplemente aprovechan la representación compacta de un conjunto de números en una matriz. Por ejemplo, en teoría y economía de juegos , la matriz de pagos codifica el pago para dos jugadores, dependiendo de cuál de un conjunto dado (finito) de alternativas elijan los jugadores. [79] La minería de texto y la compilación automatizada de tesauros utilizan matrices de términos de documentos como tf-idf para rastrear las frecuencias de ciertas palabras en varios documentos. [80]

Los números complejos se pueden representar mediante matrices reales particulares de 2 por 2 a través de

bajo el cual la suma y la multiplicación de números complejos y matrices se corresponden entre sí. Por ejemplo, las matrices de rotación de 2 por 2 representan la multiplicación con algún número complejo de valor absoluto 1, como se indicó anteriormente . Una interpretación similar es posible para los cuaterniones [81] y las álgebras de Clifford en general.

Las primeras técnicas de cifrado , como el cifrado Hill, también utilizaban matrices. Sin embargo, debido a la naturaleza lineal de las matrices, estos códigos son comparativamente fáciles de romper. [82] Los gráficos por computadora usan matrices tanto para representar objetos como para calcular transformaciones de objetos usando matrices de rotación afines para realizar tareas como proyectar un objeto tridimensional en una pantalla bidimensional, correspondiente a una observación teórica de cámara. [83] Las matrices sobre un anillo polinomial son importantes en el estudio de la teoría de control .

La química hace uso de matrices de varias maneras, particularmente desde el uso de la teoría cuántica para discutir los enlaces moleculares y la espectroscopía . Algunos ejemplos son la matriz de superposición y la matriz de Fock que se utilizan para resolver las ecuaciones de Roothaan para obtener los orbitales moleculares del método Hartree-Fock .

Teoría de grafos [ editar ]

Un gráfico no dirigido con matriz de adyacencia:

La matriz de adyacencia de un gráfico finito es una noción básica de la teoría de grafos . [84] Registra qué vértices del gráfico están conectados por una arista. Las matrices que contienen solo dos valores diferentes (1 y 0 que significan, por ejemplo, "sí" y "no", respectivamente) se denominan matrices lógicas . La matriz de distancia (o costo) contiene información sobre las distancias de los bordes. [85] Estos conceptos se pueden aplicar a sitios web conectados por hipervínculos o ciudades conectadas por carreteras, etc., en cuyo caso (a menos que la red de conexión sea extremadamente densa) las matrices tienden a ser escasas, es decir, contienen pocas entradas distintas de cero. Por lo tanto, en la teoría de redes se pueden utilizar algoritmos matriciales diseñados específicamente .

Análisis y geometría [ editar ]

La matriz de Hesse de una función diferenciable ƒ : R nR consta de las segundas derivadas de ƒ con respecto a las varias direcciones de coordenadas, es decir, [86]

En el punto de silla ( x  =  0, y  =  0) (rojo) de la función f ( x , - y ) = x 2 - y 2 , la matriz de Hesse es indefinida .   

Codifica información sobre el comportamiento de crecimiento local de la función: dado un punto crítico x  =  ( x 1 ,  ..., x n ), es decir, un punto donde las primeras derivadas parciales de ƒ desaparecen, la función tiene un mínimo local si la matriz de Hesse es definida positiva . La programación cuadrática se puede utilizar para encontrar mínimos o máximos globales de funciones cuadráticas estrechamente relacionadas con las adjuntas a matrices (ver arriba ). [87] 

Otra matriz de uso frecuente en situaciones geométricas es la matriz de Jacobi de un mapa diferenciable f : R nR m . Si f 1 , ..., f m denotan los componentes de f , entonces la matriz de Jacobi se define como [88]

Si n > my si el rango de la matriz de Jacobi alcanza su valor máximo m , f es localmente invertible en ese punto, por el teorema de la función implícita . [89]

Las ecuaciones diferenciales parciales se pueden clasificar considerando la matriz de coeficientes de los operadores diferenciales de orden más alto de la ecuación. Para las ecuaciones diferenciales parciales elípticas esta matriz es positiva definida, lo que influye decisivamente en el conjunto de posibles soluciones de la ecuación en cuestión. [90]

El método de los elementos finitos es un método numérico importante para resolver ecuaciones diferenciales parciales, ampliamente aplicado en la simulación de sistemas físicos complejos. Intenta aproximar la solución a alguna ecuación mediante funciones lineales por partes, donde las piezas se eligen con respecto a una cuadrícula suficientemente fina, que a su vez puede reformularse como una ecuación matricial. [91]

Teoría de la probabilidad y estadística [ editar ]

Dos cadenas de Markov diferentes. El gráfico muestra el número de partículas (de un total de 1000) en el estado "2". Ambos valores límite se pueden determinar a partir de las matrices de transición, que vienen dadas por (rojo) y (negro).

Las matrices estocásticas son matrices cuadradas cuyas filas son vectores de probabilidad , es decir, cuyas entradas no son negativas y suman uno. Las matrices estocásticas se utilizan para definir cadenas de Markov con un número finito de estados. [92] Una fila de la matriz estocástica da la distribución de probabilidad para la siguiente posición de alguna partícula actualmente en el estado que corresponde a la fila. Las propiedades de los estados absorbentes en forma de cadena de Markov , es decir, los estados que cualquier partícula alcanza eventualmente, pueden leerse de los autovectores de las matrices de transición. [93]

La estadística también utiliza matrices en muchas formas diferentes. [94] La estadística descriptiva se ocupa de describir conjuntos de datos, que a menudo pueden representarse como matrices de datos , que luego pueden someterse a técnicas de reducción de dimensionalidad . La matriz de covarianza codifica la varianza mutua de varias variables aleatorias . [95] Otra técnica que utiliza matrices son los mínimos cuadrados lineales , un método que se aproxima a un conjunto finito de pares ( x 1 , y 1 ), ( x 2 , y 2 ), ..., (x N , y N ), mediante una función lineal

y yoeje yo + b , yo = 1, ..., N

que se puede formular en términos de matrices, relacionado con la descomposición de valores singulares de matrices. [96]

Las matrices aleatorias son matrices cuyas entradas son números aleatorios, sujetas a distribuciones de probabilidad adecuadas , como la distribución normal de la matriz . Más allá de la teoría de la probabilidad, se aplican en dominios que van desde la teoría de números hasta la física . [97] [98]

Simetrías y transformaciones en física [ editar ]

Las transformaciones lineales y las simetrías asociadas juegan un papel clave en la física moderna. Por ejemplo, las partículas elementales en la teoría cuántica de campos se clasifican como representaciones del grupo de Lorentz de la relatividad especial y, más específicamente, por su comportamiento bajo el grupo de espín . Las representaciones concretas que involucran las matrices de Pauli y las matrices gamma más generales son una parte integral de la descripción física de los fermiones , que se comportan como espinores . [99] Para los tres quarks más ligeros , hay una representación teórica de grupo que involucra algrupo unitario especial SU (3); Para sus cálculos, los físicos utilizan una representación matricial conveniente conocida como matrices de Gell-Mann , que también se utilizan para el grupo de calibre SU (3) que forma la base de la descripción moderna de interacciones nucleares fuertes, la cromodinámica cuántica . La matriz Cabibbo-Kobayashi-Maskawa , a su vez, expresa el hecho de que los estados de quark básicos que son importantes para interacciones débiles no son los mismos, sino que están relacionados linealmente con los estados de quark básicos que definen partículas con masas específicas y distintas . [100]

Combinaciones lineales de estados cuánticos [ editar ]

El primer modelo de mecánica cuántica ( Heisenberg , 1925) representó los operadores de la teoría mediante matrices de dimensión infinita que actúan sobre estados cuánticos. [101] Esto también se conoce como mecánica matricial . Un ejemplo particular es la matriz de densidad que caracteriza el estado "mixto" de un sistema cuántico como una combinación lineal de estados propios elementales y "puros" . [102]

Otra matriz sirve como herramienta clave para describir los experimentos de dispersión que forman la piedra angular de la física de partículas experimental: reacciones de colisión como las que ocurren en los aceleradores de partículas , donde las partículas que no interactúan se dirigen entre sí y chocan en una pequeña zona de interacción, con una nueva El conjunto de partículas que no interactúan como resultado, se puede describir como el producto escalar de los estados de las partículas salientes y una combinación lineal de los estados de las partículas entrantes. La combinación lineal viene dada por una matriz conocida como matriz S , que codifica toda la información sobre las posibles interacciones entre partículas. [103]

Modos normales [ editar ]

Una aplicación general de las matrices en física es la descripción de sistemas armónicos acoplados linealmente. Las ecuaciones de movimiento de tales sistemas se pueden describir en forma de matriz, con una matriz de masa que multiplica una velocidad generalizada para dar el término cinético y una matriz de fuerza que multiplica un vector de desplazamiento para caracterizar las interacciones. La mejor manera de obtener soluciones es determinar los vectores propios del sistema , sus modos normales , diagonalizando la ecuación matricial. Técnicas como esta son cruciales cuando se trata de la dinámica interna de las moléculas : las vibraciones internas de los sistemas que consisten en átomos componentes mutuamente unidos. [104]También son necesarios para describir vibraciones mecánicas y oscilaciones en circuitos eléctricos. [105]

Óptica geométrica [ editar ]

La óptica geométrica proporciona más aplicaciones matriciales. En esta teoría aproximada, se desprecia la naturaleza ondulatoria de la luz. El resultado es un modelo en el que los rayos de luz son de hecho rayos geométricos . Si la desviación de los rayos de luz por los elementos ópticos es pequeña, la acción de una lente o elemento reflectante sobre un rayo de luz dado se puede expresar como la multiplicación de un vector de dos componentes con una matriz de dos por dos llamada análisis de matriz de transferencia de rayos : Los componentes del vector son la pendiente del rayo de luz y su distancia del eje óptico, mientras que la matriz codifica las propiedades del elemento óptico. En realidad, hay dos tipos de matrices, a saber. una matriz de refraccióndescribiendo la refracción en la superficie de una lente, y una matriz de traslación , describiendo la traslación del plano de referencia a la siguiente superficie de refracción, donde se aplica otra matriz de refracción. El sistema óptico, que consiste en una combinación de lentes y / o elementos reflectantes, se describe simplemente mediante la matriz resultante del producto de las matrices de los componentes. [106]

Electrónica [ editar ]

El análisis de malla tradicional y el análisis nodal en electrónica conducen a un sistema de ecuaciones lineales que se pueden describir con una matriz.

El comportamiento de muchos componentes electrónicos se puede describir mediante matrices. Sea A un vector bidimensional con el voltaje de entrada v 1 del componente y la corriente de entrada i 1 como sus elementos, y sea B un vector bidimensional con el voltaje de salida v 2 del componente y la corriente de salida i 2 como sus elementos. Entonces, el comportamiento del componente electrónico se puede describir mediante B = H · A , donde H es una matriz de 2 x 2 que contiene un elemento de impedancia ( h 12), un elemento de admitancia ( h 21 ) y dos elementos adimensionales ( h 11 y h 22 ). Calcular un circuito ahora se reduce a multiplicar matrices.

Historia [ editar ]

Las matrices tienen una larga historia de aplicación en la resolución de ecuaciones lineales, pero se las conocía como matrices hasta el siglo XIX. Los chinos texto Capítulos La Nueve en el arte matemático escrito en décima-segundo siglo BCE es el primer ejemplo de la utilización de métodos de arreglos para resolver ecuaciones simultáneas , [107] que incluye el concepto de determinantes . En 1545, el matemático italiano Gerolamo Cardano llevó el método a Europa cuando publicó Ars Magna . [108] El matemático japonés Seki utilizó los mismos métodos de matriz para resolver ecuaciones simultáneas en 1683. [109]El matemático holandés Jan de Witt representó transformaciones utilizando matrices en su libro de 1659 Elements of Curves (1659). [110] Entre 1700 y 1710, Gottfried Wilhelm Leibniz publicitó el uso de matrices para registrar información o soluciones y experimentó con más de 50 sistemas diferentes de matrices. [108] Cramer presentó su gobierno en 1750.

El término "matriz" (en latín "útero", derivado de mater —madre [111] ) fue acuñado por James Joseph Sylvester en 1850, [112] quien entendía una matriz como un objeto que da lugar a varios determinantes hoy denominados menores , que es decir, determinantes de matrices más pequeñas que derivan de la original eliminando columnas y filas. En un artículo de 1851, Sylvester explica:

En artículos anteriores he definido una "Matriz" como una matriz rectangular de términos, a partir de la cual se pueden engendrar diferentes sistemas de determinantes a partir del útero de un padre común. [113]

Arthur Cayley publicó un tratado sobre transformaciones geométricas utilizando matrices que no eran versiones rotadas de los coeficientes que se estaban investigando como se había hecho anteriormente. En cambio, definió operaciones como la suma, resta, multiplicación y división como transformaciones de esas matrices y mostró que las propiedades asociativas y distributivas se mantenían verdaderas. Cayley investigó y demostró la propiedad no conmutativa de la multiplicación de matrices, así como la propiedad conmutativa de la suma de matrices. [108] La teoría matricial temprana había limitado el uso de matrices casi exclusivamente a determinantes y las operaciones matriciales abstractas de Arthur Cayley eran revolucionarias. Jugó un papel decisivo al proponer un concepto de matriz independiente de los sistemas de ecuaciones. En 1858 Cayleypublicó sus memorias A sobre la teoría de matrices [114] [115] en las que propuso y demostró el teorema de Cayley-Hamilton . [108]

Un matemático inglés llamado Cullis fue el primero en usar la notación moderna de corchetes para matrices en 1913 y simultáneamente demostró el primer uso significativo de la notación A = [ a i , j ] para representar una matriz donde a i , j se refiere a la i- ésima fila y la j- ésima columna. [108]

El estudio moderno de los determinantes surgió de varias fuentes. [116] Los problemas de teoría numérica llevaron a Gauss a relacionar coeficientes de formas cuadráticas , es decir, expresiones como x 2 + xy - 2 y 2 , y mapas lineales en tres dimensiones con matrices. Eisenstein desarrolló aún más estas nociones, incluida la observación de que, en el lenguaje moderno, los productos matriciales no son conmutativos . Cauchy fue el primero en probar afirmaciones generales sobre determinantes, utilizando como definición del determinante de una matriz A= [ a i , j ] lo siguiente: reemplaza las potencias a j k por a jk en el polinomio

,

donde Π denota el producto de los términos indicados. También demostró, en 1829, que los valores propios de las matrices simétricas son reales. [117] Jacobi estudió los "determinantes funcionales" —más tarde llamados determinantes de Jacobi por Sylvester— que pueden usarse para describir transformaciones geométricas a un nivel local (o infinitesimal ), ver más arriba ; Kronecker 's Vorlesungen über die Theorie der Determinanten [118] y Weierstrass' Zur Determinantentheorie , [119] ambos publicados en 1903, se trató primero determinantes axiomáticamente, a diferencia de enfoques anteriores más concretos como la mencionada fórmula de Cauchy. En ese momento, los determinantes estaban firmemente establecidos.

Muchos teoremas se establecieron por primera vez solo para matrices pequeñas, por ejemplo, el teorema de Cayley-Hamilton fue probado para matrices de 2 × 2 por Cayley en las memorias antes mencionadas, y por Hamilton para matrices de 4 × 4. Frobenius , trabajando en formas bilineales , generalizó el teorema a todas las dimensiones (1898). También a finales del siglo 19, la eliminación de Gauss-Jordan (generalizar un caso especial que ahora se conoce como la eliminación de Gauss ) fue establecido por Jordan . A principios del siglo XX, las matrices alcanzaron un papel central en el álgebra lineal, [120] en parte debido a su uso en la clasificación del número hipercomplejo. sistemas del siglo anterior.

El inicio de la mecánica matricial por Heisenberg , Born y Jordan llevó al estudio de matrices con infinitas filas y columnas. [121] Posteriormente, von Neumann llevó a cabo la formulación matemática de la mecánica cuántica , desarrollando más nociones analíticas funcionales como los operadores lineales en los espacios de Hilbert , que, en términos muy generales, corresponden al espacio euclidiano , pero con una infinidad de direcciones independientes .

Otros usos históricos de la palabra "matriz" en matemáticas [ editar ]

La palabra ha sido utilizada de manera inusual por al menos dos autores de importancia histórica.

Bertrand Russell y Alfred North Whitehead en sus Principia Mathematica (1910-1913) usan la palabra "matriz" en el contexto de su axioma de reducibilidad . Propusieron este axioma como un medio para reducir cualquier función a una de tipo inferior, sucesivamente, de modo que en el "fondo" (orden 0) la función sea idéntica a su extensión :

"Démosle el nombre de matriz a cualquier función, sin importar cuántas variables, que no involucre ninguna variable aparente . Entonces, cualquier función posible que no sea una matriz deriva de una matriz por medio de la generalización, es decir, considerando la proposición que la función en cuestión es verdadera con todos los valores posibles o con algún valor de uno de los argumentos, quedando indeterminado el otro argumento o argumentos ". [122]

Por ejemplo, un varphi función ( x, y ) de dos variables x e y pueden ser reducidas a una colección de funciones de una sola variable, por ejemplo, y , por "considerando" la función para todos los valores posibles de "individuos" una i sustituido en lugar de la variable x . Y luego la colección resultante de funciones de la variable única y , es decir, ∀a i : Φ ( a i , y ), se puede reducir a una "matriz" de valores "considerando" la función para todos los valores posibles de " individuos "b i sustituido en lugar de la variable y:

∀b j ∀a yo : Φ ( a yo , b j ).

Alfred Tarski en su Introducción a la lógica de 1946 usó la palabra "matriz" como sinónimo de la noción de tabla de verdad como se usa en lógica matemática. [123]

Ver también [ editar ]

  • Lista de matrices nombradas
  • Multiplicidad algebraica  : multiplicidad de un valor propio como raíz del polinomio característico
  • Multiplicidad geométrica  : dimensión del espacio propio asociado con un valor propio
  • Proceso de Gram-Schmidt  : método para ortonormalizar un conjunto de vectores
  • Matriz irregular
  • Cálculo matricial  : notación especializada para cálculo multivariable
  • Función de matriz
  • Algoritmo de multiplicación de matrices
  • Tensor : una generalización de matrices con cualquier número de índices

Notas [ editar ]

  1. Anton (1987 , p. 23)
  2. ^ Beauregard y Fraleigh (1973 , p. 56)
  3. ^ a b c "Lista completa de símbolos de álgebra" . Bóveda de matemáticas . 2020-03-25 . Consultado el 19 de agosto de 2020 .
  4. ^ Joven, Cynthia. Precálculo . Laurie Rosatone. pag. 727.
  5. ^ "Matrices" . www.mathsisfun.com . Consultado el 19 de agosto de 2020 .
  6. ^ a b "Matriz | matemáticas" . Enciclopedia Británica . Consultado el 19 de agosto de 2020 .
  7. ^ K. Bryan y T. Leise . El vector propio de $ 25,000,000,000: el álgebra lineal detrás de Google. Revisión de SIAM, 48 (3): 569–581, 2006.
  8. ^ Lang  2002
  9. ^ Fraleigh (1976 , p. 209)
  10. ^ Nering (1970 , p. 37)
  11. ^ a b Weisstein, Eric W. "Matrix" . mathworld.wolfram.com . Consultado el 19 de agosto de 2020 .
  12. ^ Oualline  2003 , cap. 5
  13. ^ "Cómo organizar, sumar y multiplicar matrices - Bill Shillito" . TED ED . Consultado el 6 de abril de 2013 .
  14. ^ Brown  1991 , Definición I.2.1 (adición), Definición I.2.4 (multiplicación escalar) y Definición I.2.33 (transposición)
  15. ^ Brown  1991 , Teorema I.2.6
  16. ^ a b "Cómo multiplicar matrices" . www.mathsisfun.com . Consultado el 19 de agosto de 2020 .
  17. ^ Brown  1991 , Definición I.2.20
  18. ^ Brown  1991 , Teorema I.2.24
  19. ^ Horn y Johnson  1985 , cap. 4 y 5
  20. ^ Bronson (1970 , p. 16)
  21. Kreyszig (1972 , p. 220)
  22. ↑ a b Protter y Morrey (1970 , p. 869)
  23. ^ Kreyszig (1972 , págs. 241, 244)
  24. ^ Schneider, Hans; Barker, George Phillip (2012), Matrices and Linear Algebra , Dover Books on Mathematics, Courier Dover Corporation, p. 251, ISBN 978-0-486-13930-2.
  25. ^ Perlis, Sam (1991), Teoría de matrices , Libros de Dover sobre matemáticas avanzadas, Courier Dover Corporation, p. 103, ISBN 978-0-486-66810-9.
  26. ^ Anton, Howard (2010), Álgebra lineal elemental (10ª ed.), John Wiley & Sons, p. 414, ISBN 978-0-470-45821-1.
  27. Horn, Roger A .; Johnson, Charles R. (2012), Matrix Analysis (2ª ed.), Cambridge University Press, pág. 17, ISBN 978-0-521-83940-2.
  28. ^ Brown  1991 , I.2.21 y 22
  29. Greub  1975 , Sección III.2
  30. ^ Brown  1991 , Definición II.3.3
  31. Greub  1975 , Sección III.1
  32. ^ Brown  1991 , Teorema II.3.22
  33. ^ Horn & Johnson  1985 , Teorema 2.5.6
  34. ^ Brown  1991 , Definición I.2.28
  35. ^ Brown  1991 , Definición I.5.13
  36. ^ Horn & Johnson  1985 , Capítulo 7
  37. ^ Horn & Johnson  1985 , Teorema 7.2.1
  38. ^ Horn & Johnson  1985 , ejemplo 4.0.6, p. 169
  39. ^ Brown  1991 , Definición III.2.1
  40. ^ Brown  1991 , Teorema III.2.12
  41. Brown  1991 , Corolario III.2.16
  42. ^ Mirsky  1990 , Teorema 1.4.1
  43. ^ Brown  1991 , Teorema III.3.18
  44. ^ Eigen significa "propio" en alemán y holandés .
  45. ^ Brown  1991 , Definición III.4.1
  46. ^ Brown  1991 , Definición III.4.9
  47. Brown  1991 , Corolario III.4.10
  48. ^ Jefe de familia  1975 , cap. 7
  49. ^ Bau III y Trefethen  1997
  50. ^ Golub y Van Loan  1996 , algoritmo 1.3.1
  51. ^ Golub & Van Loan  1996 , Capítulos 9 y 10, esp. sección 10.2
  52. ^ Golub & Van Loan  1996 , Capítulo 2.3
  53. Grcar, Joseph F. ( 1 de enero de 2011). "Análisis de John von Neumann de la eliminación gaussiana y los orígenes del análisis numérico moderno" . Revisión SIAM . 53 (4): 607–682. doi : 10.1137 / 080734716 . ISSN 0036-1445 . 
  54. ^ Por ejemplo, Mathematica , vea Wolfram  2003 , Cap. 3,7
  55. ^ Prensa, Flannery y Teukolsky  1992
  56. ^ Stoer & Bulirsch  2002 , sección 4.1
  57. ^ Horn & Johnson  1985 , Teorema 2.5.4
  58. ^ Horn y Johnson  1985 , cap. 3,1, 3,2
  59. ^ Arnold y Cooke  1992 , Secciones 14.5, 7, 8
  60. ^ Bronson  1989 , cap. 15
  61. Coburn , 1955 , cap. V
  62. ^ Lang  2002 , Capítulo XIII
  63. ^ Lang  2002 , XVII.1, p. 643
  64. ^ Lang  2002 , Proposición XIII.4.16
  65. ^ Reichl  2004 , sección L.2
  66. Greub  1975 , Sección III.3
  67. Greub  1975 , Sección III.3.13
  68. ^ Consulte cualquier referencia estándar en un grupo.
  69. ^ Además, el grupo debe estar cerrado en el grupo lineal general.
  70. ^ Baker  2003 , Def. 1,30
  71. ^ Baker  2003 , Teorema 1.2
  72. Artin  1991 , Capítulo 4.5
  73. ^ Rowen  2008 , ejemplo 19.2, p. 198
  74. ^ Ver cualquier referencia en teoría de la representación o representación de grupo .
  75. ^ Ver el artículo "Matriz" en Itõ, ed. 1987
  76. ^ "No gran parte de la teoría de matrices se traslada a espacios de dimensión infinita, y lo que sí lo hace no es tan útil, pero a veces ayuda". Halmos  1982 , pág. 23, Capítulo 5
  77. ^ "Matriz vacía: una matriz está vacía si su dimensión de fila o columna es cero", Glosario archivado el 29 de abril de 2009 en Wayback Machine , Guía del usuario de O-Matrix v6
  78. ^ "Una matriz que tiene al menos una dimensión igual a cero se llama una matriz vacía", MATLAB Data Structures Archivado 2009-12-28 en Wayback Machine
  79. ^ Fudenberg y Tirole  1983 , sección 1.1.1
  80. ^ Manning  1999 , sección 15.3.4
  81. ^ Ward  1997 , cap. 2.8
  82. ^ Stinson  2005 , cap. 1.1.5 y 1.2.4
  83. ^ Asociación de maquinaria informática  1979 , cap. 7
  84. ^ Godsil y Royle  2004 , Cap. 8.1
  85. ^ Punnen  2002
  86. ^ Lang  1987a , cap. XVI.6
  87. ^ Nocedal  2006 , cap. dieciséis
  88. ^ Lang  1987a , cap. XVI.1
  89. ^ Lang  1987a , cap. XVI.5. Para una declaración más avanzada y más general, véase Lang  1969 , cap. VI.2
  90. ^ Gilbarg y Trudinger  2001
  91. ^ Šolin  2005 , cap. 2.5. Véase también método de rigidez .
  92. ^ Latouche y Ramaswami  1999
  93. ^ Mehata y Srinivasan  1978 , Ch. 2.8
  94. ^ Healy, Michael (1986), Matrices for Statistics , Oxford University Press , ISBN 978-0-19-850702-4
  95. Krzanowski  1988 , Cap. 2.2., Pág. 60
  96. Krzanowski  1988 , Cap. 4.1
  97. ^ Conrey  2007
  98. ^ Zabrodin, Brezin y Kazakov et al. 2006
  99. ^ Itzykson y Zuber  1980 , cap. 2
  100. ^ ver Burgess & Moore  2007 , sección 1.6.3. (SU (3)), sección 2.4.3.2. (Matriz de Kobayashi-Maskawa)
  101. ^ Schiff  1968 , cap. 6
  102. ^ Bohm  2001 , secciones II.4 y II.8
  103. ^ Weinberg  1995 , cap. 3
  104. ^ Wherrett  1987 , parte II
  105. ^ Riley, Hobson y Bence  1997 , 7.17
  106. ^ Guenther  1990 , cap. 5
  107. ^ Shen, Crossley & Lun  1999 citado por Bretscher  2005 , p. 1
  108. ^ a b c d e Matemáticas discretas 4ª ed. Dossey, Otto, Spense, Vanden Eynden, publicado por Addison Wesley, 10 de octubre de 2001 ISBN 978-0-321-07912-1 , p. 564-565 
  109. ^ Needham, Joseph ; Wang Ling (1959). Ciencia y civilización en China . III . Cambridge: Cambridge University Press. pag. 117. ISBN 978-0-521-05801-8.
  110. ^ Matemáticas discretas 4ª Ed. Dossey, Otto, Spense, Vanden Eynden, publicado por Addison Wesley, 10 de octubre de 2001 ISBN 978-0-321-07912-1 , p. 564 
  111. ^ Diccionario Merriam-Webster , Merriam-Webster , obtenido el 20 de abril de 2009
  112. Aunque muchas fuentes afirman que JJ Sylvester acuñó el término matemático "matriz" en 1848, Sylvester no publicó nada en 1848. (Para una prueba de que Sylvester no publicó nada en 1848, ver: JJ Sylvester con HF Baker, ed., The Collected Mathematical Papers of James Joseph Sylvester (Cambridge, Inglaterra: Cambridge University Press, 1904), vol. 1. ) Su primer uso del término "matriz" se produce en 1850 en JJ Sylvester (1850) "Adiciones a los artículos en el número de septiembre de esta revista , "Sobre una nueva clase de teoremas" y sobre el teorema de Pascal, " The London, Edinburgh, and Dublin Philosophical Magazine y Journal of Science , 37 : 363-370. A partir de la página 369: "Para este propósito, debemos comenzar, no con un cuadrado, sino con una disposición oblonga de términos que consiste, supongamos, en m líneas y n columnas. Esto no representa en sí mismo un determinante, sino que es, por así decirlo, un Matriz a partir de la cual podemos formar varios sistemas de determinantes ... "
  113. The Collected Mathematical Papers of James Joseph Sylvester: 1837–1853, Documento 37 , p. 247
  114. ^ Phil.Trans. 1858, vol.148, pp.17-37 Matemáticas. Papeles II 475-496
  115. ^ Dieudonné, ed. 1978 , vol. 1, cap. III, pág. 96
  116. ^ Knobloch  1994
  117. ^ Hawkins  1975
  118. ^ Kronecker  1897
  119. Weierstrass , 1915 , págs. 271-286.
  120. ^ Bôcher  2004
  121. ^ Mehra y Rechenberg  1987
  122. ^ Whitehead, Alfred North; y Russell, Bertrand (1913) Principia Mathematica a * 56 , Cambridge en University Press, Cambridge Reino Unido (republicado en 1962) cf pág. 162ss.
  123. ^ Tarski, Alfred; (1946) Introducción a la lógica y la metodología de las ciencias deductivas , Dover Publications, Inc, Nueva York NY, ISBN 0-486-28462-X . 

Referencias [ editar ]

  • Anton, Howard (1987), Álgebra lineal elemental (5.a ed.), Nueva York: Wiley , ISBN 0-471-84819-0
  • Arnold, Vladimir I .; Cooke, Roger (1992), Ecuaciones diferenciales ordinarias , Berlín, DE; Nueva York, NY: Springer-Verlag , ISBN 978-3-540-54813-3
  • Artin, Michael (1991), Álgebra , Prentice Hall , ISBN 978-0-89871-510-1
  • Association for Computing Machinery (1979), Computer Graphics , Tata McGraw – Hill, ISBN 978-0-07-059376-3
  • Baker, Andrew J. (2003), Matrix Groups: An Introduction to Lie Group Theory , Berlín, DE; Nueva York, NY: Springer-Verlag, ISBN 978-1-85233-470-3
  • Bau III, David; Trefethen, Lloyd N. (1997), Álgebra lineal numérica , Filadelfia, PA: Sociedad de Matemáticas Industriales y Aplicadas, ISBN 978-0-89871-361-9
  • Beauregard, Raymond A .; Fraleigh, John B. (1973), Un primer curso de álgebra lineal: con introducción opcional a grupos, anillos y campos , Boston: Houghton Mifflin Co. , ISBN 0-395-14017-X
  • Bretscher, Otto (2005), Álgebra lineal con aplicaciones (3.a ed.), Prentice Hall
  • Bronson, Richard (1970), Métodos de matriz: una introducción , Nueva York: Academic Press , LCCN  70097490
  • Bronson, Richard (1989), esquema de la teoría y problemas de operaciones matriciales de Schaum , Nueva York: McGraw-Hill , ISBN 978-0-07-007978-6
  • Brown, William C. (1991), Matrices and vector spaces , Nueva York, NY: Marcel Dekker , ISBN 978-0-8247-8419-5
  • Coburn, Nathaniel (1955), Análisis vectorial y tensorial , Nueva York, NY: Macmillan, OCLC  1029828
  • Conrey, J. Brian (2007), Rangos de curvas elípticas y teoría de matrices aleatorias , Cambridge University Press , ISBN 978-0-521-69964-8
  • Fraleigh, John B. (1976), Un primer curso de álgebra abstracta (2a ed.), Lectura: Addison-Wesley , ISBN 0-201-01984-1
  • Fudenberg, Drew; Tirole, Jean (1983), Teoría de juegos , MIT Press
  • Gilbarg, David; Trudinger, Neil S. (2001), Ecuaciones diferenciales parciales elípticas de segundo orden (2ª ed.), Berlín, DE; Nueva York, NY: Springer-Verlag, ISBN 978-3-540-41160-4
  • Godsil, Chris ; Royle, Gordon (2004), Teoría de Gráficos Algebraicos , Textos de Posgrado en Matemáticas, 207 , Berlín, DE; Nueva York, NY: Springer-Verlag, ISBN 978-0-387-95220-8
  • Golub, Gene H .; Van Loan, Charles F. (1996), Matrix Computations (3.a ed.), Johns Hopkins, ISBN 978-0-8018-5414-9
  • Greub, Werner Hildbert (1975), álgebra lineal , Textos de Posgrado en Matemáticas, Berlín, DE; Nueva York, NY: Springer-Verlag, ISBN 978-0-387-90110-7
  • Halmos, Paul Richard (1982), Un libro de problemas espaciales de Hilbert , Textos de posgrado en matemáticas, 19 (2ª ed.), Berlín, DE; Nueva York, NY: Springer-Verlag, ISBN 978-0-387-90685-0, MR  0675952
  • Horn, Roger A .; Johnson, Charles R. (1985), Análisis de matrices , Cambridge University Press, ISBN 978-0-521-38632-6
  • Householder, Alston S. (1975), La teoría de las matrices en el análisis numérico , Nueva York, NY: Dover Publications , MR  0378371
  • Kreyszig, Erwin (1972), Matemáticas de ingeniería avanzada (3.a ed.), Nueva York: Wiley , ISBN 0-471-50728-8.
  • Krzanowski, Wojtek J. (1988), Principios del análisis multivariado , Oxford Statistical Science Series, 3 , The Clarendon Press Oxford University Press, ISBN 978-0-19-852211-9, MR  0969370
  • Itô, Kiyosi, ed. (1987), Diccionario enciclopédico de matemáticas. Vol. I-IV (2.a ed.), MIT Press, ISBN 978-0-262-09026-1, MR  0901762
  • Lang, Serge (1969), Análisis II , Addison-Wesley
  • Lang, Serge (1987a), Cálculo de varias variables (3ª ed.), Berlín, DE; Nueva York, NY: Springer-Verlag, ISBN 978-0-387-96405-8
  • Lang, Serge (1987b), Álgebra lineal , Berlín, DE; Nueva York, NY: Springer-Verlag, ISBN 978-0-387-96412-6
  • Lang, Serge (2002), Álgebra , Textos de posgrado en matemáticas , 211 (Tercera edición revisada), Nueva York: Springer-Verlag, ISBN 978-0-387-95385-4, Señor  1878556
  • Latouche, Guy; Ramaswami, Vaidyanathan (1999), Introducción a los métodos analíticos matriciales en el modelado estocástico (1a ed.), Filadelfia, PA: Society for Industrial and Applied Mathematics, ISBN 978-0-89871-425-8
  • Manning, Christopher D .; Schütze, Hinrich (1999), Fundamentos del procesamiento estadístico del lenguaje natural , MIT Press, ISBN 978-0-262-13360-9
  • Mehata, KM; Srinivasan, SK (1978), Procesos estocásticos , Nueva York, NY: McGraw – Hill, ISBN 978-0-07-096612-3
  • Mirsky, Leonid (1990), Introducción al álgebra lineal , Publicaciones de Courier Dover, ISBN 978-0-486-66434-7
  • Nering, Evar D. (1970), Álgebra lineal y teoría de matrices (2a ed.), Nueva York: Wiley , LCCN  76-91646
  • Nocedal, Jorge; Wright, Stephen J. (2006), Optimización numérica (2ª ed.), Berlín, DE; Nueva York, NY: Springer-Verlag, p. 449, ISBN 978-0-387-30303-1
  • Oualline, Steve (2003), Programación práctica en C ++ , O'Reilly , ISBN 978-0-596-00419-4
  • Prensa, William H .; Flannery, Brian P .; Teukolsky, Saul A .; Vetterling, William T. (1992), "LU Decomposition and Its Applications" (PDF) , Recetas numéricas en FORTRAN: The Art of Scientific Computing (2ª ed.), Cambridge University Press, págs. 34–42, archivado del original el 2009-09-06CS1 maint: unfit URL (link)
  • Protter, Murray H .; Morrey, Jr., Charles B. (1970), Cálculo universitario con geometría analítica (2a ed.), Lectura: Addison-Wesley , LCCN  76087042
  • Punnen, Abraham P .; Gutin, Gregory (2002), El problema del viajante y sus variaciones , Boston, MA: Kluwer Academic Publishers, ISBN 978-1-4020-0664-7
  • Reichl, Linda E. (2004), La transición al caos: sistemas clásicos conservadores y manifestaciones cuánticas , Berlín, DE; Nueva York, NY: Springer-Verlag, ISBN 978-0-387-98788-0
  • Rowen, Louis Halle (2008), Álgebra de posgrado: vista no conmutativa , Providence, RI: American Mathematical Society , ISBN 978-0-8218-4153-2
  • Šolin, Pavel (2005), Ecuaciones diferenciales parciales y el método de elementos finitos , Wiley-Interscience , ISBN 978-0-471-76409-0
  • Stinson, Douglas R. (2005), Criptografía , Matemáticas discretas y sus aplicaciones, Chapman & Hall / CRC, ISBN 978-1-58488-508-5
  • Stoer, Josef; Bulirsch, Roland (2002), Introducción al análisis numérico (3ª ed.), Berlín, DE; Nueva York, NY: Springer-Verlag, ISBN 978-0-387-95452-3
  • Ward, JP (1997), Quaternions and Cayley numbers , Mathematics and its Applications, 403 , Dordrecht, NL: Kluwer Academic Publishers Group, doi : 10.1007 / 978-94-011-5768-1 , ISBN 978-0-7923-4513-8, Señor  1458894
  • Wolfram, Stephen (2003), The Mathematica Book (5.a ed.), Champaign, IL: Wolfram Media, ISBN 978-1-57955-022-6

Referencias de física [ editar ]

  • Bohm, Arno (2001), Mecánica cuántica: fundamentos y aplicaciones , Springer, ISBN 0-387-95330-2
  • Burgess, Cliff; Moore, Guy (2007), El modelo estándar. Una cartilla , Cambridge University Press, ISBN 978-0-521-86036-9
  • Guenther, Robert D. (1990), Óptica moderna , John Wiley, ISBN 0-471-60538-7
  • Itzykson, Claude; Zuber, Jean-Bernard (1980), teoría cuántica de campos , McGraw-Hill, ISBN 0-07-032071-3
  • Riley, Kenneth F .; Hobson, Michael P .; Bence, Stephen J. (1997), Métodos matemáticos para la física y la ingeniería , Cambridge University Press, ISBN 0-521-55506-X
  • Schiff, Leonard I. (1968), Mecánica cuántica (3ª ed.), McGraw – Hill
  • Weinberg, Steven (1995), La teoría cuántica de los campos. Volumen I: Fundaciones , Cambridge University Press, ISBN 0-521-55001-7
  • Wherrett, Brian S. (1987), Teoría de grupos para átomos, moléculas y sólidos , Prentice – Hall International, ISBN 0-13-365461-3
  • Zabrodin, Anton; Brezin, Édouard; Kazakov, Vladimir; Serban, Didina; Wiegmann, Paul (2006), Aplicaciones de matrices aleatorias en Física (Serie II de Ciencias de la OTAN: Matemáticas, Física y Química) , Berlín, DE; Nueva York, NY: Springer-Verlag , ISBN 978-1-4020-4530-1

Referencias históricas [ editar ]

  • A. Cayley Un libro de memorias sobre la teoría de matrices . Phil. Trans. 148 1858 17-37; Matemáticas. Papeles II 475-496
  • Bôcher, Maxime (2004), Introducción al álgebra superior , Nueva York, NY: Dover Publications , ISBN 978-0-486-49570-5, reimpresión de la edición original de 1907
  • Cayley, Arthur (1889), Los artículos matemáticos recopilados de Arthur Cayley , I (1841–1853), Cambridge University Press , págs. 123–126
  • Dieudonné, Jean , ed. (1978), Abrégé d'histoire des mathématiques 1700-1900 , París, FR: Hermann
  • Hawkins, Thomas (1975), "Cauchy y la teoría espectral de matrices", Historia Mathematica , 2 : 1–29, doi : 10.1016 / 0315-0860 (75) 90032-4 , ISSN  0315-0860 , MR  0469635
  • Knobloch, Eberhard (1994), "De Gauss a Weierstrass: teoría determinante y sus evaluaciones históricas", La intersección de la historia y las matemáticas , Science Networks Historical Studies, 15 , Basilea, Boston, Berlín: Birkhäuser, págs. 51-66, MR  1308079
  • Kronecker, Leopold (1897), Hensel, Kurt (ed.), Werke de Leopold Kronecker , Teubner
  • Mehra, Jagdish; Rechenberg, Helmut (1987), El desarrollo histórico de la teoría cuántica (1ª ed.), Berlín, DE; Nueva York, NY: Springer-Verlag , ISBN 978-0-387-96284-9
  • Shen, Kangshen; Crossley, John N .; Lun, Anthony Wah-Cheung (1999), Nueve capítulos del arte matemático, compañero y comentario (2a ed.), Oxford University Press , ISBN 978-0-19-853936-0
  • Weierstrass, Karl (1915), Obras completas , 3

Lectura adicional [ editar ]

  • "Matrix" , Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
  • Kaw, Autar K. (septiembre de 2008), Introducción al álgebra matricial , ISBN 978-0-615-25126-4
  • The Matrix Cookbook (PDF) , consultado el 24 de marzo de 2014
  • Brookes, Mike (2005), The Matrix Reference Manual , Londres: Imperial College , consultado el 10 de diciembre de 2008

Enlaces externos [ editar ]

  • MacTutor: Matrices y determinantes
  • Matrices y álgebra lineal en las páginas de usos más antiguos
  • Usos más antiguos de símbolos para matrices y vectores
  • matrixcalc (Calculadora de matrices)
  • SimplyMath (calculadora matricial)
  • Biblioteca C ++ gratuita
  • Xiao, Gang, Matrix calculator , consultado el 10 de diciembre de 2008
  • Calculadora matricial en línea (marco ZK) , archivado desde el original el 12 de mayo de 2013 , consultado el 26 de noviembre de 2009CS1 maint: unfit URL (link)
  • Oehlert, Gary W .; Bingham, Christopher, MacAnova , University of Minnesota , School of Statistics , consultado el 10 de diciembre de 2008, un paquete de software gratuito para álgebra matricial y estadística
  • Calculadora matricial en línea , consultado el 14 de diciembre de 2009
  • Operación con matrices en R (determinante, pista, inversa, adjunta, transpuesta)
  • Widget de operaciones matriciales en Wolfram | Alpha