En matemáticas , el determinante es un valor escalar que es función de las entradas de una matriz cuadrada . Permite caracterizar algunas propiedades de la matriz y el mapa lineal representado por la matriz. En particular, el determinante es distinto de cero si y solo si la matriz es invertible , y el mapa lineal representado por la matriz es un isomorfismo . El determinante de un producto de matrices es el producto de sus determinantes (la propiedad anterior es un corolario de ésta). El determinante de una matriz A se denota det ( A ) , detA , o | A | .
En el caso de una matriz de 2 × 2 , el determinante se puede definir como
De manera similar, para una matriz A de 3 × 3 , su determinante es
Cada determinante de una 2 × 2 matriz en esta ecuación se denomina menor de la matriz A . Este procedimiento se puede ampliar para dar una definición recursiva para el determinante de una matriz n × n , conocida como expansión de Laplace .
Los determinantes ocurren a lo largo de las matemáticas. Por ejemplo, a menudo se usa una matriz para representar los coeficientes en un sistema de ecuaciones lineales , y se pueden usar determinantes para resolver estas ecuaciones ( regla de Cramer ), aunque otros métodos de solución son computacionalmente mucho más eficientes. Los determinantes se utilizan para definir el polinomio característico de una matriz, cuyas raíces son los valores propios . En geometría , el volumen n- dimensional con signo de un paralelepípedo n- dimensional se expresa mediante un determinante. Esto se usa en cálculo con formas diferenciales exteriores y el determinante jacobiano , en particular para cambios de variables en integrales múltiples .
Matrices 2 × 2
El determinante de una matriz de 2 × 2 Se define como
El determinante se denota por det o por las barras verticales alrededor de la matriz. Por ejemplo,
Primeras propiedades
El determinante tiene varias propiedades clave que pueden probarse mediante la evaluación directa de la definición de -matrices, y que continúan siendo válidas para los determinantes de matrices más grandes. Son los siguientes: [1] primero, el determinante de la matriz identidad es 1. En segundo lugar, el determinante es cero si dos columnas son iguales:
Esto es similar si las dos filas son iguales. Más aún,
Finalmente, si alguna columna se multiplica por algún número (es decir, todas las entradas en esa columna se multiplican por ese número), el determinante también se multiplica por ese número:
Significado geométrico
Si las entradas de la matriz son números reales, la matriz A se puede utilizar para representar a dos mapas lineales : uno que mapea los básicos estándar vectores a las filas de A , y que los asigna a las columnas de A . En cualquier caso, las imágenes de los vectores base forman un paralelogramo que representa la imagen del cuadrado unitario debajo del mapeo. El paralelogramo definido por las filas de la matriz anterior es el que tiene vértices en (0, 0) , ( un , b ) , ( un + c , b + d ) , y ( c , d ) , como se muestra en la acompaña diagrama.
El valor absoluto de ad - bc es el área del paralelogramo, y por lo tanto representa el factor de escala por el cual las zonas son transformados por A . (El paralelogramo formado por las columnas de A es en general un paralelogramo diferente, pero dado que el determinante es simétrico con respecto a las filas y columnas, el área será la misma).
El valor absoluto del determinante junto con el signo se convierte en el área orientada del paralelogramo. El área orientada es la misma que el área habitual , excepto que es negativa cuando el ángulo del primer al segundo vector que define el paralelogramo gira en el sentido de las agujas del reloj (que es opuesto a la dirección que se obtendría para la matriz identidad ).
Para mostrar que ad - bc es el área con signo, se puede considerar una matriz que contiene dos vectores u ≡ ( a , b ) y v ≡ ( c , d ) que representan los lados del paralelogramo. El área firmada se puede expresar como | u | | v | sen θ para el ángulo θ entre los vectores, que es simplemente la base por la altura, la longitud de un vector por la componente perpendicular del otro. Debido al seno, esta ya es el área con signo, sin embargo, puede expresarse más convenientemente usando el coseno del ángulo complementario a un vector perpendicular, por ejemplo, u ⊥ = (- b , a ) , de modo que | u ⊥ | | v | cos θ ′ , que puede ser determinado por el patrón del producto escalar para ser igual a ad - bc :
Por lo tanto el determinante da el factor de escala y la orientación inducida por el mapeo representado por A . Cuando el determinante es igual a uno, el mapeo lineal definido por la matriz es equi-areal y conserva la orientación.
El objeto conocido como bivector está relacionado con estas ideas. En 2D, se puede interpretar como un segmento orientado plano formado por imaginar dos vectores, cada uno con origen (0, 0) , y las coordenadas ( un , b ) y ( c , d ) . La magnitud bivector (denotada por ( a , b ) ∧ ( c , d ) ) es el área con signo , que también es el determinante ad - bc . [2]
Si una matriz real A de n × n se escribe en términos de sus vectores columna, luego
Esto significa que mapea la unidad n -cube al paralelootopo n- dimensional definido por los vectores la región
El determinante da el volumen n- dimensional con signo de este paralelopo,y por lo tanto se describe más generalmente el n factor de escala volumen -dimensional de la transformación lineal producido por A . [3] (El signo muestra si la transformación conserva o invierte la orientación ). En particular, si el determinante es cero, entonces este paralelootopo tiene volumen cero y no es completamente n- dimensional, lo que indica que la dimensión de la imagen de A es menos de n . Este medio que A produce una transformación lineal que no es ni a ni uno-a-uno , y así no es invertible.
Definición
En la secuela, A es una matriz cuadrada con n filas yn columnas, por lo que se puede escribir como
Las entradas etc. son, para muchos propósitos, números reales o complejos. Como se analiza a continuación, el determinante también se define para matrices cuyas entradas son elementos en estructuras algebraicas más abstractas conocidas como anillos conmutativos .
El determinante de A se denota por det ( A ), o se puede denotar directamente en términos de las entradas de la matriz escribiendo barras de cierre en lugar de corchetes:
Hay varias formas equivalentes de definir el determinante de una matriz cuadrada A , es decir, una con el mismo número de filas y columnas: el determinante se puede definir mediante la fórmula de Leibniz , una fórmula explícita que involucra sumas de productos de ciertas entradas de la matriz. El determinante también se puede caracterizar como la función única que depende de las entradas de la matriz que satisfacen determinadas propiedades. Este enfoque también se puede utilizar para calcular determinantes simplificando las matrices en cuestión.
Fórmula de Leibniz
La fórmula de Leibniz para el determinante de una matriz de 3 × 3 es la siguiente:
La regla de Sarrus es un mnemónico para esta fórmula: la suma de los productos de tres líneas diagonales de noroeste a sureste de elementos de la matriz, menos la suma de los productos de tres líneas diagonales de elementos de suroeste a noreste. , cuando las copias de las dos primeras columnas de la matriz están escritas a su lado como en la ilustración:
Este esquema para calcular el determinante de una matriz de 3 × 3 no se traslada a dimensiones superiores.
matrices n × n
La fórmula de Leibniz para el determinante de un -matriz es una expresión más complicada, pero relacionada. Es una expresión que involucra la noción de permutaciones y su firma . Una permutación del conjuntoes una función que reordena este conjunto de números enteros. El valor en el-a posición después del reordenamiento se denota por . El conjunto de todas estas permutaciones, el llamado grupo simétrico , se denota. La firma de se define como siempre que el reordenamiento dado por σ pueda lograrse intercambiando sucesivamente dos entradas un número par de veces, y siempre que pueda lograrse mediante un número impar de dichos intercambios. Dada la matriz y una permutación , el producto
también está escrito más brevemente usando la notación Pi como
- .
Usando estas nociones, la definición del determinante usando la fórmula de Leibniz es entonces
una suma que incluye todas las permutaciones, donde cada sumando es un producto de las entradas de la matriz, multiplicado por un signo según la permutación.
La siguiente tabla desenvuelve estos términos en el caso . En la primera columna, se enumera una permutación según sus valores. Por ejemplo, en la segunda fila, la permutación satisface . Se puede obtener del pedido estándar (1, 2, 3) mediante un único intercambio (intercambiando la segunda y tercera entrada), de modo que su firma sea.
Permutación | ||
---|---|---|
1, 2, 3 | ||
1, 3, 2 | ||
3, 1, 2 | ||
3, 2, 1 | ||
2, 3, 1 | ||
2, 1, 3 |
La suma de los seis términos en la tercera columna luego dice
Esto devuelve la fórmula para -matrices arriba. Para un general-matriz, la fórmula de Leibniz implica ( n factoriales ) sumandos, cada uno de los cuales es un producto de n entradas de la matriz.
La fórmula de Leibniz también se puede expresar usando una suma en la que no solo las permutaciones, sino todas las secuencias de índices en el rango ocurrir. Para hacer esto, se usa el símbolo Levi-Civita en lugar del signo de una permutación
Esto devuelve la fórmula anterior, ya que el símbolo de Levi-Civita es cero si los índices no forman una permutación. [4] [5]
Propiedades del determinante
Caracterización del determinante
El determinante se puede caracterizar por las siguientes tres propiedades clave. Para enunciarlos conviene considerar un-matriz A como compuesta de su columnas, por lo que se denota como
donde el vector de columna (para cada i ) se compone de las entradas de la matriz en la i -ésima columna.
- , dónde es una matriz de identidad .
- El determinante es multilineal : si la j- ésima columna de una matrizestá escrito como una combinación lineal de dos vectores columna v y w y un número r , entonces el determinante de A se puede expresar como una combinación lineal similar:
- El determinante es alterno : siempre que dos columnas de una matriz son idénticas, su determinante es 0:
Si el determinante se define utilizando la fórmula de Leibniz como se indicó anteriormente, estas tres propiedades se pueden probar mediante la inspección directa de esa fórmula. Algunos autores también abordan el determinante directamente usando estas tres propiedades: se puede demostrar que hay exactamente una función que asigna a cualquier-matriz A un número que satisface estas tres propiedades. [6] Esto también muestra que ese enfoque más abstracto del determinante produce la misma definición que el que utiliza la fórmula de Leibniz.
Para ver esto, es suficiente expandir el determinante por multilinealidad en las columnas en una combinación lineal (enorme) de determinantes de matrices en la que cada columna es un vector base estándar . Estos determinantes son 0 (por propiedad 9) o bien ± 1 (por propiedades 1 y 12 a continuación), por lo que la combinación lineal da la expresión anterior en términos del símbolo Levi-Civita. Aunque menos técnica en apariencia, esta caracterización no puede reemplazar por completo la fórmula de Leibniz en la definición del determinante, ya que sin ella no está clara la existencia de una función apropiada. [ cita requerida ]
Consecuencias inmediatas
Estas reglas tienen varias consecuencias adicionales:
- El determinante es una función homogénea , es decir,
- (por un matriz ).
- Intercambiar cualquier par de columnas de una matriz multiplica su determinante por -1. Esto se sigue de que el determinante es multilineal y alterno (propiedades 2 y 3 anteriores):
- Esta fórmula se puede aplicar de forma iterativa cuando se intercambian varias columnas. Por ejemplo
- Aún más generalmente, cualquier permutación de las columnas multiplica el determinante por el signo de la permutación.
- Si alguna columna puede expresarse como una combinación lineal de las otras columnas (es decir, las columnas de la matriz forman un conjunto linealmente dependiente ), el determinante es 0. Como caso especial, esto incluye: si alguna columna es tal que todas sus entradas son cero, entonces el determinante de esa matriz es 0.
- Agregar un múltiplo escalar de una columna a otra columna no cambia el valor del determinante. Esto es consecuencia de la multilinealidad y ser alternativo: por multilinealidad el determinante cambia por un múltiplo del determinante de una matriz con dos columnas iguales, cuyo determinante es 0, ya que el determinante es alterno.
- Si es una matriz triangular , es decir, cuando sea o, alternativamente, siempre que , entonces su determinante es igual al producto de las entradas diagonales:
- De hecho, dicha matriz se puede reducir, agregando apropiadamente múltiplos de las columnas con menos entradas distintas de cero a aquellas con más entradas, a una matriz diagonal (sin cambiar el determinante). Para tal matriz, el uso de la linealidad en cada columna se reduce a la matriz de identidad, en cuyo caso la fórmula establecida se cumple por la primera propiedad de caracterización de los determinantes. Alternativamente, esta fórmula también se puede deducir de la fórmula de Leibniz, ya que la única permutación lo que da una contribución distinta de cero es la permutación de identidad.
Ejemplo
Estas propiedades de caracterización y sus consecuencias enumeradas anteriormente son teóricamente significativas, pero también se pueden usar para calcular determinantes para matrices concretas. De hecho, la eliminación gaussiana se puede aplicar para llevar cualquier matriz a forma triangular superior, y los pasos de este algoritmo afectan al determinante de forma controlada. El siguiente ejemplo concreto ilustra el cálculo del determinante de la matriz. usando ese método:
Matriz |
|
|
| |
Obtenido por | agregue la segunda columna a la primera | agregue 3 veces la tercera columna a la segunda | intercambiar las dos primeras columnas | agregar veces la segunda columna a la primera |
Determinante |
|
|
|
La combinación de estas igualdades da
Transponer
El determinante de la transposición dees igual al determinante de A :
- .
Esto se puede probar inspeccionando la fórmula de Leibniz. [7] Esto implica que en todas las propiedades mencionadas anteriormente, la palabra "columna" se puede reemplazar por "fila" en todas partes. Por ejemplo, si consideramos que una matriz n × n está compuesta por n filas, el determinante es una función n lineal.
Multiplicatividad y grupos de matrices
Por tanto, el determinante es un mapa multiplicativo , es decir, para matrices cuadradas y de igual tamaño, el determinante de un producto matricial es igual al producto de sus determinantes:
Este hecho clave puede probarse observando que, para una matriz fija , ambos lados de la ecuación son alternos y multilineales en función de las columnas de . Además, ambos toman el valor Cuándo es la matriz de identidad. Por lo tanto, la caracterización única mencionada anteriormente de mapas multilineales alternos muestra esta afirmación. [8]
Una matriz es invertible precisamente si su determinante es distinto de cero. Esto se sigue de la multiplicatividad dey la fórmula para la inversa que involucra la matriz adyuvante mencionada a continuación. En este caso, el determinante de la matriz inversa viene dado por
- .
En particular, los productos y las inversas de matrices con determinante distinto de cero (respectivamente, determinante uno) todavía tienen esta propiedad. Por lo tanto, el conjunto de tales matrices (de tamaño fijo) forma un grupo conocido como grupo lineal general (respectivamente, un subgrupo llamado grupo lineal especial . De manera más general, la palabra "especial" indica el subgrupo de otro grupo de matrices de matriz determinante. Los ejemplos incluyen el grupo ortogonal especial (que si n es 2 o 3 consta de todas las matrices de rotación ) y el grupo unitario especial .
La fórmula de Cauchy-Binet es una generalización de esa fórmula de producto para matrices rectangulares . Esta fórmula también se puede reformular como una fórmula multiplicativa para matrices compuestas cuyas entradas son los determinantes de todas las submatrices cuadráticas de una matriz dada. [9] [10]
Expansión de Laplace
La expansión de Laplace expresa el determinante de una matrizen términos de determinantes de matrices más pequeñas, conocidas como sus menores . El menor se define como el determinante de la -matriz que resulta de quitando el -th fila y la -ésima columna. La expresionse conoce como cofactor . Para cada, uno tiene la igualdad
que se llama expansión de Laplace a lo largo de la i- ésima fila . Por ejemplo, la expansión de Laplace a lo largo de la primera fila () da la siguiente fórmula:
Desenrollar los determinantes de estos -matrices devuelve la fórmula de Leibniz mencionada anteriormente. Del mismo modo, la expansión de Laplace a lo largo del-la columna es la igualdad
La expansión de Laplace se puede utilizar de forma iterativa para calcular determinantes, pero este enfoque es ineficaz para matrices grandes. Sin embargo, es útil para calcular los determinantes de matrices altamente simétricas como la matriz de Vandermonde
Este determinante se ha aplicado, por ejemplo, en la demostración del teorema de Baker en la teoría de los números trascendentales .
Matriz de adyuvante
La matriz adyuvante es la transpuesta de la matriz de los cofactores, es decir,
Para cada matriz, uno tiene [11]
Por tanto, la matriz adjunta se puede utilizar para expresar la inversa de una matriz no singular :
Matrices de bloques
La fórmula para el determinante de un -La matriz anterior sigue siendo válida, bajo supuestos adicionales apropiados, para una matriz de bloques , es decir, una matriz compuesta por cuatro submatrices de dimensión , , y , respectivamente. La fórmula más sencilla de este tipo, que se puede probar utilizando la fórmula de Leibniz o una factorización que implica el complemento de Schur , es
Si es invertible (y de manera similar sies invertible [12] ), uno tiene
Si es un -matriz, esto se simplifica a .
Si los bloques son matrices cuadradas del mismo tamaño, se mantienen otras fórmulas. Por ejemplo, si y conmutar (es decir,), luego se sostiene [13]
Esta fórmula se ha generalizado a matrices compuestas por más de bloques, nuevamente bajo condiciones apropiadas de conmutatividad entre los bloques individuales. [14]
Para y , la siguiente fórmula es válida (incluso si y y B no conmuta) [ cita requerida ]
Teorema del determinante de Sylvester
El teorema del determinante de Sylvester establece que para A , una matriz m × n , y B , una matriz n × m (de modo que A y B tienen dimensiones que les permiten multiplicarse en cualquier orden formando una matriz cuadrada):
donde I m y I n son el m × m y n × n matrices de identidad, respectivamente.
De este resultado general se siguen varias consecuencias.
- Para el caso del vector columna cy el vector fila r , cada uno con m componentes, la fórmula permite un cálculo rápido del determinante de una matriz que difiere de la matriz identidad por una matriz de rango 1:
- De manera más general, [15] para cualquier matriz X m × m invertible ,
- Para un vector de columna y fila como arriba:
- Para matrices cuadradas y del mismo tamaño, las matrices y tienen los mismos polinomios característicos (por lo tanto, los mismos valores propios).
Suma
El determinante de la suma de dos matrices cuadradas del mismo tamaño no es en expresable en general en términos de los factores determinantes de A y de B . Sin embargo, para matrices semidefinidas positivas , y de igual tamaño, , por con el corolario [16] [17]
Propiedades del determinante en relación con otras nociones
Autovalores y polinomio característico
El determinante está estrechamente relacionado con otros dos conceptos centrales del álgebra lineal, los valores propios y el polinomio característico de una matriz. Dejar frijol -matriz con entradas complejas con valores propios . (Aquí se entiende que un autovalor con multiplicidad algebraica μ ocurre μ veces en esta lista). Entonces el determinante de A es el producto de todos los autovalores,
El producto de todos los valores propios distintos de cero se denomina pseudodeterminante .
El polinomio característico se define como [18]
Aquí, es el indeterminado [ desambiguación necesaria ] del polinomio y es la matriz de identidad del mismo tamaño que . Mediante este polinomio se pueden utilizar determinantes para encontrar los valores propios de la matriz: son precisamente las raíces de este polinomio, es decir, esos números complejos tal que
Una matriz hermitiana es definida positiva si todos sus valores propios son positivos. El criterio de Sylvester afirma que esto es equivalente a los determinantes de las submatrices
siendo positivo, para todos Entre y . [19]
Rastro
La traza tr ( A ) es por definición la suma de las entradas diagonales de A y también es igual a la suma de los valores propios. Por tanto, para matrices complejas A ,
o, para matrices reales A ,
Aquí exp ( A ) denota la matriz exponencial de A , porque cada valor propio λ de A corresponde al valor propio exp ( λ ) de exp ( A ). En particular, dado cualquier logaritmo de A , es decir, cualquier matriz L que satisfaga
el determinante de A viene dado por
Por ejemplo, para n = 2 , n = 3 y n = 4 , respectivamente,
cf. Teorema de Cayley-Hamilton . Tales expresiones son deducibles de argumentos combinatorios, identidades de Newton o el algoritmo de Faddeev-LeVerrier . Es decir, para n genérico , det A = (−1) n c 0 el término constante con signo del polinomio característico , determinado recursivamente a partir de
En el caso general, esto también se puede obtener de [20].
donde la suma se toma sobre el conjunto de todos los enteros k l ≥ 0 satisfaciendo la ecuación
La fórmula se puede expresar en términos del polinomio de Bell exponencial completo de n argumentos s l = - ( l - 1)! tr ( A l ) como
Esta fórmula también se puede utilizar para encontrar el determinante de una matriz A I J con índices multidimensionales I = (i 1 , i 2 , ..., i r ) y J = (j 1 , j 2 , ..., j r ) . El producto y la traza de tales matrices se definen de forma natural como
Se puede obtener una identidad de dimensión n arbitraria importante a partir de la expansión de la serie de Mercator del logaritmo cuando la expansión converge. Si cada valor propio de A es menor que 1 en valor absoluto,
donde yo es la matriz de identidad. De manera más general, si
se expande como una serie de potencias formales en s, entonces todos los coeficientes de s m para m > n son cero y el polinomio restante es det ( I + sA ) .
Límites superior e inferior
Para una matriz definida positiva A , el operador de traza da los siguientes límites estrechos inferior y superior en el determinante logarítmico
con igualdad si y sólo si A = I . Esta relación se puede derivar mediante la fórmula para la divergencia KL entre dos distribuciones normales multivariadas .
También,
Estas desigualdades se pueden probar llevando la matriz A a la forma diagonal. Como tales, representan el hecho bien conocido de que la media armónica es menor que la media geométrica , que es menor que la media aritmética , que es, a su vez, menor que la raíz cuadrada media .
Derivado
Mediante la fórmula de Leibniz se muestra que el determinante de matrices cuadradas reales (o análogamente para las complejas) es una función polinomial de a . En particular, es diferenciable en todas partes . Su derivada se puede expresar usando la fórmula de Jacobi : [21]
dónde denota el adyuvante de. En particular, si es invertible, tenemos
Expresado en términos de las entradas de , estos son
Sin embargo, otra formulación equivalente es
- ,
usando la notación O grande . El caso especial donde, la matriz de identidad, produce
Esta identidad se utiliza para describir las álgebras de Lie asociadas a ciertos grupos de Lie matriciales . Por ejemplo, el grupo lineal especial está definido por la ecuación . La fórmula anterior muestra que su álgebra de Lie es el álgebra de Lie lineal especial que consiste en aquellas matrices que tienen traza cero.
Escribiendo un -matriz como dónde son vectores de columna de longitud 3, entonces el gradiente sobre uno de los tres vectores puede escribirse como el producto cruzado de los otros dos:
Historia
Históricamente, los determinantes se utilizaron mucho antes que las matrices: un determinante se definió originalmente como una propiedad de un sistema de ecuaciones lineales . El determinante "determina" si el sistema tiene una solución única (que ocurre precisamente si el determinante es distinto de cero). En este sentido, los determinantes se utilizaron por primera vez en el libro de texto de matemáticas chino Los nueve capítulos sobre el arte matemático (九章 算術, eruditos chinos, alrededor del siglo III a. C.). En Europa, las soluciones de sistemas lineales de dos ecuaciones fueron expresadas por Cardano en 1545 por una entidad similar a un determinante. [22]
Los determinantes propiamente dichos se originaron del trabajo de Seki Takakazu en 1683 en Japón y paralelamente de Leibniz en 1693. [23] [24] [25] [26] Cramer (1750) declaró, sin pruebas, la regla de Cramer. [27] Tanto Cramer como Bezout (1779) fueron llevados a los determinantes por la cuestión de las curvas planas que pasan por un conjunto dado de puntos. [28]
Vandermonde (1771) reconoció por primera vez a los determinantes como funciones independientes. [24] Laplace (1772) dio el método general de expandir un determinante en términos de sus menores complementarios : Vandermonde ya había dado un caso especial. [29] Inmediatamente después, Lagrange (1773) trató los determinantes de segundo y tercer orden y los aplicó a cuestiones de la teoría de la eliminación ; demostró muchos casos especiales de identidades generales.
Gauss (1801) hizo el siguiente avance. Como Lagrange, hizo mucho uso de los determinantes en la teoría de los números . Él introdujo la palabra "determinante" (Laplace había utilizado "resultante"), aunque no en el presente significación, sino que se aplica a la discriminante de un cuántico . [30] Gauss también llegó a la noción de determinantes recíprocos (inversos) y se acercó mucho al teorema de la multiplicación.
El siguiente contribuyente de importancia es Binet (1811, 1812), quien estableció formalmente el teorema relativo al producto de dos matrices de m columnas yn filas, que para el caso especial de m = n se reduce al teorema de la multiplicación. El mismo día (30 de noviembre de 1812) en que Binet presentó su trabajo a la Academia, Cauchy también presentó uno sobre el tema. (Ver fórmula de Cauchy-Binet .) En esto usó la palabra "determinante" en su sentido actual, [31] [32] resumió y simplificó lo que entonces se conocía sobre el tema, mejoró la notación y dio el teorema de la multiplicación con un prueba más satisfactoria que la de Binet. [24] [33] Con él comienza la teoría en su generalidad.
( Jacobi 1841 ) utilizó el determinante funcional que Sylvester llamó más tarde el jacobiano . [34] En sus memorias en Diario de Crelle para 1841 especialmente trata a este tema, así como la clase de funciones alternas, que ha llamado Sylvester alternantes . Aproximadamente en la época de las últimas memorias de Jacobi, Sylvester (1839) y Cayley comenzaron su trabajo. Cayley 1841 introdujo la notación moderna para el determinante usando barras verticales. [35] [36]
El estudio de formas especiales de determinantes ha sido el resultado natural de la finalización de la teoría general. Lebesgue , Hesse y Sylvester han estudiado los determinantes axisimétricos ; determinantes persimétricos de Sylvester y Hankel ; circulantes de Catalan , Spottiswoode , Glaisher y Scott; sesgar determinantes y Pfaffians , en conexión con la teoría de la transformación ortogonal , por Cayley; continuos de Sylvester; Wronskianos (así llamados por Muir ) por Christoffel y Frobenius ; determinantes compuestos de Sylvester, Reiss y Picquet; Jacobianos y arpilleras de Sylvester; y determinantes torpes simétricos de Trudi . De los libros de texto sobre el tema, el de Spottiswoode fue el primero. En América, Hanus (1886), Weld (1893) y Muir / Metzler (1933) publicaron tratados.
Aplicaciones
Regla de Cramer
Los determinantes se pueden utilizar para describir las soluciones de un sistema lineal de ecuaciones , escrito en forma de matriz como. Esta ecuación tiene una solución única si y solo si es distinto de cero. En este caso, la solución viene dada por la regla de Cramer :
dónde es la matriz formada al reemplazar el -a columna de por el vector de columna . Esto sigue inmediatamente por la expansión de la columna del determinante, es decir
donde los vectores son las columnas de A . La regla también está implícita en la identidad
La regla de Cramer se puede implementar en tiempo, que es comparable a los métodos más comunes para resolver sistemas de ecuaciones lineales, como LU , QR o descomposición de valores singulares . [37]
Independencia lineal
Los determinantes se pueden utilizar para caracterizar vectores linealmente dependientes : es cero si y solo si los vectores de columna (o, de manera equivalente, los vectores de fila) de la matriz son linealmente dependientes. [38] Por ejemplo, dados dos vectores linealmente independientes, un tercer vector se encuentra en el plano abarcado por los dos primeros vectores exactamente si el determinante de la-matriz que consta de los tres vectores es cero. La misma idea también se usa en la teoría de ecuaciones diferenciales : funciones dadas (se supone que es veces diferenciable ), el Wronskiano se define como
No es cero (para algunos ) en un intervalo especificado si y solo si las funciones dadas y todas sus derivadas están en orden son linealmente independientes. Si se puede demostrar que el Wronskiano es cero en todas partes en un intervalo, entonces, en el caso de funciones analíticas , esto implica que las funciones dadas son linealmente dependientes. Vea la independencia lineal y Wronskiana . Otro uso del determinante es el resultante , que da un criterio cuando dos polinomios tienen una raíz común . [39]
Orientación de una base
Se puede pensar que el determinante asigna un número a cada secuencia de n vectores en R n , mediante el uso de la matriz cuadrada cuyas columnas son los vectores dados. Por ejemplo, una matriz ortogonal con entradas en R n representa una base ortonormal en el espacio euclidiano . El determinante de dicha matriz determina si la orientación de la base es consistente o opuesta a la orientación de la base estándar . Si el determinante es +1, la base tiene la misma orientación. Si es -1, la base tiene la orientación opuesta.
De manera más general, si el determinante de A es positivo, A representa una transformación lineal que conserva la orientación (si A es una matriz ortogonal de 2 × 2 o 3 × 3 , esto es una rotación ), mientras que si es negativo, A cambia la orientación de la base.
Volumen y determinante jacobiano
Como se señaló anteriormente, el valor absoluto del determinante de los vectores reales es igual al volumen del paralelepípedo generado por esos vectores. Como consecuencia, si es el mapa lineal dado por multiplicación con una matriz , y es cualquier subconjunto medible , entonces el volumen de es dado por veces el volumen de . [40] De manera más general, si el mapa lineal está representado por el -matriz , entonces el - volumen dimensional de es dado por:
Al calcular el volumen del tetraedro delimitado por cuatro puntos, se pueden usar para identificar líneas oblicuas . El volumen de cualquier tetraedro, dados sus vértices [ desambiguación necesaria ] , , o cualquier otra combinación de pares de vértices que formen un árbol de expansión sobre los vértices.
Para una función diferenciable general , gran parte de lo anterior se traslada al considerar la matriz jacobiana de f . Para
la matriz jacobiana es la matriz n × n cuyas entradas están dadas por las derivadas parciales
Su determinante, el determinante jacobiano , aparece en la versión de dimensión superior de la integración por sustitución : para funciones adecuadas f y un subconjunto abierto U de R n (el dominio de f ), la integral sobre f ( U ) de alguna otra función φ : R n → R m viene dado por
El jacobiano también ocurre en el teorema de la función inversa .
Aspectos algebraicos abstractos
Determinante de un endomorfismo
Las identidades anteriores con respecto al determinante de productos y las inversas de matrices implican que matrices similares tienen el mismo determinante: dos matrices A y B son similares, si existe una matriz invertible X tal que A = X −1 BX . De hecho, la aplicación repetida de las identidades anteriores produce
Por lo tanto, el determinante también se denomina invariante de similitud . El determinante de una transformación lineal
para algunos de dimensión finita espacio vectorial V se define como el determinante de la matriz que describe que, con respecto a una elección arbitraria de base en V . Por la invariancia similitud, este determinante es independiente de la elección de la base para V y por lo tanto sólo depende del endomorfismo T .
Matrices cuadradas sobre anillos conmutativos
La definición anterior del determinante que utiliza la regla de Leibniz se cumple de manera más general cuando las entradas de la matriz son elementos de un anillo conmutativo. , como los enteros , a diferencia del campo de los números reales o complejos. Además, la caracterización del determinante como el único mapa multilineal alterno que satisfacetodavía se mantiene, al igual que todas las propiedades que resultan de esa caracterización. [41]
Una matriz es invertible (en el sentido de que hay una matriz inversa cuyas entradas están en ) si y solo si su determinante es un elemento invertible en. [42] Para, esto significa que el determinante es +1 o -1. Tal matriz se llama unimodular .
El determinante es multiplicativo, define un homomorfismo de grupo.
entre el grupo lineal general (el grupo de invertible-matrices con entradas en ) y el grupo multiplicativo de unidades en. Dado que respeta la multiplicación en ambos grupos, este mapa es un homomorfismo de grupo .
Dado un homomorfismo de anillo , hay un mapa dado reemplazando todas las entradas en por sus imágenes debajo . El determinante respeta estos mapas, es decir, la identidad
sostiene. En otras palabras, el diagrama conmutativo mostrado conmuta.
Por ejemplo, el determinante del conjugado complejo de una matriz compleja (que también es el determinante de su transpuesta conjugada) es el conjugado complejo de su determinante, y para matrices enteras: el módulo de reducción del determinante de dicha matriz es igual al determinante de la matriz módulo reducido (el último determinante se calcula mediante aritmética modular ). En el lenguaje de la teoría de categorías , el determinante es una transformación natural entre los dos functores. y . [43] Añadiendo otra capa de abstracción, esto se captura diciendo que el determinante es un morfismo de grupos algebraicos , desde el grupo lineal general al grupo multiplicativo ,
Álgebra exterior
El determinante de una transformación lineal de una -espacio vectorial dimensional o, más generalmente, un módulo gratuito de rango (finito) sobre un anillo conmutativo puede formularse de manera libre de coordenadas considerando el -avo poder exterior de . [44] El mapa induce un mapa lineal
Como es unidimensional, el mapa se obtiene multiplicando con algún escalar, es decir, un elemento en . Algunos autores como ( Bourbaki 1998 ) utilizan este hecho para definir el determinante como el elemento en satisfaciendo la siguiente identidad (para todos ):
Esta definición concuerda con la definición dependiente de coordenadas más concreta. Esto se puede mostrar usando la unicidad de una forma alterna multilineal en-tuplas de vectores en . Por esta razón, la potencia exterior más alta distinta de cero (a diferencia del determinante asociado a un endomorfismo) a veces también se denomina determinante de y de manera similar para objetos más involucrados, como paquetes de vectores o complejos de cadenas de espacios vectoriales. Los menores de una matriz también se pueden lanzar en este entorno, considerando formas alternas inferiores con . [45]
Los determinantes tratados anteriormente admiten varias variantes: el permanente de una matriz se define como el determinante, excepto que los factoresque ocurren en la regla de Leibniz se omiten. El inmanante generaliza ambos introduciendo un carácter del grupo simétrico en el gobierno de Leibniz.
Determinantes para álgebras de dimensión finita
Para cualquier álgebra asociativa que es de dimensión finita como un espacio vectorial sobre un campo, hay un mapa determinante [46]
Esta definición procede estableciendo el polinomio característico independientemente del determinante y definiendo el determinante como el término de orden más bajo de este polinomio. Esta definición general recupera el determinante para el álgebra matricial , pero también incluye varios casos más, incluido el determinante de un cuaternión ,
- ,
la norma [ desambiguación necesaria ] de una extensión de campo , así como el Pfaffian de una matriz simétrica sesgada y la norma reducida de un álgebra simple central , también surgen como casos especiales de esta construcción.
Matrices infinitas
Para matrices con un número infinito de filas y columnas, las definiciones anteriores del determinante no se transfieren directamente. Por ejemplo, en la fórmula de Leibniz, se tendría que calcular una suma infinita (todos cuyos términos son productos infinitos). El análisis funcional proporciona diferentes extensiones del determinante para situaciones de dimensión infinita que, sin embargo, solo funcionan para tipos particulares de operadores.
El determinante de Fredholm define el determinante para los operadores conocidos como operadores de clase de rastreo mediante una generalización adecuada de la fórmula.
Otra noción de determinante de dimensión infinita es el determinante funcional .
Operadores en álgebras de von Neumann
Para los operadores en un factor finito , se puede definir un determinante de valor real positivo llamado determinante de Fuglede-Kadison usando la traza canónica. De hecho, correspondiente a cada estado tracial en un álgebra de von Neumann existe una noción de determinante de Fuglede-Kadison.
Nociones relacionadas para anillos no conmutativos
Para matrices sobre anillos no conmutativos, la multilinealidad y las propiedades alternas son incompatibles para n ≥ 2 , [47] por lo que no hay una buena definición del determinante en esta configuración.
Para matrices cuadradas con entradas en un anillo no conmutativo, existen varias dificultades para definir determinantes de forma análoga a la de los anillos conmutativos. Se puede dar un significado a la fórmula de Leibniz siempre que se especifique el orden para el producto, y de manera similar para otras definiciones del determinante, pero la no conmutatividad conduce a la pérdida de muchas propiedades fundamentales del determinante, como la propiedad multiplicativa. o que el determinante no cambia bajo la transposición de la matriz. Sobre los anillos no conmutativos, no existe una noción razonable de una forma multilineal (la existencia de una forma bilineal distinta de cero [ aclarar ] con un elemento regular de R como valor en algún par de argumentos implica que R es conmutativa). Sin embargo, se han formulado varias nociones de determinante no conmutativo que preservan algunas de las propiedades de los determinantes, en particular los cuasideterminantes y el determinante de Dieudonné . Para algunas clases de matrices con elementos no conmutativos, se puede definir el determinante y probar teoremas de álgebra lineal que son muy similares a sus análogos conmutativos. Los ejemplos incluyen el q -determinante en grupos cuánticos, el determinante Capelli en matrices Capelli y el Bereziniano en supermatrices (es decir, matrices cuyas entradas son elementos de- anillos graduados ). [48] Las matrices de manin forman la clase más cercana a las matrices con elementos conmutativos.
Cálculo
Los determinantes se utilizan principalmente como herramienta teórica. Rara vez se calculan explícitamente en álgebra lineal numérica , donde para aplicaciones como verificar la invertibilidad y encontrar valores propios, el determinante ha sido reemplazado en gran medida por otras técnicas. [49] Sin embargo, la geometría computacional usa frecuentemente cálculos relacionados con determinantes. [50]
Si bien el determinante se puede calcular directamente usando la regla de Leibniz, este enfoque es extremadamente ineficiente para matrices grandes, ya que esa fórmula requiere calcular ( factorial ) productos para un-matriz. Así, el número de operaciones requeridas crece muy rápidamente: es de orden . La expansión de Laplace es igualmente ineficaz. Por lo tanto, se han desarrollado técnicas más complicadas para calcular determinantes.
Métodos de descomposición
Algunos métodos calculan escribiendo la matriz como un producto de matrices cuyos determinantes se pueden calcular más fácilmente. Estas técnicas se denominan métodos de descomposición. Los ejemplos incluyen la descomposición LU , la descomposición QR o la descomposición de Cholesky (para matrices definidas positivas ). Estos métodos están en orden, que es una mejora significativa sobre . [ cita requerida ]
Por ejemplo, la descomposición LU expresa como producto
de una matriz de permutación (que tiene exactamente un solo en cada columna, y de lo contrario ceros), una matriz triangular inferior y una matriz triangular superior . Los determinantes de las dos matrices triangulares y pueden calcularse rápidamente, ya que son el producto de las respectivas entradas diagonales. El determinante de es solo la señal de la permutación correspondiente (que es para un número par de permutaciones y es para un número impar de permutaciones). Una vez que se conoce tal descomposición LU por, es determinante se calcula fácilmente como
Otros métodos
El orden alcanzado por métodos de descomposición ha sido mejorado por diferentes métodos. Si dos matrices de orden se puede multiplicar en el tiempo , dónde para algunos , entonces hay un algoritmo que calcula el determinante en el tiempo . [51] Esto significa, por ejemplo, que unexiste un algoritmo basado en el algoritmo Coppersmith-Winograd . Este exponente se ha reducido aún más, a partir de 2016, a 2,373. [52]
Además de la complejidad del algoritmo, se pueden utilizar más criterios para comparar algoritmos. Especialmente para aplicaciones relacionadas con matrices sobre anillos, existen algoritmos que calculan el determinante sin divisiones. (Por el contrario, la eliminación de Gauss requiere divisiones). Uno de esos algoritmos, que tiene complejidadse basa en la siguiente idea: se sustituyen las permutaciones (como en la regla de Leibniz) por los llamados paseos ordenados cerrados , en los que se pueden repetir varios elementos. La suma resultante tiene más términos que en la regla de Leibniz, pero en el proceso varios de estos productos se pueden reutilizar, haciéndolo más eficiente que calcular ingenuamente con la regla de Leibniz. [53] Los algoritmos también pueden evaluarse de acuerdo con su complejidad de bits , es decir, cuántos bits de precisión se necesitan para almacenar valores intermedios que ocurren en el cálculo. Por ejemplo, el método de eliminación gaussiana (o descomposición LU) es de orden, pero la longitud de bits de los valores intermedios puede volverse exponencialmente larga. [54] En comparación, el algoritmo de Bareiss , es un método de división exacta (por lo que usa división, pero solo en los casos en que estas divisiones se pueden realizar sin resto) es del mismo orden, pero la complejidad de bits es aproximadamente el bit tamaño de las entradas originales en la matriz veces. [55]
Si el determinante de A y el inverso de A ya se han calculado, el lema del determinante de la matriz permite un cálculo rápido del determinante de A + uv T , donde u y v son vectores columna.
Charles Dodgson (es decir, Lewis Carroll de la fama de Alice's Adventures in Wonderland ) inventó un método para calcular determinantes llamado condensación de Dodgson . Desafortunadamente, este interesante método no siempre funciona en su forma original. [ cita requerida ]
Ver también
- Determinante de Cauchy
- Determinante de Cayley-Menger
- Determinante dieudonné
- Determinante de Slater
Notas
- ↑ Lang 1985 , §VII.1
- ^ Wildberger, Norman J. (2010). Episodio 4 (video conferencia). WildLinAlg. Sydney, Australia: Universidad de Nueva Gales del Sur , a través de YouTube.
- ^ "Determinantes y volúmenes" . libros de textos.math.gatech.edu . Consultado el 16 de marzo de 2018 .
- ^ McConnell (1957). Aplicaciones del análisis tensorial . Publicaciones de Dover. págs. 10-17 .
- ↑ Harris 2014 , §4.7
- ↑ Serge Lang , Linear Algebra , 2nd Edition, Addison-Wesley, 1971, págs.173, 191.
- ^ Lang 1987 , §VI.7, Teorema 7.5
- ^ Alternativamente, Bourbaki 1998 , §III.8, la Propuesta 1 demuestra este resultado usando el functoriality de la potencia exterior.
- ^ Horn & Johnson 2018 , §0.8.7
- ^ Kung, Rota y Yan 2009 , p. 306
- ^ Horn & Johnson 2018 , §0.8.2.
- ^
- ^ Silvester, JR (2000). "Determinantes de las matrices de bloques" (PDF) . Matemáticas. Gaceta . 84 (501): 460–467. doi : 10.2307 / 3620776 . JSTOR 3620776 .
- ^ Sothanaphan, Nat (enero de 2017). "Determinantes de matrices de bloques con bloques no conmutables". Álgebra lineal y sus aplicaciones . 512 : 202–218. arXiv : 1805.06027 . doi : 10.1016 / j.laa.2016.10.004 . S2CID 119272194 .
- ^ Las pruebas se pueden encontrar en http://www.ee.ic.ac.uk/hp/staff/dmb/matrix/proof003.html
- ^ Lin, Minghua; Sra, Suvrit (2014). "Superaditividad completamente fuerte de funciones matriciales generalizadas". arXiv : 1410.1958 [ math.FA ].
- ^ Paksoy; Turcomano; Zhang (2014). "Desigualdades de funciones matriciales generalizadas a través de productos tensoriales" . Revista electrónica de álgebra lineal . 27 : 332–341. doi : 10.13001 / 1081-3810.1622 .
- ^ Lang 1985 , §VIII.2, Horn & Johnson 2018 , Def. 1.2.3
- ^ Horn & Johnson 2018 , Observación 7.1.2, Teorema 7.2.5
- ^ Se puede encontrar una prueba en el Apéndice B de Kondratyuk, LA; Krivoruchenko, MI (1992). "Materia de quarks superconductores en el grupo de color SU (2)". Zeitschrift für Physik A . 344 (1): 99-115. Código bibliográfico : 1992ZPhyA.344 ... 99K . doi : 10.1007 / BF01291027 . S2CID 120467300 .
- ↑ Horn y Johnson , 2018 , § 0.8.10
- ^ Grattan-Guinness 2003 , §6.6
- ^ Cajori, F. Una historia de las matemáticas p. 80
- ^ a b c Campbell, H: "Álgebra lineal con aplicaciones", páginas 111-112. Appleton Century Crofts, 1971
- ^ Eves 1990 , p. 405
- ^ Una breve historia del álgebra lineal y la teoría de matrices en: "Una breve historia del álgebra lineal y la teoría de matrices" . Archivado desde el original el 10 de septiembre de 2012 . Consultado el 24 de enero de 2012 .
- ^ Kleiner 2004 , p. 80
- ^ Bourbaki (1994 , p. 59)
- ^ Muir, Sir Thomas, La teoría de los determinantes en el orden histórico del desarrollo [Londres, Inglaterra: Macmillan and Co., Ltd., 1906]. JFM 37.0181.02
- ^ Kleiner 2007 , §5.2
- ↑ El primer uso de la palabra "determinante" en el sentido moderno apareció en: Cauchy, Augustin-Louis "Memoire sur les fonctions qui ne peuvent obtenir que deux valeurs égales et des signes contraires par suite des transpositions operées entre les variables qu'elles renferment ", que se leyó por primera vez en el Instituto de Francia en París el 30 de noviembre de 1812, y que se publicó posteriormente en el Journal de l'Ecole Polytechnique , Cahier 17, tomo 10, páginas 29-112 (1815).
- ^ Orígenes de los términos matemáticos: http://jeff560.tripod.com/d.html
- ^ Historia de matrices y determinantes: http://www-history.mcs.st-and.ac.uk/history/HistTopics/Matrices_and_determinants.html
- ^ Eves 1990 , p. 494
- ^ Cajori 1993 , vol. II, pág. 92, no. 462
- ^ Historia de la notación matricial: http://jeff560.tripod.com/matrices.html
- ^ Habgood y Arel 2012
- ↑ Lang 1985 , §VII.3
- ^ Lang 2002 , §IV.8
- ^ Lang 1985 , §VII.6, Teorema 6.10
- ^ Dummit y Foote 2004 , §11.4
- ^ Dummit y Foote 2004 , §11.4, Teorema 30
- ^ Mac Lane 1998 , §I.4. Ver también Transformación natural § Determinante .
- ↑ Bourbaki 1998 , §III.8
- ^ Lombardi y Quitté 2015 , §5.2, Bourbaki 1998 , §III.5
- ^ Garibaldi 2004
- ^ En un entorno no conmutativo, la linealidad por la izquierda (compatibilidad con la multiplicación por la izquierda por escalares) debe distinguirse de la linealidad por la derecha. Suponiendo que la linealidad en las columnas se toma como linealidad a la izquierda, se tendría, para los escalares a , b que no son de conmutación:
- ^ Varadarajan, V. S (2004), Supersimetría para matemáticos: Introducción , ISBN 978-0-8218-3574-6.
- ^ "... mencionamos que el determinante, aunque teóricamente es una noción conveniente, rara vez encuentra un papel útil en los algoritmos numéricos", ver Trefethen & Bau III 1997 , Conferencia 1.
- ^ Fisikopoulos y Peñaranda 2016 , §1.1, §4.3
- ^ Bunch y Hopcroft 1974
- ^ Fisikopoulos y Peñaranda 2016 , §1.1
- ^ Rote 2001
- ^ Fang, Xin Gui; Havas, George (1997). "En el peor de los casos la complejidad de la eliminación gaussiana de enteros" (PDF) . Actas del simposio internacional de 1997 sobre computación simbólica y algebraica . ISSAC '97. Kihei, Maui, Hawaii, Estados Unidos: ACM. págs. 28–31. doi : 10.1145 / 258726.258740 . ISBN 0-89791-875-4. Archivado desde el original (PDF) el 7 de agosto de 2011 . Consultado el 22 de enero de 2011 .
- ^ Fisikopoulos y Peñaranda 2016 , §1.1, Bareiss 1968
Referencias
- Anton, Howard (2005), Álgebra lineal elemental (versión de aplicaciones) (9a ed.), Wiley International
- Axler, Sheldon Jay (2015). Álgebra lineal bien hecha (3ª ed.). Springer . ISBN 978-3-319-11079-0.
- Bareiss, Erwin (1968), "Identidad de Sylvester y eliminación gaussiana de preservación de enteros de varios pasos " (PDF) , Mathematics of Computation , 22 (102): 565–578, doi : 10.2307 / 2004533 , JSTOR 2004533
- de Boor, Carl (1990), "Un ejercicio vacío" (PDF) , ACM SIGNUM Newsletter , 25 (2): 3–7, doi : 10.1145 / 122272.122273 , S2CID 62780452
- Bourbaki, Nicolas (1998), Álgebra I, Capítulos 1-3 , Springer, ISBN 9783540642435
- Manojo, JR; Hopcroft, JE (1974). "Factorización triangular e inversión por multiplicación rápida de matrices" . Matemáticas de la Computación . 28 (125): 231-236. doi : 10.1090 / S0025-5718-1974-0331751-8 .
- Dummit, David S .; Foote, Richard M. (2004), Álgebra abstracta (3.a ed.), Hoboken, Nueva Jersey: Wiley, ISBN 9780471452348, OCLC 248917264
- Fisikopoulos, Vissarion; Peñaranda, Luis (2016), "Algoritmos geométricos más rápidos a través del cálculo dinámico de determinantes", Geometría computacional , 54 : 1-16, doi : 10.1016 / j.comgeo.2015.12.001
- Garibaldi, Skip (2004), "El polinomio característico y el determinante no son construcciones ad hoc", American Mathematical Monthly , 111 (9), arXiv : math / 0203276 , doi : 10.2307 / 4145188 , MR 2104048
- Habgood, Ken; Arel, Itamar (2012). "Una aplicación basada en la condensación de la regla de Cramer para resolver sistemas lineales a gran escala" (PDF) . Diario de algoritmos discretos . 10 : 98-109. doi : 10.1016 / j.jda.2011.06.007 .
- Harris, Frank E. (2014), Matemáticas para la ciencia física y la ingeniería , Elsevier, ISBN 9780128010495
- Kleiner, Israel (2007), A history of abstract álgebra , Birkhäuser, doi : 10.1007 / 978-0-8176-4685-1 , ISBN 978-0-8176-4684-4, MR 2347309
- Kung, Joseph PS; Rota, Gian-Carlo; Yan, Catherine (2009), Combinatoria: The Rota Way , Cambridge University Press, ISBN 9780521883894
- Lay, David C. (22 de agosto de 2005), Álgebra lineal y sus aplicaciones (3a ed.), Addison Wesley, ISBN 978-0-321-28713-7
- Lombardi, Henri; Quitté, Claude (2015), Álgebra conmutativa: métodos constructivos , Springer, ISBN 9789401799447
- Mac Lane, Saunders (1998), Categorías para el matemático que trabaja , Textos de posgrado en matemáticas 5 (2a ed.), Springer-Verlag, ISBN 0-387-98403-8
- Meyer, Carl D. (15 de febrero de 2001), Análisis de matrices y álgebra lineal aplicada , Sociedad de Matemáticas Industriales y Aplicadas (SIAM), ISBN 978-0-89871-454-8, archivado desde el original el 31 de octubre de 2009
- Muir, Thomas (1960) [1933], Tratado sobre la teoría de los determinantes , revisado y ampliado por William H. Metzler, Nueva York, NY: Dover
- Poole, David (2006), Álgebra lineal: una introducción moderna (2a ed.), Brooks / Cole, ISBN 0-534-99845-3
- G. Baley Price (1947) "Algunas identidades en la teoría de los determinantes", American Mathematical Monthly 54: 75–90 MR0019078
- Horn, Roger Alan ; Johnson, Charles Royal (2018) [1985]. Análisis matricial (2ª ed.). Prensa de la Universidad de Cambridge . ISBN 978-0-521-54823-6.
- Lang, Serge (1985), Introducción al álgebra lineal , Textos de pregrado en matemáticas (2 ed.), Springer, ISBN 9780387962054
- Lang, Serge (1987), Álgebra lineal , Textos de pregrado en matemáticas (3 ed.), Springer, ISBN 9780387964126
- Lang, Serge (2002). Álgebra . Textos de Posgrado en Matemáticas. Nueva York, NY: Springer. ISBN 978-0-387-95385-4.
- Leon, Steven J. (2006), Álgebra lineal con aplicaciones (7a ed.), Pearson Prentice Hall
- Rote, Günter (2001), "Algoritmos sin división para el determinante y el Pfaffian: enfoques algebraicos y combinatorios", Matemática discreta computacional (PDF) , Lecture Notes in Comput. Sci., 2122 , Springer, págs. 119-135, doi : 10.1007 / 3-540-45506-X \ _9 , MR 1911585
- Trefethen, Lloyd; Bau III, David (1997), Álgebra lineal numérica (1a ed.), Filadelfia: SIAM, ISBN 978-0-89871-361-9
Referencias históricas
- Bourbaki, Nicolas (1994), Elementos de la historia de las matemáticas , traducido por Meldrum, John, Springer, doi : 10.1007 / 978-3-642-61693-8 , ISBN 3-540-19376-6
- Cajori, Florian (1993), Historia de las notaciones matemáticas: incluido el vol. I. Notaciones en matemáticas elementales; Vol. II. Notaciones principalmente en matemáticas superiores, Reimpresión de los originales de 1928 y 1929 , Dover, ISBN 0-486-67766-4, MR 3363427
- Bezout, Étienne (1779), Théorie générale des equations algébriques , París
- Cayley, Arthur (1841), "Sobre un teorema en la geometría de la posición", Cambridge Mathematical Journal , 2 : 267-271.
- Cramer, Gabriel (1750), Introducción a l'analyse des lignes courbes algébriques , Genève: Frères Cramer & Cl. Philibert, doi : 10.3931 / e-rara-4048
- Eves, Howard (1990), Una introducción a la historia de las matemáticas (6 ed.), Saunders College Publishing, ISBN 0-03-029558-0, MR 1104435
- Grattan-Guinness, I., ed. (2003), Enciclopedia complementaria de la historia y la filosofía de las ciencias matemáticas , 1 , Johns Hopkins University Press , ISBN 9780801873966
- Jacobi, Carl Gustav Jakob (1841), "De Determinantibus Functionalibus " , Journal für die reine und angewandte Mathematik : 320–359, doi : 10.1515 / crll.1841.22.319
- Laplace, Pierre-Simon, de (1772), "Recherches sur le calcul intégral et sur le systéme du monde" , Histoire de l'Académie Royale des Sciences , París (seconde partie): 267–376
enlaces externos
- Suprunenko, DA (2001) [1994], "Determinante" , Enciclopedia de Matemáticas , EMS Press
- Weisstein, Eric W. "Determinante" . MathWorld .
- O'Connor, John J .; Robertson, Edmund F. , "Matrices and determinants" , archivo MacTutor de Historia de las Matemáticas , Universidad de St Andrews
- Programa interactivo y tutorial determinante
- Álgebra lineal: determinantes. Calcule determinantes de matrices hasta el orden 6 utilizando la expansión de Laplace que elija.
- Matrices y álgebra lineal en las páginas de usos más antiguos
- Los determinantes explicados de forma sencilla en el capítulo 4 como parte de un curso de Álgebra lineal.