En matemáticas , y en particular en álgebra lineal , la inversa de Moore-Penrose de una matriz es el más ampliamente conocido generalización de la matriz inversa . [1] [2] [3] [4] Fue descrito independientemente por EH Moore [5] en 1920, Arne Bjerhammar [6] en 1951 y Roger Penrose [7] en 1955. Anteriormente, Erik Ivar Fredholm había introducido el concepto de un pseudoinverso de operadores integrales en 1903. Cuando se hace referencia a una matriz, el término pseudoinverso , sin mayor especificación, se utiliza a menudo para indicar el inverso de Moore-Penrose. El término inverso generalizado a veces se utiliza como sinónimo de pseudoinverso.
Un uso común de la pseudoinversa es calcular una solución de "mejor ajuste" ( mínimos cuadrados ) a un sistema de ecuaciones lineales que carece de solución (ver más abajo en § Aplicaciones ). Otro uso es encontrar la solución de norma mínima ( euclidiana ) para un sistema de ecuaciones lineales con múltiples soluciones. El pseudoinverso facilita el enunciado y la prueba de resultados en álgebra lineal.
El pseudoinverso está definido y es único para todas las matrices cuyas entradas son números reales o complejos . Se puede calcular utilizando la descomposición de valores singulares .
Notación
En la siguiente discusión, se adoptan las siguientes convenciones.
- denotará uno de los campos de números reales o complejos, denotado, , respectivamente. El espacio vectorial de matrices sobre se denota por .
- Para , y denotan la transposición y la transposición hermitiana (también llamada transposición conjugada ) respectivamente. Si, luego .
- Para , (que significa " rango ") denota el espacio de columna (imagen) de (el espacio abarcado por los vectores columna de ) y denota el kernel (espacio nulo) de.
- Finalmente, para cualquier entero positivo , denota el matriz de identidad .
Definición
Para , un pseudoinverso de A se define como una matrizsatisfaciendo los siguientes cuatro criterios, conocidos como las condiciones de Moore-Penrose: [7] [8]
- no necesita ser la matriz de identidad general, pero mapea todos los vectores de columna de A a sí mismos;
- actúa como un inverso débil ;
- es hermitiano ;
- también es hermitiano.
existe para cualquier matriz A , pero, cuando esta última tiene rango completo (es decir, el rango de A es), luego se puede expresar como una fórmula algebraica simple.
En particular, cuando tiene columnas linealmente independientes (y por lo tanto la matriz es invertible), se puede calcular como
Este pseudoinverso particular constituye un inverso de izquierda , ya que, en este caso,.
Cuando A tiene filas linealmente independientes (matriz es invertible), se puede calcular como
Esta es una inversa a la derecha , como.
Propiedades
Existencia y singularidad
El pseudoinverso existe y es único: para cualquier matriz , hay precisamente una matriz , que satisface las cuatro propiedades de la definición. [8]
Una matriz que satisface la primera condición de la definición se conoce como inversa generalizada. Si la matriz también satisface la segunda definición, se denomina inversa reflexiva generalizada . Las inversas generalizadas siempre existen, pero en general no son únicas. La singularidad es una consecuencia de las dos últimas condiciones.
Propiedades básicas
- Si tiene entradas reales, entonces también las tiene .
- Si es invertible , su pseudoinverso es su inverso. Es decir,. [9] : 243
- La pseudoinversa de una matriz cero es su transpuesta.
- El pseudoinverso del pseudoinverso es la matriz original: . [9] : 245
- La pseudoinversión conmuta con transposición, conjugación compleja y tomando la transposición conjugada: [9] : 245
- , , .
- El pseudoinverso de un múltiplo escalar de es el múltiplo recíproco de :
- por .
Identidades
Las siguientes identidades se pueden usar para cancelar ciertas subexpresiones o expandir expresiones que involucran pseudoinversos. Las pruebas de estas propiedades se pueden encontrar en la subpágina de pruebas .
Reducción a caso hermitiano
El cálculo de la pseudoinversa es reducible a su construcción en el caso hermitiano. Esto es posible a través de las equivalencias:
como y son hermitianos.
Productos
Suponer . Entonces los siguientes son equivalentes: [10]
Las siguientes son condiciones suficientes para :
- tiene columnas ortonormales (entonces ), o
- tiene filas ortonormales (entonces ), o
- tiene columnas linealmente independientes (entonces ) y tiene filas linealmente independientes (entonces ), o
- , o
- .
La siguiente es una condición necesaria para :
La última condición suficiente produce las igualdades
NB: La igualdad no se sostiene en general. Vea el contraejemplo:
Proyectores
y son operadores de proyección ortogonal , es decir, son hermitianos (, ) e idempotente ( y ). La siguiente retención:
- y
- es el proyector ortogonal en el rango de(que es igual al complemento ortogonal del núcleo de).
- es el proyector ortogonal en el rango de (que es igual al complemento ortogonal del núcleo de ).
- es el proyector ortogonal en el núcleo de .
- es el proyector ortogonal en el núcleo de . [8]
Las dos últimas propiedades implican las siguientes identidades:
Otra propiedad es la siguiente: si es hermitiano e idempotente (verdadero si y solo si representa una proyección ortogonal), entonces, para cualquier matriz la siguiente ecuación es válida: [11]
Esto se puede probar definiendo matrices , , y comprobando que es de hecho un pseudoinverso para verificando que las propiedades definitorias de la pseudoinversa se mantienen, cuando es hermitiano e idempotente.
De la última propiedad se sigue que, si es hermitiana e idempotente, para cualquier matriz
Finalmente, si es una matriz de proyección ortogonal, entonces su pseudoinverso coincide trivialmente con la matriz misma, es decir, .
Construcción geométrica
Si vemos la matriz como un mapa lineal sobre el campo luego se puede descomponer de la siguiente manera. Nosotros escribimospor la suma directa ,para el complemento ortogonal ,para el núcleo de un mapa, ypara la imagen de un mapa. Darse cuenta de y . La restricciónes entonces un isomorfismo. Esto implica que en es el inverso de este isomorfismo, y es cero en
En otras palabras: encontrar por dado en , primer proyecto ortogonalmente en el rango de , encontrando un punto en el rango. Entonces forma, es decir, encuentre esos vectores en que envía a . Este será un subespacio afín de paralelo al núcleo de . El elemento de este subespacio que tiene la longitud más pequeña (es decir, el más cercano al origen) es la respuestaestamos buscando. Se puede encontrar tomando un miembro arbitrario de y proyectarlo ortogonalmente sobre el complemento ortogonal del núcleo de .
Esta descripción está estrechamente relacionada con la solución de norma mínima para un sistema lineal .
Subespacios
Limitar relaciones
Los pseudoinversos son límites:
Continuidad
En contraste con la inversión de matriz ordinaria, el proceso de tomar pseudoinversos no es continuo : si la secuencia converge a la matriz (en la norma máxima o norma de Frobenius , digamos), entonces no necesita converger a . Sin embargo, si todas las matrices tener el mismo rango que , convergerá a . [12]
Derivado
La derivada de una matriz pseudoinversa de valor real que tiene rango constante en un punto se puede calcular en términos de la derivada de la matriz original: [13]
Ejemplos de
Dado que para las matrices invertibles la pseudoinversa es igual a la inversa habitual, a continuación solo se consideran ejemplos de matrices no invertibles.
- Para la pseudoinversa es (Generalmente, la pseudoinversa de una matriz cero es su transpuesta). La unicidad de esta pseudoinversa se puede ver en el requisito , ya que la multiplicación por una matriz cero siempre produciría una matriz cero.
- Para la pseudoinversa es
En efecto, y por lo tanto
Similar, y por lo tanto - Para
- Para (Los denominadores son .)
- Para
- Para la pseudoinversa es Para esta matriz, existe la inversa izquierda y, por lo tanto, es igual a, Por supuesto,
Casos especiales
Escalares
También es posible definir un pseudoinverso para escalares y vectores. Esto equivale a tratarlos como matrices. El pseudoinverso de un escalar es cero si es cero y el recíproco de de lo contrario:
Vectores
El pseudoinverso del vector nulo (todo cero) es el vector nulo transpuesto. El pseudoinverso de un vector no nulo es el vector transpuesto conjugado dividido por su magnitud al cuadrado:
Columnas linealmente independientes
Si las columnas deson linealmente independientes (de modo que), luego es invertible. En este caso, una fórmula explícita es: [14]
Resulta que es entonces un inverso a la izquierda de : .
Filas linealmente independientes
Si las filas de son linealmente independientes (de modo que ), luego es invertible. En este caso, una fórmula explícita es:
Resulta que es un inverso a la derecha de : .
Columnas o filas ortonormales
Este es un caso especial de rango de columna completo o rango de fila completo (tratado anteriormente). Si tiene columnas ortonormales) o filas ortonormales (), luego:
Matrices normales
Si es una matriz normal ; es decir, conmuta con su transpuesta conjugada; entonces su pseudoinverso se puede calcular diagonalizándolo, mapeando todos los valores propios distintos de cero a sus inversos y mapeando los valores propios cero a cero. Un corolario es que conmutar con su transposición implica que conmuta con su pseudoinverso.
Matrices de proyección ortogonal
Este es un caso especial de una matriz normal con valores propios 0 y 1. Si es una matriz de proyección ortogonal, es decir, y , entonces el pseudoinverso coincide trivialmente con la propia matriz:
Matrices circulantes
Para una matriz circulante , la descomposición del valor singular viene dada por la transformada de Fourier , es decir, los valores singulares son los coeficientes de Fourier. Dejarser la matriz de Transformada de Fourier discreta (DFT) , luego [15]
Construcción
Descomposición de rango
Dejar denotar el rango de. Luegose puede (rango) descomponer como dónde y son de rango . Luego.
El método QR
Para computando el producto o y sus inversas explícitamente son a menudo una fuente de errores de redondeo numérico y costos computacionales en la práctica. Un enfoque alternativo que utiliza la descomposición QR de se puede utilizar en su lugar.
Considere el caso cuando es de rango de columna completo, de modo que . Entonces la descomposición de Cholesky , dónde es una matriz triangular superior , se puede utilizar. La multiplicación por el inverso se hace fácilmente resolviendo un sistema con múltiples lados derechos,
que puede resolverse mediante sustitución hacia adelante seguida de sustitución hacia atrás .
La descomposición de Cholesky se puede calcular sin formar explícitamente, mediante el uso alternativo de la descomposición QR de, dónde tiene columnas ortonormales, , y es triangular superior. Luego
entonces es el factor Cholesky de .
El caso del rango de fila completo se trata de manera similar mediante el uso de la fórmula y usando un argumento similar, intercambiando los roles de y .
Descomposición de valores singulares (SVD)
Una forma computacionalmente simple y precisa de calcular el pseudoinverso es mediante el uso de la descomposición de valores singulares . [14] [8] [16] Si es la descomposición del valor singular de , luego . Para una matriz diagonal rectangular como, obtenemos el pseudoinverso tomando el recíproco de cada elemento distinto de cero en la diagonal, dejando los ceros en su lugar y luego transponiendo la matriz. En el cálculo numérico, solo los elementos mayores que una pequeña tolerancia se toman como distintos de cero, y los demás se reemplazan por ceros. Por ejemplo, en la función pinv de MATLAB , GNU Octave o NumPy , la tolerancia se toma como t = ε⋅max ( m , n ) ⋅max (Σ) , donde ε es el épsilon de la máquina .
El costo computacional de este método está dominado por el costo de calcular la SVD, que es varias veces mayor que la multiplicación matriz-matriz, incluso si se utiliza una implementación de última generación (como la de LAPACK ).
El procedimiento anterior muestra por qué tomar la pseudoinversa no es una operación continua: si la matriz original tiene un valor singular 0 (una entrada diagonal de la matriz arriba), luego modificando ligeramente puede convertir este cero en un pequeño número positivo, lo que afectará dramáticamente al pseudoinverso, ya que ahora tenemos que tomar el recíproco de un número diminuto.
Matrices de bloques
Existen enfoques optimizados para calcular el pseudoinverso de matrices estructuradas en bloques.
El método iterativo de Ben-Israel y Cohen
Otro método para calcular el pseudoinverso (cf. Drazin inverso ) usa la recursividad
que a veces se denomina secuencia de hiperpotencia. Esta recursividad produce una secuencia que converge cuadráticamente a la pseudoinversa de si se inicia con un apropiado satisfactorio . La elección (dónde , con que denota el mayor valor singular de ) [17] se ha argumentado que no es competitivo con el método que utiliza el SVD mencionado anteriormente, porque incluso para matrices moderadamente mal condicionadas, lleva mucho tiempo antesentra en la región de convergencia cuadrática. [18] Sin embargo, si comienza con ya cerca de la inversa de Moore-Penrose y , por ejemplo , la convergencia es rápida (cuadrática).
Actualizar el pseudoinverso
Para los casos donde tiene rango completo de fila o columna, y el inverso de la matriz de correlación ( por con rango de fila completo o para rango de columna completo) ya se conoce, el pseudoinverso para matrices relacionadas con se puede calcular aplicando la fórmula de Sherman-Morrison-Woodbury para actualizar la inversa de la matriz de correlación, que puede requerir menos trabajo. En particular, si la matriz relacionada difiere de la original solo por una fila o columna modificada, agregada o eliminada, existen algoritmos incrementales que explotan la relación. [19] [20]
De manera similar, es posible actualizar el factor Cholesky cuando se agrega una fila o columna, sin crear explícitamente la inversa de la matriz de correlación. Sin embargo, actualizar el pseudoinverso en el caso general de rango deficiente es mucho más complicado. [21] [22]
Bibliotecas de software
Las implementaciones de alta calidad de SVD, QR y sustitución inversa están disponibles en bibliotecas estándar , como LAPACK . Escribir la propia implementación de SVD es un proyecto de programación importante que requiere una experiencia numérica significativa . Sin embargo, en circunstancias especiales, como la computación paralela o la computación integrada , pueden ser preferibles implementaciones alternativas mediante QR o incluso el uso de una inversa explícita, y las implementaciones personalizadas pueden ser inevitables.
El paquete Python NumPy proporciona un cálculo pseudoinverso a través de sus funciones matrix.I
y linalg.pinv
; sus pinv
usos del algoritmo basado en SVD. SciPy agrega una función scipy.linalg.pinv
que usa un solucionador de mínimos cuadrados.
El paquete MASS para R proporciona un cálculo de la inversa de Moore-Penrose a través de la ginv
función. [23] La ginv
función calcula una pseudoinversa usando la descomposición de valor singular proporcionada por la svd
función en el paquete R base. Una alternativa es emplear la pinv
función disponible en el paquete pracma.
El lenguaje de programación Octave proporciona una pseudoinversa a través de la función estándar del paquete pinv
y el pseudo_inverse()
método.
En Julia (lenguaje de programación) , el paquete LinearAlgebra de la biblioteca estándar proporciona una implementación de la inversa de Moore-Penrose pinv()
implementada a través de la descomposición de valores singulares. [24]
Aplicaciones
Mínimos cuadrados lineales
El pseudoinverso proporciona una solución de mínimos cuadrados a un sistema de ecuaciones lineales . [25] Para, dado un sistema de ecuaciones lineales
en general, un vector que resuelve el sistema puede no existir, o si existe uno, puede que no sea único. El pseudoinverso resuelve el problema de "mínimos cuadrados" de la siguiente manera:
- , tenemos dónde y denota la norma euclidiana . Esta débil desigualdad se mantiene con igualdad si y solo si para cualquier vector ; esto proporciona una infinidad de soluciones minimizadoras a menos que tiene rango de columna completo, en cuyo caso es una matriz cero. [26] La solución con norma euclidiana mínima es[26]
Este resultado se extiende fácilmente a sistemas con múltiples lados derechos, cuando la norma euclidiana es reemplazada por la norma Frobenius. Dejar.
- , tenemos dónde y denota la norma Frobenius .
Obtención de todas las soluciones de un sistema lineal
Si el sistema lineal
tiene alguna solución, todas están dadas por [27]
para vector arbitrario . Existen soluciones si y solo si. [27] Si esto último se cumple, entonces la solución es única si y solo si tiene rango de columna completo, en cuyo caso es una matriz cero. Si existen soluciones perono tiene rango de columna completo, entonces tenemos un sistema indeterminado , cuya infinitud de soluciones está dada por esta última ecuación.
Solución de norma mínima para un sistema lineal
Para sistemas lineales con soluciones no únicas (como sistemas subdeterminados), la pseudoinversa puede usarse para construir la solución de la norma euclidiana mínima entre todas las soluciones.
- Si es satisfactorio, el vector es una solución y satisface para todas las soluciones.
Este resultado se extiende fácilmente a sistemas con múltiples lados derechos, cuando la norma euclidiana es reemplazada por la norma Frobenius. Dejar.
- Si es satisfactorio, la matriz es una solución y satisface para todas las soluciones.
Número de condición
Usando el pseudoinverso y una norma de matriz , se puede definir un número de condición para cualquier matriz:
Un número de condición grande implica que el problema de encontrar soluciones de mínimos cuadrados al sistema correspondiente de ecuaciones lineales está mal condicionado en el sentido de que pequeños errores en las entradas de puede dar lugar a grandes errores en las entradas de la solución. [28]
Generalizaciones
Además de para matrices sobre números reales y complejos, las condiciones son válidas para matrices sobre bicuaterniones , también llamados "cuaterniones complejos". [29]
Para resolver problemas de mínimos cuadrados más generales, se pueden definir las inversas de Moore-Penrose para todos los operadores lineales continuos entre dos espacios de Hilbert y , utilizando las mismas cuatro condiciones que en nuestra definición anterior. Resulta que no todos los operadores lineales continuos tienen un pseudoinverso lineal continuo en este sentido. [28] Aquellos que lo hacen son precisamente aquellos cuyo rango está cerrado en.
Existe una noción de pseudoinverso para matrices sobre un campo arbitrario equipado con un automorfismo involutivo arbitrario . En esta configuración más general, una matriz dada no siempre tiene un pseudoinverso. La condición necesaria y suficiente para que exista un pseudoinverso es que dónde denota el resultado de aplicar la operación de involución a la transposición de . Cuando existe, es único. [30] Ejemplo : Considere el campo de los números complejos equipados con la involución de identidad (a diferencia de la involución considerada en otra parte del artículo); ¿Existen matrices que no tengan pseudoinversos en este sentido? Considere la matriz. Observa eso tiempo . Entonces esta matriz no tiene un pseudoinverso en este sentido.
En álgebra abstracta , una inversa de Moore-Penrose puede definirse en un semigrupo regular * . Esta definición abstracta coincide con la del álgebra lineal.
Ver también
- Pruebas que involucran la inversa de Moore-Penrose
- Drazin inverso
- Matriz de sombrero
- Elemento inverso
- Mínimos cuadrados lineales (matemáticas)
- Pseudodeterminante
- Anillo Von Neumann regular
Notas
- ^ Ben-Israel y Greville , 2003 , p. 7.
- ^ Campbell y Meyer, Jr. 1991 , p. 10.
- ^ Nakamura 1991 , p. 42.
- ^ Rao y Mitra 1971 , p. 50–51.
- ^ Moore, EH (1920). "En el recíproco de la matriz algebraica general" . Boletín de la American Mathematical Society . 26 (9): 394–95. doi : 10.1090 / S0002-9904-1920-03322-7 .
- ^ Bjerhammar, Arne (1951). "Aplicación del cálculo de matrices al método de mínimos cuadrados; con especial referencia a cálculos geodésicos". Trans. Roy. Inst. Tech. Estocolmo . 49 .
- ^ a b Penrose, Roger (1955). "Un inverso generalizado para matrices" . Actas de la Sociedad Filosófica de Cambridge . 51 (3): 406-13. Código bibliográfico : 1955PCPS ... 51..406P . doi : 10.1017 / S0305004100030401 .
- ^ a b c d e Golub, Gene H .; Charles F. Van Loan (1996). Cálculos matriciales (3ª ed.). Baltimore: Johns Hopkins. pp. 257 -258. ISBN 978-0-8018-5414-9.
- ^ a b c Stoer, Josef; Bulirsch, Roland (2002). Introducción al análisis numérico (3ª ed.). Berlín, Nueva York: Springer-Verlag . ISBN 978-0-387-95452-3..
- ^ Greville, TNE (1 de octubre de 1966). "Nota sobre el inverso generalizado de un producto matricial" . Revisión SIAM . 8 (4): 518–521. doi : 10.1137 / 1008107 . ISSN 0036-1445 .
- ^ Maciejewski, Anthony A .; Klein, Charles A. (1985). "Evitación de obstáculos para manipuladores cinemáticamente redundantes en entornos dinámicamente variables". Revista Internacional de Investigación en Robótica . 4 (3): 109-117. doi : 10.1177 / 027836498500400308 . hdl : 10217/536 . S2CID 17660144 .
- ^ Rakočević, Vladimir (1997). "Sobre la continuidad de las inversas de Moore-Penrose y Drazin" (PDF) . Matematički Vesnik . 49 : 163–72.
- ^ Golub, GH; Pereyra, V. (abril de 1973). "La diferenciación de pseudo-inversos y problemas de mínimos cuadrados no lineales cuyas variables separan". Revista SIAM de Análisis Numérico . 10 (2): 413–32. Código bibliográfico : 1973SJNA ... 10..413G . doi : 10.1137 / 0710036 . JSTOR 2156365 .
- ^ a b Ben-Israel y Greville, 2003 .
- ^ Stallings, WT ; Boullion, TL (1972). "El pseudoinverso de una r -matriz circular". Actas de la American Mathematical Society . 34 (2): 385–88. doi : 10.2307 / 2038377 . JSTOR 2038377 .
- ^ Sistemas lineales y pseudoinverso
- ^ Ben-Israel, Adi; Cohen, Dan (1966). "Sobre el cálculo iterativo de inversos generalizados y proyecciones asociadas". Revista SIAM de Análisis Numérico . 3 (3): 410-19. Código bibliográfico : 1966SJNA .... 3..410B . doi : 10.1137 / 0703035 . JSTOR 2949637 .pdf
- ^ Söderström, Torsten; Stewart, GW (1974). "Sobre las propiedades numéricas de un método iterativo para calcular el inverso generalizado de Moore-Penrose". Revista SIAM de Análisis Numérico . 11 (1): 61–74. Código bibliográfico : 1974SJNA ... 11 ... 61S . doi : 10.1137 / 0711008 . JSTOR 2156431 .
- ^ Gramß, Tino (1992). Worterkennung mit einem künstlichen neuronalen Netzwerk (tesis doctoral). Georg-August-Universität zu Göttingen. OCLC 841706164 .
- ^ Emtiyaz, Mohammad (27 de febrero de 2008). "Actualización de la inversa de una matriz cuando se agrega / elimina una columna" (PDF) . Cite journal requiere
|journal=
( ayuda ) - ^ Meyer, Jr., Carl D. (1973). "Inversiones generalizadas y rangos de matrices de bloques". SIAM J. Appl. Matemáticas . 25 (4): 597–602. doi : 10.1137 / 0125057 .
- ^ Meyer, Jr., Carl D. (1973). "Inversión generalizada de matrices modificadas". SIAM J. Appl. Matemáticas . 24 (3): 315-23. doi : 10.1137 / 0124033 .
- ^ "R: inversa generalizada de una matriz" .
- ^ "LinearAlgebra.pinv" .
- ^ Penrose, Roger (1956). "Sobre la mejor solución aproximada de ecuaciones matriciales lineales". Actas de la Sociedad Filosófica de Cambridge . 52 (1): 17-19. Código Bibliográfico : 1956PCPS ... 52 ... 17P . doi : 10.1017 / S0305004100030929 .
- ^ a b Planitz, M. (octubre de 1979). "Sistemas inconsistentes de ecuaciones lineales". Gaceta matemática . 63 (425): 181–85. doi : 10.2307 / 3617890 . JSTOR 3617890 .
- ^ a b James, M. (junio de 1978). "La inversa generalizada". Gaceta matemática . 62 (420): 109-14. doi : 10.1017 / S0025557200086460 .
- ^ a b Hagen, Roland; Roch, Steffen; Silbermann, Bernd (2001). "Sección 2.1.2". C * -álgebras y análisis numérico . Prensa CRC.
- ^ Tian, Yongge (2000). "Teoría de la matriz sobre el álgebra de cuaterniones complejos". p.8, Teorema 3.5. arXiv : matemáticas / 0004005 .
- ^ Pearl, Martin H. (1 de octubre de 1968). "Inversiones generalizadas de matrices con entradas tomadas de un campo arbitrario" . Álgebra lineal y sus aplicaciones . 1 (4): 571–587. doi : 10.1016 / 0024-3795 (68) 90028-1 . ISSN 0024-3795 .
Referencias
- Ben-Israel, Adi ; Greville, Thomas NE (2003). Inversas generalizadas: teoría y aplicaciones (2ª ed.). Nueva York, NY: Springer. doi : 10.1007 / b97366 . ISBN 978-0-387-00293-4.
- Campbell, SL; Meyer, Jr., CD (1991). Inversiones generalizadas de transformaciones lineales . Dover. ISBN 978-0-486-66693-8.
- Nakamura, Yoshihiko (1991). Robótica avanzada: redundancia y optimización . Addison-Wesley. ISBN 978-0201151985.
- Rao, C. Radhakrishna; Mitra, Sujit Kumar (1971). Inversa generalizada de matrices y sus aplicaciones . Nueva York: John Wiley & Sons. pag. 240 . ISBN 978-0-471-70821-6.
enlaces externos
- Pseudoinverso en PlanetMath
- Programa interactivo y tutorial de Moore-Penrose Pseudoinverse
- "Moore-Penrose inversa" . PlanetMath .
- Weisstein, Eric W. "Pseudoinverso" . MathWorld .
- Weisstein, Eric W. "Moore-Penrose Inverse" . MathWorld .
- El pseudoinverso de Moore-Penrose. Una revisión tutorial de la teoría
- Calculadora inversa de Moore-Penrose en línea