De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

Ilustración de la descomposición en valor singular UΣV de una matriz M 2 × 2 real .
  • Arriba: La acción de M , indicada por su efecto sobre el disco unitario D y los dos vectores unitarios canónicos e 1 y e 2 .
  • Izquierda: La acción de V , una rotación, en D , e 1 y e 2 .
  • Abajo: La acción de Σ , una escala de los valores singulares σ 1 horizontalmente y σ 2 verticalmente.
  • Derecha: La acción de U , otra rotación.

En álgebra lineal , la descomposición de valor singular ( SVD ) es una factorización de una matriz real o compleja que generaliza la descomposición propia de una matriz normal cuadrada a cualquier matriz a través de una extensión de la descomposición polar . A diferencia de la descomposición de valores propios, siempre existe.

Específicamente, la descomposición de valor singular de una matriz compleja M es una factorización de la forma , donde U es una matriz unitaria compleja , es una matriz diagonal rectangular con números reales no negativos en la diagonal y V es una matriz unitaria compleja. Si M es real, existen factorizaciones donde U y V son matrices ortogonales reales , y son las únicas factorizaciones válidas en contextos donde se supone que todas las variables son reales (excepto las permutaciones de los vectores columna). En tales contextos, a menudo se denota la SVD .

Las entradas diagonales de son conocidos como los valores singulares de M . El número de valores singulares no cero es igual al rango de M . Las columnas de U y las columnas de V se llaman los vectores de izquierda-singular y vectores derecha singulares de M , respectivamente.

La SVD no es única. Siempre es posible elegir la descomposición para que los valores singulares estén en orden descendente. En este caso, (pero no siempre U y V ) se determina de forma única por M .

El término a veces se refiere a la SVD compacta , una descomposición similar en la que es una diagonal cuadrada de tamaño , donde está el rango de M , y solo tiene los valores singulares distintos de cero. En esta variante, U es una matriz semi-unitaria y es una matriz semi-unitaria , tal que .

Las aplicaciones matemáticas de la SVD incluyen calcular la aproximación matricial pseudoinversa y determinar el rango, rango y espacio nulo de una matriz. El SVD también es extremadamente útil en todas las áreas de la ciencia, la ingeniería y la estadística , como el procesamiento de señales , el ajuste de datos por mínimos cuadrados y el control de procesos .

Interpretaciones intuitivas [ editar ]

Ilustración animada de la SVD de un 2D, bienes de cizallamiento matriz M . Primero, vemos el disco unitario en azul junto con los dos vectores unitarios canónicos . Luego vemos las acciones de M , que distorsiona el disco en una elipse . La SVD descompone M en tres transformaciones sencillas: una inicial de rotación V , una escala a lo largo de los ejes de coordenadas, y una rotación final U . Las longitudes σ 1 y σ 2 de los semiejes de la elipse son los valores singulares deM , a saber, Σ 1,1 y Σ 2,2 .
Visualización de las multiplicaciones de matrices en descomposición de valores singulares

Rotación, escala de coordenadas y reflexión [ editar ]

En el caso especial en el que M es una matriz cuadrada real de m × m , las matrices U y V pueden elegirse también como matrices reales de m × m . En ese caso, "unitario" es lo mismo que " ortogonal ". Entonces, interpretando tanto las matrices unitarias como la matriz diagonal, resumida aquí como A , como una transformación lineal xAx del espacio R m , las matrices U y V representan rotaciones o reflejo del espacio, mientras que representa la escala de cada coordenada x i por el factor σ i . Por lo tanto, la descomposición de SVD descompone cualquier transformación lineal invertible de R m en una composición de tres transformaciones geométricas : una rotación o reflexión ( V ), seguida de una escala coordenada por coordenada ( ), seguida de otra rotación o reflexión ( U ).

En particular, si M tiene un determinante positivo, entonces U y V pueden elegirse para que sean ambas reflexiones o ambas rotaciones. Si el determinante es negativo, exactamente uno de ellos tendrá que ser un reflejo. Si el determinante es cero, cada uno puede elegirse independientemente para ser de cualquier tipo.

Si la matriz M es real pero no cuadrada, es decir m × n con mn , se puede interpretar como una transformación lineal de R n a R m . Entonces U y V pueden elegirse para que sean rotaciones de R m y R n , respectivamente; y , además de escalar las primeras coordenadas, también extiende el vector con ceros, es decir, elimina las coordenadas finales, para convertir R n en R m .

Valores singulares como semiejes de una elipse o elipsoide [ editar ]

Como se muestra en la figura, los valores singulares se pueden interpretar como la magnitud de los semiejes de una elipse en 2D. Este concepto puede generalizarse al espacio euclidiano n- dimensional , con los valores singulares de cualquier matriz cuadrada n × n como la magnitud del semieje de un elipsoide n- dimensional . De manera similar, los valores singulares de cualquier matriz m × n pueden verse como la magnitud del semieje de un elipsoide n- dimensional en m -espacio dimensional, por ejemplo, como una elipse en un plano 2D (inclinado) en un espacio 3D. Los valores singulares codifican la magnitud del semieje, mientras que los vectores singulares codifican la dirección. Consulte a continuación para obtener más detalles.

Las columnas de U y V son bases ortonormales [ editar ]

Dado que U y V son unitarios, las columnas de cada uno de ellos forman un conjunto de vectores ortonormales , que pueden considerarse vectores base . La matriz M mapea el vector base V i al vector unitario estirado σ i U i . Según la definición de una matriz unitaria, lo mismo es cierto para sus transposiciones conjugadas U y V , excepto que se pierde la interpretación geométrica de los valores singulares como estiramientos. En resumen, las columnas de U , U , V y V son bases ortonormales . Cuando eles una matriz normal , U y V son ambos iguales a la matriz unitaria utilizada para diagonalizar . Sin embargo, cuandono es normal pero sigue siendo diagonalizable , su descomposición propia y la descomposición del valor singular son distintas.

Significado geométrico [ editar ]

Como U y V son unitarias, sabemos que las columnas U 1 , ..., U m de U producen una base ortonormal de K m y las columnas V 1 , ..., V n de V producen una base ortonormal de K n (con respecto a los productos escalares estándar en estos espacios).

La transformación lineal

tiene una descripción particularmente simple con respecto a estas bases ortonormales: tenemos

donde σ i es la i -ésima entrada diagonal de , y T ( V i ) = 0 para i > min ( m , n ) .

El contenido geométrico del teorema de la SVD se puede resumir de la siguiente manera: para cada mapa lineal T  : K nK m se pueden encontrar bases ortonormales de K n y K m tales que T mapea el i -ésimo vector de base de K n a un múltiplo no negativo del vector de base i -ésima de K m , y envía los vectores de base sobrante a cero. Por lo tanto, con respecto a estas bases, el mapa T está representado por una matriz diagonal con entradas diagonales reales no negativas.

Para obtener un sabor más visual de los valores singulares y la factorización de la SVD, al menos cuando se trabaja en espacios vectoriales reales, considere la esfera S de radio uno en R n . El mapa lineal T mapea esta esfera en un elipsoide en R m . Los valores singulares distintos de cero son simplemente las longitudes de los semiejes de este elipsoide. Especialmente cuando n = m , y todos los valores singulares son distintos y distintos de cero, la SVD del mapa lineal T se puede analizar fácilmente como una sucesión de tres movimientos consecutivos: considere el elipsoide T ( S )y específicamente sus ejes; luego considere las direcciones en R n enviadas por T sobre estos ejes. Estas direcciones resultan ser mutuamente ortogonales. Aplicar primero una isometría V enviando estas direcciones a los ejes de coordenadas de R n . En un segundo movimiento, aplique un endomorfismo D diagonalizado a lo largo de los ejes de coordenadas y estirándolo o encogiéndolo en cada dirección, utilizando las longitudes de los semiejes de T ( S ) como coeficientes de estiramiento. La composición DV luego envía la unidad-esfera en un elipsoide isométrico a T (S ) . Para definir el tercer y último movimiento U , aplique una isometría a este elipsoide para trasladarlo a T ( S ) [ aclaración necesaria ] . Como se puede comprobar fácilmente, la composición UDV coincide con T .

Ejemplo [ editar ]

Considere la matriz de 4 × 5

Una descomposición de valor singular de esta matriz viene dada por UΣV

La matriz de escala es cero fuera de la diagonal (cursiva gris) y un elemento de la diagonal es cero (negrita roja). Además, debido a que las matrices U y V son unitarias , multiplicar por sus respectivas transposiciones conjugadas produce matrices de identidad , como se muestra a continuación. En este caso, dado que U y V tienen un valor real, cada uno es una matriz ortogonal .

Esta descomposición de valores singulares en particular no es única. Eligiendo tal que

también es una descomposición de valor singular válida.

SVD y descomposición espectral [ editar ]

Valores singulares, vectores singulares y su relación con la SVD [ editar ]

Un número real no negativo σ es un valor singular para M si y solo si existen vectores de longitud unitaria en K m y en K n tales que

Los vectores y se llaman izquierda-singular y vectores derecha singulares para σ , respectivamente.

En cualquier descomposición de valor singular

las entradas diagonales de son iguales a los valores singulares de M . Las primeras columnas p = min ( m , n ) de U y V son, respectivamente, vectores singulares izquierda y derecha para los valores singulares correspondientes. En consecuencia, el teorema anterior implica que:

  • Una matriz M de m × n tiene como máximo p valores singulares distintos.
  • Siempre es posible encontrar una base unitaria U de K m con un subconjunto de vectores de la base que abarcan los vectores izquierda singular de cada valor singular de H .
  • Siempre es posible encontrar una base unitaria V para K n con un subconjunto de vectores de la base que abarcan los vectores derecha singulares de cada valor singular de M .

Un valor singular para el cual podemos encontrar dos vectores singulares izquierdos (o derechos) que son linealmente independientes se llama degenerado . Si y son dos vectores singulares a la izquierda que corresponden al valor singular σ, entonces cualquier combinación lineal normalizada de los dos vectores también es un vector singular a la izquierda correspondiente al valor singular σ. La afirmación similar es cierta para los vectores singulares rectos. El número de vectores singulares independientes izquierdo y derecho coincide, y estos vectores singulares aparecen en las mismas columnas de U y V correspondientes a elementos diagonales de todos con el mismo valor σ .

Como excepción, los vectores singulares izquierdo y derecho de valor singular 0 comprenden todos los vectores unitarios en el kernel y cokernel , respectivamente, de M , que según el teorema de rango-nulidad no pueden tener la misma dimensión si mn . Incluso si todos los valores singulares son distintos de cero, si m > n entonces el cokernel no es trivial, en cuyo caso U se rellena con m - n vectores ortogonales del cokernel. Por el contrario, si m < n , entonces V se rellena con n - mvectores ortogonales del kernel. Sin embargo, si existe el valor singular de 0, las columnas adicionales de U o V ya aparecen como vectores singulares izquierdo o derecho.

Los valores singulares no degenerados siempre tienen vectores singulares izquierdos y derechos únicos, hasta la multiplicación por un factor de fase unitaria e i φ (para el caso real hasta un signo). En consecuencia, si todos los valores singulares de una matriz cuadrada M son no degenerados y distintos de cero, entonces su descomposición de valores singulares es única, hasta la multiplicación de una columna de U por un factor de fase unitaria y la multiplicación simultánea de la columna correspondiente de V por el mismo factor de fase unitaria. En general, la SVD es única hasta transformaciones unitarias arbitrarias aplicadas uniformemente a los vectores de columna de U y Vque abarca los subespacios de cada valor singular, y hasta transformaciones unitarias arbitrarias en vectores de U y V que abarcan el núcleo y conúcleo, respectivamente, de M .

Relación con la descomposición de valores propios [ editar ]

La descomposición de valores singulares es muy general en el sentido de que se puede aplicar a cualquier matriz m × n , mientras que la descomposición de valores propios solo se puede aplicar a matrices diagonalizables . Sin embargo, las dos descomposiciones están relacionadas.

Dada una SVD de M , como se describió anteriormente, se mantienen las siguientes dos relaciones:

Los lados derechos de estas relaciones describen las descomposiciones de valores propios de los lados izquierdos. Como consecuencia:

  • Las columnas de V (vectores derecha singular) son vectores propios de M M .
  • Las columnas de U (vectores singulares a la izquierda) son autovectores de MM .
  • Los elementos distintos de cero de (valores singulares distintos de cero) son las raíces cuadradas de los valores propios distintos de cero de M M o MM .

En el caso especial de que M es una matriz normal , que por definición debe ser cuadrada, el teorema espectral dice que se puede diagonalizar unitariamente usando una base de vectores propios , de modo que se puede escribir M = UDU para una matriz unitaria U y una matriz diagonal D . Cuando M también es positivo semidefinido , la descomposición M = UDU también es una descomposición de valor singular. De lo contrario, se puede refundir como una SVD moviendo la fase de cada σ ia su correspondiente V i o U i . La conexión natural de la SVD a las matrices no normales es a través del teorema de descomposición polar : M = SR , donde S = UΣU es positivo semidefinito y normal, y R = UV es unitario.

Por lo tanto, a excepción de las matrices normales semidefinidas positivas, la descomposición del valor propio y la SVD de M , aunque relacionadas, difieren: la descomposición del valor propio es M = UDU −1 , donde U no es necesariamente unitario y D no es necesariamente un semidefinido positivo, mientras que la SVD es M = UΣV , donde es diagonal y positivo semi-definido, y U y V son matrices unitarias que no están necesariamente relacionados excepto a través de la matriz M . Si bien solo las matrices cuadradas no defectuosas tienen una descomposición de valores propios, cualquier La matriz tiene una SVD.

Aplicaciones de la SVD [ editar ]

Pseudoinverso [ editar ]

La descomposición de valores singulares se puede utilizar para calcular el pseudoinverso de una matriz. (Varios autores usan notación diferente para el pseudoinverso; aquí usamos .) De hecho, el pseudoinverso de la matriz M con descomposición de valor singular M = UΣV es

M = V Σ U

donde Σ es el pseudoinverso de Σ , que se forma reemplazando cada entrada diagonal distinta de cero por su recíproco y transponiendo la matriz resultante. La pseudoinversa es una forma de resolver problemas de mínimos cuadrados lineales .

Resolver ecuaciones lineales homogéneas [ editar ]

Un conjunto de ecuaciones lineales homogéneas se puede escribir como Ax = 0 para una matriz A y un vector x . Una situación típica es que A es conocido y un no-cero x debe ser determinado que satisface la ecuación. Tal x pertenece a A 's espacio nulo y, a veces se llama una (derecha) vector nulo de A . El vector x se puede caracterizar como un vector singular a la derecha correspondiente a un valor singular de A que es cero. Esta observación significa que si A es una matriz cuadraday no tiene un valor singular que se desvanece, la ecuación no tiene una x distinta de cero como solución. También significa que si hay varios valores singulares que desaparecen, cualquier combinación lineal de los correspondientes vectores singulares a la derecha es una solución válida. De manera análoga a la definición de una (derecha) vector null, un no-cero x satisfacer x A = 0 , con x denota la transpuesta conjugada de x , se denomina un vector nulo izquierda de A .

Minimización de mínimos cuadrados totales [ editar ]

Un problema de mínimos cuadrados totales busca el vector x que minimiza la norma 2 de un vector Ax bajo la restricción || x || = 1 . La solución resulta ser el vector singular derecho de A correspondiente al valor singular más pequeño.

Rango, espacio nulo y rango [ editar ]

Otra aplicación de la SVD es que proporciona una representación explícita de la gama y espacio nulo de una matriz M . Los vectores adecuados-singular correspondientes a desaparición valores singulares de M abarcan el espacio nulo de M y los vectores de izquierda-singular que corresponden a los valores singulares no nulos de M abarcar la gama de M . Por ejemplo, en el anterior ejemplo el espacio nulo es atravesado por las dos últimas filas de V y el rango es atravesado por las tres primeras columnas de U .

Como consecuencia, el rango de M es igual al número de valores singulares distintos de cero, que es el mismo que el número de elementos diagonales distintos de cero en . En álgebra lineal numérica, los valores singulares se pueden usar para determinar el rango efectivo de una matriz, ya que el error de redondeo puede conducir a valores singulares pequeños pero distintos de cero en una matriz de rango deficiente. Se supone que los valores singulares más allá de una brecha significativa son numéricamente equivalentes a cero.

Aproximación de matriz de rango bajo [ editar ]

Algunas aplicaciones prácticas necesitan resolver el problema de aproximar una matriz M con otra matriz , que se dice truncada , que tiene un rango específico r . En el caso de que la aproximación se base en minimizar la norma de Frobenius de la diferencia entre M y bajo la restricción de que , resulta que la solución está dada por la SVD de M , a saber

donde es la misma matriz que excepto que contiene solo los r valores singulares más grandes (los otros valores singulares se reemplazan por cero). Esto se conoce como el teorema de Eckart-Young , como lo demostraron esos dos autores en 1936 (aunque más tarde se descubrió que los autores anteriores lo conocían; véase Stewart 1993 ).

Modelos separables [ editar ]

Se puede pensar que la SVD descompone una matriz en una suma ordenada y ponderada de matrices separables. Por separable, queremos decir que una matriz A se puede escribir como un producto externo de dos vectores A = Uv , o, en coordenadas, . Específicamente, la matriz M se puede descomponer como

Aquí U i y V i son las i -ésimas columnas de las matrices SVD correspondientes, σ i son los valores singulares ordenados y cada A i es separable. El SVD se puede utilizar para encontrar la descomposición de un filtro de procesamiento de imágenes en filtros horizontales y verticales separables. Tenga en cuenta que el número de σ i distinto de cero es exactamente el rango de la matriz.

Los modelos separables a menudo surgen en los sistemas biológicos, y la factorización de la SVD es útil para analizar dichos sistemas. Por ejemplo, algunos campos receptivos de células simples del área visual V1 pueden describirse bien [1] mediante un filtro de Gabor en el dominio del espacio multiplicado por una función de modulación en el dominio del tiempo. Así, dado un filtro lineal evaluado mediante, por ejemplo, correlación inversa , se pueden reorganizar las dos dimensiones espaciales en una dimensión, produciendo así un filtro bidimensional (espacio, tiempo) que se puede descomponer a través de SVD. La primera columna de U en la factorización SVD es entonces un Gabor mientras que la primera columna de V representa la modulación de tiempo (o viceversa). Entonces se puede definir un índice de separabilidad

que es la fracción de la potencia en la matriz M que es contabilizada por la primera matriz separable en la descomposición. [2]

Matriz ortogonal más cercana [ editar ]

Es posible utilizar la SVD de una matriz cuadrada A para determinar la matriz ortogonal O más cerca de A . La cercanía de ajuste se mide por la norma de Frobenius de O - A . La solución es el producto UV . [3] Esto tiene sentido intuitivamente porque una matriz ortogonal tendría la descomposición UIV donde I es la matriz identidad, de modo que si A = UΣV entonces el producto A = UV equivale a reemplazar los valores singulares por unos. De manera equivalente, la solución es la matriz unitaria R = UV de la descomposición polar M = RP = P ' R en cualquier orden de estiramiento y rotación, como se describió anteriormente.

Un problema similar, con aplicaciones interesantes en análisis de la forma , es el problema ortogonal Procrustes , que consiste en encontrar una matriz ortogonal O que mapea más estrechamente A a B . Específicamente,

donde denota la norma Frobenius.

Este problema es equivalente a encontrar la matriz ortogonal más cercano a una matriz dada M = A T B .

El algoritmo de Kabsch [ editar ]

El algoritmo de Kabsch (llamado problema de Wahba en otros campos) usa SVD para calcular la rotación óptima (con respecto a la minimización de mínimos cuadrados) que alineará un conjunto de puntos con un conjunto de puntos correspondiente. Se utiliza, entre otras aplicaciones, para comparar las estructuras de moléculas.

Procesamiento de señales [ editar ]

El SVD y el pseudoinverso se han aplicado con éxito al procesamiento de señales , [4] procesamiento de imágenes [ cita requerida ] y big data (por ejemplo, en procesamiento de señales genómicas). [5] [6] [7] [8]

Otros ejemplos [ editar ]

La SVD también se aplica ampliamente al estudio de problemas lineales inversos y es útil en el análisis de métodos de regularización como el de Tikhonov . Es ampliamente utilizado en estadística, donde se relaciona con el análisis de componentes principales y el análisis de correspondencia , y en el procesamiento de señales y reconocimiento de patrones . También se utiliza en el análisis modal de solo salida , donde las formas del modo no escalado se pueden determinar a partir de los vectores singulares. Otro uso más es la indexación semántica latente en el procesamiento de texto en lenguaje natural.

En el cálculo numérico general que involucra sistemas lineales o linealizados, existe una constante universal que caracteriza la regularidad o singularidad de un problema, que es el "número de condición" del sistema . A menudo controla la tasa de error o la tasa de convergencia de un esquema computacional dado en tales sistemas. [9] [10]

La SVD también juega un papel crucial en el campo de la información cuántica , en una forma que a menudo se denomina descomposición de Schmidt . A través de él, los estados de dos sistemas cuánticos se descomponen de forma natural, proporcionando una condición necesaria y suficiente para que se entrelacen : si el rango de la matriz es mayor que uno.

Una aplicación de la SVD a matrices bastante grandes es la predicción numérica del tiempo , donde los métodos de Lanczos se utilizan para estimar las pocas perturbaciones de crecimiento más rápido y lineal en la predicción numérica central del tiempo durante un período de tiempo inicial determinado; es decir, los vectores singulares correspondientes a los valores singulares más grandes del propagador linealizado para el clima global durante ese intervalo de tiempo. Los vectores singulares de salida en este caso son sistemas meteorológicos completos. Estas perturbaciones luego se ejecutan a través del modelo no lineal completo para generar un pronóstico de conjunto , dando una idea de parte de la incertidumbre que debería permitirse en torno a la predicción central actual.

La SVD también se ha aplicado al modelado de pedidos reducidos. El objetivo del modelado de orden reducido es reducir el número de grados de libertad en un sistema complejo que se va a modelar. La SVD se combinó con funciones de base radial para interpolar soluciones a problemas de flujo inestable tridimensional. [11]

Curiosamente, la SVD se ha utilizado para mejorar el modelado de formas de ondas gravitacionales mediante el interferómetro de ondas gravitacionales basado en tierra aLIGO. [12] SVD puede ayudar a aumentar la precisión y la velocidad de la generación de formas de onda para admitir búsquedas de ondas gravitacionales y actualizar dos modelos de formas de onda diferentes.

La descomposición de valores singulares se utiliza en los sistemas de recomendación para predecir las calificaciones de los artículos de las personas. [13] Se han desarrollado algoritmos distribuidos con el fin de calcular la SVD en grupos de máquinas comerciales. [14]

Se ha aplicado la SVD de bajo rango para la detección de puntos críticos a partir de datos espacio-temporales con aplicación a la detección de brotes de enfermedades . [15] También se ha aplicado una combinación de SVD y SVD de orden superior para la detección de eventos en tiempo real a partir de flujos de datos complejos (datos multivariados con dimensiones de espacio y tiempo) en la vigilancia de enfermedades . [dieciséis]

Pruebas de existencia [ editar ]

Un valor propio λ de una matriz M se caracteriza por la relación algebraica Mu = λ u . Cuando M es hermitiano , también está disponible una caracterización variacional. Sea M una matriz simétrica real n × n . Definir

Por el teorema del valor extremo , esta función continua alcanza un máximo en algún u cuando se restringe a la esfera unitaria {|| x || = 1}. Según el teorema de los multiplicadores de Lagrange, u satisface necesariamente

para algún número real λ . El símbolo nabla, , es el operador del (diferenciación con respecto a x ). Usando la simetría de M obtenemos

Por lo tanto Mu = λ u , por lo que u es un vector propio unidad de longitud de M . Por cada unidad de longitud vector propio v de M su valor propio es f ( v ), por lo que λ es el valor propio más grande de M . El mismo cálculo realizado en el complemento ortogonal de u da el siguiente valor propio más grande y así sucesivamente. El complejo caso de Hermitian es similar; allí f ( x ) = x * M x es una función de valor real de 2 n variables reales.

Los valores singulares son similares en el sentido de que pueden describirse algebraicamente o a partir de principios variacionales. Aunque, a diferencia del caso del valor propio, la hermiticidad o simetría de M ya no es necesaria.

Esta sección ofrece estos dos argumentos para la existencia de una descomposición de valores singulares.

Basado en el teorema espectral [ editar ]

Sea una matriz compleja m × n . Dado que es positivo semidefinido y hermitiano, según el teorema espectral , existe una matriz unitaria n × n tal que

donde es diagonal y definida positiva, de dimensión , con el número de autovalores distintos de cero de (que se puede demostrar para verificar ). Tenga en cuenta que aquí, por definición, es una matriz cuya -ésima columna es el -ésimo vector propio de , correspondiente al valor propio . Además, la -ésima columna de , para , es un vector propio de con valor propio . Esto se puede expresar escribiendo como , donde las columnas de y, por lo tanto, contienen los autovectores correspondientes a valores propios distintos de cero y cero, respectivamente. Usando esta reescritura de , la ecuación se convierte en:

Esto implica que

Además, la segunda ecuación implica . [17] Finalmente, la unicidad de se traduce, en términos de y , en las siguientes condiciones:

donde los subíndices de las matrices de identidad se utilizan para señalar que son de diferentes dimensiones.

Definamos ahora

Luego,

ya que Esto también puede verse como una consecuencia inmediata del hecho de que . Observe cómo esto es equivalente a la observación de que, si es el conjunto de autovectores correspondientes a autovalores que no desaparecen, entonces es un conjunto de vectores ortogonales y un conjunto (generalmente no completo) de vectores ortonormales . Esto coincide con el formalismo matricial utilizado anteriormente que denota con la matriz cuyas columnas son , con la matriz cuyas columnas son los autovectores cuyo autovalor desaparece, y la matriz cuyas columnas son los vectores .

Vemos que este es casi el resultado deseado, excepto que y en general no son unitarios, ya que pueden no ser cuadrados. Sin embargo, sabemos que el número de filas de no es menor que el número de columnas, ya que las dimensiones de no son mayores que y . Además, desde

las columnas son ortonormales y pueden extenderse a una base ortonormal. Esto significa que podemos elegir lo que es unitario.

Para V 1 ya tenemos V 2 para hacerlo unitario. Ahora, define

donde se agregan o eliminan filas cero adicionales para que el número de filas cero sea igual al número de columnas de U 2 y, por lo tanto, las dimensiones generales de igual a . Luego

cual es el resultado deseado:

Observe que el argumento podría comenzar diagonalizando MM ⁎ en lugar de M M (Esto muestra directamente que MM y M M tienen los mismos valores propios distintos de cero).

Basado en caracterización variacional [ editar ]

Los valores singulares también se pueden caracterizar como los máximos de u T Mv , considerados como una función de u y v , sobre subespacios particulares. Los vectores singulares son los valores de u y v donde se alcanzan estos máximos.

Sea M una matriz m × n con entradas reales. Sea S k −1 la unidad -esfera en , y defina

Considere la función σ restringida a S m −1 × S n −1 . Dado que tanto S m −1 como S n −1 son conjuntos compactos , su producto también es compacto. Además, dado que σ es continuo, alcanza un valor máximo para al menos un par de vectores uS m −1 y vS n −1 . Este valor más grande se denota σ 1 y los vectores correspondientes se denotan u1 y v 1 . Dado que σ 1 es el valor más grande de σ ( u , v ) , debe ser no negativo. Si fuera negativo, cambiar el signo de u 1 o v 1 lo haría positivo y, por lo tanto, más grande.

Declaración. u 1 , v 1 son vectores singulares izquierdo y derecho de M con el valor singular correspondiente σ 1 .

Prueba. De manera similar al caso de los valores propios, asumiendo que los dos vectores satisfacen la ecuación del multiplicador de Lagrange:

Después de un poco de álgebra, esto se convierte en

Multiplicando la primera ecuación de la izquierda por y la segunda ecuación de la izquierda por y tomando || u || = || v || = 1 en cuenta da

Conectando esto al par de ecuaciones anteriores, tenemos

Esto prueba la afirmación.

Se pueden encontrar más vectores y valores singulares maximizando σ ( u , v ) sobre u , v normalizados que son ortogonales a u 1 y v 1 , respectivamente.

El paso de lo real a lo complejo es similar al caso de los valores propios.

Calculando la SVD [ editar ]

La descomposición del valor singular se puede calcular utilizando las siguientes observaciones:

  • Los vectores del singular a la izquierda de M son un conjunto de vectores propios ortonormales de MM .
  • Los vectores adecuados-singular de M son un conjunto de vectores propios ortonormales de M M .
  • Los valores singulares no negativos de M (que se encuentran en las entradas diagonales de ) son las raíces cuadradas de los valores propios no negativos de M M y MM .

Enfoque numérico [ editar ]

La SVD de una matriz M se calcula típicamente mediante un procedimiento de dos pasos. En el primer paso, la matriz se reduce a una matriz bidiagonal . Esto toma O ( mn 2 ) operaciones de punto flotante (flop), asumiendo que mn . El segundo paso es calcular la SVD de la matriz bidiagonal. Este paso solo se puede realizar con un método iterativo (como con los algoritmos de valores propios ). Sin embargo, en la práctica, basta con calcular el SVD hasta una cierta precisión, como el épsilon de la máquina . Si esta precisión se considera constante, entonces el segundo paso toma O ( n ) iteraciones, cada una con un costo de O (n ) fracasos. Por lo tanto, el primer paso es más caro y el costo total es de O ( mn 2 ) fracasos ( Trefethen & Bau III 1997 , Lecture 31).

El primer paso se puede hacer usando reflexiones Householder por un costo de 4 mn 2  - 4 n 3 /3 fracasos, suponiendo que sólo se necesitan los valores singulares y no los vectores singulares. Si m es mucho más grande que n, entonces es ventajoso reducir primero la matriz M a una matriz triangular con la descomposición QR y luego usar las reflexiones de Householder para reducir aún más la matriz a una forma bidiagonal; el costo combinado es 2 mn 2  + 2 n 3 flops ( Trefethen & Bau III 1997 , Lecture 31).

El segundo paso se puede realizar mediante una variante del algoritmo QR para el cálculo de valores propios, que fue descrito por primera vez por Golub y Kahan (1965) error harvtxt: múltiples objetivos (2 ×): CITEREFGolubKahan1965 ( ayuda ) . La subrutina LAPACK DBDSQR [18] implementa este método iterativo, con algunas modificaciones para cubrir el caso donde los valores singulares son muy pequeños ( Demmel & Kahan 1990 ). Junto con un primer paso utilizando las reflexiones de Householder y, si procede, la descomposición QR, esto forma la rutina DGESVD [19] para el cálculo de la descomposición del valor singular.

El mismo algoritmo se implementa en la biblioteca científica GNU (GSL). El GSL también ofrece un método alternativo que utiliza una ortogonalización de Jacobi unilateral en el paso 2 ( GSL Team 2007 ). Este método calcula la SVD de la matriz bidiagonal resolviendo una secuencia de problemas de SVD 2 × 2, similar a cómo el algoritmo de valor propio de Jacobi resuelve una secuencia de métodos de valor propio 2 × 2 ( Golub y Van Loan 1996 , §8.6.3). Otro método más para el paso 2 usa la idea de algoritmos de valor propio de divide y vencerás ( Trefethen & Bau III 1997 , Lecture 31).

Existe una forma alternativa que no utiliza explícitamente la descomposición de valores propios. [20] Por lo general, el problema de valor singular de una matriz M se convierte en un problema de valor propio simétrico equivalente, como MM , M M , o

Los enfoques que utilizan descomposiciones de valores propios se basan en el algoritmo QR , que está bien desarrollado para ser estable y rápido. Tenga en cuenta que los valores singulares son reales y los vectores singulares derecha e izquierda no son necesarios para formar transformaciones de similitud. Se puede alternar iterativamente entre la descomposición QR y la descomposición LQ para encontrar las matrices hermitianas diagonales reales . La descomposición QR da MQR y la descomposición LQ de R da RLP . Por lo tanto, en cada iteración, tenemos MQLP , actualice ML y repita las ortogonalizaciones. Finalmente, [se necesita aclaración ] esta iteración entre la descomposición QR y la descomposición LQ produce matrices singulares unitarias izquierda y derecha. Este enfoque no puede acelerarse fácilmente, como puede hacerlo el algoritmo QR con cambios espectrales o deflación. Esto se debe a que el método de desplazamiento no se define fácilmente sin utilizar transformaciones de similitud. Sin embargo, este enfoque iterativo es muy simple de implementar, por lo que es una buena opción cuando la velocidad no importa. Este método también proporciona información sobre cómo las transformaciones puramente ortogonales / unitarias pueden obtener la SVD.

Resultado analítico de 2 × 2 SVD [ editar ]

Los valores singulares de una matriz de 2 × 2 se pueden encontrar analíticamente. Deja que la matriz sea

donde son números complejos que parametrizan la matriz, I es la matriz identidad, y denotan las matrices de Pauli . Entonces sus dos valores singulares están dados por

SVD reducidas [ editar ]

Visualización de variantes de SVD reducida. De arriba a abajo: 1: SVD completo, 2: SVD delgado (elimine las columnas de U que no correspondan a las filas de V *), 3: SVD compacto (elimine los valores singulares que desaparecen y las columnas / filas correspondientes en U y V *), 4 : SVD truncado (mantenga solo los valores t singulares más grandes y las columnas / filas correspondientes en U y V *)

En las aplicaciones, es bastante inusual que se requiera el SVD completo, incluida una descomposición unitaria completa del espacio nulo de la matriz. En cambio, a menudo es suficiente (además de más rápido y más económico para el almacenamiento) calcular una versión reducida del SVD. Se puede distinguir lo siguiente para una matriz M de m × n de rango r :

SVD delgado [ editar ]

La SVD delgada, o de tamaño económico, de una matriz M viene dada por [21]

dónde

,

las matrices U k y V k contienen solo las primeras k columnas de U y V , y Σ k contiene solo los primeros k valores singulares de Σ. Por tanto, la matriz U k es m × k , Σ k es k × k diagonal y V k * es k × n .

El SVD delgado usa significativamente menos espacio y tiempo de cálculo si k  ≪ max ( m , n ). La primera etapa en su cálculo será normalmente una descomposición QR de M , lo que puede hacer un cálculo significativamente más rápido en este caso.

SVD compacto [ editar ]

Sólo se calculan los vectores de columna r de U y los vectores de fila r de V * correspondientes a los valores singulares distintos de cero Σ r . Los vectores restantes de U y V * no se calculan. Esto es más rápido y económico que el SVD delgado si r  ≪ min ( m , n ). Por tanto, la matriz U r es m × r , Σ r es r × r diagonal y V r * es r × n .

SVD truncado [ editar ]

Sólo se calculan los t vectores de columna de U y t vectores de fila de V * correspondientes a los t valores singulares más grandes Σ t . El resto de la matriz se descarta. Esto puede ser mucho más rápido y económico que el compacto SVD if tr . Por tanto, la matriz U t es m × t , Σ t es t × t diagonal y V t * es t × n .

Por supuesto, la SVD truncada ya no es una descomposición exacta de la matriz original M , pero como se discutió anteriormente , la matriz aproximada es en un sentido muy útil la aproximación más cercana a M que se puede lograr mediante una matriz de rango  t .

Normas [ editar ]

Normas de Ky Fan [ editar ]

La suma de los k mayores valores singulares de M es una norma de la matriz , el Ky Fan k -norma de M . [22]

La primera de las normas Ky Fan, la norma Ky Fan 1, es la misma que la norma del operador M como operador lineal con respecto a las normas euclidianas de K m y K n . En otras palabras, la norma Ky Fan 1 es la norma del operador inducida por el producto interno euclidiano estándar 2 . Por esta razón, también se le llama operador 2-norma. Se puede verificar fácilmente la relación entre la norma Ky Fan 1 y los valores singulares. Es cierto en general, para un operador acotado M en espacios de Hilbert (posiblemente de dimensión infinita)

Pero, en el caso de la matriz, ( M * M ) 1/2 es una matriz normal , entonces || M * M || Medio es el valor propio más grande de ( M * M ) medio , es decir, el valor singular más grande de M .

La última de las normas de Ky Fan, la suma de todos los valores singulares, es la norma de seguimiento (también conocida como la 'norma nuclear'), definida por || M || = Tr [( M * M ) 1/2 ] (los valores propios de M * M son los cuadrados de los valores singulares).

Norma de Hilbert-Schmidt[ editar ]

Los valores singulares están relacionados con otra norma sobre el espacio de operadores. Considere el producto interno de Hilbert-Schmidt en las matrices n × n , definido por

Entonces la norma inducida es

Dado que la traza es invariante bajo equivalencia unitaria, esto muestra

donde σ i son los valores singulares de M . Esto se llama la norma de Frobenius , Schatten 2-norma , o norma Hilbert-Schmidt de M . El cálculo directo muestra que la norma de Frobenius de M = ( m ij ) coincide con:

Además, la norma de Frobenius y la norma de seguimiento (la norma nuclear) son casos especiales de la norma de Schatten .

Variaciones y generalizaciones [ editar ]

Mode- representación k [ editar ]

se puede representar usando mode- k multiplicación de matriz aplicando luego sobre el resultado; eso es . [23]

Tensor SVD [ editar ]

Existen dos tipos de descomposiciones de tensor, que generalizan la SVD a matrices multidireccionales. Uno de ellos descompone un tensor en una suma de tensores de rango 1, lo que se denomina descomposición de rango tensorial . El segundo tipo de descomposición calcula los subespacios ortonormales asociados con los diferentes factores que aparecen en el producto tensorial de los espacios vectoriales en los que vive el tensor. Esta descomposición se conoce en la literatura como SVD de orden superior (HOSVD) o Tucker3 / TuckerM . Además, el análisis multilineal de componentes principales en el aprendizaje subespacial multilineal implica las mismas operaciones matemáticas que la descomposición de Tucker, y se utiliza en un contexto diferente de reducción de dimensionalidad..

SVD invariante en escala [ editar ]

Los valores singulares de una matriz A son definidos de forma única y son invariantes con respecto a transformaciones unitarias izquierdo y / o derecho de A . En otras palabras, los valores singulares de UAV , por unitaria U y V , son iguales a los valores singulares de A . Esta es una propiedad importante para aplicaciones en las que es necesario preservar las distancias euclidianas y la invariancia con respecto a las rotaciones.

La invariante en escala SVD, o SI-SVD, [24] es análoga a la SVD convencional excepto que sus valores singulares determinados únicamente-son invariantes con respecto a las transformaciones de la diagonal de A . En otras palabras, los valores singulares de DAE , por invertible matrices diagonal D y E , son iguales a los valores singulares de A . Ésta es una propiedad importante para aplicaciones para las que se necesita una invariancia en la elección de unidades en las variables (por ejemplo, unidades métricas versus imperiales).

SVD de funciones de orden superior (HOSVD) - reconstrucción numérica - transformación del modelo TP [ editar ]

La transformación del modelo TP reconstruye numéricamente el HOSVD de funciones. Para más detalles, visite:

  • Forma canónica basada en HOSVD de funciones TP y modelos qLPV
  • Transformación del modelo de producto tensorial
  • Transformación del modelo TP en la teoría de control

Operadores acotados en espacios de Hilbert [ editar ]

La factorización M = UΣV se puede extender a un operador acotado M en un espacio de Hilbert separable H . Es decir, para cualquier operador acotado M , existe una isometría parcial U , una V unitaria , un espacio de medida ( Xμ ) y una f medible no negativa tal que

donde es la multiplicación por f en L 2 ( X , μ ).

Esto se puede demostrar imitando el argumento algebraico lineal para el caso matricial anterior. VT f V * es la raíz cuadrada positiva única de M * M , según lo dado por el cálculo funcional de Borel para operadores autoadjuntos . La razón por la que U no necesita ser unitario es porque, a diferencia del caso de dimensión finita, dada una isometría U 1 con un núcleo no trivial, es posible que no se encuentre un U 2 adecuado tal que

es un operador unitario.

En cuanto a las matrices, la factorización de valor singular es equivalente a la descomposición polar para operadores: simplemente podemos escribir

y observe que UV * sigue siendo una isometría parcial mientras que VT f V * es positivo.

Valores singulares y operadores compactos [ editar ]

La noción de valores singulares y vectores singulares izquierda / derecha se puede extender al operador compacto en el espacio de Hilbert, ya que tienen un espectro discreto. Si T es compacto, todo λ distinto de cero en su espectro es un valor propio. Además, un operador autoadjunto compacto puede ser diagonalizado por sus autovectores. Si M es compacto, por lo que es M M . Aplicando el resultado de la diagonalización, la imagen unitaria de su raíz cuadrada positiva T f  tiene un conjunto de autovectores ortonormales { e i } correspondientes a autovalores estrictamente positivos { σ i } . Para cualquierψH ,

donde los serie converge en la topología de la norma en H . Observe cómo esto se parece a la expresión del caso de dimensión finita. σ i se llaman los valores singulares de M . { U e i } (resp. { V E i } ) puede considerarse la izquierda-singular (resp. A la derecha-singular) vectores de M .

Los operadores compactos en un espacio de Hilbert son el cierre de los operadores de rango finito en la topología de operador uniforme. La expresión de la serie anterior proporciona una representación explícita. Una consecuencia inmediata de esto es:

Teorema. M es compacto si y solo si M M es compacto.

Historia [ editar ]

La descomposición de valores singulares fue desarrollada originalmente por geómetras diferenciales , quienes deseaban determinar si una forma bilineal real podía igualarse a otra mediante transformaciones ortogonales independientes de los dos espacios sobre los que actúa. Eugenio Beltrami y Camille Jordan descubrieron independientemente, en 1873 y 1874 respectivamente, que los valores singulares de las formas bilineales, representadas como una matriz, forman un conjunto completo de invariantes para las formas bilineales bajo sustituciones ortogonales. James Joseph Sylvestertambién llegó a la descomposición de valores singulares para matrices cuadradas reales en 1889, aparentemente independientemente de Beltrami y Jordan. Sylvester llama los valores singulares los multiplicadores canónicas de la matriz A . El cuarto matemático que descubrió la descomposición del valor singular de forma independiente es Autonne en 1915, quien llegó a ella a través de la descomposición polar . La primera prueba de la descomposición de valores singulares para matrices rectangulares y complejas parece ser la de Carl Eckart y Gale J. Young en 1936; [25] lo vieron como una generalización de la transformación del eje principal para matrices hermitianas .

En 1907, Erhard Schmidt definió un análogo de valores singulares para operadores integrales (que son compactos, bajo algunos supuestos técnicos débiles); parece que desconocía el trabajo paralelo sobre valores singulares de matrices finitas. Esta teoría fue desarrollada por Émile Picard en 1910, quien es el primero en llamar a los números valores singulares (o en francés, valeurs singulières ).

Los métodos prácticos para calcular la SVD se remontan a Kogbetliantz en 1954, 1955 y Hestenes en 1958. [26] Se asemeja mucho al algoritmo de valor propio de Jacobi , que utiliza rotaciones de plano o rotaciones de Givens . Sin embargo, estos fueron reemplazados por el método de Gene Golub y William Kahan publicado en 1965, [27] que usa transformaciones o reflexiones de Householder . En 1970, Golub y Christian Reinsch [28] publicaron una variante del algoritmo Golub / Kahan que sigue siendo el más utilizado en la actualidad.

Ver también [ editar ]

  • Correlación canónica
  • Forma canónica
  • Análisis de correspondencia (CA)
  • Maldición de dimensionalidad
  • Procesamiento de señales digitales
  • Reducción de dimensionalidad
  • Descomposición propia de una matriz
  • Funciones ortogonales empíricas (EOF)
  • análisis de Fourier
  • Descomposición generalizada de valores singulares
  • Desigualdades sobre valores singulares
  • K-SVD
  • Análisis semántico latente
  • Indexación semántica latente
  • Mínimos cuadrados lineales
  • Lista de transformadas relacionadas con Fourier
  • Hash sensible a la localidad
  • Aproximación de rango bajo
  • Descomposición de la matriz
  • Análisis multilineal de componentes principales (MPCA)
  • Búsqueda de vecino más cercano
  • Mínimos cuadrados parciales iterativos no lineales
  • Descomposición polar
  • Análisis de componentes principales (PCA)
  • Descomposición de Schmidt
  • Valor singular
  • Series de tiempo
  • Descomposición bidimensional de valores singulares (2DSVD)
  • la traza de la desigualdad de von Neumann
  • Compresión wavelet

Notas [ editar ]

  1. ^ DeAngelis, GC; Ohzawa, I .; Freeman, RD (octubre de 1995). "Dinámica del campo receptivo en las vías visuales centrales". Trends Neurosci . 18 (10): 451–8. doi : 10.1016 / 0166-2236 (95) 94496-R . PMID  8545912 . S2CID  12827601 .
  2. ^ Depireux, DA; Simon, JZ; Klein, DJ; Shamma, SA (marzo de 2001). "Caracterización del campo de respuesta espectro-temporal con ondas dinámicas en la corteza auditiva primaria de hurón". J. Neurophysiol . 85 (3): 1220–34. doi : 10.1152 / jn.2001.85.3.1220 . PMID 11247991 . 
  3. ^ La descomposición de valores singulares en la ortogonalización simétrica (Lowdin) y la compresión de datos
  4. ^ Sahidullah, Md .; Kinnunen, Tomi (marzo de 2016). "Características de variabilidad espectral local para la verificación del hablante" . Procesamiento de señales digitales . 50 : 1-11. doi : 10.1016 / j.dsp.2015.10.011 .
  5. ^ O. Alter, PO Brown y D. Botstein (septiembre de 2000). "Descomposición de valores singulares para el procesamiento y modelado de datos de expresión de todo el genoma" . PNAS . 97 (18): 10101–10106. Código bibliográfico : 2000PNAS ... 9710101A . doi : 10.1073 / pnas.97.18.10101 . PMC 27718 . PMID 10963673 .  
  6. ^ O. Alter; GH Golub (noviembre de 2004). "El análisis integrador de datos a escala del genoma mediante proyección pseudoinversa predice una correlación novedosa entre la replicación del ADN y la transcripción del ARN" . PNAS . 101 (47): 16577–16582. Código bibliográfico : 2004PNAS..10116577A . doi : 10.1073 / pnas.0406767101 . PMC 534520 . PMID 15545604 .  
  7. ^ O. Alter; GH Golub (agosto de 2006). "Descomposición de valor singular de la distribución de longitudes de ARNm a escala del genoma revela asimetría en el ensanchamiento de la banda de electroforesis en gel de ARN" . PNAS . 103 (32): 11828-11833. Código Bibliográfico : 2006PNAS..10311828A . doi : 10.1073 / pnas.0604756103 . PMC 1524674 . PMID 16877539 .  
  8. ^ Bertagnolli, Nuevo México; Drake, JA; Tennessen, JM; Alter, O. (noviembre de 2013). "SVD identifica funciones de distribución de longitud de transcripción de datos de microarrays de ADN y revela las fuerzas evolutivas que afectan globalmente el metabolismo de GBM" . PLOS ONE . 8 (11): e78913. Código Bibliográfico : 2013PLoSO ... 878913B . doi : 10.1371 / journal.pone.0078913 . PMC 3839928 . PMID 24282503 . Resaltar .  
  9. ^ Edelman, Alan (1992). "Sobre la distribución de un número de condición escalado" (PDF) . Matemáticas. Comp . 58 (197): 185-190. doi : 10.1090 / S0025-5718-1992-1106966-2 .
  10. ^ Shen, Jianhong (Jackie) (2001). "Sobre los valores singulares de matrices aleatorias gaussianas" . Alg. Lineal Apl . 326 (1–3): 1–14. doi : 10.1016 / S0024-3795 (00) 00322-0 .
  11. ^ Walton, S .; Hassan, O .; Morgan, K. (2013). "Modelado de orden reducido para flujo de fluido inestable utilizando descomposición ortogonal adecuada y funciones de base radial" . Modelado matemático aplicado . 37 (20-21): 8930-8945. doi : 10.1016 / j.apm.2013.04.025 .
  12. ^ Setyawati, Y .; Ohme, F .; Khan, S. (2019). "Mejora del modelo de forma de onda gravitacional mediante calibración dinámica". Physical Review D . 99 (2): 024010. arXiv : 1810.07060 . Código bibliográfico : 2019PhRvD..99b4010S . doi : 10.1103 / PhysRevD.99.024010 . S2CID 118935941 . 
  13. ^ Sarwar, Badrul; Karypis, George; Konstan, Joseph A. y Riedl, John T. (2000). "Aplicación de la reducción de dimensionalidad en el sistema de recomendación: un estudio de caso" (PDF) . Universidad de Minnesota . Cite journal requires |journal= (help)
  14. ^ Bosagh Zadeh, Reza; Carlsson, Gunnar (2013). "Cuadrado de matriz independiente de dimensión utilizando MapReduce" (PDF) . arXiv : 1304.1467 . Código Bibliográfico : 2013arXiv1304.1467B . Cite journal requires |journal= (help)
  15. ^ Hadi Fanaee Tork; João Gama (septiembre de 2014). "Método de Eigenspace para la detección de puntos calientes espacio-temporales". Sistemas expertos . 32 (3): 454–464. arXiv : 1406.3506 . Código bibliográfico : 2014arXiv1406.3506F . doi : 10.1111 / exsy.12088 . S2CID 15476557 . 
  16. ^ Hadi Fanaee Tork; João Gama (mayo de 2015). "EigenEvent: un algoritmo para la detección de eventos de flujos de datos complejos en la vigilancia sindrómica". Análisis de datos inteligente . 19 (3): 597–616. arXiv : 1406.3496 . doi : 10.3233 / IDA-150734 . S2CID 17966555 . 
  17. ^ Para ver esto, solo tenemos que notar esoy recordar eso.
  18. ^ Netlib.org
  19. ^ Netlib.org
  20. ^ mathworks.co.kr/matlabcentral/fileexchange/12674-simple-svd
  21. ^ Demmel, James (2000). "Descomposiciones" . Plantillas para la solución de problemas de valores propios algebraicos . Por Bai, Zhaojun; Demmel, James; Dongarra, Jack J .; Ruhe, Axel; van der Vorst, Henk A. Society for Industrial and Applied Mathematics. doi : 10.1137 / 1.9780898719581 . ISBN 978-0-89871-471-5.
  22. ^ Fan, Ky. (1951). "Máximas propiedades y desigualdades para los autovalores de operadores completamente continuos" . Actas de la Academia Nacional de Ciencias de los Estados Unidos de América . 37 (11): 760–766. Código bibliográfico : 1951PNAS ... 37..760F . doi : 10.1073 / pnas.37.11.760 . PMC 1063464 . PMID 16578416 .  
  23. ^ De Lathauwer, L .; De Moor, B .; Vandewalle, J. (1 de enero de 2000). "Una descomposición de valor singular multilineal". Revista SIAM sobre Análisis y Aplicaciones Matriciales . 21 (4): 1253-1278. CiteSeerX 10.1.1.102.9135 . doi : 10.1137 / S0895479896305696 . ISSN 0895-4798 .  
  24. ^ Uhlmann, Jeffrey (2018), Una matriz inversa generalizada que es coherente con respecto a las transformaciones diagonales (PDF) , SIAM Journal on Matrix Analysis, 239: 2, págs. 781–800
  25. ^ Eckart, C .; Joven, G. (1936). "La aproximación de una matriz por otra de menor rango". Psychometrika . 1 (3): 211–8. doi : 10.1007 / BF02288367 . S2CID 10163399 . 
  26. Hestenes, MR (1958). "Inversión de matrices por biortogonalización y resultados relacionados". Revista de la Sociedad de Matemáticas Industriales y Aplicadas . 6 (1): 51–90. doi : 10.1137 / 0106005 . JSTOR 2098862 . Señor 0092215 .  
  27. ^ Golub, GH ; Kahan, W. (1965). "Cálculo de los valores singulares y pseudo-inversos de una matriz". Revista de la Sociedad de Matemáticas Industriales y Aplicadas, Serie B: Análisis numérico . 2 (2): 205–224. Código bibliográfico : 1965SJNA .... 2..205G . doi : 10.1137 / 0702016 . JSTOR 2949777 . Señor 0183105 .  
  28. ^ Golub, GH ; Reinsch, C. (1970). "Descomposición en valores singulares y soluciones de mínimos cuadrados". Numerische Mathematik . 14 (5): 403–420. doi : 10.1007 / BF02163027 . Señor 1553974 . S2CID 123532178 .  

Referencias [ editar ]

  • Banerjee, Sudipto; Roy, Anindya (2014), Álgebra lineal y análisis de matrices para estadística , Textos en ciencia estadística (1a ed.), Chapman y Hall / CRC, ISBN 978-1420095388
  • Trefethen, Lloyd N .; Bau III, David (1997). Álgebra lineal numérica . Filadelfia: Sociedad de Matemáticas Industriales y Aplicadas. ISBN 978-0-89871-361-9.
  • Demmel, James ; Kahan, William (1990). "Valores singulares precisos de matrices bidiagonales". Revista SIAM de Computación Científica y Estadística . 11 (5): 873–912. CiteSeerX  10.1.1.48.3740 . doi : 10.1137 / 0911052 .
  • Golub, Gene H .; Kahan, William (1965). "Cálculo de los valores singulares y pseudo-inversos de una matriz". Revista de la Sociedad de Matemáticas Industriales y Aplicadas, Serie B: Análisis numérico . 2 (2): 205–224. Código bibliográfico : 1965SJNA .... 2..205G . doi : 10.1137 / 0702016 . JSTOR  2949777 .
  • Golub, Gene H .; Van Loan, Charles F. (1996). Cálculos matriciales (3ª ed.). Johns Hopkins. ISBN 978-0-8018-5414-9.
  • Equipo GSL (2007). "§14.4 Descomposición de valores singulares" . Biblioteca científica GNU. Manual de referencia .
  • Halldor, Bjornsson y Venegas, Silvia A. (1997). "Un manual para análisis EOF y SVD de datos climáticos" . Universidad McGill, Informe CCGCR No. 97-1, Montreal, Québec, 52pp.
  • Hansen, PC (1987). "La SVD truncada como método de regularización". BIT . 27 (4): 534–553. doi : 10.1007 / BF01937276 . S2CID  37591557 .
  • Horn, Roger A .; Johnson, Charles R. (1985). "Sección 7.3". Análisis matricial . Prensa de la Universidad de Cambridge. ISBN 978-0-521-38632-6.
  • Horn, Roger A .; Johnson, Charles R. (1991). "Capítulo 3" . Temas de análisis matricial . Prensa de la Universidad de Cambridge. ISBN 978-0-521-46713-1.
  • Samet, H. (2006). Fundamentos de estructuras de datos multidimensionales y métricas . Morgan Kaufmann. ISBN 978-0-12-369446-1.
  • Strang G. (1998). "Sección 6.7". Introducción al álgebra lineal (3ª ed.). Prensa de Wellesley-Cambridge. ISBN 978-0-9614088-5-5.
  • Stewart, GW (1993). "Sobre la historia temprana de la descomposición de valores singulares" . Revisión SIAM . 35 (4): 551–566. CiteSeerX  10.1.1.23.1831 . doi : 10.1137 / 1035134 . hdl : 1903/566 . JSTOR  2132388 .
  • Wall, Michael E .; Rechtsteiner, Andreas; Rocha, Luis M. (2003). "Descomposición de valores singulares y análisis de componentes principales" . En DP Berrar; W. Dubitzky; M. Granzow (eds.). Un enfoque práctico para el análisis de datos de microarrays . Norwell, MA: Kluwer. págs. 91-109.
  • Presione, WH; Teukolsky, SA; Vetterling, WT; Flannery, BP (2007), "Sección 2.6" , Recetas numéricas: El arte de la informática científica (3ª ed.), Nueva York: Cambridge University Press, ISBN 978-0-521-88068-8

Enlaces externos [ editar ]

  • Calculadora de SVD en línea