En la teoría de procesos estocásticos , el teorema de Karhunen-Loève (llamado así por Kari Karhunen y Michel Loève ), también conocido como el teorema de Kosambi-Karhunen-Loève [1] [2] es una representación de un proceso estocástico como una combinación lineal infinita de funciones ortogonales , análoga a una representación en serie de Fourier de una función en un intervalo acotado. La transformación también se conoce como transformación de Hotelling y transformación de vector propio , y está estrechamente relacionada con el análisis de componentes principales.(PCA) técnica ampliamente utilizada en el procesamiento de imágenes y en el análisis de datos en muchos campos. [3]
Los procesos estocásticos dados por series infinitas de esta forma fueron considerados por primera vez por Damodar Dharmananda Kosambi . [4] [5] Existen muchas expansiones de este tipo de un proceso estocástico: si el proceso se indexa sobre [ a , b ] , cualquier base ortonormal de L 2 ([ a , b ]) produce una expansión del mismo en esa forma. La importancia del teorema de Karhunen-Loève es que produce la mejor base en el sentido de que minimiza el error cuadrático medio total .
A diferencia de una serie de Fourier donde los coeficientes son números fijos y la base de expansión consta de funciones sinusoidales (es decir, funciones seno y coseno ), los coeficientes del teorema de Karhunen-Loève son variables aleatorias y la base de expansión depende del proceso. De hecho, las funciones de base ortogonal utilizadas en esta representación están determinadas por la función de covarianza del proceso. Se puede pensar que la transformada Karhunen-Loève se adapta al proceso para producir la mejor base posible para su expansión.
En el caso de un proceso estocástico centrado { X t } t ∈ [ a , b ] ( centrado significa E [ X t ] = 0 para todo t ∈ [ a , b ] ) que satisface una condición de continuidad técnica, X t admite una descomposición
donde Z k son variables aleatorias no correlacionadas por pares y las funciones e k son funciones continuas de valor real en [ a , b ] que son ortogonales por pares en L 2 ([ a , b ]) . Por lo tanto, a veces se dice que la expansión es bi-ortogonal ya que los coeficientes aleatorios Z k son ortogonales en el espacio de probabilidad mientras que las funciones deterministas e k son ortogonales en el dominio del tiempo. El caso general de un proceso X t que no está centrado puede volver al caso de un proceso centrado considerando X t - E [ X t ] que es un proceso centrado.
Además, si el proceso es gaussiano , entonces las variables aleatorias Z k son gaussianas y estocásticamente independientes . Este resultado generaliza la transformada Karhunen-Loève . Un ejemplo importante de un proceso estocástico real centrado en [0, 1] es el proceso de Wiener ; el teorema de Karhunen-Loève se puede utilizar para proporcionar una representación ortogonal canónica para él. En este caso, la expansión consta de funciones sinusoidales.
A lo largo de este artículo, consideraremos un proceso aleatorio de media cero integrable al cuadrado X t definido sobre un espacio de probabilidad (Ω, F , P ) e indexado sobre un intervalo cerrado [ a , b ] , con función de covarianza K X ( s , t ) . Así tenemos:
Asociamos a K X un operador lineal T K X definido de la siguiente manera:
Dado que T K X es un operador lineal, tiene sentido hablar de sus valores propios λ k y funciones propias e k , que se encuentran resolviendo la ecuación integral de Fredholm homogénea de segundo tipo
Declaración del teorema
Teorema . Sea X t un proceso estocástico integrable al cuadrado de media cero definido sobre un espacio de probabilidad (Ω, F , P ) e indexado sobre un intervalo cerrado y acotado [ a , b ], con función de covarianza continua K X ( s , t ) .
Entonces K X ( s, t ) es un kernel de Mercer y dejando que e k sea una base ortonormal en L 2 ([ a , b ]) formada por las funciones propias de T K X con sus respectivos valores propios λ k , X t admite la siguiente representación
donde la convergencia está en L 2 , uniforme en t y
Además, las variables aleatorias Z k tienen media cero, no están correlacionadas y tienen varianza λ k
Tenga en cuenta que por las generalizaciones del teorema de Mercer podemos reemplazar el intervalo [ a , b ] con otros espacios compactos C y la medida de Lebesgue en [ un , b ] con una medida de Borel cuyo soporte es C .
Prueba
La función de covarianza K X satisface la definición de un núcleo de Mercer. Según el teorema de Mercer , existe en consecuencia un conjunto λ k , e k ( t ) de valores propios y funciones propias de T K X que forman una base ortonormal de L 2 ([ a , b ]) , y K X se puede expresar como
El proceso X t se puede expandir en términos de las funciones propias e k como:
donde los coeficientes (variables aleatorias) Z k están dados por la proyección de X t sobre las respectivas funciones propias
Entonces podemos derivar
donde hemos utilizado el hecho de que las e k son funciones propias de T K X y son ortonormales.
Demostremos ahora que la convergencia está en L 2 . Dejar
Luego:
que va a 0 por el teorema de Mercer.
Propiedades de la transformada Karhunen-Loève
Caso especial: distribución gaussiana
Dado que el límite en la media de las variables aleatorias conjuntamente gaussianas es conjuntamente gaussianas, y las variables aleatorias (centradas) conjuntamente gaussianas son independientes si y solo si son ortogonales, también podemos concluir:
Teorema . Las variables Z i tienen una distribución gaussiana conjunta y son estocásticamente independientes si el proceso original { X t } t es gaussiano.
En el caso de Gauss, dado que las variables Z i son independientes, podemos decir más:
casi seguro.
La transformación Karhunen-Loève decorrelaciona el proceso
Esto es consecuencia de la independencia de Z k .
La expansión de Karhunen-Loève minimiza el error cuadrático medio total
En la introducción, mencionamos que la expansión de Karhunen-Loeve truncada fue la mejor aproximación del proceso original en el sentido de que reduce el error cuadrático medio total resultante de su truncamiento. Debido a esta propiedad, a menudo se dice que la transformada KL compacta óptimamente la energía.
Más específicamente, dada cualquier base ortonormal { f k } de L 2 ([ a , b ]) , podemos descomponer el proceso X t como:
dónde
y podemos aproximar X t por la suma finita
para algún entero N .
Reclamo . De todas estas aproximaciones, la aproximación KL es la que minimiza el error cuadrático medio total (siempre que hayamos dispuesto los valores propios en orden decreciente).
[Prueba]
Considere el error resultante del truncamiento en el N -ésimo término en la siguiente expansión ortonormal:
El error cuadrático medio ε N 2 ( t ) se puede escribir como:
Luego integramos esta última igualdad sobre [ a , b ]. La ortonormalidad de la f k produce:
El problema de minimizar el error cuadrático medio total se reduce a minimizar el lado derecho de esta igualdad sujeto a la restricción de que f k se normalice. Por lo tanto, introducimos β k , los multiplicadores lagrangianos asociados con estas restricciones, y nuestro objetivo es minimizar la siguiente función:
Diferenciar con respecto a f i ( t ) (esta es una derivada funcional ) y establecer la derivada en 0 produce:
que se satisface en particular cuando
En otras palabras, cuando f k se eligen para ser las funciones propias de T K X , por lo tanto, resulta en la expansión KL.
Varianza explicada
Una observación importante es que dado que los coeficientes aleatorios Z k de la expansión KL no están correlacionados, la fórmula de Bienaymé afirma que la varianza de X t es simplemente la suma de las varianzas de los componentes individuales de la suma:
Integrando sobre [ a , b ] y usando la ortonormalidad de la e k , obtenemos que la varianza total del proceso es:
En particular, la varianza total de la aproximación N truncada es
Como resultado, la expansión N -truncada explica
de la varianza; y si estamos contentos con una aproximación que explica, digamos, el 95% de la varianza, entonces solo tenemos que determinar un tal que
La expansión Karhunen-Loève tiene la propiedad de entropía de representación mínima
Dada una representación de , por alguna base ortonormal y al azar , dejamos , así que eso . Entonces podemos definir la entropía de representación como. Entonces nosotros tenemos, para todas las opciones de . Es decir, la expansión KL tiene una entropía de representación mínima.
Prueba:
Denote los coeficientes obtenidos para la base como , y para como .
Escoger . Tenga en cuenta que desde minimiza el error cuadrático medio, tenemos que
Ampliando el tamaño de la mano derecha, obtenemos:
Usando la ortonormalidad de y expandiendo en el base, obtenemos que el tamaño de la mano derecha es igual a:
Podemos realizar un análisis idéntico para el , y reescriba la desigualdad anterior como:
Restar el primer término común y dividir por , obtenemos que:
Esto implica que:
Aproximaciones lineales de Karhunen-Loève
Considere toda una clase de señales que queremos aproximar sobre los primeros M vectores de una base. Estas señales se modelan como realizaciones de un vector aleatorio Y [ n ] de tamaño N . Para optimizar la aproximación diseñamos una base que minimiza el error de aproximación promedio. En esta sección se demuestra que las bases óptimas son bases Karhunen-Loeve que diagonalizan la matriz de covarianza de Y . El vector aleatorio Y se puede descomponer de forma ortogonal
como sigue:
donde cada
es una variable aleatoria. La aproximación de los primeros M ≤ N vectores de la base es
La conservación de energía en forma ortogonal implica
Este error está relacionado con la covarianza de Y definida por
Para cualquier vector x [ n ] denotamos por K el operador de covarianza representado por esta matriz,
El error ε [ M ] es, por tanto, una suma de los últimos N - M coeficientes del operador de covarianza.
El operador de covarianza K es hermitiano y positivo y, por lo tanto, está diagonalizado en una base ortogonal llamada base Karhunen-Loève. El siguiente teorema establece que una base de Karhunen-Loève es óptima para aproximaciones lineales.
Teorema (Optimidad de base Karhunen-Loève). Sea K un operador de covarianza. Para todo M ≥ 1 , el error de aproximación
es mínimo si y solo si
es una base de Karhunen-Loeve ordenada por valores propios decrecientes.
Aproximación no lineal en bases
Las aproximaciones lineales proyectan la señal en M vectores a priori. La aproximación se puede hacer más precisa eligiendo los vectores ortogonales M dependiendo de las propiedades de la señal. Esta sección analiza el desempeño general de estas aproximaciones no lineales. Una señal se aproxima con M vectores seleccionados adaptativamente en una base ortonormal para [ definición necesaria ]
Dejar sea la proyección de f sobre M vectores cuyos índices están en I M :
El error de aproximación es la suma de los coeficientes restantes
Para minimizar este error, los índices en I M deben corresponder a los M vectores que tienen la mayor amplitud del producto interno
Estos son los vectores que mejor se correlacionan f. Por tanto, pueden interpretarse como las principales características de f. El error resultante es necesariamente menor que el error de una aproximación lineal que selecciona los vectores de aproximación M independientemente de f. Vamos a ordenar
en orden decreciente
La mejor aproximación no lineal es
También se puede escribir como umbral de producto interno:
con
El error no lineal es
este error va rápidamente a cero a medida que M aumenta, si los valores ordenados de tienen una rápida desintegración a medida que k aumenta. Esta desintegración se cuantifica calculando el norma de los productos internos de la señal en B:
El siguiente teorema relaciona la desintegración de ε [ M ] con
Teorema (decadencia del error). Sicon p <2 entonces
y
Por el contrario, si luego
para cualquier q > p .
No optimización de las bases Karhunen-Loève
Para ilustrar más las diferencias entre aproximaciones lineales y no lineales, estudiamos la descomposición de un vector aleatorio no gaussiano simple en una base Karhunen-Loève. Los procesos cuyas realizaciones tienen una traducción aleatoria son estacionarios. La base Karhunen-Loève es entonces una base de Fourier y estudiamos su desempeño. Para simplificar el análisis, considere un vector aleatorio Y [ n ] de tamaño N que es módulo de desplazamiento aleatorio N de una señal determinista f [ n ] de media cero
El cambio aleatorio P se distribuye uniformemente en [0, N - 1]:
Claramente
y
Por eso
Dado que R Y es N periódico, Y es un vector aleatorio estacionario circular. El operador de covarianza es una convolución circular con R Y y, por lo tanto, está diagonalizado en la base discreta de Fourier Karhunen-Loève
El espectro de potencia es la transformada de Fourier de R Y :
Ejemplo: considere un caso extremo donde. Un teorema establecido anteriormente garantiza que la base de Fourier Karhunen-Loève produce un error de aproximación esperado menor que una base canónica de Diracs. De hecho, no conocemos a priori la abscisa de los coeficientes distintos de cero de Y , por lo que no existe un Dirac en particular que esté mejor adaptado para realizar la aproximación. Pero los vectores de Fourier cubren todo el soporte de Y y, por lo tanto, absorben una parte de la energía de la señal.
La selección de coeficientes de Fourier de mayor frecuencia produce una mejor aproximación del cuadrado medio que la elección a priori de unos pocos vectores de Dirac para realizar la aproximación. La situación es totalmente diferente para las aproximaciones no lineales. Sientonces la base discreta de Fourier es extremadamente ineficaz porque fy, por tanto, Y tienen una energía que se distribuye casi uniformemente entre todos los vectores de Fourier. En contraste, dado que f tiene solo dos coeficientes distintos de cero en la base de Dirac, una aproximación no lineal de Y con M ≥ 2 da un error cero. [6]
Análisis de componentes principales
Hemos establecido el teorema de Karhunen-Loève y derivado algunas propiedades del mismo. También notamos que un obstáculo en su aplicación era el costo numérico de determinar los valores propios y las funciones propias de su operador de covarianza a través de la ecuación integral de Fredholm de segundo tipo.
Sin embargo, cuando se aplica a un proceso finito y discreto , el problema toma una forma mucho más simple y se puede usar álgebra estándar para realizar los cálculos.
Tenga en cuenta que también se puede muestrear un proceso continuo en N puntos en el tiempo para reducir el problema a una versión finita.
De ahora en adelante consideraremos un vector aleatorio N -dimensional. Como se mencionó anteriormente, X podría contener N muestras de una señal pero puede contener muchas más representaciones dependiendo del campo de aplicación. Por ejemplo, podrían ser las respuestas a una encuesta o datos económicos en un análisis econométrico.
Como en la versión continua, asumimos que X está centrado, de lo contrario podemos dejar (dónde es el vector medio de X ) que está centrado.
Adaptemos el procedimiento al caso discreto.
Matriz de covarianza
Recuerde que la principal implicación y dificultad de la transformación KL es calcular los autovectores del operador lineal asociado a la función de covarianza, que están dados por las soluciones de la ecuación integral escrita anteriormente.
Defina Σ, la matriz de covarianza de X , como una matriz N × N cuyos elementos están dados por:
Reescribiendo la ecuación integral anterior para que se adapte al caso discreto, observamos que se convierte en:
dónde es un vector N -dimensional.
Por lo tanto, la ecuación integral se reduce a un problema de valores propios de matriz simple, lo que explica por qué el PCA tiene un dominio de aplicaciones tan amplio.
Dado que Σ es una matriz simétrica definida positiva, posee un conjunto de vectores propios ortonormales que forman una base de y escribimos este conjunto de autovalores y autovectores correspondientes, enumerados en valores decrecientes de λ i . Sea también Φ la matriz ortonormal que consta de estos autovectores:
Transformación de componente principal
Queda por realizar la transformación de KL real, denominada transformación de componente principal en este caso. Recuerde que la transformación se encontró expandiendo el proceso con respecto a la base generada por los vectores propios de la función de covarianza. En este caso, tenemos:
En una forma más compacta, la transformación del componente principal de X se define por:
El i -ésimo componente de Y es, la proyección de X eny la transformada inversa X = Φ Y produce la expansión de X en el espacio generado por el:
Como en el caso continuo, podemos reducir la dimensionalidad del problema truncando la suma en algún tal que
donde α es el umbral de varianza explicado que deseamos establecer.
También podemos reducir la dimensionalidad mediante el uso de estimación de vectores propios dominantes multinivel (MDEE). [7]
Ejemplos de
El proceso de Wiener
Existen numerosas caracterizaciones equivalentes del proceso de Wiener, que es una formalización matemática del movimiento browniano . Aquí lo consideramos como el proceso gaussiano estándar centrado W t con función de covarianza
Restringimos el dominio del tiempo a [ a , b ] = [0,1] sin pérdida de generalidad.
Los vectores propios del núcleo de covarianza se determinan fácilmente. Estos son
y los valores propios correspondientes son
[Prueba]
Para encontrar los autovalores y autovectores, necesitamos resolver la ecuación integral:
diferenciando una vez con respecto a t produce:
una segunda diferenciación produce la siguiente ecuación diferencial:
La solución general que tiene la forma:
donde A y B son dos constantes que se determinarán con las condiciones de contorno. Establecer t = 0 en la ecuación integral inicial da e (0) = 0, lo que implica que B = 0 y, de manera similar, establecer t = 1 en la primera diferenciación da como resultado e ' (1) = 0, de donde:
lo que a su vez implica que los valores propios de T K X son:
Las funciones propias correspondientes son, por tanto, de la forma:
A continuación, se elige A para normalizar e k :
Esto da la siguiente representación del proceso de Wiener:
Teorema . Hay una secuencia { Z i } i de variables aleatorias gaussianas independientes con media cero y varianza 1 tal que
Tenga en cuenta que esta representación solo es válida para En intervalos más grandes, los incrementos no son independientes. Como se indica en el teorema, la convergencia está en la norma L 2 y es uniforme en t .
El puente browniano
Del mismo modo, el puente brownianoque es un proceso estocástico con función de covarianza
se puede representar como la serie
Aplicaciones
Los sistemas de óptica adaptativa a veces usan funciones K – L para reconstruir la información de fase del frente de onda (Dai 1996, JOSA A). La expansión de Karhunen-Loève está estrechamente relacionada con la descomposición de valores singulares . Este último tiene innumerables aplicaciones en procesamiento de imágenes, radar, sismología y similares. Si uno tiene observaciones vectoriales independientes de un proceso estocástico con valores vectoriales, los vectores singulares de la izquierda son estimaciones de máxima verosimilitud de la expansión KL del conjunto.
Aplicaciones en estimación y detección de señales
Detección de una señal continua conocida S ( t )
En comunicación, normalmente tenemos que decidir si una señal de un canal ruidoso contiene información valiosa. La siguiente prueba de hipótesis se utiliza para detectar la señal continua s ( t ) de la salida del canal X ( t ), N ( t ) es el ruido del canal, que generalmente se asume como proceso gaussiano de media cero con función de correlación
Detección de señal en ruido blanco
Cuando el ruido del canal es blanco, su función de correlación es
y tiene una densidad de espectro de potencia constante. En un canal físicamente práctico, la potencia de ruido es finita, por lo que:
Entonces la función de correlación de ruido es la función sinc con ceros en Dado que no están correlacionados y son gaussianos, son independientes. Por lo tanto, podemos tomar muestras de X ( t ) con espaciado de tiempo
Dejar . Tenemos un total de iid observaciones para desarrollar la prueba de razón de verosimilitud. Definir señal, el problema se vuelve,
La razón logarítmica de verosimilitud
Cuando t → 0 , sea:
Entonces G es la estadística de prueba y el detector óptimo de Neyman-Pearson es
Como G es gaussiano, podemos caracterizarlo encontrando su media y varianzas. Entonces obtenemos
dónde
es la energía de la señal.
El error de falsa alarma
Y la probabilidad de detección:
donde Φ es la CDF de la variable estándar normal o gaussiana.
Detección de señal en ruido de color
Cuando N (t) está coloreado (correlacionado en el tiempo) Ruido gaussiano con media cero y función de covarianza no podemos muestrear observaciones discretas independientes espaciando uniformemente el tiempo. En su lugar, podemos usar la expansión K – L para descorrelacionar [ revisar la ortografía ] el proceso de ruido y obtener 'muestras' de observación gaussiana independientes. La expansión K – L de N ( t ):
dónde y las bases ortonormales son generados por kernel , es decir, solución a
Haz la expansión:
dónde , luego
bajo H y bajo K. Deje , tenemos
son rv gaussianos independientes con varianza
debajo de H: son r.v gaussianos independientes.
bajo K: son r.v gaussianos independientes.
Por tanto, el log-LR viene dado por
y el detector óptimo es
Definir
luego
Cómo encontrar k ( t )
Desde
k (t) es la solución a
Si N ( t ) es estacionario de sentido amplio,
que se conoce como la ecuación de Wiener-Hopf . La ecuación se puede resolver tomando la transformada de Fourier, pero no es prácticamente realizable ya que el espectro infinito necesita factorización espacial. Un caso especial que es fácil de calcular k ( t ) es el ruido blanco gaussiano.
La respuesta de impulso correspondiente es h ( t ) = k ( T - t ) = CS ( T - t ). Sea C = 1, este es solo el resultado al que llegamos en la sección anterior para la detección de señal en ruido blanco.
Umbral de prueba para el detector Neyman-Pearson
Dado que X (t) es un proceso gaussiano,
es una variable aleatoria gaussiana que se puede caracterizar por su media y varianza.
Por tanto, obtenemos las distribuciones de H y K :
El error de falsa alarma es
Por tanto, el umbral de prueba para el detector óptimo de Neyman-Pearson es
Su poder de detección es
Cuando el ruido es un proceso gaussiano blanco, la potencia de la señal es
Preblanqueamiento
Para algún tipo de ruido de color, una práctica típica es agregar un filtro de preblanqueamiento antes del filtro combinado para transformar el ruido de color en ruido blanco. Por ejemplo, N (t) es un ruido de color estacionario de sentido amplio con función de correlación
La función de transferencia del filtro de preblanqueamiento es
Detección de una señal aleatoria gaussiana en ruido gaussiano blanco aditivo (AWGN)
Cuando la señal que queremos detectar del canal ruidoso también es aleatoria, por ejemplo, un proceso gaussiano blanco X ( t ), aún podemos implementar la expansión K – L para obtener una secuencia de observación independiente. En este caso, el problema de detección se describe de la siguiente manera:
X ( t ) es un proceso aleatorio con función de correlación
La expansión K – L de X ( t ) es
dónde
y son soluciones para
Entonces son secuencias independientes de rv con media y varianza cero . Expandiendo Y ( t ) y N ( t ) por, obtenemos
dónde
Como N ( t ) es ruido blanco gaussiano,son una secuencia de iid de rv con media cero y varianza , entonces el problema se simplifica de la siguiente manera,
La prueba óptima de Neyman-Pearson:
entonces la razón logarítmica de verosimilitud es
Desde
es solo la estimación mínima del cuadrado medio de dado 's,
La expansión K – L tiene la siguiente propiedad: Si
dónde
luego
Entonces deja
El filtro no causal Q ( t , s ) se puede utilizar para obtener la estimación
Por el principio de ortogonalidad , Q ( t , s ) satisface
Sin embargo, por razones prácticas, es necesario derivar aún más el filtro causal h ( t , s ), donde h ( t , s ) = 0 para s > t , para obtener una estimación. Específicamente,
Ver también
Análisis de componentes principales
Caos polinomial
Notas
^ Sapatnekar, Sachin (2011), "Superar variaciones en tecnologías de escala nanométrica", Revista IEEE sobre temas emergentes y seleccionados en circuitos y sistemas , 1 (1): 5–18, Bibcode : 2011IJEST ... 1 .... 5S , CiteSeerX 10.1.1.300.5659 , doi : 10.1109 / jetcas.2011.2138250
^Ghoman, Satyajit; Wang, Zhicun; Chen, PC; Kapania, Rakesh (2012), un esquema de diseño de pedido reducido basado en POD para la optimización de la forma de los vehículos aéreosParámetro desconocido |book-title=ignorado ( ayuda )
^ Transformada de Karhunen-Loeve (KLT) , conferencias sobre procesamiento y análisis de imágenes por computadora (E161), Harvey Mudd College
^Raju, CK (2009), "Kosambi the Mathematician", Economic and Political Weekly , 44 (20): 33–45
^Kosambi, DD (1943), "Estadísticas en el espacio funcional", Revista de la Sociedad Matemática de la India , 7 : 76–88, MR 0009816.
^ Un recorrido por wavelet del procesamiento de señales-Stéphane Mallat
^ X. Tang, "Información de textura en matrices de longitud de ejecución", IEEE Transactions on Image Processing, vol. 7, núm. 11, págs. 1602–1609, noviembre de 1998
Referencias
Stark, Henry; Woods, John W. (1986). Probabilidad, procesos aleatorios y teoría de la estimación para ingenieros . Prentice-Hall, Inc. ISBN 978-0-13-711706-2. OL 21138080M .
Ghanem, Roger; Spanos, Pol (1991). Elementos finitos estocásticos: un enfoque espectral . Springer-Verlag. ISBN 978-0-387-97456-9. OL 1865197M .
Guikhman, I .; Skorokhod, A. (1977). Introducción a la Théorie des Processus Aléatoires . Éditions MIR.
Simon, B. (1979). Integración funcional y física cuántica . Prensa académica.
Karhunen, Kari (1947). "Über lineare Methoden in der Wahrscheinlichkeitsrechnung". Ana. Acad. Sci. Fennicae. Ser. AI Math.-Phys . 37 : 1-79.
Loève, M. (1978). Teoría de probabilidad. Vol. II, 4ª ed . Textos de Posgrado en Matemáticas. 46 . Springer-Verlag. ISBN 978-0-387-90262-3.
Dai, G. (1996). "Reconstrucción de frente de onda modal con polinomios de Zernike y funciones de Karhunen-Loeve". Un JOSA . 13 (6): 1218. Código Bibliográfico : 1996JOSAA..13.1218D . doi : 10.1364 / JOSAA.13.001218 .
Wu B., Zhu J., Najm F. (2005) "Un enfoque no paramétrico para la estimación de rango dinámico de sistemas no lineales". En Actas de la Conferencia de Automatización del Diseño (841-844) 2005
Wu B., Zhu J., Najm F. (2006) "Estimación del rango dinámico". Transacciones IEEE sobre diseño asistido por computadora de circuitos y sistemas integrados, vol. 25 Edición: 9 (1618–1636) 2006
Jorgensen, Palle ET; Canción, Myung-Sin (2007). "Codificación de entropía, espacio de Hilbert y transformaciones de Karhunen-Loeve". Revista de Física Matemática . 48 (10): 103503. arXiv : math-ph / 0701056 . Código bibliográfico : 2007JMP .... 48j3503J . doi : 10.1063 / 1.2793569 .
enlaces externos
Función Mathematica KarhunenLoeveDecomposition .
E161: Notas sobre procesamiento y análisis de imágenes por computadora del Pr. Ruye Wang en Harvey Mudd College [1]