De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

La predicción lineal es una operación matemática en la que los valores futuros de una señal de tiempo discreto se estiman como una función lineal de muestras anteriores.

En el procesamiento de señales digitales , la predicción lineal a menudo se denomina codificación predictiva lineal (LPC) y, por lo tanto, puede verse como un subconjunto de la teoría de filtros . En el análisis de sistemas , un subcampo de las matemáticas , la predicción lineal puede verse como parte del modelado u optimización matemática .

El modelo de predicción [ editar ]

La representación más común es

donde es el valor de la señal predicha, los valores observados previamente, con , y los coeficientes predictores. El error generado por esta estimación es

donde es el verdadero valor de la señal.

Estas ecuaciones son válidas para todos los tipos de predicción lineal (unidimensional). Las diferencias se encuentran en la forma en que se eligen los coeficientes predictores .

Para señales multidimensionales, la métrica de error a menudo se define como

donde es una norma de vector elegida adecuada . Predicciones como las que se utilizan habitualmente en los filtros y suavizadores de Kalman para estimar los valores de la señal actual y pasada, respectivamente. [ cita requerida ]

Estimación de los parámetros [ editar ]

La elección más común en la optimización de parámetros es el criterio de la raíz cuadrada media, que también se denomina criterio de autocorrelación . En este método minimizamos el valor esperado del error al cuadrado , lo que produce la ecuación

para 1 ≤ jp , donde R es la autocorrelación de la señal x n , definida como

,

y E es el valor esperado . En el caso multidimensional, esto corresponde a minimizar la norma L 2 .

Las ecuaciones anteriores se denominan ecuaciones normales o ecuaciones de Yule-Walker . En forma de matriz, las ecuaciones se pueden escribir de forma equivalente como

donde la matriz de autocorrelación es una matriz de Toeplitz simétrica con elementos , el vector es el vector de autocorrelación y el vector de parámetros.

Otro enfoque, más general, es minimizar la suma de cuadrados de los errores definidos en la forma

donde el problema de optimización que busca sobre todos ahora debe limitarse .

Por otro lado, si el error cuadrático medio de predicción se limita a la unidad y la ecuación del error de predicción se incluye en la parte superior de las ecuaciones normales, el conjunto aumentado de ecuaciones se obtiene como

donde el índice varía de 0 a , y es una matriz.

La especificación de los parámetros del predictor lineal es un tema amplio y se han propuesto muchos otros enfoques. De hecho, el método de autocorrelación es el más común [ cita requerida ] y se utiliza, por ejemplo, para la codificación de voz en el estándar GSM .

La solución de la ecuación matricial es computacionalmente un proceso relativamente costoso. La eliminación de Gauss para la inversión de la matriz es probablemente la solución más antigua, pero este enfoque no utiliza eficientemente la simetría de . Un algoritmo más rápido es la recursividad de Levinson propuesta por Norman Levinson en 1947, que calcula recursivamente la solución. [ cita requerida ] En particular, las ecuaciones de autocorrelación anteriores pueden resolverse de manera más eficiente mediante el algoritmo de Durbin. [1]

En 1986, Philippe Delsarte e YV Genin propusieron una mejora de este algoritmo llamada recursividad dividida de Levinson, que requiere aproximadamente la mitad del número de multiplicaciones y divisiones. [2] Utiliza una propiedad simétrica especial de los vectores de parámetros en los niveles de recursividad subsiguientes. Es decir, los cálculos para los términos que contienen el predictor óptimo utilizan cálculos similares para los términos que contienen el predictor óptimo .

Otra forma de identificar los parámetros del modelo es calcular iterativamente las estimaciones de estado utilizando filtros de Kalman y obtener estimaciones de máxima verosimilitud dentro de los algoritmos de maximización de expectativas .

Para valores igualmente espaciados, una interpolación polinomial es una combinación lineal de los valores conocidos. Si se estima que la señal de tiempo discreta obedece a un polinomio de grado, entonces los coeficientes predictores vienen dados por la fila correspondiente del triángulo de coeficientes de transformada binomial. Esta estimación puede ser adecuada para una señal de variación lenta con poco ruido. Las predicciones para los primeros valores de son

Ver también [ editar ]

  • Modelo autorregresivo
  • Intervalo de predicción
  • Filtrado rasta
  • Error cuadrático medio mínimo

Referencias [ editar ]

  1. ^ Ramírez, MA (2008). "Un algoritmo de Levinson basado en una transformación isométrica de Durbin" (PDF) . Cartas de procesamiento de señales IEEE . 15 : 99-102. doi : 10.1109 / LSP.2007.910319 .
  2. ^ Delsarte, P. y Genin, YV (1986), El algoritmo dividido de Levinson , Transacciones IEEE sobre acústica, habla y procesamiento de señales , v. ASSP-34 (3), págs. 470–478

Lectura adicional [ editar ]

  • Hayes, MH (1996). Procesamiento y modelado estadístico de señales digitales . Nueva York: J. Wiley & Sons. ISBN 978-0471594314.
  • Levinson, N. (1947). "El criterio de error Wiener RMS (raíz cuadrada media) en el diseño de filtros y la predicción". Revista de Matemáticas y Física . 25 (4): 261-278.
  • Makhoul, J. (1975). "Predicción lineal: una revisión tutorial". Actas del IEEE . 63 (5): 561–580. doi : 10.1109 / PROC.1975.9792 .
  • Yule, GU (1927). "Sobre un método de investigación de periodicidades en series perturbadas, con especial referencia a los números de manchas solares de Wolfer" . Phil. Trans. Roy. Soc. Una . 226 : 267-298. doi : 10.1098 / rsta.1927.0007 . JSTOR  91170 .

Enlaces externos [ editar ]

  • PLP y RASTA (y MFCC e inversión) en Matlab