En la teoría de control , el problema de control lineal-cuadrático-gaussiano ( LQG ) es uno de los problemas de control óptimo más fundamentales . Se trata de sistemas lineales impulsados por ruido blanco gaussiano aditivo . El problema es determinar una ley de retroalimentación de salida que sea óptima en el sentido de minimizar el valor esperado de un criterio de costo cuadrático . Se supone que las medidas de salida están dañadas por el ruido gaussiano y, de igual forma, se supone que el estado inicial es un vector aleatorio gaussiano.
Bajo estos supuestos, un esquema de control óptimo dentro de la clase de leyes de control lineal puede derivarse mediante un argumento de compleción de cuadrados. [1] Esta ley de control, conocida como controlador LQG , es única y es simplemente una combinación de un filtro de Kalman (un estimador de estado lineal cuadrático (LQE)) junto con un regulador lineal cuadrático (LQR). El principio de separación establece que el estimador de estado y la retroalimentación de estado se pueden diseñar de forma independiente. El control LQG se aplica tanto a sistemas lineales invariantes en el tiempo como a sistemas lineales variables en el tiempo, y constituye una ley de control de retroalimentación dinámica lineal que se calcula e implementa fácilmente: el controlador LQG en sí es un sistema dinámico como el sistema que controla. Ambos sistemas tienen la misma dimensión de estado.
Una declaración más profunda del principio de separación es que el controlador LQG sigue siendo óptimo en una clase más amplia de controladores posiblemente no lineales. Es decir, utilizar un esquema de control no lineal no mejorará el valor esperado del costo funcional. Esta versión del principio de separación es un caso especial del principio de separación del control estocástico que establece que incluso cuando las fuentes de ruido de proceso y de salida son posiblemente martingalas no gaussianas , siempre que la dinámica del sistema sea lineal, el control óptimo se separa en un estimador de estado óptimo (que puede que ya no sea un filtro de Kalman) y un regulador LQR. [2] [3]
En la configuración clásica de LQG, la implementación del controlador LQG puede ser problemática cuando la dimensión del estado del sistema es grande. El problema de LQG de orden reducido ( problema de LQG de orden fijo) lo supera fijando a priori el número de estados del controlador LQG. Este problema es más difícil de resolver porque ya no es separable. Además, la solución ya no es única. A pesar de estos hechos, se dispone de algoritmos numéricos [4] [5] [6] [7] para resolver las ecuaciones de proyección óptima asociadas [8] [9] que constituyen condiciones necesarias y suficientes para un controlador LQG de orden reducido localmente óptimo. [4]
La optimización de LQG no garantiza automáticamente buenas propiedades de robustez. [10] La sólida estabilidad del sistema de circuito cerrado debe comprobarse por separado después de que se haya diseñado el controlador LQG. Para promover la robustez, algunos de los parámetros del sistema pueden asumirse como estocásticos en lugar de deterministas. El problema de control más difícil asociado conduce a un controlador óptimo similar del que solo son diferentes los parámetros del controlador. [5]
Es posible calcular el valor esperado de la función de costo para las ganancias óptimas, así como cualquier otro conjunto de ganancias estables. [11]
Finalmente, el controlador LQG también se utiliza para controlar sistemas no lineales perturbados. [12]
Descripción matemática del problema y la solución.
Tiempo continuo
Considere el sistema dinámico lineal de tiempo continuo
dónde representa el vector de variables de estado del sistema, el vector de entradas de control y el vector de salidas medidas disponibles para retroalimentación. Tanto el ruido del sistema gaussiano blanco aditivo y ruido de medición gaussiano blanco aditivo afectar el sistema. Dado este sistema, el objetivo es encontrar el historial de entrada de control que en cada momento puede depender linealmente solo de las mediciones pasadas de manera que se minimice la siguiente función de costo:
dónde denota el valor esperado . El tiempo final (horizonte)puede ser finito o infinito. Si el horizonte tiende al infinito el primer términode la función de costo se vuelve insignificante e irrelevante para el problema. Además, para mantener los costos finitos, la función de costos debe tomarse como.
El controlador LQG que resuelve el problema de control LQG se especifica mediante las siguientes ecuaciones:
La matriz se denomina ganancia de Kalman del filtro de Kalman asociado representado por la primera ecuación. En cada momento este filtro genera estimaciones del Estado utilizando las medidas y entradas pasadas. La ganancia de Kalman se calcula a partir de las matrices , las dos matrices de intensidad asociado a los ruidos blancos gaussianos y y finalmente . Estas cinco matrices determinan la ganancia de Kalman a través de la siguiente ecuación diferencial de matriz asociada de Riccati:
Dada la solución la ganancia de Kalman es igual a
La matriz se llama matriz de ganancia de retroalimentación . Esta matriz está determinada por las matrices y a través de la siguiente matriz asociada de la ecuación diferencial de Riccati:
Dada la solución la ganancia de retroalimentación es igual a
Observe la similitud de las dos ecuaciones diferenciales matriciales de Riccati, la primera avanzando en el tiempo y la segunda hacia atrás. Esta similitud se llama dualidad . La primera ecuación diferencial de matriz de Riccati resuelve el problema de estimación lineal-cuadrática (LQE). La segunda ecuación diferencial de matriz de Riccati resuelve el problema del regulador lineal cuadrático (LQR). Estos problemas son duales y juntos resuelven el problema de control lineal-cuadrático-gaussiano (LQG). Por lo tanto, el problema de LQG se divide en el problema de LQE y LQR que se pueden resolver de forma independiente. Por lo tanto, el problema de LQG se denomina separable .
Cuándo y las matrices de intensidad de ruido , no dependas de y cuando tiende al infinito, el controlador LQG se convierte en un sistema dinámico invariante en el tiempo. En ese caso, la segunda ecuación diferencial de matriz de Riccati puede reemplazarse por la ecuación algebraica de Riccati asociada .
Tiempo discreto
Dado que el problema de control de LQG en tiempo discreto es similar al de tiempo continuo, la siguiente descripción se centra en las ecuaciones matemáticas.
Las ecuaciones del sistema lineal de tiempo discreto son
Aquí representa el índice de tiempo discreto y representar procesos de ruido blanco gaussiano en tiempo discreto con matrices de covarianza respectivamente.
La función de costo cuadrático a minimizar es
El controlador LQG de tiempo discreto es
- ,
La ganancia de Kalman es igual a
dónde está determinada por la siguiente ecuación de diferencias de matriz de Riccati que avanza en el tiempo:
La matriz de ganancia de retroalimentación es igual a
dónde está determinada por la siguiente ecuación de diferencias de matriz de Riccati que corre hacia atrás en el tiempo:
Si todas las matrices en la formulación del problema son invariantes en el tiempo y si el horizonte tiende al infinito, el controlador LQG de tiempo discreto se vuelve invariante en el tiempo. En ese caso, las ecuaciones en diferencias matriciales de Riccati pueden reemplazarse por sus ecuaciones de Riccati algebraicas de tiempo discreto asociadas . Estos determinan el estimador lineal cuadrático invariante en el tiempo y el regulador lineal cuadrático invariante en el tiempo en tiempo discreto. Para mantener los costos finitos en lugar de uno tiene que considerar en este caso.
Ver también
Referencias
- ^ Karl Johan Astrom (1970). Introducción a la teoría del control estocástico . 58 . Prensa académica. ISBN 0-486-44531-3.
- ^ Anders Lindquist (1973). "Sobre el control de retroalimentación de sistemas estocásticos lineales". Revista SIAM de Control . 11 (2): 323–343. doi : 10.1137 / 0311025 ..
- ^ Tryphon T. Georgiou y Anders Lindquist (2013). "El principio de separación en el control estocástico, Redux". Transacciones IEEE sobre control automático . 58 (10): 2481–2494. arXiv : 1103.3005 . doi : 10.1109 / TAC.2013.2259207 .
- ^ a b Van Willigenburg LG; De Koning WL (2000). "Algoritmos numéricos y cuestiones relativas a las ecuaciones de proyección óptima en tiempo discreto". Revista europea de control . 6 (1): 93–100. doi : 10.1016 / s0947-3580 (00) 70917-4 . Descarga de software asociado desde Matlab Central .
- ^ a b Van Willigenburg LG; De Koning WL (1999). "Compensadores óptimos de orden reducido para sistemas de tiempo discreto variables en el tiempo con parámetros deterministas y blancos". Automatica . 35 : 129-138. doi : 10.1016 / S0005-1098 (98) 00138-1 . Descarga de software asociado desde Matlab Central .
- ^ Zigic D .; Watson LT; Collins EG; Haddad WM; Ying S. (1996). "Métodos de homotopía para resolver las ecuaciones de proyección óptimas para el problema del modelo de orden reducido H2". Revista Internacional de Control . 56 (1): 173-191. doi : 10.1080 / 00207179208934308 .
- ^ Collins Jr. EG; Haddad WM; Ying S. (1996). "Un algoritmo de homotopía para la compensación dinámica de orden reducido utilizando las ecuaciones de proyección óptima de Hyland-Bernstein". Revista de control y dinámica de la orientación . 19 (2): 407–417. doi : 10,2514 / 3,21633 .
- ^ Hyland DC; Bernstein DS (1984). "Las ecuaciones de proyección óptimas para la compensación dinámica de orden fijo" (PDF) . Transacciones IEEE sobre control automático . AC-29 (11): 1034–1037. doi : 10.1109 / TAC.1984.1103418 . hdl : 2027,42 / 57875 .
- ^ Bernstein DS; Davis LD; Hyland DC (1986). "Las ecuaciones de proyección óptimas para la estimación y el control de modelos de tiempo discreto de orden reducido" (PDF) . Revista de Control y Dinámica de la Orientación . 9 (3): 288-293. Código bibliográfico : 1986JGCD .... 9..288B . doi : 10.2514 / 3.20105 . hdl : 2027,42 / 57880 .
- ^ Green, Michael; Limebeer, David JN (1995). Control robusto lineal . Acantilados de Englewood: Prentice Hall. pag. 27. ISBN 0-13-102278-4.
- ^ Matsakis, Demetrios (8 de marzo de 2019). "Los efectos de las estrategias de dirección proporcional sobre el comportamiento de los relojes controlados" . Metrologia . 56 (2): 025007. doi : 10.1088 / 1681-7575 / ab0614 .
- ^ Athans M. (1971). "El papel y uso del problema estocástico Lineal-Cuadrático-Gaussiano en el diseño de sistemas de control". Transacciones IEEE sobre control automático . AC-16 (6): 529–552. doi : 10.1109 / TAC.1971.1099818 .
Otras lecturas
- Stengel, Robert F. (1994). Control y estimación óptimos . Nueva York: Dover. ISBN 0-486-68200-5.