La teoría del control óptimo se ocupa de operar un sistema dinámico a un costo mínimo. El caso en el que la dinámica del sistema se describe mediante un conjunto de ecuaciones diferenciales lineales y el costo se describe mediante una función cuadrática se denomina problema LQ. Uno de los principales resultados de la teoría es que la solución la proporciona el regulador lineal cuadrático ( LQR ), un controlador de retroalimentación cuyas ecuaciones se dan a continuación. El LQR es una parte importante de la solución al problema LQG (lineal-cuadrático-gaussiano) . Al igual que el problema de LQR en sí, el problema de LQG es uno de los problemas más fundamentales en la teoría de control .
Descripción general
La configuración de un controlador (regulador) que gobierna una máquina o un proceso (como un avión o un reactor químico) se encuentra utilizando un algoritmo matemático que minimiza una función de costo con factores de ponderación proporcionados por un humano (ingeniero). La función de costo a menudo se define como una suma de las desviaciones de las mediciones clave, como la altitud o la temperatura del proceso, de sus valores deseados. Por tanto, el algoritmo encuentra los ajustes del controlador que minimizan las desviaciones no deseadas. La magnitud de la acción de control en sí misma también puede incluirse en la función de costos.
El algoritmo LQR reduce la cantidad de trabajo realizado por el ingeniero de sistemas de control para optimizar el controlador. Sin embargo, el ingeniero aún necesita especificar los parámetros de la función de costo y comparar los resultados con los objetivos de diseño especificados. A menudo, esto significa que la construcción del controlador será un proceso iterativo en el que el ingeniero juzga los controladores "óptimos" producidos a través de la simulación y luego ajusta los parámetros para producir un controlador más consistente con los objetivos del diseño.
El algoritmo LQR es esencialmente una forma automatizada de encontrar un controlador de retroalimentación de estado apropiado . Como tal, no es raro que los ingenieros de control prefieran métodos alternativos, como la retroalimentación de estado completo , también conocida como colocación de polos, en la que existe una relación más clara entre los parámetros del controlador y el comportamiento del controlador. La dificultad para encontrar los factores de ponderación correctos limita la aplicación de la síntesis de controlador basada en LQR.
LQR de horizonte finito, tiempo continuo
Para un sistema lineal de tiempo continuo, definido en , descrito por:
con una función de costo cuadrática definida como:
la ley de control de retroalimentación que minimiza el valor del costo es:
dónde es dado por:
y se encuentra resolviendo la ecuación diferencial de Riccati en tiempo continuo :
con la condición de contorno:
Las condiciones de primer orden para J min son:
1) Ecuación de estado
3) Ecuación estacionaria
4) Condiciones de contorno
y
LQR de horizonte infinito y tiempo continuo
Para un sistema lineal de tiempo continuo descrito por:
con una función de costo definida como:
la ley de control de retroalimentación que minimiza el valor del costo es:
dónde es dado por:
y se encuentra resolviendo la ecuación algebraica de Riccati en tiempo continuo :
Esto también se puede escribir como:
con
LQR de horizonte finito, tiempo discreto
Para un sistema lineal de tiempo discreto descrito por: [1]
con un índice de rendimiento definido como:
la secuencia de control óptima que minimiza el índice de rendimiento viene dada por:
dónde:
y se encuentra iterativamente hacia atrás en el tiempo por la ecuación dinámica de Riccati:
de condición terminal . Tenga en cuenta que no está definido, ya que es conducido a su estado final por .
LQR de horizonte infinito y tiempo discreto
Para un sistema lineal de tiempo discreto descrito por:
con un índice de rendimiento definido como:
la secuencia de control óptima que minimiza el índice de rendimiento viene dada por:
dónde:
y es la única solución positiva definida para la ecuación de Riccati algebraica de tiempo discreto (DARE):
- .
Esto también se puede escribir como:
con:
- .
Tenga en cuenta que una forma de resolver la ecuación algebraica de Riccati es iterando la ecuación dinámica de Riccati del caso del horizonte finito hasta que converja.
Referencias
- Kwakernaak, Huibert y Sivan, Raphael (1972). Sistemas de control lineales óptimos. Primera edición . Wiley-Interscience. ISBN 0-471-51110-2.
- Sontag, Eduardo (1998). Teoría del control matemático: sistemas deterministas de dimensión finita. Segunda edición . Saltador. ISBN 0-387-98489-5.