El principio máximo de Pontryagin se utiliza en la teoría de control óptimo para encontrar el mejor control posible para llevar un sistema dinámico de un estado a otro, especialmente en presencia de restricciones para el estado o los controles de entrada. [1] Establece que es necesario para cualquier control óptimo junto con la trayectoria de estado óptimo para resolver el llamado sistema hamiltoniano, que es un problema de valor límite de dos puntos , más una condición máxima del control hamiltoniano . [a] Estas condiciones necesarias se vuelven suficientes bajo ciertas condiciones de convexidad en las funciones objetivo y de restricción. [2] [3]
El principio máximo fue formulado en 1956 por el matemático ruso Lev Pontryagin y sus estudiantes, [4] [5] y su aplicación inicial fue la maximización de la velocidad terminal de un cohete. [6] El resultado se obtuvo utilizando ideas del cálculo clásico de variaciones . [7] Después de una ligera perturbación del control óptimo, se considera el término de primer orden de una expansión de Taylor con respecto a la perturbación; enviar la perturbación a cero conduce a una desigualdad variacional de la que se sigue el principio de máximo. [8]
Considerado ampliamente como un hito en la teoría del control óptimo, [1] la importancia del principio máximo radica en el hecho de que maximizar el hamiltoniano es mucho más fácil que el problema original de control de dimensión infinita; en lugar de maximizar en un espacio funcional , el problema se convierte en una optimización puntual . [9] Una lógica similar conduce al principio de optimización de Bellman , un enfoque relacionado con los problemas de control óptimo que establece que la trayectoria óptima sigue siendo óptima en puntos intermedios en el tiempo. [10] La ecuación de Hamilton-Jacobi-Bellman resultante proporciona una condición necesaria y suficiente para un óptimo, y admite una extensión directa a los problemas de control óptimos estocásticos, mientras que el principio de máximo no lo hace. [8] Sin embargo, en contraste con la ecuación de Hamilton-Jacobi-Bellman, que debe mantenerse en todo el espacio de estados para ser válida, el principio máximo de Pontryagin es potencialmente más eficiente computacionalmente en el sentido de que las condiciones que especifica solo necesitan mantenerse sobre trayectoria. [1]
Notación
En lo que sigue usaremos la siguiente notación.
Declaración formal de las condiciones necesarias para la minimización del problema.
Aquí se muestran las condiciones necesarias para la minimización de un funcional. Llevarser el estado del sistema dinámico con entrada, tal que
dónde es el conjunto de controles admisibles y es el tiempo terminal (es decir, final) del sistema. El control debe ser elegido para todos para minimizar el objetivo funcional que está definido por la aplicación y se puede abstraer como
Las limitaciones en la dinámica del sistema se pueden unir al Lagrangiano mediante la introducción de un vector multiplicador de Lagrange variable en el tiempo, cuyos elementos se denominan costas del sistema. Esto motiva la construcción del hamiltoniano definido para todos por:
dónde es la transposición de .
El principio mínimo de Pontryagin establece que la trayectoria del estado óptimo , control óptimo , y el vector multiplicador de Lagrange correspondiente debe minimizar el hamiltoniano así que eso
para todo el tiempo y para todas las entradas de control permitidas . También debe ser el caso que
Además, las ecuaciones de costate
debe estar satisfecho. Si el estado final no es fijo (es decir, su variación diferencial no es cero), también debe ser que las costas terminales sean tales que
Estas cuatro condiciones en (1) - (4) son las condiciones necesarias para un control óptimo. Tenga en cuenta que (4) solo se aplica cuandoestá libre. Si es fijo, entonces esta condición no es necesaria para un óptimo.
Ver también
- Multiplicadores de Lagrange en espacios de Banach , método lagrangiano en cálculo de variaciones
Notas
- ^ Si el valor extremo es máximo o mínimo depende de la convención de signos utilizada para definir el hamiltoniano. La convención histórica conduce a un principio máximo, por lo tanto máximo. En los últimos años, se lo conoce más comúnmente como simplemente el Principio de Pontryagin, sin el uso de los adjetivos, máximo o mínimo.
Referencias
- ↑ a b c Ross, Isaac (2015). Una introducción al principio de Pontryagin en control óptimo . San Francisco: Collegiate Publishers. ISBN 978-0-9843571-0-9. OCLC 625106088 .
- ^ Mangasarian, OL (1966). "Condiciones suficientes para el control óptimo de sistemas no lineales". Revista SIAM de Control . 4 (1): 139-152. doi : 10.1137 / 0304013 .
- ^ Kamien, Morton I .; Schwartz, Nancy L. (1971). "Condiciones suficientes en la teoría del control óptimo". Revista de teoría económica . 3 (2): 207–214. doi : 10.1016 / 0022-0531 (71) 90018-4 .
- ^ Boltyanski, V .; Martini, H .; Soltan, V. (1998). "El Principio Máximo - ¿Cómo llegó a ser?" . Métodos geométricos y problemas de optimización . Nueva York: Springer. págs. 204–227. ISBN 0-7923-5454-0.
- ^ Gamkrelidze, RV (1999). "Descubrimiento del Principio Máximo". Revista de Sistemas Dinámicos y de Control . 5 (4): 437–451. doi : 10.1023 / A: 1021783020548 . S2CID 122690986 . Reimpreso en Bolibruch, AA ; et al., eds. (2006). Acontecimientos matemáticos del siglo XX . Berlín: Springer. págs. 85–99. ISBN 3-540-23235-4.
- ^ Para las primeras obras publicadas, consulte las referencias en Fuller, AT (1963). "Bibliografía del principio máximo de Pontryagin". J. Electrónica y control . 15 (5): 513–517. doi : 10.1080 / 00207216308937602 .
- ^ McShane, EJ (1989). "El cálculo de variaciones desde el principio a través de la teoría del control óptimo". SIAM J. Control Optim . 27 (5): 916–939. doi : 10.1137 / 0327049 .
- ^ a b Yong, J .; Zhou, XY (1999). "Principio máximo y sistemas estocásticos hamiltonianos". Controles estocásticos: sistemas hamiltonianos y ecuaciones HJB . Nueva York: Springer. pp. 101 -156. ISBN 0-387-98723-1.
- ^ Sastry, Shankar (29 de marzo de 2009). "Lecture Notes 8. Control óptimo y juegos dinámicos" (PDF) .
- ^ Zhou, XY (1990). "Principio máximo, programación dinámica y su conexión en el control determinista". Revista de teoría y aplicaciones de la optimización . 65 (2): 363–373. doi : 10.1007 / BF01102352 . S2CID 122333807 .
Otras lecturas
- Geering, HP (2007). Control óptimo con aplicaciones de ingeniería . Saltador. ISBN 978-3-540-69437-3.
- Kirk, DE (1970). Teoría del control óptimo: una introducción . Prentice Hall. ISBN 0-486-43484-2.
- Lee, EB; Markus, L. (1967). Fundamentos de la teoría del control óptimo . Nueva York: Wiley.
- Seierstad, Atle; Sydsæter, Knut (1987). Teoría de control óptimo con aplicaciones económicas . Amsterdam: Holanda Septentrional. ISBN 0-444-87923-4.
enlaces externos
- "Principio máximo de Pontryagin" , Enciclopedia de Matemáticas , EMS Press , 2001 [1994]