En optimización matemática , el método de los multiplicadores de Lagrange es una estrategia para encontrar los máximos y mínimos locales de una función sujeta a restricciones de igualdad (es decir, sujeto a la condición de que una o más ecuaciones deben ser satisfechas exactamente por los valores elegidos de las variables ). [1] Lleva el nombre del matemático Joseph-Louis Lagrange . La idea básica es convertir un problema restringido en una forma tal que la prueba de la derivadade un problema sin restricciones todavía se puede aplicar. La relación entre el gradiente de la función y los gradientes de las restricciones conduce de forma bastante natural a una reformulación del problema original, conocido como función lagrangiana . [2]
El método se puede resumir de la siguiente manera: para encontrar el máximo o mínimo de una función sujeto a la restricción de igualdad , forman la función de Lagrange
y encontrar los puntos estacionarios de considerado en función de y el multiplicador de Lagrange . [3] La solución correspondiente a la optimización restringida original es siempre un punto silla de la función lagrangiana, [4] [5] que se puede identificar entre los puntos estacionarios a partir de la definición de la matriz de Hesse bordeada . [6]
La gran ventaja de este método es que permite resolver la optimización sin parametrización explícita en términos de las restricciones. Como resultado, el método de los multiplicadores de Lagrange se usa ampliamente para resolver desafiantes problemas de optimización restringida. Además, el método de los multiplicadores de Lagrange se generaliza mediante las condiciones de Karush-Kuhn-Tucker , que también pueden tener en cuenta las restricciones de desigualdad de la forma.
Declaración
Lo siguiente se conoce como el teorema del multiplicador de Lagrange. [7]
Dejar ser la función objetivo, ser la función de restricciones, ambas pertenecientes a (es decir, tener primeras derivadas continuas). Dejar ser una solución óptima para el siguiente problema de optimización tal que la clasificación :
(Aquí denota la matriz de derivadas parciales, .)
Entonces existen multiplicadores de Lagrange únicos tal que .
El teorema del multiplicador de Lagrange establece que en cualquier máximo local (o mínimo) de la función evaluada bajo las restricciones de igualdad, si se aplica la calificación de restricción (explicado a continuación), entonces el gradiente de la función (en ese punto) se puede expresar como una combinación lineal de los gradientes de las restricciones (en ese punto), con los multiplicadores de Lagrange actuando como coeficientes . [8] Esto equivale a decir que cualquier dirección perpendicular a todos los gradientes de las restricciones también es perpendicular al gradiente de la función. O aún, diciendo que la derivada direccional de la función es 0 en todas las direcciones posibles.
Restricción única
Para el caso de solo una restricción y solo dos variables de elección (como se ejemplifica en la Figura 1), considere el problema de optimización
(A veces, una constante aditiva se muestra por separado en lugar de incluirse en , en cuyo caso la restricción se escribe , como en la Figura 1.) Suponemos que tanto y tienen primeras derivadas parciales continuas . Introducimos una nueva variable () llamado multiplicador de Lagrange (o multiplicador indeterminado de Lagrange ) y estudiar la función de Lagrange (o expresión lagrangiana o lagrangiana ) definida por
donde el el término se puede sumar o restar. Si es un máximo de para el problema restringido original y , entonces existe tal que) es un punto estacionario para la función de Lagrange (los puntos estacionarios son aquellos puntos donde las primeras derivadas parciales deson cero). La suposiciónse llama calificación de restricción. Sin embargo, no todos los puntos estacionarios dan una solución del problema original, ya que el método de los multiplicadores de Lagrange produce solo una condición necesaria para la optimización en problemas restringidos. [9] [10] [11] [12] [13] También existen condiciones suficientes para un mínimo o un máximo , pero si una solución candidata en particular satisface las condiciones suficientes, solo se garantiza que esa solución es la mejor a nivel local , que es decir, es mejor que cualquier punto cercano permitido. El óptimo global se puede encontrar comparando los valores de la función objetivo original en los puntos que satisfacen las condiciones necesarias y suficientes localmente.
El método de los multiplicadores de Lagrange se basa en la intuición de que, en un máximo, f ( x , y ) no puede estar aumentando en la dirección de cualquier punto vecino que también tenga g = 0 . Si lo fuera, podríamos caminar a lo largo de g = 0 para subir más alto, lo que significa que el punto de partida no era realmente el máximo. Visto de esta manera, es un análogo exacto de probar si la derivada de una función no restringida es 0, es decir, estamos verificando que la derivada direccional es 0 en cualquier dirección relevante (viable).
Podemos visualizar los contornos de f dados por f ( x , y ) = d para varios valores de d , y el contorno de g dado por g ( x , y ) = c .
Suponga que caminamos a lo largo de la línea de contorno con g = c . Nos interesa encontrar puntos donde f casi no cambia a medida que caminamos, ya que estos puntos pueden ser máximos.
Esto puede suceder de dos formas:
- Podríamos tocar una línea de contorno de f , ya que, por definición, f no cambia a medida que caminamos a lo largo de sus líneas de contorno. Esto significaría que las tangentes a las curvas de nivel de f y g son paralelos aquí.
- Hemos alcanzado una parte de "nivel" de f , lo que significa que f no cambia en ninguna dirección.
Para comprobar la primera posibilidad (nos toque una línea de contorno de f ), el aviso que desde el gradiente de una función es perpendicular a las líneas de contorno, las tangentes a las curvas de nivel de f y g son paralelas si y sólo si los gradientes de f y g son paralelas. Por lo tanto, queremos puntos ( x , y ) donde g ( x , y ) = c y
para algunos
dónde
son los gradientes respectivos. El constantees necesario porque aunque los dos vectores de gradiente son paralelos, las magnitudes de los vectores de gradiente generalmente no son iguales. Esta constante se llama multiplicador de Lagrange. (En algunas convenciones está precedido por un signo menos).
Tenga en cuenta que este método también resuelve la segunda posibilidad, que f es nivel: si f es nivel, entonces su gradiente es cero, y la configuración es una solución independientemente de .
Para incorporar estas condiciones en una ecuación, introducimos una función auxiliar
y resolver
Tenga en cuenta que esto equivale a resolver tres ecuaciones en tres incógnitas. Este es el método de los multiplicadores de Lagrange.
Tenga en cuenta que implica , como la derivada parcial de con respecto a es , que claramente es cero si y solo si .
Para resumir
El método se generaliza fácilmente a funciones en variables
lo que equivale a resolver n + 1 ecuaciones en n + 1 incógnitas.
Los extremos restringidos de f son puntos críticos del Lagrangiano, pero no son necesariamente extremos locales de(consulte el Ejemplo 2 a continuación).
Se puede reformular el lagrangiano como hamiltoniano , en cuyo caso las soluciones son mínimos locales para el hamiltoniano. Esto se hace en la teoría del control óptimo , en la forma del principio mínimo de Pontryagin .
El hecho de que las soluciones del Lagrangiano no sean necesariamente extremas también plantea dificultades para la optimización numérica. Esto se puede abordar calculando la magnitud del gradiente, ya que los ceros de la magnitud son necesariamente mínimos locales, como se ilustra en el ejemplo de optimización numérica .
Varias restricciones
El método de los multiplicadores de Lagrange se puede ampliar para resolver problemas con múltiples restricciones utilizando un argumento similar. Considere un paraboloide sujeto a dos restricciones de línea que se cruzan en un solo punto. Como única solución factible, este punto es obviamente un extremo restringido. Sin embargo, el conjunto de niveles declaramente no es paralelo a ninguna de las restricciones en el punto de intersección (ver Figura 3); en cambio, es una combinación lineal de los gradientes de las dos restricciones. En el caso de restricciones múltiples, eso será lo que buscamos en general: el método de Lagrange busca puntos no en los que el gradiente de es necesariamente un múltiplo del gradiente de cualquier restricción única, pero en el que es una combinación lineal de todos los gradientes de las restricciones.
Concretamente, supongamos que tenemos restricciones y están caminando a lo largo del conjunto de puntos que satisfacen . Cada punto en el contorno de una función de restricción dada tiene un espacio de direcciones permisibles: el espacio de vectores perpendicular a . El conjunto de direcciones que están permitidas por todas las restricciones es, por tanto, el espacio de direcciones perpendiculares a todos los gradientes de las restricciones. Denote este espacio de movimientos permitidos por y denotar el intervalo de los gradientes de las restricciones por . Luego, el espacio de vectores perpendiculares a cada elemento de .
Seguimos interesados en encontrar puntos donde no cambia mientras caminamos, ya que estos puntos pueden ser extremos (restringidos). Por tanto buscamos tal que cualquier dirección de movimiento permitida lejos de es perpendicular a (de lo contrario podríamos aumentar moviéndose a lo largo de esa dirección permitida). En otras palabras,. Entonces hay escalares tal que
Estos escalares son los multiplicadores de Lagrange. Ahora tenemos de ellos, uno para cada restricción.
Como antes, presentamos una función auxiliar
y resolver
lo que equivale a resolver ecuaciones en incógnitas.
El supuesto de calificación de restricción cuando hay múltiples restricciones es que los gradientes de restricción en el punto relevante son linealmente independientes.
Formulación moderna mediante colectores diferenciables
El problema de encontrar los máximos y mínimos locales sujetos a restricciones se puede generalizar para encontrar máximos y mínimos locales en una variedad diferenciable . [14] En lo que sigue, no es necesario queser un espacio euclidiano, o incluso una variedad riemanniana. Todas las apariencias del degradado(que depende de la elección de la métrica de Riemann) se puede reemplazar con la derivada exterior .
Restricción única
Dejar ser una variedad suave de dimensiones. Supongamos que deseamos encontrar los puntos estacionarios de una función suave cuando se restringe al sub-colector definido por dónde es una función suave para la que 0 es un valor regular .
Dejar y ser los derivados exteriores . Estacionariedad de la restricción a medio De manera equivalente, el kernel contiene En otras palabras, y son vectores proporcionales. Para ello es necesario y suficiente que el siguiente sistema de ecuaciones tiene:
dónde denota el producto exterior . Los puntos estacionarios son las soluciones del sistema de ecuaciones anterior más la restricción Tenga en cuenta que el Las ecuaciones no son independientes, ya que el lado izquierdo de la ecuación pertenece a la subvariedad de compuesto por elementos descomponibles .
En esta formulación, no es necesario encontrar explícitamente el multiplicador de Lagrange, un número tal que
Varias restricciones
Dejar y Sea como en la sección anterior con respecto al caso de una sola restricción. En lugar de la función descrito allí, ahora considere una función suave con funciones de componentes para cual es un valor regular . Dejar ser el submúltiplo de definido por
es un punto estacionario de si y solo si contiene . Por conveniencia, deje y dónde denota el mapa de la tangente o jacobiano El subespacio tiene una dimensión menor que la de , a saber y pertenece a si y solo si pertenece a la imagen de Computacionalmente hablando, la condición es que pertenece al espacio de filas de la matriz de o equivalentemente el espacio columna de la matriz de (la transposición). Si denota el producto exterior de las columnas de la matriz de la condición estacionaria para a se convierte en
Una vez más, en esta formulación no es necesario encontrar explícitamente los multiplicadores de Lagrange, los números tal que
Interpretación de los multiplicadores de Lagrange
A menudo, los multiplicadores de Lagrange tienen una interpretación como cierta cantidad de interés. Por ejemplo, parametrizando la línea de contorno de la restricción, es decir, si la expresión lagrangiana es
luego
Entonces, λ k es la tasa de cambio de la cantidad que se optimiza en función del parámetro de restricción. Como ejemplos, en la mecánica de Lagrange las ecuaciones de movimiento se obtienen al encontrar puntos estacionarios de la acción , la integral de tiempo de la diferencia entre energía cinética y potencial. Por lo tanto, la fuerza sobre una partícula debido a un potencial escalar, F = −∇ V , se puede interpretar como un multiplicador de Lagrange que determina el cambio en la acción (transferencia de potencial a energía cinética) siguiendo una variación en la trayectoria restringida de la partícula. En la teoría de control, esto se formula en cambio como ecuaciones de costada .
Además, según el teorema de la envolvente, el valor óptimo de un multiplicador de Lagrange tiene una interpretación como el efecto marginal de la constante de restricción correspondiente sobre el valor óptimo alcanzable de la función objetivo original: si denotamos valores en el óptimo con un asterisco, entonces puede ser mostrado que
Por ejemplo, en economía, el beneficio óptimo para un jugador se calcula sujeto a un espacio restringido de acciones, donde un multiplicador de Lagrange es el cambio en el valor óptimo de la función objetivo (beneficio) debido a la relajación de una restricción dada (por ejemplo, a través de un cambio en los ingresos); en tal contexto, λ k * es el costo marginal de la restricción y se denomina precio sombra . [15]
Condiciones suficientes
Las condiciones suficientes para un máximo o mínimo local restringido se pueden establecer en términos de una secuencia de principales menores (determinantes de submatrices justificadas en la parte superior izquierda) de la matriz hessiana bordeada de segundas derivadas de la expresión lagrangiana. [6] [16]
Ejemplos de
Ejemplo 1
Ejemplo 1a
Supongamos que deseamos maximizar sujeto a la restricción . El conjunto factible es el círculo unitario, y los conjuntos de niveles de f son líneas diagonales (con pendiente -1), por lo que podemos ver gráficamente que el máximo ocurre en, y que el mínimo ocurre en .
Para el método de los multiplicadores de Lagrange, la restricción es
por eso
Ahora podemos calcular el gradiente:
y por lo tanto:
Observe que la última ecuación es la restricción original.
Las dos primeras ecuaciones dan como resultado
Sustituyendo en la última ecuación tenemos:
entonces
lo que implica que los puntos estacionarios de están
Evaluar la función objetivo f en estos puntos produce
Por lo tanto, el máximo restringido es y el mínimo restringido es .
Ejemplo 1b
Ahora modificamos la función objetivo del Ejemplo 1a para minimizar en vez de otra vez a lo largo del círculo . Ahora los conjuntos de niveles de siguen siendo líneas de pendiente -1, y los puntos en el círculo tangentes a estos conjuntos de niveles son nuevamente y . Estos puntos de tangencia son máximos de .
Por otro lado, los mínimos ocurren en el nivel establecido para = 0 (ya que por su construcción no puede tomar valores negativos), en y , donde las curvas de nivel de no son tangentes a la restricción. La condición queidentifica correctamente los cuatro puntos como extremos; los mínimos se caracterizan en particular por
Ejemplo 2
Este ejemplo trata con cálculos más arduos, pero sigue siendo un problema de restricción única.
Supongamos que uno quiere encontrar los valores máximos de
con la condición de que el - y -Las coordenadas se encuentran en el círculo alrededor del origen con radio . Es decir, sujeto a la restricción
Como solo hay una restricción, hay un solo multiplicador, digamos .
La restricción es idénticamente cero en el círculo de radio . Cualquier múltiplo de se puede agregar a partida sin cambios en la región de interés (en el círculo donde se satisface nuestra restricción original).
Al aplicar el método del multiplicador de Lagrange ordinario se obtiene
a partir del cual se puede calcular el gradiente:
Y por lo tanto:
(iii) es solo la restricción original. (i) implica o . Si luego por (iii) y consecuentemente de (ii). Si, sustituyendo esto en (ii) produce . Sustituyendo esto en (iii) y resolviendo para da . Por lo tanto, hay seis puntos críticos de:
Al evaluar el objetivo en estos puntos, se encuentra que
Por lo tanto, la función objetivo alcanza el máximo global (sujeto a las restricciones) eny el mínimo global en El punto es un mínimo local de y es un máximo local de, como puede determinarse considerando la matriz de Hesse de.
Tenga en cuenta que mientras es un punto crítico de , no es un extremo local de Tenemos
Dado cualquier barrio de , se puede elegir un pequeño positivo y un pequeño de cualquier signo para obtener valores tanto mayores como menores que . Esto también se puede ver en la matriz de Hesse deevaluado en este punto (o de hecho en cualquiera de los puntos críticos) que es una matriz indefinida . Cada uno de los puntos críticos dees un punto de silla de. [4]
Ejemplo 3: Entropía
Suponga que deseamos encontrar la distribución de probabilidad discreta en los puntoscon máxima entropía de información . Esto es lo mismo que decir que deseamos encontrar la distribución de probabilidad menos estructurada en los puntos. En otras palabras, deseamos maximizar la ecuación de entropía de Shannon :
Para que esta sea una distribución de probabilidad, la suma de las probabilidades en cada punto debe ser igual a 1, por lo que nuestra restricción es:
Usamos multiplicadores de Lagrange para encontrar el punto de máxima entropía, , en todas las distribuciones de probabilidad discretas en . Requerimos que:
lo que da un sistema de n ecuaciones,, tal que:
Realizando la diferenciación de estas n ecuaciones, obtenemos
Esto muestra que todos son iguales (porque dependen solo de λ ). Usando la restricción
encontramos
Por tanto, la distribución uniforme es la distribución con mayor entropía, entre distribuciones en n puntos.
Ejemplo 4: optimización numérica
Los puntos críticos de los lagrangianos ocurren en los puntos de silla , en lugar de en los máximos (o mínimos) locales. [4] [17] Desafortunadamente, muchas técnicas de optimización numérica, como la escalada de colinas , el descenso de gradientes , algunos de los métodos cuasi-Newton , entre otros, están diseñadas para encontrar máximos (o mínimos) locales y no puntos de silla. Por esta razón, uno debe modificar la formulación para asegurarse de que es un problema de minimización (por ejemplo, al extremar el cuadrado del gradiente del Lagrangiano como se muestra a continuación), o bien utilizar una técnica de optimización que encuentre puntos estacionarios (como el método de Newton sin una búsqueda de línea de búsqueda de extremos ) y no necesariamente extremos.
Como ejemplo simple, considere el problema de encontrar el valor de x que minimiza, restringido de tal manera que . (Este problema es algo patológico porque solo hay dos valores que satisfacen esta restricción, pero es útil con fines ilustrativos porque la función no restringida correspondiente se puede visualizar en tres dimensiones).
Usando multiplicadores de Lagrange, este problema se puede convertir en un problema de optimización sin restricciones:
Los dos puntos críticos se producen en puntos de silla de montar, donde x = 1 y x = -1 .
Para resolver este problema con una técnica de optimización numérica, primero debemos transformar este problema de manera que los puntos críticos ocurran en mínimos locales. Esto se hace calculando la magnitud del gradiente del problema de optimización sin restricciones.
Primero, calculamos la derivada parcial del problema sin restricciones con respecto a cada variable:
Si la función objetivo no es fácilmente diferenciable, el diferencial con respecto a cada variable se puede aproximar como
dónde es un valor pequeño.
A continuación, calculamos la magnitud del gradiente, que es la raíz cuadrada de la suma de los cuadrados de las derivadas parciales:
(Dado que la magnitud es siempre no negativa, optimizar sobre la magnitud al cuadrado es equivalente a optimizar sobre la magnitud. Por lo tanto, la "raíz cuadrada" puede omitirse de estas ecuaciones sin que se espere una diferencia en los resultados de la optimización).
Los puntos críticos de h ocurren en x = 1 y x = −1 , al igual que en. A diferencia de los puntos críticos enSin embargo, los puntos críticos en h ocurren en mínimos locales, por lo que se pueden usar técnicas de optimización numérica para encontrarlos.
Aplicaciones
Teoría de control
En la teoría del control óptimo , los multiplicadores de Lagrange se interpretan como variables de costa , y los multiplicadores de Lagrange se reformulan como la minimización del hamiltoniano , en el principio mínimo de Pontryagin .
Programación no lineal
El método del multiplicador de Lagrange tiene varias generalizaciones. En la programación no lineal hay varias reglas de multiplicador, por ejemplo, la regla del multiplicador Carathéodory-John y la regla del multiplicador convexo, para las restricciones de desigualdad. [18]
Sistemas de poder
Los métodos basados en multiplicadores de Lagrange tienen aplicaciones en los sistemas de energía , por ejemplo, en la colocación de recursos de energía distribuida (DER) y el deslastre de carga. [19]
Ver también
- Ajuste de observaciones
- Dualidad
- Índice de Gittins
- Condiciones de Karush-Kuhn-Tucker : generalización del método de los multiplicadores de Lagrange
- Multiplicadores de Lagrange en espacios de Banach : otra generalización del método de los multiplicadores de Lagrange
- Prueba del multiplicador de Lagrange en la estimación de máxima verosimilitud
- Relajación lagrangiana
Referencias
- ^ Hoffmann, Laurence D .; Bradley, Gerald L. (2004). Cálculo para los negocios, la economía y las ciencias sociales y de la vida (8ª ed.). págs. 575–588. ISBN 0-07-242432-X.
- ^ Beavis, Brian; Dobbs, Ian M. (1990). "Optimización estática" . Teoría de la optimización y la estabilidad para el análisis económico . Nueva York: Cambridge University Press. pag. 40. ISBN 0-521-33605-8.
- ^ Protter, Murray H .; Morrey, Charles B., Jr. (1985). Cálculo intermedio (2ª ed.). Nueva York: Springer. pag. 267. ISBN 0-387-96058-9.
- ^ a b c Walsh, GR (1975). "Propiedad del punto de silla de montar de la función lagrangiana" . Métodos de optimización . Nueva York: John Wiley & Sons. págs. 39–44. ISBN 0-471-91922-5.
- ^ Kalman, Dan (2009). "Nivelación con Lagrange: una vista alternativa de optimización restringida". Revista de Matemáticas . 82 (3): 186-196. doi : 10.1080 / 0025570X.2009.11953617 . JSTOR 27765899 . S2CID 121070192 .
- ^ a b Silberberg, Eugene; Suen, Wing (2001). La estructura de la economía: un análisis matemático (tercera ed.). Boston: Irwin McGraw-Hill. págs. 134-141. ISBN 0-07-234352-4.
- ^ Fuente, Ángel de la (2000). Métodos y modelos matemáticos para economistas . Cambridge: Cambridge University Press. pag. 285 . doi : 10.1017 / CBO9780511810756 . ISBN 9780521585125.
- ^ Luenberger, David G. (1969). Optimización por métodos de espacio vectorial . Nueva York: John Wiley & Sons. págs. 188–189.
- ^ Bertsekas, Dimitri P. (1999). Programación no lineal (Segunda ed.). Cambridge, MA .: Athena Scientific. ISBN 1-886529-00-0.
- ^ Vapnyarskii, IB (2001) [1994], "Multiplicadores de Lagrange" , Enciclopedia de Matemáticas , EMS Press.
- ^ Lasdon, Leon S. (2002). Teoría de la optimización para grandes sistemas (Reimpresión de la edición de Macmillan de 1970). Mineola, Nueva York: Dover. ISBN 0-486-41999-1. Señor 1888251 .
- ^ Hiriart-Urruty, Jean-Baptiste; Lemaréchal, Claude (1993). "XII Dualidad abstracta para practicantes". Algoritmos de análisis y minimización convexos, Volumen II: Teoría avanzada y métodos de agrupación . Grundlehren der Mathematischen Wissenschaften [Principios fundamentales de las ciencias matemáticas]. 306 . Berlín: Springer-Verlag. págs. 136–193 (y comentarios bibliográficos sobre las págs. 334–335). ISBN 3-540-56852-2. Señor 1295240 .
- ^ Lemaréchal, Claude (2001). "Relajación lagrangiana". En Jünger, Michael; Naddef, Denis (eds.). Optimización combinatoria computacional: artículos de la Escuela de Primavera celebrada en Schloß Dagstuhl, del 15 al 19 de mayo de 2000 . Apuntes de conferencias en Ciencias de la Computación. 2241 . Berlín: Springer-Verlag. págs. 112-156. doi : 10.1007 / 3-540-45586-8_4 . ISBN 3-540-42877-1. Señor 1900016 .
- ^ Lafontaine, Jacques (2015). Introducción a los colectores diferenciales . Saltador. pag. 70. ISBN 9783319207353.
- ^ Dixit, Avinash K. (1990). "Precios sombra" . Optimización en teoría económica (2ª ed.). Nueva York: Oxford University Press. págs. 40–54. ISBN 0-19-877210-6.
- ^ Chiang, Alpha C. (1984). Métodos Fundamentales de Economía Matemática (Tercera ed.). McGraw-Hill. pag. 386 . ISBN 0-07-010813-7.
- ^ Heath, Michael T. (2005). Computación científica: una encuesta introductoria . McGraw-Hill. pag. 203. ISBN 978-0-07-124489-3.
- ^ Pourciau, Bruce H. (1980). "Reglas modernas del multiplicador" . American Mathematical Monthly . 87 (6): 433–452. doi : 10.2307 / 2320250 . JSTOR 2320250 .
- ^ Gautam, Mukesh; Bhusal, Narayan; Benidris, Mohammed (2020). "Un enfoque basado en la sensibilidad para el desprendimiento de carga de subfrecuencia adaptable". 2020 IEEE Texas Power and Energy Conference (TPEC) . IEEE. págs. 1-5. doi : 10.1109 / TPEC48276.2020.9042569 .
Otras lecturas
- Beavis, Brian; Dobbs, Ian M. (1990). "Optimización estática" . Teoría de la optimización y la estabilidad para el análisis económico . Nueva York: Cambridge University Press. págs. 32–72. ISBN 0-521-33605-8.
- Bertsekas, Dimitri P. (1982). Optimización restringida y métodos de multiplicador de Lagrange . Nueva York: Academic Press. ISBN 0-12-093480-9.
- Beveridge, Gordon SG; Schechter, Robert S. (1970). "Multiplicadores lagrangianos" . Optimización: teoría y práctica . Nueva York: McGraw-Hill. págs. 244-259. ISBN 0-07-005128-3.
- Binger, Brian R .; Hoffman, Elizabeth (1998). "Optimización con restricciones". Microeconomía con cálculo (2ª ed.). Lectura: Addison-Wesley. págs. 56–91. ISBN 0-321-01225-9.
- Carter, Michael (2001). "Restricciones de igualdad" . Fundamentos de la Economía Matemática . Cambridge: MIT Press. págs. 516–549. ISBN 0-262-53192-5.
- Hestenes, Magnus R. (1966). "Mínimos de funciones sujetas a restricciones de igualdad". Cálculo de variaciones y teoría del control óptimo . Nueva York: Wiley. págs. 29–34.
- Wylie, C. Ray; Barrett, Louis C. (1995). "El extremo de integrales bajo restricción". Matemáticas de Ingeniería Avanzada (Sexta ed.). Nueva York: McGraw-Hill. págs. 1096-1103. ISBN 0-07-072206-4.
enlaces externos
Exposición
- Blog de kipid - Método de multiplicadores de Lagrange
- Introducción conceptual (más una breve discusión de los multiplicadores de Lagrange en el cálculo de variaciones como se usa en física)
- Multiplicadores de Lagrange para formas cuadráticas con restricciones lineales por Kenneth H. Carpenter
Para texto adicional y subprogramas interactivos
- Explicación simple con un ejemplo de gobiernos que utilizan impuestos como multiplicadores de Lagrange
- Multiplicadores de Lagrange sin cicatrices permanentes Explicación con enfoque en la intuición de Dan Klein
- Representación geométrica del método de multiplicadores de Lagrange Proporciona una visión convincente en 2 dimensiones de que en un punto de minimización, la dirección del descenso más pronunciado debe ser perpendicular a la tangente de la curva de restricción en ese punto. [Necesita Internet Explorer / Firefox / Safari] Demostración de Mathematica por Shashi Sathyanarayana
- Applet
- Video de la conferencia del MIT OpenCourseware sobre los multiplicadores de Lagrange del curso de cálculo multivariable
- Diapositivas que acompañan al texto de optimización no lineal de Bertsekas , con detalles sobre los multiplicadores de Lagrange (clases 11 y 12)
- Idea geométrica detrás de los multiplicadores de Lagrange
- Ejemplo de MATLAB de uso de multiplicadores de Lagrange en optimización