El cálculo de variaciones es un campo de análisis matemático que utiliza variaciones, que son pequeños cambios en funciones y funcionales , para encontrar máximos y mínimos de funcionales: mapeos de un conjunto de funciones a los números reales . [a] Los funcionales a menudo se expresan como integrales definidas que involucran funciones y sus derivadas . Las funciones que maximizan o minimizan las funciones se pueden encontrar utilizando la ecuación de Euler-Lagrange del cálculo de variaciones.
Un ejemplo simple de tal problema es encontrar la curva de menor longitud que conecta dos puntos. Si no hay restricciones, la solución es una línea recta entre los puntos. Sin embargo, si la curva está restringida a estar sobre una superficie en el espacio, entonces la solución es menos obvia y posiblemente existan muchas soluciones. Estas soluciones se conocen como geodésicas . El principio de Fermat plantea un problema relacionado : la luz sigue el camino de la longitud óptica más corta que conecta dos puntos, donde la longitud óptica depende del material del medio. Un concepto correspondiente en mecánica es el principio de acción mínima / estacionaria .
Muchos problemas importantes involucran funciones de varias variables. Las soluciones de problemas de valores en la frontera para la ecuación de Laplace satisfacen el principio de Dirichlet . El problema de Plateau requiere encontrar una superficie de área mínima que abarque un contorno dado en el espacio: a menudo se puede encontrar una solución sumergiendo un marco en una solución de espuma de jabón. Aunque tales experimentos son relativamente fáciles de realizar, su interpretación matemática está lejos de ser simple: puede haber más de una superficie que minimiza localmente y pueden tener una topología no trivial .
Historia
Se puede decir que el cálculo de variaciones comenzó con el problema de resistencia mínima de Newton en 1687, seguido por el problema de la curva braquistócrona planteado por Johann Bernoulli (1696). [2] Inmediatamente ocupó la atención de Jakob Bernoulli y el Marqués de l'Hôpital , pero Leonhard Euler elaboró el tema por primera vez, a partir de 1733. Lagrange fue influenciado por el trabajo de Euler para contribuir significativamente a la teoría. Después de que Euler vio el trabajo de 1755 de Lagrange, de 19 años, Euler abandonó su propio enfoque parcialmente geométrico a favor del enfoque puramente analítico de Lagrange y renombró el tema como el cálculo de variaciones en su conferencia de 1756 Elementa Calculi Variationum . [3] [4] [1]
Legendre (1786) estableció un método, no del todo satisfactorio, para la discriminación de máximos y mínimos. Isaac Newton y Gottfried Leibniz también prestaron alguna atención temprana al tema. [5] A esta discriminación Vincenzo Brunacci (1810), Carl Friedrich Gauss (1829), Siméon Poisson (1831), Mikhail Ostrogradsky (1834) y Carl Jacobi (1837) han estado entre los contribuyentes. Un trabajo general importante es el de Sarrus (1842) que fue condensado y mejorado por Cauchy (1844). Strauch (1849), Jellett (1850), Otto Hesse (1857), Alfred Clebsch (1858) y Carll (1885) han escrito otros valiosos tratados y memorias , pero quizás la obra más importante del siglo es la de Weierstrass. . Su célebre curso sobre la teoría está haciendo época, y se puede afirmar que fue el primero en colocarlo sobre una base firme e incuestionable. Los problemas 20 y 23 de Hilbert publicados en 1900 alentaron un mayor desarrollo. [5]
En el siglo XX, David Hilbert , Emmy Noether , Leonida Tonelli , Henri Lebesgue y Jacques Hadamard, entre otros, hicieron contribuciones significativas. [5] Marston Morse aplicó el cálculo de variaciones en lo que ahora se llama teoría Morse . [6] Lev Pontryagin , Ralph Rockafellar y FH Clarke desarrollaron nuevas herramientas matemáticas para el cálculo de variaciones en la teoría del control óptimo . [6] La programación dinámica de Richard Bellman es una alternativa al cálculo de variaciones. [7] [8] [9] [b]
Extrema
El cálculo de variaciones se ocupa de los máximos o mínimos (denominados colectivamente extremos ) de los funcionales. Un funcional asigna funciones a escalares , por lo que los funcionales se han descrito como "funciones de funciones". Los funcionales tienen extremos con respecto a los elementosde un espacio funcional dado definido sobre un dominio dado . Un funcional se dice que tiene un extremo en la función Si tiene el mismo signo para todos en un barrio arbitrariamente pequeño de [c] La funciónse llama una extremal función o extremal. [d] El extremo se llama un máximo local si en todas partes en un vecindario arbitrariamente pequeño de y un mínimo local si allí. Para un espacio funcional de funciones continuas, los extremos de las funciones correspondientes se denominan extremos débiles o extremos fuertes , dependiendo de si las primeras derivadas de las funciones continuas son respectivamente todas continuas o no. [11]
Los extremos fuertes y débiles de las funciones son para un espacio de funciones continuas, pero los extremos fuertes tienen el requisito adicional de que las primeras derivadas de las funciones en el espacio sean continuas. Por lo tanto, un extremo fuerte es también un extremo débil, pero lo contrario puede no ser válido. Encontrar extremos fuertes es más difícil que encontrar extremos débiles. [12] Un ejemplo de una condición necesaria que se utiliza para encontrar extremos débiles es la ecuación de Euler-Lagrange . [13] [e]
Ecuación de Euler-Lagrange
Encontrar los extremos de funcionales es similar a encontrar los máximos y mínimos de funciones. Los máximos y mínimos de una función se pueden ubicar encontrando los puntos donde su derivada desaparece (es decir, es igual a cero). Los extremos de los funcionales se pueden obtener encontrando funciones donde la derivada funcional es igual a cero. Esto lleva a resolver la ecuación de Euler-Lagrange asociada . [F]
Considere lo funcional
dónde
- son constantes ,
- es dos veces diferenciable de forma continua,
- es dos veces continuamente diferenciable con respecto a sus argumentos y
Si el funcional alcanza un mínimo local en y es una función arbitraria que tiene al menos una derivada y desaparece en los extremos y luego para cualquier número cerca de 0,
El termino se llama la variación de la función y se denota por [1] [g]
Sustituyendo por en lo funcional el resultado es una función de
Dado que el funcional tiene un mínimo para la función tiene un mínimo en y así, [h]
Tomando la derivada total de dónde y se consideran funciones de en vez de rendimientos
y porqué y
Por lo tanto,
dónde Cuándo y hemos utilizado la integración por partes en el segundo término. El segundo término de la segunda línea desaparece porque a y por definición. Además, como se mencionó anteriormente, el lado izquierdo de la ecuación es cero, de modo que
Según el lema fundamental del cálculo de variaciones , la parte del integrando entre paréntesis es cero, es decir
que se llama ecuación de Euler-Lagrange . El lado izquierdo de esta ecuación se llama derivada funcional de y se denota
En general, esto da una ecuación diferencial ordinaria de segundo orden que se puede resolver para obtener la función extremaLa ecuación de Euler-Lagrange es una condición necesaria , pero no suficiente , para un extremoUna condición suficiente para un mínimo se da en la sección Variaciones y una condición suficiente para un mínimo .
Ejemplo
Para ilustrar este proceso, considere el problema de encontrar la función extrema cuál es la curva más corta que conecta dos puntos y La longitud del arco de la curva está dada por
con
[I]
La ecuación de Euler-Lagrange ahora se utilizará para encontrar la función extrema que minimiza lo funcional
con
Desde no aparece explícitamente en el primer término de la ecuación de Euler-Lagrange desaparece para todos y por lo tanto,
Sustituyendo y tomando la derivada,
Por lo tanto
por alguna constante Luego
dónde
Resolviendo, obtenemos
lo que implica que
es una constante y, por lo tanto, la curva más corta que conecta dos puntos y es
y así hemos encontrado la función extrema que minimiza lo funcional así que eso es un mínimo. La ecuación para una línea recta esEn otras palabras, la distancia más corta entre dos puntos es una línea recta. [j]
La identidad de Beltrami
En problemas de física puede darse el caso de que lo que significa que el integrando es una función de y pero no aparece por separado. En ese caso, la ecuación de Euler-Lagrange se puede simplificar a la identidad de Beltrami [16]
dónde es una constante. El lado izquierdo es la transformación de Legendre de con respecto a
La intuición detrás de este resultado es que, si la variable es en realidad el tiempo, entonces la declaración implica que el lagrangiano es independiente del tiempo. Según el teorema de Noether , existe una cantidad conservada asociada. En este caso, esta cantidad es el hamiltoniano, la transformada de Legendre del lagrangiano, que (a menudo) coincide con la energía del sistema. Esta es (menos) la constante en la identidad de Beltrami.
Ecuación de Euler-Poisson
Si depende de las derivadas superiores de eso es, si
luego debe satisfacer la ecuación de Euler- Poisson ,
[17]
Teorema de Du Bois-Reymond
La discusión hasta ahora ha asumido que las funciones extremas poseen dos derivadas continuas, aunque la existencia de la integral requiere solo las primeras derivadas de las funciones de prueba. La condición de que la primera variación desaparezca en un extremo puede considerarse como una forma débil de la ecuación de Euler-Lagrange. El teorema de Du Bois-Reymond afirma que esta forma débil implica la forma fuerte. Si tiene una primera y segunda derivadas continuas con respecto a todos sus argumentos, y si
luego tiene dos derivadas continuas y satisface la ecuación de Euler-Lagrange.
Fenómeno de Lavrentiev
Hilbert fue el primero en dar buenas condiciones para que las ecuaciones de Euler-Lagrange dieran una solución estacionaria. Dentro de un área convexa y un Lagrangiano positivo tres veces diferenciable, las soluciones se componen de una colección contable de secciones que van a lo largo del límite o satisfacen las ecuaciones de Euler-Lagrange en el interior.
Sin embargo, Lavrentiev en 1926 demostró que hay circunstancias en las que no hay una solución óptima, pero se puede acercar a una arbitrariamente de cerca aumentando el número de secciones. El fenómeno de Lavrentiev identifica una diferencia en el mínimo de un problema de minimización entre diferentes clases de funciones admisibles. Por ejemplo, el siguiente problema, presentado por Manià en 1934: [18]
Claramente, minimiza lo funcional, pero encontramos cualquier función da un valor acotado fuera del mínimo.
Los ejemplos (en una dimensión) se manifiestan tradicionalmente en y pero Ball y Mizel [19] consiguieron la primera función que mostraba el Fenómeno de Lavrentiev a través y por Hay varios resultados que dan criterios bajo los cuales el fenómeno no ocurre - por ejemplo, 'crecimiento estándar', un Lagrangiano sin dependencia de la segunda variable, o una secuencia aproximada que satisface la Condición de Cesari (D) - pero los resultados son a menudo particulares, y aplicable a una pequeña clase de funcionales.
Conectada con el Fenómeno de Lavrentiev está la propiedad de repulsión: cualquier función que muestre el Fenómeno de Lavrentiev mostrará la propiedad de repulsión débil. [20]
Funciones de varias variables
Por ejemplo, si denota el desplazamiento de una membrana por encima del dominio en el plano, entonces su energía potencial es proporcional a su área de superficie:
El problema de Plateau consiste en encontrar una función que minimice el área de superficie asumiendo valores prescritos en el límite de; las soluciones se denominan superficies mínimas . La ecuación de Euler-Lagrange para este problema no es lineal:
Consulte Courant (1950) para obtener más detalles.
Principio de Dirichlet
A menudo es suficiente considerar solo pequeños desplazamientos de la membrana, cuya diferencia de energía sin desplazamiento se aproxima por
El funcional debe minimizarse entre todas las funciones de prueba que asumen valores prescritos en el límite de Si es la función minimizadora y es una función suave arbitraria que se desvanece en el límite de luego la primera variación de debe desaparecer:
Siempre que u tenga dos derivadas, podemos aplicar el teorema de divergencia para obtener
dónde es el límite de es un arco a lo largo y es la derivada normal de en Desde desaparece en y la primera variación desaparece, el resultado es
para todas las funciones suaves v que se desvanecen en el límite de La prueba para el caso de integrales unidimensionales puede adaptarse a este caso para mostrar que
- en
La dificultad de este razonamiento es la suposición de que la función minimizadora u debe tener dos derivadas. Riemann argumentó que la existencia de una función de minimización suave estaba asegurada por la conexión con el problema físico: las membranas de hecho asumen configuraciones con energía potencial mínima. Riemann llamó a esta idea el principio de Dirichlet en honor a su maestro Peter Gustav Lejeune Dirichlet . Sin embargo, Weierstrass dio un ejemplo de un problema variacional sin solución: minimizar
entre todas las funciones que satisfacen y puede hacerse arbitrariamente pequeño eligiendo funciones lineales por partes que hacen una transición entre -1 y 1 en una pequeña vecindad del origen. Sin embargo, no hay ninguna función que haga[k] Finalmente se demostró que el principio de Dirichlet es válido, pero requiere una aplicación sofisticada de la teoría de la regularidad para ecuaciones diferenciales parciales elípticas ; véase Jost y Li – Jost (1998).
Generalización a otros problemas de valores de frontera
Una expresión más general para la energía potencial de una membrana es
Esto corresponde a una densidad de fuerza externa en una fuerza externa en el límite y fuerzas elásticas con módulo actuando La función que minimiza la energía potencial sin restricción en sus valores límite se denotará por Siempre que y son continuas, la teoría de la regularidad implica que la función minimizadora tendrá dos derivadas. Al tomar la primera variación, no es necesario imponer ninguna condición de límite al incrementoLa primera variación de es dado por
Si aplicamos el teorema de la divergencia, el resultado es
Si primero establecemos en la integral de frontera desaparece, y concluimos como antes que
en Entonces si permitimos asumir valores de frontera arbitrarios, esto implica que debe satisfacer la condición de frontera
en Esta condición de contorno es una consecuencia de la propiedad minimizadora de : no se impone de antemano. Estas condiciones se denominan condiciones de contorno naturales .
El razonamiento anterior no es válido si desaparece de forma idéntica en En tal caso, podríamos permitir una función de prueba dónde es una constante. Para tal función de prueba,
Por elección adecuada de puede asumir cualquier valor a menos que la cantidad entre paréntesis desaparezca. Por lo tanto, el problema variacional no tiene sentido a menos que
Esta condición implica que las fuerzas externas netas sobre el sistema están en equilibrio. Si estas fuerzas están en equilibrio, entonces el problema variacional tiene solución, pero no es único, ya que se puede agregar una constante arbitraria. Más detalles y ejemplos se encuentran en Courant y Hilbert (1953).
Problemas de valores propios
Los problemas de valores propios unidimensionales y multidimensionales pueden formularse como problemas variacionales.
Problemas de Sturm-Liouville
El problema de valores propios de Sturm-Liouville implica una forma cuadrática general
dónde está restringido a funciones que satisfacen las condiciones de contorno
Dejar ser una integral de normalización
Las funciones y deben ser positivos en todas partes y delimitados desde cero. El principal problema variacional es minimizar la relación entre todos satisfaciendo las condiciones del punto final. A continuación se muestra que la ecuación de Euler-Lagrange para minimizar es
dónde es el cociente
Se puede demostrar (ver Gelfand y Fomin 1963) que la minimización tiene dos derivadas y satisface la ecuación de Euler-Lagrange. El asociado será denotado por ; es el valor propio más bajo para esta ecuación y condiciones de contorno. La función de minimización asociada se indicará medianteEsta caracterización variacional de los valores propios conduce al método de Rayleigh-Ritz : elija una aproximacióncomo una combinación lineal de funciones básicas (por ejemplo, funciones trigonométricas) y llevar a cabo una minimización de dimensión finita entre dichas combinaciones lineales. Este método suele ser sorprendentemente preciso.
El valor propio más pequeño y la función propia más pequeños se pueden obtener minimizando bajo la restricción adicional
Este procedimiento se puede ampliar para obtener la secuencia completa de valores propios y funciones propias del problema.
El problema variacional también se aplica a condiciones de contorno más generales. En lugar de requerir eso desaparecen en los puntos finales, no podemos imponer ninguna condición en los puntos finales y establecer
dónde y son arbitrarios. Si ponemosla primera variación de la relación es
donde λ está dada por la relación como anteriormente. Después de la integración por partes,
Si primero requerimos eso desaparecen en los puntos finales, la primera variación se desvanecerá para todos esos sólo si
Si satisface esta condición, entonces la primera variación desaparecerá por arbitrario sólo si
Estas últimas condiciones son las condiciones de frontera naturales para este problema, ya que no se imponen a las funciones de prueba para la minimización, sino que son una consecuencia de la minimización.
Problemas de valores propios en varias dimensiones
Los problemas de valores propios en dimensiones superiores se definen en analogía con el caso unidimensional. Por ejemplo, dado un dominio con límite en tres dimensiones podemos definir
y
Dejar ser la función que minimiza el cociente with no condition prescribed on the boundary The Euler–Lagrange equation satisfied by is
where
The minimizing must also satisfy the natural boundary condition
on the boundary This result depends upon the regularity theory for elliptic partial differential equations; see Jost and Li–Jost (1998) for details. Many extensions, including completeness results, asymptotic properties of the eigenvalues and results concerning the nodes of the eigenfunctions are in Courant and Hilbert (1953).
Aplicaciones
Optics
Fermat's principle states that light takes a path that (locally) minimizes the optical length between its endpoints. If the -coordinate is chosen as the parameter along the path, and along the path, then the optical length is given by
where the refractive index depends upon the material. If we try then the first variation of (the derivative of with respect to ε) is
After integration by parts of the first term within brackets, we obtain the Euler–Lagrange equation
The light rays may be determined by integrating this equation. This formalism is used in the context of Lagrangian optics and Hamiltonian optics.
Snell's law
There is a discontinuity of the refractive index when light enters or leaves a lens. Let
where and are constants. Then the Euler–Lagrange equation holds as before in the region where or and in fact the path is a straight line there, since the refractive index is constant. At the must be continuous, but may be discontinuous. After integration by parts in the separate regions and using the Euler–Lagrange equations, the first variation takes the form
The factor multiplying is the sine of angle of the incident ray with the axis, and the factor multiplying is the sine of angle of the refracted ray with the axis. Snell's law for refraction requires that these terms be equal. As this calculation demonstrates, Snell's law is equivalent to vanishing of the first variation of the optical path length.
Fermat's principle in three dimensions
It is expedient to use vector notation: let let be a parameter, let be the parametric representation of a curve and let be its tangent vector. The optical length of the curve is given by
Note that this integral is invariant with respect to changes in the parametric representation of The Euler–Lagrange equations for a minimizing curve have the symmetric form
where
It follows from the definition that satisfies
Therefore, the integral may also be written as
This form suggests that if we can find a function whose gradient is given by then the integral is given by the difference of at the endpoints of the interval of integration. Thus the problem of studying the curves that make the integral stationary can be related to the study of the level surfaces of In order to find such a function, we turn to the wave equation, which governs the propagation of light. This formalism is used in the context of Lagrangian optics and Hamiltonian optics.
Connection with the wave equation
The wave equation for an inhomogeneous medium is
where is the velocity, which generally depends upon Wave fronts for light are characteristic surfaces for this partial differential equation: they satisfy
We may look for solutions in the form
In that case, satisfies
where According to the theory of first-order partial differential equations, if then satisfies
along a system of curves (the light rays) that are given by
These equations for solution of a first-order partial differential equation are identical to the Euler–Lagrange equations if we make the identification
We conclude that the function is the value of the minimizing integral as a function of the upper end point. That is, when a family of minimizing curves is constructed, the values of the optical length satisfy the characteristic equation corresponding the wave equation. Hence, solving the associated partial differential equation of first order is equivalent to finding families of solutions of the variational problem. This is the essential content of the Hamilton–Jacobi theory, which applies to more general variational problems.
Mechanics
In classical mechanics, the action, is defined as the time integral of the Lagrangian, The Lagrangian is the difference of energies,
where is the kinetic energy of a mechanical system and its potential energy. Hamilton's principle (or the action principle) states that the motion of a conservative holonomic (integrable constraints) mechanical system is such that the action integral
is stationary with respect to variations in the path The Euler–Lagrange equations for this system are known as Lagrange's equations:
and they are equivalent to Newton's equations of motion (for such systems).
The conjugate momenta are defined by
For example, if
then
Hamiltonian mechanics results if the conjugate momenta are introduced in place of by a Legendre transformation of the Lagrangian into the Hamiltonian defined by
The Hamiltonian is the total energy of the system: Analogy with Fermat's principle suggests that solutions of Lagrange's equations (the particle trajectories) may be described in terms of level surfaces of some function of This function is a solution of the Hamilton–Jacobi equation:
Further applications
Further applications of the calculus of variations include the following:
- The derivation of the catenary shape
- Solution to Newton's minimal resistance problem
- Solution to the brachistochrone problem
- Solution to isoperimetric problems
- Calculating geodesics
- Finding minimal surfaces and solving Plateau's problem
- Optimal control
Variaciones y condición suficiente para un mínimo
Calculus of variations is concerned with variations of functionals, which are small changes in the functional's value due to small changes in the function that is its argument. The first variation[l] is defined as the linear part of the change in the functional, and the second variation[m] is defined as the quadratic part.[22]
For example, if is a functional with the function as its argument, and there is a small change in its argument from to where is a function in the same function space as then the corresponding change in the functional is
- [n]
The functional is said to be differentiable if
where is a linear functional,[o] is the norm of [p] and as The linear functional is the first variation of and is denoted by,[26]
The functional is said to be twice differentiable if
where is a linear functional (the first variation), is a quadratic functional,[q] and as The quadratic functional is the second variation of and is denoted by,[28]
The second variation is said to be strongly positive if
for all and for some constant .[29]
Using the above definitions, especially the definitions of first variation, second variation, and strongly positive, the following sufficient condition for a minimum of a functional can be stated.
- The functional has a minimum at if its first variation at and its second variation is strongly positive at [30][r][s]
Ver también
- First variation
- Isoperimetric inequality
- Variational principle
- Variational bicomplex
- Fermat's principle
- Principle of least action
- Infinite-dimensional optimization
- Functional analysis
- Ekeland's variational principle
- Inverse problem for Lagrangian mechanics
- Obstacle problem
- Perturbation methods
- Young measure
- Optimal control
- Direct method in calculus of variations
- Noether's theorem
- De Donder–Weyl theory
- Variational Bayesian methods
- Chaplygin problem
- Nehari manifold
- Hu–Washizu principle
- Luke's variational principle
- Mountain pass theorem
- Category:Variational analysts
- Measures of central tendency as solutions to variational problems
- Stampacchia Medal
- Fermat Prize
- Convenient vector space
Notas
- ^ Whereas elementary calculus is about infinitesimally small changes in the values of functions without changes in the function itself, calculus of variations is about infinitesimally small changes in the function itself, which are called variations.[1]
- ^ See Harold J. Kushner (2004): regarding Dynamic Programming, "The calculus of variations had related ideas (e.g., the work of Caratheodory, the Hamilton-Jacobi equation). This led to conflicts with the calculus of variations community."
- ^ The neighborhood of is the part of the given function space where over the whole domain of the functions, with a positive number that specifies the size of the neighborhood.[10]
- ^ Note the difference between the terms extremal and extremum. An extremal is a function that makes a functional an extremum.
- ^ For a sufficient condition, see section Variations and sufficient condition for a minimum.
- ^ The following derivation of the Euler–Lagrange equation corresponds to the derivation on pp. 184–185 of Courant & Hilbert (1953).[14]
- ^ Note that and are evaluated at the same values of which is not valid more generally in variational calculus with non-holonomic constraints.
- ^ The product is called the first variation of the functional and is denoted by Some references define the first variation differently by leaving out the factor.
- ^ Note that assuming y is a function of x loses generality; ideally both should be a function of some other parameter. This approach is good solely for instructive purposes.
- ^ As a historical note, this is an axiom of Archimedes. See e.g. Kelland (1843).[15]
- ^ The resulting controversy over the validity of Dirichlet's principle is explained by Turnbull.[21]
- ^ The first variation is also called the variation, differential, or first differential.
- ^ The second variation is also called the second differential.
- ^ Note that and the variations below, depend on both and The argument has been left out to simplify the notation. For example, could have been written [23]
- ^ A functional is said to be linear if and where are functions and is a real number.[24]
- ^ For a function that is defined for where and are real numbers, the norm of is its maximum absolute value, i.e. [25]
- ^ A functional is said to be quadratic if it is a bilinear functional with two argument functions that are equal. A bilinear functional is a functional that depends on two argument functions and is linear when each argument function in turn is fixed while the other argument function is variable.[27]
- ^ For other sufficient conditions, see in Gelfand & Fomin 2000,
- Chapter 5: "The Second Variation. Sufficient Conditions for a Weak Extremum" – Sufficient conditions for a weak minimum are given by the theorem on p. 116.
- Chapter 6: "Fields. Sufficient Conditions for a Strong Extremum" – Sufficient conditions for a strong minimum are given by the theorem on p. 148.
- ^ One may note the similarity to the sufficient condition for a minimum of a function, where the first derivative is zero and the second derivative is positive.
Referencias
- ^ a b Courant & Hilbert 1953, p. 184
- ^ Gelfand, I. M.; Fomin, S. V. (2000). Silverman, Richard A. (ed.). Calculus of variations (Unabridged repr. ed.). Mineola, New York: Dover Publications. p. 3. ISBN 978-0486414485.
- ^ a b Thiele, Rüdiger (2007). "Euler and the Calculus of Variations". In Bradley, Robert E.; Sandifer, C. Edward (eds.). Leonhard Euler: Life, Work and Legacy. Elsevier. p. 249. ISBN 9780080471297.
- ^ Goldstine, Herman H. (2012). A History of the Calculus of Variations from the 17th through the 19th Century. Springer Science & Business Media. p. 110. ISBN 9781461381068.
- ^ a b c van Brunt, Bruce (2004). The Calculus of Variations. Springer. ISBN 978-0-387-40247-5.
- ^ a b Ferguson, James (2004). "Brief Survey of the History of the Calculus of Variations and its Applications". arXiv:math/0402357.
- ^ Dimitri Bertsekas. Dynamic programming and optimal control. Athena Scientific, 2005.
- ^ Bellman, Richard E. (1954). "Dynamic Programming and a new formalism in the calculus of variations". Proc. Natl. Acad. Sci. 40 (4): 231–235. Bibcode:1954PNAS...40..231B. doi:10.1073/pnas.40.4.231. PMC 527981. PMID 16589462.
- ^ "Richard E. Bellman Control Heritage Award". American Automatic Control Council. 2004. Retrieved 2013-07-28.
- ^ Courant, R; Hilbert, D (1953). Methods of Mathematical Physics. I (First English ed.). New York: Interscience Publishers, Inc. p. 169. ISBN 978-0471504474.
- ^ Gelfand & Fomin 2000, pp. 12–13
- ^ Gelfand & Fomin 2000, p. 13
- ^ Gelfand & Fomin 2000, pp. 14–15
- ^ Courant, R.; Hilbert, D. (1953). Methods of Mathematical Physics. I (First English ed.). New York: Interscience Publishers, Inc. ISBN 978-0471504474.
- ^ Kelland, Philip (1843). Lectures on the principles of demonstrative mathematics. p. 58 – via Google Books.
- ^ Weisstein, Eric W. "Euler–Lagrange Differential Equation". mathworld.wolfram.com. Wolfram. Eq. (5).
- ^ Kot, Mark (2014). "Chapter 4: Basic Generalizations". A First Course in the Calculus of Variations. American Mathematical Society. ISBN 978-1-4704-1495-5.
- ^ Manià, Bernard (1934). "Sopra un esempio di Lavrentieff". Bollenttino dell'Unione Matematica Italiana. 13: 147–153.
- ^ Ball & Mizel (1985). "One-dimensional Variational problems whose Minimizers do not satisfy the Euler-Lagrange equation". Archive for Rational Mechanics and Analysis. 90 (4): 325–388. Bibcode:1985ArRMA..90..325B. doi:10.1007/BF00276295. S2CID 55005550.
- ^ Ferriero, Alessandro (2007). "The Weak Repulsion property". Journal de Mathématiques Pures et Appliquées. 88 (4): 378–388. doi:10.1016/j.matpur.2007.06.002.
- ^ Turnbull. "Riemann biography". UK: U. St. Andrew.
- ^ Gelfand & Fomin 2000, pp. 11–12, 99
- ^ Gelfand & Fomin 2000, p. 12, footnote 6
- ^ Gelfand & Fomin 2000, p. 8
- ^ Gelfand & Fomin 2000, p. 6
- ^ Gelfand & Fomin 2000, pp. 11–12
- ^ Gelfand & Fomin 2000, pp. 97–98
- ^ Gelfand & Fomin 2000, p. 99
- ^ Gelfand & Fomin 2000, p. 100
- ^ Gelfand & Fomin 2000, p. 100, Theorem 2
Otras lecturas
- Benesova, B. and Kruzik, M.: "Weak Lower Semicontinuity of Integral Functionals and Applications". SIAM Review 59(4) (2017), 703–766.
- Bolza, O.: Lectures on the Calculus of Variations. Chelsea Publishing Company, 1904, available on Digital Mathematics library. 2nd edition republished in 1961, paperback in 2005, ISBN 978-1-4181-8201-4.
- Cassel, Kevin W.: Variational Methods with Applications in Science and Engineering, Cambridge University Press, 2013.
- Clegg, J.C.: Calculus of Variations, Interscience Publishers Inc., 1968.
- Courant, R.: Dirichlet's principle, conformal mapping and minimal surfaces. Interscience, 1950.
- Dacorogna, Bernard: "Introduction" Introduction to the Calculus of Variations, 3rd edition. 2014, World Scientific Publishing, ISBN 978-1-78326-551-0.
- Elsgolc, L.E.: Calculus of Variations, Pergamon Press Ltd., 1962.
- Forsyth, A.R.: Calculus of Variations, Dover, 1960.
- Fox, Charles: An Introduction to the Calculus of Variations, Dover Publ., 1987.
- Giaquinta, Mariano; Hildebrandt, Stefan: Calculus of Variations I and II, Springer-Verlag, ISBN 978-3-662-03278-7 and ISBN 978-3-662-06201-2
- Jost, J. and X. Li-Jost: Calculus of Variations. Cambridge University Press, 1998.
- Lebedev, L.P. and Cloud, M.J.: The Calculus of Variations and Functional Analysis with Optimal Control and Applications in Mechanics, World Scientific, 2003, pages 1–98.
- Logan, J. David: Applied Mathematics, 3rd edition. Wiley-Interscience, 2006
- Pike, Ralph W. "Chapter 8: Calculus of Variations". Optimization for Engineering Systems. Louisiana State University. Archived from the original on 2007-07-05.
- Roubicek, T.: "Calculus of variations". Chap.17 in: Mathematical Tools for Physicists. (Ed. M. Grinfeld) J. Wiley, Weinheim, 2014, ISBN 978-3-527-41188-7, pp. 551–588.
- Sagan, Hans: Introduction to the Calculus of Variations, Dover, 1992.
- Weinstock, Robert: Calculus of Variations with Applications to Physics and Engineering, Dover, 1974 (reprint of 1952 ed.).
enlaces externos
- Variational calculus. Encyclopedia of Mathematics.
- calculus of variations. PlanetMath.
- Calculus of Variations. MathWorld.
- Calculus of variations. Example problems.
- Mathematics - Calculus of Variations and Integral Equations. Lectures on YouTube.
- Selected papers on Geodesic Fields. Part I, Part II.