En optimización matemática , la función de Rosenbrock es una función no convexa , introducida por Howard H. Rosenbrock en 1960, que se utiliza como un problema de prueba de rendimiento para algoritmos de optimización . [1] También se conoce como el valle de Rosenbrock o la función del plátano de Rosenbrock .
El mínimo global está dentro de un valle plano largo, estrecho y de forma parabólica . Encontrar el valle es trivial. Sin embargo, converger al mínimo global es difícil.
La función está definida por
Tiene un mínimo global en , dónde . Por lo general, estos parámetros se establecen de manera que y . Solo en el caso trivial donde la función es simétrica y el mínimo está en el origen.
Generalizaciones multidimensionales
Se encuentran comúnmente dos variantes.
Uno es la suma de problemas de Rosenbrock 2D desacoplados, y se define solo para s:
Esta variante tiene soluciones predeciblemente simples.
Una segunda variante más complicada es
tiene exactamente un mínimo para (a ) y exactamente dos mínimos para —El mínimo global de todos unos y un mínimo local cerca . Este resultado se obtiene estableciendo el gradiente de la función igual a cero, notando que la ecuación resultante es una función racional de. Para pequeñoslos polinomios se pueden determinar exactamente y el teorema de Sturm se puede utilizar para determinar el número de raíces reales, mientras que las raíces se pueden limitar en la región de. [5] Para mayor este método se descompone debido al tamaño de los coeficientes involucrados.
Puntos estacionarios
Muchos de los puntos estacionarios de la función exhiben un patrón regular cuando se trazan. [5] Esta estructura se puede aprovechar para localizarlos.
Ejemplos de optimización
La función de Rosenbrock se puede optimizar de manera eficiente adaptando el sistema de coordenadas apropiado sin usar ninguna información de gradiente y sin construir modelos de aproximación local (a diferencia de muchos optimizadores sin derivadas). La siguiente figura ilustra un ejemplo de optimización de la función de Rosenbrock bidimensional mediante el descenso de coordenadas adaptativo desde el punto de partida. La solución con el valor de la función se puede encontrar después de 325 evaluaciones de funciones.
Usando el método Nelder-Mead desde el punto de partida con un simplex inicial regular se encuentra un mínimo con el valor de la función después de 185 evaluaciones de funciones. La siguiente figura visualiza la evolución del algoritmo.
Ver también
Referencias
- ^ Rosenbrock, HH (1960). "Un método automático para encontrar el mayor o menor valor de una función" . The Computer Journal . 3 (3): 175-184. doi : 10.1093 / comjnl / 3.3.175 . ISSN 0010-4620 .
- ^ Simionescu, PA (2014). Herramientas de simulación y gráficos asistidos por computadora para usuarios de AutoCAD (1ª ed.). Boca Raton, FL: CRC Press. ISBN 978-1-4822-5290-3.
- ^ Dixon, LCW; Mills, DJ (1994). "Efecto de los errores de redondeo en el método de métrica variable" . Revista de teoría y aplicaciones de la optimización . 80 : 175-179. doi : 10.1007 / BF02196600 .
- ^ "Función generalizada de Rosenbrock" . Consultado el 16 de septiembre de 2008 .
- ^ a b Kok, Schalk; Sandrock, Carl (2009). "Localización y caracterización de los puntos estacionarios de la función ampliada de Rosenbrock". Computación evolutiva . 17 (3): 437–53. doi : 10.1162 / evco.2009.17.3.437 . hdl : 2263/13845 . PMID 19708775 .