De Wikipedia, la enciclopedia libre
Ir a navegaciónSaltar a buscar

En optimización , una función autoconcordante es una función para cual

o, de manera equivalente, una función que, donde sea , satisface

y que satisface en otra parte.

De manera más general, una función multivariante es autoconcordante si

o, de manera equivalente, si su restricción a cualquier línea arbitraria es autoconcordante. [1]

Historia

Como se menciona en los "Comentarios bibliográficos" [2] de su libro de 1994, [3] las funciones autoconcordantes fueron introducidas en 1988 por Yurii Nesterov [4] [5] y desarrolladas con Arkadi Nemirovski . [6] Como se explica en [7], su observación básica fue que el método de Newton es invariante afín, en el sentido de que si para una función tenemos pasos de Newton luego para una función donde es una transformación lineal no degenerada, a partir de tenemos los pasos de Newton que se puede mostrar de forma recursiva

.

Sin embargo, el análisis estándar del método de Newton supone que el hessiano de es Lipschitz continuo , es decir por alguna constante . Si suponemos que es 3 veces continuamente diferenciable, entonces esto es equivalente a

para todos

donde . Entonces el lado izquierdo de la desigualdad anterior es invariante bajo la transformación afín, sin embargo, el lado derecho no lo es.

Los autores señalan que el lado derecho también se puede hacer invariante si reemplazamos la métrica euclidiana por el producto escalar definido por el hessiano de definido como por . Luego llegan a la definición de una función autoconcordante como

.

Propiedades

Combinación lineal

Si y son autoconcordantes con las constantes y y , luego es autoconcordante con la constante .

Transformación afín

Si es autoconcordante con la constante y es una transformación afín de , luego también es autoconcordante con el parámetro .

Hesse no singular

Si es autoconcordante y el dominio de no contiene una línea recta (infinita en ambas direcciones), entonces no es singular.

Por el contrario, si para algunos en el dominio de y tenemos , luego para todos para cual está en el dominio de y luego es lineal y no puede tener un máximo, por lo que todos está en el dominio de . También notamos que no puede tener un mínimo dentro de su dominio.

Aplicaciones

Entre otras cosas, las funciones autoconcordantes son útiles en el análisis del método de Newton . Las funciones de barrera autoconcordantes se utilizan para desarrollar las funciones de barrera utilizadas en los métodos de puntos interiores para la optimización convexa y no lineal. El análisis habitual del método de Newton no funcionaría para las funciones de barrera ya que su segunda derivada no puede ser continua de Lipschitz, de lo contrario estarían delimitadas en cualquier subconjunto compacto de.

Funciones de barrera autoconcordantes

  • son una clase de funciones que pueden usarse como barreras en métodos de optimización restringidos
  • se puede minimizar utilizando el algoritmo de Newton con propiedades de convergencia comprobables análogas al caso habitual (pero estos resultados son algo más difíciles de derivar)
  • para tener ambos de los anteriores, la cota constante habitual en la tercera derivada de la función (requerida para obtener los resultados de convergencia habituales para el método de Newton) se reemplaza por una cota relativa al hessiano

Minimizar una función autoconcordante

Una función autoconcordante puede minimizarse con un método de Newton modificado donde tenemos un límite en el número de pasos requeridos para la convergencia. Suponemos aquí quees una función autoconcordante estándar , es decir, es autoconcordante con el parámetro.

Definimos el decremento de Newton de a como el tamaño del paso de Newton en la norma local definida por el hessiano de a

Entonces para en el dominio de , Si entonces es posible probar que Newton itera

estará también en el dominio de . Esto se debe a que, basado en la autoconcordancia de, es posible dar algunos límites finitos en el valor de . Además tenemos

Entonces si tenemos

entonces también se garantiza que , de modo que podamos seguir usando el método de Newton hasta la convergencia. Tenga en cuenta que para para algunos tenemos convergencia cuadrática de a 0 como . Esto entonces da una convergencia cuadrática de para y de para , donde , por el siguiente teorema. Si luego

con las siguientes definiciones

Si comenzamos el método de Newton de alguna con entonces tenemos que empezar usando un método de Newton amortiguado definido por

Para esto se puede demostrar que con como se definió anteriormente. Tenga en cuenta que es una función creciente para así que eso para cualquier , entonces el valor de está garantizado que disminuirá en una cierta cantidad en cada iteración, lo que también prueba que está en el dominio de .

Ejemplos

Funciones autoconcordantes

  • Las funciones cuadráticas lineales y convexas son autoconcordantes con ya que su tercera derivada es cero.
  • Cualquier función donde está definido y convexo para todos y verifica , es auto concordante en su dominio que es . Algunos ejemplos son
    • por
    • por
    • para cualquier función satisfaciendo las condiciones, la función con también cumple las condiciones

Funciones que no son autoconcordantes

Barreras autoconcordantes

  • media línea positiva : con dominio es una barrera autoconcordante con .
  • orthant positivo : con
  • la barrera logarítmica para la región cuadrática definida por donde donde es un semi-definido matriz simétrica es auto-concordantes para
  • cono de segundo orden :
  • cono semi-definido :
  • cono exponencial :
  • cono de poder :

Referencias

  1. ^ Boyd, Stephen P .; Vandenberghe, Lieven (2004). Optimización convexa (pdf) . Prensa de la Universidad de Cambridge. ISBN 978-0-521-83378-3. Consultado el 15 de octubre de 2011 .
  2. ^ Nesterov, Yurii; Nemirovskii, Arkadii (enero de 1994). Algoritmos polinomiales de punto interior en programación convexa (comentarios de bibliografía) . Sociedad de Matemáticas Industriales y Aplicadas. doi : 10.1137 / 1.9781611970791.bm . ISBN 978-0-89871-319-0.
  3. ^ Nesterov, I︠U︡. E. (1994). Algoritmos polinomiales de punto interior en programación convexa . Nemirovskiĭ, Arkadiĭ Semenovich. Filadelfia: Sociedad de Matemáticas Industriales y Aplicadas. ISBN 0-89871-319-6. OCLC  29310677 .
  4. ^ Yu. E. NESTEROV, Métodos de tiempo polinomial en programación lineal y cuadrática, Izvestija AN SSSR, Tekhnitcheskaya kibernetika, No. 3, 1988, págs. 324-326. (En ruso.)
  5. ^ Yu. E. NESTEROV, Métodos iterativos de tiempo polinómico en programación lineal y cuadrática, Voprosy kibernetiki, Moscú, 1988, págs. 102-125. (En ruso.)
  6. ^ YE Nesterov y AS Nemirovski, Funciones autoconcordantes y métodos de tiempo polinómico en programación convexa, Informe técnico, Instituto Central de Economía y Matemáticas, Academia de Ciencias de la URSS, Moscú, URSS, 1989.
  7. ^ Nesterov, I︠U︡. E. Conferencias introductorias sobre optimización convexa: un curso básico . Bostón. ISBN 978-1-4419-8853-9. OCLC  883391994 .