Método de punto interior


Los métodos de punto interior (también denominados métodos de barrera o IPM ) son una cierta clase de algoritmos que resuelven problemas de optimización convexa lineal y no lineal .

Ejemplo de búsqueda de una solución. Las líneas azules muestran restricciones, los puntos rojos muestran soluciones iteradas.

Un método de punto interior fue descubierto por el matemático soviético II Dikin en 1967 y reinventado en los EE. UU. A mediados de la década de 1980. En 1984, Narendra Karmarkar desarrolló un método para la programación lineal llamado algoritmo de Karmarkar , que se ejecuta en un tiempo polinomial comprobable y también es muy eficiente en la práctica. Permitió soluciones de problemas de programación lineal que estaban más allá de las capacidades del método simplex. Al contrario que el método simplex, alcanza la mejor solución atravesando el interior de la región factible . El método se puede generalizar a la programación convexa basada en una función de barrera autoconcordante utilizada para codificar el conjunto convexo .

Cualquier problema de optimización convexa se puede transformar en minimizar (o maximizar) una función lineal sobre un conjunto convexo mediante la conversión a la forma de epígrafe . [1] La idea de codificar el conjunto factible usando una barrera y diseñar métodos de barrera fue estudiada por Anthony V. Yurii Nesterov , y Arkadi Nemirovski ideó una clase especial de tales barreras que pueden usarse para codificar cualquier conjunto convexo. Garantizan que el número de iteraciones del algoritmo está acotado por un polinomio en la dimensión y precisión de la solución. [2]

El avance de Karmarkar revitalizó el estudio de los métodos de punto interior y los problemas de barrera, demostrando que era posible crear un algoritmo para la programación lineal caracterizado por la complejidad polinomial y, además, competitivo con el método simplex. El método elipsoide de Khachiyan ya era un algoritmo de tiempo polinomial; sin embargo, fue demasiado lento para ser de interés práctico.

La clase de métodos de punto interior de seguimiento de ruta primal-dual se considera la más exitosa. El algoritmo predictor-corrector de Mehrotra proporciona la base para la mayoría de las implementaciones de esta clase de métodos. [3]

La idea del método primal-dual es fácil de demostrar para la optimización no lineal restringida . Para simplificar, considere la versión de todas las desigualdades de un problema de optimización no lineal:

minimizar sujeto a dónde

Este problema de optimización restringido por desigualdad se resuelve luego convirtiéndolo en una función objetivo no restringida cuyo mínimo esperamos encontrar de manera eficiente. Específicamente, la función de barrera logarítmica asociada con (1) es

Aquí es un pequeño escalar positivo, a veces llamado "parámetro de barrera". Como converge a cero el mínimo de debería converger a una solución de (1).

El gradiente de la función de barrera es

dónde es el gradiente de la función original , y es el gradiente de .

Además de la variable original ("primaria") introducimos una variable dual inspirada en el multiplicador de Lagrange

(4) a veces se denomina condición de "complementariedad perturbada", por su semejanza con la "holgura complementaria" en las condiciones KKT .

Tratamos de encontrar esos para el cual el gradiente de la función de barrera es cero.

Aplicando (4) a (3), obtenemos una ecuación para el gradiente:

donde la matriz es el jacobiano de las restricciones.

La intuición detrás de (5) es que el gradiente de debe estar en el subespacio atravesado por los gradientes de las restricciones. La "complementariedad perturbada" con pequeños (4) puede entenderse como la condición de que la solución debe estar cerca del límite , o que la proyección del gradiente en el componente de restricción lo normal debería ser casi cero.

Aplicando el método de Newton a (4) y (5), obtenemos una ecuación para actualizar :

dónde es la matriz de Hesse de, es una matriz diagonal de, y es una matriz diagonal con .

Debido a (1), (4) la condición

debe hacerse cumplir en cada paso. Esto se puede hacer eligiendo el apropiado:

Trayectoria de las iteraciones de x utilizando el método del punto interior.

  1. ^ Boyd, Stephen; Vandenberghe, Lieven (2004). Optimización convexa . Cambridge: Cambridge University Press . pag. 143. ISBN 978-0-521-83378-3. Señor  2061575 .
  2. ^ Wright, Margaret H. (2004). "La revolución del punto interior en la optimización: Historia, desarrollos recientes y consecuencias duraderas" . Boletín de la American Mathematical Society . 42 : 39–57. doi : 10.1090 / S0273-0979-04-01040-7 . Señor  2115066 .
  3. ^ Potra, Florian A .; Stephen J. Wright (2000). "Métodos de punto interior" . Revista de Matemática Computacional y Aplicada . 124 (1-2): 281-302. doi : 10.1016 / S0377-0427 (00) 00433-7 .

  • Dikin, II (1967). "Solución iterativa de problemas de programación lineal y cuadrática" . Dokl. Akad. Nauk SSSR . 174 (1): 747–748.
  • Bonnans, J. Frédéric; Gilbert, J. Charles; Lemaréchal, Claude ; Sagastizábal, Claudia A. (2006). Optimización numérica: Aspectos teóricos y prácticos . Universitext (Segunda edición revisada de la traducción de la edición francesa de 1997). Berlín: Springer-Verlag. págs. xiv + 490. doi : 10.1007 / 978-3-540-35447-5 . ISBN 978-3-540-35445-1. Señor  2265882 .
  • Karmarkar, N. (1984). "Un nuevo algoritmo de tiempo polinomial para la programación lineal" (PDF) . Actas del decimosexto simposio anual de ACM sobre teoría de la computación - STOC '84 . pag. 302. doi : 10.1145 / 800057.808695 . ISBN 0-89791-133-4. Archivado desde el original (PDF) el 28 de diciembre de 2013.
  • Mehrotra, Sanjay (1992). "Sobre la implementación de un método de punto interior primordial-dual". Revista SIAM de Optimización . 2 (4): 575–601. doi : 10.1137 / 0802028 .
  • Nocedal, Jorge; Stephen Wright (1999). Optimización numérica . Nueva York, NY: Springer. ISBN 978-0-387-98793-4.
  • Presione, WH; Teukolsky, SA; Vetterling, WT; Flannery, BP (2007). "Sección 10.11. Programación lineal: métodos de punto interior" . Recetas numéricas: el arte de la informática científica (3ª ed.). Nueva York: Cambridge University Press. ISBN 978-0-521-88068-8.
  • Wright, Stephen (1997). Métodos primarios y dobles de puntos interiores . Filadelfia, PA: SIAM. ISBN 978-0-89871-382-4.
  • Boyd, Stephen; Vandenberghe, Lieven (2004). Optimización convexa (PDF) . Prensa de la Universidad de Cambridge.