Algoritmo de Levenberg-Marquardt


En matemáticas y computación, el algoritmo de Levenberg-Marquardt ( LMA o simplemente LM ), también conocido como método de mínimos cuadrados amortiguados ( DLS ), se utiliza para resolver problemas de mínimos cuadrados no lineales . Estos problemas de minimización surgen especialmente en el ajuste de curvas por mínimos cuadrados . El LMA interpola entre el algoritmo de Gauss-Newton (GNA) y el método de descenso de gradiente . El LMA es más robustoque el GNA, lo que hace que en muchos casos encuentre solución aunque parta muy lejos del mínimo final. Para funciones de buen comportamiento y parámetros iniciales razonables, el LMA tiende a ser más lento que el GNA. LMA también se puede ver como Gauss-Newton utilizando un enfoque de región de confianza .

El algoritmo fue publicado por primera vez en 1944 por Kenneth Levenberg , [1] mientras trabajaba en el Arsenal del Ejército de Frankford . Fue redescubierto en 1963 por Donald Marquardt , [2] que trabajaba como estadístico en DuPont , y de forma independiente por Girard, [3] Wynne [4] y Morrison. [5]


El LMA se utiliza en muchas aplicaciones de software para resolver problemas genéricos de ajuste de curvas. Al usar el algoritmo de Gauss-Newton, a menudo converge más rápido que los métodos de primer orden. [6] Sin embargo, al igual que otros algoritmos de optimización iterativos, el LMA encuentra solo un mínimo local , que no es necesariamente el mínimo global .

La aplicación principal del algoritmo de Levenberg-Marquardt está en el problema de ajuste de curvas de mínimos cuadrados: dado un conjunto de pares empíricos de variables independientes y dependientes, encuentre los parámetros de la curva modelo para que la suma de los cuadrados de las desviaciones se minimice . :

Al igual que otros algoritmos de minimización numérica, el algoritmo de Levenberg-Marquardt es un procedimiento iterativo . Para iniciar una minimización, el usuario debe proporcionar una suposición inicial para el vector de parámetros . En casos con solo un mínimo, una conjetura estándar desinformada funcionará bien; en casos con mínimos múltiples , el algoritmo converge al mínimo global solo si la suposición inicial ya está algo cerca de la solución final.


Mal encajado
Mejor ajuste
Mejor ajuste