Método de gradiente conjugado


En matemáticas , el método del gradiente conjugado es un algoritmo para la solución numérica de sistemas particulares de ecuaciones lineales , es decir, aquellos cuya matriz es positiva-definida . El método de gradiente conjugado a menudo se implementa como un algoritmo iterativo , aplicable a sistemas dispersos que son demasiado grandes para ser manejados por una implementación directa u otros métodos directos como la descomposición de Cholesky . Los grandes sistemas dispersos a menudo surgen cuando se resuelven numéricamente ecuaciones diferenciales parciales o problemas de optimización.

El método de gradiente conjugado también se puede utilizar para resolver problemas de optimización sin restricciones , como la minimización de energía . Se atribuye comúnmente a Magnus Hestenes y Eduard Stiefel , [1] [2] quienes lo programaron en el Z4 , [3] y lo investigaron extensamente. [4] [5]

El método de gradiente biconjugado proporciona una generalización a matrices no simétricas. Varios métodos de gradiente conjugado no lineal buscan mínimos de problemas de optimización no lineal.

para el vector , donde la matriz conocida es simétrica (es decir, A T = A ), definida positiva (es decir, x T Ax > 0 para todos los vectores distintos de cero en R n ) y real , y también se conoce. Denotamos la solución única de este sistema por .

El método de gradiente conjugado puede derivarse de varias perspectivas diferentes, incluida la especialización del método de dirección conjugada para la optimización y la variación de la iteración de Arnoldi / Lanczos para problemas de valores propios . A pesar de las diferencias en sus enfoques, estas derivaciones comparten un tema común: demostrar la ortogonalidad de los residuos y la conjugación de las direcciones de búsqueda. Estas dos propiedades son cruciales para desarrollar la conocida y sucinta formulación del método.

Decimos que los no-cero dos vectores u y v son conjugado (con respecto a ) si


Una comparación de la convergencia del descenso del gradiente con el tamaño de paso óptimo (en verde) y el vector conjugado (en rojo) para minimizar una función cuadrática asociada con un sistema lineal dado. El gradiente conjugado, asumiendo una aritmética exacta, converge como máximo en n pasos, donde n es el tamaño de la matriz del sistema (aquí n  = 2).