Método lineal de varios pasos


De Wikipedia, la enciclopedia libre
  (Redirigido desde estabilidad cero )
Saltar a navegación Saltar a búsqueda

Los métodos lineales de varios pasos se utilizan para la solución numérica de ecuaciones diferenciales ordinarias . Conceptualmente, un método numérico comienza desde un punto inicial y luego da un pequeño paso hacia adelante en el tiempo para encontrar el siguiente punto de solución. El proceso continúa con los pasos posteriores para trazar la solución. Los métodos de un solo paso (como el método de Euler ) se refieren solo a un punto anterior y su derivada para determinar el valor actual. Métodos como Runge – Kuttatome algunos pasos intermedios (por ejemplo, medio paso) para obtener un método de orden superior, pero luego descarte toda la información anterior antes de dar un segundo paso. Los métodos de varios pasos intentan ganar eficiencia manteniendo y utilizando la información de los pasos anteriores en lugar de descartarla. En consecuencia, los métodos de varios pasos se refieren a varios puntos anteriores y valores derivados. En el caso de los métodos lineales de varios pasos, se utiliza una combinación lineal de los puntos anteriores y los valores derivados.

Definiciones

Los métodos numéricos para ecuaciones diferenciales ordinarias soluciones aproximadas a problemas de valor inicial de la forma

El resultado son aproximaciones para el valor de en tiempos discretos :

donde es el paso de tiempo (a veces denominado ) y es un número entero.

Los métodos de varios pasos utilizan información de los pasos anteriores para calcular el siguiente valor. En particular, un método lineal de varios pasos utiliza una combinación lineal de y para calcular el valor de para el paso actual deseado. Por lo tanto, un método lineal de varios pasos es un método de la forma

con . Los coeficientes y determinar el método. El diseñador del método elige los coeficientes, equilibrando la necesidad de obtener una buena aproximación a la solución real con el deseo de obtener un método que sea fácil de aplicar. A menudo, muchos coeficientes son cero para simplificar el método.

Se puede distinguir entre métodos explícitos e implícitos . Si , entonces el método se llama "explícito", ya que la fórmula puede calcular directamente . Si entonces el método se llama "implícito", ya que el valor de depende del valor de , y la ecuación debe resolverse . Los métodos iterativos como el de Newton se utilizan a menudo para resolver la fórmula implícita.

A veces se utiliza un método explícito de varios pasos para "predecir" el valor de . Luego, ese valor se usa en una fórmula implícita para "corregir" el valor. El resultado es un método predictor-corrector .

Ejemplos de

Considere por ejemplo el problema

La solución exacta es .

Euler de un paso

Un método numérico simple es el método de Euler:

El método de Euler puede verse como un método explícito de varios pasos para el caso degenerado de un paso.

Este método, aplicado con tamaño de paso en el problema , da los siguientes resultados:

Adams-Bashforth de dos pasos

El método de Euler es un método de un solo paso. Un método simple de varios pasos es el método Adams-Bashforth de dos pasos.

Este método necesita dos valores, y , para calcular el siguiente valor, . Sin embargo, el problema del valor inicial proporciona solo un valor ,. Una posibilidad para resolver este problema es utilizar el calculado por el método de Euler como segundo valor. Con esta elección, el método Adams-Bashforth produce (redondeado a cuatro dígitos):

La solución exacta en es , por lo que el método de Adams-Bashforth de dos pasos es más preciso que el método de Euler. Este es siempre el caso si el tamaño del paso es lo suficientemente pequeño.

Familias de métodos de varios pasos

Normalmente se utilizan tres familias de métodos lineales de varios pasos: los métodos Adams-Bashforth, los métodos Adams-Moulton y las fórmulas de diferenciación hacia atrás (BDF).

Métodos Adams-Bashforth

Los métodos Adams-Bashforth son métodos explícitos. Los coeficientes son y , mientras que se eligen de modo que los métodos tengan orden s (esto determina los métodos de forma única).

Los métodos de Adams-Bashforth con s = 1, 2, 3, 4, 5 son ( Hairer, Nørsett & Wanner 1993 , §III.1; Butcher 2003 , p. 103):

Los coeficientes se pueden determinar de la siguiente manera. Utilice la interpolación de polinomios para encontrar el polinomio p de grado tal que

La fórmula de Lagrange para los rendimientos de interpolación polinomial

El polinomio p es localmente una buena aproximación del lado derecho de la ecuación diferencial que se va a resolver, así que considere la ecuación en su lugar. Esta ecuación se puede resolver exactamente; la solución es simplemente la integral de p . Esto sugiere tomar

El método Adams-Bashforth surge cuando se sustituye la fórmula de p . Los coeficientes resultan estar dados por

Sustitución por su interpolador p incurre en un error de orden h s , y se deduce que la s -Step método Adams-Bashforth tiene de hecho el fin s ( Iserles 1996 , § 2.1)

Los métodos Adams-Bashforth fueron diseñados por John Couch Adams para resolver una acción capilar de modelado de ecuaciones diferenciales debida a Francis Bashforth . Bashforth (1883) publicó su teoría y el método numérico de Adams ( Goldstine 1977 ).

Métodos de Adams-Moulton

Los métodos Adams-Moulton son similares a los métodos Adams-Bashforth en que también tienen y . Nuevamente, los coeficientes b se eligen para obtener el orden más alto posible. Sin embargo, los métodos de Adams-Moulton son métodos implícitos. Mediante la eliminación de la restricción de que , una s -Step método de Adams-Moulton puede alcanzar orden , mientras que un s -Step métodos Adams-Bashforth tiene orden sólo s .

Los métodos de Adams-Moulton con s = 0, 1, 2, 3, 4 son ( Hairer, Nørsett y Wanner 1993 , §III.1; Quarteroni, Sacco y Saleri 2000 ):

Este es el método de Euler al revés
Esta es la regla trapezoidal

La derivación de los métodos Adams-Moulton es similar a la del método Adams-Bashforth; sin embargo, el polinomio de interpolación usa no solo los puntos , como arriba, sino también . Los coeficientes están dados por

Los métodos Adams-Moulton se deben únicamente a John Couch Adams , como los métodos Adams-Bashforth. El nombre de Forest Ray Moulton se asoció con estos métodos porque se dio cuenta de que podían usarse en conjunto con los métodos Adams-Bashforth como un par predictor-corrector ( Moulton 1926 ); Milne (1926) tuvo la misma idea. Adams utilizó el método de Newton para resolver la ecuación implícita ( Hairer, Nørsett & Wanner 1993 , §III.1).

Fórmulas de diferenciación hacia atrás (BDF)

Los métodos BDF son métodos implícitos con y los demás coeficientes elegidos de manera que el método alcance el orden s (el máximo posible). Estos métodos se utilizan especialmente para la solución de ecuaciones diferenciales rígidas .

Análisis

Los conceptos centrales en el análisis de métodos lineales de múltiples pasos, y de hecho cualquier método numérico para ecuaciones diferenciales, son convergencia, orden y estabilidad .

Consistencia y orden

La primera pregunta es si el método es consistente: ¿es la ecuación en diferencias

una buena aproximación de la ecuación diferencial ? Más precisamente, un método multipaso es consistente si el error de truncamiento local llega a cero más rápido que el tamaño de paso h cuando h llega a cero, donde el error de truncamiento local se define como la diferencia entre el resultado del método, asumiendo que todos los los valores anteriores son exactos y la solución exacta de la ecuación en el momento . Un cálculo usando la serie de Taylor muestra que un método lineal de múltiples pasos es consistente si y solo si

Todos los métodos mencionados anteriormente son consistentes ( Hairer, Nørsett & Wanner 1993 , §III.2).

Si el método es consistente, entonces la siguiente pregunta es qué tan bien la ecuación en diferencias que define el método numérico se aproxima a la ecuación diferencial. Se dice que un método de varios pasos tiene orden p si el error local es de orden cuando h llega a cero. Esto es equivalente a la siguiente condición sobre los coeficientes de los métodos:

Los s -Step método Adams-Bashforth tiene orden s , mientras que los s -Step método de Adams-Moulton tiene orden ( Hairer, Nørsett y Wanner 1993 , §III.2).

Estas condiciones a menudo se formulan utilizando los polinomios característicos

En términos de estos polinomios, la condición anterior para que el método tenga el orden p se convierte en

En particular, el método es consistente si tiene orden al menos uno, que es el caso si y .

Estabilidad y convergencia

La solución numérica de un método de una etapa depende de la condición inicial , pero la solución numérica de una s método -Step depende de todos los s valores de partida, . Por tanto, es de interés si la solución numérica es estable con respecto a las perturbaciones en los valores iniciales. Un método lineal de múltiples pasos es estable en cero para una determinada ecuación diferencial en un intervalo de tiempo dado, si una perturbación en los valores iniciales de tamaño ε hace que la solución numérica durante ese intervalo de tiempo cambie en no más de K ε para algún valor de K que no depende del tamaño del paso h. Esto se llama "estabilidad cero" porque es suficiente para verificar la condición de la ecuación diferencial ( Süli & Mayers 2003 , p. 332).

Si todas las raíces del polinomio característico ρ tienen módulo menor o igual a 1 y las raíces del módulo 1 son de multiplicidad 1, decimos que la condición de raíz se cumple. Un método lineal de múltiples pasos es estable en cero si y solo si se satisface la condición de la raíz ( Süli & Mayers 2003 , p. 335).

Ahora suponga que se aplica un método lineal de múltiples pasos consistente a una ecuación diferencial suficientemente suave y que todos los valores iniciales convergen al valor inicial como . Entonces, la solución numérica converge a la solución exacta como si y solo si el método fuera estable en cero. Este resultado se conoce como el teorema de equivalencia de Dahlquist , llamado así por Germund Dahlquist ; este teorema es similar en espíritu al teorema de equivalencia Lax para métodos de diferencias finitas . Además, si el método tiene orden p , entonces el error global (la diferencia entre la solución numérica y la solución exacta en un tiempo fijo) es( Süli y Mayers 2003 , p. 340).

Además, si el método es convergente, se dice que el método es fuertemente estable si es la única raíz del módulo 1. Si es convergente y no se repiten todas las raíces del módulo 1, pero hay más de una raíz de este tipo, es se dice que es relativamente estable . Tenga en cuenta que 1 debe ser una raíz para que el método sea convergente; por tanto, los métodos convergentes son siempre uno de estos dos.

Para evaluar el desempeño de los métodos lineales de múltiples pasos en ecuaciones rígidas , considere la ecuación de prueba lineal y ' = λ y . Un método de varios pasos aplicado a esta ecuación diferencial con tamaño de paso h produce una relación de recurrencia lineal con polinomio característico

Este polinomio se denomina polinomio de estabilidad del método de varios pasos. Si todas sus raíces tienen un módulo menor que uno, entonces la solución numérica del método multipaso convergerá a cero y se dice que el método multipaso es absolutamente estable para ese valor de h λ. Se dice que el método es A-estable si es absolutamente estable para todo h λ con parte real negativa. La región de estabilidad absoluta es el conjunto de todos los h λ para los que el método de varios pasos es absolutamente estable ( Süli y Mayers 2003 , págs. 347 y 348). Para obtener más detalles, consulte la sección sobre ecuaciones rígidas y métodos de varios pasos .

Ejemplo

Considere el método de tres pasos de Adams-Bashforth

Por tanto, un polinomio característico es

que tiene raíces , y se satisfacen las condiciones anteriores. Como es la única raíz del módulo 1, el método es muy estable.

El otro polinomio característico es

Primera y segunda barreras dahlquistas

Estos dos resultados fueron probados por Germund Dahlquist y representan un límite importante para el orden de convergencia y para la estabilidad A de un método lineal de múltiples pasos. La primera barrera de Dahlquist se demostró en Dahlquist (1956) y la segunda en Dahlquist (1963) .

Primera barrera de Dahlquist

La primera barrera de Dahlquist establece que un método de pasos múltiples q lineal y estable en cero no puede alcanzar un orden de convergencia mayor que q + 1 si q es impar y mayor que q + 2 si q es par. Si el método también es explícito, entonces no puede alcanzar un orden mayor que q ( Hairer, Nørsett & Wanner 1993 , Thm III.3.5).

Segunda barrera de Dahlquist

Los segundos estados de barrera Dahlquist que no hay métodos de varios pasos lineales explícitas son A-estable .

Ver también

  • Ganancia de energía digital

Referencias

  • Bashforth, Francis (1883), Un intento de probar las teorías de la acción capilar comparando las formas teóricas y medidas de las gotas de fluido. Con una explicación del método de integración empleado en la construcción de las tablas que dan las formas teóricas de tales gotas, por JC Adams , Cambridge..
  • Butcher, John C. (2003), Métodos numéricos para ecuaciones diferenciales ordinarias , John Wiley, ISBN 978-0-471-96758-3.
  • Dahlquist, Germund (1956), "Convergencia y estabilidad en la integración numérica de ecuaciones diferenciales ordinarias", Mathematica Scandinavica , 4 : 33-53.
  • Dahlquist, Germund (1963), "Un problema de estabilidad especial para métodos lineales de varios pasos" (PDF) , BIT , 3 : 27–43, doi : 10.1007 / BF01963532 , ISSN  0006-3835.
  • Goldstine, Herman H. (1977), A History of Numerical Analysis from the 16th to the 19th century , Nueva York: Springer-Verlag, ISBN 978-0-387-90277-7.
  • Hairer, Ernst; Nørsett, Syvert Paul; Wanner, Gerhard (1993), Resolución de ecuaciones diferenciales ordinarias I: Problemas no rígidos (2a ed.), Berlín: Springer Verlag, ISBN 978-3-540-56670-0.
  • Hairer, Ernst; Wanner, Gerhard (1996), Resolver ecuaciones diferenciales ordinarias II: Problemas rígidos y algebraicos diferenciales (2a ed.), Berlín, Nueva York: Springer-Verlag , ISBN 978-3-540-60452-5.
  • Iserles, Arieh (1996), Un primer curso en el análisis numérico de ecuaciones diferenciales , Cambridge University Press, ISBN 978-0-521-55655-2.
  • Milne, WE (1926), "Integración numérica de ecuaciones diferenciales ordinarias", American Mathematical Monthly , Asociación Matemática de América, 33 (9): 455–460, doi : 10.2307 / 2299609 , JSTOR  2299609.
  • Moulton, Forest R. (1926), Nuevos métodos en balística exterior , University of Chicago Press.
  • Quarteroni, Alfio; Sacco, Riccardo; Saleri, Fausto (2000), Matematica Numerica , Springer Verlag, ISBN 978-88-470-0077-3.
  • Süli, Endre; Mayers, David (2003), Introducción al análisis numérico , Cambridge University Press , ISBN 0-521-00794-1.

enlaces externos

  • Weisstein, Eric W. "Método Adams" . MathWorld .
Obtenido de " https://en.wikipedia.org/w/index.php?title=Linear_multistep_method&oldid=1027943984#Stability_and_convergence "