En matemáticas y física , la expansión Magnus , que lleva el nombre de Wilhelm Magnus (1907-1990), proporciona una representación exponencial de la solución de una ecuación diferencial lineal homogénea de primer orden para un operador lineal . En particular, proporciona la matriz fundamental de un sistema de ecuaciones diferenciales ordinarias lineales de orden n con coeficientes variables. El exponente se agrega como una serie infinita, cuyos términos involucran múltiples integrales y conmutadores anidados.
El enfoque de Magnus y su interpretación
Dada la matriz de coeficientes n × n A ( t ) , se desea resolver el problema de valor inicial asociado con la ecuación diferencial ordinaria lineal
para la función vectorial n- dimensional desconocida Y ( t ) .
Cuando n = 1, la solución simplemente dice
Esto sigue siendo válido para n > 1 si la matriz A ( t ) satisface A ( t 1 ) A ( t 2 ) = A ( t 2 ) A ( t 1 ) para cualquier par de valores de t , t 1 y t 2 . En particular, este es el caso si la matriz A es independiente de t . En el caso general, sin embargo, la expresión anterior ya no es la solución del problema.
El enfoque introducido por Magnus para resolver el problema de valores iniciales de la matriz es expresar la solución por medio de la exponencial de una determinada función matricial n × n Ω ( t , t 0 ) :
que posteriormente se construye como una expansión en serie :
donde, por simplicidad, se acostumbra escribir Ω ( t ) para Ω ( t , t 0 ) y tomar t 0 = 0.
Magnus apreció que, dado que ( d ⁄ dt e Ω ) e −Ω = A ( t ) , usando una identidad matricial de Poincaré − Hausdorff , podía relacionar la derivada temporal de Ω con la función generadora de los números de Bernoulli y el endomorfismo adjunto de Ω ,
para resolver Ω recursivamente en términos de A "en un análogo continuo de la expansión CBH ", como se describe en una sección posterior.
La ecuación anterior constituye la expansión de Magnus , o serie de Magnus , para la solución del problema de valor inicial lineal de la matriz. Los primeros cuatro términos de esta serie dicen
donde [ A , B ] ≡ A B - B A es la matriz de conmutador de A y B .
Estas ecuaciones se pueden interpretar de la siguiente manera: Ω 1 ( t ) coincide exactamente con el exponente en el caso escalar ( n = 1), pero esta ecuación no puede dar la solución completa. Si uno insiste en tener una representación exponencial ( grupo de Lie ), el exponente debe corregirse. El resto de la serie Magnus proporciona esa corrección sistemáticamente: Ω o partes de ella están en el álgebra de Lie del grupo de Lie en la solución.
En las aplicaciones, rara vez se puede sumar exactamente la serie Magnus y hay que truncarla para obtener soluciones aproximadas. La principal ventaja de la propuesta de Magnus es que la serie truncada comparte muy a menudo propiedades cualitativas importantes con la solución exacta, en desacuerdo con otras teorías de perturbación convencionales . Por ejemplo, en la mecánica clásica el carácter simpléctico de la evolución temporal se conserva en todos los órdenes de aproximación. De manera similar, el carácter unitario del operador de evolución temporal en la mecánica cuántica también se conserva (en contraste, por ejemplo, con la serie de Dyson que resuelve el mismo problema).
Convergencia de la expansión
Desde un punto de vista matemático, el problema de convergencia es el siguiente: dada una determinada matriz A ( t ) , ¿cuándo se puede obtener el exponente Ω ( t ) como la suma de la serie de Magnus?
Una condición suficiente para que esta serie converja para t ∈ [0, T ) es
dónde denota una norma matricial . Este resultado es genérico en el sentido de que uno puede construir específica matrices A ( t ) para los que los diverge de la serie para cualquier t > T .
Generador Magnus
Un procedimiento recursivo para generar todos los términos en la expansión de Magnus utiliza las matrices S n ( k ) definidas recursivamente mediante
que luego proporcionar
Aquí ad k Ω es una abreviatura de un conmutador iterado (ver endomorfismo adjunto ):
mientras que B j son los números de Bernoulli con B 1 = −1/2 .
Finalmente, cuando esta recursividad se resuelve explícitamente, es posible expresar Ω n ( t ) como una combinación lineal de n integrales de n - 1 conmutadores anidados que involucran n matrices A :
que se vuelve cada vez más intrincado con n .
Extensión a ecuaciones diferenciales ordinarias estocásticas
Para la extensión al caso estocástico, dejemos ser un -movimiento browniano dimensional ,, en el espacio de probabilidad con horizonte de tiempo finito y filtración natural. Ahora, considere la ecuación diferencial estocástica Itô con valor de matriz lineal (con la convención de suma de Einstein sobre el índice j )
dónde son progresivamente medibles procesos estocásticos acotados valorados yes la matriz de identidad . Siguiendo el mismo enfoque que en el caso determinista con alteraciones debidas al ajuste estocástico [1], el logaritmo matricial correspondiente resultará como un proceso Itô, cuyos dos primeros órdenes de expansión están dados por y , donde con la convención de suma de Einstein sobre i y j
Convergencia de la expansión
En el ajuste estocástico, la convergencia ahora estará sujeta a un tiempo de parada. y un primer resultado de convergencia viene dado por: [2]
Bajo el supuesto anterior sobre los coeficientes, existe una solución sólida , así como un tiempo de parada estrictamente positivo tal que:
- tiene un logaritmo real hasta el momento , es decir
- la siguiente representación tiene -casi seguramente:
- dónde es el n -ésimo término en la expansión estocástica de Magnus como se define a continuación en la subsección fórmula de expansión de Magnus;
- existe una constante positiva C , que solo depende de, con , tal que
Fórmula de expansión Magnus
La fórmula de expansión general para la expansión estocástica de Magnus viene dada por:
donde el término general es un proceso Itô de la forma:
Los términos se definen recursivamente como
con
y con los operadores S definidos como
Desde la década de 1960, la expansión Magnus se ha aplicado con éxito como herramienta perturbativa en numerosas áreas de la física y la química, desde la física atómica y molecular hasta la resonancia magnética nuclear [3] y la electrodinámica cuántica . También se ha utilizado desde 1998 como una herramienta para construir algoritmos prácticos para la integración numérica de ecuaciones diferenciales lineales matriciales. Como heredan de la expansión de Magnus la preservación de los rasgos cualitativos del problema, los esquemas correspondientes son ejemplos prototípicos de integradores numéricos geométricos .