Aniquilación de bloques que evoluciona en el tiempo


De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

El algoritmo de diezmado de bloques en evolución en el tiempo ( TEBD ) es un esquema numérico que se utiliza para simular sistemas cuánticos unidimensionales de muchos cuerpos, caracterizados por, como máximo, interacciones con el vecino más cercano. Se denomina Decimación de bloques en evolución en el tiempo porque identifica dinámicamente los subespacios de Hilbert de baja dimensión relevantes de un espacio original de Hilbert exponencialmente más grande . El algoritmo, basado en el formalismo Matrix Product States, es altamente eficiente cuando la cantidad de entrelazamiento en el sistema es limitada, un requisito que cumple una gran clase de sistemas cuánticos de muchos cuerpos en una dimensión.

Introducción

Hoy en día existe un interés considerable en el campo de la teoría cuántica por métodos computacionales bien adaptados a la física de sistemas de muchos cuerpos. Teniendo en cuenta las dificultades inherentes a la simulación de sistemas cuánticos generales de muchos cuerpos, el aumento exponencialen parámetros con el tamaño del sistema y, en consecuencia, los altos costos computacionales, una solución sería buscar métodos numéricos que se ocupen de casos especiales, donde se pueda sacar provecho de la física del sistema. El enfoque bruto, al tratar directamente con todos los parámetros utilizados para caracterizar completamente un sistema cuántico de muchos cuerpos, se ve seriamente obstaculizado por la acumulación exponencial generosamente con el tamaño del sistema de la cantidad de variables necesarias para la simulación, lo que lleva, en el mejor de los casos, a a tiempos computacionales irrazonablemente largos y uso extendido de la memoria. Para solucionar este problema, se han desarrollado y puesto en práctica varios métodos a lo largo del tiempo, uno de los más exitosos es el método cuántico de Monte Carlo (QMC). También elEl método de grupo de renormalización de matriz de densidad (DMRG), junto al QMC, es un método muy confiable, con una comunidad de usuarios en expansión y un número creciente de aplicaciones a sistemas físicos.

Cuando la primera computadora cuántica esté conectada y funcionando, las perspectivas para el campo de la física computacional parecerán bastante prometedoras, pero hasta ese día uno tiene que restringirse a las herramientas mundanas que ofrecen las computadoras clásicas. Mientras que los físicos experimentales están haciendo un gran esfuerzo para intentar construir la primera computadora cuántica, los físicos teóricos están buscando, en el campo de la teoría de la información cuántica (QIT), algoritmos cuánticos genuinos, apropiados para problemas que funcionarían mal al intentar ser resuelto en una computadora clásica, pero bastante rápido y exitoso en una cuántica. La búsqueda de tales algoritmos aún continúa, siendo el más conocido (y casi el único encontrado) el algoritmo de Shor , porfactorización de números grandes y el algoritmo de búsqueda de Grover .

En el campo de QIT, uno tiene que identificar los recursos primarios necesarios para la computación cuántica genuina. Tal recurso puede ser responsable de la ganancia de aceleración en cuántico versus clásico, identificarlos significa también identificar sistemas que se pueden simular de una manera razonablemente eficiente en una computadora clásica. Tal recurso es el entrelazamiento cuántico ; por lo tanto, es posible establecer un límite inferior distinto para el entrelazamiento necesario para las aceleraciones computacionales cuánticas.

Guifré Vidal , entonces en el Instituto de Información Cuántica, Caltech , ha propuesto recientemente un esquema útil para simular una cierta categoría de sistemas cuánticos [1] . Afirma que "cualquier cálculo cuántico con estados puros puede simularse de manera eficiente con una computadora clásica siempre que la cantidad de entrelazamiento involucrado sea lo suficientemente restringida" . Este es el caso de los hamiltonianos genéricos que muestran interacciones locales, como por ejemplo, Hubbard-como los hamiltonianos. El método exhibe un comportamiento polinómico de bajo grado en el aumento del tiempo computacional con respecto a la cantidad de entrelazamiento presente en el sistema. El algoritmo se basa en un esquema que aprovecha el hecho de que en estos sistemas unidimensionales los valores propios de la matriz de densidad reducida en una división bipartita del sistema están decayendo exponencialmente, lo que nos permite trabajar en un espacio redimensionado atravesado por el vectores propios correspondientes a los valores propios que seleccionamos.

También se puede estimar la cantidad de recursos computacionales necesarios para la simulación de un sistema cuántico en una computadora clásica, sabiendo cómo el entrelazamiento contenido en el sistema escala con el tamaño del sistema. Las simulaciones clásicamente (y también cuánticas) factibles son aquellas que involucran sistemas solo ligeramente entrelazados; las fuertemente entrelazadas son, por otro lado, buenas candidatas solo para cálculos cuánticos genuinos.

El método numérico es eficiente para simular dinámicas en tiempo real o cálculos de estados fundamentales utilizando la evolución en tiempo imaginario o interpolaciones isentrópicas entre un hamiltoniano objetivo y un hamiltoniano con un estado fundamental ya conocido. El tiempo computacional escala linealmente con el tamaño del sistema, por lo tanto, se pueden investigar sistemas de muchas partículas en 1D.

Una característica útil del algoritmo TEBD es que puede emplearse de manera confiable para simulaciones de evolución temporal de hamiltonianos dependientes del tiempo, describiendo sistemas que se pueden realizar con átomos fríos en redes ópticas , o en sistemas lejos del equilibrio en el transporte cuántico. Desde este punto de vista, TEBD tenía un cierto predominio sobre DMRG, una técnica muy poderosa, pero hasta hace poco no muy adecuada para simular evoluciones en el tiempo. Con el formalismo de Matrix Product States en el corazón matemático de DMRG, el esquema TEBD fue adoptado por la comunidad DMRG, dando así origen al DMRG dependiente del tiempo [2] [ enlace muerto permanente ] , t-DMRG para abreviar.

Casi al mismo tiempo, otros grupos han desarrollado enfoques similares en los que la información cuántica juega un papel predominante como, por ejemplo, en las implementaciones de DMRG para condiciones de contorno periódicas [3] , y para estudiar la dinámica de estados mixtos en sistemas de retícula cuántica unidimensionales, . [2] [3] Estos últimos enfoques en realidad proporcionan un formalismo que es más general que el enfoque original de TEBD, ya que también permite tratar las evoluciones con operadores de productos matriciales; esto permite la simulación de evoluciones no infinitesimales no triviales a diferencia del caso de TEBD, y es un ingrediente crucial para tratar con análogos de dimensiones superiores de estados de productos de matriz.

La descomposición del estado

Introduciendo la descomposición del estado

Considere una cadena de N qubits , descrita por la función . La forma más natural de describir sería utilizando la base dimensional local :

donde M es la dimensión en el sitio.

El truco de TEBD es reescribir los coeficientes :

Esta forma, conocida como estado del producto Matrix , simplifica enormemente los cálculos.

Para entender por qué, uno puede mirar la descomposición de Schmidt de un estado, que usa la descomposición de valores singulares para expresar un estado con entrelazamiento limitado de manera más simple.

La descomposición de Schmidt

Considere el estado de un sistema bipartito . Cada uno de estos estados se puede representar en una base elegida apropiadamente como:

donde están formadas con vectores que hacen que una base ortonormal en y, correspondientemente, vectores , que forman una base ortonormal en , con los coeficientes de ser real y positiva, . Esto se llama descomposición de Schmidt (SD) de un estado. En general, la suma asciende a . El rango de Schmidt de una división bipartita viene dado por el número de coeficientes de Schmidt distintos de cero. Si el rango de Schmidt es uno, la división se caracteriza por un estado de producto. Los vectores de la SD se determinan hasta una fase y los valores propios y el rango de Schmidt son únicos.

Por ejemplo, el estado de dos qubit:

tiene la siguiente SD:

con

Por otro lado, el estado:

es un estado de producto:

Construyendo la descomposición del estado

En este punto, probablemente sepamos lo suficiente para intentar ver cómo construimos explícitamente la descomposición (llamémosla D ).

Considere la división bipartita . La SD tiene los coeficientes y autovectores . Al expandir las 's en la base local, se puede escribir:

El proceso se puede descomponer en tres pasos, iterados para cada enlace (y, en consecuencia, SD) en la cadena:

Paso 1 : exprese los's en una base local para qubit 2:

Los vectores no están necesariamente normalizados .

Paso 2 : escriba cada vectoren términos de como máximo (énfasis de Vidal) losvectores de Schmidty, en consecuencia, los coeficientes:

Paso 3 : haz las sustituciones y obtén:

Repetición de los pasos 1 a 3, se puede construir toda la descomposición del estado D . Los últimos son un caso especial, como los primeros, que expresan los vectores de Schmidt de la derecha en el enlace en términos de la base local en el lugar de la celosía. Como se muestra en, [1] es sencillo para obtener la descomposición Schmidt en enlace, es decir , a partir de D .

Los valores propios de Schmidt se dan explícitamente en D :

Los vectores propios de Schmidt son simplemente:

y

Razón fundamental

Ahora, mirando D , en lugar de términos iniciales, hay . Aparentemente, esta es solo una forma elegante de reescribir los coeficientes , pero de hecho hay más que eso. Suponiendo que N es par, el rango de Schmidt para un corte bipartito en el medio de la cadena puede tener un valor máximo de ; en este caso terminamos con al menos coeficientes, considerando solo unos, ¡un poco más que el inicial ! La verdad es que la descomposición D es útil cuando se trata de sistemas que exhiben un bajo grado de entrelazamiento, que afortunadamente es el caso de muchos sistemas 1D, donde los coeficientes de Schmidt del estado fundamental decaen de manera exponencial con:

Por lo tanto, es posible tener en cuenta solo algunos de los coeficientes de Schmidt (es decir, los más grandes), descartando los demás y, en consecuencia, normalizando nuevamente el estado:

donde es el número de coeficientes de Schmidt guardados.

Salgamos de este cuadro abstracto y refrescémonos con un ejemplo concreto, para enfatizar la ventaja de hacer esta descomposición. Considere, por ejemplo, el caso de 50 fermiones en una cadena ferromagnética , en aras de la simplicidad. Una dimensión de 12, digamos, para el sería una elección razonable, manteniendo los valores propios descartados en % del total, como lo muestran los estudios numéricos, [4] es decir, aproximadamente coeficientes, en comparación con los originales .

Incluso si los valores propios de Schmidt no tienen esta disminución exponencial, pero muestran una disminución algebraica, todavía podemos usar D para describir nuestro estado . El número de coeficientes para dar cuenta de una descripción fiel puede ser sensiblemente mayor, pero aún al alcance de eventuales simulaciones numéricas.

La actualización de la descomposición.

Ahora se puede proceder a investigar el comportamiento de la descomposición D cuando se actúa sobre ellas con puertas de un qubit (OQG) y puertas de dos qubit (TQG) que actúan sobre qubits vecinos. En lugar de actualizar todos los coeficientes , nos limitaremos a una serie de operaciones que aumentan como un polinomio de bajo grado, ahorrando así tiempo de cálculo .

Puertas de un qubit que actúan sobre qubit k

Los OQG están afectando solo el qubit sobre el que están actuando, la actualización del estado después de que un operador unitario en qubit k no modifica los autovalores o vectores de Schmidt a la izquierda, en consecuencia, el 's, o el derecho, de ahí el ' s . Los únicos que se actualizarán son los (que solo requieren como máximo la mayoría de las operaciones), como

Puertas de dos qubit que actúan sobre qubits k, k + 1

Los cambios requeridos para actualizar las 'sy ' s, luego de una operación unitaria V en qubits k, k + 1 , solo conciernen , y . Consisten en una serie de operaciones básicas.

Siguiendo el enfoque original de Vidal, se puede considerar que pertenece a solo cuatro subsistemas:

El subespacio J está generado por los autovectores de la matriz de densidad reducida :

De manera similar, el subespacio K está atravesado por los autovectores de la matriz de densidad reducida:

Los subespacios y pertenecen a los qubits k y k + 1. Usando esta base y la descomposición D , se puede escribir como:

Usando el mismo razonamiento que para el OQG, la aplicación del TQG V a los qubits k , k + 1 solo necesita actualizar

, y

Podemos escribir como:

donde

Para averiguar la nueva descomposición, la nueva 's en el enlace k y sus correspondientes vectores propios Schmidt debe ser calculado y expresado en términos de los ' s de la descomposición D . Por tanto, la matriz de densidad reducida está diagonalizada :

Las raíces cuadradas de sus valores propios son las nuevas . Expresando los vectores propios de la matriz diagonalizada en la base: los 's se obtienen así:

De los vectores propios de la izquierda,

después de expresarlos en la base , los 's son:

El costo computacional

La dimensión de los tensores más grandes en D es del orden ; al construir uno se hace la sumatoria , y para cada uno , sumando un total de operaciones. Lo mismo vale para la formación de los elementos , o para calcular los vectores propios del lado izquierdo , un máximo de , respectivamente, operaciones básicas. En el caso de los qubits, de ahí que su papel no sea muy relevante para el orden de magnitud del número de operaciones básicas, pero en el caso de que la dimensión presencial sea superior a dos tiene una contribución bastante decisiva.

La simulación numérica

La simulación numérica se dirige a hamiltonianos (posiblemente dependientes del tiempo) de un sistema de partículas dispuestas en una línea, que se componen de OQG y TQG arbitrarios:

Es útil descomponer como una suma de dos términos posiblemente no conmutados , donde

Cualquiera de los términos de dos cuerpos conmutan: , Esto se hace para que la expansión de Suzuki-Trotter (ST) [5] del operador exponencial, el nombre de Masuo Suzuki y Hale Trotter .

La expansión Suzuki – Trotter

La expansión Suzuki-Trotter de primer orden (ST1) representa una forma general de escribir operadores exponenciales:

o equivalente

El término de corrección desaparece en el límite.

Para las simulaciones de dinámica cuántica es útil utilizar operadores que son unitarios , conservando la norma (a diferencia de las expansiones de series de potencia), y ahí es donde entra la expansión de Trotter-Suzuki. En problemas de dinámica cuántica la unitaridad de los operadores en la expansión ST resulta bastante práctico, ya que el error tiende a concentrarse en la fase general , lo que nos permite calcular fielmente los valores esperados y las cantidades conservadas. Debido a que el ST conserva el volumen del espacio de fase, también se le llama integrador simpléctico.

El truco del ST2 es escribir los operadores unitarios como:

donde . El número se llama el número de Trotter.

Simulación de la evolución temporal

Los operadores , son fáciles de expresar, ya que:

desde cualquiera de los dos operadores , (respectivamente, , ) conmute para y una expansión ST de primer orden mantiene sólo el producto de las exponenciales, la aproximación convertirse, en este caso, exacta.

La evolución temporal se puede realizar de acuerdo con

Para cada "paso de tiempo" , se aplican sucesivamente a todos los sitios impares, luego a los pares y nuevamente a los impares; se trata básicamente de una secuencia de TQG, y se ha explicado anteriormente cómo actualizar la descomposición al aplicarlos.

Nuestro objetivo es hacer la evolución temporal de un estado para un tiempo T, hacia el estado utilizando el hamiltoniano de n partículas .

Es bastante problemático, si es posible, construir la descomposición para un estado arbitrario de n-partículas, ya que esto significaría que uno tiene que calcular la descomposición de Schmidt en cada enlace, ordenar los valores propios de Schmidt en orden decreciente y elegir el primero y los vectores propios de Schmidt apropiados. Tenga en cuenta que esto implicaría diagonalizar matrices de densidad reducida algo generosas, que, dependiendo del sistema que se tenga que simular, podría ser una tarea fuera de nuestro alcance y paciencia. En su lugar, se puede intentar hacer lo siguiente:

i) construya la descomposiciónpara un estado inicial simple, digamos, algún estado de producto, para el cual la descomposición es sencilla.

ii) se relacionancon el estado fundamentalde un hamiltonianomediante una transformación Q suficientemente local (una que se puede expresar como un producto de TQG, por ejemplo)

iii) hacer una evolución en tiempo imaginario hacia el estado fundamental del hamiltoniano, deacuerdo con:

o, alternativamente, simular una evolución isentrópica utilizando un hamiltoniano dependiente del tiempo, que interpola entre el hamiltoniano , que tiene el estado del producto como estado fundamental, y el hamiltoniano ; la evolución debe hacerse lo suficientemente lenta, de modo que el sistema esté siempre en el estado fundamental o, al menos, muy cerca de él.

iv) finalmente, haga la evolución temporal del estadohacia eluso del hamiltoniano:

Fuentes de error

Los errores en la simulación son el resultado de la aproximación de Suzuki-Trotter y el truncamiento involucrado del espacio de Hilbert.

Errores provenientes de la expansión Suzuki – Trotter

En el caso de una aproximación de orden de Trotter , el error es de orden . Teniendo en cuenta los pasos, el error después del tiempo T es:

El estado no aproximado es:

donde se mantiene el estado después de la expansión de Trotter y representa la parte que se descuida al hacer la expansión.

El error total escala con el tiempo como:

El error de Trotter es independiente de la dimensión de la cadena.

Errores provenientes del truncamiento del espacio de Hilbert

Considerando los errores derivados del truncamiento del espacio de Hilbert comprendido en la descomposición D , son dobles.

Primero, como hemos visto anteriormente, las contribuciones más pequeñas al espectro de Schmidt se dejan de lado, el estado se representa fielmente hasta:

donde es la suma de todos los valores propios descartados de la matriz de densidad reducida, en el enlace . El estado , en un enlace dado , se describe mediante la descomposición de Schmidt:

donde

¿Se mantiene el estado después del truncamiento y

es el estado formado por las funciones propias correspondientes a los coeficientes de Schmidt más pequeños e irrelevantes, que se desprecian. Ahora, porque están abarcados por vectores correspondientes a espacios ortogonales. Usando el mismo argumento que para la expansión Trotter, el error después del truncamiento es:

Después de pasar al siguiente enlace, el estado es, de manera similar:

El error, después del segundo truncamiento, es:

y así sucesivamente, a medida que pasamos de un vínculo a otro.

La segunda fuente de error incluida en la descomposición es más sutil y requiere un poco de cálculo.

Como calculamos antes, la constante de normalización después de hacer el truncamiento en el enlace es:

Ahora vayamos al enlace y calculemos la norma de los vectores de Schmidt de la derecha ; teniendo en cuenta la dimensión completa de Schmidt, la norma es:

,

donde .

Teniendo en cuenta el espacio truncado, la norma es:

Tomando la diferencia , obtenemos:

Por lo tanto, al construir la matriz de densidad reducida, la traza de la matriz se multiplica por el factor:

El error de truncamiento total

El error de truncamiento total, considerando ambas fuentes, está limitado por:

Cuando usamos la expansión Trotter, no nos movemos de un enlace a otro, sino entre enlaces de la misma paridad; además, para el ST2, hacemos un barrido de los pares y dos de los impares. Sin embargo, el cálculo presentado anteriormente sigue siendo válido. El error se evalúa multiplicando sucesivamente con la constante de normalización, cada vez que construimos la matriz de densidad reducida y seleccionamos sus autovalores relevantes.

Dimensión Schmidt "adaptable"

Una cosa que puede ahorrar mucho tiempo de cálculo sin pérdida de precisión es usar una dimensión de Schmidt diferente para cada enlace en lugar de una fija para todos los enlaces, manteniendo solo la cantidad necesaria de coeficientes relevantes, como es habitual. Por ejemplo, tomando el primer enlace, en el caso de los qubits, la dimensión de Schmidt es solo dos. Por lo tanto, en el primer enlace, en lugar de diagonalizar inútilmente, digamos, matrices de 10 por 10 o 20 por 20, podemos limitarnos a las ordinarias de 2 por 2, lo que hace que el algoritmo sea generalmente más rápido. Lo que podemos hacer en cambio es establecer un umbral para los valores propios de la SD, manteniendo solo aquellos que están por encima del umbral.

TEBD también ofrece la posibilidad de una paralelización sencilla debido a la factorización del operador de evolución temporal exponencial utilizando la expansión Suzuki-Trotter. Una TEBD paralela tiene las mismas matemáticas que su contraparte no paralelizada, la única diferencia está en la implementación numérica.

Referencias

  1. ↑ a b Vidal, Guifré (1 de octubre de 2003). "Simulación clásica eficiente de cálculos cuánticos ligeramente entrelazados". Cartas de revisión física . Sociedad Estadounidense de Física (APS). 91 (14): 147902. arXiv : quant-ph / 0301063 . doi : 10.1103 / physrevlett.91.147902 . ISSN  0031-9007 .
  2. ^ F. Verstraete; JJ García-Ripoll; JI Cirac (2004). "Operadores de densidad de producto matricial: simulación de T finito y sistemas disipativos". Phys. Rev. Lett . 93 (20): 207204. arXiv : cond-mat / 0406426 . Código Bibliográfico : 2004PhRvL..93t7204V . doi : 10.1103 / PhysRevLett.93.207204 . PMID 15600964 .  [1]
  3. ^ M. Zwolak; G. Vidal (2004). "Dinámica de estado mixto en sistemas de celosía cuántica unidimensional: un algoritmo de renormalización superoperador dependiente del tiempo". Phys. Rev. Lett . 93 (20): 207205. arXiv : cond-mat / 0406440 . Código bibliográfico : 2004PhRvL..93t7205Z . doi : 10.1103 / PhysRevLett.93.207205 . PMID 15600965 . 
  4. Vidal, Guifré (19 de julio de 2004). "Simulación eficiente de sistemas cuánticos unidimensionales de muchos cuerpos". Cartas de revisión física . Sociedad Estadounidense de Física (APS). 93 (4): 040502. arXiv : quant-ph / 0310089 . doi : 10.1103 / physrevlett.93.040502 . ISSN 0031-9007 . 
  5. ^ Hatano, Naomichi; Suzuki, Masuo (16 de noviembre de 2005). "Encontrar fórmulas de productos exponenciales de órdenes superiores". Recocido cuántico y otros métodos de optimización . Berlín, Heidelberg: Springer Berlin Heidelberg. págs. 37–68. arXiv : math-ph / 0506007v1 . doi : 10.1007 / 11526216_2 . ISBN 978-3-540-27987-7. ISSN  0075-8450 .
Obtenido de " https://en.wikipedia.org/w/index.php?title=Time-evolving_block_decimation&oldid=1023200844 "