En mecánica estadística cuántica , la entropía de von Neumann , llamada así por John von Neumann , es la extensión de los conceptos clásicos de entropía de Gibbs al campo de la mecánica cuántica . Para un sistema mecánico-cuántico descrito por una matriz de densidad ρ , la entropía de von Neumann es [1]
dónde denota la traza e ln denota el logaritmo de la matriz (natural) . Si ρ se escribe en términos de sus autovectores como
entonces la entropía de von Neumann es simplemente [1]
De esta forma, S puede verse como la entropía de Shannon de la teoría de la información . [1]
La entropía de von Neumann también se utiliza en diferentes formas ( entropías condicionales , entropías relativas , etc.) en el marco de la teoría de la información cuántica para caracterizar la entropía del entrelazamiento . [2]
Fondo
John von Neumann estableció un marco matemático riguroso para la mecánica cuántica en su trabajo de 1932 Fundamentos matemáticos de la mecánica cuántica . [3] En él, proporcionó una teoría de la medición, donde la noción habitual de colapso de la función de onda se describe como un proceso irreversible (el llamado von Neumann o medición proyectiva).
La matriz de densidad fue introducida, con diferentes motivaciones, por von Neumann y por Lev Landau . La motivación que inspiró a Landau fue la imposibilidad de describir un subsistema de un sistema cuántico compuesto por un vector de estado. [4] Por otro lado, von Neumann introdujo la matriz de densidad para desarrollar tanto la mecánica estadística cuántica como una teoría de las medidas cuánticas.
El formalismo de la matriz de densidad, así desarrollado, extendió las herramientas de la mecánica estadística clásica al dominio cuántico. En el marco clásico, la distribución de probabilidad y la función de partición del sistema nos permite calcular todas las cantidades termodinámicas posibles. Von Neumann introdujo la matriz de densidad para desempeñar el mismo papel en el contexto de los estados cuánticos y los operadores en un espacio de Hilbert complejo. El conocimiento del operador de matriz de densidad estadística nos permitiría calcular todas las entidades cuánticas promedio de una manera conceptualmente similar, pero matemáticamente diferente.
Supongamos que tenemos un conjunto de funciones de onda | Ψ > paramétrica que dependen de un conjunto de números cuánticos n 1 , n 2 , ..., n N . La variable natural que tenemos es la amplitud con la que una función de onda particular del conjunto básico participa en la función de onda real del sistema. Denotemos el cuadrado de esta amplitud por p ( n 1 , n 2 , ..., n N ). El objetivo es convertir esta cantidad p en la función de densidad clásica en el espacio de fase. Tenemos que verificar que p pasa a la función de densidad en el límite clásico y que tiene propiedades ergódicas . Después de comprobar que p ( n 1 , n 2 , ..., n N ) es una constante de movimiento, una suposición ergódica para las probabilidades p ( n 1 , n 2 , ..., n N ) hace que p sea una función de la energía solamente.
Después de este procedimiento, finalmente se llega al formalismo de la matriz de densidad cuando se busca una forma donde p ( n 1 , n 2 , ..., n N ) es invariante con respecto a la representación utilizada. En la forma está escrito, sólo se obtendrán los valores esperados correctos para cantidades que son diagonal con respecto a los números cuánticos n 1 , n 2 , ..., n N .
Los valores esperados de los operadores que no son diagonales involucran las fases de las amplitudes cuánticas. Supongamos que codificamos los números cuánticos n 1 , n 2 , ..., n N en el índice único i o j . Entonces nuestra función de onda tiene la forma
El valor esperado de un operador B que no es diagonal en estas funciones de onda, por lo que
El rol que originalmente estaba reservado para las cantidades está por lo tanto tomado por la matriz de densidad del sistema S .
Por lo tanto, 〈B〉 lee
La invariancia del término anterior se describe mediante la teoría de matrices. Se describió un marco matemático donde el valor esperado de los operadores cuánticos, como se describe mediante matrices, se obtiene tomando la traza del producto del operador de densidad. y un operador (Producto escalar de Hilbert entre operadores). El formalismo matricial aquí se encuentra en el marco de la mecánica estadística, aunque también se aplica a los sistemas cuánticos finitos, que suele ser el caso, donde el estado del sistema no puede describirse mediante un estado puro , sino como un operador estadístico.del formulario anterior. Matemáticamente,es una matriz hermitiana semidefinida positiva con traza unitaria.
Definición
Dada la matriz de densidad ρ , von Neumann definió la entropía [5] [6] como
que es una extensión adecuada de la entropía de Gibbs (hasta un factor k B ) y la entropía de Shannon al caso cuántico. Para calcular S ( ρ ) es conveniente (ver el logaritmo de una matriz ) calcular la descomposición propia de. La entropía de von Neumann viene dada por
Dado que, para un estado puro, la matriz de densidad es idempotente , ρ = ρ 2 , la entropía S ( ρ ) para ella desaparece. Por lo tanto, si el sistema es finito (representación matricial de dimensión finita), la entropía S ( ρ ) cuantifica la salida del sistema de un estado puro . En otras palabras, codifica el grado de mezcla del estado que describe un sistema finito dado. La medición descodifica un sistema cuántico en algo que no interfiere y aparentemente clásico ; así, por ejemplo, la entropía que se desvanece de un estado puro, correspondiente a una matriz de densidad
aumenta a para la mezcla de resultados de medición
a medida que se borra la información de interferencia cuántica.
Propiedades
Algunas propiedades de la entropía de von Neumann:
- S ( ρ ) es cero si y solo si ρ representa un estado puro.
- S ( ρ ) es máximo e igual a ln N para un estado de mezcla máxima ,siendo N la dimensión del espacio de Hilbert .
- S ( ρ ) es invariante bajo cambios en la base de ρ , es decir, S ( ρ ) = S ( UρU † ) , con U una transformación unitaria.
- S ( ρ ) es cóncava, es decir, dada una colección de números positivos λ i que suman la unidad () y operadores de densidad ρ i , tenemos
- S ( ρ ) satisface el límite
- donde la igualdad se logra si ρ i tiene soporte ortogonal, y como antes ρ i son operadores de densidad y λ i es una colección de números positivos que suman la unidad ( )
- S ( ρ ) es aditivo para sistemas independientes. Dadas dos matrices de densidad ρ A , ρ B que describen sistemas independientes A y B , tenemos
- .
- S ( ρ ) es fuertemente subaditivo para cualesquiera tres sistemas A , B y C :
- Esto significa automáticamente que S ( ρ ) es subaditivo:
A continuación, se discute el concepto de subaditividad, seguido de su generalización a una fuerte subaditividad.
Subaditividad
Si ρ A , ρ B son las matrices de densidad reducida del estado general ρ AB , entonces
Esta desigualdad de la mano derecha se conoce como subaditividad . Las dos desigualdades juntas a veces se conocen como desigualdad triangular . Fueron probados en 1970 por Huzihiro Araki y Elliott H. Lieb . [7] Mientras que en la teoría de Shannon la entropía de un sistema compuesto nunca puede ser menor que la entropía de cualquiera de sus partes, en la teoría cuántica este no es el caso, es decir, es posible que S ( ρ AB ) = 0 , mientras que S ( ρ A ) = S ( ρ B )> 0 .
Intuitivamente, esto se puede entender de la siguiente manera: en mecánica cuántica, la entropía del sistema conjunto puede ser menor que la suma de la entropía de sus componentes porque los componentes pueden estar entrelazados . Por ejemplo, como se ve explícitamente, el estado de Bell de dos spin-½,
es un estado puro con entropía cero, pero cada espín tiene la entropía máxima cuando se considera individualmente en su matriz de densidad reducida . [8] La entropía en un giro se puede "cancelar" al estar correlacionada con la entropía del otro. La desigualdad de la izquierda se puede interpretar aproximadamente como si dijera que la entropía solo puede cancelarse con una cantidad igual de entropía.
Si el sistema A y el sistema B tienen diferentes cantidades de entropía, el menor solo puede cancelar parcialmente al mayor, y debe quedar algo de entropía. Asimismo, la desigualdad de la derecha se puede interpretar en el sentido de que la entropía de un sistema compuesto se maximiza cuando sus componentes no están correlacionados, en cuyo caso la entropía total es solo una suma de las subentropías. Esto puede ser más intuitivo en la formulación del espacio de fase , en lugar del espacio uno de Hilbert, donde la entropía de Von Neumann equivale a menos el valor esperado del ★ -logaritmo de la función de Wigner , - ∫ f ★ log ★ f dx dp , hasta un cambio de compensación. [6] Hasta este desplazamiento de compensación de normalización, la entropía es mayorizada por la de su límite clásico .
Subaditividad fuerte
La entropía de von Neumann también es fuertemente subaditiva . Dados tres espacios de Hilbert , A , B , C ,
Este es un teorema más difícil y fue probado primero por J. Kiefer en 1959 [9] [10] e independientemente por Elliott H. Lieb y Mary Beth Ruskai en 1973, [11] usando una desigualdad matricial de Elliott H. Lieb [12 ] probado en 1973. Mediante el uso de la técnica de prueba que establece el lado izquierdo de la desigualdad del triángulo anterior, se puede demostrar que la desigualdad de subaditividad fuerte es equivalente a la siguiente desigualdad.
cuando ρ AB , etc. son las matrices de densidad reducida de una matriz de densidad ρ ABC . Si aplicamos subaditividad ordinaria al lado izquierdo de esta desigualdad, y consideramos todas las permutaciones de A , B , C , obtenemos la desigualdad triangular para ρ ABC : Cada uno de los tres números S ( ρ AB ), S ( ρ BC ), S ( ρ AC ) es menor o igual a la suma de los otros dos.
Ver también
- Entropía (teoría de la información)
- Entropía lineal
- Función de partición (matemáticas)
- Entropía condicional cuántica
- Información mutua cuántica
- Entrelazamiento cuántico
- Fuerte subaditividad de la entropía cuántica
- Entropía Wehrl
Referencias
- ^ a b c Bengtsson, Ingemar; Zyczkowski, Karol. Geometría de los estados cuánticos: una introducción al entrelazamiento cuántico (1ª ed.). pag. 301.
- ^ Nielsen, Michael A. e Isaac Chuang (2001). Computación cuántica e información cuántica (Repr. Ed.). Cambridge [ua]: Universidad de Cambridge. Prensa. pag. 700. ISBN 978-0-521-63503-5.
- ^ Von Neumann, John (1932). Mathematische Grundlagen der Quantenmechanik . Berlín: Springer. ISBN 3-540-59207-5.; Von Neumann, John (1955). Fundamentos matemáticos de la mecánica cuántica . Prensa de la Universidad de Princeton. ISBN 978-0-691-02893-4.
- ^ Landau, L. (1927). "Das Daempfungsproblem in der Wellenmechanik". Zeitschrift für Physik . 45 (5–6): 430–464. Código Bib : 1927ZPhy ... 45..430L . doi : 10.1007 / BF01343064 .
- ^ Geometría de los estados cuánticos: una introducción al entrelazamiento cuántico, por Ingemar Bengtsson, Karol Życzkowski, p301
- ^ a b Zachos, CK (2007). "Un límite clásico de la entropía cuántica". Revista de Física A: Matemática y Teórica . 40 (21): F407. arXiv : hep-th / 0609148 . Código Bibliográfico : 2007JPhA ... 40..407Z . doi : 10.1088 / 1751-8113 / 40/21 / F02 .
- ^ Huzihiro Araki y Elliott H. Lieb, Desigualdades de entropía , Comunicaciones en física matemática, vol 18, 160-170 (1970).
- ^ Zurek, WH (2003). "Decoherencia, einselección y los orígenes cuánticos de lo clásico". Reseñas de Física Moderna . 75 (3): 715. arXiv : quant-ph / 0105127 . Código Bibliográfico : 2003RvMP ... 75..715Z . doi : 10.1103 / RevModPhys.75.715 .
- ^ Kiefer, J. (julio de 1959). "Diseños experimentales óptimos" . Revista de la Royal Statistical Society, Serie B (Metodológica) . 21 (2): 272–310.
- ^ Ruskai, Mary Beth. "Evolución de un teorema fundamental de la entropía cuántica" . youtube.com . World Scientific . Consultado el 20 de agosto de 2020 .
Charla invitada en la Conferencia en honor al 90 cumpleaños de Freeman Dyson, Instituto de Estudios Avanzados, Universidad Tecnológica de Nanyang, Singapur, 26-29 de agosto de 2013. La nota sobre Kiefer (1959) está en la marca 26:40.
- ^ Elliott H. Lieb y Mary Beth Ruskai, Prueba de la fuerte subditividad de la entropía mecánica cuántica , Journal of Mathematical Physics, vol 14, 1938-1941 (1973).
- ^ Elliott H. Lieb, Funciones de seguimiento convexo y la conjetura de Wigner-Yanase-Dyson , Avances en matemáticas , vol 67, 267-288 (1973).