En la teoría de la información cuántica , la entropía relativa cuántica es una medida de distinguibilidad entre dos estados cuánticos . Es el análogo de la mecánica cuántica de la entropía relativa .
Motivación
Por simplicidad, se supondrá que todos los objetos del artículo son de dimensión finita.
Primero discutimos el caso clásico. Suponga que las probabilidades de una secuencia finita de eventos están dadas por la distribución de probabilidad P = { p 1 ... p n }, pero de alguna manera asumimos erróneamente que es Q = { q 1 ... q n }. Por ejemplo, podemos confundir una moneda injusta con una justa. De acuerdo con esta suposición errónea, nuestra incertidumbre sobre el j -ésimo evento, o de manera equivalente, la cantidad de información proporcionada después de observar el j -ésimo evento, es
La incertidumbre promedio (supuesta) de todos los eventos posibles es entonces
Por otro lado, la entropía de Shannon de la distribución de probabilidad p , definida por
es la cantidad real de incertidumbre antes de la observación. Por tanto, la diferencia entre estas dos cantidades
es una medida de la distinguibilidad de las distribuciones de probabilidad de dos p y q . Esta es precisamente la entropía relativa clásica, o divergencia Kullback-Leibler :
Nota
- En las definiciones anteriores, se asume la convención de que 0 · log 0 = 0, ya que lím x → 0 x log x = 0. Intuitivamente, uno esperaría que un evento de probabilidad cero no contribuya en nada a la entropía.
- La entropía relativa no es una métrica . Por ejemplo, no es simétrico. La discrepancia de incertidumbre al confundir una moneda justa con injusta no es lo mismo que la situación opuesta.
Definición
Al igual que con muchos otros objetos en la teoría de la información cuántica, la entropía relativa cuántica se define extendiendo la definición clásica de distribuciones de probabilidad a matrices de densidad . Sea ρ una matriz de densidad. La entropía de von Neumann de ρ , que es el análogo mecánico cuántico de la entropía de Shannon, está dada por
Para dos matrices de densidad ρ y σ , la entropía relativa cuántica de ρ con respecto a σ se define por
Vemos que, cuando los estados están relacionados clásicamente, es decir, ρσ = σρ , la definición coincide con el caso clásico.
Entropía relativa no finita (divergente)
En general, el soporte de una matriz M es el complemento ortogonal de su núcleo , es decir. Al considerar la entropía relativa cuántica, asumimos la convención de que - s · log 0 = ∞ para cualquier s > 0. Esto conduce a la definición de que
Cuándo
Esto se puede interpretar de la siguiente manera. De manera informal, la entropía relativa cuántica es una medida de nuestra capacidad para distinguir dos estados cuánticos donde los valores más grandes indican estados que son más diferentes. Ser ortogonal representa los estados cuánticos más diferentes que pueden existir. Esto se refleja en la entropía relativa cuántica no finita para estados cuánticos ortogonales. Siguiendo el argumento dado en la sección Motivación, si asumimos erróneamente el estado tiene apoyo en , este es un error imposible de recuperar.
Sin embargo, uno debe tener cuidado de no concluir que la divergencia de la entropía relativa cuántica implica que los estados y son ortogonales o incluso muy diferentes por otras medidas. Específicamente, puede divergir cuando y difieren en una cantidad muy pequeña según lo mide alguna norma. Por ejemplo, deja tener la representación diagonal
con por y por dónde es un conjunto ortonormal. El núcleo de es el espacio que abarca el conjunto . Siguiente vamos
para un pequeño número positivo . Como tiene apoyo (es decir, el estado ) en el núcleo de , es divergente a pesar de que la norma de seguimiento de la diferencia es . Esto significa que la diferencia entre y medido por la norma de trazas es extremadamente pequeño como aunque es divergente (es decir, infinito). Esta propiedad de la entropía relativa cuántica representa una deficiencia grave si no se trata con cuidado.
No negatividad de la entropía relativa
Declaración clásica correspondiente
Para la divergencia clásica de Kullback-Leibler , se puede demostrar que
y la igualdad si y sólo si P = Q . Coloquialmente, esto significa que la incertidumbre calculada utilizando supuestos erróneos es siempre mayor que la cantidad real de incertidumbre.
Para mostrar la desigualdad, reescribimos
Observe que log es una función cóncava . Por lo tanto, -log es convexo . Aplicando la desigualdad de Jensen , obtenemos
La desigualdad de Jensen también establece que la igualdad es válida si y solo si, para todo i , q i = (∑ q j ) p i , es decir, p = q .
El resultado
La desigualdad de Klein establece que la entropía relativa cuántica
no es negativo en general. Es cero si y solo si ρ = σ .
Prueba
Dejemos que ρ y σ tengan descomposiciones espectrales
- \ sum_i \; , \; \sigma
Entonces
El cálculo directo da
donde P i j = | v i * w j | 2 .
Dado que la matriz ( P i j ) ij es una matriz doblemente estocástica y -log es una función convexa, la expresión anterior es
Defina r i = ∑ j q j P i j . Entonces { r i } es una distribución de probabilidad. De la no negatividad de la entropía relativa clásica, tenemos
La segunda parte de la afirmación se deriva del hecho de que, dado que -log es estrictamente convexo, la igualdad se logra en
si y solo si ( P i j ) es una matriz de permutación , lo que implica ρ = σ , después de un etiquetado adecuado de los autovectores { v i } y { w i }.
Convexidad conjunta de entropía relativa
La entropía relativa es conjuntamente convexa . Para y estados tenemos
Monotonicidad de la entropía relativa
La entropía relativa disminuye monótonamente bajo operaciones de conservación de trazas completamente positivas (CPTP) en matrices de densidad,
.
Esta desigualdad se llama Monotonicidad de la entropía relativa cuántica.
Una medida de enredo
Deje que un sistema cuántico compuesto tenga espacio de estados
y rho ser una matriz de densidad que actúa sobre H .
La entropía relativa del entrelazamiento de ρ se define por
donde el mínimo se hace cargo de la familia de estados separables . Una interpretación física de la cantidad es la distinguibilidad óptima del estado ρ de los estados separables.
Claramente, cuando ρ no está enredado
por la desigualdad de Klein.
Relación con otras cantidades de información cuántica
Una razón por la que la entropía relativa cuántica es útil es que otras cantidades importantes de información cuántica son casos especiales de la misma. A menudo, los teoremas se expresan en términos de entropía relativa cuántica, lo que conduce a corolarios inmediatos con respecto a las otras cantidades. A continuación, enumeramos algunas de estas relaciones.
Deje ρ AB ser el estado conjunto de un sistema bipartito con subsistema A de dimensión n A y B de dimensión n B . Sean ρ A , ρ B los respectivos estados reducidos e I A , I B las respectivas identidades. Los estados máximamente mixtos son I A / n A y I B / n B . Entonces es posible demostrar con cálculo directo que
donde I ( A : B ) es la información mutua cuántica y S ( B | A ) es la entropía condicional cuántica .
Referencias
- Vedral, V. (8 de marzo de 2002). "El papel de la entropía relativa en la teoría de la información cuántica". Reseñas de Física Moderna . Sociedad Estadounidense de Física (APS). 74 (1): 197–234. arXiv : quant-ph / 0102094 . Código Bibliográfico : 2002RvMP ... 74..197V . doi : 10.1103 / revmodphys.74.197 . ISSN 0034-6861 .
- Michael A. Nielsen, Isaac L. Chuang, "Computación cuántica e información cuántica"