Para probar el teorema de codificación HSW, realmente solo necesitamos algunas cosas básicas de la mecánica cuántica . Primero, un estado cuántico es una traza unitaria, un operador positivo conocido como operador de densidad . Por lo general, lo denotamos por, , , etc. El modelo más simple para un canal cuántico se conoce como canal cuántico clásico:
El significado de la notación anterior es que ingresando la letra clásica en el extremo transmisor conduce a un estado cuántico en el extremo receptor. Es tarea del receptor realizar una medición para determinar la entrada del remitente. Si es cierto que los estados son perfectamente distinguibles entre sí (es decir, si tienen soportes ortogonales tales que por ), entonces el canal es un canal silencioso. Estamos interesados en situaciones en las que este no es el caso. Si es cierto que los estadostodos se desplazan entre sí, entonces esto es efectivamente idéntico a la situación de un canal clásico, por lo que tampoco estamos interesados en estas situaciones. Entonces, la situación que nos interesa es aquella en la que los estados tienen soporte superpuesto y no son conmutativas.
La forma más general de describir una medida cuántica es con una medida positiva valorada por el operador ( POVM ). Por lo general, denotamos los elementos de un POVM como. Estos operadores deben satisfacer la positividad y la integridad para formar un POVM válido:
La interpretación probabilística de la mecánica cuántica establece que si alguien mide un estado cuántico utilizando un dispositivo de medición correspondiente al POVM , entonces la probabilidad para obtener resultado es igual a
y el estado posterior a la medición es
si la persona que mide obtiene un resultado . Estas reglas son suficientes para que consideremos esquemas de comunicación clásicos sobre canales cq.
Lema: [límite de Sen] El siguiente límite es válido para un estado subnormalizado tal que y con , ..., siendo proyectores:
Podemos pensar en el límite de Sen como un "límite de unión no conmutativa" porque es análogo al siguiente límite de unión de la teoría de la probabilidad:
dónde , \ ldots, son eventos. El límite análogo para la lógica del proyector sería
si pensamos en como un proyector en la intersección de subespacios. Sin embargo, el límite anterior solo es válido si los proyectores, ..., están viajando (eligiendo , , y da un contraejemplo). Si los proyectores no se desplazan, entonces el límite de Sen es la mejor opción y es suficiente para nuestros propósitos aquí.
Ahora demostramos el teorema de HSW con la unión no conmutativa de Sen ligada. Dividimos la prueba en algunas partes: generación de libro de códigos, construcción de POVM y análisis de errores.
Generación de libro de códigos. Primero describimos cómo Alice y Bob acuerdan una elección aleatoria de código. Ellos tienen el canal y una distribucion . Ellos eligen secuencias clásicas según la distribución IID \ . Después de seleccionarlos, los etiquetan con índices como. Esto conduce a las siguientes palabras de código cuánticas:
El libro de códigos cuántico es entonces . El estado promedio del libro de códigos es entonces
| | ( 2 ) |
dónde .
Construcción POVM . El enlace de Sens del lema anterior sugiere un método para que Bob decodifique un estado que transmite Alice. Bob debería preguntar primero "¿Está el estado recibido en el subespacio típico promedio?" Puede hacer esto operacionalmente realizando una medición subespacial típica correspondiente a. A continuación, pregunta en orden secuencial: "¿Es la palabra de código recibida en el subespacio condicionalmente típico? "Esto es, en cierto sentido, equivalente a la pregunta," ¿Es la palabra de código recibida la ¿Palabra de código transmitida? "Puede hacer estas preguntas operacionalmente realizando las mediciones correspondientes a los proyectores condicionalmente típicos .
¿Por qué debería funcionar bien este esquema de decodificación secuencial? La razón es que la palabra de código transmitida se encuentra en el subespacio típico en promedio:
donde la desigualdad se sigue de (\ ref {eq: 1st-typ-prop}). Además, los proyectores son "buenos detectores" para los estados (en promedio) porque la siguiente condición se cumple de la tipicidad cuántica condicional:
Análisis de errores . La probabilidad de detectar el palabra de código correctamente bajo nuestro esquema de decodificación secuencial es igual a
donde hacemos la abreviatura . (Observe que proyectamos en el subespacio típico promedio solo una vez). Por lo tanto, la probabilidad de una detección incorrecta para el la palabra en clave viene dada por
y la probabilidad de error promedio de este esquema es igual a
En lugar de analizar la probabilidad de error promedio, analizamos la expectativa de la probabilidad de error promedio, donde la expectativa es con respecto a la elección aleatoria de código:
| | ( 3 ) |
Nuestro primer paso es aplicar el límite de Sen a la cantidad anterior. Pero antes de hacerlo, debemos reescribir la expresión anterior solo un poco, observando que
Sustituyendo en ( 3 ) (y olvidándose de los pequeños término por ahora) da un límite superior de
Luego aplicamos el límite de Sen a esta expresión con y los proyectores secuenciales como , , ..., . Esto le da al límite superior Debido a la concavidad de la raíz cuadrada, podemos unir esta expresión desde arriba por
donde el segundo límite sigue sumando todas las palabras de código que no son iguales a la palabra de código (esta suma solo puede ser mayor).
Ahora nos enfocamos exclusivamente en mostrar que el término dentro de la raíz cuadrada puede hacerse pequeño. Considere el primer término:
donde la primera desigualdad se sigue de ( 1 ) y la segunda desigualdad se sigue del lema del operador suave y las propiedades de tipicidad incondicional y condicional. Considere ahora el segundo término y la siguiente cadena de desigualdades:
La primera igualdad sigue porque las palabras de código y son independientes ya que son diferentes. La segunda igualdad se sigue de ( 2 ). La primera desigualdad se sigue de (\ ref {eq: 3rd-typ-prop}). Continuando, tenemos
La primera desigualdad se sigue de e intercambiando el rastro con la expectativa. La segunda desigualdad se deriva de (\ ref {eq: 2nd-cond-typ}). Los dos siguientes son sencillos.
Poniendo todo junto, obtenemos nuestro límite final en la expectativa de la probabilidad de error promedio:
Por lo tanto, siempre que elijamos , existe un código con probabilidad de error de desaparición.