En probabilidad y estadística , la distancia de Hellinger (estrechamente relacionada, aunque diferente, a la distancia de Bhattacharyya ) se utiliza para cuantificar la similitud entre dos distribuciones de probabilidad . Es un tipo de f- divergencia . La distancia de Hellinger se define en términos de la integral de Hellinger , que fue introducida por Ernst Hellinger en 1909. [1] [2]
Definición
Teoría de la medida
Para definir la distancia de Hellinger en términos de la teoría de la medida , denoten P y Q dos medidas de probabilidad que son absolutamente continuas con respecto a una tercera medida de probabilidad λ. El cuadrado de la distancia de Hellinger entre P y Q se define como la cantidad
Aquí, dP / dλ y dQ / d λ son las derivadas Radon-Nikodym de P y Q respectivamente. Esta definición no depende de λ, por lo que la distancia de Hellinger entre P y Q no cambia si λ se reemplaza con una medida de probabilidad diferente con respecto a la cual tanto P como Q son absolutamente continuos. Para compacidad, la fórmula anterior a menudo se escribe como
Teoría de la probabilidad usando la medida de Lebesgue
Para definir la distancia de Hellinger en términos de la teoría de probabilidad elemental, tomamos λ como la medida de Lebesgue , de modo que dP / dλ y dQ / d λ son simplemente funciones de densidad de probabilidad . Si denotamos las densidades como f y g , respectivamente, la distancia de Hellinger al cuadrado se puede expresar como una integral de cálculo estándar
donde la segunda forma se puede obtener expandiendo el cuadrado y usando el hecho de que la integral de una densidad de probabilidad sobre su dominio es igual a 1.
La distancia de Hellinger H ( P , Q ) satisface la propiedad (derivable de la desigualdad de Cauchy-Schwarz )
Distribuciones discretas
Para dos distribuciones de probabilidad discretas y , su distancia Hellinger se define como
que está directamente relacionada con la norma euclidiana de la diferencia de los vectores de raíz cuadrada, es decir
También,
Propiedades
La distancia de Hellinger forma una métrica acotada en el espacio de distribuciones de probabilidad sobre un espacio de probabilidad dado .
La distancia máxima 1 se logra cuando P asigna probabilidad cero a cada conjunto al que Q asigna una probabilidad positiva, y viceversa.
A veces el factor delante de la integral se omite, en cuyo caso la distancia de Hellinger varía de cero a la raíz cuadrada de dos.
La distancia de Hellinger está relacionada con el coeficiente de Bhattacharyya ya que se puede definir como
Las distancias de Hellinger se utilizan en la teoría de la estadística secuencial y asintótica . [3] [4]
La distancia de Hellinger al cuadrado entre dos distribuciones normales y es:
La distancia de Hellinger al cuadrado entre dos distribuciones normales multivariadas y es [5]
La distancia de Hellinger al cuadrado entre dos distribuciones exponenciales y es:
La distancia de Hellinger al cuadrado entre dos distribuciones de Weibull y (dónde es un parámetro de forma común y son los parámetros de escala respectivamente):
La distancia de Hellinger al cuadrado entre dos distribuciones de Poisson con parámetros de tasa y , así que eso y , es:
La distancia de Hellinger al cuadrado entre dos distribuciones Beta y es:
dónde es la función Beta .
Conexión con distancia de variación total
La distancia de Hellinger y la distancia de variación total (o distancia estadística)están relacionados de la siguiente manera: [6]
Estas desigualdades siguen inmediatamente de las desigualdades entre el 1-norma y el 2-norma .
Ver también
Notas
- ^ Nikulin, MS (2001) [1994], "Distancia de Hellinger" , Enciclopedia de las matemáticas , EMS Press
- ^ Hellinger, Ernst (1909), "Neue Begründung der Theorie quadratischer Formen von unendlichvielen Veränderlichen" , Journal für die reine und angewandte Mathematik (en alemán), 136 : 210-271, doi : 10.1515 / crll.1909.136.210 , JFM 40.0393. 01
- ^ Torgerson, Erik (1991). "Comparación de experimentos estadísticos". Enciclopedia de Matemáticas . 36 . Prensa de la Universidad de Cambridge.
- ^ Liese, Friedrich; Miescke, Klaus-J. (2008). Teoría de la decisión estadística: estimación, prueba y selección . Saltador. ISBN 0-387-73193-8.
- ^ Pardo, L. (2006). Inferencia estadística basada en medidas de divergencia . Nueva York: Chapman y Hall / CRC. pag. 51. ISBN 1-58488-600-5.
- ^ Harsha, Prahladh (23 de septiembre de 2011). "Apuntes sobre la complejidad de la comunicación" (PDF) .
Referencias
- Yang, Grace Lo ; Le Cam, Lucien M. (2000). Asintótica en estadística: algunos conceptos básicos . Berlín: Springer. ISBN 0-387-95036-2.
- Vaart, AW van der. Estadística asintótica (Cambridge Series in Statistical and Probabilistic Mathematics) . Cambridge, Reino Unido: Cambridge University Press. ISBN 0-521-78450-6.
- Pollard, David E. (2002). Una guía del usuario para medir la probabilidad teórica . Cambridge, Reino Unido: Cambridge University Press. ISBN 0-521-00289-3.