En la teoría de la probabilidad , la desigualdad de Chebyshev (también llamada desigualdad de Bienaymé-Chebyshev ) garantiza que, para una amplia clase de distribuciones de probabilidad , no más de una cierta fracción de valores puede estar a más de una cierta distancia de la media . Específicamente, no más de 1 / k 2 de los valores de la distribución pueden ser k o más desviaciones estándar de la media (o de manera equivalente, más de 1 - 1 / k 2 de los valores de la distribución son menores que kdesviaciones estándar de la media). La regla a menudo se llama teorema de Chebyshev, sobre el rango de desviaciones estándar alrededor de la media, en estadística. La desigualdad tiene gran utilidad porque se puede aplicar a cualquier distribución de probabilidad en la que se definan la media y la varianza. Por ejemplo, se puede utilizar para demostrar la ley débil de los grandes números .
Su uso práctico es similar a la regla 68–95–99.7 , que se aplica solo a distribuciones normales . La desigualdad de Chebyshev es más general, afirmando que un mínimo de solo el 75% de los valores debe estar dentro de dos desviaciones estándar de la media y el 88,89% dentro de tres desviaciones estándar para una amplia gama de distribuciones de probabilidad diferentes . [1] [2]
El término desigualdad de Chebyshev también puede referirse a la desigualdad de Markov , especialmente en el contexto del análisis. Están estrechamente relacionados, y algunos autores se refieren a la desigualdad de Markov como "Primera desigualdad de Chebyshev", y la similar a la que se hace referencia en esta página como "Segunda desigualdad de Chebyshev".
Historia
El teorema lleva el nombre del matemático ruso Pafnuty Chebyshev , aunque fue formulado por primera vez por su amiga y colega Irénée-Jules Bienaymé . [3] : 98 El teorema fue establecido por primera vez sin prueba por Bienaymé en 1853 [4] y luego probado por Chebyshev en 1867. [5] Su alumno Andrey Markov proporcionó otra prueba en su Ph.D. de 1884. tesis. [6]
Declaración
La desigualdad de Chebyshev generalmente se establece para variables aleatorias , pero se puede generalizar a una declaración sobre espacios de medida .
Declaración probabilística
Sea X (integrable) una variable aleatoria con un valor esperado finito μ y una varianza finita distinta de cero σ 2 . Entonces, para cualquier número real k > 0 ,
Solo el caso es útil. Cuándo el lado derecho y la desigualdad es trivial ya que todas las probabilidades son ≤ 1.
Como ejemplo, usando muestra que la probabilidad de que los valores estén fuera del intervalo no excede .
Debido a que se puede aplicar a distribuciones completamente arbitrarias siempre que tengan una media y una varianza finitas conocidas, la desigualdad generalmente da un límite pobre en comparación con lo que podría deducirse si se conocen más aspectos acerca de la distribución involucrada.
k | Min. % dentro de k desviaciones estándar de la media | Max. % más allá de k desviaciones estándar de la media |
---|---|---|
1 | 0% | 100% |
√ 2 | 50% | 50% |
1,5 | 55,56% | 44,44% |
2 | 75% | 25% |
2 √ 2 | 87,5% | 12,5% |
3 | 88,8889% | 11,1111% |
4 | 93,75% | 6,25% |
5 | 96% | 4% |
6 | 97,2222% | 2,7778% |
7 | 97,9592% | 2.0408% |
8 | 98,4375% | 1,5625% |
9 | 98,7654% | 1,2346% |
10 | 99% | 1% |
Declaración de la teoría de la medida
Sea ( X , Σ, μ) un espacio de medida , y dejar que f sea una verdadera extendida -valued función medible definida en X . Entonces, para cualquier número real t > 0 y 0 < p <∞, [7]
De manera más general, si g es una función medible de valor real extendida, no negativa y no decreciente, conluego: [ cita requerida ]
La declaración anterior sigue definiendo como Si y de lo contrario.
Ejemplo
Supongamos que seleccionamos al azar un artículo de revista de una fuente con un promedio de 1000 palabras por artículo, con una desviación estándar de 200 palabras. Entonces podemos inferir que la probabilidad de que tenga entre 600 y 1400 palabras (es decir, dentro de k = 2 desviaciones estándar de la media) debe ser al menos del 75%, porque no hay más de 1 ⁄ k2
= 1/4posibilidad de estar fuera de ese rango, por la desigualdad de Chebyshev. Pero si además sabemos que la distribución es normal , podemos decir que hay un 75% de probabilidad de que el recuento de palabras esté entre 770 y 1230 (que es un límite aún más estricto).
Nitidez de límites
Como se muestra en el ejemplo anterior, el teorema generalmente proporciona límites bastante flexibles. Sin embargo, estos límites no se pueden mejorar en general (siendo válidos para distribuciones arbitrarias). Los límites son nítidos para el siguiente ejemplo: para cualquier k ≥ 1,
Para esta distribución, la media μ = 0 y la desviación estándar σ = 1/k , entonces
La desigualdad de Chebyshev es una igualdad para precisamente aquellas distribuciones que son una transformación lineal de este ejemplo.
Prueba (de la versión de dos caras)
Prueba probabilística
La desigualdad de Markov establece que para cualquier variable aleatoria de valor real Y y cualquier número positivo a , tenemos Pr (| Y |> a ) ≤ E (| Y |) / a . Una forma de demostrar la desigualdad de Chebyshev es aplicar la desigualdad de Markov a la variable aleatoria Y = ( X - μ ) 2 con a = ( kσ ) 2 .
También se puede probar directamente usando la expectativa condicional :
La desigualdad de Chebyshev sigue luego de dividir por k 2 σ 2 .
Esta prueba también muestra por qué los límites son bastante laxos en casos típicos: la expectativa condicional sobre el evento donde | X - μ | < kσ se descarta, y el límite inferior de k 2 σ 2 en el evento | X - μ | ≥ kσ puede ser bastante pobre.
Prueba de la teoría de la medida
Reparar y deja ser definido como , y deja ser la función indicadora del conjunto . Entonces, es fácil comprobar que, para cualquier,
dado que g no es decreciente, y por lo tanto,
donde la última desigualdad está justificada por la no negatividad de g . La desigualdad deseada se obtiene al dividir la desigualdad anterior por g ( t ).
Prueba asumiendo que la variable aleatoria X es continua
Usando la definición de la función de densidad de probabilidad f ( x ) y una caracterización estándar de la varianza Var ( X ):
tenemos:
Reemplazando kσ con ε , donde k = ε / σ , tenemos otra forma de la desigualdad de Chebyshev:
o el equivalente
donde ε se define de la misma manera que k ; cualquier número real positivo.
Extensiones
Se han desarrollado varias extensiones de la desigualdad de Chebyshev.
Asimétrico de dos caras
Si X tiene media μ y varianza σ 2 , entonces
Si y , dónde y . [9]
Esto se reduce a la desigualdad de Chebyshev en el caso simétrico ( ℓ y u equidistantes de la media).
Generalización bivariada
Sean X 1 , X 2 dos variables aleatorias con medias μ 1 , μ 2 y varianzas finitas σ 1 , σ 2 respectivamente. Entonces, un límite de unión muestra que
Este límite no requiere que X 1 y X 2 sean independientes. [9]
Correlación bivariada conocida
Berge derivó una desigualdad para dos variables correlacionadas X 1 , X 2 . [10] Sea ρ el coeficiente de correlación entre X 1 y X 2 y sea σ i 2 la varianza de X i . Luego
Posteriormente, Lal obtuvo una consolidación alternativa [11]
Isii derivó una generalización adicional. [12] Deja
y definir:
Ahora hay tres casos.
- Caso A: Si y luego
- Caso B: Si no se cumplen las condiciones en el caso A pero k 1 k 2 ≥ 1 y
- luego
- Caso C: Si no se cumple ninguna de las condiciones en los casos A o B, entonces no hay límite universal distinto de 1.
Multivariante
El caso general se conoce como la desigualdad de Birnbaum-Raymond-Zuckerman por los autores que lo demostraron para dos dimensiones. [13]
donde X i es la i -ésima variable aleatoria, μ i es la i -ésima media y σ i 2 es la i -ésima varianza.
Si las variables son independientes, esta desigualdad se puede agudizar. [14]
Olkin y Pratt derivaron una desigualdad para n variables correlacionadas. [15]
donde la suma se toma sobre las n variables y
donde ρ ij es la correlación entre X i y X j .
Posteriormente, Godwin generalizó la desigualdad de Olkin y Pratt. [dieciséis]
Vector de dimensión finita
Ferentinos [9] ha demostrado que para un vector X = ( x 1 , x 2 , ...) con media μ = ( μ 1 , μ 2 , ...) , desviación estándar σ = ( σ 1 , σ 2 , ...) y la norma euclidiana || ⋅ || que
Chen también ha derivado una segunda desigualdad relacionada. [17] Sea n ser la dimensión del vector estocástico X y dejar que E ( X ) será la media de X . Deje que S sea la matriz de covarianza y k > 0 . Luego
donde Y T es la transpuesta de Y . En Navarro [18] se obtuvo una prueba simple de la siguiente manera:
dónde
y es una matriz simétrica invertible tal que: . Por eso y dónde representa la matriz identidad de dimensión n . Luego y
Finalmente, aplicando la desigualdad de Markov a Z obtenemos
y así se mantiene la desigualdad deseada.
La desigualdad se puede escribir en términos de la distancia de Mahalanobis como
donde la distancia de Mahalanobis basada en S está definida por
Navarro [19] demostró que estos límites son nítidos, es decir, son los mejores límites posibles para esas regiones cuando solo conocemos la media y la matriz de covarianza de X.
Stellato y col. [20] mostró que esta versión multivariante de la desigualdad de Chebyshev se puede derivar fácilmente analíticamente como un caso especial de Vandenberghe et al. [21] donde el límite se calcula resolviendo un programa semidefinito (SDP).
Dimensiones infinitas
Existe una extensión directa de la versión vectorial de la desigualdad de Chebyshev a configuraciones dimensionales infinitas. Sea X una variable aleatoria que toma valores en un espacio de Fréchet (equipado con seminormes || ⋅ || α ). Esto incluye la configuración más común de variables aleatorias con valores vectoriales, por ejemplo, cuandoes un espacio de Banach (equipado con una sola norma), un espacio de Hilbert o el escenario de dimensión finita como se describe arriba.
Supongamos que X es de " orden fuerte dos ", lo que significa que
para cada seminario || ⋅ || α . Ésta es una generalización del requisito de que X tenga varianza finita, y es necesaria para esta forma fuerte de la desigualdad de Chebyshev en dimensiones infinitas. La terminología "fuerte orden dos" se debe a Vakhania . [22]
Dejar ser la integral de Pettis de X (es decir, la generalización vectorial de la media), y sea
ser la desviación estándar con respecto a la seminorm || ⋅ || α . En este escenario podemos afirmar lo siguiente:
- Versión general de la desigualdad de Chebyshev.
Prueba. La prueba es sencilla y esencialmente la misma que la versión final. Si σ α = 0 , entonces X es constante (e igual a μ ) casi con seguridad, por lo que la desigualdad es trivial.
Si
entonces || X - μ || α > 0 , por lo que podemos dividir con seguridad por || X - μ || α . El truco crucial en la desigualdad de Chebyshev es reconocer que.
Los siguientes cálculos completan la demostración:
Momentos superiores
También es posible una extensión a momentos superiores:
Momento exponencial
Una desigualdad relacionada a veces conocida como la desigualdad exponencial de Chebyshev [23] es la desigualdad
Sea K ( t ) la función generadora acumulativa ,
Tomando la transformación de Legendre-Fenchel [ aclaración necesaria ] de K ( t ) y usando la desigualdad exponencial de Chebyshev tenemos
Esta desigualdad se puede utilizar para obtener desigualdades exponenciales para variables ilimitadas. [24]
Variables acotadas
Si P ( x ) tiene soporte finito basado en el intervalo [ a , b ] , sea M = max (| a |, | b |) donde | x | es el valor absoluto de x . Si la media de P ( x ) es cero, entonces para todo k > 0 [25]
La segunda de estas desigualdades con r = 2 es el límite de Chebyshev. El primero proporciona un límite inferior para el valor de P ( x ).
Niemitalo ha propuesto límites definidos para una variante acotada, pero sin una prueba [26]
Sea 0 ≤ X ≤ M donde M > 0 . Luego
- Caso 1:
- Caso 2:
- Caso 3:
Muestras finitas
Caso univariado
Saw et al extendieron la desigualdad de Chebyshev a los casos en los que la media y la varianza de la población no se conocen y pueden no existir, pero la media muestral y la desviación estándar muestral de N muestras deben emplearse para limitar el valor esperado de un nuevo dibujo de la misma distribución . [27]
donde X es una variable aleatoria que hemos muestreado N veces, m es la media de la muestra, k es una constante y s es la desviación estándar de la muestra. g ( x ) se define como sigue:
Sea x ≥ 1, Q = N + 1 y R el mayor número entero menor que Q / x . Dejar
Ahora
Esta desigualdad se mantiene incluso cuando los momentos poblacionales no existen, y cuando la muestra se distribuye sólo de manera débilmente intercambiable ; este criterio se cumple para el muestreo aleatorio. Konijn ha determinado una tabla de valores para la desigualdad Saw-Yang-Mo para tamaños de muestra finitos ( N <100). [28] La tabla permite el cálculo de varios intervalos de confianza para la media, basada en múltiplos, C, del error estándar de la media calculada a partir de la muestra. Por ejemplo, Konijn muestra que para N = 59, el intervalo de confianza del 95 por ciento para la media m es ( m - Cs , m + Cs ) donde C = 4.447 × 1.006 = 4.47 (esto es 2.28 veces mayor que el valor encontrado en el supuesto de normalidad que muestra la pérdida de precisión resultante del desconocimiento de la naturaleza precisa de la distribución).
Kabán ofrece una versión algo menos compleja de esta desigualdad. [29]
Si la desviación estándar es un múltiplo de la media, se puede derivar una desigualdad adicional, [29]
Konijn ha determinado una tabla de valores para la desigualdad Saw-Yang-Mo para tamaños de muestra finitos ( N <100). [28]
Para N fijo y m grande, la desigualdad Saw-Yang-Mo es aproximadamente [30]
Beasley et al han sugerido una modificación de esta desigualdad [30]
En las pruebas empíricas, esta modificación es conservadora pero parece tener un poder estadístico bajo. Actualmente, su base teórica permanece inexplorada.
Dependencia del tamaño de la muestra
Los límites que dan estas desigualdades en una muestra finita son menos estrictos que los que da la desigualdad de Chebyshev para una distribución. Para ilustrar esto, sea el tamaño de la muestra N = 100 y sea k = 3. La desigualdad de Chebyshev establece que como máximo aproximadamente el 11.11% de la distribución estará al menos a tres desviaciones estándar de la media. La versión de Kabán de la desigualdad para una muestra finita establece que como máximo aproximadamente el 12,05% de la muestra se encuentra fuera de estos límites. La dependencia de los intervalos de confianza del tamaño de la muestra se ilustra con más detalle a continuación.
Para N = 10, el intervalo de confianza del 95% es aproximadamente ± 13,5789 desviaciones estándar.
Para N = 100, el intervalo de confianza del 95% es aproximadamente ± 4,9595 desviaciones estándar; el intervalo de confianza del 99% es aproximadamente ± 140,0 desviaciones estándar.
Para N = 500, el intervalo de confianza del 95% es aproximadamente ± 4.5574 desviaciones estándar; el intervalo de confianza del 99% es aproximadamente ± 11,1620 desviaciones estándar.
Para N = 1000, los intervalos de confianza del 95% y 99% son aproximadamente ± 4.5141 y aproximadamente ± 10.5330 desviaciones estándar, respectivamente.
La desigualdad de Chebyshev para la distribución da intervalos de confianza del 95% y 99% de aproximadamente ± 4,472 desviaciones estándar y ± 10 desviaciones estándar, respectivamente.
La desigualdad de Samuelson
Aunque la desigualdad de Chebyshev es el mejor límite posible para una distribución arbitraria, esto no es necesariamente cierto para muestras finitas. La desigualdad de Samuelson establece que todos los valores de una muestra estarán dentro de √ N - 1 desviaciones estándar de la media. El límite de Chebyshev mejora a medida que aumenta el tamaño de la muestra.
Cuando N = 10, la desigualdad de Samuelson establece que todos los miembros de la muestra se encuentran dentro de 3 desviaciones estándar de la media: en contraste, Chebyshev afirma que el 99,5% de la muestra se encuentra dentro de 13,5789 desviaciones estándar de la media.
Cuando N = 100, la desigualdad de Samuelson establece que todos los miembros de la muestra se encuentran dentro de aproximadamente 9,9499 desviaciones estándar de la media: Chebyshev afirma que el 99% de la muestra se encuentra dentro de 10 desviaciones estándar de la media.
Cuando N = 500, la desigualdad de Samuelson establece que todos los miembros de la muestra se encuentran dentro de aproximadamente 22,3383 desviaciones estándar de la media: Chebyshev afirma que el 99% de la muestra se encuentra dentro de 10 desviaciones estándar de la media.
Caso multivariado
Stellato y col. [20] simplificó la notación y amplió la desigualdad empírica de Chebyshev de Saw et al. [27] al caso multivariado. Dejar ser una variable aleatoria y dejar . Dibujamos iid muestras de denotado como . Basado en el primero muestras, definimos la media empírica como y la covarianza empírica insesgada como . Si no es singular, entonces para todos luego
Observaciones
En el caso univariado, es decir , esta desigualdad corresponde a la de Saw et al. [27] Además, el lado derecho se puede simplificar mediante el límite superior de la función de piso mediante su argumento
Como , el lado derecho tiende a que corresponde a la desigualdad multivariante de Chebyshev sobre elipsoides conformados según y centrado en .
Límites afilados
La desigualdad de Chebyshev es importante debido a su aplicabilidad a cualquier distribución. Como resultado de su generalidad, es posible que no proporcione (y generalmente no lo hace) un límite tan nítido como los métodos alternativos que pueden usarse si se conoce la distribución de la variable aleatoria. Para mejorar la nitidez de los límites proporcionados por la desigualdad de Chebyshev, se han desarrollado varios métodos; para una revisión, consulte, por ejemplo. [31]
Variables estandarizadas
Los límites definidos se pueden derivar estandarizando primero la variable aleatoria. [32]
Sea X una variable aleatoria con varianza finita Var ( X ). Sea Z la forma estandarizada definida como
El lema de Cantelli es entonces
Esta desigualdad es aguda y se obtiene mediante k y −1 / k con probabilidad 1 / (1 + k 2 ) y k 2 / (1 + k 2 ) respectivamente.
Si k > 1 y la distribución de X es simétrica, entonces tenemos
La igualdad es válida si y solo si Z = - k , 0 o k con probabilidades 1/2 k 2 , 1 - 1 / k 2 y 1/2 k 2 respectivamente. [32] También es posible una extensión a una desigualdad bilateral.
Sea u , v > 0. Entonces tenemos [32]
Semivarianzas
Un método alternativo para obtener límites más nítidos es mediante el uso de semivarianzas (variaciones parciales). Las semivarianzas superior ( σ + 2 ) e inferior ( σ - 2 ) se definen como
donde m es la media aritmética de la muestra y n es el número de elementos de la muestra.
La varianza de la muestra es la suma de las dos semivarianzas:
En términos de la semivarianza inferior, se puede escribir la desigualdad de Chebyshev [33]
Poniendo
La desigualdad de Chebyshev ahora se puede escribir
También se puede obtener un resultado similar para la semivarianza superior.
Si ponemos
La desigualdad de Chebyshev se puede escribir
Como σ u 2 ≤ σ 2 , el uso de la semivarianza agudiza la desigualdad original.
Si se sabe que la distribución es simétrica, entonces
y
Este resultado concuerda con el derivado mediante variables estandarizadas.
- Nota
- Se ha encontrado que la desigualdad con la semivarianza más baja es útil para estimar el riesgo a la baja en las finanzas y la agricultura. [33] [34] [35]
La desigualdad de Selberg
Selberg derivó una desigualdad para P ( x ) cuando a ≤ x ≤ b . [36] Para simplificar la notación, deje
dónde
y
El resultado de esta transformación lineal es hacer que P ( a ≤ X ≤ b ) sea igual a P (| Y | ≤ k ).
La media ( μ X ) y la varianza ( σ X ) de X están relacionadas con la media ( μ Y ) y la varianza ( σ Y ) de Y :
Con esta notación, la desigualdad de Selberg establece que
Se sabe que estos son los mejores límites posibles. [37]
La desigualdad de Cantelli
La desigualdad de Cantelli [38] debido a Francesco Paolo Cantelli establece que para una variable aleatoria real ( X ) con media ( μ ) y varianza ( σ 2 )
donde a ≥ 0.
Esta desigualdad se puede utilizar para probar una variante de una cola de la desigualdad de Chebyshev con k > 0 [39]
Se sabe que el límite de la variante de una cola es nítido. Para ver esto, considere la variable aleatoria X que toma los valores
- con probabilidad
- con probabilidad
Entonces E ( X ) = 0 y E ( X 2 ) = σ 2 y P ( X <1) = 1 / (1 + σ 2 ).
Una aplicación: distancia entre la media y la mediana
La variante unilateral se puede utilizar para demostrar la proposición de que para las distribuciones de probabilidad que tienen un valor esperado y una mediana , la media y la mediana nunca pueden diferir entre sí en más de una desviación estándar . Para expresar esto en símbolos, sean μ , ν y σ, respectivamente, la media, la mediana y la desviación estándar. Luego
No es necesario suponer que la varianza es finita porque esta desigualdad es trivialmente cierta si la varianza es infinita.
La prueba es como sigue. Establecer k = 1 en el enunciado de la desigualdad unilateral da:
Cambiando el signo de X y de μ , obtenemos
Como la mediana es, por definición, cualquier número real m que satisfaga las desigualdades
esto implica que la mediana se encuentra dentro de una desviación estándar de la media. También existe una prueba que utiliza la desigualdad de Jensen .
La desigualdad de Bhattacharyya
Bhattacharyya [40] amplió la desigualdad de Cantelli utilizando el tercer y cuarto momento de la distribución.
Sea μ = 0 y σ 2 la varianza. Sea γ = E ( X 3 ) / σ 3 y κ = E ( X 4 ) / σ 4 .
Si k 2 - k γ - 1> 0 entonces
La necesidad de k 2 - k γ - 1> 0 requiere que k sea razonablemente grande.
La desigualdad de Mitzenmacher y Upfal
Mitzenmacher y Upfal [41] señalan que
para cualquier entero k > 0 y que
es el 2 k ésimo momento central. Luego muestran que para t > 0
Para k = 1 obtenemos la desigualdad de Chebyshev. Para t ≥ 1, k > 2 y asumiendo que existe el k- ésimo momento, este límite es más estrecho que la desigualdad de Chebyshev.
Desigualdades relacionadas
También se conocen varias otras desigualdades relacionadas.
La desigualdad de Zelen
Zelen ha demostrado que [42]
con
donde M m es el m -ésimo momento [ aclaración necesaria ] y σ es la desviación estándar.
Él, Zhang y la desigualdad de Zhang
Para cualquier colección de n variables aleatorias independientes no negativas X i con expectativa 1 [43]
Lema de Hoeffding
Deje que X sea una variable aleatoria con un ≤ X ≤ b y E [ X ] = 0 , entonces para cualquier s > 0 , tenemos
Atado de Van Zuijlen
Sea X i un conjunto de variables aleatorias independientes de Rademacher : Pr ( X i = 1) = Pr ( X i = −1) = 0.5 . Entonces [44]
El límite es agudo y mejor que el que se puede derivar de la distribución normal (aproximadamente Pr> 0,31 ).
Distribuciones unimodales
Una función de distribución F es unimodal en ν si su función de distribución acumulativa es convexa en (−∞, ν ) y cóncava en ( ν , ∞) [45] Se puede probar la unimodalidad de una distribución empírica con la prueba de inmersión . [46]
En 1823 Gauss demostró que para una distribución unimodal con moda cero [47]
Si la moda no es cero y la media ( μ ) y la desviación estándar ( σ ) son ambas finitas, entonces denotando la mediana como ν y la raíz de la desviación cuadrática media de la moda por c , tenemos [ cita requerida ]
y
Winkler en 1866 extendió la desigualdad de Gauss a los momentos r [48] donde r > 0 y la distribución es unimodal con una moda de cero:
Posteriormente, el límite de Gauss se ha agudizado y ampliado para aplicarse a las desviaciones de la media en lugar de la moda debido a la desigualdad de Vysochanskiï-Petunin . Este último ha sido ampliado por Dharmadhikari y Joag-Dev [49].
donde s es una constante que satisface tanto s > r + 1 como s ( s - r - 1) = r r y r > 0.
Se puede demostrar que estas desigualdades son las mejores posibles y que una mayor agudización de los límites requiere que se impongan restricciones adicionales a las distribuciones.
Distribuciones simétricas unimodales
Los límites de esta desigualdad también se pueden agudizar si la distribución es unimodal y simétrica . [50] Se puede probar la simetría de una distribución empírica con una serie de pruebas, incluida la R * de McWilliam. [51] Se sabe que la varianza de una distribución simétrica unimodal con soporte finito [ a , b ] es menor o igual que ( b - a ) 2/12 . [52]
Sea la distribución apoyada en el intervalo finito [- N , N ] y la varianza sea finita. Deje que la moda de la distribución sea cero y cambie la escala de la varianza a 1. Sea k > 0 y suponga que k <2 N / 3. Entonces [50]
Si 0 < k ≤ 2 / √ 3 los límites se alcanzan con la densidad [50]
Si 2 / √ 3 < k ≤ 2 N / 3 los límites son alcanzados por la distribución
donde β k = 4/3 k 2 , δ 0 es la función delta de Dirac y donde
La existencia de estas densidades muestra que los límites son óptimos. Desde N es arbitraria de estos límites se aplican a cualquier valor de N .
La desigualdad de Camp-Meidell es una desigualdad relacionada. [53] Para una distribución unimodal y simétrica absolutamente continua
DasGupta ha demostrado que si se sabe que la distribución es normal [54]
Notas
Efectos de la simetría y la unimodalidad
La simetría de la distribución disminuye los límites de la desigualdad en un factor de 2, mientras que la unimodalidad agudiza los límites en un factor de 4/9. [ cita requerida ]
Debido a que la media y la moda en una distribución unimodal difieren como máximo en √ 3 desviaciones estándar [55] como máximo el 5% de una distribución unimodal simétrica se encuentra fuera (2 √ 10 + 3 √ 3 ) / 3 desviaciones estándar de la media (aproximadamente 3.840 desviaciones estándar). Esto es más nítido que los límites proporcionados por la desigualdad de Chebyshev (aproximadamente 4.472 desviaciones estándar).
Estos límites de la media son menos nítidos que los que pueden derivarse de la simetría de la distribución sola, lo que muestra que como máximo el 5% de la distribución se encuentra fuera de aproximadamente 3.162 desviaciones estándar de la media. La desigualdad Vysochanskiï-Petunin agudiza aún más esta vinculada por lo que demuestra que para la distribución tal que como máximo el 5% de las mentiras de distribución fuera de 4 √ 5 /3 (aproximadamente 2.981) desviaciones estándar de la media.
Distribuciones unimodales simétricas
Para cualquier distribución unimodal simétrica [ cita requerida ]
- como máximo aproximadamente el 5.784% de la distribución se encuentra fuera de 1.96 desviaciones estándar de la moda
- como máximo el 5% de las mentiras de distribución fuera de 2 √ 10 /3 (aproximadamente 2,11) desviaciones estándar del modo de
Distribuciones normales
La desigualdad de DasGupta establece que para una distribución normal, al menos el 95% se encuentra dentro de aproximadamente 2.582 desviaciones estándar de la media. Esto es menos nítido que la cifra real (aproximadamente 1,96 desviaciones estándar de la media).
Límites para distribuciones específicas
- DasGupta ha determinado un conjunto de los mejores límites posibles para una distribución normal para esta desigualdad. [54]
- Steliga y Szynal han ampliado estos límites a la distribución de Pareto . [8]
- Grechuk y col. desarrolló un método general para derivar los mejores límites posibles en la desigualdad de Chebyshev para cualquier familia de distribuciones, y cualquier medida de riesgo de desviación en lugar de la desviación estándar. En particular, derivaron la desigualdad de Chebyshev para distribuciones con densidades log-cóncavas . [56]
Cero significa
Cuando la media ( μ ) es cero, la desigualdad de Chebyshev toma una forma simple. Sea σ 2 la varianza. Luego
Con las mismas condiciones, la desigualdad de Cantelli toma la forma
Varianza de la unidad
Si además E ( X 2 ) = 1 y E ( X 4 ) = ψ entonces para cualquier 0 ≤ ε ≤ 1 [57]
La primera desigualdad es aguda. Esto se conoce como desigualdad de Paley-Zygmund .
También se sabe que para una variable aleatoria que obedezca las condiciones anteriores que [58]
dónde
También se sabe que [58]
El valor de C 0 es óptimo y los límites son nítidos si
Si
entonces el límite agudo es
Desigualdad integral de Chebyshev
Hay una segunda desigualdad (menos conocida) que también lleva el nombre de Chebyshev [59]
Si f , g : [ a , b ] → R son dos funciones monotónicas de la misma monotonicidad, entonces
Si f y g son de monotonicidad opuesta, entonces la desigualdad anterior funciona a la inversa.
Esta desigualdad está relacionada con la desigualdad de Jensen , [60] la desigualdad de Kantorovich , [61] la desigualdad de Hermite-Hadamard [61] y la conjetura de Walter . [62]
Otras desigualdades
También hay una serie de otras desigualdades asociadas con Chebyshev:
- Desigualdad de suma de Chebyshev
- Desigualdades de Chebyshev – Markov – Stieltjes
La transformación de Haldane
Un uso de la desigualdad de Chebyshev en las aplicaciones es crear intervalos de confianza para variables con una distribución desconocida. Haldane señaló, [63] utilizando una ecuación derivada por Kendall , [64] que si una variable ( x ) tiene una media cero, una varianza unitaria y tanto asimetría finita ( γ ) como curtosis ( κ ), entonces la variable se puede convertir a una puntuación estándar normalmente distribuida ( z ):
Esta transformación puede ser útil como alternativa a la desigualdad de Chebyshev o como complemento de ella para derivar intervalos de confianza para variables con distribuciones desconocidas.
Si bien esta transformación puede ser útil para distribuciones moderadamente sesgadas y / o kurtóticas, funciona mal cuando la distribución está marcadamente sesgada y / o kurtótica.
Notas
La Agencia de Protección Ambiental ha sugerido las mejores prácticas para el uso de la desigualdad de Chebyshev para estimar intervalos de confianza. Cálculo de los límites superiores de confianza para concentraciones de puntos de exposición en sitios de desechos peligrosos (Informe). Oficina de Respuesta a Emergencias y Remedios de la Agencia de Protección Ambiental de los Estados Unidos. Diciembre de 2002 . Consultado el 5 de agosto de 2016 .
Ver también
- Desigualdad multidimensional de Chebyshev
- Desigualdad de concentración : un resumen de los límites de cola de las variables aleatorias.
- Expansión de Cornish-Fisher
- La desigualdad de Eaton
- La desigualdad de Kolmogorov
- Prueba de la ley débil de los grandes números utilizando la desigualdad de Chebyshev
- Teorema de Le Cam
- Desigualdad de Paley-Zygmund
- Desigualdad de Vysochanskiï-Petunin : un resultado más sólido aplicable a distribuciones de probabilidad unimodales
Referencias
- ^ Kvanli, Alan H .; Pavur, Robert J .; Keeling, Kellie B. (2006). Estadísticas de gestión concisas . c Participar en el aprendizaje . págs. 81–82. ISBN 9780324223880.
- ^ Chernick, Michael R. (2011). Los fundamentos de la bioestadística para médicos, enfermeras y clínicos . John Wiley e hijos . págs. 49–50. ISBN 9780470641859.
- ^ Knuth, Donald (1997). El arte de la programación informática: algoritmos fundamentales, volumen 1 (3ª ed.). Reading, Massachusetts: Addison – Wesley. ISBN 978-0-201-89683-1. Consultado el 1 de octubre de 2012 .
- ^ Bienaymé, I.-J. (1853). "Considérations àl'appui de la découverte de Laplace". Comptes Rendus de l'Académie des Sciences . 37 : 309–324.
- ^ Tchebichef, P. (1867). "Des valeurs moyennes". Journal de Mathématiques Pures et Appliquées . 2. 12 : 177-184.
- ^ Markov A. (1884) Sobre ciertas aplicaciones de fracciones continuas algebraicas, Ph.D. tesis, San Petersburgo
- ^ Grafakos, Lukas (2004). Análisis de Fourier clásico y moderno . Pearson Education Inc. pág. 5.
- ^ a b Steliga, Katarzyna; Szynal, Dominik (2010). "Sobre las desigualdades de tipo Markov" (PDF) . Revista Internacional de Matemática Pura y Aplicada . 58 (2): 137-152. ISSN 1311-8080 . Consultado el 10 de octubre de 2012 .
- ^ a b c Ferentinos, K (1982). "En desigualdades de tipo Tchebyche ff". Trabajos Estadıst Investigacion Oper . 33 : 125-132. doi : 10.1007 / BF02888707 . S2CID 123762564 .
- ^ Berge, PO (1938). "Una nota sobre una forma del teorema de Tchebycheff para dos variables". Biometrika . 29 (3/4): 405–406. doi : 10.2307 / 2332015 . JSTOR 2332015 .
- ^ Lal DN (1955) Una nota sobre una forma de desigualdad de Tchebyche ff para dos o más variables. Sankhya 15 (3): 317–320
- ^ Isii K. (1959) Sobre un método para generalizaciones de la desigualdad de Tchebycheff. Ann Inst Stat Math 10: 65–88
- ^ Birnbaum, ZW; Raymond, J .; Zuckerman, HS (1947). "Una generalización de la desigualdad de Tshebyshev a dos dimensiones" . Los Anales de Estadística Matemática . 18 (1): 70–79. doi : 10.1214 / aoms / 1177730493 . ISSN 0003-4851 . Señor 0019849 . Zbl 0032.03402 . Consultado el 7 de octubre de 2012 .
- ^ Kotz, Samuel ; Balakrishnan, N .; Johnson, Norman L. (2000). Distribuciones continuas multivariadas, volumen 1, modelos y aplicaciones (2ª ed.). Boston [ua]: Houghton Mifflin. ISBN 978-0-471-18387-7. Consultado el 7 de octubre de 2012 .
- ^ Olkin, Ingram ; Pratt, John W. (1958). "Una desigualdad multivariante de Tchebycheff" . Los Anales de Estadística Matemática . 29 (1): 226–234. doi : 10.1214 / aoms / 1177706720 . Señor 0093865 . Zbl 0085.35204 .
- ^ Godwin HJ (1964) Desigualdades en funciones de distribución. Nueva York, Hafner Pub. Co.
- ^ Xinjia Chen (2007). "Una nueva generalización de la desigualdad de Chebyshev para vectores aleatorios". arXiv : 0707.0805v2 [ math.ST ].
- ^ a b Stellato, Bartolomeo; Parys, Bart PG Van; Goulart, Paul J. (31 de mayo de 2016). "Desigualdad multivariante de Chebyshev con media estimada y varianza". El estadístico estadounidense . 71 (2): 123-127. arXiv : 1509.08398 . doi : 10.1080 / 00031305.2016.1186559 . ISSN 0003-1305 . S2CID 53407286 .
- ^ Vandenberghe, L .; Boyd, S .; Comanor, K. (1 de enero de 2007). "Límites de Chebyshev generalizados a través de programación semidefinida". Revisión SIAM . 49 (1): 52–64. Código Bib : 2007SIAMR..49 ... 52V . CiteSeerX 10.1.1.126.9105 . doi : 10.1137 / S0036144504440543 . ISSN 0036-1445 .
- ↑ Vakhania, Nikolai Nikolaevich. Distribuciones de probabilidad en espacios lineales. Nueva York: Holanda Septentrional, 1981.
- ^ Sección 2.1 Archivado el 30 de abril de 2015 en la Wayback Machine.
- ^ Baranoski, Gladimir VG; Rokne, Jon G .; Xu, Guangwu (15 de mayo de 2001). "Aplicación de la desigualdad exponencial de Chebyshev al cálculo no determinista de factores de forma". Revista de espectroscopia cuantitativa y transferencia radiativa . 69 (4): 199–200. Código bibliográfico : 2001JQSRT..69..447B . doi : 10.1016 / S0022-4073 (00) 00095-9 . (las referencias de este artículo están corregidas por Baranoski, Gladimir VG; Rokne, Jon G .; Guangwu Xu (15 de enero de 2002). "Corrigendum para: 'Aplicar la desigualdad exponencial de Chebyshev al cálculo no determinista de factores de forma ' ". Revista de espectroscopia cuantitativa y transferencia radiativa . 72 (2): 199–200. Código bibliográfico : 2002JQSRT..72..199B . doi : 10.1016 / S0022-4073 (01) 00171-6 .)
- ^ Dufour (2003) Propiedades de momentos de variables aleatorias
- ^ Niemitalo O. (2012) Desigualdades unilaterales de tipo Chebyshev para distribuciones de probabilidad acotadas.
- ^ a b c Saw, John G .; Yang, Mark CK; Mo, Tse Chin (1984). "Desigualdad de Chebyshev con media estimada y varianza". El estadístico estadounidense . 38 (2): 130–2. doi : 10.2307 / 2683249 . ISSN 0003-1305 . JSTOR 2683249 .
- ^ a b Konijn, Hendrik S. (febrero de 1987). "Intervalos de predicción sin distribución y otros". El estadístico estadounidense . 41 (1): 11-15. doi : 10.2307 / 2684311 . JSTOR 2684311 .
- ^ a b Kabán, Ata (2012). "Detección no paramétrica de distancias sin sentido en datos de alta dimensión". Estadística y Computación . 22 (2): 375–85. doi : 10.1007 / s11222-011-9229-0 . S2CID 6018114 .
- ^ a b Beasley, T. Mark; Page, Grier P .; Marca, Jaap PL; Gadbury, Gary L .; Mountz, John D .; Allison, David B. (enero de 2004). "Desigualdad de Chebyshev para pruebas no paramétricas con pequeñas N y α en la investigación de microarrays". Revista de la Royal Statistical Society . C (Estadística aplicada). 53 (1): 95–108. doi : 10.1111 / j.1467-9876.2004.00428.x . ISSN 1467-9876 .
- ^ Salvaje, I. Richard. "Desigualdades de probabilidad del tipo Tchebycheff". Revista de investigación de la Oficina Nacional de Estándares-B. Matemáticas y Física Matemática B 65 (1961): 211-222
- ^ a b c Ion, Roxana Alice (2001). "Capítulo 4: Desigualdades agudas de tipo Chebyshev" . Control de proceso estadístico no paramétrico . Universiteit van Amsterdam. ISBN 978-9057760761. Consultado el 1 de octubre de 2012 .
- ^ a b Berck, Peter ; Hihn, Jairus M. (mayo de 1982). "Uso de la semivarianza para estimar las reglas de seguridad primero". Revista Estadounidense de Economía Agrícola . 64 (2): 298–300. doi : 10.2307 / 1241139 . ISSN 0002-9092 . JSTOR 1241139 .
- ^ Nantell, Timothy J .; Price, Barbara (junio de 1979). "Una comparación analítica de las teorías del mercado de capitales de varianza y semivarianza". La revista de análisis financiero y cuantitativo . 14 (2): 221–42. doi : 10.2307 / 2330500 . JSTOR 2330500 .
- ^ Neave, Edwin H .; Ross, Michael N .; Yang, junio (2009). "Distinguir el potencial alcista del riesgo bajista". Noticias de investigación de gestión . 32 (1): 26–36. doi : 10.1108 / 01409170910922005 . ISSN 0140-9174 .
- ^ Selberg, Henrik L. (1940). "Zwei Ungleichungen zur Ergänzung des Tchebycheffschen Lemmas" [Dos desigualdades que complementan el lema de Tchebycheff]. Skandinavisk Aktuarietidskrift (Diario actuarial escandinavo) (en alemán). 1940 (3-4): 121-125. doi : 10.1080 / 03461238.1940.10404804 . ISSN 0346-1238 . OCLC 610399869 .
- ^ Conlon, J .; Dulá, JH "Una derivación geométrica e interpretación de la desigualdad de Tchebyscheff" (PDF) . Consultado el 2 de octubre de 2012 . Cite journal requiere
|journal=
( ayuda ) - ^ Cantelli F. (1910) Intorno ad un teorema fondamentale della teoria del rischio. Bolletino dell Associazione degli Attuari Italiani
- ^ Grimmett y Stirzaker, problema 7.11.9. Varias pruebas de este resultado se pueden encontrar en Desigualdades de Chebyshev de AG McDowell.
- ^ Bhattacharyya, BB (1987). "Desigualdad chebyshev unilateral cuando se conocen los primeros cuatro momentos". Comunicaciones en estadística: teoría y métodos . 16 (9): 2789–91. doi : 10.1080 / 03610928708829540 . ISSN 0361-0926 .
- ^ Mitzenmacher, Michael ; Upfal, Eli (enero de 2005). Probabilidad y computación: algoritmos aleatorios y análisis probabilístico (Repr. Ed.). Cambridge [ua]: Universidad de Cambridge. Prensa. ISBN 9780521835404. Consultado el 6 de octubre de 2012 .
- ^ Zelen M. (1954) Se limita a una función de distribución que son funciones de momentos al orden de cuatro. J Res Nat Bur Stand 53: 377–381
- ^ Él es.; Zhang, J .; Zhang, S. (2010). "Límite de probabilidad de pequeña desviación: un enfoque de cuarto momento". Matemáticas de la investigación operativa . 35 (1): 208–232. doi : 10.1287 / moor.1090.0438 . S2CID 11298475 .
- ^ Martien CA van Zuijlen (2011) sobre una conjetura sobre la suma de variables aleatorias independientes de Rademacher
- ^ Feller, William (1966). Una introducción a la teoría de la probabilidad y sus aplicaciones, volumen 2 (2 ed.). Wiley. pag. 155. ISBN 9789994311071. Consultado el 6 de octubre de 2012 .
- ^ Hartigan, JA; Hartigan, PM (1985). "La prueba de inmersión de la unimodalidad" . The Annals of Statistics . 13 : 70–84. doi : 10.1214 / aos / 1176346577 . Señor 0773153 .
- ^ Gauss CF Theoria Combinationis Observationum Erroribus Minimis Obnoxiae. Pars Prior. Pars Posterior. Supplementum. Teoría de la combinación de observaciones menos sujeta a errores. Parte uno. La segunda parte. Suplemento. 1995. Traducido por GW Stewart. Serie de Clásicos en Matemáticas Aplicadas, Sociedad de Matemáticas Industriales y Aplicadas, Filadelfia
- ^ Winkler A. (1886) Math-Natur theorie Kl. Akad. Wiss Wien Zweite Abt 53, 6–41
- ^ Dharmadhikari, SW; Joag-Dev, K. (1985). "La desigualdad de Gauss-Tchebyshev para distribuciones unimodales" (PDF) . Teoriya Veroyatnostei i ee Primeneniya . 30 (4): 817–820.
- ^ a b c Clarkson, Eric; Denny, JL; Shepp, Larry (2009). "ROC y los límites de probabilidades de cola a través de teoremas de Dubins y F. Riesz" . Los anales de la probabilidad aplicada . 19 (1): 467–76. arXiv : 0903.0518 . Código bibliográfico : 2009arXiv0903.0518C . doi : 10.1214 / 08-AAP536 . PMC 2828638 . PMID 20191100 .
- ^ McWilliams, Thomas P. (1990). "Una prueba de simetría sin distribución basada en una estadística de rachas". Revista de la Asociación Estadounidense de Estadística . 85 (412): 1130–3. doi : 10.2307 / 2289611 . ISSN 0162-1459 . JSTOR 2289611 .
- ^ Seaman, John W., Jr .; Young, Dean M .; Odell, Patrick L. (1987). "Mejora de los estimadores de varianza de muestras pequeñas para variables aleatorias acotadas". Matemáticas industriales . 37 : 65–75. ISSN 0019-8528 . Zbl 0637.62024 .
- ^ Bickel, Peter J .; Krieger, Abba M. (1992). "Extensiones de la desigualdad de Chebyshev con las aplicaciones" (PDF) . Probabilidad y estadística matemática . 13 (2): 293–310. ISSN 0208-4147 . Consultado el 6 de octubre de 2012 .
- ^ a b DasGupta, A (2000). "Mejores constantes en desigualdades de Chebychev con diversas aplicaciones". Metrika . 5 (1): 185–200. doi : 10.1007 / s184-000-8316-9 . S2CID 121436601 .
- ^ "Más pensamientos sobre una versión de una cola de la desigualdad de Chebyshev - por Henry Bottomley" . se16.info . Consultado el 12 de junio de 2012 .[ enlace muerto permanente ]
- ^ Grechuk, B., Molyboha, A., Zabarankin, M. (2010). Desigualdades de Chebyshev con medidas de desviación invariante de ley , probabilidad en las ciencias de la ingeniería y la información, 24 (1), 145-170.
- ^ Godwin HJ (1964) Desigualdades en funciones de distribución. (Capítulo 3) Nueva York, Hafner Pub. Co.
- ↑ a b Lesley FD, Rotar VI (2003) Algunas observaciones sobre los límites inferiores del tipo de Chebyshev para medias líneas. J Desigualdades Matemáticas puramente aplicadas 4 (5) Arte 96
- ^ Fink, AM; Jodeit, Max, Jr. (1984). "Sobre la otra desigualdad de Chebyshev" . En Tong, YL; Gupta, Shanti S. (eds.). Desigualdades en estadística y probabilidad . Notas de conferencias del Instituto de Estadística Matemática - Serie de monografías. 5 . págs. 115-120. doi : 10.1214 / lnms / 1215465637 . ISBN 978-0-940600-04-1. Señor 0789242 . Consultado el 7 de octubre de 2012 .
- ^ Niculescu, Constantin P. (2001). "Una extensión de la desigualdad de Chebyshev y su conexión con la desigualdad de Jensen" . Revista de Desigualdades y Aplicaciones . 6 (4): 451–462. CiteSeerX 10.1.1.612.7056 . doi : 10.1155 / S1025583401000273 . ISSN 1025-5834 . Consultado el 6 de octubre de 2012 .
- ^ a b Niculescu, Constantin P .; Pečarić, Josip (2010). "La equivalencia de la desigualdad de Chebyshev a la desigualdad de Hermite-Hadamard" (PDF) . Informes matemáticos . 12 (62): 145-156. ISSN 1582-3067 . Consultado el 6 de octubre de 2012 .
- ^ Malamud, SM (15 de febrero de 2001). "Algunos complementos a las desigualdades de Jensen y Chebyshev y un problema de W. Walter" . Actas de la American Mathematical Society . 129 (9): 2671–2678. doi : 10.1090 / S0002-9939-01-05849-X . ISSN 0002-9939 . Señor 1838791 . Consultado el 7 de octubre de 2012 .
- ^ Haldane, JB (1952). "Pruebas simples de bimodalidad y bitangencia". Anales de la eugenesia . 16 (4): 359–364. doi : 10.1111 / j.1469-1809.1951.tb02488.x . PMID 14953132 .
- ^ Kendall MG (1943) La teoría avanzada de la estadística, 1. Londres
Otras lecturas
- A. Papoulis (1991), Probabilidad, variables aleatorias y procesos estocásticos , 3ª ed. McGraw – Hill. ISBN 0-07-100870-5 . págs. 113-114.
- G. Grimmett y D. Stirzaker (2001), Probabilidad y procesos aleatorios , 3ª ed. Oxford. ISBN 0-19-857222-0 . Sección 7.3.
enlaces externos
- "Desigualdad de Chebyshev en la teoría de la probabilidad" , Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
- Prueba formal en el sistema Mizar .