Aunque el término estadística de buen comportamiento a menudo parece ser utilizado en la literatura científica en un tanto de la misma manera como es de buen comportamiento en matemáticas (es decir, en el sentido de "no patológico " [1] [2] ) también puede ser asignado un significado matemático preciso, y de más de una manera. En el primer caso, el significado de este término variará de un contexto a otro. En el último caso, las condiciones matemáticas se pueden utilizar para derivar clases de combinaciones de distribuciones con estadísticas que se comporten bien en cada sentido.
Primera definición: La varianza de un estimador estadístico de buen comportamiento es finita y una condición de su media es que sea diferenciable en el parámetro que se está estimando. [3]
Segunda definición: la estadística es monótona, bien definida y suficiente a nivel local. [4]
Condiciones para una estadística de buen comportamiento: primera definición
Más formalmente, las condiciones se pueden expresar de esta manera. es una estadística para que es una función de la muestra, . Parapara comportarse bien necesitamos:
: Condición 1
diferenciable en , y la derivada satisface:
: Condición 2
Condiciones para una estadística de buen comportamiento: segunda definición
Para derivar la ley de distribución del parámetro T , compatible con, la estadística debe obedecer a algunas propiedades técnicas. Es decir, se dice que una estadística s se comporta bien si satisface las siguientes tres afirmaciones:
- monotonicidad . Existe una relación uniformemente monótona entre s y? para cualquier semilla fija - para tener una solución única de (1);
- bien definido . En cada s observado , la estadística está bien definida para cada valor de?, Es decir, cualquier especificación de muestra tal que tiene una densidad de probabilidad diferente de 0 - para evitar considerar un mapeo no sobreyectivo de a , es decir, asociar a través de a una muestra a ? que no pudo generar la muestra en sí;
- suficiencia local .constituye una muestra T verdadera para los s observados , de modo que se puede atribuir la misma distribución de probabilidad a cada valor muestreado. Ahora, es una solución de (1) con la semilla . Dado que las semillas se distribuyen por igual, la única salvedad proviene de su independencia o, a la inversa, de su dependencia de? sí mismo. Este control puede restringirse a las semillas involucradas por s , es decir, este inconveniente puede evitarse requiriendo que la distribución dees independiente de?. Una forma sencilla de comprobar esta propiedad es mapear las especificaciones de semillas ens especificaciones. El mapeo, por supuesto, depende de?, Pero la distribución deno dependerá de si la independencia de siembra anterior tiene - una condición que parece un local de la suficiencia de la estadística S .
El resto del presente artículo se ocupa principalmente del contexto de los procedimientos de minería de datos aplicados a la inferencia estadística y, en particular, al grupo de procedimientos computacionalmente intensivos que se han denominado inferencia algorítmica .
Inferencia algorítmica
En la inferencia algorítmica , la propiedad de un estadístico que es de mayor relevancia es el paso pivotante que permite transferir las consideraciones de probabilidad de la distribución de la muestra a la distribución de los parámetros que representan la distribución de la población de tal manera que la conclusión de este estadístico El paso de inferencia es compatible con la muestra realmente observada.
Por defecto, las letras mayúsculas (como U , X ) denotarán variables aleatorias y las minúsculas ( u , x ) sus realizaciones correspondientes y con letras góticas (como) el dominio donde la variable toma especificaciones. Frente a una muestra, dado un mecanismo de muestreo , con escalar, para la variable aleatoria X , tenemos
El mecanismo de muestreo , de la estadística s , en función? de con especificaciones en , tiene una función explicativa definida por la ecuación maestra:
para semillas adecuadas y parámetro?
Ejemplo
Por ejemplo, tanto para la distribución de Bernoulli con parámetro p como para la distribución exponencial con parámetro? la estadísticase porta bien. La satisfacción de las tres propiedades anteriores es sencilla cuando se observan ambas funciones explicativas: Si , 0 en caso contrario en el caso de la variable aleatoria de Bernoulli, y para la variable aleatoria exponencial, dando lugar a estadísticas
y
Viceversa , en el caso de X siguiendo una distribución uniforme continua enlas mismas estadísticas no cumplen el segundo requisito. Por ejemplo, la muestra observada da . Pero la función explicativa de esta X es. De ahí una ecuación maestraproduciría con una muestra de U y una solucion . Esto entra en conflicto con la muestra observada, ya que el primer valor observado debería resultar mayor que el extremo derecho del rango X. La estadística se porta bien en este caso.
De manera análoga, para una variable aleatoria X que sigue la distribución de Pareto con los parámetros K y A (consulte el ejemplo de Pareto para obtener más detalles de este caso),
y
pueden utilizarse como estadísticas conjuntas para estos parámetros.
Como afirmación general que se mantiene en condiciones débiles, las estadísticas suficientes se comportan bien con respecto a los parámetros relacionados. La siguiente tabla proporciona estadísticas suficientes / de buen comportamiento para los parámetros de algunas de las distribuciones de probabilidad más utilizadas.
Distribución | Definición de función de densidad | Estadística suficiente / de buen comportamiento |
---|---|---|
Uniforme discreto | ||
Bernoulli | ||
Binomio | ||
Geométrico | ||
Poisson | ||
Uniforme continuo | ||
Exponencial negativo | ||
Pareto | ||
Gaussiano | ||
Gama |
Referencias
- ^ Amanecer Iacobucci. "Análisis de mediación y variables categóricas: La última frontera" (PDF) . Consultado el 7 de febrero de 2017 .
- ^ John DiNardo y Jason Winfree. "La ley de la genialidad y los jonrones refutados" (PDF) . Consultado el 7 de febrero de 2017 .Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ Un DasGupta. "(sin título)" (PDF) . Consultado el 7 de febrero de 2017 . Citar utiliza un título genérico ( ayuda )
- ^ Apolloni, B; Bassis, S .; Malchiodi, D .; Witold, P. (2008). El rompecabezas de la computación granular . Estudios en Inteligencia Computacional. 138 . Berlín: Springer.
- Bahadur, RR ; Lehmann, EL (1955). "Dos comentarios sobre suficiencia y funciones de decisión estadística" . Anales de estadística matemática . 26 : 139-142. doi : 10.1214 / aoms / 1177728604 .