En estadística , el máximo de muestra y el mínimo de muestra, también llamado observación más grande y observación más pequeña, son los valores de los elementos más grande y mínimo de una muestra . Son estadísticas de resumen básicas , utilizadas en estadísticas descriptivas como el resumen de cinco números y el resumen de siete cifras de Bowley y el diagrama de caja asociado .
El valor mínimo y máximo son las estadísticas de primer y último orden (a menudo denotados X (1) y X ( n ) respectivamente, para un tamaño de muestra de n ).
Si la muestra tiene valores atípicos , estos incluyen necesariamente el máximo o mínimo de la muestra, o ambos, dependiendo de si son extremadamente altos o bajos. Sin embargo, no es necesario que el máximo y el mínimo de la muestra sean valores atípicos, si no están inusualmente lejos de otras observaciones.
Robustez
El máximo y el mínimo de la muestra son las estadísticas menos robustas : son máximamente sensibles a los valores atípicos.
Esto puede ser una ventaja o un inconveniente: si los valores extremos son reales (no errores de medición) y tienen consecuencias reales, como en aplicaciones de la teoría de valores extremos , como la construcción de diques o pérdidas financieras, entonces valores atípicos (como se refleja en los extremos de la muestra). son importantes. Por otro lado, si los valores atípicos tienen poco o ningún impacto en los resultados reales, entonces el uso de estadísticas no robustas como los extremos de la muestra simplemente nubla las estadísticas, y deben usarse alternativas robustas, como otros cuantiles : los percentiles 10 y 90 ( primer y último decil ) son alternativas más robustas.
Estadísticas derivadas
Además de ser un componente de cada estadística que usa todos los elementos de la muestra, los extremos de la muestra son partes importantes del rango , una medida de dispersión, y rango medio , una medida de ubicación. También se dan cuenta de la desviación absoluta máxima : uno de ellos es el punto más alejado de cualquier punto dado, particularmente una medida de centro como la mediana o la media.
Aplicaciones
Máximo suave
Para un conjunto de muestra, la función máxima no es uniforme y, por lo tanto, no es diferenciable. Para los problemas de optimización que ocurren en las estadísticas, a menudo es necesario aproximarlo mediante una función suave que esté cerca del máximo del conjunto.
Un máximo suave , por ejemplo,
- g ( x 1 , x 2 ,…, x n ) = log (exp ( x 1 ) + exp ( x 2 ) +… + exp ( x n ))
es una buena aproximación del máximo de la muestra.
Resumen estadístico
El máximo y mínimo de la muestra son estadísticas de resumen básicas , que muestran las observaciones más extremas, y se utilizan en el resumen de cinco números y una versión del resumen de siete números y el diagrama de caja asociado .
Intervalo de predicción
El máximo y el mínimo de la muestra proporcionan un intervalo de predicción no paramétrico : en una muestra de una población, o más generalmente en una secuencia intercambiable de variables aleatorias, es igualmente probable que cada observación sea el máximo o el mínimo.
Por lo tanto, si uno tiene una muestra y uno escoge otra observación entonces esto tiene probabilidad de ser el valor más grande visto hasta ahora, probabilidad de ser el valor más pequeño visto hasta ahora, y por lo tanto el otro del tiempo, cae entre el máximo de muestra y el mínimo de muestra de Por lo tanto, al denotar el máximo y mínimo de la muestra por M y m, esto produce unintervalo de predicción de [ m , M ].
Por ejemplo, si n = 19, entonces [ m , M ] da un intervalo de predicción 18/20 = 90% - 90% del tiempo, la vigésima observación cae entre la observación más pequeña y la más grande vista hasta ahora. Asimismo, n = 39 da un intervalo de predicción del 95% y n = 199 da un intervalo de predicción del 99%.
Estimacion
Debido a su sensibilidad a los valores atípicos, los extremos de la muestra no pueden usarse de manera confiable como estimadores a menos que los datos estén limpios; las alternativas robustas incluyen el primer y último decil .
Sin embargo, con datos limpios o en escenarios teóricos, a veces pueden resultar muy buenos estimadores, particularmente para distribuciones platicúrticas , donde para conjuntos de datos pequeños, el rango medio es el estimador más eficiente .
Sin embargo, son estimadores ineficientes de ubicación para distribuciones mesocúrticas, como la distribución normal y las distribuciones leptocúrticas.
Distribución uniforme
Para el muestreo sin reemplazo de una distribución uniforme con uno o dos puntos finales desconocidos (por lo quecon N desconocido, ocon M y N desconocidos), el máximo de la muestra, o respectivamente el máximo y el mínimo de la muestra, son estadísticas suficientes y completas para los criterios de valoración desconocidos; por tanto, un estimador insesgado derivado de estos será un estimador UMVU .
Si solo se desconoce el criterio de valoración superior, el máximo de la muestra es un estimador sesgado para el máximo de población, pero el estimador insesgado (donde m es el máximo de la muestra yk es el tamaño de la muestra) es el estimador UMVU; consulte el problema del tanque alemán para obtener más detalles.
Si se desconocen ambos criterios de valoración, entonces el rango de la muestra es un estimador sesgado para el rango de población, pero la corrección como para el máximo anterior produce el estimador UMVU.
Si se desconocen ambos criterios de valoración, entonces el rango medio es un estimador insesgado (y, por tanto, UMVU) del punto medio del intervalo (en este caso, de forma equivalente, la mediana, el promedio o el rango medio de la población).
La razón por la que los extremos de la muestra son estadísticas suficientes es que la distribución condicional de las muestras no extremas es solo la distribución del intervalo uniforme entre el máximo y el mínimo de la muestra; una vez que los puntos finales son fijos, los valores de los puntos interiores no agregan información adicional. .
Prueba de normalidad
Los extremos de la muestra se pueden usar para una prueba de normalidad simple , específicamente de curtosis: se calcula el estadístico t del máximo y mínimo de la muestra (resta la media de la muestra y divide por la desviación estándar de la muestra ), y si son inusualmente grandes para la muestra tamaño (según la regla de los tres sigma y la tabla en la misma, o más precisamente una distribución t de Student ), entonces la curtosis de la distribución de la muestra se desvía significativamente de la de la distribución normal.
Por ejemplo, un proceso diario debe esperar un evento de 3σ una vez al año (de días calendario; una vez al año y medio de días hábiles), mientras que un evento de 4σ ocurre en promedio cada 40 años de días naturales, 60 años de días hábiles ( una vez en la vida), eventos 5σ ocurren cada 5,000 años (una vez en la historia registrada), y eventos 6σ ocurren cada 1.5 millones de años (esencialmente nunca). Por lo tanto, si los extremos de la muestra están a 6 sigmas de la media, se tiene una falla significativa de normalidad.
Además, esta prueba es muy fácil de comunicar sin estadísticas involucradas.
Estas pruebas de normalidad se pueden aplicar si uno enfrenta riesgo de curtosis , por ejemplo.
Teoría del valor extremo
Los extremos de la muestra juegan dos roles principales en la teoría de los valores extremos :
- en primer lugar, dan un límite inferior a los eventos extremos; los eventos pueden ser al menos así de extremos y para este tamaño de muestra;
- en segundo lugar, a veces se pueden utilizar en estimadores de probabilidad de eventos más extremos.
Sin embargo, se debe tener precaución al usar los extremos de la muestra como pautas: en distribuciones de colas pesadas o para procesos no estacionarios , los eventos extremos pueden ser significativamente más extremos que cualquier evento observado previamente. Esto está elaborado en la teoría del cisne negro .
Ver también
- Máximos y mínimos