De Wikipedia, la enciclopedia libre
  (Redirigido desde la prueba de permutación )
Saltar a navegación Saltar a búsqueda

En estadística , el remuestreo es cualquiera de una variedad de métodos para realizar uno de los siguientes:

  1. Estimar la precisión de las estadísticas de la muestra ( medianas , varianzas , percentiles ) mediante el uso de subconjuntos de datos disponibles ( jackknifing ) o dibujando al azar con reemplazo de un conjunto de puntos de datos ( bootstrapping )
  2. Intercambio de etiquetas en puntos de datos al realizar pruebas de significación ( pruebas de permutación , también llamadas pruebas exactas , pruebas de aleatorización o pruebas de realeatorización)
  3. Validación de modelos mediante el uso de subconjuntos aleatorios (bootstrapping, validación cruzada )

Bootstrap [ editar ]

El mejor ejemplo del principio de complemento, el método bootstrapping.

Bootstrapping es un método estadístico para estimar la distribución muestral de un estimador por muestreo con reemplazo de la muestra original, con mayor frecuencia con el propósito de derivar estimaciones robustas de errores estándar e intervalos de confianza de un parámetro de población como media , mediana , proporción , probabilidades. ratio , coeficiente de correlación o coeficiente de regresión . Se le ha denominado principio de complemento , [1] ya que es el método de estimaciónde funcionales de una distribución de población mediante la evaluación de los mismos funcionales en la distribución empírica basada en una muestra.

Por ejemplo, [1] al estimar la media poblacional , este método utiliza la media muestral ; para estimar la mediana de la población , utiliza la mediana de la muestra; para estimar la línea de regresión de la población , utiliza la línea de regresión de muestra.

También se puede utilizar para construir pruebas de hipótesis. A menudo se utiliza como una alternativa robusta a la inferencia basada en supuestos paramétricos cuando esos supuestos están en duda, o cuando la inferencia paramétrica es imposible o requiere fórmulas muy complicadas para el cálculo de errores estándar. Las técnicas de bootstrapping también se utilizan en las transiciones de selección de actualización de filtros de partículas , algoritmos de tipo genético y métodos de Monte Carlo de remuestreo / reconfiguración relacionados utilizados en física computacional . [2] [3] En este contexto, el bootstrap se utiliza para reemplazar medidas de probabilidad ponderadas empíricas secuencialmente por medidas empíricas. El bootstrap permite reemplazar las muestras con pesos bajos por copias de las muestras con pesos altos.

Navaja [ editar ]

Jackknifing, que es similar al bootstrapping, se usa en inferencia estadística para estimar el sesgo y el error estándar (varianza) de una estadística, cuando se usa una muestra aleatoria de observaciones para calcularla. Históricamente, este método precedió a la invención del bootstrap con Quenouille inventando este método en 1949 y Tukey extendiéndolo en 1958. [4] [5] Este método fue presagiado por Mahalanobis quien en 1946 sugirió estimaciones repetidas de la estadística de interés con la mitad del muestra elegida al azar. [6] Él acuñó el nombre de "muestras interpenetrantes" para este método.

Quenouille inventó este método con la intención de reducir el sesgo de la estimación de la muestra. Tukey amplió este método asumiendo que si las réplicas pudieran considerarse distribuidas de manera idéntica e independiente, entonces se podría hacer una estimación de la varianza del parámetro muestral y que se distribuiría aproximadamente como una variación con n −1 grados de libertad ( n siendo el tamaño de la muestra).

La idea básica detrás del estimador de varianza jackknife radica en volver a calcular sistemáticamente la estimación estadística, omitiendo una o más observaciones a la vez del conjunto de muestra. A partir de este nuevo conjunto de réplicas de la estadística, se puede calcular una estimación del sesgo y una estimación de la varianza de la estadística.

En lugar de usar la navaja para estimar la varianza, se puede aplicar al logaritmo de la varianza. Esta transformación puede resultar en mejores estimaciones, particularmente cuando la distribución de la varianza en sí misma puede no ser normal.

Para muchos parámetros estadísticos, la estimación de la varianza en forma de navaja tiende asintóticamente al valor verdadero casi con seguridad. En términos técnicos, se dice que la estimación de la navaja es consistente . La navaja es consistente para las medias muestrales , varianzas muestrales , estadísticos t centrales y no centrales (con poblaciones posiblemente no normales), coeficiente de variación muestral , estimadores de máxima verosimilitud , estimadores de mínimos cuadrados, coeficientes de correlación y coeficientes de regresión .

No es consistente para la mediana de la muestra . En el caso de una variante unimodal, la relación entre la varianza de la navaja y la varianza de la muestra tiende a distribuirse como la mitad del cuadrado de una distribución de chi cuadrado con dos grados de libertad .

El jackknife, como el bootstrap original, depende de la independencia de los datos. Se han propuesto extensiones de la navaja para permitir la dependencia de los datos.

Otra extensión es el método de eliminación de un grupo utilizado en asociación con el muestreo de Poisson .

Comparación de bootstrap y jackknife [ editar ]

Ambos métodos, el bootstrap y el jackknife, estiman la variabilidad de una estadística a partir de la variabilidad de esa estadística entre submuestras, en lugar de suposiciones paramétricas. Para la navaja más general, la navaja de las observaciones de delete-m, el bootstrap puede verse como una aproximación aleatoria de la misma. Ambos producen resultados numéricos similares, por lo que cada uno puede verse como una aproximación al otro. Aunque existen enormes diferencias teóricas en sus conocimientos matemáticos, la principal diferencia práctica para los usuarios de estadísticas es que el bootstrapda resultados diferentes cuando se repite en los mismos datos, mientras que la navaja da exactamente el mismo resultado cada vez. Debido a esto, la navaja es popular cuando las estimaciones deben verificarse varias veces antes de su publicación (por ejemplo, agencias de estadísticas oficiales). Por otro lado, cuando esta característica de verificación no es crucial y es de interés no tener un número sino solo una idea de su distribución, se prefiere el bootstrap (por ejemplo, estudios en física, economía, ciencias biológicas).

El uso de bootstrap o jackknife puede depender más de los aspectos operativos que de las preocupaciones estadísticas de una encuesta. La navaja, originalmente utilizada para la reducción de sesgos, es un método más especializado y solo estima la varianza del estimador puntual. Esto puede ser suficiente para la inferencia estadística básica (por ejemplo, prueba de hipótesis, intervalos de confianza). El bootstrap, por otro lado, primero estima la distribución completa (del estimador puntual) y luego calcula la varianza a partir de eso. Si bien es potente y fácil, esto puede volverse muy intensivo en computación.

"El bootstrap se puede aplicar tanto a problemas de estimación de varianza como de distribución. Sin embargo, el estimador de varianza de bootstrap no es tan bueno como el estimador de varianza de jackknife o de replicación repetida balanceada (BRR) en términos de resultados empíricos. generalmente requiere más cálculos que el jackknife o el BRR. Por lo tanto, el bootstrap se recomienda principalmente para la estimación de distribución ". [7]

Hay una consideración especial con la navaja, particularmente con la navaja de observación Delete-1. Solo debe usarse con estadísticas uniformes y diferenciables (por ejemplo, totales, medias, proporciones, razones, razones impares, coeficientes de regresión, etc .; no con medianas o cuantiles). Esto podría convertirse en una desventaja práctica. Esta desventaja suele ser el argumento que favorece el bootstrapping sobre el jackknifing. Las navajas más generales que el delete-1, como el delete-m jackknife o el estimador de Hodges-Lehmann delete-all-but-2 , superan este problema para las medianas y cuantiles al relajar los requisitos de suavidad para una estimación de la varianza consistente.

Por lo general, el jackknife es más fácil de aplicar a esquemas de muestreo complejos que el bootstrap. Los esquemas de muestreo complejos pueden involucrar estratificación, múltiples etapas (agrupamiento), pesos de muestreo variables (ajustes de no respuesta, calibración, posestratificación) y bajo diseños de muestreo de probabilidad desigual. Los aspectos teóricos tanto del bootstrap como del jackknife se pueden encontrar en Shao y Tu (1995), [8] mientras que una introducción básica se explica en Wolter (2007). [9] La estimación bootstrap del sesgo de predicción del modelo es más precisa que las estimaciones jackknife con modelos lineales como la función discriminante lineal o la regresión múltiple. [10]

Submuestreo [ editar ]

El submuestreo es un método alternativo para aproximar la distribución muestral de un estimador. Las dos diferencias clave con el bootstrap son: (i) el tamaño del remuestreo es más pequeño que el tamaño de la muestra y (ii) el remuestreo se realiza sin reemplazo. La ventaja del submuestreo es que es válido en condiciones mucho más débiles en comparación con el bootstrap. En particular, un conjunto de condiciones suficientes es que se conozca la tasa de convergencia del estimador y que la distribución límite sea continua; Además, el tamaño de la nueva muestra (o submuestra) debe tender al infinito junto con el tamaño de la muestra, pero a una tasa menor, de modo que su relación converja a cero. Si bien el submuestreo se propuso originalmente para el caso de datos independientes e idénticamente distribuidos (iid) únicamente, la metodología se ha ampliado para abarcar también datos de series de tiempo;en este caso, se vuelven a muestrear bloques de datos posteriores en lugar de puntos de datos individuales. Hay muchos casos de interés aplicado en los que el submuestreo conduce a una inferencia válida, mientras que el bootstrapping no lo hace; por ejemplo, estos casos incluyen ejemplos en los que la tasa de convergencia del estimador no es la raíz cuadrada del tamaño de la muestra o cuando la distribución límite no es normal. Cuando tanto el submuestreo como el bootstrap son consistentes, el bootstrap suele ser más preciso.Cuando tanto el submuestreo como el bootstrap son consistentes, el bootstrap suele ser más preciso.Cuando tanto el submuestreo como el bootstrap son consistentes, el bootstrap suele ser más preciso.

Validación cruzada [ editar ]

La validación cruzada es un método estadístico para validar un modelo predictivo . Los subconjuntos de datos se mantienen para su uso como conjuntos de validación; un modelo se ajusta a los datos restantes (un conjunto de entrenamiento) y se usa para predecir el conjunto de validación. Al promediar la calidad de las predicciones en los conjuntos de validación se obtiene una medida general de precisión de la predicción. La validación cruzada se emplea repetidamente en la construcción de árboles de decisión.

Una forma de validación cruzada omite una sola observación a la vez; esto es similar a la navaja . Otra, la validación cruzada de K , divide los datos en K subconjuntos; cada uno se presenta a su vez como el conjunto de validación.

Esto evita la "autoinfluencia". A modo de comparación, en los métodos de análisis de regresión , como la regresión lineal , cada valor de y dibuja la línea de regresión hacia sí mismo, lo que hace que la predicción de ese valor parezca más precisa de lo que realmente es. La validación cruzada aplicada a la regresión lineal predice el valor de y para cada observación sin usar esa observación.

Esto se usa a menudo para decidir cuántas variables predictoras se usarán en la regresión. Sin la validación cruzada, la adición de predictores siempre reduce la suma residual de cuadrados (o posiblemente la deja sin cambios). Por el contrario, el error cuadrático medio con validación cruzada tenderá a disminuir si se agregan predictores valiosos, pero aumentará si se agregan predictores inútiles. [11]

Pruebas de permutación [ editar ]

Una prueba de permutación (también llamada prueba de aleatorización, prueba de re-aleatorización o prueba exacta ) es un tipo de prueba de significación estadística en la que la distribución de la estadística de prueba bajo la hipótesis nula se obtiene calculando todos los valores posibles de la estadística de prueba. bajo todas las posibles reordenaciones de los puntos de datos observados. En otras palabras, el método por el cual los tratamientos se asignan a los sujetos en un diseño experimental se refleja en el análisis de ese diseño. Si las etiquetas son intercambiables bajo la hipótesis nula, las pruebas resultantes arrojan niveles de significancia exactos; ver también intercambiabilidad. Los intervalos de confianza se pueden derivar de las pruebas. La teoría ha evolucionado a partir de los trabajos de Ronald Fisher y EJG Pitman en la década de 1930.

Para ilustrar la idea básica de una prueba de permutación, supongamos que recolectamos variables aleatorias y para cada individuo de dos grupos y cuyas medias muestrales son y , y que queremos saber si y provienen de la misma distribución. Sea y sea ​​el tamaño de la muestra recolectada de cada grupo. La prueba de permutación está diseñada para determinar si la diferencia observada entre las medias muestrales es lo suficientemente grande como para rechazar, en algún nivel de significancia, la hipótesis nula H de que los datos extraídos son de la misma distribución que los datos extraídos .

La prueba procede de la siguiente manera. En primer lugar, la diferencia en las medias entre las dos muestras se calcula: este es el valor observado de la estadística de prueba, .

A continuación, se agrupan las observaciones de los grupos y , y se calcula y registra la diferencia en las medias de la muestra para cada forma posible de dividir los valores agrupados en dos grupos de tamaño y (es decir, para cada permutación de las etiquetas de grupo A y B). El conjunto de estas diferencias calculadas es la distribución exacta de las posibles diferencias (para esta muestra) bajo la hipótesis nula de que las etiquetas de grupo son intercambiables (es decir, se asignan al azar).

El valor p unilateral de la prueba se calcula como la proporción de permutaciones muestreadas donde la diferencia en las medias fue mayor o igual a . El valor p bilateral de la prueba se calcula como la proporción de permutaciones muestreadas donde la diferencia absoluta fue mayor o igual a .

Alternativamente, si el único propósito de la prueba es rechazar o no rechazar la hipótesis nula, se podrían clasificar las diferencias registradas y luego observar si está contenido dentro del % medio de ellas, para algún nivel de significancia . Si no es así, rechazamos la hipótesis de curvas de probabilidad idénticas en el nivel de significancia.

Relación con las pruebas paramétricas [ editar ]

Las pruebas de permutación son un subconjunto de estadísticas no paramétricas . Suponiendo que nuestros datos experimentales provienen de datos medidos de dos grupos de tratamiento, el método simplemente genera la distribución de las diferencias medias bajo el supuesto de que los dos grupos no son distintos en términos de la variable medida. A partir de esto, se usa la estadística observada ( arriba) para ver hasta qué punto esta estadística es especial, es decir, la probabilidad de observar la magnitud de tal valor (o mayor) si las etiquetas de tratamiento simplemente se hubieran aleatorizado después del tratamiento.

En contraste con pruebas de permutación, las distribuciones subyacentes muchos populares "clásicos" estadísticos pruebas, tales como el t -test , F -test , z -test , y χ 2 de prueba , se obtienen a partir de distribuciones de probabilidad teóricas. Prueba exacta de Fisheres un ejemplo de una prueba de permutación de uso común para evaluar la asociación entre dos variables dicotómicas. Cuando los tamaños de muestra son muy grandes, la prueba de chi-cuadrado de Pearson dará resultados precisos. Para muestras pequeñas, no se puede suponer que la distribución de referencia de chi-cuadrado proporcione una descripción correcta de la distribución de probabilidad del estadístico de prueba y, en esta situación, el uso de la prueba exacta de Fisher se vuelve más apropiado.

Las pruebas de permutación existen en muchas situaciones donde las pruebas paramétricas no lo hacen (por ejemplo, cuando se obtiene una prueba óptima cuando las pérdidas son proporcionales al tamaño de un error en lugar de su cuadrado). Todas las pruebas paramétricas simples y muchas relativamente complejas tienen una versión de prueba de permutación correspondiente que se define mediante el uso de la misma estadística de prueba que la prueba paramétrica, pero obtiene el valor p de la distribución de permutación específica de la muestra de esa estadística, en lugar de la teórica. distribución derivada del supuesto paramétrico. Por ejemplo, es posible de esta manera construir una prueba t de permutación , una prueba de asociación de permutación χ 2 , una versión de permutación de la prueba de Aly para comparar varianzas, etc.

Los principales inconvenientes de las pruebas de permutación son que

  • Puede ser computacionalmente intensivo y puede requerir un código "personalizado" para estadísticas difíciles de calcular. Esto debe reescribirse para cada caso.
  • Se utilizan principalmente para proporcionar un valor p. La inversión de la prueba para obtener regiones / intervalos de confianza requiere aún más cálculos.

Ventajas [ editar ]

Existen pruebas de permutación para cualquier estadística de prueba, independientemente de si se conoce o no su distribución. Por lo tanto, uno siempre es libre de elegir la estadística que mejor discrimina entre hipótesis y alternativa y que minimiza las pérdidas.

Las pruebas de permutación se pueden utilizar para analizar diseños desequilibrados [12] y para combinar pruebas dependientes en mezclas de datos categóricos, ordinales y métricos (Pesarin, 2001) [ cita requerida ] . También se pueden utilizar para analizar datos cualitativos que han sido cuantificados (es decir, convertidos en números). Las pruebas de permutación pueden ser ideales para analizar datos cuantificados que no satisfacen los supuestos estadísticos subyacentes a las pruebas paramétricas tradicionales (por ejemplo, pruebas t, ANOVA). [13]

Antes de la década de 1980, la carga de crear la distribución de referencia era abrumadora, excepto para los conjuntos de datos con tamaños de muestra pequeños.

Desde la década de 1980, la confluencia de computadoras rápidas relativamente económicas y el desarrollo de nuevos algoritmos de ruta sofisticados aplicables en situaciones especiales hicieron que la aplicación de métodos de prueba de permutación fuera práctica para una amplia gama de problemas. También inició la adición de opciones de prueba exacta en los principales paquetes de software estadístico y la aparición de software especializado para realizar una amplia gama de pruebas exactas univariables y multivariables y calcular intervalos de confianza "exactos" basados ​​en pruebas.

Limitaciones [ editar ]

Un supuesto importante detrás de una prueba de permutación es que las observaciones son intercambiables bajo la hipótesis nula. Una consecuencia importante de esta suposición es que las pruebas de diferencia en la ubicación (como una prueba t de permutación) requieren una varianza igual bajo la suposición de normalidad. A este respecto, la prueba t de permutación comparte la misma debilidad que la prueba t de Student clásica (el problema de Behrens-Fisher ). Una tercera alternativa en esta situación es utilizar una prueba basada en bootstrap. Bueno (2005) [ cita requerida ]explica la diferencia entre las pruebas de permutación y las pruebas de bootstrap de la siguiente manera: "Las permutaciones prueban las hipótesis relativas a las distribuciones; los bootstraps prueban las hipótesis relativas a los parámetros. Como resultado, el bootstrap implica supuestos menos estrictos". Las pruebas de Bootstrap no son exactas. En algunos casos, una prueba de permutación basada en una estadística apropiadamente estudentizada puede ser asintóticamente exacta incluso cuando se viola el supuesto de intercambiabilidad. [14]

Prueba de Monte Carlo [ editar ]

Se puede crear una prueba de permutación asintóticamente equivalente cuando hay demasiados ordenamientos posibles de los datos para permitir una enumeración completa de una manera conveniente. Esto se hace generando la distribución de referencia mediante un muestreo de Monte Carlo , que toma una pequeña muestra aleatoria (en relación con el número total de permutaciones) de las posibles réplicas. La comprensión de que esto podría aplicarse a cualquier prueba de permutación en cualquier conjunto de datos fue un avance importante en el área de las estadísticas aplicadas. La primera referencia conocida a este enfoque es Dwass (1957). [15] Este tipo de prueba de permutación se conoce con varios nombres: prueba de permutación aproximada , pruebas de permutación de Monte Carlo opruebas de permutación aleatoria . [dieciséis]

Después de permutaciones aleatorias, es posible obtener un intervalo de confianza para el valor p basado en la distribución binomial. Por ejemplo, si después de permutaciones aleatorias se estima que el valor p es , entonces un intervalo de confianza del 99% para el verdadero (el que resultaría de probar todas las permutaciones posibles) es .

Por otro lado, el propósito de estimar el valor p es, con mayor frecuencia, decidir si , dónde está el umbral en el que la hipótesis nula será rechazada (típicamente ). En el ejemplo anterior, el intervalo de confianza solo nos dice que hay aproximadamente un 50% de probabilidad de que el valor p sea menor que 0.05, es decir, no está completamente claro si la hipótesis nula debe rechazarse en un nivel .

Si solo es importante saber si para un determinado , es lógico seguir simulando hasta que se pueda establecer que el enunciado es verdadero o falso con una probabilidad de error muy baja. Dado un límite en la probabilidad de error admisible (la probabilidad de encontrar que cuando de hecho o viceversa), la cuestión de cuántas permutaciones generar puede verse como la cuestión de cuándo dejar de generar permutaciones, en función de los resultados de la simulaciones hasta ahora, con el fin de garantizar que la conclusión (que es o ) es correcta con una probabilidad al menos tan grande como . (Por lo general, se elegirá para que sea extremadamente pequeño, por ejemplo, 1/1000). Se han desarrollado reglas de detención para lograr esto[17] que se puede incorporar con un costo computacional adicional mínimo. De hecho, dependiendo del verdadero valor p subyacente, a menudo se encontrará que el número de simulaciones necesarias es notablemente pequeño (por ejemplo, tan bajo como 5 y, a menudo, no mayor que 100) antes de que se pueda llegar a una decisión con virtual certeza.

Ver también [ editar ]

  • Bootstrap aggregating (ensacado)
  • Algoritmos genéticos
  • Métodos de Montecarlo
  • Estadísticas no paramétricas
  • Filtro de partículas
  • Permutación aleatoria
  • Prueba de datos sustitutos

Referencias [ editar ]

  1. ^ a b Logan, J. David y Wolesensky, Willian R. Métodos matemáticos en biología. Matemáticas puras y aplicadas: una serie de textos, monografías y tratados de Wiley-interscience. John Wiley & Sons, Inc. 2009. Capítulo 6: Inferencia estadística. Sección 6.6: Métodos Bootstrap
  2. ^ Del Moral, Pierre (2004). Fórmulas de Feynman-Kac. Aproximaciones de partículas genealógicas e interactivas . Saltador. pag. 575. Serie: Probabilidad y Aplicaciones
  3. ^ Del Moral, Pierre (2013). Simulación de campo medio para la integración de Monte Carlo . Chapman & Hall / CRC Press. pag. 626. Monografías sobre estadística y probabilidad aplicada
  4. Quenouille, MH (1949). "Pruebas aproximadas de correlación en series de tiempo". Revista de la Sociedad Real de Estadística, Serie B . 11 (1): 68–84. doi : 10.1111 / j.2517-6161.1949.tb00023.x . JSTOR 2983696 . 
  5. ^ Tukey, JW (1958). "Sesgo y confianza en muestras no muy grandes (informe preliminar)". Anales de estadística matemática . 29 (2): 614. JSTOR 2237363 . 
  6. ^ Mahalanobis, PC (1946). "Actas de una reunión de la Royal Statistical Society celebrada el 16 de julio de 1946". Revista de la Royal Statistical Society . 109 (4): 325–370. JSTOR 2981330 . 
  7. ^ Shao, J. y Tu, D. (1995). El Jackknife y Bootstrap. Springer-Verlag, Inc. págs. 281.
  8. ^ Shao, J .; Tu, D. (1995). El Jackknife y Bootstrap . Saltador.
  9. ^ Wolter, KM (2007). Introducción a la estimación de la varianza (segunda ed.). Saltador.
  10. Verbyla, D .; Litvaitis, J. (1989). "Métodos de remuestreo para evaluar la precisión de clasificación de los modelos de hábitat de vida silvestre". Gestión ambiental . 13 (6): 783–787. Código Bibliográfico : 1989EnMan..13..783V . doi : 10.1007 / bf01868317 . S2CID 153448048 . 
  11. ^ Verbyla, D. (1986). "Posible sesgo de predicción en regresión y análisis discriminante". Revista Canadiense de Investigación Forestal . 16 (6): 1255-1257. doi : 10.1139 / x86-222 .
  12. ^ "Artículos invitados" (PDF) . Revista de métodos estadísticos aplicados modernos . 1 (2): 202–522. Otoño de 2011. Archivado desde el original (PDF) el 5 de mayo de 2003.
  13. ^ Collingridge, Dave S. (11 de septiembre de 2012). "Una introducción al análisis de datos cuantitativos y pruebas de permutación". Revista de Investigación de Métodos Mixtos . 7 (1): 81–97. doi : 10.1177 / 1558689812454457 . S2CID 124618343 . 
  14. ^ Chung, EY; Romano, JP. "Pruebas de permutación exactas y asintóticamente robustas" . The Annals of Statistics . 41 : 487–507. doi : 10.1214 / 13-AOS1090 .
  15. ^ Dwass, Meyer (1957). "Pruebas de aleatorización modificadas para hipótesis no paramétricas" . Anales de estadística matemática . 28 (1): 181–187. doi : 10.1214 / aoms / 1177707045 . JSTOR 2237031 . 
  16. ^ Thomas E. Nichols , Andrew P. Holmes (2001). "Pruebas de permutación no paramétrica para neuroimagen funcional: un manual con ejemplos" (PDF) . Cartografía del cerebro humano . 15 (1): 1–25. doi : 10.1002 / hbm.1058 . hdl : 2027,42 / 35194 . PMC 6871862 . PMID 11747097 .   
  17. ^ Gandy, Axel (2009). "Implementación secuencial de pruebas de Monte Carlo con riesgo de remuestreo uniformemente acotado". Revista de la Asociación Estadounidense de Estadística . 104 (488): 1504-1511. arXiv : matemáticas / 0612488 . doi : 10.1198 / jasa.2009.tm08368 . S2CID 15935787 . 
  • Good, Phillip (2005), Pruebas de hipótesis de permutación, paramétricas y Bootstrap (3a ed.), Springer

Bibliografía [ editar ]

Estadísticas introductorias [ editar ]

  • Good, P. (2005) Introducción a la estadística mediante métodos de remuestreo y R / S-PLUS . Wiley. ISBN 0-471-71575-1 
  • Good, P. (2005) Introducción a la estadística mediante métodos de remuestreo y Microsoft Office Excel . Wiley. ISBN 0-471-73191-9 
  • Hesterberg, TC, DS Moore, S. Monaghan, A. Clipson y R. Epstein (2005). Métodos Bootstrap y pruebas de permutación . [ se necesita cita completa ]
  • Wolter, KM (2007). Introducción a la estimación de la varianza . Segunda edicion. Springer, Inc.

Bootstrap [ editar ]

  • Efron, Bradley (1979). "Métodos Bootstrap: otra mirada a la navaja" . The Annals of Statistics . 7 : 1–26. doi : 10.1214 / aos / 1176344552 .
  • Efron, Bradley (1981). "Estimaciones no paramétricas de error estándar: la navaja, el bootstrap y otros métodos". Biometrika . 68 (3): 589–599. doi : 10.2307 / 2335441 . JSTOR  2335441 .
  • Efron, Bradley (1982). La navaja, el bootstrap y otros planes de remuestreo , In Society of Industrial and Applied Mathematics CBMS-NSF Monographs , 38.
  • Diaconis, P .; Efron, Bradley (1983), "Métodos informáticos en estadística", Scientific American , mayo, 116-130.
  • Efron, Bradley ; Tibshirani, Robert J. (1993). Una introducción a la rutina de carga , Nueva York: Chapman & Hall , el software .
  • Davison, AC y Hinkley, DV (1997): métodos Bootstrap y su aplicación, software .
  • Mooney, CZ y Duval, RD (1993). Bootstrapping. Un enfoque no paramétrico de la inferencia estadística. Serie de artículos de la Universidad Sage sobre aplicaciones cuantitativas en las ciencias sociales, 07-095. Newbury Park, CA: Sage .
  • Simon, JL (1997): Remuestreo: las nuevas estadísticas .
  • Wright, DB, London, K., Field, AP utilizando la estimación de Bootstrap y el principio de complemento para datos de psicología clínica. 2011 Textrum Ltd. En línea: https://www.researchgate.net/publication/236647074_Using_Bootstrap_Estimation_and_the_Plug-in_Principle_for_Clinical_Psychology_Data . Consultado el 25/04/2016.
  • Una introducción al Bootstrap. Monografías de estadística y probabilidad aplicada 57. Chapman & Hall / CHC. 1998. En línea https://books.google.it/books?id=gLlpIUxRntoC&pg=PA35&lpg=PA35&dq=plug+in+principle&source=bl&ots=A8AsW5K6E2&sig=7WQVzL3ujAnWC8HDNyOzKlKVX0k&hl=en&sa=X&sqi=2&ved=0ahUKEwiU5c-Ho6XMAhUaOsAKHS_PDJMQ6AEIPDAG#v=onepage&q=plug % 20in% 20principle & f = falso . Consultado el 25 de 04 de 2016.

Navaja [ editar ]

  • Berger, YG (2007). "Un estimador de varianza jackknife para muestras estratificadas de una etapa con probabilidades desiguales". Biometrika . 94 (4): 953–964. doi : 10.1093 / biomet / asm072 .
  • Berger, YG; Rao, JNK (2006). "Navaja ajustada para imputación bajo muestreo de probabilidad desigual sin reemplazo". Revista de la Sociedad Real de Estadística, Serie B . 68 (3): 531–547. doi : 10.1111 / j.1467-9868.2006.00555.x .
  • Berger, YG; Skinner, CJ (2005). "Un estimador de varianza de navaja para muestreo de probabilidad desigual". Revista de la Sociedad Real de Estadística, Serie B . 67 (1): 79–89. doi : 10.1111 / j.1467-9868.2005.00489.x .
  • Jiang, J .; Lahiri, P .; Wan, SM. (2002). "Una teoría de navaja unificada para la mejor predicción empírica con estimación M" . The Annals of Statistics . 30 (6): 1782–810. doi : 10.1214 / aos / 1043351257 .
  • Jones, HL (1974). "Estimación navaja de funciones de medios de estrato". Biometrika . 61 (2): 343–348. doi : 10.2307 / 2334363 . JSTOR  2334363 .
  • Kish, L .; Frankel, MR (1974). "Inferencia a partir de muestras complejas". Revista de la Sociedad Real de Estadística, Serie B . 36 (1): 1–37.
  • Krewski, D .; Rao, JNK (1981). "Inferencia a partir de muestras estratificadas: propiedades de los métodos de linealización, navaja y repetición equilibrada" . The Annals of Statistics . 9 (5): 1010–1019. doi : 10.1214 / aos / 1176345580 .
  • Quenouille, MH (1956). "Notas sobre el sesgo en la estimación". Biometrika . 43 (3–4): 353–360. doi : 10.1093 / biomet / 43.3-4.353 .
  • Rao, JNK; Shao, J. (1992). "Estimación de la varianza Jackknife con datos de la encuesta bajo imputación de cubierta caliente". Biometrika . 79 (4): 811–822. doi : 10.1093 / biomet / 79.4.811 .
  • Rao, JNK; Wu, CFJ; Yue, K. (1992). "Algunos trabajos recientes sobre métodos de remuestreo para encuestas complejas". Metodología de la encuesta . 18 (2): 209–217.
  • Shao, J. y Tu, D. (1995). El Jackknife y Bootstrap. Springer-Verlag, Inc.
  • Tukey, JW (1958). "Sesgo y confianza en muestras no muy grandes (resumen)". Los Anales de Estadística Matemática . 29 (2): 614.
  • Wu, CFJ (1986). "Jackknife, Bootstrap y otros métodos de remuestreo en análisis de regresión" (PDF) . The Annals of Statistics . 14 (4): 1261-1295. doi : 10.1214 / aos / 1176350142 .

Submuestreo [ editar ]

  • Delgado, M .; Rodríguez-Poo, J .; Wolf, M. (2001). "Inferencia de submuestreo en asintóticas de raíz cúbica con una aplicación al estimador de puntuación máxima de Manski". Cartas económicas . 73 (2): 241–250. doi : 10.1016 / s0165-1765 (01) 00494-3 . hdl : 10016/2449 .
  • Gonzalo, J .; Wolf, M. (2005). "Inferencia de submuestreo en modelos autorregresivos de umbral". Revista de Econometría . 127 (2): 201–224. doi : 10.1016 / j.jeconom.2004.08.004 . hdl : 10016/3218 .
  • Politis, DN; Romano, JP (1994). "Regiones de confianza de muestras grandes basadas en submuestras bajo supuestos mínimos" . The Annals of Statistics . 22 (4): 2031-2050. doi : 10.1214 / aos / 1176325770 .
  • Politis, DN; Romano, JP; Wolf, M. (1997). "Submuestreo para series temporales heterocedásticas". Revista de Econometría . 81 (2): 281–317. doi : 10.1016 / s0304-4076 (97) 86569-4 .
  • Politis, DN, Romano, JP y Wolf, M. (1999). Submuestreo . Springer, Nueva York.
  • Romano, JP; Wolf, M. (2001). "Intervalos de submuestreo en modelos autorregresivos con tendencia lineal en el tiempo". Econometrica . 69 (5): 1283-1314. doi : 10.1111 / 1468-0262.00242 . hdl : 10016/6400 .

Métodos de Monte Carlo [ editar ]

  • George S. Fishman (1995). Monte Carlo: Conceptos, algoritmos y aplicaciones , Springer, Nueva York. ISBN 0-387-94527-X . 
  • James E. Gentle (2009). Estadística computacional , Springer, Nueva York. Parte III: Métodos de estadística computacional. ISBN 978-0-387-98143-7 . 
  • Pierre del Moral (2004). Fórmulas de Feynman-Kac. Sistemas de partículas genealógicos e interactivos con aplicaciones, Springer, probabilidad de serie y aplicaciones. ISBN 978-0-387-20268-6 
  • Pierre del Moral (2013). Del Moral, Pierre (2013). Simulación de campo medio para la integración de Monte Carlo . Chapman & Hall / CRC Press, Monografías sobre estadística y probabilidad aplicada. ISBN 9781466504059 
  • Dirk P. Kroese, Thomas Taimre y Zdravko I. Botev. Manual de métodos de Monte Carlo , John Wiley & Sons, Nueva York. ISBN 978-0-470-17793-8 . 
  • Christian P. Robert y George Casella (2004). Métodos estadísticos de Monte Carlo , segunda ed., Springer, Nueva York. ISBN 0-387-21239-6 . 
  • Shlomo Sawilowsky y Gail Fahoome (2003). Estadísticas a través de simulación Monte Carlo con Fortran. Rochester Hills, MI: JMASM. ISBN 0-9740236-0-4 . 

Pruebas de permutación [ editar ]

Referencias originales:

  • Fisher, RA (1935) El diseño de experimentos , Nueva York: Hafner
  • Pitman, EJG (1937) "Pruebas de significación que pueden aplicarse a muestras de cualquier población", Suplemento de la Royal Statistical Society , 4: 119-130 y 225-32 (partes I y II). JSTOR  2984124 JSTOR  2983647
  • Pitman, EJG (1938). "Pruebas de significancia que pueden aplicarse a muestras de cualquier población. Parte III. Prueba de análisis de varianza". Biometrika . 29 (3–4): 322–335. doi : 10.1093 / biomet / 29.3-4.322 .

Referencias modernas:

  • Collingridge, DS (2013). "Una introducción al análisis de datos cuantitativos y pruebas de permutación". Revista de Investigación de Métodos Mixtos . 7 (1): 79–95. doi : 10.1177 / 1558689812454457 . S2CID  124618343 .
  • Edgington. ES (1995) Pruebas de aleatorización , 3ª ed. Nueva York: Marcel-Dekker
  • Bueno, Phillip I. (2005) Pruebas de hipótesis de permutación, paramétricas y bootstrap , 3a ed., Springer ISBN 0-387-98898-X 
  • Bueno, P (2002). "Ampliaciones del concepto de intercambiabilidad y sus aplicaciones" . Revista de métodos estadísticos aplicados modernos . 1 (2): 243–247. doi : 10.22237 / jmasm / 1036110240 .
  • Lunneborg, Cliff. (1999) Análisis de datos por remuestreo , Duxbury Press. ISBN 0-534-22110-6 . 
  • Pesarin, F. (2001). Pruebas de permutación multivariante: con aplicaciones en bioestadística , John Wiley & Sons . ISBN 978-0471496700 
  • Welch, WJ (1990). "Construcción de pruebas de permutación". Revista de la Asociación Estadounidense de Estadística . 85 (411): 693–698. doi : 10.1080 / 01621459.1990.10474929 .

Métodos computacionales:

  • Mehta, CR; Patel, NR (1983). "Un algoritmo de red para realizar la prueba exacta de Fisher en tablas de contingencia rxc". Revista de la Asociación Estadounidense de Estadística . 78 (382): 427–434. doi : 10.1080 / 01621459.1983.10477989 .
  • Mehta, CR; Patel, NR; Senchaudhuri, P. (1988). "Muestreo de importancia para estimar probabilidades exactas en inferencia permutacional". Revista de la Asociación Estadounidense de Estadística . 83 (404): 999–1005. doi : 10.1080 / 01621459.1988.10478691 .
  • Gill, PMW (2007). "Cálculo eficiente de p-valores en pruebas de significación de permutación de estadística lineal" (PDF) . Revista de Computación y Simulación Estadística . 77 (1): 55–61. CiteSeerX  10.1.1.708.1957 . doi : 10.1080 / 10629360500108053 . S2CID  1813706 .

Métodos de remuestreo [ editar ]

  • Good, P. (2006) Métodos de remuestreo . 3ª Ed. Birkhauser.
  • Wolter, KM (2007). Introducción a la estimación de la varianza . 2ª Edición. Springer, Inc.
  • Pierre del Moral (2004). Fórmulas de Feynman-Kac. Sistemas de partículas genealógicos e interactivos con aplicaciones, Springer, probabilidad de serie y aplicaciones. ISBN 978-0-387-20268-6 
  • Pierre del Moral (2013). Del Moral, Pierre (2013). Simulación de campo medio para la integración de Monte Carlo . Chapman & Hall / CRC Press, Monografías sobre estadística y probabilidad aplicada. ISBN 9781466504059 

Enlaces externos [ editar ]

Investigación actual sobre pruebas de permutación [ editar ]

  • Good, PI (2012) Guía del practicante sobre métodos de remuestreo.
  • Bueno, PI (2005) Pruebas de hipótesis de permutación, paramétricas y bootstrap
  • Tutorial de muestreo de Bootstrap
  • Hesterberg, TC, DS Moore, S. Monaghan, A. Clipson y R. Epstein (2005): métodos Bootstrap y pruebas de permutación , software .
  • Moore, DS, G. McCabe, W. Duckworth y S. Sclove (2003): métodos de arranque y pruebas de permutación
  • Simon, JL (1997): Remuestreo: las nuevas estadísticas .
  • Yu, Chong Ho (2003): Métodos de remuestreo: conceptos, aplicaciones y justificación. Evaluación práctica, investigación y evaluación, 8 (19) . (bootstrapping estadístico)
  • Remuestreo: un matrimonio de computadoras y estadísticas (ERIC Digests)

Software [ editar ]

  • Angelo Canty y Brian Ripley (2010). boot : Funciones Bootstrap R (S-Plus). Versión del paquete R 1.2-43. Funciones y conjuntos de datos para bootstrapping del libro Bootstrap Methods and Their Applications de AC Davison y DV Hinkley (1997, CUP).
  • Estadísticas 101: remuestreo, Bootstrap, programa de simulación Monte Carlo
  • Paquete R `samplingVarEst ': Estimación de la varianza muestral. Implementa funciones para estimar la varianza muestral de algunos estimadores puntuales.
  • Prueba pareada de aleatorización / permutación para la evaluación de los resultados de TREC
  • Pruebas de aleatorización / permutación para evaluar resultados en experimentos de recuperación de información (con y sin ajustes para comparaciones múltiples).
  • Pruebas de hipótesis múltiples basadas en remuestreos de bioconductores con aplicaciones a la genómica.
  • permtest: un paquete R para comparar la variabilidad dentro y la distancia entre dos grupos dentro de un conjunto de datos de microarrays.
  • Remuestreo Bootstrap: demostración interactiva de pruebas de hipótesis con remuestreo bootstrap en R.
  • Prueba de permutación: demostración interactiva de prueba de hipótesis con prueba de permutación en R.