Prueba de hipótesis estadística


Una prueba de hipótesis estadística es un método de inferencia estadística que se utiliza para determinar una posible conclusión a partir de dos hipótesis diferentes y probablemente conflictivas.

En una prueba de hipótesis estadística, se propone una hipótesis nula y una hipótesis alternativa para la distribución de probabilidad de los datos. Si la muestra obtenida tiene una probabilidad de ocurrencia menor que la probabilidad umbral preespecificada, el nivel de significancia , dada la hipótesis nula es verdadero, la diferencia entre la muestra y la hipótesis nula se considera estadísticamente significativa . La prueba de hipótesis puede conducir al rechazo de la hipótesis nula y la aceptación de hipótesis alternativas.

El proceso de distinguir entre la hipótesis nula y la hipótesis alternativa se ayuda al considerar el error de tipo I y el error de tipo II, que están controlados por el nivel de significancia preespecificado.

Las pruebas de hipótesis basadas en la significación estadística son otra forma de expresar los intervalos de confianza (más precisamente, conjuntos de confianza). En otras palabras, cada prueba de hipótesis basada en la significancia se puede obtener mediante un intervalo de confianza, y cada intervalo de confianza se puede obtener mediante una prueba de hipótesis basada en la significancia. [1]

Si bien la prueba de hipótesis se popularizó a principios del siglo XX, las primeras formas se utilizaron en el siglo XVIII. El primer uso se le atribuye a John Arbuthnot (1710), [2] seguido por Pierre-Simon Laplace (1770), al analizar la proporción de sexos humanos al nacer; ver § Proporción de sexos humanos .

Las pruebas de significación modernas son en gran medida el producto de Karl Pearson ( valor p , prueba de chi-cuadrado de Pearson ), William Sealy Gosset ( distribución t de Student ) y Ronald Fisher (" hipótesis nula ", análisis de varianza , " prueba de significación ") , mientras que la prueba de hipótesis fue desarrollada por Jerzy Neyman y Egon Pearson (hijo de Karl). Ronald Fisher comenzó su vida en estadística como bayesiano (Zabell 1992), pero Fisher pronto se desencantó con la subjetividad involucrada (es decir, el uso del principio de indiferenciaal determinar probabilidades previas), y buscó proporcionar un enfoque más "objetivo" de la inferencia inductiva. [3]