En probabilidad y estadística , la distribución t de Student (o simplemente la distribución t ) es cualquier miembro de una familia de distribuciones de probabilidad continua que surgen al estimar la media de una población con distribución normal en situaciones en las que el tamaño de la muestra es pequeño y la distribución de la población es pequeña. se desconoce la desviación estándar . Fue desarrollado por el estadístico inglés William Sealy Gosset bajo el seudónimo "Student".
Función de densidad de probabilidad | |||
Función de distribución acumulativa | |||
Parámetros | grados de libertad ( reales ) | ||
---|---|---|---|
Apoyo | |||
CDF | | ||
Significar | 0 para , de lo contrario indefinido | ||
Mediana | 0 | ||
Modo | 0 | ||
Diferencia | por , ∞ para , de lo contrario indefinido | ||
Oblicuidad | 0 para , de lo contrario indefinido | ||
Ex. curtosis | por , ∞ para , de lo contrario indefinido | ||
Entropía |
| ||
MGF | indefinido | ||
CF | por |
La distribución t juega un papel en una serie de análisis estadísticos ampliamente utilizados, incluida la prueba t de Student para evaluar la significación estadística de la diferencia entre dos medias muestrales, la construcción de intervalos de confianza para la diferencia entre dos medias poblacionales y en análisis de regresión . La distribución t de Student también surge en el análisis bayesiano de datos de una familia normal.
Si tomamos una muestra de observaciones de una distribución normal , entonces la distribución t con Los grados de libertad se pueden definir como la distribución de la ubicación de la media de la muestra en relación con la media verdadera, dividida por la desviación estándar de la muestra, después de multiplicar por el término de estandarización.. De esta manera, la distribución t se puede utilizar para construir un intervalo de confianza para la media verdadera.
La distribución t es simétrica y en forma de campana, como la distribución normal . Sin embargo, la distribución t tiene colas más pesadas, lo que significa que es más propensa a producir valores que caen lejos de su media. Esto lo hace útil para comprender el comportamiento estadístico de ciertos tipos de razones de cantidades aleatorias, en las que la variación en el denominador se amplifica y puede producir valores atípicos cuando el denominador de la razón cae cerca de cero. La distribución t de Student es un caso especial de distribución hiperbólica generalizada .
Historia y etimología
En estadística, la distribución t se derivó por primera vez como una distribución posterior en 1876 por Helmert [2] [3] [4] y Lüroth . [5] [6] [7] La distribución t también apareció en una forma más general como distribución de Pearson Tipo IV en el artículo de 1895 de Karl Pearson . [8]
En la literatura en lengua inglesa, la distribución toma su nombre del artículo de 1908 de William Sealy Gosset en Biometrika bajo el seudónimo de "Estudiante". [9] Gosset trabajaba en la fábrica de cerveza Guinness en Dublín, Irlanda , y estaba interesado en los problemas de las muestras pequeñas, por ejemplo, las propiedades químicas de la cebada, donde los tamaños de muestra pueden ser tan bajos como 3. Una versión del origen del seudónimo es que el empleador de Gosset prefería que el personal usara seudónimos al publicar artículos científicos en lugar de su nombre real, por lo que usó el nombre "Estudiante" para ocultar su identidad. Otra versión es que Guinness no quería que sus competidores supieran que estaban usando la prueba t para determinar la calidad de la materia prima. [10] [11]
El artículo de Gosset se refiere a la distribución como la "distribución de frecuencia de las desviaciones estándar de muestras extraídas de una población normal". Se hizo muy conocido gracias al trabajo de Ronald Fisher , quien llamó a la distribución "distribución de Student" y representó el valor de la prueba con la letra t . [12] [13]
Cómo surge la distribución de Student a partir del muestreo
Dejar Ser independiente e idénticamente extraído de la distribución. , es decir, esta es una muestra de tamaño de una población distribuida normalmente con valor medio esperado y varianza .
Dejar
ser la media muestral y dejar
ser la varianza muestral ( corregida por Bessel ). Entonces la variable aleatoria
tiene una distribución normal estándar (es decir, normal con media esperada 0 y varianza 1), y la variable aleatoria
dónde ha sido sustituido por tiene una distribución t de Student congrados de libertad. El numerador y el denominador de la expresión anterior son variables aleatorias independientes a pesar de estar basados en la misma muestra..
Definición
Función de densidad de probabilidad
La distribución t de Student tiene la función de densidad de probabilidad dada por
dónde es el número de grados de libertad yes la función gamma . Esto también se puede escribir como
donde B es la función Beta . En particular para grados de libertad con valores enteros tenemos:
Para incluso,
Para impar,
La función de densidad de probabilidad es simétrica y su forma general se asemeja a la forma de campana de una variable distribuida normalmente con media 0 y varianza 1, excepto que es un poco más baja y más ancha. A medida que aumenta el número de grados de libertad, la distribución t se aproxima a la distribución normal con media 0 y varianza 1. Por esta razóntambién se conoce como parámetro de normalidad. [14]
Las siguientes imágenes muestran la densidad de la distribución t para valores crecientes de. La distribución normal se muestra como una línea azul para comparar. Tenga en cuenta que la distribución t (línea roja) se acerca más a la distribución normal a medida que aumenta.
Función de distribución acumulativa
La función de distribución acumulativa se puede escribir en términos de I , la función beta incompleta regularizada . Para t > 0, [15]
dónde
Otros valores se obtendrían por simetría. Una fórmula alternativa, válida para, es [15]
donde 2 F 1 es un caso particular de la función hipergeométrica .
Para obtener información sobre su función de distribución acumulativa inversa, consulte la función de cuantiles § Distribución t de Student .
Casos especiales
Ciertos valores de dar una forma especialmente sencilla.
- Función de distribución:
- Función de densidad:
- Ver distribución de Cauchy
- Función de distribución:
- Función de densidad:
- Función de distribución:
- Función de densidad:
- Función de distribución:
- Función de densidad:
- Función de distribución:
- Función de densidad:
- Función de distribución:
- Ver función de error
- Función de densidad:
- Ver distribución normal
Cómo surge la distribución t
Distribución muestral
Dejar Ser los números observados en una muestra de una población distribuida continuamente con valor esperado. . La media muestral y la varianza muestral vienen dadas por:
El valor t resultante es
La distribución t conLos grados de libertad son la distribución muestral del valor t cuando las muestras consisten en observaciones independientes distribuidas de manera idéntica de una población distribuida normalmente . Por tanto, para fines de inferencia, t es una " cantidad fundamental " útil en el caso en que la media y la varianzason parámetros poblacionales desconocidos, en el sentido de que el valor t tiene entonces una distribución de probabilidad que no depende de ninguno ni .
Inferencia bayesiana
En las estadísticas bayesianas, una distribución t (escalada, desplazada) surge como la distribución marginal de la media desconocida de una distribución normal, cuando la dependencia de una varianza desconocida se ha excluido: [16]
dónde representa los datos , y representa cualquier otra información que pueda haber sido utilizada para crear el modelo. La distribución es, por tanto, la combinación de la distribución condicional de dados los datos y con la distribución marginal de dados los datos.
Con puntos de datos, si no son informativos o planos, ubicación y escala a priori y se puede tomar para μ y σ 2 , entonces el teorema de Bayes da
una distribución normal y una distribución chi-cuadrado inversa escalada respectivamente, donde y
La integral de marginación se convierte así
Esto se puede evaluar sustituyendo , dónde , donación
entonces
Pero la integral z ahora es una integral Gamma estándar , que se evalúa como una constante, dejando
Esta es una forma de distribución t con una escala y desplazamiento explícitos que se explorará con más detalle en una sección adicional a continuación. Puede relacionarse con la distribución t estandarizada por la sustitución
La derivación anterior se ha presentado para el caso de antecedentes no informativos para y ; pero será evidente que cualquier a priori que conduzca a que una distribución normal se componga con una distribución chi-cuadrado inversa escalada conducirá a una distribución t con escalado y desplazamiento para, aunque el parámetro de escala correspondiente a Los datos anteriores se verán influenciados tanto por la información anterior como por los datos, y no solo por los datos anteriores.
Caracterización
Como la distribución de una estadística de prueba
Es estudiante t -distribución conLos grados de libertad se pueden definir como la distribución de la variable aleatoria T con [15] [17]
dónde
- Z es una normal estándar con valor esperado 0 y varianza 1;
- V tiene una distribución chi-cuadrado con grados de libertad ;
- Z y V son independientes ;
Una distribución diferente se define como la de la variable aleatoria definida, para una constante μ dada, por
Esta variable aleatoria tiene una no central t distribución t con de no centralidad parámetro μ. Esta distribución es importante en los estudios de la potencia de la prueba t de Student.
Derivación
Suponga que X 1 , ..., X n son realizaciones independientes de la variable aleatoria X , distribuida normalmente , que tiene un valor esperado μ y una varianza σ 2 . Dejar
ser la media muestral, y
ser una estimación insesgada de la varianza de la muestra. Se puede demostrar que la variable aleatoria
tiene una distribución chi-cuadrado congrados de libertad (por el teorema de Cochran ). [18] Se muestra fácilmente que la cantidad
se distribuye normalmente con media 0 y varianza 1, ya que la media muestral se distribuye normalmente con media μ y varianza σ 2 / n . Además, es posible demostrar que estas dos variables aleatorias (la Z de distribución normal y la V de distribución chi-cuadrado ) son independientes. En consecuencia [ aclaración necesaria ] la cantidad fundamental
que difiere de Z en que la desviación estándar exacta σ se reemplaza por la variable aleatoria S n , tiene una distribución t de Student como se definió anteriormente. Observe que la varianza desconocida de la población σ 2 no aparece en T , ya que estaba tanto en el numerador como en el denominador, por lo que se canceló. Gosset obtuvo intuitivamente la función de densidad de probabilidad indicada anteriormente, conigual an - 1, y Fisher lo demostró en 1925. [12]
La distribución del estadístico de prueba T depende de, pero no μ ni σ; la falta de dependencia de μ y σ es lo que hace que la distribución t sea importante tanto en la teoría como en la práctica.
Como distribución máxima de entropía
La distribución t de Student es la distribución de probabilidad de entropía máxima para una variable aleatoria X para la cualestá arreglado. [19] [se necesita aclaración ] [se necesita una mejor fuente ]
Propiedades
Momentos
Para , los momentos crudos de la distribución t son
Momentos de orden o superior no existen. [20]
El término para , k incluso, puede simplificarse utilizando las propiedades de la función gamma para
Para una distribución t congrados de libertad, el valor esperado es 0 si, y su varianza es Si . La asimetría es 0 siy el exceso de curtosis es Si .
Muestreo de Monte Carlo
Existen varios enfoques para construir muestras aleatorias a partir de la distribución t de Student. La cuestión depende de si las muestras se requieren de forma independiente o si se van a construir mediante la aplicación de una función de cuantiles a muestras uniformes ; por ejemplo, en la base de aplicaciones multidimensionales de la dependencia de la cópula . [ cita requerida ] En el caso del muestreo independiente, una extensión del método Box-Muller y su forma polar se implementa fácilmente. [21] Tiene el mérito de que se aplica igualmente bien a todos los grados de libertad positivos reales , ν, mientras que muchos otros métodos candidatos fallan si ν está cerca de cero. [21]
Integral de la función de densidad de probabilidad de Student y el valor p
La función A ( t | ν ) es la integral de la función de densidad de probabilidad de Student, f ( t ) entre - t y t , para t ≥ 0. Por tanto, da la probabilidad de que un valor de t menor que el calculado a partir de los datos observados ocurrir por casualidad. Por lo tanto, la función A ( t | ν ) se puede utilizar cuando se prueba si la diferencia entre las medias de dos conjuntos de datos es estadísticamente significativa, calculando el valor correspondiente de ty la probabilidad de que ocurra si los dos conjuntos de datos fueran extraídos de la misma población. Esto se usa en una variedad de situaciones, particularmente en pruebas t . Para el estadístico t , con ν grados de libertad, A ( t | ν ) es la probabilidad de que t sea menor que el valor observado si las dos medias fueran iguales (siempre que la media menor se reste de la mayor, de modo que t ≥ 0). Se puede calcular fácilmente a partir de la función de distribución acumulada F ν ( t ) de la distribución t :
donde I x es la función beta incompleta regularizada ( a , b ).
Para las pruebas de hipótesis estadísticas, esta función se utiliza para construir el valor p .
Distribución t de Student generalizada
En términos de parámetro de escala o
La distribución t de Student se puede generalizar a una familia de escala de ubicación de tres parámetros , introduciendo un parámetro de ubicación y un parámetro de escala , a través de la relación
o
Esto significa que tiene una distribución t de Student clásica con grados de libertad.
La distribución t de Student no estandarizada resultante tiene una densidad definida por: [22]
Aquí, no no corresponde a una desviación estándar : no es la desviación estándar de la escalado t de distribución, que puede incluso no existir; tampoco es la desviación estándar de la distribución normal subyacente , que se desconoce.simplemente establece la escala general de la distribución. En la derivación bayesiana de la distribución marginal de una media normal desconocida sobre, como se usa aquí corresponde a la cantidad , dónde
- .
De manera equivalente, la distribución se puede escribir en términos de , el cuadrado de este parámetro de escala:
Otras propiedades de esta versión de la distribución son: [22]
Esta distribución resulta de la combinación de una distribución gaussiana ( distribución normal ) con la media y varianza desconocida , con una distribución gamma inversa colocada sobre la varianza con parámetros y . En otras palabras, se supone que la variable aleatoria X tiene una distribución gaussiana con una varianza desconocida distribuida como gamma inversa, y luego la varianza se margina (se integra). La razón de la utilidad de esta caracterización es que la distribución gamma inversa es la distribución previa conjugada de la varianza de una distribución gaussiana. Como resultado, la distribución t de Student no estandarizada surge naturalmente en muchos problemas de inferencia bayesiana. Vea abajo.
De manera equivalente, esta distribución resulta de la combinación de una distribución gaussiana con una distribución chi cuadrado inversa escalada con parámetros y . La distribución chi cuadrado inversa escalada es exactamente la misma distribución que la distribución gamma inversa, pero con una parametrización diferente, es decir.
En términos de parámetro de escala inversa λ
Una parametrización alternativa en términos de un parámetro de escala inversa(análogo a la forma en que la precisión es el recíproco de la varianza), definida por la relación. Entonces, la densidad viene dada por: [23]
Otras propiedades de esta versión de la distribución son: [23]
Esta distribución resulta de la combinación de una distribución gaussiana con media y precisión desconocida (el recíproco de la varianza ), con una distribución gamma colocada sobre la precisión con parámetros y . En otras palabras, se supone que la variable aleatoria X tiene una distribución normal con una precisión desconocida distribuida como gamma, y luego se margina sobre la distribución gamma.
Distribuciones relacionadas
- Si tiene una distribución t de Student con grado de libertadentonces X 2 tiene una distribución F :
- La distribución t no central generaliza la distribución t para incluir un parámetro de ubicación. A diferencia de las distribuciones t no estandarizadas, las distribuciones no centrales no son simétricas (la mediana no es la misma que la moda).
- La distribución t de Student discreta se define por su función de masa de probabilidad en r proporcional a: [24]
- Aquí una , b , y k son parámetros. Esta distribución surge de la construcción de un sistema de distribuciones discretas similar al de las distribuciones de Pearson para distribuciones continuas. [25]
- Uno puede generar Student t muestras tomando la relación de variables a partir de la distribución normal y la raíz cuadrada de χ 2 distribución t . Si usamos en lugar de la distribución normal, por ejemplo, la distribución de Irwin-Hall , obtenemos en general una distribución simétrica de 4 parámetros, que incluye la distribución normal, uniforme , triangular , de Student- t y de Cauchy . Esto también es más flexible que algunas otras generalizaciones simétricas de la distribución normal.
- t -distribution es una instancia de distribuciones de razón
Usos
En inferencia estadística frecuentista
La distribución t de Student surge en una variedad de problemas de estimación estadística donde el objetivo es estimar un parámetro desconocido, como un valor medio, en un entorno donde los datos se observan con errores aditivos . Si (como en casi todos los trabajos estadísticos prácticos) la desviación estándar de la población de estos errores es desconocida y debe estimarse a partir de los datos, la distribución t se utiliza a menudo para tener en cuenta la incertidumbre adicional que resulta de esta estimación. En la mayoría de estos problemas, si se conociera la desviación estándar de los errores, se usaría una distribución normal en lugar de la distribución t .
Los intervalos de confianza y las pruebas de hipótesis son dos procedimientos estadísticos en los que se requieren los cuantiles de la distribución muestral de una estadística en particular (por ejemplo, la puntuación estándar ). En cualquier situación en la que este estadístico sea una función lineal de los datos , dividida por la estimación habitual de la desviación estándar, la cantidad resultante se puede reescalar y centrar para seguir la distribución t de Student. Los análisis estadísticos que incluyen medias, medias ponderadas y coeficientes de regresión llevan a que las estadísticas tengan esta forma.
Muy a menudo, los problemas de los libros de texto tratan la desviación estándar de la población como si fuera conocida y, por lo tanto, evitan la necesidad de utilizar la distribución t de Student. Estos problemas son generalmente de dos tipos: (1) aquellos en los que el tamaño de la muestra es tan grande que se puede tratar una estimación de la varianza basada en datos como si fuera cierta, y (2) aquellos que ilustran el razonamiento matemático, en los que el problema de estimar la desviación estándar se ignora temporalmente porque ese no es el punto que el autor o el instructor están explicando.
Evaluación de la hipótesis
Se puede demostrar que una serie de estadísticas tienen distribuciones t para muestras de tamaño moderado bajo hipótesis nulas que son de interés, de modo que la distribución t forma la base para las pruebas de significancia. Por ejemplo, la distribución del coeficiente de correlación de rango de Spearman ρ , en el caso nulo (correlación cero) está bien aproximada por la distribución t para tamaños de muestra superiores a aproximadamente 20. [ cita requerida ]
Intervalos de confianza
Suponga que el número A se elige de tal manera que
cuando T tiene una distribución t con n - 1 grados de libertad. Por simetría, esto es lo mismo que decir que A satisface
por lo que A es el "percentil 95" de esta distribución de probabilidad, o. Luego
y esto es equivalente a
Por lo tanto, el intervalo cuyos puntos finales son
es un intervalo de confianza del 90% para μ. Por lo tanto, si encontramos la media de un conjunto de observaciones que razonablemente podemos esperar que tenga una distribución normal, podemos usar la distribución t para examinar si los límites de confianza en esa media incluyen algún valor predicho teóricamente, como el valor predicho sobre una hipótesis nula .
Es este resultado el que se usa en las pruebas t de Student : dado que la diferencia entre las medias de las muestras de dos distribuciones normales se distribuye normalmente en sí misma, la distribución t se puede usar para examinar si esa diferencia se puede suponer razonablemente que es cero. .
Si los datos están distribuidos normalmente, el límite de confianza superior (UCL) unilateral (1 - α ) de la media, se puede calcular utilizando la siguiente ecuación:
El UCL resultante será el mayor valor promedio que ocurrirá para un intervalo de confianza y tamaño de población determinados. En otras palabras,siendo la media del conjunto de observaciones, la probabilidad de que la media de la distribución sea inferior a UCL 1− α es igual al nivel de confianza 1 - α .
Intervalos de predicción
La distribución t se puede utilizar para construir un intervalo de predicción para una muestra no observada a partir de una distribución normal con media y varianza desconocidas.
En estadísticas bayesianas
La distribución t de Student, especialmente en su versión de tres parámetros (escala de ubicación), surge con frecuencia en la estadística bayesiana como resultado de su conexión con la distribución normal . Siempre que se desconozca la varianza de una variable aleatoria distribuida normalmente y se coloque sobre ella un previo conjugado que siga una distribución gamma inversa , la distribución marginal resultante de la variable seguirá una distribución t de Student. Las construcciones equivalentes con los mismos resultados implican una distribución conjugada de chi cuadrado inverso escalado sobre la varianza, o una distribución gamma conjugada sobre la precisión . Si se coloca un anterior impropio proporcional a σ −2 sobre la varianza, también surge la distribución t . Este es el caso independientemente de si se conoce la media de la variable distribuida normalmente, se desconoce la distribución de acuerdo con un conjugado distribuido a priori, o se desconoce la distribución de acuerdo con una constante impropia previa.
Las situaciones relacionadas que también producen una distribución t son:
- La distribución posterior marginal de la media desconocida de una variable distribuida normalmente, con media anterior desconocida y varianza siguiendo el modelo anterior.
- La distribución predictiva previa y la distribución predictiva posterior de un nuevo punto de datos distribuidos normalmente cuando se ha observado una serie de puntos de datos distribuidos normalmente distribuidos de forma idéntica e independientes , con media y varianza previas como en el modelo anterior.
Modelado paramétrico robusto
La distribución t se utiliza a menudo como una alternativa a la distribución normal como modelo para los datos, que a menudo tiene colas más pesadas de lo que permite la distribución normal; véase, por ejemplo, Lange et al. [26] El enfoque clásico era identificar valores atípicos (por ejemplo, utilizando la prueba de Grubbs ) y excluirlos o reducirlos de alguna manera. Sin embargo, no siempre es fácil identificar valores atípicos (especialmente en dimensiones altas ), y la distribución t es una elección natural de modelo para tales datos y proporciona un enfoque paramétrico para estadísticas sólidas .
Se puede encontrar un relato bayesiano en Gelman et al. [27] El parámetro de grados de libertad controla la curtosis de la distribución y está correlacionado con el parámetro de escala. La probabilidad puede tener múltiples máximos locales y, como tal, a menudo es necesario fijar los grados de libertad en un valor bastante bajo y estimar los otros parámetros tomando esto como dado. Algunos autores [ cita requerida ] informan que los valores entre 3 y 9 suelen ser buenas opciones. Venables y Ripley [ cita requerida ] sugieren que un valor de 5 es a menudo una buena opción.
De Student t -process
Para las necesidades prácticas de regresión y predicción , se introdujeron los procesos t de Student, que son generalizaciones de las distribuciones t de Student para funciones. Un proceso t de Student se construye a partir de las distribuciones t de Student, como un proceso gaussiano se construye a partir de las distribuciones gaussianas . Para un proceso gaussiano , todos los conjuntos de valores tienen una distribución gaussiana multidimensional. Análogamente,es un proceso t de Student en un intervalo si los valores correspondientes del proceso () Tiene una articulación multivariante Student t -distribución . [28] Estos procesos se utilizan para regresión, predicción, optimización bayesiana y problemas relacionados. Para la regresión multivariante y la predicción de múltiples salidas, se introducen y utilizan los procesos t de Student multivariante . [29]
Tabla de valores seleccionados
La siguiente tabla enumera los valores para las distribuciones t con ν grados de libertad para un rango de regiones críticas unilaterales o bilaterales . La primera columna es ν, los porcentajes en la parte superior son niveles de confianza y los números en el cuerpo de la tabla son losfactores descritos en la sección sobre intervalos de confianza .
Tenga en cuenta que la última fila con infinito ν da puntos críticos para una distribución normal, ya que una distribución t con infinitos grados de libertad es una distribución normal. (Consulte las distribuciones relacionadas más arriba).
Unilateral | 75% | 80% | 85% | 90% | 95% | 97,5% | 99% | 99,5% | 99,75% | 99,9% | 99,95% |
---|---|---|---|---|---|---|---|---|---|---|---|
De dos caras | 50% | 60% | 70% | 80% | 90% | 95% | 98% | 99% | 99,5% | 99,8% | 99,9% |
1 | 1.000 | 1.376 | 1,963 | 3.078 | 6.314 | 12,71 | 31,82 | 63,66 | 127,3 | 318,3 | 636,6 |
2 | 0,816 | 1.080 | 1.386 | 1.886 | 2.920 | 4.303 | 6.965 | 9,925 | 14.09 | 22,33 | 31,60 |
3 | 0,765 | 0,978 | 1.250 | 1.638 | 2.353 | 3.182 | 4.541 | 5.841 | 7.453 | 10.21 | 12,92 |
4 | 0,741 | 0,941 | 1,190 | 1.533 | 2.132 | 2.776 | 3.747 | 4.604 | 5.598 | 7.173 | 8.610 |
5 | 0,727 | 0,920 | 1,156 | 1,476 | 2.015 | 2.571 | 3.365 | 4.032 | 4.773 | 5.893 | 6.869 |
6 | 0,718 | 0,906 | 1,134 | 1.440 | 1.943 | 2.447 | 3.143 | 3.707 | 4.317 | 5.208 | 5.959 |
7 | 0,711 | 0,896 | 1,119 | 1.415 | 1.895 | 2.365 | 2.998 | 3.499 | 4.029 | 4.785 | 5.408 |
8 | 0,706 | 0,889 | 1.108 | 1.397 | 1.860 | 2.306 | 2.896 | 3.355 | 3.833 | 4.501 | 5.041 |
9 | 0,703 | 0,883 | 1.100 | 1.383 | 1.833 | 2.262 | 2.821 | 3.250 | 3.690 | 4.297 | 4.781 |
10 | 0,700 | 0,879 | 1.093 | 1.372 | 1.812 | 2.228 | 2.764 | 3.169 | 3.581 | 4.144 | 4.587 |
11 | 0,697 | 0,876 | 1.088 | 1.363 | 1.796 | 2.201 | 2.718 | 3.106 | 3.497 | 4.025 | 4.437 |
12 | 0,695 | 0,873 | 1.083 | 1.356 | 1,782 | 2.179 | 2.681 | 3.055 | 3.428 | 3.930 | 4.318 |
13 | 0,694 | 0,870 | 1.079 | 1.350 | 1.771 | 2.160 | 2.650 | 3.012 | 3.372 | 3.852 | 4.221 |
14 | 0,692 | 0,868 | 1.076 | 1.345 | 1.761 | 2.145 | 2.624 | 2.977 | 3.326 | 3.787 | 4.140 |
15 | 0,691 | 0,866 | 1.074 | 1.341 | 1,753 | 2.131 | 2.602 | 2.947 | 3.286 | 3.733 | 4.073 |
dieciséis | 0,690 | 0,865 | 1.071 | 1.337 | 1.746 | 2.120 | 2.583 | 2.921 | 3.252 | 3.686 | 4.015 |
17 | 0,689 | 0,863 | 1.069 | 1.333 | 1.740 | 2.110 | 2.567 | 2.898 | 3.222 | 3.646 | 3.965 |
18 | 0,688 | 0,862 | 1.067 | 1.330 | 1.734 | 2.101 | 2.552 | 2.878 | 3.197 | 3.610 | 3.922 |
19 | 0,688 | 0,861 | 1.066 | 1.328 | 1.729 | 2.093 | 2.539 | 2.861 | 3.174 | 3.579 | 3.883 |
20 | 0,687 | 0,860 | 1.064 | 1.325 | 1.725 | 2.086 | 2.528 | 2.845 | 3.153 | 3.552 | 3.850 |
21 | 0,686 | 0,859 | 1.063 | 1.323 | 1.721 | 2.080 | 2.518 | 2.831 | 3.135 | 3.527 | 3.819 |
22 | 0,686 | 0,858 | 1.061 | 1.321 | 1.717 | 2.074 | 2.508 | 2.819 | 3.119 | 3.505 | 3.792 |
23 | 0,685 | 0,858 | 1.060 | 1.319 | 1.714 | 2.069 | 2.500 | 2.807 | 3.104 | 3.485 | 3.767 |
24 | 0,685 | 0,857 | 1.059 | 1.318 | 1.711 | 2.064 | 2.492 | 2.797 | 3.091 | 3.467 | 3.745 |
25 | 0,684 | 0,856 | 1.058 | 1.316 | 1.708 | 2.060 | 2.485 | 2.787 | 3.078 | 3.450 | 3.725 |
26 | 0,684 | 0,856 | 1.058 | 1.315 | 1.706 | 2.056 | 2.479 | 2.779 | 3.067 | 3.435 | 3.707 |
27 | 0,684 | 0,855 | 1.057 | 1.314 | 1.703 | 2.052 | 2.473 | 2.771 | 3.057 | 3.421 | 3.690 |
28 | 0,683 | 0,855 | 1.056 | 1.313 | 1.701 | 2.048 | 2.467 | 2.763 | 3.047 | 3.408 | 3.674 |
29 | 0,683 | 0,854 | 1.055 | 1.311 | 1.699 | 2.045 | 2.462 | 2.756 | 3.038 | 3.396 | 3.659 |
30 | 0,683 | 0,854 | 1.055 | 1.310 | 1,697 | 2.042 | 2.457 | 2.750 | 3.030 | 3.385 | 3.646 |
40 | 0,681 | 0,851 | 1.050 | 1.303 | 1,684 | 2.021 | 2.423 | 2.704 | 2.971 | 3.307 | 3.551 |
50 | 0,679 | 0,849 | 1.047 | 1.299 | 1,676 | 2.009 | 2.403 | 2.678 | 2.937 | 3.261 | 3.496 |
60 | 0,679 | 0,848 | 1.045 | 1.296 | 1,671 | 2.000 | 2.390 | 2.660 | 2.915 | 3.232 | 3.460 |
80 | 0,678 | 0,846 | 1.043 | 1.292 | 1.664 | 1.990 | 2.374 | 2.639 | 2.887 | 3.195 | 3.416 |
100 | 0,677 | 0,845 | 1.042 | 1.290 | 1.660 | 1.984 | 2.364 | 2.626 | 2.871 | 3.174 | 3.390 |
120 | 0,677 | 0,845 | 1.041 | 1.289 | 1,658 | 1.980 | 2.358 | 2.617 | 2.860 | 3.160 | 3.373 |
∞ | 0,674 | 0,842 | 1.036 | 1.282 | 1.645 | 1.960 | 2.326 | 2.576 | 2.807 | 3.090 | 3.291 |
Unilateral | 75% | 80% | 85% | 90% | 95% | 97,5% | 99% | 99,5% | 99,75% | 99,9% | 99,95% |
De dos caras | 50% | 60% | 70% | 80% | 90% | 95% | 98% | 99% | 99,5% | 99,8% | 99,9% |
Calcular el intervalo de confianza
Digamos que tenemos una muestra con tamaño 11, media muestral 10 y varianza muestral 2. Para un 90% de confianza con 10 grados de libertad, el valor t unilateral de la tabla es 1.372. Luego, con el intervalo de confianza calculado a partir de
determinamos que con un 90% de confianza tenemos una media real por debajo
En otras palabras, el 90% de las veces que se calcula un umbral superior mediante este método a partir de muestras particulares, este umbral superior supera la media real.
Y con un 90% de confianza, tenemos una verdadera media por encima
En otras palabras, el 90% de las veces que se calcula un umbral inferior mediante este método a partir de muestras particulares, este umbral inferior se encuentra por debajo de la media real.
De modo que al 80% de confianza (calculado a partir del 100% - 2 × (1 - 90%) = 80%), tenemos una media verdadera dentro del intervalo
Decir que el 80% de las veces que los umbrales superior e inferior se calculan mediante este método a partir de una muestra determinada, la verdadera media está tanto por debajo del umbral superior como por encima del umbral inferior no es lo mismo que decir que hay un 80% de probabilidad de que la verdadera media se encuentra entre un par particular de umbrales superior e inferior que se han calculado mediante este método; ver intervalo de confianza y falacia del fiscal .
Hoy en día, el software estadístico, como el lenguaje de programación R , y las funciones disponibles en muchos programas de hojas de cálculo calculan los valores de la distribución t y su inverso sin tablas.
Ver también
- Tabla de distribución Z
- Distribución chi-cuadrado
- F- distribución
- Distribución gamma
- Folded- t y media t distribuciones
- Distribución T -quared de Hotelling
- Distribución de estudiantes multivariante
- t- estadístico
- Distribución de Tau , para residuos estudiados internamente
- Distribución lambda de Wilks
- Distribución Wishart
- Distribución normal
Notas
- ^ Hurst, Simon. La función característica de la distribución t de Student , Informe de investigación de matemáticas financieras n. ° FMRR006-95, Informe de investigación de estadísticas n. ° SRR044-95 Archivado el 18 de febrero de 2010 en la Wayback Machine.
- ^ Helmert FR (1875). "Über die Berechnung des wahrscheinlichen Fehlers aus einer endlichen Anzahl wahrer Beobachtungsfehler". Z. Math. U. Physik . 20 : 300–3.
- ^ Helmert FR (1876). "Über die Wahrscheinlichkeit der Potenzsummen der Beobachtungsfehler und uber einige damit en Zusammenhang stehende Fragen". Z. Math. Phys . 21 : 192–218.
- ^ Helmert FR (1876). "Die Genauigkeit der Formel von Peters zur Berechnung des wahrscheinlichen Beobachtungsfehlers directer Beobachtungen gleicher Genauigkeit" [La precisión de la fórmula de Peters para calcular el error de observación probable de observaciones directas de la misma precisión] (PDF) . Astron. Nachr. (en alemán). 88 (8–9): 113–132. Código bibliográfico : 1876AN ..... 88..113H . doi : 10.1002 / asna.18760880802 .
- ^ Lüroth J (1876). "Vergleichung von zwei Werten des wahrscheinlichen Fehlers" . Astron. Nachr. 87 (14): 209-20. Código bibliográfico : 1876AN ..... 87..209L . doi : 10.1002 / asna.18760871402 .
- ^ Pfanzagl J, Sheynin O (1996). "Estudios en la historia de la probabilidad y la estadística. XLIV. Un precursor de la distribución t ". Biometrika . 83 (4): 891–898. doi : 10.1093 / biomet / 83.4.891 . Señor 1766040 .
- ^ Sheynin O (1995). "El trabajo de Helmert en la teoría de los errores". Arco. Hist. Exact Sci. 49 (1): 73–104. doi : 10.1007 / BF00374700 .
- ^ Pearson, K. (1 de enero de 1895). "Contribuciones a la teoría matemática de la evolución. II. Variación sesgada en material homogéneo" . Transacciones filosóficas de la Royal Society A: Ciencias matemáticas, físicas y de la ingeniería . 186 : 343–414 (374). doi : 10.1098 / rsta.1895.0010 . ISSN 1364-503X .
- ^ "Estudiante" [ William Sealy Gosset ] (1908). "El probable error de un medio" (PDF) . Biometrika . 6 (1): 1–25. doi : 10.1093 / biomet / 6.1.1 . hdl : 10338.dmlcz / 143545 . JSTOR 2331554 .
- ^ Wendl MC (2016). "Fama seudónima". Ciencia . 351 (6280): 1406. doi : 10.1126 / science.351.6280.1406 . PMID 27013722 .
- ^ Mortimer RG (2005). Matemáticas para la química física (3ª ed.). Burlington, MA: Elsevier. págs. 326 . ISBN 9780080492889. OCLC 156200058 .
- ^ a b Fisher RA (1925). "Aplicaciones de distribución" Student " (PDF) . Metron . 5 : 90-104. Archivado desde el original (PDF) el 5 de marzo de 2016.
- ^ Walpole RE, Myers R, Myers S, et al. (2006). Probabilidad y estadística para ingenieros y científicos (7ª ed.). Nueva Delhi: Pearson. pag. 237. ISBN 9788177584042. OCLC 818811849 .
- ^ Kruschke JK (2015). Haciendo análisis de datos bayesianos (2ª ed.). Prensa académica. ISBN 9780124058880. OCLC 959632184 .
- ^ a b c Johnson NL, Kotz S, Balakrishnan N (1995). "Capítulo 28". Distribuciones univariadas continuas . 2 (2ª ed.). Wiley. ISBN 9780471584940.
- ^ Gelman AB, Carlin JS, Rubin DB y col. (1997). Análisis de datos bayesianos (2ª ed.). Boca Raton: Chapman & Hall. pag. 68. ISBN 9780412039911.
- ^ Hogg RV , Craig AT (1978). Introducción a la estadística matemática (4ª ed.). Nueva York: Macmillan. ASIN B010WFO0SA . Secciones 4.4 y 4.8CS1 maint: posdata ( enlace )
- ^ Cochran WG (1934). "La distribución de formas cuadráticas en un sistema normal, con aplicaciones al análisis de covarianza". Matemáticas. Proc. Camb. Philos. Soc. 30 (2): 178-191. Código Bib : 1934PCPS ... 30..178C . doi : 10.1017 / S0305004100016595 .
- ^ Park SY, Bera AK (2009). "Modelo de heterocedasticidad condicional autorregresiva de máxima entropía". J. Econom. 150 (2): 219–230. doi : 10.1016 / j.jeconom.2008.12.014 .
- ^ Casella G, Berger RL (1990). Inferencia estadística . Centro de recursos de Duxbury. pag. 56. ISBN 9780534119584.
- ^ a b Bailey RW (1994). "Generación polar de variables aleatorias con la distribución t ". Matemáticas. Computación. 62 (206): 779–781. doi : 10.2307 / 2153537 . JSTOR 2153537 .
- ^ a b Jackman, S. (2009). Análisis bayesiano para las ciencias sociales . Wiley. pag. 507 . doi : 10.1002 / 9780470686621 . ISBN 9780470011546.
- ^ a b Obispo, CM (2006). Reconocimiento de patrones y aprendizaje automático . Nueva York, NY: Springer . ISBN 9780387310732.
- ^ Ord JK (1972). Familias de distribuciones de frecuencia . Londres: Griffin. ISBN 9780852641378. Ver Tabla 5.1.CS1 maint: posdata ( enlace )
- ^ Ord JK (1972). "Capítulo 5". Familias de distribuciones de frecuencia . Londres: Griffin. ISBN 9780852641378.
- ^ Lange KL, Little RJ, Taylor JM (1989). "Modelado estadístico robusto utilizando la distribución t " (PDF) . Mermelada. Stat. Assoc. 84 (408): 881–896. doi : 10.1080 / 01621459.1989.10478852 . JSTOR 2290063 .
- ^ Gelman AB, Carlin JB, Stern HS y col. (2014). "Simulación de cadena de Markov computacionalmente eficiente". Análisis de datos bayesianos . Boca Raton, FL: CRC Press. pag. 293. ISBN 9781439898208.
- ^ Shah, Amar; Wilson, Andrew Gordon; Ghahramani, Zoubin (2014). " Procesos t de Student como alternativas a los procesos gaussianos" (PDF) . JMLR . 33 (Actas de la 17ª Conferencia Internacional sobre Inteligencia Artificial y Estadísticas (AISTATS) 2014, Reykjavik, Islandia): 877–885.
- ^ Chen, Zexun; Wang, Bo; Gorban, Alexander N. (2019). " Regresión multivariante del proceso Gaussian y Student- t para la predicción de múltiples salidas" . Computación neuronal y aplicaciones . arXiv : 1703.04455 . doi : 10.1007 / s00521-019-04687-8 .
Referencias
- Senn, S .; Richardson, W. (1994). "La primera prueba t ". Estadística en Medicina . 13 (8): 785–803. doi : 10.1002 / sim.4780130802 . PMID 8047737 .
- Hogg RV , Craig AT (1978). Introducción a la estadística matemática (4ª ed.). Nueva York: Macmillan. ASIN B010WFO0SA .
- Venables, WN; Ripley, BD (2002). Estadística aplicada moderna con S (Cuarta ed.). Saltador.
- Gelman, Andrew; John B. Carlin; Hal S. Stern; Donald B. Rubin (2003). Análisis de datos bayesianos (segunda edición) . CRC / Chapman & Hall. ISBN 1-58488-388-X.
enlaces externos
- "Distribución estudiantil" , Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
- Usos conocidos más tempranos de algunas de las palabras de las matemáticas (S) (Comentarios sobre la historia del término "distribución del estudiante")
- Rouaud, M. (2013), Probabilidad, estadística y estimación (PDF) (edición corta) Primeros estudiantes en la página 112.
- Distribución t de Student , ck12