La inferencia estadística es el proceso de utilizar el análisis de datos para inferir las propiedades de una distribución de probabilidad subyacente . [1] El análisis estadístico inferencial infiere propiedades de una población , por ejemplo, probando hipótesis y derivando estimaciones. Se supone que el conjunto de datos observados se extrae de una población más grande.
La estadística inferencial se puede contrastar con la estadística descriptiva . La estadística descriptiva se ocupa únicamente de las propiedades de los datos observados y no se basa en la suposición de que los datos provienen de una población más grande. En el aprendizaje automático , el término inferencia a veces se usa en cambio para significar "hacer una predicción, evaluando un modelo ya entrenado"; [2] en este contexto, la inferencia de propiedades del modelo se denomina entrenamiento o aprendizaje (en lugar de inferencia ), y el uso de un modelo para la predicción se denomina inferencia (en lugar de predicción ); ver tambiéninferencia predictiva .
Introducción
La inferencia estadística hace proposiciones sobre una población, utilizando datos extraídos de la población con alguna forma de muestreo . Dada una hipótesis sobre una población, para la cual deseamos hacer inferencias, la inferencia estadística consiste en (primero) seleccionar un modelo estadístico del proceso que genera los datos y (segundo) deducir proposiciones del modelo. [ cita requerida ]
Konishi y Kitagawa afirman que "la mayoría de los problemas de inferencia estadística pueden considerarse problemas relacionados con el modelado estadístico". [3] En relación con esto, Sir David Cox ha dicho: "La forma en que se hace [la] traducción del problema de la materia a un modelo estadístico es a menudo la parte más crítica de un análisis". [4]
La conclusión de una inferencia estadística es una proposición estadística . [5] Algunas formas comunes de proposición estadística son las siguientes:
- una estimación puntual , es decir, un valor particular que mejor se aproxima a algún parámetro de interés;
- una estimación de intervalo , por ejemplo, un intervalo de confianza (o una estimación de conjunto), es decir, un intervalo construido utilizando un conjunto de datos extraído de una población de modo que, en el muestreo repetido de dichos conjuntos de datos, dichos intervalos contendrían el valor verdadero del parámetro con la probabilidad en la confianza establecida nivel ;
- un intervalo creíble , es decir, un conjunto de valores que contienen, por ejemplo, el 95% de la creencia posterior;
- rechazo de una hipótesis ; [nota 1]
- agrupación o clasificación de puntos de datos en grupos.
Modelos y supuestos
Cualquier inferencia estadística requiere algunas suposiciones. Un modelo estadístico es un conjunto de supuestos relacionados con la generación de los datos observados y datos similares. Las descripciones de modelos estadísticos suelen enfatizar el papel de las cantidades de población de interés, sobre las que deseamos hacer inferencias. [6] Las estadísticas descriptivas se utilizan típicamente como un paso preliminar antes de extraer inferencias más formales. [7]
Grado de modelos / supuestos
Los estadísticos distinguen entre tres niveles de supuestos de modelado;
- Totalmente paramétrico : se supone que las distribuciones de probabilidad que describen el proceso de generación de datos están completamente descritas por una familia de distribuciones de probabilidad que involucran solo un número finito de parámetros desconocidos. [6] Por ejemplo, se puede suponer que la distribución de los valores de la población es verdaderamente Normal, con media y varianza desconocidas, y que los conjuntos de datos se generan mediante un muestreo aleatorio "simple" . La familia de modelos lineales generalizados es una clase flexible y ampliamente utilizada de modelos paramétricos.
- No paramétrico : las suposiciones sobre el proceso que genera los datos son mucho menores que en las estadísticas paramétricas y pueden ser mínimas. [8] Por ejemplo, cada distribución de probabilidad continua tiene una mediana, que puede estimarse utilizando la mediana de la muestra o el estimador de Hodges-Lehmann-Sen , que tiene buenas propiedades cuando los datos surgen de un muestreo aleatorio simple.
- Semi-paramétrico : este término típicamente implica supuestos 'intermedios' en enfoques completos y no paramétricos. Por ejemplo, se puede suponer que una distribución de población tiene una media finita. Además, se puede suponer que el nivel de respuesta medio en la población depende de una manera verdaderamente lineal de alguna covariable (una suposición paramétrica) pero no hacer ninguna suposición paramétrica que describa la varianza alrededor de esa media (es decir, sobre la presencia o posible forma de cualquier heterocedasticidad ). De manera más general, los modelos semiparamétricos a menudo se pueden separar en componentes "estructurales" y "variación aleatoria". Un componente se trata de forma paramétrica y el otro de forma no paramétrica. El conocido modelo de Cox es un conjunto de supuestos semiparamétricos.
Importancia de modelos / supuestos válidos
Cualquiera que sea el nivel de suposición que se haga, la inferencia correctamente calibrada en general requiere que estas suposiciones sean correctas; es decir, que los mecanismos de generación de datos realmente se han especificado correctamente.
Los supuestos incorrectos del muestreo aleatorio "simple" pueden invalidar la inferencia estadística. [9] Los supuestos semi y totalmente paramétricos más complejos también son motivo de preocupación. Por ejemplo, asumir incorrectamente el modelo de Cox puede, en algunos casos, llevar a conclusiones erróneas. [10] Las suposiciones incorrectas de normalidad en la población también invalidan algunas formas de inferencia basada en regresiones. [11] El uso de cualquier modelo paramétrico es visto con escepticismo por la mayoría de los expertos en muestreo de poblaciones humanas: "la mayoría de los estadísticos de muestreo, cuando tratan con intervalos de confianza en absoluto, se limitan a enunciados sobre [estimadores] basados en muestras muy grandes, donde el El teorema del límite central asegura que estos [estimadores] tendrán distribuciones que son casi normales ". [12] En particular, una distribución normal "sería una suposición totalmente irreal y catastróficamente imprudente si estuviéramos tratando con cualquier tipo de población económica". [12] Aquí, el teorema del límite central establece que la distribución de la media muestral "para muestras muy grandes" tiene una distribución aproximadamente normal, si la distribución no tiene una cola gruesa.
Distribuciones aproximadas
Dada la dificultad de especificar distribuciones exactas de las estadísticas de la muestra, se han desarrollado muchos métodos para aproximarlas.
Con muestras finitas, los resultados de aproximación miden qué tan cerca se acerca una distribución límite a la distribución muestral del estadístico : por ejemplo, con 10,000 muestras independientes, la distribución normal se aproxima (con dos dígitos de precisión) a la distribución de la media muestral para muchas distribuciones de población, según el método Berry –Teorema de Esseen . [13] Sin embargo, para muchos propósitos prácticos, la aproximación normal proporciona una buena aproximación a la distribución de la media muestral cuando hay 10 (o más) muestras independientes, según estudios de simulación y la experiencia de los estadísticos. [13] Siguiendo el trabajo de Kolmogorov en la década de 1950, la estadística avanzada utiliza la teoría de la aproximación y el análisis funcional para cuantificar el error de aproximación. En este enfoque, se estudia la geometría métrica de las distribuciones de probabilidad ; este enfoque cuantifica el error de aproximación con, por ejemplo, la divergencia de Kullback-Leibler , la divergencia de Bregman y la distancia de Hellinger . [14] [15] [16]
Con muestras indefinidamente grandes, los resultados limitantes como el teorema del límite central describen la distribución limitante del estadístico muestral, si existe. Los resultados limitantes no son declaraciones sobre muestras finitas y, de hecho, son irrelevantes para muestras finitas. [17] [18] [19] Sin embargo, la teoría asintótica de distribuciones limitantes se invoca a menudo para trabajar con muestras finitas. Por ejemplo, los resultados limitantes a menudo se invocan para justificar el método generalizado de momentos y el uso de ecuaciones de estimación generalizadas , que son populares en econometría y bioestadística . La magnitud de la diferencia entre la distribución límite y la distribución verdadera (formalmente, el "error" de la aproximación) se puede evaluar mediante simulación. [20] La aplicación heurística de limitar los resultados a muestras finitas es una práctica común en muchas aplicaciones, especialmente con modelos de baja dimensión con verosimilitudes log-cóncavas (como con familias exponenciales de un parámetro ).
Modelos basados en aleatorización
Para un conjunto de datos dado que fue producido por un diseño de aleatorización, la distribución de aleatorización de una estadística (bajo la hipótesis nula) se define evaluando la estadística de prueba para todos los planes que podrían haber sido generados por el diseño de aleatorización. En la inferencia frecuentista, la aleatorización permite que las inferencias se basen en la distribución de aleatorización en lugar de en un modelo subjetivo, y esto es importante especialmente en el muestreo de encuestas y el diseño de experimentos. [21] [22] La inferencia estadística de estudios aleatorizados también es más sencilla que muchas otras situaciones. [23] [24] [25] En la inferencia bayesiana , la aleatorización también es importante: en el muestreo de encuestas , el uso de muestreo sin reemplazo asegura la intercambiabilidad de la muestra con la población; en experimentos aleatorios, la aleatorización justifica la ausencia de una suposición aleatoria para la información de covariables . [26]
La aleatorización objetiva permite procedimientos adecuadamente inductivos. [27] [28] [29] [30] [31] Muchos estadísticos prefieren el análisis basado en la aleatorización de los datos que se generaron mediante procedimientos de aleatorización bien definidos. [32] (Sin embargo, es cierto que en campos de la ciencia con conocimientos teóricos desarrollados y control experimental, los experimentos aleatorios pueden aumentar los costos de experimentación sin mejorar la calidad de las inferencias. [33] [34] ) De manera similar, los resultados de experimentos aleatorios son recomendados por las principales autoridades estadísticas por permitir inferencias con mayor confiabilidad que los estudios observacionales de los mismos fenómenos. [35] Sin embargo, un buen estudio observacional puede ser mejor que un mal experimento aleatorio.
El análisis estadístico de un experimento aleatorizado puede basarse en el esquema de aleatorización establecido en el protocolo experimental y no necesita un modelo subjetivo. [36] [37]
Sin embargo, en cualquier momento, algunas hipótesis no se pueden probar utilizando modelos estadísticos objetivos, que describen con precisión experimentos aleatorizados o muestras aleatorias. En algunos casos, estos estudios aleatorios son antieconómicos o poco éticos.
Análisis basado en modelos de experimentos aleatorios
Es una práctica estándar referirse a un modelo estadístico, por ejemplo, un modelo lineal o logístico, cuando se analizan datos de experimentos aleatorios. [38] Sin embargo, el esquema de aleatorización guía la elección de un modelo estadístico. No es posible elegir un modelo apropiado sin conocer el esquema de aleatorización. [22] Se pueden obtener resultados seriamente engañosos analizando datos de experimentos aleatorios ignorando el protocolo experimental; Los errores comunes incluyen olvidar el bloqueo utilizado en un experimento y confundir mediciones repetidas en la misma unidad experimental con réplicas independientes del tratamiento aplicado a diferentes unidades experimentales. [39]
Inferencia de aleatorización sin modelo
Las técnicas sin modelos proporcionan un complemento a los métodos basados en modelos, que emplean estrategias reduccionistas de simplificación de la realidad. Los primeros combinan, evolucionan, ensamblan y entrenan algoritmos adaptándose dinámicamente a las afinidades contextuales de un proceso y aprendiendo las características intrínsecas de las observaciones. [38] [40]
Por ejemplo, la regresión lineal simple sin modelo se basa en
- un diseño aleatorio , donde los pares de observaciones son independientes e idénticamente distribuidos (iid), o
- un diseño determinista , donde las variables son deterministas, pero las correspondientes variables de respuesta son aleatorios e independientes con una distribución condicional común, es decir, , que es independiente del índice .
En cualquier caso, la inferencia de aleatorización sin modelo para las características de la distribución condicional común se basa en algunas condiciones de regularidad, por ejemplo, suavidad funcional. Por ejemplo, la inferencia de aleatorización sin modelo para la población característica media condicional ,, se puede estimar consistentemente mediante un promedio local o un ajuste polinomial local, bajo el supuesto de que es suave. Además, basándonos en la normalidad asintótica o el remuestreo, podemos construir intervalos de confianza para la característica de la población, en este caso, la media condicional ,. [41]
Paradigmas para la inferencia
Se han establecido diferentes escuelas de inferencia estadística. Estas escuelas, o "paradigmas", no son mutuamente excluyentes, y los métodos que funcionan bien bajo un paradigma a menudo tienen interpretaciones atractivas bajo otros paradigmas.
Bandyopadhyay y Forster [42] describen cuatro paradigmas: "(i) estadísticas clásicas o estadísticas de error, (ii) estadísticas bayesianas, (iii) estadísticas basadas en verosimilitudes y (iv) estadísticas basadas en criterios de información de Akaikean". El paradigma clásico (o frecuentista ), el paradigma bayesiano , el paradigma verosimilista y el paradigma basado en AIC se resumen a continuación.
Inferencia frecuentista
Este paradigma calibra la plausibilidad de las proposiciones al considerar el muestreo repetido (teórico) de una distribución de población para producir conjuntos de datos similares al que tenemos a mano. Al considerar las características del conjunto de datos en un muestreo repetido, se pueden cuantificar las propiedades frecuentistas de una propuesta estadística, aunque en la práctica esta cuantificación puede ser un desafío.
Ejemplos de inferencia frecuentista
- p -valor
- Intervalo de confianza
- Prueba de significación de hipótesis nula
Inferencia frecuentista, objetividad y teoría de la decisión
Una interpretación de la inferencia frecuentista (o inferencia clásica) es que es aplicable sólo en términos de probabilidad de frecuencia ; es decir, en términos de muestreo repetido de una población. Sin embargo, el enfoque de Neyman [43] desarrolla estos procedimientos en términos de probabilidades previas al experimento. Es decir, antes de emprender un experimento, se decide una regla para llegar a una conclusión tal que la probabilidad de ser correcta se controle de manera adecuada: tal probabilidad no necesita tener una interpretación de muestreo repetido o frecuentista. En contraste, la inferencia bayesiana funciona en términos de probabilidades condicionales (es decir, probabilidades condicionadas a los datos observados), en comparación con las probabilidades marginales (pero condicionadas por parámetros desconocidos) utilizadas en el enfoque frecuentista.
Los procedimientos frecuentistas de pruebas de significación e intervalos de confianza pueden construirse sin tener en cuenta las funciones de utilidad . Sin embargo, algunos elementos de la estadística frecuentista, como la teoría de la decisión estadística , incorporan funciones de utilidad . [ cita requerida ] En particular, los desarrollos frecuentistas de inferencia óptima (como estimadores insesgados de mínima varianza o pruebas uniformemente más poderosas ) hacen uso de funciones de pérdida , que desempeñan el papel de funciones de utilidad (negativas). Las funciones de pérdida no necesitan establecerse explícitamente para que los teóricos estadísticos demuestren que un procedimiento estadístico tiene una propiedad de optimalidad. [44] Sin embargo, las funciones de pérdida a menudo son útiles para establecer propiedades de optimización: por ejemplo, los estimadores de mediana insesgada son óptimos en funciones de pérdida de valor absoluto , ya que minimizan la pérdida esperada, y los estimadores de mínimos cuadrados son óptimos en funciones de pérdida de error al cuadrado, porque minimizan la pérdida esperada.
Si bien los estadísticos que utilizan la inferencia frecuentista deben elegir por sí mismos los parámetros de interés y los estimadores / estadísticos de prueba que se utilizarán, la ausencia de utilidades obviamente explícitas y distribuciones previas ha ayudado a que los procedimientos frecuentistas se consideren ampliamente 'objetivos'. [45]
Inferencia bayesiana
El cálculo bayesiano describe los grados de creencia utilizando el "lenguaje" de la probabilidad; las creencias son positivas, se integran a una y obedecen a los axiomas de probabilidad. La inferencia bayesiana utiliza las creencias posteriores disponibles como base para hacer proposiciones estadísticas. Hay varias justificaciones diferentes para utilizar el enfoque bayesiano.
Ejemplos de inferencia bayesiana
- Intervalo creíble para la estimación de intervalo
- Factores de Bayes para la comparación de modelos
Inferencia bayesiana, subjetividad y teoría de la decisión
Muchas inferencias bayesianas informales se basan en resúmenes "intuitivamente razonables" del posterior. Por ejemplo, la media posterior, la mediana y la moda, los intervalos de densidad posterior más altos y los factores de Bayes pueden motivarse de esta manera. Si bien no es necesario establecer la función de utilidad de un usuario para este tipo de inferencia, todos estos resúmenes dependen (hasta cierto punto) de creencias previas declaradas y, en general, se consideran conclusiones subjetivas. (Se han propuesto métodos de construcción previa que no requieren aportes externos, pero aún no se han desarrollado completamente).
Formalmente, la inferencia bayesiana se calibra con referencia a una función de utilidad o pérdida declarada explícitamente; la 'regla de Bayes' es la que maximiza la utilidad esperada, promediada sobre la incertidumbre posterior. Por tanto, la inferencia bayesiana formal proporciona automáticamente decisiones óptimas en un sentido teórico de la decisión . Dados los supuestos, los datos y la utilidad, la inferencia bayesiana se puede hacer para prácticamente cualquier problema, aunque no todas las inferencias estadísticas necesitan una interpretación bayesiana. Los análisis que no son formalmente bayesianos pueden ser (lógicamente) incoherentes ; una característica de los procedimientos bayesianos que utilizan a priori adecuados (es decir, los integrables a uno) es que se garantiza que son coherentes . Algunos defensores de la inferencia bayesiana afirman que la inferencia debe tener lugar en este marco de la teoría de la decisión y que la inferencia bayesiana no debe concluir con la evaluación y el resumen de creencias posteriores.
Likelihood-based inference
Likelihoodism approaches statistics by using the likelihood function. Some likelihoodists reject inference, considering statistics as only computing support from evidence. Others, however, propose inference based on the likelihood function, of which the best-known is maximum likelihood estimation.
AIC-based inference
The Akaike information criterion (AIC) is an estimator of the relative quality of statistical models for a given set of data. Given a collection of models for the data, AIC estimates the quality of each model, relative to each of the other models. Thus, AIC provides a means for model selection.
AIC is founded on information theory: it offers an estimate of the relative information lost when a given model is used to represent the process that generated the data. (In doing so, it deals with the trade-off between the goodness of fit of the model and the simplicity of the model.)
Other paradigms for inference
Minimum description length
The minimum description length (MDL) principle has been developed from ideas in information theory[46] and the theory of Kolmogorov complexity.[47] The (MDL) principle selects statistical models that maximally compress the data; inference proceeds without assuming counterfactual or non-falsifiable "data-generating mechanisms" or probability models for the data, as might be done in frequentist or Bayesian approaches.
However, if a "data generating mechanism" does exist in reality, then according to Shannon's source coding theorem it provides the MDL description of the data, on average and asymptotically.[48] In minimizing description length (or descriptive complexity), MDL estimation is similar to maximum likelihood estimation and maximum a posteriori estimation (using maximum-entropy Bayesian priors). However, MDL avoids assuming that the underlying probability model is known; the MDL principle can also be applied without assumptions that e.g. the data arose from independent sampling.[48][49]
The MDL principle has been applied in communication-coding theory in information theory, in linear regression,[49] and in data mining.[47]
The evaluation of MDL-based inferential procedures often uses techniques or criteria from computational complexity theory.[50]
Fiducial inference
Fiducial inference was an approach to statistical inference based on fiducial probability, also known as a "fiducial distribution". In subsequent work, this approach has been called ill-defined, extremely limited in applicability, and even fallacious.[51][52] However this argument is the same as that which shows[53] that a so-called confidence distribution is not a valid probability distribution and, since this has not invalidated the application of confidence intervals, it does not necessarily invalidate conclusions drawn from fiducial arguments. An attempt was made to reinterpret the early work of Fisher's fiducial argument as a special case of an inference theory using Upper and lower probabilities.[54]
Structural inference
Developing ideas of Fisher and of Pitman from 1938 to 1939,[55] George A. Barnard developed "structural inference" or "pivotal inference",[56] an approach using invariant probabilities on group families. Barnard reformulated the arguments behind fiducial inference on a restricted class of models on which "fiducial" procedures would be well-defined and useful.
Temas de inferencia
The topics below are usually included in the area of statistical inference.
- Statistical assumptions
- Statistical decision theory
- Estimation theory
- Statistical hypothesis testing
- Revising opinions in statistics
- Design of experiments, the analysis of variance, and regression
- Survey sampling
- Summarizing statistical data
Historia
Al-Kindi, an Arab mathematician in the 9th century, made the earliest known use of statistical inference in his Manuscript on Deciphering Cryptographic Messages, a work on cryptanalysis and frequency analysis.[57]
Ver también
- Algorithmic inference
- Induction (philosophy)
- Informal inferential reasoning
- Population proportion
- Philosophy of statistics
- Predictive inference
- Information field theory
Notas
- ^ According to Peirce, acceptance means that inquiry on this question ceases for the time being. In science, all scientific theories are revisable.
Referencias
Citations
- ^ Upton, G., Cook, I. (2008) Oxford Dictionary of Statistics, OUP. ISBN 978-0-19-954145-4.
- ^ "TensorFlow Lite inference".
The term inference refers to the process of executing a TensorFlow Lite model on-device in order to make predictions based on input data.
- ^ Konishi & Kitagawa (2008), p. 75.
- ^ Cox (2006), p. 197.
- ^ "Statistical inference - Encyclopedia of Mathematics". www.encyclopediaofmath.org. Retrieved 2019-01-23.
- ^ a b Cox (2006) page 2
- ^ Evans, Michael; et al. (2004). Probability and Statistics: The Science of Uncertainty. Freeman and Company. p. 267. ISBN 9780716747420.
- ^ van der Vaart, A.W. (1998) Asymptotic Statistics Cambridge University Press. ISBN 0-521-78450-6 (page 341)
- ^ Kruskal 1988
- ^ Freedman, D.A. (2008) "Survival analysis: An Epidemiological hazard?". The American Statistician (2008) 62: 110-119. (Reprinted as Chapter 11 (pages 169–192) of Freedman (2010)).
- ^ Berk, R. (2003) Regression Analysis: A Constructive Critique (Advanced Quantitative Techniques in the Social Sciences) (v. 11) Sage Publications. ISBN 0-7619-2904-5
- ^ a b Brewer, Ken (2002). Combined Survey Sampling Inference: Weighing of Basu's Elephants. Hodder Arnold. p. 6. ISBN 978-0340692295.
- ^ a b Jörgen Hoffman-Jörgensen's Probability With a View Towards Statistics, Volume I. Page 399[full citation needed]
- ^ Le Cam (1986)[page needed]
- ^ Erik Torgerson (1991) Comparison of Statistical Experiments, volume 36 of Encyclopedia of Mathematics. Cambridge University Press.[full citation needed]
- ^ Liese, Friedrich & Miescke, Klaus-J. (2008). Statistical Decision Theory: Estimation, Testing, and Selection. Springer. ISBN 978-0-387-73193-3.
- ^ Kolmogorov (1963, p.369): "The frequency concept, based on the notion of limiting frequency as the number of trials increases to infinity, does not contribute anything to substantiate the applicability of the results of probability theory to real practical problems where we have always to deal with a finite number of trials".
- ^ "Indeed, limit theorems 'as tends to infinity' are logically devoid of content about what happens at any particular . All they can do is suggest certain approaches whose performance must then be checked on the case at hand." — Le Cam (1986) (page xiv)
- ^ Pfanzagl (1994): "The crucial drawback of asymptotic theory: What we expect from asymptotic theory are results which hold approximately . . . . What asymptotic theory has to offer are limit theorems."(page ix) "What counts for applications are approximations, not limits." (page 188)
- ^ Pfanzagl (1994) : "By taking a limit theorem as being approximately true for large sample sizes, we commit an error the size of which is unknown. [. . .] Realistic information about the remaining errors may be obtained by simulations." (page ix)
- ^ Neyman, J.(1934) "On the two different aspects of the representative method: The method of stratified sampling and the method of purposive selection", Journal of the Royal Statistical Society, 97 (4), 557–625 JSTOR 2342192
- ^ a b Hinkelmann and Kempthorne(2008)[page needed]
- ^ ASA Guidelines for a first course in statistics for non-statisticians. (available at the ASA website)
- ^ David A. Freedman et alia's Statistics.
- ^ Moore et al. (2015).
- ^ Gelman A. et al. (2013). Bayesian Data Analysis (Chapman & Hall).
- ^ Peirce (1877-1878)
- ^ Peirce (1883)
- ^ Freedman, Pisani & Purves 1978.
- ^ David A. Freedman Statistical Models.
- ^ Rao, C.R. (1997) Statistics and Truth: Putting Chance to Work, World Scientific. ISBN 981-02-3111-3
- ^ Peirce; Freedman; Moore et al. (2015).[citation needed]
- ^ Box, G.E.P. and Friends (2006) Improving Almost Anything: Ideas and Essays, Revised Edition, Wiley. ISBN 978-0-471-72755-2
- ^ Cox (2006), p. 196.
- ^ ASA Guidelines for a first course in statistics for non-statisticians. (available at the ASA website)
- David A. Freedman et alia's Statistics.
- Moore et al. (2015).
- ^ Neyman, Jerzy. 1923 [1990]. "On the Application of Probability Theory to AgriculturalExperiments. Essay on Principles. Section 9." Statistical Science 5 (4): 465–472. Trans. Dorota M. Dabrowska and Terence P. Speed.
- ^ Hinkelmann & Kempthorne (2008)[page needed]
- ^ a b Dinov, Ivo; Palanimalai, Selvam; Khare, Ashwini; Christou, Nicolas (2018). "Randomization‐based statistical inference: A resampling and simulation infrastructure". Teaching Statistics. 40 (2): 64–73. doi:10.1111/test.12156. PMC 6155997. PMID 30270947.
- ^ Hinkelmann and Kempthorne (2008) Chapter 6.
- ^ Tang, Ming; Gao, Chao; Goutman, Stephen; Kalinin, Alexandr; Mukherjee, Bhramar; Guan, Yuanfang; Dinov, Ivo (2019). "Model-Based and Model-Free Techniques for Amyotrophic Lateral Sclerosis Diagnostic Prediction and Patient Clustering". Neuroinformatics. 17 (3): 407–421. doi:10.1007/s12021-018-9406-9. PMC 6527505. PMID 30460455.
- ^ Politis, D.N. (2019). "Model-free inference in statistics: how and why". IMS Bulletin. 48.
- ^ Bandyopadhyay & Forster (2011). The quote is taken from the book's Introduction (p.3). See also "Section III: Four Paradigms of Statistics".
- ^ Neyman, J. (1937). "Outline of a Theory of Statistical Estimation Based on the Classical Theory of Probability". Philosophical Transactions of the Royal Society of London A. 236 (767): 333–380. Bibcode:1937RSPTA.236..333N. doi:10.1098/rsta.1937.0005. JSTOR 91337.
- ^ Preface to Pfanzagl.
- ^ Little, Roderick J. (2006). "Calibrated Bayes: A Bayes/Frequentist Roadmap". The American Statistician. 60 (3): 213–223. doi:10.1198/000313006X117837. ISSN 0003-1305. JSTOR 27643780. S2CID 53505632.
- ^ Soofi (2000)
- ^ a b Hansen & Yu (2001)
- ^ a b Hansen and Yu (2001), page 747.
- ^ a b Rissanen (1989), page 84
- ^ Joseph F. Traub, G. W. Wasilkowski, and H. Wozniakowski. (1988)[page needed]
- ^ Neyman (1956)
- ^ Zabell (1992)
- ^ Cox (2006) page 66
- ^ Hampel 2003.
- ^ Davison, page 12.[full citation needed]
- ^ Barnard, G.A. (1995) "Pivotal Models and the Fiducial Argument", International Statistical Review, 63 (3), 309–323. JSTOR 1403482
- ^ Broemeling, Lyle D. (1 November 2011). "An Account of Early Statistical Inference in Arab Cryptology". The American Statistician. 65 (4): 255–257. doi:10.1198/tas.2011.10191. S2CID 123537702.
Sources
- Bandyopadhyay, P. S.; Forster, M. R., eds. (2011), Philosophy of Statistics, Elsevier.
- Bickel, Peter J.; Doksum, Kjell A. (2001). Mathematical statistics: Basic and selected topics. 1 (Second (updated printing 2007) ed.). Prentice Hall. ISBN 978-0-13-850363-5. MR 0443141.
- Cox, D. R. (2006). Principles of Statistical Inference, Cambridge University Press. ISBN 0-521-68567-2.
- Fisher, R. A. (1955), "Statistical methods and scientific induction", Journal of the Royal Statistical Society, Series B, 17, 69–78. (criticism of statistical theories of Jerzy Neyman and Abraham Wald)
- Freedman, D. A. (2009). Statistical Models: Theory and practice (revised ed.). Cambridge University Press. pp. xiv+442 pp. ISBN 978-0-521-74385-3. MR 2489600.
- Freedman, D. A. (2010). Statistical Models and Causal Inferences: A Dialogue with the Social Sciences (Edited by David Collier, Jasjeet Sekhon, and Philip B. Stark), Cambridge University Press.
- Hampel, Frank (Feb 2003). "The proper fiducial argument" (PDF) (Research Report No. 114). Retrieved 29 March 2016. Cite journal requires
|journal=
(help) - Hansen, Mark H.; Yu, Bin (June 2001). "Model Selection and the Principle of Minimum Description Length: Review paper". Journal of the American Statistical Association. 96 (454): 746–774. CiteSeerX 10.1.1.43.6581. doi:10.1198/016214501753168398. JSTOR 2670311. MR 1939352. S2CID 14460386. Archived from the original on 2004-11-16.
- Hinkelmann, Klaus; Kempthorne, Oscar (2008). Introduction to Experimental Design (Second ed.). Wiley. ISBN 978-0-471-72756-9.
- Kolmogorov, Andrei N. (1963). "On tables of random numbers". Sankhyā Ser. A. 25: 369–375. MR 0178484. Reprinted as Kolmogorov, Andrei N. (1998). "On tables of random numbers". Theoretical Computer Science. 207 (2): 387–395. doi:10.1016/S0304-3975(98)00075-9. MR 1643414.
- Konishi S., Kitagawa G. (2008), Information Criteria and Statistical Modeling, Springer.
- Kruskal, William (December 1988). "Miracles and statistics: the casual assumption of independence (ASA Presidential Address)". Journal of the American Statistical Association. 83 (404): 929–940. doi:10.2307/2290117. JSTOR 2290117.
- Le Cam, Lucian. (1986) Asymptotic Methods of Statistical Decision Theory, Springer. ISBN 0-387-96307-3
- Moore, D. S.; McCabe, G. P.; Craig, B. A. (2015), Introduction to the Practice of Statistics, Eighth Edition, Macmillan.
- Neyman, Jerzy (1956). "Note on an article by Sir Ronald Fisher". Journal of the Royal Statistical Society, Series B. 18 (2): 288–294. doi:10.1111/j.2517-6161.1956.tb00236.x. JSTOR 2983716. (reply to Fisher 1955)
- Peirce, C. S. (1877–1878), "Illustrations of the logic of science" (series), Popular Science Monthly, vols. 12–13. Relevant individual papers:
- (1878 March), "The Doctrine of Chances", Popular Science Monthly, v. 12, March issue, pp. 604–615. Internet Archive Eprint.
- (1878 April), "The Probability of Induction", Popular Science Monthly, v. 12, pp. 705–718. Internet Archive Eprint.
- (1878 June), "The Order of Nature", Popular Science Monthly, v. 13, pp. 203–217.Internet Archive Eprint.
- (1878 August), "Deduction, Induction, and Hypothesis", Popular Science Monthly, v. 13, pp. 470–482. Internet Archive Eprint.
- Peirce, C. S. (1883), "A Theory of probable inference", Studies in Logic, pp. 126-181, Little, Brown, and Company. (Reprinted 1983, John Benjamins Publishing Company, ISBN 90-272-3271-7)
- Freedman, D.A; Pisani, R.; Purves, R.A. (1978). Statistics. New York: W. W. Norton & Company.
- Pfanzagl, Johann; with the assistance of R. Hamböker (1994). Parametric Statistical Theory. Berlin: Walter de Gruyter. ISBN 978-3-11-013863-4. MR 1291393.
- Rissanen, Jorma (1989). Stochastic Complexity in Statistical Inquiry. Series in Computer Science. 15. Singapore: World Scientific. ISBN 978-9971-5-0859-3. MR 1082556.
- Soofi, Ehsan S. (December 2000). "Principal information-theoretic approaches (Vignettes for the Year 2000: Theory and Methods, ed. by George Casella)". Journal of the American Statistical Association. 95 (452): 1349–1353. doi:10.1080/01621459.2000.10474346. JSTOR 2669786. MR 1825292. S2CID 120143121.
- Traub, Joseph F.; Wasilkowski, G. W.; Wozniakowski, H. (1988). Information-Based Complexity. Academic Press. ISBN 978-0-12-697545-1.
- Zabell, S. L. (Aug 1992). "R. A. Fisher and Fiducial Argument". Statistical Science. 7 (3): 369–387. doi:10.1214/ss/1177011233. JSTOR 2246073.
Otras lecturas
- Casella, G., Berger, R. L. (2002). Statistical Inference. Duxbury Press. ISBN 0-534-24312-6
- Freedman, D.A. (1991). "Statistical models and shoe leather". Sociological Methodology. 21: 291–313. doi:10.2307/270939. JSTOR 270939.
- Held L., Bové D.S. (2014). Applied Statistical Inference—Likelihood and Bayes (Springer).
- Lenhard, Johannes (2006). "Models and Statistical Inference: the controversy between Fisher and Neyman–Pearson" (PDF). British Journal for the Philosophy of Science. 57: 69–91. doi:10.1093/bjps/axi152. S2CID 14136146.
- Lindley, D (1958). "Fiducial distribution and Bayes' theorem". Journal of the Royal Statistical Society, Series B. 20: 102–7.
- Rahlf, Thomas (2014). "Statistical Inference", in Claude Diebolt, and Michael Haupert (eds.), "Handbook of Cliometrics ( Springer Reference Series)", Berlin/Heidelberg: Springer. http://www.springerreference.com/docs/html/chapterdbid/372458.html
- Reid, N.; Cox, D. R. (2014). "On Some Principles of Statistical Inference". International Statistical Review. 83 (2): 293–308. doi:10.1111/insr.12067. hdl:10.1111/insr.12067.
- Young, G.A., Smith, R.L. (2005). Essentials of Statistical Inference, CUP. ISBN 0-521-83971-8
enlaces externos
- MIT OpenCourseWare: Statistical Inference
- NPTEL Statistical Inference, youtube link
- Statistical induction and prediction