En estadística , el término "error" surge de dos formas. En primer lugar, surge en el contexto de la toma de decisiones , donde la probabilidad de error puede ser considerada como la probabilidad de tomar una decisión equivocada y que tendría un valor diferente para cada tipo de error. En segundo lugar, surge en el contexto del modelado estadístico (por ejemplo, regresión) donde el valor predicho del modelo puede ser erróneo con respecto al resultado observado y donde el término probabilidad de error puede referirse a las probabilidades de que ocurran diversas cantidades de error.
Evaluación de la hipótesis
En la prueba de hipótesis en estadística , se distinguen dos tipos de error .
- Errores tipo I que consisten en rechazar una hipótesis nula que es verdadera; esto equivale a un resultado falso positivo.
- Errores tipo II que consisten en no rechazar una hipótesis nula que es falsa; esto equivale a un resultado falso negativo.
La probabilidad de error se distingue de manera similar.
- Para un error de Tipo I, se muestra como α (alfa) y se conoce como el tamaño de la prueba y es 1 menos la especificidad de la prueba. Esta cantidad a veces se denomina confianza de la prueba o nivel de significancia (LOS) de la prueba.
- Para un error de Tipo II, se muestra como β (beta) y es 1 menos la potencia o 1 menos la sensibilidad de la prueba.
Modelado estadístico y econométrico
El ajuste de muchos modelos en estadística y econometría generalmente busca minimizar la diferencia entre valores observados y pronosticados o teóricos. Esta diferencia se conoce como un error , aunque cuando se observa se describiría mejor como residual .
El error se considera una variable aleatoria y, como tal, tiene una distribución de probabilidad . Por tanto, la distribución se puede utilizar para calcular las probabilidades de errores con valores dentro de cualquier rango dado.