En la teoría de la probabilidad , una corrección de continuidad es un ajuste que se realiza cuando una distribución discreta se aproxima a una distribución continua.
Si una variable aleatoria X tiene una distribución binomial con parámetros n y p , es decir, X se distribuye como el número de "éxitos" en n ensayos de Bernoulli independientes con probabilidad p de éxito en cada ensayo, entonces
para cualquier x ∈ {0, 1, 2, ... n }. Si np y np (1 - p ) son grandes (a veces se toman ambos como ≥ 5), entonces la probabilidad anterior se aproxima bastante bien por
donde Y es una variable aleatoria normalmente distribuida con el mismo valor esperado y la misma varianza que X , es decir, E ( Y ) = np y var ( Y ) = np (1 - p ). Esta adición de 1/2 ax es una corrección de continuidad.
También se puede aplicar una corrección de continuidad cuando otras distribuciones discretas admitidas en los números enteros se aproximan por la distribución normal. Por ejemplo, si X tiene una distribución de Poisson con valor esperado λ, entonces la varianza de X también es λ, y
si Y se distribuye normalmente con expectativa y varianza ambas λ.
Antes de la disponibilidad inmediata de software estadístico con la capacidad de evaluar con precisión funciones de distribución de probabilidad, las correcciones de continuidad desempeñaban un papel importante en la aplicación práctica de pruebas estadísticas en las que la estadística de prueba tiene una distribución discreta: tenía una importancia especial para los cálculos manuales. Un ejemplo particular de esto es la prueba binomial , que involucra la distribución binomial , como para verificar si una moneda es justa . Cuando no es necesaria una precisión extrema, los cálculos por computadora para algunos rangos de parámetros pueden depender del uso de correcciones de continuidad para mejorar la precisión y, al mismo tiempo, conservar la simplicidad.