Criterio de información bayesiano


En estadística , el criterio de información bayesiano ( BIC ) o criterio de información de Schwarz (también SIC , SBC , SBIC ) es un criterio para la selección de modelos entre un conjunto finito de modelos; Por lo general, se prefieren los modelos con un BIC más bajo. Se basa, en parte, en la función de verosimilitud y está estrechamente relacionado con el criterio de información de Akaike (AIC).

Al ajustar modelos, es posible aumentar la probabilidad agregando parámetros, pero hacerlo puede resultar en un ajuste excesivo . Tanto BIC como AIC intentan resolver este problema introduciendo un término de penalización para el número de parámetros en el modelo; el plazo de penalización es mayor en BIC que en AIC. [1]

El BIC fue desarrollado por Gideon E. Schwarz y publicado en un artículo de 1978, [2] donde dio un argumento bayesiano para adoptarlo.

Konishi y Kitagawa [5] : 217  derivan el BIC para aproximar la distribución de los datos, integrando los parámetros utilizando el método de Laplace , comenzando con la siguiente evidencia del modelo :

¿ Dónde está el anterior para el modelo inferior ?

El log-verosimilitud, , se expande luego a una serie de Taylor de segundo orden sobre el MLE , , suponiendo que es dos veces diferenciable de la siguiente manera: