Criterio de información de Hannan-Quinn


En estadística , el criterio de información de Hannan-Quinn (HQC) es un criterio para la selección de modelos . Es una alternativa al criterio de información de Akaike (AIC) y al criterio de información bayesiano (BIC). se da como

donde es el logaritmo de verosimilitud, k es el número de parámetros y n es el número de observaciones .

Burnham & Anderson (2002, p. 287) dicen que HQC, "si bien se cita con frecuencia, parece haber visto poco uso en la práctica". También señalan que HQC, como BIC, pero a diferencia de AIC, no es un estimador de la divergencia Kullback-Leibler . Claeskens y Hjort (2008, cap. 4) señalan que HQC, como BIC, pero a diferencia de AIC, no es asintóticamente eficiente ; sin embargo, pierde la tasa de estimación óptima por un factor muy pequeño. Señalan además que cualquiera que sea el método que se utilice para afinar el criterio será más importante en la práctica que el término , ya que este último número es pequeño incluso para los muy grandes ; sin embargo, el término asegura que, a diferencia de AIC, HQC es fuertemente consistente. Se sigue de la ley del logaritmo iteradoque cualquier método fuertemente consistente debe perder la eficiencia en al menos un factor, por lo que, en este sentido, HQC se comporta asintóticamente muy bien. Van der Pas y Grünwald demuestran que la selección de modelos basada en un estimador bayesiano modificado, la llamada distribución de cambio, en muchos casos se comporta asintóticamente como HQC, al tiempo que conserva las ventajas de los métodos bayesianos, como el uso de priores, etc.