En estadística , un estimador adaptativo es un estimador en un modelo paramétrico o semiparamétrico con parámetros molestos de manera que la presencia de estos parámetros molestos no afecta la eficiencia de la estimación.
Definición
Formalmente, el parámetro θ en un modelo paramétrico consta de dos partes: el parámetro de interés ν ∈ N ⊆ R k , y el parámetro de molestia η ∈ H ⊆ R m . Por lo tanto, θ = ( ν, η ) ∈ N × H ⊆ R k + m . Entonces diremos quees un estimador adaptativo de ν en presencia de η si este estimador es regular y eficiente para cada uno de los submodelos [1]
El estimador adaptativo estima el parámetro de interés igualmente bien, independientemente de si se conoce o no el valor del parámetro de molestia.
La condición necesaria para que un modelo paramétrico regular tenga un estimador adaptativo es que
donde z ν y z η son componentes de la función de puntuación correspondientes a los parámetros ν y η respectivamente, y por lo tanto I νη es el bloque k × m superior derecho de la matriz de información de Fisher I ( θ ).
Ejemplo
Suponer es la familia de escala de ubicación normal :
Entonces el estimador habitual es adaptativo: podemos estimar la media igualmente bien si conocemos la varianza o no.
Notas
- ^ Bickel 1998 , Definición 2.4.1
Referencias basicas
- Bickel, Peter J .; Chris AJ Klaassen; Ya'acov Ritov; Jon A. Wellner (1998). Estimación eficiente y adaptativa para modelos semiparamétricos . Springer: Nueva York. ISBN 978-0-387-98473-5.