Información del pescador


En estadística matemática , la información de Fisher (a veces llamada simplemente información [1] ) es una forma de medir la cantidad de información que lleva una variable aleatoria observable X sobre un parámetro desconocido θ de una distribución que modela X. Formalmente, es la varianza de la puntuación , o el valor esperado de la información observada . En estadística bayesiana , la distribución asintótica de la moda posterior depende de la información de Fisher y no de la previa (según el teorema de Bernstein-von Mises , que fue anticipado por Laplace para las familias exponenciales ). [2] El papel de la información de Fisher en la teoría asintótica de estimación de máxima verosimilitud fue enfatizado por el estadístico Ronald Fisher (siguiendo algunos resultados iniciales de Francis Ysidro Edgeworth ). La información de Fisher también se utiliza en el cálculo del anterior de Jeffreys , que se utiliza en las estadísticas bayesianas.

La matriz de información de Fisher se utiliza para calcular las matrices de covarianza asociadas con las estimaciones de máxima verosimilitud . También se puede utilizar en la formulación de estadísticas de prueba, como la prueba de Wald .

Se ha demostrado que los sistemas estadísticos de naturaleza científica (física, biológica, etc.) cuyas funciones de verosimilitud obedecen a la invariancia de desplazamiento obedecen a la máxima información de Fisher. [3] El nivel del máximo depende de la naturaleza de las restricciones del sistema.

La información de Fisher es una forma de medir la cantidad de información que lleva una variable aleatoria observable X sobre un parámetro desconocido θ del que depende la probabilidad de X. Sea f ( X ; θ ) la función de densidad de probabilidad (o función de masa de probabilidad ) para X condicionada al valor de θ . Describe la probabilidad de que observemos un resultado dado de X , dado un valor conocido de θ . Si f tiene un pico pronunciado con respecto a los cambios en θ, es fácil indicar el valor "correcto" de θ a partir de los datos, o de manera equivalente, que los datos X proporcionan mucha información sobre el parámetro θ . Si la probabilidad f es plana y está dispersa, se necesitarían muchas muestras de X para estimar el valor "verdadero" real de θ que se obtendría utilizando toda la población muestreada. Esto sugiere estudiar algún tipo de varianza con respecto a θ .

Formalmente, la derivada parcial con respecto a θ del logaritmo natural de la función de verosimilitud se denomina puntuación . Bajo ciertas condiciones de regularidad, si θ es el parámetro verdadero (es decir, X se distribuye realmente como f ( X ; θ )), se puede demostrar que el valor esperado (el primer momento ) de la puntuación, evaluado en el valor del parámetro verdadero , es 0: [4]

Tenga en cuenta que Una variable aleatoria con información alta de Fisher implica que el valor absoluto de la puntuación suele ser alto. La información de Fisher no es una función de una observación particular, ya que la variable aleatoria X se ha promediado.