De Wikipedia, la enciclopedia libre
Ir a navegaciónSaltar a buscar

En la teoría de la probabilidad , el valor esperado de una variable aleatoria , a menudo denotado , , o , es una generalización del promedio ponderado , e intuitivamente es la media aritmética de un gran número de realizaciones independientes de. El operador de la expectativa también se estiliza comúnmente como o . [1] [2] [3] [4] El valor esperado también se conoce como expectativa , expectativa matemática , media , promedio o primer momento . El valor esperado es un concepto clave en economía , finanzas y muchas otras materias.

Por definición, el valor esperado de una variable aleatoria constante es . [5] El valor esperado de una variable aleatoriacon resultados equiprobables se define como la media aritmética de los términos Si algunas de las probabilidades de un resultado individual son desiguales, entonces el valor esperado se define como el promedio ponderado por probabilidad de la s, es decir, la suma de los productos . [6] El valor esperado de una variable aleatoria general implica la integración en el sentido de Lebesgue .

Historia

La idea del valor esperado se originó a mediados del siglo XVII a partir del estudio del llamado problema de los puntos , que busca dividir las apuestas de manera justa entre dos jugadores, que tienen que terminar su juego antes de que sea adecuadamente. terminado. [7] Este problema se había debatido durante siglos, y se habían sugerido muchas propuestas y soluciones contradictorias a lo largo de los años, cuando se lo planteó a Blaise Pascal el escritor y matemático aficionado francés Chevalier de Méré.en 1654. Méré afirmó que este problema no podía resolverse y que mostraba cuán defectuosas eran las matemáticas cuando se trataba de su aplicación al mundo real. Pascal, siendo matemático, estaba provocado y decidido a resolver el problema de una vez por todas.

Comenzó a discutir el problema en la famosa serie de cartas a Pierre de Fermat . Muy pronto, ambos encontraron una solución de forma independiente. Resolvieron el problema de diferentes formas computacionales, pero sus resultados fueron idénticos porque sus cálculos se basaron en el mismo principio fundamental. El principio es que el valor de una ganancia futura debe ser directamente proporcional a la posibilidad de obtenerla. Este principio parecía haber sido algo natural para ambos. Estaban muy complacidos por el hecho de que habían encontrado esencialmente la misma solución, y esto a su vez los hizo absolutamente convencidos de que habían resuelto el problema de manera concluyente; sin embargo, no publicaron sus hallazgos. Solo informaron al respecto a un pequeño círculo de amigos científicos mutuos en París. [8]

Tres años más tarde, en 1657, un matemático holandés Christiaan Huygens , que acababa de visitar París, publicó un tratado (véase Huygens (1657) ) " De ratiociniis in ludo aleæ " sobre teoría de la probabilidad. En este libro, consideró el problema de los puntos y presentó una solución basada en el mismo principio que las soluciones de Pascal y Fermat. Huygens también amplió el concepto de expectativa al agregar reglas sobre cómo calcular las expectativas en situaciones más complicadas que el problema original (por ejemplo, para tres o más jugadores). En este sentido, este libro puede verse como el primer intento exitoso de sentar las bases de la teoría de la probabilidad .

En el prólogo de su libro, Huygens escribió:

También hay que decir que desde hace algún tiempo algunos de los mejores matemáticos de Francia se han ocupado de este tipo de cálculo para que nadie me atribuya el honor de la primera invención. Esto no me pertenece. Pero estos sabios, aunque se pusieron a prueba proponiéndose entre sí muchas cuestiones difíciles de resolver, han ocultado sus métodos. Por lo tanto, he tenido que examinar y profundizar en este asunto comenzando por los elementos, y por eso me es imposible afirmar que incluso he comenzado por el mismo principio. Pero finalmente he descubierto que mis respuestas en muchos casos no difieren de las de ellos.

-  Edwards (2002)

Así, Huygens se enteró del Problema de Méré en 1655 durante su visita a Francia; más tarde, en 1656, a partir de su correspondencia con Carcavi, se enteró de que su método era esencialmente el mismo que el de Pascal; de modo que antes de que su libro saliera a la imprenta en 1657, conocía la prioridad de Pascal en este tema.

A mediados del siglo XIX, Pafnuty Chebyshev se convirtió en la primera persona en pensar sistemáticamente en términos de las expectativas de las variables aleatorias . [9]

Etimología

Ni Pascal ni Huygens utilizaron el término "expectativa" en su sentido moderno. En particular, Huygens escribe: [10]

Que cualquier Oportunidad o Expectativa de ganar cualquier cosa vale tal Suma, como se obtendría en la misma Oportunidad y Expectativa en un momento justo. ... Si espero a o b, y tengo la misma probabilidad de obtenerlos, mi Expectativa vale (a + b) / 2.

Más de cien años después, en 1814, Pierre-Simon Laplace publicó su tratado " Théorie analytique des probabilités ", donde se definía explícitamente el concepto de valor esperado: [11]

… Esta ventaja en la teoría del azar es producto de la suma esperada por la probabilidad de obtenerla; es la suma parcial que debe resultar cuando no deseamos correr los riesgos del evento al suponer que la división se hace proporcional a las probabilidades. Esta división es la única equitativa cuando se eliminan todas las circunstancias extrañas; porque un grado igual de probabilidad da igual derecho a la suma esperada. A esta ventaja la llamaremos esperanza matemática .

Anotaciones

El uso de la letra para denotar el valor esperado se remonta a WA Whitworth en 1901. [12] El símbolo se ha vuelto popular desde entonces para los escritores ingleses. En alemán,significa "Erwartungswert", en español para "Esperanza matemática", y en francés para "Espérance mathématique". [13]

Cuando se usa E para denotar el valor esperado, los autores usan una variedad de notación: el operador de expectativa se puede esterilizar como (vertical), (cursiva), o (en negrita ), mientras que los corchetes (), corchetes (), o sin corchetes () se utilizan todos.

Otra notación popular es , mientras que se usa comúnmente en física, y en la literatura en lengua rusa.

Definición

Caso finito

Dejar ser una variable aleatoria con un número finito de resultados finitos ocurriendo con probabilidades respectivamente. La expectativa dese define como [6]

Ya que el valor esperado es la suma ponderada de la valores, con las probabilidades como los pesos.

Si todos los resultados son equiprobables (es decir,), entonces el promedio ponderado se convierte en el promedio simple . Por otro lado, si los resultados no son equiprobables, entonces el promedio simple debe ser reemplazado por el promedio ponderado, que toma en cuenta el hecho de que algunos resultados son más probables que otros.

Una ilustración de la convergencia de los promedios de secuencia de lanzamientos de un dado al valor esperado de 3.5 a medida que aumenta el número de lanzamientos (ensayos).

Ejemplos

  • Dejar representan el resultado de una tirada de un dado de seis caras . Más específicamente,será el número de pepitas que se muestran en la cara superior del dado después del lanzamiento. Los posibles valores para son 1, 2, 3, 4, 5 y 6, todos los cuales son igualmente probables con una probabilidad de 1/6. La expectativa de es
Si uno lanza el dado veces y calcula el promedio (media aritmética ) de los resultados, luego comocrece, el promedio casi seguramente convergerá al valor esperado, un hecho conocido como la ley fuerte de los grandes números .
  • El juego de la ruleta consiste en una pequeña bola y una rueda con 38 bolsillos numerados alrededor del borde. A medida que se hace girar la rueda, la bola rebota aleatoriamente hasta que se asienta en uno de los bolsillos. Suponga una variable aleatoriarepresenta el resultado (monetario) de una apuesta de $ 1 en un solo número (apuesta "directa"). Si la apuesta gana (lo que ocurre con probabilidad1/38en la ruleta americana), la recompensa es de $ 35; de lo contrario, el jugador pierde la apuesta. El beneficio esperado de tal apuesta será
Es decir, la apuesta de $ 1 se puede perder. , por lo que su valor esperado es

Caso contablemente infinito

Intuitivamente, la expectativa de una variable aleatoria que toma valores en un conjunto contable de resultados se define de manera análoga como la suma ponderada de los valores de los resultados, donde los pesos corresponden a las probabilidades de realizar ese valor. Sin embargo, los problemas de convergencia asociados con la suma infinita requieren una definición más cuidadosa. Una definición rigurosa primero define la expectativa de una variable aleatoria no negativa y luego la adapta a las variables aleatorias generales.

Dejar ser una variable aleatoria no negativa con un conjunto contable de resultados ocurriendo con probabilidades respectivamente. De manera análoga al caso discreto, el valor esperado de entonces se define como la serie

Tenga en cuenta que desde , la suma infinita está bien definida y no depende del orden en que se calcula. A diferencia del caso finito, la expectativa aquí puede ser igual al infinito, si la suma infinita anterior aumenta sin límite.

Para una variable aleatoria general (no necesariamente no negativa) con un número contable de resultados, establezca y . Por definición,

Al igual que con las variables aleatorias no negativas, puede, una vez más, ser finito o infinito. La tercera opción aquí es queya no se garantiza que esté bien definido. Esto último sucede siempre que.

Ejemplos

  • Suponer y por , donde (con siendo el logaritmo natural ) es el factor de escala tal que las probabilidades suman 1. Luego, usando la definición directa para variables aleatorias no negativas, tenemos
  • Un ejemplo en el que la expectativa es infinita surge en el contexto de la paradoja de San Petersburgo . Dejar y por . Una vez más, dado que la variable aleatoria no es negativa, el cálculo del valor esperado da
  • Para un ejemplo donde la expectativa no está bien definida, suponga que la variable aleatoria toma valores con probabilidades respectivas , ..., donde es una constante de normalización que asegura que las probabilidades sumen uno.
Entonces sigue que toma valor con probabilidad por y toma valor con probabilidad restante. Similar, toma valor con probabilidad por y toma valor con probabilidad restante. Usando la definición de variables aleatorias no negativas, se puede demostrar que tanto y (ver serie Armónica ). Por tanto, la expectativa de no está bien definido.

Caso absolutamente continuo

Si es una variable aleatoria con una función de densidad de probabilidad de, entonces el valor esperado se define como la integral de Lebesgue

donde los valores en ambos lados están bien definidos o no están bien definidos simultáneamente.

Ejemplo. Una variable aleatoria que tiene la distribución de Cauchy [14] tiene una función de densidad, pero el valor esperado no está definido ya que la distribución tiene grandes "colas" .

Caso general

En general, si es una variable aleatoria definida en un espacio de probabilidad , entonces el valor esperado de , denotado por , se define como la integral de Lebesgue

Para las variables aleatorias multidimensionales, su valor esperado se define por componente. Eso es,

y, para una matriz aleatoria con elementos ,

Propiedades básicas

Las propiedades básicas a continuación (y sus nombres en negrita) replican o siguen inmediatamente a las de la integral de Lebesgue . Tenga en cuenta que las letras "as" representan " casi con seguridad ", una propiedad central de la integral de Lebesgue. Básicamente, se dice que una desigualdad como es cierto casi con seguridad, cuando la medida de probabilidad atribuye masa cero al evento complementario .

  • Para una variable aleatoria general , define como antes y , y tenga en cuenta que , con ambos y no negativo, entonces:
  • Dejar denotar la función indicadora de un evento , luego
  • Fórmulas en términos de CDF: Sies la función de distribución acumulativa de la medida de probabilidad y es una variable aleatoria, entonces
donde los valores en ambos lados están bien definidos o no bien definidos simultáneamente, y la integral se toma en el sentido de Lebesgue-Stieltjes . Aquí, es la línea real extendida.
Adicionalmente,
con las integrales tomadas en el sentido de Lebesgue.
Sigue la demostración de la segunda fórmula.
  • No negatividad: si (como entonces .
  • Linealidad de la expectativa: [5] El operador de valor esperado (u operador de expectativa )es lineal en el sentido de que, para cualquier variable aleatoria y y una constante ,
siempre que el lado derecho esté bien definido. Esto significa que el valor esperado de la suma de cualquier número finito de variables aleatorias es la suma de los valores esperados de las variables aleatorias individuales, y el valor esperado se escala linealmente con una constante multiplicativa. Simbólicamente, para variables aleatorias y constantes , tenemos .
  • Monotonicidad: Si (como) , y ambos y existir, entonces .
La prueba se deriva de la propiedad de linealidad y no negatividad para , ya que (como).
  • No multiplicatividad: en general, el valor esperado no es multiplicativo, es decir no es necesariamente igual a . Si y son independientes , entonces se puede demostrar que. Si las variables aleatorias son dependientes , generalmente, aunque en casos especiales de dependencia puede darse la igualdad.
  • Ley del estadístico inconsciente : el valor esperado de una función medible de, , Dado que tiene una función de densidad de probabilidad , viene dado por el producto interno de y :
[5]
Esta fórmula también es válida en caso multidimensional, cuando es una función de varias variables aleatorias, y es su densidad articular . [5] [15]
  • No degeneración: si, luego (como).
  • Para una variable aleatoria con expectativa bien definida: .
  • Las siguientes declaraciones con respecto a una variable aleatoria son equivalentes:
    • existe y es finito.
    • Ambas cosas y son finitos.
    • es finito.
Por las razones anteriores, las expresiones " es integrable "y" el valor esperado de es finito "se utilizan indistintamente a lo largo de este artículo.
  • Si luego (como) . Del mismo modo, si luego (como) .
  • Si y luego
  • Si (como) , entonces. En otras palabras, si X e Y son variables aleatorias que toman valores diferentes con probabilidad cero, entonces la expectativa de X será igual a la expectativa de Y.
  • Si (como) para alguna constante, luego . En particular, para una variable aleatoria con expectativas bien definidas, . Una expectativa bien definida implica que hay un número, o más bien, una constante que define el valor esperado. Por lo tanto, se deduce que la expectativa de esta constante es solo el valor esperado original.
  • Para una variable aleatoria de valor entero no negativo

Usos y aplicaciones

La expectativa de una variable aleatoria juega un papel importante en una variedad de contextos. Por ejemplo, en la teoría de la decisión , a menudo se supone que un agente que hace una elección óptima en el contexto de información incompleta maximiza el valor esperado de su función de utilidad . Para un ejemplo diferente, en estadística , donde se buscan estimaciones de parámetros desconocidos con base en los datos disponibles, la estimación en sí es una variable aleatoria. En tales situaciones, un criterio deseable para un estimador "bueno" es que sea insesgado ; es decir, el valor esperado de la estimación es igual al valor real del parámetro subyacente.

Es posible construir un valor esperado igual a la probabilidad de un evento, tomando la expectativa de una función indicadora que es uno si el evento ha ocurrido y cero en caso contrario. Esta relación se puede utilizar para traducir las propiedades de los valores esperados en propiedades de probabilidades, por ejemplo, utilizando la ley de los grandes números para justificar la estimación de probabilidades por frecuencias .

Los valores esperados de las potencias de X se denominan momentos de X ; los momentos alrededor de la media de X son valores esperados de potencias de X - E [ X ]. Los momentos de algunas variables aleatorias se pueden utilizar para especificar sus distribuciones, a través de sus funciones generadoras de momentos .

Para estimar empíricamente el valor esperado de una variable aleatoria, se miden repetidamente las observaciones de la variable y se calcula la media aritmética de los resultados. Si existe el valor esperado, este procedimiento estima el verdadero valor esperado de manera insesgada y tiene la propiedad de minimizar la suma de los cuadrados de los residuos (la suma de las diferencias al cuadrado entre las observaciones y la estimación ). La ley de los números grandes demuestra (en condiciones bastante suaves) que, a medida que aumenta el tamaño de la muestra , la varianza de esta estimación se reduce.

Esta propiedad a menudo se explota en una amplia variedad de aplicaciones, incluidos problemas generales de estimación estadística y aprendizaje automático , para estimar cantidades (probabilísticas) de interés a través de métodos de Monte Carlo , ya que la mayoría de las cantidades de interés se pueden escribir en términos de expectativa, p., donde es la función indicadora del conjunto .

La masa de la distribución de probabilidad se equilibra en el valor esperado, aquí una distribución Beta (α, β) con el valor esperado α / (α + β).

En la mecánica clásica , el centro de masa es un concepto análogo a la expectativa. Por ejemplo, suponga que X es una variable aleatoria discreta con valores x i y sus correspondientes probabilidades p i . Ahora considere una varilla ingrávida sobre la que se colocan pesos, en las ubicaciones x i a lo largo de la varilla y que tiene masas p i (cuya suma es uno). El punto en el que la varilla se equilibra es E [ X ].

Los valores esperados también se pueden usar para calcular la varianza , por medio de la fórmula computacional para la varianza

Una aplicación muy importante del valor esperado se encuentra en el campo de la mecánica cuántica . El valor esperado de un operador de mecánica cuánticaoperando en un vector de estado cuántico está escrito como . La incertidumbre en se puede calcular usando la fórmula .

Intercambiando límites y expectativas

En general, no es el caso que A pesar de puntual. Por tanto, no se pueden intercambiar límites y expectativas sin condiciones adicionales sobre las variables aleatorias. Para ver esto, deja ser una variable aleatoria distribuida uniformemente en . Para definir una secuencia de variables aleatorias

con siendo la función indicadora del evento . Entonces, se sigue que(como). Pero, para cada . Por eso,

De manera análoga, para la secuencia general de variables aleatorias , el operador de valor esperado no es -aditivo, es decir

Un ejemplo se obtiene fácilmente configurando y por , donde es como en el ejemplo anterior.

Varios resultados de convergencia especifican condiciones exactas que permiten intercambiar límites y expectativas, como se especifica a continuación.

  • Teorema de la convergencia monótona : Sea ser una secuencia de variables aleatorias, con (como) para cada . Además, dejapuntual. Entonces, el teorema de la convergencia monótona establece que
Usando el teorema de la convergencia monótona, se puede demostrar que la expectativa de hecho satisface la aditividad contable para las variables aleatorias no negativas. En particular, dejemosSer variables aleatorias no negativas. Se deduce del teorema de la convergencia monótona que
  • Lema de Fatou : Letser una secuencia de variables aleatorias no negativas. El lema de Fatou dice que
Corolario. Dejar con para todos . Si (como entonces
La prueba es observando que (as) y aplicando el lema de Fatou.
  • Teorema de convergencia dominado : Seaser una secuencia de variables aleatorias. Si puntiagudo (como), (como y . Entonces, de acuerdo con el teorema de convergencia dominado,
    • ;
  • Integrabilidad uniforme : en algunos casos, la igualdad se mantiene cuando la secuencia es uniformemente integrable .

Desigualdades

Hay una serie de desigualdades que involucran los valores esperados de funciones de variables aleatorias. La siguiente lista incluye algunos de los más básicos.

  • Desigualdad de Markov : para una variable aleatoria no negativa y , La desigualdad de Markov establece que
  • Desigualdad de Bienaymé-Chebyshev : Sea ser una variable aleatoria arbitraria con un valor esperado finito y varianza finita . La desigualdad de Bienaymé-Chebyshev establece que, para cualquier número real,
  • Desigualdad de Jensen : Seaser una función convexa de Borel y una variable aleatoria tal que . Luego
El lado derecho está bien definido incluso si asume valores no finitos. De hecho, como se señaló anteriormente, la finitud de implica que es finito como; por lo tanto Se define como.
  • Desigualdad de Lyapunov: [16] Sea. La desigualdad de Lyapunov establece que
Prueba. Aplicando la desigualdad de Jensen a y , obtener . Tomando el la raíz de cada lado completa la prueba.
  • Desigualdad de Cauchy-Bunyakovsky-Schwarz : La desigualdad de Cauchy-Bunyakovsky-Schwarz establece que
  • Desigualdad de Hölder : Sea y satisfacer , , y . La desigualdad de Hölder establece que
  • Desigualdad de Minkowski : Sea ser un número real positivo satisfactorio . Dejemos, además, y . Entonces, de acuerdo con la desigualdad de Minkowski, y

Valores esperados de distribuciones comunes

Relación con la función característica

La función de densidad de probabilidad de una variable aleatoria escalar está relacionado con su función característica por la fórmula de inversión:

Para el valor esperado de (donde es una función de Borel ), podemos usar esta fórmula de inversión para obtener

Si es finito, cambiando el orden de integración, obtenemos, de acuerdo con el teorema de Fubini-Tonelli ,

donde

es la transformada de Fourier de La expresión para también se sigue directamente del teorema de Plancherel .

Ver también

  • Centro de masa
  • Tendencia central
  • La desigualdad de Chebyshev (una desigualdad en la ubicación y los parámetros de escala)
  • Expectativa condicional
  • Expectativa (el término general)
  • Valor esperado (mecánica cuántica)
  • Ley de expectativa total de -el valor esperado del valor esperado condicional de X dado Y es el mismo que el valor esperado de X .
  • Momento (matemáticas)
  • Expectativa no lineal (una generalización del valor esperado)
  • Ecuación de Wald: una ecuación para calcular el valor esperado de un número aleatorio de variables aleatorias

Referencias

  1. ^ "Lista de símbolos de probabilidad y estadística" . Bóveda de matemáticas . 2020-04-26 . Consultado el 11 de septiembre de 2020 .
  2. ^ "Expectativa | Media | Promedio" . www.probabilitycourse.com . Consultado el 11 de septiembre de 2020 .
  3. ^ Hansen, Bruce. "PROBABILIDAD Y ESTADÍSTICAS PARA ECONOMISTAS" (PDF) . Consultado el 20 de julio de 2021 .
  4. ^ Wasserman, Larry. Toda la estadística: un curso conciso de inferencia estadística . Springer textos en estadística. pag. 47. ISBN 9781441923226.
  5. ^ a b c d Weisstein, Eric W. "Valor esperado" . mathworld.wolfram.com . Consultado el 11 de septiembre de 2020 .
  6. ^ a b "Valor esperado | Wiki brillante de matemáticas y ciencia" . shiny.org . Consultado el 21 de agosto de 2020 .
  7. ^ Historia de la probabilidad y la estadística y sus aplicaciones antes de 1750 . Serie de Wiley en Probabilidad y Estadística. 1990. doi : 10.1002 / 0471725161 . ISBN 9780471725169.
  8. ^ Mineral, Oystein (1960). "Ore, Pascal y la invención de la teoría de la probabilidad". The American Mathematical Monthly . 67 (5): 409–419. doi : 10.2307 / 2309286 . JSTOR 2309286 . 
  9. ^ George Mackey (julio de 1980). "EL ANÁLISIS ARMÓNICO COMO EXPLOTACIÓN DE LA SIMETRÍA - UNA REVISIÓN HISTÓRICA". Boletín de la American Mathematical Society . Series nuevas. 3 (1): 549.
  10. ^ Huygens, cristiano. "El valor de las oportunidades en los juegos de la fortuna. Traducción al inglés" (PDF) .
  11. ^ Laplace, Pierre Simon, marqués de, 1749-1827. (1952) [1951]. Un ensayo filosófico sobre probabilidades . Publicaciones de Dover. OCLC 475539 . CS1 maint: multiple names: authors list (link)
  12. ^ Whitworth, WA (1901) Elección y oportunidad con mil ejercicios . Quinta edición. Deighton Bell, Cambridge. [Reimpreso por Hafner Publishing Co., Nueva York, 1959.]
  13. ^ "Los primeros usos de los símbolos en probabilidad y estadística" .
  14. ^ Richard W Hamming (1991). "Ejemplo 8.7-1 La distribución de Cauchy". El arte de la probabilidad para científicos e ingenieros . Addison-Wesley. pag. 290 y sigs . ISBN 0-201-40686-1. El muestreo de la distribución de Cauchy y el promedio no lo lleva a ninguna parte: ¡una muestra tiene la misma distribución que el promedio de 1000 muestras!
  15. ^ Papoulis, A. (1984), probabilidad, variables aleatorias y procesos estocásticos , Nueva York: McGraw-Hill, págs. 139-152
  16. ^ Agahi, Hamzeh; Mohammadpour, Adel; Mesiar, Radko (noviembre de 2015). "Generalizaciones de algunas desigualdades de probabilidad y convergencia $ L ^ {p} $ de variables aleatorias para cualquier medida monótona" . Revista Brasileña de Probabilidad y Estadística . 29 (4): 878–896. doi : 10.1214 / 14-BJPS251 . ISSN 0103-0752 . 

Literatura

  • Edwards, AWF (2002). Triángulo aritmético de Pascal: la historia de una idea matemática (2ª ed.). Prensa JHU. ISBN 0-8018-6946-3.
  • Huygens, Christiaan (1657). De ratiociniis in ludo aleæ (traducción al inglés, publicada en 1714) .