De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

En teoría de probabilidad y estadística , una distribución de probabilidad es la función matemática que da las probabilidades de ocurrencia de diferentes resultados posibles para un experimento . [1] [2] Es una descripción matemática de un fenómeno aleatorio en términos de su espacio muestral y las probabilidades de eventos (subconjuntos del espacio muestral). [3]

Por ejemplo, si X se usa para denotar el resultado de un lanzamiento de moneda ("el experimento"), entonces la distribución de probabilidad de X tomaría el valor 0.5 para X  = cara y 0.5 para X  = cruz (asumiendo que la moneda es justo). Los ejemplos de fenómenos aleatorios incluyen las condiciones climáticas en una fecha futura, la altura de una persona seleccionada al azar, la fracción de estudiantes varones en una escuela, los resultados de una encuesta que se realizará, etc. [4]

Introducción [ editar ]

La función de masa de probabilidad (pmf) p ( S ) especifica la distribución de probabilidad para la suma S de conteos de dos dados . Por ejemplo, la figura muestra que p (11) = 2/36 = 1/18. El pmf permite el cálculo de probabilidades de eventos como P ( S > 9) = 1/12 + 1/18 + 1/36 = 1/6, y todas las demás probabilidades en la distribución.

Una distribución de probabilidad es una descripción matemática de las probabilidades de eventos, subconjuntos del espacio muestral . El espacio de muestra, a menudo denotado por , [5] es el conjunto de todos los posibles resultados de un fenómeno aleatorio siendo observados; puede ser cualquier conjunto: un conjunto de números reales , un conjunto de vectores , un conjunto de valores arbitrarios no numéricos, etc. Por ejemplo, el espacio muestral de un lanzamiento de moneda sería = { cara , cruz }.

Para definir distribuciones de probabilidad para el caso específico de variables aleatorias (para que el espacio muestral pueda verse como un conjunto numérico), es común distinguir entre variables aleatorias discretas y continuas . En el caso discreto, es suficiente especificar una función de masa de probabilidad asignando una probabilidad a cada resultado posible: por ejemplo, cuando se lanza un dado justo , cada uno de los seis valores del 1 al 6 tiene la probabilidad de 1/6. La probabilidad de un evento se define entonces como la suma de las probabilidades de los resultados que satisfacen el evento; por ejemplo, la probabilidad del evento "el dado lanza un valor par" es

Por el contrario, cuando una variable aleatoria toma valores de un continuo, por lo general, cualquier resultado individual tiene probabilidad cero y solo los eventos que incluyen un número infinito de resultados, como los intervalos, pueden tener probabilidad positiva. Por ejemplo, considere medir el peso de una pieza de jamón en el supermercado y suponga que la báscula tiene muchos dígitos de precisión. La probabilidad de que pese exactamente 500 g es cero, ya que lo más probable es que tenga algunos dígitos decimales distintos de cero. No obstante, se podría exigir, en control de calidad, que un paquete de "500 g" de jamón debe pesar entre 490 gy 510 g con al menos un 98% de probabilidad, y esta exigencia es menos sensible a la precisión de los instrumentos de medida.

A la izquierda está la función de densidad de probabilidad. A la derecha está la función de distribución acumulativa, que es el área bajo la curva de densidad de probabilidad.

Las distribuciones de probabilidad continua se pueden describir de varias formas. La función de densidad de probabilidad describe la probabilidad infinitesimal de cualquier valor dado, y la probabilidad de que el resultado se encuentre en un intervalo dado se puede calcular integrando la función de densidad de probabilidad en ese intervalo. [6] Una descripción alternativa de la distribución es por medio de la función de distribución acumulativa , que describe la probabilidad de que la variable aleatoria no sea mayor que un valor dado (es decir, P ( X < x ) para alguna x ). La función de distribución acumulada es el área bajo ella función de densidad de probabilidad de que x , como se describe por la imagen de la derecha. [7]

Definición general [ editar ]

Una distribución de probabilidad se puede describir de varias formas, como mediante una función de masa de probabilidad o una función de distribución acumulativa. Una de las descripciones más generales, que se aplica a variables continuas y discretas, es mediante una función de probabilidad cuyo espacio de entrada está relacionado con el espacio muestral y da una probabilidad como salida. [8]

La función de probabilidad P puede tomar como argumentos subconjuntos del propio espacio muestral, como en el ejemplo del lanzamiento de una moneda, donde la función P se definió de modo que P (cara) = 0,5 y P (cruz) = 0,5 . Sin embargo, debido al uso generalizado de variables aleatorias , que transforman el espacio de muestra en un conjunto de números (por ejemplo, , ), es más común a las distribuciones de probabilidad de estudio cuyo argumento son subconjuntos de estos tipos particulares de conjuntos (número juegos), [9] y todas las distribuciones de probabilidad discutidas en este artículo son de este tipo. Es común denotar como P ( X E ) la probabilidad de que una variable determinada X pertenece a un determinado evento E . [4] [10]

La función de probabilidad anterior solo caracteriza una distribución de probabilidad si satisface todos los axiomas de Kolmogorov , es decir:

  1. , entonces la probabilidad no es negativa;
  2. , por lo que ninguna probabilidad excede ; y
  3. para cualquier familia de conjuntos disjuntos .

El concepto de función de probabilidad se hace más riguroso al definirlo como el elemento de un espacio de probabilidad , donde es el conjunto de resultados posibles, es el conjunto de todos los subconjuntos cuya probabilidad se puede medir y es la función de probabilidad, o medida de probabilidad , que asigna una probabilidad a cada uno de estos subconjuntos medibles . [11]

Las distribuciones de probabilidad generalmente se dividen en dos clases. Una distribución de probabilidad discreta es aplicable a los escenarios donde el conjunto de posibles resultados es discreto (por ejemplo, un lanzamiento de una moneda, un lanzamiento de un dado), y las probabilidades están aquí codificadas por una lista discreta de las probabilidades de los resultados, conocida como la función de masa de probabilidad . Por otro lado, las distribuciones de probabilidad continua son aplicables a escenarios donde el conjunto de posibles resultados puede tomar valores en un rango continuo (por ejemplo, números reales), como la temperatura en un día determinado. En este caso, las probabilidades se describen típicamente mediante una función de densidad de probabilidad . [4] [6] [10]La distribución normal es una distribución de probabilidad continua que se encuentra comúnmente. Los experimentos más complejos, como los que involucran procesos estocásticos definidos en tiempo continuo , pueden exigir el uso de medidas de probabilidad más generales .

Una distribución de probabilidad cuyo espacio muestral es unidimensional (por ejemplo, números reales, lista de etiquetas, etiquetas ordenadas o binarias) se llama univariante , mientras que una distribución cuyo espacio muestral es un espacio vectorial de dimensión 2 o más se llama multivariante . Una distribución univariante da las probabilidades de que una única variable aleatoria adopte varios valores alternativos; una distribución multivariante (una distribución de probabilidad conjunta ) da las probabilidades de un vector aleatorio , una lista de dos o más variables aleatorias, que toma varias combinaciones de valores. Las distribuciones de probabilidad univariadas importantes y comúnmente encontradas incluyen la distribución binomial, la distribución hipergeométrica y la distribución normal . Una distribución multivariante que se encuentra comúnmente es la distribución normal multivariante .

Además de la función de probabilidad, la función de distribución acumulativa, la función de masa de probabilidad y la función de densidad de probabilidad, la función generadora de momentos y la función característica también sirven para identificar una distribución de probabilidad, ya que determinan de forma única una función de distribución acumulada subyacente. [12]

La función de densidad de probabilidad (pdf) de la distribución normal , también llamada Gaussiana o "curva de campana", la distribución aleatoria continua más importante. Como se indica en la figura, las probabilidades de los intervalos de valores corresponden al área bajo la curva.

Terminología [ editar ]

A continuación se enumeran algunos conceptos y términos clave, ampliamente utilizados en la literatura sobre el tema de las distribuciones de probabilidad. [1]

Funciones para variables discretas [ editar ]

  • Función de probabilidad : describe la probabilidad de que ocurra el evento , del espacio muestral. [8]
  • Función de masa de probabilidad (pmf) : función que da la probabilidad de que una variable aleatoria discreta sea igual a algún valor.
  • Distribución de frecuencia : una tabla que muestra la frecuencia de varios resultados en una muestra .
  • Distribución de frecuencia relativa : una distribución de frecuencia en la que cada valor se ha dividido (normalizado) por una serie de resultados en una muestra, es decir, el tamaño de la muestra.
  • Función de distribución de probabilidad discreta : término general para indicar la forma en que la probabilidad total de 1 se distribuye entre todos los resultados posibles (es decir, en toda la población) para una variable aleatoria discreta.
  • Función de distribución acumulativa : función que evalúa la probabilidad quetomará un valor menor o igual apara una variable aleatoria discreta.
  • Distribución categórica : para variables aleatorias discretas con un conjunto finito de valores.

Funciones para variables continuas [ editar ]

  • Función de densidad de probabilidad (pdf): función cuyo valor en cualquier muestra (o punto) dado en el espacio muestral (el conjunto de posibles valores tomados por la variable aleatoria) puede interpretarse como una probabilidad relativa de que el valor de la variable aleatoria sería igual a esa muestra.
  • Función de distribución de probabilidad continua : a menudo reservada para variables aleatorias continuas.
  • Función de distribución acumulada : función que evalúa la probabilidad quetomará un valor menor o igual apara la variable continua.
  • Función cuantil : la inversa de la función de distribución acumulativa. Datal que, con probabilidad,no excederá.

Términos básicos [ editar ]

  • Moda : para una variable aleatoria discreta, el valor con mayor probabilidad; para una variable aleatoria continua, una ubicación en la que la función de densidad de probabilidad tiene un pico local.
  • Soporte : conjunto de valores que la variable aleatoria puede asumir con probabilidad distinta de cero. Para una variable aleatoria, a veces se denota como. [5]
  • Cola : [13] las regiones cercanas a los límites de la variable aleatoria, si el pmf o el pdf son relativamente bajos allí. Suele tener la forma , o una unión de las mismas.
  • Head : [13] la región donde el pmf o pdf es relativamente alto. Suele tener la forma .
  • Valor esperado o media : la media ponderada de los posibles valores, utilizando sus probabilidades como ponderaciones; o el análogo continuo del mismo.
  • Mediana : el valor tal que el conjunto de valores menores que la mediana y el conjunto mayor que la mediana tienen probabilidades no mayores a la mitad.
  • Varianza : el segundo momento de la pmf o pdf sobre la media; una medida importante de la dispersión de la distribución.
  • Desviación estándar : la raíz cuadrada de la varianza y, por lo tanto, otra medida de dispersión.
  • Cuantil : el q-cuantil es el valortal que.
  • Simetría : una propiedad de algunas distribuciones en la que la parte de la distribución a la izquierda de un valor específico (generalmente la mediana) es una imagen especular de la parte a su derecha.
  • Asimetría : una medida de la medida en que un PMF o PDF "se inclina" hacia un lado de su media. El tercer momento estandarizado de la distribución.
  • Curtosis : medida de la "gordura" de las colas de un pmf o pdf. El cuarto momento estandarizado de la distribución.

Distribución de probabilidad discreta [ editar ]

La función de masa de probabilidad de una distribución de probabilidad discreta. Las probabilidades de los singletons {1}, {3} y {7} son respectivamente 0.2, 0.5, 0.3. Un conjunto que no contenga ninguno de estos puntos tiene probabilidad cero.
La CDF de una distribución de probabilidad discreta, ...
... de una distribución de probabilidad continua, ...
... de una distribución que tiene tanto una parte continua como una parte discreta.

Una distribución de probabilidad discreta es una distribución de probabilidad que puede tomar un número contable de valores. [14] En el caso de que el rango de valores sea infinito numerable, estos valores deben descender a cero lo suficientemente rápido para que las probabilidades sumen 1. Por ejemplo, si para n = 1, 2, ..., la suma de probabilidades sería 1/2 + 1/4 + 1/8 + ... = 1.

Las distribuciones de probabilidad discretas conocidas que se utilizan en el modelado estadístico incluyen la distribución de Poisson , la distribución de Bernoulli , la distribución binomial , la distribución geométrica y la distribución binomial negativa . [3] Además, la distribución uniforme discreta se usa comúnmente en programas de computadora que hacen selecciones aleatorias de igual probabilidad entre varias opciones.

Cuando se extrae una muestra (un conjunto de observaciones) de una población más grande, los puntos muestrales tienen una distribución empírica que es discreta y que proporciona información sobre la distribución de la población.

Función de distribución acumulativa [ editar ]

De manera equivalente a lo anterior, una variable aleatoria discreta se puede definir como una variable aleatoria cuya función de distribución acumulada (CDF) aumenta solo por discontinuidades de salto , es decir, su CDF aumenta solo donde "salta" a un valor más alto, y es constante entre esos saltos. Sin embargo, tenga en cuenta que los puntos donde salta el CDF pueden formar un conjunto denso de números reales. Los puntos donde ocurren los saltos son precisamente los valores que puede tomar la variable aleatoria.

Representación de función delta [ editar ]

En consecuencia, una distribución de probabilidad discreta a menudo se representa como una función de densidad de probabilidad generalizada que involucra funciones delta de Dirac , que unifica sustancialmente el tratamiento de distribuciones continuas y discretas. Esto es especialmente útil cuando se trata de distribuciones de probabilidad que involucran tanto una parte continua como una discreta. [15]

Representación de función de indicador [ editar ]

Para una variable aleatoria discreta X , sean u 0 , u 1 , ... los valores que puede tomar con una probabilidad distinta de cero. Denotar

Estos son conjuntos disjuntos , y para tales conjuntos

De ello se deduce que la probabilidad de que X tome cualquier valor excepto para u 0 , u 1 , ... es cero y, por tanto, se puede escribir X como

excepto en un conjunto de probabilidad cero, donde es la función indicadora de A . Esto puede servir como una definición alternativa de variables aleatorias discretas.

Distribución de probabilidad continua [ editar ]

Una distribución de probabilidad continua es una distribución de probabilidad cuyo soporte es un conjunto incontable, como un intervalo en la línea real. [16] Se caracterizan de forma única por una función de distribución acumulativa que se puede utilizar para calcular la probabilidad de cada subconjunto del soporte. Hay muchos ejemplos de distribuciones de probabilidad continuas: normal , uniforme , chi-cuadrado y otras .

Una variable aleatoria tiene una distribución de probabilidad continua si hay una función tal que para cada intervalo la probabilidad de pertenecer a está dada por la integral de más . [17] Por ejemplo, si , entonces tendríamos: [18]

En particular, la probabilidad de que tome cualquier valor único (es decir, ) es cero, porque una integral con límites superior e inferior coincidentes siempre es igual a cero. Una variable que satisface lo anterior se llama variable aleatoria continua . Su función de densidad acumulativa se define como

que, según esta definición, tiene las propiedades:

  • no es decreciente;
  • ;
  • y ;
  • ; y
  • es continua debido a las propiedades integrales de Riemann . [19]

También es posible pensar en la dirección opuesta, lo que permite más flexibilidad: si es una función que satisface todas las propiedades anteriores excepto la última, entonces representa la función de densidad acumulada para alguna variable aleatoria: una variable aleatoria discreta si es un paso función, y una variable aleatoria continua en caso contrario. [20] Esto permite distribuciones continuas que tienen una función de densidad acumulativa, pero no una función de densidad de probabilidad, como la distribución de Cantor .

A menudo es necesario generalizar la definición anterior para subconjuntos más arbitrarios de la línea real. En estos contextos, una distribución de probabilidad continua se define como una distribución de probabilidad con una función de distribución acumulativa que es absolutamente continua . De manera equivalente, es una distribución de probabilidad sobre los números reales que es absolutamente continua con respecto a la medida de Lebesgue . Estas distribuciones se pueden representar mediante sus funciones de densidad de probabilidad . Si es una variable aleatoria absolutamente continua, entonces tiene una función de densidad de probabilidad , y su probabilidad de caer en un conjunto medible de Lebesgue es:

donde está la medida de Lebesgue.

Nota sobre terminología: algunos autores utilizan el término "distribución continua" para denotar distribuciones cuyas funciones de distribución acumulativa son continuas , en lugar de absolutamente continuas . Estas distribuciones son los que de tal manera que para todos . Esta definición incluye las distribuciones (absolutamente) continuas definidas anteriormente, pero también incluye distribuciones singulares , que no son absolutamente continuas ni discretas ni una mezcla de ellas, y no tienen densidad. Un ejemplo lo da la distribución de Cantor .

Definición de Kolmogorov [ editar ]

En la formalización de la teoría de medidas de la teoría de la probabilidad , una variable aleatoria se define como una función medible desde un espacio de probabilidad a un espacio medible . Dado que las probabilidades de eventos de la forma satisfacen los axiomas de probabilidad de Kolmogorov , la distribución de probabilidad de X es la medida de avance de , que es una medida de probabilidad de satisfacción . [21] [22] [23]

Otros tipos de distribuciones [ editar ]

Una solución para las ecuaciones de Rabinovich-Fabrikant . ¿Cuál es la probabilidad de observar un estado en un lugar determinado del soporte (es decir, el subconjunto rojo)?

Las distribuciones continuas y discretas con soporte o son extremadamente útiles para modelar una miríada de fenómenos, [4] [7] ya que la mayoría de las distribuciones prácticas se apoyan en subconjuntos relativamente simples, como hipercubos o bolas . Sin embargo, no siempre es así, y existen fenómenos con apoyos que en realidad son curvas complicadas dentro de algún espacio o similar. En estos casos, la distribución de probabilidad se apoya en la imagen de dicha curva y es probable que se determine empíricamente, en lugar de encontrar una fórmula cerrada para ella. [24]

Un ejemplo se muestra en la figura de la derecha, que muestra la evolución de un sistema de ecuaciones diferenciales (comúnmente conocido como las ecuaciones de Rabinovich-Fabrikant ) que se puede utilizar para modelar el comportamiento de las ondas de Langmuir en plasma . [25] Cuando se estudia este fenómeno, se observan estados del subconjunto indicado en rojo. Entonces, uno podría preguntarse cuál es la probabilidad de observar un estado en una determinada posición del subconjunto rojo; si existe tal probabilidad, se denomina medida de probabilidad del sistema. [26] [24]

Este tipo de soporte complicado aparece con bastante frecuencia en sistemas dinámicos . No es sencillo establecer que el sistema tiene una medida de probabilidad, y el problema principal es el siguiente. Sean instantes en el tiempo y un subconjunto del soporte, si la medida de probabilidad existe para el sistema, uno esperaría que la frecuencia de observar estados dentro del conjunto fuera igual en el intervalo y , lo que podría no suceder; por ejemplo, podría oscilar de forma similar a un seno , cuyo límite cuando no converge. Formalmente, la medida existe solo si el límite de la frecuencia relativa converge cuando se observa el sistema hasta el futuro infinito. [27]La rama de los sistemas dinámicos que estudia la existencia de una medida de probabilidad es la teoría ergódica .

Tenga en cuenta que incluso en estos casos, la distribución de probabilidad, si existe, podría denominarse "continua" o "discreta" dependiendo de si el apoyo es incontable o contable, respectivamente.

Generación de números aleatorios [ editar ]

La mayoría de los algoritmos se basan en un generador de números pseudoaleatorios que produce números X que se distribuyen uniformemente en el intervalo semiabierto [0,1). Estas variables aleatorias X se transforman luego mediante algún algoritmo para crear una nueva variante aleatoria que tenga la distribución de probabilidad requerida. Con esta fuente de pseudoaleatoriedad uniforme, se pueden generar realizaciones de cualquier variable aleatoria. [28]

Por ejemplo, suponga que tiene una distribución uniforme entre 0 y 1. Para construir una variable de Bernoulli aleatoria para algunos , definimos

de modo que

Esta variable aleatoria X tiene una distribución de Bernoulli con parámetro . [28] Tenga en cuenta que se trata de una transformación de variable aleatoria discreta.

Para una función de distribución de una variable aleatoria continua, se debe construir una variable aleatoria continua. , una función inversa de , se relaciona con la variable uniforme :

Por ejemplo, suponga que se debe construir una variable aleatoria que tiene una distribución exponencial .

entonces y si tiene una distribución, entonces la variable aleatoria está definida por . Esto tiene una distribución exponencial de . [28]

Un problema frecuente en las simulaciones estadísticas ( método de Monte Carlo ) es la generación de números pseudoaleatorios que se distribuyen de una forma determinada.

Distribuciones de probabilidad comunes y sus aplicaciones [ editar ]

El concepto de distribución de probabilidad y las variables aleatorias que describen es la base de la disciplina matemática de la teoría de la probabilidad y la ciencia de la estadística. Existe una dispersión o variabilidad en casi cualquier valor que se pueda medir en una población (por ejemplo, altura de las personas, durabilidad de un metal, crecimiento de las ventas, flujo de tráfico, etc.); casi todas las mediciones se realizan con algún error intrínseco; En física, muchos procesos se describen probabilísticamente, desde las propiedades cinéticas de los gases hasta la descripción mecánica cuántica de partículas fundamentales . Por estas y muchas otras razones, los números simples a menudo son inadecuados para describir una cantidad, mientras que las distribuciones de probabilidad suelen ser más apropiadas.

La siguiente es una lista de algunas de las distribuciones de probabilidad más comunes, agrupadas por el tipo de proceso con el que están relacionadas. Para obtener una lista más completa, consulte la lista de distribuciones de probabilidad , que agrupa según la naturaleza del resultado que se está considerando (discreto, continuo, multivariado, etc.)

Todas las distribuciones univariadas a continuación tienen un pico individual; es decir, se supone que los valores se agrupan alrededor de un solo punto. En la práctica, las cantidades realmente observadas pueden agruparse en torno a múltiples valores. Estas cantidades se pueden modelar utilizando una distribución de mezcla .

Crecimiento lineal (por ejemplo, errores, compensaciones) [ editar ]

  • Distribución normal ( distribución gaussiana), para una sola cantidad; la distribución continua más utilizada

Crecimiento exponencial (por ejemplo, precios, ingresos, poblaciones) [ editar ]

  • Distribución logarítmica normal , para una sola cantidad cuyo logaritmo se distribuye normalmente
  • Distribución de Pareto , para una sola cantidad cuyo logaritmo se distribuye exponencialmente ; la distribución de la ley de potencia prototípica

Cantidades uniformemente distribuidas [ editar ]

  • Distribución uniforme discreta , para un conjunto finito de valores (por ejemplo, el resultado de un dado justo)
  • Distribución uniforme continua , para valores distribuidos continuamente

Ensayos de Bernoulli (eventos sí / no, con una probabilidad dada) [ editar ]

  • Distribuciones básicas:
    • Distribución de Bernoulli , para el resultado de un único ensayo de Bernoulli (por ejemplo, éxito / fracaso, sí / no)
    • Distribución binomial , para el número de "ocurrencias positivas" (por ejemplo, éxitos, votos a favor, etc.) dado un número total fijo de ocurrencias independientes
    • Distribución binomial negativa , para observaciones de tipo binomial, pero donde la cantidad de interés es el número de fracasos antes de que ocurra un número determinado de éxitos.
    • Distribución geométrica , para observaciones de tipo binomial pero donde la cantidad de interés es el número de fallas antes del primer éxito; un caso especial de la distribución binomial negativa
  • Relacionado con los esquemas de muestreo sobre una población finita:
    • Distribución hipergeométrica , para el número de "ocurrencias positivas" (por ejemplo, éxitos, votos a favor, etc.) dado un número fijo de ocurrencias totales, utilizando muestreo sin reemplazo
    • Distribución beta-binomial , para el número de "ocurrencias positivas" (por ejemplo, éxitos, votos a favor, etc.) dado un número fijo de ocurrencias totales, muestreo utilizando un modelo de urna de Pólya (en cierto sentido, el "opuesto" del muestreo sin reemplazo )

Resultados categóricos (eventos con K posibles resultados) [ editar ]

  • Distribución categórica , para un único resultado categórico (por ejemplo, sí / no / tal vez en una encuesta); una generalización de la distribución de Bernoulli
  • Distribución multinomial , para el número de cada tipo de resultado categórico, dado un número fijo de resultados totales; una generalización de la distribución binomial
  • Distribución hipergeométrica multivariante , similar a la distribución multinomial , pero usando muestreo sin reemplazo ; una generalización de la distribución hipergeométrica

Proceso de Poisson (eventos que ocurren de forma independiente con una frecuencia determinada) [ editar ]

  • Distribución de Poisson , para el número de ocurrencias de un evento de tipo Poisson en un período de tiempo determinado
  • Distribución exponencial , para el tiempo antes de que ocurra el próximo evento tipo Poisson
  • Distribución gamma , para el tiempo antes de que ocurran los próximos k eventos de tipo Poisson

Valores absolutos de vectores con componentes distribuidos normalmente [ editar ]

  • Distribución de Rayleigh , para la distribución de magnitudes vectoriales con componentes ortogonales distribuidos en Gauss. Las distribuciones de Rayleigh se encuentran en señales de RF con componentes reales e imaginarios gaussianos.
  • Distribución de Rice , una generalización de las distribuciones de Rayleigh para donde hay un componente de señal de fondo estacionario. Encontrado en Rician desvanecimiento de señales de radio debido a la propagación por trayectos múltiples y en imágenes de RM con corrupción de ruido en señales de RMN distintas de cero.

Cantidades normalmente distribuidas operadas con suma de cuadrados [ editar ]

  • Distribución chi-cuadrado , la distribución de una suma de variables normales estándar al cuadrado ; útil, por ejemplo, para inferencias con respecto a la varianza muestral de muestras distribuidas normalmente (ver prueba de chi-cuadrado )
  • Distribución t de Student , la distribución de la razón de una variable normal estándar y la raíz cuadrada de una variable chi cuadrado escalada ; útil para la inferencia con respecto a la media de muestras distribuidas normalmente con varianza desconocida (consulte la prueba t de Student )
  • Distribución F , la distribución de la razón de dos variables chi cuadrado escaladas ; útil, por ejemplo, para inferencias que implican comparar varianzas o que implican R-cuadrado (el coeficiente de correlación al cuadrado )

Como distribuciones previas conjugadas en la inferencia bayesiana [ editar ]

  • Distribución beta , para una sola probabilidad (número real entre 0 y 1); conjugado a la distribución de Bernoulli y distribución binomial
  • Distribución gamma , para un parámetro de escala no negativo; conjugar al parámetro de tasa de una distribución de Poisson o distribución exponencial , la precisión ( varianza inversa ) de una distribución normal , etc.
  • Distribución de Dirichlet , para un vector de probabilidades que debe sumar 1; conjugar a la distribución categórica y la distribución multinomial ; generalización de la distribución beta
  • Distribución de Wishart , para una matriz definida simétrica no negativa ; conjugar a la inversa de la matriz de covarianza de una distribución normal multivariante ; generalización de la distribución gamma [29]

Algunas aplicaciones especializadas de distribuciones de probabilidad [ editar ]

  • Los modelos de lenguaje de caché y otros modelos de lenguaje estadístico utilizados en el procesamiento del lenguaje natural para asignar probabilidades a la ocurrencia de palabras y secuencias de palabras particulares lo hacen mediante distribuciones de probabilidad.
  • En mecánica cuántica, la densidad de probabilidad de encontrar la partícula en un punto dado es proporcional al cuadrado de la magnitud de la función de onda de la partícula en ese punto (ver la regla de Born ). Por lo tanto, la función de distribución de probabilidad de la posición de una partícula se describe mediante la probabilidad de que la posición x de la partícula esté en el intervalo axb en la dimensión uno, y una integral triple similar en la dimensión tres. Este es un principio clave de la mecánica cuántica. [30]
  • El flujo de carga probabilístico en el estudio de flujo de potencia explica las incertidumbres de las variables de entrada como distribución de probabilidad y proporciona el cálculo del flujo de potencia también en términos de distribución de probabilidad. [31]
  • Predicción de la ocurrencia de fenómenos naturales basada en distribuciones de frecuencia anteriores , como ciclones tropicales , granizo, tiempo entre eventos, etc. [32]

Ver también [ editar ]

  • Distribución de probabilidad condicional
  • Distribución de probabilidad conjunta
  • Distribución de cuasiprobabilidad
  • Distribución de probabilidad empírica
  • Histograma
  • Aplicación integral de Riemann-Stieltjes a la teoría de la probabilidad

Listas [ editar ]

  • Lista de distribuciones de probabilidad
  • Lista de temas estadísticos

Referencias [ editar ]

Citas [ editar ]

  1. ^ a b Everitt, Brian. (2006). El diccionario de estadística de Cambridge (3ª ed.). Cambridge, Reino Unido: Cambridge University Press. ISBN 978-0-511-24688-3. OCLC  161828328 .
  2. ^ Ash, Robert B. (2008). Teoría básica de la probabilidad (Dover ed.). Mineola, NY: Publicaciones de Dover. págs. 66–69. ISBN 978-0-486-46628-6. OCLC  190785258 .
  3. ^ a b Evans, Michael; Rosenthal, Jeffrey S. (2010). Probabilidad y estadística: la ciencia de la incertidumbre (2ª ed.). Nueva York: WH Freeman and Co. p. 38. ISBN 978-1-4292-2462-8. OCLC  473463742 .
  4. ↑ a b c d Ross, Sheldon M. (2010). Un primer curso de probabilidad . Pearson.
  5. ^ a b "Lista de símbolos de probabilidad y estadística" . Bóveda de matemáticas . 2020-04-26 . Consultado el 10 de septiembre de 2020 .
  6. ^ a b "1.3.6.1. Qué es una distribución de probabilidad" . www.itl.nist.gov . Consultado el 10 de septiembre de 2020 .
  7. ^ a b Una introducción moderna a la probabilidad y la estadística: comprender por qué y cómo . Dekking, Michel, 1946-. Londres: Springer. 2005. ISBN 978-1-85233-896-1. OCLC  262680588 .CS1 maint: others (link)
  8. ^ a b Capítulos 1 y 2 de Vapnik (1998)
  9. ^ Walpole, RE; Myers, RH; Myers, SL; Ye, K. (1999). Probabilidad y estadística para ingenieros . Prentice Hall.
  10. ^ a b DeGroot, Morris H .; Schervish, Mark J. (2002). Probabilidad y Estadística . Addison-Wesley.
  11. ^ Billingsley, P. (1986). Probabilidad y medida . Wiley. ISBN 9780471804789.
  12. ^ Shephard, NG (1991). "De la función característica a la función de distribución: un marco simple para la teoría". Teoría econométrica . 7 (4): 519–529. doi : 10.1017 / S0266466600004746 .
  13. ^ Un b Más información y ejemplos se pueden encontrar en los artículos de distribución Heavy-cola , distribución de cola larga , la distribución de grasa de cola
  14. ^ Erhan, Çınlar (2011). Probabilidad y estocástica . Nueva York: Springer. pag. 51. ISBN 9780387878591. OCLC  710149819 .
  15. ^ Khuri, André I. (marzo de 2004). "Aplicaciones de la función delta de Dirac en estadística". Revista Internacional de Educación Matemática en Ciencia y Tecnología . 35 (2): 185-195. doi : 10.1080 / 00207390310001638313 . ISSN 0020-739X . S2CID 122501973 .  
  16. ^ Sheldon M. Ross (2010). Introducción a los modelos de probabilidad . Elsevier.
  17. ^ Capítulo 3.2 de DeGroot & Schervish (2002)
  18. ^ Bourne, Murray. "11. Distribuciones de probabilidad - conceptos" . www.intmath.com . Consultado el 10 de septiembre de 2020 .
  19. ^ Capítulo 7 de Burkill, JC (1978). Un primer curso de análisis matemático . Prensa de la Universidad de Cambridge.
  20. ^ Véase el teorema 2.1 de Vapnik (1998) o el teorema de descomposición de Lebesgue . La sección # Delta-function_representation también puede ser de interés.
  21. ^ W., Stroock, Daniel (1999). Teoría de la probabilidad: una visión analítica (Rev. ed.). Cambridge [Inglaterra]: Cambridge University Press. pag. 11. ISBN 978-0521663496. OCLC  43953136 .
  22. ^ Kolmogorov, Andrey (1950) [1933]. Fundamentos de la teoría de la probabilidad . Nueva York, Estados Unidos: Chelsea Publishing Company. págs. 21-24.
  23. ^ Joyce, David (2014). "Axiomas de probabilidad" (PDF) . Universidad de Clark . Consultado el 5 de diciembre de 2019 .
  24. ^ a b Alligood, KT; Sauer, TD; Yorke, JA (1996). Caos: una introducción a los sistemas dinámicos . Saltador.
  25. ^ Rabinovich, MI; Fabrikant, AL (1979). "Auto-modulación estocástica de ondas en medios de desequilibrio". J. Exp. Theor. Phys . 77 : 617–629. Código Bibliográfico : 1979JETP ... 50..311R .
  26. ^ Sección 1.9 de Ross, SM; Peköz, EA (2007). Un segundo curso de probabilidad (PDF) .
  27. ^ Walters, Peter (2000). Introducción a la teoría ergódica . Saltador.
  28. ^ a b c Dekking, Frederik Michel; Kraaikamp, ​​Cornelis; Lopuhaä, Hendrik Paul; Meester, Ludolf Erwin (2005), "¿Por qué probabilidad y estadística?", Una introducción moderna a la probabilidad y la estadística , Springer London, págs. 1-11, doi : 10.1007 / 1-84628-168-7_1 , ISBN 978-1-85233-896-1
  29. ^ Obispo, Christopher M. (2006). Reconocimiento de patrones y aprendizaje automático . Nueva York: Springer. ISBN 0-387-31073-8. OCLC  71008143 .
  30. ^ Chang, Raymond. Química física para las ciencias químicas . Thoman, John W., Jr., 1960-. [Mill Valley, California]. págs. 403–406. ISBN 978-1-68015-835-9. OCLC  927509011 .
  31. ^ Chen, P .; Chen, Z .; Bak-Jensen, B. (abril de 2008). "Flujo de carga probabilístico: una revisión". 2008 Tercera Conferencia Internacional sobre Desregulación y Reestructuración de Servicios Eléctricos y Tecnologías Energéticas . págs. 1586-1591. doi : 10.1109 / drpt.2008.4523658 . ISBN 978-7-900714-13-8. S2CID  18669309 .
  32. Maity, Rajib (30 de abril de 2018). Métodos estadísticos en hidrología e hidroclimatología . Singapur. ISBN 978-981-10-8779-0. OCLC  1038418263 .

Fuentes [ editar ]

  • den Dekker, AJ; Sijbers, J. (2014). "Distribuciones de datos en imágenes de resonancia magnética: una revisión". Physica Medica . 30 (7): 725–741. doi : 10.1016 / j.ejmp.2014.05.002 . PMID  25059432 .
  • Vapnik, Vladimir Naumovich (1998). Teoría del aprendizaje estadístico . John Wiley e hijos.

Enlaces externos [ editar ]

  • "Distribución de probabilidad" , Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
  • Guía de campo para distribuciones de probabilidad continua , Gavin E. Crooks.