En teoría y estadística de probabilidad , la distribución uniforme continua o distribución rectangular es una familia de distribuciones de probabilidad simétricas . La distribución describe un experimento donde hay un resultado arbitrario que se encuentra entre ciertos límites. [1] Los límites están definidos por los parámetros, un y b , que son los valores máximo y mínimo. El intervalo puede ser cerrado (por ejemplo, [a, b]) o abierto (por ejemplo, (a, b)). [2] Por lo tanto, la distribución a menudo se abrevia U ( a ,b ), donde U significa distribución uniforme. [1] La diferencia entre los límites define la longitud del intervalo; todos los intervalos de la misma longitud en el soporte de la distribución son igualmente probables. Es la distribución de probabilidad de entropía máxima para una variable aleatoria X sin ninguna restricción que no sea la que está contenida en el soporte de la distribución. [3]
Función de densidad de probabilidad Usando la máxima convención | |||
Función de distribución acumulativa | |||
Notación | |||
---|---|---|---|
Parámetros | |||
Apoyo | |||
CDF | |||
Significar | |||
Mediana | |||
Modo | cualquier valor en | ||
Diferencia | |||
Oblicuidad | 0 | ||
Ex. curtosis | |||
Entropía | |||
MGF | |||
CF |
Definiciones
Función de densidad de probabilidad
La función de densidad de probabilidad de la distribución uniforme continua es:
Los valores de f ( x ) en los dos límites a y b son por lo general poco importante, ya que no alteran los valores de las integrales de f ( x ) dx en cualquier intervalo, ni de x f ( x ) dx o cualquier momento más alto. A veces se eligen para que sean cero y, a veces, para que sean1/b - a. Este último es apropiado en el contexto de la estimación por el método de máxima verosimilitud . En el contexto de análisis de Fourier , se puede tomar el valor de f ( un ) o f ( b ) para ser1/2 ( b - a ), ya que entonces la transformada inversa de muchas transformadas integrales de esta función uniforme devolverá la función en sí, en lugar de una función que es igual " casi en todas partes ", es decir, excepto en un conjunto de puntos con medida cero . Además, es consistente con la función de signo que no tiene tal ambigüedad.
Gráficamente, la función de densidad de probabilidad se representa como un rectángulo donde es la base y es la altura. A medida que aumenta la distancia entre ayb, disminuye la densidad en cualquier valor particular dentro de los límites de distribución. [4] Dado que la función de densidad de probabilidad se integra a 1, la altura de la función de densidad de probabilidad disminuye a medida que aumenta la longitud de la base. [4]
En términos de media μ y varianza σ 2 , la densidad de probabilidad se puede escribir como:
Función de distribución acumulativa
La función de distribución acumulativa es:
Su inverso es:
En notación de media y varianza, la función de distribución acumulada es:
y la inversa es:
Ejemplo 1. Uso de la función de distribución acumulativa uniforme [5]
Para variable aleatoria X
Encontrar :
- .
En la representación gráfica de la función de distribución uniforme [f (x) vs x], el área bajo la curva dentro de los límites especificados muestra la probabilidad (el área sombreada se representa como un rectángulo). Para este ejemplo específico anterior, la base sería y la altura seria . [5]
Ejemplo 2. Uso de la función de distribución acumulativa uniforme (condicional) [5]
Para variable aleatoria X
Encontrar :
- .
El ejemplo anterior es para un caso de probabilidad condicional para la distribución uniforme: dado es cierto, ¿cuál es la probabilidad de que . La probabilidad condicional cambia el espacio muestral por lo que una nueva longitud de intervalodebe calcularse, donde b es 23 y a es 8. [5] La representación gráfica seguiría el Ejemplo 1, donde el área bajo la curva dentro de los límites especificados muestra la probabilidad y la base del rectángulo sería y la altura . [5]
Funciones generadoras
Función generadora de momentos
La función generadora de momento es: [6]
- [7]
a partir del cual podemos calcular los momentos brutos m k
Para el caso especial a = - b , es decir, para
las funciones generadoras de momento se reducen a la forma simple
Para una variable aleatoria siguiente esta distribución, el valor esperado es entonces m 1 = ( un + b ) / 2 y la varianza es m 2 - m 1 2 = ( b - a ) 2 /12.
Función generadora de acumuladores
Para n ≥ 2 , el n ésimo acumulativo de la distribución uniforme en el intervalo [−1/2, 1/2] es B n / n , donde B n es el n ésimo número de Bernoulli . [8]
Uniforme estándar
Restringiendo y , la distribución resultante U (0,1) se denomina distribución uniforme estándar .
Una propiedad interesante de la distribución uniforme estándar es que si u 1 tiene una distribución uniforme estándar, entonces también la tiene 1- u 1 . Esta propiedad se puede utilizar para generar variantes antitéticas , entre otras cosas. En otras palabras, esta propiedad se conoce como el método de inversión donde la distribución uniforme estándar continua se puede utilizar para generar números aleatorios para cualquier otra distribución continua. [4] Si u es un número aleatorio uniforme con distribución uniforme estándar (0,1), entoncesgenera un número aleatorio x a partir de cualquier distribución continua con la especificada función de distribución acumulativa F . [4]
Relación con otras funciones
Siempre que se sigan las mismas convenciones en los puntos de transición, la función de densidad de probabilidad también se puede expresar en términos de la función escalón de Heaviside :
o en términos de la función rectángulo
No hay ambigüedad en el punto de transición de la función de signo . Usando la convención de medio máximo en los puntos de transición, la distribución uniforme puede expresarse en términos de la función de signo como:
Propiedades
Momentos
La media (primer momento ) de la distribución es:
El segundo momento de la distribución es:
En general, el n -ésimo momento de la distribución uniforme es:
La varianza (segundo momento central ) es:
Estadísticas de pedidos
Sea X 1 , ..., X n una muestra iid de U (0,1). Sea X ( k ) el estadístico de k- ésimo orden de esta muestra. Entonces, la distribución de probabilidad de X ( k ) es una distribución Beta con parámetros k y n - k + 1 . El valor esperado es
Este hecho es útil cuando se realizan las parcelas Q-Q .
Las variaciones son
Ver también: Estadística de orden § Distribuciones de probabilidad de estadísticas de orden
Uniformidad
La probabilidad de que una variable aleatoria distribuida uniformemente se encuentre dentro de cualquier intervalo de longitud fija es independiente de la ubicación del intervalo en sí (pero depende del tamaño del intervalo), siempre que el intervalo esté contenido en el soporte de la distribución.
Para ver esto, si X ~ U ( a , b ) y [ x , x + d ] es un subintervalo de [ a , b ] con d fijo > 0, entonces
- que es independiente de x . Este hecho motiva el nombre de la distribución.
Generalización a conjuntos de Borel
Esta distribución se puede generalizar a conjuntos más complicados que los intervalos. Si S es un conjunto de Borel de medida positiva, finito, la distribución de probabilidad uniforme en S se puede especificar mediante la definición de la pdf a ser cero fuera de S y constantemente igual a 1 / K en S , donde K es la medida de Lebesgue de S .
Distribuciones relacionadas
- Si X tiene una distribución uniforme estándar, entonces, mediante el método de muestreo por transformada inversa , Y = - λ −1 ln (X) tiene una distribución exponencial con el parámetro (tasa) λ.
- Si X tiene una distribución uniforme estándar, entonces Y = X n tiene una distribución beta con parámetros ( 1 / n, 1) . Como tal,
- La distribución uniforme estándar es un caso especial de la distribución beta con parámetros ( 1,1) .
- La distribución de Irwin-Hall es la suma de n distribuciones i.id U (0,1) .
- La suma de dos distribuciones uniformes independientes, igualmente distribuidas, produce una distribución triangular simétrica .
- La distancia entre dos variables aleatorias uniformes iid también tiene una distribución triangular , aunque no simétrica.
Inferencia estadística
Estimación de parámetros
Estimación de máximo
Estimador insesgado de varianza mínima
Dada una distribución uniforme en [0, b ] con b desconocido , el estimador insesgado de mínima varianza (UMVUE) para el máximo está dado por
donde m es el máximo de la muestra y K es el tamaño de la muestra , el muestreo sin reemplazo (aunque esta distinción es casi seguro que no hace ninguna diferencia para una distribución continua). Esto sigue por las mismas razones que la estimación para la distribución discreta , y puede verse como un caso muy simple de estimación de espaciamiento máximo . Este problema se conoce comúnmente como el problema de los tanques alemanes , debido a la aplicación de la estimación máxima a las estimaciones de la producción de tanques alemanes durante la Segunda Guerra Mundial .
Estimador de máxima verosimilitud
El estimador de máxima verosimilitud viene dado por:
donde m es el máximo de la muestra , también denotado comola estadística de orden máximo de la muestra.
Método de estimador de momentos
El método de estimador de momentos viene dado por:
dónde es la media muestral.
Estimación del punto medio
El punto medio de la distribución ( a + b ) / 2 es tanto la media como la mediana de la distribución uniforme. Aunque tanto la media muestral como la mediana muestral son estimadores insesgados del punto medio, ninguno es tan eficiente como el rango medio muestral , es decir, la media aritmética del máximo muestral y el mínimo muestral, que es el estimador UMVU del punto medio (y también la estimación de máxima verosimilitud ).
Intervalo de confianza
Para el maximo
Sea X 1 , X 2 , X 3 , ..., X n una muestra dedonde L es el máximo de población. Entonces X ( n ) = max ( X 1 , X 2 , X 3 , ..., X n ) tiene la densidad Lebesgue-Borel [9]
El intervalo de confianza dado antes es matemáticamente incorrecto, ya que no se puede resolver sin conocimiento de . Sin embargo, uno puede resolver
por para cualquier desconocido pero válido !
Ocurrencia y aplicaciones
Las probabilidades de la función de distribución uniforme son fáciles de calcular debido a la simplicidad de la forma de la función. [2] Por lo tanto, hay varias aplicaciones para las que esta distribución se puede utilizar como se muestra a continuación: situaciones de prueba de hipótesis, casos de muestreo aleatorio, finanzas, etc. Además, en general, los experimentos de origen físico siguen una distribución uniforme (por ejemplo, emisión de partículas radiactivas ). [1] Sin embargo, es importante tener en cuenta que en cualquier aplicación, existe la suposición invariable de que la probabilidad de caer en un intervalo de longitud fija es constante. [2]
Ejemplo económico de distribución uniforme
En el campo de la economía, normalmente la demanda y la reposición pueden no seguir la distribución normal esperada. Como resultado, se utilizan otros modelos de distribución para predecir mejor las probabilidades y tendencias, como el proceso de Bernoulli . [10] Pero según Wanke (2008), en el caso particular de investigar el tiempo de espera para la gestión de inventarios al inicio del ciclo de vida cuando se analiza un producto completamente nuevo, la distribución uniforme resulta más útil. [10] En esta situación, otra distribución puede no ser viable ya que no hay datos existentes sobre el nuevo producto o que el historial de demanda no está disponible, por lo que no existe realmente una distribución apropiada o conocida. [10] La distribución uniforme sería ideal en esta situación, ya que se desconoce la variable aleatoria de tiempo de entrega (relacionada con la demanda) para el nuevo producto, pero es probable que los resultados oscilen entre un rango plausible de dos valores. [10] Por tanto , el plazo de entrega representaría la variable aleatoria. A partir del modelo de distribución uniforme, se pudieron calcular otros factores relacionados con el tiempo de entrega, como el nivel de servicio del ciclo y la escasez por ciclo . También se señaló que también se utilizó la distribución uniforme debido a la simplicidad de los cálculos. [10]
Muestreo de una distribución arbitraria
La distribución uniforme es útil para tomar muestras de distribuciones arbitrarias. Un método general es el método de muestreo por transformación inversa, que utiliza la función de distribución acumulativa (CDF) de la variable aleatoria objetivo. Este método es muy útil en el trabajo teórico. Dado que las simulaciones que utilizan este método requieren invertir la CDF de la variable objetivo, se han ideado métodos alternativos para los casos en los que la CDF no se conoce en forma cerrada. Uno de esos métodos es el muestreo por rechazo .
La distribución normal es un ejemplo importante en el que el método de transformación inversa no es eficiente. Sin embargo, existe un método exacto, la transformación de Box-Muller , que utiliza la transformada inversa para convertir dos variables aleatorias uniformes independientes en dos variables aleatorias independientes distribuidas normalmente .
Error de cuantificación
En la conversión de analógico a digital se produce un error de cuantificación. Este error se debe al redondeo o al truncamiento. Cuando la señal original es mucho mayor que un bit menos significativo (LSB) , el error de cuantificación no se correlaciona significativamente con la señal y tiene una distribución aproximadamente uniforme. Por tanto, el error RMS se deriva de la varianza de esta distribución.
Métodos computacionales
Muestreo de una distribución uniforme
Hay muchas aplicaciones en las que es útil ejecutar experimentos de simulación. Muchos lenguajes de programación vienen con implementaciones para generar números pseudoaleatorios que se distribuyen efectivamente de acuerdo con la distribución uniforme estándar.
Si u es un valor muestreado de la distribución uniforme estándar, entonces el valor de un + ( b - a ) u sigue la distribución uniforme parametrizado por una y b , como se describe anteriormente.
Historia
Si bien los orígenes históricos en la concepción de la distribución uniforme no son concluyentes, se especula que el término "uniforme" surgió del concepto de equiprobabilidad en los juegos de dados (tenga en cuenta que los juegos de dados tendrían un espacio muestral uniforme discreto y no continuo). La equiprobabilidad se mencionó en el Liber de Ludo Aleae de Gerolamo Cardano , un manual escrito en el siglo XVI y detallado sobre el cálculo de probabilidades avanzado en relación con los dados. [11]
Ver también
- Distribución uniforme (discreta)
- Distribución beta
- Transformada de Box-Muller
- Gráfico de probabilidad
- Gráfico QQ
- Función rectangular
- Distribución de Irwin-Hall : en el caso degenerado donde n = 1, la distribución de Irwin-Hall genera una distribución uniforme entre 0 y 1.
- Distribución de Bates : similar a la distribución de Irwin-Hall, pero reescalada para n. Al igual que la distribución de Irwin-Hall, en el caso degenerado donde n = 1, la distribución de Bates genera una distribución uniforme entre 0 y 1.
Referencias
- ↑ a b c Dekking, Michel (2005). Una introducción moderna a la probabilidad y la estadística: entender por qué y cómo . Londres, Reino Unido: Springer. págs. 60 –61. ISBN 978-1-85233-896-1.
- ^ a b c Walpole, Ronald; et al. (2012). Probabilidad y estadística para ingenieros y científicos . Boston, Estados Unidos: Prentice Hall. págs. 171-172. ISBN 978-0-321-62911-1.
- ^ Park, Sung Y .; Bera, Anil K. (2009). "Modelo de heterocedasticidad condicional autorregresiva de máxima entropía". Revista de Econometría . 150 (2): 219–230. CiteSeerX 10.1.1.511.9750 . doi : 10.1016 / j.jeconom.2008.12.014 .
- ^ a b c d "Distribución uniforme (continua)" . MathWorks . 2019 . Consultado el 22 de noviembre de 2019 .
- ^ a b c d e Illowsky, Barbara; et al. (2013). Estadísticas introductorias . Rice University, Houston, Texas, EE.UU .: OpenStax College. pp. 296 -304. ISBN 978-1-938168-20-8.
- ^ Casella y Berger 2001 , p. 626
- ^ https://www.stat.washington.edu/~nehemyl/files/UW_MATH-STAT395_moment-functions.pdf
- ^ https://galton.uchicago.edu/~wichura/Stat304/Handouts/L18.cumulants.pdf
- ^ Nechval KN, Nechval NA, Vasermanis EK, Makeev VY (2002) Construcción de intervalos de confianza de longitud más corta . Transporte y telecomunicaciones 3 (1) 95-103
- ^ a b c d e Wanke, Peter (2008). "La distribución uniforme como primer acercamiento práctico a la gestión del inventario de nuevos productos" . Revista Internacional de Economía de la Producción . 114 (2): 811–819. doi : 10.1016 / j.ijpe.2008.04.004 - a través de Research Gate.
- ^ Bellhouse, David (mayo de 2005). "Decodificando el Liber de Ludo de Cardano" . Historia Mathematica . 32 : 180–202. doi : 10.1016 / j.hm.2004.04.001 .
Otras lecturas
- Casella, George; Roger L. Berger (2001), Inferencia estadística (2a ed.), ISBN 978-0-534-24312-8, LCCN 2001025794
enlaces externos
- Calculadora en línea de distribución uniforme (continua)