En probabilidad y estadística , una variable aleatoria , una cantidad aleatoria , una variable aleatoria o una variable estocástica se describe informalmente como una variable cuyos valores dependen de los resultados de un fenómeno aleatorio . [1] El tratamiento matemático formal de las variables aleatorias es un tema en la teoría de la probabilidad . En ese contexto, una variable aleatoria se entiende como una función medible definida en un espacio de probabilidad que mapea desde el espacio muestral a los números reales .[2]
Los posibles valores de una variable aleatoria pueden representar los posibles resultados de un experimento aún por realizar, o los posibles resultados de un experimento pasado cuyo valor ya existente es incierto (por ejemplo, debido a mediciones imprecisas o incertidumbre cuántica ). [1] También pueden representar conceptualmente los resultados de un proceso aleatorio "objetivamente" (como lanzar un dado) o la aleatoriedad "subjetiva" que resulta del conocimiento incompleto de una cantidad. El significado de las probabilidades asignadas a los valores potenciales de una variable aleatoria no es parte de la teoría de la probabilidad en sí, sino que está relacionado con argumentos filosóficos sobre la interpretación de la probabilidad . Las matemáticas funcionan igual independientemente de la interpretación particular que se utilice.
Como función, se requiere que una variable aleatoria sea medible , lo que permite asignar probabilidades a conjuntos de sus valores potenciales. Es común que los resultados dependan de algunas variables físicas que no son predecibles. Por ejemplo, al lanzar una moneda justa, el resultado final de cara o cruz depende de las condiciones físicas inciertas, por lo que el resultado que se observa es incierto. La moneda podría quedar atrapada en una grieta en el piso, pero tal posibilidad no se considera.
El dominio de una variable aleatoria se denomina espacio muestral, definido como el conjunto de posibles resultados de un evento no determinista. Por ejemplo, en el caso de un lanzamiento de moneda, solo son posibles dos resultados posibles: cara o cruz.
Una variable aleatoria tiene una distribución de probabilidad , que especifica la probabilidad de subconjuntos de Borel de su rango. Las variables aleatorias pueden ser discretas , es decir, tomar cualquiera de una lista de valores finita o contable especificada (que tiene un rango contable), dotada de una función de masa de probabilidad que es característica de la distribución de probabilidad de la variable aleatoria; o continuo , tomando cualquier valor numérico en un intervalo o colección de intervalos (que tiene un rango incontable ), a través de una función de densidad de probabilidad que es característica de la distribución de probabilidad de la variable aleatoria; o una mezcla de ambos.
Dos variables aleatorias con la misma distribución de probabilidad aún pueden diferir en términos de sus asociaciones o independencia de otras variables aleatorias. Las realizaciones de una variable aleatoria, es decir, los resultados de la elección aleatoria de valores de acuerdo con la función de distribución de probabilidad de la variable, se denominan variables aleatorias .
Aunque la idea fue originalmente presentada por Christiaan Huygens , la primera persona en pensar sistemáticamente en términos de variables aleatorias fue Pafnuty Chebyshev . [3] [4]
Definición
Una variable aleatoria es una función medible de un conjunto de posibles resultados a un espacio medible . La definición axiomática técnica requiereser un espacio muestral de una probabilidad triple (ver la definición de la teoría de la medida ). Una variable aleatoria a menudo se denota con letras mayúsculas romanas como, , , . [5] [6]
La probabilidad de que adquiere un valor en un conjunto medible está escrito como
Caso estándar
En muchos casos, es de valor real , es decir. En algunos contextos, el término elemento aleatorio (ver extensiones ) se usa para denotar una variable aleatoria que no tiene esta forma.
Cuando la imagen (o rango) dees contable , la variable aleatoria se llama variable aleatoria discreta [7] : 399 y su distribución es una distribución de probabilidad discreta , es decir, puede describirse mediante una función de masa de probabilidad que asigna una probabilidad a cada valor en la imagen de. Si la imagen es incontablemente infinita (generalmente un intervalo ), entoncesse llama variable aleatoria continua . [8] [ cita requerida ] En el caso especial de que sea absolutamente continuo , su distribución puede describirse mediante una función de densidad de probabilidad , que asigna probabilidades a intervalos; en particular, cada punto individual debe tener necesariamente una probabilidad cero para una variable aleatoria absolutamente continua. No todas las variables aleatorias continuas son absolutamente continuas, [9] una distribución de mezcla es uno de esos contraejemplos; tales variables aleatorias no pueden describirse mediante una densidad de probabilidad o una función de masa de probabilidad.
Cualquier variable aleatoria puede describirse por su función de distribución acumulativa , que describe la probabilidad de que la variable aleatoria sea menor o igual a un cierto valor.
Extensiones
El término "variable aleatoria" en las estadísticas se limita tradicionalmente al caso de valor real (). En este caso, la estructura de los números reales permite definir cantidades como el valor esperado y la varianza de una variable aleatoria, su función de distribución acumulativa y los momentos de su distribución.
Sin embargo, la definición anterior es válida para cualquier espacio medible de valores. Por tanto, se pueden considerar elementos aleatorios de otros conjuntos, como valores booleanos aleatorios , valores categóricos , números complejos , vectores , matrices , secuencias , árboles , conjuntos , formas , variedades y funciones . Entonces uno puede referirse específicamente a una variable aleatoria de tipo , o un -Variable aleatoria valorada .
Este concepto más general de un elemento aleatorio es particularmente útil en disciplinas como la teoría de grafos , el aprendizaje automático , el procesamiento del lenguaje natural y otros campos de las matemáticas discretas y la informática , donde a menudo uno está interesado en modelar la variación aleatoria de datos no numéricos . estructuras . En algunos casos, no obstante, es conveniente representar cada elemento de, utilizando uno o más números reales. En este caso, un elemento aleatorio se puede representar opcionalmente como un vector de variables aleatorias de valor real (todas definidas en el mismo espacio de probabilidad subyacente, que permite covariar las diferentes variables aleatorias ). Por ejemplo:
- Una palabra aleatoria se puede representar como un número entero aleatorio que sirve como índice del vocabulario de palabras posibles. Alternativamente, se puede representar como un vector indicador aleatorio, cuya longitud es igual al tamaño del vocabulario, donde los únicos valores de probabilidad positiva son, , y la posición del 1 indica la palabra.
- Una oración aleatoria de longitud determinada puede representarse como un vector de palabras aleatorias.
- Un gráfico aleatorio en vértices dados se pueden representar como un matriz de variables aleatorias, cuyos valores especifican la matriz de adyacencia del gráfico aleatorio.
- Una función aleatoria puede representarse como una colección de variables aleatorias , dando los valores de la función en los distintos puntos en el dominio de la función. Lason variables aleatorias ordinarias de valor real siempre que la función sea de valor real. Por ejemplo, un proceso estocástico es una función aleatoria del tiempo, un vector aleatorio es una función aleatoria de algún conjunto de índices como, y el campo aleatorio es una función aleatoria en cualquier conjunto (normalmente tiempo, espacio o un conjunto discreto).
Funciones de distribución
Si una variable aleatoria definido en el espacio de probabilidad se da, podemos hacer preguntas como "¿Qué probabilidad hay de que el valor de es igual a 2? ". Esto es lo mismo que la probabilidad del evento que a menudo se escribe como o para abreviar.
Registrar todas estas probabilidades de rangos de salida de una variable aleatoria de valor real produce la distribución de probabilidad de. La distribución de probabilidad "olvida" el espacio de probabilidad particular utilizado para definir y solo registra las probabilidades de varios valores de . Esta distribución de probabilidad siempre puede ser capturada por su función de distribución acumulativa.
y a veces también usando una función de densidad de probabilidad ,. En términos de la teoría de la medida , usamos la variable aleatoria para "impulsar" la medida en a una medida en . El espacio de probabilidad subyacentees un dispositivo técnico que se utiliza para garantizar la existencia de variables aleatorias, a veces para construirlas, y para definir nociones como correlación y dependencia o independencia a partir de una distribución conjunta de dos o más variables aleatorias en un mismo espacio de probabilidad. En la práctica, a menudo se dispone del espacio en conjunto y solo pone una medida en que asigna la medida 1 a toda la línea real, es decir, se trabaja con distribuciones de probabilidad en lugar de variables aleatorias. Consulte el artículo sobre funciones cuantílicas para un desarrollo más completo.
Ejemplos de
Variable aleatoria discreta
En un experimento, se puede elegir una persona al azar y una variable aleatoria puede ser la altura de la persona. Matemáticamente, la variable aleatoria se interpreta como una función que asigna a la persona a su altura. Asociada con la variable aleatoria hay una distribución de probabilidad que permite calcular la probabilidad de que la altura esté en cualquier subconjunto de valores posibles, como la probabilidad de que la altura esté entre 180 y 190 cm, o la probabilidad de que la altura sea menor. de 150 o más de 200 cm.
Otra variable aleatoria puede ser el número de hijos de la persona; esta es una variable aleatoria discreta con valores enteros no negativos. Permite el cálculo de probabilidades para valores enteros individuales, la función de masa de probabilidad (PMF), o para conjuntos de valores, incluidos conjuntos infinitos. Por ejemplo, el evento de interés puede ser "un número par de niños". Tanto para conjuntos de eventos finitos como infinitos, sus probabilidades se pueden encontrar sumando los PMF de los elementos; es decir, la probabilidad de un número par de hijos es la suma infinita.
En ejemplos como estos, el espacio muestral a menudo se suprime, ya que es matemáticamente difícil de describir, y los posibles valores de las variables aleatorias se tratan como un espacio muestral. Pero cuando se miden dos variables aleatorias en el mismo espacio muestral de resultados, como la altura y el número de niños que se calculan en las mismas personas aleatorias, es más fácil rastrear su relación si se reconoce que tanto la altura como el número de niños vienen de la misma persona aleatoria, por ejemplo, para que se puedan plantear preguntas sobre si tales variables aleatorias están correlacionadas o no.
Si son conjuntos contables de números reales, y , luego es una función de distribución discreta. Aquí por , por . Tomando, por ejemplo, una enumeración de todos los números racionales como, se obtiene una función de distribución discreta que no es una función escalonada ni una constante por partes. [7]
Lanzamiento de la moneda
Los posibles resultados de un lanzamiento de moneda se pueden describir mediante el espacio muestral . Podemos introducir una variable aleatoria de valor real que modela un pago de $ 1 por una apuesta exitosa en cara de la siguiente manera:
Si la moneda es una moneda justa , Y tiene una función de masa de probabilidad dada por:
Tirada de dados
También se puede utilizar una variable aleatoria para describir el proceso de tirar los dados y los posibles resultados. La representación más obvia para el caso de dos dados es tomar el conjunto de pares de números n 1 y n 2 de {1, 2, 3, 4, 5, 6} (que representan los números en los dos dados) como muestra. espacio. El número total obtenido (la suma de los números en cada par) es entonces una variable aleatoria X dada por la función que asigna el par a la suma:
y (si los dados son justos ) tiene una función de masa de probabilidad ƒ X dada por:
Variable aleatoria continua
Formalmente, una variable aleatoria continua es una variable aleatoria cuya función de distribución acumulativa es continua en todas partes. [10] No hay " huecos ", que corresponderían a números que tienen una probabilidad finita de ocurrir . En cambio, las variables aleatorias continuas casi nunca toman un valor prescrito exacto c (formalmente,) pero existe una probabilidad positiva de que su valor se encuentre en intervalos particulares que pueden ser arbitrariamente pequeños . Las variables aleatorias continuas suelen admitir funciones de densidad de probabilidad (PDF), que caracterizan su CDF y sus medidas de probabilidad ; tales distribuciones también se denominan absolutamente continuas ; pero algunas distribuciones continuas son singulares o mezclas de una parte absolutamente continua y una parte singular.
Un ejemplo de una variable aleatoria continua sería una basada en una ruleta que puede elegir una dirección horizontal. Entonces los valores tomados por la variable aleatoria son direcciones. Podríamos representar estas direcciones por Norte, Oeste, Este, Sur, Sureste, etc. Sin embargo, comúnmente es más conveniente mapear el espacio muestral a una variable aleatoria que toma valores que son números reales. Esto se puede hacer, por ejemplo, asignando una dirección a un rumbo en grados en el sentido de las agujas del reloj desde el norte. La variable aleatoria toma valores que son números reales del intervalo [0, 360), siendo todas las partes del rango "igualmente probables". En este caso, X = el ángulo girado. Cualquier número real tiene probabilidad cero de ser seleccionado, pero se puede asignar una probabilidad positiva a cualquier rango de valores. Por ejemplo, la probabilidad de elegir un número en [0, 180] es 1 ⁄ 2 . En lugar de hablar de una función de masa de probabilidad, decimos que la densidad de probabilidad de X es 1/360. La probabilidad de un subconjunto de [0, 360) se puede calcular multiplicando la medida del conjunto por 1/360. En general, la probabilidad de un conjunto para una variable aleatoria continua dada se puede calcular integrando la densidad sobre el conjunto dado.
Más formalmente, dado cualquier intervalo , una variable aleatoria se denomina " variable aleatoria uniforme continua " (CURV) si la probabilidad de que tome un valor en un subintervalo depende únicamente de la longitud del subintervalo. Esto implica que la probabilidad de cayendo en cualquier subintervalo es proporcional a la longitud del subintervalo, es decir, si a ≤ c ≤ d ≤ b , uno tiene
donde la última igualdad resulta del axioma de probabilidad unitario . La función de densidad de probabilidad de una CURVviene dada por la función indicadora de su intervalo de soporte normalizado por la longitud del intervalo:
Tipo mixto
Una variable aleatoria mixta es una variable aleatoria cuya función de distribución acumulativa no es constante por partes (una variable aleatoria discreta) ni continua en todas partes . [10] Puede realizarse como la suma de una variable aleatoria discreta y una variable aleatoria continua; en cuyo caso la CDF será el promedio ponderado de las CDF de las variables componentes. [10]
Un ejemplo de una variable aleatoria de tipo mixto se basaría en un experimento en el que se lanza una moneda y se hace girar la ruleta solo si el resultado del lanzamiento de la moneda es cara. Si el resultado es cruz, X = −1; de lo contrario, X = el valor de la ruleta como en el ejemplo anterior. Hay una probabilidad de 1 ⁄ 2 que esta variable aleatoria tendrá el valor -1. Otros rangos de valores tendrían la mitad de las probabilidades del último ejemplo.
De manera más general, cada distribución de probabilidad en la línea real es una mezcla de parte discreta, parte singular y parte absolutamente continua; véase el teorema de descomposición de Lebesgue § Refinamiento . La parte discreta se concentra en un conjunto contable, pero este conjunto puede ser denso (como el conjunto de todos los números racionales).
Definición de la teoría de la medida
La definición axiomática más formal de una variable aleatoria involucra la teoría de la medida . Las variables aleatorias continuas se definen en términos de conjuntos de números, junto con funciones que asignan dichos conjuntos a probabilidades. Debido a varias dificultades (por ejemplo, la paradoja de Banach-Tarski ) que surgen si tales conjuntos están insuficientemente restringidos, es necesario introducir lo que se denomina un sigma-álgebra para restringir los posibles conjuntos sobre los cuales se pueden definir probabilidades. Normalmente, se utiliza una sigma-álgebra en particular, la σ-álgebra de Borel , que permite definir probabilidades sobre cualquier conjunto que pueda derivarse directamente de intervalos continuos de números o mediante un número finito o numerablemente infinito de uniones y / o intersecciones de tales intervalos. [2]
La definición de la teoría de la medida es la siguiente.
Dejar ser un espacio de probabilidad yun espacio medible . Entonces un-la variable aleatoria valorada es una función medible, lo que significa que, para cada subconjunto , su preimagen es-mensurable; , dónde . [11] Esta definición nos permite medir cualquier subconjunto en el espacio de destino mirando su preimagen, que por supuesto es medible.
En términos más intuitivos, un miembro de es un resultado posible, un miembro de es un subconjunto medible de posibles resultados, la función da la probabilidad de cada subconjunto medible, representa el conjunto de valores que puede tomar la variable aleatoria (como el conjunto de números reales), y un miembro de es un subconjunto (medible) de "buen comportamiento" de (aquellos para los que se puede determinar la probabilidad). La variable aleatoria es entonces una función de cualquier resultado a una cantidad, de modo que los resultados que conducen a cualquier subconjunto útil de cantidades para la variable aleatoria tienen una probabilidad bien definida.
Cuándo es un espacio topológico , entonces la opción más común para el σ-álgebra es el σ-álgebra de Borel , que es la σ-álgebra generada por la colección de todos los conjuntos abiertos en . En tal caso elvariable aleatoria valorada se llama -Variable aleatoria valorada . Además, cuando el espacio es la linea real , entonces dicha variable aleatoria de valor real se denomina simplemente variable aleatoria .
Variables aleatorias de valor real
En este caso, el espacio de observación es el conjunto de números reales. Recordar,es el espacio de probabilidad. Para un espacio de observación real, la función es una variable aleatoria de valor real si
Esta definición es un caso especial de lo anterior porque el conjunto genera el σ-álgebra de Borel sobre el conjunto de números reales, y es suficiente para comprobar la mensurabilidad en cualquier conjunto generador. Aquí podemos probar la mensurabilidad en este grupo electrógeno utilizando el hecho de que.
Momentos
La distribución de probabilidad de una variable aleatoria se caracteriza a menudo por un pequeño número de parámetros, que también tienen una interpretación práctica. Por ejemplo, a menudo es suficiente saber cuál es su "valor medio". Esto es capturado por el concepto matemático de valor esperado de una variable aleatoria, denotado, y también llamado primer momento . En general, no es igual a . Una vez que se conoce el "valor promedio", uno podría preguntarse a qué distancia de este valor promedio se encuentran los valores detípicamente son, una pregunta que se responde mediante la varianza y la desviación estándar de una variable aleatoria. puede verse intuitivamente como un promedio obtenido de una población infinita, cuyos miembros son evaluaciones particulares de .
Matemáticamente, esto se conoce como el problema (generalizado) de momentos : para una clase dada de variables aleatorias, encuentra una colección de funciones tales que los valores esperados caracterizar completamente la distribución de la variable aleatoria.
Los momentos solo se pueden definir para funciones de valor real de variables aleatorias (o de valor complejo, etc.). Si la variable aleatoria en sí misma tiene un valor real, entonces se pueden tomar momentos de la propia variable, que son equivalentes a momentos de la función identidadde la variable aleatoria. Sin embargo, incluso para las variables aleatorias de valor no real, se pueden tomar momentos de las funciones de valor real de esas variables. Por ejemplo, para una variable aleatoria categórica X que puede tomar los valores nominales "rojo", "azul" o "verde", la función de valor realse puede construir; esto usa el corchete Iverson , y tiene el valor 1 sitiene el valor "verde", 0 en caso contrario. Luego, se puede determinar el valor esperado y otros momentos de esta función.
Funciones de variables aleatorias
Se puede definir una nueva variable aleatoria Y aplicando una función medible de Borel real a los resultados de una variable aleatoria de valor real. Es decir,. La función de distribución acumulativa de is then
If function is invertible (i.e., exists, where is 's inverse function) and is either increasing or decreasing, then the previous relation can be extended to obtain
With the same hypotheses of invertibility of , assuming also differentiability, the relation between the probability density functions can be found by differentiating both sides of the above expression with respect to , in order to obtain[10]
If there is no invertibility of but each admits at most a countable number of roots (i.e., a finite, or countably infinite, number of such that ) then the previous relation between the probability density functions can be generalized with
where , according to the inverse function theorem. The formulas for densities do not demand to be increasing.
In the measure-theoretic, axiomatic approach to probability, if a random variable on and a Borel measurable function , then is also a random variable on , since the composition of measurable functions is also measurable. (However, this is not necessarily true if is Lebesgue measurable.[citation needed]) The same procedure that allowed one to go from a probability space to can be used to obtain the distribution of .
Example 1
Let be a real-valued, continuous random variable and let .
If , then , so
If , then
so
Example 2
Suppose is a random variable with a cumulative distribution
where is a fixed parameter. Consider the random variable Then,
The last expression can be calculated in terms of the cumulative distribution of so
which is the cumulative distribution function (CDF) of an exponential distribution.
Example 3
Suppose is a random variable with a standard normal distribution, whose density is
Consider the random variable We can find the density using the above formula for a change of variables:
In this case the change is not monotonic, because every value of has two corresponding values of (one positive and negative). However, because of symmetry, both halves will transform identically, i.e.,
The inverse transformation is
and its derivative is
Then,
This is a chi-squared distribution with one degree of freedom.
Example 4
Suppose is a random variable with a normal distribution, whose density is
Consider the random variable We can find the density using the above formula for a change of variables:
In this case the change is not monotonic, because every value of has two corresponding values of (one positive and negative). Differently from the previous example, in this case however, there is no symmetry and we have to compute the two distinct terms:
The inverse transformation is
and its derivative is
Then,
This is a noncentral chi-squared distribution with one degree of freedom.
Algunas propiedades
- The probability distribution of the sum of two independent random variables is the convolution of each of their distributions.
- Probability distributions are not a vector space—they are not closed under linear combinations, as these do not preserve non-negativity or total integral 1—but they are closed under convex combination, thus forming a convex subset of the space of functions (or measures).
Equivalencia de variables aleatorias
There are several different senses in which random variables can be considered to be equivalent. Two random variables can be equal, equal almost surely, or equal in distribution.
In increasing order of strength, the precise definition of these notions of equivalence is given below.
Equality in distribution
If the sample space is a subset of the real line, random variables X and Y are equal in distribution (denoted ) if they have the same distribution functions:
To be equal in distribution, random variables need not be defined on the same probability space. Two random variables having equal moment generating functions have the same distribution. This provides, for example, a useful method of checking equality of certain functions of independent, identically distributed (IID) random variables. However, the moment generating function exists only for distributions that have a defined Laplace transform.
Almost sure equality
Two random variables X and Y are equal almost surely (denoted ) if, and only if, the probability that they are different is zero:
For all practical purposes in probability theory, this notion of equivalence is as strong as actual equality. It is associated to the following distance:
where "ess sup" represents the essential supremum in the sense of measure theory.
Equality
Finally, the two random variables X and Y are equal if they are equal as functions on their measurable space:
This notion is typically the least useful in probability theory because in practice and in theory, the underlying measure space of the experiment is rarely explicitly characterized or even characterizable.
Convergencia
A significant theme in mathematical statistics consists of obtaining convergence results for certain sequences of random variables; for instance the law of large numbers and the central limit theorem.
There are various senses in which a sequence of random variables can converge to a random variable . These are explained in the article on convergence of random variables.
Ver también
- Aleatoricism
- Algebra of random variables
- Event (probability theory)
- Multivariate random variable
- Pairwise independent random variables
- Observable variable
- Random element
- Random function
- Random measure
- Random number generator produces a random value
- Random vector
- Randomness
- Stochastic process
- Relationships among probability distributions
Referencias
Inline citations
- ^ a b Blitzstein, Joe; Hwang, Jessica (2014). Introduction to Probability. CRC Press. ISBN 9781466575592.
- ^ a b Steigerwald, Douglas G. "Economics 245A – Introduction to Measure Theory" (PDF). University of California, Santa Barbara. Retrieved April 26, 2013.
- ^ "Christiaan Huygens | Encyclopedia.com". www.encyclopedia.com. Retrieved 2021-03-12.
- ^ George Mackey (July 1980). "HARMONIC ANALYSIS AS THE EXPLOITATION OF SYMMETRY - A HISTORICAL SURVEY". Bulletin of the American Mathematical Society. New Series. 3 (1).
- ^ a b "List of Probability and Statistics Symbols". Math Vault. 2020-04-26. Retrieved 2020-08-21.
- ^ "Random Variables". www.mathsisfun.com. Retrieved 2020-08-21.
- ^ a b Yates, Daniel S.; Moore, David S; Starnes, Daren S. (2003). The Practice of Statistics (2nd ed.). New York: Freeman. ISBN 978-0-7167-4773-4. Archived from the original on 2005-02-09.
- ^ "Random Variables". www.stat.yale.edu. Retrieved 2020-08-21.
- ^ L. Castañeda; V. Arunachalam & S. Dharmaraja (2012). Introduction to Probability and Stochastic Processes with Applications. Wiley. p. 67. ISBN 9781118344941.
- ^ a b c d Bertsekas, Dimitri P. (2002). Introduction to Probability. Tsitsiklis, John N., Τσιτσικλής, Γιάννης Ν. Belmont, Mass.: Athena Scientific. ISBN 188652940X. OCLC 51441829.
- ^ Fristedt & Gray (1996, page 11)
Literature
- Fristedt, Bert; Gray, Lawrence (1996). A modern approach to probability theory. Boston: Birkhäuser. ISBN 3-7643-3807-5.
- Kallenberg, Olav (1986). Random Measures (4th ed.). Berlin: Akademie Verlag. ISBN 0-12-394960-2. MR 0854102.
- Kallenberg, Olav (2001). Foundations of Modern Probability (2nd ed.). Berlin: Springer Verlag. ISBN 0-387-95313-2.
- Papoulis, Athanasios (1965). Probability, Random Variables, and Stochastic Processes (9th ed.). Tokyo: McGraw–Hill. ISBN 0-07-119981-0.
enlaces externos
- "Random variable", Encyclopedia of Mathematics, EMS Press, 2001 [1994]
- Zukerman, Moshe (2014), Introduction to Queueing Theory and Stochastic Teletraffic Models (PDF), arXiv:1307.2968
- Zukerman, Moshe (2014), Basic Probability Topics (PDF)