La probabilidad es la rama de las matemáticas relacionada con las descripciones numéricas de la probabilidad de que ocurra un evento o de la probabilidad de que una proposición sea verdadera. La probabilidad de un evento es un número entre 0 y 1, donde, a grandes rasgos, 0 indica la imposibilidad del evento y 1 indica certeza. [nota 1] [1] [2]Cuanto mayor sea la probabilidad de que se produzca un evento, mayor será la probabilidad de que ocurra. Un ejemplo simple es el lanzamiento de una moneda justa (imparcial). Dado que la moneda es justa, los dos resultados ("cara" y "cruz") son igualmente probables; la probabilidad de "cara" es igual a la probabilidad de "cruz"; y dado que no son posibles otros resultados, la probabilidad de "cara" o "cruz" es 1/2 (que también podría escribirse como 0,5 o 50%).

A estos conceptos se les ha dado una formalización matemática axiomática en la teoría de la probabilidad , que se utiliza ampliamente en áreas de estudio como estadística , matemáticas , ciencia , finanzas , juegos de azar , inteligencia artificial , aprendizaje automático , informática , teoría de juegos y filosofía para, para Por ejemplo, hacer inferencias sobre la frecuencia esperada de eventos. La teoría de la probabilidad también se utiliza para describir la mecánica subyacente y las regularidades de sistemas complejos . [3]
Interpretaciones
Cuando se trata de experimentos que son al azar y bien definido en un entorno puramente teórica (como lanzar una moneda), las probabilidades se pueden describir numéricamente por el número de resultados deseados, dividido por el número total de todos los resultados. Por ejemplo, lanzar una moneda justa dos veces arrojará resultados de "cara a cara", "cara a cola", "cola a cabeza" y "cola a cola". La probabilidad de obtener un resultado de "cabeza a cabeza" es 1 de 4 resultados o, en términos numéricos, 1/4, 0,25 o 25%. Sin embargo, cuando se trata de la aplicación práctica, hay dos categorías principales en competencia de interpretaciones de probabilidad, cuyos adherentes tienen diferentes puntos de vista sobre la naturaleza fundamental de la probabilidad:
- Los objetivistas asignan números para describir algún estado de cosas objetivo o físico. La versión más popular de probabilidad objetiva es la probabilidad frecuentista , que afirma que la probabilidad de un evento aleatorio denota la frecuencia relativa de ocurrencia del resultado de un experimento cuando el experimento se repite indefinidamente. Esta interpretación considera que la probabilidad es la frecuencia relativa "a largo plazo" de los resultados. [4] Una modificación de esto es la probabilidad de propensión , que interpreta la probabilidad como la tendencia de algún experimento a producir un resultado determinado, incluso si se realiza solo una vez.
- Los subjetivistas asignan números por probabilidad subjetiva, es decir, como un grado de creencia. [5] El grado de creencia se ha interpretado como "el precio al que comprarías o venderías una apuesta que paga 1 unidad de utilidad si E, 0 si no E". [6] La versión más popular de probabilidad subjetiva es la probabilidad bayesiana , que incluye conocimientos de expertos y datos experimentales para producir probabilidades. El conocimiento experto está representado por alguna distribución de probabilidad previa (subjetiva) . Estos datos se incorporan en una función de verosimilitud . El producto de la probabilidad previa y la probabilidad, cuando se normaliza, da como resultado una distribución de probabilidad posterior que incorpora toda la información conocida hasta la fecha. [7] Según el teorema de acuerdo de Aumann , los agentes bayesianos cuyas creencias previas son similares terminarán con creencias posteriores similares. Sin embargo, antecedentes suficientemente diferentes pueden llevar a conclusiones diferentes, independientemente de cuánta información compartan los agentes. [8]
Etimología
La palabra probabilidad deriva del latín probabilitas , que también puede significar " probidad ", una medida de la autoridad de un testigo en un caso legal en Europa , y a menudo se correlaciona con la nobleza del testigo . En cierto sentido, esto difiere mucho del significado moderno de probabilidad , que en contraste es una medida del peso de la evidencia empírica , y se llega a él a partir del razonamiento inductivo y la inferencia estadística . [9]
Historia
El estudio científico de la probabilidad es un desarrollo moderno de las matemáticas . El juego muestra que ha habido interés en cuantificar las ideas de probabilidad durante milenios, pero las descripciones matemáticas exactas surgieron mucho más tarde. Hay razones para el lento desarrollo de las matemáticas de la probabilidad. Mientras que los juegos de azar proporcionaron el ímpetu para el estudio matemático de la probabilidad, las cuestiones fundamentales [nota 2] todavía están oscurecidas por las supersticiones de los jugadores. [10]
Según Richard Jeffrey , "Antes de mediados del siglo XVII, el término 'probable' (latín probabilis ) significaba aprobable , y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción. Una acción u opinión probable era aquella como la gente sensata emprendería o mantendría, dadas las circunstancias ". [11] Sin embargo, en contextos legales especialmente, 'probable' también podría aplicarse a proposiciones para las cuales hay buena evidencia. [12]

La primera forma de inferencia estadística fue desarrollada por matemáticos de Oriente Medio que estudiaron la criptografía entre los siglos VIII y XIII. Al-Khalil (717–786) escribió el Libro de mensajes criptográficos que contiene el primer uso de permutaciones y combinaciones para enumerar todas las palabras árabes posibles con y sin vocales. Al-Kindi (801–873) hizo el primer uso conocido de la inferencia estadística en su trabajo sobre criptoanálisis y análisis de frecuencia . Una contribución importante de Ibn Adlan (1187-1268) fue el tamaño de la muestra para el uso del análisis de frecuencia. [13]

El erudito italiano del siglo XVI Gerolamo Cardano demostró la eficacia de definir las probabilidades como la proporción de resultados favorables a desfavorables (lo que implica que la probabilidad de un evento viene dada por la proporción de resultados favorables al número total de resultados posibles [14] ). . Aparte de la obra elemental de Cardano, la doctrina de las probabilidades se remonta a la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) dio el primer tratamiento científico conocido del tema. [15] Jakob Bernoulli 's Ars Conjectandi (póstumo, 1713) y Abraham de Moivre ' s Doctrina de probable (1718) tratados al sujeto como una rama de las matemáticas. [16] Véase Ian Hacking 's La aparición de la probabilidad [9] y de James Franklin La ciencia de la conjetura [17] para las historias del desarrollo temprano del propio concepto de probabilidad matemática.
La teoría de los errores se remonta a la Opera Miscellanea de Roger Cotes (póstuma, 1722), pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó por primera vez la teoría a la discusión de los errores de observación. [18] La reimpresión (1757) de estas memorias establece el axioma de que los errores positivos y negativos son igualmente probables, y que ciertos límites asignables definen el rango de todos los errores. Simpson también analiza los errores continuos y describe una curva de probabilidad.
Las dos primeras leyes del error que se propusieron se originaron en Pierre-Simon Laplace . La primera ley se publicó en 1774 y establecía que la frecuencia de un error podía expresarse como una función exponencial de la magnitud numérica del error, sin tener en cuenta el signo. La segunda ley del error fue propuesta en 1778 por Laplace y afirmó que la frecuencia del error es una función exponencial del cuadrado del error. [19] La segunda ley del error se llama distribución normal o ley de Gauss. "Históricamente es difícil atribuir esa ley a Gauss, quien, a pesar de su conocida precocidad, probablemente no había hecho este descubrimiento antes de los dos años". [19]
Daniel Bernoulli (1778) introdujo el principio del producto máximo de las probabilidades de un sistema de errores concurrentes.
Adrien-Marie Legendre (1805) desarrolló el método de los mínimos cuadrados y lo introdujo en sus Nouvelles méthodes pour la détermination des orbites des comètes ( Nuevos métodos para determinar las órbitas de los cometas ). [20] En ignorancia de la contribución de Legendre, un escritor irlandés-estadounidense, Robert Adrain , editor de "The Analyst" (1808), dedujo por primera vez la ley de la facilidad del error,
dónde es una constante que depende de la precisión de la observación, y es un factor de escala que asegura que el área bajo la curva es igual a 1. Dio dos demostraciones, siendo la segunda esencialmente la misma que la de John Herschel (1850). [ cita requerida ] Gauss dio la primera prueba que parece haber sido conocida en Europa (la tercera después de Adrain) en 1809. Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826) dieron más pruebas . , Hagen (1837), Friedrich Bessel (1838), WF Donkin (1844, 1856) y Morgan Crofton (1870). Otros colaboradores fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) [se necesita aclaración ] para r , el error probable de una sola observación, es bien conocida.
En el siglo XIX, los autores de la teoría general incluyeron a Laplace , Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion. y Karl Pearson . Augustus De Morgan y George Boole mejoraron la exposición de la teoría.
En 1906, Andrey Markov introdujo [21] la noción de cadenas de Markov , que jugó un papel importante en la teoría de los procesos estocásticos y sus aplicaciones. La teoría moderna de la probabilidad basada en la teoría de la medida fue desarrollada por Andrey Kolmogorov en 1931. [22]
En el lado geométrico, los colaboradores de The Educational Times fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson y Artemas Martin ). [23] Consulte geometría integral para obtener más información.
Teoría
Como otras teorías , la teoría de la probabilidad es una representación de sus conceptos en términos formales, es decir, en términos que pueden considerarse por separado de su significado. Estos términos formales son manipulados por las reglas de las matemáticas y la lógica, y cualquier resultado es interpretado o traducido al dominio del problema.
Ha habido al menos dos intentos exitosos de formalizar la probabilidad, a saber, la formulación de Kolmogorov y la formulación de Cox . En la formulación de Kolmogorov (ver también espacio de probabilidad ), los conjuntos se interpretan como eventos y la probabilidad como una medida en una clase de conjuntos. En el teorema de Cox , la probabilidad se toma como una primitiva (es decir, no se analiza más a fondo), y el énfasis está en construir una asignación consistente de valores de probabilidad a las proposiciones. En ambos casos, las leyes de la probabilidad son las mismas, excepto por los detalles técnicos.
Existen otros métodos para cuantificar la incertidumbre, como la teoría de Dempster-Shafer o la teoría de la posibilidad , pero son esencialmente diferentes y no compatibles con las leyes de probabilidad generalmente entendidas.
Aplicaciones
La teoría de la probabilidad se aplica en la vida diaria en la evaluación y el modelado de riesgos . La industria y los mercados de seguros utilizan la ciencia actuarial para determinar los precios y tomar decisiones comerciales. Los gobiernos aplican métodos probabilísticos en la regulación ambiental , el análisis de derechos y la regulación financiera .
Un ejemplo del uso de la teoría de la probabilidad en el comercio de acciones es el efecto de la probabilidad percibida de cualquier conflicto generalizado en Oriente Medio sobre los precios del petróleo, que tiene un efecto dominó en la economía en su conjunto. Una evaluación por parte de un comerciante de materias primas de que es más probable que haya una guerra puede hacer subir o bajar los precios de esas materias primas, y señala a otros comerciantes de esa opinión. En consecuencia, las probabilidades no se evalúan de forma independiente ni necesariamente racional. La teoría de las finanzas conductuales surgió para describir el efecto de dicho pensamiento grupal sobre los precios, las políticas y la paz y los conflictos. [24]
Además de la evaluación financiera, la probabilidad se puede utilizar para analizar tendencias en biología (p. Ej., Propagación de enfermedades) y ecología (p. Ej., Cuadrados de Punnett biológicos). Al igual que con las finanzas, la evaluación de riesgos se puede utilizar como una herramienta estadística para calcular la probabilidad de que ocurran eventos indeseables y puede ayudar con la implementación de protocolos para evitar encontrar tales circunstancias. La probabilidad se utiliza para diseñar juegos de azar de modo que los casinos puedan obtener una ganancia garantizada y, al mismo tiempo, proporcionar pagos a los jugadores que son lo suficientemente frecuentes como para fomentar el juego continuo. [25]
El descubrimiento de métodos rigurosos para evaluar y combinar evaluaciones de probabilidad ha cambiado la sociedad. [26] [ cita requerida ]
Otra aplicación significativa de la teoría de la probabilidad en la vida cotidiana es la confiabilidad . Muchos productos de consumo, como los automóviles y la electrónica de consumo, utilizan la teoría de la confiabilidad en el diseño de productos para reducir la probabilidad de fallas. La probabilidad de falla puede influir en las decisiones del fabricante sobre la garantía de un producto . [27]
El modelo de lenguaje de caché y otros modelos de lenguaje estadístico que se utilizan en el procesamiento del lenguaje natural también son ejemplos de aplicaciones de la teoría de la probabilidad.
Tratamiento matemático

Considere un experimento que puede producir varios resultados. La colección de todos los resultados posibles se denomina espacio muestral del experimento, a veces denotado como. [28] El conjunto de potencias del espacio muestral se forma considerando todas las diferentes colecciones de resultados posibles. Por ejemplo, lanzar un dado puede producir seis resultados posibles. Una colección de posibles resultados da un número impar en el dado. Por tanto, el subconjunto {1,3,5} es un elemento del conjunto de potencias del espacio muestral de las tiradas de dados. Estas colecciones se denominan "eventos". En este caso, {1,3,5} es el caso de que el dado caiga en algún número impar. Si los resultados que realmente ocurren caen en un evento dado, se dice que el evento ocurrió.
Una probabilidad es una forma de asignar a cada evento un valor entre cero y uno, con el requisito de que el evento compuesto por todos los resultados posibles (en nuestro ejemplo, el evento {1,2,3,4,5,6}) sea asignado un valor de uno. Para calificar como probabilidad, la asignación de valores debe satisfacer el requisito de que para cualquier colección de eventos mutuamente excluyentes (eventos sin resultados comunes, como los eventos {1,6}, {3} y {2,4}) , la probabilidad de que ocurra al menos uno de los eventos viene dada por la suma de las probabilidades de todos los eventos individuales. [29]
La probabilidad de un evento A se escribe como, [28] [30] , o . [31] Esta definición matemática de probabilidad puede extenderse a espacios muestrales infinitos, e incluso espacios muestrales incontables, utilizando el concepto de medida.
El opuesto o complemento de un evento A es el evento [no A ] (es decir, el evento de A que no ocurre), a menudo denotado como, [28] , o ; su probabilidad está dada por P (no A ) = 1 - P ( A ) . [32] Como ejemplo, la posibilidad de no sacar un seis en un dado de seis caras es 1 - (posibilidad de sacar un seis). Para un tratamiento más completo, consulte Evento complementario .
Si dos eventos A y B ocurren en una sola ejecución de un experimento, esto se llama la intersección o probabilidad conjunta de A y B , denotada como. [28]
Eventos independientes
Si dos eventos, A y B son independientes, entonces la probabilidad conjunta es [30]
Por ejemplo, si se lanzan dos monedas, la probabilidad de que ambas salgan cara es . [33]
Eventos mutuamente excluyentes
Si el evento A o el evento B pueden ocurrir pero nunca ambos simultáneamente, entonces se denominan eventos mutuamente excluyentes.
Si dos eventos son mutuamente excluyentes , entonces la probabilidad de que ambos ocurran se denota como y
Si dos eventos son mutuamente excluyentes , entonces la probabilidad de que ocurra cualquiera se denota como y
Por ejemplo, la probabilidad de sacar 1 o 2 en un dado de seis caras es
No eventos mutuamente excluyentes
Si los eventos no son mutuamente excluyentes, entonces
Por ejemplo, al robar una sola carta al azar de una baraja de cartas normal, la posibilidad de obtener un corazón o una figura (J, Q, K) (o una que sea ambas) es , ya que entre las 52 cartas de una baraja, 13 son corazones, 12 son figuras y 3 son ambas: aquí las posibilidades incluidas en los "3 que son los dos" se incluyen en cada uno de los "13 corazones" y en el "12 cartas con figuras ", pero solo deben contarse una vez.
La probabilidad condicional
La probabilidad condicional es la probabilidad de un suceso A , dada la aparición de algún otro evento B . La probabilidad condicional se escribe, [28] y se lee "la probabilidad de A , dado B ". Está definido por [34]
Si luego está formalmente indefinido por esta expresión. Sin embargo, es posible definir una probabilidad condicional para algunos eventos de probabilidad cero usando un σ-álgebra de tales eventos (como los que surgen de una variable aleatoria continua ). [ cita requerida ]
Por ejemplo, en una bolsa de 2 bolas rojas y 2 bolas azules (4 bolas en total), la probabilidad de tomar una bola roja es ; sin embargo, al tomar una segunda bola, la probabilidad de que sea una bola roja o una bola azul depende de la bola tomada previamente. Por ejemplo, si se toma una bola roja, entonces la probabilidad de volver a tomar una bola roja sería, ya que solo quedarían 1 bolas rojas y 2 azules.
Probabilidad inversa
En la teoría y aplicaciones de la probabilidad , la regla de Bayes relaciona las probabilidades del evento al evento , antes (antes) y después (después) del condicionamiento en otro evento. Las probabilidades en al evento es simplemente la razón de las probabilidades de los dos eventos. Cuando arbitrariamente muchos eventosson de interés, no solo dos, la regla se puede reformular como posterior es proporcional a la probabilidad de tiempos anteriores , donde el símbolo de proporcionalidad significa que el lado izquierdo es proporcional a (es decir, es igual a una constante por) el lado derecho como varía, para fijo o dado (Lee, 2012; Bertsch McGrayne, 2012). De esta forma se remonta a Laplace (1774) ya Cournot (1843); ver Fienberg (2005). Consulte la probabilidad inversa y la regla de Bayes .
Resumen de probabilidades
Evento | Probabilidad |
---|---|
A | |
No un | |
A o B | |
A y B | |
A dado B |
Relación con la aleatoriedad y la probabilidad en mecánica cuántica
En un universo determinista , basado en conceptos newtonianos , no habría probabilidad si se conocieran todas las condiciones ( el demonio de Laplace ), (pero hay situaciones en las que la sensibilidad a las condiciones iniciales supera nuestra capacidad para medirlas, es decir, conocerlas). En el caso de una rueda de ruleta , si se conoce la fuerza de la mano y el período de esa fuerza, el número en el que la bola se detendrá sería una certeza (aunque, en la práctica, esto probablemente sería cierto solo en un caso concreto). rueda de la ruleta que no había sido nivelada exactamente, como reveló el Casino Newtoniano de Thomas A. Bass ). Esto también presupone el conocimiento de la inercia y la fricción de la rueda, el peso, la suavidad y redondez de la bola, las variaciones en la velocidad de la mano durante el giro, etc. Por tanto, una descripción probabilística puede ser más útil que la mecánica newtoniana para analizar el patrón de resultados de las vueltas repetidas de una rueda de ruleta. Los físicos enfrentan la misma situación en la teoría cinética de los gases , donde el sistema, aunque determinista en principio , es tan complejo (con el número de moléculas típicamente del orden de magnitud de la constante de Avogadro 6.02 × 10 23 ) que solo es factible una descripción estadística de sus propiedades.
Se requiere la teoría de la probabilidad para describir los fenómenos cuánticos. [35] Un descubrimiento revolucionario de la física de principios del siglo XX fue el carácter aleatorio de todos los procesos físicos que ocurren a escalas subatómicas y se rigen por las leyes de la mecánica cuántica . La función de onda objetiva evoluciona de forma determinista pero, según la interpretación de Copenhague , se ocupa de las probabilidades de observación, y el resultado se explica por un colapso de la función de onda cuando se realiza una observación. Sin embargo, la pérdida del determinismo en aras del instrumentalismo no obtuvo la aprobación universal. Albert Einstein comentó en una famosa carta a Max Born : "Estoy convencido de que Dios no juega a los dados". [36] Al igual que Einstein, Erwin Schrödinger , quien descubrió la función de onda, creía que la mecánica cuántica es una aproximación estadística de una realidad determinista subyacente . [37] En algunas interpretaciones modernas de la mecánica estadística de la medición, se invoca la decoherencia cuántica para explicar la aparición de resultados experimentales subjetivamente probabilísticos.
Ver también
- Chance (desambiguación)
- Probabilidades de pertenencia a clases
- Contingencia
- Equiprobabilidad
- Heurística en el juicio y la toma de decisiones.
- Teoría de probabilidad
- Aleatoriedad
- Estadísticas
- Estimadores
- Teoría de la estimación
- Función de densidad de probabilidad
- Independencia por parejas
- Consuegro
- Balance de probabilidades
Notas
- ^ Estrictamente hablando, una probabilidad de 0 indica que un evento casi nunca ocurre, mientras que una probabilidad de 1 indica que es casi seguro que ocurreun evento. Ésta es una distinción importante cuando el espacio muestral es infinito. Por ejemplo, para la distribución uniforme continua en elintervalo real [5, 10], hay un número infinito de resultados posibles, y la probabilidad de que se observe cualquier resultado dado, por ejemplo, exactamente 7, es 0. Esto significa que cuando hacemos una observación, es casi seguro que no será exactamente 7. Sin embargo, no significa que exactamente 7 sea imposible . En última instancia, se observará algún resultado específico (con probabilidad 0), y una posibilidad para ese resultado específico es exactamente 7.
- ↑ En el contexto del libro del que se cita esto, es la teoría de la probabilidad y la lógica detrás de ella la que gobierna los fenómenos de tales cosas en comparación con las predicciones precipitadas que se basan en la pura suerte o argumentos mitológicos como los dioses de la suerte que ayudan a la ganador del juego.
Referencias
- ^ "Teoría avanzada de estadística de Kendall, volumen 1: teoría de la distribución", Alan Stuart y Keith Ord, 6ª edición, (2009), ISBN 978-0-534-24312-8 .
- ^ William Feller, Introducción a la teoría de la probabilidad y sus aplicaciones , (Vol. 1), 3ª Ed. (1968), Wiley, ISBN 0-471-25708-7 .
- ^ Teoría de la probabilidad El sitio web de Britannica
- ^ Hacking, Ian (1965). La lógica de la inferencia estadística . Prensa de la Universidad de Cambridge. ISBN 978-0-521-05165-1.[ página necesaria ]
- ^ Finetti, Bruno de (1970). "Fundamentos lógicos y medida de probabilidad subjetiva". Acta Psychologica . 34 : 129-145. doi : 10.1016 / 0001-6918 (70) 90012-0 .
- ^ Hájek, Alan (21 de octubre de 2002). Edward N. Zalta (ed.). "Interpretaciones de probabilidad" . La Enciclopedia de Filosofía de Stanford (edición de invierno de 2012) . Consultado el 22 de abril de 2013 .
- ^ Hogg, Robert V .; Craig, Allen; McKean, Joseph W. (2004). Introducción a la estadística matemática (6ª ed.). Río Upper Saddle: Pearson. ISBN 978-0-13-008507-8.[ página necesaria ]
- ^ Jaynes, ET (2003). "Sección 5.3 Vistas convergentes y divergentes". En Bretthorst, G. Larry (ed.). Teoría de la probabilidad: la lógica de la ciencia (1 ed.). Prensa de la Universidad de Cambridge. ISBN 978-0-521-59271-0.
- ^ a b Hacking, I. (2006) La aparición de la probabilidad: un estudio filosófico de las primeras ideas sobre probabilidad, inducción e inferencia estadística , Cambridge University Press, ISBN 978-0-521-68557-3 [ página necesaria ]
- ^ Freund, John. (1973) Introducción a la probabilidad . Dickenson ISBN 978-0-8221-0078-2 (pág.1)
- ^ Jeffrey, RC, Probabilidad y el arte del juicio, Cambridge University Press. (1992). págs. 54–55. ISBN 0-521-39459-7
- ^ Franklin, J. (2001) La ciencia de la conjetura: evidencia y probabilidad antes de Pascal, Johns Hopkins University Press. (págs.22, 113, 127)
- ^ Broemeling, Lyle D. (1 de noviembre de 2011). "Una cuenta de la inferencia estadística temprana en criptología árabe". El estadístico estadounidense . 65 (4): 255–257. doi : 10.1198 / tas.2011.10191 . S2CID 123537702 .
- ^ Algunas leyes y problemas en probabilidad clásica y cómo Cardano los anticipó Gorrochum, P. Chance magazine 2012
- ^ Abrams, William, A Brief History of Probability , Second Moment , consultado el 23 de mayo de 2008
- ^ Ivancevic, Vladimir G .; Ivancevic, Tijana T. (2008). Salto cuántico: de Dirac y Feynman, a través del universo, al cuerpo y la mente humanos . Singapur; Hackensack, Nueva Jersey: World Scientific. pag. 16. ISBN 978-981-281-927-7.
- ^ Franklin, James (2001). La ciencia de la conjetura: evidencia y probabilidad antes de Pascal . Prensa de la Universidad Johns Hopkins. ISBN 978-0-8018-6569-5.
- ^ Shoesmith, Eddie (noviembre de 1985). "Thomas Simpson y la media aritmética" . Historia Mathematica . 12 (4): 352–355. doi : 10.1016 / 0315-0860 (85) 90044-8 .
- ^ a b Wilson EB (1923) "Primera y segunda leyes del error". Revista de la Asociación Estadounidense de Estadística , 18, 143
- ^ Seneta, Eugene William. " " Adrien-Marie Legendre "(versión 9)" . StatProb: la enciclopedia patrocinada por sociedades de estadística y probabilidad . Archivado desde el original el 3 de febrero de 2016 . Consultado el 27 de enero de 2016 .
- ^ Weber, Richard. "Cadenas de Markov" (PDF) . Laboratorio de Estadística . Universidad de Cambridge.
- ^ Vitanyi, Paul MB (1988). "Andrei Nikolaevich Kolmogorov" . CWI Quarterly (1): 3–18 . Consultado el 27 de enero de 2016 .
- ^ Wilcox, Rand R. (10 de mayo de 2016). La comprensión y la aplicación de métodos estadísticos básicos usando R . Hoboken, Nueva Jersey. ISBN 978-1-119-06140-3. OCLC 949759319 .
- ^ Singh, Laurie (2010) "¿Dónde mercados eficientes? Teoría del mercado eficiente y finanzas conductuales". El puesto de los profesionales de las finanzas, 2010.
- ^ Gao, JZ; Fong, D .; Liu, X. (abril de 2011). "Análisis matemáticos de los sistemas de reembolso de casino para juegos de azar VIP". Estudios de juego internacional . 11 (1): 93–106. doi : 10.1080 / 14459795.2011.552575 . S2CID 144540412 .
- ^ "Datos: análisis de datos, probabilidad y estadística y gráficos" . archon.educ.kent.edu . Consultado el 28 de mayo de 2017 .
- ^ Gorman, Michael F. (2010). "Management Insights" . Ciencias de la gestión . 56 : iv – vii. doi : 10.1287 / mnsc.1090.1132 .
- ^ a b c d e "Lista de símbolos de probabilidad y estadística" . Bóveda de matemáticas . 26 de abril de 2020 . Consultado el 10 de septiembre de 2020 .
- ^ Ross, Sheldon M. (2010). Un primer curso de probabilidad (8ª ed.). Pearson Prentice Hall. págs. 26-27. ISBN 9780136033134.
- ^ a b Weisstein, Eric W. "Probabilidad" . mathworld.wolfram.com . Consultado el 10 de septiembre de 2020 .
- ^ Olofsson (2005) p. 8.
- ^ Olofsson (2005), p. 9
- ^ Olofsson (2005) p. 35.
- ^ Olofsson (2005) p. 29.
- ^ Burgin, Mark (2010). "Interpretaciones de probabilidades negativas". pag. 1. arXiv : 1008.1287v1 [ physics.data-an ].
- ^ Jedenfalls bin ich überzeugt, daß der Alte nicht würfelt. Carta a Max Born, 4 de diciembre de 1926, en: Einstein / Born Briefwechsel 1916-1955 .
- ^ Moore, WJ (1992). Schrödinger: vida y pensamiento . Prensa de la Universidad de Cambridge . pag. 479. ISBN 978-0-521-43767-7.
Bibliografía
- Kallenberg, O. (2005) Principios de invarianza y simetrías probabilísticas . Springer-Verlag, Nueva York. 510 págs. ISBN 0-387-25115-4
- Kallenberg, O. (2002) Fundamentos de la probabilidad moderna, 2ª ed. Springer Series en Estadística. 650 págs. ISBN 0-387-95313-2
- Olofsson, Peter (2005) Probabilidad, estadística y procesos estocásticos , Wiley-Interscience. 504 págs ISBN 0-471-67969-0 .
enlaces externos
- Laboratorios virtuales de probabilidad y estadística (Univ. De Ala.-Huntsville)
- Probabilidad en In Our Time en la BBC
- EBook de probabilidad y estadística
- Edwin Thompson Jaynes . Teoría de la probabilidad: la lógica de la ciencia . Preimpresión: Universidad de Washington, (1996). - Índice HTML con enlaces a archivos PostScript y PDF (primeros tres capítulos)
- Personas de la Historia de la Probabilidad y la Estadística (Univ. De Southampton)
- Probabilidad y estadísticas en las páginas de usos más tempranos (Univ. De Southampton)
- Los primeros usos de los símbolos en probabilidad y estadística sobre los primeros usos de varios símbolos matemáticos
- Un tutorial sobre probabilidad y el teorema de Bayes diseñado para estudiantes de primer año de la Universidad de Oxford
- [1] Archivo pdf de An Anthology of Chance Operations (1963) en UbuWeb
- Introducción a la probabilidad - eBook , por Charles Grinstead, Laurie Snell Source ( Licencia de documentación libre GNU )
- (en inglés e italiano) Bruno de Finetti , Probabilità e induzione , Bolonia, CLUEB, 1993. ISBN 88-8091-176-7 (versión digital)
- Conferencia de Richard P. Feynman sobre probabilidad.