En teoría de probabilidad y estadística , el teorema de Bayes (alternativamente la ley de Bayes o la regla de Bayes ; recientemente el teorema de Bayes-Price [1] : 44, 45, 46 y 67 ), llamado así por el reverendo Thomas Bayes , describe la probabilidad de un evento , basado en el conocimiento previo de las condiciones que pudieran estar relacionadas con el evento. [2] Por ejemplo, si se sabe que el riesgo de desarrollar problemas de salud aumenta con la edad, el teorema de Bayes permite evaluar con mayor precisión el riesgo de un individuo de una edad conocida (condicionándolo a su edad) que simplemente asumiendo que el individuo es típico del conjunto de la población.
Una de las muchas aplicaciones del teorema de Bayes es la inferencia bayesiana , un enfoque particular de la inferencia estadística . Cuando se aplica, las probabilidades involucradas en el teorema pueden tener diferentes interpretaciones de probabilidad . Con la interpretación de la probabilidad bayesiana , el teorema expresa cómo un grado de creencia, expresado como probabilidad, debería cambiar racionalmente para dar cuenta de la disponibilidad de evidencia relacionada. La inferencia bayesiana es fundamental para las estadísticas bayesianas .
Declaración del teorema
El teorema de Bayes se expresa matemáticamente como la siguiente ecuación: [3]
dónde y son eventos y.
- es una probabilidad condicional : la probabilidad del evento ocurriendo dado que es verdad. También se denomina probabilidad posterior de dado .
- es también una probabilidad condicional: la probabilidad del evento ocurriendo dado que es verdad. También se puede interpretar como la probabilidad de dado un fijo porque .
- y son las probabilidades de observar y respectivamente sin condiciones dadas; se conocen como probabilidad marginal o probabilidad previa .
- y deben ser diferentes eventos.
Prueba
Para eventos
El teorema de Bayes puede derivarse de la definición de probabilidad condicional :
dónde es la probabilidad conjunta de que tanto A como B sean verdaderos. Porque
- ,
Para variables aleatorias
Para dos variables aleatorias continuas X e Y , el teorema de Bayes puede derivarse análogamente de la definición de densidad condicional :
Por lo tanto,
Ejemplos de
Prueba de drogas
Supongamos que una prueba particular para determinar si alguien ha estado consumiendo cannabis tiene una sensibilidad del 90% , es decir, la tasa de verdaderos positivos (TPR) = 0,90. Por lo tanto, conduce a un 90% de resultados positivos verdaderos (identificación correcta del uso de drogas) para los consumidores de cannabis.
La prueba también es 80% específica , lo que significa que la tasa de verdaderos negativos (TNR) = 0,80. Por lo tanto, la prueba identifica correctamente el 80% de la falta de uso para los no usuarios, pero también genera un 20% de falsos positivos, o tasa de falsos positivos (FPR) = 0,20, para los no usuarios.
Suponiendo una prevalencia de 0,05 , es decir, el 5% de las personas consumen cannabis, ¿cuál es la probabilidad de que una persona al azar que dé positivo sea realmente un consumidor de cannabis?
El valor predictivo positivo (VPP) de una prueba es la proporción de personas que son realmente positivas de todas las que dan positivo, y se puede calcular a partir de una muestra como:
- PPV = Verdadero positivo / Probado positivo
Si se conocen la sensibilidad, la especificidad y la prevalencia, el VPP se puede calcular utilizando el teorema de Bayes. Dejarsignifica "la probabilidad de que alguien sea un consumidor de cannabis dado que dan positivo", que es lo que se entiende por VPP. Podemos escribir:
El hecho de que es una aplicación directa de la Ley de Probabilidad Total . En este caso, dice que la probabilidad de que alguien dé positivo es la probabilidad de que un usuario dé positivo, multiplicada por la probabilidad de ser usuario, más la probabilidad de que un no usuario dé positivo, multiplicada por la probabilidad de no ser usuario. .
Esto es cierto porque las clasificaciones de usuario y no usuario forman una partición de un conjunto , es decir, el conjunto de personas que se someten a la prueba de drogas. Esto combinado con la definición de probabilidad condicional da como resultado la declaración anterior.
Incluso si alguien da positivo, la probabilidad de que sea un consumidor de cannabis es solo del 19%, porque en este grupo solo el 5% de las personas son consumidores, la mayoría de los positivos son falsos positivos provenientes del 95% restante.
Si se hicieran pruebas a 1.000 personas:
- 950 no son usuarios y 190 de ellos dan falso positivo (0,20 × 950)
- 50 de ellos son usuarios y 45 de ellos dan un verdadero positivo (0,90 × 50)
Las 1.000 personas arrojan así 235 pruebas positivas, de las cuales solo 45 son verdaderos consumidores de drogas, alrededor del 19%. Consulte la Figura 1 para ver una ilustración con un cuadro de frecuencia y observe qué tan pequeña es el área rosa de los verdaderos positivos en comparación con el área azul de los falsos positivos.
Sensibilidad o especificidad
La importancia de la especificidad se puede ver al mostrar que incluso si la sensibilidad se eleva al 100% y la especificidad permanece en el 80%, la probabilidad de que alguien que dé positivo en la prueba sea realmente un consumidor de cannabis solo aumenta del 19% al 21%, pero si la sensibilidad es mantenido al 90% y la especificidad aumenta al 95%, la probabilidad aumenta al 49%.
|
|
|
Tasa de cáncer
Incluso si el 100% de los pacientes con cáncer de páncreas tienen un determinado síntoma, cuando alguien tiene el mismo síntoma, no significa que esta persona tiene un 100% de posibilidades de contraer cáncer de páncreas. Suponga que la tasa de incidencia de cáncer de páncreas es 1/100000, mientras que 10/100000 individuos sanos tienen los mismos síntomas en todo el mundo, la probabilidad de tener cáncer de páncreas dados los síntomas es solo del 9,1% y el otro 90,9% podrían ser "falsos positivos" ( es decir, se dice falsamente que tiene cáncer; "positivo" es un término confuso cuando, como aquí, la prueba da una mala noticia).
Según la tasa de incidencia, la siguiente tabla presenta las cifras correspondientes por cada 100.000 personas.
Cáncer Síntoma | sí | No | Total | |
---|---|---|---|---|
sí | 1 | 10 | 11 | |
No | 0 | 99989 | 99989 | |
Total | 1 | 99999 | 100000 |
Que luego se puede usar para calcular la probabilidad de tener cáncer cuando tiene los síntomas:
Tasa de artículo defectuoso
Condición Máquina | Defectuoso | Perfecto | Total | |
---|---|---|---|---|
A | 10 | 190 | 200 | |
B | 9 | 291 | 300 | |
C | 5 | 495 | 500 | |
Total | 24 | 976 | 1000 |
Una fábrica produce un artículo utilizando tres máquinas, A, B y C, que representan el 20%, 30% y 50% de su producción, respectivamente. De los artículos producidos por la máquina A, el 5% son defectuosos; de manera similar, el 3% de los artículos de la máquina B y el 1% de los de la máquina C están defectuosos. Si un artículo seleccionado al azar está defectuoso, ¿cuál es la probabilidad de que haya sido producido por la máquina C?
Una vez más, se puede llegar a la respuesta sin utilizar la fórmula aplicando las condiciones a un número hipotético de casos. Por ejemplo, si la fábrica produce 1,000 artículos, 200 serán producidos por la Máquina A, 300 por la Máquina B y 500 por la Máquina C. La Máquina A producirá 5% × 200 = 10 artículos defectuosos, Máquina B 3% × 300 = 9 y Máquina C 1% × 500 = 5, para un total de 24. Por lo tanto, la probabilidad de que la máquina C produzca un artículo defectuoso seleccionado al azar es 5/24 (~ 20,83%).
Este problema también se puede resolver usando el teorema de Bayes: Sea X i el evento de que la i- ésima máquina fabricó un elemento elegido al azar (para i = A, B, C). Sea Y el evento de que un artículo elegido al azar sea defectuoso. Luego, se nos da la siguiente información:
Si el artículo fue fabricado por la primera máquina, entonces la probabilidad de que esté defectuoso es de 0.05; es decir, P ( Y | X A ) = 0.05. En general, tenemos
Para responder a la pregunta original, primero encontramos P (Y). Eso se puede hacer de la siguiente manera:
Por tanto, el 2,4% de la producción total es defectuosa.
Se nos ha dado que Y ha ocurrido, y queremos calcular la probabilidad condicional de X C . Según el teorema de Bayes,
Dado que el artículo está defectuoso, la probabilidad de que haya sido fabricado por la máquina C es de 5/24. Aunque la máquina C produce la mitad de la producción total, produce una fracción mucho menor de los artículos defectuosos. Por lo tanto, el conocimiento de que el elemento seleccionado era defectuoso nos permite reemplazar la probabilidad previa P ( X C ) = 1/2 por la menor probabilidad posterior P (X C | Y ) = 5/24.
Interpretaciones
La interpretación de la regla de Bayes depende de la interpretación de la probabilidad atribuida a los términos. Las dos interpretaciones principales se describen a continuación. La Figura 2 muestra una visualización geométrica similar a la Figura 1. Gerd Gigerenzer y sus coautores han presionado mucho para enseñar la Regla de Bayes de esta manera, con especial énfasis en enseñarla a los médicos. [4] Un ejemplo es la página web de Will Kurt, "Teorema de Bayes con Lego", que luego se convirtió en el libro, Estadísticas bayesianas de manera divertida: comprensión de las estadísticas y la probabilidad con Star Wars, LEGO y Rubber Ducks. Zhu y Gigerenzer descubrieron en 2006 que mientras que el 0% de los alumnos de 4º, 5º y 6º grado podían resolver problemas verbales después de que se les enseñara con fórmulas, el 19%, 39% y 53% podían hacerlo después de que se les enseñara con cuadros de frecuencia, y que el aprendizaje fue minucioso o nulo. [5]
Interpretación bayesiana
En la interpretación bayesiana (o epistemológica) , la probabilidad mide un "grado de creencia". El teorema de Bayes vincula el grado de creencia en una proposición antes y después de dar cuenta de la evidencia. Por ejemplo, suponga que se cree con un 50% de certeza que una moneda tiene el doble de probabilidades de salir cara que cruz. Si se lanza la moneda varias veces y se observan los resultados, ese grado de creencia probablemente aumentará o disminuirá, pero incluso podría permanecer igual, dependiendo de los resultados. Para la proposición A y la evidencia B ,
- P ( A ), el antes , es el grado inicial de la creencia en A .
- P ( A | B ), el posterior , es el grado de creencia después de incorporar la noticia de que B es cierto.
- el cociente P ( B | A )/P ( B )representa el apoyo B prevé A .
Para obtener más información sobre la aplicación del teorema de Bayes bajo la interpretación bayesiana de probabilidad, consulte Inferencia bayesiana .
Interpretación frecuentista
En la interpretación frecuentista , la probabilidad mide una "proporción de resultados". Por ejemplo, suponga que un experimento se realiza muchas veces. P ( A ) es la proporción de resultados con propiedad A (el antes) y P ( B ) es la proporción con propiedad B . P ( B | A ) es la proporción de resultados con propiedad B de los resultados con propiedad A , y P ( A | B ) es la proporción de aquellos con A sobre aquellos con B (el posterior).
El papel del teorema de Bayes se visualiza mejor con diagramas de árbol como el de la Figura 3. Los dos diagramas dividen los mismos resultados entre A y B en órdenes opuestos, para obtener las probabilidades inversas. El teorema de Bayes vincula las diferentes particiones.
Ejemplo
Un entomólogo detecta lo que podría, debido al patrón en su espalda, ser una rara subespecie de escarabajo . Un 98% de los miembros de las subespecies raras tienen el patrón, por lo que P (Patrón | Raro) = 98%. Solo el 5% de los miembros de la subespecie común tienen el patrón. La subespecie rara es el 0,1% de la población total. ¿Qué posibilidades hay de que el escarabajo que tiene el patrón sea raro? ¿Qué es P (Raro | Patrón)?
De la forma extendida del teorema de Bayes (dado que cualquier escarabajo es raro o común),
Formularios
Eventos
Forma simple
Para los eventos A y B , siempre que P ( B ) ≠ 0,
En muchas aplicaciones, por ejemplo en la inferencia bayesiana , el evento B se fija en la discusión y deseamos considerar el impacto de haber sido observado en nuestra creencia en varios eventos A posibles . En tal situación, el denominador de la última expresión, la probabilidad de la evidencia dada B , es fijo; lo que queremos es variar A . El teorema de Bayes muestra que las probabilidades posteriores son proporcionales al numerador, por lo que la última ecuación se convierte en:
- .
En palabras, el posterior es proporcional a los tiempos anteriores de la probabilidad. [6]
Si los eventos A 1 , A 2 , ..., son mutuamente excluyentes y exhaustivos, es decir, es seguro que uno de ellos ocurrirá pero no pueden ocurrir dos juntos, podemos determinar la constante de proporcionalidad usando el hecho de que sus probabilidades deben sumar a uno. Por ejemplo, para un evento A dado , el evento A en sí mismo y su complemento ¬ A son exclusivos y exhaustivos. Denotando la constante de proporcionalidad por c tenemos
Sumando estas dos fórmulas deducimos que
o
Forma alternativa
Fondo Proposición | B | ¬B (no B) | Total | |
---|---|---|---|---|
A | P (B | A) · P (A) = P (A | B) · P (B) | P (¬B | A) · P (A) = P (A | ¬B) · P (¬B) | PENSILVANIA) | |
¬A (no A) | P (B | ¬A) · P (¬A) = P (¬A | B) · P (B) | P (¬B | ¬A) · P (¬A) = P (¬A | ¬B) · P (¬B) | P (¬A) = 1 − P (A) | |
Total | P (B) | P (¬B) = 1 − P (B) | 1 |
Otra forma del teorema de Bayes para dos enunciados o hipótesis en competencia es:
Para una interpretación epistemológica:
Para la proposición A y la evidencia o antecedentes B , [7]
- es la probabilidad a priori , el grado inicial de la creencia en A .
- es el correspondiente grado inicial de creencia en no-A , que A es falso, donde
- es la probabilidad condicional o verosimilitud, el grado de creencia en B dado que la proposición A es verdadera.
- es la probabilidad condicional o verosimilitud, el grado de creencia en B dado que la proposición A es falsa.
- es la probabilidad posterior , la probabilidad de A después de tener en cuenta B .
Forma extendida
A menudo, para alguna partición { A j } del espacio muestral , el espacio de eventos se da en términos de P ( A j ) y P ( B | A j ). Entonces es útil calcular P ( B ) usando la ley de probabilidad total :
En el caso especial donde A es una variable binaria :
Variables aleatorias
Considere un espacio muestral Ω generado por dos variables aleatorias X y Y . En principio, el teorema de Bayes se aplica a los eventos A = { X = x } y B = { Y = y }.
Sin embargo, los términos se vuelven 0 en los puntos donde cualquiera de las variables tiene una densidad de probabilidad finita . Para seguir siendo útil, el teorema de Bayes debe formularse en términos de las densidades relevantes (ver Derivación ).
Forma simple
Si X es continuo e Y es discreto,
donde cada es una función de densidad.
Si X es discreto e Y es continuo,
Si tanto X como Y son continuos,
Forma extendida
Un espacio de eventos continuo a menudo se conceptualiza en términos de términos de numerador. Entonces es útil eliminar el denominador usando la ley de probabilidad total . Para f Y ( y ), esto se convierte en una integral:
Regla de Bayes
El teorema de Bayes en forma de probabilidades es:
dónde
se llama factor de Bayes o razón de verosimilitud . Las probabilidades entre dos eventos es simplemente la razón de las probabilidades de los dos eventos. Por lo tanto
Por lo tanto, la regla dice que las probabilidades posteriores son las probabilidades anteriores multiplicadas por el factor de Bayes , o en otras palabras, la probabilidad posterior es proporcional a las probabilidades anteriores.
En el caso especial de que y , uno escribe y utiliza una abreviatura similar para el factor de Bayes y las probabilidades condicionales. Las probabilidades en es por definición las probabilidades a favor y en contra . La regla de Bayes se puede escribir en forma abreviada
o, en palabras, las probabilidades posteriores en es igual a las probabilidades anteriores en veces la razón de verosimilitud para información dada . En resumen, las probabilidades posteriores son iguales a las probabilidades anteriores por la razón de verosimilitud .
Correspondencia a otros marcos matemáticos
Lógica proposicional
El teorema de Bayes representa una generalización de la contraposición que en lógica proposicional se puede expresar como:
La fórmula correspondiente en términos de cálculo de probabilidad es el teorema de Bayes, que en su forma expandida se expresa como:
En la ecuación anterior a la probabilidad condicional generaliza el enunciado lógico , es decir, además de asignar VERDADERO o FALSO también podemos asignar cualquier probabilidad al enunciado. El terminodenota la probabilidad previa (también conocida como la tasa base ) de. Asumir que es equivalente a siendo VERDADERO, y que es equivalente a siendo FALSO. Entonces es fácil ver que Cuándo es decir, cuando es verdad. Esto es porque de modo que la fracción en el lado derecho de la ecuación anterior es igual a 1, y por lo tanto que es equivalente a siendo VERDADERO. Por tanto, el teorema de Bayes representa una generalización de la contraposición . [8]
Lógica subjetiva
El teorema de Bayes representa un caso especial de inversión condicional en lógica subjetiva expresada como:
dónde denota el operador para la inversión condicional. El argumento denota un par de opiniones condicionales binomiales dadas por la fuente y el argumento denota la probabilidad previa (también conocida como la tasa base ) de. El par de opiniones condicionales invertidas se denota. La opinión condicional generaliza el condicional probabilístico , es decir, además de asignar una probabilidad a la fuente puede asignar cualquier opinión subjetiva al enunciado condicional . Una opinión subjetiva binomial es la creencia en la verdad de la declaración con grados de incertidumbre epistémica, según lo expresado por la fuente . Cada opinión subjetiva tiene una probabilidad proyectada correspondiente. La aplicación del teorema de Bayes a las probabilidades proyectadas de opiniones es un homomorfismo , lo que significa que el teorema de Bayes se puede expresar en términos de probabilidades proyectadas de opiniones:
Por tanto, el teorema subjetivo de Bayes representa una generalización del teorema de Bayes. [9]
Generalizaciones
Versión acondicionada
Una versión condicionada del teorema de Bayes [10] resulta de la adición de un tercer evento en el que todas las probabilidades están condicionadas:
Derivación
Usando la regla de la cadena
Y por otro lado
El resultado deseado se obtiene identificando ambas expresiones y resolviendo para .
Regla de Bayes con 3 eventos
En el caso de 3 eventos - A, B y C - se puede demostrar que:
Historia
El teorema de Bayes lleva el nombre del reverendo Thomas Bayes ( / b eɪ z / ; c. 1701-1761), quien utilizó por primera vez la probabilidad condicional para proporcionar un algoritmo (su Proposición 9) que utiliza evidencia para calcular los límites de un parámetro desconocido, publicado como Ensayo para resolver un problema en la doctrina de las posibilidades (1763). Estudió cómo calcular una distribución para el parámetro de probabilidad de una distribución binomial (en terminología moderna). A la muerte de Bayes, su familia transfirió sus documentos a su viejo amigo, Richard Price (1723-1791), quien durante un período de dos años editó significativamente el manuscrito inédito, antes de enviárselo a un amigo que lo leyó en voz alta en la Royal Society el 23. Diciembre de 1763. [1] [ página necesaria ] Price editó [12] la obra principal de Bayes "Un ensayo para resolver un problema en la doctrina de las posibilidades" (1763), que apareció en Transacciones filosóficas , [13] y contiene el teorema de Bayes. Price escribió una introducción al artículo que proporciona algunas de las bases filosóficas de la estadística bayesiana y eligió una de las dos soluciones ofrecidas por Bayes. En 1765, Price fue elegido miembro de la Royal Society en reconocimiento a su trabajo sobre el legado de Bayes. [14] [15] El 27 de abril se leyó en la Royal Society una carta enviada a su amigo Benjamin Franklin , y luego se publicó, donde Price aplica este trabajo a la población y al cálculo de las "rentas vitalicias". [dieciséis]
Independientemente de Bayes, Pierre-Simon Laplace en 1774, y más tarde en su Théorie analytique des probabilités de 1812 , utilizó la probabilidad condicional para formular la relación de una probabilidad posterior actualizada a partir de una probabilidad previa, dada la evidencia. Reprodujo y amplió los resultados de Bayes en 1774, aparentemente sin conocer el trabajo de Bayes. [nota 1] [17] La interpretación bayesiana de la probabilidad fue desarrollada principalmente por Laplace. [18]
Sir Harold Jeffreys puso el algoritmo de Bayes y la formulación de Laplace sobre una base axiomática , escribiendo que el teorema de Bayes "es para la teoría de la probabilidad lo que el teorema de Pitágoras es para la geometría". [19]
Stephen Stigler utilizó un argumento bayesiano para concluir que el teorema de Bayes fue descubierto por Nicholas Saunderson , un matemático inglés ciego, algún tiempo antes que Bayes; [20] [21] esa interpretación, sin embargo, ha sido cuestionada. [22] Martyn Hooper [23] y Sharon McGrayne [24] han argumentado que la contribución de Richard Price fue sustancial:
Según los estándares modernos, deberíamos referirnos a la regla de precio de Bayes. Price descubrió el trabajo de Bayes, reconoció su importancia, lo corrigió, contribuyó al artículo y le encontró un uso. La convención moderna de emplear solo el nombre de Bayes es injusta, pero está tan arraigada que cualquier otra cosa tiene poco sentido. [24]
Uso en genética
En genética, el teorema de Bayes se puede utilizar para calcular la probabilidad de que un individuo tenga un genotipo específico. Muchas personas buscan aproximar sus posibilidades de verse afectadas por una enfermedad genética o su probabilidad de ser portadoras de un gen recesivo de interés. Se puede realizar un análisis bayesiano basado en antecedentes familiares o pruebas genéticas, para predecir si una persona desarrollará una enfermedad o la transmitirá a sus hijos. Las pruebas y predicciones genéticas son una práctica común entre las parejas que planean tener hijos, pero les preocupa que ambos puedan ser portadores de una enfermedad, especialmente en comunidades con baja variación genética. [ cita requerida ]
El primer paso en el análisis bayesiano de la genética es proponer hipótesis mutuamente excluyentes: para un alelo específico, un individuo es o no es portador. A continuación, se calculan cuatro probabilidades: Probabilidad previa (la probabilidad de que cada hipótesis considere información como antecedentes familiares o predicciones basadas en la herencia mendeliana), Probabilidad condicional (de un resultado determinado), Probabilidad conjunta (producto de las dos primeras) y Posterior Probabilidad (un producto ponderado que se calcula dividiendo la probabilidad conjunta de cada hipótesis por la suma de ambas probabilidades conjuntas). Este tipo de análisis se puede realizar basándose únicamente en los antecedentes familiares de una afección o en conjunto con pruebas genéticas. [ cita requerida ]
Usar el pedigrí para calcular probabilidades
Hipótesis | Hipótesis 1: el paciente es portador | Hipótesis 2: el paciente no es portador |
---|---|---|
Probabilidad previa | 1/2 | 1/2 |
Probabilidad condicional de que los cuatro descendientes no se vean afectados | (1/2) · (1/2) · (1/2) · (1/2) = 1/16 | Alrededor de 1 |
Probabilidad conjunta | (1/2) · (1/16) = 1/32 | (1/2) · 1 = 1/2 |
Probabilidad posterior | (1/32) / (1/32 + 1/2) = 1/17 | (1/2) / (1/32 + 1/2) = 16/17 |
Ejemplo de una tabla de análisis bayesiano para el riesgo de una mujer de contraer una enfermedad basada en el conocimiento de que la enfermedad está presente en sus hermanos pero no en sus padres ni en ninguno de sus cuatro hijos. Basado únicamente en el estado de los hermanos y padres del sujeto, es igualmente probable que sea portadora que no portadora (esta probabilidad se denota por la Hipótesis Previa). Sin embargo, la probabilidad de que los cuatro hijos del sujeto no se vean afectados es 1/16 (½ · ½ · ½ · ½) si es portadora, aproximadamente 1 si no es portadora (esta es la probabilidad condicional). La probabilidad conjunta reconcilia estas dos predicciones multiplicándolas. La última línea (la probabilidad posterior) se calcula dividiendo la probabilidad conjunta de cada hipótesis por la suma de ambas probabilidades conjuntas. [25]
Usando los resultados de las pruebas genéticas
Las pruebas genéticas parentales pueden detectar alrededor del 90% de los alelos de enfermedades conocidas en los padres que pueden llevar al estado de portador o afectado en su hijo. La fibrosis quística es una enfermedad hereditaria causada por una mutación autosómica recesiva en el gen CFTR, [26] localizado en el brazo q del cromosoma 7. [27]
Análisis bayesiano de una paciente con antecedentes familiares de fibrosis quística (FQ), que dio negativo en la prueba de FQ, lo que demuestra cómo se utilizó este método para determinar su riesgo de tener un hijo con FQ:
Debido a que la paciente no se ve afectada, es homocigótica para el alelo de tipo salvaje o heterocigótica. Para establecer probabilidades previas, se utiliza un cuadro de Punnett, basado en el conocimiento de que ninguno de los padres se vio afectado por la enfermedad, pero ambos podrían haber sido portadores:
Mamá Padre | W Homocigoto para el | METRO Heterocigoto (un portador de FQ) |
---|---|---|
W Homocigoto para el | WW | MW |
METRO Heterocigoto (un portador de FQ) | MW | MM (afectado por fibrosis quística) |
Dado que el paciente no se ve afectado, solo hay tres posibilidades. Dentro de estos tres, hay dos escenarios en los que el paciente porta el alelo mutante. Por tanto, las probabilidades previas son ⅔ y ⅓.
A continuación, el paciente se somete a pruebas genéticas y las pruebas de fibrosis quística son negativas. Esta prueba tiene una tasa de detección del 90%, por lo que las probabilidades condicionales de una prueba negativa son 1/10 y 1. Finalmente, las probabilidades conjuntas y posteriores se calculan como antes.
Hipótesis | Hipótesis 1: el paciente es portador | Hipótesis 2: el paciente no es portador |
---|---|---|
Probabilidad previa | 2/3 | 1/3 |
Probabilidad condicional de una prueba negativa | 1/10 | 1 |
Probabilidad conjunta | 15/1 | 1/3 |
Probabilidad posterior | 1/6 | 5/6 |
Después de realizar el mismo análisis en la pareja masculina del paciente (con resultado negativo de la prueba), las posibilidades de que su hijo se vea afectado es igual al producto de las respectivas probabilidades posteriores de los padres de ser portadores por las posibilidades de que dos portadores produzcan una enfermedad. descendencia afectada (¼).
Pruebas genéticas realizadas en paralelo con la identificación de otros factores de riesgo.
El análisis bayesiano se puede realizar utilizando información fenotípica asociada con una condición genética, y cuando se combina con pruebas genéticas, este análisis se vuelve mucho más complicado. La fibrosis quística, por ejemplo, se puede identificar en un feto a través de una ecografía en busca de un intestino ecogénico, es decir, uno que parece más brillante de lo normal en una exploración2. Esta no es una prueba infalible, ya que un intestino ecogénico puede estar presente en un feto perfectamente sano. Las pruebas genéticas parentales son muy influyentes en este caso, donde una faceta fenotípica puede ser demasiado influyente en el cálculo de la probabilidad. En el caso de un feto con intestino ecogénico, con una madre que ha sido examinada y se sabe que es portadora de FQ, la probabilidad posterior de que el feto realmente tenga la enfermedad es muy alta (0,64). Sin embargo, una vez que el padre ha dado negativo en la prueba de FQ, la probabilidad posterior cae significativamente (a 0,16). [25]
El cálculo de factores de riesgo es una herramienta poderosa en el asesoramiento genético y la planificación reproductiva, pero no puede tratarse como el único factor importante a considerar. Como se mencionó anteriormente, las pruebas incompletas pueden generar una probabilidad falsamente alta de ser portador, y las pruebas pueden ser económicamente inaccesibles o inviables cuando uno de los padres no está presente.
Ver también
- Probabilidad inductiva
- Bayesianismo cuántico
- Por qué la mayoría de los resultados de las investigaciones publicadas son falsos
- Epistemología bayesiana
Notas
- ^ Laplace refinó el teorema de Bayes durante un período de décadas:
- Laplace anunció su descubrimiento independiente del teorema de Bayes en: Laplace (1774) "Mémoire sur la probabilité des cause par les événements", "Mémoires de l'Académie royale des Sciences de MI (Savants étrangers)", 4 : 621–656. Reimpreso en: Laplace, "Oeuvres complètes" (París, Francia: Gauthier-Villars et fils, 1841), vol. 8, págs. 27–65. Disponible en línea en: Gallica . El teorema de Bayes aparece en la p. 29.
- Laplace presentó un refinamiento del teorema de Bayes en: Laplace (léase: 1783 / publicado: 1785) "Mémoire sur les Approximations des formules qui sont fonctions de très grands nombres", "Mémoires de l'Académie royale des Sciences de Paris", 423 –467. Reimpreso en: Laplace, "Oeuvres complètes" (París, Francia: Gauthier-Villars et fils, 1844), vol. 10, págs. 295–338. Disponible en línea en: Gallica . El teorema de Bayes se enuncia en la página 301.
- Véase también: Laplace, "Essai philosophique sur les probabilités" (París, Francia: Mme. Ve. Courcier [Madame veuve (es decir, viuda) Courcier], 1814), página 10 . Traducción al inglés: Pierre Simon, Marquis de Laplace con FW Truscott y FL Emory, trad., "A Philosophical Essay on Probabilities" (Nueva York, Nueva York: John Wiley & Sons, 1902), página 15 .
Referencias
- ↑ a b Frame, Paul (2015). Apóstol de Liberty . Gales: Prensa de la Universidad de Gales. ISBN 978-1-78316-216-1. Consultado el 23 de febrero de 2021 .
- ^ Joyce, James (2003), "Bayes 'Theorem" , en Zalta, Edward N. (ed.), The Stanford Encyclopedia of Philosophy (edición de primavera de 2019), Metaphysics Research Lab, Stanford University , consultado el 17 de enero de 2020
- ^ Stuart, A .; Ord, K. (1994), Teoría avanzada de estadística de Kendall: Volumen I — Teoría de la distribución , Edward Arnold , §8.7
- ^ Gigerenzer, Gerd; Hoffrage, Ulrich (1995). "Cómo mejorar el razonamiento bayesiano sin instrucción: formatos de frecuencia". Revisión psicológica . 102 (4): 684–704. CiteSeerX 10.1.1.128.3201 . doi : 10.1037 / 0033-295X.102.4.684 .
- ^ Zhu, Liqi; Gigerenzer, Gerd (enero de 2006). "Los niños pueden resolver problemas bayesianos: el papel de la representación en el cálculo mental". Cognición . 98 (3): 287-308. doi : 10.1016 / j.cognition.2004.12.003 . hdl : 11858 / 00-001M-0000-0024-FEFD-A . PMID 16399266 .
- ^ Lee, Peter M. (2012). "Capítulo 1" . Estadística bayesiana . Wiley . ISBN 978-1-1183-3257-3.
- ^ "Teorema de Bayes: Introducción" . Universidad Trinity . Archivado desde el original el 21 de agosto de 2004 . Consultado el 5 de agosto de 2014 .
- ^ Audun Jøsang, 2016, Lógica subjetiva; Un formalismo para el razonamiento bajo incertidumbre. Springer, Cham, ISBN 978-3-319-42337-1
- ^ Audun Jøsang, 2016, Teorema de generalización de Bayes en lógica subjetiva . IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems (MFI 2016), Baden-Baden, septiembre de 2016
- ^ Koller, D .; Friedman, N. (2009). Modelos gráficos probabilísticos . Massachusetts: Prensa del MIT. pag. 1208. ISBN 978-0-262-01319-2. Archivado desde el original el 27 de abril de 2014.
- ^ Graham Kemp ( https://math.stackexchange.com/users/135106/graham-kemp ), regla de Bayes con 3 variables, URL (versión: 2015-05-14): https://math.stackexchange.com / q / 1281558
- ^ Allen, Richard (1999). David Hartley sobre la naturaleza humana . Prensa SUNY. págs. 243–4. ISBN 978-0-7914-9451-6. Consultado el 16 de junio de 2013 .
- ^ Bayes, Thomas y Price, Richard (1763). "Un ensayo para resolver un problema en la doctrina del azar. Por el difunto Rev. Sr. Bayes, comunicado por el Sr. Price, en una carta a John Canton, AMFRS" (PDF) . Transacciones filosóficas de la Royal Society de Londres . 53 : 370–418. doi : 10.1098 / rstl.1763.0053 . Archivado desde el original (PDF) el 10 de abril de 2011 . Consultado el 27 de diciembre de 2003 .
- ^ Holanda, págs. 46-7.
- ^ Precio, Richard (1991). Precio: Escritos políticos . Prensa de la Universidad de Cambridge. pag. xxiii. ISBN 978-0-521-40969-8. Consultado el 16 de junio de 2013 .
- ↑ Mitchell , 1911 , p. 314 .
- ^ Daston, Lorena (1988). Probabilidad clásica en la Ilustración . Prensa de la Universidad de Princeton. pag. 268. ISBN 0-691-08497-1.
- ^ Stigler, Stephen M. (1986). "Probabilidad inversa" . La historia de la estadística: la medición de la incertidumbre antes de 1900 . Prensa de la Universidad de Harvard. págs. 99-138. ISBN 978-0-674-40341-3.
- ^ Jeffreys, Harold (1973). Inferencia científica (3ª ed.). Prensa de la Universidad de Cambridge . pag. 31 . ISBN 978-0-521-18078-8.
- ^ Stigler, Stephen M. (1983). "¿Quién descubrió el teorema de Bayes?". El estadístico estadounidense . 37 (4): 290-296. doi : 10.1080 / 00031305.1983.10483122 .
- ^ de Vaux, Richard; Velleman, Paul; Bock, David (2016). Estadísticas, datos y modelos (4ª ed.). Pearson. págs. 380–381. ISBN 978-0-321-98649-8.
- ^ Edwards, AWF (1986). "¿Es la referencia en Hartley (1749) a la inferencia bayesiana?". El estadístico estadounidense . 40 (2): 109-110. doi : 10.1080 / 00031305.1986.10475370 .
- ^ Hooper, Martyn (2013). "Richard Price, teorema de Bayes y Dios" . Importancia . 10 (1): 36–39. doi : 10.1111 / j.1740-9713.2013.00638.x . S2CID 153704746 .
- ^ a b McGrayne, SB (2011). La teoría que no moriría: cómo la regla de Bayes descifró el código Enigma, persiguió a los submarinos rusos y emergió triunfante de dos siglos de controversia . Prensa de la Universidad de Yale . ISBN 978-0-300-18822-6.
- ^ a b Ogino, Shuji; Wilson, Robert B; Gold, Bert; Hawley, Pamela; Grody, Wayne W (octubre de 2004). "Análisis bayesiano de riesgos de fibrosis quística en el cribado prenatal y de portadores" . Genética en Medicina . 6 (5): 439–449. doi : 10.1097 / 01.GIM.0000139511.83336.8F . PMID 15371910 .
- ^ "Tipos de mutaciones CFTR". Fundación de Fibrosis Quística, www.cff.org/What-is-CF/Genetics/Types-of-CFTR-Mutations/.
- ^ "Gen CFTR - referencia de inicio de genética". Biblioteca Nacional de Medicina de EE. UU., Institutos Nacionales de Salud, ghr.nlm.nih.gov/gene/CFTR#location.
Otras lecturas
- Grunau, Hans-Christoph (24 de enero de 2014). "Prefacio Número 3 / 4-2013" . Jahresbericht der Deutschen Mathematiker-Vereinigung . 115 (3-4): 127-128. doi : 10.1365 / s13291-013-0077-z .
- Gelman, A, Carlin, JB, Stern, HS y Rubin, DB (2003), "Análisis de datos bayesianos", segunda edición, CRC Press.
- Grinstead, CM y Snell, JL (1997), "Introducción a la probabilidad (2ª edición)", American Mathematical Society (pdf gratuito disponible) [1] .
- "Fórmula de Bayes" , Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
- McGrayne, SB (2011). La teoría que no moriría: cómo la regla de Bayes descifró el código Enigma, persiguió a los submarinos rusos y emergió triunfante de dos siglos de controversia . Prensa de la Universidad de Yale . ISBN 978-0-300-18822-6.
- Laplace, Pierre Simon (1986). "Memorias sobre la probabilidad de las causas de los eventos" . Ciencia estadística . 1 (3): 364–378. doi : 10.1214 / ss / 1177013621 . JSTOR 2245476 .
- Lee, Peter M (2012), "Estadísticas Bayesianas: Introducción", cuarta edición. Wiley. ISBN 978-1-118-33257-3 .
- Puga JL, Krzywinski M, Altman N (31 de marzo de 2015). "Teorema de Bayes" . Métodos de la naturaleza . 12 (4): 277–278. doi : 10.1038 / nmeth.3335 . PMID 26005726 .
- Rosenthal, Jeffrey S (2005), "Golpeado por un rayo: El curioso mundo de las probabilidades". HarperCollins. (Granta, 2008. ISBN 9781862079960 ).
- Stigler, Stephen M. (agosto de 1986). "Memoria de 1774 de Laplace sobre probabilidad inversa" . Ciencia estadística . 1 (3): 359–363. doi : 10.1214 / ss / 1177013620 .
- Stone, JV (2013), descargue el capítulo 1 de "La regla de Bayes: una introducción tutorial al análisis bayesiano" , Sebtel Press, Inglaterra.
- Razonamiento bayesiano para personas inteligentes , una introducción y tutorial sobre el uso del teorema de Bayes en estadística y ciencia cognitiva.
- Morris, Dan (2016), lea los primeros 6 capítulos de forma gratuita de " Ejemplos del teorema de Bayes: una introducción visual para principiantes " Blue Windmill ISBN 978-1549761744 . Un breve tutorial sobre cómo comprender escenarios de problemas y encontrar P (B), P (A) y P (B | A).
enlaces externos
- Teorema de Bayes en la Encyclopædia Britannica
- La teoría que no moriría por Sharon Bertsch McGrayne Reseña del libro del New York Times por John Allen Paulos el 5 de agosto de 2011
- Explicación visual de Bayes usando árboles (video)
- La interpretación frecuentista de Bayes explicada visualmente (video)
- Usos conocidos más tempranos de algunas de las palabras de las matemáticas (B) . Contiene los orígenes de "Bayesiano", "Teorema de Bayes", "Estimación / Riesgo / Solución de Bayes", "Bayes empírico" y "Factor de Bayes".
- Weisstein, Eric W. "Teorema de Bayes" . MathWorld .
- Teorema de Bayes en PlanetMath .
- Teorema de Bayes y la locura de la predicción
- Un tutorial sobre probabilidad y el teorema de Bayes diseñado para estudiantes de psicología de la Universidad de Oxford
- Una explicación intuitiva del teorema de Bayes por Eliezer S. Yudkowsky
- Demostrador en línea del teorema subjetivo de Bayes
- Modelo de diagnóstico clínico bayesiano