La programación bayesiana es un formalismo y una metodología para tener una técnica para especificar modelos probabilísticos y resolver problemas cuando se dispone de menos información de la necesaria.
Edwin T. Jaynes propuso que la probabilidad podría considerarse como una alternativa y una extensión de la lógica para el razonamiento racional con información incompleta e incierta. En su libro fundacional Probability Theory: The Logic of Science [1] desarrolló esta teoría y propuso lo que llamó "el robot", que no era un dispositivo físico, sino un motor de inferencia para automatizar el razonamiento probabilístico, una especie de prólogo para la probabilidad. en lugar de lógica. La programación bayesiana [2] es una implementación formal y concreta de este "robot".
La programación bayesiana también puede verse como un formalismo algebraico para especificar modelos gráficos como, por ejemplo, redes bayesianas , redes dinámicas bayesianas , filtros de Kalman o modelos ocultos de Markov . De hecho, la Programación Bayesiana es más general que las redes Bayesianas y tiene un poder de expresión equivalente a los gráficos de factores probabilísticos . [3]
Formalismo
Un programa bayesiano es un medio de especificar una familia de distribuciones de probabilidad.
Los elementos constitutivos de un programa bayesiano se presentan a continuación: [4]
- Un programa se construye a partir de una descripción y una pregunta.
- Una descripción se construye usando alguna especificación () dado por el programador y un proceso de identificación o aprendizaje para los parámetros no especificados completamente por la especificación, utilizando un conjunto de datos ().
- Una especificación se construye a partir de un conjunto de variables pertinentes, una descomposición y un conjunto de formas.
- Los formularios son formularios paramétricos o preguntas para otros programas bayesianos.
- Una pregunta especifica qué distribución de probabilidad debe calcularse.
Descripción
El propósito de una descripción es especificar un método efectivo para calcular una distribución de probabilidad conjunta en un conjunto de variables. dado un conjunto de datos experimentales y alguna especificación . Esta distribución conjunta se denota como:. [5]
Para especificar conocimientos preliminares , el programador debe realizar lo siguiente:
- Definir el conjunto de variables relevantes en el que se define la distribución conjunta.
- Descomponga la distribución conjunta (divídala en probabilidades independientes o condicionales relevantes ).
- Defina las formas de cada una de las distribuciones (por ejemplo, para cada variable, una de la lista de distribuciones de probabilidad ).
Descomposición
Dada una partición de conteniendo subconjuntos, las variables están definidas , cada uno correspondiente a uno de estos subconjuntos. Cada variable se obtiene como la conjunción de las variables perteneciente a la subconjunto. La aplicación recursiva del teorema de Bayes conduce a:
Las hipótesis de independencia condicional permiten simplificaciones adicionales. Una hipótesis de independencia condicional para la variable se define eligiendo alguna variable entre las variables que aparecen en la conjunción , etiquetado como la conjunción de estas variables elegidas y el escenario:
Entonces obtenemos:
Esta simplificación de la distribución conjunta como producto de distribuciones más simples se denomina descomposición, derivada mediante la regla de la cadena .
Esto asegura que cada variable aparezca como máximo una vez a la izquierda de una barra de acondicionamiento, que es la condición necesaria y suficiente para escribir descomposiciones matemáticamente válidas. [ cita requerida ]
Formularios
Cada distribución que aparece en el producto se asocia con una forma paramétrica (es decir, una función ) o una pregunta a otro programa bayesiano .
Cuando es una forma , en general, es un vector de parámetros que puede depender de o o ambos. El aprendizaje tiene lugar cuando algunos de estos parámetros se calculan utilizando el conjunto de datos.
Una característica importante de la programación bayesiana es esta capacidad de utilizar preguntas para otros programas bayesianos como componentes de la definición de un nuevo programa bayesiano. se obtiene mediante algunas inferencias realizadas por otro programa bayesiano definido por las especificaciones y los datos . Esto es similar a llamar a una subrutina en la programación clásica y proporciona una manera fácil de construir modelos jerárquicos .
Pregunta
Dada una descripción (es decir, ), se obtiene una pregunta particionando en tres conjuntos: las variables buscadas, las variables conocidas y las variables libres.
Las 3 variables , y se definen como la conjunción de las variables pertenecientes a estos conjuntos.
Una pregunta se define como el conjunto de distribuciones:
hecho de muchas "preguntas instanciadas" como el cardenal de , cada pregunta instanciada es la distribución:
Inferencia
Dada la distribución conjunta , siempre es posible calcular cualquier pregunta posible utilizando la siguiente inferencia general:
donde la primera igualdad resulta de la regla de la marginación, la segunda resulta del teorema de Bayes y la tercera corresponde a una segunda aplicación de la marginación. El denominador parece ser un término de normalización y puede ser reemplazado por una constante.
Teóricamente, esto permite resolver cualquier problema de inferencia bayesiana. En la práctica, sin embargo, el costo de calcular de manera exhaustiva y exacta es demasiado grande en casi todos los casos.
Reemplazando la distribución conjunta por su descomposición obtenemos:
que suele ser una expresión mucho más sencilla de calcular, ya que la dimensionalidad del problema se reduce considerablemente por la descomposición en un producto de distribuciones de dimensiones inferiores.
Ejemplo
Detección de spam bayesiano
El propósito del filtrado de spam bayesiano es eliminar los correos electrónicos no deseados.
El problema es muy fácil de formular. Los correos electrónicos deben clasificarse en una de dos categorías: no spam o spam. La única información disponible para clasificar los correos electrónicos es su contenido: un conjunto de palabras. El uso de estas palabras sin tener en cuenta el orden se denomina comúnmente modelo de bolsa de palabras .
Además, el clasificador debe poder adaptarse a su usuario y aprender de la experiencia. A partir de una configuración estándar inicial, el clasificador debe modificar sus parámetros internos cuando el usuario no esté de acuerdo con su propia decisión. Por tanto, se adaptará a los criterios del usuario para diferenciar entre no spam y spam. Mejorará sus resultados a medida que encuentre correos electrónicos cada vez más clasificados.
Variables
Las variables necesarias para escribir este programa son las siguientes:
- : una variable binaria, falso si el correo electrónico no es spam y verdadero en caso contrario.
- : variables binarias. es cierto si el La palabra del diccionario está presente en el texto.
Estas Las variables binarias resumen toda la información sobre un correo electrónico.
Descomposición
Partiendo de la distribución conjunta y aplicando de forma recursiva el teorema de Bayes obtenemos:
Esta es una expresión matemática exacta.
Puede simplificarse drásticamente asumiendo que la probabilidad de aparición de una palabra conociendo la naturaleza del texto (spam o no) es independiente de la aparición de las otras palabras. Esta es la suposición ingenua de Bayes y esto hace que este filtro de spam sea un modelo ingenuo de Bayes .
Por ejemplo, el programador puede asumir que:
para finalmente obtener:
Este tipo de suposición se conoce como suposición ingenua de Bayes . Es "ingenuo" en el sentido de que la independencia entre palabras claramente no es completamente cierta. Por ejemplo, ignora por completo que la aparición de pares de palabras puede ser más significativa que las apariencias aisladas. Sin embargo, el programador puede asumir esta hipótesis y puede desarrollar el modelo y las inferencias asociadas para probar cuán confiable y eficiente es.
Formas paramétricas
Para poder calcular la distribución conjunta, el programador ahora debe especificar el distribuciones que aparecen en la descomposición:
- es un prior definido, por ejemplo, por
- Cada una de las formas se puede especificar usando la regla de sucesión de Laplace (esta es una técnica de suavizado basada en pseudocontos para contrarrestar el problema de frecuencia cero de palabras nunca antes vistas):
dónde representa el número de apariciones de la palabra en correos electrónicos no spam y representa el número total de correos electrónicos que no son spam. Similar, representa el número de apariciones de la palabra en correos electrónicos no deseados y representa el número total de correos electrónicos no deseados.
Identificación
La formas aún no están completamente especificados porque los parámetros , , y aún no tienen valores.
La identificación de estos parámetros podría realizarse mediante el procesamiento por lotes de una serie de correos electrónicos clasificados o mediante una actualización incremental de los parámetros utilizando las clasificaciones del usuario de los correos electrónicos a medida que llegan.
Ambos métodos podrían combinarse: el sistema podría comenzar con valores estándar iniciales de estos parámetros emitidos desde una base de datos genérica, luego algún aprendizaje incremental personaliza el clasificador para cada usuario individual.
Pregunta
La pregunta que se le hace al programa es: "¿Cuál es la probabilidad de que un texto dado sea spam sabiendo qué palabras aparecen y no aparecen en este texto?" Puede formalizarse mediante:
que se puede calcular de la siguiente manera:
El denominador parece ser una constante de normalización . No es necesario calcularlo para decidir si se trata de spam. Por ejemplo, un truco fácil es calcular la proporción:
Este cálculo es más rápido y sencillo porque solo requiere productos.
Programa bayesiano
El programa de filtro de spam bayesiano está completamente definido por:
Los filtros bayesianos (a menudo denominados estimación bayesiana recursiva ) son modelos probabilísticos genéricos para procesos que evolucionan en el tiempo. Numerosos modelos son ejemplos particulares de este enfoque genérico, por ejemplo: el filtro de Kalman o el modelo Hidden Markov (HMM).
Variables
- Variables son una serie de tiempo de variables de estado consideradas en un horizonte de tiempo que van desde a .
- Variables son una serie temporal de variables de observación en el mismo horizonte.
Descomposición
La descomposición se basa en:
- en , llamado modelo de sistema, modelo de transición o modelo dinámico, que formaliza la transición desde el estado en el momento al estado en el momento ;
- en , llamado modelo de observación, que expresa lo que se puede observar en el tiempo cuando el sistema está en estado ;
- en un estado inicial en el momento : .
Formas paramétricas
Las formas paramétricas no están restringidas y las diferentes elecciones conducen a diferentes modelos bien conocidos: consulte los filtros de Kalman y los modelos ocultos de Markov justo debajo.
Pregunta
La pregunta típica para tales modelos es : ¿cuál es la distribución de probabilidad para el estado en el momento conociendo las observaciones desde el instante a ?
El caso más común es el filtrado bayesiano donde , que busca el estado presente, conociendo observaciones pasadas.
Sin embargo, también es posible , para extrapolar un estado futuro a partir de observaciones pasadas, o para suavizar , para recuperar un estado pasado a partir de observaciones realizadas antes o después de ese instante.
También se pueden hacer preguntas más complicadas como se muestra a continuación en la sección HMM.
Filtros bayesianos tienen una propiedad recursiva muy interesante, que contribuye en gran medida a su atractivo. puede calcularse simplemente a partir de con la siguiente fórmula:
Otro punto de vista interesante para esta ecuación es considerar que hay dos fases: una fase de predicción y una fase de estimación:
- Durante la fase de predicción, el estado se predice utilizando el modelo dinámico y la estimación del estado en el momento anterior:
- Durante la fase de estimación, la predicción se confirma o invalida utilizando la última observación:
Programa bayesiano
Filtro de Kalman
Los muy conocidos filtros de Kalman [6] son un caso especial de filtros bayesianos.
Están definidos por el siguiente programa bayesiano:
- Las variables son continuas.
- El modelo de transición y el modelo de observación Ambos se especifican usando leyes de Gauss con medias que son funciones lineales de las variables condicionantes.
Con estas hipótesis y utilizando la fórmula recursiva, es posible resolver analíticamente el problema de inferencia para responder a la habitual pregunta. Esto conduce a un algoritmo extremadamente eficiente, que explica la popularidad de los filtros de Kalman y el número de sus aplicaciones diarias.
Cuando no hay modelos de observación y transición lineales obvios, a menudo es posible, utilizando una expansión de Taylor de primer orden, tratar estos modelos como localmente lineales. Esta generalización se denomina comúnmente filtro de Kalman extendido .
Modelo de Markov oculto
Los modelos ocultos de Markov (HMM) son otra especialización muy popular de los filtros bayesianos.
Están definidos por el siguiente programa bayesiano:
- Las variables se tratan como discretas.
- El modelo de transición y el modelo de observación están
ambos especificados mediante matrices de probabilidad.
- La pregunta que se hace con más frecuencia a los HMM es:
¿Cuál es la serie de estados más probable que conduce al estado presente, conociendo las observaciones pasadas?
Esta pregunta en particular puede responderse con un algoritmo específico y muy eficiente llamado algoritmo de Viterbi .
El algoritmo de Baum-Welch se ha desarrollado para HMM.
Aplicaciones
Aplicaciones académicas
Desde 2000, la programación bayesiana se ha utilizado para desarrollar aplicaciones robóticas y modelos de ciencias de la vida. [7]
Robótica
En robótica, la programación bayesiana se aplicó a la robótica autónoma , [8] [9] [10] [11] [12] sistemas CAD robóticos , [13] sistemas avanzados de asistencia al conductor , [14] control de brazo robótico , robótica móvil , [ 15] [16] interacción humano-robot, [17] interacción humano-vehículo (modelos de conductor autónomo bayesiano) [18] [19] [20] [21] [22] programación y entrenamiento de avatar de videojuegos [23] y real- juegos de estrategia de tiempo (IA). [24]
Ciencias de la vida
En las ciencias de la vida, la programación bayesiana se utilizó en la visión para reconstruir la forma a partir del movimiento, [25] para modelar la interacción visuo-vestibular [26] y para estudiar los movimientos sacádicos del ojo; [27] en percepción y control del habla para estudiar la adquisición temprana del habla [28] y la aparición de sistemas articulatorios-acústicos; [29] y modelar la percepción y el control de la escritura a mano. [30]
Reconocimiento de patrones
El aprendizaje del programa bayesiano tiene aplicaciones potenciales de reconocimiento y síntesis de voz , reconocimiento de imágenes y procesamiento del lenguaje natural. Emplea los principios de composicionalidad (construir representaciones abstractas a partir de partes), causalidad (construir complejidad a partir de partes) y aprender a aprender (usar conceptos previamente reconocidos para facilitar la creación de nuevos conceptos). [31]
Teorías de la posibilidad
La comparación entre los enfoques probabilísticos (no solo la programación bayesiana) y las teorías de la posibilidad continúa siendo debatida.
Las teorías de la posibilidad como, por ejemplo, conjuntos difusos , [32] lógica difusa [33] y teoría de la posibilidad [34] son alternativas a la probabilidad para modelar la incertidumbre. Argumentan que la probabilidad es insuficiente o inconveniente para modelar ciertos aspectos del conocimiento incompleto / incierto.
La defensa de la probabilidad se basa principalmente en el teorema de Cox , que parte de cuatro postulados sobre el razonamiento racional en presencia de incertidumbre. Demuestra que el único marco matemático que satisface estos postulados es la teoría de la probabilidad. El argumento es que cualquier enfoque que no sea la probabilidad infringe necesariamente uno de estos postulados y el valor de esa infracción.
Programación probabilística
El propósito de la programación probabilística es unificar el alcance de los lenguajes de programación clásicos con el modelado probabilístico (especialmente las redes bayesianas ) para lidiar con la incertidumbre mientras se benefician de la expresividad de los lenguajes de programación para codificar la complejidad.
Los lenguajes de programación clásicos extendidos incluyen lenguajes lógicos propuestos en Probabilistic Horn Abduction , [35] Independent Choice Logic, [36] PRISM, [37] y ProbLog que propone una extensión de Prolog.
También pueden ser extensiones de lenguajes de programación funcional (esencialmente Lisp y Scheme ) como IBAL o CHURCH. Los lenguajes de programación subyacentes pueden estar orientados a objetos como en BLOG y FACTORIE o más estándar como en CES y FIGARO. [38]
El propósito de la programación bayesiana es diferente. El precepto de Jaynes de "probabilidad como lógica" sostiene que la probabilidad es una extensión y una alternativa a la lógica por encima de la cual se puede reconstruir una teoría completa de la racionalidad, la computación y la programación. [1] La programación bayesiana intenta reemplazar los lenguajes clásicos con un enfoque de programación basado en la probabilidad que considera la incompletitud y la incertidumbre .
La comparación precisa entre la semántica y el poder de expresión de la programación bayesiana y probabilística es una cuestión abierta.
Ver también
- Regla de Bayes
- Inferencia bayesiana
- Probabilidad bayesiana
- Filtrado bayesiano de spam
- Propagación de la creencia
- Teorema de cox
- Algoritmo de maximización de expectativas
- Gráfico de factores
- Modelo grafico
- Modelo de Markov oculto
- Perla de Judea
- Filtro de Kalman
- Clasificador ingenuo de Bayes
- Pierre-Simon de Laplace
- Lógica probabilística
- Lenguaje de programación probabilístico
- Lógica subjetiva
Referencias
- ↑ a b Jaynes, ET (10 de abril de 2003). Teoría de la probabilidad: la lógica de la ciencia . Prensa de la Universidad de Cambridge. ISBN 978-1-139-43516-1.
- ^ Bessiere, Pierre; Mazer, Emmanuel; Manuel Ahuactzin, Juan; Mekhnacha, Kamel (20 de diciembre de 2013). Programación Bayesiana . Prensa CRC. ISBN 978-1-4398-8032-6.
- ^ "Gráficos de expresión: unificación de gráficos de factores y redes de suma-producto" (PDF) . bcf.usc.edu .
- ^ "Modelado probabilístico y análisis bayesiano" (PDF) . ocw.mit.edu .
- ^ "Redes Bayesianas" (PDF) . cs.brandeis.edu .
- ^ Kalman, RE (1960). "Un nuevo enfoque de los problemas de filtración y de predicción lineal". Revista de Ingeniería Básica . 82 : 33–45. doi : 10.1115 / 1.3662552 . S2CID 1242324 .
- ^ Bessière, Pierre; Más risible, Christian; Siegwart, Roland (15 de mayo de 2008). Razonamiento probabilístico y toma de decisiones en sistemas sensorio-motores . Springer Science & Business Media. ISBN 978-3-540-79006-8.
- ^ Lebeltel, O .; Bessière, P .; Diard, J .; Mazer, E. (2004). "Programación de robots bayesianos" (PDF) . Robótica avanzada . 16 (1): 49–79. doi : 10.1023 / b: auro.0000008671.38949.43 . S2CID 18768468 .
- ^ Diard, J .; Chaleco, E .; Simonin, E .; Bessière, P. (2010). "Aprendizaje incremental de modelos sensitivomotores bayesianos: desde comportamientos de bajo nivel a estructura del entorno a gran escala" (PDF) . Ciencia de la conexión . 22 (4): 291–312. Código Bibliográfico : 2010ConSc..22..291D . doi : 10.1080 / 09540091003682561 . S2CID 216035458 .
- ^ Pradalier, C .; Hermosillo, J .; Koike, C .; Braillon, C .; Bessière, P .; Laugier, C. (2005). "La CyCab: un robot parecido a un coche que navega de forma autónoma y segura entre los peatones". Robótica y sistemas autónomos . 50 (1): 51–68. CiteSeerX 10.1.1.219.69 . doi : 10.1016 / j.robot.2004.10.002 .
- ^ Ferreira, J .; Lobo, J .; Bessière, P .; Castelo-Branco, M .; Dias, J. (2012). "Un marco bayesiano para la percepción artificial activa" (PDF) . Transacciones IEEE sobre sistemas, hombre y cibernética - Parte B: Cibernética . 99 (2): 1–13. doi : 10.1109 / TSMCB.2012.2214477 . PMID 23014760 . S2CID 1808051 .
- ^ Ferreira, JF; Dias, JM (2014). Enfoques probabilísticos de la percepción robótica . Saltador. ISBN 978-3-319-02005-1.
- ^ Mekhnacha, K .; Mazer, E .; Bessière, P. (2001). "El diseño e implementación de un modelador CAD bayesiano para aplicaciones robóticas". Robótica avanzada . 15 (1): 45–69. CiteSeerX 10.1.1.552.3126 . doi : 10.1163 / 156855301750095578 . S2CID 7920387 .
- ^ Coué, C .; Pradalier, C .; Laugier, C .; Fraichard, T .; Bessière, P. (2006). "Filtrado de ocupación bayesiana para seguimiento de objetivos múltiples: una aplicación automotriz" (PDF) . Revista Internacional de Investigación en Robótica . 25 (1): 19–30. doi : 10.1177 / 0278364906061158 . S2CID 13874685 .
- ^ Vasudevan, S .; Siegwart, R. (2008). "Conceptualización del espacio bayesiano y clasificación de lugares para mapas semánticos en robótica móvil". Robótica y sistemas autónomos . 56 (6): 522–537. CiteSeerX 10.1.1.149.4189 . doi : 10.1016 / j.robot.2008.03.005 .
- ^ Perrin, X .; Chavarriaga, R .; Colas, F .; Seigwart, R .; Millán, J. (2010). "Interacción de cerebro-acoplado para la navegación semiautónoma de un robot de asistencia" . Robótica y sistemas autónomos . 58 (12): 1246-1255. doi : 10.1016 / j.robot.2010.05.010 .
- ^ Rett, J .; Dias, J .; Ahuactzin, JM. (2010). "Razonamiento bayesiano para el análisis de movimiento de Laban utilizado en la interacción hombre-máquina". Revista internacional de sistemas inteligentes basados en el razonamiento . 2 (1): 13–35. CiteSeerX 10.1.1.379.6216 . doi : 10.1504 / IJRIS.2010.029812 .
- ^ Möbus, C .; Eilers, M .; Garbe, H .; Zilinski, M. (2009), "Modelado probabilístico y empírico fundamentado de agentes en escenarios de tráfico cooperativo (parcial)", en Duffy, Vincent G. (ed.), Modelado humano digital (PDF) , Lecture Notes in Computer Science, Volumen 5620, 5620 , Segunda Conferencia Internacional, ICDHM 2009, San Diego, CA, EE. UU .: Springer, págs. 423–432, doi : 10.1007 / 978-3-642-02809-0_45 , ISBN 978-3-642-02808-3Mantenimiento de CS1: ubicación ( enlace )
- ^ Möbus, C .; Eilers, M. (2009), "Más pasos hacia el modelado de controladores según el enfoque de programación bayesiano", en Duffy, Vincent G. (ed.), Modelado humano digital , Lecture Notes in Computer Science, Volumen 5620, 5620 , Segunda edición internacional Conferencia, ICDHM 2009, San Diego, CA, EE. UU .: Springer, págs. 413–422, CiteSeerX 10.1.1.319.2067 , doi : 10.1007 / 978-3-642-02809-0_44 , ISBN 978-3-642-02808-3Mantenimiento de CS1: ubicación ( enlace )
- ^ Eilers, M .; Möbus, C. (2010). "Lernen eines modularen modelos de mezcla de comportamientos de controlador autónomo bayesiano (BAD MoB)" (PDF) . En Kolrep, H .; Jürgensohn, Th. (eds.). Fahrermodellierung - Zwischen kinematischen Menschmodellen und dynamisch-kognitiven Verhaltensmodellen . Fortschrittsbericht des VDI in der Reihe 22 (Mensch-Maschine-Systeme). Düsseldorf, Alemania: VDI-Verlag. págs. 61–74. ISBN 978-3-18-303222-8.
- ^ Eilers, M .; Möbus, C. (2011). "Aprendizaje de las percepciones relevantes de los modelos de controlador bayesiano jerárquico modular utilizando un criterio de información bayesiano". En Duffy, VG (ed.). Modelado humano digital . LNCS 6777. Heidelberg, Alemania: Springer. págs. 463–472. doi : 10.1007 / 978-3-642-21799-9_52 . ISBN 978-3-642-21798-2.
- ^ Eilers, M .; Möbus, C. (2011). "Aprendizaje de un modelo de mezcla de comportamientos de controlador autónomo bayesiano (BAD-MoB)" . En Duffy, VG (ed.). Avances en el modelado humano digital aplicado . LNCS 6777. Boca Raton, Estados Unidos: CRC Press, Taylor & Francis Group. págs. 436–445. ISBN 978-1-4398-3511-1.
- ^ Le Hy, R .; Arrigoni, A .; Bessière, P .; Lebetel, O. (2004). "Enseñar comportamientos bayesianos a personajes de videojuegos" (PDF) . Robótica y sistemas autónomos . 47 (2-3): 177-185. doi : 10.1016 / j.robot.2004.03.012 .
- ^ Synnaeve, G. (2012). Programación y aprendizaje bayesianos para videojuegos multijugador (PDF) .
- ^ Colas, F .; Droulez, J .; Wexler, M .; Bessière, P. (2008). "Un modelo probabilístico unificado de la percepción de la estructura tridimensional del flujo óptico". Cibernética biológica . 97 (5–6): 461–77. CiteSeerX 10.1.1.215.1491 . doi : 10.1007 / s00422-007-0183-z . PMID 17987312 . S2CID 215821150 .
- ^ Laurens, J .; Droulez, J. (2007). "Procesamiento bayesiano de información vestibular". Cibernética biológica . 96 (4): 389–404. doi : 10.1007 / s00422-006-0133-1 . PMID 17146661 . S2CID 18138027 .
- ^ Colas, F .; Flacher, F .; Tanner, T .; Bessière, P .; Girard, B. (2009). "Modelos bayesianos de selección del movimiento ocular con mapas retinotópicos" (PDF) . Cibernética biológica . 100 (3): 203–214. doi : 10.1007 / s00422-009-0292-y . PMID 19212780 . S2CID 5906668 .
- ^ Serkhane, J .; Schwartz, JL .; Bessière, P. (2005). "Construyendo un bebé robot parlante Una contribución al estudio de la adquisición y evolución del habla" (PDF) . Estudios de interacción . 6 (2): 253–286. doi : 10.1075 / is.6.2.06ser .
- ^ Moulin-Frier, C .; Laurent, R .; Bessière, P .; Schwartz, JL .; Diard, J. (2012). "Las condiciones adversas mejoran la distinción de las teorías auditivas, motoras y perceptoromotoras de la percepción del habla: un estudio exploratorio de modelos bayesianos" (PDF) . Procesos cognitivos y del lenguaje . 27 (7-8): 1240-1263. doi : 10.1080 / 01690965.2011.645313 . S2CID 55504109 .
- ^ Chaleco, E .; Diard, J .; Bessière, P. (2011). Sporns, Olaf (ed.). "Modelo computacional de percepción-acción bayesiana: interacción de producción y reconocimiento de letras cursivas" . PLOS ONE . 6 (6): e20387. Código Bibliográfico : 2011PLoSO ... 620387G . doi : 10.1371 / journal.pone.0020387 . PMC 3106017 . PMID 21674043 .
- ^ "El nuevo algoritmo ayuda a las máquinas a aprender tan rápido como los humanos" . www.gizmag.com . 2016-01-22 . Consultado el 23 de enero de 2016 .
- ^ Zadeh, Lofti, A. (1965). "Conjuntos difusos" . Información y control . 8 (3): 338–353. doi : 10.1016 / S0019-9958 (65) 90241-X .
- ^ Zadeh, Lofti, A. (1975). "Lógica difusa y razonamiento aproximado". Síntesis . 30 (3–4): 407–428. doi : 10.1007 / BF00485052 . S2CID 46975216 .
- ^ Dubois, D .; Prade, H. (2001). "Teoría de la posibilidad, teoría de la probabilidad y lógicas de valores múltiples: una aclaración" (PDF) . Ana. Matemáticas. Artif. Intell . 32 (1–4): 35–66. doi : 10.1023 / A: 1016740830286 . S2CID 10271476 .
- ^ Poole, D. (1993). "Abducción probabilística del cuerno y redes bayesianas". Inteligencia artificial . 64 : 81-129. doi : 10.1016 / 0004-3702 (93) 90061-F .
- ^ Poole, D. (1997). "La lógica de elección independiente para modelar múltiples agentes bajo incertidumbre". Inteligencia artificial . 94 (1–2): 7–56. doi : 10.1016 / S0004-3702 (97) 00027-1 .
- ^ Sato, T .; Kameya, Y. (2001). "Aprendizaje de parámetros de programas lógicos para modelado simbólico-estadístico" (PDF) . Revista de Investigación en Inteligencia Artificial . 15 (2001): 391–454. arXiv : 1106.1797 . Código Bibliográfico : 2011arXiv1106.1797S . doi : 10.1613 / jair.912 . S2CID 7857569 . Archivado desde el original (PDF) el 12 de julio de 2014 . Consultado el 18 de octubre de 2015 .
- ^ figaro en GitHub
Otras lecturas
- Kamel Mekhnacha (2013). Programación Bayesiana . Chapman y Hall / CRC. doi : 10.1201 / b16111 . ISBN 978-1-4398-8032-6.
enlaces externos
- Un sitio que acompaña al libro de programación Bayesiana donde descargar ProBT, un motor de inferencia dedicado a la programación Bayesiana. [ enlace muerto permanente ]
- El sitio Bayesian-programming.org Archivado el 23 de noviembre de 2013 en archive.today para la promoción de la programación bayesiana con información detallada y numerosas publicaciones.