Las redes de dependencia (DN) son modelos gráficos , similares a las redes de Markov , donde cada vértice (nodo) corresponde a una variable aleatoria y cada borde captura dependencias entre variables. A diferencia de las redes bayesianas , los DN pueden contener ciclos. Cada nodo está asociado a una tabla de probabilidad condicional, que determina la realización de la variable aleatoria dados sus padres. [1]
Manta de markov
En una red bayesiana , el manto de Markov de un nodo es el conjunto de padres e hijos de ese nodo, junto con los padres de los hijos. Los valores de los padres y los hijos de un nodo, evidentemente, dan información sobre ese nodo. Sin embargo, los padres de sus hijos también deben incluirse en la manta de Markov, porque pueden usarse para explicar el nodo en cuestión. En un campo aleatorio de Markov , el manto de Markov para un nodo son simplemente sus nodos adyacentes (o vecinos). En una red de dependencia, el manto de Markov para un nodo es simplemente el conjunto de sus padres.
Red de dependencia versus redes bayesianas
Las redes de dependencia tienen ventajas y desventajas con respecto a las redes bayesianas. En particular, son más fáciles de parametrizar a partir de los datos, ya que existen algoritmos eficientes para aprender tanto la estructura como las probabilidades de una red de dependencia a partir de los datos. Tales algoritmos no están disponibles para redes bayesianas, para las cuales el problema de determinar la estructura óptima es NP-difícil. [2] No obstante, una red de dependencia puede ser más difícil de construir utilizando un enfoque basado en el conocimiento impulsado por el conocimiento de los expertos.
Redes de dependencia versus redes de Markov
Las redes de dependencia consistentes y las redes de Markov tienen el mismo poder de representación. No obstante, es posible construir redes de dependencia no consistentes, es decir, redes de dependencia para las que no existe una distribución de probabilidad conjunta válida compatible . Las redes de Markov, por el contrario, siempre son consistentes.
Definición
Una red de dependencia consistente para un conjunto de variables aleatorias con distribución conjunta es un par dónde es un grafo dirigido cíclico, donde cada uno de sus nodos corresponde a una variable en , y es un conjunto de distribuciones de probabilidad condicionales. Los padres del nodo, denotado , corresponden a esas variables que satisfagan las siguientes relaciones de independencia
La red de dependencia es consistente en el sentido de que cada distribución local puede obtenerse de la distribución conjunta . Las redes de dependencia aprendidas usando grandes conjuntos de datos con grandes tamaños de muestra casi siempre serán consistentes. Una red no consistente es una red para la que no existe una distribución de probabilidad conjunta compatible con el par.. En ese caso, no existe una distribución de probabilidad conjunta que satisfaga las relaciones de independencia subsumidas por ese par.
Aprendizaje de estructura y parámetros
Dos tareas importantes en una red de dependencia son aprender su estructura y probabilidades a partir de los datos. Básicamente, el algoritmo de aprendizaje consiste en realizar de forma independiente una regresión o clasificación probabilística para cada variable del dominio. Proviene de la observación de que la distribución local de la variable en una red de dependencia es la distribución condicional , que puede estimarse mediante cualquier número de técnicas de clasificación o regresión, como los métodos que utilizan un árbol de decisión probabilístico, una red neuronal o una máquina probabilística de vectores de soporte. Por lo tanto, para cada variable en el dominio , estimamos de forma independiente su distribución local a partir de los datos utilizando un algoritmo de clasificación, aunque es un método distinto para cada variable. Aquí, mostraremos brevemente cómo se utilizan los árboles de decisión probabilísticos para estimar las distribuciones locales. Para cada variable en , se aprende un árbol de decisión probabilístico donde es la variable de destino y son las variables de entrada. Para aprender una estructura de árbol de decisiones para, el algoritmo de búsqueda comienza con un nodo raíz singleton sin hijos. Luego, cada nodo hoja en el árbol se reemplaza con una división binaria en alguna variable en , hasta que no haya más reemplazos que aumenten la puntuación del árbol.
Inferencia probabilística
Una inferencia probabilística es la tarea en la que deseamos responder consultas probabilísticas de la forma , dado un modelo gráfico para , dónde (las variables 'objetivo') (las variables de 'entrada') son subconjuntos disjuntos de . Una de las alternativas para realizar inferencias probabilísticas es el muestreo de Gibbs . Un enfoque ingenuo para esto utiliza un muestreador Gibbs ordenado, cuya dificultad importante es que si o es pequeño, entonces se requieren muchas iteraciones para una estimación de probabilidad precisa. Otro enfoque para estimar Cuándo es utilizar un muestreador Gibbs ordenado modificado, donde corrige durante el muestreo de Gibbs.
También puede suceder que es raro, por ejemplo contiene muchas variables. Por lo tanto, la ley de probabilidad total junto con las independientes codificadas en una red de dependencia se puede utilizar para descomponer la tarea de inferencia en un conjunto de tareas de inferencia en variables individuales. Este enfoque tiene la ventaja de que algunos términos pueden obtenerse mediante una búsqueda directa, evitando así algunos muestreos de Gibbs.
Puede ver a continuación un algoritmo que se puede utilizar para obtener para una instancia particular de y , dónde y son subconjuntos disjuntos.
- Algoritmo 1:
- (* las variables no procesadas *)
- (* las variables procesadas y acondicionadoras *)
- (* los valores para *)
- Tiempo :
- Escoger tal que no tiene más padres en que cualquier variable en
- Si todos los padres de estan en
- Demás
- Utilice un muestreador Gibbs ordenado modificado para determinar
- Devuelve el producto de los condicionales
Aplicaciones
Además de las aplicaciones a la inferencia probabilística, las siguientes aplicaciones se encuentran en la categoría de Filtrado Colaborativo (CF), que es la tarea de predecir preferencias. Las redes de dependencia son una clase de modelo natural en la que basar las predicciones de CF, una vez que un algoritmo para esta tarea solo necesita la estimación depara producir recomendaciones. En particular, estas estimaciones pueden obtenerse mediante una búsqueda directa en una red de dependencia.
- Predecir qué películas le gustarán a una persona en función de sus calificaciones de las películas vistas;
- Predecir a qué páginas web accederá una persona en función de su historial en el sitio;
- Predecir qué noticias le interesan a una persona basándose en otras historias que leyó;
- Predecir qué producto comprará una persona en función de los productos que ya ha comprado y / o depositado en su cesta de la compra.
Otra clase de aplicaciones útiles para las redes de dependencia está relacionada con la visualización de datos, es decir, la visualización de relaciones predictivas.
Ver también
Referencias
- ^ HECKERMAN, David; MAXWELL C., David; MEEK, Christopher; ROUNTHWAITE, Robert; KADIE, Carl (octubre de 2000). "Redes de dependencia para inferencia, filtrado colaborativo y visualización de datos" (PDF) . Revista de investigación sobre aprendizaje automático .
- ^ HECKERMAN, David (2012). "El aprendizaje de muestras grandes de redes bayesianas es NP-Hard" (PDF) . arXiv : 1212.2468 . Cite journal requiere
|journal=
( ayuda )