El aprendizaje del espacio de versiones es un enfoque lógico para el aprendizaje automático , específicamente la clasificación binaria . Los algoritmos de aprendizaje del espacio de versiones buscan un espacio predefinido de hipótesis , visto como un conjunto de oraciones lógicas . Formalmente, el espacio de hipótesis es una disyunción [1]
(es decir, la hipótesis 1 es verdadera, la hipótesis 2 o cualquier subconjunto de las hipótesis 1 a n ). Se presenta un algoritmo de aprendizaje del espacio de versiones con ejemplos, que utilizará para restringir su espacio de hipótesis; para cada ejemplo x , las hipótesis que son inconsistentes con x se eliminan del espacio. [2] Este refinamiento iterativo del espacio de hipótesis se denomina algoritmo de eliminación de candidatos , el espacio de hipótesis mantenido dentro del algoritmo su espacio de versión . [1]
El algoritmo de espacio de versiones
En entornos donde existe un orden de generalidad en las hipótesis, es posible representar el espacio de versiones mediante dos conjuntos de hipótesis: (1) las hipótesis consistentes más específicas , y (2) las hipótesis consistentes más generales , donde "consistente" indica acuerdo con los datos observados.
Las hipótesis más específicas (es decir, el límite específico SB ) cubren los ejemplos de entrenamiento positivos observados y la menor cantidad posible del espacio de características restante . Estas hipótesis, si se reducen aún más, excluyen un ejemplo de entrenamiento positivo y, por lo tanto, se vuelven inconsistentes. Estas hipótesis mínimas constituyen esencialmente una afirmación (pesimista) de que el concepto verdadero se define solo por los datos positivos ya observados: por lo tanto, si se observa un punto de datos nuevo (nunca antes visto), debe asumirse que es negativo. (Es decir, si los datos no se han descartado previamente, se descartan).
Las hipótesis más generales (es decir, el límite general GB ) cubren los ejemplos de entrenamiento positivos observados, pero también cubren la mayor parte del espacio de características restante sin incluir ningún ejemplo de entrenamiento negativo. Estos, si se amplían más, incluyen un ejemplo de entrenamiento negativo y, por lo tanto, se vuelven inconsistentes. Estas hipótesis máximas esencialmente constituyen una afirmación (optimista) de que el concepto verdadero se define solo por los datos negativos ya observados: por lo tanto, si se observa un punto de datos nuevo (nunca antes visto), debe asumirse que es positivo. (Es decir, si los datos no se han descartado previamente, se descartan).
Por lo tanto, durante el aprendizaje, el espacio de versión (que en sí mismo es un conjunto, posiblemente infinito, que contiene todas las hipótesis consistentes) puede representarse solo por sus límites inferior y superior (conjuntos de hipótesis máximamente generales y máximamente específicas), y las operaciones de aprendizaje pueden realizarse simplemente en estos conjuntos representativos.
Después de aprender, la clasificación se puede realizar en ejemplos invisibles probando la hipótesis aprendida por el algoritmo. Si el ejemplo es consistente con múltiples hipótesis, se puede aplicar una regla de voto mayoritario. [1]
Antecedentes históricos
Mitchell introdujo la noción de espacios de versión a principios de la década de 1980 [2] como un marco para comprender el problema básico del aprendizaje supervisado en el contexto de la búsqueda de soluciones . Aunque el método de búsqueda básico de " eliminación de candidatos " que acompaña al marco del espacio de versiones no es un algoritmo de aprendizaje popular, se han desarrollado algunas implementaciones prácticas (por ejemplo, Sverdlik & Reynolds 1992, Hong & Tsang 1997, Dubois & Quafafou 2002).
Un gran inconveniente del aprendizaje del espacio de versiones es su incapacidad para lidiar con el ruido: cualquier par de ejemplos inconsistentes puede hacer que el espacio de versiones colapse , es decir, quede vacío, por lo que la clasificación se vuelve imposible. [1] Una solución a este problema es propuesta por Dubois y Quafafou que propusieron el Rough Version Space, [3] donde se utilizan aproximaciones basadas en conjuntos aproximados para aprender ciertas y posibles hipótesis en presencia de datos inconsistentes.
Ver también
- Análisis de concepto formal
- Programación lógica inductiva
- Conjunto rugoso . [El marco del conjunto aproximado se centra en el caso en el que la ambigüedad es introducida por un conjunto de características empobrecido . Es decir, el concepto objetivo no se puede describir de manera decisiva porque el conjunto de características disponibles no logra eliminar la ambigüedad de los objetos que pertenecen a diferentes categorías. El marco del espacio de versiones se centra en el caso (de inducción clásica) en el que la ambigüedad es introducida por un conjunto de datos empobrecido . Es decir, el concepto objetivo no se puede describir de manera decisiva porque los datos disponibles no logran seleccionar una hipótesis de manera única. Naturalmente, ambos tipos de ambigüedad pueden ocurrir en el mismo problema de aprendizaje.]
- Razonamiento inductivo . [Sobre el problema general de la inducción.]
Referencias
- ^ a b c d Russell, Stuart ; Norvig, Peter (2003) [1995]. Inteligencia artificial: un enfoque moderno (2ª ed.). Prentice Hall. págs. 683–686. ISBN 978-0137903955.
- ^ a b Mitchell, Tom M. (1982). "Generalización como búsqueda". Inteligencia artificial . 18 (2): 203–226. doi : 10.1016 / 0004-3702 (82) 90040-6 .
- ^ Dubois, Vincent; Quafafou, Mohamed (2002). "Aprendizaje de conceptos con aproximación: espacios de versión aproximada". Conjuntos aproximados y tendencias actuales en informática: Actas de la Tercera Conferencia Internacional, RSCTC 2002 . Malvern, Pensilvania. págs. 239–246. doi : 10.1007 / 3-540-45813-1_31 .
- Hong, Tzung-Pai; Shian-Shyong Tsang (1997). "Un algoritmo de aprendizaje espacial de versión generalizada para datos ruidosos e inciertos" . Transacciones IEEE sobre conocimiento e ingeniería de datos . 9 (2): 336–340. doi : 10.1109 / 69.591457 .
- Mitchell, Tom M. (1997). Aprendizaje automático . Boston: McGraw-Hill.
- Sverdlik, W .; Reynolds, RG (1992). "Espacios de versión dinámica en aprendizaje automático". Actas, Cuarta Conferencia Internacional sobre Herramientas con Inteligencia Artificial (TAI '92) . Arlington, VA. págs. 308–315.