Un muñón de decisión es un modelo de aprendizaje automático que consta de un árbol de decisión de un nivel . [1] Es decir, es un árbol de decisión con un nodo interno (la raíz) que se conecta inmediatamente a los nodos terminales (sus hojas). Un muñón de decisión hace una predicción basada en el valor de una sola característica de entrada. A veces también se les llama reglas 1 . [2]
Dependiendo del tipo de característica de entrada , son posibles varias variaciones. Para las características nominales, se puede construir un tocón que contenga una hoja para cada valor de característica posible [3] [4] o un tocón con las dos hojas, una de las cuales corresponde a alguna categoría elegida y la otra hoja a todas las demás categorías. . [5] Para características binarias, estos dos esquemas son idénticos. Un valor faltante puede tratarse como una categoría más. [5]
Para las características continuas , por lo general, se selecciona algún valor de característica de umbral, y el tocón contiene dos hojas, para valores por debajo y por encima del umbral. Sin embargo, en raras ocasiones, se pueden elegir varios umbrales y, por lo tanto, el tocón contiene tres o más hojas.
Los elementos de decisión se utilizan a menudo [6] como componentes (denominados "alumnos débiles" o "alumnos básicos") en técnicas de conjunto de aprendizaje automático , como embolsado y refuerzo . Por ejemplo, un algoritmo de detección de rostros Viola-Jones emplea AdaBoost con elementos de decisión como aprendices débiles. [7]
El término "muñón de decisión" fue acuñado en un artículo del ICML de 1992 por Wayne Iba y Pat Langley. [1] [8]
Ver también
Referencias
- ^ a b Iba, Wayne; y Langley, Pat (1992); Inducción de árboles de decisión de un nivel , en ML92: Actas de la Novena Conferencia Internacional sobre Aprendizaje Automático, Aberdeen, Escocia, 1 a 3 de julio de 1992 , San Francisco, CA: Morgan Kaufmann, págs. 233–240
- ^ Holte, Robert C. (1993). "Las reglas de clasificación muy simples funcionan bien en los conjuntos de datos más utilizados": 63–91. CiteSeerX 10.1.1.67.2711 . Cite journal requiere
|journal=
( ayuda ) - ^ Loper, Edward L .; Bird, Steven; Klein, Ewan (2009). Procesamiento de lenguaje natural con Python . Sebastopol, CA: O'Reilly . ISBN 978-0-596-51649-9. Archivado desde el original el 18 de junio de 2010 . Consultado el 10 de junio de 2010 .
- ^ Este clasificador se implementa en Weka con el nombre
OneR
(para "1-regla"). - ^ a b Esto es lo que se ha implementado en el clasificador de Weka
DecisionStump
. - ^ Reyzin, Lev; y Schapire, Robert E. (2006); Cómo aumentar el margen también puede impulsar la complejidad del clasificador , en ICML'06: Actas de la 23a conferencia internacional sobre aprendizaje automático , págs. 753-760
- ^ Viola, Paul; y Jones, Michael J. (2004); Detección robusta de rostros en tiempo real , International Journal of Computer Vision, 57 (2), 137-154
- ^ Oliver, Jonathan J .; y Hand, David (1994); Averaging Over Decision Stumps , in Machine Learning: ECML-94, European Conference on Machine Learning, Catania, Italia, 6 al 8 de abril de 1994, Actas , Lecture Notes in Computer Science (LNCS) 784, Springer, págs. 231–241 ISBN 3-540-57868-4 doi : 10.1007 / 3-540-57868-4_61
Cita: "Estas reglas simples son, en efecto, árboles de decisión muy podados y se han denominado tocones de decisión [cita a Iba y Langley]".