En un problema de clasificación estadística con dos clases, un límite de decisión o superficie de decisión es una hipersuperficie que divide el espacio vectorial subyacente en dos conjuntos, uno para cada clase. El clasificador clasificará todos los puntos de un lado del límite de decisión como pertenecientes a una clase y todos los del otro lado como pertenecientes a la otra clase.
Un límite de decisión es la región de un espacio de problemas en el que la etiqueta de salida de un clasificador es ambigua. [1]
Si la superficie de decisión es un hiperplano , entonces el problema de clasificación es lineal y las clases son linealmente separables .
Los límites de decisión no siempre están bien definidos. Es decir, la transición de una clase en el espacio de características a otra no es discontinua, sino gradual. Este efecto es común en los algoritmos de clasificación basados en lógica difusa, donde la pertenencia a una clase u otra es ambigua.
En redes neuronales y modelos de vectores de soporte
En el caso de perceptrones o redes neuronales artificiales basadas en retropropagación , el tipo de límite de decisión que la red puede aprender está determinado por el número de capas ocultas que tiene la red. Si no tiene capas ocultas, solo puede aprender problemas lineales. Si tiene una capa oculta, entonces puede aprender cualquier función continua en subconjuntos compactos de R n como se muestra en el teorema de aproximación universal , por lo que puede tener un límite de decisión arbitrario.
En particular, las máquinas de vectores de soporte encuentran un hiperplano que separa el espacio de características en dos clases con el margen máximo . Si el problema no es originalmente separable linealmente, se puede usar el truco del núcleo para convertirlo en uno separable linealmente, aumentando el número de dimensiones. Así, una hipersuperficie general en un espacio de pequeñas dimensiones se convierte en un hiperplano en un espacio de dimensiones mucho mayores.
Las redes neuronales intentan aprender el límite de decisión que minimiza el error empírico, mientras que las máquinas de vectores de soporte intentan aprender el límite de decisión que maximiza el margen empírico entre el límite de decisión y los puntos de datos.