En informática , la cuantificación vectorial de aprendizaje ( LVQ ) es un algoritmo de clasificación supervisado basado en prototipos . LVQ es la contraparte supervisada de los sistemas de cuantificación de vectores .
Descripción general
LVQ puede entenderse como un caso especial de una red neuronal artificial , más precisamente, aplica un enfoque basado en el aprendizaje de Hebbian en el que el ganador se lleva todo . Es un precursor de los mapas autoorganizados (SOM) y relacionados con el gas neural , y con el algoritmo del vecino más cercano k (k-NN). LVQ fue inventado por Teuvo Kohonen . [1]
Un sistema LVQ está representado por prototipos que se definen en el espacio de características de los datos observados. En los algoritmos de entrenamiento el ganador se lo lleva todo, uno determina, para cada punto de datos, el prototipo más cercano a la entrada de acuerdo con una medida de distancia dada. A continuación, se adapta la posición de este prototipo denominado ganador, es decir, el ganador se acerca si clasifica correctamente el punto de datos o se aleja si clasifica incorrectamente el punto de datos.
Una ventaja de LVQ es que crea prototipos que son fáciles de interpretar para los expertos en el dominio de aplicación respectivo. [2] Los sistemas LVQ se pueden aplicar a problemas de clasificación de clases múltiples de forma natural. Se utiliza en una variedad de aplicaciones prácticas. Consulte la 'Bibliografía sobre el mapa autoorganizado (SOM) y la cuantificación de vectores de aprendizaje (LVQ) '.
Un tema clave en LVQ es la elección de una medida adecuada de distancia o similitud para el entrenamiento y la clasificación. Recientemente, se han desarrollado técnicas que adaptan una medida de distancia parametrizada en el curso del entrenamiento del sistema, ver, por ejemplo, (Schneider, Biehl y Hammer, 2009) [3] y referencias allí.
LVQ puede ser una gran ayuda para clasificar documentos de texto. [ cita requerida ]
Algoritmo
A continuación sigue una descripción informal.
El algoritmo consta de tres pasos básicos. La entrada del algoritmo es:
- cuántas neuronas tendrá el sistema (en el caso más simple es igual al número de clases)
- que peso tiene cada neurona por
- la etiqueta correspondiente a cada neurona
- qué tan rápido están aprendiendo las neuronas
- y una lista de entrada que contiene todos los vectores cuyas etiquetas ya se conocen (conjunto de entrenamiento).
El flujo del algoritmo es:
- Para la próxima entrada (con etiqueta ) en encuentra la neurona más cercana ,
es decir, dónde es la métrica utilizada ( euclidiana , etc.). - Actualizar . Una mejor explicación es obtener más cerca de la entrada , Si y pertenecen a la misma etiqueta y se separan más si no lo hacen.
Si (más juntos)
o Si (más lejos). - Si bien quedan vectores en vaya al paso 1, de lo contrario termine.
Nota: y son vectores en el espacio de características.
Puede encontrar una descripción más formal aquí: http://jsalatas.ictpro.gr/implementation-of-competitive-learning-networks-for-weka/
Referencias
- ^ T. Kohonen. Mapas autoorganizados. Springer, Berlín, 1997.
- ^ T. Kohonen (1995), "Cuantización de vectores de aprendizaje", en MA Arbib (ed.), El manual de teoría del cerebro y redes neuronales , Cambridge, MA: MIT Press, págs. 537–540
- ^ P. Schneider, B. Hammer y M. Biehl (2009). "Matrices de relevancia adaptativa en la cuantificación de vectores de aprendizaje". Computación neuronal . 21 (10): 3532–3561. CiteSeerX 10.1.1.216.1183 . doi : 10.1162 / neco.2009.10-08-892 . PMID 19635012 . S2CID 17306078 .Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
Otras lecturas
enlaces externos
- LVQ para WEKA : Implementación de variantes de LVQ (LVQ1, OLVQ1, LVQ2.1, LVQ3, OLVQ3) para WEKA Machine Learning Workbench.
- Lanzamiento oficial de lvq_pak (1996) de Kohonen y su equipo
- LVQ para WEKA : otra implementación de LVQ en Java para WEKA Machine Learning Workbench.
- Caja de herramientas GMLVQ : una implementación fácil de usar de LVQ de matriz generalizada (aprendizaje de relevancia de matriz) en (c) matlab