El algoritmo de Hebbian generalizado ( GHA ), también conocido en la literatura como la regla de Sanger , es un modelo de red neuronal de retroalimentación lineal para el aprendizaje no supervisado con aplicaciones principalmente en el análisis de componentes principales . Definido por primera vez en 1989, [1] es similar a la regla de Oja en su formulación y estabilidad, excepto que se puede aplicar a redes con múltiples salidas. El nombre se origina debido a la similitud entre el algoritmo y una hipótesis formulada por Donald Hebb [2]sobre la forma en que las fuerzas sinápticas en el cerebro se modifican en respuesta a la experiencia, es decir, que los cambios son proporcionales a la correlación entre la activación de las neuronas presinápticas y postsinápticas . [3]
El GHA combina la regla de Oja con el proceso de Gram-Schmidt para producir una regla de aprendizaje de la forma
donde w ij define el peso sináptica o conexión de fuerza entre el j ésimo de entrada y i th neuronas de salida, x y y son los vectores de entrada y salida, respectivamente, y η es la tasa de aprendizaje de parámetros.
En forma de matriz, la regla de Oja se puede escribir
y el algoritmo de Gram-Schmidt es
donde w ( t ) es cualquier matriz, en este caso representa pesos sinápticos, Q = η x x T es la matriz de autocorrelación, simplemente el producto externo de las entradas, diag es la función que diagonaliza una matriz, y menor es la función que establece todos los elementos de la matriz en la diagonal o por encima de ella son iguales a 0. Podemos combinar estas ecuaciones para obtener nuestra regla original en forma de matriz,
donde la función LT establece todos los elementos de la matriz por encima de la diagonal iguales a 0, y tenga en cuenta que nuestra salida y ( t ) = w ( t ) x ( t ) es una neurona lineal. [1]
El GHA se utiliza en aplicaciones donde es necesario un mapa autoorganizado , o donde se puede utilizar un análisis de características o componentes principales . Algunos ejemplos de estos casos son la inteligencia artificial y el procesamiento de imágenes y habla.
Su importancia proviene del hecho de que el aprendizaje es un proceso de una sola capa, es decir, un peso sináptico cambia solo dependiendo de la respuesta de las entradas y salidas de esa capa, evitando así la dependencia de múltiples capas asociada con el algoritmo de retropropagación . También tiene una compensación simple y predecible entre la velocidad de aprendizaje y la precisión de la convergencia establecida por el parámetro de tasa de aprendizaje η . [5]