Regla delta


En el aprendizaje automático , la regla delta es una regla de aprendizaje de descenso de gradiente para actualizar los pesos de las entradas a las neuronas artificiales en una red neuronal de una sola capa . [1] Es un caso especial del algoritmo de retropropagación más general . Para una neurona con función de activación , la regla delta para el peso de la neurona viene dada por

Tiene eso y .

La regla delta se establece comúnmente en forma simplificada para una neurona con una función de activación lineal como

Si bien la regla delta es similar a la regla de actualización del perceptrón , la derivación es diferente. El perceptrón usa la función escalón Heaviside como función de activación , y eso significa que no existe en cero, y es igual a cero en otros lugares, lo que hace imposible la aplicación directa de la regla delta.

La regla delta se deriva al intentar minimizar el error en la salida de la red neuronal a través del descenso de gradiente . El error para una red neuronal con salidas se puede medir como

En este caso, deseamos movernos a través del "espacio de peso" de la neurona (el espacio de todos los valores posibles de todos los pesos de la neurona) en proporción al gradiente de la función de error con respecto a cada peso. Para ello, calculamos la derivada parcial del error con respecto a cada peso. Para el peso th, esta derivada se puede escribir como