Máximo suave


De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

En matemáticas , un máximo uniforme de una familia indexada x 1 , ...,  x n de números es una aproximación suave a la función máxima , lo que significa una familia paramétrica de funciones tal que para cada α , la función es suave y la familia converge a la función máxima como . El concepto de mínimo uniforme se define de manera similar. En muchos casos, una sola familia se aproxima a ambos: máximo cuando el parámetro va al infinito positivo, mínimo cuando el parámetro va al infinito negativo; en símbolos, comoy como . El término también se puede usar libremente para una función suave específica que se comporta de manera similar a un máximo, sin necesariamente ser parte de una familia parametrizada.

Ejemplos de

Smoothmax de (−x, x) versus x para varios valores de parámetros. Muy suave para = 0,5 y más nítido para = 8.

Para grandes valores positivos del parámetro , la siguiente formulación es una aproximación suave y diferenciable de la función máxima. Para valores negativos del parámetro que son grandes en valor absoluto, se aproxima al mínimo.

tiene las siguientes propiedades:

  1. como
  2. es la media aritmética de sus entradas
  3. como

El gradiente de está estrechamente relacionado con softmax y está dado por

Esto hace que la función softmax sea útil para técnicas de optimización que utilizan el descenso de gradientes .

LogSumExp

Otro máximo suave es LogSumExp :

Esto también se puede normalizar si no son negativos, lo que produce una función con dominio y rango :

El término corrige el hecho de que cancelando todos menos uno cero exponencial, y si todos son cero.

p-norma

Otro máximo suave es la p-norma :

que converge a como .

Una ventaja de la p-norma es que es una norma . Como tal, es "invariante de escala" (homogéneo):, y satisface la desigualdad triangular.

Uso en métodos numéricos

Otras opciones de función de suavizado

Donde es un parámetro.

Ver también

Referencias

M. Lange, D. Zühlke, O. Holz y T. Villmann, "Aplicaciones de las normas lp y sus aproximaciones suaves para la cuantificación de vectores de aprendizaje basada en gradientes", en Proc. ESANN , abril de 2014, págs. 271-276. ( https://www.elen.ucl.ac.be/Proceedings/esann/esannpdf/es2014-153.pdf )