Mapa topográfico generativo


El mapa topográfico generativo ( GTM ) es un método de aprendizaje automático que es una contraparte probabilística del mapa autoorganizado (SOM), es probablemente convergente y no requiere una vecindad que se contrae o un tamaño de paso decreciente. Es un modelo generativo : se supone que los datos surgen eligiendo primero probabilísticamente un punto en un espacio de baja dimensión, mapeando el punto al espacio de entrada de alta dimensión observado (a través de una función suave) y luego agregando ruido en ese espacio. Los parámetros de la distribución de probabilidad de baja dimensión, el mapa suave y el ruido se aprenden de los datos de entrenamiento utilizando la maximización de expectativasAlgoritmo (EM). GTM se introdujo en 1996 en un artículo de Christopher Bishop , Markus Svensen y Christopher KI Williams.

El enfoque está fuertemente relacionado con las redes de densidad que utilizan un muestreo de importancia y un perceptrón multicapa para formar un modelo de variable latente no lineal . En el GTM, el espacio latente es una cuadrícula discreta de puntos que se supone que se proyecta de forma no lineal en el espacio de datos. Un ruido gaussiano suposición se hace a continuación, en el espacio de datos para que el modelo se convierte en un restringido mezcla de gaussianas . Entonces EM puede maximizar la probabilidad del modelo.

En teoría, se podría utilizar una deformación paramétrica no lineal arbitraria. Los parámetros óptimos se pueden encontrar mediante descenso de gradiente, etc.

El enfoque sugerido para el mapeo no lineal es utilizar una red de función de base radial (RBF) para crear un mapeo no lineal entre el espacio latente y el espacio de datos. Los nodos de la red RBF forman un espacio de características y el mapeo no lineal se puede tomar como una transformación lineal de este espacio de características. Este enfoque tiene la ventaja sobre el enfoque de red de densidad sugerido de que se puede optimizar analíticamente.

En el análisis de datos, los GTM son como una versión no lineal del análisis de componentes principales , que permite modelar datos de alta dimensión como resultado del ruido gaussiano agregado a fuentes en el espacio latente de dimensiones inferiores. Por ejemplo, para ubicar acciones en un espacio 2D trazable en función de sus formas de series de tiempo hi-D. Otras aplicaciones pueden querer tener menos fuentes que puntos de datos, por ejemplo, modelos de mezcla.

En modelado generativo deformacional, los espacios latentes y de datos tienen las mismas dimensiones, por ejemplo, imágenes 2D o 1 ondas de sonido de audio. Se agregan dimensiones 'vacías' adicionales a la fuente (conocida como la 'plantilla' en esta forma de modelado), por ejemplo, ubicando la onda de sonido 1D en el espacio 2D. Luego se agregan más dimensiones no lineales, producidas combinando las dimensiones originales. El espacio latente ampliado luego se proyecta de nuevo al espacio de datos 1D. La probabilidad de una proyección dada está, como antes, dada por el producto de la probabilidad de los datos bajo el modelo de ruido gaussiano con el parámetro de deformación a priori. A diferencia del modelado de deformación convencional basado en resortes, este tiene la ventaja de ser analíticamente optimizable. La desventaja es que es un enfoque de 'minería de datos', es decirEs poco probable que la forma de la deformación anterior sea significativa como explicación de las posibles deformaciones, ya que se basa en un espacio latente no lineal muy alto, construido de forma artificial y arbitraria. Por esta razón, lo anterior se aprende a partir de datos en lugar de crearlo un experto humano, como es posible para los modelos basados ​​en resortes.