En visión por computadora , reconocimiento de patrones y robótica , el registro de conjuntos de puntos , también conocido como registro de nubes de puntos o coincidencia de escaneo , es el proceso de encontrar una transformación espacial ( por ejemplo, escalado , rotación y traslación ) que alinea dos nubes de puntos . El propósito de encontrar tal transformación incluye fusionar múltiples conjuntos de datos en un modelo globalmente consistente (o marco de coordenadas) y mapear una nueva medición a un conjunto de datos conocido para identificar características o estimar su pose.. Los datos de nubes de puntos 3D sin procesar se obtienen normalmente de cámaras Lidars y RGB-D . Las nubes de puntos 3D también se pueden generar a partir de algoritmos de visión por computadora como la triangulación , el ajuste de paquetes y, más recientemente, la estimación de la profundidad de la imagen monocular mediante el aprendizaje profundo . Para el registro de conjuntos de puntos 2D utilizado en el procesamiento de imágenes y el registro de imágenes basado en características , un conjunto de puntos puede ser coordenadas de píxeles 2D obtenidas mediante extracción de características de una imagen, por ejemplo, detección de esquinas . El registro de nubes de puntos tiene amplias aplicaciones en conducción autónoma , [1] estimación de movimiento y reconstrucción 3D , [2] detección de objetos y estimación de pose , [3] [4] manipulación robótica , [5] localización y mapeo simultáneos (SLAM), [6 ] [7] costura panorámica , [8] realidad virtual y aumentada , [9] e imágenes médicas . [10]
![](http://wikiimg.tojsiabtv.com/wikipedia/commons/thumb/f/fe/Cpd_fish_affine.gif/220px-Cpd_fish_affine.gif)
Como caso especial, el registro de dos conjuntos de puntos que solo se diferencian por una rotación 3D ( es decir, no hay escalado ni traslación), se denomina Problema Wahba y también se relaciona con el problema de procrustes ortogonales .
Resumen del problema
![](http://wikiimg.tojsiabtv.com/wikipedia/commons/thumb/0/00/Registration_outdoor.png/220px-Registration_outdoor.png)
![](http://wikiimg.tojsiabtv.com/wikipedia/commons/thumb/8/89/Registration_closeup.png/220px-Registration_closeup.png)
El problema se puede resumir de la siguiente manera: [11] SeaSer dos conjuntos de puntos de tamaño finito en un espacio vectorial real de dimensión finita., que contienen y puntos respectivamente ( p. ej., recupera el caso típico de cuando y son conjuntos de puntos 3D). El problema es encontrar una transformación para aplicar al conjunto de puntos del "modelo" móviltal que la diferencia (normalmente definida en el sentido de distancia euclidiana puntual ) entre y el conjunto de "escenas" estáticas se minimiza. En otras palabras, un mapeo de a se desea que produzca la mejor alineación entre el conjunto de "modelo" transformado y el conjunto de "escena". El mapeo puede consistir en una transformación rígida o no rígida. El modelo de transformación se puede escribir como, mediante el cual el conjunto de puntos del modelo registrado y transformado es:
( 1 )
La salida de un algoritmo de registro de conjuntos de puntos es, por tanto, la transformación óptima tal que está mejor alineado con , de acuerdo con alguna noción definida de función de distancia :
( 2 )
dónde se utiliza para denotar el conjunto de todas las transformaciones posibles que la optimización intenta buscar. La opción más popular de la función de distancia es tomar el cuadrado de la distancia euclidiana para cada par de puntos:
( 3 )
dónde denota el vector 2-norma ,es el punto correspondiente en el conjuntoque alcanza la distancia más corta a un punto dado en conjunto . Minimizar dicha función en un registro rígido equivale a resolver un problema de mínimos cuadrados . Cuando las correspondencias ( es decir, ) se dan antes de la optimización, por ejemplo, utilizando técnicas de coincidencia de características, entonces la optimización solo necesita estimar la transformación. Este tipo de registro se denomina registro por correspondencia . Por otro lado, si se desconocen las correspondencias, entonces se requiere la optimización para descubrir conjuntamente las correspondencias y la transformación juntas. Este tipo de registro se denomina registro simultáneo de pose y correspondencia .
Registro rígido
Dados dos conjuntos de puntos, el registro rígido produce una transformación rígida que asigna un conjunto de puntos al otro. Una transformación rígida se define como una transformación que no cambia la distancia entre dos puntos. Normalmente, dicha transformación consiste en traslación y rotación . [12] En casos excepcionales, el conjunto de puntos también puede reflejarse. En robótica y visión por computadora, el registro rígido tiene la mayoría de aplicaciones.
Registro no rígido
![](http://wikiimg.tojsiabtv.com/wikipedia/commons/thumb/b/bd/Ouster_OS1-64_lidar_point_cloud_of_intersection_of_Folsom_and_Dore_St%2C_San_Francisco.png/220px-Ouster_OS1-64_lidar_point_cloud_of_intersection_of_Folsom_and_Dore_St%2C_San_Francisco.png)
Dados dos conjuntos de puntos, el registro no rígido produce una transformación no rígida que asigna un conjunto de puntos al otro. Las transformaciones no rígidas incluyen transformaciones afines como escalado y mapeo de corte . Sin embargo, en el contexto del registro de conjuntos de puntos, el registro no rígido normalmente implica una transformación no lineal. Si se conocen los modos propios de variación del conjunto de puntos, los valores propios pueden parametrizar la transformación no lineal. [13] Una transformación no lineal también se puede parametrizar como una ranura de placa delgada . [14] [13]
Algoritmos
Algunos enfoques para el registro de conjuntos de puntos utilizan algoritmos que resuelven el problema de coincidencia de gráficos más general . [11] Sin embargo, la complejidad computacional de tales métodos tiende a ser alta y se limitan a registros rígidos. Los algoritmos específicos para el problema de registro de conjuntos de puntos se describen en las siguientes secciones. La PCL (Point Cloud Library) es un marco de código abierto para el procesamiento de geometría 3D y nubes de puntos n-dimensionales. Incluye varios algoritmos de registro de puntos. [15]
En esta sección, solo consideraremos algoritmos para registro rígido, donde se supone que la transformación contiene rotaciones y traslaciones 3D (posiblemente también incluye una escala uniforme).
Métodos basados en correspondencia
Los métodos basados en correspondencia asumen las correspondencias putativas se dan para cada punto . Por lo tanto, llegamos a un escenario en el que ambos conjuntos de puntos y tengo puntos y correspondencias son dados.
Registro sin valores atípicos
En el caso más simple, se puede asumir que todas las correspondencias son correctas, lo que significa que los puntos se generan de la siguiente manera:
( cb.1 )
dónde es un factor de escala uniforme (en muchos casos se supone), es una matriz de rotación 3D adecuada (es el grupo ortogonal especial de grado), es un vector de traducción 3D y modela el ruido aditivo desconocido ( por ejemplo, ruido gaussiano ). Específicamente, si el ruido se supone que sigue una distribución gaussiana isotrópica de media cero con desviación estándar , es decir, , entonces se puede demostrar que la siguiente optimización produce la estimación de máxima verosimilitud para la escala desconocida, la rotación y la traslación:
( cb.2 )
Tenga en cuenta que cuando el factor de escala es 1 y el vector de traducción es cero, la optimización recupera la formulación del problema de Wahba . A pesar de la no convexidad de la optimización ( cb.2 ) debido a la no convexidad del conjunto, el trabajo seminal de Berthold KP Horn mostró que ( cb.2 ) en realidad admite una solución de forma cerrada, al desacoplar la estimación de escala, rotación y traslación. [16] Arun et al . [17] Además, para encontrar una transformación única, por lo menos Se requieren puntos no colineales en cada conjunto de puntos.
Más recientemente, Briales y González-Jiménez han desarrollado una relajación semidefinida utilizando la dualidad lagrangiana , para el caso en que el modelo establecido contiene diferentes primitivas 3D como puntos, líneas y planos (que es el caso cuando el modelo es una malla 3D). [18] Curiosamente, la relajación semidefinida es empíricamente ajustada, es decir, se puede extraer una solución globalmente óptima certificable de la solución de la relajación semidefinida.
Registro robusto
Se sabe que la formulación de mínimos cuadrados ( cb.2 ) se comporta arbitrariamente mal en presencia de valores atípicos . Una correspondencia de valores atípicos es un par de medidasque se aparta del modelo generativo ( cb.1 ). En este caso, se puede considerar un modelo generativo diferente de la siguiente manera: [19]
( cb.3 )
donde si el th par es un valor atípico, entonces obedece al modelo libre de valores atípicos ( cb.1 ), es decir, se obtiene de por una transformación espacial más un pequeño ruido; sin embargo, si elth par es un valor atípico, entonces puede ser cualquier vector arbitrario . Dado que uno no sabe qué correspondencias son valores atípicos de antemano, el registro robusto bajo el modelo generativo ( cb.3 ) es de suma importancia para la visión por computadora y la robótica implementadas en el mundo real, porque las técnicas actuales de comparación de características tienden a producir correspondencias altamente corruptas donde másde las correspondencias pueden ser valores atípicos. [20]
A continuación, describimos varios paradigmas comunes para un registro robusto.
Consenso máximo
El consenso máximo busca encontrar el mayor conjunto de correspondencias que sean consistentes con el modelo generativo ( cb.1 ) para alguna elección de transformación espacial. Formalmente, el máximo consenso resuelve la siguiente optimización:
( cb.4 )
dónde denota la cardinalidad del conjunto. La restricción en ( cb.4 ) obliga a que cada par de medidas en el conjunto inlierdebe tener residuos más pequeños que un umbral predefinido. Desafortunadamente, análisis recientes han demostrado que el problema de resolución global (cb.4) es NP-Hard , y los algoritmos globales generalmente tienen que recurrir a técnicas de ramificación y enlace (BnB) que toman una complejidad de tiempo exponencial en el peor de los casos. [21] [22] [23] [24] [25]
Aunque resolver exactamente la maximización del consenso es difícil, existen heurísticas eficientes que funcionan bastante bien en la práctica. Una de las heurísticas más populares es el esquema de consenso de muestra aleatoria (RANSAC) . [26] RANSAC es un método iterativo de hipótesis y veracidad. En cada iteración, el método primero toma una muestra aleatoria de 3 del número total de correspondencias y calcula una hipótesis usando el método de Horn, [16] entonces el método evalúa las restricciones en ( cb.4 ) para contar cuántas correspondencias realmente concuerdan con tal hipótesis (es decir, calcula el residuo y lo compara con el umbral para cada par de medidas). El algoritmo termina después de haber encontrado un conjunto de consenso que tiene suficientes correspondencias o después de haber alcanzado el número total de iteraciones permitidas. RANSAC es altamente eficiente porque el cálculo principal de cada iteración es llevar a cabo la solución de forma cerrada en el método de Horn. Sin embargo, RANSAC no es determinista y solo funciona bien en el régimen de relación de valores atípicos bajos ( p. Ej., A continuación), porque su tiempo de ejecución crece exponencialmente con respecto a la relación de valores atípicos. [20]
Para llenar el vacío entre el esquema RANSAC rápido pero inexacto y la optimización BnB exacta pero exhaustiva, investigaciones recientes han desarrollado métodos aproximados deterministas para resolver la maximización del consenso. [21] [22] [27] [23]
Eliminación de valores atípicos
Los métodos de eliminación de valores atípicos buscan preprocesar el conjunto de correspondencias altamente corruptas antes de estimar la transformación espacial. La motivación de la eliminación de valores atípicos es reducir significativamente el número de correspondencias de valores atípicos, mientras se mantienen las correspondencias de valores atípicos, de modo que la optimización sobre la transformación sea más fácil y más eficiente ( p. Ej., RANSAC funciona mal cuando la relación de valores atípicos está por encima de pero funciona bastante bien cuando la proporción de valores atípicos está por debajo ).
Parra y col. han propuesto un método llamado Eliminación de valores atípicos garantizados (GORE) que utiliza restricciones geométricas para eliminar las correspondencias de valores atípicos y, al mismo tiempo, garantizar la conservación de las correspondencias internas. [20] Se ha demostrado que GORE puede reducir drásticamente la relación de valores atípicos, lo que puede aumentar significativamente el rendimiento de la maximización del consenso utilizando RANSAC o BnB. Yang y Carlone han propuesto construir medidas invariantes de traslación y rotación (TRIM) por pares a partir del conjunto original de medidas e incrustar TRIM como los bordes de un gráfico cuyos nodos son los puntos 3D. Dado que los inliers son consistentes por pares en términos de la escala, deben formar una camarilla dentro del gráfico. Por lo tanto, el uso de algoritmos eficientes para calcular la camarilla máxima de un gráfico puede encontrar los valores atípicos y eliminarlos de manera efectiva. [4] También se ha demostrado que el método de eliminación de valores atípicos basado en clique máximo es bastante útil en problemas de registro de conjuntos de puntos del mundo real. [19] Parra et al. También propusieron ideas similares para eliminar valores atípicos . . [28]
Estimación M
La estimación M reemplaza la función objetivo de mínimos cuadrados en ( cb.2 ) con una función de costo robusta que es menos sensible a valores atípicos. Formalmente, la estimación M busca resolver el siguiente problema:
( cb.5 )
dónde representa la elección de la función de costes robusta. Tenga en cuenta que elegirrecupera la estimación de mínimos cuadrados en ( cb.2 ). Las funciones de costos robustas populares incluyen-Pérdida normal, pérdida de Huber , [29] pérdida de Geman-McClure [30] y pérdida por mínimos cuadrados truncados . [19] [8] [4] La estimación M ha sido uno de los paradigmas más populares para la estimación robusta en robótica y visión por computadora. [31] [32] Debido a que las funciones objetivas robustas son típicamente no convexas ( p. Ej., La pérdida por mínimos cuadrados truncados frente a la pérdida por mínimos cuadrados), los algoritmos para resolver la estimación M no convexa se basan típicamente en la optimización local , donde primero una Se proporciona una estimación inicial, seguida de refinamientos iterativos de la transformación para seguir disminuyendo la función objetivo. La optimización local tiende a funcionar bien cuando la estimación inicial está cerca del mínimo global, pero también es propenso a quedarse atascado en los mínimos locales si se proporciona una inicialización deficiente.
No convexidad graduada
La no convexidad graduada (GNC) es un marco de uso general para resolver problemas de optimización no convexa sin inicialización. Ha logrado el éxito en aplicaciones de visión temprana y aprendizaje automático. [33] [34] La idea clave detrás de GNC es resolver el problema difícil no convexo partiendo de un problema convexo fácil. Específicamente, para una función de costo robusta dada, se puede construir una función sustituta con un hiperparámetro , ajuste que puede aumentar gradualmente la no convexidad de la función sustituta hasta que converja a la función de destino . [34] [35] Por lo tanto, en cada nivel del hiperparámetro, se soluciona la siguiente optimización:
( cb.6 )
Black y Rangarajan demostraron que la función objetivo de cada optimización ( cb.6 ) se puede dualizar en una suma de mínimos cuadrados ponderados y una denominada función de proceso de valores atípicos en los pesos que determinan la confianza de la optimización en cada par de medidas. [33] Utilizando la dualidad Black-Rangarajan y GNC adaptados para la función Geman-McClure, Zhou et al. desarrolló el algoritmo de registro global rápido que es robusto contra aproximadamentevalores atípicos en las correspondencias. [30] Más recientemente, Yang et al. mostró que el uso conjunto de GNC (adaptado a la función Geman-McClure y la función de mínimos cuadrados truncados) y la dualidad Black-Rangarajan puede conducir a un solucionador de propósito general para problemas de registro robustos, incluidas nubes de puntos y registro de malla. [35]
Registro robusto y certificable
Casi ninguno de los algoritmos de registro robustos mencionados anteriormente (excepto el algoritmo BnB que se ejecuta en tiempo exponencial en el peor de los casos) viene con garantías de rendimiento , lo que significa que estos algoritmos pueden devolver estimaciones completamente incorrectas sin previo aviso. Por lo tanto, estos algoritmos no son deseables para aplicaciones críticas para la seguridad, como la conducción autónoma.
Muy recientemente, Yang et al. ha desarrollado el primer algoritmo de registro certificablemente robusto, denominado Estimación de mínimos cuadrados truncados y relajación semifinita (TEASER). [19] Para el registro de nubes de puntos, TEASER no solo genera una estimación de la transformación, sino que también cuantifica la optimización de la estimación dada. TEASER adopta el siguiente estimador de mínimos cuadrados truncados (TLS):
( cb.7 )
que se obtiene eligiendo la función de costo robusto de TLS , dónde es una constante predefinida que determina los residuos máximos permitidos para ser considerados inliers. La función objetivo TLS tiene la propiedad de que para correspondencias internas (), se aplica la penalización por mínimos cuadrados habitual; mientras que para las correspondencias atípicas (), no se aplica ninguna penalización y los valores atípicos se descartan. Si la optimización TLS ( cb.7 ) se resuelve a la optimización global, entonces es equivalente a ejecutar el método de Horn solo en las correspondencias internas.
Sin embargo, resolver ( cb.7 ) es bastante desafiante debido a su naturaleza combinatoria. TEASER resuelve ( cb.7 ) de la siguiente manera: (i) Construye medidas invariantes de manera que la estimación de escala, rotación y traslación se puede desacoplar y resolver por separado, una estrategia que se inspira en el método original de Horn; (ii) Se aplica la misma estimación de TLS para cada uno de los tres subproblemas, donde el problema de TLS de escala se puede resolver exactamente usando un algoritmo llamado votación adaptativa, el problema de TLS de rotación se puede relajar a un programa semidefinito (SDP) donde la relajación es exacta en la práctica, [8] incluso con una gran cantidad de valores atípicos; El problema de traducción de TLS se puede resolver mediante la votación adaptativa por componentes. Una implementación rápida que aprovecha GNC es de código abierto aquí . En la práctica, TEASER puede tolerar más de correspondencias de valores atípicos y se ejecuta en milisegundos.
Además de desarrollar TEASER, Yang et al. también prueban que, bajo algunas condiciones suaves en los datos de la nube de puntos, la transformación estimada de TEASER ha limitado los errores de la transformación de verdad del terreno. [19]
Métodos simultáneos de pose y correspondencia
Punto más cercano iterativo
El iterativo punto más cercano (ICP) algoritmo fue introducido por Besl y McKay. [36] El algoritmo realiza un registro rígido de forma iterativa alternando en (i) dada la transformación, encontrando el punto más cercano en por cada punto en ; y (ii) dadas las correspondencias, encontrar la mejor transformación rígida resolviendo el problema de mínimos cuadrados ( cb.2 ). Como tal, funciona mejor si la pose inicial de está suficientemente cerca de . En pseudocódigo , el algoritmo básico se implementa de la siguiente manera:
algoritmo ICP ( M , S ) θ : = θ 0 mientras no registrado: X : = ∅ para m i ε T ( M , θ ): ŝ j : = punto más cercano en S a m i X : = X + ⟨ m i , ŝ j ⟩ θ : = least_squares ( X ) de retorno θ
Aquí, la función least_squares
realiza una optimización de mínimos cuadrados para minimizar la distancia en cada uno de lospares, utilizando las soluciones de forma cerrada de Horn [16] y Arun. [17]
Debido a que la función de costo del registro depende de encontrar el punto más cercano en a cada punto en , puede cambiar a medida que se ejecuta el algoritmo. Como tal, es difícil probar que ICP convergerá de hecho exactamente al óptimo local. [37] De hecho, empíricamente, ICP y EM-ICP no convergen al mínimo local de la función de costo. [37] No obstante, dado que ICP es intuitivo de comprender y sencillo de implementar, sigue siendo el algoritmo de registro de conjuntos de puntos más utilizado. [37] Se han propuesto muchas variantes de ICP, que afectan a todas las fases del algoritmo, desde la selección y emparejamiento de puntos hasta la estrategia de minimización. [13] [38] Por ejemplo, el algoritmo de maximización de expectativas se aplica al algoritmo ICP para formar el método EM-ICP, y el algoritmo Levenberg-Marquardt se aplica al algoritmo ICP para formar el método LM-ICP . [12]
Coincidencia de puntos robusta
Gold et al. [39] El método realiza el registro utilizando recocido determinista y asignación suave de correspondencias entre conjuntos de puntos. Mientras que en ICP la correspondencia generada por la heurística del vecino más cercano es binaria, RPM usa una correspondencia blanda donde la correspondencia entre dos puntos puede ser de 0 a 1, aunque finalmente converge a 0 o 1. Las correspondencias encontradas en RPM es siempre uno a uno, lo que no siempre es el caso en ICP. [14] Deja ser el el punto en y ser el el punto en . La matriz de coincidencias se define como tal:
( rpm.1 )
El problema se define entonces como: Dados dos conjuntos de puntos y encuentra la transformación Affine y la matriz de coincidencias que mejor los relaciona. [39] Conocer la transformación óptima facilita la determinación de la matriz de coincidencia y viceversa. Sin embargo, el algoritmo de RPM determina ambos simultáneamente. La transformación se puede descomponer en un vector de traducción y una matriz de transformación:
La matriz en 2D se compone de cuatro parámetros separados , que son la escala, la rotación y los componentes de corte vertical y horizontal, respectivamente. La función de costo es entonces:
( rpm.2 )
sujeto a , , . Latérmino sesga el objetivo hacia una correlación más fuerte al disminuir el costo si la matriz de coincidencia tiene más en ella. La función sirve para regularizar la transformación Affine penalizando valores grandes de los componentes de escala y cizallamiento:
para algún parámetro de regularización .
El método RPM optimiza la función de costos utilizando el algoritmo Softassign . El caso 1D se derivará aquí. Dado un conjunto de variables dónde . Una variable está asociado con cada tal que . El objetivo es encontrar que maximiza . Esto se puede formular como un problema continuo mediante la introducción de un parámetro de control.. En el método de recocido determinista , el parámetro de controlaumenta lentamente a medida que se ejecuta el algoritmo. Dejar ser:
( rpm.3 )
esto se conoce como función softmax . Comoaumenta, se acerca a un valor binario como se desea en la ecuación ( rpm.1 ). El problema ahora puede generalizarse al caso 2D, donde en lugar de maximizar, se maximiza lo siguiente:
( rpm.4 )
dónde
Esto es sencillo, excepto que ahora las restricciones sobre son restricciones de matriz doblemente estocásticas : y . Como tal, el denominador de la Ecuación ( rpm.3 ) no se puede expresar simplemente para el caso 2D. Para satisfacer las restricciones, es posible utilizar un resultado debido a Sinkhorn, [39] que establece que una matriz doblemente estocástica se obtiene de cualquier matriz cuadrada con todas las entradas positivas mediante el proceso iterativo de normalizaciones alternas de filas y columnas. Por tanto, el algoritmo se escribe como tal: [39]
algoritmo RPM2D t : = 0 a , θ b , c : = 0 β : = β 0 while β < β f : while μ no ha convergido: // actualiza los parámetros de correspondencia mediante softassign // aplica el método de Sinkhorn mientras no ha convergido: // actualizar normalizando en todas las filas: // actualizar normalizando en todas las columnas: // actualizar los parámetros de pose mediante la actualización de descenso de coordenadas θ usando una solución analítica actualizar t usando una solución analítica actualizar a, b, c usando el método de Newton devuelve a, b, c, θ y t
donde el parámetro de control de recocido determinista se establece inicialmente en y aumenta por factor hasta que alcance el valor máximo . Las sumas en los pasos de normalización suman y en lugar de solo y porque las limitaciones en son desigualdades. Como tal, elth y Los elementos son variables de holgura .
El algoritmo también se puede ampliar para conjuntos de puntos en 3D o dimensiones superiores. Las limitaciones de la matriz de correspondenciason los mismos en el caso 3D que en el caso 2D. Por lo tanto, la estructura del algoritmo permanece sin cambios, con la principal diferencia en cómo se resuelven las matrices de rotación y traslación. [39]
Emparejamiento robusto de puntos de placa delgada
![](http://wikiimg.tojsiabtv.com/wikipedia/commons/thumb/f/f7/TPS_RPM_example.gif/220px-TPS_RPM_example.gif)
El algoritmo de coincidencia de puntos robustos de spline de placa delgada (TPS-RPM) de Chui y Rangarajan aumenta el método RPM para realizar un registro no rígido parametrizando la transformación como una spline de placa delgada . [14] Sin embargo, debido a que la parametrización estriada de placa delgada solo existe en tres dimensiones, el método no se puede extender a problemas que involucran cuatro o más dimensiones.
Correlación kernel
Tsin y Kanade introdujeron el enfoque de correlación del núcleo (KC) del registro de conjuntos de puntos. [37] Comparado con ICP, el algoritmo KC es más robusto contra datos ruidosos. A diferencia de ICP, donde, para cada punto del modelo, solo se considera el punto de escena más cercano, aquí cada punto de escena afecta a cada punto del modelo. [37] Como tal, se trata de un algoritmo de registro de enlaces múltiples . Para alguna función del kernel , la correlación del kernel de dos puntos se define así: [37]
( kc.1 )
La función del kernel elegido para el registro de conjuntos de puntos es típicamente un kernel simétrico y no negativo, similar a los usados en la estimación de densidad de ventana de Parzen . El kernel gaussiano se usa típicamente por su simplicidad, aunque se pueden sustituir otros como el kernel de Epanechnikov y el kernel de tricubos. [37] La correlación del kernel de un conjunto de puntos completose define como la suma de las correlaciones del núcleo de cada punto del conjunto con todos los demás puntos del conjunto: [37]
( kc.2 )
El logaritmo de KC de un conjunto de puntos es proporcional, dentro de un factor constante, a la entropía de la información . Observe que el KC es una medida de la "compacidad" del conjunto de puntos; trivialmente, si todos los puntos del conjunto de puntos estuvieran en la misma ubicación, el KC evaluaría un valor grande. La función de costo del algoritmo de registro de conjuntos de puntos para algún parámetro de transformación se define así:
( kc.3 )
Algunas manipulaciones algebraicas producen:
( kc.4 )
La expresión se simplifica observando que es independiente de . Además, asumiendo un registro rígido, es invariante cuando cambia porque la distancia euclidiana entre cada par de puntos permanece igual bajo una transformación rígida . Entonces, la ecuación anterior se puede reescribir como:
( kc.5 )
Las estimaciones de densidad de kernel se definen como:
Entonces se puede demostrar que la función de costo es la correlación de las dos estimaciones de densidad de kernel:
( kc.6 )
Una vez establecida la función de costo , el algoritmo simplemente usa el descenso de gradiente para encontrar la transformación óptima. Es computacionalmente costoso calcular la función de costo desde cero en cada iteración, por lo que se usa una versión discreta de la ecuación de la función de costo ( kc.6 ). Las estimaciones de densidad de kernelse puede evaluar en los puntos de la cuadrícula y almacenar en una tabla de búsqueda . A diferencia del ICP y los métodos relacionados, no es necesario encontrar el vecino más cercano, lo que permite que el algoritmo KC sea comparativamente simple en la implementación.
En comparación con ICP y EM-ICP para conjuntos de puntos 2D y 3D ruidosos, el algoritmo KC es menos sensible al ruido y da como resultado un registro correcto con mayor frecuencia. [37]
Modelo de mezcla gaussiana
Las estimaciones de densidad del núcleo son sumas de gaussianos y, por lo tanto, pueden representarse como modelos de mezcla gaussiana (GMM). [40] Jian y Vemuri utilizan la versión GMM del algoritmo de registro KC para realizar un registro no rígido parametrizado por ranuras de placa delgada .
Desviación de punto coherente
![](http://wikiimg.tojsiabtv.com/wikipedia/commons/thumb/a/a2/Cpd_fish_rigid.gif/220px-Cpd_fish_rigid.gif)
![](http://wikiimg.tojsiabtv.com/wikipedia/commons/thumb/f/fe/Cpd_fish_affine.gif/220px-Cpd_fish_affine.gif)
![](http://wikiimg.tojsiabtv.com/wikipedia/commons/thumb/b/b2/Cpd_fish_nonrigid.gif/220px-Cpd_fish_nonrigid.gif)
La deriva de punto coherente (CPD) fue introducida por Myronenko y Song. [13] [41] El algoritmo adopta un enfoque probabilístico para alinear conjuntos de puntos, similar al método GMM KC. A diferencia de los enfoques anteriores para el registro no rígido que asumen un modelo de transformación de spline de placa delgada , CPD es agnóstico con respecto al modelo de transformación utilizado. El punto establecidorepresenta los centroides del modelo de mezcla gaussiana (GMM). Cuando los dos conjuntos de puntos están alineados de manera óptima, la correspondencia es el máximo de la probabilidad posterior de GMM para un punto de datos dado. Para preservar la estructura topológica de los conjuntos de puntos, los centroides de GMM se ven obligados a moverse coherentemente como grupo. El algoritmo de maximización de expectativas se utiliza para optimizar la función de costos. [13]
Sea M puntos eny N puntos en. La función de densidad de probabilidad GMM para un punto s es:
( cpd.1 )
donde, en dimensiones D ,es la distribución gaussiana centrada en el punto.
Las probabilidades de membresía es igual para todos los componentes de GMM. El peso de la distribución uniforme se denota como. El modelo de mezcla es entonces:
( cpd.2 )
Los centroides de GMM se vuelven a parametrizar mediante un conjunto de parámetros estimado maximizando la probabilidad. Esto es equivalente a minimizar la función de probabilidad logarítmica negativa :
( cpd.3 )
donde se supone que los datos son independientes y están distribuidos de forma idéntica . La probabilidad de correspondencia entre dos puntos y se define como la probabilidad posterior del centroide GMM dado el punto de datos:
El algoritmo de maximización de expectativas (EM) se utiliza para encontrar y . El algoritmo EM consta de dos pasos. Primero, en el paso E o paso de estimación , adivina los valores de los parámetros (valores de parámetros "antiguos") y luego usa el teorema de Bayes para calcular las distribuciones de probabilidad posterioresde componentes de la mezcla. En segundo lugar, en el paso M o paso de maximización , los "nuevos" valores de los parámetros se encuentran minimizando la expectativa de la función de probabilidad logarítmica negativa completa, es decir, la función de costo:
( cpd.4 )
Ignorando constantes independientes de y , La ecuación ( cpd.4 ) se puede expresar así:
( cpd.5 )
dónde
con sólo si . Las probabilidades posteriores de los componentes de GMM calculadas utilizando valores de parámetros anteriores es:
( cpd.6 )
Minimizar la función de costo en la ecuación ( cpd.5 ) necesariamente disminuye la función de verosimilitud logarítmica negativa E en la ecuación ( cpd.3 ) a menos que ya esté en un mínimo local. [13] Por lo tanto, el algoritmo se puede expresar utilizando el siguiente pseudocódigo, donde el punto establece y están representados como y matrices y respectivamente: [13]
algoritmo CPD θ : = θ 0 inicializar 0 ≤ w ≤ 1 mientras no está registrado: // E-step, calcula P para i ∊ [1, M ] y j ∊ [1, N ]: // Paso M, resolver para la transformación óptima { θ , σ 2 }: = resolver ( S , M , P ) return θ
donde el vector es un vector de columna de unos. La solve
función difiere según el tipo de registro realizado. Por ejemplo, en el registro rígido, la salida es una escala a , una matriz de rotacióny un vector de traducción . El parámetro se puede escribir como una tupla de estos:
que se inicializa en uno, la matriz de identidad y un vector de columna de ceros:
El conjunto de puntos alineados es:
La solve_rigid
función para el registro rígido se puede escribir de la siguiente manera, con la derivación del álgebra explicada en el artículo de 2010 de Myronenko. [13]
solve_rigido ( S , M , P ) N P : = 1 T P1 U , V : = svd ( A ) // la descomposición del valor singular de A = UΣV T C : = diag (1,…, 1, det ( UV T )) // diag ( ξ ) es la matriz diagonal formada a partir del vector ξ R : = UCV T // tr es la traza de una matriz t : = μ s - a R μ m devuelve { a , R , t }, σ 2
Para el registro afín, donde el objetivo es encontrar una transformación afín en lugar de una rígida, el resultado es una matriz de transformación afín y una traducción tal que el conjunto de puntos alineados sea:
La solve_affine
función para el registro rígido se puede escribir de la siguiente manera, con la derivación del álgebra explicada en el artículo de 2010 de Myronenko. [13]
solve_affine ( S , M , P ) N P : = 1 T P1 t : = μ s - B μ m devuelve { B , t }, σ 2
También es posible utilizar CPD con registro no rígido mediante una parametrización derivada del cálculo de variaciones . [13]
Las sumas de distribuciones gaussianas se pueden calcular en tiempo lineal utilizando la transformada rápida de Gauss (FGT). [13] En consecuencia, la complejidad temporal de la DPC es, que es asintóticamente mucho más rápido que métodos. [13]
Clasificación del espacio de correspondencia (SCS)
Este algoritmo fue introducido en 2013 por H. Assalih para adaptarse al registro de imágenes de la sonda. [42] Estos tipos de imágenes tienden a tener una gran cantidad de ruido, por lo que se espera que haya muchos valores atípicos en los conjuntos de puntos para que coincidan. SCS ofrece una alta solidez frente a valores atípicos y puede superar el rendimiento de ICP y CPD en presencia de valores atípicos. SCS no utiliza optimización iterativa en espacios de alta dimensión y no es probabilístico ni espectral. SCS puede igualar transformaciones rígidas y no rígidas, y funciona mejor cuando la transformación de destino está entre tres y seis grados de libertad .
Deriva del punto coherente bayesiano (BCPD)
Una variante de la deriva del punto coherente, llamada deriva del punto coherente bayesiano (BCPD), se derivó a través de una formulación bayesiana de registro de conjuntos de puntos. [43] BCPD tiene varias ventajas sobre CPD, por ejemplo, (1) los registros rígidos y no rígidos se pueden realizar en un solo algoritmo, (2) el algoritmo se puede acelerar independientemente de la Gaussianidad de una matriz de Gram para definir la coherencia del movimiento, (3 ) el algoritmo es más robusto frente a valores atípicos debido a una definición más razonable de una distribución de valores atípicos. Además, en la formulación bayesiana, la coherencia de movimiento se introdujo a través de una distribución previa de vectores de desplazamiento, lo que proporciona una clara diferencia entre los parámetros de ajuste que controlan la coherencia de movimiento.
Ver también
- Coincidencia de características puntuales
Referencias
- ^ Zhang, Ji; Singh, Sanjiv (mayo de 2015). "Mapeo y odometría visual-lidar: baja deriva, robusto y rápido". Conferencia internacional de IEEE sobre robótica y automatización (ICRA) de 2015: 2174–2181. doi : 10.1109 / ICRA.2015.7139486 . ISBN 978-1-4799-6923-4. S2CID 6054487 .
- ^ Choi, Sungjoon; Zhou, Qian-Yi; Koltun, Vladlen (2015). "Robusta reconstrucción de escenas de interior" (PDF) . Actas de la Conferencia IEEE sobre visión por computadora y reconocimiento de patrones (CVPR) : 5556–5565.
- ^ Lai, Kevin; Bo, Liefeng; Ren, Xiaofeng; Fox, Dieter (mayo de 2011). "Un conjunto de datos de objetos RGB-D de múltiples vistas jerárquicas a gran escala". Conferencia internacional de 2011 IEEE sobre robótica y automatización : 1817–1824. CiteSeerX 10.1.1.190.1598 . doi : 10.1109 / ICRA.2011.5980382 . ISBN 978-1-61284-386-5. S2CID 14986048 .
- ^ a b c Yang, Heng; Carlone, Luca (2019). "Una solución de tiempo polinomial para un registro robusto con tasas extremas de valores atípicos". Robótica: ciencia y sistemas . arXiv : 1903.08588 . doi : 10.15607 / RSS.2019.XV.003 . ISBN 978-0-9923747-5-4. S2CID 84186750 .
- ^ Calli, Berk; Singh, Arjun; Bruce, James; Walsman, Aaron; Konolige, Kurt; Srinivasa, Siddhartha; Abbeel, Pieter; Dólar, Aaron M (1 de marzo de 2017). "Conjunto de datos de Yale-CMU-Berkeley para la investigación de manipulación robótica". La Revista Internacional de Investigación en Robótica . 36 (3): 261–268. doi : 10.1177 / 0278364917700714 . ISSN 0278-3649 . S2CID 6522002 .
- ^ Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, José; Reid, Ian; Leonard, John J. (diciembre de 2016). "Pasado, presente y futuro de la localización y el mapeo simultáneos: hacia la era de la percepción robusta". Transacciones IEEE sobre robótica . 32 (6): 1309-1332. arXiv : 1606.05830 . Código Bib : 2016arXiv160605830C . doi : 10.1109 / TRO.2016.2624754 . ISSN 1941-0468 . S2CID 2596787 .
- ^ Mur-Artal, Raúl; Montiel, JMM; Tardós, Juan D. (octubre de 2015). "ORB-SLAM: un sistema SLAM monocular versátil y preciso". Transacciones IEEE sobre robótica . 31 (5): 1147-1163. arXiv : 1502.00956 . Código bibliográfico : 2015arXiv150200956M . doi : 10.1109 / TRO.2015.2463671 . ISSN 1941-0468 . S2CID 206775100 .
- ^ a b c Yang, Heng; Carlone, Luca (2019). "Una solución óptima certificable basada en Quaternion para el problema de Wahba con valores atípicos" (PDF) . Actas de la Conferencia Internacional IEEE sobre Visión por Computador (ICCV) : 1665–1674. arXiv : 1905.12536 . Código bibliográfico : 2019arXiv190512536Y .
- ^ Newcombe, Richard A .; Izadi, Shahram; Hilliges, Otmar; Molyneaux, David; Kim, David; Davison, Andrew J .; Kohi, Pushmeet; Shotton, Jamie; Hodges, Steve; Fitzgibbon, Andrew (octubre de 2011). "KinectFusion: mapeo y seguimiento de superficies densas en tiempo real". 2011 Décimo Simposio Internacional de IEEE sobre Realidad Mixta y Aumentada : 127-136. CiteSeerX 10.1.1.453.53 . doi : 10.1109 / ISMAR.2011.6092378 . ISBN 978-1-4577-2183-0. S2CID 11830123 .
- ^ Audette, Michel A .; Ferrie, Frank P .; Peters, Terry M. (1 de septiembre de 2000). "Una descripción algorítmica de las técnicas de registro de superficie para imágenes médicas". Análisis de imágenes médicas . 4 (3): 201–217. doi : 10.1016 / S1361-8415 (00) 00014-1 . ISSN 1361-8415 . PMID 11145309 .
- ^ a b Jian, Bing; Vemuri, Baba C. (2011). "Registro de conjuntos de puntos robustos utilizando modelos de mezcla gaussiana". Transacciones IEEE sobre análisis de patrones e inteligencia de máquinas . 33 (8): 1633–1645. doi : 10.1109 / tpami.2010.223 . PMID 21173443 . S2CID 10923565 .
- ^ a b Fitzgibbon, Andrew W. (2003). "Registro robusto de conjuntos de puntos 2D y 3D". Computación de imagen y visión . 21 (13): 1145-1153. CiteSeerX 10.1.1.335.116 . doi : 10.1016 / j.imavis.2003.09.004 .
- ^ a b c d e f g h yo j k l Myronenko, Andriy; Canción, Xubo (2010). "Registro de conjunto de puntos: deriva de punto coherente". Transacciones IEEE sobre análisis de patrones e inteligencia de máquinas . 32 (2): 2262–2275. arXiv : 0905.2635 . doi : 10.1109 / tpami.2010.46 . PMID 20975122 . S2CID 10809031 .
- ^ a b c Chui, Haili; Rangarajan, Anand (2003). "Un nuevo algoritmo de coincidencia de puntos para registro no rígido". Visión por computadora y comprensión de imágenes . 89 (2): 114-141. CiteSeerX 10.1.1.7.4365 . doi : 10.1016 / S1077-3142 (03) 00009-2 .
- ^ Holz, Dirk; Ichim, Alexandru E .; Tombari, Federico; Rusu, Radu B .; Behnke, Sven (2015). "Registro con la biblioteca de nubes de puntos: un marco modular para alinear en 3-D" . Revista IEEE Robotics Automation . 22 (4): 110-124. doi : 10.1109 / MRA.2015.2432331 . S2CID 2621807 .
- ^ a b c Horn, Berthold KP (1 de abril de 1987). "Solución de forma cerrada de orientación absoluta utilizando cuaterniones unitarios". Un JOSA . 4 (4): 629–642. Bibcode : 1987JOSAA ... 4..629H . doi : 10.1364 / JOSAA.4.000629 . ISSN 1520-8532 .
- ^ a b Arun, KS; Huang, TS; Blostein, SD (septiembre de 1987). "Ajuste por mínimos cuadrados de dos conjuntos de puntos 3D". Transacciones IEEE sobre análisis de patrones e inteligencia de máquinas . PAMI-9 (5): 698–700. doi : 10.1109 / TPAMI.1987.4767965 . ISSN 1939-3539 . PMID 21869429 . S2CID 8724100 .
- ^ Briales, Jesús; González-Jiménez, Javier (julio de 2017). "Registro 3D global convexo con dualidad lagrangiana". 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) : 5612–5621. doi : 10.1109 / CVPR.2017.595 . hdl : 10630/14599 . ISBN 978-1-5386-0457-1. S2CID 11549421 .
- ^ a b c d e Yang, Heng; Shi, Jingnan; Carlone, Luca (21 de enero de 2020). "TEASER: Registro de nube de puntos rápido y certificable". arXiv : 2001.07715 [ cs.RO ].
- ^ a b c Parra Bustos, Álvaro; Chin, Tat-Jun (diciembre de 2018). "Eliminación de valores atípicos garantizados para el registro de nubes de puntos con correspondencias". Transacciones IEEE sobre análisis de patrones e inteligencia de máquinas . 40 (12): 2868–2882. arXiv : 1711.10209 . doi : 10.1109 / TPAMI.2017.2773482 . ISSN 1939-3539 . PMID 29990122 . S2CID 3331003 .
- ^ a b Chin, Tat-Jun; Suter, David (27 de febrero de 2017). "El problema del máximo consenso: avances algorítmicos recientes". Conferencias de síntesis sobre visión artificial . 7 (2): 1–194. doi : 10.2200 / s00757ed1v01y201702cov011 . ISSN 2153-1056 .
- ^ a b Wen, Fei; Ying, Rendong; Gong, Zheng; Liu, Peilin (febrero de 2020). "Algoritmos eficientes para un ajuste robusto de máximo consenso". Transacciones IEEE sobre robótica . 36 (1): 92–106. doi : 10.1109 / TRO.2019.2943061 . ISSN 1941-0468 . S2CID 209976632 .
- ^ a b Cai, Zhipeng; Chin, Tat-Jun; Koltun, Vladlen (2019). "Búsqueda de árbol de maximización de consenso revisada" . Actas de la Conferencia Internacional IEEE sobre Visión por Computador (ICCV) : 1637–1645. arXiv : 1908.02021 . Código bibliográfico : 2019arXiv190802021C .
- ^ Bazin, Jean-Charles; Seo, Yongduek; Pollefeys, Marc (2013). Lee, Kyoung Mu; Matsushita, Yasuyuki; Rehg, James M .; Hu, Zhanyi (eds.). "Maximización del conjunto de consenso globalmente óptimo a través de la búsqueda de rotación". Visión por Computador - ACCV 2012 . Apuntes de conferencias en informática. Berlín, Heidelberg: Springer. 7725 : 539-551. doi : 10.1007 / 978-3-642-37444-9_42 . ISBN 978-3-642-37444-9.
- ^ Hartley, Richard I .; Kahl, Fredrik (1 de abril de 2009). "Optimización global a través de la búsqueda del espacio de rotación". Revista Internacional de Visión por Computador . 82 (1): 64–79. doi : 10.1007 / s11263-008-0186-9 . hdl : 1885/50831 . ISSN 1573-1405 . S2CID 509788 .
- ^ Fischler, Martin; Bolles, Robert (1981). "Consenso de muestra aleatoria: un paradigma para el ajuste de modelos con aplicaciones de análisis de imágenes y cartografía automatizada". Comunicaciones de la ACM . 24 (6): 381–395. doi : 10.1145 / 358669.358692 . S2CID 972888 .
- ^ Le, Huu Minh; Chin, Tat-Jun; Eriksson, Anders; Hazlo, Thanh-Toan; Suter, David (2019). "Métodos aproximados deterministas para un ajuste robusto de máximo consenso". Transacciones IEEE sobre análisis de patrones e inteligencia de máquinas . 43 (3): 842–857. arXiv : 1710.10003 . doi : 10.1109 / TPAMI.2019.2939307 . ISSN 1939-3539 . PMID 31494545 . S2CID 29346470 .
- ^ Bustos, Álvaro Parra; Chin, Tat-Jun; Neumann, Frank; Friedrich, Tobias; Katzmann, Maximiliano (4 de febrero de 2019). "Un algoritmo de camarilla máxima práctica para hacer coincidir con restricciones por pares". arXiv : 1902.01534 [ cs.CV ].
- ^ Huber, Peter J .; Ronchetti, Elvezio M. (29 de enero de 2009). Estadísticas sólidas . Serie de Wiley en Probabilidad y Estadística. Hoboken, Nueva Jersey, EE.UU .: John Wiley & Sons, Inc. doi : 10.1002 / 9780470434697 . ISBN 978-0-470-43469-7.
- ^ a b Zhou, Qian-Yi; Park, Jaesik; Koltun, Vladlen (2016). Leibe, Bastian; Matas, Jiri; Sebe, Nicu; Welling, Max (eds.). "Registro global rápido". Visión por computadora - ECCV 2016 . Apuntes de conferencias en informática. Cham: Springer International Publishing. 9906 : 766–782. doi : 10.1007 / 978-3-319-46475-6_47 . ISBN 978-3-319-46475-6.
- ^ MacTavish, Kirk; Barfoot, Timothy D. (2015). "A toda costa: una comparación de funciones de costo robustas para valores atípicos de correspondencia de la cámara". 2015 12ª Conferencia sobre Visión por Computadora y Robot : 62–69. doi : 10.1109 / CRV.2015.52 . ISBN 978-1-4799-1986-4. S2CID 9305263 .
- ^ Bosse, Michael; Agamennoni, Gabriel; Gilitschenski, Igor (2016). "Estimación robusta y aplicaciones en robótica" . Fundamentos y Tendencias en Robótica . ahora. 4 (4): 225–269. doi : 10.1561 / 2300000047 .
- ^ a b Black, Michael J .; Rangarajan, Anand (1 de julio de 1996). "Sobre la unificación de procesos de línea, rechazo de valores atípicos y estadísticas robustas con aplicaciones en visión temprana". Revista Internacional de Visión por Computador . 19 (1): 57–91. doi : 10.1007 / BF00131148 . ISSN 1573-1405 . S2CID 7510079 .
- ^ a b Blake, Andrew; Zisserman, Andrew (1987). Reconstrucción visual . La prensa del MIT. ISBN 9780262524063.
- ^ a b Yang, Heng; Antonante, Pasquale; Tzoumas, Vasileios; Carlone, Luca (2020). "No convexidad graduada para una percepción espacial robusta: de solucionadores no mínimos al rechazo de valores atípicos globales". IEEE Robotics and Automation Letters . 5 (2): 1127-1134. arXiv : 1909.08605 . doi : 10.1109 / LRA.2020.2965893 . ISSN 2377-3774 . S2CID 202660784 .
- ^ Besl, Paul; McKay, Neil (1992). "Un método para el registro de formas 3D" . Transacciones IEEE sobre análisis de patrones e inteligencia de máquinas . 14 (2): 239-256. Código Bibliográfico : 1992SPIE.1611..586B . doi : 10.1109 / 34.121791 .
- ^ a b c d e f g h yo Tsin, Yanghai; Kanade, Takeo (2004). Un enfoque basado en la correlación para el registro robusto de conjuntos de puntos . Visión por computadora ECCV . Apuntes de conferencias en informática. 3023 . Springer Berlín Heidelberg. págs. 558–569. CiteSeerX 10.1.1.156.6729 . doi : 10.1007 / 978-3-540-24672-5_44 . ISBN 978-3-540-21982-8.
- ^ Rusinkiewicz, Szymon; Levoy, Marc (2001). Variantes eficientes del algoritmo ICP . Actas de la Tercera Conferencia Internacional sobre Modelado y Imagen Digital 3D, 2001. IEEE. págs. 145-152. doi : 10.1109 / IM.2001.924423 .
- ^ a b c d e Oro, Steven; Rangarajan, Anand; Lu, Chien-Ping; Suguna, Pappu; Mjolsness, Eric (1998). "Nuevos algoritmos para la coincidencia de puntos 2d y 3d :: estimación de pose y correspondencia". Reconocimiento de patrones . 38 (8): 1019–1031. doi : 10.1016 / S0031-3203 (98) 80010-1 .
- ^ Jian, Bing; Vemuri, Baba C. (2005). Un algoritmo robusto para el registro de conjuntos de puntos utilizando una mezcla de gaussianos . Décima Conferencia Internacional IEEE sobre Visión por Computador 2005. 2 . págs. 1246-1251.
- ^ Myronenko, Andriy; Song, Xubo; Carriera-Perpinán, Miguel A. (2006). "Registro de conjunto de puntos no rígido: deriva de punto coherente" . Avances en sistemas de procesamiento de información neuronal . 19 : 1009-1016 . Consultado el 31 de mayo de 2014 .
- ^ Assalih, Hassan. (2013). "Capítulo 6: Clasificación del espacio de correspondencia" (PDF) . Reconstrucción 3D y estimación de movimiento utilizando un sonar progresivo (Ph.D.). Universidad Heriot-Watt.
- ^ Hirose, Osamu (2020). "Una formulación bayesiana de deriva puntual coherente" . Transacciones IEEE sobre análisis de patrones e inteligencia de máquinas . Acceso temprano: 1–18. doi : 10.1109 / TPAMI.2020.2971687 . PMID 32031931 .
enlaces externos
- Implementación de referencia de coincidencia robusta de puntos de spline de placa delgada
- Implementación de referencia del registro de conjuntos de puntos de correlación del núcleo
- Implementación de referencia de la deriva del punto coherente
- Implementación de referencia de variantes de ICP
- Implementación de referencia de la deriva del punto coherente bayesiano