En estadística , la estimación de la densidad del núcleo ( KDE ) es una forma no paramétrica de estimar la función de densidad de probabilidad de una variable aleatoria . La estimación de la densidad de kernel es un problema fundamental de suavizado de datos donde se hacen inferencias sobre la población , basadas en una muestra de datos finitos . En algunos campos, como el procesamiento de señales y la econometría , también se denomina método de ventana de Parzen-Rosenblatt , en honor a Emanuel Parzen y Murray Rosenblatt., a quienes generalmente se les atribuye haberlo creado de forma independiente en su forma actual. [1] [2] Una de las aplicaciones más famosas de la estimación de la densidad del kernel es estimar las densidades marginales condicionales de clase de los datos cuando se utiliza un clasificador Bayes ingenuo , [3] [4] que puede mejorar su precisión de predicción. [3]
Definición
Sea ( x 1 , x 2 ,…, x n ) muestras independientes e idénticamente distribuidas extraídas de alguna distribución univariante con una densidad desconocida f en cualquier punto x dado . Estamos interesados en estimar la forma de esta función f . Su estimador de densidad de kernel es
donde K es el núcleo , una función no negativa, y h > 0 es un parámetro de suavizado llamado ancho de banda . Un kernel con el subíndice h se denomina kernel escalado y se define como K h ( x ) = 1 / h K ( x / h ) . Intuitivamente, uno quiere elegir h tan pequeño como lo permitan los datos; sin embargo, siempre existe una compensación entre el sesgo del estimador y su varianza. La elección del ancho de banda se analiza con más detalle a continuación.
Se utiliza comúnmente una variedad de funciones del kernel : uniforme, triangular, biweight, triweight, Epanechnikov, normal y otras. El núcleo de Epanechnikov es óptimo en un sentido de error cuadrático medio, [5] aunque la pérdida de eficiencia es pequeña para los núcleos enumerados anteriormente. [6] Debido a sus convenientes propiedades matemáticas, a menudo se usa el kernel normal, lo que significa que K ( x ) = ϕ ( x ) , donde ϕ es la función de densidad normal estándar .
La construcción de una estimación de densidad de kernel encuentra interpretaciones en campos fuera de la estimación de densidad. [7] Por ejemplo, en termodinámica , esto es equivalente a la cantidad de calor generado cuando los granos de calor (la solución fundamental de la ecuación de calor ) se colocan en las ubicaciones de cada punto de datos x i . Se utilizan métodos similares para construir operadores de Laplace discretos en nubes de puntos para el aprendizaje múltiple (por ejemplo, mapa de difusión ).
Ejemplo
Las estimaciones de densidad de kernel están estrechamente relacionadas con los histogramas , pero se pueden dotar de propiedades como suavidad o continuidad mediante el uso de un kernel adecuado. El siguiente diagrama basado en estos 6 puntos de datos ilustra esta relación:
Muestra | 1 | 2 | 3 | 4 | 5 | 6 |
---|---|---|---|---|---|---|
Valor | -2,1 | -1,3 | -0,4 | 1,9 | 5.1 | 6.2 |
Para el histograma, primero el eje horizontal se divide en subintervalos o contenedores que cubren el rango de los datos: en este caso, seis contenedores de ancho 2. Siempre que un punto de datos cae dentro de este intervalo, un cuadro de altura 1 / 12 se coloca allí. Si más de un punto de datos cae dentro del mismo contenedor, las cajas se apilan una encima de la otra.
Para la estimación de la densidad del grano, se colocan granos normales con una desviación estándar de 2.25 (indicada por las líneas punteadas rojas) en cada uno de los puntos de datos x i . Los granos se suman para hacer la estimación de la densidad del grano (curva azul continua). La suavidad de la estimación de la densidad del kernel (en comparación con la discreción del histograma) ilustra cómo las estimaciones de la densidad del kernel convergen más rápido a la densidad subyacente verdadera para las variables aleatorias continuas. [8]
Selección de ancho de banda
El ancho de banda del kernel es un parámetro libre que presenta una fuerte influencia en la estimación resultante. Para ilustrar su efecto, tomamos una muestra aleatoria simulada de la distribución normal estándar (trazada en los picos azules en el gráfico de alfombra en el eje horizontal). La curva gris es la densidad real (una densidad normal con media 0 y varianza 1). En comparación, la curva roja no se suaviza ya que contiene demasiados artefactos de datos espurios que surgen del uso de un ancho de banda h = 0.05, que es demasiado pequeño. La curva verde se suaviza demasiado ya que el uso del ancho de banda h = 2 oscurece gran parte de la estructura subyacente. Se considera que la curva negra con un ancho de banda de h = 0.337 está óptimamente suavizada ya que su estimación de densidad está cerca de la densidad real. Se encuentra una situación extrema en el límite(sin suavizado), donde la estimación es una suma de n funciones delta centradas en las coordenadas de las muestras analizadas. En el otro límite extremo la estimación conserva la forma del grano utilizado, centrada en la media de las muestras (completamente lisa).
El criterio de optimalidad más común utilizado para seleccionar este parámetro es la función de riesgo L 2 esperada , también denominada error cuadrático integrado medio :
Bajo supuestos débiles sobre ƒ y K , ( ƒ es la función de densidad real, generalmente desconocida), [1] [2] MISE ( h ) = AMISE ( h ) + o (1 / (nh) + h 4 ) donde o es la notación o pequeña , yn el tamaño de la muestra (como arriba). El AMISE es el MISE asintótico que consta de los dos términos principales
dónde para una función g , y es la segunda derivada de . El mínimo de esta AMISE es la solución a esta ecuación diferencial
o
Ni la fórmula AMISE ni la h AMISE pueden usarse directamente ya que involucran la función de densidad desconocida o su segunda derivada , por lo que se han desarrollado una variedad de métodos automáticos basados en datos para seleccionar el ancho de banda. Se han realizado muchos estudios de revisión para comparar su eficacia, [9] [10] [11] [12] [13] [14] [15] con el consenso general de que los selectores de complementos [7] [16] [ 17] y los selectores de validación cruzada [18] [19] [20] son los más útiles en una amplia gama de conjuntos de datos.
Sustituir cualquier ancho de banda h que tenga el mismo orden asintótico n −1/5 que h AMISE en AMISE da que AMISE ( h ) = O ( n −4/5 ), donde O es la notación o grande . Se puede demostrar que, bajo supuestos débiles, no puede existir un estimador no paramétrico que converja a una tasa más rápida que el estimador de kernel. [21] Tenga en cuenta que la tasa n −4/5 es más lenta que la tasa de convergencia n −1 típica de los métodos paramétricos.
Si el ancho de banda no se mantiene fijo, sino que varía dependiendo de la ubicación de la estimación (estimador de globo) o de las muestras (estimador puntual), esto produce un método particularmente poderoso denominado estimación de densidad de kernel de ancho de banda variable o adaptativo .
La selección del ancho de banda para la estimación de la densidad del kernel de distribuciones de cola pesada es relativamente difícil. [22]
Un estimador de ancho de banda de regla empírica
Si se utilizan funciones de base gaussianas para aproximar datos univariados y la densidad subyacente que se estima es gaussiana, la elección óptima para h (es decir, el ancho de banda que minimiza el error cuadrático integrado medio ) es: [23]
Con el fin de hacer que el valor h sea más robusto y hacer que la adecuación sea adecuada tanto para la distribución de cola larga como para la distribución sesgada y la distribución de mezcla bimodal, es mejor sustituir el valor de con otro parámetro A, que viene dado por:
- A = min (desviación estándar, rango intercuartílico / 1,34).
Otra modificación que mejorará el modelo es reducir el factor de 1,06 a 0,9. Entonces la fórmula final sería:
dónde es la desviación estándar de las muestras, n es el tamaño de la muestra. IQR es el rango intercuartílico.
Esta aproximación se denomina aproximación de distribución normal , aproximación gaussiana o regla de Silverman . [23] Si bien esta regla es fácil de calcular, debe usarse con precaución ya que puede producir estimaciones muy inexactas cuando la densidad no se acerca a la normal. Por ejemplo, al estimar el modelo de mezcla gaussiana bimodal
de una muestra de 200 puntos. La figura de la derecha muestra la densidad real y dos estimaciones de la densidad del kernel: una usa el ancho de banda de la regla empírica y la otra usa un ancho de banda para resolver la ecuación. [7] [17] La estimación basada en la regla empírica del ancho de banda está significativamente sobreajustada.
Relación con el estimador de densidad de función característica
Dada la muestra ( x 1 , x 2 ,…, x n ), es natural estimar la función característica φ ( t ) = E [ e itX ] como
Conociendo la función característica, es posible encontrar la función de densidad de probabilidad correspondiente a través de la fórmula de la transformada de Fourier . Una dificultad con la aplicación de esta fórmula de inversión es que conduce a una integral divergente, ya que la estimaciónno es confiable para t grandes . Para evitar este problema, el estimadorse multiplica por una función de amortiguación ψ h ( t ) = ψ ( ht ) , que es igual a 1 en el origen y luego cae a 0 en el infinito. El "parámetro de ancho de banda" h controla qué tan rápido tratamos de amortiguar la función. En particular, cuando h es pequeño, entonces ψ h ( t ) será aproximadamente uno para un rango grande de t , lo que significa quepermanece prácticamente inalterado en la región más importante de t 's.
La opción más común para la función ψ es la función uniforme ψ ( t ) = 1 {−1 ≤ t ≤ 1 }, lo que efectivamente significa truncar el intervalo de integración en la fórmula de inversión a [−1 / h , 1 / h ] , o la función gaussiana ψ ( t ) = e - π t 2 . Una vez elegida la función ψ , se puede aplicar la fórmula de inversión y el estimador de densidad será
donde K es la transformada de Fourier de la función de amortiguamiento ψ . Por tanto, el estimador de densidad de kernel coincide con el estimador de densidad de función característica.
Características geométricas y topológicas
Podemos extender la definición del modo (global) a un sentido local y definir los modos locales:
A saber, es la colección de puntos para los que la función de densidad se maximiza localmente. Un estimador natural dees un complemento de KDE, [24] [25] donde y son la versión KDE de y . Bajo supuestos leves, es un estimador consistente de . Tenga en cuenta que se puede utilizar el algoritmo de desplazamiento medio [26] [27] [28] para calcular el estimador numéricamente.
Implementación estadística
Una lista no exhaustiva de implementaciones de software de estimadores de densidad de kernel incluye:
- En la versión 4.4 de Analytica , la opción Suavizado para los resultados de PDF utiliza KDE y, a partir de las expresiones, está disponible a través de la
Pdf
función incorporada. - En C / C ++ , FIGTree es una biblioteca que se puede usar para calcular estimaciones de densidad de kernel usando kernels normales. Interfaz MATLAB disponible.
- En C ++ , libagf es una biblioteca para la estimación de densidad de kernel variable .
- En C ++ , mlpack es una biblioteca que puede calcular KDE usando muchos núcleos diferentes. Permite establecer una tolerancia a errores para un cálculo más rápido. Las interfaces Python y R están disponibles.
- en C # y F # , Math.NET Numerics es una biblioteca de código abierto para el cálculo numérico que incluye la estimación de la densidad del kernel
- En CrimeStat , la estimación de la densidad del kernel se implementa utilizando cinco funciones de kernel diferentes: normal, uniforme, cuártica, exponencial negativa y triangular. Están disponibles rutinas de estimación de densidad de núcleo simple y doble. La estimación de densidad de kernel también se utiliza para interpolar una rutina de Head Bang, para estimar una función de densidad bidimensional del viaje al crimen y para estimar una estimación tridimensional del viaje bayesiano al crimen.
- En ELKI , las funciones de densidad del kernel se pueden encontrar en el paquete
de.lmu.ifi.dbs.elki.math.statistics.kernelfunctions
- En los productos ESRI , el mapeo de densidad del kernel se administra desde la caja de herramientas de Spatial Analyst y usa el kernel Quartic (biweight).
- En Excel , la Royal Society of Chemistry ha creado un complemento para ejecutar la estimación de la densidad del kernel según el Informe técnico 4 del Comité de métodos analíticos .
- En gnuplot , la estimación de la densidad del kernel se implementa mediante la
smooth kdensity
opción, el archivo de datos puede contener un peso y ancho de banda para cada punto, o el ancho de banda se puede configurar automáticamente [29] de acuerdo con la "regla de Silverman" (ver arriba). - En Haskell , la densidad del kernel se implementa en el paquete de estadísticas .
- En IGOR Pro , la estimación de la densidad del kernel es implementada por la
StatsKDE
operación (agregada en Igor Pro 7.00). El ancho de banda puede ser especificado o estimado por el usuario por medio de Silverman, Scott o Bowmann y Azzalini. Los tipos de kernel son: Epanechnikov, Bi-weight, Tri -weight, Triangular, Gaussian y Rectangular. - En Java , el paquete Weka (aprendizaje automático) proporciona weka.estimators.KernelEstimator , entre otros.
- En JavaScript , el paquete de visualización D3.js ofrece un paquete KDE en su paquete science.stats.
- En JMP , la plataforma Graph Builder utiliza la estimación de densidad de kernel para proporcionar gráficos de contorno y regiones de alta densidad (HDR) para densidades bivariadas, y gráficos de violín y HDR para densidades univariadas. Los controles deslizantes permiten al usuario variar el ancho de banda. Las estimaciones de densidad de kernel bivariadas y univariadas también son proporcionadas por las plataformas Fit Y by X y Distribution, respectivamente.
- En Julia , la estimación de la densidad del kernel se implementa en el paquete KernelDensity.jl .
- En MATLAB , la estimación de la densidad del kernel se implementa a través de la
ksdensity
función (Caja de herramientas de estadísticas). A partir de la versión 2018a de MATLAB, se pueden especificar tanto el ancho de banda como el kernel más suave, incluidas otras opciones, como especificar el rango de densidad del kernel. [30] Alternativamente, un paquete de software MATLAB gratuito que implementa un método automático de selección de ancho de banda [7] está disponible en MATLAB Central File Exchange para- Datos unidimensionales
- Datos bidimensionales
- Datos n-dimensionales
En estas páginas hay disponible una caja de herramientas MATLAB gratuita con implementación de regresión del kernel, estimación de la densidad del kernel, estimación del kernel de la función de riesgo y muchas otras (esta caja de herramientas es parte del libro [31] ).
- En Mathematica , la función
SmoothKernelDistribution
[32] implementa la estimación numérica de la densidad del kernel y la estimación simbólica se implementa usando la funciónKernelMixtureDistribution
[33], las cuales proporcionan anchos de banda basados en datos. - En Minitab , la Royal Society of Chemistry ha creado una macro para ejecutar la estimación de la densidad del kernel basada en el Informe técnico 4 del Comité de métodos analíticos. [34]
- En la biblioteca NAG , la estimación de la densidad del kernel se implementa a través de la
g10ba
rutina (disponible en las versiones Fortran [35] y C [36] de la biblioteca). - En Nuklei , los métodos de densidad del kernel de C ++ se centran en datos del grupo euclidiano especial.
- En Octave , la estimación de la densidad del kernel se implementa mediante la
kernel_density
opción (paquete de econometría). - En origen , la trama de densidad 2D kernel se puede hacer de su interfaz de usuario, y dos funciones, Ksdensity para 1D y Ks2density para 2D se puede utilizar desde su LabTalk , Python , o C de código.
- En Perl , se puede encontrar una implementación en el módulo Statistics-KernelEstimation
- En PHP , se puede encontrar una implementación en la biblioteca MathPHP
- En Python , existen muchas implementaciones: módulo pyqt_fit.kde en el paquete PyQt-Fit , SciPy (
scipy.stats.gaussian_kde
), Statsmodels (KDEUnivariate
yKDEMultivariate
) y Scikit-learn (KernelDensity
) (ver comparación [37] ). KDEpy admite datos ponderados y su implementación FFT es órdenes de magnitud más rápida que las otras implementaciones. La biblioteca de pandas de uso común [1] ofrece soporte para el trazado de kde a través del método plot (df.plot(kind='kde')
[2] ). El paquete getdist para muestras MCMC ponderadas y correlacionadas admite ancho de banda optimizado, corrección de límites y métodos de orden superior para distribuciones 1D y 2D. Un paquete recientemente utilizado para la estimación de la densidad del kernel es seaborn (import seaborn as sns
,sns.kdeplot()
). [38] También existe una implementación de GPU de KDE. [39] - En R , se implementa
density
en la distribución base y labw.nrd0
función se usa en el paquete de estadísticas, esta función usa la fórmula optimizada en el libro de Silverman.bkde
en la biblioteca KernSmooth ,ParetoDensityEstimation
en la biblioteca DataVisualizations (para la estimación de la densidad de distribución de Pareto),kde
en la biblioteca ks ,dkden
ydbckden
en la biblioteca evmix (este último para límite de estimación de densidad kernel corregido para el apoyo limitada),npudens
en la biblioteca np (datos numéricos y categórica) ,sm.density
en la biblioteca sm . Para una implementación de lakde.R
función, que no requiere la instalación de los paquetes o bibliotecas, consulte kde.R . La biblioteca btb , dedicada al análisis urbano, implementa la estimación de la densidad del kernel a través dekernel_smoothing
. - En SAS ,
proc kde
se puede utilizar para estimar densidades de kernel univariadas y bivariadas. - En Apache Spark , la
KernelDensity()
clase [40] - En Stata , se implementa a través de
kdensity
; [41] por ejemplohistogram x, kdensity
. Alternativamente, un módulo Stata gratuito KDENS está disponible desde aquí que permite al usuario estimar funciones de densidad 1D o 2D. - En Swift , se implementa a través
SwiftStats.KernelDensityEstimation
de la biblioteca de estadísticas de código abierto SwiftStats .
Ver también
- Kernel (estadísticas)
- Suavizado de granos
- Regresión de kernel
- Estimación de densidad (con presentación de otros ejemplos)
- Cambio medio
- Espacio de escala : Los tripletes {( x , h , KDE con ancho de banda h evaluado en x : todo x , h > 0} forman una representación de espacio de escala de los datos.
- Estimación de densidad de kernel multivariante
- Estimación de densidad de kernel variable
- Roturas de cabeza / cola
Referencias
- ↑ a b Rosenblatt, M. (1956). "Observaciones sobre algunas estimaciones no paramétricas de una función de densidad" . Los Anales de Estadística Matemática . 27 (3): 832–837. doi : 10.1214 / aoms / 1177728190 .
- ^ a b Parzen, E. (1962). "Sobre la estimación de una función y modo de densidad de probabilidad" . Los Anales de Estadística Matemática . 33 (3): 1065–1076. doi : 10.1214 / aoms / 1177704472 . JSTOR 2237880 .
- ^ a b Piryonesi S. Madeh; El-Diraby Tamer E. (1 de junio de 2020). "Papel de la analítica de datos en la gestión de activos de infraestructura: superación de problemas de calidad y tamaño de datos". Revista de Ingeniería de Transporte, Parte B: Pavimentos . 146 (2): 04020022. doi : 10.1061 / JPEODX.0000175 .
- ^ Hastie, Trevor. (2001). Los elementos del aprendizaje estadístico: minería de datos, inferencia y predicción: con 200 ilustraciones a todo color . Tibshirani, Robert., Friedman, JH (Jerome H.). Nueva York: Springer. ISBN 0-387-95284-5. OCLC 46809224 .
- ^ Epanechnikov, VA (1969). "Estimación no paramétrica de una densidad de probabilidad multivariante". Teoría de la probabilidad y sus aplicaciones . 14 : 153-158. doi : 10.1137 / 1114019 .
- ^ Varita, MP; Jones, MC (1995). Suavizado de granos . Londres: Chapman & Hall / CRC. ISBN 978-0-412-55270-0.
- ^ a b c d Botev, Zdravko (2007). Estimación de densidad no paramétrica mediante mezcla por difusión (informe técnico). Universidad de Queensland.
- ^ Scott, D. (1979). "Sobre histogramas óptimos y basados en datos". Biometrika . 66 (3): 605–610. doi : 10.1093 / biomet / 66.3.605 .
- ^ Park, BU; Marron, JS (1990). "Comparación de selectores de ancho de banda basados en datos". Revista de la Asociación Estadounidense de Estadística . 85 (409): 66–72. CiteSeerX 10.1.1.154.7321 . doi : 10.1080 / 01621459.1990.10475307 . JSTOR 2289526 .
- ^ Park, BU; Turlach, BA (1992). "Rendimiento práctico de varios selectores de ancho de banda controlados por datos (con discusión)" . Estadística computacional . 7 : 251-270.
- ^ Cao, R .; Cuevas, A .; Manteiga, WG (1994). "Un estudio comparativo de varios métodos de suavizado en la estimación de la densidad". Estadística Computacional y Análisis de Datos . 17 (2): 153-176. doi : 10.1016 / 0167-9473 (92) 00066-Z .
- ^ Jones, MC; Marron, JS; Sheather, SJ (1996). "Un breve estudio de la selección de ancho de banda para la estimación de densidad". Revista de la Asociación Estadounidense de Estadística . 91 (433): 401–407. doi : 10.2307 / 2291420 . JSTOR 2291420 .
- ^ Sheather, SJ (1992). "El rendimiento de seis métodos populares de selección de ancho de banda en algunos conjuntos de datos reales (con discusión)". Estadística computacional . 7 : 225–250, 271–281.
- ^ Agarwal, N .; Aluru, NR (2010). "Un enfoque de colocación estocástica basado en datos para la cuantificación de la incertidumbre en MEMS" (PDF) . Revista Internacional de Métodos Numéricos en Ingeniería . 83 (5): 575–597. doi : 10.1002 / nme.2844 .
- ^ Xu, X .; Yan, Z .; Xu, S. (2015). "Estimación de la distribución de probabilidad de la velocidad del viento por el método de densidad de kernel basado en difusión". Investigación de sistemas de energía eléctrica . 121 : 28–37. doi : 10.1016 / j.epsr.2014.11.029 .
- ^ Botev, ZI; Grotowski, JF; Kroese, DP (2010). "Estimación de la densidad kernel vía difusión". Annals of Statistics . 38 (5): 2916–2957. arXiv : 1011.2602 . doi : 10.1214 / 10-AOS799 .
- ^ a b Sheather, SJ; Jones, MC (1991). "Un método confiable de selección de ancho de banda basado en datos para la estimación de la densidad del kernel". Revista de la Sociedad Real de Estadística, Serie B . 53 (3): 683–690. doi : 10.1111 / j.2517-6161.1991.tb01857.x . JSTOR 2345597 .
- ^ Rudemo, M. (1982). "Elección empírica de histogramas y estimadores de densidad de kernel". Revista Escandinava de Estadística . 9 (2): 65–78. JSTOR 4615859 .
- ^ Bowman, AW (1984). "Un método alternativo de validación cruzada para suavizar las estimaciones de densidad". Biometrika . 71 (2): 353–360. doi : 10.1093 / biomet / 71.2.353 .
- ^ Hall, P .; Marron, JS; Park, BU (1992). "Validación cruzada suavizada". Teoría de la probabilidad y campos relacionados . 92 : 1–20. doi : 10.1007 / BF01205233 .
- ^ Wahba, G. (1975). "Propiedades óptimas de convergencia de métodos de series ortogonales, kernel y de nudos variables para la estimación de la densidad" . Annals of Statistics . 3 (1): 15-29. doi : 10.1214 / aos / 1176342997 .
- ^ Buch-Larsen, TINE (2005). "Estimación de la densidad de kernel para distribuciones de cola pesada utilizando la transformación de Champernowne". Estadística . 39 (6): 503–518. CiteSeerX 10.1.1.457.1544 . doi : 10.1080 / 02331880500439782 .
- ^ a b Silverman, BW (1986). Estimación de densidad para estadísticas y análisis de datos . Londres: Chapman & Hall / CRC. pag. 45 . ISBN 978-0-412-24620-3.
- ^ Chen, Yen-Chi; Genovese, Christopher R .; Wasserman, Larry (2016). "Un enfoque integral para la agrupación de modos" . Revista Electrónica de Estadística . 10 (1): 210–241. doi : 10.1214 / 15-ejs1102 . ISSN 1935-7524 .
- ^ Chazal, Frédéric; Fasy, Brittany Terese; Lecci, Fabrizio; Rinaldo, Alessandro; Wasserman, Larry (2014). "Convergencia estocástica de paisajes y siluetas de persistencia" . Simposio Anual de Geometría Computacional - SOCG'14 . Nueva York, Nueva York, EE. UU .: ACM Press: 474–483. doi : 10.1145 / 2582112.2582128 . ISBN 978-1-4503-2594-3.
- ^ Fukunaga, K .; Hostetler, L. (enero de 1975). "La estimación del gradiente de una función de densidad, con aplicaciones en el reconocimiento de patrones". Transacciones IEEE sobre teoría de la información . 21 (1): 32–40. doi : 10.1109 / tit.1975.1055330 . ISSN 0018-9448 .
- ^ Yizong Cheng (1995). "Cambio medio, búsqueda de modo y agrupamiento". Transacciones IEEE sobre análisis de patrones e inteligencia de máquinas . 17 (8): 790–799. doi : 10.1109 / 34.400568 . ISSN 0162-8828 .
- ^ Comaniciu, D .; Meer, P. (mayo de 2002). "Cambio medio: un enfoque sólido hacia el análisis del espacio de características". Transacciones IEEE sobre análisis de patrones e inteligencia de máquinas . 24 (5): 603–619. doi : 10.1109 / 34.1000236 . ISSN 0162-8828 .
- ^ Janert, Philipp K (2009). Gnuplot en acción: entender datos con gráficos . Connecticut, Estados Unidos: Publicaciones Manning. ISBN 978-1-933988-39-9.Consulte la sección 13.2.2 titulada Estimaciones de densidad kernel .
- ^ "Estimación de la función de suavizado de kernel para datos univariados y bivariados - MATLAB ksdensity" . www.mathworks.com . Consultado el 5 de noviembre de 2020 .
- ^ Horová, I .; Koláček, J .; Zelinka, J. (2012). Kernel Smoothing en MATLAB: teoría y práctica del Kernel Smoothing . Singapur: World Scientific Publishing. ISBN 978-981-4405-48-5.
- ^ "SmoothKernelDistribution — Documentación de Wolfram Language" . reference.wolfram.com . Consultado el 5 de noviembre de 2020 .
- ^ "KernelMixtureDistribution — Wolfram Language Documentation" . reference.wolfram.com . Consultado el 5 de noviembre de 2020 .
- ^ "Software para calcular densidades de kernel" . www.rsc.org . Consultado el 5 de noviembre de 2020 .
- ^ El grupo de algoritmos numéricos. "Documento de rutina de la biblioteca NAG: nagf_smooth_kerndens_gauss (g10baf)" (PDF) . Manual de la biblioteca NAG, Mark 23 . Consultado el 16 de febrero de 2012 .
- ^ El grupo de algoritmos numéricos. "Documento de rutina de la biblioteca NAG: nag_kernel_density_estim (g10bac)" (PDF) . Manual de la biblioteca NAG, Mark 9 . Archivado desde el original (PDF) el 24 de noviembre de 2011 . Consultado el 16 de febrero de 2012 .
- ^ Vanderplas, Jake (1 de diciembre de 2013). "Estimación de la densidad del kernel en Python" . Consultado el 12 de marzo de 2014 .
- ^ "seaborn.kdeplot - documentación de seaborn 0.10.1" . seaborn.pydata.org . Consultado el 12 de mayo de 2020 .
- ^ https://pypi.org/project/kde-gpu/#description
- ^ "Estadísticas básicas - API basada en RDD - Documentación de Spark 3.0.1" . spark.apache.org . Consultado el 5 de noviembre de 2020 .
- ^ https://www.stata.com/manuals15/rkdensity.pdf
enlaces externos
- Introducción a la estimación de la densidad del kernel Un breve tutorial que motiva a los estimadores de densidad del kernel como una mejora sobre los histogramas.
- Optimización del ancho de banda del kernel Una herramienta en línea gratuita que genera una estimación optimizada de la densidad del kernel.
- El software gratuito en línea (calculadora) calcula la estimación de la densidad del kernel para una serie de datos de acuerdo con los siguientes kernels: gaussiano, epanechnikov, rectangular, triangular, bipeso, coseno y optcoseno.
- Applet de estimación de densidad de kernel Un ejemplo interactivo en línea de estimación de densidad de kernel. Requiere .NET 3.0 o posterior.