De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

Un enjambre de partículas que busca el mínimo global de una función.

En la ciencia computacional , la optimización del enjambre de partículas ( PSO ) [1] es un método computacional que optimiza un problema al tratar iterativamente de mejorar una solución candidata con respecto a una medida de calidad dada. Resuelve un problema teniendo una población de soluciones candidatas, aquí denominadas partículas , y moviendo estas partículas en el espacio de búsqueda de acuerdo con una fórmula matemática simple sobre la posición y la velocidad de la partícula.. El movimiento de cada partícula está influenciado por su posición local más conocida, pero también se guía hacia las posiciones más conocidas en el espacio de búsqueda, que se actualizan a medida que otras partículas encuentran mejores posiciones. Se espera que esto mueva el enjambre hacia las mejores soluciones.

PSO se atribuye originalmente a Kennedy , Eberhart y Shi [2] [3] y fue pensado inicialmente para simular el comportamiento social , [4] como una representación estilizada del movimiento de organismos en una bandada de aves o un banco de peces . El algoritmo se simplificó y se observó que estaba realizando una optimización. El libro de Kennedy y Eberhart [5] describe muchos aspectos filosóficos de la PSO y la inteligencia de enjambre . Poli realiza una encuesta exhaustiva de las solicitudes de PSO . [6] [7]Recientemente, Bonyadi y Michalewicz han publicado una revisión exhaustiva de trabajos teóricos y experimentales sobre PSO. [8]

PSO es una metaheurística ya que hace pocas o ninguna suposición sobre el problema que se está optimizando y puede buscar espacios muy grandes de soluciones candidatas. Sin embargo, metaheurísticas como PSO no garantizan que nunca se encuentre una solución óptima. Además, PSO no usa el gradiente del problema que se está optimizando, lo que significa que PSO no requiere que el problema de optimización sea diferenciable como lo requieren los métodos de optimización clásicos como el descenso de gradiente y los métodos cuasi-newton .

Algoritmo [ editar ]

Una variante básica del algoritmo PSO funciona al tener una población (llamada enjambre) de soluciones candidatas (llamadas partículas). Estas partículas se mueven en el espacio de búsqueda de acuerdo con algunas fórmulas simples. [9] Los movimientos de las partículas están guiados por su propia posición más conocida en el espacio de búsqueda, así como por la posición más conocida de todo el enjambre. Cuando se descubran posiciones mejoradas, éstas vendrán a guiar los movimientos del enjambre. El proceso se repite y, al hacerlo, se espera, pero no se garantiza, que finalmente se descubra una solución satisfactoria.

Formalmente, sea f : ℝ n  → ℝ la función de costo que debe minimizarse. La función toma una solución candidata como argumento en forma de vector de números reales y produce un número real como salida que indica el valor de la función objetivo de la solución candidata dada. El gradiente de f no se conoce. El objetivo es encontrar una solución a para la cual f ( a ) ≤  f ( b ) para todo b en el espacio de búsqueda, lo que significaría que a es el mínimo global.

Sea S el número de partículas en el enjambre, cada una de las cuales tiene una posición x i  ∈ ℝ n en el espacio de búsqueda y una velocidad v i  ∈ ℝ n . Sea p i la posición más conocida de la partícula i y sea g la posición más conocida de todo el enjambre. Entonces, un algoritmo básico de PSO es: [10]

para cada partícula i  = 1, ...,  S  do Inicialice la posición de la partícula con un vector aleatorio distribuido uniformemente : x i  ~  U ( b lob up ) Inicialice la posición más conocida de la partícula a su posición inicial: p i  ←  x i  si  f ( p i ) < f ( g ) luego actualice la posición más conocida del enjambre: g  ←  p i Inicialice la velocidad de la partícula: v i  ~  U (- | b up - b lo |, | b up - b lo |) mientras no se cumpla un criterio de terminación, haga lo siguiente : para cada partícula i  = 1, ...,  S  do  para cada dimensión d  = 1, ...,  n  do Elija números aleatorios: r p , r g ~ U (0,1) Actualizar la velocidad de la partícula: v i, d  ← ω v i, d + φ p  r p ( p i, d - x i, d ) + φ g  r g ( g d - x i, d ) Actualice la posición de la partícula: x i  ←  x i + lr v i  si  f ( x i ) < f ( p i ) luego actualice la posición más conocida de la partícula: p i  ←  x i  si  f ( p i ) < f ( g ) luego actualice la posición más conocida del enjambre: g  ←  p i

Los valores b lo y b up representan los límites inferior y superior del espacio de búsqueda, respectivamente. El criterio de terminación puede ser el número de iteraciones realizadas o una solución donde se encuentra el valor de función objetivo adecuado. [11] Los parámetros ω, φ p y φ g son seleccionados por el médico y controlan el comportamiento y la eficacia del método PSO (a continuación ). lr representa la tasa de aprendizaje (0 ≤ lr ≤ 1.0), que es la proporción en la que la velocidad afecta el movimiento de la partícula (donde lr = 0 significa que la velocidad no afectará a la partícula en absoluto y lr = 1 significa que la velocidad afectará completamente a la partícula).

Selección de parámetros [ editar ]

Panorama de rendimiento que muestra cómo funciona una variante de PSO simple en conjunto en varios problemas de referencia al variar dos parámetros de PSO.

La elección de los parámetros de PSO puede tener un gran impacto en el rendimiento de la optimización. Por lo tanto, la selección de parámetros de PSO que produzcan un buen rendimiento ha sido objeto de mucha investigación. [12] [13] [14] [15] [16] [17] [18] [19] [20]

Los parámetros de PSO también pueden ajustarse utilizando otro optimizador superpuesto, un concepto conocido como meta-optimización , [21] [22] [23] [24] o incluso ajustarse durante la optimización, por ejemplo, por medio de lógica difusa. [25] [26]

Los parámetros también se han ajustado para varios escenarios de optimización. [27] [28]

Barrios y topologías [ editar ]

La topología del enjambre define el subconjunto de partículas con las que cada partícula puede intercambiar información. [29] La versión básica del algoritmo utiliza la topología global como estructura de comunicación de enjambre. [11] Esta topología permite que todas las partículas se comuniquen con todas las demás partículas, por lo que todo el enjambre comparte la misma mejor posición g de una sola partícula. Sin embargo, este enfoque podría llevar al enjambre a quedar atrapado en un mínimo local, [30] por lo que se han utilizado diferentes topologías para controlar el flujo de información entre las partículas. Por ejemplo, en las topologías locales, las partículas solo comparten información con un subconjunto de partículas. [11] Este subconjunto puede ser geométrico [31]- por ejemplo, "las m partículas más cercanas" - o, más a menudo, una social, es decir, un conjunto de partículas que no depende de ninguna distancia. En tales casos, se dice que la variante de PSO es la mejor local (frente a la mejor global para la PSO básica).

Una topología de enjambre comúnmente utilizada es el anillo, en el que cada partícula tiene solo dos vecinos, pero hay muchos otros. [11] La topología no es necesariamente estática. De hecho, dado que la topología está relacionada con la diversidad de comunicación de las partículas, [32] se han realizado algunos esfuerzos para crear topologías adaptativas (SPSO, [33] APSO, [34] estrella estocástica, [35] TRIBES, [36 ] Cyber ​​Swarm, [37] y C-PSO [38] ).

Funcionamiento interno [ editar ]

Hay varias escuelas de pensamiento sobre por qué y cómo el algoritmo PSO puede realizar la optimización.

Una creencia común entre los investigadores es que el comportamiento del enjambre varía entre el comportamiento exploratorio, es decir, buscar en una región más amplia del espacio de búsqueda, y el comportamiento explotador, es decir, una búsqueda orientada localmente para acercarse a un (posiblemente local) óptimo. Esta escuela de pensamiento ha prevalecido desde los inicios de PSO. [3] [4] [13] [17] Esta escuela de pensamiento sostiene que el algoritmo PSO y sus parámetros deben elegirse de manera que se equilibre adecuadamente entre la exploración y la explotación para evitar la convergencia prematura a un óptimo local y, al mismo tiempo, garantizar una buena tasa de convergencia al óptimo. Esta creencia es la precursora de muchas variantes de PSO, ver más abajo..

Otra escuela de pensamiento es que el comportamiento de un enjambre de PSO no se comprende bien en términos de cómo afecta el rendimiento real de la optimización, especialmente para los espacios de búsqueda de dimensiones superiores y los problemas de optimización que pueden ser discontinuos, ruidosos y variables en el tiempo. Esta escuela de pensamiento simplemente intenta encontrar algoritmos y parámetros de PSO que causen un buen desempeño independientemente de cómo se pueda interpretar el comportamiento del enjambre en relación, por ejemplo, con la exploración y la explotación. Dichos estudios han llevado a la simplificación del algoritmo PSO, ver más abajo .

Convergencia [ editar ]

En relación con PSO, la palabra convergencia se refiere típicamente a dos definiciones diferentes:

  • Convergencia de la secuencia de soluciones (también conocida como análisis de estabilidad, convergencia ) en la que todas las partículas han convergido a un punto en el espacio de búsqueda, que puede o no ser el óptimo.
  • La convergencia a un óptimo local donde todos los récords personales p o, alternativamente, la posición g más conocida del enjambre , se acerca a un óptimo local del problema, independientemente de cómo se comporte el enjambre.

Se ha investigado la convergencia de la secuencia de soluciones para PSO. [16] [17] [18] Estos análisis han dado como resultado pautas para seleccionar parámetros de PSO que se cree que causan convergencia a un punto y previenen la divergencia de las partículas del enjambre (las partículas no se mueven sin límites y convergerán a algún lugar). Sin embargo, los análisis fueron criticados por Pedersen [23] para ser simplificado en exceso, ya que asumir el enjambre tiene una sola partícula, que no utiliza variables estocásticas y que los puntos de atracción, es decir, la mejor posición conocida de la partícula P y las del enjambre posición g más conocida , permanecen constantes durante todo el proceso de optimización. Sin embargo, se demostró [39]que estas simplificaciones no afectan los límites encontrados por estos estudios para el parámetro donde el enjambre es convergente. Se ha hecho un esfuerzo considerable en los últimos años para debilitar el supuesto de modelado utilizado durante el análisis de estabilidad de PSO, [40] con el resultado generalizado más reciente aplicándose a numerosas variantes de PSO y utilizando lo que se demostró que eran los supuestos de modelado mínimos necesarios. [41]

La convergencia a un óptimo local se ha analizado para PSO en [42] y. [43] Se ha demostrado que PSO necesita alguna modificación para garantizar la búsqueda de un óptimo local.

Esto significa que la determinación de las capacidades de convergencia de diferentes algoritmos y parámetros de PSO aún depende de resultados empíricos . Un intento de abordar este problema es el desarrollo de una estrategia de "aprendizaje ortogonal" para un mejor uso de la información ya existente en la relación entre p y g , a fin de formar un ejemplo convergente líder y ser eficaz con cualquier topología PSO. Los objetivos son mejorar el rendimiento de PSO en general, incluida una convergencia global más rápida, una mayor calidad de la solución y una mayor solidez. [44] Sin embargo, estos estudios no proporcionan evidencia teórica para probar realmente sus afirmaciones.

Mecanismos adaptativos [ editar ]

Sin la necesidad de un compromiso entre convergencia ('explotación') y divergencia ('exploración'), se puede introducir un mecanismo adaptativo. La optimización adaptativa del enjambre de partículas (APSO) [45] presenta una mejor eficiencia de búsqueda que la PSO estándar. APSO puede realizar búsquedas globales en todo el espacio de búsqueda con una mayor velocidad de convergencia. Permite el control automático del peso de inercia, coeficientes de aceleración y otros parámetros algorítmicos en el tiempo de ejecución, mejorando así la efectividad y eficiencia de la búsqueda al mismo tiempo. Además, APSO puede actuar sobre la mejor partícula a nivel mundial para saltar de los probables óptimos locales. Sin embargo, APSO introducirá nuevos parámetros de algoritmo, no obstante, no introduce complejidad adicional en el diseño o la implementación.

Variantes [ editar ]

Son posibles numerosas variantes de incluso un algoritmo PSO básico. Por ejemplo, hay diferentes formas de inicializar las partículas y velocidades (por ejemplo, comenzar con velocidades cero en su lugar), cómo amortiguar la velocidad, solo actualizar p i y g después de que se haya actualizado todo el enjambre, etc. Algunas de estas opciones y sus El posible impacto en el rendimiento se ha discutido en la literatura [15]

Investigadores líderes han creado una serie de implementaciones estándar, "destinadas a ser utilizadas como base para las pruebas de rendimiento de las mejoras de la técnica, así como para representar a PSO ante la comunidad de optimización más amplia. Tener un conocido, estrictamente definido El algoritmo estándar proporciona un valioso punto de comparación que se puede utilizar en todo el campo de investigación para probar mejor los nuevos avances ". [11] El último es el estándar PSO 2011 (SPSO-2011). [46]

Hibridación [ editar ]

También se introducen continuamente variantes de PSO nuevas y más sofisticadas en un intento por mejorar el rendimiento de optimización. Hay ciertas tendencias en esa investigación; una es hacer un método de optimización híbrido usando PSO combinado con otros optimizadores, [47] [48] [49] por ejemplo, PSO combinado con optimización basada en biogeografía, [50] y la incorporación de un método de aprendizaje efectivo. [44]

Aliviar la convergencia prematura [ editar ]

Otra tendencia de investigación es tratar de aliviar la convergencia prematura (es decir, el estancamiento de la optimización), por ejemplo, invirtiendo o perturbando el movimiento de las partículas de PSO, [20] [51] [52] [53] otro enfoque para tratar la convergencia prematura es el uso de múltiples enjambres [54] ( optimización de múltiples enjambres ). El enfoque de múltiples enjambres también se puede utilizar para implementar la optimización de múltiples objetivos. [55] Por último, hay avances en la adaptación de los parámetros de comportamiento de PSO durante la optimización. [45] [25]

Simplificaciones [ editar ]

Otra escuela de pensamiento es que la PSO debería simplificarse tanto como sea posible sin perjudicar su desempeño; un concepto general al que a menudo se hace referencia como navaja de Occam . La simplificación de PSO fue sugerida originalmente por Kennedy [4] y se ha estudiado más extensamente, [19] [22] [23] [56] donde parecía que se mejoró el rendimiento de la optimización, y que los parámetros eran más fáciles de ajustar y se desempeñaban de manera más consistente en diferentes problemas de optimización.

Otro argumento a favor de simplificar la PSO es que la eficacia de las metaheurísticas solo puede demostrarse empíricamente mediante experimentos computacionales sobre un número finito de problemas de optimización. Esto significa que no se puede probar que una metaheurística como PSO sea correcta y esto aumenta el riesgo de cometer errores en su descripción e implementación. Un buen ejemplo de esto [57] presentó una variante prometedora de un algoritmo genético(otra metaheurística popular), pero luego se descubrió que era defectuosa ya que estaba fuertemente sesgada en su búsqueda de optimización hacia valores similares para diferentes dimensiones en el espacio de búsqueda, que resultó ser el óptimo de los problemas de referencia considerados. Este sesgo se debió a un error de programación y ahora se ha corregido. [58]

La inicialización de velocidades puede requerir entradas adicionales. La variante Bare Bones PSO [59] fue propuesta en 2003 por James Kennedy y no necesita utilizar la velocidad en absoluto.

Otra variante más simple es la optimización acelerada del enjambre de partículas (APSO), [60] que tampoco necesita usar la velocidad y puede acelerar la convergencia en muchas aplicaciones. Está disponible un código de demostración simple de APSO. [61]

Optimización multiobjetivo [ editar ]

El PSO también se ha aplicado a problemas multiobjetivo , [62] [63] [64] en los que la comparación de la función objetivo tiene en cuenta la dominancia de pareto cuando se mueven las partículas de PSO y las soluciones no dominadas se almacenan para aproximarse al frente de pareto .

Binario, discreto y combinatorio [ editar ]

Como las ecuaciones de PSO dadas anteriormente funcionan con números reales, un método comúnmente utilizado para resolver problemas discretos es mapear el espacio de búsqueda discreta en un dominio continuo, aplicar un PSO clásico y luego desmapear el resultado. Tal mapeo puede ser muy simple (por ejemplo, usando valores redondeados) o más sofisticado. [sesenta y cinco]

Sin embargo, se puede notar que las ecuaciones de movimiento hacen uso de operadores que realizan cuatro acciones:

  • calculando la diferencia de dos posiciones. El resultado es una velocidad (más precisamente un desplazamiento)
  • multiplicar una velocidad por un coeficiente numérico
  • sumando dos velocidades
  • aplicando una velocidad a una posición

Por lo general, una posición y una velocidad se representan mediante n números reales, y estos operadores son simplemente -, *, + y nuevamente +. Pero todos estos objetos matemáticos se pueden definir de una manera completamente diferente, para hacer frente a problemas binarios (o más generalmente discretos), o incluso combinatorios. [66] [67] [68] [69] Un enfoque es redefinir los operadores basados ​​en conjuntos. [70]

Ver también [ editar ]

  • Algoritmo de colonia de abejas artificial
  • Algoritmo de abejas
  • Optimización sin derivadas
  • Optimización de múltiples enjambres
  • Filtro de partículas
  • Inteligencia de enjambre
  • Búsqueda de escuelas de peces
  • Optimización de moscas dispersivas

Referencias [ editar ]

  1. ^ Golbon-Haghighi, Mohammad-Hossein; Saeidi-Manesh, Hadi; Zhang, Guifu; Zhang, Yan (2018). "Síntesis de patrones para el radar de matriz en fase polarimétrica cilíndrica (CPPAR)" (PDF) . Avances en la investigación electromagnética . 66 : 87–98. doi : 10.2528 / PIERM18011016 (inactivo 2021-01-15).Mantenimiento de CS1: DOI inactivo a partir de enero de 2021 ( enlace )
  2. ^ Kennedy, J .; Eberhart, R. (1995). "Optimización de Enjambre de partículas". Actas de la Conferencia Internacional IEEE sobre Redes Neuronales . IV . págs. 1942-1948. doi : 10.1109 / ICNN.1995.488968 .
  3. ^ a b Shi, Y .; Eberhart, RC (1998). "Un optimizador de enjambre de partículas modificado". Actas de la Conferencia Internacional IEEE sobre Computación Evolutiva . págs. 69–73. doi : 10.1109 / ICEC.1998.699146 .
  4. ↑ a b c Kennedy, J. (1997). "El enjambre de partículas: adaptación social del conocimiento". Actas de la Conferencia Internacional IEEE sobre Computación Evolutiva . págs. 303-308. doi : 10.1109 / ICEC.1997.592326 .
  5. ^ Kennedy, J .; Eberhart, RC (2001). Inteligencia de enjambre . Morgan Kaufmann. ISBN 978-1-55860-595-4.
  6. ^ Poli, R. (2007). "Un análisis de publicaciones sobre aplicaciones de optimización de enjambres de partículas" (PDF) . Informe técnico CSM-469 . Archivado desde el original (PDF) el 16 de julio de 2011 . Consultado el 3 de mayo de 2010 .
  7. ^ Poli, R. (2008). "Análisis de las publicaciones sobre las aplicaciones de la optimización de enjambres de partículas" (PDF) . Revista de Evolución y Aplicaciones Artificiales . 2008 : 1–10. doi : 10.1155 / 2008/685175 .
  8. Bonyadi, MR; Michalewicz, Z. (2017). "Optimización del enjambre de partículas para problemas de espacio continuo de un solo objetivo: una revisión". Computación evolutiva . 25 (1): 1–54. doi : 10.1162 / EVCO_r_00180 . PMID 26953883 . S2CID 8783143 .  
  9. ^ Zhang, Y. (2015). "Una encuesta completa sobre el algoritmo de optimización de enjambres de partículas y sus aplicaciones" . Problemas matemáticos en ingeniería . 2015 : 931256.
  10. ^ Clerc, M. (2012). "Optimización del enjambre de partículas estándar" (PDF) . Archivo de acceso abierto de HAL .
  11. ^ a b c d e Bratton, Daniel; Kennedy, James (2007). Definición de un estándar para la optimización del enjambre de partículas (PDF) . Actas del Simposio de inteligencia de enjambres de IEEE 2007 (SIS 2007) . págs. 120-127. doi : 10.1109 / SIS.2007.368035 . ISBN  978-1-4244-0708-8. S2CID  6217309 .
  12. Taherkhani, M .; Safabakhsh, R. (2016). "Una nueva pesa de inercia adaptativa basada en la estabilidad para la optimización del enjambre de partículas". Soft Computing aplicado . 38 : 281–295. doi : 10.1016 / j.asoc.2015.10.004 .
  13. ^ a b Shi, Y .; Eberhart, RC (1998). "Selección de parámetros en la optimización del enjambre de partículas". Actas de Programación Evolutiva VII (EP98) . págs. 591–600.
  14. ^ Eberhart, RC; Shi, Y. (2000). "Comparación de pesos de inercia y factores de constricción en la optimización del enjambre de partículas" . Actas del Congreso sobre Computación Evolutiva . 1 . págs. 84–88.
  15. ^ a b Carlisle, A .; Dozier, G. (2001). "Un PSO listo para usar" (PDF) . Actas del Taller de Optimización de Enjambres de Partículas . págs. 1–6. Archivado desde el original (PDF) el 2003-05-03.
  16. ↑ a b van den Bergh, F. (2001). Un análisis de optimizadores de enjambres de partículas (PDF) (tesis doctoral). Universidad de Pretoria, Facultad de Ciencias Naturales y Agrícolas.
  17. ^ a b c Clerc, M .; Kennedy, J. (2002). "El enjambre de partículas: explosión, estabilidad y convergencia en un espacio complejo multidimensional". Transacciones IEEE sobre computación evolutiva . 6 (1): 58–73. CiteSeerX 10.1.1.460.6608 . doi : 10.1109 / 4235.985692 . 
  18. ↑ a b Trelea, IC (2003). "El algoritmo de optimización del enjambre de partículas: análisis de convergencia y selección de parámetros". Cartas de procesamiento de información . 85 (6): 317–325. doi : 10.1016 / S0020-0190 (02) 00447-7 .
  19. ^ a b Bratton, D .; Blackwell, T. (2008). "Una PSO recombinante simplificada" (PDF) . Revista de Evolución y Aplicaciones Artificiales . 2008 : 1–10. doi : 10.1155 / 2008/654184 .
  20. ↑ a b Evers, G. (2009). Un mecanismo de reagrupación automática para hacer frente al estancamiento en la optimización del enjambre de partículas (tesis de maestría) . Universidad de Texas - Panamericana, Departamento de Ingeniería Eléctrica.
  21. ^ Meissner, M .; Schmuker, M .; Schneider, G. (2006). "Optimización Optimización de Enjambres de Partículas (OPSO) y su aplicación al entrenamiento de redes neuronales artificiales" . BMC Bioinformática . 7 (1): 125. doi : 10.1186 / 1471-2105-7-125 . PMC 1464136 . PMID 16529661 .  
  22. ↑ a b Pedersen, MEH (2010). Ajuste y simplificación de la optimización heurística (tesis doctoral) . Universidad de Southampton, Facultad de Ciencias de la Ingeniería, Grupo de Diseño e Ingeniería Computacional. S2CID 107805461 .  
  23. ^ a b c Pedersen, MEH; Chipperfield, AJ (2010). "Simplificación de la optimización del enjambre de partículas". Soft Computing aplicado . 10 (2): 618–628. CiteSeerX 10.1.1.149.8300 . doi : 10.1016 / j.asoc.2009.08.029 . 
  24. ^ Mason, Karl; Duggan, Jim; Howley, Enda (2018). "Un análisis de Meta Optimización de ecuaciones de actualización de velocidad de optimización de enjambre de partículas para el aprendizaje de gestión de cuencas". Soft Computing aplicado . 62 : 148-161. doi : 10.1016 / j.asoc.2017.10.018 .
  25. ^ a b Nobile, MS; Cazzaniga, P .; Besozzi, D .; Colombo, R .; Mauri, G .; Pasi, G. (2018). "Fuzzy Self-Tuning PSO: un algoritmo sin configuración para la optimización global". Computación enjambre y evolutiva . 39 : 70–85. doi : 10.1016 / j.swevo.2017.09.001 .
  26. ^ Nobile, MS; Pasi, G .; Cazzaniga, P .; Besozzi, D .; Colombo, R .; Mauri, G. (2015). "Partículas proactivas en optimización de enjambres: un algoritmo de autoajuste basado en lógica difusa". Actas de la Conferencia Internacional IEEE de 2015 sobre sistemas difusos (FUZZ-IEEE 2015), Estambul (Turquía) . págs. 1–8. doi : 10.1109 / FUZZ-IEEE.2015.7337957 .
  27. ^ Cazzaniga, P .; Nobile, MS; Besozzi, D. (2015). "El impacto de la inicialización de partículas en PSO: estimación de parámetros como un ejemplo, (Canadá)". Actas de la Conferencia IEEE sobre Inteligencia Computacional en Bioinformática y Biología Computacional . doi : 10.1109 / CIBCB.2015.7300288 .
  28. ^ Pedersen, MEH (2010). "Buenos parámetros para la optimización del enjambre de partículas". Informe técnico HL1001 . CiteSeerX 10.1.1.298.4359 . 
  29. ^ Kennedy, J .; Mendes, R. (2002). Estructura de la población y comportamiento del enjambre de partículas . Computación evolutiva, 2002. CEC'02. Actas del Congreso de 2002 sobre . 2 . págs. 1671-1676 vol.2. CiteSeerX 10.1.1.114.7988 . doi : 10.1109 / CEC.2002.1004493 . ISBN  978-0-7803-7282-5. S2CID  14364974 .
  30. ^ Mendes, R. (2004). Topologías de población y su influencia en el rendimiento del enjambre de partículas (tesis doctoral). Universidade do Minho.
  31. ^ Suganthan, Ponnuthurai N. " Optimizador de enjambre de partículas con operador de vecindario ". Computación evolutiva, 1999. CEC 99. Actas del Congreso de 1999 sobre. Vol. 3. IEEE, 1999.
  32. ^ Oliveira, M .; Pinheiro, D .; Andrade, B .; Bastos-Filho, C .; Menezes, R. (2016). Diversidad de comunicación en optimizadores de enjambres de partículas . Conferencia Internacional sobre Inteligencia de Enjambres . Apuntes de conferencias en informática. 9882 . págs. 77–88. doi : 10.1007 / 978-3-319-44427-7_7 . ISBN 978-3-319-44426-0. S2CID  37588745 .
  33. ^ Central de enjambre de partículas SPSO
  34. ^ Almasi, ON y Khooban, MH (2017). Un criterio de selección del modelo SVM parsimonioso para la clasificación de conjuntos de datos del mundo real a través de un algoritmo adaptativo basado en la población. Computación neuronal y aplicaciones, 1-9. https://doi.org/10.1007/s00521-017-2930-y
  35. ^ Miranda, V., Keko, H. y Duque, Á. J. (2008). Topología de comunicación en estrella estocástica en enjambres de partículas evolutivas (EPSO) . Revista Internacional de Investigación en Inteligencia Computacional (IJCIR), Volumen 4, Número 2, págs. 105-116
  36. ^ Clerc, M. (2006). Optimización de Enjambre de partículas. ISTE (Enciclopedia científica y técnica internacional), 2006
  37. ^ Yin, P., Glover, F., Laguna, M. y Zhu, J. (2011). Un algoritmo complementario de Cyber ​​Swarm . Revista Internacional de Investigación de Inteligencia de Enjambres (IJSIR), 2 (2), 22-41
  38. ^ Elshamy, W .; Rashad, H .; Bahgat, A. (2007). "Optimización de enjambres de partículas basada en clubes" (PDF) . Simposio IEEE Swarm Intelligence 2007 (SIS2007) . Honolulu, HI. págs. 289-296. Archivado desde el original (PDF) el 23 de octubre de 2013 . Consultado el 27 de abril de 2012 .
  39. ^ Cleghorn, Christopher W (2014). "Convergencia de enjambres de partículas: análisis estandarizado e influencia topológica". Conferencia de inteligencia de enjambres . Apuntes de conferencias en informática. 8667 : 134-145. doi : 10.1007 / 978-3-319-09952-1_12 . ISBN 978-3-319-09951-4.
  40. ^ Liu, Q (2015). "Análisis de estabilidad de orden 2 de optimización de enjambre de partículas". Computación evolutiva . 23 (2): 187–216. doi : 10.1162 / EVCO_a_00129 . PMID 24738856 . S2CID 25471827 .  
  41. ^ Cleghorn, Christopher W .; Engelbrecht, Andries. (2018). "Estabilidad del enjambre de partículas: una extensión teórica utilizando el supuesto de distribución no estancada". Inteligencia de enjambre . 12 (1): 1–22. doi : 10.1007 / s11721-017-0141-x . hdl : 2263/62934 . S2CID 9778346 . 
  42. ^ Van den Bergh, F. "Una prueba de convergencia para el optimizador de enjambre de partículas" (PDF) . Fundamenta Informaticae .
  43. Bonyadi, Mohammad reza .; Michalewicz, Z. (2014). "Un algoritmo de optimización de enjambre de partículas invariante rotacionalmente convergente localmente" (PDF) . Inteligencia de enjambre . 8 (3): 159-198. doi : 10.1007 / s11721-014-0095-1 . S2CID 2261683 .  
  44. ^ a b Zhan, ZH .; Zhang, J .; Li, Y; Shi, YH. (2011). "Optimización del enjambre de partículas de aprendizaje ortogonal" (PDF) . Transacciones IEEE sobre computación evolutiva . 15 (6): 832–847. doi : 10.1109 / TEVC.2010.2052054 .
  45. ^ a b Zhan, ZH .; Zhang, J .; Li, Y; Chung, HS-H. (2009). "Optimización adaptativa del enjambre de partículas" (PDF) . Transacciones IEEE sobre sistemas, hombre y cibernética . 39 (6): 1362-1381. doi : 10.1109 / TSMCB.2009.2015956 . PMID 19362911 . S2CID 11191625 .   
  46. Zambrano-Bigiarini, M .; Clerc, M .; Rojas, R. (2013). Optimización del enjambre de partículas estándar 2011 en CEC-2013: una línea de base para futuras mejoras de PSO . Computación evolutiva (CEC), Congreso IEEE 2013 en . págs. 2337–2344. doi : 10.1109 / CEC.2013.6557848 . ISBN 978-1-4799-0454-9. S2CID  206553432 .
  47. Lovbjerg, M .; Krink, T. (2002). "El modelo de ciclo de vida: combinación de optimización de enjambres de partículas, algoritmos genéticos y montañistas" (PDF) . Procedimientos de resolución de problemas paralelos de Nature VII (PPSN) . págs. 621–630.
  48. ^ Niknam, T .; Amiri, B. (2010). "Un enfoque híbrido eficiente basado en PSO, ACO y k-means para el análisis de conglomerados". Soft Computing aplicado . 10 (1): 183-197. doi : 10.1016 / j.asoc.2009.07.001 .
  49. Zhang, Wen-Jun; Xie, Xiao-Feng (2003). DEPSO: enjambre de partículas híbridas con operador de evolución diferencial . Conferencia internacional IEEE sobre sistemas, hombre y cibernética (SMCC), Washington, DC, EE. UU .: 3816-3821.
  50. ^ Zhang, Y .; Wang, S. (2015). "Detección patológica del cerebro en la exploración de imágenes de resonancia magnética por entropía wavelet e hibridación de optimización basada en biogeografía y optimización de enjambre de partículas" . Avances en la investigación electromagnética . 152 : 41–58. doi : 10.2528 / pier15040602 .
  51. Lovbjerg, M .; Krink, T. (2002). "Ampliación de optimizadores de enjambres de partículas con criticidad autoorganizada" (PDF) . Actas del IV Congreso de Computación Evolutiva (CEC) . 2 . págs. 1588-1593.
  52. Xinchao, Z. (2010). "Un algoritmo de enjambre de partículas perturbadas para la optimización numérica". Soft Computing aplicado . 10 (1): 119-124. doi : 10.1016 / j.asoc.2009.06.010 .
  53. ^ Xie, Xiao-Feng; Zhang, Wen-Jun; Yang, Zhi-Lian (2002). Optimización de un enjambre de partículas disipativas . Congreso sobre Computación Evolutiva (CEC), Honolulu, HI, EE. UU.: 1456-1461.
  54. ^ Cheung, Nueva Jersey; Ding, X.-M .; Shen, H.-B. (2013). "OptiFel: un algoritmo de optimización Sarm de partículas heterogéneas convergentes para el modelado difuso Takagi-Sugeno". Transacciones IEEE en sistemas difusos . 22 (4): 919–933. doi : 10.1109 / TFUZZ.2013.2278972 . S2CID 27974467 . 
  55. ^ Nobile, M .; Besozzi, D .; Cazzaniga, P .; Mauri, G .; Pescini, D. (2012). "Un método PSO de enjambres múltiples basado en GPU para la estimación de parámetros en sistemas biológicos estocásticos que explotan series de objetivos de tiempo discreto". Computación evolutiva, aprendizaje automático y minería de datos en bioinformática. Apuntes de conferencias en informática . 7264 . págs. 74–85. doi : 10.1007 / 978-3-642-29066-4_7 .
  56. ^ Yang, XS (2008). Algoritmos metaheurísticos inspirados en la naturaleza . Prensa Luniver. ISBN 978-1-905986-10-1.
  57. ^ Tu, Z .; Lu, Y. (2004). "Un algoritmo genético estocástico robusto (StGA) para la optimización numérica global". Transacciones IEEE sobre computación evolutiva . 8 (5): 456–470. doi : 10.1109 / TEVC.2004.831258 . S2CID 22382958 . 
  58. ^ Tu, Z .; Lu, Y. (2008). "Correcciones a" Un algoritmo genético estocástico robusto (StGA) para la optimización numérica global ". Transacciones IEEE sobre computación evolutiva . 12 (6): 781. doi : 10.1109 / TEVC.2008.926734 . S2CID 2864886 . 
  59. ^ Kennedy, James (2003). "Enjambres de partículas de huesos desnudos". Actas del Simposio de inteligencia de enjambres de IEEE 2003 : 80–87. doi : 10.1109 / SIS.2003.1202251 . ISBN 0-7803-7914-4. S2CID  37185749 .
  60. ^ XS Yang, S. Deb y S. Fong, Optimización acelerada del enjambre de partículas y máquina de vectores de soporte para aplicaciones y optimización empresarial , NDT 2011, Springer CCIS 136, págs. 53-66 (2011).
  61. ^ "Resultados de la búsqueda: APSO - Intercambio de archivos - MATLAB Central" .
  62. Parsopoulos, K .; Vrahatis, M. (2002). "Método de optimización del enjambre de partículas en problemas multiobjetivo". Actas del Simposio ACM sobre Computación Aplicada (SAC) . págs. 603–607. doi : 10.1145 / 508791.508907 .
  63. ^ Coello Coello, C .; Salazar Lechuga, M. (2002). "MOPSO: una propuesta para la optimización del enjambre de partículas de objetivos múltiples" . Congreso de Computación Evolutiva (CEC'2002) . págs. 1051–1056.
  64. ^ Mason, Karl; Duggan, Jim; Howley, Enda (2017). "Despacho de emisiones económicas dinámicas multiobjetivo utilizando variantes de optimización de enjambre de partículas". Neurocomputación . 270 : 188-197. doi : 10.1016 / j.neucom.2017.03.086 .
  65. ^ Roy, R., Dehuri, S. y Cho, SB (2012). Un nuevo algoritmo de optimización de enjambre de partículas para un problema de optimización combinatoria multiobjetivo . 'Revista Internacional de Computación Metaheurística Aplicada (IJAMC)', 2 (4), 41-57
  66. ^ Kennedy, J. y Eberhart, RC (1997). Una versión binaria discreta del algoritmo de enjambre de partículas , Conference on Systems, Man, and Cybernetics, Piscataway, NJ: IEEE Service Center, págs. 4104-4109
  67. ^ Clerc, M. (2004). Optimización del enjambre de partículas discretas, ilustrada por el problema del vendedor ambulante , Nuevas técnicas de optimización en ingeniería, Springer, págs. 219-239
  68. ^ Clerc, M. (2005). Optimizadores de enjambres de partículas binarias: caja de herramientas, derivaciones y conocimientos matemáticos, Open Archive HAL
  69. Jarboui, B .; Damak, N .; Siarry, P .; Rebai, A. (2008). "Una optimización combinatoria de enjambres de partículas para resolver problemas de programación de proyectos con recursos limitados multimodo". Matemática Aplicada y Computación . 195 : 299-308. doi : 10.1016 / j.amc.2007.04.096 .
  70. ^ Chen, Wei-neng; Zhang, junio (2010). "Un nuevo método de optimización de enjambre de partículas basado en conjuntos para un problema de optimización discreta". Transacciones IEEE sobre computación evolutiva . 14 (2): 278–300. CiteSeerX 10.1.1.224.5378 . doi : 10.1109 / tevc.2009.2030331 . S2CID 17984726 .  

Enlaces externos [ editar ]

  • Particle Swarm Central es un repositorio de información sobre PSO. Varios códigos fuente están disponibles gratuitamente.
  • Un breve video de enjambres de partículas que optimizan tres funciones de referencia.
  • Simulación de la convergencia de PSO en un espacio bidimensional (Matlab).
  • Aplicaciones de PSO.
  • Liu, Yang (2009). "Calibración automática de un modelo de lluvia-escorrentía utilizando un algoritmo de enjambre de partículas multiobjetivo rápido y elitista". Sistemas expertos con aplicaciones . 36 (5): 9533–9538. doi : 10.1016 / j.eswa.2008.10.086 .
  • Optimización del enjambre de partículas (ver y escuchar la lección 27)
  • Enlaces al código fuente de PSO