Una red generativa adversarial ( GAN ) es una clase de marcos de aprendizaje automático diseñados por Ian Goodfellow y sus colegas en 2014. [1] Dos redes neuronales compiten entre sí en un juego (en la forma de un juego de suma cero , donde uno la ganancia del agente es la pérdida de otro agente).
Dado un conjunto de entrenamiento, esta técnica aprende a generar nuevos datos con las mismas estadísticas que el conjunto de entrenamiento. Por ejemplo, un GAN entrenado en fotografías puede generar nuevas fotografías que parecen al menos superficialmente auténticas para los observadores humanos, con muchas características realistas. Aunque originalmente propuesto como una forma de modelo generativo para aprendizaje no supervisado , las GAN también han demostrado ser útiles para el aprendizaje semi-supervisado , [2] totalmente aprendizaje supervisado , [3] y el aprendizaje por refuerzo . [4]
La idea central de un GAN se basa en el entrenamiento "indirecto" a través del discriminador, [ aclaración necesaria ] que a su vez también se actualiza dinámicamente. [5] Esto básicamente significa que el generador no está entrenado para minimizar la distancia a una imagen específica, sino para engañar al discriminador. Esto permite que el modelo aprenda sin supervisión.
Método
La red generativa genera candidatos mientras que la red discriminativa los evalúa. [1] El concurso opera en términos de distribución de datos. Normalmente, la red generativa aprende a mapear desde un espacio latente a una distribución de datos de interés, mientras que la red discriminativa distingue a los candidatos producidos por el generador de la distribución de datos verdadera. El objetivo de entrenamiento de la red generativa es aumentar la tasa de error de la red discriminativa (es decir, "engañar" a la red discriminadora produciendo nuevos candidatos que el discriminador cree que no están sintetizados (son parte de la verdadera distribución de datos)). [1] [6]
Un conjunto de datos conocido sirve como datos de entrenamiento inicial para el discriminador. Entrenarlo implica presentarlo con muestras del conjunto de datos de entrenamiento, hasta que logre una precisión aceptable. El generador se entrena en función de si logra engañar al discriminador. Normalmente, el generador se siembra con una entrada aleatoria que se muestrea de un espacio latente predefinido (por ejemplo, una distribución normal multivariante ). A continuación, los candidatos sintetizados por el generador son evaluados por el discriminador. Se aplican procedimientos de retropropagación independientes a ambas redes para que el generador produzca mejores muestras, mientras que el discriminador se vuelve más hábil para marcar muestras sintéticas. [7] Cuando se utiliza para la generación de imágenes, el generador suele ser una red neuronal deconvolucional y el discriminador es una red neuronal convolucional .
Las GAN a menudo sufren de un "colapso de modo" en el que no se generalizan correctamente y faltan modos completos de los datos de entrada. Por ejemplo, un GAN entrenado en el conjunto de datos MNIST que contiene muchas muestras de cada dígito, podría, no obstante, omitir tímidamente un subconjunto de los dígitos de su salida. Algunos investigadores perciben que la raíz del problema es una red discriminativa débil que no advierte el patrón de omisión, mientras que otros atribuyen la culpa a una mala elección de la función objetiva . Se han propuesto muchas soluciones. [8]
Los GAN son modelos generativos implícitos , [9] lo que significa que no modelan explícitamente la función de verosimilitud ni proporcionan medios para encontrar la variable latente correspondiente a una muestra determinada, a diferencia de alternativas como el modelo generativo basado en flujo .
Aplicaciones
Las aplicaciones GAN han aumentado rápidamente. [10]
Moda, arte y publicidad
Las GAN se pueden utilizar para generar arte; The Verge escribió en marzo de 2019 que "las imágenes creadas por GAN se han convertido en el aspecto definitorio del arte contemporáneo de la IA". [11] Las GAN también se pueden utilizar para pintar fotografías [12] o crear fotos de modelos de moda imaginarios, sin necesidad de contratar a un modelo, fotógrafo o maquillador, ni pagar un estudio y transporte. [13]
Ciencias
Las GAN pueden mejorar las imágenes astronómicas [14] y simular lentes gravitacionales para la investigación de la materia oscura. [15] [16] [17] Se utilizaron en 2019 para modelar con éxito la distribución de la materia oscura en una dirección particular en el espacio y para predecir la lente gravitacional que se producirá. [18] [19]
Las GAN se han propuesto como una forma rápida y precisa de modelar la formación de chorros de alta energía [20] y modelar las lluvias a través de calorímetros de experimentos de física de alta energía . [21] [22] [23] [24] Los GAN también han sido entrenados para aproximarse con precisión a los cuellos de botella en simulaciones computacionalmente costosas de experimentos de física de partículas. Las aplicaciones en el contexto de los experimentos CERN presentes y propuestos han demostrado el potencial de estos métodos para acelerar la simulación y / o mejorar la fidelidad de la simulación. [25] [26]
Videojuegos
En 2018, las GAN llegaron a la comunidad de modding de videojuegos , como un método para escalar texturas 2D de baja resolución en videojuegos antiguos al recrearlas en resoluciones 4k o superiores a través del entrenamiento de imágenes, y luego muestrearlas para que se ajusten a las características nativas del juego. resolución (con resultados que se asemejan al método de supermuestreo de suavizado ). [27] Con el entrenamiento adecuado, los GAN brindan una imagen de textura 2D más clara y nítida con magnitudes de calidad más altas que el original, al tiempo que retienen completamente el nivel de detalles, colores, etc. del original. Ejemplos conocidos de uso extensivo de GAN incluyen Final Fantasy VIII , Final Fantasy IX , Resident Evil REmake HD Remaster y Max Payne . [ cita requerida ]
Preocupaciones por aplicaciones maliciosas
Se han expresado preocupaciones sobre el uso potencial de la síntesis de imágenes humanas basada en GAN para propósitos siniestros, por ejemplo, para producir fotografías y videos falsos, posiblemente incriminatorios. [28] Las GAN se pueden utilizar para generar fotos de perfil únicas y realistas de personas que no existen, con el fin de automatizar la creación de perfiles de redes sociales falsos. [29]
En 2019, el estado de California consideró [30] y aprobó el 3 de octubre de 2019 el proyecto de ley AB-602 , que prohíbe el uso de tecnologías de síntesis de imágenes humanas para hacer pornografía falsa sin el consentimiento de las personas representadas, y el proyecto de ley AB-730 . que prohíbe la distribución de videos manipulados de un candidato político dentro de los 60 días posteriores a una elección. Ambos proyectos de ley fueron escritos por el asambleísta Marc Berman y firmados por el gobernador Gavin Newsom . Las leyes entrarán en vigor en 2020. [31]
El programa de análisis forense de medios de DARPA estudia formas de contrarrestar los medios falsos, incluidos los medios falsos producidos con GAN. [32]
Transferir aprendizaje
La investigación de aprendizaje por transferencia de última generación utiliza GAN para reforzar la alineación del espacio de características latentes, como en el aprendizaje por refuerzo profundo. [33] Esto funciona alimentando las incrustaciones de la tarea de origen y destino al discriminador que intenta adivinar el contexto. La pérdida resultante se propaga (inversamente) a través del codificador.
Aplicaciones misceláneas
GAN se puede utilizar para detectar imágenes glaucomatosas ayudando al diagnóstico precoz que es fundamental para evitar la pérdida total o parcial de la visión. [34]
Los GAN que producen imágenes fotorrealistas se pueden utilizar para visualizar diseño de interiores , diseño industrial , zapatos, [35] bolsos y prendas de vestir o artículos para escenas de juegos de computadora . [ cita requerida ] Se informó que Facebook utilizaba estas redes . [36]
Las RAM se puede reconstruir modelos 3D de objetos a partir de imágenes , [37] patrones y el modelo de movimiento en vídeo. [38]
Las GAN se pueden usar para envejecer fotografías de rostros para mostrar cómo la apariencia de un individuo puede cambiar con la edad. [39]
Las GAN también se pueden utilizar para transferir estilos de mapas en cartografía [40] o aumentar las imágenes de Street View. [41]
Los comentarios sobre la relevancia de las GAN se pueden utilizar para generar imágenes y reemplazar los sistemas de búsqueda de imágenes. [42]
Se utiliza una variación de las GAN en el entrenamiento de una red para generar entradas de control óptimas para sistemas dinámicos no lineales . Donde la red discriminatoria se conoce como una crítica que comprueba la optimalidad de la solución y la red generativa se conoce como red Adaptativa que genera el control óptimo. La red crítica y adaptativa se entrenan mutuamente para aproximarse a un control óptimo no lineal. [43]
Se han utilizado GAN para visualizar el efecto que tendrá el cambio climático en viviendas específicas. [44]
Un modelo de GAN llamado Speech2Face puede reconstruir una imagen del rostro de una persona después de escuchar su voz. [45]
En 2016, las GAN se utilizaron para generar nuevas moléculas para una variedad de proteínas objetivo implicadas en el cáncer, la inflamación y la fibrosis. En 2019, las moléculas generadas por GAN se validaron experimentalmente en ratones. [46] [47]
Si bien la mayoría de las aplicaciones GAN se encuentran en el procesamiento de imágenes, el trabajo también se ha realizado con datos de series de tiempo. Por ejemplo, se han utilizado GAN recurrentes (R-GAN) para generar datos de energía para el aprendizaje automático. [48]
Historia
La inspiración más directa para las GAN fue la estimación de contraste de ruido, [49] que utiliza la misma función de pérdida que las GAN y que Goodfellow estudió durante su doctorado en 2010-2014.
Otras personas tenían ideas similares pero no las desarrollaron de manera similar. En 2010, Olli Niemitalo publicó una idea que involucra redes adversarias. [50] Esta idea nunca se implementó y no involucró estocasticidad en el generador y por lo tanto no era un modelo generativo. Ahora se conoce como GAN condicional o cGAN. [51] Li, Gauci y Gross utilizaron una idea similar a las GAN para modelar el comportamiento animal en 2013. [52]
El aprendizaje automático adversario tiene otros usos además del modelado generativo y se puede aplicar a modelos distintos de las redes neuronales. En la teoría del control, el aprendizaje contradictorio basado en redes neuronales se utilizó en 2006 para entrenar controladores robustos en un sentido teórico del juego, alternando las iteraciones entre una política de minimización, el controlador y una política de maximización, la perturbación. [53] [54]
En 2017, se utilizó una GAN para mejorar la imagen centrándose en texturas realistas en lugar de precisión de píxeles, lo que produce una mayor calidad de imagen con gran aumento. [55] En 2017 se generaron las primeras caras. [56] Estos se exhibieron en febrero de 2018 en el Grand Palais. [57] [58] Las caras generadas por StyleGAN [59] en 2019 hicieron comparaciones con deepfakes . [60] [61] [62]
A partir de 2017, la tecnología GAN comenzó a hacer sentir su presencia en el campo de las bellas artes con la aparición de una implementación recientemente desarrollada que se dijo que había cruzado el umbral de poder generar pinturas abstractas únicas y atractivas, y por lo tanto se denominó "CAN ", para" red de adversarios creativos ". [63] Se utilizó un sistema GAN para crear la pintura de 2018 Edmond de Belamy , que se vendió por 432.500 dólares. [64] Un artículo de principios de 2019 de miembros del equipo CAN original discutió el progreso adicional con ese sistema y consideró también las perspectivas generales de un arte habilitado para IA. [sesenta y cinco]
En mayo de 2019, los investigadores de Samsung demostraron un sistema basado en GAN que produce videos de una persona hablando, con solo una foto de esa persona. [66]
En agosto de 2019, se creó un gran conjunto de datos que consta de 12197 canciones MIDI, cada una con letras emparejadas y alineación de melodías para la generación de melodías neuronales a partir de letras utilizando GAN-LSTM condicional (consulte las fuentes en GitHub AI Melody Generation from Lyrics ). [67]
En mayo de 2020, los investigadores de Nvidia enseñaron a un sistema de inteligencia artificial (denominado "GameGAN") a recrear el juego de Pac-Man simplemente al verlo jugar. [68] [69]
Clasificación
GAN bidireccional
Mientras que el modelo GAN estándar aprende un mapeo de un espacio latente a la distribución de datos, los modelos inversos como Bidirectional GAN (BiGAN) [70] y Adversarial Autoencoders [71] también aprenden un mapeo de datos al espacio latente. Este mapeo inverso permite proyectar ejemplos de datos reales o generados en el espacio latente, similar al codificador de un codificador automático variacional . Aplicaciones de los modelos bidireccionales incluyen semi-aprendizaje supervisado , [72] el aprendizaje de máquina interpretable , [73] y la traducción automática de los nervios . [74]
Referencias
- ^ a b c Buen amigo, Ian; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). Redes generativas antagónicas (PDF) . Actas de la Conferencia Internacional sobre Sistemas de Procesamiento de Información Neural (NIPS 2014). págs. 2672–2680.
- ^ Salimans, Tim; Buen amigo, Ian; Zaremba, Wojciech; Cheung, Vicki; Radford, Alec; Chen, Xi (2016). "Técnicas mejoradas para la formación de GAN". arXiv : 1606.03498 [ cs.LG ].
- ^ Isola, Phillip; Zhu, Jun-Yan; Zhou, Tinghui; Efros, Alexei (2017). "Traducción de imagen a imagen con redes adversas condicionales" . Visión por computadora y reconocimiento de patrones .
- ^ Ho, Jonathon; Ermon, Stefano (2016). "Aprendizaje generativo de imitación adversaria" . Avances en sistemas de procesamiento de información neuronal . 29 : 4565–4573. arXiv : 1606.03476 . Código bibliográfico : 2016arXiv160603476H .
- ^ "Vanilla GAN (GAN en visión por computadora: Introducción al aprendizaje generativo)" . theaisummer.com . Verano de AI. 10 de abril de 2020. Archivado desde el original el 3 de junio de 2020 . Consultado el 20 de septiembre de 2020 .
- ^ Luc, Pauline; Couprie, Camille; Chintala, Soumith; Verbeek, Jakob (25 de noviembre de 2016). "Segmentación semántica mediante redes adversas". Taller NIPS sobre formación adversaria, diciembre, Barcelona, España . 2016 . arXiv : 1611.08408 . Código bibliográfico : 2016arXiv161108408L .
- ^ Andrej Karpathy ; Pieter Abbeel ; Greg Brockman; Peter Chen; Vicki Cheung; Rocky Duan; Ian Goodfellow; Durk Kingma; Jonathan Ho; Rein Houthooft; Tim Salimans; John Schulman; Ilya Sutskever; Wojciech Zaremba, Generative Models , OpenAI , consultado el 7 de abril de 2016
- ^ Lin, Zinan; et al. (Diciembre de 2018). "PacGAN: el poder de dos muestras en redes generativas adversarias" . NIPS'18: Actas de la 32ª Conferencia Internacional sobre Sistemas de Procesamiento de Información Neural: 1505-1514. arXiv : 1712.04086 . Cite journal requiere
|journal=
( ayuda ) (también disponible arXiv : 1712.04086 ) - ^ Mohamed, Shakir; Lakshminarayanan, Balaji (2016). "Aprendizaje en modelos generativos implícitos". arXiv : 1610.03483 [ stat.ML ].
- ^ Caesar, Holger (1 de marzo de 2019), A list of papers on Generative Adversarial (Neural) Networks: nightrome / really-awesome-gan , recuperado el 2 de marzo de 2019
- ^ Vincent, James (5 de marzo de 2019). "Se subasta una corriente interminable de arte de IA" . The Verge . Consultado el 13 de junio de 2020 .
- ^ Yu, Jiahui, et al. " Imagen generativa en pintura con atención contextual ". Actas de la conferencia IEEE sobre visión por computadora y reconocimiento de patrones. 2018.
- ^ Wong, Ceecee. "El ascenso de las supermodelos de IA" . Tendencias CDO .
- ^ Schawinski, Kevin; Zhang, Ce; Zhang, Hantian; Fowler, Lucas; Santhanam, Gokula Krishnan (1 de febrero de 2017). "Las redes generativas adversarias recuperan características en imágenes astrofísicas de galaxias más allá del límite de deconvolución". Avisos mensuales de la Royal Astronomical Society: Cartas . 467 (1): L110 – L114. arXiv : 1702.00403 . Código bibliográfico : 2017MNRAS.467L.110S . doi : 10.1093 / mnrasl / slx008 . S2CID 7213940 .
- ^ Kincade, Kathy. "Los investigadores entrenan una red neuronal para estudiar la materia oscura" . Revista de I + D.
- ^ Kincade, Kathy (16 de mayo de 2019). "CosmoGAN: formación de una red neuronal para estudiar la materia oscura" . Phys.org .
- ^ "Entrenando una red neuronal para estudiar la materia oscura" . Science Daily . 16 de mayo de 2019.
- ^ a las 06:13, Katyanna Quach 20 de mayo de 2019. "Los cosmoboffins usan redes neuronales para construir mapas de materia oscura de manera fácil" . www.theregister.co.uk . Consultado el 20 de mayo de 2019 .
- ^ Mustafa, Mustafa; Bardo, Deborah; Bhimji, Wahid; Lukić, Zarija; Al-Rfou, Rami; Kratochvil, Jan M. (6 de mayo de 2019). "CosmoGAN: creación de mapas de convergencia de lentes débiles de alta fidelidad utilizando Redes Adversarias Generativas". Astrofísica y Cosmología Computacional . 6 (1): 1. arXiv : 1706.02390 . Bibcode : 2019ComAC ... 6 .... 1M . doi : 10.1186 / s40668-019-0029-9 . ISSN 2197-7909 . S2CID 126034204 .
- ^ Paganini, Michela; de Oliveira, Luke; Nachman, Benjamin (2017). "Aprendizaje de la física de partículas por ejemplo: redes adversas generativas de localización consciente para la síntesis de la física". Computación y software para la gran ciencia . 1 : 4. arXiv : 1701.05927 . Código bibliográfico : 2017arXiv170105927D . doi : 10.1007 / s41781-017-0004-6 . S2CID 88514467 .
- ^ Paganini, Michela; de Oliveira, Luke; Nachman, Benjamin (2018). "Acelerar la ciencia con redes generativas adversarias: una aplicación a las lluvias de partículas 3D en calorímetros multicapa". Cartas de revisión física . 120 (4): 042003. arXiv : 1705.02355 . Código bibliográfico : 2018PhRvL.120d2003P . doi : 10.1103 / PhysRevLett.120.042003 . PMID 29437460 . S2CID 3330974 .
- ^ Paganini, Michela; de Oliveira, Luke; Nachman, Benjamin (2018). "CaloGAN: simulación de duchas de partículas de alta energía 3D en calorímetros electromagnéticos multicapa con redes generativas adversarias". Phys. Rev. D . 97 (1): 014021. arXiv : 1712.10321 . Código Bibliográfico : 2018PhRvD..97a4021P . doi : 10.1103 / PhysRevD.97.014021 . S2CID 41265836 .
- ^ Erdmann, Martin; Glombitza, Jonas; Quast, Thorben (2019). "Simulación precisa de duchas de calorímetro electromagnético utilizando una red de adversarios generativos de Wasserstein". Computación y software para la gran ciencia . 3 : 4. arXiv : 1807.01954 . doi : 10.1007 / s41781-018-0019-7 . S2CID 54216502 .
- ^ Musella, Pasquale; Pandolfi, Francesco (2018). "Simulación rápida y precisa de detectores de partículas utilizando redes generativas adversarias". Computación y software para la gran ciencia . 2 : 8. arXiv : 1805,00850 . Código Bib : 2018arXiv180500850M . doi : 10.1007 / s41781-018-0015-y . S2CID 119474793 .
- ^ ATLAS, Colaboración (2018). "Modelos generativos profundos para simulación rápida de duchas en ATLAS" .
- ^ SHiP, Colaboración (2019). "Simulación rápida de muones producidos en el experimento SHiP usando Redes Adversarias Generativas". Revista de instrumentación . 14 (11): P11028. arXiv : 1909.04451 . Código bibliográfico : 2019JInst..14P1028A . doi : 10.1088 / 1748-0221 / 14/11 / P11028 . S2CID 202542604 .
- ^ Tang, Xiaoou; Qiao, Yu; Loy, Chen Change; Dong, Chao; Liu, Yihao; Gu, Jinjin; Wu, Shixiang; Yu, Ke; Wang, Xintao (1 de septiembre de 2018). "ESRGAN: Redes Adversarial Generative Super-Resolution mejoradas". arXiv : 1809.00219 . Código Bib : 2018arXiv180900219W .
- ^ msmash (14 de febrero de 2019). " El sitio web ' Esta persona no existe' utiliza IA para crear caras realistas pero horribles" . Slashdot . Consultado el 16 de febrero de 2019 .
- ^ Doyle, Michael (16 de mayo de 2019). "John Beasley vive en Saddlehorse Drive en Evansville. ¿O no?" . Mensajería y Prensa.
- ^ Targett, Ed (16 de mayo de 2019). "California se acerca a hacer ilegal la pornografía deepfake". Revisión de negocios informáticos.
- ^ Mihalcik, Carrie (4 de octubre de 2019). "Las leyes de California buscan tomar medidas enérgicas contra los deepfakes en la política y el porno" . cnet.com . CNET . Consultado el 13 de octubre de 2019 .
- ^ Knight, Will (7 de agosto de 2018). "El Departamento de Defensa ha producido las primeras herramientas para la captura de deepfakes" . Revisión de tecnología del MIT .
- ^ Li, Bonnie; François-Lavet, Vincent; Doan, Thang; Pineau, Joelle (14 de febrero de 2021). "Aprendizaje de refuerzo de dominio adversario". arXiv : 2102.07097 [ cs.LG ].
- ^ Bisneto, Tomaz Ribeiro Viana; de Carvalho Filho, Antonio Oseas; Magalhães, Deborah Maria Vieira (febrero de 2020). "Red generativa adversaria y características de textura aplicadas a la detección automática de glaucoma". Soft Computing aplicado . 90 : 106165. doi : 10.1016 / j.asoc.2020.106165 .
- ^ Wei, Jerry (3 de julio de 2019). "Generación de diseños de calzado con Machine Learning" . Medio . Consultado el 6 de noviembre de 2019 .
- ^ Greenemeier, Larry (20 de junio de 2016). "¿Cuándo tendrán sentido común las computadoras? Pregunte a Facebook" . Scientific American . Consultado el 31 de julio de 2016 .
- ^ "Red Adversarial Generativa 3D" . 3dgan.csail.mit.edu .
- ^ Vondrick, Carl; Pirsiavash, Hamed; Torralba, Antonio (2016). "Generación de videos con dinámica de escenas" . carlvondrick.com . arXiv : 1609.02612 . Código bibliográfico : 2016arXiv160902612V .
- ^ Antipov, Grigory; Baccouche, Moez; Dugelay, Jean-Luc (2017). "Enfrentar el envejecimiento con redes adversas generativas condicionales". arXiv : 1702.01983 [ cs.CV ].
- ^ Kang, Yuhao; Gao, Song; Roth, Rob (2019). "Transferencia de estilos de mapas multiescala mediante redes generativas de confrontación" . Revista Internacional de Cartografía . 5 (2-3): 115-141. arXiv : 1905.02200 . Código bibliográfico : 2019arXiv190502200K . doi : 10.1080 / 23729333.2019.1615729 . S2CID 146808465 .
- ^ Wijnands, Jasper; Bien, Kerry; Thompson, Jason; Zhao, Haifeng; Stevenson, Mark (2019). "Aumento del paisaje urbano mediante redes generativas adversarias: conocimientos relacionados con la salud y el bienestar". Ciudades y sociedad sostenibles . 49 : 101602. arXiv : 1905.06464 . Código Bib : 2019arXiv190506464W . doi : 10.1016 / j.scs.2019.101602 . S2CID 155100183 .
- ^ Ukkonen, Antti; Joona, Pyry; Ruotsalo, Tuukka (2020). "Generación de imágenes en lugar de recuperarlas: retroalimentación de relevancia en redes generativas de confrontación" . Actas de la 43ª Conferencia Internacional ACM SIGIR sobre Investigación y Desarrollo en Recuperación de Información : 1329-1338. doi : 10.1145 / 3397271.3401129 . hdl : 10138/328471 . ISBN 9781450380164. S2CID 220730163 .
- ^ Padhi, Radhakant; Unnikrishnan, Nishant (2006). "Una arquitectura crítica adaptativa de red única (SNAC) para una síntesis de control óptima para una clase de sistemas no lineales". Redes neuronales . 19 (10): 1648-1660. doi : 10.1016 / j.neunet.2006.08.010 . PMID 17045458 .
- ^ "La IA puede mostrarnos los estragos del cambio climático" . Revisión de tecnología del MIT . 16 de mayo de 2019.
- ^ Christian, Jon (28 de mayo de 2019). "La asombrosa inteligencia artificial adivina cómo te ves en función de tu voz" . Futurismo.
- ^ Zhavoronkov, Alex (2019). "El aprendizaje profundo permite la identificación rápida de potentes inhibidores de la quinasa DDR1". Biotecnología de la naturaleza . 37 (9): 1038–1040. doi : 10.1038 / s41587-019-0224-x . PMID 31477924 . S2CID 201716327 .
- ^ Gregory, barbero. "Una molécula diseñada por AI exhibe cualidades de 'Druglike'" . Cableado .
- ^ Mohammad Navid Fekri; Ananda Mohon Ghosh; Katarina Grolinger (2020). "Generación de datos energéticos para el aprendizaje automático con redes adversas generativas recurrentes" . Energías . 13 (1): 130. doi : 10.3390 / en13010130 .
- ^ Gutmann, Michael; Hyvärinen, Aapo. "Estimación de contraste de ruido" (PDF) . Congreso Internacional de IA y Estadística .
- ^ Niemitalo, Olli (24 de febrero de 2010). "Un método para entrenar redes neuronales artificiales para generar datos faltantes dentro de un contexto variable" . Archivo de Internet (Wayback Machine) . Archivado desde el original el 12 de marzo de 2012 . Consultado el 22 de febrero de 2019 .
- ^ "¿Las GAN se inventaron en 2010?" . reddit r / MachineLearning . 2019 . Consultado el 28 de mayo de 2019 .
- ^ Li, Wei; Gauci, Melvin; Gross, Roderich (6 de julio de 2013). "Un enfoque coevolucionario para aprender el comportamiento animal a través de la interacción controlada". Actas de la 15ª Conferencia Anual sobre Computación Genética y Evolutiva (GECCO 2013) . Amsterdam, Países Bajos: ACM. págs. 223-230. doi : 10.1145 / 2463372.2465801 .
- ^ Abu-Khalaf, Murad; Lewis, Frank L .; Huang, Jie (1 de julio de 2008). "Programación neurodinámica y juegos de suma cero para sistemas de control restringidos". Transacciones IEEE en redes neuronales . 19 (7): 1243-1252. doi : 10.1109 / TNN.2008.2000204 . S2CID 15680448 .
- ^ Abu-Khalaf, Murad; Lewis, Frank L .; Huang, Jie (1 de diciembre de 2006). "Iteraciones de política en la ecuación de Hamilton-Jacobi-Isaacs para el control de retroalimentación del estado H ∞ con saturación de entrada". Transacciones IEEE sobre control automático . doi : 10.1109 / TAC.2006.884959 . S2CID 1338976 .
- ^ Sajjadi, Mehdi SM; Schölkopf, Bernhard; Hirsch, Michael (23 de diciembre de 2016). "EnhanceNet: superresolución de imagen única a través de síntesis de textura automatizada". arXiv : 1612.07919 [ cs.CV ].
- ^ "Esta persona no existe: tampoco lo hará nada eventualmente con AI" . 20 de marzo de 2019.
- ^ "La inteligencia artificial entra en la historia del arte" . 28 de diciembre de 2018.
- ^ Tom Février (17 de febrero de 2019). "Le scandale de l'intelligence ARTificielle" .
- ^ "StyleGAN: Implementación oficial de TensorFlow" . 2 de marzo de 2019 - a través de GitHub.
- ^ Paez, Danny (13 de febrero de 2019). "Esta persona no existe es el mejor sitio web único de 2019" . Consultado el 16 de febrero de 2019 .
- ^ BESCHIZZA, ROB (15 de febrero de 2019). "Esta persona no existe" . Boing-Boing . Consultado el 16 de febrero de 2019 .
- ^ Horev, Rani (26 de diciembre de 2018). "GAN basados en estilo: generación y ajuste de caras artificiales realistas" . Lyrn.AI . Consultado el 16 de febrero de 2019 .
- ^ Elgammal, Ahmed; Liu, Bingchen; Elhoseiny, Mohamed; Mazzone, Marian (2017). "CAN: Redes Adversarias Creativas, Generando" Arte "Aprendiendo sobre Estilos y Desviándose de las Normas de Estilo". arXiv : 1706.07068 [ cs.AI ].
- ^ Cohn, Gabe (25 de octubre de 2018). "Arte de IA en Christie's se vende por $ 432.500" . The New York Times .
- ^ Mazzone, Marian; Ahmed Elgammal (21 de febrero de 2019). "Arte, creatividad y potencial de la inteligencia artificial" . Artes . 8 : 26. doi : 10.3390 / arts8010026 .
- ^ Kulp, Patrick (23 de mayo de 2019). "El laboratorio de inteligencia artificial de Samsung puede crear imágenes de video falsas a partir de un solo disparo en la cabeza" . AdWeek .
- ^ Yu, Yi; Canales, Simon (2021). "LSTM-GAN condicional para la generación de melodías a partir de letras". Transacciones ACM en Computación, Comunicaciones y Aplicaciones Multimedia . 17 : 1–20. arXiv : 1908.05551 . doi : 10.1145 / 3424116 . S2CID 199668828 .
- ^ "La IA de Nvidia recrea Pac-Man desde cero con solo verlo jugar" . The Verge . 22 de mayo de 2020.
- ^ Seung Wook Kim; Zhou, Yuhao; Philion, Jonás; Torralba, Antonio; Fidler, Sanja (2020). "Aprendiendo a simular entornos dinámicos con GameGAN". arXiv : 2005.12126 [ cs.CV ].
- ^ Donahue, Jeff; Krähenbühl, Philipp; Darrell, Trevor (2016). "Aprendizaje de características adversarias". arXiv : 1605.09782 [ cs.LG ].
- ^ Makhzani, Alireza; Shlens, Jonathon; Jaitly, Navdeep; Buen amigo, Ian ; Frey, Brendan (2016). "Autoencoders adversarios". arXiv : 1511.05644 [ cs.LG ].
- ^ Dumoulin, Vincent; Belghazi, Ismael; Poole, Ben; Mastropietro, Olivier; Arjovsky, Alex; Courville, Aaron (2016). "Inferencia aprendida adversariamente". arXiv : 1606.00704 [ stat.ML ].
- ^ Xi Chen; Yan Duan; Rein Houthooft; John Schulman; Ilya Sutskever ; Pieter Abeel (2016). "InfoGAN: aprendizaje de representación interpretable mediante información que maximiza las redes generativas de confrontación". arXiv : 1606.03657 [ cs.LG ].
- ^ Zhirui Zhang; Shujie Liu; Mu Li; Ming Zhou; Enhong Chen (octubre de 2018). "Redes adversarias generativas bidireccionales para la traducción automática neuronal" (PDF) . págs. 190-199.
enlaces externos
- Caballero, Will. "5 grandes predicciones para la inteligencia artificial en 2017" . Revisión de tecnología del MIT . Consultado el 5 de enero de 2017 .
- Karras, Tero; Laine, Samuli; Aila, Timo (2018). "Una arquitectura generadora basada en estilos para redes generativas antagónicas". arXiv : 1812.04948 [ cs.NE ].
- Esta persona no existe : imágenes fotorrealistas de personas que no existen, generadas por StyleGAN.
- Este gato no existe : imágenes fotorrealistas de gatos que no existen, generadas por StyleGAN
- Wang, Zhengwei; Ella, Qi; Ward, Tomas E. (2019). "Redes generativas antagónicas en visión artificial: una encuesta y una taxonomía". arXiv : 1906.01529 [ cs.LG ].