El conjunto de datos CIFAR-10 ( Instituto Canadiense de Investigación Avanzada ) es una colección de imágenes que se utilizan comúnmente para entrenar el aprendizaje automático y los algoritmos de visión por computadora . Es uno de los conjuntos de datos más utilizados para la investigación del aprendizaje automático. [1] [2] El conjunto de datos CIFAR-10 contiene 60.000 imágenes en color de 32x32 en 10 clases diferentes. [3] Las 10 clases diferentes representan aviones, automóviles, pájaros, gatos, ciervos, perros, ranas, caballos, barcos y camiones. Hay 6.000 imágenes de cada clase. [4]
Los algoritmos informáticos para reconocer objetos en fotografías a menudo aprenden con el ejemplo. CIFAR-10 es un conjunto de imágenes que se pueden utilizar para enseñar a una computadora a reconocer objetos. Dado que las imágenes en CIFAR-10 son de baja resolución (32x32), este conjunto de datos puede permitir a los investigadores probar rápidamente diferentes algoritmos para ver qué funciona. Varios tipos de redes neuronales convolucionales tienden a ser las mejores para reconocer las imágenes en CIFAR-10.
CIFAR-10 es un subconjunto etiquetado del conjunto de datos de 80 millones de imágenes diminutas . Cuando se creó el conjunto de datos, se les pagó a los estudiantes para que etiquetaran todas las imágenes. [5]
Artículos de investigación que afirman resultados de vanguardia sobre CIFAR-10
Esta es una tabla de algunos de los trabajos de investigación que afirman haber logrado resultados de vanguardia en el conjunto de datos CIFAR-10. No todos los papeles están estandarizados con las mismas técnicas de preprocesamiento, como el cambio de imagen o el cambio de imagen. Por esa razón, es posible que la afirmación de estado de la técnica de un artículo pueda tener una tasa de error más alta que una afirmación de vanguardia anterior, pero aún así sea válida.
Título del trabajo | Tasa de error (%) | Fecha de publicación |
---|---|---|
Redes convolucionales de creencias profundas en CIFAR-10 [6] | 21,1 | Agosto de 2010 |
Maxout Networks [7] | 9.38 | 13 de febrero de 2013 |
Redes residuales amplias [8] | 4.0 | 23 de mayo de 2016 |
Búsqueda de arquitectura neuronal con aprendizaje por refuerzo [9] | 3,65 | 4 de noviembre de 2016 |
Agrupación máxima fraccionada [10] | 3,47 | 18 de diciembre de 2014 |
Redes convolucionales densamente conectadas [11] | 3,46 | 24 de agosto de 2016 |
Regularización Shake-Shake [12] | 2,86 | 21 de mayo de 2017 |
Conjuntos acoplados de redes neuronales [13] | 2,68 | 18 de septiembre de 2017 |
Regularización ShakeDrop [14] | 2,67 | 7 de febrero de 2018 |
Regularización mejorada de redes neuronales convolucionales con corte [15] | 2,56 | 15 de agosto de 2017 |
Evolución regularizada para la búsqueda de arquitectura de clasificador de imágenes [16] | 2.13 | 6 de febrero de 2018 |
Repensar las redes neuronales recurrentes y otras mejoras para la clasificación de imágenes [17] | 1,64 | 31 de julio de 2020 |
AutoAugment: políticas de aumento de aprendizaje a partir de datos [18] | 1,48 | 24 de mayo de 2018 |
Una encuesta sobre la búsqueda de arquitectura neuronal [19] | 1,33 | 4 de mayo de 2019 |
GPipe: Entrenamiento eficiente de redes neuronales gigantes usando paralelismo de tuberías [20] | 1,00 | 16 de noviembre de 2018 |
Ver también
Referencias
- ^ "Medición del progreso de AI" . Fundación Frontera Electrónica . 2017-06-12 . Consultado el 11 de diciembre de 2017 .
- ^ "Conjuntos de datos populares a lo largo del tiempo | Kaggle" . www.kaggle.com . Consultado el 11 de diciembre de 2017 .
- ^ Esperanza, Tom; Resheff, Yehezkel S .; Lieder, Itay (9 de agosto de 2017). Aprendiendo TensorFlow: una guía para construir sistemas de aprendizaje profundo . "O'Reilly Media, Inc.". págs. 64–. ISBN 9781491978481. Consultado el 22 de enero de 2018 .
- ^ Angelov, Plamen; Gegov, Alexander; Jayne, Chrisina; Shen, Qiang (6 de septiembre de 2016). Advances in Computational Intelligence Systems: Contribuciones presentadas en el 16º Taller sobre Inteligencia Computacional del Reino Unido, del 7 al 9 de septiembre de 2016, Lancaster, Reino Unido . Springer International Publishing. págs. 441–. ISBN 9783319465623. Consultado el 22 de enero de 2018 .
- ^ Krizhevsky, Alex (2009). "Aprendizaje de múltiples capas de funciones a partir de imágenes diminutas" (PDF) .
- ^ "Redes convolucionales de creencias profundas en CIFAR-10" (PDF) .
- ^ Goodfellow, Ian J .; Warde-Farley, David; Mirza, Mehdi; Courville, Aaron; Bengio, Yoshua (13 de febrero de 2013). "Maxout Networks". arXiv : 1302.4389 [ stat.ML ].
- ^ Zagoruyko, Sergey; Komodakis, Nikos (23 de mayo de 2016). "Redes residuales amplias". arXiv : 1605.07146 [ cs.CV ].
- ^ Zoph, Barret; Le, Quoc V. (4 de noviembre de 2016). "Búsqueda de arquitectura neuronal con aprendizaje por refuerzo". arXiv : 1611.01578 [ cs.LG ].
- ^ Graham, Benjamin (18 de diciembre de 2014). "Agrupación máxima fraccionada". arXiv : 1412.6071 [ cs.CV ].
- ^ Huang, Gao; Liu, Zhuang; Weinberger, Kilian Q .; van der Maaten, Laurens (24 de agosto de 2016). "Redes convolucionales densamente conectadas". arXiv : 1608.06993 [ cs.CV ].
- ^ Gastaldi, Xavier (21 de mayo de 2017). "Regularización Shake-Shake". arXiv : 1705.07485 [ cs.LG ].
- ^ Dutt, Anuvabh (18 de septiembre de 2017). "Conjuntos acoplados de redes neuronales". arXiv : 1709.06053 [ cs.CV ].
- ^ Yamada, Yoshihiro; Iwamura, Masakazu; Kise, Koichi (7 de febrero de 2018). "Regularización de Shakedrop para el aprendizaje residual profundo". Acceso IEEE . 7 : 186126–186136. arXiv : 1802.02375 . doi : 10.1109 / ACCESS.2019.2960566 . S2CID 54445621 .
- ^ Terrance, DeVries; W., Taylor, Graham (15 de agosto de 2017). "Regularización mejorada de redes neuronales convolucionales con corte". arXiv : 1708.04552 [ cs.CV ].
- ^ Real, Esteban; Aggarwal, Alok; Huang, Yanping; Le, Quoc V. (5 de febrero de 2018). "Evolución regularizada para la búsqueda de arquitectura de clasificador de imágenes con recorte". arXiv : 1802.01548 [ cs.NE ].
- ^ Nguyen, Huu P .; Ribeiro, Bernardete (31/07/2020). "Repensar las redes neuronales recurrentes y otras mejoras para la clasificación de imágenes". arXiv : 2007.15161 [ cs.CV ].
- ^ Cubuk, Ekin D .; Zoph, Barret; Melena, diente de león; Vasudevan, Vijay; Le, Quoc V. (24 de mayo de 2018). "AutoAugment: políticas de aumento de aprendizaje de datos". arXiv : 1805.09501 [ cs.CV ].
- ^ Wistuba, Martin; Rawat, Ambrish; Pedapati, Tejaswini (4 de mayo de 2019). "Una encuesta sobre la búsqueda de arquitectura neuronal". arXiv : 1905.01392 [ cs.LG ].
- ^ Huang, Yanping; Cheng, Yonglong; Chen, Dehao; Lee, HyoukJoong; Ngiam, Jiquan; Le, Quoc V .; Zhifeng, Zhifeng (16 de noviembre de 2018). "GPipe: Entrenamiento eficiente de redes neuronales gigantes utilizando paralelismo de tuberías". arXiv : 1811.06965 [ cs.CV ].
enlaces externos
- Página CIFAR-10 : el hogar del conjunto de datos
- Instituto Canadiense de Investigaciones Avanzadas
Conjuntos de datos similares
- CIFAR-100 : Similar a CIFAR-10 pero con 100 clases y 600 imágenes cada una.
- ImageNet (ILSVRC): 1 millón de imágenes en color de 1000 clases. Las imágenes de Imagenet tienen una resolución más alta, con un promedio de resolución de 469x387.
- Números de casa de Street View (SVHN): Aproximadamente 600.000 imágenes de 10 clases (dígitos 0-9). También imágenes en color de 32x32.
- Conjunto de datos de 80 millones de imágenes diminutas : CIFAR-10 es un subconjunto etiquetado de este conjunto de datos.