El reconocimiento de patrones es el reconocimiento automático de patrones y regularidades en los datos . Tiene aplicaciones en análisis de datos estadísticos , procesamiento de señales , análisis de imágenes , recuperación de información , bioinformática , compresión de datos , gráficos por computadora y aprendizaje automático . El reconocimiento de patrones tiene su origen en la estadística y la ingeniería; Algunos enfoques modernos para el reconocimiento de patrones incluyen el uso del aprendizaje automático , debido a la mayor disponibilidad de big data y una nueva abundancia de poder de procesamiento.. Sin embargo, estas actividades pueden verse como dos facetas del mismo campo de aplicación, y juntas han experimentado un desarrollo sustancial durante las últimas décadas. Una definición moderna de reconocimiento de patrones es:
El campo del reconocimiento de patrones se ocupa del descubrimiento automático de regularidades en los datos mediante el uso de algoritmos informáticos y con el uso de estas regularidades para tomar acciones como clasificar los datos en diferentes categorías. [1]
En muchos casos, los sistemas de reconocimiento de patrones se entrenan a partir de datos de "entrenamiento" etiquetados, pero cuando no hay datos etiquetados disponibles, se pueden utilizar otros algoritmos para descubrir patrones previamente desconocidos. KDD y la minería de datos tienen un mayor enfoque en métodos no supervisados y una conexión más sólida con el uso comercial. El reconocimiento de patrones se centra más en la señal y también tiene en cuenta la adquisición y el procesamiento de señales . Se originó en la ingeniería , y el término es popular en el contexto de la visión por computadora : una conferencia líder en visión por computadora se llama Conferencia sobre Visión por Computadora y Reconocimiento de Patrones .
En el aprendizaje automático , el reconocimiento de patrones es la asignación de una etiqueta a un valor de entrada dado. En estadística, el análisis discriminante se introdujo con este mismo propósito en 1936. Un ejemplo de reconocimiento de patrones es la clasificación , que intenta asignar cada valor de entrada a una de un conjunto dado de clases (por ejemplo, determinar si un correo electrónico dado es "spam" o "no spam"). Sin embargo, el reconocimiento de patrones es un problema más general que también abarca otros tipos de resultados. Otros ejemplos son la regresión , que asigna una salida de valor real a cada entrada; [2] etiquetado de secuencia , que asigna una clase a cada miembro de una secuencia de valores [3] (por ejemplo, etiquetado de parte del discurso , que asigna una parte del discurso a cada palabra en una oración de entrada); y análisis , que asigna un árbol de análisis sintáctico a una oración de entrada, que describe la estructura sintáctica de la oración. [4]
Los algoritmos de reconocimiento de patrones generalmente tienen como objetivo proporcionar una respuesta razonable para todas las entradas posibles y realizar una coincidencia "más probable" de las entradas, teniendo en cuenta su variación estadística. Esto se opone a los algoritmos de coincidencia de patrones , que buscan coincidencias exactas en la entrada con patrones preexistentes. Un ejemplo común de un algoritmo de coincidencia de patrones es la coincidencia de expresiones regulares , que busca patrones de un tipo determinado en datos textuales y se incluye en las capacidades de búsqueda de muchos editores de texto y procesadores de texto .
Descripción general
El reconocimiento de patrones generalmente se clasifica de acuerdo con el tipo de procedimiento de aprendizaje utilizado para generar el valor de salida. El aprendizaje supervisado asume que se ha proporcionado un conjunto de datos de entrenamiento (el conjunto de entrenamiento ), que consiste en un conjunto de instancias que se han etiquetado correctamente a mano con la salida correcta. Luego, un procedimiento de aprendizaje genera un modelo que intenta cumplir dos objetivos a veces contradictorios: desempeñarse lo mejor posible en los datos de entrenamiento y generalizar lo mejor posible a los nuevos datos (generalmente, esto significa ser lo más simple posible, para alguna definición técnica de "simple", de acuerdo con la navaja de Occam , que se analiza a continuación). El aprendizaje no supervisado , por otro lado, asume datos de entrenamiento que no han sido etiquetados manualmente e intenta encontrar patrones inherentes en los datos que luego pueden usarse para determinar el valor de salida correcto para nuevas instancias de datos. [5] Una combinación de los dos que se ha explorado recientemente es el aprendizaje semi-supervisado , que utiliza una combinación de datos etiquetados y no etiquetados (típicamente un pequeño conjunto de datos etiquetados combinados con una gran cantidad de datos no etiquetados). Tenga en cuenta que en los casos de aprendizaje no supervisado, es posible que no haya datos de capacitación de los que hablar; en otras palabras, los datos a etiquetar son los datos de entrenamiento.
Tenga en cuenta que a veces se utilizan términos diferentes para describir los correspondientes procedimientos de aprendizaje supervisado y no supervisado para el mismo tipo de resultado. Por ejemplo, el equivalente no supervisado de clasificación se conoce normalmente como agrupamiento , basado en la percepción común de que la tarea no involucra datos de entrenamiento de los que hablar, y de agrupar los datos de entrada en grupos basados en alguna medida de similitud inherente (por ejemplo, la distancia entre instancias, consideradas como vectores en un espacio vectorial multidimensional ), en lugar de asignar cada instancia de entrada a una de un conjunto de clases predefinidas. En algunos campos, la terminología es diferente: por ejemplo, en ecología comunitaria , el término "clasificación" se utiliza para referirse a lo que comúnmente se conoce como "agrupación".
La pieza de datos de entrada para la que se genera un valor de salida se denomina formalmente instancia . La instancia se describe formalmente mediante un vector de características , que juntas constituyen una descripción de todas las características conocidas de la instancia. (Estos vectores de características pueden verse como puntos que definen en un espacio multidimensional apropiado , y los métodos para manipular vectores en espacios vectoriales se les pueden aplicar correspondientemente, como calcular el producto escalar o el ángulo entre dos vectores). categórico (también conocido como nominal , es decir, que consta de uno de un conjunto de elementos desordenados, como un género de "masculino" o "femenino", o un tipo de sangre de "A", "B", "AB" o " O "), ordinal (que consiste en uno de un conjunto de elementos ordenados, p. Ej.," Grande "," mediano "o" pequeño "), con valores enteros (p. Ej., Un recuento del número de apariciones de una palabra en particular en una correo electrónico) o de valor real (por ejemplo, una medición de la presión arterial). A menudo, los datos categóricos y ordinales se agrupan; lo mismo ocurre con los datos con valores enteros y con valores reales. Además, muchos algoritmos funcionan solo en términos de datos categóricos y requieren que los datos con valores reales o con valores enteros se discreticen en grupos (por ejemplo, menos de 5, entre 5 y 10, o más de 10).
Clasificadores probabilísticos
Muchos algoritmos comunes de reconocimiento de patrones son de naturaleza probabilística , ya que utilizan inferencias estadísticas para encontrar la mejor etiqueta para una instancia determinada. A diferencia de otros algoritmos, que simplemente generan una etiqueta "mejor", a menudo los algoritmos probabilísticos también generan una probabilidad de que la instancia sea descrita por la etiqueta dada. Además, muchos algoritmos probabilísticos generan una lista de las N- mejores etiquetas con probabilidades asociadas, para algún valor de N , en lugar de simplemente una única mejor etiqueta. Cuando el número de posibles etiquetas es bastante pequeño (por ejemplo, en el caso de la clasificación ), N puede establecerse de modo que se genere la probabilidad de todas las posibles etiquetas. Los algoritmos probabilísticos tienen muchas ventajas sobre los algoritmos no probabilísticos:
- Producen un valor de confianza asociado con su elección. (Tenga en cuenta que algunos otros algoritmos también pueden generar valores de confianza, pero en general, solo para los algoritmos probabilísticos este valor se basa matemáticamente en la teoría de la probabilidad . En general, los valores de confianza no probabilísticos no pueden tener ningún significado específico y solo se pueden usar para comparar con otros valores de confianza generados por el mismo algoritmo).
- En consecuencia, pueden abstenerse cuando la confianza de elegir cualquier salida en particular es demasiado baja.
- Debido a la salida de probabilidades, los algoritmos probabilísticos de reconocimiento de patrones se pueden incorporar de manera más efectiva en tareas más grandes de aprendizaje automático, de manera que se evite parcial o completamente el problema de la propagación de errores .
Número de variables de características importantes
Los algoritmos de selección de funciones intentan eliminar directamente las funciones redundantes o irrelevantes. Se ha proporcionado una introducción general a la selección de características que resume los enfoques y desafíos. [6] La complejidad de la selección de características es, debido a su carácter no monótono, un problema de optimización donde se da un total depresenta el conjunto de potencia que consta de todosEs necesario explorar subconjuntos de características. El algoritmo Branch-and-Bound [7] reduce esta complejidad pero es intratable para valores medianos a grandes del número de características disponibles.. Para una comparación a gran escala de algoritmos de selección de características, consulte. [8]
Las técnicas para transformar los vectores de características sin procesar ( extracción de características ) a veces se utilizan antes de la aplicación del algoritmo de coincidencia de patrones. Por ejemplo, los algoritmos de extracción de características intentan reducir un vector de características de gran dimensionalidad en un vector de menor dimensionalidad con el que es más fácil trabajar y codifica menos redundancia, utilizando técnicas matemáticas como el análisis de componentes principales (PCA). La distinción entre la selección de características y la extracción de características es que las características resultantes después de la extracción de características son de un tipo diferente a las características originales y pueden no ser fácilmente interpretables, mientras que las características que quedan después de la selección de características son simplemente un subconjunto de las características originales. .
Planteamiento del problema
Formalmente, el problema del reconocimiento de patrones se puede plantear de la siguiente manera: Dada una función desconocida (la verdad básica ) que mapea instancias de entrada para imprimir etiquetas , junto con los datos de entrenamiento se supone que representa ejemplos precisos del mapeo, produce una función que se aproxime lo más posible al mapeo correcto . (Por ejemplo, si el problema es filtrar spam, entonces es una representación de un correo electrónico y es "spam" o "no spam"). Para que este sea un problema bien definido, es necesario definir rigurosamente "aproxima lo más posible". En la teoría de la decisión , esto se define especificando una función de pérdida o función de costo que asigna un valor específico a la "pérdida" resultante de producir una etiqueta incorrecta. El objetivo entonces es minimizar la pérdida esperada , asumiendo la expectativa la distribución de probabilidad de. En la práctica, ni la distribución de ni la función de verdad fundamental se conocen con exactitud, pero pueden calcularse sólo empíricamente mediante la recopilación de una gran cantidad de muestras de y etiquetarlos a mano con el valor correcto de (un proceso que requiere mucho tiempo, que suele ser el factor limitante en la cantidad de datos de este tipo que se pueden recopilar). La función de pérdida particular depende del tipo de etiqueta que se predice. Por ejemplo, en el caso de la clasificación , la simple función de pérdida cero-uno suele ser suficiente. Esto corresponde simplemente a asignar una pérdida de 1 a cualquier etiquetado incorrecto e implica que el clasificador óptimo minimiza la tasa de error en los datos de prueba independientes (es decir, contando la fracción de instancias que la función aprendidaetiquetas incorrectamente, lo que equivale a maximizar el número de instancias clasificadas correctamente). El objetivo del procedimiento de aprendizaje es entonces minimizar la tasa de error (maximizar la corrección ) en un conjunto de prueba "típico".
Para un reconocedor de patrones probabilístico, el problema es estimar la probabilidad de cada posible etiqueta de salida dada una instancia de entrada particular, es decir, estimar una función de la forma
donde la entrada del vector de características es, y la función f suele estar parametrizada por algunos parámetros. [9] En un enfoque discriminativo del problema, f se estima directamente. En un enfoque generativo , sin embargo, la probabilidad inversaen cambio, se estima y se combina con la probabilidad previa usando la regla de Bayes , de la siguiente manera:
Cuando las etiquetas se distribuyen continuamente (por ejemplo, en el análisis de regresión ), el denominador implica integración en lugar de suma:
El valor de se aprende típicamente usando la estimación máxima a posteriori (MAP). Esto encuentra el mejor valor que se encuentra simultáneamente con dos objetos en conflicto: obtener el mejor rendimiento posible en los datos de entrenamiento ( tasa de error más pequeña ) y encontrar el modelo más simple posible. Esencialmente, esto combina la estimación de máxima verosimilitud con un procedimiento de regularización que favorece los modelos más simples sobre los modelos más complejos. En un contexto bayesiano , el procedimiento de regularización puede verse como la colocación de una probabilidad previa en diferentes valores de . Matemáticamente:
dónde es el valor usado para en el procedimiento de evaluación posterior, y , la probabilidad posterior de, es dado por
En el enfoque bayesiano de este problema, en lugar de elegir un solo vector de parámetro, la probabilidad de una etiqueta dada para una nueva instancia se calcula integrando todos los valores posibles de , ponderado según la probabilidad posterior:
Enfoque frecuentista o bayesiano del reconocimiento de patrones
El primer clasificador de patrones, el discriminante lineal presentado por Fisher , se desarrolló en la tradición frecuentista . El enfoque frecuentista implica que los parámetros del modelo se consideran desconocidos, pero objetivos. Luego, los parámetros se calculan (estiman) a partir de los datos recopilados. Para el discriminante lineal, estos parámetros son precisamente los vectores medios y la matriz de covarianza . También la probabilidad de cada clasese estima a partir del conjunto de datos recopilados. Tenga en cuenta que el uso de la ' regla de Bayes ' en un clasificador de patrones no hace que el enfoque de clasificación sea bayesiano.
La estadística bayesiana tiene su origen en la filosofía griega, donde ya se hacía una distinción entre el conocimiento " a priori " y el " a posteriori ". Posteriormente, Kant definió su distinción entre lo que se conoce a priori, antes de la observación, y el conocimiento empírico obtenido a partir de las observaciones. En un clasificador de patrones bayesianos, las probabilidades de clasePueden ser elegidos por el usuario, que luego son a priori. Además, la experiencia cuantificada como valores de parámetros a priori se puede ponderar con observaciones empíricas, utilizando, por ejemplo, las distribuciones Beta ( conjugado a priori ) y Dirichlet . El enfoque bayesiano facilita una mezcla perfecta entre el conocimiento experto en forma de probabilidades subjetivas y observaciones objetivas.
Los clasificadores de patrones probabilísticos se pueden utilizar de acuerdo con un enfoque frecuentista o bayesiano.
Usos
Dentro de la ciencia médica, el reconocimiento de patrones es la base de los sistemas de diagnóstico asistido por computadora (CAD). CAD describe un procedimiento que respalda las interpretaciones y los hallazgos del médico. Otras aplicaciones típicas de las técnicas de reconocimiento de patrones son el reconocimiento automático de voz , la identificación del hablante , la clasificación de texto en varias categorías (p. Ej., Mensajes de correo electrónico no deseados / no spam), el reconocimiento automático de la escritura a mano en sobres postales, el reconocimiento automático de imágenes de rostros humanos, o extracción de imágenes manuscritas de formularios médicos. [10] [11] Los dos últimos ejemplos forman el análisis de imágenes de subtemas de reconocimiento de patrones que trata con imágenes digitales como entrada a los sistemas de reconocimiento de patrones. [12] [13]
El reconocimiento óptico de caracteres es un ejemplo clásico de la aplicación de un clasificador de patrones, consulte el ejemplo de OCR . El método de firmar el nombre de uno se capturó con lápiz y superposición a partir de 1990. [ cita requerida ] Los trazos, la velocidad, el mínimo relativo, el máximo relativo, la aceleración y la presión se utilizan para identificar y confirmar de forma única la identidad. A los bancos se les ofreció por primera vez esta tecnología, pero se contentaron con cobrar a la FDIC por cualquier fraude bancario y no querían molestar a los clientes. [ cita requerida ]
El reconocimiento de patrones tiene muchas aplicaciones del mundo real en el procesamiento de imágenes, algunos ejemplos incluyen:
- identificación y autenticación: por ejemplo, reconocimiento de matrículas , [14] análisis de huellas dactilares, detección / verificación de rostros , [15] y autenticación basada en voz. [dieciséis]
- diagnóstico médico: por ejemplo, detección de cáncer de cuello uterino (Papnet), [17] tumores de mama o ruidos cardíacos;
- defensa: varios sistemas de navegación y guía, sistemas de reconocimiento de objetivos, tecnología de reconocimiento de formas, etc.
- movilidad: sistemas avanzados de asistencia al conductor , tecnología de vehículos autónomos , etc. [18] [19] [20] [21] [22]
En psicología, el reconocimiento de patrones (dar sentido e identificar objetos) está estrechamente relacionado con la percepción, lo que explica cómo las entradas sensoriales que reciben los humanos se vuelven significativas. El reconocimiento de patrones se puede pensar de dos maneras diferentes: la primera es la coincidencia de plantillas y la segunda es la detección de características. Una plantilla es un patrón que se utiliza para producir artículos de las mismas proporciones. La hipótesis de coincidencia de plantillas sugiere que los estímulos entrantes se comparan con plantillas en la memoria a largo plazo. Si hay coincidencia, se identifica el estímulo. Los modelos de detección de características, como el sistema Pandemonium para clasificar letras (Selfridge, 1959), sugieren que los estímulos se dividen en sus partes componentes para su identificación. Por ejemplo, una E mayúscula tiene tres líneas horizontales y una línea vertical. [23]
Algoritmos
Los algoritmos para el reconocimiento de patrones dependen del tipo de salida de la etiqueta, de si el aprendizaje está supervisado o no, y de si el algoritmo es de naturaleza estadística o no estadística. Los algoritmos estadísticos se pueden clasificar además como generativos o discriminativos .
Métodos de clasificación (métodos que predicen etiquetas categóricas )
Paramétrico: [24]
- Análisis discriminante lineal
- Análisis discriminante cuadrático
- Clasificador de máxima entropía (también conocido como regresión logística , regresión logística multinomial ): tenga en cuenta que la regresión logística es un algoritmo de clasificación, a pesar de su nombre. (El nombre proviene del hecho de que la regresión logística usa una extensión de un modelo de regresión lineal para modelar la probabilidad de que una entrada esté en una clase en particular).
No paramétrico: [25]
- Árboles de decisión , listas de decisiones
- Estimación del kernel y algoritmos del vecino más cercano K
- Clasificador ingenuo de Bayes
- Redes neuronales (perceptrones multicapa)
- Perceptrones
- Máquinas de vectores de soporte
- Programación de expresión genética
Métodos de agrupamiento (métodos para clasificar y predecir etiquetas categóricas )
- Modelos de mezcla categórica
- Agrupación jerárquica (aglomerativa o divisiva)
- Agrupación de K-medias
- Agrupación de correlación
- Análisis de componentes principales del kernel (Kernel PCA)
Algoritmos de aprendizaje en conjunto ( meta-algoritmos supervisados para combinar varios algoritmos de aprendizaje juntos)
- Impulso (meta-algoritmo)
- Bootstrap aggregating ("ensacado")
- Promedio del conjunto
- Mezcla de expertos , mezcla jerárquica de expertos
Métodos generales para predecir (conjuntos de) etiquetas estructuradas arbitrariamente
- Redes bayesianas
- Campos aleatorios de Markov
Algoritmos de aprendizaje del subespacio multilineal (predicción de etiquetas de datos multidimensionales mediante representaciones de tensor )
Sin supervisión:
- Análisis multilineal de componentes principales (MPCA)
Valorados Real- etiquetado de secuencia métodos (secuencias predicen de de valor real etiquetas)
- Filtros de Kalman
- Filtros de partículas
Métodos de regresión (predicción de etiquetas de valor real )
- Regresión del proceso gaussiano (kriging)
- Regresión lineal y extensiones
- Análisis de componentes independientes (ICA)
- Análisis de componentes principales (PCA)
Métodos de etiquetado de secuencias (predicción de secuencias de etiquetas categóricas )
- Campos aleatorios condicionales (CRF)
- Modelos ocultos de Markov (HMM)
- Modelos de Markov de máxima entropía (MEMM)
- Redes neuronales recurrentes (RNN)
- Deformación de tiempo dinámica (DTW)
Ver también
- Teoría de la resonancia adaptativa
- Caja negra
- Modelo de lenguaje de caché
- Procesamiento de término compuesto
- Diagnóstico asistido por computadora
- Procesamiento de datos
- Aprendizaje profundo
- Teoría de la información
- Lista de software de análisis numérico
- Lista de bibliotecas numéricas
- Aprendizaje subespacial multilineal
- Neocognitron
- Percepción
- Aprendizaje perceptual
- Analítica predictiva
- Conocimientos previos para el reconocimiento de patrones
- Minería de secuencia
- Comparación de plantillas
- Clasificación de imágenes contextuales
- Lista de conjuntos de datos para la investigación del aprendizaje automático
Referencias
Este artículo se basa en material extraído del Diccionario gratuito de informática en línea antes del 1 de noviembre de 2008 e incorporado bajo los términos de "renovación de licencias" de la GFDL , versión 1.3 o posterior.
- ^ Obispo, Christopher M. (2006). Reconocimiento de patrones y aprendizaje automático . Saltador.
- ^ Howard, WR (20 de febrero de 2007). "Reconocimiento de patrones y aprendizaje automático". Kybernetes . 36 (2): 275. doi : 10.1108 / 03684920710743466 . ISSN 0368-492X .
- ^ "Etiquetado de secuencia" (PDF) . utah.edu . Archivado (PDF) desde el original el 6 de noviembre de 2018 . Consultado el 6 de noviembre de 2018 .
- ^ Ian., Chiswell (2007). Lógica matemática, pág. 34 . Prensa de la Universidad de Oxford. ISBN 9780199215621. OCLC 799802313 .
- ^ Carvalko, JR, Preston K. (1972). "Sobre la determinación de transformaciones óptimas de marcado Golay simple para el procesamiento de imágenes binarias". Transacciones IEEE en computadoras . 21 (12): 1430–33. doi : 10.1109 / TC.1972.223519 . S2CID 21050445 .CS1 maint: varios nombres: lista de autores ( enlace ).
- ^ Isabelle Guyon Clopinet, André Elisseeff (2003). Introducción a la selección de características y variables . The Journal of Machine Learning Research, vol. 3, 1157-1182. Enlace archivado el 4 de marzo de 2016 en la Wayback Machine.
- ^ Iman Foroutan; Jack Sklansky (1987). "Selección de características para la clasificación automática de datos no gaussianos". Transacciones IEEE sobre sistemas, hombre y cibernética . 17 (2): 187-198. doi : 10.1109 / TSMC.1987.4309029 . S2CID 9871395 ..
- ^ Mineichi Kudo; Jack Sklansky (2000). "Comparación de algoritmos que seleccionan características para clasificadores de patrones". Reconocimiento de patrones . 33 (1): 25–41. CiteSeerX 10.1.1.55.1718 . doi : 10.1016 / S0031-3203 (99) 00041-2 ..
- ^ Para el análisis discriminante lineal, el vector de parámetros consta de los dos vectores medios y y la matriz de covarianza común .
- ^ Milewski, Robert; Govindaraju, Venu (31 de marzo de 2008). "Binarización y limpieza de texto escrito a mano a partir de imágenes de formularios médicos en copia carbón" . Reconocimiento de patrones . 41 (4): 1308-1315. doi : 10.1016 / j.patcog.2007.08.018 . Archivado desde el original el 10 de septiembre de 2020 . Consultado el 26 de octubre de 2011 .
- ^ Sarangi, Susanta; Sahidullah, Md; Saha, Goutam (septiembre de 2020). "Optimización del banco de filtros basado en datos para la verificación automática del hablante". Procesamiento de señales digitales . 104 : 102795. arXiv : 2007.10729 . doi : 10.1016 / j.dsp.2020.102795 . S2CID 220665533 .
- ^ Richard O. Duda , Peter E. Hart , David G. Stork (2001). Clasificación de patrones (2ª ed.). Wiley, Nueva York. ISBN 978-0-471-05669-0. Archivado desde el original el 19 de agosto de 2020 . Consultado el 26 de noviembre de 2019 .CS1 maint: varios nombres: lista de autores ( enlace )
- ^ R. Brunelli, Técnicas de coincidencia de plantillas en visión por computadora: teoría y práctica , Wiley, ISBN 978-0-470-51706-2 , 2009
- ^ EL TUTORIAL DE RECONOCIMIENTO AUTOMÁTICO DE LA PLACA DE NÚMEROS Archivado el 20 de agosto de 2006 en la Wayback Machine http://anpr-tutorial.com/ Archivado el 20 de agosto de 2006 en la Wayback Machine.
- ^ Redes neuronales para el reconocimiento facial Archivado el 4 de marzo de 2016 en Wayback Machine Companion del capítulo 4 del libro de texto Machine Learning.
- ^ Poddar, Arnab; Sahidullah, Md; Saha, Goutam (marzo de 2018). "Verificación de locutor con declaraciones breves: una revisión de desafíos, tendencias y oportunidades" . Biometría IET . 7 (2): 91–101. doi : 10.1049 / iet-bmt.2017.0065 . Archivado desde el original el 3 de septiembre de 2019 . Consultado el 27 de agosto de 2019 .
- ^ PAPNET para el cribado cervical Archivado el 8 de julio de 2012 en archive.today
- ^ "Desarrollo de una estrategia de control de vehículos autónomos utilizando una sola cámara y redes neuronales profundas (documento técnico 2018-01-0035) - SAE Mobilus" . saemobilus.sae.org . Archivado desde el original el 6 de septiembre de 2019 . Consultado el 6 de septiembre de 2019 .
- ^ Gerdes, J. Christian; Kegelman, John C .; Kapania, Nitin R .; Brown, Matthew; Spielberg, Nathan A. (27 de marzo de 2019). "Modelos de vehículos de red neuronal para conducción automatizada de alto rendimiento" . Ciencia Robótica . 4 (28): eaaw1975. doi : 10.1126 / scirobotics.aaw1975 . ISSN 2470-9476 . PMID 33137751 . S2CID 89616974 .
- ^ Pickering, Chris (15 de agosto de 2017). "Cómo la IA está allanando el camino para los coches totalmente autónomos" . El ingeniero . Archivado desde el original el 6 de septiembre de 2019 . Consultado el 6 de septiembre de 2019 .
- ^ Ray, Baishakhi; Jana, Suman; Pei, Kexin; Tian, Yuchi (28 de agosto de 2017). "DeepTest: prueba automatizada de coches autónomos impulsados por redes neuronales profundas". arXiv : 1708.08559 . Código Bib : 2017arXiv170808559T . Cite journal requiere
|journal=
( ayuda ) - ^ Sinha, PK; Hadjiiski, LM; Mutib, K. (1 de abril de 1993). "Redes neuronales en el control de vehículos autónomos". Volúmenes de las actas de la IFAC . 1er Taller internacional de IFAC sobre vehículos autónomos inteligentes, Hampshire, Reino Unido, 18-21 de abril. 26 (1): 335–340. doi : 10.1016 / S1474-6670 (17) 49322-0 . ISSN 1474-6670 .
- ^ "Revisión de atención de psicología de nivel A - reconocimiento de patrones | S-cool, el sitio web de revisión" . S-cool.co.uk. Archivado desde el original el 22 de junio de 2013 . Consultado el 17 de septiembre de 2012 .
- ^ Suponiendo una forma de distribución conocida de distribuciones de características por clase, como laforma gaussiana .
- ^ Sin suposición de distribución con respecto a la forma de distribuciones de características por clase.
Otras lecturas
- Fukunaga, Keinosuke (1990). Introducción al reconocimiento estadístico de patrones (2ª ed.). Boston: Prensa académica. ISBN 978-0-12-269851-4.
- Hornegger, Joachim; Paulus, Dietrich WR (1999). Reconocimiento de patrones aplicado: una introducción práctica al procesamiento de imágenes y voz en C ++ (2ª ed.). San Francisco: Editorial Morgan Kaufmann. ISBN 978-3-528-15558-2.
- Schuermann, Juergen (1996). Clasificación de patrones: una visión unificada de enfoques estadísticos y neuronales . Nueva York: Wiley. ISBN 978-0-471-13534-0.
- Godfried T. Toussaint, ed. (1988). Morfología computacional . Amsterdam: Compañía editorial de Holanda Septentrional. ISBN 9781483296722.
- Kulikowski, Casimir A .; Weiss, Sholom M. (1991). Sistemas informáticos que aprenden: métodos de clasificación y predicción de estadísticas, redes neuronales, aprendizaje automático y sistemas expertos . Aprendizaje automático. San Francisco: Editorial Morgan Kaufmann. ISBN 978-1-55860-065-2.
- Duda, Richard O .; Hart, Peter E .; Cigüeña, David G. (2000). Clasificación de patrones (2ª ed.). Wiley-Interscience. ISBN 978-0471056690.
- Jain, Anil.K .; Duin, Robert.PW; Mao, Jianchang (2000). "Reconocimiento de patrones estadísticos: una revisión". Transacciones IEEE sobre análisis de patrones e inteligencia de máquinas . 22 (1): 4–37. CiteSeerX 10.1.1.123.8151 . doi : 10.1109 / 34.824819 .
- Un tutorial introductorio a los clasificadores (introduciendo los términos básicos, con un ejemplo numérico)
enlaces externos
- La Asociación Internacional para el Reconocimiento de Patrones
- Lista de sitios web de reconocimiento de patrones
- Revista de investigación de reconocimiento de patrones
- Información de reconocimiento de patrones
- Reconocimiento de patrones (Revista de la Sociedad de reconocimiento de patrones)
- Revista Internacional de Reconocimiento de Patrones e Inteligencia Artificial
- Revista internacional de reconocimiento de patrones aplicados
- Proyecto de reconocimiento de patrones abierto , destinado a ser una plataforma de código abierto para compartir algoritmos de reconocimiento de patrones
- Coincidencia de patrones rápida mejorada Coincidencia de patrones rápida mejorada