Perceptrones (libro)


Perceptrons: una introducción a la geometría computacional es un libro escrito por Marvin Minsky y Seymour Papert y publicado en 1969. A principios de la década de 1970 se publicó una edición con correcciones y adiciones escritas a mano. En 1987 se publicó una edición ampliada que contiene un capítulo dedicado a contrarrestar las críticas que se le hicieron en los años ochenta.

El tema principal del libro es el perceptrón , un tipo de red neuronal artificial desarrollada a finales de la década de 1950 y principios de la de 1960. El libro estaba dedicado al psicólogo Frank Rosenblatt , quien en 1957 había publicado el primer modelo de "Perceptron". [1] Rosenblatt y Minsky se conocían desde la adolescencia, habiendo estudiado con un año de diferencia en la Bronx High School of Science . [2] En un momento se convirtieron en figuras centrales de un debate dentro de la comunidad de investigación de IA, y se sabe que promovieron discusiones ruidosas en conferencias, pero se mantuvieron amistosas. [3]

Este libro es el centro de una controversia de larga data en el estudio de la inteligencia artificial . ¿Es reclamado [ por quién? ] que las predicciones pesimistas de los autores fueron responsables de un cambio en la dirección de la investigación en IA, concentrando esfuerzos en los llamados sistemas "simbólicos", una línea de investigación que se agotó [¿ según quién? ] y contribuyó al llamado invierno de IA de la década de 1980, cuando la promesa de AI no se cumplió [ cita requerida ] .

La esencia de los perceptrones es una serie de pruebas matemáticas que reconocen algunas de las fortalezas de los perceptrones y, al mismo tiempo, muestran importantes limitaciones. [3] El más importante está relacionado con el cálculo de algunos predicados, como la función XOR, y también el predicado de conectividad importante. El problema de la conexión se ilustra en la portada del libro con colores incómodos , que pretende mostrar cómo los humanos mismos tienen dificultades para calcular este predicado. [4]

El perceptrón es una red neuronal desarrollada por el psicólogo Frank Rosenblatt en 1958 y es una de las máquinas más famosas de su época. [5] [6] En 1960, Rosenblatt y sus colegas pudieron demostrar que el perceptrón podía, en un número finito de ciclos de entrenamiento, aprender cualquier tarea que pudieran incorporar sus parámetros. El teorema de convergencia del perceptrón se demostró para redes neuronales de una sola capa. [6]

Durante este período, la investigación de la red neuronal fue un enfoque importante para el problema del cerebro y la máquina que había sido adoptado por un número significativo de personas. [6] Los informes del New York Times y las declaraciones de Rosenblatt afirmaron que las redes neuronales pronto podrían ver imágenes, vencer a los humanos en el ajedrez y reproducirse. [3] Al mismo tiempo, surgieron nuevos enfoques que incluían la IA simbólica . [7] Diferentes grupos se encontraron compitiendo por la financiación y las personas, y su demanda de potencia informática superó con creces la oferta disponible. [8]