Este es un buen artículo. Haga clic aquí para más información.
De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

La historia de la Inteligencia Artificial ( IA ) comenzó en la antigüedad , con mitos, historias y rumores de seres artificiales dotados de inteligencia o conciencia por maestros artesanos. Las semillas de la IA moderna fueron plantadas por filósofos clásicos que intentaron describir el proceso del pensamiento humano como la manipulación mecánica de símbolos. Este trabajo culminó con la invención de la computadora digital programable en la década de 1940, una máquina basada en la esencia abstracta del razonamiento matemático. Este dispositivo y las ideas detrás de él inspiraron a un puñado de científicos a comenzar a discutir seriamente la posibilidad de construir un cerebro electrónico.

El campo de la investigación de la IA se fundó en un taller celebrado en el campus de Dartmouth College durante el verano de 1956. [1] Los que asistieron se convertirían en los líderes de la investigación de la IA durante décadas. Muchos de ellos predijeron que una máquina tan inteligente como un ser humano existiría en no más de una generación, y recibieron millones de dólares para hacer realidad esta visión.

Finalmente, se hizo evidente que habían subestimado enormemente la dificultad del proyecto. En 1973, en respuesta a las críticas de James Lighthill y la presión constante del Congreso, los gobiernos de Estados Unidos y Gran Bretaña dejaron de financiar la investigación no dirigida sobre inteligencia artificial, y los años difíciles que siguieron se conocerían más tarde como un " invierno de IA ". Siete años después, una iniciativa visionaria del gobierno japonés inspiró a los gobiernos y la industria a proporcionar a la IA miles de millones de dólares, pero a finales de los 80 los inversores se desilusionaron y retiraron la financiación nuevamente.

La inversión y el interés en la IA aumentaron en las primeras décadas del siglo XXI cuando el aprendizaje automático se aplicó con éxito a muchos problemas en la academia y la industria debido a los nuevos métodos, la aplicación de hardware de computadora potente y la recopilación de inmensos conjuntos de datos.

Precursores [ editar ]

Precursores míticos, ficticios y especulativos [ editar ]

Mito y leyenda [ editar ]

En la mitología griega, Talos era un gigante construido en bronce que actuaba como guardián de la isla de Creta. Arrojaba piedras a las naves de los invasores y completaba 3 circuitos diarios alrededor del perímetro de las islas. [2] Según la Bibliotheke del pseudo-Apolodoro , Hefesto forjó Talos con la ayuda de un cíclope y le presentó el autómata como regalo a Minos . [3] En la Argonautica , Jason y los Argonautas lo derrotaron mediante un solo tapón cerca de su pie que, una vez retirado, permitió que el icor vital fluyera de su cuerpo y lo dejara inanimado. [4]

Pigmalión fue un legendario rey y escultor de la mitología griega, famoso en las Metamorfosis de Ovidio . En el décimo libro del poema narrativo de Ovidio, Pigmalión se disgusta con las mujeres cuando es testigo de la forma en que las Propoetides se prostituyen. [5] A pesar de esto, hace ofrendas en el templo de Venus pidiéndole a la diosa que le traiga una mujer como una estatua que talló y de la que se enamoró. De hecho, la estatua, Galatea , cobró vida y, según algunos relatos, ella y Pigmalión concibieron un hijo. [6]

El Golem es un ser artificial del folclore judío, creado a partir de arcilla y, según la fuente, a menudo se le da algún tipo de objetivo. El relato escrito más antiguo sobre la fabricación de golem se encuentra en los escritos de Eleazar ben Judah of Worms alrededor del siglo XII al 13. [7] Durante la Edad Media, se creía que la animación de un Golem se podía lograr mediante la inserción de una pieza. de papel con alguno de los nombres de Dios en él, en la boca de la figura de arcilla. [8] A diferencia de los autómatas legendarios como Brazen Heads , un Golem no podía hablar. [9]

Medios alquímicos de inteligencia artificial [ editar ]

Representación de un homúnculo del Fausto de Goethe

En De la naturaleza de las cosas , escrito por el alquimista nacido en Suiza, Paracelso , describe un procedimiento que, según él, puede fabricar un "hombre artificial". Al colocar el "esperma de un hombre" en estiércol de caballo y alimentarlo con la "sangre del Arcano de Mans" después de 40 días, el brebaje se convertirá en un bebé vivo. [10] Predando a Paracelso fue la versión de Jābir ibn Hayyān sobre el homúnculo: Takwin [11] En Fausto, la segunda parte de la tragedia por Johann Wolfgang von Goethe, un homúnculo fabricado alquímicamente, destinado a vivir para siempre en el frasco en el que fue creado, se esfuerza por nacer en un cuerpo humano completo. Sin embargo, al iniciarse esta transformación, el matraz se rompe y el homúnculo muere. [12]

Autómatas legendarios de la modernidad temprana [ editar ]

Durante el período moderno temprano, se decía que estos autómatas legendarios poseían la capacidad mágica de responder a las preguntas que se les planteaban. Se suponía que el alquimista y erudito de finales de la Edad Media Roger Bacon había fabricado una cabeza descarada , habiendo desarrollado la leyenda de haber sido un mago. [13] Estas leyendas eran similares al mito nórdico de la cabeza de Mímir. Según la leyenda, Mímir era conocido por su intelecto y sabiduría, y fue decapitado en la Guerra de Æsir-Vanir. Se dice que Odin "embalsamó" la cabeza con hierbas y pronunció encantamientos sobre ella de tal manera que la cabeza de Mímir seguía siendo capaz de hablar con sabiduría a Odin. Odin luego mantuvo la cabeza cerca de él para pedirle consejo. [14]

Ficción moderna [ editar ]

En el siglo 19, las ideas sobre los hombres y las máquinas de pensamiento artificial se desarrollaron en la ficción, como en Mary Shelley 's Frankenstein o Karel Capek ' s RUR (Universal Robots de Rossum) , [15] y la especulación, tales como Samuel Butler 's " Darwin entre las Máquinas ". [16] La IA se ha convertido en un tema habitual de ciencia ficción hasta el presente. [17]

Autómatas [ editar ]

Autómatas programables de Al-Jazari (1206 CE)

Los artesanos de todas las civilizaciones construyeron autómatas humanoides realistas , incluidos Yan Shi , [18] Héroe de Alejandría , [19] Al-Jazari , [20] Pierre Jaquet-Droz y Wolfgang von Kempelen . [21] Los autómatas más antiguos conocidos fueron las estatuas sagradas del antiguo Egipto y Grecia . Los fieles creían que el artesano había dotado a estas figuras de mentes muy reales, capaces de sabiduría y emoción; Hermes Trismegistus escribió que "al descubrir la verdadera naturaleza de los dioses, el hombre ha podido reproducirla". [22][23]

Razonamiento formal [ editar ]

La inteligencia artificial se basa en el supuesto de que el proceso del pensamiento humano se puede mecanizar. El estudio del razonamiento mecánico o "formal" tiene una larga historia. Los filósofos chinos , indios y griegos desarrollaron métodos estructurados de deducción formal en el primer milenio antes de nuestra era. Sus ideas fueron desarrolladas a lo largo de los siglos por filósofos como Aristóteles (quien dio un análisis formal del silogismo ), Euclides (cuyos Elementos era un modelo de razonamiento formal), al-Khwārizmī (quien desarrolló el álgebra y dio su nombre al " algoritmo " ) y escolástica europeafilósofos como William of Ockham y Duns Scotus . [24]

El filósofo español Ramon Llull (1232-1315) desarrolló varias máquinas lógicas dedicadas a la producción de conocimiento por medios lógicos; [25] Llull describió sus máquinas como entidades mecánicas que podían combinar verdades básicas e innegables mediante simples operaciones lógicas, producidas por la máquina por significados mecánicos, de tal manera que produjeran todo el conocimiento posible. [26] La obra de Llull tuvo una gran influencia en Gottfried Leibniz , quien reformuló sus ideas. [27]

Gottfried Leibniz , quien especuló que la razón humana podría reducirse al cálculo mecánico.

En el siglo XVII, Leibniz , Thomas Hobbes y René Descartes exploraron la posibilidad de que todo pensamiento racional pudiera hacerse tan sistemático como el álgebra o la geometría. [28] Hobbes escribió en el famoso Leviatán : "la razón no es más que hacer cuentas". [29] Leibniz imaginó un lenguaje universal de razonamiento (su characteristica universalis ) que reduciría la argumentación al cálculo, de modo que "no habría más necesidad de disputa entre dos filósofos que entre dos contables. Porque bastaría con tomar sus lápices en mano, hasta sus pizarras, y para decirse (con un amigo como testigo, si quisieran):Calculemos ". [30] Estos filósofos habían comenzado a articular la hipótesis del sistema de símbolos físicos que se convertiría en la fe guía de la investigación de la IA.

En el siglo XX, el estudio de la lógica matemática proporcionó el avance esencial que hizo que la inteligencia artificial pareciera plausible. Los cimientos habían sido establecidos por obras tales como Boole 's las leyes del pensamiento y Frege ' s Begriffsschrift . Basándose en el sistema de Frege , Russell y Whitehead presentaron un tratamiento formal de los fundamentos de las matemáticas en su obra maestra, los Principia Mathematica en 1913. Inspirado por el éxito de Russell , David Hilbertdesafió a los matemáticos de las décadas de 1920 y 1930 a responder a esta pregunta fundamental: "¿se puede formalizar todo el razonamiento matemático?" [24] Su pregunta fue respondida por Gödel 's prueba de la incompletitud , Turing ' s de la máquina y la Iglesia 's cálculo lambda . [24] [31]

Foto del Ejército de los EE. UU. Del ENIAC en la Escuela de Ingeniería Eléctrica Moore. [32]

Su respuesta fue sorprendente de dos maneras. Primero, demostraron que, de hecho, había límites a lo que podía lograr la lógica matemática. Pero en segundo lugar (y más importante para la IA), su trabajo sugirió que, dentro de estos límites, cualquier forma de razonamiento matemático podría mecanizarse. La tesis de Church-Turing implicaba que un dispositivo mecánico, mezclando símbolos tan simples como 0 y 1, podría imitar cualquier proceso concebible de deducción matemática. La idea clave fue la máquina de Turing, una construcción teórica simple que capturó la esencia de la manipulación de símbolos abstractos. Esta invención inspiraría a un puñado de científicos a comenzar a discutir la posibilidad de las máquinas pensantes. [24] [33]

Ciencias de la computación [ editar ]

Las máquinas de calcular fueron construidas en la antigüedad y mejoradas a lo largo de la historia por muchos matemáticos, incluido (una vez más) el filósofo Gottfried Leibniz . A principios del siglo XIX, Charles Babbage diseñó una computadora programable (el motor analítico ), aunque nunca se construyó. Ada Lovelace especuló que la máquina "podría componer piezas musicales elaboradas y científicas de cualquier grado de complejidad o extensión". [34] (A menudo se le acredita como la primera programadora debido a un conjunto de notas que escribió que detallan completamente un método para calcular los números de Bernoulli con el motor).

Las primeras computadoras modernas fueron las enormes máquinas de descifrado de códigos de la Segunda Guerra Mundial (como Z3 , ENIAC y Colossus ). Las dos últimas de estas máquinas se basaron en la base teórica establecida por Alan Turing [35] y desarrollada por John von Neumann . [36]

El nacimiento de la inteligencia artificial 1952-1956 [ editar ]

IBM 702: una computadora utilizada por la primera generación de investigadores de IA.

En las décadas de 1940 y 1950, un puñado de científicos de una variedad de campos (matemáticas, psicología, ingeniería, economía y ciencias políticas) comenzaron a discutir la posibilidad de crear un cerebro artificial. El campo de la investigación en inteligencia artificial se fundó como disciplina académica en 1956.

Cibernética y redes neuronales tempranas [ editar ]

La primera investigación sobre las máquinas pensantes se inspiró en una confluencia de ideas que prevaleció a finales de los años treinta, cuarenta y principios de los cincuenta. Investigaciones recientes en neurología habían demostrado que el cerebro era una red eléctrica de neuronas que se disparaban en pulsos de todo o nada. La cibernética de Norbert Wiener describió el control y la estabilidad en las redes eléctricas. La teoría de la información de Claude Shannon describía señales digitales (es decir, señales de todo o nada). Alan Turing 's teoría de la computacióndemostró que cualquier forma de cálculo podía describirse digitalmente. La estrecha relación entre estas ideas sugirió que podría ser posible construir un cerebro electrónico . [37]

Ejemplos de trabajo en esta línea incluyen robots como las tortugas de W. Gray Walter y la Bestia de Johns Hopkins . Estas máquinas no usaban computadoras, electrónica digital o razonamiento simbólico; estaban controlados completamente por circuitos analógicos. [38]

Walter Pitts y Warren McCulloch analizaron redes de neuronas artificiales idealizadas y mostraron cómo podían realizar funciones lógicas simples en 1943. [39] [40] Fueron los primeros en describir lo que los investigadores posteriores llamarían una red neuronal . [41] Uno de los estudiantes inspirados por Pitts y McCulloch era un joven Marvin Minsky , entonces un estudiante de posgrado de 24 años. En 1951 (con Dean Edmonds) construyó la primera máquina de red neuronal, la SNARC . [42] Minsky se convertiría en uno de los líderes e innovadores más importantes en IA durante los próximos 50 años.

Prueba de Turing [ editar ]

En 1950 Alan Turing publicó un artículo histórico en el que especulaba sobre la posibilidad de crear máquinas que piensen. [43] Observó que "pensar" es difícil de definir e ideó su famosa Prueba de Turing . Si una máquina podía mantener una conversación (a través de un teletipo ) que no se podía distinguir de una conversación con un ser humano, entonces era razonable decir que la máquina estaba "pensando". Esta versión simplificada del problema le permitió a Turing argumentar de manera convincente que una "máquina pensante" era al menos plausible y el documento respondió a todas las objeciones más comunes a la proposición. [44] La prueba de Turingfue la primera propuesta seria en la filosofía de la inteligencia artificial .

IA del juego [ editar ]

En 1951, utilizando la máquina Ferranti Mark 1 de la Universidad de Manchester , Christopher Strachey escribió un programa de damas y Dietrich Prinz escribió uno para el ajedrez. [45] El programa de damas de Arthur Samuel , desarrollado a mediados de los 50 y principios de los 60, finalmente logró la habilidad suficiente para desafiar a un aficionado respetable. [46] La IA del juego continuaría utilizándose como una medida del progreso de la IA a lo largo de su historia.

El razonamiento simbólico y el teórico de la lógica [ editar ]

Cuando el acceso a las computadoras digitales se hizo posible a mediados de los años cincuenta, algunos científicos reconocieron instintivamente que una máquina que podía manipular números también podía manipular símbolos y que la manipulación de símbolos bien podría ser la esencia del pensamiento humano. Este fue un nuevo enfoque para crear máquinas pensantes. [47]

En 1955, Allen Newell y (futuro premio Nobel) Herbert A. Simon crearon el " Teórico de la lógica " (con la ayuda de JC Shaw ). El programa eventualmente probaría 38 de los primeros 52 teoremas en los Principia Mathematica de Russell y Whitehead , y encontraría pruebas nuevas y más elegantes para algunos. [48] Simon dijo que habían "resuelto el venerable problema mente / cuerpo , explicando cómo un sistema compuesto de materia puede tener las propiedades de la mente". [49] (Esta fue una declaración temprana de la posición filosófica que John Searle llamaría más tarde " IA fuerte": que las máquinas pueden contener mentes al igual que los cuerpos humanos.) [50]

Conferencia de Dartmouth 1956: el nacimiento de la IA [ editar ]

La Conferencia de Dartmouth de 1956 [51] fue organizada por Marvin Minsky , John McCarthy y dos científicos de alto nivel: Claude Shannon y Nathan Rochester de IBM . La propuesta para la conferencia incluía esta afirmación: "cada aspecto del aprendizaje o cualquier otra característica de la inteligencia se puede describir con tanta precisión que se puede hacer una máquina para simularlo". [52] Los participantes incluyeron a Ray Solomonoff , Oliver Selfridge , Trenchard More , Arthur Samuel , Allen Newell y Herbert A. Simon, todos los cuales crearían importantes programas durante las primeras décadas de investigación en IA. [53] En la conferencia, Newell y Simon debutaron como " Teórico de la lógica " y McCarthy persuadió a los asistentes para que aceptaran "Inteligencia artificial" como el nombre del campo. [54] La conferencia de Dartmouth de 1956 fue el momento en que la IA ganó su nombre, su misión, su primer éxito y sus principales actores, y es ampliamente considerada el nacimiento de la IA. [55] El término "Inteligencia Artificial" fue elegido por McCarthy para evitar asociaciones con la cibernética y conexiones con el influyente cibernético Norbert Wiener . [56]

Los años dorados 1956-1974 [ editar ]

Los programas desarrollados en los años posteriores al Taller de Dartmouth fueron, para la mayoría de la gente, simplemente "asombrosos": [57] las computadoras estaban resolviendo problemas verbales de álgebra, probando teoremas de geometría y aprendiendo a hablar inglés. Pocos en ese momento habrían creído que un comportamiento tan "inteligente" por parte de las máquinas fuera posible en absoluto. [58] Los investigadores expresaron un intenso optimismo en privado y en forma impresa, prediciendo que una máquina completamente inteligente se construiría en menos de 20 años. [59] Las agencias gubernamentales como DARPA invirtieron dinero en el nuevo campo. [60]

El trabajo [ editar ]

Hubo muchos programas exitosos y nuevas direcciones a finales de los años 50 y 60. Entre los más influyentes se encuentran estos:

Razonamiento como búsqueda [ editar ]

Muchos de los primeros programas de IA utilizaban el mismo algoritmo básico . Para lograr algún objetivo (como ganar un juego o demostrar un teorema), procedieron paso a paso hacia él (haciendo un movimiento o una deducción) como si buscaran en un laberinto, retrocediendo cada vez que llegaban a un callejón sin salida. Este paradigma se denominó " razonamiento como búsqueda ". [61]

La principal dificultad fue que, para muchos problemas, el número de caminos posibles a través del "laberinto" era simplemente astronómico (una situación conocida como " explosión combinatoria "). Los investigadores reducirían el espacio de búsqueda mediante el uso de heurísticas o " reglas generales " que eliminarían aquellos caminos que probablemente no conduzcan a una solución. [62]

Newell y Simon intentaron capturar una versión general de este algoritmo en un programa llamado " General Problem Solver ". [63] Otros programas "Searching" fueron capaces de realizar tareas impresionantes como la resolución de problemas en la geometría y el álgebra, como Herbert Gelernter 's Geometría Teorema demostrador (1958) y SAN , escrito por Minsky estudiante James Slagle (1961). [64] Otros programas buscaron metas y subobjetivos para planificar acciones, como el sistema STRIPS desarrollado en Stanford para controlar el comportamiento de su robot Shakey .[sesenta y cinco]

Un ejemplo de red semántica

Lenguaje natural [ editar ]

Un objetivo importante de la investigación de la IA es permitir que las computadoras se comuniquen en lenguajes naturales como el inglés. Un éxito temprano fue el programa ESTUDIANTE de Daniel Bobrow , que podía resolver problemas verbales de álgebra de la escuela secundaria. [66]

Una red semántica representa conceptos (por ejemplo, "casa", "puerta") como nodos y relaciones entre conceptos (por ejemplo, "tiene-a") como enlaces entre los nodos. El primer programa de AI utilizar una red semántica fue escrito por Ross Quillian [67] y la versión más exitosa (y controvertido) fue Roger Schank 's teoría de la dependencia conceptual . [68]

Joseph Weizenbaum 's ELIZA podría llevar a cabo conversaciones que eran tan realistas que los usuarios de vez en cuando se deje engañar pensando que estaban comunicando con un ser humano y no un programa (Véase efecto ELIZA ). Pero, de hecho, ELIZA no tenía idea de lo que estaba hablando. Simplemente dio una respuesta enlatada o repitió lo que se le dijo, reformulando su respuesta con algunas reglas gramaticales. ELIZA fue el primer parlanchín . [69]

Micro-mundos [ editar ]

A finales de los 60, Marvin Minsky y Seymour Papert del Laboratorio de IA del MIT propusieron que la investigación de la IA debería centrarse en situaciones artificialmente simples conocidas como micro-mundos. Señalaron que en ciencias exitosas como la física, los principios básicos a menudo se entendían mejor utilizando modelos simplificados como planos sin fricción o cuerpos perfectamente rígidos. Gran parte de la investigación se centró en un " mundo de bloques " , que consiste en bloques de colores de varias formas y tamaños dispuestos sobre una superficie plana. [70]

Este paradigma condujo al trabajo innovador en visión artificial de Gerald Sussman (quien dirigió el equipo), Adolfo Guzman , David Waltz (quien inventó la " propagación de restricciones ") y especialmente Patrick Winston . Al mismo tiempo, Minsky y Papert construyeron un brazo robótico que podía apilar bloques, dando vida al mundo de los bloques. El mayor logro del programa del micromundo fue el SHRDLU de Terry Winograd . Podría comunicarse en oraciones en inglés ordinario, planificar operaciones y ejecutarlas. [71]

El optimismo [ editar ]

La primera generación de investigadores de IA hizo estas predicciones sobre su trabajo:

  • 1958, HA Simon y Allen Newell : "dentro de diez años una computadora digital será el campeón mundial de ajedrez" y "dentro de diez años una computadora digital descubrirá y probará un nuevo e importante teorema matemático". [72]
  • 1965, HA Simon : "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer". [73]
  • 1967, Marvin Minsky : "Dentro de una generación ... el problema de crear 'inteligencia artificial' se resolverá sustancialmente". [74]
  • 1970, Marvin Minsky (en Life Magazine ): "Dentro de tres a ocho años tendremos una máquina con la inteligencia general de un ser humano promedio". [75]

El dinero [ editar ]

En junio de 1963, el MIT recibió una subvención de 2,2 millones de dólares de la recién creada Agencia de Proyectos de Investigación Avanzada (más tarde conocida como DARPA ). El dinero se utilizó para financiar el proyecto MAC que incluía al "Grupo AI" fundado por Minsky y McCarthy cinco años antes. DARPA siguió aportando tres millones de dólares al año hasta los años 70. [76] DARPA otorgó subvenciones similares al programa de Newell y Simon en CMU y al Proyecto de IA de Stanford (fundado por John McCarthy en 1963). [77]Otro laboratorio de IA importante se estableció en la Universidad de Edimburgo por Donald Michie en 1965. [78] Estas cuatro instituciones seguirían siendo los principales centros de investigación en IA (y financiación) en el mundo académico durante muchos años. [79]

El dinero se ofreció con pocas condiciones: JCR Licklider , entonces director de ARPA , creía que su organización debería "financiar personas, no proyectos". y permitió a los investigadores seguir cualquier dirección que pudiera interesarles. [80] Esto creó una atmósfera libre en el MIT que dio origen a la cultura hacker , [81] pero este enfoque de "no intervención" no duraría.

Robótica [ editar ]

En Japón, la Universidad de Waseda inició el proyecto WABOT en 1967, y en 1972 completó el WABOT-1, el primer robot humanoide inteligente a gran escala del mundo , [82] [83] o androide . Su sistema de control de extremidades le permitía caminar con las extremidades inferiores y agarrar y transportar objetos con las manos, utilizando sensores táctiles. Su sistema de visión le permitió medir distancias y direcciones a objetos utilizando receptores externos, ojos y oídos artificiales. Y su sistema de conversación le permitió comunicarse con una persona en japonés, con boca artificial. [84] [85] [86]

El primer invierno de la IA de 1974 a 1980 [ editar ]

En la década de 1970, la IA fue objeto de críticas y reveses financieros. Los investigadores de IA no habían podido apreciar la dificultad de los problemas a los que se enfrentaban. Su tremendo optimismo había generado expectativas increíblemente altas, y cuando los resultados prometidos no se materializaron, la financiación para la IA desapareció. [87] Al mismo tiempo, el campo del conexionismo (o redes neuronales ) fue cerrado casi por completo durante 10 años por la devastadora crítica de Marvin Minsky a los perceptrones . [88] A pesar de las dificultades con la percepción pública de la IA a finales de los 70, se exploraron nuevas ideas en la programación lógica , razonamiento de sentido comúny muchas otras áreas. [89]

Los problemas [ editar ]

A principios de los setenta, las capacidades de los programas de IA eran limitadas. Incluso los más impresionantes solo podían manejar versiones triviales de los problemas que se suponía que debían resolver; todos los programas eran, en cierto sentido, "juguetes". [90] Los investigadores de IA habían comenzado a toparse con varios límites fundamentales que no pudieron superarse en la década de 1970. Aunque algunos de estos límites serían conquistados en décadas posteriores, otros todavía obstaculizan el campo hasta el día de hoy. [91]

  • Potencia informática limitada : no había suficiente memoria o velocidad de procesamiento para lograr algo realmente útil. Por ejemplo, el exitoso trabajo de Ross Quillian sobre el lenguaje natural se demostró con un vocabulario de solo veinte palabras, porque eso era todo lo que cabía en la memoria. [92] Hans Moravec argumentó en 1976 que las computadoras todavía eran millones de veces demasiado débiles para exhibir inteligencia. Sugirió una analogía: la inteligencia artificial requiere potencia de computadora de la misma manera que los aviones requieren caballos de fuerza . Por debajo de cierto umbral, es imposible, pero, a medida que aumenta la potencia , eventualmente podría volverse fácil. [93]Con respecto a la visión por computadora, Moravec estimó que simplemente igualar las capacidades de detección de bordes y movimiento de la retina humana en tiempo real requeriría una computadora de uso general capaz de 10 9 operaciones / segundo (1000 MIPS). [94] A partir de 2011, las aplicaciones prácticas de visión por computadora requieren de 10,000 a 1,000,000 MIPS. En comparación, la supercomputadora más rápida en 1976, Cray-1 (con un precio minorista de entre $ 5 millones y $ 8 millones), solo era capaz de alrededor de 80 a 130 MIPS, y una computadora de escritorio típica en ese momento alcanzaba menos de 1 MIPS.
  • Intratabilidad y explosión combinatoria . En 1972, Richard Karp ( basado en el teorema de Stephen Cook de 1971) mostró que hay muchos problemas que probablemente sólo pueden resolverse en tiempo exponencial (en el tamaño de las entradas). Encontrar soluciones óptimas a estos problemas requiere cantidades inimaginables de tiempo de computadora, excepto cuando los problemas son triviales. Es casi seguro que esto significó que muchas de las soluciones de "juguete" utilizadas por la IA probablemente nunca se convertirían en sistemas útiles. [95]
  • Conocimiento y razonamiento del sentido común . Muchas aplicaciones importantes de inteligencia artificial, como la visión o el lenguaje natural, requieren simplemente enormes cantidades de información sobre el mundo: el programa necesita tener alguna idea de lo que podría estar mirando o de lo que está hablando. Esto requiere que el programa sepa la mayoría de las mismas cosas sobre el mundo que un niño. Los investigadores pronto descubrieron que se trataba de una gran cantidad de información. Nadie en 1970 podía construir una base de datos tan grande y nadie sabía cómo un programa podía aprender tanta información. [96]
  • La paradoja de Moravec : Probar teoremas y resolver problemas de geometría es relativamente fácil para las computadoras, pero una tarea supuestamente simple como reconocer una cara o cruzar una habitación sin chocar con nada es extremadamente difícil. Esto ayuda a explicar por qué la investigación en visión y robótica había progresado tan poco a mediados de la década de 1970. [97]
  • Los problemas de encuadre y calificación . Los investigadores de IA (como John McCarthy ) que utilizaron la lógica descubrieron que no podían representar deducciones ordinarias que implicaban planificación o razonamiento predeterminado sin realizar cambios en la estructura de la lógica misma. Desarrollaron nuevas lógicas (como lógicas no monótonas y lógicas modales ) para intentar resolver los problemas. [98]

El fin de la financiación [ editar ]

Las agencias que financiaron la investigación de la IA (como el gobierno británico , DARPA y NRC ) se sintieron frustradas por la falta de progreso y, finalmente, cortaron casi todos los fondos para la investigación no dirigida de la IA. El patrón comenzó ya en 1966 cuando apareció el informe de ALPAC criticando los esfuerzos de traducción automática. Después de gastar 20 millones de dólares, la NRC puso fin a todo apoyo. [99] En 1973, el informe Lighthill sobre el estado de la investigación de la IA en Inglaterra criticó el total fracaso de la IA para lograr sus "grandiosos objetivos" y llevó al desmantelamiento de la investigación de la IA en ese país. [100] (El informe menciona específicamente laproblema de explosión combinatoria como una razón para las fallas de AI.) [101] DARPA estaba profundamente decepcionado con los investigadores que trabajaban en el programa Speech Understanding Research en CMU y canceló una subvención anual de tres millones de dólares. [102] En 1974, era difícil encontrar financiación para proyectos de IA.

Hans Moravec culpó de la crisis a las predicciones poco realistas de sus colegas. "Muchos investigadores se vieron atrapados en una red de creciente exageración". [103] Sin embargo, había otro problema: desde la aprobación de la Enmienda Mansfield en 1969, DARPA había estado bajo una presión creciente para financiar "investigación directa orientada a la misión, en lugar de investigación básica no dirigida". La financiación para la exploración creativa y despreocupada que se había llevado a cabo en los años 60 no provendría de DARPA . En cambio, el dinero se destinó a proyectos específicos con objetivos claros, como tanques autónomos y sistemas de gestión de batalla. [104]

Críticas de todo el campus [ editar ]

Varios filósofos tenían fuertes objeciones a las afirmaciones de los investigadores de IA. Uno de los primeros fue John Lucas , quien argumentó que el teorema de incompletitud de Gödel mostraba que un sistema formal (como un programa de computadora) nunca podría ver la verdad de ciertas declaraciones, mientras que un ser humano sí. [105] Hubert Dreyfus ridiculizó las promesas incumplidas de la década de 1960 y criticó las suposiciones de la IA, argumentando que el razonamiento humano en realidad implicaba muy poco "procesamiento de símbolos" y una gran cantidad de " saber cómo " encarnado , instintivo e inconsciente . [106] [107] John Searle 's Chinese Room El argumento, presentado en 1980, intentó mostrar que no se podía decir que un programa "comprendiera" los símbolos que utiliza (una cualidad llamada " intencionalidad "). Si los símbolos no tienen ningún significado para la máquina, argumentó Searle, entonces la máquina no puede describirse como "pensante". [108]

Los investigadores de IA no se tomaron en serio estas críticas, a menudo porque parecían muy fuera de lugar. Problemas como la intratabilidad y el conocimiento de sentido común parecían mucho más inmediatos y serios. No estaba claro qué diferencia hacía el " saber hacer " o la " intencionalidad " en un programa informático real. Minsky dijo de Dreyfus y Searle que "malinterpretan y deben ser ignorados". [109] A Dreyfus, quien enseñó en el MIT , se le dio la espalda: más tarde dijo que los investigadores de IA "no se atrevieron a ser vistos almorzando conmigo". [110] Joseph Weizenbaum , el autor de ELIZA , sintió que sus colegastratamiento deDreyfus era poco profesional e infantil. Aunque era un crítico abierto de las posiciones de Dreyfus, "dejó en claro deliberadamente que la de ellos no era la forma de tratar a un ser humano". [111]

Weizenbaum comenzó a tener serias dudas éticas sobre la IA cuando Kenneth Colby escribió un "programa de computadora que puede llevar a cabo un diálogo psicoterapéutico" basado en ELIZA. [112] Weizenbaum estaba molesto porque Colby vio un programa sin sentido como una herramienta terapéutica seria. Comenzó una disputa, y la situación no mejoró cuando Colby no le dio crédito a Weizenbaum por su contribución al programa. En 1976, Weizenbaum publicó Computer Power and Human Reason, que argumentó que el mal uso de la inteligencia artificial tiene el potencial de devaluar la vida humana. [113]

Los perceptrones y el ataque al conexionismo [ editar ]

Un perceptrón era una forma de red neuronal introducida en 1958 por Frank Rosenblatt , quien había sido compañero de escuela de Marvin Minsky en la Bronx High School of Science . Como la mayoría de los investigadores de IA, se mostró optimista acerca de su poder y predijo que "el perceptrón podría eventualmente aprender, tomar decisiones y traducir idiomas". A lo largo de la década de 1960 se llevó a cabo un activo programa de investigación sobre el paradigma, pero se detuvo repentinamente con la publicación del libro Perceptrons de Minsky y Papert en 1969 . Sugirió que existían severas limitaciones a lo que podían hacer los perceptrones y que Frank RosenblattLas predicciones habían sido enormemente exageradas. El efecto del libro fue devastador: prácticamente no se realizó ninguna investigación sobre el conexionismo durante 10 años. Eventualmente, una nueva generación de investigadores reviviría el campo y luego se convertiría en una parte vital y útil de la inteligencia artificial. Rosenblatt no viviría para ver esto, ya que murió en un accidente de navegación poco después de la publicación del libro. [88]

Razonamiento lógico y simbólico [ editar ]

La lógica fue introducida en la investigación de la IA ya en 1959, por John McCarthy en su propuesta de Advice Taker . [114] En 1963, J. Alan Robinson había descubierto un método simple para implementar la deducción en computadoras, el algoritmo de resolución y unificación . Sin embargo, las implementaciones sencillas, como las que intentaron McCarthy y sus estudiantes a fines de la década de 1960, eran especialmente intratables: los programas requerían un número astronómico de pasos para demostrar teoremas simples. [115] Un enfoque más fructífero de la lógica fue desarrollado en la década de 1970 por Robert Kowalski en la Universidad de Edimburgo., y pronto esto llevó a la colaboración con los investigadores franceses Alain Colmerauer y Philippe Roussel, quienes crearon el exitoso lenguaje de programación lógica Prolog . [116] Prolog utiliza un subconjunto de lógica ( cláusulas de Horn , estrechamente relacionadas con "reglas" y " reglas de producción ") que permiten un cálculo manejable. Las reglas continuarían siendo influyentes, proporcionando una base para los sistemas expertos de Edward Feigenbaum y el trabajo continuo de Allen Newell y Herbert A. Simon que conduciría a Soar y sus teorías unificadas de la cognición .[117]

Los críticos del enfoque lógico señalaron, como lo había hecho Dreyfus , que los seres humanos rara vez usaban la lógica cuando resolvían problemas. Los experimentos de psicólogos como Peter Wason , Eleanor Rosch , Amos Tversky , Daniel Kahneman y otros proporcionaron pruebas. [118] McCarthy respondió que lo que hace la gente es irrelevante. Argumentó que lo que realmente se necesita son máquinas que puedan resolver problemas, no máquinas que piensen como lo hace la gente. [119]

Marcos y guiones [ editar ]

Entre los críticos del enfoque de McCarthy se encontraban sus colegas de todo el país en el MIT . Marvin Minsky , Seymour Papert y Roger Schank estaban tratando de resolver problemas como "comprensión de historias" y "reconocimiento de objetos" que requerían que una máquina pensara como una persona. Para utilizar conceptos ordinarios como "silla" o "restaurante", tenían que hacer las mismas suposiciones ilógicas que la gente normalmente hacía. Desafortunadamente, conceptos imprecisos como estos son difíciles de representar en lógica. Gerald Sussman observó que "usar un lenguaje preciso para describir conceptos esencialmente imprecisos no los hace más precisos".[120] Schankdescribió sus enfoques " antilógicos " como " desaliñados ", en oposición a los paradigmas " pulcros " utilizados por McCarthy , Kowalski , Feigenbaum , Newell y Simon . [121]

En 1975, en un artículo fundamental, Minsky señaló que muchos de sus colegas investigadores "desaliñados" estaban usando el mismo tipo de herramienta: un marco que captura todas nuestras suposiciones de sentido común sobre algo. Por ejemplo, si usamos el concepto de pájaro, hay una constelación de hechos que inmediatamente nos vienen a la mente: podríamos suponer que vuela, come gusanos, etc. Sabemos que estos hechos no siempre son ciertos y que las deducciones que utilizan estos hechos no serán "lógicas", pero estos conjuntos estructurados de suposiciones son parte del contexto de todo lo que decimos y pensamos. Llamó a estas estructuras " marcos ". Schank usó una versión de marcos que llamó " scripts"para responder con éxito preguntas sobre historias cortas en inglés. [122] Muchos años más tarde , la programación orientada a objetos adoptaría la idea esencial de" herencia "de la investigación de la IA sobre marcos.

Boom 1980-1987 [ editar ]

En la década de 1980, las corporaciones de todo el mundo adoptaron una forma de programa de inteligencia artificial llamado " sistemas expertos " y el conocimiento se convirtió en el foco de la investigación general de inteligencia artificial. En esos mismos años, el gobierno japonés financió agresivamente la IA con su proyecto informático de quinta generación . Otro acontecimiento alentador a principios de la década de 1980 fue el resurgimiento del conexionismo en la obra de John Hopfield y David Rumelhart . Una vez más, la IA había logrado el éxito. [123]

El auge de los sistemas expertos [ editar ]

Un sistema experto es un programa que responde preguntas o resuelve problemas sobre un dominio específico del conocimiento, utilizando reglas lógicas que se derivan del conocimiento de los expertos. Los primeros ejemplos fueron desarrollados por Edward Feigenbaum y sus estudiantes. Dendral , iniciado en 1965, identificó compuestos a partir de lecturas espectrométricas. MYCIN , desarrollado en 1972, diagnosticaba enfermedades infecciosas de la sangre. Demostraron la viabilidad del enfoque. [124]

Los sistemas expertos se restringieron a un pequeño dominio de conocimiento específico (evitando así el problema del conocimiento de sentido común ) y su diseño simple hizo que fuera relativamente fácil construir programas y luego modificarlos una vez que estaban en su lugar. En general, los programas demostraron ser útiles : algo que la IA no había podido lograr hasta este momento. [125]

En 1980, se completó un sistema experto llamado XCON en CMU para Digital Equipment Corporation . Fue un éxito enorme: le estaba ahorrando a la empresa 40 millones de dólares anuales en 1986. [126] Las corporaciones de todo el mundo comenzaron a desarrollar y desplegar sistemas expertos y en 1985 estaban gastando más de mil millones de dólares en IA, la mayor parte en -departamentos de IA de la casa. Creció una industria para respaldarlos, incluidas empresas de hardware como Symbolics y Lisp Machines y empresas de software como IntelliCorp y Aion . [127]

La revolución del conocimiento [ editar ]

El poder de los sistemas expertos provino del conocimiento experto que contenían. Formaban parte de una nueva dirección en la investigación de la IA que había ido ganando terreno a lo largo de los años 70. "Los investigadores de IA estaban empezando a sospechar, a regañadientes, porque violaba el canon científico de la parsimonia, que la inteligencia bien podría basarse en la capacidad de utilizar grandes cantidades de conocimiento diverso de diferentes formas", [128] escribe Pamela McCorduck . "[L] a gran lección de la década de 1970 fue que el comportamiento inteligente dependía en gran medida de lidiar con el conocimiento, a veces un conocimiento bastante detallado, de un dominio en el que se encontraba una tarea determinada". [129] Los sistemas basados ​​en el conocimiento y la ingeniería del conocimiento se convirtieron en un foco principal de la investigación de la IA en la década de 1980.[130]

La década de 1980 también vio el nacimiento de Cyc , el primer intento de atacar directamente el problema del conocimiento de sentido común , mediante la creación de una base de datos masiva que contendría todos los hechos mundanos que la persona promedio conoce. Douglas Lenat , quien inició y dirigió el proyecto, argumentó que no hay atajos: la única forma de que las máquinas conozcan el significado de los conceptos humanos es enseñándolos, un concepto a la vez, a mano. No se esperaba que el proyecto se completara durante muchas décadas. [131]

Los programas de ajedrez HiTech y Deep Thought derrotaron a los maestros del ajedrez en 1989. Ambos fueron desarrollados por la Universidad Carnegie Mellon ; El desarrollo de Deep Thought allanó el camino para Deep Blue . [132]

El dinero regresa: el proyecto de quinta generación [ editar ]

En 1981, el Ministerio de Industria y Comercio Internacional de Japón reservó 850 millones de dólares para el proyecto informático de quinta generación . Sus objetivos eran escribir programas y construir máquinas que pudieran mantener conversaciones, traducir idiomas, interpretar imágenes y razonar como seres humanos. [133] Para disgusto de los desaliñados , eligieron Prolog como el lenguaje informático principal para el proyecto. [134]

Otros países respondieron con nuevos programas propios. El Reino Unido inició el proyecto Alvey de 350 millones de libras esterlinas . Un consorcio de empresas estadounidenses formó la Microelectronics and Computer Technology Corporation (o "MCC") para financiar proyectos a gran escala en inteligencia artificial y tecnología de la información. [135] [136] DARPA también respondió, fundando la Iniciativa de Computación Estratégica y triplicando su inversión en IA entre 1984 y 1988. [137]

Una red Hopfield con cuatro nodos.

El resurgimiento del conexionismo [ editar ]

En 1982, el físico John Hopfield pudo demostrar que una forma de red neuronal (ahora llamada " red Hopfield ") podía aprender y procesar información de una manera completamente nueva. Casi al mismo tiempo, Geoffrey Hinton y David Rumelhart popularizaron un método para entrenar redes neuronales llamado " retropropagación ", también conocido como el modo inverso de diferenciación automática publicado por Seppo Linnainmaa (1970) y aplicado a redes neuronales por Paul Werbos . Estos dos descubrimientos ayudaron a revivir el campo del conexionismo . [136] [138]

El nuevo campo fue unificado e inspirado por la aparición de Parallel Distributed Processing en 1986, una colección de artículos en dos volúmenes editados por Rumelhart y el psicólogo James McClelland . Las redes neuronales alcanzarían un éxito comercial en la década de 1990, cuando comenzaron a utilizarse como motores de programas como el reconocimiento óptico de caracteres y el reconocimiento de voz . [136] [139]

El desarrollo de la integración a muy gran escala (VLSI) de óxido de metal y semiconductor (MOS) , en forma de tecnología MOS complementaria ( CMOS ), permitió el desarrollo de la tecnología práctica de redes neuronales artificiales (ANN) en la década de 1980. Una publicación histórica en el campo fue el libro de 1989 Analog VLSI Implementation of Neural Systems por Carver A. Mead y Mohammed Ismail. [140]

Busto: el segundo invierno de IA de 1987 a 1993 [ editar ]

La fascinación de la comunidad empresarial por la IA aumentó y disminuyó en la década de 1980 en el patrón clásico de una burbuja económica . El colapso se produjo en la percepción de la inteligencia artificial por parte de las agencias gubernamentales y los inversores: el campo continuó avanzando a pesar de las críticas. Rodney Brooks y Hans Moravec , investigadores del campo relacionado de la robótica , abogaron por un enfoque completamente nuevo de la inteligencia artificial.

AI invierno [ editar ]

El término " invierno de la IA " fue acuñado por investigadores que habían sobrevivido a los recortes de fondos de 1974 cuando les preocupaba que el entusiasmo por los sistemas expertos se hubiera salido de control y que sin duda seguiría la decepción. [141] Sus temores estaban bien fundados: a finales de la década de 1980 y principios de la de 1990, AI sufrió una serie de reveses financieros.

El primer indicio de un cambio en el clima fue el colapso repentino del mercado de hardware de inteligencia artificial especializado en 1987. Las computadoras de escritorio de Apple e IBM habían ido ganando velocidad y potencia de manera constante y en 1987 se volvieron más poderosas que las máquinas Lisp más caras fabricadas por Simbólicos y otros. Ya no había una buena razón para comprarlos. Toda una industria por valor de 500 millones de dólares se demolió de la noche a la mañana. [142]

Finalmente, los primeros sistemas expertos exitosos, como XCON , resultaron demasiado costosos de mantener. Eran difíciles de actualizar, no podían aprender, eran " frágiles " (es decir, podían cometer errores grotescos cuando se les daban entradas inusuales) y eran víctimas de problemas (como el problema de calificación ) que se habían identificado años antes. Los sistemas expertos resultaron útiles, pero solo en unos pocos contextos especiales. [143]

A fines de la década de 1980, la Iniciativa de Computación Estratégica recortó los fondos para la IA "profunda y brutalmente". El nuevo liderazgo de DARPA había decidido que la IA no era "la próxima ola" y dirigió fondos hacia proyectos que parecían tener más probabilidades de producir resultados inmediatos. [144]

En 1991, no se había cumplido la impresionante lista de objetivos trazados en 1981 para el Proyecto de Quinta Generación de Japón . De hecho, algunos de ellos, como "mantener una conversación informal", no se habían cumplido en 2010. [145] Al igual que con otros proyectos de IA, las expectativas eran mucho más altas de lo que realmente era posible. [145]

Más de 300 empresas de inteligencia artificial habían cerrado, quebrado o adquirido a fines de 1993, poniendo fin de manera efectiva a la primera ola comercial de inteligencia artificial. [146]

Nouvelle AI y razón incorporada [ editar ]

A finales de la década de 1980, varios investigadores abogaron por un enfoque completamente nuevo de la inteligencia artificial, basado en la robótica. [147] Creían que, para mostrar inteligencia real, una máquina necesita tener un cuerpo , necesita percibir, moverse, sobrevivir y lidiar con el mundo. Argumentaron que estas habilidades sensoriomotoras son esenciales para habilidades de nivel superior como el razonamiento del sentido común y que el razonamiento abstracto era en realidad la habilidad humana menos interesante o importante (ver la paradoja de Moravec ). Abogaban por la construcción de inteligencia "de abajo hacia arriba". [148]

El enfoque revivió ideas de la cibernética y la teoría del control que habían sido impopulares desde los años sesenta. Otro precursor fue David Marr , quien llegó al MIT a fines de la década de 1970 con una exitosa formación en neurociencia teórica para liderar el grupo de estudio de la visión . Rechazó todos los enfoques simbólicos ( tanto la lógica de McCarthy como los marcos de Minsky ), argumentando que la IA necesitaba comprender la maquinaria física de la visión de abajo hacia arriba antes de que tuviera lugar cualquier procesamiento simbólico. (El trabajo de Marr sería interrumpido por la leucemia en 1980.) [149]

En un artículo de 1990, "Los elefantes no juegan al ajedrez" [150], el investigador de robótica Rodney Brooks apuntó directamente a la hipótesis del sistema de símbolos físicos , argumentando que los símbolos no siempre son necesarios ya que "el mundo es su mejor modelo. siempre exactamente actualizado. Siempre tiene todos los detalles que hay que conocer. El truco consiste en detectarlo de forma adecuada y con la suficiente frecuencia ". [151] En las décadas de 1980 y 1990, muchos científicos cognitivos también rechazaron el modelo de procesamiento de símbolos de la mente y argumentaron que el cuerpo era esencial para el razonamiento, una teoría llamada tesis de la mente incorporada . [152]

AI 1993–2011 [ editar ]

El campo de la IA, que ahora tiene más de medio siglo, finalmente logró algunos de sus objetivos más antiguos. Comenzó a usarse con éxito en toda la industria de la tecnología, aunque algo entre bastidores. Parte del éxito se debió al aumento de la potencia de las computadoras y parte se logró al enfocarse en problemas aislados específicos y perseguirlos con los más altos estándares de responsabilidad científica. Aún así, la reputación de la IA, al menos en el mundo empresarial, era menos que prístina. Dentro del campo hubo poco acuerdo sobre las razones por las que la IA no cumplió el sueño de la inteligencia a nivel humano que había capturado la imaginación del mundo en la década de 1960. Juntos, todos estos factores ayudaron a fragmentar la IA en subcampos competitivos centrados en problemas o enfoques particulares,a veces incluso bajo nuevos nombres que disfrazaban el manchado pedigrí de la "inteligencia artificial".[153] La IA fue más cautelosa y más exitosa que nunca.

Hitos y ley de Moore [ editar ]

El 11 de mayo de 1997, Deep Blue se convirtió en el primer sistema informático de juego de ajedrez en vencer al actual campeón mundial de ajedrez, Garry Kasparov . [154] La supercomputadora era una versión especializada de un marco producido por IBM, y era capaz de procesar el doble de movimientos por segundo que durante la primera partida (que Deep Blue había perdido), según se informa 200.000.000 de movimientos por segundo. El evento se transmitió en vivo a través de Internet y recibió más de 74 millones de visitas. [155]

En 2005, un robot de Stanford ganó el DARPA Grand Challenge conduciendo de forma autónoma 131 millas a lo largo de un sendero desértico sin ensayar. [156] Dos años más tarde, un equipo de CMU ganó el Desafío Urbano DARPA al navegar de forma autónoma 55 millas en un entorno urbano mientras se adhería a los peligros del tráfico y todas las leyes de tráfico. [157] En febrero de 2011, ¡en peligro! la demostración del concurso partido de exhibición, IBM 's sistema de contestador pregunta , Watson , venció a los dos más grandes de Jeopardy! campeones, Brad Rutter y Ken Jennings , por un margen significativo. [158]

Estos éxitos no se debieron a un nuevo paradigma revolucionario, sino principalmente a la tediosa aplicación de la habilidad de la ingeniería y al tremendo aumento de la velocidad y la capacidad de la computadora en los años 90. [159] De hecho, la computadora de Deep Blue era 10 millones de veces más rápida que la Ferranti Mark 1 que Christopher Strachey enseñó a jugar al ajedrez en 1951. [160] Este aumento dramático se mide por la ley de Moore , que predice que la velocidad y la capacidad de memoria de computadoras se duplica cada dos años, como resultado del recuento de transistores de semiconductores de óxido de metal (MOS)duplicando cada dos años. El problema fundamental de la "potencia informática bruta" se estaba superando lentamente.

Agentes inteligentes [ editar ]

Un nuevo paradigma llamado " agentes inteligentes " fue ampliamente aceptado durante la década de 1990. [161] Aunque los investigadores anteriores habían propuesto enfoques modulares de "divide y vencerás" a la IA, [162] el agente inteligente no alcanzó su forma moderna hasta que Judea Pearl , Allen Newell , Leslie P. Kaelbling y otros trajeron conceptos de la teoría de la decisión y la economía en el estudio de la IA. [163] Cuando la definición del economista de un agente racional estaba casada con la definición de la ciencia de la computación de un objeto omódulo , el paradigma del agente inteligente estaba completo.

Un agente inteligente es un sistema que percibe su entorno y realiza acciones que maximizan sus posibilidades de éxito. Según esta definición, los programas simples que resuelven problemas específicos son "agentes inteligentes", al igual que los seres humanos y las organizaciones de seres humanos, como las empresas . El paradigma del agente inteligente define la investigación de la IA como "el estudio de agentes inteligentes". Ésta es una generalización de algunas definiciones anteriores de IA: va más allá del estudio de la inteligencia humana; estudia todo tipo de inteligencia. [164]

El paradigma otorgó a los investigadores licencia para estudiar problemas aislados y encontrar soluciones que fueran verificables y útiles. Proporcionó un lenguaje común para describir problemas y compartir sus soluciones entre sí, y con otros campos que también usaban conceptos de agentes abstractos, como la economía y la teoría del control . Se esperaba que una arquitectura de agentes completa (como SOAR de Newell ) algún día permitiría a los investigadores construir sistemas más versátiles e inteligentes a partir de agentes inteligentes que interactúan . [163] [165]

La "victoria de los neats" [ editar ]

Los investigadores de IA comenzaron a desarrollar y utilizar herramientas matemáticas sofisticadas más de lo que lo habían hecho en el pasado. [166] Hubo una comprensión generalizada de que muchos de los problemas que la IA necesitaba resolver ya estaban siendo trabajados por investigadores en campos como las matemáticas , la ingeniería eléctrica , la economía o la investigación de operaciones . El lenguaje matemático compartido permitió tanto un mayor nivel de colaboración con campos más establecidos y exitosos como el logro de resultados que eran medibles y demostrables; La IA se había convertido en una disciplina "científica" más rigurosa. Russell y Norvig (2003) describen esto como nada menos que una "revolución" y "la victoria de los aseados". [167] [168]

El influyente libro de 1988 de Judea Pearl [169] introdujo la teoría de la probabilidad y la decisión en la IA. Entre las muchas herramientas nuevas en uso se encuentran las redes bayesianas , los modelos ocultos de Markov , la teoría de la información , el modelado estocástico y la optimización clásica . También se desarrollaron descripciones matemáticas precisas para paradigmas de " inteligencia computacional " como redes neuronales y algoritmos evolutivos . [167]

AI detrás de escena [ editar ]

Los algoritmos desarrollados originalmente por investigadores de IA comenzaron a aparecer como partes de sistemas más grandes. La IA había resuelto muchos problemas muy difíciles [170] y sus soluciones demostraron ser útiles en toda la industria de la tecnología, [171] como minería de datos , robótica industrial , logística, [172] reconocimiento de voz , [173] software bancario, [ 174] diagnóstico médico [174] y motor de búsqueda de Google . [175]

El campo de la IA recibió poco o ningún crédito por estos éxitos en la década de 1990 y principios de la de 2000. Muchas de las mayores innovaciones de la IA se han reducido al estado de un elemento más en la caja de herramientas de la informática. [176] Nick Bostrom explica: "Una gran cantidad de IA de vanguardia se ha filtrado en aplicaciones generales, a menudo sin ser llamada IA ​​porque una vez que algo se vuelve lo suficientemente útil y común, ya no se etiqueta como IA". [177]

Muchos investigadores de la IA en la década de 1990 llamado deliberadamente su trabajo por otros nombres, tales como la informática , los sistemas basados en el conocimiento , los sistemas cognitivos o de inteligencia computacional . En parte, esto puede deberse a que consideraban que su campo era fundamentalmente diferente de la IA, pero también los nuevos nombres ayudan a obtener financiación. En el mundo comercial, al menos, las promesas fallidas del invierno de la IA continuaron acechando la investigación de la IA en la década de 2000, como informó el New York Times en 2005: "Los científicos informáticos y los ingenieros de software evitaron el término inteligencia artificial por miedo a ser vistos como salvajes -soñadores de ojos ". [178] [179] [180]

Predicciones (o "¿Dónde está HAL 9000?") [ Editar ]

En 1968, Arthur C. Clarke y Stanley Kubrick habían imaginado que, para el año 2001 , existiría una máquina con una inteligencia que igualara o excediera la capacidad de los seres humanos. El personaje que crearon, HAL 9000 , se basó en la creencia compartida por muchos investigadores líderes en IA de que tal máquina existiría para el año 2001. [181]

En 2001, el fundador de AI, Marvin Minsky, preguntó: "Entonces, la pregunta es ¿por qué no obtuvimos HAL en 2001?" [182] Minsky creía que la respuesta es que se estaban descuidando los problemas centrales, como el razonamiento del sentido común , mientras que la mayoría de los investigadores buscaban cosas como aplicaciones comerciales de redes neuronales o algoritmos genéticos . John McCarthy , por otro lado, todavía culpaba al problema de calificación . [183] Para Ray Kurzweil , el problema es el poder de la computadora y, utilizando la Ley de Moore , predijo que las máquinas con inteligencia a nivel humano aparecerán en 2029. [184] Jeff Hawkinsargumentó que la investigación de redes neuronales ignora las propiedades esenciales de la corteza humana , prefiriendo modelos simples que han tenido éxito en la resolución de problemas simples. [185] Hubo muchas otras explicaciones y para cada una se estaba llevando a cabo un programa de investigación correspondiente.

Aprendizaje profundo, macrodatos e inteligencia artificial general: 2011-presente [ editar ]

En las primeras décadas del siglo XXI, el acceso a grandes cantidades de datos (conocidos como " big data "), computadoras más baratas y rápidas y técnicas avanzadas de aprendizaje automático se aplicaron con éxito a muchos problemas de la economía. De hecho, McKinsey Global Institute estimó en su famoso artículo "Big data: La próxima frontera para la innovación, la competencia y la productividad" que "para 2009, casi todos los sectores de la economía de EE. UU. Tenían al menos un promedio de 200 terabytes de datos almacenados". .

En 2016, el mercado de productos, hardware y software relacionados con la inteligencia artificial alcanzó más de 8 mil millones de dólares, y el New York Times informó que el interés en la inteligencia artificial había alcanzado un "frenesí". [186] Las aplicaciones de big data empezaron a llegar también a otros campos, como los modelos de formación en ecología [187] y para diversas aplicaciones en economía . [188] Los avances en el aprendizaje profundo (en particular, las redes neuronales convolucionales profundas y las redes neuronales recurrentes ) impulsaron el progreso y la investigación en el procesamiento de imágenes y videos, el análisis de texto e incluso el reconocimiento de voz. [189]

Aprendizaje profundo [ editar ]

El aprendizaje profundo es una rama del aprendizaje automático que modela abstracciones de alto nivel en los datos mediante el uso de un gráfico profundo con muchas capas de procesamiento. [189] Según el teorema de aproximación universal , la profundidad no es necesaria para que una red neuronal pueda aproximar funciones continuas arbitrarias. Aun así, hay muchos problemas que son comunes a las redes superficiales (como el sobreajuste ) que las redes profundas ayudan a evitar. [190] Como tal, las redes neuronales profundas son capaces de generar de manera realista modelos mucho más complejos en comparación con sus contrapartes superficiales.

Sin embargo, el aprendizaje profundo tiene sus propios problemas. Un problema común para las redes neuronales recurrentes es el problema del gradiente de desaparición , que es donde los gradientes que pasan entre capas se reducen gradualmente y literalmente desaparecen a medida que se redondean a cero. Se han desarrollado muchos métodos para abordar este problema, como las unidades de memoria a corto plazo .

Las arquitecturas de redes neuronales profundas de vanguardia a veces pueden incluso rivalizar con la precisión humana en campos como la visión por computadora, específicamente en cosas como la base de datos MNIST y el reconocimiento de señales de tráfico. [191]

Los motores de procesamiento de lenguaje impulsados ​​por motores de búsqueda inteligentes pueden vencer fácilmente a los humanos al responder preguntas de trivia general (como IBM Watson ), y los desarrollos recientes en el aprendizaje profundo han producido resultados asombrosos al competir con los humanos, en cosas como Go y Doom (que, al ser un juego de disparos en primera persona , ha provocado cierta controversia). [192] [193] [194] [195]

Big Data [ editar ]

Big data se refiere a una colección de datos que no pueden ser capturados, administrados y procesados ​​por herramientas de software convencionales dentro de un cierto período de tiempo. Es una gran cantidad de capacidades de optimización de procesos, conocimientos y toma de decisiones que requieren nuevos modelos de procesamiento. En la era de Big Data escrita por Victor Meyer Schonberg y Kenneth Cooke, Big Data significa que en lugar de análisis aleatorio (encuesta por muestreo), todos los datos se utilizan para el análisis. Las características de 5V de big data (propuestas por IBM): volumen , velocidad , variedad [196] , valor [197] , veracidad [198]. La importancia estratégica de la tecnología de big data no es dominar la información de datos enormes, sino especializarse en estos datos significativos. En otras palabras, si el big data se compara con una industria, la clave para obtener rentabilidad en esta industria es aumentar la " capacidad de proceso " de los datos y obtener el " valor agregado " de los datos a través del " procesamiento ".

Inteligencia artificial general [ editar ]

La inteligencia general es la capacidad de resolver cualquier problema, en lugar de encontrar una solución a un problema en particular. La inteligencia artificial general (o "AGI") es un programa que puede aplicar la inteligencia a una amplia variedad de problemas, de la misma manera que los humanos.

Ben Goertzel y otros argumentaron a principios de la década de 2000 que la investigación de la inteligencia artificial había renunciado en gran medida al objetivo original del campo de crear inteligencia artificial general. La investigación de AGI se fundó como un subcampo separado y para 2010 hubo conferencias académicas, laboratorios y cursos universitarios dedicados a la investigación de AGI, así como consorcios privados y nuevas empresas.

La inteligencia artificial general también se conoce como "IA fuerte" [199] o "IA completa" [200] en contraposición a " IA débil " o "IA estrecha". (Las fuentes académicas se reservan la "IA fuerte" para referirse a máquinas capaces de experimentar la conciencia).

Ver también [ editar ]

  • Esquema de la inteligencia artificial
    • Progreso en inteligencia artificial
    • Cronología de la inteligencia artificial
    • Historia del procesamiento del lenguaje natural
  • Cronología del aprendizaje automático
  • Historia de la representación y el razonamiento del conocimiento

Notas [ editar ]

  1. ^ Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri, en mi mano: ¿Quién es la más bella del país? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Horizontes de negocios . 62 : 15-25. doi : 10.1016 / j.bushor.2018.08.004 .
  2. ^ El episodio de Talos en Argonautica 4
  3. ^ Bibliotheke 1.9.26
  4. ^ Rhodios, Apollonios. (2007). La Argonautika: Edición ampliada . Prensa de la Universidad de California. pag. 355. ISBN 978-0-520-93439-9. OCLC  811491744 .
  5. ^ Morford, Mark (2007). Mitología clásica . Oxford. pag. 184. ISBN 978-0-19-085164-4. OCLC  1102437035 .
  6. Pseudo-Apollodorus, Bibliotheke , iii.14.3
  7. ^ Kressel, Matthew (1 de octubre de 2015). "36 Días del Mito Judaico: Día 24, El Golem de Praga" . Matthew Kressel . Consultado el 15 de marzo de 2020 .
  8. ^ "GOLEM - JewishEncyclopedia.com" . www.jewishencyclopedia.com . Consultado el 15 de marzo de 2020 .
  9. ^ "Sanedrín 65b" . www.sefaria.org . Consultado el 15 de marzo de 2020 .
  10. ^ El lector de alquimia: de Hermes Trismegistus a Isaac Newton . Linden, Stanton J., 1935-. Nueva York: Cambridge University Press. 2003. págs. Cap. 18. ISBN 0-521-79234-7. OCLC  51210362 .CS1 maint: otros ( enlace )
  11. ^ O'Connor, Kathleen Malone (1 de enero de 1994). "La creación alquímica de la vida (takwin) y otros conceptos del Génesis en el Islam medieval" . Disertaciones disponibles de ProQuest : 1–435.
  12. Goethe, Johann Wolfgang von (1890). Fausto; una tragedia. Traducido, en los metros originales ... por Bayard Taylor. Ed. Autorizada, publicada por acuerdo especial con la Sra. Bayard Taylor. Con una introducción biográfica . Robarts - Universidad de Toronto. London Ward, Lock.
  13. Butler, EM (Eliza Marian) (1948). El mito del mago . Londres: Cambridge University Press. ISBN 0-521-22564-7. OCLC  5063114 .
  14. ^ Hollander, Lee M. (1964). Heimskringla; historia de los reyes de Noruega . Austin: Publicado para la American-Scandinavian Foundation por University of Texas Press. ISBN 0-292-73061-6. OCLC  638953 .
  15. ^ McCorduck , 2004 , págs. 17-25.
  16. ^ Mayordomo, 1863 .
  17. ^ Cueva, Stephen; Dihal, Kanta (2019). "Esperanzas y miedos por las máquinas inteligentes en la ficción y la realidad" . Inteligencia de la máquina de la naturaleza . 1 (2): 74–78. doi : 10.1038 / s42256-019-0020-9 . ISSN 2522-5839 . 
  18. ^ Needham 1986 , p. 53
  19. ^ McCorduck 2004 , p. 6
  20. ^ Nick 2005 .
  21. ^ McCorduck 2004 , p. 17 y ver también Levitt 2000
  22. ^ Citado en McCorduck 2004 , p. 8. Crevier 1993 , pág. 1 y McCorduck 2004 , págs. 6–9 analiza las estatuas sagradas.
  23. Otros importantes autómatas fueron construidos por Haroun al-Rashid ( McCorduck 2004 , p. 10), Jacques de Vaucanson ( McCorduck 2004 , p. 16) y Leonardo Torres y Quevedo ( McCorduck 2004 , pp. 59-62)
  24. ^ a b c d Berlinski 2000
  25. ^ Cfr. Carreras Artau, Tomás y Joaquín. Historia de la filosofía española. Filosofía cristiana de los siglos XIII al XV . Madrid, 1939, Tomo I
  26. ^ Bonner, Anthonny, El arte y la lógica de Ramón Llull: Guía del usuario , Brill, 2007.
  27. ^ Anthony Bonner (ed.), Doctor Illuminatus. A Ramon Llull Reader (Universidad de Princeton 1985). Vid. "La influencia de Llull: la historia del lulismo" en 57–71
  28. ^ Mecanismo del siglo XVII e IA:
    • McCorduck 2004 , págs. 37–46
    • Russell y Norvig 2003 , pág. 6
    • Haugeland 1986 , cap. 2
    • Buchanan 2005 , pág. 53
  29. ^ Hobbes y AI:
    • McCorduck 2004 , pág. 42
    • Hobbes 1651 , capítulo 5
  30. ^ Leibniz y AI:
    • McCorduck 2004 , pág. 41
    • Russell y Norvig 2003 , pág. 6
    • Berlinski 2000 , pág. 12
    • Buchanan 2005 , pág. 53
  31. ^ El cálculo Lambda fue especialmente importante para la IA, ya que fue una inspiración para Lisp (el lenguaje de programación más importante utilizado en IA). ( Crevier 1993 , págs.190 196,61)
  32. La foto original se puede ver en el artículo: Rose, Allen (abril de 1946). "Rayo golpea las matemáticas" . Ciencia popular : 83–86 . Consultado el 15 de abril de 2012 .
  33. ^ La máquina de Turing : McCorduck 2004 , págs. 63-64, Crevier 1993 , págs. 22-24, Russell y Norvig 2003 , p. 8y ver Turing 1936
  34. Menabrea 1843
  35. ^ McCorduck 2004 , págs. 61-62, 64-66, Russell y Norvig 2003 , págs. 14-15
  36. ^ McCorduck (2004 , págs. 76–80)
  37. ^ McCorduck 2004 , págs. 51-57, 80-107, Crevier 1993 , págs. 27-32, Russell y Norvig 2003 , págs. 15, 940, Moravec 1988 , p. 3, Cordeschi, 2002 y Cap. 5 .
  38. ^ McCorduck 2004 , p. 98, Crevier 1993 , págs. 27-28, Russell y Norvig 2003 , págs. 15, 940, Moravec 1988 , pág. 3, Cordeschi, 2002 y Cap. 5 .
  39. ^ McCulloch, Warren S .; Pitts, Walter (1 de diciembre de 1943). "Un cálculo lógico de las ideas inmanentes en la actividad nerviosa". Boletín de Biofísica Matemática . 5 (4): 115-133. doi : 10.1007 / BF02478259 . ISSN 1522-9602 . 
  40. ^ Piccinini, Gualtiero (1 de agosto de 2004). "La primera teoría computacional de la mente y el cerebro: una mirada cercana al" cálculo lógico de ideas inmanentes en la actividad nerviosa "de Mcculloch y Pitts " ". Síntesis . 141 (2): 175–215. doi : 10.1023 / B: SYNT.0000043018.52445.3e . ISSN 1573-0964 . S2CID 10442035 .  
  41. ^ McCorduck 2004 , págs. 51-57, 88-94, Crevier 1993 , p. 30, Russell y Norvig 2003 , pág. 15-16, Cordeschi, 2002 y Cap. 5 y véase también Pitts & McCullough 1943
  42. ^ McCorduck 2004 , p. 102, Crevier 1993 , págs. 34-35 y Russell y Norvig 2003 , pág. 17
  43. ^ McCorduck 2004 , págs. 70-72, Crevier 1993 , p. 22-25, Russell y Norvig 2003 , págs. 2-3 y 948, Haugeland 1985 , págs. 6-9, Cordeschi 2002 , págs. 170-176. Véase también Turing 1950.
  44. Norvig y Russell (2003 , p. 948)afirman que Turing respondió a todas las principales objeciones a la IA que se han ofrecido en los años transcurridos desde que apareció el artículo.
  45. ^ Consulte "Una breve historia de la informática" en AlanTuring.net.
  46. ^ Schaeffer, Jonathan. Un salto adelante :: Desafiando la supremacía humana en damas , 1997,2009, Springer, ISBN 978-0-387-76575-4 . Capítulo 6. 
  47. ^ McCorduck 2004 , págs. 137-170, Crevier , págs. 44-47
  48. ^ McCorduck 2004 , págs. 123-125, Crevier 1993 , págs. 44-46 y Russell y Norvig 2003 , p. 17
  49. ^ Citado en Crevier 1993 , p. 46 y Russell y Norvig 2003 , p. 17
  50. ^ Russell y Norvig 2003 , p. 947,952
  51. ^ McCorduck 2004 , págs. 111-136, Crevier 1993 , págs. 49-51 y Russell y Norvig 2003 , p. 17 Newquist 1994 , págs. 91–112
  52. ^ Ver McCarthy et al. 1955 . Ver también Crevier 1993 , p. 48 donde Crevier afirma que "[la propuesta] se conoció más tarde como la 'hipótesis de los sistemas de símbolos físicos'". Lahipótesis del sistema de símbolos físicos fue articulada y nombrada por Newell y Simon en su artículo sobre GPS . ( Newell & Simon 1963 ) Incluye una definición más específica de una "máquina" como un agente que manipula símbolos. Vea la filosofía de la inteligencia artificial .
  53. McCorduck (2004 , págs. 129-130) analiza cómo los ex alumnos de la conferencia de Dartmouth dominaron las dos primeras décadas de investigación de IA, llamándolos la "universidad invisible".
  54. ^ "No lo juro y no lo había visto antes", le dijo McCarthy a Pamela McCorduck en 1979. ( McCorduck 2004 , p. 114) Sin embargo, McCarthy también declaró inequívocamente "Se me ocurrió el término" en unaentrevista de CNET . ( Habilidades 2006 )
  55. Crevier (1993 , págs. 49) escribe que "la conferencia es generalmente reconocida como la fecha de nacimiento oficial de la nueva ciencia".
  56. ^ McCarthy, John (1988). "Revisión de la cuestión de la inteligencia artificial ". Anales de la Historia de la Computación . 10 (3): 224-229., recopilado en McCarthy, John (1996). "10. Revisión de la cuestión de la inteligencia artificial ". Defendiendo la investigación de la IA: una colección de ensayos y reseñas . CSLI., pag. 73 "Una de las razones para inventar el término" inteligencia artificial "fue escapar de la asociación con la" cibernética ". Su concentración en la retroalimentación analógica parecía equivocada, y deseaba evitar tener que aceptar a Norbert (no a Robert) Wiener como un gurú o tener que discutir con él ".
  57. ^ Russell y Norvig escriben "era asombroso cada vez que una computadora hacía algo remotamente inteligente". Russell y Norvig 2003 , pág. 18
  58. ^ Crevier 1993 , págs. 52-107, Moravec 1988 , pág. 9 y Russell y Norvig 2003 , p. 18-21
  59. ^ McCorduck 2004 , p. 218, Newquist 1994 , págs. 91-112, Crevier 1993 , págs. 108-109 y Russell & Norvig 2003 , pág. 21
  60. ^ Crevier 1993 , págs. 52-107, Moravec 1988 , pág. 9
  61. ^ Análisis de medios-fines, razonamiento como búsqueda: McCorduck 2004 , págs. 247–248. Russell y Norvig 2003 , págs. 59–61
  62. ^ Heurística: McCorduck 2004 , p. 246, Russell y Norvig 2003 , págs. 21-22
  63. ^ GPS: McCorduck 2004 , págs. 245-250, Crevier 1993 , p. GPS ?, Russell y Norvig 2003 , pág. ¿GPS?
  64. ^ Crevier 1993 , págs. 51–58,65–66 y Russell y Norvig 2003 , págs. 18–19
  65. ^ McCorduck 2004 , págs. 268-271, Crevier 1993 , págs. 95-96, Newquist 1994 , págs. 148-156, Moravec 1988 , págs. 14-15
  66. ^ McCorduck 2004 , p. 286, Crevier 1993 , págs. 76-79, Russell y Norvig 2003 , pág. 19
  67. ^ Crevier 1993 , págs. 79–83
  68. ^ Crevier 1993 , págs. 164-172
  69. ^ McCorduck 2004 , págs. 291-296, Crevier 1993 , págs. 134-139
  70. ^ McCorduck 2004 , págs. 299-305, Crevier 1993 , págs. 83-102, Russell y Norvig 2003 , p. 19y Copeland 2000
  71. ^ McCorduck 2004 , págs. 300-305, Crevier 1993 , págs. 84-102, Russell y Norvig 2003 , p. 19
  72. ^ Simon y Newell 1958 , p. 7-8 citado en Crevier 1993 , p. 108. Véase también Russell y Norvig 2003 , p. 21
  73. ^ Simon 1965 , p. 96 citado en Crevier 1993 , p. 109
  74. ^ Minsky 1967 , p. 2 citado en Crevier 1993 , p. 109
  75. Minsky cree firmemente que fue citado erróneamente. Véase McCorduck 2004 , págs. 272-274, Crevier 1993 , pág. 96 y Darrach 1970 .
  76. ^ Crevier 1993 , págs. 64-65
  77. ^ Crevier 1993 , p. 94
  78. ^ Howe 1994
  79. ^ McCorduck 2004 , p. 131, Crevier 1993 , pág. 51. McCorduck también señala que la financiación estuvo principalmente bajo la dirección de ex alumnos de la conferencia de Dartmouth de 1956.
  80. ^ Crevier 1993 , p. sesenta y cinco
  81. ^ Crevier 1993 , págs. 68-71 y Turkle 1984
  82. ^ "Historia humanoide -WABOT-" .
  83. ^ Robótica y Mecatrónica: Actas del IV Simposio Internacional IFToMM sobre Robótica y Mecatrónica , página 66
  84. ^ "Proyectos históricos de Android" . androidworld.com .
  85. ^ Robots: de la ciencia ficción a la revolución tecnológica , página 130
  86. ^ Manual de modelado humano digital: investigación para ergonomía aplicada e ingeniería de factores humanos , capítulo 3, páginas 1-2
  87. ^ Crevier 1993 , págs. 100-144 y Russell y Norvig 2003 , págs. 21-22
  88. ↑ a b McCorduck 2004 , págs. 104-107, Crevier 1993 , págs. 102-105, Russell y Norvig 2003 , p. 22
  89. ^ Crevier 1993 , págs. 163-196
  90. ^ Crevier 1993 , p. 146
  91. ^ Russell y Norvig 2003 , págs. 20-21
  92. ^ Crevier 1993 , págs. 146-148, véase también Buchanan 2005 , pág. 56: "Los primeros programas tenían necesariamente un alcance limitado por el tamaño y la velocidad de la memoria"
  93. ^ Moravec 1976 . McCarthy siempre ha estado en desacuerdo con Moravec, desde sus primeros días juntos en SAIL . Afirma: "Yo diría que hace 50 años, la capacidad de la máquina era demasiado pequeña, pero hace 30 años, la capacidad de la máquina no era el problema real". en unaentrevista de CNET . ( Habilidades 2006 )
  94. ^ Hans Moravec, ROBOT: Mera máquina para la mente trascendente
  95. ^ Russell y Norvig 2003 , págs. 9, 21-22y Lighthill 1973
  96. ^ McCorduck , 2004 , págs. 300 y 421; Crevier 1993 , págs. 113-114; Moravec 1988 , pág. 13; Lenat y Guha 1989 , (Introducción); Russell y Norvig 2003 , pág. 21
  97. ^ McCorduck 2004 , p. 456, Moravec 1988 , págs. 15-16
  98. ^ McCarthy y Hayes 1969 , Crevier 1993 , págs. 117-119
  99. ^ McCorduck 2004 , págs. 280-281, Crevier 1993 , p. 110, Russell y Norvig 2003 , pág. 21y NRC 1999 bajo "Success in Speech Recognition".
  100. ^ Crevier 1993 , p. 117, Russell y Norvig 2003 , pág. 22, Howe 1994 y véase también Lighthill 1973 .
  101. ^ Russell y Norvig 2003 , p. 22, Lighthill 1973 , John McCarthy escribió en respuesta que "el problema de la explosión combinatoria ha sido reconocido en la IA desde el principio" en el informe Review of Lighthill
  102. ^ Crevier 1993 , págs. 115-116 (en quien se basa este relato). Otras opiniones incluyen McCorduck 2004 , págs. 306–313 y NRC 1999 bajo "Success in Speech Recognition".
  103. ^ Crevier 1993 , p. 115. Moravec explica, "Sus promesas iniciales a DARPA habían sido demasiado optimistas. Por supuesto, lo que entregaron se detuvo considerablemente antes de eso. Pero sintieron que en su próxima propuesta no podían prometer menos que en la primera, por lo que prometió más ".
  104. ^ NRC 1999 en "Cambio a la investigación aplicada aumenta la inversión". Si bien el tanque autónomo fue un fracaso, el sistema de gestión de la batalla (llamado " DART ") demostró ser enormemente exitoso, ahorrando miles de millones en la primera Guerra del Golfo , devolviendo la inversión y justificando lapolítica pragmática de DARPA , al menos en lo que respecta a DARPA. estaba preocupado.
  105. ^ Crítica de la IA de Lucas y Penrose: Crevier 1993 , p. 22, Russell y Norvig 2003 , págs. 949–950, Hofstadter 1980 , págs. 471–477y ver Lucas 1961
  106. ^ "Know-how" es el término de Dreyfus. (Dreyfus hace una distinción entre "saber cómo" y "saber eso", una versión moderna dela distinción de Heidegger de listo a mano y presente a mano .) ( Dreyfus y Dreyfus 1986 )
  107. ^ Crítica de Dreyfus de la inteligencia artificial : McCorduck 2004 , págs. 211-239, Crevier 1993 , págs. 120-132, Russell & Norvig 2003 , págs. 950-952y ver Dreyfus 1965 , Dreyfus 1972 , Dreyfus & Dreyfus 1986
  108. ^ Crítica de Searle a la IA: McCorduck 2004 , págs. 443–445, Crevier 1993 , págs. 269–271, Russell y Norvig 2004 , págs. 958–960y véase Searle 1980
  109. ^ Citado en Crevier 1993 , p. 143
  110. ^ Citado en Crevier 1993 , p. 122
  111. ^ "Me convertí en el único miembro de la comunidad de IA en ser visto almorzando con Dreyfus. Y deliberadamente dejé en claro que la de ellos no era la forma de tratar a un ser humano". Joseph Weizenbaum , citado en Crevier 1993 , p. 123.
  112. ^ Colby, Watt y Gilbert , 1966 , p. 148. Weizenbaum se refirió a este texto en Weizenbaum 1976 , pp. 5, 6. Colby y sus colegas desarrollaron más tarde también chatterbot -como "simulaciones por ordenador de procesos paranoides ( PARRY )" a "hacer que los procesos paranoides inteligibles en términos de procesamiento de símbolos explícitos." ( Colby 1974 , pág.6)
  113. ^ Crítica de Weizenbaum de la IA: McCorduck 2004 , págs. 356-373, Crevier 1993 , págs. 132-144, Russell y Norvig 2003 , p. 961y véase Weizenbaum 1976
  114. ^ McCorduck 2004 , p. 51, Russell y Norvig 2003 , págs. 19, 23
  115. ^ McCorduck 2004 , p. 51, Crevier 1993 , págs. 190-192
  116. ^ Crevier 1993 , págs. 193-196
  117. ^ Crevier 1993 , págs. 145-149, 258-63
  118. Wason (1966) mostró que a las personas les va mal en problemas completamente abstractos, pero si el problema se replantea para permitir el uso de la inteligencia social intuitiva, el rendimiento mejora drásticamente. (Véase la tarea de selección de Wason ) Tversky, Slovic y Kahnemann (1982) han demostrado que las personas son terribles en los problemas elementales que implican un razonamiento incierto. (Consulte la lista de sesgos cognitivos para ver varios ejemplos). El trabajo de Eleanor Rosch se describe en Lakoff 1987
  119. ^ Un ejemplo temprano de la posiciónde McCathy fue en la revista Science donde dijo "Esto es IA, así que no nos importa si es psicológicamente real" ( Kolata 2012 ), y recientemente reiteró su posición en laconferencia AI @ 50 donde él dijo que "la inteligencia artificial no es, por definición, una simulación de la inteligencia humana" ( Maker 2006 ).
  120. ^ Crevier 1993 , págs. 175
  121. ^ Limpio frente a desaliñado: McCorduck 2004 , págs. 421–424 (que retoma el estado del debate en 1984). Crevier 1993 , págs. 168 (que documenta el uso original del término por parte de Schank). Otro aspecto del conflicto se denominó "la distinción procesal / declarativa", pero no resultó influyente en la investigación posterior de IA.
  122. ^ McCorduck 2004 , págs. 305-306, Crevier 1993 , págs. 170-173, 246 y Russell y Norvig 2003 , p. 24. Documento marco de Minsky : Minsky 1974 .
  123. ^ Newquist 1994 , págs. 189-192
  124. ^ McCorduck 2004 , págs. 327-335 ( Dendral ), Crevier 1993 , págs. 148-159, Newquist 1994 , p. 271, Russell y Norvig 2003 , págs. 22-23
  125. ^ Crevier 1993 , págs. 158-159 y Russell y Norvig 2003 , pág. 23-24
  126. ^ Crevier 1993 , p. 198
  127. ^ McCorduck 2004 , págs. 434-435, Crevier 1993 , págs. 161-162, 197-203 y Russell y Norvig 2003 , p. 24
  128. ^ McCorduck 2004 , p. 299
  129. ^ McCorduck 2004 , págs. 421
  130. ^ Revolución del conocimiento: McCorduck 2004 , págs. 266-276, 298-300, 314, 421, Newquist 1994 , págs. 255-267, Russell y Norvig , págs. 22-23
  131. ^ Cyc: McCorduck 2004 , p. 489, Crevier 1993 , págs. 239–243, Newquist 1994 , págs. 431–455, Russell y Norvig 2003 , pág. 363−365y Lenat y Guha 1989
  132. ^ "Ajedrez: Jaque mate" (PDF) . Consultado el 1 de septiembre de 2007 .
  133. ^ McCorduck 2004 , págs. 436–441, Newquist 1994 , págs. 231–240, Crevier 1993 , págs. 211, Russell y Norvig 2003 , p. 24y ver también Feigenbaum & McCorduck 1983
  134. ^ Crevier 1993 , págs. 195
  135. ^ Crevier 1993 , págs.240.
  136. ↑ a b c Russell y Norvig , 2003 , p. 25
  137. ^ McCorduck 2004 , págs. 426–432, NRC 1999 en "Cambio a la investigación aplicada aumenta la inversión"
  138. ^ Crevier 1993 , págs. 214-215.
  139. ^ Crevier 1993 , págs. 215-216.
  140. ^ Mead, Carver A .; Ismail, Mohammed (8 de mayo de 1989). Implementación VLSI analógica de sistemas neuronales (PDF) . Serie internacional de Kluwer en ingeniería y ciencias de la computación. 80 . Norwell, MA: Kluwer Academic Publishers . doi : 10.1007 / 978-1-4613-1639-8 . ISBN  978-1-4613-1639-8.
  141. ^ Crevier 1993 , págs. 203. AI winter se utilizó por primera vez como título de un seminario sobre el tema para la Association for the Advancement of Artificial Intelligence .
  142. ^ Newquist 1994 , págs. 359–379, McCorduck 2004 , pág. 435, Crevier 1993 , págs. 209–210
  143. ^ McCorduck 2004 , p. 435 (que cita las razones institucionales de su fracaso final), Newquist 1994 , págs. 258-283(que cita un despliegue limitado dentro de las corporaciones), Crevier 1993 , págs. 204-208 (que cita la dificultad del mantenimiento de la verdad, es decir, el aprendizaje y actualización), Lenat & Guha 1989 , Introducción (que enfatiza la fragilidad y la incapacidad para manejar una calificación excesiva).
  144. ^ McCorduck 2004 , págs. 430–431
  145. ↑ a b McCorduck , 2004 , p. 441, Crevier 1993 , pág. 212. McCorduck escribe "Dos décadas y media después, podemos ver que los japoneses no cumplieron con todos esos ambiciosos objetivos".
  146. ^ Newquist, HP (1994). Los creadores de cerebros: genio, ego y codicia en la búsqueda de máquinas que piensen . Nueva York: Macmillan / SAMS. ISBN 978-0-672-30412-5.
  147. ^ McCorduck 2004 , págs. 454–462
  148. Moravec (1988 , p. 20) escribe: "Estoy seguro de que esta ruta ascendente hacia la inteligencia artificial se encontrará en una fecha con la ruta descendente tradicional más de la mitad, lista para proporcionar la competencia del mundo real y el conocimiento del sentido común. eso ha sido tan frustrantemente esquivo en los programas de razonamiento. Se producirán máquinas completamente inteligentes cuando se impulse la metafórica punta dorada uniendo los dos esfuerzos ".
  149. ^ Crevier 1993 , págs. 183-190.
  150. ^ http://people.csail.mit.edu/brooks/papers/elephants.pdf
  151. ^ Brooks 1990 , p. 3
  152. ^ Ver, por ejemplo, Lakoff & Turner 1999
  153. McCorduck (2004 , p. 424) analiza la fragmentación y el abandono de los objetivos originales de la IA.
  154. ^ McCorduck 2004 , págs. 480–483
  155. ^ "Azul profundo" . IBM Research . Consultado el 10 de septiembre de 2010 .
  156. ^ Gran desafío de DARPA - página de inicio Archivado el 31 de octubre de 2007 en la Wayback Machine.
  157. ^ "Copia archivada" . Archivado desde el original el 5 de marzo de 2014 . Consultado el 25 de octubre de 2011 .CS1 maint: archived copy as title (link)
  158. ^ Markoff, John (16 de febrero de 2011). "En 'Jeopardy!' Watson Win es todo menos trivial " . The New York Times .
  159. ^ Kurzweil , 2005 , p. 274 escribe que la mejora en el ajedrez por computadora, "de acuerdo con la sabiduría común, se rige solo por la expansión de fuerza bruta del hardware de la computadora".
  160. ^ El tiempo de ciclo de Ferranti Mark 1 fue de 1,2 milisegundos, lo que posiblemente equivale a unos 833  flops . Deep Blue funcionó a 11,38  gigaflops (y esto ni siquiera tiene en cuenta el hardware de propósito especial de Deep Blue para el ajedrez). Muy aproximadamente, estos difieren en un factor de 10 ^ 7.
  161. ^ McCorduck 2004 , págs. 471–478, Russell y Norvig 2003 , pág. 55, donde escriben: "La visión del agente completo ahora es ampliamente aceptada en el campo". Elparadigma del agente inteligente se analiza en los principales libros de texto de IA, como: Russell y Norvig 2003 , págs. 32–58, 968–972, Poole, Mackworth y Goebel 1998 , págs. 7–21, Luger y Stubblefield 2004 , págs. 235 –240
  162. El modelo Actor de Carl Hewitt anticipó la definición moderna de agentes inteligentes. ( Hewitt, Bishop & Steiger 1973 ) Tanto John Doyle ( Doyle 1983 ) comoel popular clásico de Marvin Minsky The Society of Mind ( Minsky 1986 ) usaron la palabra "agente". Otras propuestas "modulares" incluyeron la arquitectura de subsunción de Rodney Brook , la programación orientada a objetos y otras.
  163. ↑ a b Russell y Norvig , 2003 , págs. 27, 55
  164. ^ Así es como los libros de texto más aceptados del siglo XXI definen la inteligencia artificial. Véase Russell y Norvig 2003 , pág. 32y Poole, Mackworth y Goebel 1998 , pág. 1
  165. ^ McCorduck 2004 , p. 478
  166. ^ McCorduck 2004 , págs. 486–487, Russell y Norvig 2003 , págs. 25–26
  167. ↑ a b Russell y Norvig , 2003 , p. 25-26
  168. ^ McCorduck (2004 , p. 487): "Mientras escribo, AI disfruta de una hegemonía ordenada".
  169. ^ Perla 1988
  170. ^ Ver Aplicaciones de la inteligencia artificial § Ciencias de la computación
  171. ^ NRC 1999 en "Inteligencia artificial en los años 90" y Kurzweil 2005 , p. 264
  172. ^ Russell y Norvig 2003 , p. 28
  173. ^ Para conocer el nuevo estado del arte en reconocimiento de voz basado en inteligencia artificial, consulte The Economist (2007)
  174. ^ a b "Los sistemas inspirados en la inteligencia artificial ya eran parte integral de muchas tecnologías cotidianas, como los motores de búsqueda en Internet, el software bancario para procesar transacciones y el diagnóstico médico". Nick Bostrom , citado en CNN 2006
  175. ^ Olsen (2004) , Olsen (2006)
  176. ^ McCorduck 2004 , p. 423, Kurzweil 2005 , pág. 265, Hofstadter 1979 , pág. 601
  177. ^ CNN 2006
  178. ^ Markoff 2005
  179. ^ El economista 2007
  180. ^ Tascarella 2006
  181. ^ Crevier 1993 , págs. 108-109
  182. ^ Continúa diciendo: "La respuesta es, creo que podríamos haber ... Una vez fui a una conferencia internacional sobre redes neuronales. Había 40 mil inscritos ... pero ... si tuvieras un conferencia internacional, por ejemplo, sobre el uso de múltiples representaciones para el razonamiento de sentido común, solo he podido encontrar 6 o 7 personas en todo el mundo ". Minsky 2001
  183. ^ Creador 2006
  184. ^ Kurzweil, 2005
  185. ^ Hawkins y Blakeslee 2004
  186. ^ Steve Lohr (17 de octubre de 2016), "IBM cuenta con su apuesta por Watson y está pagando mucho dinero por ello" , New York Times
  187. ^ Hampton, Stephanie E; Strasser, Carly A; Tewksbury, Joshua J; Gram, Wendy K; Budden, ámbar E; Batcheller, Archer L; Duke, Clifford S; Porter, John H (1 de abril de 2013). "Big data y el futuro de la ecología" . Fronteras en Ecología y Medio Ambiente . 11 (3): 156-162. doi : 10.1890 / 120103 . ISSN 1540-9309 . 
  188. ^ "Cómo Big Data está cambiando las economías | Instituto Becker Friedman" . bfi.uchicago.edu . Consultado el 9 de junio de 2017 .
  189. ^ a b LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015). "Aprendizaje profundo". Naturaleza . 521 (7553): 436–444. Código Bibliográfico : 2015Natur.521..436L . doi : 10.1038 / nature14539 . PMID 26017442 . S2CID 3074096 .  
  190. ^ Baral, Chitta; Fuentes, Olac; Kreinovich, Vladik (junio de 2015). "Por qué las redes neuronales profundas: una posible explicación teórica" . Informes Técnicos Departamentales (Cs) . Consultado el 9 de junio de 2017 .
  191. ^ Ciregan, D .; Meier, U .; Schmidhuber, J. (junio de 2012). Redes neuronales profundas de varias columnas para clasificación de imágenes . 2012 Conferencia IEEE sobre visión artificial y reconocimiento de patrones . págs. 3642–3649. arXiv : 1202.2745 . Código bibliográfico : 2012arXiv1202.2745C . CiteSeerX 10.1.1.300.3283 . doi : 10.1109 / cvpr.2012.6248110 . ISBN  978-1-4673-1228-8. S2CID  2161592 .
  192. ^ Markoff, John (16 de febrero de 2011). "En 'Jeopardy!' Watson Win es todo menos trivial " . The New York Times . ISSN 0362-4331 . Consultado el 10 de junio de 2017 . 
  193. ^ "AlphaGo: Dominar el antiguo juego de Go con aprendizaje automático" . Blog de investigación . Consultado el 10 de junio de 2017 .
  194. ^ "Innovaciones de AlphaGo | DeepMind" . DeepMind . Consultado el 10 de junio de 2017 .
  195. ^ Universidad, Carnegie Mellon. "Computadora supera a los humanos en" Doom "-CMU News - Universidad Carnegie Mellon" . www.cmu.edu . Consultado el 10 de junio de 2017 .
  196. ^ Laney, Doug (2001). "Gestión de datos 3D: control de volumen, velocidad y variedad de datos". Nota de investigación del Grupo META . 6 (70).
  197. ^ Marr, Bernard (6 de marzo de 2014). "Big Data: Los 5 Vs que todo el mundo debe saber" .
  198. ^ Va, Paulo B. (2014). "Investigación científica del diseño en las principales revistas de sistemas de información". MIS Quarterly: Sistemas de información gerencial . 38 (1).
  199. ( Kurzweil 2005 , p. 260) o vea Inteligencia humana avanzada donde define IA fuerte como "inteligencia de máquina con el rango completo de inteligencia humana".
  200. ^ La era de la inteligencia artificial: George John en TEDxLondonBusinessSchool 2013

Referencias [ editar ]

  • Berlinski, David (2000), El advenimiento del algoritmo , Harcourt Books, ISBN 978-0-15-601391-8, OCLC  46890682.
  • Buchanan, Bruce G. (invierno de 2005), "A (Very) Brief History of Artificial Intelligence" (PDF) , AI Magazine , págs. 53–60, archivado del original (PDF) el 26 de septiembre de 2007 , consultado el 30 de agosto de 2007.
  • Brooks, Rodney (1990), "Los elefantes no juegan al ajedrez" (PDF) , Robótica y sistemas autónomos , 6 (1–2): 3–15, CiteSeerX  10.1.1.588.7539 , doi : 10.1016 / S0921-8890 ( 05) 80025-9 , consultado el 30 de agosto de 2007.
  • Butler, Samuel (13 de junio de 1863), "Darwin Among the Machines" , The Press , Christchurch, Nueva Zelanda , consultado el 10 de octubre de 2008.
  • Colby, Kenneth M .; Watt, James B .; Gilbert, John P. (1966), "Un método informático de psicoterapia: comunicación preliminar" , The Journal of Nervous and Mental Disease , vol. 142 no. 2, págs. 148-152, doi : 10.1097 / 00005053-196602000-00005 , PMID  5936301 , S2CID  36947398.
  • Colby, Kenneth M. (septiembre de 1974), Diez críticas a Parry (PDF) , Laboratorio de Inteligencia Artificial de Stanford, INFORME NO. STAN-CS-74-457 , consultado el 17 de junio de 2018.
  • CNN (26 de julio de 2006), AI se prepara para superar el poder del cerebro humano , CNN.com , consultado el 16 de octubre de 2007.
  • Copeland, Jack (2000), Micro-World AI , consultado el 8 de octubre de 2008.
  • Cordeschi, Roberto (2002), El descubrimiento de lo artificial , Dordrecht: Kluwer..
  • Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence , Nueva York, NY: BasicBooks, ISBN 0-465-02997-3 
  • Darrach, Brad (20 de noviembre de 1970), "Meet Shaky, the First Electronic Person", Life Magazine , págs. 58–68.
  • Doyle, J. (1983), "¿Qué es la psicología racional? Hacia una filosofía mental moderna", Revista AI , vol. 4 no. 3, págs. 50–53.
  • Dreyfus, Hubert (1965), Alchemy and AI , Nota de la Corporación RAND.
  • Dreyfus, Hubert (1972), What Computers Can't Do , Nueva York: MIT Press, ISBN 978-0-06-090613-9, OCLC  5056816.
  • The Economist (7 de junio de 2007), "¿Me estás hablando?" , The Economist , consultado el 16 de octubre de 2008.
  • Feigenbaum, Edward A .; McCorduck, Pamela (1983), La quinta generación: la inteligencia artificial y el desafío informático de Japón al mundo , Michael Joseph, ISBN 978-0-7181-2401-4.
  • Hawkins, Jeff ; Blakeslee, Sandra (2004), On Intelligence , Nueva York, NY: Owl Books, ISBN 978-0-8050-7853-4, OCLC  61273290.
  • Hebb, DO (1949), La organización del comportamiento , Nueva York: Wiley, ISBN 978-0-8058-4300-2, OCLC  48871099.
  • Hewitt, Carl ; Obispo, Peter; Steiger, Richard (1973), A Universal Modular Actor Formalism for Artificial Intelligence (PDF) , IJCAI, archivado desde el original (PDF) el 29 de diciembre de 2009
  • Hobbes, Thomas (1651), Leviatán.
  • Hofstadter, Douglas (1999) [1979], Gödel, Escher, Bach: an Eternal Golden Braid , Basic Books, ISBN 978-0-465-02656-2, OCLC  225590743.
  • Howe, J. (noviembre de 1994), Inteligencia artificial en la Universidad de Edimburgo: una perspectiva , consultado el 30 de agosto de 2007.
  • Kaplan, Andreas; Haenlein, Michael (2018), "Siri, Siri en mi mano, ¿quién es el más justo en la tierra? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial", Business Horizons , 62 : 15-25, doi : 10.1016 / j.bushor .2018.08.004.
  • Kolata, G. (1982), "¿Cómo pueden las computadoras tener sentido común?", Science , 217 (4566): 1237-1238, Bibcode : 1982Sci ... 217.1237K , doi : 10.1126 / science.217.4566.1237 , PMID  17837639.
  • Kurzweil, Ray (2005), The Singularity is Near , Viking Press, ISBN 978-0-14-303788-0, OCLC  71826177.
  • Lakoff, George (1987), Mujeres, fuego y cosas peligrosas: qué categorías revelan sobre la mente , University of Chicago Press., ISBN 978-0-226-46804-4.
  • Lenat, Douglas ; Guha, RV (1989), Construcción de grandes sistemas basados ​​en el conocimiento , Addison-Wesley, ISBN 978-0-201-51752-1, OCLC  19981533.
  • Levitt, Gerald M. (2000), El turco, Autómata del ajedrez , Jefferson, NC: McFarland, ISBN 978-0-7864-0778-1.
  • Lighthill, profesor Sir James (1973), " Inteligencia artificial: un estudio general ", Inteligencia artificial: un simposio en papel , Consejo de Investigación Científica
  • Lucas, John (1961), "Minds, Machines and Gödel" , Philosophy , 36 (XXXVI): 112–127, doi : 10.1017 / S0031819100057983 , consultado el 15 de octubre de 2008
  • Maker, Meg Houston (2006), AI @ 50: AI Past, Present, Future , Dartmouth College, archivado desde el original el 8 de octubre de 2008 , consultado el 16 de octubre de 2008
  • Markoff, John (14 de octubre de 2005), "Behind Artificial Intelligence, a Squadron of Bright Real People" , The New York Times , consultado el 16 de octubre de 2008
  • McCarthy, John ; Minsky, Marvin; Rochester, Nathan ; Shannon, Claude (31 de agosto de 1955), A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence , archivado desde el original el 30 de septiembre de 2008 , consultado el 16 de octubre de 2008
  • McCarthy, John; Hayes, PJ (1969), "Algunos problemas filosóficos desde el punto de vista de la inteligencia artificial", en Meltzer, BJ ; Mitchie, Donald (eds.), Machine Intelligence 4 , Edinburgh University Press, págs. 463–502 , consultado el 16 de octubre de 2008
  • McCorduck, Pamela (2004), Máquinas que piensan (2a ed.), Natick, MA: AK Peters, Ltd., ISBN 978-1-56881-205-2, OCLC  52197627.
  • McCullough, WS ; Pitts, W. (1943), "Un cálculo lógico de las ideas inmanentes en la actividad nerviosa", Bulletin of Mathematical Biphysics , 5 (4): 115-127, doi : 10.1007 / BF02478259
  • Menabrea, Luigi Federico ; Lovelace, Ada (1843), "Sketch of the Analytical Engine Invented by Charles Babbage" , Scientific Memoirs , 3 , consultado el 29 de agosto de 2008 Con notas sobre la memoria del traductor
  • Minsky, Marvin (1967), Computación: máquinas finitas e infinitas , Englewood Cliffs, Nueva Jersey: Prentice-Hall
  • Minsky, Marvin ; Papert, Seymour (1969), Perceptrons: Una introducción a la geometría computacional , The MIT Press, ISBN 978-0-262-63111-2, OCLC  16924756
  • Minsky, Marvin (1974), A Framework for Representing Knowledge , consultado el 16 de octubre de 2008
  • Minsky, Marvin (1986), La sociedad de la mente , Simon y Schuster, ISBN 978-0-671-65713-0, OCLC  223353010
  • Minsky, Marvin (2001), es 2001. ¿Dónde está HAL? , Del Dr. Dobb Technetcast , recuperada 8 de agosto de 2009
  • Moravec, Hans (1976), The Role of Raw Power in Intelligence , archivado desde el original el 3 de marzo de 2016 , consultado el 16 de octubre de 2008
  • Moravec, Hans (1988), Mind Children , Harvard University Press, ISBN 978-0-674-57618-6, OCLC  245755104
  • NRC (1999), "Desarrollos en inteligencia artificial" , Financiamiento de una revolución: apoyo gubernamental para la investigación en computación , National Academy Press, ISBN 978-0-309-06278-7, OCLC  246584055
  • Newell, Allen ; Simon, HA (1963), "GPS: un programa que simula el pensamiento humano", en Feigenbaum, EA; Feldman, J. (eds.), Computers and Thought , Nueva York: McGraw-Hill, ISBN 978-0-262-56092-4, OCLC  246968117
  • Newquist, HP (1994), The Brain Makers: Genius, Ego, And Greed in the Quest for Machines That Think , Nueva York: Macmillan / SAMS, ISBN 978-0-9885937-1-8
  • Nick, Martin (2005), Al Jazari: The Ingenious 13th Century Muslim Mechanic , Al Shindagah , consultado el 16 de octubre de 2008. *
  • O'Connor, Kathleen Malone (1994), La creación alquímica de la vida (takwin) y otros conceptos de Génesis en el Islam medieval , Universidad de Pensilvania, págs. 1-435 , consultado el 10 de enero de 2007
  • Olsen, Stefanie (10 de mayo de 2004), Newsmaker: El hombre de Google detrás de la cortina , CNET , consultado el 17 de octubre de 2008.
  • Olsen, Stefanie (18 de agosto de 2006), Spying a intelligent search engine , CNET , consultado el 17 de octubre de 2008.
  • Pearl, J. (1988), Razonamiento probabilístico en sistemas inteligentes: redes de inferencia plausible , San Mateo, California: Morgan Kaufmann, ISBN 978-1-55860-479-7, OCLC  249625842.
  • Russell, Stuart J .; Norvig, Peter (2003), Inteligencia artificial: un enfoque moderno (2a ed.), Upper Saddle River, Nueva Jersey: Prentice Hall, ISBN 0-13-790395-2.
  • Poole, David; Mackworth, Alan; Goebel, Randy (1998), Computational Intelligence: A Logical Approach , Oxford University Press., ISBN 978-0-19-510270-3.
  • Samuel, Arthur L. (julio de 1959), "Algunos estudios sobre aprendizaje automático utilizando el juego de damas" , IBM Journal of Research and Development , 3 (3): 210–219, CiteSeerX  10.1.1.368.2254 , doi : 10.1147 / rd.33.0210 , consultado el 20 de agosto de 2007.
  • Searle, John (1980), "Minds, Brains and Programs" , Behavioral and Brain Sciences , 3 (3): 417–457, doi : 10.1017 / S0140525X00005756 , consultado el 13 de mayo de 2009 CS1 maint: discouraged parameter (link).
  • Simon, HA ; Newell, Allen (1958), "Resolución heurística de problemas: el próximo avance en la investigación de operaciones", Investigación de operaciones , 6 : 1–10, doi : 10.1287 / opre.6.1.1.
  • Simon, HA (1965), The Shape of Automation for Men and Management , Nueva York: Harper & Row.
  • Skillings, Jonathan (2006), Newsmaker: Getting machines to think like us , CNET , consultado el 8 de octubre de 2008.
  • Tascarella, Patty (14 de agosto de 2006), "Las empresas de robótica encuentran problemas de recaudación de fondos, con el capital de riesgo tímido" , Pittsburgh Business Times , consultado el 15 de marzo de 2016.
  • Turing, Alan (1936-1937), "On Computable Numbers, with an Application to the Entscheidungsproblem" , Proceedings of the London Mathematical Society , 2, s2-42 (42): 230-265, doi : 10.1112 / plms / s2- 42.1.230 , consultado el 8 de octubre de 2008.
  • Turing, Alan (octubre de 1950), "Computing Machinery and Intelligence", Mind , LIX (236): 433–460, doi : 10.1093 / mind / LIX.236.433 , ISSN  0026-4423.
  • Weizenbaum, Joseph (1976), Poder informático y razón humana , WH Freeman & Company, ISBN 978-0-14-022535-8, OCLC  10952283.