La inteligencia artificial ( IA ) es inteligencia demostrada por máquinas , a diferencia de la inteligencia natural mostrada por humanos y animales , que involucra conciencia y emocionalidad. La distinción entre la primera y la última categoría a menudo se revela por el acrónimo elegido. La IA 'fuerte' generalmente se etiqueta como inteligencia artificial general (AGI), mientras que los intentos de emular la inteligencia 'natural' se han llamado inteligencia biológica artificial (ABI). Los principales libros de texto de IA definen el campo como el estudio de " agentes inteligentes": cualquier dispositivo que perciba su entorno y realice acciones que maximicen sus posibilidades de lograr sus objetivos. [3] Coloquialmente, el término" inteligencia artificial "se usa a menudo para describir máquinas que imitan las funciones" cognitivas "que los humanos asocian con la mente humana. , como "aprender" y "resolver problemas". [4]
A medida que las máquinas se vuelven cada vez más capaces, las tareas que se considera que requieren "inteligencia" a menudo se eliminan de la definición de IA, un fenómeno conocido como efecto de IA . [5] Una broma en el teorema de Tesler dice que "IA es lo que aún no se ha hecho". [6] Por ejemplo, el reconocimiento óptico de caracteres se excluye con frecuencia de las cosas que se consideran IA, [7] que se ha convertido en una tecnología de rutina. [8] Las capacidades de las máquinas modernas generalmente clasificadas como IA incluyen comprender con éxito el habla humana , [9] competir al más alto nivel en sistemas de juego estratégicos (como el ajedrez y el Go ), [10] y también juegos de información imperfecta como el póquer , [11 ] automóviles autónomos , enrutamiento inteligente en redes de entrega de contenido y simulaciones militares . [12]
La inteligencia artificial se fundó como una disciplina académica en 1955, y en los años transcurridos desde entonces ha experimentado varias oleadas de optimismo, [13] [14] seguidas por la decepción y la pérdida de fondos (conocida como " invierno de la IA "), [15] [16] seguido de nuevos enfoques, éxito y financiación renovada. [14] [17] Después de que AlphaGo derrotara a un jugador profesional de Go en 2015, la inteligencia artificial una vez más atrajo la atención mundial. [18] Durante la mayor parte de su historia, la investigación de la IA se ha dividido en subcampos que a menudo no se comunican entre sí. [19] Estos subcampos se basan en consideraciones técnicas, como objetivos particulares (p. Ej., " Robótica " o " aprendizaje automático "), [20] el uso de herramientas particulares (" lógica " o redes neuronales artificiales ) o filosóficas profundas diferencias. [23] [24] [25] Los subcampos también se han basado en factores sociales (instituciones particulares o el trabajo de investigadores particulares). [19]
Los problemas (u objetivos) tradicionales de la investigación de la IA incluyen el razonamiento , la representación del conocimiento , la planificación , el aprendizaje , el procesamiento del lenguaje natural , la percepción y la capacidad de mover y manipular objetos. [20] AGI se encuentra entre los objetivos a largo plazo del campo. [26] Los enfoques incluyen métodos estadísticos , inteligencia computacional e IA simbólica tradicional . En la IA se utilizan muchas herramientas, incluidas versiones de búsqueda y optimización matemática, redes neuronales artificiales y métodos basados en estadísticas, probabilidad y economía. El campo de la IA se basa en la informática , la ingeniería de la información , las matemáticas , la psicología , la lingüística , la filosofía y muchos otros campos.
El campo se fundó en el supuesto de que la inteligencia humana "se puede describir con tanta precisión que se puede hacer una máquina para simularla". [27] Esto plantea argumentos filosóficos sobre la mente y la ética de la creación de seres artificiales dotados de inteligencia similar a la humana. Estos temas han sido explorados por el mito , la ficción y la filosofía desde la antigüedad . [32] Algunas personas también consideran que la IA es un peligro para la humanidad si progresa sin cesar. [33] [34] Otros creen que la IA, a diferencia de las revoluciones tecnológicas anteriores, creará un riesgo de desempleo masivo . [35]
En el siglo XXI, las técnicas de inteligencia artificial han experimentado un resurgimiento tras los avances simultáneos en el poder de las computadoras , grandes cantidades de datos y comprensión teórica; y las técnicas de IA se han convertido en una parte esencial de la industria de la tecnología , ayudando a resolver muchos problemas desafiantes en ciencias de la computación, ingeniería de software e investigación de operaciones . [36] [17]
Historia
De pensamiento capaz seres artificiales apareció como dispositivos de contar historias en la antigüedad, [37] y han sido comunes en la ficción, como en Mary Shelley 's Frankenstein o Karel Capek ' s RUR [38] Estos personajes y sus destinos planteó muchos de los mismos problemas ahora discutido en la ética de la inteligencia artificial . [32]
El estudio del razonamiento mecánico o "formal" comenzó con filósofos y matemáticos en la antigüedad. El estudio de la lógica matemática condujo directamente a la teoría de la computación de Alan Turing , que sugería que una máquina, al mezclar símbolos tan simples como "0" y "1", podía simular cualquier acto concebible de deducción matemática. Esta idea de que las computadoras digitales pueden simular cualquier proceso de razonamiento formal se conoce como la tesis de Church-Turing . [39] Junto con los descubrimientos simultáneos en neurobiología , teoría de la información y cibernética , esto llevó a los investigadores a considerar la posibilidad de construir un cerebro electrónico. Turing propuso cambiar la pregunta de si una máquina era inteligente a "si es posible o no que la maquinaria muestre un comportamiento inteligente". [40] El primer trabajo que ahora se reconoce generalmente como IA fue el diseño formal de McCullouch y Pitts de 1943 para las "neuronas artificiales" completas de Turing . [41]
El campo de la investigación de la IA nació en un taller en el Dartmouth College en 1956, [42] donde el término "Inteligencia Artificial" fue acuñado por John McCarthy para distinguir el campo de la cibernética y escapar de la influencia del cibernético Norbert Wiener . [43] Los asistentes Allen Newell ( CMU ), Herbert Simon (CMU), John McCarthy ( MIT ), Marvin Minsky (MIT) y Arthur Samuel ( IBM ) se convirtieron en los fundadores y líderes de la investigación de IA. [44] Ellos y sus estudiantes produjeron programas que la prensa describió como "asombrosos": [45] las computadoras estaban aprendiendo estrategias de damas (c. 1954) [46] (y en 1959, según se informa, estaban jugando mejor que el humano promedio), [47 ] resolver problemas verbales en álgebra, demostrar teoremas lógicos ( Teórico de la lógica , primera ejecución c. 1956) y hablar inglés. [48] A mediados de la década de 1960, la investigación en los Estados Unidos estaba fuertemente financiada por el Departamento de Defensa [49] y se habían establecido laboratorios en todo el mundo. [50] Los fundadores de AI eran optimistas sobre el futuro: Herbert Simon predijo que "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer". Marvin Minsky estuvo de acuerdo, escribiendo, "dentro de una generación ... el problema de crear 'inteligencia artificial' se resolverá sustancialmente". [13]
No reconocieron la dificultad de algunas de las tareas restantes. El progreso se desaceleró y en 1974, en respuesta a las críticas de Sir James Lighthill [51] y la presión constante del Congreso de Estados Unidos para financiar proyectos más productivos, tanto los gobiernos de Estados Unidos como el británico interrumpieron la investigación exploratoria en IA. Los próximos años se llamarían más tarde un " invierno de IA ", [15] un período en el que era difícil obtener financiación para proyectos de IA.
A principios de la década de 1980, la investigación de la IA fue revivida por el éxito comercial de los sistemas expertos , [52] una forma de programa de IA que simulaba el conocimiento y las habilidades analíticas de los expertos humanos. En 1985, el mercado de la IA había superado los mil millones de dólares. Al mismo tiempo, el proyecto informático de quinta generación de Japón inspiró a los gobiernos de Estados Unidos y Gran Bretaña a restaurar la financiación para la investigación académica . [14] Sin embargo, a partir del colapso del mercado de Lisp Machine en 1987, la IA volvió a caer en descrédito y comenzó una segunda pausa más duradera. [dieciséis]
El desarrollo de la integración a muy gran escala (VLSI) de óxido de metal y semiconductor (MOS) , en forma de tecnología de transistores complementarios MOS (CMOS) , permitió el desarrollo de la tecnología práctica de redes neuronales artificiales (ANN) en la década de 1980. Una publicación histórica en el campo fue el libro de 1989 Analog VLSI Implementation of Neural Systems por Carver A. Mead y Mohammed Ismail. [53]
A fines de la década de 1990 y principios del siglo XXI, la IA comenzó a usarse para logística, minería de datos , diagnóstico médico y otras áreas. [36] El éxito se debió al aumento de la potencia computacional (ver la ley de Moore y el recuento de transistores ), un mayor énfasis en la resolución de problemas específicos, nuevos vínculos entre la IA y otros campos (como la estadística , la economía y las matemáticas ) y el compromiso de los investigadores con métodos matemáticos y estándares científicos. [54] Deep Blue se convirtió en el primer sistema informático de juego de ajedrez en vencer al actual campeón mundial de ajedrez, Garry Kasparov , el 11 de mayo de 1997. [55]
En 2011, ¡en peligro! la demostración del concurso partido de exhibición, IBM 's sistema de contestador pregunta , Watson , venció a los dos más grandes de Jeopardy! campeones, Brad Rutter y Ken Jennings , por un margen significativo. [56] Las computadoras más rápidas , las mejoras algorítmicas y el acceso a grandes cantidades de datos permitieron avances en el aprendizaje y la percepción de las máquinas ; Los métodos de aprendizaje profundo hambrientos de datos comenzaron a dominar los puntos de referencia de precisión alrededor de 2012 . [57] El Kinect , que proporciona una interfaz de movimiento corporal en 3D para Xbox 360 y Xbox One , utiliza algoritmos que surgieron de una extensa investigación de IA [58] al igual que los asistentes personales inteligentes en los teléfonos inteligentes . [59] En marzo de 2016, AlphaGo ganó 4 de 5 juegos de Go en un partido con el campeón de Go, Lee Sedol , convirtiéndose en el primer sistema informático de juego de Go en vencer a un jugador profesional de Go sin desventajas . [10] [60] En la Cumbre Future of Go 2017 , AlphaGo ganó un partido de tres juegos con Ke Jie , [61] quien en ese momento mantuvo continuamente el ranking mundial No. 1 durante dos años. [62] [63] Deep Blue 's Murray Campbell llama la victoria de AlphaGo 'el fin de una era ... juegos de mesa son más o menos hecho [64] y es hora de seguir adelante.' [65] Esto marcó la finalización de un hito significativo en el desarrollo de la Inteligencia Artificial, ya que Go es un juego relativamente complejo, más que el Ajedrez. AlphaGo fue posteriormente mejorado, generalizado a otros juegos como el ajedrez, con AlphaZero ; [66] y MuZero [67] para jugar a muchos videojuegos diferentes , que anteriormente se manejaban por separado, [68] además de los juegos de mesa. Otros programas manejan juegos de información imperfecta ; como para el póquer a un nivel sobrehumano, Pluribus (bot de póquer) [69] y Cepheus (bot de póquer) . [11] Ver: Juego general .
Según Jack Clark de Bloomberg , 2015 fue un año histórico para la inteligencia artificial, ya que la cantidad de proyectos de software que utilizan IA dentro de Google aumentó de un "uso esporádico" en 2012 a más de 2.700 proyectos. Clark también presenta datos fácticos que indican las mejoras de la IA desde 2012 respaldadas por tasas de error más bajas en las tareas de procesamiento de imágenes. [70] Atribuye esto a un aumento en las redes neuronales asequibles , debido a un aumento en la infraestructura de computación en la nube y a un aumento en las herramientas de investigación y conjuntos de datos. [17] Otros ejemplos citados incluyen el desarrollo de Microsoft de un sistema de Skype que puede traducir automáticamente de un idioma a otro y el sistema de Facebook que puede describir imágenes a personas ciegas. [70] En una encuesta de 2017, una de cada cinco empresas informó que había "incorporado IA en algunas ofertas o procesos". [71] [72] Alrededor de 2016, China aceleró enormemente su financiación gubernamental; Dado su gran suministro de datos y su producción de investigación en rápido aumento, algunos observadores creen que puede estar en camino de convertirse en una "superpotencia de inteligencia artificial". [73] [74]
Para 2020, los sistemas de procesamiento del lenguaje natural como el enorme GPT-3 (entonces, con mucho, la red neuronal artificial más grande) estaban igualando el rendimiento humano en los puntos de referencia preexistentes, aunque sin que el sistema lograra una comprensión de sentido común del contenido de los puntos de referencia. [75] AlphaFold 2 (2020) de DeepMind demostró la capacidad de determinar, en horas en lugar de meses, la estructura 3D de una proteína. El reconocimiento facial avanzó hasta donde, en algunas circunstancias, algunos sistemas afirman tener una tasa de precisión del 99%. [76]
Lo esencial
La ciencia de la computación define la investigación de la IA como el estudio de " agentes inteligentes ": cualquier dispositivo que perciba su entorno y tome acciones que maximicen sus posibilidades de lograr con éxito sus objetivos. [3] Una definición más elaborada caracteriza a la IA como "la capacidad de un sistema para interpretar correctamente datos externos, aprender de dichos datos y utilizar esos aprendizajes para lograr metas y tareas específicas a través de una adaptación flexible". [77]
Una IA típica analiza su entorno y toma acciones que maximizan sus posibilidades de éxito. [3] La función de utilidad prevista de una IA (u objetivo) puede ser simple ("1 si la IA gana un juego de Go , 0 en caso contrario") o compleja ("Realizar acciones matemáticamente similares a las que tuvieron éxito en el pasado"). Los objetivos pueden definirse o inducirse explícitamente. Si la IA está programada para el " aprendizaje por refuerzo ", los objetivos pueden inducirse implícitamente recompensando algunos tipos de comportamiento o castigando a otros. [a] Alternativamente, un sistema evolutivo puede inducir objetivos mediante el uso de una " función de aptitud " para mutar y replicar preferentemente sistemas de IA de alta puntuación, similar a cómo los animales evolucionaron para desear de forma innata ciertos objetivos, como encontrar comida. [78] Algunos sistemas de inteligencia artificial, como el vecino más cercano, en lugar de razonar por analogía, a estos sistemas generalmente no se les asignan metas, excepto en la medida en que las metas están implícitas en sus datos de entrenamiento. [79] Dichos sistemas aún pueden ser comparados si el sistema sin metas se enmarca como un sistema cuyo "objetivo" es lograr su limitada tarea de clasificación. [80]
La IA a menudo gira en torno al uso de algoritmos . Un algoritmo es un conjunto de instrucciones inequívocas que puede ejecutar una computadora mecánica. [b] Un algoritmo complejo a menudo se construye sobre otros algoritmos más simples. Un ejemplo simple de un algoritmo es la siguiente receta (óptima para el primer jugador) para jugar al tic-tac-toe : [81]
- Si alguien tiene una "amenaza" (es decir, dos seguidas), toma el cuadro restante. De lo contrario,
- si un movimiento "se bifurca" para crear dos amenazas a la vez, juega ese movimiento. De lo contrario,
- tome la plaza central si está libre. De lo contrario,
- si tu oponente ha jugado en una esquina, toma la esquina opuesta. De lo contrario,
- tome una esquina vacía si existe. De lo contrario,
- toma cualquier cuadrado vacío.
Muchos algoritmos de IA son capaces de aprender de los datos; pueden mejorarse aprendiendo nuevas heurísticas (estrategias o "reglas generales" que han funcionado bien en el pasado), o pueden escribir otros algoritmos. Algunos de los "aprendices" que se describen a continuación, incluidas las redes bayesianas, los árboles de decisión y el vecino más cercano, podrían teóricamente (dados los datos, el tiempo y la memoria infinitos) aprender a aproximarse a cualquier función , incluida la combinación de funciones matemáticas que describiría mejor la mundo. [ cita requerida ] Por lo tanto, estos estudiantes podrían obtener todo el conocimiento posible, considerando todas las hipótesis posibles y comparándolas con los datos. En la práctica, rara vez es posible considerar todas las posibilidades, debido al fenómeno de la " explosión combinatoria ", donde el tiempo necesario para resolver un problema crece exponencialmente. Gran parte de la investigación de la IA implica descubrir cómo identificar y evitar considerar una amplia gama de posibilidades que probablemente no sean beneficiosas. [82] [83] Por ejemplo, al ver un mapa y buscar la ruta de conducción más corta de Denver a Nueva York en el este, en la mayoría de los casos se puede omitir la observación de cualquier camino a través de San Francisco u otras áreas lejanas al oeste; por lo tanto, una IA que maneje un algoritmo de búsqueda de caminos como A * puede evitar la explosión combinatoria que se produciría si se tuvieran que considerar detenidamente todas las rutas posibles. [84]
El enfoque más temprano (y más fácil de entender) de la IA fue el simbolismo (como la lógica formal): "Si un adulto por lo demás sano tiene fiebre, entonces puede tener influenza ". Un segundo enfoque, más general, es la inferencia bayesiana : "Si el paciente actual tiene fiebre, ajuste la probabilidad de que tenga influenza de tal o cual manera". El tercer enfoque principal, extremadamente popular en las aplicaciones de inteligencia artificial de negocios rutinarias, son los analógicos como SVM y el vecino más cercano : "Después de examinar los registros de pacientes anteriores conocidos cuya temperatura, síntomas, edad y otros factores coinciden en su mayoría con el paciente actual, X% de esos pacientes resultó tener influenza ". Un cuarto enfoque es más difícil de entender intuitivamente, pero está inspirado en cómo funciona la maquinaria del cerebro: el enfoque de la red neuronal artificial utiliza " neuronas " artificiales que pueden aprender comparándose con el resultado deseado y alterando la fuerza de las conexiones entre sus neuronas internas. para "reforzar" conexiones que parecían útiles. Estos cuatro enfoques principales pueden superponerse entre sí y con los sistemas evolutivos; por ejemplo, las redes neuronales pueden aprender a hacer inferencias, generalizar y hacer analogías. Algunos sistemas utilizan implícita o explícitamente varios de estos enfoques, junto con muchos otros algoritmos de IA y no IA; el mejor enfoque suele ser diferente según el problema. [85] [86]
Los algoritmos de aprendizaje funcionan sobre la base de que es probable que las estrategias, los algoritmos y las inferencias que funcionaron bien en el pasado sigan funcionando bien en el futuro. Estas inferencias pueden ser obvias, como "dado que el sol salió todas las mañanas durante los últimos 10.000 días, probablemente también saldrá mañana por la mañana". Pueden ser matizados, como "el X% de las familias tienen especies geográficamente separadas con variantes de color, por lo que hay un Y% de posibilidades de que existan cisnes negros no descubiertos ". Los estudiantes también trabajan sobre la base de la " navaja de Occam ": la teoría más simple que explica los datos es la más probable. Por lo tanto, de acuerdo con el principio de navaja de Occam, un alumno debe diseñarse de tal manera que prefiera teorías más simples a teorías complejas, excepto en los casos en que la teoría compleja se prueba sustancialmente mejor.
Establecer una teoría mala y demasiado compleja manipulada para que se ajuste a todos los datos de entrenamiento anteriores se conoce como sobreajuste . Muchos sistemas intentan reducir el sobreajuste recompensando una teoría de acuerdo con qué tan bien se ajusta a los datos, pero penalizando la teoría de acuerdo con su complejidad. [87] Además del sobreajuste clásico, los alumnos también pueden decepcionar al "aprender la lección equivocada". Un ejemplo de juguete es que un clasificador de imágenes entrenado solo con imágenes de caballos marrones y gatos negros podría concluir que es probable que todos los parches marrones sean caballos. [88] Un ejemplo del mundo real es que, a diferencia de los humanos, los clasificadores de imágenes actuales a menudo no emiten juicios principalmente a partir de la relación espacial entre los componentes de la imagen, y aprenden relaciones entre píxeles que los humanos ignoran, pero que aún se correlacionan con imágenes de ciertos tipos de objetos reales. La modificación de estos patrones en una imagen legítima puede resultar en imágenes "adversarias" que el sistema clasifica erróneamente. [c] [89] [90]
En comparación con los humanos, la IA existente carece de varias características del " razonamiento de sentido común " humano ; más notablemente, los seres humanos tienen mecanismos poderosos para razonar sobre la " física ingenua ", como el espacio, el tiempo y las interacciones físicas. Esto permite que incluso los niños pequeños hagan inferencias fácilmente como "Si saco este bolígrafo de la mesa, se caerá al suelo". Los seres humanos también tienen un poderoso mecanismo de " psicología popular " que les ayuda a interpretar oraciones en lenguaje natural como "Los concejales de la ciudad denegaron un permiso a los manifestantes porque abogaban por la violencia" (una IA genérica tiene dificultades para discernir si los presuntos la violencia son los concejales o los manifestantes [91] [92] [93] ). Esta falta de "conocimiento común" significa que la IA a menudo comete errores diferentes a los que cometen los humanos, de formas que pueden parecer incomprensibles. Por ejemplo, los automóviles autónomos existentes no pueden razonar sobre la ubicación ni las intenciones de los peatones de la misma manera que lo hacen los humanos, sino que deben utilizar modos de razonamiento no humanos para evitar accidentes. [94] [95] [96]
Desafíos
Las capacidades cognitivas de las arquitecturas actuales son muy limitadas, utilizando solo una versión simplificada de lo que la inteligencia es realmente capaz de hacer. Por ejemplo, la mente humana ha ideado formas de razonar más allá de toda medida y explicaciones lógicas para diferentes sucesos de la vida. Lo que de otra manera hubiera sido sencillo, un problema igualmente difícil puede ser difícil de resolver computacionalmente en lugar de usar la mente humana. Esto da lugar a dos clases de modelos: estructuralista y funcionalista. Los modelos estructurales tienen como objetivo imitar libremente las operaciones básicas de inteligencia de la mente, como el razonamiento y la lógica. El modelo funcional se refiere a los datos correlacionados con su contraparte calculada. [97]
El objetivo general de la investigación de la inteligencia artificial es crear tecnología que permita que las computadoras y las máquinas funcionen de manera inteligente. El problema general de simular (o crear) inteligencia se ha dividido en subproblemas. Estos consisten en rasgos o capacidades particulares que los investigadores esperan que muestre un sistema inteligente. Los rasgos que se describen a continuación han recibido la mayor atención. [20]
Razonamiento, resolución de problemas
Los primeros investigadores desarrollaron algoritmos que imitaban el razonamiento paso a paso que los humanos usan cuando resuelven acertijos o hacen deducciones lógicas. [98] A finales de los años 80 y 90, la investigación de la IA había desarrollado métodos para tratar con información incierta o incompleta, empleando conceptos de probabilidad y economía . [99]
Estos algoritmos demostraron ser insuficientes para resolver grandes problemas de razonamiento porque experimentaron una "explosión combinatoria": se volvieron exponencialmente más lentos a medida que los problemas crecían. [82] Incluso los humanos rara vez usan la deducción paso a paso que la investigación temprana de la IA podría modelar. Resuelven la mayoría de sus problemas utilizando juicios rápidos e intuitivos. [100]
Representación del conocimiento
La representación del conocimiento [101] y la ingeniería del conocimiento [102] son fundamentales para la investigación clásica de la IA. Algunos "sistemas expertos" intentan recopilar el conocimiento explícito que poseen los expertos en algún ámbito limitado. Además, algunos proyectos intentan reunir el "conocimiento de sentido común" conocido por la persona promedio en una base de datos que contiene un amplio conocimiento sobre el mundo. Entre las cosas que contendría una base de conocimiento comprensiva de sentido común se encuentran: objetos, propiedades, categorías y relaciones entre objetos; [103] situaciones, eventos, estados y tiempo; [104] causas y efectos; [105] conocimiento sobre el conocimiento (lo que sabemos sobre lo que saben otras personas); [106] y muchos otros dominios menos investigados. Una representación de "lo que existe" es una ontología : el conjunto de objetos, relaciones, conceptos y propiedades descritos formalmente para que los agentes de software puedan interpretarlos. La semántica de estos se captura como conceptos, roles e individuos de lógica de descripción , y generalmente se implementa como clases, propiedades e individuos en el lenguaje de ontología web . [107] Las ontologías más generales se denominan ontologías superiores , que intentan proporcionar una base para todos los demás conocimientos [108] actuando como mediadores entre ontologías de dominio que cubren conocimientos específicos sobre un dominio de conocimiento en particular (campo de interés o área de interés) . Estas representaciones formales de conocimiento se pueden utilizar en la indexación y recuperación basadas en contenido, [109] interpretación de escenas, [110] apoyo a decisiones clínicas, [111] descubrimiento de conocimientos (extracción de inferencias "interesantes" y procesables de grandes bases de datos), [112] y otras areas. [113]
Entre los problemas más difíciles en la representación del conocimiento se encuentran:
- Razonamiento predeterminado y problema de calificación
- Muchas de las cosas que la gente sabe toman la forma de "supuestos de trabajo". Por ejemplo, si aparece un pájaro en una conversación, la gente suele imaginar un animal del tamaño de un puño que canta y vuela. Ninguna de estas cosas es cierta para todas las aves. John McCarthy identificó este problema en 1969 [114] como el problema de calificación: para cualquier regla de sentido común que los investigadores de IA se preocupan por representar, tiende a haber un gran número de excepciones. Casi nada es simplemente verdadero o falso de la forma que requiere la lógica abstracta. La investigación de la IA ha explorado una serie de soluciones a este problema. [115]
- Amplio conocimiento de sentido común
- La cantidad de hechos atómicos que conoce la persona promedio es muy grande. Los proyectos de investigación que intentan construir una base de conocimiento completa de conocimiento de sentido común (por ejemplo, Cyc ) requieren enormes cantidades de laboriosa ingeniería ontológica; deben construirse, a mano, un concepto complicado a la vez. [116]
- Forma subsimbólica de algún conocimiento de sentido común
- Gran parte de lo que la gente sabe no se representa como "hechos" o "declaraciones" que puedan expresar verbalmente. Por ejemplo, un maestro de ajedrez evitará una posición de ajedrez en particular porque "se siente demasiado expuesta" [117] o un crítico de arte puede echar un vistazo a una estatua y darse cuenta de que es una falsificación. [118] Estas son intuiciones o tendencias no conscientes y sub-simbólicas en el cerebro humano. [119] Un conocimiento como este informa, apoya y proporciona un contexto para el conocimiento consciente y simbólico. Al igual que con el problema relacionado del razonamiento sub-simbólico, se espera que la IA situada , la inteligencia computacional o la IA estadística proporcionen formas de representar este conocimiento. [119]
Planificación
Los agentes inteligentes deben poder establecer metas y alcanzarlas. [120] Necesitan una forma de visualizar el futuro, una representación del estado del mundo y poder hacer predicciones sobre cómo sus acciones lo cambiarán, y poder tomar decisiones que maximicen la utilidad (o "valor"). de opciones disponibles. [121]
En los problemas de planificación clásicos, el agente puede asumir que es el único sistema que actúa en el mundo, lo que le permite estar seguro de las consecuencias de sus acciones. [122] Sin embargo, si el agente no es el único actor, entonces se requiere que el agente pueda razonar bajo incertidumbre. Esto requiere un agente que no solo pueda evaluar su entorno y hacer predicciones, sino también evaluar sus predicciones y adaptarse en función de su evaluación. [123]
La planificación de múltiples agentes utiliza la cooperación y la competencia de muchos agentes para lograr un objetivo determinado. El comportamiento emergente como este es utilizado por algoritmos evolutivos e inteligencia de enjambre . [124]
Aprendiendo
El aprendizaje automático (ML), un concepto fundamental de la investigación de la IA desde el inicio del campo, [d] es el estudio de algoritmos informáticos que mejoran automáticamente a través de la experiencia. [e] [127]
El aprendizaje no supervisado es la capacidad de encontrar patrones en un flujo de entrada, sin que sea necesario que un humano etiquete las entradas primero. El aprendizaje supervisado incluye clasificación y regresión numérica , lo que requiere que un humano etiquete primero los datos de entrada. La clasificación se usa para determinar a qué categoría pertenece algo y ocurre después de que un programa ve varios ejemplos de cosas de varias categorías. La regresión es el intento de producir una función que describa la relación entre entradas y salidas y predice cómo las salidas deberían cambiar a medida que cambian las entradas. [127] Tanto los clasificadores como los aprendices de regresión pueden verse como "aproximadores de funciones" que intentan aprender una función desconocida (posiblemente implícita); por ejemplo, un clasificador de spam puede verse como el aprendizaje de una función que asigna el texto de un correo electrónico a una de dos categorías, "spam" o "no spam". La teoría del aprendizaje computacional puede evaluar a los estudiantes por complejidad computacional , complejidad de la muestra (cuántos datos se requieren) o por otras nociones de optimización . [128] En el aprendizaje por refuerzo [129] el agente es recompensado por las buenas respuestas y castigado por las malas. El agente usa esta secuencia de recompensas y castigos para formar una estrategia para operar en su espacio de problemas.
Procesamiento natural del lenguaje
El procesamiento del lenguaje natural [130] (NLP) permite a las máquinas leer y comprender el lenguaje humano. Un sistema de procesamiento de lenguaje natural suficientemente poderoso permitiría interfaces de usuario de lenguaje natural y la adquisición de conocimiento directamente de fuentes escritas por humanos, como los textos de noticias. Algunas aplicaciones sencillas del procesamiento del lenguaje natural incluyen la recuperación de información , la minería de texto , la respuesta a preguntas y la traducción automática . [131] Muchos enfoques actuales utilizan frecuencias de co-ocurrencia de palabras para construir representaciones sintácticas de texto. Las estrategias de búsqueda de "detección de palabras clave" son populares y escalables, pero tontas; una consulta de búsqueda para "perro" solo puede coincidir con documentos con la palabra literal "perro" y perder un documento con la palabra "caniche". Las estrategias de "afinidad léxica" utilizan la aparición de palabras como "accidente" para evaluar el sentimiento de un documento. Los enfoques estadísticos modernos de PNL pueden combinar todas estas estrategias, así como otras, y a menudo logran una precisión aceptable a nivel de página o párrafo. Más allá de la PNL semántica, el objetivo final de la PNL "narrativa" es incorporar una comprensión completa del razonamiento de sentido común. [132] Para 2019, las arquitecturas de aprendizaje profundo basadas en transformadores podrían generar texto coherente. [133]
Percepción
La percepción de la máquina [134] es la capacidad de utilizar la entrada de sensores (como cámaras (espectro visible o infrarrojo), micrófonos, señales inalámbricas y sensores lidar , sonar, radar y táctiles activos ) para deducir aspectos del mundo. Las aplicaciones incluyen reconocimiento de voz , [135] reconocimiento facial y reconocimiento de objetos . [136] La visión por computadora es la capacidad de analizar la información visual. Esta información suele ser ambigua; Un peatón gigante de cincuenta metros de altura muy lejos puede producir los mismos píxeles que un peatón de tamaño normal cercano, lo que requiere que la IA juzgue la probabilidad relativa y la razonabilidad de las diferentes interpretaciones, por ejemplo, utilizando su "modelo de objeto" para evaluar que los peatones de cincuenta metros no existen. [137]
Movimiento y manipulación
La IA se utiliza mucho en robótica. [138] Los brazos robóticos avanzados y otros robots industriales , ampliamente utilizados en las fábricas modernas, pueden aprender de la experiencia cómo moverse de manera eficiente a pesar de la presencia de fricción y deslizamiento de los engranajes. [139] Un robot móvil moderno, cuando se le da un entorno pequeño, estático y visible, puede determinar fácilmente su ubicación y trazar un mapa de su entorno; sin embargo, los entornos dinámicos, como (en la endoscopia ) el interior del cuerpo respiratorio de un paciente, plantean un desafío mayor. La planificación del movimiento es el proceso de dividir una tarea de movimiento en "primitivas", como los movimientos individuales de las articulaciones. Tal movimiento a menudo implica un movimiento dócil, un proceso en el que el movimiento requiere mantener el contacto físico con un objeto. [140] [141] [142] La paradoja de Moravec generaliza que las habilidades sensoriomotoras de bajo nivel que los humanos dan por sentado son, contraintuitivamente, difíciles de programar en un robot; la paradoja lleva el nombre de Hans Moravec , quien declaró en 1988 que "es comparativamente fácil hacer que las computadoras exhiban un rendimiento de nivel adulto en pruebas de inteligencia o jugando a las damas, y difícil o imposible darles las habilidades de un niño de un año cuando llega a la percepción y la movilidad ". [143] [144] Esto se atribuye al hecho de que, a diferencia de las damas, la destreza física ha sido un objetivo directo de la selección natural durante millones de años. [145]
Inteligencia social
La paradoja de Moravec se puede extender a muchas formas de inteligencia social. [147] [148] La coordinación distribuida de múltiples agentes de vehículos autónomos sigue siendo un problema difícil. [149] La computación afectiva es un paraguas interdisciplinario que comprende sistemas que reconocen, interpretan, procesan o simulan los afectos humanos . [150] [151] [152] Los éxitos moderados relacionados con la computación afectiva incluyen el análisis de sentimiento textual y, más recientemente, el análisis de afecto multimodal (ver análisis de sentimiento multimodal ), donde la IA clasifica los afectos mostrados por un sujeto grabado en video. [153]
A largo plazo, las habilidades sociales y la comprensión de las emociones humanas y la teoría de juegos serían valiosas para un agente social. La capacidad de predecir las acciones de los demás mediante la comprensión de sus motivos y estados emocionales permitiría a un agente tomar mejores decisiones. Algunos sistemas informáticos imitan las emociones y expresiones humanas para parecer más sensibles a la dinámica emocional de la interacción humana, o para facilitar la interacción persona-computadora . [154] De manera similar, algunos asistentes virtuales están programados para hablar en forma conversacional o incluso para bromear con humor; esto tiende a dar a los usuarios ingenuos una concepción poco realista de cuán inteligentes son en realidad los agentes informáticos existentes. [155]
Inteligencia general
Históricamente, proyectos como la base de conocimientos Cyc (1984–) y la masiva iniciativa japonesa de sistemas informáticos de quinta generación (1982–1992) intentaron cubrir la amplitud de la cognición humana. Estos primeros proyectos no pudieron escapar de las limitaciones de los modelos lógicos simbólicos no cuantitativos y, en retrospectiva, subestimaron en gran medida la dificultad de la IA entre dominios. Hoy en día, la mayoría de los investigadores de IA actuales trabajan en cambio en aplicaciones manejables de "IA estrecha" (como diagnóstico médico o navegación en automóviles). [156] Muchos investigadores predicen que ese trabajo de "IA estrecha" en diferentes dominios individuales eventualmente se incorporará a una máquina con inteligencia artificial general (AGI), combinando la mayoría de las habilidades limitadas mencionadas en este artículo y en algún momento incluso superando la capacidad humana. en la mayoría o en todas estas áreas. [26] [157] Muchos avances tienen un significado general entre dominios. Un ejemplo de alto perfil es que DeepMind en la década de 2010 desarrolló una "inteligencia artificial generalizada" que podía aprender muchos juegos Atari diversos por sí misma, y luego desarrolló una variante del sistema que tiene éxito en el aprendizaje secuencial . [158] [159] [160] Además de la transferencia de aprendizaje , [161] los avances hipotéticos de AGI podrían incluir el desarrollo de arquitecturas reflexivas que pueden participar en un metarazonamiento teórico de decisiones y descubrir cómo "absorber" una base de conocimiento integral de la Web entera no estructurada . [162] Algunos argumentan que algún tipo de "algoritmo maestro" (actualmente no descubierto) conceptualmente sencillo, pero matemáticamente difícil, podría conducir a AGI. [163] Finalmente, algunos enfoques "emergentes" buscan simular la inteligencia humana de manera extremadamente cercana y creen que las características antropomórficas como un cerebro artificial o el desarrollo infantil simulado pueden llegar algún día a un punto crítico en el que emerja la inteligencia general. [164] [165]
Muchos de los problemas de este artículo también pueden requerir inteligencia general, para que las máquinas resuelvan los problemas tan bien como las personas. Por ejemplo, incluso las tareas específicas y sencillas, como la traducción automática , requieren que una máquina lea y escriba en ambos idiomas ( PNL ), siga el argumento del autor ( razón ), sepa de qué se habla ( conocimiento ) y reproduzca fielmente el original del autor. intención ( inteligencia social ). Un problema como la traducción automática se considera " AI completo ", porque todos estos problemas deben resolverse simultáneamente para alcanzar el rendimiento de la máquina a nivel humano.
Enfoques
Ninguna teoría o paradigma unificador establecido guía la investigación de la IA. Los investigadores no están de acuerdo sobre muchos temas. [f] Algunas de las preguntas más antiguas que han quedado sin respuesta son las siguientes: ¿debería la inteligencia artificial simular la inteligencia natural mediante el estudio de la psicología o la neurobiología ? ¿O es la biología humana tan irrelevante para la investigación de la IA como la biología de las aves para la ingeniería aeronáutica ? [23] ¿Se puede describir el comportamiento inteligente utilizando principios simples y elegantes (como la lógica o la optimización )? ¿O requiere necesariamente resolver una gran cantidad de problemas no relacionados? [24]
Cibernética y simulación cerebral
En las décadas de 1940 y 1950, varios investigadores exploraron la conexión entre la neurobiología , la teoría de la información y la cibernética . Algunos de ellos construyeron máquinas que usaban redes electrónicas para exhibir inteligencia rudimentaria, como las tortugas de W. Gray Walter y la Bestia de Johns Hopkins . Muchos de estos investigadores se reunieron para las reuniones de la Sociedad Teleológica en la Universidad de Princeton y el Club Ratio en Inglaterra. [167] En 1960, este enfoque se abandonó en gran medida, aunque algunos elementos se revivieron en la década de 1980.
Simbólico
Cuando el acceso a las computadoras digitales se hizo posible a mediados de la década de 1950, la investigación de la inteligencia artificial comenzó a explorar la posibilidad de que la inteligencia humana pudiera reducirse a la manipulación de símbolos. La investigación se centró en tres instituciones: Carnegie Mellon University , Stanford y MIT y, como se describe a continuación, cada una desarrolló su propio estilo de investigación. John Haugeland denominó estos enfoques simbólicos de la IA como "buena IA pasada de moda" o " GOFAI ". [168] Durante la década de 1960, los enfoques simbólicos habían logrado un gran éxito en la simulación del "pensamiento" de alto nivel en pequeños programas de demostración. Los enfoques basados en la cibernética o las redes neuronales artificiales fueron abandonados o relegados a un segundo plano. [g] Los investigadores de las décadas de 1960 y 1970 estaban convencidos de que los enfoques simbólicos eventualmente lograrían crear una máquina con inteligencia artificial general y consideraron que este era el objetivo de su campo.
Simulación cognitiva
El economista Herbert Simon y Allen Newell estudiaron las habilidades humanas de resolución de problemas e intentaron formalizarlas, y su trabajo sentó las bases del campo de la inteligencia artificial, así como de la ciencia cognitiva , la investigación de operaciones y la ciencia de la gestión . Su equipo de investigación utilizó los resultados de experimentos psicológicos para desarrollar programas que simulaban las técnicas que las personas usaban para resolver problemas. Esta tradición, centrada en la Universidad Carnegie Mellon , eventualmente culminaría con el desarrollo de la arquitectura Soar a mediados de la década de 1980. [169] [170]
Basado en la lógica
A diferencia de Simon y Newell, John McCarthy sintió que las máquinas no necesitaban simular el pensamiento humano, sino que deberían tratar de encontrar la esencia del razonamiento abstracto y la resolución de problemas, independientemente de si las personas usaban los mismos algoritmos. [23] Su laboratorio en Stanford ( SAIL ) se centró en el uso de la lógica formal para resolver una amplia variedad de problemas, incluida la representación del conocimiento , la planificación y el aprendizaje . [171] La lógica también fue el foco del trabajo en la Universidad de Edimburgo y en otras partes de Europa que condujo al desarrollo del lenguaje de programación Prolog y la ciencia de la programación lógica . [172]
Anti-lógica o desaliñado
Investigadores del MIT (como Marvin Minsky y Seymour Papert ) [173] encontraron que la resolución de problemas difíciles en la visión y el procesamiento del lenguaje natural requería soluciones ad hoc; argumentaron que ningún principio simple y general (como la lógica ) captaría todos los aspectos de la inteligencia comportamiento. Roger Schank describió sus enfoques "anti-lógicos" como " desaliñados " (a diferencia de los paradigmas " pulcros " en CMU y Stanford). [24] con bases de conocimiento (como Doug Lenat 's Cic ) son un ejemplo de 'desaliñado' AI, ya que deben ser construidos a mano, un concepto complicado a la vez. [174]
Basado en el conocimiento
Cuando las computadoras con grandes memorias estuvieron disponibles alrededor de 1970, los investigadores de las tres tradiciones comenzaron a incorporar conocimientos en aplicaciones de inteligencia artificial. [175] Esta "revolución del conocimiento" llevó al desarrollo y despliegue de sistemas expertos (presentados por Edward Feigenbaum ), la primera forma verdaderamente exitosa de software de IA. [52] Un componente clave de la arquitectura del sistema para todos los sistemas expertos es la base de conocimientos, que almacena hechos y reglas que ilustran la IA. [176] La revolución del conocimiento también fue impulsada por la comprensión de que muchas aplicaciones simples de IA requerirían enormes cantidades de conocimiento.
Sub-simbólico
En la década de 1980, el progreso en la IA simbólica parecía estancarse y muchos creían que los sistemas simbólicos nunca serían capaces de imitar todos los procesos de la cognición humana, especialmente la percepción , la robótica, el aprendizaje y el reconocimiento de patrones . Varios investigadores comenzaron a estudiar enfoques "sub-simbólicos" para problemas específicos de IA. [25] Los métodos sub-simbólicos logran acercarse a la inteligencia sin representaciones específicas del conocimiento.
Inteligencia encarnada
Esto incluye IA incorporada , situada , basada en el comportamiento y nouvelle . Investigadores del campo relacionado de la robótica, como Rodney Brooks , rechazaron la IA simbólica y se centraron en los problemas básicos de ingeniería que permitirían a los robots moverse y sobrevivir. [177] Su trabajo revivió el punto de vista no simbólico de los primeros investigadores en cibernética de la década de 1950 y reintrodujo el uso de la teoría del control en la IA. Esto coincidió con el desarrollo de la tesis de la mente incorporada en el campo relacionado de la ciencia cognitiva : la idea de que los aspectos del cuerpo (como el movimiento, la percepción y la visualización) son necesarios para una inteligencia superior.
Dentro de la robótica del desarrollo , se elaboran enfoques de aprendizaje evolutivo para permitir que los robots acumulen repertorios de habilidades novedosas a través de la autoexploración autónoma, la interacción social con maestros humanos y el uso de mecanismos de orientación (aprendizaje activo, maduración, sinergias motoras, etc.). [178] [179] [180] [181]
Inteligencia computacional e informática blanda
El interés por las redes neuronales y el " conexionismo " fue revivido por David Rumelhart y otros a mediados de la década de 1980. [182] Las redes neuronales artificiales son un ejemplo de computación blanda: son soluciones a problemas que no pueden resolverse con total certeza lógica y en los que una solución aproximada suele ser suficiente. Otros enfoques de computación blanda para la IA incluyen sistemas difusos , teoría del sistema Gray , computación evolutiva y muchas herramientas estadísticas. La aplicación de la computación blanda a la IA es estudiada colectivamente por la disciplina emergente de la inteligencia computacional . [183]
Estadístico
Gran parte del GOFAI tradicional se empantanó en parches ad hoc para la computación simbólica que funcionaba en sus propios modelos de juguetes, pero no se generalizaba a los resultados del mundo real. Sin embargo, alrededor de la década de 1990, los investigadores de IA adoptaron herramientas matemáticas sofisticadas, como los modelos ocultos de Markov (HMM), la teoría de la información y la teoría normativa de decisiones bayesianas para comparar o unificar arquitecturas competidoras. El lenguaje matemático compartido permitió un alto nivel de colaboración con campos más establecidos (como matemáticas , economía o investigación de operaciones ). [h] En comparación con GOFAI, las nuevas técnicas de "aprendizaje estadístico" como HMM y redes neuronales estaban ganando niveles más altos de precisión en muchos dominios prácticos como la minería de datos , sin adquirir necesariamente una comprensión semántica de los conjuntos de datos. Los mayores éxitos con datos del mundo real llevaron a un mayor énfasis en la comparación de diferentes enfoques con datos de prueba compartidos para ver qué enfoque funcionó mejor en un contexto más amplio que el proporcionado por modelos de juguetes idiosincrásicos; La investigación de la IA se estaba volviendo más científica . Hoy en día, los resultados de los experimentos son a menudo rigurosamente medibles y, a veces (con dificultad) reproducibles. [54] [184] Las diferentes técnicas de aprendizaje estadístico tienen diferentes limitaciones; por ejemplo, HMM básico no puede modelar las infinitas combinaciones posibles de lenguaje natural. [185] Los críticos señalan que el cambio de GOFAI al aprendizaje estadístico a menudo también se aleja de la IA explicable . En la investigación de AGI, algunos académicos advierten contra la dependencia excesiva del aprendizaje estadístico y argumentan que la investigación continua sobre GOFAI seguirá siendo necesaria para lograr la inteligencia general. [186] [187]
Integrando los enfoques
- Paradigma de agente inteligente
- Un agente inteligente es un sistema que percibe su entorno y realiza acciones que maximizan sus posibilidades de éxito. Los agentes inteligentes más simples son programas que resuelven problemas específicos. Los agentes más complicados incluyen seres humanos y organizaciones de seres humanos (como empresas ). El paradigma permite a los investigadores comparar directamente o incluso combinar diferentes enfoques para problemas aislados, preguntando qué agente es mejor para maximizar una determinada "función objetivo". Un agente que resuelve un problema específico puede usar cualquier enfoque que funcione: algunos agentes son simbólicos y lógicos, algunos son redes neuronales artificiales sub-simbólicas y otros pueden usar nuevos enfoques. El paradigma también brinda a los investigadores un lenguaje común para comunicarse con otros campos, como la teoría de la decisión y la economía, que también utilizan conceptos de agentes abstractos. La construcción de un agente completo requiere que los investigadores aborden problemas realistas de integración; por ejemplo, debido a que los sistemas sensoriales brindan información incierta sobre el medio ambiente, los sistemas de planificación deben poder funcionar en presencia de incertidumbre. El paradigma del agente inteligente se aceptó ampliamente durante la década de 1990. [188]
- Arquitecturas de agentes y arquitecturas cognitivas
- Los investigadores han diseñado sistemas para construir sistemas inteligentes a partir de la interacción de agentes inteligentes en un sistema de múltiples agentes . [189] Un sistema de control jerárquico proporciona un puente entre la IA sub-simbólica en sus niveles reactivos más bajos y la IA simbólica tradicional en sus niveles más altos, donde las restricciones de tiempo relajadas permiten la planificación y el modelado del mundo. [190] Algunas arquitecturas cognitivas están diseñadas a medida para resolver un problema limitado; otros, como Soar , están diseñados para imitar la cognición humana y proporcionar información sobre la inteligencia general. Las extensiones modernas de Soar son sistemas inteligentes híbridos que incluyen componentes simbólicos y sub-simbólicos. [97] [191]
Herramientas
Aplicaciones
La IA es relevante para cualquier tarea intelectual. [192] Las técnicas modernas de inteligencia artificial son omnipresentes [193] y son demasiado numerosas para enumerarlas aquí. Con frecuencia, cuando una técnica alcanza el uso generalizado, ya no se considera inteligencia artificial; este fenómeno se describe como el efecto AI . [194]
Ejemplos de IA de alto perfil incluyen vehículos autónomos (como drones y coches autónomos ), diagnóstico médico, creación de arte (como poesía), demostración de teoremas matemáticos, juegos (como Chess o Go), motores de búsqueda (como Búsqueda de Google ), asistentes en línea (como Siri ), reconocimiento de imágenes en fotografías, filtrado de spam, predicción de retrasos en los vuelos, [195] predicción de decisiones judiciales, [196] publicidad en línea dirigida, [192] [197] [198] y energía almacenamiento [199]
Con los sitios de redes sociales superando a la televisión como fuente de noticias para los jóvenes y las organizaciones de noticias que dependen cada vez más de las plataformas de redes sociales para generar distribución, [200] los principales editores ahora utilizan la tecnología de inteligencia artificial (IA) para publicar historias de manera más efectiva y generar mayores volúmenes de información. tráfico. [201]
La IA también puede producir Deepfakes , una tecnología que altera el contenido. ZDNet informa, "Presenta algo que en realidad no ocurrió", aunque el 88% de los estadounidenses creen que los deepfakes pueden causar más daño que bien, solo el 47% de ellos cree que pueden ser atacados. El auge del año electoral también abre el discurso público a las amenazas de videos de medios políticos falsificados. [202]
Filosofia y etica
Hay tres cuestiones filosóficas relacionadas con la IA: [203]
- Si es posible la inteligencia artificial general ; si una máquina puede resolver cualquier problema que un ser humano pueda resolver usando inteligencia, o si existen límites estrictos para lo que una máquina puede lograr.
- Si las máquinas inteligentes son peligrosas; cómo los seres humanos pueden garantizar que las máquinas se comporten de forma ética y que se utilicen de forma ética.
- Si una máquina puede tener mente , conciencia y estados mentales en el mismo sentido que los seres humanos; si una máquina puede ser sensible y, por lo tanto, merece ciertos derechos, y si una máquina puede causar daño intencionalmente .
Los límites de la inteligencia artificial general
- La "convención cortés" de Alan Turing
- No es necesario decidir si una máquina puede "pensar"; basta con decidir si una máquina puede actuar con la misma inteligencia que un ser humano. Este enfoque de los problemas filosóficos asociados con la inteligencia artificial forma la base de la prueba de Turing . [204]
- La propuesta de Dartmouth
- "Cada aspecto del aprendizaje o cualquier otra característica de la inteligencia se puede describir con tanta precisión que se puede hacer una máquina para simularlo". Esta conjetura se imprimió en la propuesta para la Conferencia de Dartmouth de 1956. [205]
- Hipótesis del sistema de símbolos físicos de Newell y Simon
- "Un sistema de símbolos físicos tiene los medios necesarios y suficientes para la acción inteligente general". Newell y Simon argumentan que la inteligencia consiste en operaciones formales sobre símbolos. [206] Hubert Dreyfus sostiene que, por el contrario, la pericia humana depende del instinto inconsciente más que de la manipulación consciente de los símbolos, y de tener una "sensación" de la situación, más que del conocimiento simbólico explícito. (Véase la crítica de Dreyfus a AI .) [I] [208]
- Argumentos de Gödelia
- El propio Gödel , [209] John Lucas (en 1961) y Roger Penrose (en un argumento más detallado de 1989 en adelante) hicieron argumentos altamente técnicos de que los matemáticos humanos pueden ver consistentemente la verdad de sus propias "declaraciones de Gödel" y, por lo tanto, tienen habilidades computacionales más allá el de las máquinas mecánicas de Turing. [210] Sin embargo, algunas personas no están de acuerdo con los "argumentos de Gödelia". [211] [212] [213]
- El argumento del cerebro artificial
- Un argumento que afirma que el cerebro puede ser simulado por máquinas y, dado que los cerebros exhiben inteligencia, estos cerebros simulados también deben exhibir inteligencia; ergo, las máquinas pueden ser inteligentes. Hans Moravec , Ray Kurzweil y otros han argumentado que es tecnológicamente factible copiar el cerebro directamente en hardware y software, y que dicha simulación será esencialmente idéntica a la original. [164]
- El efecto AI
- Una hipótesis que afirma que las máquinas ya son inteligentes, pero los observadores no lo han reconocido. Por ejemplo, cuando Deep Blue venció a Garry Kasparov en ajedrez, la máquina podría describirse como exhibiendo inteligencia. Sin embargo, los espectadores comúnmente descartan el comportamiento de un programa de inteligencia artificial argumentando que no es inteligencia "real", y que la inteligencia "real" se define de hecho como cualquier comportamiento que las máquinas no puedan hacer.
Máquinas éticas
Las máquinas con inteligencia tienen el potencial de usar su inteligencia para prevenir daños y minimizar los riesgos; pueden tener la capacidad de utilizar el razonamiento ético para elegir mejor sus acciones en el mundo. Como tal, existe la necesidad de formular políticas para diseñar políticas y regular la inteligencia artificial y la robótica. [214] La investigación en esta área incluye la ética de las máquinas , los agentes morales artificiales , la inteligencia artificial amigable y la discusión para construir un marco de derechos humanos también está en conversaciones. [215]
Joseph Weizenbaum en Computer Power and Human Reason escribió que las aplicaciones de IA no pueden, por definición, simular con éxito la empatía humana genuina y que el uso de la tecnología de IA en campos como el servicio al cliente o la psicoterapia [j] estaba profundamente equivocado. A Weizenbaum también le molestó que los investigadores de IA (y algunos filósofos) estuvieran dispuestos a ver la mente humana como nada más que un programa de computadora (una posición ahora conocida como computacionalismo ). Para Weizenbaum, estos puntos sugieren que la investigación de la IA devalúa la vida humana. [217]
Agentes morales artificiales
Wendell Wallach introdujo el concepto de agentes morales artificiales (AMA) en su libro Moral Machines [218] Para Wallach, los AMA se han convertido en parte del panorama de investigación de la inteligencia artificial guiados por sus dos preguntas centrales que él identifica como "¿Quiere la humanidad Computadoras que toman decisiones morales " [219] y" ¿Pueden los (Ro) bots realmente ser morales ". [220] Para Wallach, la cuestión no se centra en la cuestión de si las máquinas pueden demostrar el equivalente del comportamiento moral, a diferencia de las limitaciones que la sociedad puede imponer al desarrollo de AMA. [221]
Ética de la máquina
El campo de la ética de las máquinas se preocupa por dar a las máquinas principios éticos, o un procedimiento para descubrir una forma de resolver los dilemas éticos que puedan encontrar, permitiéndoles funcionar de una manera éticamente responsable a través de su propia toma de decisiones éticas. [222] El campo se delineó en el Simposio AAAI de otoño de 2005 sobre ética de las máquinas: "Las investigaciones anteriores sobre la relación entre la tecnología y la ética se han centrado en gran medida en el uso responsable e irresponsable de la tecnología por parte de los seres humanos, y algunas personas están interesadas en cómo Los seres humanos deben tratar a las máquinas. En todos los casos, solo los seres humanos se han involucrado en el razonamiento ético. Ha llegado el momento de agregar una dimensión ética al menos a algunas máquinas. Reconocimiento de las ramificaciones éticas del comportamiento que involucra máquinas, así como las recientes y potenciales Los avances en la autonomía de la máquina, lo necesitan. En contraste con la piratería informática, los problemas de propiedad del software, los problemas de privacidad y otros temas normalmente adscritos a la ética informática, la ética de la máquina se ocupa del comportamiento de las máquinas hacia los usuarios humanos y otras máquinas. La investigación en ética de la máquina es clave para aliviar las preocupaciones con los sistemas autónomos, se podría argumentar que la noción de máquinas autónomas sin s uch una dimensión está en la raíz de todos los miedos relacionados con la inteligencia de las máquinas. Además, la investigación de la ética de las máquinas podría permitir el descubrimiento de problemas con las teorías éticas actuales, haciendo avanzar nuestro pensamiento sobre la ética ". [223] La ética de las máquinas a veces se denomina moralidad de las máquinas, ética computacional o moralidad computacional. El campo se puede encontrar en la edición recopilada "Machine Ethics" [222] que se deriva del Simposio sobre ética de las máquinas de otoño de 2005 de la AAAI. [223]
IA malévola y amigable
El politólogo Charles T. Rubin cree que la IA no puede diseñarse ni garantizarse que sea benévola. [224] Sostiene que "cualquier benevolencia suficientemente avanzada puede ser indistinguible de la malevolencia". Los seres humanos no deberían asumir que las máquinas o los robots nos tratarían favorablemente porque no hay una razón a priori para creer que simpatizarían con nuestro sistema de moralidad, que ha evolucionado junto con nuestra biología particular (que las IA no compartirían). Es posible que el software hiperinteligente no decida necesariamente respaldar la existencia continua de la humanidad y sería extremadamente difícil de detener. Este tema también ha comenzado recientemente a ser discutido en publicaciones académicas como una fuente real de riesgos para la civilización, los humanos y el planeta Tierra.
Una propuesta para hacer frente a esto es garantizar que la primera IA generalmente inteligente sea la ' IA amigable ' y pueda controlar las IA desarrolladas posteriormente. Algunos se preguntan si este tipo de control podría permanecer en su lugar.
El investigador principal de IA Rodney Brooks escribe: "Creo que es un error preocuparnos por que desarrollemos IA malévola en los próximos cientos de años. Creo que la preocupación surge de un error fundamental al no distinguir la diferencia entre los avances recientes muy reales en un aspecto particular de la IA y la enormidad y complejidad de construir inteligencia volitiva sensible ". [225]
Las armas autónomas letales son motivo de preocupación. Actualmente, más de 50 países están investigando robots de campo de batalla, incluidos los Estados Unidos, China, Rusia y el Reino Unido. Muchas personas preocupadas por el riesgo de la IA superinteligente también quieren limitar el uso de soldados artificiales y drones. [226]
Conciencia, sensibilidad y mente de la máquina
Si un sistema de inteligencia artificial replica todos los aspectos clave de la inteligencia humana, ¿ese sistema también será sensible , tendrá una mente que tenga experiencias conscientes ? Esta cuestión está estrechamente relacionada con el problema filosófico de la naturaleza de la conciencia humana, al que generalmente se hace referencia como el problema difícil de la conciencia .
Conciencia
David Chalmers identificó dos problemas para comprender la mente, a los que denominó problemas de conciencia "difíciles" y "fáciles". [227] El problema fácil es comprender cómo el cerebro procesa las señales, hace planes y controla el comportamiento. El problema difícil es explicar cómo se siente esto o por qué debería sentirse como algo. El procesamiento de la información humana es fácil de explicar, sin embargo, la experiencia subjetiva humana es difícil de explicar.
Por ejemplo, considere lo que sucede cuando a una persona se le muestra una muestra de color y la identifica diciendo "es rojo". El problema fácil solo requiere comprender la maquinaria en el cerebro que hace posible que una persona sepa que la muestra de color es roja. El problema difícil es que las personas también saben algo más: también saben cómo se ve el rojo . (Considere que una persona ciega de nacimiento puede saber que algo es rojo sin saber cómo se ve el rojo). [K] Todos saben que la experiencia subjetiva existe, porque la hacen todos los días (por ejemplo, todas las personas videntes saben cómo se ve el rojo). El problema difícil es explicar cómo lo crea el cerebro, por qué existe y en qué se diferencia del conocimiento y otros aspectos del cerebro.
Computacionalismo y funcionalismo
El computacionalismo es la posición en la filosofía de la mente de que la mente humana o el cerebro humano (o ambos) es un sistema de procesamiento de información y que el pensamiento es una forma de computación. [228] El computacionalismo sostiene que la relación entre la mente y el cuerpo es similar o idéntica a la relación entre el software y el hardware y, por lo tanto, puede ser una solución al problema de la mente y el cuerpo . Esta posición filosófica se inspiró en el trabajo de los investigadores de inteligencia artificial y los científicos cognitivos en la década de 1960 y fue propuesta originalmente por los filósofos Jerry Fodor e Hilary Putnam .
Fuerte hipótesis de IA
La posición filosófica que John Searle ha llamado "IA fuerte" establece: "La computadora programada apropiadamente con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido que los seres humanos tienen mente". [l] Searle contrarresta esta afirmación con su argumento de la habitación china , que nos pide que miremos dentro de la computadora y tratemos de encontrar dónde podría estar la "mente". [230]
Derechos de robot
Si se puede crear una máquina que tenga inteligencia, ¿podría también sentir ? Si puede sentir, ¿tiene los mismos derechos que un ser humano? Este tema, ahora conocido como " derechos de los robots ", está siendo considerado actualmente, por ejemplo, por el Instituto para el Futuro de California , aunque muchos críticos creen que la discusión es prematura. [231] [232] Algunos críticos del transhumanismo argumentan que cualquier hipotético derecho de los robots estaría en un espectro con los derechos de los animales y los derechos humanos. [233] El tema se discute profundamente en el documental de 2010 Plug & Pray , [234] y en muchos medios de ciencia ficción como Star Trek Next Generation, con el personaje de Commander Data , que luchó por ser desmontado para la investigación y quería " convertirse en humano ", y los hologramas robóticos en la Voyager.
Superinteligencia
¿Hay límites en lo que pueden ser las máquinas inteligentes, o los híbridos entre humanos y máquinas? Una superinteligencia, hiperinteligencia o inteligencia sobrehumana es un agente hipotético que poseería una inteligencia muy superior a la de la mente humana más brillante y dotada. La superinteligencia también puede referirse a la forma o grado de inteligencia que posee dicho agente. [157]
Singularidad tecnológica
Si la investigación sobre Strong AI produjera un software suficientemente inteligente, podría reprogramarse y mejorarse a sí mismo. El software mejorado sería incluso mejor para mejorarse a sí mismo, lo que conduciría a la superación personal recursiva . [235] La nueva inteligencia podría aumentar así exponencial y dramáticamente sobrepasar a los humanos. El escritor de ciencia ficción Vernor Vinge llamó a este escenario " singularidad ". [236] La singularidad tecnológica es cuando el progreso acelerado de las tecnologías provocará un efecto desbocado en el que la inteligencia artificial superará la capacidad intelectual y el control humanos, cambiando radicalmente o incluso acabando con la civilización. Debido a que las capacidades de tal inteligencia pueden ser imposibles de comprender, la singularidad tecnológica es un acontecimiento más allá del cual los eventos son impredecibles o incluso insondables. [236] [157]
Ray Kurzweil ha utilizado la ley de Moore (que describe la implacable mejora exponencial en la tecnología digital) para calcular que las computadoras de escritorio tendrán la misma potencia de procesamiento que los cerebros humanos para el año 2029 y predice que la singularidad ocurrirá en 2045. [236]
Transhumanismo
El diseñador de robots Hans Moravec , el cibernético Kevin Warwick y el inventor Ray Kurzweil han predicho que los humanos y las máquinas se fusionarán en el futuro en cyborgs que son más capaces y poderosos que cualquiera de los dos. [237] Esta idea, llamada transhumanismo , tiene sus raíces en Aldous Huxley y Robert Ettinger .
Edward Fredkin sostiene que "la inteligencia artificial es la siguiente etapa en la evolución", una idea propuesta por primera vez por " Darwin entre las máquinas " de Samuel Butler ya en 1863, y ampliada por George Dyson en su libro del mismo nombre en 1998. [238]
Impacto
Los efectos económicos a largo plazo de la IA son inciertos. Una encuesta de economistas mostró desacuerdo sobre si el uso cada vez mayor de robots e inteligencia artificial provocará un aumento sustancial del desempleo a largo plazo , pero en general coinciden en que podría ser un beneficio neto, si se redistribuyen las ganancias de productividad . [239] Según un estudio de 2017 de PricewaterhouseCoopers, la República Popular de China sacará el máximo provecho económico de la IA con un 26,1% del PIB hasta 2030. [240] Un libro blanco de la Unión Europea de febrero de 2020 sobre inteligencia artificial propugnaba la inteligencia artificial para fines económicos. beneficios, incluyendo "mejorar la atención médica (por ejemplo, hacer el diagnóstico más preciso, permitir una mejor prevención de enfermedades), aumentar la eficiencia de la agricultura, contribuir a la mitigación y adaptación al cambio climático, [y] mejorar la eficiencia de los sistemas de producción a través del mantenimiento predictivo", al tiempo que se reconoce riesgos potenciales. [193]
La relación entre automatización y empleo es complicada. Si bien la automatización elimina los empleos antiguos, también crea nuevos empleos a través de efectos microeconómicos y macroeconómicos. [241] A diferencia de las oleadas anteriores de automatización, muchos trabajos de clase media pueden ser eliminados por la inteligencia artificial; The Economist afirma que "vale la pena tomar en serio la preocupación de que la inteligencia artificial pueda causarles a los trabajos administrativos lo que la energía del vapor les hizo a los trabajadores manuales durante la Revolución Industrial". [242] Las estimaciones subjetivas del riesgo varían ampliamente; por ejemplo, Michael Osborne y Carl Benedikt Frey estiman que el 47% de los puestos de trabajo estadounidenses tienen "alto riesgo" de automatización potencial, mientras que un informe de la OCDE clasifica sólo el 9% de los puestos de trabajo estadounidenses como "de alto riesgo". [243] [244] [245] Los trabajos con riesgo extremo van desde asistentes legales hasta cocineros de comida rápida, mientras que es probable que aumente la demanda laboral para las profesiones relacionadas con el cuidado que van desde la atención médica personal hasta el clero. [246] El autor Martin Ford y otros van más allá y argumentan que muchos trabajos son rutinarios, repetitivos y (para una IA) predecibles; Ford advierte que estos trabajos pueden automatizarse en las próximas dos décadas, y que muchos de los nuevos trabajos pueden no ser "accesibles para personas con capacidad promedio", incluso con reentrenamiento. Los economistas señalan que en el pasado la tecnología ha tendido a aumentar en lugar de reducir el empleo total, pero reconocen que "estamos en un territorio desconocido" con la IA. [35]
Los posibles efectos negativos de la gripe aviar y la automatización eran un problema importante para Andrew Yang 's 2020 campaña presidencial en los Estados Unidos. [247] Irakli Beridze, director del Centro de Inteligencia Artificial y Robótica del UNICRI, Naciones Unidas, ha expresado que "creo que las aplicaciones peligrosas de la IA, desde mi punto de vista, serían los delincuentes o las grandes organizaciones terroristas que la utilizan para interrumpir procesos grandes o simplemente hacer daño puro. [Los terroristas podrían causar daño] a través de la guerra digital, o podría ser una combinación de robótica, drones, con inteligencia artificial y otras cosas que podrían ser realmente peligrosas. Y, por supuesto, existen otros riesgos de cosas como la pérdida de puestos de trabajo. Si tenemos un gran número de personas que pierden sus puestos de trabajo y no encontramos una solución, será extremadamente peligroso. Cosas como los sistemas de armas autónomas letales deben gobernarse adecuadamente; de lo contrario, existe un enorme potencial de uso indebido ". [248]
Riesgos de la IA estrecha
El uso generalizado de la inteligencia artificial podría tener consecuencias no deseadas que son peligrosas o indeseables. Los científicos del Future of Life Institute , entre otros, describieron algunos objetivos de investigación a corto plazo para ver cómo la IA influye en la economía, las leyes y la ética que están involucradas con la IA y cómo minimizar los riesgos de seguridad de la IA. A largo plazo, los científicos se han propuesto seguir optimizando la función al tiempo que se minimizan los posibles riesgos de seguridad que conllevan las nuevas tecnologías. [249]
A algunos les preocupa el sesgo algorítmico , ya que los programas de inteligencia artificial pueden sesgarse involuntariamente después de procesar datos que exhiben sesgos. [250] Los algoritmos ya tienen numerosas aplicaciones en los sistemas jurídicos. Un ejemplo de esto es COMPAS , un programa comercial ampliamente utilizado por los tribunales estadounidenses para evaluar la probabilidad de que un acusado se convierta en reincidente . ProPublica afirma que el nivel de riesgo de reincidencia promedio asignado por COMPAS a los acusados negros es significativamente más alto que el nivel de riesgo promedio asignado por COMPAS a los acusados blancos. [251]
Riesgos de la IA general
El físico Stephen Hawking , el fundador de Microsoft Bill Gates , el profesor de historia Yuval Noah Harari y el fundador de SpaceX , Elon Musk, han expresado su preocupación por la posibilidad de que la IA evolucione hasta el punto de que los humanos no puedan controlarla, y Hawking teoriza que esto podría " significar el final". de la raza humana ". [252] [253] [254] [255]
El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana. Una vez que los humanos desarrollen inteligencia artificial, despegará por sí sola y se rediseñará a un ritmo cada vez mayor. Los humanos, que están limitados por la lenta evolución biológica, no podrían competir y serían reemplazados.
- Stephen Hawking [256]
En su libro Superintelligence , el filósofo Nick Bostrom ofrece un argumento de que la inteligencia artificial representará una amenaza para la humanidad. Argumenta que la IA suficientemente inteligente, si elige acciones basadas en el logro de algún objetivo, exhibirá un comportamiento convergente , como adquirir recursos o protegerse de ser apagada. Si los objetivos de esta IA no reflejan plenamente los de la humanidad (un ejemplo es una IA que calcule tantos dígitos de pi como sea posible), podría dañar a la humanidad para adquirir más recursos o evitar que se apague, en última instancia, para lograr mejor su objetivo. . Bostrom también enfatiza la dificultad de transmitir completamente los valores de la humanidad a una IA avanzada. Utiliza el ejemplo hipotético de darle a una IA el objetivo de hacer sonreír a los humanos para ilustrar un intento equivocado. Si la IA en ese escenario se volviera superinteligente, argumenta Bostrom, podría recurrir a métodos que la mayoría de los humanos encontrarían horribles, como insertar "electrodos en los músculos faciales de los humanos para causar sonrisas radiantes y constantes" porque eso sería un método eficiente. manera de lograr su objetivo de hacer sonreír a los humanos. [257] En su libro Compatible con humanos , el investigador de inteligencia artificial Stuart J. Russell se hace eco de algunas de las preocupaciones de Bostrom al mismo tiempo que propone un enfoque para desarrollar máquinas demostrablemente beneficiosas centradas en la incertidumbre y la deferencia hacia los humanos, [258] : 173 posiblemente involucrando el aprendizaje por refuerzo inverso . [258] : 191–193
La preocupación por el riesgo de la inteligencia artificial ha llevado a algunas donaciones e inversiones de alto perfil. Un grupo de prominentes titanes de la tecnología, incluidos Peter Thiel , Amazon Web Services y Musk, han comprometido mil millones de dólares para OpenAI , una empresa sin fines de lucro destinada a promover el desarrollo responsable de la inteligencia artificial. [259] La opinión de los expertos en el campo de la inteligencia artificial es mixta, con fracciones considerables preocupadas y despreocupadas por el riesgo de una eventual IA con capacidad sobrehumana. [260] Otros líderes de la industria tecnológica creen que la inteligencia artificial es útil en su forma actual y continuará ayudando a los humanos. El director ejecutivo de Oracle, Mark Hurd, ha declarado que la IA "en realidad creará más puestos de trabajo, no menos", ya que se necesitarán seres humanos para gestionar los sistemas de IA. [261] El director ejecutivo de Facebook, Mark Zuckerberg, cree que la IA "desbloqueará una gran cantidad de cosas positivas", como curar enfermedades y aumentar la seguridad de los coches autónomos. [262] En enero de 2015, Musk donó $ 10 millones al Future of Life Institute para financiar la investigación sobre la comprensión de la toma de decisiones de la IA. El objetivo del instituto es "cultivar la sabiduría con la que gestionamos" el creciente poder de la tecnología. Musk también financia a empresas que desarrollan inteligencia artificial como DeepMind y Vicarious para "vigilar lo que sucede con la inteligencia artificial. [263] Creo que existe un resultado potencialmente peligroso". [264] [265]
Para que se materialice el peligro de la IA avanzada incontrolada, la IA hipotética tendría que dominar o superar a toda la humanidad, lo que una minoría de expertos argumenta es una posibilidad lo suficientemente lejana en el futuro como para que no valga la pena investigarla. [266] [267] Otros contraargumentos giran en torno a que los seres humanos son intrínseca o convergente valiosos desde la perspectiva de una inteligencia artificial. [268]
Regulación
La regulación de la inteligencia artificial es el desarrollo de políticas y leyes del sector público para promover y regular la inteligencia artificial (IA); [269] [270] por lo tanto, está relacionado con la regulación más amplia de algoritmos . El panorama normativo y de políticas para la IA es un problema emergente en jurisdicciones de todo el mundo, incluida la Unión Europea. [271] La regulación se considera necesaria tanto para fomentar la IA como para gestionar los riesgos asociados. [272] [273] La regulación de la IA a través de mecanismos como las juntas de revisión también puede verse como un medio social para abordar el problema del control de la IA . [274]
En ficción
Los seres artificiales capaces de pensar aparecieron como dispositivos para contar historias desde la antigüedad, [37] y han sido un tema persistente en la ciencia ficción .
Un común tropo en estas obras se inició con Mary Shelley 's Frankenstein , donde una creación humana se convierte en una amenaza para sus amos. Esto incluye obras como Arthur C. Clarke y Stanley Kubrick's 2001: A Space Odyssey (ambas de 1968), con HAL 9000 , la computadora asesina a cargo de la nave espacial Discovery One , así como The Terminator (1984) y The Matrix (1999). ). En contraste, los raros robots leales como Gort de The Day the Earth Stood Still (1951) y Bishop from Aliens (1986) son menos prominentes en la cultura popular. [275]
Isaac Asimov introdujo las Tres Leyes de la Robótica en muchos libros e historias, sobre todo en la serie "Multivac" sobre una computadora superinteligente del mismo nombre. Las leyes de Asimov a menudo se plantean durante las discusiones profanas sobre la ética de las máquinas; [276] mientras que casi todos los investigadores de inteligencia artificial están familiarizados con las leyes de Asimov a través de la cultura popular, generalmente consideran que las leyes son inútiles por muchas razones, una de las cuales es su ambigüedad. [277]
El transhumanismo (la fusión de humanos y máquinas) se explora en el manga Ghost in the Shell y la serie de ciencia ficción Dune . En la década de 1980, la serie Sexy Robots del artista Hajime Sorayama se pintó y publicó en Japón que representa la forma humana orgánica real con pieles metálicas musculosas realistas y luego siguió el libro "The Gynoids" que fue utilizado o influido por cineastas como George Lucas y otros. creatividades. Sorayama nunca consideró que estos robots orgánicos fueran parte real de la naturaleza, sino siempre un producto antinatural de la mente humana, una fantasía que existe en la mente incluso cuando se realiza en forma real.
Varias obras utilizan la IA para obligarnos a afrontar la cuestión fundamental de qué nos hace humanos, mostrándonos seres artificiales que tienen la capacidad de sentir y, por tanto, de sufrir. Esto aparece en el RUR de Karel Čapek , las películas AI Artificial Intelligence y Ex Machina , así como en la novela ¿Sueñan los androides con ovejas eléctricas? , por Philip K. Dick . Dick considera la idea de que nuestra comprensión de la subjetividad humana se ve alterada por la tecnología creada con inteligencia artificial. [278]
Ver también
- AI en aumento
- Problema de control de IA
- Carrera armamentista de inteligencia artificial
- Inteligencia artificial general
- Algoritmo de selección de comportamiento
- Automatización de procesos comerciales
- Razonamiento basado en casos
- Ciencia ciudadana
- Algoritmo emergente
- Género femenino de tecnologías de IA
- Glosario de inteligencia artificial
- Regulación de la inteligencia artificial
- Automatización robótica de procesos
- Inteligencia sintética
- Renta básica universal
- IA débil
Notas explicatorias
- ^ El acto de repartir recompensas se puede formalizar o automatizar en sí mismo en una " función de recompensa ".
- ^ La terminología varía; ver caracterizaciones de algoritmos .
- ^ Las vulnerabilidades adversas también pueden resultar en sistemas no lineales o de perturbaciones que no son de patrón. Algunos sistemas son tan frágiles que cambiar un solo píxel adversario induce previsiblemente una clasificación errónea.
- ↑ Alan Turing discutió la centralidad del aprendizaje ya en 1950, en su artículo clásico " Computing Machinery and Intelligence ". [125] En 1956, en la conferencia de verano original de Dartmouth AI, Ray Solomonoff escribió un informe sobre el aprendizaje automático probabilístico no supervisado: "Una máquina de inferencia inductiva". [126]
- ^ Esta es una forma de ladefinición de aprendizaje automático ampliamente citadade Tom Mitchell : "Un programa de computadora está configurado para aprender de una experiencia E con respecto a alguna tarea T y alguna medida de desempeño P si su desempeño en T medido por P mejora con experiencia E ".
- ^ Nils Nilsson escribe: "En pocas palabras, existe un gran desacuerdo en el campo acerca de qué es la IA". [166]
- ↑ El caso más dramático de IA sub-simbólica que fue relegada a un segundo plano fue la devastadora crítica de los perceptrones por Marvin Minsky y Seymour Papert en 1969. Ver Historia de la IA , el invierno de la IA o Frank Rosenblatt . [ cita requerida ]
- ^ Si bien tal "victoria de los pulcros" puede ser una consecuencia de que el campo se vuelva más maduro, AIMA afirma que, en la práctica, tanto losenfoques pulcros como los desaliñados continúan siendo necesarios en la investigación de la IA.
- ↑ Dreyfus criticó lacondición necesaria de lahipótesis del sistema de símbolos físicos , a la que llamó el "supuesto psicológico": "La mente puede verse como un dispositivo que opera sobre bits de información de acuerdo con reglas formales". [207]
- ↑ A principios de la década de 1970, Kenneth Colby presentó una versión de ELIZA de Weizenbaumconocida como DOCTOR, que promovió como una herramienta terapéutica seria. [216]
- ^ Esto se basa en Mary's Room , un experimento mental propuesto por primera vez por Frank Jackson en 1982
- ^ Esta versión es de Searle (1999) y también se cita en Dennett 1991 , p. 435. La formulación original de Searle era "La computadora apropiadamente programada es realmente una mente, en el sentido de que se puede decir literalmente que las computadoras con los programas adecuados comprenden y tienen otros estados cognitivos". [229] La IA fuerte es definida de manera similar por Russell y Norvig (2003 , p. 947): "La afirmación de que las máquinas posiblemente podrían actuar de manera inteligente (o, quizás mejor, actuar como si fueran inteligentes) se denomina hipótesis de la 'IA débil' por los filósofos, y la afirmación de que las máquinas que lo hacen realmente están pensando (en lugar de simular el pensamiento) se denomina hipótesis de la 'IA fuerte' ".
Referencias
- ^ Poole, Mackworth y Goebel 1998 , p. 1 .
- ^ Russell y Norvig 2003 , p. 55.
- ^ a b c Definición de IA como el estudio de agentes inteligentes :
- Poole, Mackworth & Goebel (1998) , que proporciona la versión que se utiliza en este artículo. Estos autores utilizan el término "inteligencia computacional" como sinónimo de inteligencia artificial. [1]
- Russell y Norvig (2003) (que prefieren el término "agente racional") y escriben "La visión del agente completo es ahora ampliamente aceptada en el campo". [2]
- Nilsson 1998
- Legg y Hutter 2007
- ^ Russell y Norvig 2009 , p. 2.
- ^ McCorduck 2004 , p. 204
- ^ Maloof, Mark. "Inteligencia artificial: una introducción, p. 37" (PDF) . georgetown.edu . Archivado (PDF) desde el original el 25 de agosto de 2018.
- ^ "Cómo la IA está consiguiendo cambios revolucionarios en la gestión del talento y la tecnología de recursos humanos" . Hackernoon. Archivado desde el original el 11 de septiembre de 2019 . Consultado el 14 de febrero de 2020 .
- ^ Schank, Roger C. (1991). "¿Dónde está la IA". Revista AI . Vol. 12 no. 4. p. 38.
- ^ Russell y Norvig 2009 .
- ^ a b "AlphaGo - Google DeepMind" . Archivado desde el original el 10 de marzo de 2016.
- ^ a b Bolos, Michael; Burch, Neil; Johanson, Michael; Tammelin, Oskari (9 de enero de 2015). "Heads-up limit Hold'em poker está resuelto" . Ciencia . 347 (6218): 145-149. Código bibliográfico : 2015Sci ... 347..145B . doi : 10.1126 / science.1259433 . ISSN 0036-8075 . PMID 25574016 . S2CID 3796371 .
- ^ Allen, Gregory (abril de 2020). "Centro conjunto de inteligencia artificial del Departamento de Defensa: comprensión de la tecnología de inteligencia artificial" (PDF) . AI.mil: el sitio oficial del Centro Conjunto de Inteligencia Artificial del Departamento de Defensa . Archivado (PDF) desde el original el 21 de abril de 2020 . Consultado el 25 de abril de 2020 .
- ^ a b Optimismo de la IA temprana: * Cita de Herbert Simon : Simon 1965 , p. 96 citado en Crevier 1993 , p. 109. * Cita de Marvin Minsky : Minsky 1967 , pág. 2 citado en Crevier 1993 , p. 109.
- ^ a b c Boom de la década de 1980: auge de los sistemas expertos , Proyecto de Quinta Generación , Alvey , MCC , SCI : * McCorduck 2004 , págs. 426–441 * Crevier 1993 , págs. 161–162,197–203, 211, 240 * Russell Y Norvig 2003 , pág. 24 * NRC 1999 , págs. 210–211 * Newquist 1994 , págs. 235–248
- ^ a b Primer invierno de AI , Enmienda Mansfield , informe Lighthill * Crevier 1993 , págs. 115-117 * Russell y Norvig 2003 , pág. 22 * NRC 1999 , págs. 212–213 * Howe 1994 * Newquist 1994 , págs. 189–201
- ^ a b Segundo invierno de IA : * McCorduck 2004 , págs. 430–435 * Crevier 1993 , págs. 209–210 * NRC 1999 , págs. 214–216 * Newquist 1994 , págs. 301–318
- ^ a b c La IA tiene un gran éxito a principios del siglo XXI * Clark 2015b
- ^ Haenlein, Michael; Kaplan, Andreas (2019). "Una breve historia de la inteligencia artificial: sobre el pasado, presente y futuro de la inteligencia artificial" . Revisión de la gestión de California . 61 (4): 5–14. doi : 10.1177 / 0008125619864925 . ISSN 0008-1256 . S2CID 199866730 .
- ^ a b Pamela McCorduck (2004 , p. 424) escribe sobre "la ruptura aproximada de la IA en subcampos (visión, lenguaje natural, teoría de decisiones, algoritmos genéticos, robótica ... y estos con subcampo propio) que difícilmente habrían cualquier cosa que decirse el uno al otro ".
- ^ a b c Esta lista de rasgos inteligentes se basa en los temas cubiertos por los principales libros de texto de IA, que incluyen: * Russell y Norvig 2003 * Luger & Stubblefield 2004 * Poole, Mackworth & Goebel 1998 * Nilsson 1998
- ^ Kolata 1982 .
- ^ Creador de 2006 .
- ^ a b c Inteligencia biológica frente a inteligencia en general:
- Russell y Norvig 2003 , págs. 2-3, que hacen la analogía con la ingeniería aeronáutica .
- McCorduck 2004 , pp. 100-101, quien escribe que hay "dos ramas principales de la inteligencia artificial: una dirigida a producir un comportamiento inteligente independientemente de cómo se haya logrado, y la otra dirigida a modelar los procesos inteligentes que se encuentran en la naturaleza, particularmente los humanos . "
- Kolata 1982 , un artículo en Science , que describe la indiferencia de McCarthy hacia los modelos biológicos. Kolata cita a McCarthy escribiendo: "Esto es IA, así que no nos importa si es psicológicamente real". [21] McCarthy reiteró recientemente su posición en la conferencia AI @ 50 donde dijo que "la inteligencia artificial no es, por definición, una simulación de la inteligencia humana". [22]
- ↑ a b c Neats vs. scruffies : * McCorduck 2004 , págs. 421–424, 486–489 * Crevier 1993 , p. 168 * Nilsson 1983 , págs. 10-11
- ^ a b AI simbólico vs. sub-simbólico: * Nilsson (1998 , p. 7), que usa el término "sub-simbólico".
- ^ a b La inteligencia general ( IA fuerte ) se discute en introducciones populares a la IA: * Kurzweil 1999 y Kurzweil 2005
- ^ Ver la propuesta de Dartmouth , bajo Filosofía , más abajo.
- ^ McCorduck 2004 , p. 34.
- ^ McCorduck 2004 , p. xviii.
- ^ McCorduck 2004 , p. 3.
- ^ McCorduck 2004 , págs. 340–400.
- ^ Un b Esta es una idea central de Pamela McCorduck 's Máquinas que piensan . Ella escribe:
- "Me gusta pensar en la inteligencia artificial como la apoteosis científica de una venerable tradición cultural". [28]
- "La inteligencia artificial de una forma u otra es una idea que ha invadido la historia intelectual occidental, un sueño que necesita urgentemente ser realizado". [29]
- "Nuestra historia está llena de intentos —locos, misteriosos, cómicos, serios, legendarios y reales— de crear inteligencias artificiales, de reproducir lo que es nuestro esencial, sin pasar por los medios ordinarios. De ida y vuelta entre el mito y la realidad, nuestras imaginaciones suministran lo que nuestros talleres no pudieron, llevamos mucho tiempo comprometidos en esta extraña forma de autorreproducción ". [30]
- ^ "Stephen Hawking cree que la IA podría ser el último logro de la humanidad" . BetaNews . 21 de octubre de 2016. Archivado desde el original el 28 de agosto de 2017.
- ^ Lombardo P, Boehm I, Nairz K (2020). "RadioComics - Santa Claus y el futuro de la radiología" . Eur J Radiol . 122 (1): 108771. doi : 10.1016 / j.ejrad.2019.108771 . PMID 31835078 .
- ^ a b Ford, Martin; Colvin, Geoff (6 de septiembre de 2015). "¿Los robots crearán más puestos de trabajo de los que destruyen?" . The Guardian . Archivado desde el original el 16 de junio de 2018 . Consultado el 13 de enero de 2018 .
- ^ a b Aplicaciones de IA ampliamente utilizadas entre bastidores: * Russell & Norvig 2003 , p. 28 * Kurzweil 2005 , pág. 265 * NRC 1999 , págs. 216–222 * Newquist 1994 , págs. 189–201
- ^ a b AI en el mito: * McCorduck 2004 , págs. 4-5 * Russell y Norvig 2003 , pág. 939
- ^ AI en la ciencia ficción temprana. * McCorduck 2004 , págs. 17-25
- ^ Razonamiento formal: * Berlinski, David (2000). El advenimiento del algoritmo . Libros de Harcourt. ISBN 978-0-15-601391-8. OCLC 46890682 . Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- ^ Turing, Alan (1948), "Machine Intelligence", en Copeland, B. Jack (ed.), The Essential Turing: Las ideas que dieron origen a la era de la informática , Oxford: Oxford University Press, p. 412, ISBN 978-0-19-825080-7
- ^ Russell y Norvig 2009 , p. dieciséis.
- ^ Conferencia de Dartmouth : * McCorduck 2004 , págs. 111-136 * Crevier 1993 , págs. 47-49, quien escribe "la conferencia es generalmente reconocida como la fecha de nacimiento oficial de la nueva ciencia". * Russell y Norvig 2003 , pág. 17, quienes llaman a la conferencia "el nacimiento de la inteligencia artificial". * NRC 1999 , págs. 200–201
- ^ McCarthy, John (1988). "Revisión de la cuestión de la inteligencia artificial ". Anales de la historia de la informática . 10 (3): 224-229., recogido en McCarthy, John (1996). "10. Revisión de la cuestión de la inteligencia artificial ". Defendiendo la investigación de la IA: una colección de ensayos y reseñas . CSLI., pag. 73, "[U] na de las razones para inventar el término" inteligencia artificial "fue escapar de la asociación con la" cibernética ". Su concentración en la retroalimentación analógica parecía equivocada, y deseaba evitar tener que aceptar a Norbert (no a Robert) Wiener como gurú o tener que discutir con él ".
- ^ Hegemonía de los asistentes a la conferencia de Dartmouth: * Russell & Norvig 2003 , p. 17, quienes escriben "durante los próximos 20 años el campo estará dominado por estas personas y sus estudiantes". * McCorduck 2004 , págs. 129–130
- ^ Russell y Norvig 2003 , p. 18: "era asombroso cada vez que una computadora hacía algo inteligente"
- ^ Schaeffer J. (2009) ¿No resolvió Samuel ese juego ?. En: Un salto adelante. Springer, Boston, MA
- ^ Samuel, AL (julio de 1959). "Algunos estudios en aprendizaje automático utilizando el juego de damas". Revista de investigación y desarrollo de IBM . 3 (3): 210-229. CiteSeerX 10.1.1.368.2254 . doi : 10.1147 / rd.33.0210 .
- ^ " Años dorados " de la IA (programas exitosos de razonamiento simbólico 1956-1973): * McCorduck 2004 , pp. 243-252 * Crevier 1993 , pp. 52-107 * Moravec 1988 , p. 9 * Russell y Norvig 2003 , pp. 18-21 Los programas descritos son Arthur Samuel 's programa de damas para el IBM 701 , Daniel Bobrow ' s ESTUDIANTE , Newell y Simon 's Lógico Teórico y Terry Winograd ' s SHRDLU .
- ^ DARPA invierte dinero en la investigación pura no dirigida sobre IA durante la década de 1960: * McCorduck 2004 , p. 131 * Crevier 1993 , págs. 51, 64–65 * NRC 1999 , págs. 204–205
- ^ AI en Inglaterra: * Howe 1994
- ^ Lighthill 1973 .
- ^ a b Sistemas expertos: * ACM 1998 , I.2.1 * Russell y Norvig 2003 , págs. 22-24 * Luger y Stubblefield 2004 , págs. 227-331 * Nilsson 1998 , cap. 17.4 * McCorduck 2004 , págs. 327–335, 434–435 * Crevier 1993 , págs. 145–62, 197–203 * Newquist 1994 , págs. 155–183
- ^ Mead, Carver A .; Ismail, Mohammed (8 de mayo de 1989). Implementación VLSI analógica de sistemas neuronales (PDF) . Serie internacional de Kluwer en ingeniería y ciencias de la computación. 80 . Norwell, MA: Kluwer Academic Publishers . doi : 10.1007 / 978-1-4613-1639-8 . ISBN 978-1-4613-1639-8. Archivado desde el original (PDF) el 6 de noviembre de 2019 . Consultado el 24 de enero de 2020 .
- ^ a b Ahora se prefieren los métodos formales ("Victoria de los neats "): * Russell & Norvig 2003 , pp. 25-26 * McCorduck 2004 , pp. 486-487
- ^ McCorduck 2004 , págs. 480–483.
- ^ Markoff 2011 .
- ^ "Pregunte a los expertos en IA: ¿Qué está impulsando el progreso actual de la IA?" . McKinsey & Company . Archivado desde el original el 13 de abril de 2018 . Consultado el 13 de abril de 2018 .
- ^ Fairhead, Harry (26 de marzo de 2011) [Actualización del 30 de marzo de 2011]. "Explicación del avance de la IA de Kinect" . Programador . Archivado desde el original el 1 de febrero de 2016.
- ^ Rowinski, Dan (15 de enero de 2013). "Asistentes personales virtuales y el futuro de su teléfono inteligente [Infografía]" . Leer y escribir . Archivado desde el original el 22 de diciembre de 2015.
- ^ "Inteligencia artificial: AlphaGo de Google vence al maestro de Go Lee Se-dol" . BBC News . 12 de marzo de 2016. Archivado desde el original el 26 de agosto de 2016 . Consultado el 1 de octubre de 2016 .
- ^ Metz, Cade (27 de mayo de 2017). "Después de ganar en China, los diseñadores de AlphaGo exploran nueva IA" . Cableado . Archivado desde el original el 2 de junio de 2017.
- ^ "Calificaciones de jugadores de Go del mundo" . Mayo de 2017. Archivado desde el original el 1 de abril de 2017.
- ^ "柯 洁 迎 19 岁 生日 雄踞 人类 世界 排名 第一 已 两年" (en chino). Mayo de 2017. Archivado desde el original el 11 de agosto de 2017.
- ^ "MuZero: Dominando Go, ajedrez, shogi y Atari sin reglas" . Deepmind . Consultado el 1 de marzo de 2021 .
- ^ Steven Borowiec; Tracey Lien (12 de marzo de 2016). "AlphaGo vence al campeón de Go humano en un hito para la inteligencia artificial" . Los Angeles Times . Consultado el 13 de marzo de 2016 .
- ^ Silver, David ; Hubert, Thomas; Schrittwieser, Julian; Antonoglou, Ioannis; Lai, Matthew; Guez, Arthur; Lanctot, Marc; Sifre, Laurent; Kumaran, Dharshan; Graepel, Thore; Lillicrap, Timothy; Simonyan, Karen; Hassabis, Demis (7 de diciembre de 2018). "Un algoritmo general de aprendizaje por refuerzo que domina el ajedrez, el shogi y pasa por el auto-juego" . Ciencia . 362 (6419): 1140-1144. Código bibliográfico : 2018Sci ... 362.1140S . doi : 10.1126 / science.aar6404 . PMID 30523106 .
- ^ Schrittwieser, Julian; Antonoglou, Ioannis; Hubert, Thomas; Simonyan, Karen; Sifre, Laurent; Schmitt, Simon; Guez, Arthur; Lockhart, Edward; Hassabis, Demis; Graepel, Thore; Lillicrap, Timothy (23 de diciembre de 2020). "Dominar Atari, Go, ajedrez y shogi mediante la planificación con un modelo aprendido" . Naturaleza . 588 (7839): 604–609. arXiv : 1911.08265 . Código Bib : 2020Natur.588..604S . doi : 10.1038 / s41586-020-03051-4 . ISSN 1476-4687 . PMID 33361790 . S2CID 208158225 .
- ^ Tung, Liam. "La inteligencia artificial DeepMind de Google asesora el desafío del juego de Atari" . ZDNet . Consultado el 1 de marzo de 2021 .
- ^ Solly, Meilan. "Esta IA que juega al póquer sabe cuándo retenerlos y cuándo doblarlos" . Smithsonian .
Pluribus ha superado a los profesionales del póquer en una serie de juegos de Texas Hold'em sin límite para seis jugadores, alcanzando un hito en la investigación de inteligencia artificial. Es el primer bot en vencer a los humanos en una compleja competencia multijugador.
- ↑ a b Clark, 2015b . "Después de media década de silenciosos avances en inteligencia artificial, 2015 ha sido un año histórico. Las computadoras son más inteligentes y aprenden más rápido que nunca".
- ^ "Remodelación de negocios con inteligencia artificial" . Revisión de la gestión Sloan del MIT . Archivado desde el original el 19 de mayo de 2018 . Consultado el 2 de mayo de 2018 .
- ^ Lorica, Ben (18 de diciembre de 2017). "El estado de la adopción de la IA" . O'Reilly Media . Archivado desde el original el 2 de mayo de 2018 . Consultado el 2 de mayo de 2018 .
- ^ Allen, Gregory (6 de febrero de 2019). "Comprensión de la estrategia de inteligencia artificial de China" . Centro para una nueva seguridad estadounidense . Archivado desde el original el 17 de marzo de 2019.
- ^ "Revisión | Cómo dos superpotencias de inteligencia artificial, Estados Unidos y China, luchan por la supremacía en el campo" . The Washington Post . 2 de noviembre de 2018. Archivado desde el original el 4 de noviembre de 2018 . Consultado el 4 de noviembre de 2018 .
- ^ Anadiotis, George (1 de octubre de 2020). "El estado de la IA en 2020: democratización, industrialización y el camino hacia la inteligencia artificial general" . ZDNet . Consultado el 1 de marzo de 2021 .
- ^ Heath, Nick (11 de diciembre de 2020). "¿Qué es la IA? Todo lo que necesitas saber sobre Inteligencia Artificial" . ZDNet . Consultado el 1 de marzo de 2021 .
- ^ Kaplan, Andreas; Haenlein, Michael (1 de enero de 2019). "Siri, Siri, en mi mano: ¿Quién es la más bella del país? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Horizontes de negocios . 62 (1): 15-25. doi : 10.1016 / j.bushor.2018.08.004 .
- ^ Domingos 2015 , Capítulo 5.
- ^ Domingos 2015 , Capítulo 7.
- ^ Lindenbaum, M., Markovitch, S. y Rusakov, D. (2004). Muestreo selectivo para clasificadores vecinos más cercanos. Aprendizaje automático, 54 (2), 125-152.
- ^ Domingos 2015 , Capítulo 1.
- ^ a b Intratabilidad y eficiencia y la explosión combinatoria : * Russell y Norvig 2003 , págs. 9, 21-22
- ^ Domingos 2015 , Capítulo 2, Capítulo 3.
- ^ Hart, PE; Nilsson, Nueva Jersey; Rafael, B. (1972). "Corrección de" una base formal para la determinación heurística de rutas de costo mínimo " ". Boletín SIGART (37): 28–29. doi : 10.1145 / 1056777.1056779 . S2CID 6386648 .
- ^ Domingos 2015 , Capítulo 2, Capítulo 4, Capítulo 6.
- ^ "¿Pueden las computadoras de redes neuronales aprender de la experiencia y, de ser así, podrían convertirse en lo que llamaríamos 'inteligentes'?" . Scientific American . 2018. Archivado desde el original el 25 de marzo de 2018 . Consultado el 24 de marzo de 2018 .
- ^ Domingos 2015 , Capítulo 6, Capítulo 7.
- ^ Domingos 2015 , p. 286.
- ^ "El cambio de un píxel engaña a los programas de IA" . BBC News . 3 de noviembre de 2017. Archivado desde el original el 22 de marzo de 2018 . Consultado el 12 de marzo de 2018 .
- ^ "La IA tiene un problema de alucinaciones que está resultando difícil de solucionar" . CON CABLE . 2018. Archivado desde el original el 12 de marzo de 2018 . Consultado el 12 de marzo de 2018 .
- ^ "Cultivando el sentido común | DiscoverMagazine.com" . Revista Discover . 2017. Archivado desde el original el 25 de marzo de 2018 . Consultado el 24 de marzo de 2018 .
- ^ Davis, Ernest; Marcus, Gary (24 de agosto de 2015). "Razonamiento con sentido común y conocimiento con sentido común en inteligencia artificial" . Comunicaciones de la ACM . 58 (9): 92–103. doi : 10.1145 / 2701413 . S2CID 13583137 . Archivado desde el original el 22 de agosto de 2020 . Consultado el 6 de abril de 2020 .
- ^ Winograd, Terry (enero de 1972). "Comprensión del lenguaje natural". Psicología cognitiva . 3 (1): 1–191. doi : 10.1016 / 0010-0285 (72) 90002-3 .
- ^ "No te preocupes: los coches autónomos no llegarán mañana (ni el año que viene)" . Autoweek . 2016. Archivado desde el original el 25 de marzo de 2018 . Consultado el 24 de marzo de 2018 .
- ^ Caballero, Will (2017). "Boston puede ser famoso por los malos conductores, pero es el campo de pruebas para un automóvil autónomo más inteligente" . Revisión de tecnología del MIT . Archivado desde el original el 22 de agosto de 2020 . Consultado el 27 de marzo de 2018 .
- ^ Prakken, Henry (31 de agosto de 2017). "Sobre el problema de hacer que los vehículos autónomos se ajusten a la ley de tráfico" . Inteligencia artificial y derecho . 25 (3): 341–363. doi : 10.1007 / s10506-017-9210-0 .
- ^ a b Lieto, Antonio; Lebiere, Christian; Oltramari, Alessandro (mayo de 2018). "El nivel de conocimiento en arquitecturas cognitivas: limitaciones actuales y posibles desarrollos". Investigación de sistemas cognitivos . 48 : 39–55. doi : 10.1016 / j.cogsys.2017.05.001 . hdl : 2318/1665207 . S2CID 206868967 .
- ^ Resolución de problemas, resolución de acertijos, juego y deducción: * Russell & Norvig 2003 , cap. 3–9, * Poole, Mackworth y Goebel 1998 , cap. 2,3,7,9, * Luger y Stubblefield 2004 , cap. 3,4,6,8, * Nilsson 1998 , cap. 7-12
- ^ Razonamiento incierto: * Russell y Norvig 2003 , págs. 452–644, * Poole, Mackworth y Goebel 1998 , págs. 345–395, * Luger y Stubblefield 2004 , págs. 333–381, * Nilsson 1998 , cap. 19
- ^ Evidencia psicológica del razonamiento sub-simbólico: * Wason y Shapiro (1966) demostraron que a las personas les va mal en problemas completamente abstractos, pero si el problema se replantea para permitir el uso de la inteligencia social intuitiva, el rendimiento mejora drásticamente. (Véase la tarea de selección de Wason ) * Kahneman, Slovic y Tversky (1982) han demostrado que las personas son terribles en los problemas elementales que implican un razonamiento incierto. (Consulte la lista de sesgos cognitivos para ver varios ejemplos). * Lakoff y Núñez (2000) han argumentado de manera controvertida que incluso nuestras habilidades en matemáticas dependen de conocimientos y habilidades que provienen del "cuerpo", es decir, habilidades sensoriomotoras y perceptivas. (Ver de dónde vienen las matemáticas )
- ^ Representación del conocimiento : * ACM 1998 , I.2.4, * Russell y Norvig 2003 , págs. 320–363, * Poole, Mackworth y Goebel 1998 , págs. 23–46, 69–81, 169–196, 235–277, 281–298, 319–345, * Luger y Stubblefield 2004 , págs. 227–243, * Nilsson 1998 , cap. 18
- ^ Ingeniería del conocimiento : * Russell y Norvig 2003 , págs. 260-266, * Poole, Mackworth y Goebel 1998 , págs. 199-233, * Nilsson 1998 , cap. 17,1-17,4
- ^ Representación de categorías y relaciones: redes semánticas , lógicas de descripción , herencia (incluidos marcos y guiones ): * Russell y Norvig 2003 , págs. 349–354, * Poole, Mackworth y Goebel 1998 , págs. 174-177, * Luger y Stubblefield 2004 , págs. 248-258, * Nilsson 1998 , cap. 18,3
- ^ En representación de los acontecimientos y el tiempo: cálculo de situaciones , el cálculo caso , el cálculo fluidez (incluyendo la solución del problema del marco ): * Russell y Norvig 2003 , pp. 328-341, * Poole, Mackworth y Goebel 1998 , pp. 281-298, * Nilsson 1998 , cap. 18,2
- ^ Cálculo causal : * Poole, Mackworth y Goebel 1998 , págs. 335–337
- ^ Representación del conocimiento sobre el conocimiento: cálculo de creencias, lógicas modales : * Russell y Norvig 2003 , págs. 341–344, * Poole, Mackworth y Goebel 1998 , págs. 275–277
- ^ Sikos, Leslie F. (junio de 2017). Descripción Lógicas en el razonamiento multimedia . Cham: Springer. doi : 10.1007 / 978-3-319-54066-5 . ISBN 978-3-319-54066-5. S2CID 3180114 . Archivado desde el original el 29 de agosto de 2017.
- ^ Ontología : * Russell y Norvig 2003 , págs. 320–328
- ^ Smoliar, Stephen W .; Zhang, HongJiang (1994). "Indexación y recuperación de videos basados en contenido". IEEE Multimedia . 1 (2): 62–72. doi : 10.1109 / 93.311653 . S2CID 32710913 .
- ^ Neumann, Bernd; Möller, Ralf (enero de 2008). "Interpretación en escena con lógicas descriptivas". Computación de imagen y visión . 26 (1): 82–101. doi : 10.1016 / j.imavis.2007.08.013 .
- ^ Kuperman, GJ; Reichley, RM; Bailey, TC (1 de julio de 2006). "Uso de bases de conocimiento comercial para el apoyo a la toma de decisiones clínicas: oportunidades, obstáculos y recomendaciones" . Revista de la Asociación Estadounidense de Informática Médica . 13 (4): 369–371. doi : 10.1197 / jamia.M2055 . PMC 1513681 . PMID 16622160 .
- ^ MCGARRY, KEN (1 de diciembre de 2005). "Una encuesta de medidas de interés para el descubrimiento de conocimientos". La revisión de la ingeniería del conocimiento . 20 (1): 39–61. doi : 10.1017 / S0269888905000408 . S2CID 14987656 .
- ^ Bertini, M; Del Bimbo, A; Torniai, C (2006). "Anotación automática y recuperación semántica de secuencias de video mediante ontologías multimedia". MM '06 Actas de la 14ª conferencia internacional ACM sobre Multimedia . XIV Congreso Internacional ACM sobre Multimedia. Santa Bárbara: ACM. págs. 679–682.
- ^ Problema de calificación : * McCarthy & Hayes 1969 * Russell & Norvig 2003 [ página necesaria ] Mientras que McCarthy estaba principalmente preocupado por cuestiones en la representación lógica de acciones, Russell & Norvig 2003 aplican el término al problema más general del razonamiento predeterminado en la vasta red de supuestos subyacentes a todo nuestro conocimiento de sentido común.
- ^ Razonamiento predeterminado y lógica predeterminada , lógicas no monótonas , circunscripción , suposición de mundo cerrado , abducción (Poole et al. Coloca la abducción en "razonamiento predeterminado". Luger et al. Coloca esto bajo "razonamiento incierto"): * Russell & Norvig 2003 , págs. 354–360, * Poole, Mackworth y Goebel 1998 , págs. 248–256, 323–335, * Luger y Stubblefield 2004 , págs. 335–363, * Nilsson 1998 , ~ 18.3.3
- ^ Amplitud de conocimiento de sentido común: * Russell y Norvig 2003 , p. 21, * Crevier 1993 , págs. 113-114, * Moravec 1988 , pág. 13, * Lenat & Guha 1989 (Introducción)
- ^ Dreyfus y Dreyfus 1986 .
- ^ Gladwell 2005 .
- ^ a b El conocimiento experto como intuición incorporada : * Dreyfus & Dreyfus 1986 ( Hubert Dreyfus es un filósofo y crítico de la IA que fue uno de los primeros en argumentar que el conocimiento humano más útil estaba codificado sub-simbólicamente. Ver la crítica de Dreyfus a la IA ) * Gladwell 2005 (Gladwell's Blink es una introducción popular al razonamiento y conocimiento sub-simbólico). * Hawkins & Blakeslee 2005 (Hawkins sostiene que el conocimiento sub-simbólico debería ser el enfoque principal de la investigación de la IA).
- ^ Planificación : * ACM 1998 , ~ I.2.8, * Russell y Norvig 2003 , págs. 375–459, * Poole, Mackworth y Goebel 1998 , págs. 281–316, * Luger y Stubblefield 2004 , págs. 314–329, * Nilsson 1998 , cap. 10.1–2, 22
- ^ Teoría del valor de la información : * Russell y Norvig 2003 , págs. 600–604
- ^ Planificación clásica: * Russell y Norvig 2003 , págs. 375–430, * Poole, Mackworth y Goebel 1998 , págs. 281–315, * Luger y Stubblefield 2004 , págs. 314–329, * Nilsson 1998 , cap. 10.1–2, 22
- ^ Planificación y actuación en dominios no deterministas: planificación condicional, seguimiento de la ejecución, replanificación y planificación continua: * Russell y Norvig 2003 , págs. 430–449
- ^ Planificación de agentes múltiples y comportamiento emergente: * Russell y Norvig 2003 , págs. 449–455
- ^ Turing, 1950 .
- ^ Solomonoff 1956 .
- ^ a b Aprendizaje : * ACM 1998 , I.2.6, * Russell y Norvig 2003 , págs. 649–788, * Poole, Mackworth y Goebel 1998 , págs. 397–438, * Luger y Stubblefield 2004 , págs. 385–542 , * Nilsson 1998 , cap. 3.3, 10.3, 17.5, 20
- ^ Jordan, MI; Mitchell, TM (16 de julio de 2015). "Machine learning: tendencias, perspectivas y prospectos". Ciencia . 349 (6245): 255–260. Código Bibliográfico : 2015Sci ... 349..255J . doi : 10.1126 / science.aaa8415 . PMID 26185243 . S2CID 677218 .
- ^ Aprendizaje por refuerzo : * Russell y Norvig 2003 , págs. 763–788 * Luger y Stubblefield 2004 , págs. 442–449
- ^ Procesamiento del lenguaje natural : * ACM 1998 , I.2.7 * Russell y Norvig 2003 , págs. 790–831 * Poole, Mackworth y Goebel 1998 , págs. 91–104 * Luger y Stubblefield 2004 , págs. 591–632
- ^ Aplicaciones del procesamiento del lenguaje natural, incluida la recuperación de información (es decir, la minería de texto ) y la traducción automática : * Russell y Norvig 2003 , págs. 840–857, * Luger y Stubblefield 2004 , págs. 623–630
- ^ Cambria, Erik; White, Bebo (mayo de 2014). "Saltar curvas de PNL: una revisión de la investigación del procesamiento del lenguaje natural [artículo de revisión]". Revista IEEE Computational Intelligence . 9 (2): 48–57. doi : 10.1109 / MCI.2014.2307227 . S2CID 206451986 .
- ^ Vincent, James (7 de noviembre de 2019). "OpenAI ha publicado la IA generadora de texto que dijo que era demasiado peligrosa para compartir" . The Verge . Archivado desde el original el 11 de junio de 2020 . Consultado el 11 de junio de 2020 .
- ^ Percepción de la máquina : * Russell y Norvig 2003 , págs. 537–581, 863–898 * Nilsson 1998 , ~ cap. 6
- ^ Reconocimiento de voz : * ACM 1998 , ~ I.2.7 * Russell & Norvig 2003 , págs. 568–578
- ^ Object recognition: * Russell & Norvig 2003, pp. 885–892
- ^ Computer vision: * ACM 1998, I.2.10 * Russell & Norvig 2003, pp. 863–898 * Nilsson 1998, chpt. 6
- ^ Robotics: * ACM 1998, I.2.9, * Russell & Norvig 2003, pp. 901–942, * Poole, Mackworth & Goebel 1998, pp. 443–460
- ^ Moving and configuration space: * Russell & Norvig 2003, pp. 916–932
- ^ Tecuci 2012.
- ^ Robotic mapping (localization, etc): * Russell & Norvig 2003, pp. 908–915
- ^ Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, Jose; Reid, Ian; Leonard, John J. (December 2016). "Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age". IEEE Transactions on Robotics. 32 (6): 1309–1332. arXiv:1606.05830. Bibcode:2016arXiv160605830C. doi:10.1109/TRO.2016.2624754. S2CID 2596787.
- ^ Moravec 1988, p. 15.
- ^ Chan, Szu Ping (15 November 2015). "This is what will happen when robots take over the world". Archived from the original on 24 April 2018. Retrieved 23 April 2018.
- ^ "IKEA furniture and the limits of AI". The Economist. 2018. Archived from the original on 24 April 2018. Retrieved 24 April 2018.
- ^ "Kismet". MIT Artificial Intelligence Laboratory, Humanoid Robotics Group. Archived from the original on 17 October 2014. Retrieved 25 October 2014.
- ^ Thompson, Derek (2018). "What Jobs Will the Robots Take?". The Atlantic. Archived from the original on 24 April 2018. Retrieved 24 April 2018.
- ^ Scassellati, Brian (2002). "Theory of mind for a humanoid robot". Autonomous Robots. 12 (1): 13–24. doi:10.1023/A:1013298507114. S2CID 1979315.
- ^ Cao, Yongcan; Yu, Wenwu; Ren, Wei; Chen, Guanrong (February 2013). "An Overview of Recent Progress in the Study of Distributed Multi-Agent Coordination". IEEE Transactions on Industrial Informatics. 9 (1): 427–438. arXiv:1207.3231. doi:10.1109/TII.2012.2219061. S2CID 9588126.
- ^ Thro 1993.
- ^ Edelson 1991.
- ^ Tao & Tan 2005.
- ^ Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (September 2017). "A review of affective computing: From unimodal analysis to multimodal fusion". Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003. hdl:1893/25490.
- ^ Emotion and affective computing: * Minsky 2006
- ^ Waddell, Kaveh (2018). "Chatbots Have Entered the Uncanny Valley". The Atlantic. Archived from the original on 24 April 2018. Retrieved 24 April 2018.
- ^ Pennachin, C.; Goertzel, B. (2007). "Contemporary Approaches to Artificial General Intelligence". Artificial General Intelligence. Cognitive Technologies. Berlin, Heidelberg: Springer. doi:10.1007/978-3-540-68677-4_1. ISBN 978-3-540-23733-4.
- ^ a b c Roberts, Jacob (2016). "Thinking Machines: The Search for Artificial Intelligence". Distillations. Vol. 2 no. 2. pp. 14–23. Archived from the original on 19 August 2018. Retrieved 20 March 2018.
- ^ "The superhero of artificial intelligence: can this genius keep it in check?". the Guardian. 16 February 2016. Archived from the original on 23 April 2018. Retrieved 26 April 2018.
- ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Rusu, Andrei A.; Veness, Joel; Bellemare, Marc G.; Graves, Alex; Riedmiller, Martin; Fidjeland, Andreas K.; Ostrovski, Georg; Petersen, Stig; Beattie, Charles; Sadik, Amir; Antonoglou, Ioannis; King, Helen; Kumaran, Dharshan; Wierstra, Daan; Legg, Shane; Hassabis, Demis (26 February 2015). "Human-level control through deep reinforcement learning". Nature. 518 (7540): 529–533. Bibcode:2015Natur.518..529M. doi:10.1038/nature14236. PMID 25719670. S2CID 205242740.
- ^ Sample, Ian (14 March 2017). "Google's DeepMind makes AI program that can learn like a human". the Guardian. Archived from the original on 26 April 2018. Retrieved 26 April 2018.
- ^ "From not working to neural networking". The Economist. 2016. Archived from the original on 31 December 2016. Retrieved 26 April 2018.
- ^ Russell & Norvig 2009, Chapter 27. AI: The Present and Future.
- ^ Domingos 2015, Chapter 9. The Pieces of the Puzzle Fall into Place.
- ^ a b Artificial brain arguments: AI requires a simulation of the operation of the human brain * Russell & Norvig 2003, p. 957 * Crevier 1993, pp. 271 & 279 A few of the people who make some form of the argument: * Moravec 1988 * Kurzweil 2005, p. 262 * Hawkins & Blakeslee 2005 The most extreme form of this argument (the brain replacement scenario) was put forward by Clark Glymour in the mid-1970s and was touched on by Zenon Pylyshyn and John Searle in 1980.
- ^ Goertzel, Ben; Lian, Ruiting; Arel, Itamar; de Garis, Hugo; Chen, Shuo (December 2010). "A world survey of artificial brain projects, Part II: Biologically inspired cognitive architectures". Neurocomputing. 74 (1–3): 30–49. doi:10.1016/j.neucom.2010.08.012.
- ^ Nilsson 1983, p. 10.
- ^ AI's immediate precursors: * McCorduck 2004, pp. 51–107 * Crevier 1993, pp. 27–32 * Russell & Norvig 2003, pp. 15, 940 * Moravec 1988, p. 3
- ^ Haugeland 1985, pp. 112–117
- ^ Cognitive simulation, Newell and Simon, AI at CMU (then called Carnegie Tech): * McCorduck 2004, pp. 139–179, 245–250, 322–323 (EPAM) * Crevier 1993, pp. 145–149
- ^ Soar (history): * McCorduck 2004, pp. 450–451 * Crevier 1993, pp. 258–263
- ^ McCarthy and AI research at SAIL and SRI International: * McCorduck 2004, pp. 251–259 * Crevier 1993
- ^ AI research at Edinburgh and in France, birth of Prolog: * Crevier 1993, pp. 193–196 * Howe 1994
- ^ AI at MIT under Marvin Minsky in the 1960s : * McCorduck 2004, pp. 259–305 * Crevier 1993, pp. 83–102, 163–176 * Russell & Norvig 2003, p. 19
- ^ Cyc: * McCorduck 2004, p. 489, who calls it "a determinedly scruffy enterprise" * Crevier 1993, pp. 239–243 * Russell & Norvig 2003, p. 363−365 * Lenat & Guha 1989
- ^ Knowledge revolution: * McCorduck 2004, pp. 266–276, 298–300, 314, 421 * Russell & Norvig 2003, pp. 22–23
- ^ Frederick, Hayes-Roth; William, Murray; Leonard, Adelman. "Expert systems". AccessScience. doi:10.1036/1097-8542.248550.
- ^ Embodied approaches to AI: * McCorduck 2004, pp. 454–462 * Brooks 1990 * Moravec 1988
- ^ Weng et al. 2001.
- ^ Lungarella et al. 2003.
- ^ Asada et al. 2009.
- ^ Oudeyer 2010.
- ^ Revival of connectionism: * Crevier 1993, pp. 214–215 * Russell & Norvig 2003, p. 25
- ^ Computational intelligence * IEEE Computational Intelligence Society Archived 9 May 2008 at the Wayback Machine
- ^ Hutson, Matthew (16 February 2018). "Artificial intelligence faces reproducibility crisis". Science. pp. 725–726. Bibcode:2018Sci...359..725H. doi:10.1126/science.359.6377.725. Archived from the original on 29 April 2018. Retrieved 28 April 2018.
- ^ Norvig 2012.
- ^ Langley 2011.
- ^ Katz 2012.
- ^ The intelligent agent paradigm: * Russell & Norvig 2003, pp. 27, 32–58, 968–972 * Poole, Mackworth & Goebel 1998, pp. 7–21 * Luger & Stubblefield 2004, pp. 235–240 * Hutter 2005, pp. 125–126 The definition used in this article, in terms of goals, actions, perception and environment, is due to Russell & Norvig (2003). Other definitions also include knowledge and learning as additional criteria.
- ^ Agent architectures, hybrid intelligent systems: * Russell & Norvig (2003, pp. 27, 932, 970–972) * Nilsson (1998, chpt. 25)
- ^ Hierarchical control system: * Albus 2002
- ^ Lieto, Antonio; Bhatt, Mehul; Oltramari, Alessandro; Vernon, David (May 2018). "The role of cognitive architectures in general artificial intelligence". Cognitive Systems Research. 48: 1–3. doi:10.1016/j.cogsys.2017.08.003. hdl:2318/1665249. S2CID 36189683.
- ^ a b Russell & Norvig 2009, p. 1.
- ^ a b White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF). Brussels: European Commission. 2020. p. 1. Archived (PDF) from the original on 20 February 2020. Retrieved 20 February 2020.
- ^ "AI set to exceed human brain power". CNN. 9 August 2006. Archived from the original on 19 February 2008.
- ^ Using AI to predict flight delays Archived 20 November 2018 at the Wayback Machine, Ishti.org.
- ^ N. Aletras; D. Tsarapatsanis; D. Preotiuc-Pietro; V. Lampos (2016). "Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective". PeerJ Computer Science. 2: e93. doi:10.7717/peerj-cs.93.
- ^ "The Economist Explains: Why firms are piling into artificial intelligence". The Economist. 31 March 2016. Archived from the original on 8 May 2016. Retrieved 19 May 2016.
- ^ Lohr, Steve (28 February 2016). "The Promise of Artificial Intelligence Unfolds in Small Steps". The New York Times. Archived from the original on 29 February 2016. Retrieved 29 February 2016.
- ^ Frangoul, Anmar (14 June 2019). "A Californian business is using A.I. to change the way we think about energy storage". CNBC. Archived from the original on 25 July 2020. Retrieved 5 November 2019.
- ^ Wakefield, Jane (15 June 2016). "Social media 'outstrips TV' as news source for young people". BBC News. Archived from the original on 24 June 2016.
- ^ Smith, Mark (22 July 2016). "So you think you chose to read this article?". BBC News. Archived from the original on 25 July 2016.
- ^ Brown, Eileen. "Half of Americans do not believe deepfake news could target them online". ZDNet. Archived from the original on 6 November 2019. Retrieved 3 December 2019.
- ^ Zola, Andrew (12 April 2019). "Interview Prep: 40 Artificial Intelligence Questions". Springboard Blog.
- ^ The Turing test:
Turing's original publication: * Turing 1950 Historical influence and philosophical implications: * Haugeland 1985, pp. 6–9 * Crevier 1993, p. 24 * McCorduck 2004, pp. 70–71 * Russell & Norvig 2003, pp. 2–3 and 948 - ^ Dartmouth proposal: * McCarthy et al. 1955 (the original proposal) * Crevier 1993, p. 49 (historical significance)
- ^ The physical symbol systems hypothesis: * Newell & Simon 1976, p. 116 * McCorduck 2004, p. 153 * Russell & Norvig 2003, p. 18
- ^ Dreyfus 1992, p. 156.
- ^ Dreyfus' critique of artificial intelligence: * Dreyfus 1972, Dreyfus & Dreyfus 1986 * Crevier 1993, pp. 120–132 * McCorduck 2004, pp. 211–239 * Russell & Norvig 2003, pp. 950–952,
- ^ Gödel 1951: in this lecture, Kurt Gödel uses the incompleteness theorem to arrive at the following disjunction: (a) the human mind is not a consistent finite machine, or (b) there exist Diophantine equations for which it cannot decide whether solutions exist. Gödel finds (b) implausible, and thus seems to have believed the human mind was not equivalent to a finite machine, i.e., its power exceeded that of any finite machine. He recognized that this was only a conjecture, since one could never disprove (b). Yet he considered the disjunctive conclusion to be a "certain fact".
- ^ The Mathematical Objection: * Russell & Norvig 2003, p. 949 * McCorduck 2004, pp. 448–449 Making the Mathematical Objection: * Lucas 1961 * Penrose 1989 Refuting Mathematical Objection: * Turing 1950 under "(2) The Mathematical Objection" * Hofstadter 1979 Background: * Gödel 1931, Church 1936, Kleene 1935, Turing 1937
- ^ Graham Oppy (20 January 2015). "Gödel's Incompleteness Theorems". Stanford Encyclopedia of Philosophy. Archived from the original on 22 April 2016. Retrieved 27 April 2016.
These Gödelian anti-mechanist arguments are, however, problematic, and there is wide consensus that they fail.
- ^ Stuart J. Russell; Peter Norvig (2010). "26.1.2: Philosophical Foundations/Weak AI: Can Machines Act Intelligently?/The mathematical objection". Artificial Intelligence: A Modern Approach (3rd ed.). Upper Saddle River, NJ: Prentice Hall. ISBN 978-0-13-604259-4.
even if we grant that computers have limitations on what they can prove, there is no evidence that humans are immune from those limitations.
- ^ Mark Colyvan. An introduction to the philosophy of mathematics. Cambridge University Press, 2012. From 2.2.2, 'Philosophical significance of Gödel's incompleteness results': "The accepted wisdom (with which I concur) is that the Lucas-Penrose arguments fail."
- ^ Iphofen, Ron; Kritikos, Mihalis (3 January 2019). "Regulating artificial intelligence and robotics: ethics by design in a digital society". Contemporary Social Science. 16 (2): 170–184. doi:10.1080/21582041.2018.1563803. ISSN 2158-2041. S2CID 59298502.
- ^ "Ethical AI Learns Human Rights Framework". Voice of America. Archived from the original on 11 November 2019. Retrieved 10 November 2019.
- ^ Crevier 1993, pp. 132–144.
- ^ Joseph Weizenbaum's critique of AI: * Weizenbaum 1976 * Crevier 1993, pp. 132–144 * McCorduck 2004, pp. 356–373 * Russell & Norvig 2003, p. 961 Weizenbaum (the AI researcher who developed the first chatterbot program, ELIZA) argued in 1976 that the misuse of artificial intelligence has the potential to devalue human life.
- ^ Wallach, Wendell (2010). Moral Machines. Oxford University Press.
- ^ Wallach 2010, pp. 37–54.
- ^ Wallach 2010, pp. 55–73.
- ^ Wallach 2010, "Introduction".
- ^ a b Michael Anderson and Susan Leigh Anderson (2011), Machine Ethics, Cambridge University Press.
- ^ a b "Machine Ethics". aaai.org. Archived from the original on 29 November 2014.
- ^ Rubin, Charles (Spring 2003). "Artificial Intelligence and Human Nature". The New Atlantis. 1: 88–100. Archived from the original on 11 June 2012.
- ^ Brooks, Rodney (10 November 2014). "artificial intelligence is a tool, not a threat". Archived from the original on 12 November 2014.
- ^ "Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence". Observer. 19 August 2015. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- ^ Chalmers, David (1995). "Facing up to the problem of consciousness". Journal of Consciousness Studies. 2 (3): 200–219. Archived from the original on 8 March 2005. Retrieved 11 October 2018. See also this link Archived 8 April 2011 at the Wayback Machine
- ^ Horst, Steven, (2005) "The Computational Theory of Mind" Archived 11 September 2018 at the Wayback Machine in The Stanford Encyclopedia of Philosophy
- ^ Searle 1980, p. 1.
- ^ Searle's Chinese room argument: * Searle 1980. Searle's original presentation of the thought experiment. * Searle 1999. Discussion: * Russell & Norvig 2003, pp. 958–960 * McCorduck 2004, pp. 443–445 * Crevier 1993, pp. 269–271
- ^ Robot rights: * Russell & Norvig 2003, p. 964 Prematurity of: * Henderson 2007 In fiction: * McCorduck (2004, pp. 190–25) discusses Frankenstein and identifies the key ethical issues as scientific hubris and the suffering of the monster, i.e. robot rights.
- ^ "Robots could demand legal rights". BBC News. 21 December 2006. Archived from the original on 15 October 2019. Retrieved 3 February 2011.
- ^ Evans, Woody (2015). "Posthuman Rights: Dimensions of Transhuman Worlds". Teknokultura. 12 (2). doi:10.5209/rev_TK.2015.v12.n2.49072.
- ^ maschafilm. "Content: Plug & Pray Film – Artificial Intelligence – Robots -". plugandpray-film.de. Archived from the original on 12 February 2016.
- ^ Omohundro, Steve (2008). The Nature of Self-Improving Artificial Intelligence. presented and distributed at the 2007 Singularity Summit, San Francisco, CA.
- ^ a b c Technological singularity: * Vinge 1993 * Kurzweil 2005 * Russell & Norvig 2003, p. 963
- ^ Transhumanism: * Moravec 1988 * Kurzweil 2005 * Russell & Norvig 2003, p. 963
- ^ AI as evolution: * Edward Fredkin is quoted in McCorduck (2004, p. 401). * Butler 1863 * Dyson 1998
- ^ "Robots and Artificial Intelligence". www.igmchicago.org. Archived from the original on 1 May 2019. Retrieved 3 July 2019.
- ^ "Sizing the prize: PwC's Global AI Study—Exploiting the AI Revolution" (PDF). Retrieved 11 November 2020.
- ^ E McGaughey, 'Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy' (2018) SSRN, part 2(3) Archived 24 May 2018 at the Wayback Machine
- ^ "Automation and anxiety". The Economist. 9 May 2015. Archived from the original on 12 January 2018. Retrieved 13 January 2018.
- ^ Lohr, Steve (2017). "Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says". The New York Times. Archived from the original on 14 January 2018. Retrieved 13 January 2018.
- ^ Frey, Carl Benedikt; Osborne, Michael A (1 January 2017). "The future of employment: How susceptible are jobs to computerisation?". Technological Forecasting and Social Change. 114: 254–280. CiteSeerX 10.1.1.395.416. doi:10.1016/j.techfore.2016.08.019. ISSN 0040-1625.
- ^ Arntz, Melanie, Terry Gregory, and Ulrich Zierahn. "The risk of automation for jobs in OECD countries: A comparative analysis." OECD Social, Employment, and Migration Working Papers 189 (2016). p. 33.
- ^ Mahdawi, Arwa (26 June 2017). "What jobs will still be around in 20 years? Read this to prepare your future". The Guardian. Archived from the original on 14 January 2018. Retrieved 13 January 2018.
- ^ Simon, Matt (1 April 2019). "Andrew Yang's Presidential Bid Is So Very 21st Century". Wired. Archived from the original on 24 June 2019. Retrieved 2 May 2019 – via www.wired.com.
- ^ "Five experts share what scares them the most about AI". 5 September 2018. Archived from the original on 8 December 2019. Retrieved 8 December 2019.
- ^ Russel, Stuart., Daniel Dewey, and Max Tegmark. Research Priorities for Robust and Beneficial Artificial Intelligence. AI Magazine 36:4 (2015). 8 December 2016.
- ^ "Commentary: Bad news. Artificial intelligence is biased". CNA. 12 January 2019. Archived from the original on 12 January 2019. Retrieved 19 June 2020.
- ^ Jeff Larson, Julia Angwin (23 May 2016). "How We Analyzed the COMPAS Recidivism Algorithm". ProPublica. Archived from the original on 29 April 2019. Retrieved 19 June 2020.
- ^ Rawlinson, Kevin (29 January 2015). "Microsoft's Bill Gates insists AI is a threat". BBC News. Archived from the original on 29 January 2015. Retrieved 30 January 2015.
- ^ Holley, Peter (28 January 2015). "Bill Gates on dangers of artificial intelligence: 'I don't understand why some people are not concerned'". The Washington Post. ISSN 0190-8286. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- ^ Gibbs, Samuel (27 October 2014). "Elon Musk: artificial intelligence is our biggest existential threat". The Guardian. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- ^ Churm, Philip Andrew (14 May 2019). "Yuval Noah Harari talks politics, technology and migration". euronews. Retrieved 15 November 2020.
- ^ Cellan-Jones, Rory (2 December 2014). "Stephen Hawking warns artificial intelligence could end mankind". BBC News. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- ^ Bostrom, Nick (2015). "What happens when our computers get smarter than we are?". TED (conference). Archived from the original on 25 July 2020. Retrieved 30 January 2020.
- ^ a b Russell, Stuart (8 October 2019). Human Compatible: Artificial Intelligence and the Problem of Control. United States: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322.
- ^ Post, Washington. "Tech titans like Elon Musk are spending $1 billion to save you from terminators". Archived from the original on 7 June 2016.
- ^ Müller, Vincent C.; Bostrom, Nick (2014). "Future Progress in Artificial Intelligence: A Poll Among Experts" (PDF). AI Matters. 1 (1): 9–11. doi:10.1145/2639475.2639478. S2CID 8510016. Archived (PDF) from the original on 15 January 2016.
- ^ "Oracle CEO Mark Hurd sees no reason to fear ERP AI". SearchERP. Archived from the original on 6 May 2019. Retrieved 6 May 2019.
- ^ "Mark Zuckerberg responds to Elon Musk's paranoia about AI: 'AI is going to... help keep our communities safe.'". Business Insider. 25 May 2018. Archived from the original on 6 May 2019. Retrieved 6 May 2019.
- ^ "The mysterious artificial intelligence company Elon Musk invested in is developing game-changing smart computers". Tech Insider. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- ^ Clark 2015a.
- ^ "Elon Musk Is Donating $10M Of His Own Money To Artificial Intelligence Research". Fast Company. 15 January 2015. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- ^ "Is artificial intelligence really an existential threat to humanity?". Bulletin of the Atomic Scientists. 9 August 2015. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- ^ "The case against killer robots, from a guy actually working on artificial intelligence". Fusion.net. Archived from the original on 4 February 2016. Retrieved 31 January 2016.
- ^ "Will artificial intelligence destroy humanity? Here are 5 reasons not to worry". Vox. 22 August 2014. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- ^ Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF). Paris: OECD Observatory of Public Sector Innovation. Archived (PDF) from the original on 20 December 2019. Retrieved 9 August 2020.
- ^ Barfield, Woodrow; Pagallo, Ugo (2018). Research handbook on the law of artificial intelligence. Cheltenham, UK. ISBN 978-1-78643-904-8. OCLC 1039480085.
- ^ Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. Regulation of artificial intelligence in selected jurisdictions. LCCN 2019668143. OCLC 1110727808.
- ^ Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (24 July 2018). "Artificial Intelligence and the Public Sector—Applications and Challenges". International Journal of Public Administration. 42 (7): 596–615. doi:10.1080/01900692.2018.1498103. ISSN 0190-0692. S2CID 158829602. Archived from the original on 18 August 2020. Retrieved 22 August 2020.
- ^ Buiten, Miriam C (2019). "Towards Intelligent Regulation of Artificial Intelligence". European Journal of Risk Regulation. 10 (1): 41–59. doi:10.1017/err.2019.8. ISSN 1867-299X.
- ^ Sotala, Kaj; Yampolskiy, Roman V (19 December 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. 90 (1): 018001. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
- ^ Buttazzo, G. (July 2001). "Artificial consciousness: Utopia or real possibility?". Computer. 34 (7): 24–30. doi:10.1109/2.933500.
- ^ Anderson, Susan Leigh. "Asimov's "three laws of robotics" and machine metaethics." AI & Society 22.4 (2008): 477–493.
- ^ McCauley, Lee (2007). "AI armageddon and the three laws of robotics". Ethics and Information Technology. 9 (2): 153–164. CiteSeerX 10.1.1.85.8904. doi:10.1007/s10676-007-9138-2. S2CID 37272949.
- ^ Galvan, Jill (1 January 1997). "Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"". Science Fiction Studies. 24 (3): 413–429. JSTOR 4240644.
AI textbooks
- Hutter, Marcus (2005). Universal Artificial Intelligence. Berlin: Springer. ISBN 978-3-540-22139-5.
- Jackson, Philip (1985). Introduction to Artificial Intelligence (2nd ed.). Dover. ISBN 978-0-486-24864-6. Archived from the original on 26 July 2020. Retrieved 4 March 2020.
- Luger, George; Stubblefield, William (2004). Artificial Intelligence: Structures and Strategies for Complex Problem Solving (5th ed.). Benjamin/Cummings. ISBN 978-0-8053-4780-7. Archived from the original on 26 July 2020. Retrieved 17 December 2019.
- Neapolitan, Richard; Jiang, Xia (2018). Artificial Intelligence: With an Introduction to Machine Learning. Chapman & Hall/CRC. ISBN 978-1-138-50238-3. Archived from the original on 22 August 2020. Retrieved 3 January 2018.
- Nilsson, Nils (1998). Artificial Intelligence: A New Synthesis. Morgan Kaufmann. ISBN 978-1-55860-467-4. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
- Russell, Stuart J.; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2.
- Russell, Stuart J.; Norvig, Peter (2009). Artificial Intelligence: A Modern Approach (3rd ed.). Upper Saddle River, New Jersey: Prentice Hall. ISBN 978-0-13-604259-4..
- Poole, David; Mackworth, Alan; Goebel, Randy (1998). Computational Intelligence: A Logical Approach. New York: Oxford University Press. ISBN 978-0-19-510270-3. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
- Winston, Patrick Henry (1984). Artificial Intelligence. Reading, MA: Addison-Wesley. ISBN 978-0-201-08259-3. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
- Rich, Elaine (1983). Artificial Intelligence. McGraw-Hill. ISBN 978-0-07-052261-9. Archived from the original on 26 July 2020. Retrieved 17 December 2019.
- Bundy, Alan (1980). Artificial Intelligence: An Introductory Course (2nd ed.). Edinburgh University Press. ISBN 978-0-85224-410-4.
- Poole, David; Mackworth, Alan (2017). Artificial Intelligence: Foundations of Computational Agents (2nd ed.). Cambridge University Press. ISBN 978-1-107-19539-4. Archived from the original on 7 December 2017. Retrieved 6 December 2017.
- Auffarth, Ben (2020). Artificial Intelligence with Python Cookbook: Proven recipes for applying AI algorithms and deep learning techniques using TensorFlow 2.x and PyTorch 1.6 (1st ed.). Packt Publishing. ISBN 978-1-78913-396-7. Retrieved 13 January 2021.
- Gordon, Cindy (March 2021). The AI Dilemma (1st ed.). BPB publication. p. 224. ISBN 9788194837787.
History of AI
- Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence, New York, NY: BasicBooks, ISBN 0-465-02997-3.
- McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd., ISBN 1-56881-205-1.
- Newquist, HP (1994). The Brain Makers: Genius, Ego, And Greed In The Quest For Machines That Think. New York: Macmillan/SAMS. ISBN 978-0-672-30412-5.
- Nilsson, Nils (2009). The Quest for Artificial Intelligence: A History of Ideas and Achievements. New York: Cambridge University Press. ISBN 978-0-521-12293-1.
Other sources
- "ACM Computing Classification System: Artificial intelligence". ACM. 1998. Archived from the original on 12 October 2007. Retrieved 30 August 2007.
- Albus, J. S. (2002). "4-D/RCS: A Reference Model Architecture for Intelligent Unmanned Ground Vehicles" (PDF). In Gerhart, G.; Gunderson, R.; Shoemaker, C. (eds.). Proceedings of the SPIE AeroSense Session on Unmanned Ground Vehicle Technology. Unmanned Ground Vehicle Technology IV. 3693. pp. 11–20. Bibcode:2002SPIE.4715..303A. CiteSeerX 10.1.1.15.14. doi:10.1117/12.474462. S2CID 63339739. Archived from the original (PDF) on 25 July 2004.
- Aleksander, Igor (1995). Artificial Neuroconsciousness: An Update. IWANN. Archived from the original on 2 March 1997. BibTex Archived 2 March 1997 at the Wayback Machine.
- Asada, M.; Hosoda, K.; Kuniyoshi, Y.; Ishiguro, H.; Inui, T.; Yoshikawa, Y.; Ogino, M.; Yoshida, C. (2009). "Cognitive developmental robotics: a survey". IEEE Transactions on Autonomous Mental Development. 1 (1): 12–34. doi:10.1109/tamd.2009.2021702. S2CID 10168773.
- Bach, Joscha (2008). "Seven Principles of Synthetic Intelligence". In Wang, Pei; Goertzel, Ben; Franklin, Stan (eds.). Artificial General Intelligence, 2008: Proceedings of the First AGI Conference. IOS Press. pp. 63–74. ISBN 978-1-58603-833-5. Archived from the original on 8 July 2016. Retrieved 16 February 2016.
- Brooks, Rodney (1990). "Elephants Don't Play Chess" (PDF). Robotics and Autonomous Systems. 6 (1–2): 3–15. CiteSeerX 10.1.1.588.7539. doi:10.1016/S0921-8890(05)80025-9. Archived (PDF) from the original on 9 August 2007.
- Brooks, R. A. (1991). "How to build complete creatures rather than isolated cognitive simulators". In VanLehn, K. (ed.). Architectures for Intelligence. Hillsdale, NJ: Lawrence Erlbaum Associates. pp. 225–239. CiteSeerX 10.1.1.52.9510.
- Buchanan, Bruce G. (2005). "A (Very) Brief History of Artificial Intelligence" (PDF). AI Magazine: 53–60. Archived from the original (PDF) on 26 September 2007.
- Butler, Samuel (13 June 1863). "Darwin among the Machines". Letters to the Editor. The Press. Christchurch, New Zealand. Archived from the original on 19 September 2008. Retrieved 16 October 2014 – via Victoria University of Wellington.
- Clark, Jack (1 July 2015a). "Musk-Backed Group Probes Risks Behind Artificial Intelligence". Bloomberg.com. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- Clark, Jack (8 December 2015b). "Why 2015 Was a Breakthrough Year in Artificial Intelligence". Bloomberg.com. Archived from the original on 23 November 2016. Retrieved 23 November 2016.
- Dennett, Daniel (1991). Consciousness Explained. The Penguin Press. ISBN 978-0-7139-9037-9.
- Domingos, Pedro (2015). The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Basic Books. ISBN 978-0-465-06192-1.
- Dowe, D. L.; Hajek, A. R. (1997). "A computational extension to the Turing Test". Proceedings of the 4th Conference of the Australasian Cognitive Science Society. Archived from the original on 28 June 2011.
- Dreyfus, Hubert (1972). What Computers Can't Do. New York: MIT Press. ISBN 978-0-06-011082-6.
- Dreyfus, Hubert; Dreyfus, Stuart (1986). Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. Oxford, UK: Blackwell. ISBN 978-0-02-908060-3. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
- Dreyfus, Hubert (1992). What Computers Still Can't Do. New York: MIT Press. ISBN 978-0-262-54067-4.
- Dyson, George (1998). Darwin among the Machines. Allan Lane Science. ISBN 978-0-7382-0030-9. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
- Edelman, Gerald (23 November 2007). "Gerald Edelman – Neural Darwinism and Brain-based Devices". Talking Robots. Archived from the original on 8 October 2009.
- Edelson, Edward (1991). The Nervous System. New York: Chelsea House. ISBN 978-0-7910-0464-7. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
- Fearn, Nicholas (2007). The Latest Answers to the Oldest Questions: A Philosophical Adventure with the World's Greatest Thinkers. New York: Grove Press. ISBN 978-0-8021-1839-4.
- Gladwell, Malcolm (2005). Blink. New York: Little, Brown and Co. ISBN 978-0-316-17232-5.
- Gödel, Kurt (1951). Some basic theorems on the foundations of mathematics and their implications. Gibbs Lecture. In
Feferman, Solomon, ed. (1995). Kurt Gödel: Collected Works, Vol. III: Unpublished Essays and Lectures. Oxford University Press. pp. 304–23. ISBN 978-0-19-514722-3. - Goodman, Joanna (2016). Robots in Law: How Artificial Intelligence is Transforming Legal Services (1st ed.). Ark Group. ISBN 978-1-78358-264-8. Archived from the original on 8 November 2016. Retrieved 7 November 2016.
- Haugeland, John (1985). Artificial Intelligence: The Very Idea. Cambridge, Mass.: MIT Press. ISBN 978-0-262-08153-5.
- Hawkins, Jeff; Blakeslee, Sandra (2005). On Intelligence. New York, NY: Owl Books. ISBN 978-0-8050-7853-4.
- Henderson, Mark (24 April 2007). "Human rights for robots? We're getting carried away". The Times Online. London. Archived from the original on 31 May 2014. Retrieved 31 May 2014.
- Hernandez-Orallo, Jose (2000). "Beyond the Turing Test". Journal of Logic, Language and Information. 9 (4): 447–466. doi:10.1023/A:1008367325700. S2CID 14481982.
- Hernandez-Orallo, J.; Dowe, D. L. (2010). "Measuring Universal Intelligence: Towards an Anytime Intelligence Test". Artificial Intelligence. 174 (18): 1508–1539. CiteSeerX 10.1.1.295.9079. doi:10.1016/j.artint.2010.09.006.
- Hinton, G. E. (2007). "Learning multiple layers of representation". Trends in Cognitive Sciences. 11 (10): 428–434. doi:10.1016/j.tics.2007.09.004. PMID 17921042. S2CID 15066318.
- Hofstadter, Douglas (1979). Gödel, Escher, Bach: an Eternal Golden Braid. New York, NY: Vintage Books. ISBN 978-0-394-74502-2.
- Holland, John H. (1975). Adaptation in Natural and Artificial Systems. University of Michigan Press. ISBN 978-0-262-58111-0. Archived from the original on 26 July 2020. Retrieved 17 December 2019.
- Howe, J. (November 1994). "Artificial Intelligence at Edinburgh University: a Perspective". Archived from the original on 15 May 2007. Retrieved 30 August 2007.
- Hutter, M. (2012). "One Decade of Universal Artificial Intelligence". Theoretical Foundations of Artificial General Intelligence. Atlantis Thinking Machines. 4. pp. 67–88. CiteSeerX 10.1.1.228.8725. doi:10.2991/978-94-91216-62-6_5. ISBN 978-94-91216-61-9. S2CID 8888091.
- Kahneman, Daniel; Slovic, D.; Tversky, Amos (1982). Judgment under uncertainty: Heuristics and biases. Science. 185. New York: Cambridge University Press. pp. 1124–1131. doi:10.1126/science.185.4157.1124. ISBN 978-0-521-28414-1. PMID 17835457. S2CID 143452957.
- Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence". Business Horizons. 62: 15–25. doi:10.1016/j.bushor.2018.08.004.
- Katz, Yarden (1 November 2012). "Noam Chomsky on Where Artificial Intelligence Went Wrong". The Atlantic. Archived from the original on 28 February 2019. Retrieved 26 October 2014.
- Koza, John R. (1992). Genetic Programming (On the Programming of Computers by Means of Natural Selection). MIT Press. Bibcode:1992gppc.book.....K. ISBN 978-0-262-11170-6.
- Kolata, G. (1982). "How can computers get common sense?". Science. 217 (4566): 1237–1238. Bibcode:1982Sci...217.1237K. doi:10.1126/science.217.4566.1237. PMID 17837639.
- Kumar, Gulshan; Kumar, Krishan (2012). "The Use of Artificial-Intelligence-Based Ensembles for Intrusion Detection: A Review". Applied Computational Intelligence and Soft Computing. 2012: 1–20. doi:10.1155/2012/850160.
- Kurzweil, Ray (1999). The Age of Spiritual Machines. Penguin Books. ISBN 978-0-670-88217-5.
- Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 978-0-670-03384-3.
- Lakoff, George; Núñez, Rafael E. (2000). Where Mathematics Comes From: How the Embodied Mind Brings Mathematics into Being. Basic Books. ISBN 978-0-465-03771-1.
- Langley, Pat (2011). "The changing science of machine learning". Machine Learning. 82 (3): 275–279. doi:10.1007/s10994-011-5242-y.
- Law, Diane (June 1994). Searle, Subsymbolic Functionalism and Synthetic Intelligence (Technical report). University of Texas at Austin. p. AI94-222. CiteSeerX 10.1.1.38.8384.
- Legg, Shane; Hutter, Marcus (15 June 2007). A Collection of Definitions of Intelligence (Technical report). IDSIA. arXiv:0706.3639. Bibcode:2007arXiv0706.3639L. 07-07.
- Lenat, Douglas; Guha, R. V. (1989). Building Large Knowledge-Based Systems. Addison-Wesley. ISBN 978-0-201-51752-1.
- Lighthill, James (1973). "Artificial Intelligence: A General Survey". Artificial Intelligence: a paper symposium. Science Research Council.
- Lucas, John (1961). "Minds, Machines and Gödel". In Anderson, A.R. (ed.). Minds and Machines. Archived from the original on 19 August 2007. Retrieved 30 August 2007.
- Lungarella, M.; Metta, G.; Pfeifer, R.; Sandini, G. (2003). "Developmental robotics: a survey". Connection Science. 15 (4): 151–190. CiteSeerX 10.1.1.83.7615. doi:10.1080/09540090310001655110. S2CID 1452734.
- Maker, Meg Houston (2006). "AI@50: AI Past, Present, Future". Dartmouth College. Archived from the original on 3 January 2007. Retrieved 16 October 2008.
- Markoff, John (16 February 2011). "Computer Wins on 'Jeopardy!': Trivial, It's Not". The New York Times. Archived from the original on 22 October 2014. Retrieved 25 October 2014.
- McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955). "A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence". Archived from the original on 26 August 2007. Retrieved 30 August 2007.
- McCarthy, John; Hayes, P. J. (1969). "Some philosophical problems from the standpoint of artificial intelligence". Machine Intelligence. 4: 463–502. CiteSeerX 10.1.1.85.5082. Archived from the original on 10 August 2007. Retrieved 30 August 2007.
- McCarthy, John (12 November 2007). "What Is Artificial Intelligence?". www-formal.stanford.edu. Archived from the original on 18 November 2015.
- McCarthy, John (12 November 2007). "Applications of AI". www-formal.stanford.edu. Archived from the original on 28 August 2016. Retrieved 25 September 2016.
- Minsky, Marvin (1967). Computation: Finite and Infinite Machines. Englewood Cliffs, N.J.: Prentice-Hall. ISBN 978-0-13-165449-5. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
- Minsky, Marvin (2006). The Emotion Machine. New York, NY: Simon & Schusterl. ISBN 978-0-7432-7663-4.
- Moravec, Hans (1988). Mind Children. Harvard University Press. ISBN 978-0-674-57616-2. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
- Norvig, Peter (25 June 2012). "On Chomsky and the Two Cultures of Statistical Learning". Peter Norvig. Archived from the original on 19 October 2014.
- NRC (United States National Research Council) (1999). "Developments in Artificial Intelligence". Funding a Revolution: Government Support for Computing Research. National Academy Press.
- Needham, Joseph (1986). Science and Civilization in China: Volume 2. Caves Books Ltd.
- Newell, Allen; Simon, H. A. (1976). "Computer Science as Empirical Inquiry: Symbols and Search". Communications of the ACM. 19 (3): 113–126. doi:10.1145/360018.360022..
- Nilsson, Nils (1983). "Artificial Intelligence Prepares for 2001" (PDF). AI Magazine. 1 (1). Archived (PDF) from the original on 17 August 2020. Retrieved 22 August 2020. Presidential Address to the Association for the Advancement of Artificial Intelligence.
- O'Brien, James; Marakas, George (2011). Management Information Systems (10th ed.). McGraw-Hill/Irwin. ISBN 978-0-07-337681-3.
- O'Connor, Kathleen Malone (1994). The alchemical creation of life (takwin) and other concepts of Genesis in medieval Islam (Dissertation). University of Pennsylvania. pp. 1–435. AAI9503804. Archived from the original on 5 December 2019. Retrieved 27 August 2008 – via Dissertations available from ProQuest.
- Oudeyer, P-Y. (2010). "On the impact of robotics in behavioral and cognitive sciences: from insect navigation to human cognitive development" (PDF). IEEE Transactions on Autonomous Mental Development. 2 (1): 2–16. doi:10.1109/tamd.2009.2039057. S2CID 6362217. Archived (PDF) from the original on 3 October 2018. Retrieved 4 June 2013.
- Penrose, Roger (1989). The Emperor's New Mind: Concerning Computer, Minds and The Laws of Physics. Oxford University Press. ISBN 978-0-19-851973-7.
- Poli, R.; Langdon, W. B.; McPhee, N. F. (2008). A Field Guide to Genetic Programming. Lulu.com. ISBN 978-1-4092-0073-4. Archived from the original on 8 August 2015. Retrieved 21 April 2008 – via gp-field-guide.org.uk.
- Rajani, Sandeep (2011). "Artificial Intelligence – Man or Machine" (PDF). International Journal of Information Technology and Knowledge Management. 4 (1): 173–176. Archived from the original (PDF) on 18 January 2013.
- Ronald, E. M. A. and Sipper, M. Intelligence is not enough: On the socialization of talking machines, Minds and Machines Archived 25 July 2020 at the Wayback Machine, vol. 11, no. 4, pp. 567–576, November 2001.
- Ronald, E. M. A. and Sipper, M. What use is a Turing chatterbox? Archived 25 July 2020 at the Wayback Machine, Communications of the ACM, vol. 43, no. 10, pp. 21–23, October 2000.
- "Science". August 1982. Archived from the original on 25 July 2020. Retrieved 16 February 2016.
- Searle, John (1980). "Minds, Brains and Programs" (PDF). Behavioral and Brain Sciences. 3 (3): 417–457. doi:10.1017/S0140525X00005756. Archived (PDF) from the original on 17 March 2019. Retrieved 22 August 2020.
- Searle, John (1999). Mind, language and society. New York, NY: Basic Books. ISBN 978-0-465-04521-1. OCLC 231867665. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
- Shapiro, Stuart C. (1992). "Artificial Intelligence". In Shapiro, Stuart C. (ed.). Encyclopedia of Artificial Intelligence (PDF) (2nd ed.). New York: John Wiley. pp. 54–57. ISBN 978-0-471-50306-4. Archived (PDF) from the original on 1 February 2016. Retrieved 29 May 2009.
- Simon, H. A. (1965). The Shape of Automation for Men and Management. New York: Harper & Row. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
- Skillings, Jonathan (3 July 2006). "Getting Machines to Think Like Us". cnet. Archived from the original on 16 November 2011. Retrieved 3 February 2011.
- Solomonoff, Ray (1956). An Inductive Inference Machine (PDF). Dartmouth Summer Research Conference on Artificial Intelligence. Archived (PDF) from the original on 26 April 2011. Retrieved 22 March 2011 – via std.com, pdf scanned copy of the original. Later published as
Solomonoff, Ray (1957). "An Inductive Inference Machine". IRE Convention Record. Section on Information Theory, part 2. pp. 56–62. - Tao, Jianhua; Tan, Tieniu (2005). Affective Computing and Intelligent Interaction. Affective Computing: A Review. LNCS 3784. Springer. pp. 981–995. doi:10.1007/11573548.
- Tecuci, Gheorghe (March–April 2012). "Artificial Intelligence". Wiley Interdisciplinary Reviews: Computational Statistics. 4 (2): 168–180. doi:10.1002/wics.200.
- Thro, Ellen (1993). Robotics: The Marriage of Computers and Machines. New York: Facts on File. ISBN 978-0-8160-2628-9. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
- Turing, Alan (October 1950), "Computing Machinery and Intelligence", Mind, LIX (236): 433–460, doi:10.1093/mind/LIX.236.433, ISSN 0026-4423.
- van der Walt, Christiaan; Bernard, Etienne (2006). "Data characteristics that determine classifier performance" (PDF). Archived from the original (PDF) on 25 March 2009. Retrieved 5 August 2009.
- Vinge, Vernor (1993). "The Coming Technological Singularity: How to Survive in the Post-Human Era". Vision 21: Interdisciplinary Science and Engineering in the Era of Cyberspace: 11. Bibcode:1993vise.nasa...11V. Archived from the original on 1 January 2007. Retrieved 14 November 2011.
- Wason, P. C.; Shapiro, D. (1966). "Reasoning". In Foss, B. M. (ed.). New horizons in psychology. Harmondsworth: Penguin. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
- Weizenbaum, Joseph (1976). Computer Power and Human Reason. San Francisco: W.H. Freeman & Company. ISBN 978-0-7167-0464-5.
- Weng, J.; McClelland; Pentland, A.; Sporns, O.; Stockman, I.; Sur, M.; Thelen, E. (2001). "Autonomous mental development by robots and animals" (PDF). Science. 291 (5504): 599–600. doi:10.1126/science.291.5504.599. PMID 11229402. S2CID 54131797. Archived (PDF) from the original on 4 September 2013. Retrieved 4 June 2013 – via msu.edu.
Otras lecturas
- DH Author, 'Why Are There Still So Many Jobs? The History and Future of Workplace Automation' (2015) 29(3) Journal of Economic Perspectives 3.
- Boden, Margaret, Mind As Machine, Oxford University Press, 2006.
- Cukier, Kenneth, "Ready for Robots? How to Think about the Future of AI", Foreign Affairs, vol. 98, no. 4 (July/August 2019), pp. 192–98. George Dyson, historian of computing, writes (in what might be called "Dyson's Law") that "Any system simple enough to be understandable will not be complicated enough to behave intelligently, while any system complicated enough to behave intelligently will be too complicated to understand." (p. 197.) Computer scientist Alex Pentland writes: "Current AI machine-learning algorithms are, at their core, dead simple stupid. They work, but they work by brute force." (p. 198.)
- Domingos, Pedro, "Our Digital Doubles: AI will serve our species, not control it", Scientific American, vol. 319, no. 3 (September 2018), pp. 88–93.
- Gopnik, Alison, "Making AI More Human: Artificial intelligence has staged a revival by starting to incorporate what we know about how children learn", Scientific American, vol. 316, no. 6 (June 2017), pp. 60–65.
- Johnston, John (2008) The Allure of Machinic Life: Cybernetics, Artificial Life, and the New AI, MIT Press.
- Koch, Christof, "Proust among the Machines", Scientific American, vol. 321, no. 6 (December 2019), pp. 46–49. Christof Koch doubts the possibility of "intelligent" machines attaining consciousness, because "[e]ven the most sophisticated brain simulations are unlikely to produce conscious feelings." (p. 48.) According to Koch, "Whether machines can become sentient [is important] for ethical reasons. If computers experience life through their own senses, they cease to be purely a means to an end determined by their usefulness to... humans. Per GNW [the Global Neuronal Workspace theory], they turn from mere objects into subjects... with a point of view.... Once computers' cognitive abilities rival those of humanity, their impulse to push for legal and political rights will become irresistible – the right not to be deleted, not to have their memories wiped clean, not to suffer pain and degradation. The alternative, embodied by IIT [Integrated Information Theory], is that computers will remain only supersophisticated machinery, ghostlike empty shells, devoid of what we value most: the feeling of life itself." (p. 49.)
- Marcus, Gary, "Am I Human?: Researchers need new ways to distinguish artificial intelligence from the natural kind", Scientific American, vol. 316, no. 3 (March 2017), pp. 58–63. A stumbling block to AI has been an incapacity for reliable disambiguation. An example is the "pronoun disambiguation problem": a machine has no way of determining to whom or what a pronoun in a sentence refers. (p. 61.)
- E McGaughey, 'Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy' (2018) SSRN, part 2(3) Archived 24 May 2018 at the Wayback Machine.
- George Musser, "Artificial Imagination: How machines could learn creativity and common sense, among other human qualities", Scientific American, vol. 320, no. 5 (May 2019), pp. 58–63.
- Myers, Courtney Boyd ed. (2009). "The AI Report" Archived 29 July 2017 at the Wayback Machine. Forbes June 2009
- Raphael, Bertram (1976). The Thinking Computer. W.H.Freeman and Company. ISBN 978-0-7167-0723-3. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
- Scharre, Paul, "Killer Apps: The Real Dangers of an AI Arms Race", Foreign Affairs, vol. 98, no. 3 (May/June 2019), pp. 135–44. "Today's AI technologies are powerful but unreliable. Rules-based systems cannot deal with circumstances their programmers did not anticipate. Learning systems are limited by the data on which they were trained. AI failures have already led to tragedy. Advanced autopilot features in cars, although they perform well in some circumstances, have driven cars without warning into trucks, concrete barriers, and parked cars. In the wrong situation, AI systems go from supersmart to superdumb in an instant. When an enemy is trying to manipulate and hack an AI system, the risks are even greater." (p. 140.)
- Serenko, Alexander (2010). "The development of an AI journal ranking based on the revealed preference approach" (PDF). Journal of Informetrics. 4 (4): 447–459. doi:10.1016/j.joi.2010.04.001. Archived (PDF) from the original on 4 October 2013. Retrieved 24 August 2013.
- Serenko, Alexander; Michael Dohan (2011). "Comparing the expert survey and citation impact journal ranking methods: Example from the field of Artificial Intelligence" (PDF). Journal of Informetrics. 5 (4): 629–649. doi:10.1016/j.joi.2011.06.002. Archived (PDF) from the original on 4 October 2013. Retrieved 12 September 2013.
- Tom Simonite (29 December 2014). "2014 in Computing: Breakthroughs in Artificial Intelligence". MIT Technology Review.
- Sun, R. & Bookman, L. (eds.), Computational Architectures: Integrating Neural and Symbolic Processes. Kluwer Academic Publishers, Needham, MA. 1994.
- Taylor, Paul, "Insanely Complicated, Hopelessly Inadequate" (review of Brian Cantwell Smith, The Promise of Artificial Intelligence: Reckoning and Judgment, MIT, October 2019, ISBN 978 0 262 04304 5, 157 pp.; Gary Marcus and Ernest Davis, Rebooting AI: Building Artificial Intelligence We Can Trust, Ballantine, September 2019, ISBN 978 1 5247 4825 8, 304 pp.; Judea Pearl and Dana Mackenzie, The Book of Why: The New Science of Cause and Effect, Penguin, May 2019, ISBN 978 0 14 198241 0, 418 pp.), London Review of Books, vol. 43, no. 2 (21 January 2021), pp. 37–39. Paul Taylor writes (p. 39): "Perhaps there is a limit to what a computer can do without knowing that it is manipulating imperfect representations of an external reality."
- Tooze, Adam, "Democracy and Its Discontents", The New York Review of Books, vol. LXVI, no. 10 (6 June 2019), pp. 52–53, 56–57. "Democracy has no clear answer for the mindless operation of bureaucratic and technological power. We may indeed be witnessing its extension in the form of artificial intelligence and robotics. Likewise, after decades of dire warning, the environmental problem remains fundamentally unaddressed.... Bureaucratic overreach and environmental catastrophe are precisely the kinds of slow-moving existential challenges that democracies deal with very badly.... Finally, there is the threat du jour: corporations and the technologies they promote." (pp. 56–57.)
enlaces externos
- "Artificial Intelligence". Internet Encyclopedia of Philosophy.
- Thomason, Richmond. "Logic and Artificial Intelligence". In Zalta, Edward N. (ed.). Stanford Encyclopedia of Philosophy.
- Artificial Intelligence, BBC Radio 4 discussion with John Agar, Alison Adam & Igor Aleksander (In Our Time, Dec. 8, 2005)