La inteligencia artificial ( IA ) es inteligencia demostrada por máquinas , a diferencia de la inteligencia natural mostrada por humanos y animales , que involucra conciencia y emocionalidad. La distinción entre la primera y la última categoría a menudo se revela por el acrónimo elegido. La IA 'fuerte' generalmente se etiqueta como inteligencia artificial general (AGI), mientras que los intentos de emular la inteligencia 'natural' se han llamado inteligencia biológica artificial (ABI). Los principales libros de texto de IA definen el campo como el estudio de " agentes inteligentes": cualquier dispositivo que perciba su entorno y realice acciones que maximicen sus posibilidades de lograr sus objetivos. [3] Coloquialmente, el término" inteligencia artificial "se usa a menudo para describir máquinas que imitan las funciones" cognitivas "que los humanos asocian con la mente humana. , como "aprender" y "resolver problemas". [4]
A medida que las máquinas se vuelven cada vez más capaces, las tareas que se considera que requieren "inteligencia" a menudo se eliminan de la definición de IA, un fenómeno conocido como efecto de IA . [5] Una broma en el teorema de Tesler dice que "IA es lo que aún no se ha hecho". [6] Por ejemplo, el reconocimiento óptico de caracteres se excluye con frecuencia de las cosas que se consideran IA, [7] que se ha convertido en una tecnología de rutina. [8] Las capacidades de las máquinas modernas generalmente clasificadas como IA incluyen comprender con éxito el habla humana , [9] competir al más alto nivel en sistemas de juego estratégicos (como el ajedrez y el Go ), [10] y también juegos de información imperfecta como el póquer , [11 ] automóviles autónomos , enrutamiento inteligente en redes de entrega de contenido y simulaciones militares . [12]
La inteligencia artificial se fundó como una disciplina académica en 1955, y en los años transcurridos desde entonces ha experimentado varias oleadas de optimismo, [13] [14] seguidas por la decepción y la pérdida de fondos (conocida como " invierno de la IA "), [15] [16] seguido de nuevos enfoques, éxito y financiación renovada. [14] [17] Después de que AlphaGo derrotara a un jugador profesional de Go en 2015, la inteligencia artificial una vez más atrajo la atención mundial. [18] Durante la mayor parte de su historia, la investigación de la IA se ha dividido en subcampos que a menudo no se comunican entre sí. [19] Estos subcampos se basan en consideraciones técnicas, como objetivos particulares (p. Ej., " Robótica " o " aprendizaje automático "), [20] el uso de herramientas particulares (" lógica " o redes neuronales artificiales ) o filosóficas profundas diferencias. [23] [24] [25] Los subcampos también se han basado en factores sociales (instituciones particulares o el trabajo de investigadores particulares). [19]
Los problemas (u objetivos) tradicionales de la investigación de la IA incluyen el razonamiento , la representación del conocimiento , la planificación , el aprendizaje , el procesamiento del lenguaje natural , la percepción y la capacidad de mover y manipular objetos. [20] AGI se encuentra entre los objetivos a largo plazo del campo. [26] Los enfoques incluyen métodos estadísticos , inteligencia computacional e IA simbólica tradicional . En la IA se utilizan muchas herramientas, incluidas versiones de búsqueda y optimización matemática, redes neuronales artificiales y métodos basados en estadísticas, probabilidad y economía. El campo de la IA se basa en la informática , la ingeniería de la información , las matemáticas , la psicología , la lingüística , la filosofía y muchos otros campos.
El campo se fundó en el supuesto de que la inteligencia humana "se puede describir con tanta precisión que se puede hacer una máquina para simularla". [27] Esto plantea argumentos filosóficos sobre la mente y la ética de la creación de seres artificiales dotados de inteligencia similar a la humana. Estos temas han sido explorados por el mito , la ficción y la filosofía desde la antigüedad . [32] Algunas personas también consideran que la IA es un peligro para la humanidad si progresa sin cesar. [33] [34] Otros creen que la IA, a diferencia de las revoluciones tecnológicas anteriores, creará un riesgo de desempleo masivo . [35]
En el siglo XXI, las técnicas de inteligencia artificial han experimentado un resurgimiento tras los avances simultáneos en el poder de las computadoras , grandes cantidades de datos y comprensión teórica; y las técnicas de IA se han convertido en una parte esencial de la industria de la tecnología , ayudando a resolver muchos problemas desafiantes en ciencias de la computación, ingeniería de software e investigación de operaciones . [36] [17]
Historia
De pensamiento capaz seres artificiales apareció como dispositivos de contar historias en la antigüedad, [37] y han sido comunes en la ficción, como en Mary Shelley 's Frankenstein o Karel Capek ' s RUR [38] Estos personajes y sus destinos planteó muchos de los mismos problemas ahora discutido en la ética de la inteligencia artificial . [32]
El estudio del razonamiento mecánico o "formal" comenzó con filósofos y matemáticos en la antigüedad. El estudio de la lógica matemática condujo directamente a la teoría de la computación de Alan Turing , que sugería que una máquina, al mezclar símbolos tan simples como "0" y "1", podía simular cualquier acto concebible de deducción matemática. Esta idea de que las computadoras digitales pueden simular cualquier proceso de razonamiento formal se conoce como la tesis de Church-Turing . [39] Junto con los descubrimientos simultáneos en neurobiología , teoría de la información y cibernética , esto llevó a los investigadores a considerar la posibilidad de construir un cerebro electrónico. Turing propuso cambiar la pregunta de si una máquina era inteligente a "si es posible o no que la maquinaria muestre un comportamiento inteligente". [40] El primer trabajo que ahora se reconoce generalmente como IA fue el diseño formal de McCullouch y Pitts de 1943 para las "neuronas artificiales" completas de Turing . [41]
El campo de la investigación de la IA nació en un taller en el Dartmouth College en 1956, [42] donde el término "Inteligencia Artificial" fue acuñado por John McCarthy para distinguir el campo de la cibernética y escapar de la influencia del cibernético Norbert Wiener . [43] Los asistentes Allen Newell ( CMU ), Herbert Simon (CMU), John McCarthy ( MIT ), Marvin Minsky (MIT) y Arthur Samuel ( IBM ) se convirtieron en los fundadores y líderes de la investigación de IA. [44] Ellos y sus estudiantes produjeron programas que la prensa describió como "asombrosos": [45] las computadoras estaban aprendiendo estrategias de damas (c. 1954) [46] (y en 1959, según se informa, estaban jugando mejor que el humano promedio), [47 ] resolver problemas verbales en álgebra, demostrar teoremas lógicos ( Teórico de la lógica , primera ejecución c. 1956) y hablar inglés. [48] A mediados de la década de 1960, la investigación en los Estados Unidos estaba fuertemente financiada por el Departamento de Defensa [49] y se habían establecido laboratorios en todo el mundo. [50] Los fundadores de AI eran optimistas sobre el futuro: Herbert Simon predijo que "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer". Marvin Minsky estuvo de acuerdo, escribiendo, "dentro de una generación ... el problema de crear 'inteligencia artificial' se resolverá sustancialmente". [13]
No reconocieron la dificultad de algunas de las tareas restantes. El progreso se desaceleró y en 1974, en respuesta a las críticas de Sir James Lighthill [51] y la presión constante del Congreso de Estados Unidos para financiar proyectos más productivos, tanto los gobiernos de Estados Unidos como el británico interrumpieron la investigación exploratoria en IA. Los próximos años se llamarían más tarde un " invierno de IA ", [15] un período en el que era difícil obtener financiación para proyectos de IA.
A principios de la década de 1980, la investigación de la IA fue revivida por el éxito comercial de los sistemas expertos , [52] una forma de programa de IA que simulaba el conocimiento y las habilidades analíticas de los expertos humanos. En 1985, el mercado de la IA había superado los mil millones de dólares. Al mismo tiempo, el proyecto informático de quinta generación de Japón inspiró a los gobiernos de Estados Unidos y Gran Bretaña a restaurar la financiación para la investigación académica . [14] Sin embargo, a partir del colapso del mercado de Lisp Machine en 1987, la IA volvió a caer en descrédito y comenzó una segunda pausa más duradera. [dieciséis]
El desarrollo de la integración a muy gran escala (VLSI) de semiconductores de óxido de metal (MOS) , en forma de tecnología de transistores complementarios MOS (CMOS) , permitió el desarrollo de la tecnología práctica de redes neuronales artificiales (ANN) en la década de 1980. Una publicación histórica en el campo fue el libro de 1989 Analog VLSI Implementation of Neural Systems por Carver A. Mead y Mohammed Ismail. [53]
A fines de la década de 1990 y principios del siglo XXI, la IA comenzó a usarse para logística, minería de datos , diagnóstico médico y otras áreas. [36] El éxito se debió al aumento de la potencia computacional (ver la ley de Moore y el recuento de transistores ), un mayor énfasis en la resolución de problemas específicos, nuevos vínculos entre la IA y otros campos (como la estadística , la economía y las matemáticas ) y el compromiso de los investigadores con métodos matemáticos y estándares científicos. [54] Deep Blue se convirtió en el primer sistema informático de juego de ajedrez en vencer al actual campeón mundial de ajedrez, Garry Kasparov , el 11 de mayo de 1997. [55]
En 2011, ¡en peligro! la demostración del concurso partido de exhibición, IBM 's sistema de contestador pregunta , Watson , venció a los dos más grandes de Jeopardy! campeones, Brad Rutter y Ken Jennings , por un margen significativo. [56] Las computadoras más rápidas , las mejoras algorítmicas y el acceso a grandes cantidades de datos permitieron avances en el aprendizaje y la percepción de las máquinas ; Los métodos de aprendizaje profundo hambrientos de datos comenzaron a dominar los puntos de referencia de precisión alrededor de 2012 . [57] El Kinect , que proporciona una interfaz de movimiento corporal en 3D para Xbox 360 y Xbox One , utiliza algoritmos que surgieron de una extensa investigación de IA [58] al igual que los asistentes personales inteligentes en los teléfonos inteligentes . [59] En marzo de 2016, AlphaGo ganó 4 de 5 juegos de Go en un partido con el campeón de Go, Lee Sedol , convirtiéndose en el primer sistema informático de juego de Go en vencer a un jugador profesional de Go sin desventajas . [10] [60] En la Cumbre Future of Go 2017 , AlphaGo ganó un partido de tres juegos con Ke Jie , [61] quien en ese momento mantuvo continuamente el ranking mundial No. 1 durante dos años. [62] [63] Deep Blue 's Murray Campbell llama la victoria de AlphaGo 'el fin de una era ... juegos de mesa son más o menos hecho [64] y es hora de seguir adelante.' [65] Esto marcó la finalización de un hito significativo en el desarrollo de la Inteligencia Artificial, ya que Go es un juego relativamente complejo, más que el Ajedrez. AlphaGo fue posteriormente mejorado, generalizado a otros juegos como el ajedrez, con AlphaZero ; [66] y MuZero [67] para jugar a muchos videojuegos diferentes , que anteriormente se manejaban por separado, [68] además de los juegos de mesa. Otros programas manejan juegos de información imperfecta ; como para el póquer a un nivel sobrehumano, Pluribus (bot de póquer) [69] y Cepheus (bot de póquer) . [11] Ver: Juego general .
Según Jack Clark de Bloomberg , 2015 fue un año histórico para la inteligencia artificial, ya que la cantidad de proyectos de software que utilizan IA dentro de Google aumentó de un "uso esporádico" en 2012 a más de 2.700 proyectos. Clark también presenta datos fácticos que indican las mejoras de la IA desde 2012 respaldadas por tasas de error más bajas en las tareas de procesamiento de imágenes. [70] Atribuye esto a un aumento en las redes neuronales asequibles , debido a un aumento en la infraestructura de computación en la nube y a un aumento en las herramientas de investigación y conjuntos de datos. [17] Otros ejemplos citados incluyen el desarrollo de Microsoft de un sistema de Skype que puede traducir automáticamente de un idioma a otro y el sistema de Facebook que puede describir imágenes a personas ciegas. [70] En una encuesta de 2017, una de cada cinco empresas informó que había "incorporado IA en algunas ofertas o procesos". [71] [72] Alrededor de 2016, China aceleró enormemente su financiación gubernamental; Dado su gran suministro de datos y su producción de investigación en rápido aumento, algunos observadores creen que puede estar en camino de convertirse en una "superpotencia de inteligencia artificial". [73] [74]
Para 2020, los sistemas de procesamiento del lenguaje natural como el enorme GPT-3 (entonces, con mucho, la red neuronal artificial más grande) estaban igualando el rendimiento humano en los puntos de referencia preexistentes, aunque sin que el sistema lograra una comprensión de sentido común del contenido de los puntos de referencia. [75] AlphaFold 2 (2020) de DeepMind demostró la capacidad de determinar, en horas en lugar de meses, la estructura 3D de una proteína. El reconocimiento facial avanzó hasta donde, en algunas circunstancias, algunos sistemas afirman tener una tasa de precisión del 99%. [76]
Lo esencial
La ciencia de la computación define la investigación de la IA como el estudio de " agentes inteligentes ": cualquier dispositivo que perciba su entorno y tome acciones que maximicen sus posibilidades de lograr con éxito sus objetivos. [3] Una definición más elaborada caracteriza a la IA como "la capacidad de un sistema para interpretar correctamente datos externos, aprender de dichos datos y utilizar esos aprendizajes para lograr metas y tareas específicas a través de una adaptación flexible". [77]
Una IA típica analiza su entorno y toma acciones que maximizan sus posibilidades de éxito. [3] La función de utilidad prevista de una IA (u objetivo) puede ser simple ("1 si la IA gana un juego de Go , 0 en caso contrario") o compleja ("Realizar acciones matemáticamente similares a las que tuvieron éxito en el pasado"). Los objetivos pueden definirse o inducirse explícitamente. Si la IA está programada para el " aprendizaje por refuerzo ", los objetivos pueden inducirse implícitamente recompensando algunos tipos de comportamiento o castigando a otros. [a] Alternativamente, un sistema evolutivo puede inducir objetivos mediante el uso de una " función de aptitud " para mutar y replicar preferentemente sistemas de IA de alta puntuación, similar a cómo los animales evolucionaron para desear de forma innata ciertos objetivos, como encontrar comida. [78] Algunos sistemas de inteligencia artificial, como el vecino más cercano, en lugar de razonar por analogía, a estos sistemas generalmente no se les asignan metas, excepto en la medida en que las metas están implícitas en sus datos de entrenamiento. [79] Dichos sistemas aún pueden ser comparados si el sistema sin metas se enmarca como un sistema cuyo "objetivo" es lograr su limitada tarea de clasificación. [80]
La IA a menudo gira en torno al uso de algoritmos . Un algoritmo es un conjunto de instrucciones inequívocas que puede ejecutar una computadora mecánica. [b] Un algoritmo complejo a menudo se construye sobre otros algoritmos más simples. Un ejemplo simple de un algoritmo es la siguiente receta (óptima para el primer jugador) para jugar al tic-tac-toe : [81]
- Si alguien tiene una "amenaza" (es decir, dos seguidas), toma el cuadro restante. De lo contrario,
- si un movimiento "se bifurca" para crear dos amenazas a la vez, juega ese movimiento. De lo contrario,
- tome la plaza central si está libre. De lo contrario,
- si tu oponente ha jugado en una esquina, toma la esquina opuesta. De lo contrario,
- tome una esquina vacía si existe. De lo contrario,
- toma cualquier cuadrado vacío.
Muchos algoritmos de IA son capaces de aprender de los datos; pueden mejorarse aprendiendo nuevas heurísticas (estrategias o "reglas generales" que han funcionado bien en el pasado), o pueden escribir otros algoritmos. Algunos de los "aprendices" que se describen a continuación, incluidas las redes bayesianas, los árboles de decisión y el vecino más cercano, podrían teóricamente (dados los datos, el tiempo y la memoria infinitos) aprender a aproximarse a cualquier función , incluida la combinación de funciones matemáticas que describiría mejor la mundo. [ cita requerida ] Por lo tanto, estos estudiantes podrían obtener todo el conocimiento posible, considerando todas las hipótesis posibles y comparándolas con los datos. En la práctica, rara vez es posible considerar todas las posibilidades, debido al fenómeno de la " explosión combinatoria ", donde el tiempo necesario para resolver un problema crece exponencialmente. Gran parte de la investigación de la IA implica descubrir cómo identificar y evitar considerar una amplia gama de posibilidades que probablemente no sean beneficiosas. [82] [83] Por ejemplo, al ver un mapa y buscar la ruta de conducción más corta de Denver a Nueva York en el este, en la mayoría de los casos se puede omitir la observación de cualquier camino a través de San Francisco u otras áreas lejanas al oeste; por lo tanto, una IA que maneje un algoritmo de búsqueda de caminos como A * puede evitar la explosión combinatoria que se produciría si se tuvieran que considerar detenidamente todas las rutas posibles. [84]
El enfoque más temprano (y más fácil de entender) de la IA fue el simbolismo (como la lógica formal): "Si un adulto por lo demás sano tiene fiebre, entonces puede tener influenza ". Un segundo enfoque, más general, es la inferencia bayesiana : "Si el paciente actual tiene fiebre, ajuste la probabilidad de que tenga influenza de tal o cual manera". El tercer enfoque principal, extremadamente popular en las aplicaciones de inteligencia artificial de negocios rutinarias, son los analógicos como SVM y el vecino más cercano : "Después de examinar los registros de pacientes anteriores conocidos cuya temperatura, síntomas, edad y otros factores coinciden en su mayoría con el paciente actual, X% de esos pacientes resultó tener influenza ". Un cuarto enfoque es más difícil de entender intuitivamente, pero está inspirado en cómo funciona la maquinaria del cerebro: el enfoque de la red neuronal artificial utiliza " neuronas " artificiales que pueden aprender comparándose con el resultado deseado y alterando la fuerza de las conexiones entre sus neuronas internas. para "reforzar" conexiones que parecían útiles. Estos cuatro enfoques principales pueden superponerse entre sí y con los sistemas evolutivos; por ejemplo, las redes neuronales pueden aprender a hacer inferencias, generalizar y hacer analogías. Algunos sistemas utilizan implícita o explícitamente varios de estos enfoques, junto con muchos otros algoritmos de IA y no IA; el mejor enfoque suele ser diferente según el problema. [85] [86]
Los algoritmos de aprendizaje funcionan sobre la base de que es probable que las estrategias, los algoritmos y las inferencias que funcionaron bien en el pasado sigan funcionando bien en el futuro. Estas inferencias pueden ser obvias, como "dado que el sol salió todas las mañanas durante los últimos 10.000 días, probablemente también saldrá mañana por la mañana". Pueden ser matizados, como "el X% de las familias tienen especies geográficamente separadas con variantes de color, por lo que hay un Y% de posibilidades de que existan cisnes negros no descubiertos ". Los estudiantes también trabajan sobre la base de la " navaja de Occam ": la teoría más simple que explica los datos es la más probable. Por lo tanto, de acuerdo con el principio de navaja de Occam, un alumno debe diseñarse de tal manera que prefiera teorías más simples a teorías complejas, excepto en los casos en que la teoría compleja se prueba sustancialmente mejor.
Establecer una teoría mala y demasiado compleja manipulada para que se ajuste a todos los datos de entrenamiento anteriores se conoce como sobreajuste . Muchos sistemas intentan reducir el sobreajuste recompensando una teoría de acuerdo con qué tan bien se ajusta a los datos, pero penalizando la teoría de acuerdo con su complejidad. [87] Además del sobreajuste clásico, los alumnos también pueden decepcionar al "aprender la lección equivocada". Un ejemplo de juguete es que un clasificador de imágenes entrenado solo con imágenes de caballos marrones y gatos negros podría concluir que es probable que todos los parches marrones sean caballos. [88] Un ejemplo del mundo real es que, a diferencia de los humanos, los clasificadores de imágenes actuales a menudo no emiten juicios principalmente a partir de la relación espacial entre los componentes de la imagen, y aprenden relaciones entre píxeles que los humanos ignoran, pero que aún se correlacionan con imágenes de ciertos tipos de objetos reales. La modificación de estos patrones en una imagen legítima puede resultar en imágenes "adversarias" que el sistema clasifica erróneamente. [c] [89] [90]
En comparación con los humanos, la IA existente carece de varias características del " razonamiento de sentido común " humano ; más notablemente, los seres humanos tienen mecanismos poderosos para razonar sobre la " física ingenua ", como el espacio, el tiempo y las interacciones físicas. Esto permite que incluso los niños pequeños hagan inferencias fácilmente como "Si saco este bolígrafo de la mesa, se caerá al suelo". Los seres humanos también tienen un poderoso mecanismo de " psicología popular " que les ayuda a interpretar oraciones en lenguaje natural como "Los concejales de la ciudad denegaron un permiso a los manifestantes porque abogaban por la violencia" (una IA genérica tiene dificultades para discernir si los presuntos la violencia son los concejales o los manifestantes [91] [92] [93] ). Esta falta de "conocimiento común" significa que la IA a menudo comete errores diferentes a los que cometen los humanos, de formas que pueden parecer incomprensibles. Por ejemplo, los automóviles autónomos existentes no pueden razonar sobre la ubicación ni las intenciones de los peatones de la misma manera que lo hacen los humanos, sino que deben utilizar modos de razonamiento no humanos para evitar accidentes. [94] [95] [96]
Desafíos
Las capacidades cognitivas de las arquitecturas actuales son muy limitadas, utilizando solo una versión simplificada de lo que la inteligencia es realmente capaz de hacer. Por ejemplo, la mente humana ha ideado formas de razonar más allá de toda medida y explicaciones lógicas para diferentes sucesos de la vida. Lo que de otra manera hubiera sido sencillo, un problema igualmente difícil puede ser difícil de resolver computacionalmente en lugar de usar la mente humana. Esto da lugar a dos clases de modelos: estructuralista y funcionalista. Los modelos estructurales tienen como objetivo imitar libremente las operaciones básicas de inteligencia de la mente, como el razonamiento y la lógica. El modelo funcional se refiere a los datos correlacionados con su contraparte calculada. [97]
El objetivo general de la investigación de la inteligencia artificial es crear tecnología que permita que las computadoras y las máquinas funcionen de manera inteligente. El problema general de simular (o crear) inteligencia se ha dividido en subproblemas. Estos consisten en rasgos o capacidades particulares que los investigadores esperan que muestre un sistema inteligente. Los rasgos que se describen a continuación han recibido la mayor atención. [20]
Razonamiento, resolución de problemas
Los primeros investigadores desarrollaron algoritmos que imitaban el razonamiento paso a paso que los humanos usan cuando resuelven acertijos o hacen deducciones lógicas. [98] A finales de los años 80 y 90, la investigación de la IA había desarrollado métodos para tratar con información incierta o incompleta, empleando conceptos de probabilidad y economía . [99]
Estos algoritmos demostraron ser insuficientes para resolver grandes problemas de razonamiento porque experimentaron una "explosión combinatoria": se volvieron exponencialmente más lentos a medida que los problemas crecían. [82] Incluso los humanos rara vez usan la deducción paso a paso que la investigación temprana de la IA podría modelar. Resuelven la mayoría de sus problemas utilizando juicios rápidos e intuitivos. [100]
Representación del conocimiento
La representación del conocimiento [101] y la ingeniería del conocimiento [102] son fundamentales para la investigación clásica de la IA. Algunos "sistemas expertos" intentan recopilar el conocimiento explícito que poseen los expertos en algún ámbito limitado. Además, algunos proyectos intentan reunir el "conocimiento de sentido común" conocido por la persona promedio en una base de datos que contiene un amplio conocimiento sobre el mundo. Entre las cosas que contendría una base de conocimiento comprensiva de sentido común se encuentran: objetos, propiedades, categorías y relaciones entre objetos; [103] situaciones, eventos, estados y tiempo; [104] causas y efectos; [105] conocimiento sobre el conocimiento (lo que sabemos sobre lo que saben otras personas); [106] y muchos otros dominios menos investigados. Una representación de "lo que existe" es una ontología : el conjunto de objetos, relaciones, conceptos y propiedades descritos formalmente para que los agentes de software puedan interpretarlos. La semántica de estos se captura como conceptos, roles e individuos de lógica de descripción , y generalmente se implementa como clases, propiedades e individuos en el lenguaje de ontología web . [107] Las ontologías más generales se denominan ontologías superiores , que intentan proporcionar una base para todos los demás conocimientos [108] actuando como mediadores entre ontologías de dominio que cubren conocimientos específicos sobre un dominio de conocimiento en particular (campo de interés o área de interés) . Estas representaciones formales de conocimiento se pueden utilizar en la indexación y recuperación basadas en contenido, [109] interpretación de escenas, [110] apoyo a decisiones clínicas, [111] descubrimiento de conocimientos (extracción de inferencias "interesantes" y procesables de grandes bases de datos), [112] y otras areas. [113]
Entre los problemas más difíciles en la representación del conocimiento se encuentran:
- Razonamiento predeterminado y problema de calificación
- Muchas de las cosas que la gente sabe toman la forma de "supuestos de trabajo". Por ejemplo, si aparece un pájaro en una conversación, la gente suele imaginar un animal del tamaño de un puño que canta y vuela. Ninguna de estas cosas es cierta para todas las aves. John McCarthy identificó este problema en 1969 [114] como el problema de calificación: para cualquier regla de sentido común que los investigadores de IA se preocupan por representar, tiende a haber un gran número de excepciones. Casi nada es simplemente verdadero o falso de la forma que requiere la lógica abstracta. La investigación de la IA ha explorado una serie de soluciones a este problema. [115]
- Amplio conocimiento de sentido común
- La cantidad de hechos atómicos que conoce la persona promedio es muy grande. Los proyectos de investigación que intentan construir una base de conocimiento completa de conocimiento de sentido común (por ejemplo, Cyc ) requieren enormes cantidades de laboriosa ingeniería ontológica; deben construirse, a mano, un concepto complicado a la vez. [116]
- Forma subsimbólica de algún conocimiento de sentido común
- Gran parte de lo que la gente sabe no se representa como "hechos" o "declaraciones" que puedan expresar verbalmente. Por ejemplo, un maestro de ajedrez evitará una posición de ajedrez en particular porque "se siente demasiado expuesta" [117] o un crítico de arte puede echar un vistazo a una estatua y darse cuenta de que es una falsificación. [118] Estas son intuiciones o tendencias no conscientes y sub-simbólicas en el cerebro humano. [119] Un conocimiento como este informa, apoya y proporciona un contexto para el conocimiento consciente y simbólico. Al igual que con el problema relacionado del razonamiento sub-simbólico, se espera que la IA situada , la inteligencia computacional o la IA estadística proporcionen formas de representar este conocimiento. [119]
Planificación
Los agentes inteligentes deben poder establecer metas y alcanzarlas. [120] Necesitan una forma de visualizar el futuro, una representación del estado del mundo y poder hacer predicciones sobre cómo sus acciones lo cambiarán, y poder tomar decisiones que maximicen la utilidad (o "valor"). de opciones disponibles. [121]
En los problemas de planificación clásicos, el agente puede asumir que es el único sistema que actúa en el mundo, lo que le permite estar seguro de las consecuencias de sus acciones. [122] Sin embargo, si el agente no es el único actor, entonces se requiere que el agente pueda razonar bajo incertidumbre. Esto requiere un agente que no solo pueda evaluar su entorno y hacer predicciones, sino también evaluar sus predicciones y adaptarse en función de su evaluación. [123]
La planificación de múltiples agentes utiliza la cooperación y la competencia de muchos agentes para lograr un objetivo determinado. El comportamiento emergente como este es utilizado por algoritmos evolutivos e inteligencia de enjambre . [124]
Aprendiendo
El aprendizaje automático (ML), un concepto fundamental de la investigación de la IA desde el inicio del campo, [d] es el estudio de algoritmos informáticos que mejoran automáticamente a través de la experiencia. [e] [127]
El aprendizaje no supervisado es la capacidad de encontrar patrones en un flujo de entrada, sin que sea necesario que un humano etiquete las entradas primero. El aprendizaje supervisado incluye clasificación y regresión numérica , lo que requiere que un humano etiquete primero los datos de entrada. La clasificación se usa para determinar a qué categoría pertenece algo y ocurre después de que un programa ve varios ejemplos de cosas de varias categorías. La regresión es el intento de producir una función que describa la relación entre entradas y salidas y predice cómo las salidas deberían cambiar a medida que cambian las entradas. [127] Tanto los clasificadores como los aprendices de regresión pueden verse como "aproximadores de funciones" que intentan aprender una función desconocida (posiblemente implícita); por ejemplo, un clasificador de spam puede verse como el aprendizaje de una función que asigna el texto de un correo electrónico a una de dos categorías, "spam" o "no spam". La teoría del aprendizaje computacional puede evaluar a los estudiantes por complejidad computacional , complejidad de la muestra (cuántos datos se requieren) o por otras nociones de optimización . [128] En el aprendizaje por refuerzo [129] el agente es recompensado por las buenas respuestas y castigado por las malas. El agente usa esta secuencia de recompensas y castigos para formar una estrategia para operar en su espacio de problemas.
Procesamiento natural del lenguaje
El procesamiento del lenguaje natural [130] (NLP) permite a las máquinas leer y comprender el lenguaje humano. Un sistema de procesamiento de lenguaje natural suficientemente poderoso permitiría interfaces de usuario de lenguaje natural y la adquisición de conocimiento directamente de fuentes escritas por humanos, como los textos de noticias. Algunas aplicaciones sencillas del procesamiento del lenguaje natural incluyen la recuperación de información , la minería de texto , la respuesta a preguntas y la traducción automática . [131] Muchos enfoques actuales utilizan frecuencias de co-ocurrencia de palabras para construir representaciones sintácticas de texto. Las estrategias de búsqueda de "detección de palabras clave" son populares y escalables, pero tontas; una consulta de búsqueda para "perro" solo puede coincidir con documentos con la palabra literal "perro" y perder un documento con la palabra "caniche". Las estrategias de "afinidad léxica" utilizan la aparición de palabras como "accidente" para evaluar el sentimiento de un documento. Los enfoques estadísticos modernos de PNL pueden combinar todas estas estrategias, así como otras, y a menudo logran una precisión aceptable a nivel de página o párrafo. Más allá de la PNL semántica, el objetivo final de la PNL "narrativa" es incorporar una comprensión completa del razonamiento de sentido común. [132] Para 2019, las arquitecturas de aprendizaje profundo basadas en transformadores podrían generar texto coherente. [133]
Percepción
La percepción de la máquina [134] es la capacidad de utilizar la entrada de sensores (como cámaras (espectro visible o infrarrojo), micrófonos, señales inalámbricas y sensores lidar , sonar, radar y táctiles activos ) para deducir aspectos del mundo. Las aplicaciones incluyen reconocimiento de voz , [135] reconocimiento facial y reconocimiento de objetos . [136] La visión por computadora es la capacidad de analizar la información visual. Esta información suele ser ambigua; Un peatón gigante de cincuenta metros de altura muy lejos puede producir los mismos píxeles que un peatón de tamaño normal cercano, lo que requiere que la IA juzgue la probabilidad relativa y la razonabilidad de las diferentes interpretaciones, por ejemplo, utilizando su "modelo de objeto" para evaluar que los peatones de cincuenta metros no existen. [137]
Movimiento y manipulación
La IA se utiliza mucho en robótica. [138] Los brazos robóticos avanzados y otros robots industriales , ampliamente utilizados en las fábricas modernas, pueden aprender de la experiencia cómo moverse de manera eficiente a pesar de la presencia de fricción y deslizamiento de los engranajes. [139] Un robot móvil moderno, cuando se le da un entorno pequeño, estático y visible, puede determinar fácilmente su ubicación y trazar un mapa de su entorno; sin embargo, los entornos dinámicos, como (en la endoscopia ) el interior del cuerpo respiratorio de un paciente, plantean un desafío mayor. La planificación del movimiento es el proceso de dividir una tarea de movimiento en "primitivas", como los movimientos individuales de las articulaciones. Tal movimiento a menudo implica un movimiento dócil, un proceso en el que el movimiento requiere mantener el contacto físico con un objeto. [140] [141] [142] La paradoja de Moravec generaliza que las habilidades sensoriomotoras de bajo nivel que los humanos dan por sentado son, contraintuitivamente, difíciles de programar en un robot; la paradoja lleva el nombre de Hans Moravec , quien declaró en 1988 que "es comparativamente fácil hacer que las computadoras exhiban un rendimiento de nivel adulto en pruebas de inteligencia o jugando a las damas, y difícil o imposible darles las habilidades de un niño de un año cuando llega a la percepción y la movilidad ". [143] [144] Esto se atribuye al hecho de que, a diferencia de las damas, la destreza física ha sido un objetivo directo de la selección natural durante millones de años. [145]
Inteligencia social
La paradoja de Moravec se puede extender a muchas formas de inteligencia social. [147] [148] La coordinación distribuida de múltiples agentes de vehículos autónomos sigue siendo un problema difícil. [149] La computación afectiva es un paraguas interdisciplinario que comprende sistemas que reconocen, interpretan, procesan o simulan los afectos humanos . [150] [151] [152] Los éxitos moderados relacionados con la computación afectiva incluyen el análisis de sentimiento textual y, más recientemente, el análisis de afecto multimodal (ver análisis de sentimiento multimodal ), donde la IA clasifica los afectos mostrados por un sujeto grabado en video. [153]
A largo plazo, las habilidades sociales y la comprensión de las emociones humanas y la teoría de juegos serían valiosas para un agente social. La capacidad de predecir las acciones de los demás mediante la comprensión de sus motivos y estados emocionales permitiría a un agente tomar mejores decisiones. Algunos sistemas informáticos imitan las emociones y expresiones humanas para parecer más sensibles a la dinámica emocional de la interacción humana, o para facilitar la interacción persona-computadora . [154] De manera similar, algunos asistentes virtuales están programados para hablar en forma conversacional o incluso para bromear con humor; esto tiende a dar a los usuarios ingenuos una concepción poco realista de cuán inteligentes son en realidad los agentes informáticos existentes. [155]
Inteligencia general
Históricamente, proyectos como la base de conocimientos Cyc (1984–) y la masiva iniciativa japonesa de sistemas informáticos de quinta generación (1982–1992) intentaron cubrir la amplitud de la cognición humana. Estos primeros proyectos no pudieron escapar de las limitaciones de los modelos lógicos simbólicos no cuantitativos y, en retrospectiva, subestimaron en gran medida la dificultad de la IA entre dominios. Hoy en día, la mayoría de los investigadores de IA actuales trabajan en cambio en aplicaciones manejables de "IA estrecha" (como diagnóstico médico o navegación en automóviles). [156] Muchos investigadores predicen que ese trabajo de "IA estrecha" en diferentes dominios individuales eventualmente se incorporará a una máquina con inteligencia artificial general (AGI), combinando la mayoría de las habilidades limitadas mencionadas en este artículo y en algún momento incluso superando la capacidad humana. en la mayoría o en todas estas áreas. [26] [157] Muchos avances tienen un significado general entre dominios. Un ejemplo de alto perfil es que DeepMind en la década de 2010 desarrolló una "inteligencia artificial generalizada" que podía aprender muchos juegos Atari diversos por sí misma, y luego desarrolló una variante del sistema que tiene éxito en el aprendizaje secuencial . [158] [159] [160] Además de la transferencia de aprendizaje , [161] los avances hipotéticos de AGI podrían incluir el desarrollo de arquitecturas reflexivas que pueden participar en un metarazonamiento teórico de decisiones y descubrir cómo "absorber" una base de conocimiento integral de la Web entera no estructurada . [162] Algunos argumentan que algún tipo de "algoritmo maestro" (actualmente no descubierto) conceptualmente sencillo, pero matemáticamente difícil, podría conducir a AGI. [163] Finalmente, algunos enfoques "emergentes" buscan simular la inteligencia humana de manera extremadamente cercana y creen que las características antropomórficas como un cerebro artificial o el desarrollo infantil simulado pueden llegar algún día a un punto crítico en el que emerja la inteligencia general. [164] [165]
Muchos de los problemas de este artículo también pueden requerir inteligencia general, para que las máquinas resuelvan los problemas tan bien como las personas. Por ejemplo, incluso las tareas específicas y sencillas, como la traducción automática , requieren que una máquina lea y escriba en ambos idiomas ( PNL ), siga el argumento del autor ( razón ), sepa de qué se habla ( conocimiento ) y reproduzca fielmente el original del autor. intención ( inteligencia social ). Un problema como la traducción automática se considera " AI completo ", porque todos estos problemas deben resolverse simultáneamente para alcanzar el rendimiento de la máquina a nivel humano.
Enfoques
Ninguna teoría o paradigma unificador establecido guía la investigación de la IA. Los investigadores no están de acuerdo sobre muchos temas. [f] Algunas de las preguntas más antiguas que han quedado sin respuesta son las siguientes: ¿debería la inteligencia artificial simular la inteligencia natural mediante el estudio de la psicología o la neurobiología ? ¿O es la biología humana tan irrelevante para la investigación de la IA como la biología de las aves para la ingeniería aeronáutica ? [23] ¿Se puede describir el comportamiento inteligente utilizando principios simples y elegantes (como la lógica o la optimización )? ¿O requiere necesariamente resolver una gran cantidad de problemas no relacionados? [24]
Cibernética y simulación cerebral
En las décadas de 1940 y 1950, varios investigadores exploraron la conexión entre la neurobiología , la teoría de la información y la cibernética . Algunos de ellos construyeron máquinas que usaban redes electrónicas para exhibir inteligencia rudimentaria, como las tortugas de W. Gray Walter y la Bestia de Johns Hopkins . Muchos de estos investigadores se reunieron para las reuniones de la Sociedad Teleológica en la Universidad de Princeton y el Club Ratio en Inglaterra. [167] En 1960, este enfoque se abandonó en gran medida, aunque algunos elementos se revivieron en la década de 1980.
Simbólico
Cuando el acceso a las computadoras digitales se hizo posible a mediados de la década de 1950, la investigación de la inteligencia artificial comenzó a explorar la posibilidad de que la inteligencia humana pudiera reducirse a la manipulación de símbolos. La investigación se centró en tres instituciones: Carnegie Mellon University , Stanford y MIT y, como se describe a continuación, cada una desarrolló su propio estilo de investigación. John Haugeland denominó estos enfoques simbólicos de la IA como "buena IA pasada de moda" o " GOFAI ". [168] Durante la década de 1960, los enfoques simbólicos habían logrado un gran éxito en la simulación del "pensamiento" de alto nivel en pequeños programas de demostración. Los enfoques basados en la cibernética o las redes neuronales artificiales fueron abandonados o relegados a un segundo plano. [g] Los investigadores de las décadas de 1960 y 1970 estaban convencidos de que los enfoques simbólicos eventualmente lograrían crear una máquina con inteligencia artificial general y consideraron que este era el objetivo de su campo.
Simulación cognitiva
El economista Herbert Simon y Allen Newell estudiaron las habilidades humanas de resolución de problemas e intentaron formalizarlas, y su trabajo sentó las bases del campo de la inteligencia artificial, así como de la ciencia cognitiva , la investigación de operaciones y la ciencia de la gestión . Su equipo de investigación utilizó los resultados de experimentos psicológicos para desarrollar programas que simulaban las técnicas que las personas usaban para resolver problemas. Esta tradición, centrada en la Universidad Carnegie Mellon , eventualmente culminaría con el desarrollo de la arquitectura Soar a mediados de la década de 1980. [169] [170]
Basado en la lógica
A diferencia de Simon y Newell, John McCarthy sintió que las máquinas no necesitaban simular el pensamiento humano, sino que deberían tratar de encontrar la esencia del razonamiento abstracto y la resolución de problemas, independientemente de si las personas usaban los mismos algoritmos. [23] Su laboratorio en Stanford ( SAIL ) se centró en el uso de la lógica formal para resolver una amplia variedad de problemas, incluida la representación del conocimiento , la planificación y el aprendizaje . [171] La lógica también fue el foco del trabajo en la Universidad de Edimburgo y en otras partes de Europa que condujo al desarrollo del lenguaje de programación Prolog y la ciencia de la programación lógica . [172]
Anti-lógica o desaliñado
Investigadores del MIT (como Marvin Minsky y Seymour Papert ) [173] encontraron que la resolución de problemas difíciles en la visión y el procesamiento del lenguaje natural requería soluciones ad hoc; argumentaron que ningún principio simple y general (como la lógica ) captaría todos los aspectos de la inteligencia comportamiento. Roger Schank describió sus enfoques "anti-lógicos" como " desaliñados " (a diferencia de los paradigmas " pulcros " en CMU y Stanford). [24] con bases de conocimiento (como Doug Lenat 's Cic ) son un ejemplo de 'desaliñado' AI, ya que deben ser construidos a mano, un concepto complicado a la vez. [174]
Basado en el conocimiento
Cuando las computadoras con grandes memorias estuvieron disponibles alrededor de 1970, los investigadores de las tres tradiciones comenzaron a incorporar conocimientos en aplicaciones de inteligencia artificial. [175] Esta "revolución del conocimiento" llevó al desarrollo y despliegue de sistemas expertos (presentados por Edward Feigenbaum ), la primera forma verdaderamente exitosa de software de IA. [52] Un componente clave de la arquitectura del sistema para todos los sistemas expertos es la base de conocimientos, que almacena hechos y reglas que ilustran la IA. [176] La revolución del conocimiento también fue impulsada por la comprensión de que muchas aplicaciones simples de IA requerirían enormes cantidades de conocimiento.
Sub-simbólico
En la década de 1980, el progreso en la IA simbólica parecía estancarse y muchos creían que los sistemas simbólicos nunca serían capaces de imitar todos los procesos de la cognición humana, especialmente la percepción , la robótica, el aprendizaje y el reconocimiento de patrones . Varios investigadores comenzaron a estudiar enfoques "sub-simbólicos" para problemas específicos de IA. [25] Los métodos sub-simbólicos logran acercarse a la inteligencia sin representaciones específicas del conocimiento.
Inteligencia encarnada
Esto incluye IA incorporada , situada , basada en el comportamiento y nouvelle . Investigadores del campo relacionado de la robótica, como Rodney Brooks , rechazaron la IA simbólica y se centraron en los problemas básicos de ingeniería que permitirían a los robots moverse y sobrevivir. [177] Su trabajo revivió el punto de vista no simbólico de los primeros investigadores en cibernética de la década de 1950 y reintrodujo el uso de la teoría del control en la IA. Esto coincidió con el desarrollo de la tesis de la mente incorporada en el campo relacionado de la ciencia cognitiva : la idea de que los aspectos del cuerpo (como el movimiento, la percepción y la visualización) son necesarios para una inteligencia superior.
Dentro de la robótica del desarrollo , se elaboran enfoques de aprendizaje evolutivo para permitir que los robots acumulen repertorios de habilidades novedosas a través de la autoexploración autónoma, la interacción social con maestros humanos y el uso de mecanismos de orientación (aprendizaje activo, maduración, sinergias motoras, etc.). [178] [179] [180] [181]
Inteligencia computacional e informática blanda
El interés por las redes neuronales y el " conexionismo " fue revivido por David Rumelhart y otros a mediados de la década de 1980. [182] Las redes neuronales artificiales son un ejemplo de computación blanda: son soluciones a problemas que no pueden resolverse con total certeza lógica y en los que una solución aproximada suele ser suficiente. Otros enfoques de computación blanda para la IA incluyen sistemas difusos , teoría del sistema Gray , computación evolutiva y muchas herramientas estadísticas. La aplicación de la computación blanda a la IA es estudiada colectivamente por la disciplina emergente de la inteligencia computacional . [183]
Estadístico
Gran parte del GOFAI tradicional se empantanó en parches ad hoc para la computación simbólica que funcionaba en sus propios modelos de juguetes, pero no se generalizaba a los resultados del mundo real. Sin embargo, alrededor de la década de 1990, los investigadores de IA adoptaron herramientas matemáticas sofisticadas, como los modelos ocultos de Markov (HMM), la teoría de la información y la teoría normativa de decisiones bayesianas para comparar o unificar arquitecturas competidoras. El lenguaje matemático compartido permitió un alto nivel de colaboración con campos más establecidos (como matemáticas , economía o investigación de operaciones ). [h] En comparación con GOFAI, las nuevas técnicas de "aprendizaje estadístico" como HMM y redes neuronales estaban ganando niveles más altos de precisión en muchos dominios prácticos como la minería de datos , sin adquirir necesariamente una comprensión semántica de los conjuntos de datos. Los mayores éxitos con datos del mundo real llevaron a un mayor énfasis en la comparación de diferentes enfoques con datos de prueba compartidos para ver qué enfoque funcionó mejor en un contexto más amplio que el proporcionado por modelos de juguetes idiosincrásicos; La investigación de la IA se estaba volviendo más científica . Hoy en día, los resultados de los experimentos son a menudo rigurosamente medibles y, a veces (con dificultad) reproducibles. [54] [184] Las diferentes técnicas de aprendizaje estadístico tienen diferentes limitaciones; por ejemplo, HMM básico no puede modelar las infinitas combinaciones posibles de lenguaje natural. [185] Los críticos señalan que el cambio de GOFAI al aprendizaje estadístico a menudo también se aleja de la IA explicable . En la investigación de AGI, algunos académicos advierten contra la dependencia excesiva del aprendizaje estadístico y argumentan que la investigación continua sobre GOFAI seguirá siendo necesaria para lograr la inteligencia general. [186] [187]
Integrando los enfoques
- Paradigma de agente inteligente
- Un agente inteligente es un sistema que percibe su entorno y realiza acciones que maximizan sus posibilidades de éxito. Los agentes inteligentes más simples son programas que resuelven problemas específicos. Los agentes más complicados incluyen seres humanos y organizaciones de seres humanos (como empresas ). El paradigma permite a los investigadores comparar directamente o incluso combinar diferentes enfoques para problemas aislados, preguntando qué agente es mejor para maximizar una determinada "función objetivo". Un agente que resuelve un problema específico puede usar cualquier enfoque que funcione: algunos agentes son simbólicos y lógicos, algunos son redes neuronales artificiales sub-simbólicas y otros pueden usar nuevos enfoques. El paradigma también brinda a los investigadores un lenguaje común para comunicarse con otros campos, como la teoría de la decisión y la economía, que también utilizan conceptos de agentes abstractos. La construcción de un agente completo requiere que los investigadores aborden problemas realistas de integración; por ejemplo, debido a que los sistemas sensoriales brindan información incierta sobre el medio ambiente, los sistemas de planificación deben poder funcionar en presencia de incertidumbre. El paradigma del agente inteligente se aceptó ampliamente durante la década de los noventa. [188]
- Arquitecturas de agentes y arquitecturas cognitivas
- Los investigadores han diseñado sistemas para construir sistemas inteligentes a partir de la interacción de agentes inteligentes en un sistema de múltiples agentes . [189] Un sistema de control jerárquico proporciona un puente entre la IA sub-simbólica en sus niveles reactivos más bajos y la IA simbólica tradicional en sus niveles más altos, donde las restricciones de tiempo relajadas permiten la planificación y el modelado del mundo. [190] Algunas arquitecturas cognitivas están diseñadas a medida para resolver un problema limitado; otros, como Soar , están diseñados para imitar la cognición humana y proporcionar información sobre la inteligencia general. Las extensiones modernas de Soar son sistemas inteligentes híbridos que incluyen componentes simbólicos y sub-simbólicos. [97] [191]
Herramientas
Aplicaciones
La IA es relevante para cualquier tarea intelectual. [192] Las técnicas modernas de inteligencia artificial son omnipresentes [193] y son demasiado numerosas para enumerarlas aquí. Con frecuencia, cuando una técnica alcanza el uso generalizado, ya no se considera inteligencia artificial; este fenómeno se describe como el efecto AI . [194]
Ejemplos de IA de alto perfil incluyen vehículos autónomos (como drones y coches autónomos ), diagnóstico médico, creación de arte (como poesía), demostración de teoremas matemáticos, juegos (como Chess o Go), motores de búsqueda (como Búsqueda de Google ), asistentes en línea (como Siri ), reconocimiento de imágenes en fotografías, filtrado de spam, predicción de retrasos en los vuelos, [195] predicción de decisiones judiciales, [196] publicidad en línea dirigida, [192] [197] [198] y energía almacenamiento [199]
Con los sitios de redes sociales superando a la televisión como fuente de noticias para los jóvenes y las organizaciones de noticias que dependen cada vez más de las plataformas de redes sociales para generar distribución, [200] los principales editores ahora utilizan la tecnología de inteligencia artificial (IA) para publicar historias de manera más efectiva y generar mayores volúmenes de información. tráfico. [201]
La IA también puede producir Deepfakes , una tecnología que altera el contenido. ZDNet informa, "Presenta algo que en realidad no ocurrió", aunque el 88% de los estadounidenses creen que los deepfakes pueden causar más daño que bien, solo el 47% de ellos cree que pueden ser atacados. El auge del año electoral también abre el discurso público a las amenazas de videos de medios políticos falsificados. [202]
Filosofia y etica
Hay tres cuestiones filosóficas relacionadas con la IA: [203]
- Si es posible la inteligencia artificial general ; si una máquina puede resolver cualquier problema que un ser humano pueda resolver usando inteligencia, o si existen límites estrictos para lo que una máquina puede lograr.
- Si las máquinas inteligentes son peligrosas; cómo los seres humanos pueden garantizar que las máquinas se comporten de forma ética y que se utilicen de forma ética.
- Si una máquina puede tener mente , conciencia y estados mentales en el mismo sentido que los seres humanos; si una máquina puede ser sensible y, por lo tanto, merece ciertos derechos, y si una máquina puede causar daño intencionalmente .
Los límites de la inteligencia artificial general
- La "convención cortés" de Alan Turing
- No es necesario decidir si una máquina puede "pensar"; basta con decidir si una máquina puede actuar con la misma inteligencia que un ser humano. Este enfoque de los problemas filosóficos asociados con la inteligencia artificial forma la base de la prueba de Turing . [204]
- La propuesta de Dartmouth
- "Cada aspecto del aprendizaje o cualquier otra característica de la inteligencia se puede describir con tanta precisión que se puede hacer una máquina para simularlo". Esta conjetura se imprimió en la propuesta para la Conferencia de Dartmouth de 1956. [205]
- Hipótesis del sistema de símbolos físicos de Newell y Simon
- "Un sistema de símbolos físicos tiene los medios necesarios y suficientes para la acción inteligente general". Newell y Simon argumentan que la inteligencia consiste en operaciones formales sobre símbolos. [206] Hubert Dreyfus sostiene que, por el contrario, la pericia humana depende del instinto inconsciente más que de la manipulación consciente de los símbolos, y de tener una "sensación" de la situación, más que del conocimiento simbólico explícito. (Véase la crítica de Dreyfus a AI .) [I] [208]
- Argumentos de Gödelia
- El propio Gödel , [209] John Lucas (en 1961) y Roger Penrose (en un argumento más detallado de 1989 en adelante) hicieron argumentos altamente técnicos de que los matemáticos humanos pueden ver consistentemente la verdad de sus propias "declaraciones de Gödel" y por lo tanto tienen habilidades computacionales más allá el de las máquinas mecánicas de Turing. [210] Sin embargo, algunas personas no están de acuerdo con los "argumentos de Gödelia". [211] [212] [213]
- El argumento del cerebro artificial
- Un argumento que afirma que el cerebro puede ser simulado por máquinas y, dado que los cerebros exhiben inteligencia, estos cerebros simulados también deben exhibir inteligencia; ergo, las máquinas pueden ser inteligentes. Hans Moravec , Ray Kurzweil y otros han argumentado que es tecnológicamente factible copiar el cerebro directamente en hardware y software, y que dicha simulación será esencialmente idéntica a la original. [164]
- El efecto AI
- Una hipótesis que afirma que las máquinas ya son inteligentes, pero los observadores no lo han reconocido. Por ejemplo, cuando Deep Blue venció a Garry Kasparov en ajedrez, la máquina podría describirse como exhibiendo inteligencia. Sin embargo, los espectadores comúnmente descartan el comportamiento de un programa de inteligencia artificial argumentando que no es inteligencia "real", y que la inteligencia "real" se define de hecho como cualquier comportamiento que las máquinas no puedan hacer.
Máquinas éticas
Las máquinas con inteligencia tienen el potencial de usar su inteligencia para prevenir daños y minimizar los riesgos; pueden tener la capacidad de utilizar el razonamiento ético para elegir mejor sus acciones en el mundo. Como tal, existe la necesidad de formular políticas para diseñar políticas y regular la inteligencia artificial y la robótica. [214] La investigación en esta área incluye la ética de las máquinas , los agentes morales artificiales , la inteligencia artificial amigable y la discusión para construir un marco de derechos humanos también está en conversaciones. [215]
Joseph Weizenbaum en Computer Power and Human Reason escribió que las aplicaciones de IA no pueden, por definición, simular con éxito la empatía humana genuina y que el uso de la tecnología de IA en campos como el servicio al cliente o la psicoterapia [j] estaba profundamente equivocado. A Weizenbaum también le molestó que los investigadores de IA (y algunos filósofos) estuvieran dispuestos a ver la mente humana como nada más que un programa de computadora (una posición ahora conocida como computacionalismo ). Para Weizenbaum, estos puntos sugieren que la investigación de la IA devalúa la vida humana. [217]
Agentes morales artificiales
Wendell Wallach introdujo el concepto de agentes morales artificiales (AMA) en su libro Moral Machines [218] Para Wallach, los AMA se han convertido en parte del panorama de investigación de la inteligencia artificial guiados por sus dos preguntas centrales que él identifica como "¿Quiere la humanidad Computadoras que toman decisiones morales " [219] y" ¿Pueden los (Ro) bots realmente ser morales ". [220] Para Wallach, la cuestión no se centra en la cuestión de si las máquinas pueden demostrar el equivalente del comportamiento moral, a diferencia de las limitaciones que la sociedad puede imponer al desarrollo de AMA. [221]
Ética de la máquina
El campo de la ética de las máquinas se preocupa por dar a las máquinas principios éticos, o un procedimiento para descubrir una forma de resolver los dilemas éticos que puedan encontrar, permitiéndoles funcionar de una manera éticamente responsable a través de su propia toma de decisiones éticas. [222] El campo se delineó en el Simposio AAAI de otoño de 2005 sobre ética de las máquinas: "Las investigaciones anteriores sobre la relación entre la tecnología y la ética se han centrado en gran medida en el uso responsable e irresponsable de la tecnología por parte de los seres humanos, y algunas personas están interesadas en cómo Los seres humanos deben tratar a las máquinas. En todos los casos, solo los seres humanos se han involucrado en el razonamiento ético. Ha llegado el momento de agregar una dimensión ética al menos a algunas máquinas. Reconocimiento de las ramificaciones éticas del comportamiento que involucra máquinas, así como las recientes y potenciales Los avances en la autonomía de la máquina, lo necesitan. En contraste con la piratería informática, los problemas de propiedad del software, los problemas de privacidad y otros temas normalmente adscritos a la ética informática, la ética de la máquina se ocupa del comportamiento de las máquinas hacia los usuarios humanos y otras máquinas. La investigación en ética de la máquina es clave para aliviar las preocupaciones con los sistemas autónomos, se podría argumentar que la noción de máquinas autónomas sin s uch una dimensión está en la raíz de todos los miedos relacionados con la inteligencia de las máquinas. Además, la investigación de la ética de las máquinas podría permitir el descubrimiento de problemas con las teorías éticas actuales, haciendo avanzar nuestro pensamiento sobre la ética ". [223] La ética de las máquinas a veces se denomina moralidad de las máquinas, ética computacional o moralidad computacional. El campo se puede encontrar en la edición recopilada "Machine Ethics" [222] que se deriva del Simposio sobre ética de las máquinas de otoño de 2005 de la AAAI. [223]
IA malévola y amigable
El politólogo Charles T. Rubin cree que la IA no puede diseñarse ni garantizarse que sea benévola. [224] Sostiene que "cualquier benevolencia suficientemente avanzada puede ser indistinguible de la malevolencia". Los seres humanos no deberían asumir que las máquinas o los robots nos tratarían favorablemente porque no hay una razón a priori para creer que simpatizarían con nuestro sistema de moralidad, que ha evolucionado junto con nuestra biología particular (que las IA no compartirían). Es posible que el software hiperinteligente no decida necesariamente respaldar la existencia continua de la humanidad y sería extremadamente difícil de detener. Este tema también ha comenzado recientemente a ser discutido en publicaciones académicas como una fuente real de riesgos para la civilización, los humanos y el planeta Tierra.
Una propuesta para hacer frente a esto es garantizar que la primera IA generalmente inteligente sea la ' IA amigable ' y pueda controlar las IA desarrolladas posteriormente. Algunos se preguntan si este tipo de control podría permanecer en su lugar.
El investigador principal de IA Rodney Brooks escribe: "Creo que es un error preocuparnos por que desarrollemos IA malévola en los próximos cientos de años. Creo que la preocupación surge de un error fundamental al no distinguir la diferencia entre los avances recientes muy reales en un aspecto particular de la IA y la enormidad y complejidad de construir inteligencia volitiva sensible ". [225]
Las armas autónomas letales son motivo de preocupación. Actualmente, más de 50 países están investigando robots de campo de batalla, incluidos los Estados Unidos, China, Rusia y el Reino Unido. Muchas personas preocupadas por el riesgo de la IA superinteligente también quieren limitar el uso de soldados artificiales y drones. [226]
Conciencia, sensibilidad y mente de la máquina
Si un sistema de inteligencia artificial replica todos los aspectos clave de la inteligencia humana, ¿ese sistema también será sensible , tendrá una mente que tenga experiencias conscientes ? Esta cuestión está estrechamente relacionada con el problema filosófico de la naturaleza de la conciencia humana, al que generalmente se hace referencia como el problema difícil de la conciencia .
Conciencia
David Chalmers identificó dos problemas para comprender la mente, a los que denominó problemas de conciencia "difíciles" y "fáciles". [227] El problema fácil es comprender cómo el cerebro procesa las señales, hace planes y controla el comportamiento. El problema difícil es explicar cómo se siente esto o por qué debería sentirse como algo. El procesamiento de la información humana es fácil de explicar, sin embargo, la experiencia subjetiva humana es difícil de explicar.
Por ejemplo, considere lo que sucede cuando a una persona se le muestra una muestra de color y la identifica diciendo "es rojo". El problema fácil solo requiere comprender la maquinaria en el cerebro que hace posible que una persona sepa que la muestra de color es roja. El problema difícil es que las personas también saben algo más: también saben cómo se ve el rojo . (Considere que una persona ciega de nacimiento puede saber que algo es rojo sin saber cómo se ve el rojo). [K] Todos saben que la experiencia subjetiva existe, porque la hacen todos los días (por ejemplo, todas las personas videntes saben cómo se ve el rojo). El problema difícil es explicar cómo lo crea el cerebro, por qué existe y en qué se diferencia del conocimiento y otros aspectos del cerebro.
Computacionalismo y funcionalismo
El computacionalismo es la posición en la filosofía de la mente de que la mente humana o el cerebro humano (o ambos) es un sistema de procesamiento de información y que el pensamiento es una forma de computación. [228] El computacionalismo sostiene que la relación entre la mente y el cuerpo es similar o idéntica a la relación entre el software y el hardware y, por lo tanto, puede ser una solución al problema de la mente y el cuerpo . Esta posición filosófica se inspiró en el trabajo de los investigadores de inteligencia artificial y los científicos cognitivos en la década de 1960 y fue propuesta originalmente por los filósofos Jerry Fodor e Hilary Putnam .
Fuerte hipótesis de IA
La posición filosófica que John Searle ha llamado "IA fuerte" establece: "La computadora programada apropiadamente con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido que los seres humanos tienen mente". [l] Searle contrarresta esta afirmación con su argumento de la habitación china , que nos pide que miremos dentro de la computadora y tratemos de encontrar dónde podría estar la "mente". [230]
Derechos de robot
Si se puede crear una máquina que tenga inteligencia, ¿podría también sentir ? Si puede sentir, ¿tiene los mismos derechos que un ser humano? Este tema, ahora conocido como " derechos de los robots ", está siendo considerado actualmente, por ejemplo, por el Instituto para el Futuro de California , aunque muchos críticos creen que la discusión es prematura. [231] [232] Algunos críticos del transhumanismo argumentan que cualquier hipotético derecho de los robots estaría en un espectro con los derechos de los animales y los derechos humanos. [233] El tema se discute profundamente en el documental de 2010 Plug & Pray , [234] y en muchos medios de ciencia ficción como Star Trek Next Generation, con el personaje de Commander Data , que luchó por ser desmontado para la investigación y quería " convertirse en humano ", y los hologramas robóticos en la Voyager.
Superinteligencia
¿Hay límites en lo que pueden ser las máquinas inteligentes, o los híbridos entre humanos y máquinas? Una superinteligencia, hiperinteligencia o inteligencia sobrehumana es un agente hipotético que poseería una inteligencia muy superior a la de la mente humana más brillante y dotada. La superinteligencia también puede referirse a la forma o grado de inteligencia que posee dicho agente. [157]
Singularidad tecnológica
Si la investigación sobre Strong AI produjera un software suficientemente inteligente, podría reprogramarse y mejorarse a sí mismo. El software mejorado sería incluso mejor para mejorarse a sí mismo, lo que conduciría a la superación personal recursiva . [235] La nueva inteligencia podría aumentar así exponencial y dramáticamente sobrepasar a los humanos. El escritor de ciencia ficción Vernor Vinge llamó a este escenario " singularidad ". [236] La singularidad tecnológica es cuando el progreso acelerado de las tecnologías provocará un efecto desbocado en el que la inteligencia artificial superará la capacidad intelectual y el control humanos, cambiando radicalmente o incluso acabando con la civilización. Debido a que las capacidades de tal inteligencia pueden ser imposibles de comprender, la singularidad tecnológica es un acontecimiento más allá del cual los eventos son impredecibles o incluso insondables. [236] [157]
Ray Kurzweil ha utilizado la ley de Moore (que describe la implacable mejora exponencial en la tecnología digital) para calcular que las computadoras de escritorio tendrán la misma potencia de procesamiento que los cerebros humanos para el año 2029 y predice que la singularidad ocurrirá en 2045. [236]
Transhumanismo
El diseñador de robots Hans Moravec , el cibernético Kevin Warwick y el inventor Ray Kurzweil han predicho que los humanos y las máquinas se fusionarán en el futuro en cyborgs que son más capaces y poderosos que cualquiera de los dos. [237] Esta idea, llamada transhumanismo , tiene sus raíces en Aldous Huxley y Robert Ettinger .
Edward Fredkin sostiene que "la inteligencia artificial es la siguiente etapa en la evolución", una idea propuesta por primera vez por " Darwin entre las máquinas " de Samuel Butler ya en 1863, y ampliada por George Dyson en su libro del mismo nombre en 1998. [238]
Impacto
Los efectos económicos a largo plazo de la IA son inciertos. Una encuesta de economistas mostró desacuerdo sobre si el uso cada vez mayor de robots e inteligencia artificial provocará un aumento sustancial del desempleo a largo plazo , pero en general coinciden en que podría ser un beneficio neto, si se redistribuyen las ganancias de productividad . [239] Según un estudio de 2017 de PricewaterhouseCoopers, la República Popular de China sacará el máximo provecho económico de la IA con un 26,1% del PIB hasta 2030. [240] Un libro blanco de la Unión Europea de febrero de 2020 sobre inteligencia artificial propugnaba la inteligencia artificial para fines económicos. beneficios, incluyendo "mejorar la atención médica (por ejemplo, hacer el diagnóstico más preciso, permitir una mejor prevención de enfermedades), aumentar la eficiencia de la agricultura, contribuir a la mitigación y adaptación al cambio climático, [y] mejorar la eficiencia de los sistemas de producción a través del mantenimiento predictivo", al tiempo que se reconoce riesgos potenciales. [193]
La relación entre automatización y empleo es complicada. Si bien la automatización elimina los empleos antiguos, también crea nuevos empleos a través de efectos microeconómicos y macroeconómicos. [241] A diferencia de las oleadas anteriores de automatización, muchos trabajos de clase media pueden ser eliminados por la inteligencia artificial; The Economist afirma que "vale la pena tomar en serio la preocupación de que la inteligencia artificial pueda causarles a los trabajos administrativos lo que la energía del vapor les hizo a los trabajadores manuales durante la Revolución Industrial". [242] Las estimaciones subjetivas del riesgo varían ampliamente; por ejemplo, Michael Osborne y Carl Benedikt Frey estiman que el 47% de los puestos de trabajo estadounidenses tienen "alto riesgo" de automatización potencial, mientras que un informe de la OCDE clasifica sólo el 9% de los puestos de trabajo estadounidenses como "de alto riesgo". [243] [244] [245] Los trabajos con riesgo extremo van desde asistentes legales hasta cocineros de comida rápida, mientras que es probable que aumente la demanda laboral para las profesiones relacionadas con el cuidado que van desde la atención médica personal hasta el clero. [246] El autor Martin Ford y otros van más allá y argumentan que muchos trabajos son rutinarios, repetitivos y (para una IA) predecibles; Ford advierte que estos trabajos pueden automatizarse en las próximas dos décadas, y que muchos de los nuevos trabajos pueden no ser "accesibles para personas con capacidad promedio", incluso con reentrenamiento. Los economistas señalan que en el pasado la tecnología ha tendido a aumentar en lugar de reducir el empleo total, pero reconocen que "estamos en un territorio desconocido" con la IA. [35]
Los posibles efectos negativos de la gripe aviar y la automatización eran un problema importante para Andrew Yang 's 2020 campaña presidencial en los Estados Unidos. [247] Irakli Beridze, director del Centro de Inteligencia Artificial y Robótica del UNICRI, Naciones Unidas, ha expresado que "creo que las aplicaciones peligrosas de la IA, desde mi punto de vista, serían los delincuentes o las grandes organizaciones terroristas que la utilizan para interrumpir procesos grandes o simplemente hacer daño puro. [Los terroristas podrían causar daño] a través de la guerra digital, o podría ser una combinación de robótica, drones, con inteligencia artificial y otras cosas que podrían ser realmente peligrosas. Y, por supuesto, existen otros riesgos de cosas como la pérdida de puestos de trabajo. Si tenemos un gran número de personas que pierden sus puestos de trabajo y no encontramos una solución, será extremadamente peligroso. Cosas como los sistemas de armas autónomas letales deben gobernarse adecuadamente; de lo contrario, existe un enorme potencial de mal uso ". [248]
Riesgos de la IA estrecha
El uso generalizado de la inteligencia artificial podría tener consecuencias no deseadas que son peligrosas o indeseables. Los científicos del Future of Life Institute , entre otros, describieron algunos objetivos de investigación a corto plazo para ver cómo la IA influye en la economía, las leyes y la ética que están involucradas con la IA y cómo minimizar los riesgos de seguridad de la IA. A largo plazo, los científicos se han propuesto seguir optimizando la función al tiempo que se minimizan los posibles riesgos de seguridad que conllevan las nuevas tecnologías. [249]
A algunos les preocupa el sesgo algorítmico , ya que los programas de inteligencia artificial pueden sesgarse involuntariamente después de procesar datos que exhiben sesgos. [250] Los algoritmos ya tienen numerosas aplicaciones en los sistemas jurídicos. Un ejemplo de esto es COMPAS , un programa comercial ampliamente utilizado por los tribunales estadounidenses para evaluar la probabilidad de que un acusado se convierta en reincidente . ProPublica afirma que el nivel de riesgo de reincidencia promedio asignado por COMPAS a los acusados negros es significativamente más alto que el nivel de riesgo promedio asignado por COMPAS a los acusados blancos. [251]
Riesgos de la IA general
El físico Stephen Hawking , el fundador de Microsoft Bill Gates , el profesor de historia Yuval Noah Harari y el fundador de SpaceX , Elon Musk, han expresado su preocupación por la posibilidad de que la IA evolucione hasta el punto de que los humanos no puedan controlarla, y Hawking teoriza que esto podría " significar el final". de la raza humana ". [252] [253] [254] [255]
El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana. Una vez que los humanos desarrollen inteligencia artificial, despegará por sí sola y se rediseñará a un ritmo cada vez mayor. Los humanos, que están limitados por la lenta evolución biológica, no podrían competir y serían reemplazados.
- Stephen Hawking [256]
En su libro Superintelligence , el filósofo Nick Bostrom ofrece un argumento de que la inteligencia artificial representará una amenaza para la humanidad. Argumenta que la IA suficientemente inteligente, si elige acciones basadas en el logro de algún objetivo, exhibirá un comportamiento convergente , como adquirir recursos o protegerse de ser apagada. Si los objetivos de esta IA no reflejan plenamente los de la humanidad (un ejemplo es una IA que calcule tantos dígitos de pi como sea posible), podría dañar a la humanidad para adquirir más recursos o evitar que se apague, en última instancia, para lograr mejor su objetivo. . Bostrom también enfatiza la dificultad de transmitir completamente los valores de la humanidad a una IA avanzada. Utiliza el ejemplo hipotético de darle a una IA el objetivo de hacer sonreír a los humanos para ilustrar un intento equivocado. Si la IA en ese escenario se volviera superinteligente, argumenta Bostrom, podría recurrir a métodos que la mayoría de los humanos encontrarían horribles, como insertar "electrodos en los músculos faciales de los humanos para causar sonrisas radiantes y constantes" porque eso sería un método eficiente. manera de lograr su objetivo de hacer sonreír a los humanos. [257] En su libro Compatible con humanos , el investigador de inteligencia artificial Stuart J. Russell se hace eco de algunas de las preocupaciones de Bostrom al mismo tiempo que propone un enfoque para desarrollar máquinas demostrablemente beneficiosas centradas en la incertidumbre y la deferencia hacia los humanos, [258] : 173 posiblemente involucrando el aprendizaje por refuerzo inverso . [258] : 191–193
La preocupación por el riesgo de la inteligencia artificial ha llevado a algunas donaciones e inversiones de alto perfil. Un grupo de prominentes titanes de la tecnología, incluidos Peter Thiel , Amazon Web Services y Musk, han comprometido mil millones de dólares para OpenAI , una empresa sin fines de lucro destinada a promover el desarrollo responsable de la inteligencia artificial. [259] La opinión de los expertos en el campo de la inteligencia artificial es mixta, con fracciones considerables preocupadas y despreocupadas por el riesgo de una eventual IA con capacidad sobrehumana. [260] Otros líderes de la industria tecnológica creen que la inteligencia artificial es útil en su forma actual y continuará ayudando a los humanos. El director ejecutivo de Oracle, Mark Hurd, ha declarado que la IA "en realidad creará más puestos de trabajo, no menos", ya que se necesitarán seres humanos para gestionar los sistemas de IA. [261] El director ejecutivo de Facebook, Mark Zuckerberg, cree que la IA "desbloqueará una gran cantidad de cosas positivas", como curar enfermedades y aumentar la seguridad de los coches autónomos. [262] En enero de 2015, Musk donó $ 10 millones al Future of Life Institute para financiar la investigación sobre la comprensión de la toma de decisiones de la IA. El objetivo del instituto es "cultivar la sabiduría con la que gestionamos" el creciente poder de la tecnología. Musk también financia a empresas que desarrollan inteligencia artificial como DeepMind y Vicarious para "vigilar lo que sucede con la inteligencia artificial. [263] Creo que existe un resultado potencialmente peligroso". [264] [265]
Para que se materialice el peligro de la IA avanzada incontrolada, la IA hipotética tendría que dominar o superar a toda la humanidad, lo que una minoría de expertos argumenta es una posibilidad lo suficientemente lejana en el futuro como para que no valga la pena investigarla. [266] [267] Otros contraargumentos giran en torno a que los seres humanos son intrínseca o convergente valiosos desde la perspectiva de una inteligencia artificial. [268]
Regulación
La regulación de la inteligencia artificial es el desarrollo de políticas y leyes del sector público para promover y regular la inteligencia artificial (IA); [269] [270] por lo tanto, está relacionado con la regulación más amplia de algoritmos . El panorama normativo y político de la IA es un problema emergente en jurisdicciones de todo el mundo, incluida la Unión Europea. [271] La regulación se considera necesaria tanto para fomentar la IA como para gestionar los riesgos asociados. [272] [273] La regulación de la IA a través de mecanismos como las juntas de revisión también puede verse como un medio social para abordar el problema del control de la IA . [274]
En ficción
Los seres artificiales capaces de pensar aparecieron como dispositivos para contar historias desde la antigüedad, [37] y han sido un tema persistente en la ciencia ficción .
Un común tropo en estas obras se inició con Mary Shelley 's Frankenstein , donde una creación humana se convierte en una amenaza para sus amos. Esto incluye obras como Arthur C. Clarke y Stanley Kubrick's 2001: A Space Odyssey (ambas de 1968), con HAL 9000 , la computadora asesina a cargo de la nave espacial Discovery One , así como The Terminator (1984) y The Matrix (1999). ). En contraste, los raros robots leales como Gort de The Day the Earth Stood Still (1951) y Bishop from Aliens (1986) son menos prominentes en la cultura popular. [275]
Isaac Asimov introdujo las Tres Leyes de la Robótica en muchos libros e historias, sobre todo en la serie "Multivac" sobre una computadora superinteligente del mismo nombre. Las leyes de Asimov a menudo se plantean durante las discusiones profanas sobre la ética de las máquinas; [276] mientras que casi todos los investigadores de inteligencia artificial están familiarizados con las leyes de Asimov a través de la cultura popular, generalmente consideran que las leyes son inútiles por muchas razones, una de las cuales es su ambigüedad. [277]
El transhumanismo (la fusión de humanos y máquinas) se explora en el manga Ghost in the Shell y la serie de ciencia ficción Dune . En la década de 1980, la serie Sexy Robots del artista Hajime Sorayama se pintó y publicó en Japón que representa la forma humana orgánica real con pieles metálicas musculosas realistas y luego siguió el libro "The Gynoids" que fue utilizado o influido por cineastas como George Lucas y otros. creatividades. Sorayama nunca consideró que estos robots orgánicos fueran parte real de la naturaleza, sino siempre un producto antinatural de la mente humana, una fantasía que existe en la mente incluso cuando se realiza en forma real.
Varias obras utilizan la IA para obligarnos a afrontar la cuestión fundamental de qué nos hace humanos, mostrándonos seres artificiales que tienen la capacidad de sentir y, por tanto, de sufrir. Esto aparece en el RUR de Karel Čapek , las películas AI Artificial Intelligence y Ex Machina , así como en la novela ¿Sueñan los androides con ovejas eléctricas? , por Philip K. Dick . Dick considera la idea de que nuestra comprensión de la subjetividad humana se ve alterada por la tecnología creada con inteligencia artificial. [278]
Ver también
- AI en aumento
- Problema de control de IA
- Carrera armamentista de inteligencia artificial
- Inteligencia artificial general
- Algoritmo de selección de comportamiento
- Automatización de procesos comerciales
- Razonamiento basado en casos
- Ciencia ciudadana
- Algoritmo emergente
- Género femenino de tecnologías de IA
- Glosario de inteligencia artificial
- Regulación de la inteligencia artificial
- Automatización robótica de procesos
- Inteligencia sintética
- Renta básica universal
- IA débil
Notas explicatorias
- ^ El acto de repartir recompensas se puede formalizar o automatizar en sí mismo en una " función de recompensa ".
- ^ La terminología varía; ver caracterizaciones de algoritmos .
- ^ Las vulnerabilidades adversas también pueden resultar en sistemas no lineales o de perturbaciones que no son de patrón. Algunos sistemas son tan frágiles que cambiar un solo píxel adversario induce previsiblemente una clasificación errónea.
- ↑ Alan Turing discutió la centralidad del aprendizaje ya en 1950, en su artículo clásico " Computing Machinery and Intelligence ". [125] En 1956, en la conferencia de verano original de Dartmouth AI, Ray Solomonoff escribió un informe sobre el aprendizaje automático probabilístico no supervisado: "Una máquina de inferencia inductiva". [126]
- ^ Esta es una forma de ladefinición de aprendizaje automático ampliamente citadade Tom Mitchell : "Un programa de computadora está configurado para aprender de una experiencia E con respecto a alguna tarea T y alguna medida de desempeño P si su desempeño en T medido por P mejora con experiencia E ".
- ^ Nils Nilsson escribe: "En pocas palabras, existe un gran desacuerdo en el campo acerca de qué es la IA". [166]
- ↑ El caso más dramático de IA sub-simbólica que fue relegada a un segundo plano fue la devastadora crítica de los perceptrones por Marvin Minsky y Seymour Papert en 1969. Ver Historia de la IA , el invierno de la IA o Frank Rosenblatt . [ cita requerida ]
- ^ Si bien tal "victoria de los pulcros" puede ser una consecuencia de que el campo se vuelva más maduro, AIMA afirma que, en la práctica, tanto losenfoques pulcros como los desaliñados continúan siendo necesarios en la investigación de la IA.
- ↑ Dreyfus criticó lacondición necesaria de lahipótesis del sistema de símbolos físicos , a la que llamó el "supuesto psicológico": "La mente puede verse como un dispositivo que opera sobre bits de información de acuerdo con reglas formales". [207]
- ↑ A principios de la década de 1970, Kenneth Colby presentó una versión de ELIZA de Weizenbaumconocida como DOCTOR, que promovió como una herramienta terapéutica seria. [216]
- ^ Esto se basa en Mary's Room , un experimento mental propuesto por primera vez por Frank Jackson en 1982
- ^ Esta versión es de Searle (1999) y también se cita en Dennett 1991 , p. 435. La formulación original de Searle era "La computadora apropiadamente programada es realmente una mente, en el sentido de que se puede decir literalmente que las computadoras con los programas adecuados comprenden y tienen otros estados cognitivos". [229] La IA fuerte es definida de manera similar por Russell y Norvig (2003 , p. 947): "La afirmación de que las máquinas posiblemente podrían actuar de manera inteligente (o, quizás mejor, actuar como si fueran inteligentes) se denomina hipótesis de la 'IA débil' por los filósofos, y la afirmación de que las máquinas que lo hacen realmente están pensando (en lugar de simular el pensamiento) se denomina hipótesis de la 'IA fuerte' ".
Referencias
- ^ Poole, Mackworth y Goebel 1998 , p. 1 .
- ^ Russell y Norvig 2003 , p. 55.
- ^ a b c Definición de IA como el estudio de agentes inteligentes :
- Poole, Mackworth & Goebel (1998) , que proporciona la versión que se utiliza en este artículo. Estos autores utilizan el término "inteligencia computacional" como sinónimo de inteligencia artificial. [1]
- Russell y Norvig (2003) (que prefieren el término "agente racional") y escriben "La visión del agente completo es ahora ampliamente aceptada en el campo". [2]
- Nilsson 1998
- Legg y Hutter 2007
- ^ Russell y Norvig 2009 , p. 2.
- ^ McCorduck 2004 , p. 204
- ^ Maloof, Mark. "Inteligencia artificial: una introducción, p. 37" (PDF) . georgetown.edu . Archivado (PDF) desde el original el 25 de agosto de 2018.
- ^ "Cómo la IA está consiguiendo cambios revolucionarios en la gestión del talento y la tecnología de recursos humanos" . Hackernoon. Archivado desde el original el 11 de septiembre de 2019 . Consultado el 14 de febrero de 2020 .
- ^ Schank, Roger C. (1991). "¿Dónde está la IA". Revista AI . Vol. 12 no. 4. p. 38.
- ^ Russell y Norvig 2009 .
- ^ a b "AlphaGo - Google DeepMind" . Archivado desde el original el 10 de marzo de 2016.
- ^ a b Bolos, Michael; Burch, Neil; Johanson, Michael; Tammelin, Oskari (9 de enero de 2015). "Heads-up limit Hold'em poker está resuelto" . Ciencia . 347 (6218): 145-149. Código Bibliográfico : 2015Sci ... 347..145B . doi : 10.1126 / science.1259433 . ISSN 0036-8075 . PMID 25574016 . S2CID 3796371 .
- ^ Allen, Gregory (abril de 2020). "Centro conjunto de inteligencia artificial del Departamento de Defensa: comprensión de la tecnología de inteligencia artificial" (PDF) . AI.mil: el sitio oficial del Centro Conjunto de Inteligencia Artificial del Departamento de Defensa . Archivado (PDF) desde el original el 21 de abril de 2020 . Consultado el 25 de abril de 2020 .
- ^ a b Optimismo de la IA temprana: * Cita de Herbert Simon : Simon 1965 , p. 96 citado en Crevier 1993 , p. 109. * Cita de Marvin Minsky : Minsky 1967 , pág. 2 citado en Crevier 1993 , p. 109.
- ^ a b c Auge de la década de 1980: auge de los sistemas expertos , Proyecto de Quinta Generación , Alvey , MCC , SCI : * McCorduck 2004 , págs. 426–441 * Crevier 1993 , págs. 161–162,197–203, 211, 240 * Russell Y Norvig 2003 , pág. 24 * NRC 1999 , págs. 210–211 * Newquist 1994 , págs. 235–248
- ^ a b Primer invierno de AI , Enmienda Mansfield , informe Lighthill * Crevier 1993 , págs. 115-117 * Russell y Norvig 2003 , pág. 22 * NRC 1999 , págs. 212–213 * Howe 1994 * Newquist 1994 , págs. 189–201
- ^ a b Segundo invierno de IA : * McCorduck 2004 , págs. 430–435 * Crevier 1993 , págs. 209–210 * NRC 1999 , págs. 214–216 * Newquist 1994 , págs. 301–318
- ^ a b c La IA tiene un gran éxito a principios del siglo XXI * Clark 2015b
- ^ Haenlein, Michael; Kaplan, Andreas (2019). "Una breve historia de la inteligencia artificial: sobre el pasado, presente y futuro de la inteligencia artificial" . Revisión de la gestión de California . 61 (4): 5–14. doi : 10.1177 / 0008125619864925 . ISSN 0008-1256 . S2CID 199866730 .
- ^ a b Pamela McCorduck (2004 , p. 424) escribe sobre "la ruptura aproximada de la IA en subcampos (visión, lenguaje natural, teoría de decisiones, algoritmos genéticos, robótica ... y estos con subcampo propio) que difícilmente habrían cualquier cosa que decirse el uno al otro ".
- ^ a b c Esta lista de rasgos inteligentes se basa en los temas cubiertos por los principales libros de texto de IA, que incluyen: * Russell y Norvig 2003 * Luger & Stubblefield 2004 * Poole, Mackworth & Goebel 1998 * Nilsson 1998
- ^ Kolata 1982 .
- ^ Creador de 2006 .
- ^ a b c Inteligencia biológica frente a inteligencia en general:
- Russell y Norvig 2003 , págs. 2-3, que hacen la analogía con la ingeniería aeronáutica .
- McCorduck 2004 , pp. 100-101, quien escribe que hay "dos ramas principales de la inteligencia artificial: una dirigida a producir un comportamiento inteligente independientemente de cómo se haya logrado, y la otra dirigida a modelar los procesos inteligentes que se encuentran en la naturaleza, particularmente los humanos . "
- Kolata 1982 , un artículo en Science , que describe la indiferencia de McCarthy hacia los modelos biológicos. Kolata cita a McCarthy escribiendo: "Esto es IA, así que no nos importa si es psicológicamente real". [21] McCarthy reiteró recientemente su posición en la conferencia AI @ 50 donde dijo que "la inteligencia artificial no es, por definición, una simulación de la inteligencia humana". [22]
- ↑ a b c Neats vs. scruffies : * McCorduck 2004 , págs. 421–424, 486–489 * Crevier 1993 , p. 168 * Nilsson 1983 , págs. 10-11
- ^ a b AI simbólico vs. sub-simbólico: * Nilsson (1998 , p. 7), que usa el término "sub-simbólico".
- ^ a b La inteligencia general ( IA fuerte ) se discute en introducciones populares a la IA: * Kurzweil 1999 y Kurzweil 2005
- ^ Ver la propuesta de Dartmouth , bajo Filosofía , más abajo.
- ^ McCorduck 2004 , p. 34.
- ^ McCorduck 2004 , p. xviii.
- ^ McCorduck 2004 , p. 3.
- ^ McCorduck 2004 , págs. 340–400.
- ^ Un b Esta es una idea central de Pamela McCorduck 's Máquinas que piensan . Ella escribe:
- "Me gusta pensar en la inteligencia artificial como la apoteosis científica de una venerable tradición cultural". [28]
- "La inteligencia artificial de una forma u otra es una idea que ha invadido la historia intelectual occidental, un sueño que necesita urgentemente ser realizado". [29]
- "Nuestra historia está llena de intentos —locos, misteriosos, cómicos, serios, legendarios y reales— de crear inteligencias artificiales, de reproducir lo que es nuestro esencial, sin pasar por los medios ordinarios. De ida y vuelta entre el mito y la realidad, nuestras imaginaciones suministran lo que nuestros talleres no pudieron, llevamos mucho tiempo comprometidos en esta extraña forma de autorreproducción ". [30]
- ^ "Stephen Hawking cree que la IA podría ser el último logro de la humanidad" . BetaNews . 21 de octubre de 2016. Archivado desde el original el 28 de agosto de 2017.
- ^ Lombardo P, Boehm I, Nairz K (2020). "RadioComics - Santa Claus y el futuro de la radiología" . Eur J Radiol . 122 (1): 108771. doi : 10.1016 / j.ejrad.2019.108771 . PMID 31835078 .
- ^ a b Ford, Martin; Colvin, Geoff (6 de septiembre de 2015). "¿Los robots crearán más puestos de trabajo de los que destruyen?" . The Guardian . Archivado desde el original el 16 de junio de 2018 . Consultado el 13 de enero de 2018 .
- ^ a b Aplicaciones de IA ampliamente utilizadas entre bastidores: * Russell & Norvig 2003 , p. 28 * Kurzweil 2005 , pág. 265 * NRC 1999 , págs. 216–222 * Newquist 1994 , págs. 189–201
- ^ a b AI en el mito: * McCorduck 2004 , págs. 4-5 * Russell y Norvig 2003 , pág. 939
- ^ AI en la ciencia ficción temprana. * McCorduck 2004 , págs. 17-25
- ^ Razonamiento formal: * Berlinski, David (2000). El advenimiento del algoritmo . Libros de Harcourt. ISBN 978-0-15-601391-8. OCLC 46890682 . Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- ^ Turing, Alan (1948), "Machine Intelligence", en Copeland, B. Jack (ed.), The Essential Turing: Las ideas que dieron origen a la era de la informática , Oxford: Oxford University Press, p. 412, ISBN 978-0-19-825080-7
- ^ Russell y Norvig 2009 , p. dieciséis.
- ^ Conferencia de Dartmouth : * McCorduck 2004 , págs. 111-136 * Crevier 1993 , págs. 47-49, quien escribe "la conferencia es generalmente reconocida como la fecha de nacimiento oficial de la nueva ciencia". * Russell y Norvig 2003 , pág. 17, quienes llaman a la conferencia "el nacimiento de la inteligencia artificial". * NRC 1999 , págs. 200–201
- ^ McCarthy, John (1988). "Revisión de la cuestión de la inteligencia artificial ". Anales de la historia de la informática . 10 (3): 224-229., recogido en McCarthy, John (1996). "10. Revisión de la cuestión de la inteligencia artificial ". Defendiendo la investigación de la IA: una colección de ensayos y reseñas . CSLI., pag. 73, "[U] na de las razones para inventar el término" inteligencia artificial "fue escapar de la asociación con la" cibernética ". Su concentración en la retroalimentación analógica parecía equivocada, y deseaba evitar tener que aceptar a Norbert (no a Robert) Wiener como gurú o tener que discutir con él ".
- ^ Hegemonía de los asistentes a la conferencia de Dartmouth: * Russell & Norvig 2003 , p. 17, quienes escriben "durante los próximos 20 años el campo estará dominado por estas personas y sus estudiantes". * McCorduck 2004 , págs. 129–130
- ^ Russell y Norvig 2003 , p. 18: "era asombroso cada vez que una computadora hacía algo inteligente"
- ^ Schaeffer J. (2009) ¿No resolvió Samuel ese juego ?. En: Un salto adelante. Springer, Boston, MA
- ^ Samuel, AL (julio de 1959). "Algunos estudios en aprendizaje automático utilizando el juego de damas". Revista de investigación y desarrollo de IBM . 3 (3): 210-229. CiteSeerX 10.1.1.368.2254 . doi : 10.1147 / rd.33.0210 .
- ^ " Años dorados " de la IA (programas exitosos de razonamiento simbólico 1956-1973): * McCorduck 2004 , pp. 243-252 * Crevier 1993 , pp. 52-107 * Moravec 1988 , p. 9 * Russell y Norvig 2003 , pp. 18-21 Los programas descritos son Arthur Samuel 's programa de damas para el IBM 701 , Daniel Bobrow ' s ESTUDIANTE , Newell y Simon 's Lógico Teórico y Terry Winograd ' s SHRDLU .
- ^ DARPA invierte dinero en la investigación pura no dirigida sobre IA durante la década de 1960: * McCorduck 2004 , p. 131 * Crevier 1993 , págs. 51, 64–65 * NRC 1999 , págs. 204–205
- ^ AI en Inglaterra: * Howe 1994
- ^ Lighthill 1973 .
- ^ a b Sistemas expertos: * ACM 1998 , I.2.1 * Russell y Norvig 2003 , págs. 22-24 * Luger y Stubblefield 2004 , págs. 227-331 * Nilsson 1998 , cap. 17.4 * McCorduck 2004 , págs. 327–335, 434–435 * Crevier 1993 , págs. 145–62, 197–203 * Newquist 1994 , págs. 155–183
- ^ Mead, Carver A .; Ismail, Mohammed (8 de mayo de 1989). Implementación VLSI analógica de sistemas neuronales (PDF) . Serie internacional de Kluwer en ingeniería y ciencias de la computación. 80 . Norwell, MA: Kluwer Academic Publishers . doi : 10.1007 / 978-1-4613-1639-8 . ISBN 978-1-4613-1639-8. Archivado desde el original (PDF) el 6 de noviembre de 2019 . Consultado el 24 de enero de 2020 .
- ^ a b Ahora se prefieren los métodos formales ("Victoria de los neats "): * Russell & Norvig 2003 , pp. 25-26 * McCorduck 2004 , pp. 486-487
- ^ McCorduck 2004 , págs. 480–483.
- ^ Markoff 2011 .
- ^ "Pregunte a los expertos en IA: ¿Qué impulsa el progreso actual de la IA?" . McKinsey & Company . Archivado desde el original el 13 de abril de 2018 . Consultado el 13 de abril de 2018 .
- ^ Fairhead, Harry (26 de marzo de 2011) [Actualización del 30 de marzo de 2011]. "Explicación del avance de la IA de Kinect" . Programador . Archivado desde el original el 1 de febrero de 2016.
- ^ Rowinski, Dan (15 de enero de 2013). "Asistentes personales virtuales y el futuro de su teléfono inteligente [Infografía]" . Leer y escribir . Archivado desde el original el 22 de diciembre de 2015.
- ^ "Inteligencia artificial: AlphaGo de Google vence al maestro de Go Lee Se-dol" . BBC News . 12 de marzo de 2016. Archivado desde el original el 26 de agosto de 2016 . Consultado el 1 de octubre de 2016 .
- ^ Metz, Cade (27 de mayo de 2017). "Después de ganar en China, los diseñadores de AlphaGo exploran nueva IA" . Cableado . Archivado desde el original el 2 de junio de 2017.
- ^ "Calificaciones de los jugadores de Go del mundo" . Mayo de 2017. Archivado desde el original el 1 de abril de 2017.
- ^ "柯 洁 迎 19 岁 生日 雄踞 人类 世界 排名 第一 已 两年" (en chino). Mayo de 2017. Archivado desde el original el 11 de agosto de 2017.
- ^ "MuZero: Dominando Go, ajedrez, shogi y Atari sin reglas" . Deepmind . Consultado el 1 de marzo de 2021 .
- ^ Steven Borowiec; Tracey Lien (12 de marzo de 2016). "AlphaGo vence al campeón de Go humano en un hito para la inteligencia artificial" . Los Angeles Times . Consultado el 13 de marzo de 2016 .
- ^ Silver, David ; Hubert, Thomas; Schrittwieser, Julian; Antonoglou, Ioannis; Lai, Matthew; Guez, Arthur; Lanctot, Marc; Sifre, Laurent; Kumaran, Dharshan; Graepel, Thore; Lillicrap, Timothy; Simonyan, Karen; Hassabis, Demis (7 de diciembre de 2018). "Un algoritmo general de aprendizaje por refuerzo que domina el ajedrez, el shogi y pasa por el auto-juego" . Ciencia . 362 (6419): 1140-1144. Código bibliográfico : 2018Sci ... 362.1140S . doi : 10.1126 / science.aar6404 . PMID 30523106 .
- ^ Schrittwieser, Julian; Antonoglou, Ioannis; Hubert, Thomas; Simonyan, Karen; Sifre, Laurent; Schmitt, Simon; Guez, Arthur; Lockhart, Edward; Hassabis, Demis; Graepel, Thore; Lillicrap, Timothy (23 de diciembre de 2020). "Dominar Atari, Go, ajedrez y shogi mediante la planificación con un modelo aprendido" . Naturaleza . 588 (7839): 604–609. arXiv : 1911.08265 . Código Bib : 2020Natur.588..604S . doi : 10.1038 / s41586-020-03051-4 . ISSN 1476-4687 . PMID 33361790 . S2CID 208158225 .
- ^ Tung, Liam. "La inteligencia artificial DeepMind de Google asesora el desafío del juego de Atari" . ZDNet . Consultado el 1 de marzo de 2021 .
- ^ Solly, Meilan. "Esta IA que juega al póquer sabe cuándo retenerlos y cuándo doblarlos" . Smithsonian .
Pluribus ha superado a los profesionales del póquer en una serie de juegos de Texas Hold'em sin límite para seis jugadores, alcanzando un hito en la investigación de inteligencia artificial. Es el primer bot en vencer a los humanos en una compleja competencia multijugador.
- ↑ a b Clark, 2015b . "Después de media década de silenciosos avances en inteligencia artificial, 2015 ha sido un año histórico. Las computadoras son más inteligentes y aprenden más rápido que nunca".
- ^ "Remodelación de negocios con inteligencia artificial" . Revisión de la gestión Sloan del MIT . Archivado desde el original el 19 de mayo de 2018 . Consultado el 2 de mayo de 2018 .
- ^ Lorica, Ben (18 de diciembre de 2017). "El estado de la adopción de la IA" . O'Reilly Media . Archivado desde el original el 2 de mayo de 2018 . Consultado el 2 de mayo de 2018 .
- ^ Allen, Gregory (6 de febrero de 2019). "Comprensión de la estrategia de inteligencia artificial de China" . Centro para una nueva seguridad estadounidense . Archivado desde el original el 17 de marzo de 2019.
- ^ "Revisión | Cómo dos superpotencias de inteligencia artificial, Estados Unidos y China, luchan por la supremacía en el campo" . The Washington Post . 2 de noviembre de 2018. Archivado desde el original el 4 de noviembre de 2018 . Consultado el 4 de noviembre de 2018 .
- ^ Anadiotis, George (1 de octubre de 2020). "El estado de la IA en 2020: democratización, industrialización y el camino hacia la inteligencia artificial general" . ZDNet . Consultado el 1 de marzo de 2021 .
- ^ Heath, Nick (11 de diciembre de 2020). "¿Qué es la IA? Todo lo que necesitas saber sobre Inteligencia Artificial" . ZDNet . Consultado el 1 de marzo de 2021 .
- ^ Kaplan, Andreas; Haenlein, Michael (1 de enero de 2019). "Siri, Siri, en mi mano: ¿Quién es la más bella del país? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Horizontes de negocios . 62 (1): 15-25. doi : 10.1016 / j.bushor.2018.08.004 .
- ^ Domingos 2015 , Capítulo 5.
- ^ Domingos 2015 , Capítulo 7.
- ^ Lindenbaum, M., Markovitch, S. y Rusakov, D. (2004). Muestreo selectivo para clasificadores vecinos más cercanos. Aprendizaje automático, 54 (2), 125-152.
- ^ Domingos 2015 , Capítulo 1.
- ^ a b Intratabilidad y eficiencia y la explosión combinatoria : * Russell y Norvig 2003 , págs. 9, 21-22
- ^ Domingos 2015 , Capítulo 2, Capítulo 3.
- ^ Hart, PE; Nilsson, Nueva Jersey; Rafael, B. (1972). "Corrección de" una base formal para la determinación heurística de rutas de costo mínimo " ". Boletín SIGART (37): 28–29. doi : 10.1145 / 1056777.1056779 . S2CID 6386648 .
- ^ Domingos 2015 , Capítulo 2, Capítulo 4, Capítulo 6.
- ^ "¿Pueden las computadoras de redes neuronales aprender de la experiencia y, de ser así, podrían convertirse en lo que llamaríamos 'inteligentes'?" . Scientific American . 2018. Archivado desde el original el 25 de marzo de 2018 . Consultado el 24 de marzo de 2018 .
- ^ Domingos 2015 , Capítulo 6, Capítulo 7.
- ^ Domingos 2015 , p. 286.
- ^ "El cambio de un solo píxel engaña a los programas de IA" . BBC News . 3 de noviembre de 2017. Archivado desde el original el 22 de marzo de 2018 . Consultado el 12 de marzo de 2018 .
- ^ "La IA tiene un problema de alucinaciones que está resultando difícil de solucionar" . CON CABLE . 2018. Archivado desde el original el 12 de marzo de 2018 . Consultado el 12 de marzo de 2018 .
- ^ "Cultivando el sentido común | DiscoverMagazine.com" . Revista Discover . 2017. Archivado desde el original el 25 de marzo de 2018 . Consultado el 24 de marzo de 2018 .
- ^ Davis, Ernest; Marcus, Gary (24 de agosto de 2015). "Razonamiento con sentido común y conocimiento con sentido común en inteligencia artificial" . Comunicaciones de la ACM . 58 (9): 92–103. doi : 10.1145 / 2701413 . S2CID 13583137 . Archivado desde el original el 22 de agosto de 2020 . Consultado el 6 de abril de 2020 .
- ^ Winograd, Terry (enero de 1972). "Comprensión del lenguaje natural". Psicología cognitiva . 3 (1): 1–191. doi : 10.1016 / 0010-0285 (72) 90002-3 .
- ^ "No te preocupes: los coches autónomos no llegarán mañana (ni el año que viene)" . Autoweek . 2016. Archivado desde el original el 25 de marzo de 2018 . Consultado el 24 de marzo de 2018 .
- ^ Caballero, Will (2017). "Boston puede ser famoso por los malos conductores, pero es el campo de pruebas para un automóvil autónomo más inteligente" . Revisión de tecnología del MIT . Archivado desde el original el 22 de agosto de 2020 . Consultado el 27 de marzo de 2018 .
- ^ Prakken, Henry (31 de agosto de 2017). Sobre el problema de hacer que los vehículos autónomos se ajusten a la ley de tráfico ” . Inteligencia artificial y derecho . 25 (3): 341–363. doi : 10.1007 / s10506-017-9210-0 .
- ^ a b Lieto, Antonio; Lebiere, Christian; Oltramari, Alessandro (mayo de 2018). "El nivel de conocimiento en arquitecturas cognitivas: limitaciones actuales y posibles desarrollos". Investigación de sistemas cognitivos . 48 : 39–55. doi : 10.1016 / j.cogsys.2017.05.001 . hdl : 2318/1665207 . S2CID 206868967 .
- ^ Resolución de problemas, resolución de acertijos, juego y deducción: * Russell & Norvig 2003 , cap. 3–9, * Poole, Mackworth y Goebel 1998 , cap. 2,3,7,9, * Luger y Stubblefield 2004 , cap. 3,4,6,8, * Nilsson 1998 , cap. 7-12
- ^ Razonamiento incierto: * Russell y Norvig 2003 , págs. 452–644, * Poole, Mackworth y Goebel 1998 , págs. 345–395, * Luger y Stubblefield 2004 , págs. 333–381, * Nilsson 1998 , cap. 19
- ^ Evidencia psicológica del razonamiento sub-simbólico: * Wason y Shapiro (1966) demostraron que a las personas les va mal en problemas completamente abstractos, pero si el problema se replantea para permitir el uso de la inteligencia social intuitiva, el rendimiento mejora drásticamente. (Véase la tarea de selección de Wason ) * Kahneman, Slovic y Tversky (1982) han demostrado que la gente es terrible en los problemas elementales que implican un razonamiento incierto. (Consulte la lista de sesgos cognitivos para ver varios ejemplos). * Lakoff y Núñez (2000) han argumentado de manera controvertida que incluso nuestras habilidades en matemáticas dependen de conocimientos y habilidades que provienen del "cuerpo", es decir, habilidades sensoriomotoras y perceptivas. (Ver de dónde vienen las matemáticas )
- ^ Representación del conocimiento : * ACM 1998 , I.2.4, * Russell y Norvig 2003 , págs. 320–363, * Poole, Mackworth y Goebel 1998 , págs. 23–46, 69–81, 169–196, 235–277, 281–298, 319–345, * Luger y Stubblefield 2004 , págs. 227–243, * Nilsson 1998 , cap. 18
- ^ Ingeniería del conocimiento : * Russell y Norvig 2003 , págs. 260-266, * Poole, Mackworth y Goebel 1998 , págs. 199-233, * Nilsson 1998 , cap. 17,1-17,4
- ^ Representación de categorías y relaciones: redes semánticas , lógicas de descripción , herencia (incluidos marcos y guiones ): * Russell y Norvig 2003 , págs. 349–354, * Poole, Mackworth y Goebel 1998 , págs. 174-177, * Luger y Stubblefield 2004 , págs. 248-258, * Nilsson 1998 , cap. 18,3
- ^ En representación de los acontecimientos y el tiempo: cálculo de situaciones , el cálculo caso , el cálculo fluidez (incluyendo la solución del problema del marco ): * Russell y Norvig 2003 , pp. 328-341, * Poole, Mackworth y Goebel 1998 , pp. 281-298, * Nilsson 1998 , cap. 18,2
- ^ Cálculo causal : * Poole, Mackworth y Goebel 1998 , págs. 335–337
- ^ Representación del conocimiento sobre el conocimiento: cálculo de creencias, lógicas modales : * Russell y Norvig 2003 , págs. 341–344, * Poole, Mackworth y Goebel 1998 , págs. 275–277
- ^ Sikos, Leslie F. (junio de 2017). Descripción Lógicas en el razonamiento multimedia . Cham: Springer. doi : 10.1007 / 978-3-319-54066-5 . ISBN 978-3-319-54066-5. S2CID 3180114 . Archivado desde el original el 29 de agosto de 2017.
- ^ Ontología : * Russell y Norvig 2003 , págs. 320–328
- ^ Smoliar, Stephen W .; Zhang, HongJiang (1994). "Indexación y recuperación de videos basados en contenido". IEEE Multimedia . 1 (2): 62–72. doi : 10.1109 / 93.311653 . S2CID 32710913 .
- ^ Neumann, Bernd; Möller, Ralf (enero de 2008). "Interpretación en escena con lógicas descriptivas". Computación de imagen y visión . 26 (1): 82–101. doi : 10.1016 / j.imavis.2007.08.013 .
- ^ Kuperman, GJ; Reichley, RM; Bailey, TC (1 de julio de 2006). "Uso de bases de conocimiento comercial para el apoyo a la toma de decisiones clínicas: oportunidades, obstáculos y recomendaciones" . Revista de la Asociación Estadounidense de Informática Médica . 13 (4): 369–371. doi : 10.1197 / jamia.M2055 . PMC 1513681 . PMID 16622160 .
- ^ MCGARRY, KEN (1 de diciembre de 2005). "Una encuesta de medidas de interés para el descubrimiento de conocimientos". La revisión de la ingeniería del conocimiento . 20 (1): 39–61. doi : 10.1017 / S0269888905000408 . S2CID 14987656 .
- ^ Bertini, M; Del Bimbo, A; Torniai, C (2006). "Anotación automática y recuperación semántica de secuencias de video mediante ontologías multimedia". MM '06 Actas de la 14ª conferencia internacional ACM sobre Multimedia . XIV Congreso Internacional ACM sobre Multimedia. Santa Bárbara: ACM. págs. 679–682.
- ^ Problema de calificación : * McCarthy & Hayes 1969 * Russell & Norvig 2003 [ página necesaria ] Mientras que McCarthy estaba principalmente preocupado por cuestiones en la representación lógica de acciones, Russell & Norvig 2003 aplican el término al problema más general del razonamiento predeterminado en la vasta red de supuestos subyacentes a todo nuestro conocimiento de sentido común.
- ^ Razonamiento predeterminado y lógica predeterminada , lógicas no monótonas , circunscripción , suposición de mundo cerrado , abducción (Poole et al. Coloca la abducción bajo "razonamiento predeterminado". Luger et al. Ubica esto bajo "razonamiento incierto"): * Russell & Norvig 2003 , págs. 354–360, * Poole, Mackworth y Goebel 1998 , págs. 248–256, 323–335, * Luger y Stubblefield 2004 , págs. 335–363, * Nilsson 1998 , ~ 18.3.3
- ^ Amplitud de conocimiento de sentido común: * Russell y Norvig 2003 , p. 21, * Crevier 1993 , págs. 113-114, * Moravec 1988 , pág. 13, * Lenat & Guha 1989 (Introducción)
- ^ Dreyfus y Dreyfus 1986 .
- ^ Gladwell 2005 .
- ^ a b El conocimiento experto como intuición incorporada : * Dreyfus & Dreyfus 1986 ( Hubert Dreyfus es un filósofo y crítico de la IA que fue uno de los primeros en argumentar que el conocimiento humano más útil estaba codificado sub-simbólicamente. Ver la crítica de Dreyfus a la IA ) * Gladwell 2005 (Gladwell's Blink es una introducción popular al razonamiento y conocimiento sub-simbólico). * Hawkins & Blakeslee 2005 (Hawkins sostiene que el conocimiento sub-simbólico debería ser el enfoque principal de la investigación de la IA).
- ^ Planificación : * ACM 1998 , ~ I.2.8, * Russell y Norvig 2003 , págs. 375–459, * Poole, Mackworth y Goebel 1998 , págs. 281–316, * Luger y Stubblefield 2004 , págs. 314–329, * Nilsson 1998 , cap. 10.1–2, 22
- ^ Teoría del valor de la información : * Russell y Norvig 2003 , págs. 600–604
- ^ Planificación clásica: * Russell y Norvig 2003 , págs. 375–430, * Poole, Mackworth y Goebel 1998 , págs. 281–315, * Luger y Stubblefield 2004 , págs. 314–329, * Nilsson 1998 , cap. 10.1–2, 22
- ^ Planificación y actuación en dominios no deterministas: planificación condicional, seguimiento de la ejecución, replanificación y planificación continua: * Russell y Norvig 2003 , págs. 430–449
- ^ Planificación de agentes múltiples y comportamiento emergente: * Russell y Norvig 2003 , págs. 449–455
- ^ Turing, 1950 .
- ^ Solomonoff 1956 .
- ^ a b Aprendizaje : * ACM 1998 , I.2.6, * Russell y Norvig 2003 , págs. 649–788, * Poole, Mackworth y Goebel 1998 , págs. 397–438, * Luger y Stubblefield 2004 , págs. 385–542 , * Nilsson 1998 , cap. 3.3, 10.3, 17.5, 20
- ^ Jordan, MI; Mitchell, TM (16 de julio de 2015). "Machine learning: tendencias, perspectivas y prospectos". Ciencia . 349 (6245): 255–260. Código Bibliográfico : 2015Sci ... 349..255J . doi : 10.1126 / science.aaa8415 . PMID 26185243 . S2CID 677218 .
- ^ Aprendizaje por refuerzo : * Russell y Norvig 2003 , págs. 763–788 * Luger y Stubblefield 2004 , págs. 442–449
- ^ Procesamiento del lenguaje natural : * ACM 1998 , I.2.7 * Russell y Norvig 2003 , págs. 790–831 * Poole, Mackworth y Goebel 1998 , págs. 91–104 * Luger y Stubblefield 2004 , págs. 591–632
- ^ Aplicaciones del procesamiento del lenguaje natural, incluida la recuperación de información (es decir, la minería de texto ) y la traducción automática : * Russell y Norvig 2003 , págs. 840–857, * Luger y Stubblefield 2004 , págs. 623–630
- ^ Cambria, Erik; White, Bebo (mayo de 2014). "Saltar curvas de PNL: una revisión de la investigación del procesamiento del lenguaje natural [artículo de revisión]". Revista IEEE Computational Intelligence . 9 (2): 48–57. doi : 10.1109 / MCI.2014.2307227 . S2CID 206451986 .
- ^ Vincent, James (7 de noviembre de 2019). "OpenAI ha publicado la IA generadora de texto que dijo que era demasiado peligrosa para compartir" . The Verge . Archivado desde el original el 11 de junio de 2020 . Consultado el 11 de junio de 2020 .
- ^ Percepción de la máquina : * Russell y Norvig 2003 , págs. 537–581, 863–898 * Nilsson 1998 , ~ cap. 6
- ^ Reconocimiento de voz : * ACM 1998 , ~ I.2.7 * Russell & Norvig 2003 , págs. 568–578
- ^ Reconocimiento de objetos : * Russell & Norvig 2003 , págs. 885–892
- ^ Visión por computadora : * ACM 1998 , I.2.10 * Russell y Norvig 2003 , págs. 863–898 * Nilsson 1998 , cap. 6
- ^ Robótica : * ACM 1998 , I.2.9, * Russell y Norvig 2003 , págs. 901–942, * Poole, Mackworth y Goebel 1998 , págs. 443–460
- ^ Movimiento y espacio de configuración : * Russell y Norvig 2003 , págs. 916–932
- ^ Tecuci 2012 .
- ^ Mapeo robótico (localización, etc.): * Russell y Norvig 2003 , págs. 908–915
- ^ Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, José; Reid, Ian; Leonard, John J. (diciembre de 2016). "Pasado, presente y futuro de la localización y el mapeo simultáneos: hacia la era de la percepción robusta". Transacciones IEEE sobre robótica . 32 (6): 1309-1332. arXiv : 1606.05830 . Código Bib : 2016arXiv160605830C . doi : 10.1109 / TRO.2016.2624754 . S2CID 2596787 .
- ^ Moravec 1988 , p. 15.
- ^ Chan, Szu Ping (15 de noviembre de 2015). "Esto es lo que pasará cuando los robots se apoderen del mundo" . Archivado desde el original el 24 de abril de 2018 . Consultado el 23 de abril de 2018 .
- ^ "Mobiliario IKEA y los límites de la IA" . The Economist . 2018. Archivado desde el original el 24 de abril de 2018 . Consultado el 24 de abril de 2018 .
- ^ "Kismet" . Laboratorio de Inteligencia Artificial del MIT, Grupo de Robótica Humanoide. Archivado desde el original el 17 de octubre de 2014 . Consultado el 25 de octubre de 2014 .
- ^ Thompson, Derek (2018). "¿Qué trabajos tomarán los robots?" . El Atlántico . Archivado desde el original el 24 de abril de 2018 . Consultado el 24 de abril de 2018 .
- ^ Scassellati, Brian (2002). "Teoría de la mente para un robot humanoide". Robots autónomos . 12 (1): 13-24. doi : 10.1023 / A: 1013298507114 . S2CID 1979315 .
- ^ Cao, Yongcan; Yu, Wenwu; Ren, Wei; Chen, Guanrong (febrero de 2013). "Una descripción general de los avances recientes en el estudio de la coordinación distribuida de múltiples agentes". Transacciones IEEE sobre informática industrial . 9 (1): 427–438. arXiv : 1207.3231 . doi : 10.1109 / TII.2012.2219061 . S2CID 9588126 .
- ^ Hasta 1993 .
- ^ Edelson 1991 .
- ^ Tao y Tan 2005 .
- ^ Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (septiembre de 2017). "Una revisión de la computación afectiva: del análisis unimodal a la fusión multimodal" . Fusión de información . 37 : 98-125. doi : 10.1016 / j.inffus.2017.02.003 . hdl : 1893/25490 .
- ^ Emoción y computación afectiva : * Minsky 2006
- ^ Waddell, Kaveh (2018). "Los chatbots han entrado en el valle inquietante" . El Atlántico . Archivado desde el original el 24 de abril de 2018 . Consultado el 24 de abril de 2018 .
- ^ Pennachin, C .; Goertzel, B. (2007). "Enfoques contemporáneos de la inteligencia artificial general". Inteligencia General Artificial . Tecnologías cognitivas. Berlín, Heidelberg: Springer. doi : 10.1007 / 978-3-540-68677-4_1 . ISBN 978-3-540-23733-4.
- ^ a b c Roberts, Jacob (2016). "Máquinas pensantes: la búsqueda de la inteligencia artificial" . Destilaciones . Vol. 2 no. 2. págs. 14-23. Archivado desde el original el 19 de agosto de 2018 . Consultado el 20 de marzo de 2018 .
- ^ "El superhéroe de la inteligencia artificial: ¿puede este genio controlarlo?" . el guardián . 16 de febrero de 2016. Archivado desde el original el 23 de abril de 2018 . Consultado el 26 de abril de 2018 .
- ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Rusu, Andrei A .; Veness, Joel; Bellemare, Marc G .; Graves, Alex; Riedmiller, Martin; Fidjeland, Andreas K .; Ostrovski, Georg; Petersen, Stig; Beattie, Charles; Sadik, Amir; Antonoglou, Ioannis; Rey, Helen; Kumaran, Dharshan; Wierstra, Daan; Legg, Shane; Hassabis, Demis (26 de febrero de 2015). "Control a nivel humano a través del aprendizaje por refuerzo profundo". Naturaleza . 518 (7540): 529–533. Código Bib : 2015Natur.518..529M . doi : 10.1038 / nature14236 . PMID 25719670 . S2CID 205242740 .
- ^ Sample, Ian (14 de marzo de 2017). "DeepMind de Google crea un programa de inteligencia artificial que puede aprender como un ser humano" . el guardián . Archivado desde el original el 26 de abril de 2018 . Consultado el 26 de abril de 2018 .
- ^ "De no funcionar a las redes neuronales" . The Economist . 2016. Archivado desde el original el 31 de diciembre de 2016 . Consultado el 26 de abril de 2018 .
- ^ Russell y Norvig 2009 , Capítulo 27. AI: El presente y el futuro.
- ^ Domingos 2015 , Capítulo 9. Las piezas del rompecabezas encajan.
- ^ a b Argumentos del cerebro artificial : la IA requiere una simulación del funcionamiento del cerebro humano * Russell & Norvig 2003 , p. 957 * Crevier 1993 , pp. 271 y 279 Algunas de las personas que hacen alguna forma del argumento: * Moravec 1988 * Kurzweil 2005 , p. 262 * Hawkins & Blakeslee 2005 La forma más extrema de este argumento (el escenario de reemplazo cerebral) fue presentada por Clark Glymour a mediados de la década de 1970 y fue abordada por Zenon Pylyshyn y John Searle en 1980.
- ^ Goertzel, Ben; Lian, Ruiting; Arel, Itamar; de Garis, Hugo; Chen, Shuo (diciembre de 2010). "Una encuesta mundial de proyectos de cerebro artificial, Parte II: Arquitecturas cognitivas de inspiración biológica". Neurocomputación . 74 (1-3): 30-49. doi : 10.1016 / j.neucom.2010.08.012 .
- ^ Nilsson 1983 , p. 10.
- ^ Precursores inmediatos de AI: * McCorduck 2004 , pp. 51-107 * Crevier 1993 , pp. 27-32 * Russell & Norvig 2003 , pp. 15, 940 * Moravec 1988 , p. 3
- ^ Haugeland 1985 , págs. 112-117
- ^ Simulación cognitiva, Newell y Simon , IA en CMU (entonces llamado Carnegie Tech ): * McCorduck 2004 , pp. 139-179, 245-250, 322-323 (EPAM) * Crevier 1993 , pp. 145-149
- ^ Soar (historia): * McCorduck 2004 , págs. 450–451 * Crevier 1993 , págs. 258–263
- ^ McCarthy e investigación de IA en SAIL y SRI International : * McCorduck 2004 , págs. 251-259 * Crevier 1993
- ^ Investigación de IA en Edimburgo y en Francia, nacimiento de Prolog : * Crevier 1993 , págs. 193-196 * Howe 1994
- ^ AI en el MIT bajo Marvin Minsky en la década de 1960: * McCorduck 2004 , págs. 259-305 * Crevier 1993 , págs. 83-102, 163-176 * Russell y Norvig 2003 , p. 19
- ↑ Cyc : * McCorduck 2004 , p. 489, quien la llama "una empresa decididamente desaliñada" * Crevier 1993 , págs. 239–243 * Russell y Norvig 2003 , pág. 363−365 * Lenat y Guha 1989
- ^ Revolución del conocimiento: * McCorduck 2004 , págs. 266-276, 298-300, 314, 421 * Russell y Norvig 2003 , págs. 22-23
- ^ Frederick, Hayes-Roth; William, Murray; Leonard, Adelman. "Sistemas expertos". AccessScience . doi : 10.1036 / 1097-8542.248550 .
- ^ Enfoques incorporados a la IA: * McCorduck 2004 , págs. 454–462 * Brooks 1990 * Moravec 1988
- ^ Weng y col. 2001 .
- ^ Lungarella y col. 2003 .
- ^ Asada y col. 2009 .
- ^ Oudeyer 2010 .
- ^ Resurgimiento del conexionismo : * Crevier 1993 , págs. 214-215 * Russell y Norvig 2003 , p. 25
- ^ Computational Intelligence * IEEE Computational Intelligence Society Archivado el 9 de mayo de 2008 en Wayback Machine.
- ^ Hutson, Matthew (16 de febrero de 2018). "La inteligencia artificial se enfrenta a una crisis de reproducibilidad" . Ciencia . págs. 725–726. Código Bibliográfico : 2018Sci ... 359..725H . doi : 10.1126 / science.359.6377.725 . Archivado desde el original el 29 de abril de 2018 . Consultado el 28 de abril de 2018 .
- ^ Norvig 2012 .
- ^ Langley, 2011 .
- ^ Katz 2012 .
- ^ Elparadigma del agente inteligente : * Russell y Norvig 2003 , págs. 27, 32–58, 968–972 * Poole, Mackworth y Goebel 1998 , págs. 7–21 * Luger y Stubblefield 2004 , págs. 235–240 * Hutter 2005 , pp. 125-126 La definición utilizada en este artículo, en términos de objetivos, acciones, percepción y entorno, se debe a Russell & Norvig (2003) . Otras definiciones también incluyen conocimiento y aprendizaje como criterios adicionales.
- ^ Arquitecturas de agentes , sistemas inteligentes híbridos : * Russell y Norvig (2003 , págs. 27, 932, 970–972) * Nilsson (1998 , cap. 25)
- ^ Sistema de control jerárquico : * Albus 2002
- ^ Lieto, Antonio; Bhatt, Mehul; Oltramari, Alessandro; Vernon, David (mayo de 2018). "El papel de las arquitecturas cognitivas en la inteligencia artificial general". Investigación de sistemas cognitivos . 48 : 1-3. doi : 10.1016 / j.cogsys.2017.08.003 . hdl : 2318/1665249 . S2CID 36189683 .
- ↑ a b Russell y Norvig , 2009 , p. 1.
- ^ a b Libro blanco: Sobre la inteligencia artificial: un enfoque europeo de la excelencia y la confianza (PDF) . Bruselas: Comisión Europea. 2020. p. 1. Archivado (PDF) desde el original el 20 de febrero de 2020 . Consultado el 20 de febrero de 2020 .
- ^ "AI listo para superar el poder del cerebro humano" . CNN . 9 de agosto de 2006. Archivado desde el original el 19 de febrero de 2008.
- ^ Uso de IA para predecir retrasos en los vuelos Archivado el 20 de noviembre de 2018 en Wayback Machine , Ishti.org.
- ^ N. Aletras; D. Tsarapatsanis; D. Preotiuc-Pietro; V. Lampos (2016). "Predecir decisiones judiciales del Tribunal Europeo de Derechos Humanos: una perspectiva de procesamiento del lenguaje natural" . PeerJ Ciencias de la Computación . 2 : e93. doi : 10.7717 / peerj-cs.93 .
- ^ "The Economist explica: por qué las empresas se están acumulando en inteligencia artificial" . The Economist . 31 de marzo de 2016. Archivado desde el original el 8 de mayo de 2016 . Consultado el 19 de mayo de 2016 .
- ^ Lohr, Steve (28 de febrero de 2016). "La promesa de la inteligencia artificial se despliega en pequeños pasos" . The New York Times . Archivado desde el original el 29 de febrero de 2016 . Consultado el 29 de febrero de 2016 .
- ^ Frangoul, Anmar (14 de junio de 2019). "Una empresa californiana está utilizando IA para cambiar nuestra forma de pensar sobre el almacenamiento de energía" . CNBC . Archivado desde el original el 25 de julio de 2020 . Consultado el 5 de noviembre de 2019 .
- ^ Wakefield, Jane (15 de junio de 2016). "Las redes sociales 'superan a la televisión' como fuente de noticias para los jóvenes" . BBC News . Archivado desde el original el 24 de junio de 2016.
- ^ Smith, Mark (22 de julio de 2016). "¿Entonces crees que elegiste leer este artículo?" . BBC News . Archivado desde el original el 25 de julio de 2016.
- ^ Brown, Eileen. "La mitad de los estadounidenses no cree que las noticias deepfake puedan apuntar a ellos en línea" . ZDNet . Archivado desde el original el 6 de noviembre de 2019 . Consultado el 3 de diciembre de 2019 .
- ^ Zola, Andrew (12 de abril de 2019). "Preparación de la entrevista: 40 preguntas de inteligencia artificial" . Blog de trampolín .
- ^ La prueba de Turing :
publicación original de Turing: * Turing 1950 Influencia histórica e implicaciones filosóficas: * Haugeland 1985 , págs. 6-9 * Crevier 1993 , pág. 24 * McCorduck 2004 , págs. 70-71 * Russell y Norvig 2003 , págs. 2-3 y 948 - ^ Propuesta de Dartmouth: * McCarthy et al. 1955 (la propuesta original) * Crevier 1993 , p. 49 (significado histórico)
- ^ Lahipótesis de los sistemas de símbolos físicos : * Newell & Simon 1976 , p. 116 * McCorduck 2004 , pág. 153 * Russell y Norvig 2003 , pág. 18
- ^ Dreyfus 1992 , p. 156.
- ^ Crítica de Dreyfus de la inteligencia artificial : * Dreyfus 1972 , Dreyfus & Dreyfus 1986 * Crevier 1993 , págs. 120-132 * McCorduck 2004 , págs. 211-239 * Russell y Norvig 2003 , págs. 950-952,
- ↑ Gödel 1951 : en esta conferencia, Kurt Gödel usa el teorema de incompletitud para llegar a la siguiente disyunción: (a) la mente humana no es una máquina finita consistente, o (b) existen ecuaciones diofánticas para las cuales no puede decidir si existen soluciones . Gödel encuentra (b) inverosímil, y por lo tanto parece haber creído que la mente humana no era equivalente a una máquina finita, es decir, su poder excedía el de cualquier máquina finita. Reconoció que esto era solo una conjetura, ya que uno nunca podría refutar (b). Sin embargo, consideró que la conclusión disyuntiva era un "hecho cierto".
- ^ La objeción matemática: * Russell y Norvig 2003 , p. 949 * McCorduck 2004 , págs. 448–449 Haciendo la objeción matemática: * Lucas 1961 * Penrose 1989 Refutando la objeción matemática: * Turing 1950 bajo "(2) La objeción matemática" * Hofstadter 1979 Antecedentes: * Gödel 1931, Church 1936, Kleene 1935, Turing 1937
- ^ Graham Oppy (20 de enero de 2015). "Teoremas de incompletitud de Gödel" . Enciclopedia de Filosofía de Stanford . Archivado desde el original el 22 de abril de 2016 . Consultado el 27 de abril de 2016 .
Estos argumentos antimecanicistas gödeianos son, sin embargo, problemáticos y existe un amplio consenso de que fallan.
- ^ Stuart J. Russell ; Peter Norvig (2010). "26.1.2: Fundamentos filosóficos / IA débil: ¿Pueden las máquinas actuar inteligentemente? / La objeción matemática". Inteligencia artificial: un enfoque moderno (3ª ed.). Upper Saddle River, Nueva Jersey: Prentice Hall . ISBN 978-0-13-604259-4.
incluso si admitimos que las computadoras tienen limitaciones sobre lo que pueden probar, no hay evidencia de que los humanos sean inmunes a esas limitaciones.
- ^ Mark Colyvan. Introducción a la filosofía de las matemáticas. Cambridge University Press , 2012. De 2.2.2, 'La importancia filosófica de los resultados de incompletitud de Gödel': "La sabiduría aceptada (con la que estoy de acuerdo) es que los argumentos de Lucas-Penrose fallan".
- ^ Iphofen, Ron; Kritikos, Mihalis (3 de enero de 2019). "Regulación de la inteligencia artificial y la robótica: ética desde el diseño en una sociedad digital". Ciencias Sociales Contemporáneas . 16 (2): 170-184. doi : 10.1080 / 21582041.2018.1563803 . ISSN 2158-2041 . S2CID 59298502 .
- ^ "La IA ética aprende el marco de los derechos humanos" . Voice of America . Archivado desde el original el 11 de noviembre de 2019 . Consultado el 10 de noviembre de 2019 .
- ^ Crevier 1993 , págs. 132-144.
- ^ Crítica de la IA de Joseph Weizenbaum : * Weizenbaum 1976 * Crevier 1993 , págs. 132-144 * McCorduck 2004 , págs. 356-373 * Russell y Norvig 2003 , p. 961 Weizenbaum (el investigador de IA que desarrolló el primerprograma de chatbot , ELIZA ) argumentó en 1976 que el mal uso de la inteligencia artificial tiene el potencial de devaluar la vida humana.
- ^ Wallach, Wendell (2010). Máquinas morales . Prensa de la Universidad de Oxford.
- ^ Wallach 2010 , págs. 37-54.
- ^ Wallach 2010 , págs. 55-73.
- ^ Wallach 2010 , "Introducción".
- ^ a b Michael Anderson y Susan Leigh Anderson (2011), Machine Ethics, Cambridge University Press.
- ^ a b "Ética de la máquina" . aaai.org . Archivado desde el original el 29 de noviembre de 2014.
- ^ Rubin, Charles (primavera de 2003). "Inteligencia artificial y naturaleza humana" . La Nueva Atlántida . 1 : 88-100. Archivado desde el original el 11 de junio de 2012.
- ^ Brooks, Rodney (10 de noviembre de 2014). "La inteligencia artificial es una herramienta, no una amenaza" . Archivado desde el original el 12 de noviembre de 2014.
- ^ "Stephen Hawking, Elon Musk y Bill Gates advierten sobre la inteligencia artificial" . Observador . 19 de agosto de 2015. Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ Chalmers, David (1995). "Afrontando el problema de la conciencia" . Revista de estudios de la conciencia . 2 (3): 200–219. Archivado desde el original el 8 de marzo de 2005 . Consultado el 11 de octubre de 2018 .Vea también este enlace Archivado el 8 de abril de 2011 en la Wayback Machine.
- ^ Horst, Steven , (2005) "La teoría computacional de la mente" Archivado el 11 de septiembre de 2018 en Wayback Machine en The Stanford Encyclopedia of Philosophy
- ^ Searle 1980 , p. 1.
- ^ Argumento de la habitación china de Searle: * Searle 1980 . Presentación original de Searle del experimento mental. * Searle 1999 . Discusión: * Russell & Norvig 2003 , págs. 958–960 * McCorduck 2004 , págs. 443–445 * Crevier 1993 , págs. 269–271
- ^ Derechos de robot : * Russell & Norvig 2003 , p. 964 La prematuridad de: * Henderson 2007 En la ficción: * McCorduck (2004 , págs. 190-25) analiza a Frankenstein e identifica las cuestiones éticas clave como la arrogancia científica y el sufrimiento del monstruo, es decir, los derechos de los robots .
- ^ "Los robots podrían exigir derechos legales" . BBC News . 21 de diciembre de 2006. Archivado desde el original el 15 de octubre de 2019 . Consultado el 3 de febrero de 2011 .
- ^ Evans, Woody (2015). "Derechos posthumanos: dimensiones de mundos transhumanos" . Teknokultura . 12 (2). doi : 10.5209 / rev_TK.2015.v12.n2.49072 .
- ^ maschafilm. "Contenido: Película Plug & Pray - Inteligencia artificial - Robots -" . plugandpray-film.de . Archivado desde el original el 12 de febrero de 2016.
- ^ Omohundro, Steve (2008). La naturaleza de la inteligencia artificial auto-mejorada . presentado y distribuido en el 2007 Singularity Summit, San Francisco, CA.
- ^ a b c Singularidad tecnológica : * Vinge 1993 * Kurzweil 2005 * Russell & Norvig 2003 , p. 963
- ^ Transhumanismo : * Moravec 1988 * Kurzweil 2005 * Russell y Norvig 2003 , p. 963
- ^ AI como evolución: * Edward Fredkin se cita en McCorduck (2004 , p. 401). * Mayordomo 1863 * Dyson 1998
- ^ "Robots e Inteligencia Artificial" . www.igmchicago.org . Archivado desde el original el 1 de mayo de 2019 . Consultado el 3 de julio de 2019 .
- ^ "Dimensionamiento del premio: Estudio global de IA de PwC: aprovechamiento de la revolución de la IA" (PDF) . Consultado el 11 de noviembre de 2020 .
- ^ E McGaughey, '¿Los robots automatizarán su trabajo? Pleno empleo, renta básica y democracia económica '(2018) SSRN, parte 2 (3) Archivado el 24 de mayo de 2018 en Wayback Machine
- ^ "Automatización y ansiedad" . The Economist . 9 de mayo de 2015. Archivado desde el original el 12 de enero de 2018 . Consultado el 13 de enero de 2018 .
- ^ Lohr, Steve (2017). "Los robots aceptarán trabajos, pero no tan rápido como algunos temen, dice un nuevo informe" . The New York Times . Archivado desde el original el 14 de enero de 2018 . Consultado el 13 de enero de 2018 .
- ^ Frey, Carl Benedikt; Osborne, Michael A (1 de enero de 2017). "El futuro del empleo: ¿Qué tan susceptibles son los trabajos a la informatización?". Pronóstico tecnológico y cambio social . 114 : 254–280. CiteSeerX 10.1.1.395.416 . doi : 10.1016 / j.techfore.2016.08.019 . ISSN 0040-1625 .
- ^ Arntz, Melanie, Terry Gregory y Ulrich Zierahn. "El riesgo de la automatización para el empleo en los países de la OCDE: un análisis comparativo". Documentos de trabajo de la OCDE sobre asuntos sociales, empleo y migración 189 (2016). pag. 33.
- ^ Mahdawi, Arwa (26 de junio de 2017). "¿Qué trabajos seguirán existiendo en 20 años? Lea esto para preparar su futuro" . The Guardian . Archivado desde el original el 14 de enero de 2018 . Consultado el 13 de enero de 2018 .
- ^ Simon, Matt (1 de abril de 2019). "La candidatura presidencial de Andrew Yang es tan del siglo XXI" . Cableado . Archivado desde el original el 24 de junio de 2019 . Consultado el 2 de mayo de 2019 , a través de www.wired.com.
- ^ "Cinco expertos comparten lo que más les asusta de la IA" . 5 de septiembre de 2018. Archivado desde el original el 8 de diciembre de 2019 . Consultado el 8 de diciembre de 2019 .
- ^ Russel, Stuart., Daniel Dewey y Max Tegmark. Prioridades de investigación para la inteligencia artificial robusta y beneficiosa. Revista AI 36: 4 (2015). 8 de diciembre de 2016.
- ^ "Comentario: Malas noticias. La inteligencia artificial está sesgada" . CNA . 12 de enero de 2019. Archivado desde el original el 12 de enero de 2019 . Consultado el 19 de junio de 2020 .
- ^ Jeff Larson, Julia Angwin (23 de mayo de 2016). "Cómo analizamos el algoritmo de reincidencia COMPAS" . ProPublica . Archivado desde el original el 29 de abril de 2019 . Consultado el 19 de junio de 2020 .
- ^ Rawlinson, Kevin (29 de enero de 2015). "Bill Gates de Microsoft insiste en que la IA es una amenaza" . BBC News . Archivado desde el original el 29 de enero de 2015 . Consultado el 30 de enero de 2015 .
- ^ Holley, Peter (28 de enero de 2015). "Bill Gates sobre los peligros de la inteligencia artificial: 'No entiendo por qué algunas personas no están preocupadas ' " . The Washington Post . ISSN 0190-8286 . Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ Gibbs, Samuel (27 de octubre de 2014). "Elon Musk: la inteligencia artificial es nuestra mayor amenaza existencial" . The Guardian . Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ Churm, Philip Andrew (14 de mayo de 2019). "Yuval Noah Harari habla de política, tecnología y migración" . euronews . Consultado el 15 de noviembre de 2020 .
- ^ Cellan-Jones, Rory (2 de diciembre de 2014). "Stephen Hawking advierte que la inteligencia artificial podría acabar con la humanidad" . BBC News . Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ Bostrom, Nick (2015). "¿Qué sucede cuando nuestras computadoras se vuelven más inteligentes que nosotros?" . TED (conferencia) . Archivado desde el original el 25 de julio de 2020 . Consultado el 30 de enero de 2020 .
- ^ a b Russell, Stuart (8 de octubre de 2019). Compatibilidad humana: la inteligencia artificial y el problema del control . Estados Unidos: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322 .
- ^ Post, Washington. "Los titanes de la tecnología como Elon Musk están gastando mil millones de dólares para salvarte de los terminadores" . Archivado desde el original el 7 de junio de 2016.
- ^ Müller, Vincent C .; Bostrom, Nick (2014). "Progreso futuro en inteligencia artificial: una encuesta entre expertos" (PDF) . La IA importa . 1 (1): 9-11. doi : 10.1145 / 2639475.2639478 . S2CID 8510016 . Archivado (PDF) desde el original el 15 de enero de 2016.
- ^ "El CEO de Oracle, Mark Hurd, no ve ninguna razón para temer a ERP AI" . SearchERP . Archivado desde el original el 6 de mayo de 2019 . Consultado el 6 de mayo de 2019 .
- ^ "Mark Zuckerberg responde a la paranoia de Elon Musk sobre la IA: 'La IA va a ... ayudar a mantener seguras a nuestras comunidades ' " . Business Insider . 25 de mayo de 2018. Archivado desde el original el 6 de mayo de 2019 . Consultado el 6 de mayo de 2019 .
- ^ "La misteriosa empresa de inteligencia artificial en la que invirtió Elon Musk está desarrollando computadoras inteligentes innovadoras" . Tech Insider . Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ Clark, 2015a .
- ^ "Elon Musk está donando $ 10 millones de su propio dinero a la investigación de inteligencia artificial" . Empresa rápida . 15 de enero de 2015. Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ "¿Es la inteligencia artificial realmente una amenaza existencial para la humanidad?" . Boletín de los científicos atómicos . 9 de agosto de 2015. Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ "El caso contra los robots asesinos, de un tipo que trabaja en inteligencia artificial" . Fusion.net . Archivado desde el original el 4 de febrero de 2016 . Consultado el 31 de enero de 2016 .
- ^ "¿La inteligencia artificial destruirá a la humanidad? Aquí tienes 5 razones para no preocuparte" . Vox . 22 de agosto de 2014. Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hola, mundo: la inteligencia artificial y su uso en el sector público (PDF) . París: Observatorio de Innovación del Sector Público de la OCDE. Archivado (PDF) desde el original el 20 de diciembre de 2019 . Consultado el 9 de agosto de 2020 .
- ^ Barfield, Woodrow; Pagallo, Ugo (2018). Manual de investigación sobre el derecho de la inteligencia artificial . Cheltenham, Reino Unido. ISBN 978-1-78643-904-8. OCLC 1039480085 .
- ^ Biblioteca de Derecho del Congreso (EE. UU.). Dirección de Investigación Jurídica Global, organismo emisor. Regulación de la inteligencia artificial en jurisdicciones seleccionadas . LCCN 2019668143 . OCLC 1110727808 .
- ^ Wirtz, Bernd W .; Weyerer, Jan C .; Geyer, Carolin (24 de julio de 2018). "Inteligencia artificial y sector público: aplicaciones y desafíos" . Revista Internacional de Administración Pública . 42 (7): 596–615. doi : 10.1080 / 01900692.2018.1498103 . ISSN 0190-0692 . S2CID 158829602 . Archivado desde el original el 18 de agosto de 2020 . Consultado el 22 de agosto de 2020 .
- ^ Buiten, Miriam C (2019). "Hacia la regulación inteligente de la inteligencia artificial" . Revista europea de regulación de riesgos . 10 (1): 41–59. doi : 10.1017 / err.2019.8 . ISSN 1867-299X .
- ^ Sotala, Kaj; Yampolskiy, Roman V (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta" . Physica Scripta . 90 (1): 018001. doi : 10.1088 / 0031-8949 / 90/1/018001 . ISSN 0031-8949 .
- ^ Buttazzo, G. (julio de 2001). "Conciencia artificial: ¿Utopía o posibilidad real?". Computadora . 34 (7): 24-30. doi : 10.1109 / 2.933500 .
- ^ Anderson, Susan Leigh. "Las" tres leyes de la robótica "y la metaética de las máquinas de Asimov". AI & Society 22.4 (2008): 477–493.
- ^ McCauley, Lee (2007). "Armageddon AI y las tres leyes de la robótica". Ética y Tecnología de la Información . 9 (2): 153-164. CiteSeerX 10.1.1.85.8904 . doi : 10.1007 / s10676-007-9138-2 . S2CID 37272949 .
- ^ Galván, Jill (1 de enero de 1997). "Entrando en el colectivo posthumano en Philip K. Dick" ¿Sueñan los androides con ovejas eléctricas? " ". Estudios de ciencia ficción . 24 (3): 413–429. JSTOR 4240644 .
Libros de texto de IA
- Hutter, Marcus (2005). Inteligencia artificial universal . Berlín: Springer. ISBN 978-3-540-22139-5.
- Jackson, Philip (1985). Introducción a la Inteligencia Artificial (2ª ed.). Dover. ISBN 978-0-486-24864-6. Archivado desde el original el 26 de julio de 2020 . Consultado el 4 de marzo de 2020 .
- Luger, George ; Stubblefield, William (2004). Inteligencia artificial: estructuras y estrategias para la resolución de problemas complejos (5ª ed.). Benjamin / Cummings. ISBN 978-0-8053-4780-7. Archivado desde el original el 26 de julio de 2020 . Consultado el 17 de diciembre de 2019 .
- Napolitano, Richard ; Jiang, Xia (2018). Inteligencia artificial: con una introducción al aprendizaje automático . Chapman y Hall / CRC. ISBN 978-1-138-50238-3. Archivado desde el original el 22 de agosto de 2020 . Consultado el 3 de enero de 2018 .
- Nilsson, Nils (1998). Inteligencia artificial: una nueva síntesis . Morgan Kaufmann. ISBN 978-1-55860-467-4. Archivado desde el original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
- Russell, Stuart J .; Norvig, Peter (2003), Inteligencia artificial: un enfoque moderno (2a ed.), Upper Saddle River, Nueva Jersey: Prentice Hall, ISBN 0-13-790395-2.
- Russell, Stuart J .; Norvig, Peter (2009). Inteligencia artificial: un enfoque moderno (3ª ed.). Upper Saddle River, Nueva Jersey: Prentice Hall. ISBN 978-0-13-604259-4..
- Poole, David ; Mackworth, Alan ; Goebel, Randy (1998). Inteligencia computacional: un enfoque lógico . Nueva York: Oxford University Press. ISBN 978-0-19-510270-3. Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- Winston, Patrick Henry (1984). Inteligencia artificial . Reading, MA: Addison-Wesley. ISBN 978-0-201-08259-3. Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- Rich, Elaine (1983). Inteligencia artificial . McGraw-Hill. ISBN 978-0-07-052261-9. Archivado desde el original el 26 de julio de 2020 . Consultado el 17 de diciembre de 2019 .
- Bundy, Alan (1980). Inteligencia artificial: un curso introductorio (2ª ed.). Prensa de la Universidad de Edimburgo. ISBN 978-0-85224-410-4.
- Poole, David ; Mackworth, Alan (2017). Inteligencia artificial: fundamentos de los agentes computacionales (2ª ed.). Prensa de la Universidad de Cambridge. ISBN 978-1-107-19539-4. Archivado desde el original el 7 de diciembre de 2017 . Consultado el 6 de diciembre de 2017 .
- Auffarth, Ben (2020). Inteligencia artificial con Python Cookbook: recetas probadas para aplicar algoritmos de inteligencia artificial y técnicas de aprendizaje profundo utilizando TensorFlow 2.xy PyTorch 1.6 (1.a ed.). Packt Publishing. ISBN 978-1-78913-396-7. Consultado el 13 de enero de 2021 .
- Gordon, Cindy (marzo de 2021). El dilema de la IA (1ª ed.). Publicación de BPB. pag. 224. ISBN 9788194837787.
Historia de la IA
- Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence , Nueva York, NY: BasicBooks, ISBN 0-465-02997-3.
- McCorduck, Pamela (2004), Máquinas que piensan (2a ed.), Natick, MA: AK Peters, Ltd., ISBN 1-56881-205-1.
- Newquist, HP (1994). Los creadores de cerebros: genio, ego y codicia en la búsqueda de máquinas que piensen . Nueva York: Macmillan / SAMS. ISBN 978-0-672-30412-5.
- Nilsson, Nils (2009). La búsqueda de la inteligencia artificial: una historia de ideas y logros . Nueva York: Cambridge University Press. ISBN 978-0-521-12293-1.
Otras fuentes
- "Sistema de Clasificación Informática ACM: Inteligencia Artificial" . ACM . 1998. Archivado desde el original el 12 de octubre de 2007 . Consultado el 30 de agosto de 2007 .
- Albus, JS (2002). "4-D / RCS: una arquitectura de modelo de referencia para vehículos terrestres no tripulados inteligentes" (PDF) . En Gerhart, G .; Gunderson, R .; Shoemaker, C. (eds.). Actas de la sesión de SPIE AeroSense sobre tecnología de vehículos terrestres no tripulados . Tecnología de vehículos terrestres no tripulados IV. 3693 . págs. 11-20. Código Bibliográfico : 2002SPIE.4715..303A . CiteSeerX 10.1.1.15.14 . doi : 10.1117 / 12.474462 . S2CID 63339739 . Archivado desde el original (PDF) el 25 de julio de 2004.
- Aleksander, Igor (1995). Neuroconciencia artificial: una actualización . IWANN. Archivado desde el original el 2 de marzo de 1997. BibTex Archivado el 2 de marzo de 1997 en Wayback Machine .
- Asada, M .; Hosoda, K .; Kuniyoshi, Y .; Ishiguro, H .; Inui, T .; Yoshikawa, Y .; Ogino, M .; Yoshida, C. (2009). "Robótica del desarrollo cognitivo: una encuesta". Transacciones IEEE sobre desarrollo mental autónomo . 1 (1): 12–34. doi : 10.1109 / tamd.2009.2021702 . S2CID 10168773 .
- Bach, Joscha (2008). "Siete principios de la inteligencia sintética" . En Wang, Pei; Goertzel, Ben; Franklin, Stan (eds.). Inteligencia General Artificial, 2008: Actas de la Primera Conferencia de AGI . IOS Press. págs. 63–74. ISBN 978-1-58603-833-5. Archivado desde el original el 8 de julio de 2016 . Consultado el 16 de febrero de 2016 .
- Brooks, Rodney (1990). "Los elefantes no juegan al ajedrez" (PDF) . Robótica y sistemas autónomos . 6 (1–2): 3–15. CiteSeerX 10.1.1.588.7539 . doi : 10.1016 / S0921-8890 (05) 80025-9 . Archivado (PDF) desde el original el 9 de agosto de 2007.
- Brooks, RA (1991). "Cómo construir criaturas completas en lugar de simuladores cognitivos aislados". En VanLehn, K. (ed.). Arquitecturas para la inteligencia . Hillsdale, Nueva Jersey: Lawrence Erlbaum Associates. págs. 225–239. CiteSeerX 10.1.1.52.9510 .
- Buchanan, Bruce G. (2005). "Una (muy) breve historia de la inteligencia artificial" (PDF) . Revista AI : 53–60. Archivado desde el original (PDF) el 26 de septiembre de 2007.
- Butler, Samuel (13 de junio de 1863). "Darwin entre las Máquinas" . Cartas al editor. La Prensa . Christchurch, Nueva Zelanda. Archivado desde el original el 19 de septiembre de 2008 . Consultado el 16 de octubre de 2014 , a través de la Universidad Victoria de Wellington.
- Clark, Jack (1 de julio de 2015a). "Grupo respaldado por Musk investiga los riesgos detrás de la inteligencia artificial" . Bloomberg.com . Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- Clark, Jack (8 de diciembre de 2015b). "Por qué 2015 fue un año de gran avance en inteligencia artificial" . Bloomberg.com . Archivado desde el original el 23 de noviembre de 2016 . Consultado el 23 de noviembre de 2016 .
- Dennett, Daniel (1991). Conciencia explicada . The Penguin Press. ISBN 978-0-7139-9037-9.
- Domingos, Pedro (2015). El algoritmo maestro: cómo la búsqueda de la máquina de aprendizaje definitiva reconstruirá nuestro mundo . Libros básicos. ISBN 978-0-465-06192-1.
- Dowe, DL; Hajek, AR (1997). "Una extensión computacional de la prueba de Turing" . Actas de la 4ª Conferencia de la Sociedad de Ciencias Cognitivas de Australasia . Archivado desde el original el 28 de junio de 2011.
- Dreyfus, Hubert (1972). Lo que las computadoras no pueden hacer . Nueva York: MIT Press. ISBN 978-0-06-011082-6.
- Dreyfus, Hubert ; Dreyfus, Stuart (1986). Mente sobre máquina: el poder de la intuición y la experiencia humanas en la era de la computadora . Oxford, Reino Unido: Blackwell. ISBN 978-0-02-908060-3. Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- Dreyfus, Hubert (1992). Lo que las computadoras aún no pueden hacer . Nueva York: MIT Press. ISBN 978-0-262-54067-4.
- Dyson, George (1998). Darwin entre las Máquinas . Ciencia de Allan Lane. ISBN 978-0-7382-0030-9. Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- Edelman, Gerald (23 de noviembre de 2007). "Gerald Edelman - Darwinismo neuronal y dispositivos basados en el cerebro" . Hablando de robots. Archivado desde el original el 8 de octubre de 2009.
- Edelson, Edward (1991). El sistema nervioso . Nueva York: Chelsea House. ISBN 978-0-7910-0464-7. Archivado desde el original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
- Fearn, Nicholas (2007). Las últimas respuestas a las preguntas más antiguas: una aventura filosófica con los mejores pensadores del mundo . Nueva York: Grove Press. ISBN 978-0-8021-1839-4.
- Gladwell, Malcolm (2005). Parpadea . Nueva York: Little, Brown and Co. ISBN 978-0-316-17232-5.
- Gödel, Kurt (1951). Algunos teoremas básicos sobre los fundamentos de las matemáticas y sus implicaciones . Conferencia de Gibbs. En
Feferman, Solomon , ed. (1995). Kurt Gödel: Obras completas, vol. III: Ensayos y conferencias inéditos . Prensa de la Universidad de Oxford. págs. 304–23. ISBN 978-0-19-514722-3. - Goodman, Joanna (2016). Robots in Law: Cómo la inteligencia artificial está transformando los servicios legales (1ª ed.). Ark Group. ISBN 978-1-78358-264-8. Archivado desde el original el 8 de noviembre de 2016 . Consultado el 7 de noviembre de 2016 .
- Haugeland, John (1985). Inteligencia artificial: la idea misma . Cambridge, Mass .: MIT Press. ISBN 978-0-262-08153-5.
- Hawkins, Jeff ; Blakeslee, Sandra (2005). Sobre inteligencia . Nueva York, NY: Owl Books. ISBN 978-0-8050-7853-4.
- Henderson, Mark (24 de abril de 2007). "¿Derechos humanos para los robots? Nos dejamos llevar" . The Times Online . Londres. Archivado desde el original el 31 de mayo de 2014 . Consultado el 31 de mayo de 2014 .
- Hernández-Orallo, José (2000). "Más allá de la prueba de Turing". Revista de Lógica, Lenguaje e Información . 9 (4): 447–466. doi : 10.1023 / A: 1008367325700 . S2CID 14481982 .
- Hernandez-Orallo, J .; Dowe, DL (2010). "Medición de la inteligencia universal: hacia una prueba de inteligencia en cualquier momento". Inteligencia artificial . 174 (18): 1508-1539. CiteSeerX 10.1.1.295.9079 . doi : 10.1016 / j.artint.2010.09.006 .
- Hinton, GE (2007). "Aprendiendo múltiples capas de representación". Tendencias en ciencias cognitivas . 11 (10): 428–434. doi : 10.1016 / j.tics.2007.09.004 . PMID 17921042 . S2CID 15066318 .
- Hofstadter, Douglas (1979). Gödel, Escher, Bach: una eterna trenza dorada . Nueva York, NY: Vintage Books. ISBN 978-0-394-74502-2.
- Holanda, John H. (1975). Adaptación en sistemas naturales y artificiales . Prensa de la Universidad de Michigan. ISBN 978-0-262-58111-0. Archivado desde el original el 26 de julio de 2020 . Consultado el 17 de diciembre de 2019 .
- Howe, J. (noviembre de 1994). "Inteligencia artificial en la Universidad de Edimburgo: una perspectiva" . Archivado desde el original el 15 de mayo de 2007 . Consultado el 30 de agosto de 2007 .
- Hutter, M. (2012). "Una década de inteligencia artificial universal". Fundamentos teóricos de la inteligencia artificial general . Máquinas pensantes de Atlantis. 4 . págs. 67–88. CiteSeerX 10.1.1.228.8725 . doi : 10.2991 / 978-94-91216-62-6_5 . ISBN 978-94-91216-61-9. S2CID 8888091 .
- Kahneman, Daniel ; Slovic, D .; Tversky, Amos (1982). Juicio bajo incertidumbre: heurísticas y sesgos . Ciencia . 185 . Nueva York: Cambridge University Press. págs. 1124-1131. doi : 10.1126 / science.185.4157.1124 . ISBN 978-0-521-28414-1. PMID 17835457 . S2CID 143452957 .
- Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri en mi mano, ¿quién es el más hermoso de la tierra? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Horizontes de negocios . 62 : 15-25. doi : 10.1016 / j.bushor.2018.08.004 .
- Katz, Yarden (1 de noviembre de 2012). "Noam Chomsky sobre dónde salió mal la inteligencia artificial" . El Atlántico . Archivado desde el original el 28 de febrero de 2019 . Consultado el 26 de octubre de 2014 .
- Koza, John R. (1992). Programación genética (sobre la programación de computadoras por medio de selección natural) . Prensa del MIT. Bibcode : 1992gppc.book ..... K . ISBN 978-0-262-11170-6.
- Kolata, G. (1982). "¿Cómo pueden las computadoras adquirir sentido común?". Ciencia . 217 (4566): 1237–1238. Código Bibliográfico : 1982Sci ... 217.1237K . doi : 10.1126 / science.217.4566.1237 . PMID 17837639 .
- Kumar, Gulshan; Kumar, Krishan (2012). "El uso de conjuntos basados en inteligencia artificial para la detección de intrusiones: una revisión" . Inteligencia Computacional Aplicada y Soft Computing . 2012 : 1–20. doi : 10.1155 / 2012/850160 .
- Kurzweil, Ray (1999). La era de las máquinas espirituales . Libros de pingüinos. ISBN 978-0-670-88217-5.
- Kurzweil, Ray (2005). La singularidad está cerca . Libros de pingüinos. ISBN 978-0-670-03384-3.
- Lakoff, George ; Núñez, Rafael E. (2000). De dónde provienen las matemáticas: cómo la mente encarnada hace que las matemáticas existan . Libros básicos. ISBN 978-0-465-03771-1.
- Langley, Pat (2011). "La ciencia cambiante del aprendizaje automático" . Aprendizaje automático . 82 (3): 275-279. doi : 10.1007 / s10994-011-5242-y .
- Law, Diane (junio de 1994). Searle, Funcionalismo subsimbólico e inteligencia sintética (Informe técnico). Universidad de Texas en Austin. pag. AI94-222. CiteSeerX 10.1.1.38.8384 .
- Legg, Shane; Hutter, Marcus (15 de junio de 2007). Una colección de definiciones de inteligencia (informe técnico). IDSIA . arXiv : 0706.3639 . Código bibliográfico : 2007arXiv0706.3639L . 07-07.
- Lenat, Douglas ; Guha, RV (1989). Construyendo grandes sistemas basados en el conocimiento . Addison-Wesley. ISBN 978-0-201-51752-1.
- Lighthill, James (1973). "Inteligencia artificial: un estudio general". Inteligencia artificial: un simposio en papel . Consejo de Investigaciones Científicas.
- Lucas, John (1961). "Mentes, Máquinas y Gödel". En Anderson, AR (ed.). Mentes y Máquinas . Archivado desde el original el 19 de agosto de 2007 . Consultado el 30 de agosto de 2007 .
- Lungarella, M .; Metta, G .; Pfeifer, R .; Sandini, G. (2003). "Robótica del desarrollo: una encuesta". Ciencia de la conexión . 15 (4): 151-190. CiteSeerX 10.1.1.83.7615 . doi : 10.1080 / 09540090310001655110 . S2CID 1452734 .
- Maker, Meg Houston (2006). "AI @ 50: AI pasado, presente, futuro" . Universidad de Dartmouth. Archivado desde el original el 3 de enero de 2007 . Consultado el 16 de octubre de 2008 .
- Markoff, John (16 de febrero de 2011). "Computadora gana en 'Jeopardy!': Trivial, no lo es" . The New York Times . Archivado desde el original el 22 de octubre de 2014 . Consultado el 25 de octubre de 2014 .
- McCarthy, John ; Minsky, Marvin ; Rochester, Nathan ; Shannon, Claude (1955). "Una propuesta para el proyecto de investigación de verano de Dartmouth sobre inteligencia artificial" . Archivado desde el original el 26 de agosto de 2007 . Consultado el 30 de agosto de 2007 .
- McCarthy, John ; Hayes, PJ (1969). "Algunos problemas filosóficos desde el punto de vista de la inteligencia artificial" . Inteligencia de máquina . 4 : 463–502. CiteSeerX 10.1.1.85.5082 . Archivado desde el original el 10 de agosto de 2007 . Consultado el 30 de agosto de 2007 .
- McCarthy, John (12 de noviembre de 2007). "¿Qué es la inteligencia artificial?" . www-formal.stanford.edu . Archivado desde el original el 18 de noviembre de 2015.
- McCarthy, John (12 de noviembre de 2007). "Aplicaciones de la IA" . www-formal.stanford.edu . Archivado desde el original el 28 de agosto de 2016 . Consultado el 25 de septiembre de 2016 .
- Minsky, Marvin (1967). Computación: máquinas finitas e infinitas . Englewood Cliffs, Nueva Jersey: Prentice-Hall. ISBN 978-0-13-165449-5. Archivado desde el original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
- Minsky, Marvin (2006). La máquina de la emoción . Nueva York, NY: Simon & Schusterl. ISBN 978-0-7432-7663-4.
- Moravec, Hans (1988). Niños de la mente . Prensa de la Universidad de Harvard. ISBN 978-0-674-57616-2. Archivado desde el original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
- Norvig, Peter (25 de junio de 2012). "Sobre Chomsky y las dos culturas del aprendizaje estadístico" . Peter Norvig. Archivado desde el original el 19 de octubre de 2014.
- NRC (Consejo Nacional de Investigaciones de Estados Unidos) (1999). "Desarrollos en Inteligencia Artificial". Financiamiento de una revolución: apoyo del gobierno a la investigación en computación . Prensa de la Academia Nacional.
- Needham, Joseph (1986). Ciencia y civilización en China: Volumen 2 . Caves Books Ltd.
- Newell, Allen ; Simon, HA (1976). "La informática como investigación empírica: símbolos y búsqueda" . Comunicaciones de la ACM . 19 (3): 113–126. doi : 10.1145 / 360018.360022 ..
- Nilsson, Nils (1983). "La inteligencia artificial se prepara para 2001" (PDF) . Revista AI . 1 (1). Archivado (PDF) desde el original el 17 de agosto de 2020 . Consultado el 22 de agosto de 2020 .Discurso presidencial a la Asociación para el Avance de la Inteligencia Artificial .
- O'Brien, James; Marakas, George (2011). Sistemas de información gerencial (10ª ed.). McGraw-Hill / Irwin. ISBN 978-0-07-337681-3.
- O'Connor, Kathleen Malone (1994). La creación alquímica de la vida (takwin) y otros conceptos del Génesis en el Islam medieval (Disertación). Universidad de Pennsylvania. págs. 1-435. AAI9503804. Archivado desde el original el 5 de diciembre de 2019 . Consultado el 27 de agosto de 2008 , a través de Disertaciones disponibles en ProQuest.
- Oudeyer, PY. (2010). "Sobre el impacto de la robótica en las ciencias cognitivas y del comportamiento: desde la navegación de insectos hasta el desarrollo cognitivo humano" (PDF) . Transacciones IEEE sobre desarrollo mental autónomo . 2 (1): 2-16. doi : 10.1109 / tamd.2009.2039057 . S2CID 6362217 . Archivado (PDF) desde el original el 3 de octubre de 2018 . Consultado el 4 de junio de 2013 .
- Penrose, Roger (1989). La nueva mente del emperador: sobre la computadora, las mentes y las leyes de la física . Prensa de la Universidad de Oxford . ISBN 978-0-19-851973-7.
- Poli, R .; Langdon, WB; McPhee, NF (2008). Una guía de campo para la programación genética . Lulu.com. ISBN 978-1-4092-0073-4. Archivado desde el original el 8 de agosto de 2015 . Consultado el 21 de abril de 2008 , a través de gp-field-guide.org.uk.
- Rajani, Sandeep (2011). "Inteligencia artificial: hombre o máquina" (PDF) . Revista Internacional de Tecnología de la Información y Gestión del Conocimiento . 4 (1): 173-176. Archivado desde el original (PDF) el 18 de enero de 2013.
- Ronald, EMA y Sipper, M. La inteligencia no es suficiente: sobre la socialización de las máquinas parlantes, Minds and Machines Archivado el 25 de julio de 2020 en Wayback Machine , vol. 11, no. 4, págs. 567–576, noviembre de 2001.
- Ronald, EMA y Sipper, M. ¿De qué sirve una charlatana de Turing? Archivado el 25 de julio de 2020 en Wayback Machine , Communications of the ACM, vol. 43, no. 10, págs. 21-23, octubre de 2000.
- "Ciencia" . Agosto de 1982. Archivado desde el original el 25 de julio de 2020 . Consultado el 16 de febrero de 2016 .
- Searle, John (1980). "Mentes, cerebros y programas" (PDF) . Ciencias del comportamiento y del cerebro . 3 (3): 417–457. doi : 10.1017 / S0140525X00005756 . Archivado (PDF) desde el original el 17 de marzo de 2019 . Consultado el 22 de agosto de 2020 .
- Searle, John (1999). Mente, lenguaje y sociedad . Nueva York, NY: Basic Books. ISBN 978-0-465-04521-1. OCLC 231867665 . Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- Shapiro, Stuart C. (1992). "Inteligencia artificial". En Shapiro, Stuart C. (ed.). Enciclopedia de Inteligencia Artificial (PDF) (2ª ed.). Nueva York: John Wiley. págs. 54–57. ISBN 978-0-471-50306-4. Archivado (PDF) desde el original el 1 de febrero de 2016 . Consultado el 29 de mayo de 2009 .
- Simon, HA (1965). La forma de la automatización para los hombres y la gestión . Nueva York: Harper & Row. Archivado desde el original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
- Skillings, Jonathan (3 de julio de 2006). "Conseguir que las máquinas piensen como nosotros" . cnet . Archivado desde el original el 16 de noviembre de 2011 . Consultado el 3 de febrero de 2011 .
- Solomonoff, Ray (1956). Una máquina de inferencia inductiva (PDF) . Conferencia de investigación de verano de Dartmouth sobre inteligencia artificial. Archivado (PDF) desde el original el 26 de abril de 2011 . Consultado el 22 de marzo de 2011 , a través de std.com, copia escaneada en pdf del original. Posteriormente publicado como
Solomonoff, Ray (1957). "Una máquina de inferencia inductiva". Registro de la Convención IRE . Sección sobre teoría de la información, parte 2. págs. 56–62. - Tao, Jianhua; Tan, Tieniu (2005). Computación afectiva e interacción inteligente . Computación afectiva: una revisión. LNCS 3784. Springer. págs. 981–995. doi : 10.1007 / 11573548 .
- Tecuci, Gheorghe (marzo-abril de 2012). "Inteligencia artificial". Revisiones interdisciplinarias de Wiley: Estadística computacional . 4 (2): 168–180. doi : 10.1002 / wics.200 .
- Thro, Ellen (1993). Robótica: el matrimonio de computadoras y máquinas . Nueva York: hechos registrados. ISBN 978-0-8160-2628-9. Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- Turing, Alan (octubre de 1950), "Computing Machinery and Intelligence", Mind , LIX (236): 433–460, doi : 10.1093 / mind / LIX.236.433 , ISSN 0026-4423.
- van der Walt, Christiaan; Bernard, Etienne (2006). "Características de los datos que determinan el desempeño del clasificador" (PDF) . Archivado desde el original (PDF) el 25 de marzo de 2009 . Consultado el 5 de agosto de 2009 .
- Vinge, Vernor (1993). "La singularidad tecnológica venidera: cómo sobrevivir en la era post-humana" . Visión 21: Ciencia e ingeniería interdisciplinarias en la era del ciberespacio : 11. Bibcode : 1993vise.nasa ... 11V . Archivado desde el original el 1 de enero de 2007 . Consultado el 14 de noviembre de 2011 .
- Wason, PC ; Shapiro, D. (1966). "Razonamiento" . En Foss, BM (ed.). Nuevos horizontes en psicología . Harmondsworth: pingüino. Archivado desde el original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
- Weizenbaum, Joseph (1976). El poder informático y la razón humana . San Francisco: WH Freeman & Company. ISBN 978-0-7167-0464-5.
- Weng, J .; McClelland; Pentland, A .; Sporns, O .; Stockman, I .; Sur, M .; Thelen, E. (2001). "Desarrollo mental autónomo por robots y animales" (PDF) . Ciencia . 291 (5504): 599–600. doi : 10.1126 / science.291.5504.599 . PMID 11229402 . S2CID 54131797 . Archivado (PDF) desde el original el 4 de septiembre de 2013 . Consultado el 4 de junio de 2013 , a través de msu.edu.
Otras lecturas
- DH Author, '¿Por qué todavía hay tantos trabajos? La historia y el futuro de la automatización del lugar de trabajo '(2015) 29 (3) Journal of Economic Perspectives 3.
- Boden, Margaret , Mente como máquina , Oxford University Press , 2006.
- Cukier, Kenneth , "¿Listo para los robots? Cómo pensar en el futuro de la IA", Foreign Affairs , vol. 98, no. 4 (julio / agosto de 2019), págs. 192–98. George Dyson , historiador de la informática, escribe (en lo que podría llamarse la "Ley de Dyson") que "Cualquier sistema lo suficientemente simple como para ser comprensible no será lo suficientemente complicado como para comportarse inteligentemente, mientras que cualquier sistema lo suficientemente complicado como para comportarse inteligentemente será demasiado complicado para comprender." (p. 197.) El científico informático Alex Pentland escribe: "Los algoritmos actuales de aprendizaje automático de IA son, en esencia, completamente estúpidos. Funcionan, pero funcionan por la fuerza bruta". (pág. 198.)
- Domingos, Pedro , "Nuestros dobles digitales: la IA servirá a nuestra especie, no la controlará", Scientific American , vol. 319, no. 3 (septiembre de 2018), págs. 88–93.
- Gopnik, Alison , "Haciendo que la IA sea más humana: la inteligencia artificial ha experimentado un renacimiento al comenzar a incorporar lo que sabemos sobre cómo aprenden los niños", Scientific American , vol. 316, no. 6 (junio de 2017), págs. 60–65.
- Johnston, John (2008) El encanto de la vida maquínica: cibernética, vida artificial y la nueva IA , MIT Press.
- Koch, Christof , "Proust entre las máquinas", Scientific American , vol. 321, no. 6 (diciembre de 2019), págs. 46–49. Christof Koch duda de la posibilidad de que las máquinas "inteligentes" alcancen la conciencia , porque " es poco probable que las simulaciones cerebrales más sofisticadas produzcan sentimientos conscientes ". (p. 48.) Según Koch, "Si las máquinas pueden volverse sensibles [es importante] por razones éticas . Si las computadoras experimentan la vida a través de sus propios sentidos, dejan de ser puramente un medio para un fin determinado por su utilidad para ... . humanos. Según GNW [la teoría del espacio de trabajo neuronal global ], pasan de meros objetos a sujetos ... con un punto de vista ... Una vez que las capacidades cognitivas de las computadoras rivalizan con las de la humanidad, su impulso de presionar los derechos se volverán irresistibles: el derecho a no ser borrados, a que no se borren sus recuerdos, a no sufrir dolor y degradación. La alternativa, encarnada por IIT [Teoría de la Información Integrada], es que las computadoras seguirán siendo sólo una maquinaria supersofisticada, vacía como un fantasma conchas, desprovistas de lo que más valoramos: el sentimiento de la vida misma ". (pág.49)
- Marcus, Gary , "¿Soy humano?: Los investigadores necesitan nuevas formas de distinguir la inteligencia artificial de la natural", Scientific American , vol. 316, no. 3 (marzo de 2017), págs. 58–63. Un obstáculo para la IA ha sido la incapacidad para una desambiguación confiable . Un ejemplo es el "problema de desambiguación de pronombres": una máquina no tiene forma de determinar a quién oa qué se refiere un pronombre en una oración. (pág.61).
- E McGaughey, '¿Los robots automatizarán su trabajo? Pleno empleo, renta básica y democracia económica '(2018) SSRN, parte 2 (3) Archivado el 24 de mayo de 2018 en Wayback Machine .
- George Musser , " Imaginación artificial : cómo las máquinas pueden aprender la creatividad y el sentido común , entre otras cualidades humanas", Scientific American , vol. 320, no. 5 (mayo de 2019), págs. 58–63.
- Myers, Courtney Boyd ed. (2009). "The AI Report" Archivado el 29 de julio de 2017 en Wayback Machine . Forbes, junio de 2009
- Rafael, Bertram (1976). La computadora pensante . WHFreeman and Company. ISBN 978-0-7167-0723-3. Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- Scharre, Paul, "Aplicaciones asesinas: los peligros reales de una carrera armamentista de IA", Asuntos Exteriores , vol. 98, no. 3 (mayo / junio de 2019), págs. 135–44. "Las tecnologías de inteligencia artificial de hoy son poderosas pero poco confiables. Los sistemas basados en reglas no pueden lidiar con circunstancias que sus programadores no anticiparon. Los sistemas de aprendizaje están limitados por los datos en los que fueron entrenados. Las fallas de inteligencia artificial ya han llevado a una tragedia. Funciones avanzadas de piloto automático en automóviles, aunque funcionan bien en algunas circunstancias, han conducido automóviles sin previo aviso contra camiones, barreras de concreto y automóviles estacionados. En la situación incorrecta, los sistemas de IA pasan de súper inteligentes a superdumb en un instante. Cuando un enemigo está tratando de manipular y piratear una IA sistema, los riesgos son aún mayores ". (pág. 140.)
- Serenko, Alexander (2010). "El desarrollo de un ranking de revistas de IA basado en el enfoque de preferencia revelada" (PDF) . Revista de Informetrics . 4 (4): 447–459. doi : 10.1016 / j.joi.2010.04.001 . Archivado (PDF) desde el original el 4 de octubre de 2013 . Consultado el 24 de agosto de 2013 .
- Serenko, Alexander; Michael Dohan (2011). "Comparación de la encuesta de expertos y los métodos de clasificación de revistas de impacto de citas: ejemplo del campo de la inteligencia artificial" (PDF) . Revista de Informetrics . 5 (4): 629–649. doi : 10.1016 / j.joi.2011.06.002 . Archivado (PDF) desde el original el 4 de octubre de 2013 . Consultado el 12 de septiembre de 2013 .
- Tom Simonite (29 de diciembre de 2014). "2014 en informática: avances en inteligencia artificial" . Revisión de tecnología del MIT .
- Sun, R. y Bookman, L. (eds.), Arquitecturas computacionales: Integración de procesos neuronales y simbólicos . Editores académicos de Kluwer, Needham, MA. 1994.
- Taylor, Paul, "Insanely Complicated, Hopefully Inadequate" (revisión de Brian Cantwell Smith , The Promise of Artificial Intelligence: Reckoning and Judgment , MIT, octubre de 2019, ISBN 978 0 262 04304 5 , 157 págs .; Gary Marcus y Ernest Davis, Rebooting AI: Building Artificial Intelligence We Can Trust , Ballantine, septiembre de 2019, ISBN 978 1 5247 4825 8 , 304 págs .; Judea Pearl y Dana Mackenzie, The Book of Why: The New Science of Cause and Effect , Penguin, mayo de 2019, ISBN 978 0 14 198241 0 , 418 págs.), London Review of Books , vol. 43, no. 2 (21 de enero de 2021), págs. 37–39. Paul Taylor escribe (p. 39): "Quizás haya un límite en lo que una computadora puede hacer sin saber que está manipulando representaciones imperfectas de una realidad externa".
- Tooze, Adam , "La democracia y sus descontentos", The New York Review of Books , vol. LXVI, no. 10 (6 de junio de 2019), págs. 52–53, 56–57. "La democracia no tiene una respuesta clara para la operación sin sentido del poder burocrático y tecnológico . De hecho, podemos estar presenciando su extensión en forma de inteligencia artificial y robótica. Asimismo, después de décadas de advertencias nefastas, el problema ambiental permanece fundamentalmente sin abordar ... La extralimitación burocrática y la catástrofe ambiental son precisamente el tipo de desafíos existenciales lentos que las democracias enfrentan muy mal ... Finalmente, está la amenaza del día: las corporaciones y las tecnologías que promueven ". (págs. 56–57.)
enlaces externos
- "Inteligencia artificial" . Enciclopedia de Filosofía de Internet .
- Thomason, Richmond. "Lógica e Inteligencia Artificial" . En Zalta, Edward N. (ed.). Enciclopedia de Filosofía de Stanford .
- Inteligencia artificial , BBC Radio 4 discusión con John Agar, Alison Adam e Igor Aleksander ( In Our Time , 8 de diciembre de 2005)