La inteligencia artificial ( IA ) es la inteligencia demostrada por máquinas , a diferencia de la inteligencia natural mostrada por humanos o animales . Los principales libros de texto de IA definen el campo como el estudio de los " agentes inteligentes ": cualquier sistema que perciba su entorno y realice acciones que maximicen sus posibilidades de lograr sus objetivos. [a] Algunos relatos populares usan el término "inteligencia artificial" para describir máquinas que imitan las funciones "cognitivas" que los humanos asocian con la mente humana , como "aprender" y "resolver problemas". [B]
Las aplicaciones de inteligencia artificial incluyen motores de búsqueda web avanzados , sistemas de recomendación (utilizados por YouTube , Amazon y Netflix ), comprensión del habla humana (como Siri o Alexa ), vehículos autónomos (por ejemplo, Tesla ) y competir al más alto nivel en sistemas de juego estratégicos . (como el ajedrez y el Go ), [2] A medida que las máquinas se vuelven cada vez más capaces, las tareas que se considera que requieren "inteligencia" a menudo se eliminan de la definición de IA, un fenómeno conocido como efecto de IA . [3] Por ejemplo, el reconocimiento óptico de caracteres se excluye con frecuencia de las cosas que se consideran IA, [4] que se ha convertido en una tecnología de rutina. [5]
La inteligencia artificial se fundó como una disciplina académica en 1956, y en los años posteriores ha experimentado varias oleadas de optimismo, [6] [7] seguidas de la decepción y la pérdida de fondos (conocida como " invierno de la IA "), [8] [9] seguido de nuevos enfoques, éxito y financiación renovada. [7] [10] La investigación de la IA ha probado y descartado muchos enfoques diferentes durante su vida, incluida la simulación del cerebro , el modelado de la resolución de problemas humanos, la lógica formal, grandes bases de datos de conocimiento y la imitación del comportamiento animal. En las primeras décadas del siglo XXI, el aprendizaje automático estadístico altamente matemático ha dominado el campo, y esta técnica ha demostrado ser muy exitosa, ayudando a resolver muchos problemas desafiantes en la industria y el mundo académico. [11] [10]
Los diversos subcampos de la investigación de la IA se centran en objetivos particulares y el uso de herramientas particulares. Los objetivos tradicionales de la investigación de la IA incluyen el razonamiento , la representación del conocimiento , la planificación , el aprendizaje , el procesamiento del lenguaje natural , la percepción y la capacidad de mover y manipular objetos. [12] La inteligencia general (la capacidad de resolver un problema arbitrario) se encuentra entre los objetivos a largo plazo del campo. [13] Para resolver estos problemas, los investigadores de IA utilizan versiones de búsqueda y optimización matemática, lógica formal, redes neuronales artificiales y métodos basados en estadísticas , probabilidad y economía . La IA también se basa en la informática , la psicología , la lingüística , la filosofía y muchos otros campos.
El campo se fundó en el supuesto de que la inteligencia humana "se puede describir con tanta precisión que se puede hacer una máquina para simularla". [14] Esto plantea argumentos filosóficos sobre la mente y la ética de la creación de seres artificiales dotados de inteligencia similar a la humana. Estos temas han sido explorados por el mito , la ficción y la filosofía desde la antigüedad . [15] [c] Algunas personas también consideran que la IA es un peligro para la humanidad si progresa sin cesar. [20] [21] Otros creen que la IA, a diferencia de las revoluciones tecnológicas anteriores, creará un riesgo de desempleo masivo . [22]
Historia
De pensamiento capaz seres artificiales apareció como dispositivos de contar historias en la antigüedad, [23] y han sido comunes en la ficción, como en Mary Shelley 's Frankenstein o Karel Capek ' s RUR [24] Estos personajes y sus destinos planteó muchos de los mismos problemas ahora discutido en la ética de la inteligencia artificial . [C]
El estudio del razonamiento mecánico o "formal" comenzó con filósofos y matemáticos en la antigüedad. El estudio de la lógica matemática condujo directamente a la teoría de la computación de Alan Turing , que sugería que una máquina, al mezclar símbolos tan simples como "0" y "1", podía simular cualquier acto concebible de deducción matemática. Esta idea de que las computadoras digitales pueden simular cualquier proceso de razonamiento formal se conoce como la tesis de Church-Turing . [25] Junto con los descubrimientos simultáneos en neurobiología , teoría de la información y cibernética , esto llevó a los investigadores a considerar la posibilidad de construir un cerebro electrónico. Turing propuso cambiar la pregunta de si una máquina era inteligente a "si es posible o no que la maquinaria muestre un comportamiento inteligente". [26] El primer trabajo que ahora se reconoce generalmente como IA fue el diseño formal de McCullouch y Pitts de 1943 para las "neuronas artificiales" completas de Turing . [27]
El campo de la investigación de IA nació en un taller en Dartmouth College en 1956, [28] donde el término "Inteligencia Artificial" fue acuñado por John McCarthy para distinguir el campo de la cibernética y escapar de la influencia del cibernético Norbert Wiener . [29] Los asistentes Allen Newell ( CMU ), Herbert Simon (CMU), John McCarthy ( MIT ), Marvin Minsky (MIT) y Arthur Samuel ( IBM ) se convirtieron en los fundadores y líderes de la investigación de IA. [30] Ellos y sus estudiantes produjeron programas que la prensa describió como "asombrosos": [31] las computadoras estaban aprendiendo estrategias de damas (c. 1954) [32] (y en 1959 supuestamente estaban jugando mejor que el humano promedio), [33 ] resolver problemas verbales en álgebra, demostrar teoremas lógicos ( Teórico de la lógica , primera ejecución c. 1956) y hablar inglés. [34] A mediados de la década de 1960, la investigación en los Estados Unidos estaba fuertemente financiada por el Departamento de Defensa [35] y se habían establecido laboratorios en todo el mundo. [36] Los fundadores de AI eran optimistas sobre el futuro: Herbert Simon predijo que "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer". Marvin Minsky estuvo de acuerdo, escribiendo, "dentro de una generación ... el problema de crear 'inteligencia artificial' se resolverá sustancialmente". [6] [37]
No reconocieron la dificultad de algunas de las tareas restantes. El progreso se desaceleró y en 1974, en respuesta a las críticas de Sir James Lighthill [38] y la presión constante del Congreso de Estados Unidos para financiar proyectos más productivos, los gobiernos de Estados Unidos y Gran Bretaña interrumpieron la investigación exploratoria en IA. Los próximos años se llamarían más tarde un " invierno de IA ", [8] un período en el que era difícil obtener financiación para proyectos de IA.
A principios de la década de 1980, la investigación de la IA fue revivida por el éxito comercial de los sistemas expertos , [39] una forma de programa de IA que simulaba el conocimiento y las habilidades analíticas de los expertos humanos. En 1985, el mercado de la IA había superado los mil millones de dólares. Al mismo tiempo, el proyecto informático de quinta generación de Japón inspiró a los gobiernos de Estados Unidos y Gran Bretaña a restaurar la financiación para la investigación académica . [7] Sin embargo, a partir del colapso del mercado de Lisp Machine en 1987, la IA volvió a caer en descrédito y comenzó un segundo invierno más duradero. [9]
La IA restauró gradualmente su reputación a fines de la década de 1990 y principios del siglo XXI al encontrar soluciones específicas a problemas específicos, como la logística, la minería de datos o el diagnóstico médico . Para el año 2000, las soluciones de inteligencia artificial se usaban ampliamente entre bastidores. [11] El enfoque limitado permitió a los investigadores producir resultados verificables, explotar más métodos matemáticos y colaborar con otros campos (como la estadística , la economía y las matemáticas ). [40]
Las computadoras más rápidas , las mejoras algorítmicas y el acceso a grandes cantidades de datos permitieron avances en el aprendizaje y la percepción de las máquinas ; Los métodos de aprendizaje profundo hambrientos de datos comenzaron a dominar los puntos de referencia de precisión alrededor de 2012 . [41] Según Jack Clark de Bloomberg , 2015 fue un año histórico para la inteligencia artificial, ya que el número de proyectos de software que utilizan IA dentro de Google aumentó de un "uso esporádico" en 2012 a más de 2.700 proyectos. Clark también presenta datos fácticos que indican las mejoras de la IA desde 2012 respaldadas por tasas de error más bajas en las tareas de procesamiento de imágenes. [42] Atribuye esto a un aumento en las redes neuronales asequibles , debido a un aumento en la infraestructura de computación en la nube y a un aumento en las herramientas de investigación y conjuntos de datos. [10] En una encuesta de 2017, una de cada cinco empresas informó que había "incorporado IA en algunas ofertas o procesos". [43] [44]
Metas
El problema general de simular (o crear) inteligencia se ha dividido en subproblemas. Estos consisten en rasgos o capacidades particulares que los investigadores esperan que muestre un sistema inteligente. Los rasgos que se describen a continuación han recibido la mayor atención. [12]
Razonamiento, resolución de problemas
Los primeros investigadores desarrollaron algoritmos que imitaban el razonamiento paso a paso que los humanos usan cuando resuelven acertijos o hacen deducciones lógicas. [45] A finales de los años 80 y 90, la investigación de la IA había desarrollado métodos para tratar con información incierta o incompleta, empleando conceptos de probabilidad y economía . [46]
Estos algoritmos demostraron ser insuficientes para resolver grandes problemas de razonamiento porque experimentaron una "explosión combinatoria": se volvieron exponencialmente más lentos a medida que los problemas crecían. [47] Incluso los humanos rara vez usan la deducción paso a paso que la investigación temprana de la IA podría modelar. Resuelven la mayoría de sus problemas utilizando juicios rápidos e intuitivos. [48]
Representación del conocimiento
La representación del conocimiento [49] y la ingeniería del conocimiento [50] son fundamentales para la investigación clásica de la IA. Algunos "sistemas expertos" intentan recopilar el conocimiento explícito que poseen los expertos en algún ámbito limitado. Además, algunos proyectos intentan reunir el "conocimiento de sentido común" conocido por la persona promedio en una base de datos que contiene un amplio conocimiento sobre el mundo.
Entre las cosas que contendría una base de conocimiento comprensiva de sentido común se encuentran: objetos, propiedades, categorías y relaciones entre objetos; [51] situaciones, eventos, estados y tiempo; [52] causas y efectos; [53] conocimiento sobre el conocimiento (lo que sabemos sobre lo que saben otras personas); [54] y muchos otros dominios menos investigados.
Una representación de "lo que existe" es una ontología : el conjunto de objetos, relaciones, conceptos y propiedades descritos formalmente para que los agentes de software puedan interpretarlos. La semántica de estos se captura como conceptos, roles e individuos de lógica de descripción , y generalmente se implementa como clases, propiedades e individuos en el lenguaje de ontología web . [55] Las ontologías más generales se denominan ontologías superiores , que intentan proporcionar una base para todos los demás conocimientos [56] actuando como mediadores entre ontologías de dominio que cubren conocimientos específicos sobre un dominio de conocimiento en particular (campo de interés o área de interés) . Estas representaciones formales del conocimiento se pueden utilizar en la indexación y recuperación basadas en contenido, [57] interpretación de escenas, [58] apoyo a decisiones clínicas, [59] descubrimiento de conocimientos (extracción de inferencias "interesantes" y procesables de grandes bases de datos), [60] y otras areas. [61]
Entre los problemas más difíciles en la representación del conocimiento se encuentran:
- Razonamiento predeterminado y problema de calificación
- Muchas de las cosas que la gente sabe toman la forma de "supuestos de trabajo". Por ejemplo, si aparece un pájaro en una conversación, la gente suele imaginar un animal del tamaño de un puño que canta y vuela. Ninguna de estas cosas es cierta para todas las aves. John McCarthy identificó este problema en 1969 [62] como el problema de calificación: para cualquier regla de sentido común que los investigadores de IA se preocupan por representar, tiende a haber un gran número de excepciones. Casi nada es simplemente verdadero o falso de la forma que requiere la lógica abstracta. La investigación de la IA ha explorado una serie de soluciones a este problema. [63]
- Amplio conocimiento de sentido común
- La cantidad de hechos atómicos que conoce la persona promedio es muy grande. Los proyectos de investigación que intentan construir una base de conocimiento completa de conocimiento de sentido común (por ejemplo, Cyc ) requieren enormes cantidades de laboriosa ingeniería ontológica; deben construirse, a mano, un concepto complicado a la vez. [64]
- Forma subsimbólica de algún conocimiento de sentido común
- Gran parte de lo que la gente sabe no se representa como "hechos" o "declaraciones" que puedan expresar verbalmente. Por ejemplo, un maestro de ajedrez evitará una posición de ajedrez en particular porque "se siente demasiado expuesta" [65] o un crítico de arte puede echar un vistazo a una estatua y darse cuenta de que es una falsificación. [66] Estas son intuiciones o tendencias no conscientes y sub-simbólicas en el cerebro humano. [67] Un conocimiento como este informa, apoya y proporciona un contexto para el conocimiento consciente y simbólico.
Planificación
Los agentes inteligentes deben poder establecer metas y alcanzarlas. [68] Necesitan una forma de visualizar el futuro, una representación del estado del mundo y poder hacer predicciones sobre cómo sus acciones lo cambiarán, y poder tomar decisiones que maximicen la utilidad (o "valor"). de opciones disponibles. [69]
En los problemas de planificación clásicos, el agente puede asumir que es el único sistema que actúa en el mundo, lo que le permite estar seguro de las consecuencias de sus acciones. [70] Sin embargo, si el agente no es el único actor, entonces se requiere que el agente pueda razonar bajo incertidumbre. Esto requiere un agente que no solo pueda evaluar su entorno y hacer predicciones, sino también evaluar sus predicciones y adaptarse en función de su evaluación. [71]
La planificación de múltiples agentes utiliza la cooperación y la competencia de muchos agentes para lograr un objetivo determinado. El comportamiento emergente como este es utilizado por algoritmos evolutivos e inteligencia de enjambre . [72]
Aprendiendo
El aprendizaje automático (ML), un concepto fundamental de la investigación de la IA desde el inicio del campo, [d] es el estudio de algoritmos informáticos que mejoran automáticamente a través de la experiencia. [e] [75]
El aprendizaje no supervisado es la capacidad de encontrar patrones en un flujo de entrada, sin que sea necesario que un humano etiquete las entradas primero. El aprendizaje supervisado incluye clasificación y regresión numérica , lo que requiere que un humano etiquete primero los datos de entrada. La clasificación se usa para determinar a qué categoría pertenece algo y ocurre después de que un programa ve varios ejemplos de cosas de varias categorías. La regresión es el intento de producir una función que describa la relación entre entradas y salidas y predice cómo las salidas deberían cambiar a medida que cambian las entradas. [75] Tanto los clasificadores como los aprendices de regresión pueden verse como "aproximadores de funciones" que intentan aprender una función desconocida (posiblemente implícita); por ejemplo, un clasificador de spam puede verse como el aprendizaje de una función que asigna el texto de un correo electrónico a una de dos categorías, "spam" o "no spam". La teoría del aprendizaje computacional puede evaluar a los estudiantes por complejidad computacional , complejidad de la muestra (cuántos datos se requieren) o por otras nociones de optimización . [76] En el aprendizaje por refuerzo [77], el agente es recompensado por las buenas respuestas y castigado por las malas. El agente usa esta secuencia de recompensas y castigos para formar una estrategia para operar en su espacio de problemas.
Procesamiento natural del lenguaje
El procesamiento del lenguaje natural [78] (NLP) permite a las máquinas leer y comprender el lenguaje humano. Un sistema de procesamiento de lenguaje natural suficientemente poderoso permitiría interfaces de usuario de lenguaje natural y la adquisición de conocimiento directamente de fuentes escritas por humanos, como los textos de noticias. Algunas aplicaciones sencillas del procesamiento del lenguaje natural incluyen la recuperación de información , la minería de texto , la respuesta a preguntas y la traducción automática . [79] Muchos enfoques actuales utilizan frecuencias de co-ocurrencia de palabras para construir representaciones sintácticas de texto. Las estrategias de búsqueda de "detección de palabras clave" son populares y escalables, pero tontas; una consulta de búsqueda para "perro" solo puede coincidir con documentos con la palabra literal "perro" y perder un documento con la palabra "caniche". Las estrategias de "afinidad léxica" utilizan la aparición de palabras como "accidente" para evaluar el sentimiento de un documento. Los enfoques estadísticos modernos de PNL pueden combinar todas estas estrategias, así como otras, y a menudo logran una precisión aceptable a nivel de página o párrafo. Más allá de la PNL semántica, el objetivo final de la PNL "narrativa" es incorporar una comprensión completa del razonamiento de sentido común. [80] Para 2019, las arquitecturas de aprendizaje profundo basadas en transformadores podrían generar texto coherente. [81]
Percepción
La percepción de la máquina [82] es la capacidad de utilizar la entrada de sensores (como cámaras (espectro visible o infrarrojo), micrófonos, señales inalámbricas y sensores lidar , sonar, radar y táctiles activos ) para deducir aspectos del mundo. Las aplicaciones incluyen reconocimiento de voz , [83] reconocimiento facial y reconocimiento de objetos . [84] La visión por computadora es la capacidad de analizar la información visual. Esta información suele ser ambigua; Un peatón gigante de cincuenta metros de altura muy lejos puede producir los mismos píxeles que un peatón de tamaño normal cercano, lo que requiere que la IA juzgue la probabilidad relativa y la razonabilidad de las diferentes interpretaciones, por ejemplo, utilizando su "modelo de objeto" para evaluar que los peatones de cincuenta metros no existen. [85]
Movimiento y manipulación
La IA se utiliza mucho en robótica. [86] Los brazos robóticos avanzados y otros robots industriales , ampliamente utilizados en las fábricas modernas, pueden aprender de la experiencia cómo moverse de manera eficiente a pesar de la presencia de fricción y deslizamiento de los engranajes. [87] Un robot móvil moderno, cuando se le da un entorno pequeño, estático y visible, puede determinar fácilmente su ubicación y trazar un mapa de su entorno; sin embargo, los entornos dinámicos, como (en la endoscopia ) el interior del cuerpo respiratorio de un paciente, plantean un desafío mayor. La planificación del movimiento es el proceso de dividir una tarea de movimiento en "primitivas", como los movimientos individuales de las articulaciones. Tal movimiento a menudo implica un movimiento dócil, un proceso en el que el movimiento requiere mantener el contacto físico con un objeto. [88] [89] [90] La paradoja de Moravec generaliza que las habilidades sensomotoras de bajo nivel que los humanos dan por sentado son, contraintuitivamente, difíciles de programar en un robot; la paradoja lleva el nombre de Hans Moravec , quien declaró en 1988 que "es comparativamente fácil hacer que las computadoras exhiban un rendimiento de nivel adulto en pruebas de inteligencia o jugando a las damas, y difícil o imposible darles las habilidades de un niño de un año cuando llega a la percepción y la movilidad ". [91] [92] Esto se atribuye al hecho de que, a diferencia de las damas, la destreza física ha sido un objetivo directo de la selección natural durante millones de años. [93]
Inteligencia social
La computación afectiva es un paraguas interdisciplinario que comprende sistemas que reconocen, interpretan, procesan o simulan los afectos humanos . [95] [96] [97] Por ejemplo, algunos asistentes virtuales están programados para hablar en forma conversacional o incluso para bromear con humor; los hace parecer más sensibles a la dinámica emocional de la interacción humana, o para facilitar la interacción humano-computadora . [98] Sin embargo, esto tiende a dar a los usuarios ingenuos una concepción poco realista de cuán inteligentes son en realidad los agentes informáticos existentes. [99] Los éxitos moderados relacionados con la computación afectiva incluyen el análisis de sentimiento textual y, más recientemente, el análisis de afecto multimodal (ver análisis de sentimiento multimodal ), donde la IA clasifica los afectos mostrados por un sujeto grabado en video. [100]
Inteligencia general
La inteligencia general es la capacidad de afrontar cualquier problema arbitrario. La investigación actual de IA, en su mayor parte, solo ha producido programas que pueden resolver exactamente un problema. Muchos investigadores predicen que ese trabajo de "IA estrecha" en diferentes dominios individuales eventualmente se incorporará a una máquina con inteligencia general, combinando la mayoría de las habilidades limitadas mencionadas en este artículo y en algún momento incluso superando la capacidad humana en la mayoría o en todas estas áreas. [13] [101] El subcampo de la inteligencia artificial general (o "AGI") estudia la inteligencia general exclusivamente. [102]
Enfoques
Durante la mayor parte de su historia, ninguna teoría o paradigma unificador establecido ha guiado la investigación de la IA. [f] La investigación de la IA se dividió en subcampos en competencia que a menudo no se comunicaban entre sí. [g] Algunos de estos subcampos se basan en consideraciones técnicas, como objetivos particulares (por ejemplo, " robótica " o " aprendizaje automático "), [12] el uso de herramientas particulares (" lógica " o redes neuronales artificiales ) o redes sociales factores (por ejemplo, instituciones o investigadores en particular), pero también provienen de profundas diferencias filosóficas que llevaron a enfoques muy diferentes de la IA.
El éxito sin precedentes del aprendizaje automático estadístico en la década de 2010 eclipsó todos los demás enfoques, tanto que algunas fuentes (especialmente en el mundo empresarial) utilizan el término "inteligencia artificial" para referirse a "aprendizaje automático con redes neuronales". Sin embargo, las preguntas que han dividido históricamente la investigación de la IA han quedado sin respuesta y es posible que deban ser revisadas por investigaciones futuras. [105] [106] Algunas de las preguntas más antiguas que han quedado sin respuesta son las siguientes:
- ¿Debería la inteligencia artificial simular la inteligencia natural mediante el estudio de la psicología o la neurobiología ? ¿O es la biología humana tan irrelevante para la investigación de la IA como la biología de las aves para la ingeniería aeronáutica ? [h]
- ¿Se puede describir el comportamiento inteligente utilizando principios simples y elegantes (como la lógica o la optimización )? ¿O requiere necesariamente resolver una gran cantidad de problemas no relacionados? [109]
- ¿Podemos escribir programas que encuentren soluciones comprobablemente correctas a un problema dado (por ejemplo, usando lógica simbólica y conocimiento)? ¿O usamos algoritmos que solo pueden darnos una solución "razonable" (por ejemplo, métodos probabilísticos) pero pueden ser víctimas del mismo tipo de errores inescrutables que comete la intuición humana? [110] [105]
- ¿Debería la IA perseguir directamente los objetivos de la inteligencia artificial general y la superinteligencia ? ¿O es mejor resolver tantos problemas específicos como sea posible y esperar que estas soluciones conduzcan indirectamente a los objetivos a largo plazo del campo? [102] [13] [101]
Cibernética y simulación cerebral
En las décadas de 1940 y 1950, varios investigadores exploraron la conexión entre la neurobiología , la teoría de la información y la cibernética . [111] En 1960, este enfoque se abandonó en gran medida, aunque algunos elementos se revivieron en la década de 1980.
Simbólico
Cuando el acceso a las computadoras digitales se hizo posible a mediados de la década de 1950, la investigación de la inteligencia artificial comenzó a explorar la posibilidad de que la inteligencia humana pudiera reducirse a la manipulación de símbolos. La investigación se centró en tres instituciones: Carnegie Mellon University , Stanford y MIT y, como se describe a continuación, cada una desarrolló su propio estilo de investigación. John Haugeland denominó estos enfoques simbólicos de la IA como "buena IA pasada de moda" o " GOFAI ". [112] Durante la década de 1960, los enfoques simbólicos habían logrado un gran éxito en la simulación del "pensamiento" de alto nivel en pequeños programas de demostración, y en la década de 1980 logró un gran éxito con sistemas expertos . [39] Los enfoques basados en la cibernética o las redes neuronales artificiales fueron abandonados o relegados a un segundo plano. Los investigadores de las décadas de 1960 y 1970 estaban convencidos de que los enfoques simbólicos eventualmente lograrían crear una máquina con inteligencia general artificial y consideraron que este era el objetivo de su campo.
Sub-simbólico temprano
En la década de 1980, el progreso en la IA simbólica parecía estancarse y muchos creían que los sistemas simbólicos nunca serían capaces de imitar todos los procesos de la cognición humana, especialmente la percepción , la robótica, el aprendizaje y el reconocimiento de patrones . Varios investigadores comenzaron a estudiar enfoques "sub-simbólicos" para problemas específicos de IA. [113] Los métodos sub-simbólicos logran acercarse a la inteligencia sin representaciones específicas del conocimiento.
- Inteligencia encarnada
TR Investigadores del campo relacionado de la robótica, como Rodney Brooks , rechazaron la IA simbólica y se centraron en los problemas básicos de ingeniería que permitirían a los robots moverse, sobrevivir y aprender su entorno. Llamaron a su trabajo por varios nombres: por ejemplo , encarnado , situado , basado en el comportamiento o evolutivo . [i] Su trabajo revivió el punto de vista no simbólico de los primeros investigadores en cibernética de la década de 1950. Esto coincidió con el desarrollo de la tesis de la mente incorporada en el campo relacionado de la ciencia cognitiva : la idea de que los aspectos del cuerpo (como el movimiento, la percepción y la visualización) son necesarios para una inteligencia superior.
- Computación blanda
La informática blanda encuentra soluciones a problemas que no pueden resolverse con total certeza lógica y en los que una solución aproximada suele ser suficiente. Los enfoques de computación blanda para la IA incluyen redes neuronales , sistemas difusos , teoría del sistema Gray , computación evolutiva y muchas herramientas extraídas de la estadística o la optimización matemática . El interés por las redes neuronales y el " conexionismo " fue revivido por Geoffrey Hinton , David Rumelhart y otros a mediados de la década de 1980. [114] La aplicación de la computación blanda a la IA es el foco del subcampo de la inteligencia computacional . [110] La IA estadística moderna también es una forma de computación suave.
Estadístico
En la década de 1990, los investigadores de IA adoptaron herramientas matemáticas sofisticadas, como los modelos ocultos de Markov (HMM), la teoría de la información y la teoría normativa de decisiones bayesianas para comparar o unificar arquitecturas competidoras. El lenguaje matemático compartido permitió un alto nivel de colaboración con campos más establecidos (como matemáticas , economía o investigación de operaciones ). [j] En comparación con GOFAI, las nuevas técnicas de "aprendizaje estadístico" como HMM y redes neuronales estaban ganando niveles más altos de precisión en muchos dominios prácticos como la minería de datos , sin adquirir necesariamente una comprensión semántica de los conjuntos de datos. Los mayores éxitos con datos del mundo real llevaron a un mayor énfasis en la comparación de diferentes enfoques con datos de prueba compartidos para ver qué enfoque funcionó mejor en un contexto más amplio que el proporcionado por modelos de juguetes idiosincrásicos; La investigación de la IA se estaba volviendo más científica . Hoy en día, los resultados de los experimentos son a menudo rigurosamente medibles y, a veces (con dificultad) reproducibles. [40] [115] Las diferentes técnicas de aprendizaje estadístico tienen diferentes limitaciones; por ejemplo, HMM básico no puede modelar las infinitas combinaciones posibles de lenguaje natural. [116]
Los críticos (como Noam Chomsky ) señalan que el cambio de GOFAI al aprendizaje estadístico a menudo también se aleja de la IA explicable . En la investigación de AGI, algunos académicos advierten contra la dependencia excesiva del aprendizaje estadístico y argumentan que la investigación continua sobre GOFAI seguirá siendo necesaria para lograr la inteligencia general. [105] [106] y
Inteligencia artificial general (AGI)
Bernard Goetz y otros se preocuparon de que la IA ya no persiguiera el objetivo original de crear máquinas versátiles y completamente inteligentes. La IA estadística se utiliza de forma abrumadora para resolver problemas específicos, incluso técnicas de gran éxito como el aprendizaje profundo . Ellos fundaron el subcampo de inteligencia artificial general (o "AGI"), que tenía varias instituciones bien financiadas en la década de 2010. [102] [13] [101]
Herramientas
Aplicaciones
La IA es relevante para cualquier tarea intelectual. [117] Las técnicas modernas de inteligencia artificial son omnipresentes [118] y son demasiado numerosas para enumerarlas aquí. Con frecuencia, cuando una técnica alcanza el uso generalizado, ya no se considera inteligencia artificial; este fenómeno se describe como el efecto AI . [119]
Ejemplos de IA de alto perfil incluyen vehículos autónomos (como drones y coches autónomos ), diagnóstico médico, creación de arte (como poesía), demostración de teoremas matemáticos, juegos (como Chess o Go), motores de búsqueda (como Búsqueda de Google ), asistentes en línea (como Siri ), reconocimiento de imágenes en fotografías, filtrado de spam, predicción de retrasos en los vuelos, [120] predicción de decisiones judiciales, [121] publicidad en línea dirigida, [117] [122] [123] y energía almacenamiento [124]
Dado que los sitios de redes sociales superan a la televisión como fuente de noticias para los jóvenes y las organizaciones de noticias dependen cada vez más de las plataformas de redes sociales para generar distribución, [125] los principales editores ahora utilizan la tecnología de inteligencia artificial (IA) para publicar historias de manera más eficaz y generar mayores volúmenes de información. tráfico. [126]
La IA también puede producir Deepfakes , una tecnología que altera el contenido. ZDNet informa, "Presenta algo que en realidad no ocurrió", aunque el 88% de los estadounidenses cree que los deepfakes pueden causar más daño que bien, solo el 47% de ellos cree que pueden ser atacados. El auge del año electoral también abre el discurso público a las amenazas de videos de medios políticos falsificados. [127]
Filosofia y etica
Hay tres cuestiones filosóficas relacionadas con la IA: [128]
- Si es posible la inteligencia artificial general ; si una máquina puede resolver cualquier problema que un ser humano pueda resolver usando inteligencia, o si existen límites estrictos para lo que una máquina puede lograr.
- Si las máquinas inteligentes son peligrosas; cómo los seres humanos pueden garantizar que las máquinas se comporten de forma ética y que se utilicen de forma ética.
- Si una máquina puede tener mente , conciencia y estados mentales en el mismo sentido que los seres humanos; si una máquina puede ser sensible y, por lo tanto, merece ciertos derechos, y si una máquina puede causar daño intencionalmente .
Los límites de la inteligencia artificial general
- La "convención cortés" de Alan Turing
- No es necesario decidir si una máquina puede "pensar"; basta con decidir si una máquina puede actuar con la misma inteligencia que un ser humano. Este enfoque de los problemas filosóficos asociados con la inteligencia artificial forma la base de la prueba de Turing . [129]
- La propuesta de Dartmouth
- "Cada aspecto del aprendizaje o cualquier otra característica de la inteligencia se puede describir con tanta precisión que se puede hacer una máquina para simularlo". Esta conjetura se imprimió en la propuesta para la Conferencia de Dartmouth de 1956. [130]
- Hipótesis del sistema de símbolos físicos de Newell y Simon
- "Un sistema de símbolos físicos tiene los medios necesarios y suficientes para la acción inteligente general". Newell y Simon argumentan que la inteligencia consiste en operaciones formales sobre símbolos. [131] Hubert Dreyfus sostiene que, por el contrario, la pericia humana depende del instinto inconsciente más que de la manipulación consciente de los símbolos, y de tener una "sensación" de la situación, más que del conocimiento simbólico explícito. (Véase la crítica de Dreyfus a AI ). [K] [133]
- Argumentos de Gödelia
- El propio Gödel , [134] John Lucas (en 1961) y Roger Penrose (en un argumento más detallado de 1989 en adelante) hicieron argumentos altamente técnicos de que los matemáticos humanos pueden ver consistentemente la verdad de sus propias "declaraciones de Gödel" y por lo tanto tienen habilidades computacionales más allá el de las máquinas mecánicas de Turing. [135] Sin embargo, algunas personas no están de acuerdo con los "argumentos de Gödelia". [136] [137] [138]
- El argumento del cerebro artificial
- Un argumento que afirma que el cerebro puede ser simulado por máquinas y, dado que los cerebros exhiben inteligencia, estos cerebros simulados también deben exhibir inteligencia; ergo, las máquinas pueden ser inteligentes. Hans Moravec , Ray Kurzweil y otros han argumentado que es tecnológicamente factible copiar el cerebro directamente en hardware y software, y que dicha simulación será esencialmente idéntica a la original. [139]
- El efecto AI
- Una hipótesis que afirma que las máquinas ya son inteligentes, pero los observadores no lo han reconocido. Por ejemplo, cuando Deep Blue venció a Garry Kasparov en ajedrez, la máquina podría describirse como exhibiendo inteligencia. Sin embargo, los espectadores comúnmente descartan el comportamiento de un programa de inteligencia artificial argumentando que no es inteligencia "real", y que la inteligencia "real" se define de hecho como cualquier comportamiento que las máquinas no puedan hacer.
Máquinas éticas
Las máquinas con inteligencia tienen el potencial de usar su inteligencia para prevenir daños y minimizar los riesgos; pueden tener la capacidad de utilizar el razonamiento ético para elegir mejor sus acciones en el mundo. Como tal, existe la necesidad de formular políticas para diseñar políticas y regular la inteligencia artificial y la robótica. [140] La investigación en esta área incluye la ética de las máquinas , los agentes morales artificiales , la inteligencia artificial amigable y la discusión sobre la construcción de un marco de derechos humanos también está en conversaciones. [141]
Joseph Weizenbaum en Computer Power and Human Reason escribió que las aplicaciones de IA no pueden, por definición, simular con éxito la empatía humana genuina y que el uso de la tecnología de IA en campos como el servicio al cliente o la psicoterapia [l] estaba profundamente equivocado. A Weizenbaum también le molestó que los investigadores de IA (y algunos filósofos) estuvieran dispuestos a ver la mente humana como nada más que un programa de computadora (una posición ahora conocida como computacionalismo ). Para Weizenbaum, estos puntos sugieren que la investigación de la IA devalúa la vida humana. [143]
Agentes morales artificiales
Wendell Wallach introdujo el concepto de agentes morales artificiales (AMA) en su libro Moral Machines [144] Para Wallach, los AMA se han convertido en parte del panorama de investigación de la inteligencia artificial guiados por sus dos preguntas centrales que él identifica como "¿Quiere la humanidad Computadoras que toman decisiones morales " [145] y" ¿Pueden los (Ro) bots realmente ser morales ". [146] Para Wallach, la cuestión no se centra en la cuestión de si las máquinas pueden demostrar el equivalente del comportamiento moral, a diferencia de las limitaciones que la sociedad puede imponer al desarrollo de AMA. [147]
Ética de la máquina
El campo de la ética de las máquinas se preocupa por dar a las máquinas principios éticos, o un procedimiento para descubrir una forma de resolver los dilemas éticos que puedan encontrar, permitiéndoles funcionar de una manera éticamente responsable a través de su propia toma de decisiones éticas. [148] El campo se delineó en el Simposio sobre ética de las máquinas de la AAAI de otoño de 2005: "Las investigaciones anteriores sobre la relación entre la tecnología y la ética se han centrado en gran medida en el uso responsable e irresponsable de la tecnología por parte de los seres humanos, y algunas personas están interesadas en cómo Los seres humanos deben tratar a las máquinas. En todos los casos, solo los seres humanos se han involucrado en el razonamiento ético. Ha llegado el momento de agregar una dimensión ética al menos a algunas máquinas. Reconocimiento de las ramificaciones éticas del comportamiento que involucra máquinas, así como las recientes y potenciales Los avances en la autonomía de la máquina, lo requieren. En contraste con la piratería informática, los problemas de propiedad del software, los problemas de privacidad y otros temas normalmente adscritos a la ética informática, la ética de la máquina se ocupa del comportamiento de las máquinas hacia los usuarios humanos y otras máquinas. clave para aliviar las preocupaciones con los sistemas autónomos, se podría argumentar que la noción de máquinas autónomas sin s uch una dimensión está en la raíz de todos los miedos relacionados con la inteligencia de las máquinas. Además, la investigación de la ética de las máquinas podría permitir el descubrimiento de problemas con las teorías éticas actuales, avanzando nuestro pensamiento sobre la ética ". [149] La ética de las máquinas a veces se denomina moralidad de las máquinas, ética computacional o moralidad computacional. Una variedad de perspectivas de este incipiente El campo se puede encontrar en la edición recopilada "Machine Ethics" [148] que se deriva del Simposio AAAI de otoño de 2005 sobre ética de las máquinas. [149]
IA malévola y amigable
El politólogo Charles T. Rubin cree que la IA no puede diseñarse ni garantizarse que sea benévola. [150] Sostiene que "cualquier benevolencia suficientemente avanzada puede ser indistinguible de la malevolencia". Los seres humanos no deberían asumir que las máquinas o los robots nos tratarían favorablemente porque no hay una razón a priori para creer que simpatizarían con nuestro sistema de moralidad, que ha evolucionado junto con nuestra biología particular (que las IA no compartirían). Es posible que el software hiperinteligente no decida necesariamente respaldar la existencia continua de la humanidad y sería extremadamente difícil de detener. Este tema también ha comenzado recientemente a ser discutido en publicaciones académicas como una fuente real de riesgos para la civilización, los humanos y el planeta Tierra.
Una propuesta para hacer frente a esto es garantizar que la primera IA generalmente inteligente sea la ' IA amigable ' y pueda controlar las IA desarrolladas posteriormente. Algunos se preguntan si este tipo de control podría permanecer en su lugar.
El investigador principal de IA Rodney Brooks escribe: "Creo que es un error preocuparnos por que desarrollemos IA malévola en los próximos cientos de años. Creo que la preocupación surge de un error fundamental al no distinguir la diferencia entre los avances recientes muy reales en un aspecto particular de la IA y la enormidad y complejidad de construir inteligencia volitiva sensible ". [151]
Las armas autónomas letales son motivo de preocupación. Actualmente, más de 50 países están investigando robots de campo de batalla, incluidos los Estados Unidos, China, Rusia y el Reino Unido. Muchas personas preocupadas por el riesgo de la IA superinteligente también quieren limitar el uso de soldados artificiales y drones. [152]
Conciencia, sensibilidad y mente de la máquina
Si un sistema de inteligencia artificial replica todos los aspectos clave de la inteligencia humana, ¿tendrá una mente que tenga experiencias conscientes ? Esta cuestión está estrechamente relacionada con el problema filosófico de la naturaleza de la conciencia humana, al que generalmente se hace referencia como el problema difícil de la conciencia .
Conciencia
David Chalmers identificó dos problemas para comprender la mente, a los que denominó problemas de conciencia "difíciles" y "fáciles". [153] El problema fácil es comprender cómo el cerebro procesa las señales, hace planes y controla el comportamiento. El problema difícil es explicar cómo se siente esto o por qué debería sentirse como algo. El procesamiento de la información humana es fácil de explicar, sin embargo, la experiencia subjetiva humana es difícil de explicar.
Por ejemplo, considere lo que sucede cuando a una persona se le muestra una muestra de color y la identifica diciendo "es rojo". El problema fácil solo requiere comprender la maquinaria en el cerebro que hace posible que una persona sepa que la muestra de color es roja. El problema difícil es que las personas también saben algo más: también saben cómo se ve el rojo . (Considere que una persona ciega de nacimiento puede saber que algo es rojo sin saber cómo se ve el rojo). [M] Todos saben que la experiencia subjetiva existe, porque la hacen todos los días (por ejemplo, todas las personas videntes saben cómo se ve el rojo). El problema difícil es explicar cómo lo crea el cerebro, por qué existe y en qué se diferencia del conocimiento y otros aspectos del cerebro.
Computacionalismo y funcionalismo
El computacionalismo es la posición en la filosofía de la mente de que la mente humana o el cerebro humano (o ambos) es un sistema de procesamiento de información y que el pensamiento es una forma de computación. [154] El computacionalismo sostiene que la relación entre la mente y el cuerpo es similar o idéntica a la relación entre el software y el hardware y, por lo tanto, puede ser una solución al problema de la mente y el cuerpo . Esta posición filosófica se inspiró en el trabajo de los investigadores de inteligencia artificial y los científicos cognitivos en la década de 1960 y fue propuesta originalmente por los filósofos Jerry Fodor e Hilary Putnam .
Fuerte hipótesis de IA
La posición filosófica que John Searle ha llamado "IA fuerte" establece: "La computadora programada apropiadamente con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido que los seres humanos tienen mente". [n] Searle contrarresta esta afirmación con su argumento de la habitación china , que nos pide que miremos dentro de la computadora y tratemos de encontrar dónde podría estar la "mente". [156]
Derechos de robot
Si se puede crear una máquina que tenga inteligencia, ¿podría también sentir ? Si puede sentir, ¿tiene los mismos derechos que un ser humano? Este tema, ahora conocido como " derechos de los robots ", está siendo considerado actualmente, por ejemplo, por el Instituto para el Futuro de California , aunque muchos críticos creen que la discusión es prematura. [157] [158] Algunos críticos del transhumanismo argumentan que cualquier hipotético derecho de robot estaría en un espectro con los derechos de los animales y los derechos humanos. [159] El tema se discute profundamente en el documental de 2010 Plug & Pray , [160] y en muchos medios de ciencia ficción como Star Trek Next Generation, con el personaje de Commander Data , que luchó por ser desmontado para la investigación y quería " convertirse en humano ", y los hologramas robóticos en la Voyager.
Futuro de la IA
Superinteligencia
Una superinteligencia, hiperinteligencia o inteligencia sobrehumana es un agente hipotético que poseería una inteligencia muy superior a la de la mente humana más brillante y dotada. La superinteligencia también puede referirse a la forma o grado de inteligencia que posee dicho agente. [101]
Singularidad tecnológica
Si la investigación sobre Strong AI produjera un software suficientemente inteligente, podría reprogramarse y mejorarse a sí mismo. El software mejorado sería incluso mejor para mejorarse a sí mismo, lo que conduciría a la superación personal recurrente . [161] La nueva inteligencia podría así aumentar exponencial y dramáticamente sobrepasar a los humanos. El escritor de ciencia ficción Vernor Vinge llamó a este escenario " singularidad ". [162] La singularidad tecnológica es cuando el progreso acelerado de las tecnologías provocará un efecto desbocado en el que la inteligencia artificial superará la capacidad intelectual y el control humanos, cambiando radicalmente o incluso acabando con la civilización. Debido a que las capacidades de tal inteligencia pueden ser imposibles de comprender, la singularidad tecnológica es un acontecimiento más allá del cual los eventos son impredecibles o incluso insondables. [162] [101]
Ray Kurzweil ha utilizado la ley de Moore (que describe la implacable mejora exponencial de la tecnología digital) para calcular que las computadoras de escritorio tendrán la misma potencia de procesamiento que los cerebros humanos para el año 2029 y predice que la singularidad ocurrirá en 2045. [162]
Transhumanismo
El diseñador de robots Hans Moravec , el cibernético Kevin Warwick y el inventor Ray Kurzweil han predicho que los humanos y las máquinas se fusionarán en el futuro en cyborgs que son más capaces y poderosos que cualquiera de los dos. [163] Esta idea, llamada transhumanismo , tiene sus raíces en Aldous Huxley y Robert Ettinger .
Edward Fredkin sostiene que "la inteligencia artificial es la siguiente etapa en la evolución", una idea propuesta por primera vez por " Darwin entre las máquinas " de Samuel Butler ya en 1863, y ampliada por George Dyson en su libro del mismo nombre en 1998. [164]
Impacto
Los efectos económicos a largo plazo de la IA son inciertos. Una encuesta de economistas mostró desacuerdo sobre si el uso cada vez mayor de robots e inteligencia artificial provocará un aumento sustancial del desempleo a largo plazo , pero en general coinciden en que podría ser un beneficio neto, si se redistribuyen las ganancias de productividad . [165] Un estudio de 2017 de PricewaterhouseCoopers considera que la República Popular de China es la que obtiene el máximo rendimiento económico de la IA con un 26,1% del PIB hasta 2030. [166] Un libro blanco de la Unión Europea de febrero de 2020 sobre inteligencia artificial propugnaba la inteligencia artificial para fines económicos. beneficios, incluyendo "mejorar la atención médica (por ejemplo, hacer el diagnóstico más preciso, permitir una mejor prevención de enfermedades), aumentar la eficiencia de la agricultura, contribuir a la mitigación y adaptación al cambio climático, [y] mejorar la eficiencia de los sistemas de producción a través del mantenimiento predictivo", al tiempo que se reconoce riesgos potenciales. [118]
La relación entre automatización y empleo es complicada. Si bien la automatización elimina los empleos antiguos, también crea nuevos empleos a través de efectos microeconómicos y macroeconómicos. [167] A diferencia de las oleadas anteriores de automatización, muchos trabajos de clase media pueden ser eliminados por la inteligencia artificial; The Economist afirma que "vale la pena tomar en serio la preocupación de que la inteligencia artificial pueda causarles a los trabajos administrativos lo que la energía del vapor les hizo a los trabajadores manuales durante la Revolución Industrial". [168] Las estimaciones subjetivas del riesgo varían ampliamente; por ejemplo, Michael Osborne y Carl Benedikt Frey estiman que el 47% de los puestos de trabajo estadounidenses tienen "alto riesgo" de automatización potencial, mientras que un informe de la OCDE clasifica sólo el 9% de los empleos estadounidenses como "de alto riesgo". [169] [170] [171] Los trabajos con riesgo extremo van desde asistentes legales hasta cocineros de comida rápida, mientras que es probable que aumente la demanda de trabajo para las profesiones relacionadas con el cuidado que van desde la atención médica personal hasta el clero. [172] El autor Martin Ford y otros van más allá y argumentan que muchos trabajos son rutinarios, repetitivos y (para una IA) predecibles; Ford advierte que estos trabajos pueden automatizarse en las próximas dos décadas, y que muchos de los nuevos trabajos pueden no ser "accesibles para personas con capacidad promedio", incluso con reentrenamiento. Los economistas señalan que en el pasado la tecnología ha tendido a aumentar en lugar de reducir el empleo total, pero reconocen que "estamos en un territorio desconocido" con la IA. [22]
Los posibles efectos negativos de la gripe aviar y la automatización eran un problema importante para Andrew Yang 's 2020 campaña presidencial en los Estados Unidos. [173] Irakli Beridze, director del Centro de Inteligencia Artificial y Robótica del UNICRI, Naciones Unidas, ha expresado que "creo que las aplicaciones peligrosas de la IA, desde mi punto de vista, serían los delincuentes o las grandes organizaciones terroristas que la utilizan para interrumpir procesos grandes o simplemente hacer daño puro. [Los terroristas podrían causar daño] a través de la guerra digital, o podría ser una combinación de robótica, drones, con inteligencia artificial y otras cosas que podrían ser realmente peligrosas. Y, por supuesto, existen otros riesgos de cosas como la pérdida de puestos de trabajo. Si tenemos un gran número de personas que pierden sus puestos de trabajo y no encontramos una solución, será extremadamente peligroso. Cosas como los sistemas de armas autónomas letales deben gobernarse adecuadamente; de lo contrario, existe un enorme potencial de mal uso ". [174]
Riesgos de la IA estrecha
El uso generalizado de la inteligencia artificial podría tener consecuencias no deseadas que son peligrosas o indeseables. Los científicos del Future of Life Institute , entre otros, describieron algunos objetivos de investigación a corto plazo para ver cómo la IA influye en la economía, las leyes y la ética que están involucradas con la IA y cómo minimizar los riesgos de seguridad de la IA. A largo plazo, los científicos se han propuesto seguir optimizando la función al tiempo que se minimizan los posibles riesgos de seguridad que conllevan las nuevas tecnologías. [175]
A algunos les preocupa el sesgo algorítmico , ya que los programas de inteligencia artificial pueden sesgarse involuntariamente después de procesar datos que exhiben sesgos. [176] Los algoritmos ya tienen numerosas aplicaciones en los sistemas legales. Un ejemplo de esto es COMPAS , un programa comercial ampliamente utilizado por los tribunales estadounidenses para evaluar la probabilidad de que un acusado se convierta en reincidente . ProPublica afirma que el nivel de riesgo de reincidencia promedio asignado por COMPAS a los acusados negros es significativamente más alto que el nivel de riesgo promedio asignado por COMPAS a los acusados blancos. [177]
Riesgos de la IA general
El físico Stephen Hawking , el fundador de Microsoft Bill Gates , el profesor de historia Yuval Noah Harari y el fundador de SpaceX , Elon Musk, han expresado su preocupación por la posibilidad de que la IA evolucione hasta el punto de que los humanos no puedan controlarla, y Hawking teoriza que esto podría " significar el final". de la raza humana ". [178] [179] [180] [181]
El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana. Una vez que los humanos desarrollen inteligencia artificial, despegará por sí sola y se rediseñará a un ritmo cada vez mayor. Los humanos, que están limitados por la lenta evolución biológica, no podrían competir y serían reemplazados.
- Stephen Hawking [182]
En su libro Superintelligence , el filósofo Nick Bostrom ofrece un argumento de que la inteligencia artificial representará una amenaza para la humanidad. Argumenta que la IA suficientemente inteligente, si elige acciones basadas en el logro de algún objetivo, exhibirá un comportamiento convergente , como adquirir recursos o protegerse de ser apagada. Si los objetivos de esta IA no reflejan plenamente los de la humanidad (un ejemplo es una IA que calcule tantos dígitos de pi como sea posible), podría dañar a la humanidad para adquirir más recursos o evitar que se apague, en última instancia, para lograr mejor su objetivo. . Bostrom también enfatiza la dificultad de transmitir completamente los valores de la humanidad a una IA avanzada. Utiliza el ejemplo hipotético de darle a una IA el objetivo de hacer sonreír a los humanos para ilustrar un intento equivocado. Si la IA en ese escenario se volviera superinteligente, argumenta Bostrom, podría recurrir a métodos que la mayoría de los humanos encontrarían horribles, como insertar "electrodos en los músculos faciales de los humanos para causar sonrisas radiantes y constantes" porque eso sería un método eficiente. manera de lograr su objetivo de hacer sonreír a los humanos. [183] En su libro Compatible con humanos , el investigador de inteligencia artificial Stuart J. Russell se hace eco de algunas de las preocupaciones de Bostrom al mismo tiempo que propone un enfoque para desarrollar máquinas demostrablemente beneficiosas centradas en la incertidumbre y la deferencia hacia los humanos, [184] : 173 posiblemente implicando aprendizaje por refuerzo inverso . [184] : 191–193
La preocupación por el riesgo de la inteligencia artificial ha llevado a algunas donaciones e inversiones de alto perfil. Un grupo de prominentes titanes de la tecnología, incluidos Peter Thiel , Amazon Web Services y Musk, han comprometido mil millones de dólares para OpenAI , una empresa sin fines de lucro destinada a promover el desarrollo responsable de la inteligencia artificial. [185] La opinión de los expertos en el campo de la inteligencia artificial es mixta, con fracciones considerables preocupadas y despreocupadas por el riesgo de una eventual IA con capacidad sobrehumana. [186] Otros líderes de la industria tecnológica creen que la inteligencia artificial es útil en su forma actual y continuará ayudando a los humanos. El director ejecutivo de Oracle, Mark Hurd, ha declarado que la IA "en realidad creará más puestos de trabajo, no menos", ya que se necesitarán seres humanos para gestionar los sistemas de IA. [187] El director ejecutivo de Facebook, Mark Zuckerberg, cree que la IA "desbloqueará una gran cantidad de cosas positivas", como curar enfermedades y aumentar la seguridad de los coches autónomos. [188] En enero de 2015, Musk donó $ 10 millones al Future of Life Institute para financiar la investigación sobre la comprensión de la toma de decisiones de la IA. El objetivo del instituto es "cultivar la sabiduría con la que gestionamos" el creciente poder de la tecnología. Musk también financia empresas que desarrollan inteligencia artificial como DeepMind y Vicarious para "simplemente vigilar lo que sucede con la inteligencia artificial. [189] Creo que hay un resultado potencialmente peligroso allí". [190] [191]
Para que se materialice el peligro de la IA avanzada incontrolada, la IA hipotética tendría que dominar o superar a toda la humanidad, lo que una minoría de expertos argumenta es una posibilidad lo suficientemente lejana en el futuro como para que no valga la pena investigarla. [192] [193] Otros contraargumentos giran en torno a que los seres humanos son intrínseca o convergente valiosos desde la perspectiva de una inteligencia artificial. [194]
Regulación
La regulación de la inteligencia artificial es el desarrollo de políticas y leyes del sector público para promover y regular la inteligencia artificial (IA); [195] [196], por lo tanto, está relacionado con la regulación más amplia de los algoritmos . El panorama normativo y de políticas para la IA es un problema emergente en jurisdicciones de todo el mundo, incluida la Unión Europea. [197] La regulación se considera necesaria tanto para fomentar la IA como para gestionar los riesgos asociados. [198] [199] La regulación de la IA a través de mecanismos como las juntas de revisión también puede verse como un medio social para abordar el problema del control de la IA . [200]
Dadas las preocupaciones sobre la explotación de datos, la Unión Europea también desarrolló una política de inteligencia artificial, con un grupo de trabajo que estudia formas de asegurar la confianza en el uso de la inteligencia artificial. Estos se publicaron en dos libros blancos que parecían haber pasado desapercibidos en medio de la pandemia de COVID-19. Una de las políticas sobre inteligencia artificial se llama Un enfoque europeo hacia la excelencia y la confianza. [201] [202] [203]
En ficción
Los seres artificiales capaces de pensar aparecieron como dispositivos para contar historias desde la antigüedad, [23] y han sido un tema persistente en la ciencia ficción .
Un común tropo en estas obras se inició con Mary Shelley 's Frankenstein , donde una creación humana se convierte en una amenaza para sus amos. Esto incluye obras como Arthur C. Clarke y Stanley Kubrick's 2001: A Space Odyssey (ambas de 1968), con HAL 9000 , la computadora asesina a cargo de la nave espacial Discovery One , así como The Terminator (1984) y The Matrix (1999). ). En contraste, los raros robots leales como Gort de The Day the Earth Stood Still (1951) y Bishop from Aliens (1986) son menos prominentes en la cultura popular. [204]
Isaac Asimov introdujo las Tres Leyes de la Robótica en muchos libros e historias, sobre todo en la serie "Multivac" sobre una computadora superinteligente del mismo nombre. Las leyes de Asimov a menudo se plantean durante las discusiones profanas sobre la ética de las máquinas; [205] mientras que casi todos los investigadores de inteligencia artificial están familiarizados con las leyes de Asimov a través de la cultura popular, generalmente consideran que las leyes son inútiles por muchas razones, una de las cuales es su ambigüedad. [206]
El transhumanismo (la fusión de humanos y máquinas) se explora en el manga Ghost in the Shell y la serie de ciencia ficción Dune . En la década de 1980, la serie Sexy Robots del artista Hajime Sorayama se pintó y publicó en Japón que representa la forma humana orgánica real con pieles metálicas musculosas realistas y luego siguió el libro "The Gynoids" que fue utilizado o influido por cineastas como George Lucas y otros. creatividades. Sorayama nunca consideró que estos robots orgánicos fueran parte real de la naturaleza, sino siempre un producto antinatural de la mente humana, una fantasía que existe en la mente incluso cuando se realiza en forma real.
Varias obras utilizan la IA para obligarnos a afrontar la cuestión fundamental de qué nos hace humanos, mostrándonos seres artificiales que tienen la capacidad de sentir y, por tanto, de sufrir. Esto aparece en el RUR de Karel Čapek , las películas AI Artificial Intelligence y Ex Machina , así como en la novela ¿Sueñan los androides con ovejas eléctricas? , por Philip K. Dick . Dick considera la idea de que nuestra comprensión de la subjetividad humana se ve alterada por la tecnología creada con inteligencia artificial. [207]
Ver también
- AI en aumento
- Problema de control de IA
- Carrera armamentista de inteligencia artificial
- Inteligencia artificial general
- Algoritmo de selección de comportamiento
- Automatización de procesos comerciales
- Razonamiento basado en casos
- Ciencia ciudadana
- Algoritmo emergente
- Género femenino de tecnologías de IA
- Glosario de inteligencia artificial
- Regulación de la inteligencia artificial
- Automatización robótica de procesos
- Inteligencia sintética
- Renta básica universal
- IA débil
Notas explicatorias
- ^ Definición de IA como el estudio de agentes inteligentes , extraída de los principales libros de texto de IA.
- Poole, Mackworth & Goebel (1998 , p. 1 ), que proporciona la versión que se utiliza en este artículo. Estos autores utilizan el término "inteligencia computacional" como sinónimo de inteligencia artificial.
- Russell y Norvig (2003 , p. 55) (que prefieren el término "agente racional") y escriben "La visión del agente completo es ahora ampliamente aceptada en el campo".
- Nilsson (1998)
- Legg y Hutter (2007)
- ↑ Stuart Russell y Peter Norvig caracterizan esta definición como "pensar humanamente" y la rechazan a favor de "actuar racionalmente". [1]
- ^ Un b Esta es una idea central de Pamela McCorduck 's Máquinas que piensan . Ella escribe:
- "Me gusta pensar en la inteligencia artificial como la apoteosis científica de una venerable tradición cultural". [dieciséis]
- "La inteligencia artificial de una forma u otra es una idea que ha invadido la historia intelectual occidental, un sueño que necesita urgentemente ser realizado". [17]
- "Nuestra historia está llena de intentos —locos, misteriosos, cómicos, serios, legendarios y reales— de crear inteligencias artificiales, de reproducir lo que es nuestro esencial, sin pasar por los medios ordinarios. De ida y vuelta entre el mito y la realidad, nuestras imaginaciones suministran lo que nuestros talleres no pudieron, llevamos mucho tiempo comprometidos en esta extraña forma de autorreproducción ". [18]
- ↑ Alan Turing discutió la centralidad del aprendizaje ya en 1950, en su artículo clásico " Computing Machinery and Intelligence ". [73] En 1956, en la conferencia de verano original de Dartmouth AI, Ray Solomonoff escribió un informe sobre el aprendizaje automático probabilístico no supervisado: "Una máquina de inferencia inductiva". [74]
- ^ Esta es una forma de ladefinición de aprendizaje automático ampliamente citadade Tom Mitchell : "Un programa de computadora está configurado para aprender de una experiencia E con respecto a alguna tarea T y alguna medida de desempeño P si su desempeño en T medido por P mejora con experiencia E ".
- ^ Nils Nilsson escribe: "En pocas palabras, existe un gran desacuerdo en el campo acerca de qué es la IA". [103]
- ↑ Pamela McCorduck escribe sobre "la ruptura aproximada de la IA en subcampos: visión, lenguaje natural, teoría de decisiones, algoritmos genéticos, robótica ... y estos con su propio subcampo, que difícilmente tendrían algo que decirse". [104]
- ^ Inteligencia biológica frente a inteligencia en general:
- Russell y Norvig 2003 , págs. 2-3, que hacen la analogía con la ingeniería aeronáutica .
- McCorduck 2004 , pp. 100-101, quien escribe que hay "dos ramas principales de la inteligencia artificial: una dirigida a producir un comportamiento inteligente independientemente de cómo se haya logrado, y la otra dirigida a modelar los procesos inteligentes que se encuentran en la naturaleza, particularmente los humanos . "
- La indiferencia del fundador de AI McCarthy hacia los modelos biológicos. Kolata cita a McCarthy escribiendo: "Esto es IA, así que no nos importa si es psicológicamente real". [107] McCarthy reiteró su posición en 2006 en la conferencia AI @ 50 donde dijo que "la inteligencia artificial no es, por definición, una simulación de la inteligencia humana". [108]
- ^ Enfoques incorporados a la IA:
- McCorduck (2004 , págs. 454–462)
- Moravec (1988)
- Nouvelle AI: Brooks (1990)
- IA del desarrollo: Weng et al. (2001) , Lungarella et al. (2003) , Asada et al. (2009) Oudeyer (2010)
- ^ Si bien tal "victoria de los pulcros" puede ser una consecuencia de que el campo se vuelva más maduro, AIMA afirma que, en la práctica, tanto losenfoques pulcros como los desaliñados continúan siendo necesarios en la investigación de la IA.
- ↑ Dreyfus criticó lacondición necesaria de lahipótesis del sistema de símbolos físicos , a la que llamó el "supuesto psicológico": "La mente puede verse como un dispositivo que opera sobre bits de información de acuerdo con reglas formales". [132]
- ↑ A principios de la década de 1970, Kenneth Colby presentó una versión de ELIZA de Weizenbaumconocida como DOCTOR, que promovió como una herramienta terapéutica seria. [142]
- ^ Esto se basa en Mary's Room , un experimento mental propuesto por primera vez por Frank Jackson en 1982
- ^ Esta versión es de Searle (1999) y también se cita en Dennett 1991 , p. 435. La formulación original de Searle era "La computadora apropiadamente programada es realmente una mente, en el sentido de que se puede decir literalmente que las computadoras con los programas adecuados comprenden y tienen otros estados cognitivos". [155] La IA fuerte es definida de manera similar por Russell y Norvig (2003 , p. 947): "La afirmación de que las máquinas posiblemente podrían actuar de manera inteligente (o, quizás mejor, actuar como si fueran inteligentes) se llama la hipótesis de la 'IA débil' por los filósofos, y la afirmación de que las máquinas que lo hacen realmente están pensando (en lugar de simular el pensamiento) se denomina hipótesis de la 'IA fuerte' ".
Referencias
- ^ Russell y Norvig 2009 , p. 2.
- ^ "AlphaGo - Google DeepMind" . Archivado desde el original el 10 de marzo de 2016.
- ^ McCorduck 2004 , p. 204.
- ^ Ashok83 2019 .
- ^ Schank 1991 , p. 38.
- ^ a b Optimismo de la IA temprana: * Cita de Herbert Simon : Simon 1965 , p. 96 citado en Crevier 1993 , p. 109. * Cita de Marvin Minsky : Minsky 1967 , pág. 2 citado en Crevier 1993 , p. 109.
- ^ a b c Auge de la década de 1980: auge de los sistemas expertos , Proyecto de Quinta Generación , Alvey , MCC , SCI : * McCorduck 2004 , págs. 426–441 * Crevier 1993 , págs. 161–162,197–203, 211, 240 * Russell Y Norvig 2003 , pág. 24 * NRC 1999 , págs. 210–211 * Newquist 1994 , págs. 235–248
- ^ a b Primer invierno de AI , Enmienda Mansfield , informe Lighthill * Crevier 1993 , págs. 115-117 * Russell y Norvig 2003 , pág. 22 * NRC 1999 , págs. 212–213 * Howe 1994 * Newquist 1994 , págs. 189–201
- ^ a b Segundo invierno de IA : * McCorduck 2004 , págs. 430–435 * Crevier 1993 , págs. 209–210 * NRC 1999 , págs. 214–216 * Newquist 1994 , págs. 301–318
- ^ a b c La IA tiene un gran éxito a principios del siglo XXI * Clark 2015b
- ^ a b Aplicaciones de IA ampliamente utilizadas entre bastidores: * Russell & Norvig 2003 , p. 28 * Kurzweil 2005 , pág. 265 * NRC 1999 , págs. 216–222 * Newquist 1994 , págs. 189–201
- ^ a b c Esta lista de rasgos inteligentes se basa en los temas cubiertos por los principales libros de texto de IA, que incluyen: * Russell y Norvig 2003 * Luger & Stubblefield 2004 * Poole, Mackworth & Goebel 1998 * Nilsson 1998
- ^ a b c d La inteligencia general ( IA fuerte ) se discute en introducciones populares a la IA: * Kurzweil 1999 y Kurzweil 2005
- ^ Ver la propuesta de Dartmouth , bajo Filosofía , más abajo.
- ^ Newquist 1994 , págs. 45–53.
- ^ McCorduck 2004 , p. 34.
- ^ McCorduck 2004 , p. xviii.
- ^ McCorduck 2004 , p. 3.
- ^ McCorduck 2004 , págs. 340–400.
- ^ Spadafora, 2016 .
- ^ Lombardo, Boehm y Nairz 2020 .
- ^ a b Ford, Martin; Colvin, Geoff (6 de septiembre de 2015). "¿Los robots crearán más puestos de trabajo de los que destruyen?" . The Guardian . Archivado desde el original el 16 de junio de 2018 . Consultado el 13 de enero de 2018 .
- ^ a b AI en el mito: * McCorduck 2004 , págs. 4-5 * Russell y Norvig 2003 , pág. 939
- ^ AI en la ciencia ficción temprana. * McCorduck 2004 , págs. 17-25
- ^ Razonamiento formal: * Berlinski, David (2000). El advenimiento del algoritmo . Libros de Harcourt. ISBN 978-0-15-601391-8. OCLC 46890682 . Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- ^ Turing, Alan (1948), "Machine Intelligence", en Copeland, B. Jack (ed.), The Essential Turing: Las ideas que dieron origen a la era de la informática , Oxford: Oxford University Press, p. 412, ISBN 978-0-19-825080-7
- ^ Russell y Norvig 2009 , p. dieciséis.
- ^ Conferencia de Dartmouth : * McCorduck 2004 , págs. 111-136 * Crevier 1993 , págs. 47-49, quien escribe "la conferencia es generalmente reconocida como la fecha de nacimiento oficial de la nueva ciencia". * Russell y Norvig 2003 , pág. 17, quienes llaman a la conferencia "el nacimiento de la inteligencia artificial". * NRC 1999 , págs. 200–201
- ^ McCarthy, John (1988). "Revisión de la cuestión de la inteligencia artificial ". Anales de la historia de la informática . 10 (3): 224-229., recogido en McCarthy, John (1996). "10. Revisión de la cuestión de la inteligencia artificial ". Defendiendo la investigación de la IA: una colección de ensayos y reseñas . CSLI., pag. 73, "[U] na de las razones para inventar el término" inteligencia artificial "fue escapar de la asociación con la" cibernética ". Su concentración en la retroalimentación analógica parecía equivocada, y deseaba evitar tener que aceptar a Norbert (no a Robert) Wiener como gurú o tener que discutir con él ".
- ^ Hegemonía de los asistentes a la conferencia de Dartmouth: * Russell & Norvig 2003 , p. 17, quienes escriben "durante los próximos 20 años el campo estará dominado por estas personas y sus estudiantes". * McCorduck 2004 , págs. 129–130
- ^ Russell y Norvig 2003 , p. 18: "era asombroso cada vez que una computadora hacía algo inteligente"
- ^ Schaeffer J. (2009) ¿No resolvió Samuel ese juego ?. En: Un salto adelante. Springer, Boston, MA
- ^ Samuel, AL (julio de 1959). "Algunos estudios en aprendizaje automático utilizando el juego de damas". Revista de investigación y desarrollo de IBM . 3 (3): 210-229. CiteSeerX 10.1.1.368.2254 . doi : 10.1147 / rd.33.0210 .
- ^ " Años dorados " de la IA (programas exitosos de razonamiento simbólico 1956-1973): * McCorduck 2004 , pp. 243-252 * Crevier 1993 , pp. 52-107 * Moravec 1988 , p. 9 * Russell y Norvig 2003 , pp. 18-21 Los programas descritos son Arthur Samuel 's programa de damas para el IBM 701 , Daniel Bobrow ' s ESTUDIANTE , Newell y Simon 's Lógico Teórico y Terry Winograd ' s SHRDLU .
- ^ DARPA invierte dinero en la investigación pura no dirigida sobre IA durante la década de 1960: * McCorduck 2004 , p. 131 * Crevier 1993 , págs. 51, 64–65 * NRC 1999 , págs. 204–205
- ^ AI en Inglaterra: * Howe 1994
- ^ Newquist 1994 , págs. 86-86
- ^ Lighthill 1973 .
- ^ a b Sistemas expertos: * ACM 1998 , I.2.1 * Russell y Norvig 2003 , págs. 22-24 * Luger y Stubblefield 2004 , págs. 227-331 * Nilsson 1998 , cap. 17.4 * McCorduck 2004 , págs. 327–335, 434–435 * Crevier 1993 , págs. 145–62, 197–203 * Newquist 1994 , págs. 155–183
- ^ a b Ahora se prefieren los métodos formales ("Victoria de los neats "): * Russell & Norvig 2003 , pp. 25-26 * McCorduck 2004 , pp. 486-487
- ^ "Pregunte a los expertos en IA: ¿Qué impulsa el progreso actual de la IA?" . McKinsey & Company . Archivado desde el original el 13 de abril de 2018 . Consultado el 13 de abril de 2018 .
- ^ Clark, 2015b . "Después de media década de silenciosos avances en inteligencia artificial, 2015 ha sido un año histórico. Las computadoras son más inteligentes y aprenden más rápido que nunca".
- ^ "Remodelación de negocios con inteligencia artificial" . Revisión de la gestión Sloan del MIT . Archivado desde el original el 19 de mayo de 2018 . Consultado el 2 de mayo de 2018 .
- ^ Lorica, Ben (18 de diciembre de 2017). "El estado de la adopción de la IA" . O'Reilly Media . Archivado desde el original el 2 de mayo de 2018 . Consultado el 2 de mayo de 2018 .
- ^ Resolución de problemas, resolución de acertijos, juego y deducción: * Russell & Norvig 2003 , cap. 3–9, * Poole, Mackworth y Goebel 1998 , cap. 2,3,7,9, * Luger y Stubblefield 2004 , cap. 3,4,6,8, * Nilsson 1998 , cap. 7-12
- ^ Razonamiento incierto: * Russell y Norvig 2003 , págs. 452–644, * Poole, Mackworth y Goebel 1998 , págs. 345–395, * Luger y Stubblefield 2004 , págs. 333–381, * Nilsson 1998 , cap. 19
- ^ Intractabilidad y eficiencia y la explosión combinatoria : * Russell y Norvig 2003 , págs. 9, 21-22
- ^ Evidencia psicológica del razonamiento sub-simbólico: * Wason y Shapiro (1966) demostraron que a las personas les va mal en problemas completamente abstractos, pero si el problema se replantea para permitir el uso de la inteligencia social intuitiva, el rendimiento mejora drásticamente. (Véase la tarea de selección de Wason ) * Kahneman, Slovic y Tversky (1982) han demostrado que las personas son terribles en los problemas elementales que implican un razonamiento incierto. (Consulte la lista de sesgos cognitivos para ver varios ejemplos). * Lakoff y Núñez (2000) han argumentado de manera controvertida que incluso nuestras habilidades en matemáticas dependen de conocimientos y habilidades que provienen del "cuerpo", es decir, habilidades sensoriomotoras y perceptivas. (Ver de dónde vienen las matemáticas )
- ^ Representación del conocimiento : * ACM 1998 , I.2.4, * Russell y Norvig 2003 , págs. 320–363, * Poole, Mackworth y Goebel 1998 , págs. 23–46, 69–81, 169–196, 235–277, 281–298, 319–345, * Luger y Stubblefield 2004 , págs. 227–243, * Nilsson 1998 , cap. 18
- ^ Ingeniería del conocimiento : * Russell y Norvig 2003 , págs. 260-266, * Poole, Mackworth y Goebel 1998 , págs. 199-233, * Nilsson 1998 , cap. 17,1-17,4
- ^ Representación de categorías y relaciones: redes semánticas , lógicas de descripción , herencia (incluidos marcos y guiones ): * Russell y Norvig 2003 , págs. 349–354, * Poole, Mackworth y Goebel 1998 , págs. 174-177, * Luger y Stubblefield 2004 , págs. 248-258, * Nilsson 1998 , cap. 18,3
- ^ En representación de los acontecimientos y el tiempo: cálculo de situaciones , el cálculo caso , el cálculo fluidez (incluyendo la solución del problema del marco ): * Russell y Norvig 2003 , pp. 328-341, * Poole, Mackworth y Goebel 1998 , pp. 281-298, * Nilsson 1998 , cap. 18,2
- ^ Cálculo causal : * Poole, Mackworth y Goebel 1998 , págs. 335–337
- ^ Representación del conocimiento sobre el conocimiento: cálculo de creencias, lógicas modales : * Russell y Norvig 2003 , págs. 341–344, * Poole, Mackworth y Goebel 1998 , págs. 275–277
- ^ Sikos, Leslie F. (junio de 2017). Descripción Lógicas en el razonamiento multimedia . Cham: Springer. doi : 10.1007 / 978-3-319-54066-5 . ISBN 978-3-319-54066-5. S2CID 3180114 . Archivado desde el original el 29 de agosto de 2017.
- ^ Ontología : * Russell y Norvig 2003 , págs. 320–328
- ^ Smoliar, Stephen W .; Zhang, HongJiang (1994). "Indexación y recuperación de videos basados en contenido". IEEE Multimedia . 1 (2): 62–72. doi : 10.1109 / 93.311653 . S2CID 32710913 .
- ^ Neumann, Bernd; Möller, Ralf (enero de 2008). "Interpretación en escena con lógicas descriptivas". Computación de imagen y visión . 26 (1): 82–101. doi : 10.1016 / j.imavis.2007.08.013 .
- ^ Kuperman, GJ; Reichley, RM; Bailey, TC (1 de julio de 2006). "Uso de bases de conocimiento comercial para el apoyo a la toma de decisiones clínicas: oportunidades, obstáculos y recomendaciones" . Revista de la Asociación Estadounidense de Informática Médica . 13 (4): 369–371. doi : 10.1197 / jamia.M2055 . PMC 1513681 . PMID 16622160 .
- ^ MCGARRY, KEN (1 de diciembre de 2005). "Una encuesta de medidas de interés para el descubrimiento de conocimientos". La revisión de la ingeniería del conocimiento . 20 (1): 39–61. doi : 10.1017 / S0269888905000408 . S2CID 14987656 .
- ^ Bertini, M; Del Bimbo, A; Torniai, C (2006). "Anotación automática y recuperación semántica de secuencias de video mediante ontologías multimedia". MM '06 Actas de la 14ª conferencia internacional ACM sobre Multimedia . XIV Congreso Internacional ACM sobre Multimedia. Santa Bárbara: ACM. págs. 679–682.
- ^ Problema de calificación : * McCarthy & Hayes 1969 * Russell & Norvig 2003 [ página necesaria ] Mientras que McCarthy estaba principalmente preocupado por cuestiones en la representación lógica de acciones, Russell & Norvig 2003 aplican el término al problema más general del razonamiento predeterminado en la vasta red de supuestos subyacentes a todo nuestro conocimiento de sentido común.
- ^ Razonamiento predeterminado y lógica predeterminada , lógicas no monótonas , circunscripción , suposición de mundo cerrado , abducción (Poole et al. Coloca la abducción en "razonamiento predeterminado". Luger et al. Coloca esto bajo "razonamiento incierto"): * Russell & Norvig 2003 , págs. 354–360, * Poole, Mackworth y Goebel 1998 , págs. 248–256, 323–335, * Luger y Stubblefield 2004 , págs. 335–363, * Nilsson 1998 , ~ 18.3.3
- ^ Amplitud de conocimiento de sentido común: * Russell y Norvig 2003 , p. 21, * Crevier 1993 , págs. 113-114, * Moravec 1988 , pág. 13, * Lenat & Guha 1989 (Introducción)
- ^ Dreyfus y Dreyfus 1986 .
- ^ Gladwell 2005 .
- ^ El conocimiento experto comointuición incorporada : * Dreyfus & Dreyfus 1986 ( Hubert Dreyfus es un filósofo y crítico de la IA que fue uno de los primeros en argumentar que el conocimiento humano más útil estaba codificado sub-simbólicamente. Ver la crítica de Dreyfus a la IA ) * Gladwell 2005 (Gladwell's Blink es una introducción popular al razonamiento y conocimiento sub-simbólico). * Hawkins & Blakeslee 2005 (Hawkins sostiene que el conocimiento sub-simbólico debería ser el enfoque principal de la investigación de IA).
- ^ Planificación : * ACM 1998 , ~ I.2.8, * Russell y Norvig 2003 , págs. 375–459, * Poole, Mackworth y Goebel 1998 , págs. 281–316, * Luger y Stubblefield 2004 , págs. 314–329, * Nilsson 1998 , cap. 10.1–2, 22
- ^ Teoría del valor de la información : * Russell y Norvig 2003 , págs. 600–604
- ^ Planificación clásica: * Russell y Norvig 2003 , págs. 375–430, * Poole, Mackworth y Goebel 1998 , págs. 281–315, * Luger y Stubblefield 2004 , págs. 314–329, * Nilsson 1998 , cap. 10.1–2, 22
- ^ Planificación y actuación en dominios no deterministas: planificación condicional, seguimiento de la ejecución, replanificación y planificación continua: * Russell y Norvig 2003 , págs. 430–449
- ^ Planificación de agentes múltiples y comportamiento emergente: * Russell y Norvig 2003 , págs. 449–455
- ^ Turing, 1950 .
- ^ Solomonoff 1956 .
- ^ a b Aprendizaje : * ACM 1998 , I.2.6, * Russell y Norvig 2003 , págs. 649–788, * Poole, Mackworth y Goebel 1998 , págs. 397–438, * Luger y Stubblefield 2004 , págs. 385–542 , * Nilsson 1998 , cap. 3.3, 10.3, 17.5, 20
- ^ Jordan, MI; Mitchell, TM (16 de julio de 2015). "Machine learning: tendencias, perspectivas y prospectos". Ciencia . 349 (6245): 255–260. Código bibliográfico : 2015Sci ... 349..255J . doi : 10.1126 / science.aaa8415 . PMID 26185243 . S2CID 677218 .
- ^ Aprendizaje por refuerzo : * Russell y Norvig 2003 , págs. 763–788 * Luger y Stubblefield 2004 , págs. 442–449
- ^ Procesamiento del lenguaje natural : * ACM 1998 , I.2.7 * Russell y Norvig 2003 , págs. 790–831 * Poole, Mackworth y Goebel 1998 , págs. 91–104 * Luger y Stubblefield 2004 , págs. 591–632
- ^ Aplicaciones del procesamiento del lenguaje natural, incluida la recuperación de información (es decir, la minería de texto ) y la traducción automática : * Russell y Norvig 2003 , págs. 840–857, * Luger y Stubblefield 2004 , págs. 623–630
- ^ Cambria, Erik; White, Bebo (mayo de 2014). "Saltar curvas de PNL: una revisión de la investigación del procesamiento del lenguaje natural [artículo de revisión]". Revista IEEE Computational Intelligence . 9 (2): 48–57. doi : 10.1109 / MCI.2014.2307227 . S2CID 206451986 .
- ^ Vincent, James (7 de noviembre de 2019). "OpenAI ha publicado la IA generadora de texto que dijo que era demasiado peligrosa para compartir" . The Verge . Archivado desde el original el 11 de junio de 2020 . Consultado el 11 de junio de 2020 .
- ^ Percepción de la máquina : * Russell y Norvig 2003 , págs. 537–581, 863–898 * Nilsson 1998 , ~ cap. 6
- ^ Reconocimiento de voz : * ACM 1998 , ~ I.2.7 * Russell & Norvig 2003 , págs. 568–578
- ^ Reconocimiento de objetos : * Russell & Norvig 2003 , págs. 885–892
- ^ Visión por computadora : * ACM 1998 , I.2.10 * Russell y Norvig 2003 , págs. 863–898 * Nilsson 1998 , cap. 6
- ^ Robótica : * ACM 1998 , I.2.9, * Russell y Norvig 2003 , págs. 901–942, * Poole, Mackworth y Goebel 1998 , págs. 443–460
- ^ Movimiento y espacio de configuración : * Russell y Norvig 2003 , págs. 916–932
- ^ Tecuci 2012 .
- ^ Mapeo robótico (localización, etc.): * Russell y Norvig 2003 , págs. 908–915
- ^ Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, José; Reid, Ian; Leonard, John J. (diciembre de 2016). "Pasado, presente y futuro de la localización y el mapeo simultáneos: hacia la era de la percepción robusta". Transacciones IEEE sobre robótica . 32 (6): 1309-1332. arXiv : 1606.05830 . Código bibliográfico : 2016arXiv160605830C . doi : 10.1109 / TRO.2016.2624754 . S2CID 2596787 .
- ^ Moravec 1988 , p. 15.
- ^ Chan, Szu Ping (15 de noviembre de 2015). "Esto es lo que pasará cuando los robots se apoderen del mundo" . Archivado desde el original el 24 de abril de 2018 . Consultado el 23 de abril de 2018 .
- ^ "Mobiliario IKEA y los límites de la IA" . The Economist . 2018. Archivado desde el original el 24 de abril de 2018 . Consultado el 24 de abril de 2018 .
- ^ "Kismet" . Laboratorio de Inteligencia Artificial del MIT, Grupo de Robótica Humanoide. Archivado desde el original el 17 de octubre de 2014 . Consultado el 25 de octubre de 2014 .
- ^ Hasta 1993 .
- ^ Edelson 1991 .
- ^ Tao y Tan 2005 .
- ^ Emoción y computación afectiva : * Minsky 2006
- ^ Waddell, Kaveh (2018). "Los chatbots han entrado en el valle inquietante" . El Atlántico . Archivado desde el original el 24 de abril de 2018 . Consultado el 24 de abril de 2018 .
- ^ Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (septiembre de 2017). "Una revisión de la computación afectiva: del análisis unimodal a la fusión multimodal" . Fusión de información . 37 : 98-125. doi : 10.1016 / j.inffus.2017.02.003 . hdl : 1893/25490 .
- ^ a b c d e Roberts, Jacob (2016). "Máquinas pensantes: la búsqueda de la inteligencia artificial" . Destilaciones . Vol. 2 no. 2. págs. 14-23. Archivado desde el original el 19 de agosto de 2018 . Consultado el 20 de marzo de 2018 .
- ^ a b c Pennachin, C .; Goertzel, B. (2007). "Enfoques contemporáneos de la inteligencia artificial general". Inteligencia General Artificial . Tecnologías cognitivas. Berlín, Heidelberg: Springer. doi : 10.1007 / 978-3-540-68677-4_1 . ISBN 978-3-540-23733-4.
- ^ Nilsson 1983 , p. 10.
- ^ McCorduck 2004 , p. 424.
- ↑ a b c Langley, 2011 .
- ↑ a b Katz, 2012 .
- ^ Kolata 1982 .
- ^ Creador de 2006 .
- ^ Neats vs scruffies : * McCorduck 2004 , págs. 421–424, 486–489 * Crevier 1993 , p. 168 * Nilsson 1983 , págs. 10-11
- ^ a b Inteligencia computacional * Sociedad de inteligencia computacional IEEE Archivado el 9 de mayo de 2008 en la Wayback Machine.
- ^ Precursores inmediatos de AI: * McCorduck 2004 , pp. 51-107 * Crevier 1993 , pp. 27-32 * Russell & Norvig 2003 , pp. 15, 940 * Moravec 1988 , p. 3
- ^ Haugeland 1985 , págs. 112-117
- ^ IA simbólica frente a sub-simbólica: * Nilsson (1998 , p. 7), que utiliza el término "sub-simbólico".
- ^ Resurgimiento del conexionismo : * Crevier 1993 , págs. 214-215 * Russell y Norvig 2003 , p. 25
- ^ Hutson, Matthew (16 de febrero de 2018). "La inteligencia artificial se enfrenta a una crisis de reproducibilidad" . Ciencia . págs. 725–726. Código Bibliográfico : 2018Sci ... 359..725H . doi : 10.1126 / science.359.6377.725 . Archivado desde el original el 29 de abril de 2018 . Consultado el 28 de abril de 2018 .
- ^ Norvig 2012 .
- ↑ a b Russell y Norvig , 2009 , p. 1.
- ^ a b Libro blanco: Sobre la inteligencia artificial: un enfoque europeo de la excelencia y la confianza (PDF) . Bruselas: Comisión Europea. 2020. p. 1. Archivado (PDF) desde el original el 20 de febrero de 2020 . Consultado el 20 de febrero de 2020 .
- ^ "AI listo para superar el poder del cerebro humano" . CNN . 9 de agosto de 2006. Archivado desde el original el 19 de febrero de 2008.
- ^ Uso de IA para predecir retrasos en los vuelos Archivado el 20 de noviembre de 2018 en Wayback Machine , Ishti.org.
- ^ N. Aletras; D. Tsarapatsanis; D. Preotiuc-Pietro; V. Lampos (2016). "Predecir decisiones judiciales del Tribunal Europeo de Derechos Humanos: una perspectiva de procesamiento del lenguaje natural" . PeerJ Ciencias de la Computación . 2 : e93. doi : 10.7717 / peerj-cs.93 .
- ^ "The Economist explica: por qué las empresas se están acumulando en inteligencia artificial" . The Economist . 31 de marzo de 2016. Archivado desde el original el 8 de mayo de 2016 . Consultado el 19 de mayo de 2016 .
- ^ Lohr, Steve (28 de febrero de 2016). "La promesa de la inteligencia artificial se despliega en pequeños pasos" . The New York Times . Archivado desde el original el 29 de febrero de 2016 . Consultado el 29 de febrero de 2016 .
- ^ Frangoul, Anmar (14 de junio de 2019). "Una empresa californiana está utilizando IA para cambiar nuestra forma de pensar sobre el almacenamiento de energía" . CNBC . Archivado desde el original el 25 de julio de 2020 . Consultado el 5 de noviembre de 2019 .
- ^ Wakefield, Jane (15 de junio de 2016). "Las redes sociales 'superan a la televisión' como fuente de noticias para los jóvenes" . BBC News . Archivado desde el original el 24 de junio de 2016.
- ^ Smith, Mark (22 de julio de 2016). "¿Entonces crees que elegiste leer este artículo?" . BBC News . Archivado desde el original el 25 de julio de 2016.
- ^ Brown, Eileen. "La mitad de los estadounidenses no cree que las noticias deepfake puedan apuntar a ellos en línea" . ZDNet . Archivado desde el original el 6 de noviembre de 2019 . Consultado el 3 de diciembre de 2019 .
- ^ Zola, Andrew (12 de abril de 2019). "Preparación de la entrevista: 40 preguntas de inteligencia artificial" . Blog de trampolín .
- ^ La prueba de Turing :
publicación original de Turing: * Turing 1950 Influencia histórica e implicaciones filosóficas: * Haugeland 1985 , págs. 6-9 * Crevier 1993 , pág. 24 * McCorduck 2004 , págs. 70-71 * Russell y Norvig 2003 , págs. 2-3 y 948 - ^ Propuesta de Dartmouth: * McCarthy et al. 1955 (la propuesta original) * Crevier 1993 , p. 49 (significado histórico)
- ^ Lahipótesis de los sistemas de símbolos físicos : * Newell & Simon 1976 , p. 116 * McCorduck 2004 , pág. 153 * Russell y Norvig 2003 , pág. 18
- ^ Dreyfus 1992 , p. 156.
- ^ Crítica de Dreyfus de la inteligencia artificial : * Dreyfus 1972 , Dreyfus y Dreyfus 1986 * Crevier 1993 , págs. 120-132 * McCorduck 2004 , págs. 211-239 * Russell y Norvig 2003 , págs. 950–952,
- ↑ Gödel 1951 : en esta conferencia, Kurt Gödel usa el teorema de incompletitud para llegar a la siguiente disyunción: (a) la mente humana no es una máquina finita consistente, o (b) existen ecuaciones diofánticas para las cuales no puede decidir si existen soluciones . Gödel encuentra (b) inverosímil, y por lo tanto parece haber creído que la mente humana no era equivalente a una máquina finita, es decir, su poder excedía el de cualquier máquina finita. Reconoció que esto era solo una conjetura, ya que uno nunca podría refutar (b). Sin embargo, consideró que la conclusión disyuntiva era un "hecho cierto".
- ^ La objeción matemática: * Russell y Norvig 2003 , p. 949 * McCorduck 2004 , págs. 448–449 Haciendo la objeción matemática: * Lucas 1961 * Penrose 1989 Refutando la objeción matemática: * Turing 1950 bajo "(2) La objeción matemática" * Hofstadter 1979 Antecedentes: * Gödel 1931, Church 1936, Kleene 1935, Turing 1937
- ^ Graham Oppy (20 de enero de 2015). "Teoremas de incompletitud de Gödel" . Enciclopedia de Filosofía de Stanford . Archivado desde el original el 22 de abril de 2016 . Consultado el 27 de abril de 2016 .
Estos argumentos antimecanicistas gödeianos son, sin embargo, problemáticos y existe un amplio consenso de que fallan.
- ^ Stuart J. Russell ; Peter Norvig (2010). "26.1.2: Fundamentos filosóficos / IA débil: ¿Pueden las máquinas actuar inteligentemente? / La objeción matemática". Inteligencia artificial: un enfoque moderno (3ª ed.). Upper Saddle River, Nueva Jersey: Prentice Hall . ISBN 978-0-13-604259-4.
incluso si admitimos que las computadoras tienen limitaciones sobre lo que pueden probar, no hay evidencia de que los humanos sean inmunes a esas limitaciones.
- ^ Mark Colyvan. Introducción a la filosofía de las matemáticas. Cambridge University Press , 2012. De 2.2.2, 'La importancia filosófica de los resultados de incompletitud de Gödel': "La sabiduría aceptada (con la que estoy de acuerdo) es que los argumentos de Lucas-Penrose fallan".
- ^ Argumentos del cerebro artificial : la IA requiere una simulación del funcionamiento del cerebro humano * Russell & Norvig 2003 , p. 957 * Crevier 1993 , pp. 271 y 279 Algunas de las personas que hacen alguna forma del argumento: * Moravec 1988 * Kurzweil 2005 , p. 262 * Hawkins & Blakeslee 2005 La forma más extrema de este argumento (el escenario de reemplazo cerebral) fue presentada por Clark Glymour a mediados de la década de 1970 y fue abordada por Zenon Pylyshyn y John Searle en 1980.
- ^ Iphofen, Ron; Kritikos, Mihalis (3 de enero de 2019). "Regulación de la inteligencia artificial y la robótica: ética desde el diseño en una sociedad digital". Ciencias Sociales Contemporáneas . 16 (2): 170-184. doi : 10.1080 / 21582041.2018.1563803 . ISSN 2158-2041 . S2CID 59298502 .
- ^ "La IA ética aprende el marco de los derechos humanos" . Voice of America . Archivado desde el original el 11 de noviembre de 2019 . Consultado el 10 de noviembre de 2019 .
- ^ Crevier 1993 , págs. 132-144.
- ^ Crítica de la IA de Joseph Weizenbaum : * Weizenbaum 1976 * Crevier 1993 , págs. 132-144 * McCorduck 2004 , págs. 356-373 * Russell y Norvig 2003 , p. 961 Weizenbaum (el investigador de IA que desarrolló el primerprograma de chatbot , ELIZA ) argumentó en 1976 que el mal uso de la inteligencia artificial tiene el potencial de devaluar la vida humana.
- ^ Wallach, Wendell (2010). Máquinas morales . Prensa de la Universidad de Oxford.
- ^ Wallach 2010 , págs. 37-54.
- ^ Wallach 2010 , págs. 55-73.
- ^ Wallach 2010 , "Introducción".
- ^ a b Michael Anderson y Susan Leigh Anderson (2011), Machine Ethics, Cambridge University Press.
- ^ a b "Ética de la máquina" . aaai.org . Archivado desde el original el 29 de noviembre de 2014.
- ^ Rubin, Charles (primavera de 2003). "Inteligencia artificial y naturaleza humana" . La Nueva Atlántida . 1 : 88-100. Archivado desde el original el 11 de junio de 2012.
- ^ Brooks, Rodney (10 de noviembre de 2014). "La inteligencia artificial es una herramienta, no una amenaza" . Archivado desde el original el 12 de noviembre de 2014.
- ^ "Stephen Hawking, Elon Musk y Bill Gates advierten sobre la inteligencia artificial" . Observador . 19 de agosto de 2015. Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ Chalmers, David (1995). "Afrontando el problema de la conciencia" . Revista de estudios de la conciencia . 2 (3): 200–219. Archivado desde el original el 8 de marzo de 2005 . Consultado el 11 de octubre de 2018 .Vea también este enlace Archivado el 8 de abril de 2011 en la Wayback Machine.
- ^ Horst, Steven , (2005) "La teoría computacional de la mente" Archivado el 11 de septiembre de 2018 en Wayback Machine en The Stanford Encyclopedia of Philosophy
- ^ Searle 1980 , p. 1.
- ^ Argumento de la habitación china de Searle:
- Searle 1980 . Presentación original de Searle del experimento mental.
- Searle 1999 .
- Russell y Norvig 2003 , págs. 958–960
- McCorduck 2004 , págs. 443–445
- Crevier 1993 , págs. 269–271
- ^ Derechos de robot : * Russell & Norvig 2003 , p. 964 La prematuridad de: * Henderson 2007 En la ficción: * McCorduck (2004 , págs. 190-25) analiza a Frankenstein e identifica las cuestiones éticas clave como la arrogancia científica y el sufrimiento del monstruo, es decir, los derechos de los robots .
- ^ "Los robots podrían exigir derechos legales" . BBC News . 21 de diciembre de 2006. Archivado desde el original el 15 de octubre de 2019 . Consultado el 3 de febrero de 2011 .
- ^ Evans, Woody (2015). "Derechos posthumanos: dimensiones de mundos transhumanos" . Teknokultura . 12 (2). doi : 10.5209 / rev_TK.2015.v12.n2.49072 .
- ^ maschafilm. "Contenido: Película Plug & Pray - Inteligencia artificial - Robots -" . plugandpray-film.de . Archivado desde el original el 12 de febrero de 2016.
- ^ Omohundro, Steve (2008). La naturaleza de la inteligencia artificial auto-mejorada . presentado y distribuido en el 2007 Singularity Summit, San Francisco, CA.
- ^ a b c Singularidad tecnológica : * Vinge 1993 * Kurzweil 2005 * Russell & Norvig 2003 , p. 963
- ^ Transhumanismo : * Moravec 1988 * Kurzweil 2005 * Russell y Norvig 2003 , p. 963
- ^ AI como evolución: * Edward Fredkin se cita en McCorduck (2004 , p. 401). * Mayordomo 1863 * Dyson 1998
- ^ "Robots e Inteligencia Artificial" . www.igmchicago.org . Archivado desde el original el 1 de mayo de 2019 . Consultado el 3 de julio de 2019 .
- ^ "Dimensionamiento del premio: Estudio global de IA de PwC: aprovechamiento de la revolución de la IA" (PDF) . Consultado el 11 de noviembre de 2020 .
- ^ E McGaughey, '¿Los robots automatizarán su trabajo? Pleno empleo, renta básica y democracia económica '(2018) SSRN, parte 2 (3) Archivado el 24 de mayo de 2018 en Wayback Machine
- ^ "Automatización y ansiedad" . The Economist . 9 de mayo de 2015. Archivado desde el original el 12 de enero de 2018 . Consultado el 13 de enero de 2018 .
- ^ Lohr, Steve (2017). "Los robots aceptarán trabajos, pero no tan rápido como algunos temen, dice un nuevo informe" . The New York Times . Archivado desde el original el 14 de enero de 2018 . Consultado el 13 de enero de 2018 .
- ^ Frey, Carl Benedikt; Osborne, Michael A (1 de enero de 2017). "El futuro del empleo: ¿Qué tan susceptibles son los trabajos a la informatización?". Pronóstico tecnológico y cambio social . 114 : 254–280. CiteSeerX 10.1.1.395.416 . doi : 10.1016 / j.techfore.2016.08.019 . ISSN 0040-1625 .
- ^ Arntz, Melanie, Terry Gregory y Ulrich Zierahn. "El riesgo de la automatización para el empleo en los países de la OCDE: un análisis comparativo". Documentos de trabajo de la OCDE sobre asuntos sociales, empleo y migración 189 (2016). pag. 33.
- ^ Mahdawi, Arwa (26 de junio de 2017). "¿Qué trabajos seguirán existiendo en 20 años? Lea esto para preparar su futuro" . The Guardian . Archivado desde el original el 14 de enero de 2018 . Consultado el 13 de enero de 2018 .
- ^ Simon, Matt (1 de abril de 2019). "La candidatura presidencial de Andrew Yang es tan del siglo XXI" . Cableado . Archivado desde el original el 24 de junio de 2019 . Consultado el 2 de mayo de 2019 , a través de www.wired.com.
- ^ "Cinco expertos comparten lo que más les asusta de la IA" . 5 de septiembre de 2018. Archivado desde el original el 8 de diciembre de 2019 . Consultado el 8 de diciembre de 2019 .
- ^ Russel, Stuart., Daniel Dewey y Max Tegmark. Prioridades de investigación para la inteligencia artificial robusta y beneficiosa. Revista AI 36: 4 (2015). 8 de diciembre de 2016.
- ^ "Comentario: Malas noticias. La inteligencia artificial está sesgada" . CNA . 12 de enero de 2019. Archivado desde el original el 12 de enero de 2019 . Consultado el 19 de junio de 2020 .
- ^ Jeff Larson, Julia Angwin (23 de mayo de 2016). "Cómo analizamos el algoritmo de reincidencia COMPAS" . ProPublica . Archivado desde el original el 29 de abril de 2019 . Consultado el 19 de junio de 2020 .
- ^ Rawlinson, Kevin (29 de enero de 2015). "Bill Gates de Microsoft insiste en que la IA es una amenaza" . BBC News . Archivado desde el original el 29 de enero de 2015 . Consultado el 30 de enero de 2015 .
- ^ Holley, Peter (28 de enero de 2015). "Bill Gates sobre los peligros de la inteligencia artificial: 'No entiendo por qué algunas personas no están preocupadas ' " . The Washington Post . ISSN 0190-8286 . Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ Gibbs, Samuel (27 de octubre de 2014). "Elon Musk: la inteligencia artificial es nuestra mayor amenaza existencial" . The Guardian . Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ Churm, Philip Andrew (14 de mayo de 2019). "Yuval Noah Harari habla de política, tecnología y migración" . euronews . Consultado el 15 de noviembre de 2020 .
- ^ Cellan-Jones, Rory (2 de diciembre de 2014). "Stephen Hawking advierte que la inteligencia artificial podría acabar con la humanidad" . BBC News . Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ Bostrom, Nick (2015). "¿Qué sucede cuando nuestras computadoras se vuelven más inteligentes que nosotros?" . TED (conferencia) . Archivado desde el original el 25 de julio de 2020 . Consultado el 30 de enero de 2020 .
- ^ a b Russell, Stuart (8 de octubre de 2019). Compatibilidad humana: la inteligencia artificial y el problema del control . Estados Unidos: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322 .
- ^ Post, Washington. "Los titanes de la tecnología como Elon Musk están gastando mil millones de dólares para salvarte de los terminadores" . Archivado desde el original el 7 de junio de 2016.
- ^ Müller, Vincent C .; Bostrom, Nick (2014). "Progreso futuro en inteligencia artificial: una encuesta entre expertos" (PDF) . La IA importa . 1 (1): 9-11. doi : 10.1145 / 2639475.2639478 . S2CID 8510016 . Archivado (PDF) desde el original el 15 de enero de 2016.
- ^ "El CEO de Oracle, Mark Hurd, no ve ninguna razón para temer a ERP AI" . SearchERP . Archivado desde el original el 6 de mayo de 2019 . Consultado el 6 de mayo de 2019 .
- ^ "Mark Zuckerberg responde a la paranoia de Elon Musk sobre la IA: 'La IA va a ... ayudar a mantener seguras a nuestras comunidades ' " . Business Insider . 25 de mayo de 2018. Archivado desde el original el 6 de mayo de 2019 . Consultado el 6 de mayo de 2019 .
- ^ "La misteriosa empresa de inteligencia artificial en la que invirtió Elon Musk está desarrollando computadoras inteligentes innovadoras" . Tech Insider . Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ Clark, 2015a .
- ^ "Elon Musk está donando $ 10 millones de su propio dinero a la investigación de inteligencia artificial" . Empresa rápida . 15 de enero de 2015. Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ "¿Es la inteligencia artificial realmente una amenaza existencial para la humanidad?" . Boletín de los científicos atómicos . 9 de agosto de 2015. Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ "El caso contra los robots asesinos, de un tipo que trabaja en inteligencia artificial" . Fusion.net . Archivado desde el original el 4 de febrero de 2016 . Consultado el 31 de enero de 2016 .
- ^ "¿La inteligencia artificial destruirá a la humanidad? Aquí tienes 5 razones para no preocuparte" . Vox . 22 de agosto de 2014. Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- ^ Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hola, mundo: la inteligencia artificial y su uso en el sector público (PDF) . París: Observatorio de Innovación del Sector Público de la OCDE. Archivado (PDF) desde el original el 20 de diciembre de 2019 . Consultado el 9 de agosto de 2020 .
- ^ Barfield, Woodrow; Pagallo, Ugo (2018). Manual de investigación sobre el derecho de la inteligencia artificial . Cheltenham, Reino Unido. ISBN 978-1-78643-904-8. OCLC 1039480085 .
- ^ Biblioteca de Derecho del Congreso (EE. UU.). Dirección de Investigación Jurídica Global, organismo emisor. Regulación de la inteligencia artificial en jurisdicciones seleccionadas . LCCN 2019668143 . OCLC 1110727808 .
- ^ Wirtz, Bernd W .; Weyerer, Jan C .; Geyer, Carolin (24 de julio de 2018). "Inteligencia artificial y sector público: aplicaciones y desafíos" . Revista Internacional de Administración Pública . 42 (7): 596–615. doi : 10.1080 / 01900692.2018.1498103 . ISSN 0190-0692 . S2CID 158829602 . Archivado desde el original el 18 de agosto de 2020 . Consultado el 22 de agosto de 2020 .
- ^ Buiten, Miriam C (2019). "Hacia la regulación inteligente de la inteligencia artificial" . Revista europea de regulación de riesgos . 10 (1): 41–59. doi : 10.1017 / err.2019.8 . ISSN 1867-299X .
- ^ Sotala, Kaj; Yampolskiy, Roman V (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta" . Physica Scripta . 90 (1): 018001. doi : 10.1088 / 0031-8949 / 90/1/018001 . ISSN 0031-8949 .
- ^ "¿Esto lo cambia todo? El coronavirus y sus datos privados" . Banco Europeo de Inversiones . Consultado el 7 de junio de 2021 .
- ^ "Libro Blanco sobre Inteligencia Artificial: un enfoque europeo de la excelencia y la confianza | Dar forma al futuro digital de Europa" . digital-strategy.ec.europa.eu . Consultado el 7 de junio de 2021 .
- ^ "¿Qué se avecina para una agenda reguladora cooperativa sobre inteligencia artificial?" . www.csis.org . Consultado el 7 de junio de 2021 .
- ^ Buttazzo, G. (julio de 2001). "Conciencia artificial: ¿Utopía o posibilidad real?". Computadora . 34 (7): 24-30. doi : 10.1109 / 2.933500 .
- ^ Anderson, Susan Leigh. "Las" tres leyes de la robótica "y la metaética de las máquinas de Asimov". AI & Society 22.4 (2008): 477–493.
- ^ McCauley, Lee (2007). "Armageddon AI y las tres leyes de la robótica". Ética y Tecnología de la Información . 9 (2): 153-164. CiteSeerX 10.1.1.85.8904 . doi : 10.1007 / s10676-007-9138-2 . S2CID 37272949 .
- ^ Galván, Jill (1 de enero de 1997). "Entrando en el colectivo posthumano en Philip K. Dick" ¿Sueñan los androides con ovejas eléctricas? " ". Estudios de ciencia ficción . 24 (3): 413–429. JSTOR 4240644 .
Libros de texto de IA
- Hutter, Marcus (2005). Inteligencia artificial universal . Berlín: Springer. ISBN 978-3-540-22139-5.
- Jackson, Philip (1985). Introducción a la Inteligencia Artificial (2ª ed.). Dover. ISBN 978-0-486-24864-6. Archivado desde el original el 26 de julio de 2020 . Consultado el 4 de marzo de 2020 .
- Luger, George ; Stubblefield, William (2004). Inteligencia artificial: estructuras y estrategias para la resolución de problemas complejos (5ª ed.). Benjamin / Cummings. ISBN 978-0-8053-4780-7. Archivado desde el original el 26 de julio de 2020 . Consultado el 17 de diciembre de 2019 .
- Napolitano, Richard ; Jiang, Xia (2018). Inteligencia artificial: con una introducción al aprendizaje automático . Chapman y Hall / CRC. ISBN 978-1-138-50238-3. Archivado desde el original el 22 de agosto de 2020 . Consultado el 3 de enero de 2018 .
- Nilsson, Nils (1998). Inteligencia artificial: una nueva síntesis . Morgan Kaufmann. ISBN 978-1-55860-467-4. Archivado desde el original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
- Russell, Stuart J .; Norvig, Peter (2003), Inteligencia artificial: un enfoque moderno (2a ed.), Upper Saddle River, Nueva Jersey: Prentice Hall, ISBN 0-13-790395-2.
- Russell, Stuart J .; Norvig, Peter (2009). Inteligencia artificial: un enfoque moderno (3ª ed.). Upper Saddle River, Nueva Jersey: Prentice Hall. ISBN 978-0-13-604259-4..
- Poole, David ; Mackworth, Alan ; Goebel, Randy (1998). Inteligencia computacional: un enfoque lógico . Nueva York: Oxford University Press. ISBN 978-0-19-510270-3. Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- Winston, Patrick Henry (1984). Inteligencia artificial . Reading, MA: Addison-Wesley. ISBN 978-0-201-08259-3. Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- Rich, Elaine (1983). Inteligencia artificial . McGraw-Hill. ISBN 978-0-07-052261-9. Archivado desde el original el 26 de julio de 2020 . Consultado el 17 de diciembre de 2019 .
- Bundy, Alan (1980). Inteligencia artificial: un curso introductorio (2ª ed.). Prensa de la Universidad de Edimburgo. ISBN 978-0-85224-410-4.
- Poole, David ; Mackworth, Alan (2017). Inteligencia artificial: fundamentos de los agentes computacionales (2ª ed.). Prensa de la Universidad de Cambridge. ISBN 978-1-107-19539-4. Archivado desde el original el 7 de diciembre de 2017 . Consultado el 6 de diciembre de 2017 .
- Auffarth, Ben (2020). Inteligencia artificial con Python Cookbook: recetas probadas para aplicar algoritmos de inteligencia artificial y técnicas de aprendizaje profundo utilizando TensorFlow 2.xy PyTorch 1.6 (1.a ed.). Packt Publishing. ISBN 978-1-78913-396-7. Consultado el 13 de enero de 2021 .
Historia de la IA
- Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence , Nueva York, NY: BasicBooks, ISBN 0-465-02997-3.
- McCorduck, Pamela (2004), Máquinas que piensan (2a ed.), Natick, MA: AK Peters, Ltd., ISBN 1-56881-205-1.
- Newquist, HP (1994). Los creadores de cerebros: genio, ego y codicia en la búsqueda de máquinas que piensen . Nueva York: Macmillan / SAMS. ISBN 978-0-672-30412-5.
- Nilsson, Nils (2009). La búsqueda de la inteligencia artificial: una historia de ideas y logros . Nueva York: Cambridge University Press. ISBN 978-0-521-12293-1.
Otras fuentes
- "Sistema de Clasificación Informática ACM: Inteligencia Artificial" . ACM . 1998. Archivado desde el original el 12 de octubre de 2007 . Consultado el 30 de agosto de 2007 .
- Aleksander, Igor (1995). Neuroconciencia artificial: una actualización . IWANN. Archivado desde el original el 2 de marzo de 1997. BibTex Archivado el 2 de marzo de 1997 en Wayback Machine .
- Asada, M .; Hosoda, K .; Kuniyoshi, Y .; Ishiguro, H .; Inui, T .; Yoshikawa, Y .; Ogino, M .; Yoshida, C. (2009). "Robótica del desarrollo cognitivo: una encuesta". Transacciones IEEE sobre desarrollo mental autónomo . 1 (1): 12–34. doi : 10.1109 / tamd.2009.2021702 . S2CID 10168773 .
- Ashok83 (10 de septiembre de 2019). "Cómo la IA está consiguiendo cambios revolucionarios en la gestión del talento y la tecnología de recursos humanos" . Hackernoon. Archivado desde el original el 11 de septiembre de 2019 . Consultado el 14 de febrero de 2020 .
- Bach, Joscha (2008). "Siete principios de la inteligencia sintética" . En Wang, Pei; Goertzel, Ben; Franklin, Stan (eds.). Inteligencia General Artificial, 2008: Actas de la Primera Conferencia de AGI . IOS Press. págs. 63–74. ISBN 978-1-58603-833-5. Archivado desde el original el 8 de julio de 2016 . Consultado el 16 de febrero de 2016 .
- Brooks, Rodney (1990). "Los elefantes no juegan al ajedrez" (PDF) . Robótica y sistemas autónomos . 6 (1–2): 3–15. CiteSeerX 10.1.1.588.7539 . doi : 10.1016 / S0921-8890 (05) 80025-9 . Archivado (PDF) desde el original el 9 de agosto de 2007.
- Brooks, RA (1991). "Cómo construir criaturas completas en lugar de simuladores cognitivos aislados". En VanLehn, K. (ed.). Arquitecturas para la inteligencia . Hillsdale, Nueva Jersey: Lawrence Erlbaum Associates. págs. 225–239. CiteSeerX 10.1.1.52.9510 .
- Buchanan, Bruce G. (2005). "Una (muy) breve historia de la inteligencia artificial" (PDF) . Revista AI : 53–60. Archivado desde el original (PDF) el 26 de septiembre de 2007.
- Butler, Samuel (13 de junio de 1863). "Darwin entre las Máquinas" . Cartas al editor. La Prensa . Christchurch, Nueva Zelanda. Archivado desde el original el 19 de septiembre de 2008 . Consultado el 16 de octubre de 2014 , a través de la Universidad Victoria de Wellington.
- Clark, Jack (1 de julio de 2015a). "Grupo respaldado por Musk investiga los riesgos detrás de la inteligencia artificial" . Bloomberg.com . Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
- Clark, Jack (8 de diciembre de 2015b). "Por qué 2015 fue un año de gran avance en inteligencia artificial" . Bloomberg.com . Archivado desde el original el 23 de noviembre de 2016 . Consultado el 23 de noviembre de 2016 .
- Dennett, Daniel (1991). Conciencia explicada . The Penguin Press. ISBN 978-0-7139-9037-9.
- Dowe, DL; Hajek, AR (1997). "Una extensión computacional de la prueba de Turing" . Actas de la 4ª Conferencia de la Sociedad de Ciencias Cognitivas de Australasia . Archivado desde el original el 28 de junio de 2011.
- Dreyfus, Hubert (1972). Lo que las computadoras no pueden hacer . Nueva York: MIT Press. ISBN 978-0-06-011082-6.
- Dreyfus, Hubert ; Dreyfus, Stuart (1986). Mente sobre máquina: el poder de la intuición y la experiencia humanas en la era de la computadora . Oxford, Reino Unido: Blackwell. ISBN 978-0-02-908060-3. Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- Dreyfus, Hubert (1992). Lo que las computadoras aún no pueden hacer . Nueva York: MIT Press. ISBN 978-0-262-54067-4.
- Dyson, George (1998). Darwin entre las Máquinas . Ciencia de Allan Lane. ISBN 978-0-7382-0030-9. Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- Edelman, Gerald (23 de noviembre de 2007). "Gerald Edelman - Darwinismo neuronal y dispositivos basados en el cerebro" . Hablando de robots. Archivado desde el original el 8 de octubre de 2009.
- Edelson, Edward (1991). El sistema nervioso . Nueva York: Chelsea House. ISBN 978-0-7910-0464-7. Archivado desde el original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
- Fearn, Nicholas (2007). Las últimas respuestas a las preguntas más antiguas: una aventura filosófica con los mejores pensadores del mundo . Nueva York: Grove Press. ISBN 978-0-8021-1839-4.
- Gladwell, Malcolm (2005). Parpadea . Nueva York: Little, Brown and Co. ISBN 978-0-316-17232-5.
- Gödel, Kurt (1951). Algunos teoremas básicos sobre los fundamentos de las matemáticas y sus implicaciones . Conferencia de Gibbs. En
Feferman, Solomon , ed. (1995). Kurt Gödel: Obras completas, vol. III: Ensayos y conferencias inéditos . Prensa de la Universidad de Oxford. págs. 304–23. ISBN 978-0-19-514722-3. - Goodman, Joanna (2016). Robots in Law: Cómo la inteligencia artificial está transformando los servicios legales (1ª ed.). Ark Group. ISBN 978-1-78358-264-8. Archivado desde el original el 8 de noviembre de 2016 . Consultado el 7 de noviembre de 2016 .
- Haugeland, John (1985). Inteligencia artificial: la idea misma . Cambridge, Mass .: MIT Press. ISBN 978-0-262-08153-5.
- Hawkins, Jeff ; Blakeslee, Sandra (2005). Sobre inteligencia . Nueva York, NY: Owl Books. ISBN 978-0-8050-7853-4.
- Henderson, Mark (24 de abril de 2007). "¿Derechos humanos para los robots? Nos dejamos llevar" . The Times Online . Londres. Archivado desde el original el 31 de mayo de 2014 . Consultado el 31 de mayo de 2014 .
- Hernández-Orallo, José (2000). "Más allá de la prueba de Turing". Revista de Lógica, Lenguaje e Información . 9 (4): 447–466. doi : 10.1023 / A: 1008367325700 . S2CID 14481982 .
- Hernandez-Orallo, J .; Dowe, DL (2010). "Medición de la inteligencia universal: hacia una prueba de inteligencia en cualquier momento". Inteligencia artificial . 174 (18): 1508-1539. CiteSeerX 10.1.1.295.9079 . doi : 10.1016 / j.artint.2010.09.006 .
- Hinton, GE (2007). "Aprendiendo múltiples capas de representación". Tendencias en ciencias cognitivas . 11 (10): 428–434. doi : 10.1016 / j.tics.2007.09.004 . PMID 17921042 . S2CID 15066318 .
- Hofstadter, Douglas (1979). Gödel, Escher, Bach: una eterna trenza dorada . Nueva York, NY: Vintage Books. ISBN 978-0-394-74502-2.
- Holanda, John H. (1975). Adaptación en sistemas naturales y artificiales . Prensa de la Universidad de Michigan. ISBN 978-0-262-58111-0. Archivado desde el original el 26 de julio de 2020 . Consultado el 17 de diciembre de 2019 .
- Howe, J. (noviembre de 1994). "Inteligencia artificial en la Universidad de Edimburgo: una perspectiva" . Archivado desde el original el 15 de mayo de 2007 . Consultado el 30 de agosto de 2007 .
- Hutter, M. (2012). "Una década de inteligencia artificial universal". Fundamentos teóricos de la inteligencia artificial general . Máquinas pensantes de Atlantis. 4 . págs. 67–88. CiteSeerX 10.1.1.228.8725 . doi : 10.2991 / 978-94-91216-62-6_5 . ISBN 978-94-91216-61-9. S2CID 8888091 .
- Kahneman, Daniel ; Slovic, D .; Tversky, Amos (1982). Juicio bajo incertidumbre: heurísticas y sesgos . Ciencia . 185 . Nueva York: Cambridge University Press. págs. 1124-1131. doi : 10.1126 / science.185.4157.1124 . ISBN 978-0-521-28414-1. PMID 17835457 . S2CID 143452957 .
- Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri en mi mano, ¿quién es el más hermoso de la tierra? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Horizontes de negocios . 62 : 15-25. doi : 10.1016 / j.bushor.2018.08.004 .
- Katz, Yarden (1 de noviembre de 2012). "Noam Chomsky sobre dónde salió mal la inteligencia artificial" . El Atlántico . Archivado desde el original el 28 de febrero de 2019 . Consultado el 26 de octubre de 2014 .
- Koza, John R. (1992). Programación genética (sobre la programación de computadoras por medio de selección natural) . Prensa del MIT. Bibcode : 1992gppc.book ..... K . ISBN 978-0-262-11170-6.
- Kolata, G. (1982). "¿Cómo pueden las computadoras adquirir sentido común?". Ciencia . 217 (4566): 1237–1238. Código Bibliográfico : 1982Sci ... 217.1237K . doi : 10.1126 / science.217.4566.1237 . PMID 17837639 .
- Kumar, Gulshan; Kumar, Krishan (2012). "El uso de conjuntos basados en inteligencia artificial para la detección de intrusiones: una revisión" . Inteligencia Computacional Aplicada y Soft Computing . 2012 : 1–20. doi : 10.1155 / 2012/850160 .
- Kurzweil, Ray (1990), La era de las máquinas inteligentes , Cambridge, MA: MIT Press, ISBN 0-262-11121-7
- Kurzweil, Ray (1999). La era de las máquinas espirituales . Libros de pingüinos. ISBN 978-0-670-88217-5.
- Kurzweil, Ray (2005). La singularidad está cerca . Libros de pingüinos. ISBN 978-0-670-03384-3.
- Lakoff, George ; Núñez, Rafael E. (2000). De dónde provienen las matemáticas: cómo la mente encarnada hace que las matemáticas existan . Libros básicos. ISBN 978-0-465-03771-1.
- Langley, Pat (2011). "La ciencia cambiante del aprendizaje automático" . Aprendizaje automático . 82 (3): 275-279. doi : 10.1007 / s10994-011-5242-y .
- Law, Diane (junio de 1994). Searle, Funcionalismo subsimbólico e inteligencia sintética (Informe técnico). Universidad de Texas en Austin. pag. AI94-222. CiteSeerX 10.1.1.38.8384 .
- Legg, Shane; Hutter, Marcus (15 de junio de 2007). Una colección de definiciones de inteligencia (informe técnico). IDSIA . arXiv : 0706.3639 . Código bibliográfico : 2007arXiv0706.3639L . 07-07.
- Lenat, Douglas ; Guha, RV (1989). Construyendo grandes sistemas basados en el conocimiento . Addison-Wesley. ISBN 978-0-201-51752-1.
- Lighthill, James (1973). "Inteligencia artificial: un estudio general". Inteligencia artificial: un simposio en papel . Consejo de Investigaciones Científicas.
- Lombardo, P; Boehm, yo; Nairz, K (2020). "RadioComics - Santa Claus y el futuro de la radiología" . Eur J Radiol . 122 (1): 108771. doi : 10.1016 / j.ejrad.2019.108771 . PMID 31835078 .
- Lucas, John (1961). "Mentes, Máquinas y Gödel". En Anderson, AR (ed.). Mentes y Máquinas . Archivado desde el original el 19 de agosto de 2007 . Consultado el 30 de agosto de 2007 .
- Lungarella, M .; Metta, G .; Pfeifer, R .; Sandini, G. (2003). "Robótica del desarrollo: una encuesta". Ciencia de la conexión . 15 (4): 151-190. CiteSeerX 10.1.1.83.7615 . doi : 10.1080 / 09540090310001655110 . S2CID 1452734 .
- Maker, Meg Houston (2006). "AI @ 50: AI pasado, presente, futuro" . Universidad de Dartmouth. Archivado desde el original el 3 de enero de 2007 . Consultado el 16 de octubre de 2008 .
- McCarthy, John ; Minsky, Marvin ; Rochester, Nathan ; Shannon, Claude (1955). "Una propuesta para el proyecto de investigación de verano de Dartmouth sobre inteligencia artificial" . Archivado desde el original el 26 de agosto de 2007 . Consultado el 30 de agosto de 2007 .
- McCarthy, John ; Hayes, PJ (1969). "Algunos problemas filosóficos desde el punto de vista de la inteligencia artificial" . Inteligencia de máquina . 4 : 463–502. CiteSeerX 10.1.1.85.5082 . Archivado desde el original el 10 de agosto de 2007 . Consultado el 30 de agosto de 2007 .
- McCarthy, John (12 de noviembre de 2007). "¿Qué es la inteligencia artificial?" . www-formal.stanford.edu . Archivado desde el original el 18 de noviembre de 2015.
- McCarthy, John (12 de noviembre de 2007). "Aplicaciones de la IA" . www-formal.stanford.edu . Archivado desde el original el 28 de agosto de 2016 . Consultado el 25 de septiembre de 2016 .
- Minsky, Marvin (1967). Computación: máquinas finitas e infinitas . Englewood Cliffs, Nueva Jersey: Prentice-Hall. ISBN 978-0-13-165449-5. Archivado desde el original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
- Minsky, Marvin (2006). La máquina de la emoción . Nueva York, NY: Simon & Schusterl. ISBN 978-0-7432-7663-4.
- Moravec, Hans (1988). Niños de la mente . Prensa de la Universidad de Harvard. ISBN 978-0-674-57616-2. Archivado desde el original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
- Norvig, Peter (25 de junio de 2012). "Sobre Chomsky y las dos culturas del aprendizaje estadístico" . Peter Norvig. Archivado desde el original el 19 de octubre de 2014.
- NRC (Consejo Nacional de Investigaciones de Estados Unidos) (1999). "Desarrollos en Inteligencia Artificial". Financiamiento de una revolución: apoyo del gobierno a la investigación en computación . Prensa de la Academia Nacional.
- Needham, Joseph (1986). Ciencia y civilización en China: Volumen 2 . Caves Books Ltd.
- Newell, Allen ; Simon, HA (1976). "La informática como investigación empírica: símbolos y búsqueda" . Comunicaciones de la ACM . 19 (3): 113–126. doi : 10.1145 / 360018.360022 ..
- Nilsson, Nils (1983). "La inteligencia artificial se prepara para 2001" (PDF) . Revista AI . 1 (1). Archivado (PDF) desde el original el 17 de agosto de 2020 . Consultado el 22 de agosto de 2020 .Discurso presidencial a la Asociación para el Avance de la Inteligencia Artificial .
- O'Brien, James; Marakas, George (2011). Sistemas de información gerencial (10ª ed.). McGraw-Hill / Irwin. ISBN 978-0-07-337681-3.
- O'Connor, Kathleen Malone (1994). La creación alquímica de la vida (takwin) y otros conceptos del Génesis en el Islam medieval (Disertación). Universidad de Pennsylvania. págs. 1-435. AAI9503804. Archivado desde el original el 5 de diciembre de 2019 . Consultado el 27 de agosto de 2008 , a través de Disertaciones disponibles en ProQuest.
- Oudeyer, PY. (2010). "Sobre el impacto de la robótica en las ciencias cognitivas y del comportamiento: desde la navegación de insectos hasta el desarrollo cognitivo humano" (PDF) . Transacciones IEEE sobre desarrollo mental autónomo . 2 (1): 2-16. doi : 10.1109 / tamd.2009.2039057 . S2CID 6362217 . Archivado (PDF) desde el original el 3 de octubre de 2018 . Consultado el 4 de junio de 2013 .
- Penrose, Roger (1989). La nueva mente del emperador: sobre la computadora, las mentes y las leyes de la física . Prensa de la Universidad de Oxford . ISBN 978-0-19-851973-7.
- Poli, R .; Langdon, WB; McPhee, NF (2008). Una guía de campo para la programación genética . Lulu.com. ISBN 978-1-4092-0073-4. Archivado desde el original el 8 de agosto de 2015 . Consultado el 21 de abril de 2008 , a través de gp-field-guide.org.uk.
- Rajani, Sandeep (2011). "Inteligencia artificial: hombre o máquina" (PDF) . Revista Internacional de Tecnología de la Información y Gestión del Conocimiento . 4 (1): 173-176. Archivado desde el original (PDF) el 18 de enero de 2013.
- Schank, Roger C. (1991). "¿Dónde está la IA". Revista AI . Vol. 12 no. 4.
- Ronald, EMA y Sipper, M. La inteligencia no es suficiente: sobre la socialización de las máquinas parlantes, Minds and Machines Archivado el 25 de julio de 2020 en Wayback Machine , vol. 11, no. 4, págs. 567–576, noviembre de 2001.
- Ronald, EMA y Sipper, M. ¿De qué sirve una charlatana de Turing? Archivado el 25 de julio de 2020 en Wayback Machine , Communications of the ACM, vol. 43, no. 10, págs. 21-23, octubre de 2000.
- "Ciencia" . Agosto de 1982. Archivado desde el original el 25 de julio de 2020 . Consultado el 16 de febrero de 2016 .
- Searle, John (1980). "Mentes, cerebros y programas" (PDF) . Ciencias del comportamiento y del cerebro . 3 (3): 417–457. doi : 10.1017 / S0140525X00005756 . Archivado (PDF) desde el original el 17 de marzo de 2019 . Consultado el 22 de agosto de 2020 .
- Searle, John (1999). Mente, lenguaje y sociedad . Nueva York, NY: Basic Books. ISBN 978-0-465-04521-1. OCLC 231867665 . Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- Shapiro, Stuart C. (1992). "Inteligencia artificial". En Shapiro, Stuart C. (ed.). Enciclopedia de Inteligencia Artificial (PDF) (2ª ed.). Nueva York: John Wiley. págs. 54–57. ISBN 978-0-471-50306-4. Archivado (PDF) desde el original el 1 de febrero de 2016 . Consultado el 29 de mayo de 2009 .
- Simon, HA (1965). La forma de la automatización para los hombres y la gestión . Nueva York: Harper & Row. Archivado desde el original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
- Skillings, Jonathan (3 de julio de 2006). "Conseguir que las máquinas piensen como nosotros" . cnet . Archivado desde el original el 16 de noviembre de 2011 . Consultado el 3 de febrero de 2011 .
- Solomonoff, Ray (1956). Una máquina de inferencia inductiva (PDF) . Conferencia de investigación de verano de Dartmouth sobre inteligencia artificial. Archivado (PDF) desde el original el 26 de abril de 2011 . Consultado el 22 de marzo de 2011 , a través de std.com, copia escaneada en pdf del original. Posteriormente publicado como
Solomonoff, Ray (1957). "Una máquina de inferencia inductiva". Registro de la Convención IRE . Sección sobre teoría de la información, parte 2. págs. 56–62. - Spadafora, Anthony (21 de octubre de 2016). "Stephen Hawking cree que la IA podría ser el último logro de la humanidad" . BetaNews . Archivado desde el original el 28 de agosto de 2017.
- Tao, Jianhua; Tan, Tieniu (2005). Computación afectiva e interacción inteligente . Computación afectiva: una revisión. LNCS 3784. Springer. págs. 981–995. doi : 10.1007 / 11573548 .
- Tecuci, Gheorghe (marzo-abril de 2012). "Inteligencia artificial". Revisiones interdisciplinarias de Wiley: Estadística computacional . 4 (2): 168–180. doi : 10.1002 / wics.200 .
- Thro, Ellen (1993). Robótica: el matrimonio de computadoras y máquinas . Nueva York: hechos registrados. ISBN 978-0-8160-2628-9. Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- Turing, Alan (octubre de 1950), "Computing Machinery and Intelligence", Mind , LIX (236): 433–460, doi : 10.1093 / mind / LIX.236.433 , ISSN 0026-4423.
- van der Walt, Christiaan; Bernard, Etienne (2006). "Características de los datos que determinan el desempeño del clasificador" (PDF) . Archivado desde el original (PDF) el 25 de marzo de 2009 . Consultado el 5 de agosto de 2009 .
- Vinge, Vernor (1993). "La singularidad tecnológica venidera: cómo sobrevivir en la era post-humana" . Visión 21: Ciencia e ingeniería interdisciplinarias en la era del ciberespacio : 11. Bibcode : 1993vise.nasa ... 11V . Archivado desde el original el 1 de enero de 2007 . Consultado el 14 de noviembre de 2011 .
- Wason, PC ; Shapiro, D. (1966). "Razonamiento" . En Foss, BM (ed.). Nuevos horizontes en psicología . Harmondsworth: pingüino. Archivado desde el original el 26 de julio de 2020 . Consultado el 18 de noviembre de 2019 .
- Weizenbaum, Joseph (1976). El poder informático y la razón humana . San Francisco: WH Freeman & Company. ISBN 978-0-7167-0464-5.
- Weng, J .; McClelland; Pentland, A .; Sporns, O .; Stockman, I .; Sur, M .; Thelen, E. (2001). "Desarrollo mental autónomo por robots y animales" (PDF) . Ciencia . 291 (5504): 599–600. doi : 10.1126 / science.291.5504.599 . PMID 11229402 . S2CID 54131797 . Archivado (PDF) desde el original el 4 de septiembre de 2013 . Consultado el 4 de junio de 2013 , a través de msu.edu.
Otras lecturas
- DH Author, '¿Por qué todavía hay tantos trabajos? La historia y el futuro de la automatización del lugar de trabajo '(2015) 29 (3) Journal of Economic Perspectives 3.
- Boden, Margaret , Mente como máquina , Oxford University Press , 2006.
- Cukier, Kenneth , "¿Listo para los robots? Cómo pensar en el futuro de la IA", Foreign Affairs , vol. 98, no. 4 (julio / agosto de 2019), págs. 192–98. George Dyson , historiador de la informática, escribe (en lo que podría llamarse "Ley de Dyson") que "Cualquier sistema lo suficientemente simple como para ser comprensible no será lo suficientemente complicado para comportarse de manera inteligente, mientras que cualquier sistema lo suficientemente complicado para comportarse de manera inteligente será demasiado complicado para comprender." (p. 197.) El científico informático Alex Pentland escribe: "Los algoritmos actuales de aprendizaje automático de IA son, en esencia, completamente estúpidos. Funcionan, pero funcionan por la fuerza bruta". (pág. 198.)
- Domingos, Pedro , "Nuestros dobles digitales: la IA servirá a nuestra especie, no la controlará", Scientific American , vol. 319, no. 3 (septiembre de 2018), págs. 88–93.
- Gopnik, Alison , "Haciendo que la IA sea más humana: la inteligencia artificial ha experimentado un renacimiento al comenzar a incorporar lo que sabemos sobre cómo aprenden los niños", Scientific American , vol. 316, no. 6 (junio de 2017), págs. 60–65.
- Johnston, John (2008) El encanto de la vida maquínica: cibernética, vida artificial y la nueva IA , MIT Press.
- Koch, Christof , "Proust entre las máquinas", Scientific American , vol. 321, no. 6 (diciembre de 2019), págs. 46–49. Christof Koch duda de la posibilidad de que las máquinas "inteligentes" alcancen la conciencia , porque " es poco probable que las simulaciones cerebrales más sofisticadas produzcan sentimientos conscientes ". (p. 48.) Según Koch, "Si las máquinas pueden volverse sensibles [es importante] por razones éticas . Si las computadoras experimentan la vida a través de sus propios sentidos, dejan de ser puramente un medio para un fin determinado por su utilidad para ... .humanos. Según GNW [la teoría del espacio de trabajo neuronal global ], pasan de meros objetos a sujetos ... con un punto de vista ... Una vez que las capacidades cognitivas de las computadoras rivalizan con las de la humanidad, su impulso de presionar por leyes y políticas los derechos se volverán irresistibles: el derecho a no ser borrados, a que no se borren sus recuerdos, a no sufrir dolor y degradación. La alternativa, encarnada por IIT [Teoría de la Información Integrada], es que las computadoras seguirán siendo sólo una maquinaria supersofisticada, vacía como un fantasma conchas, desprovistas de lo que más valoramos: el sentimiento de la vida misma ". (pág.49)
- Marcus, Gary , "¿Soy humano?: Los investigadores necesitan nuevas formas de distinguir la inteligencia artificial de la natural", Scientific American , vol. 316, no. 3 (marzo de 2017), págs. 58–63. Un obstáculo para la IA ha sido la incapacidad para una desambiguación confiable . Un ejemplo es el "problema de desambiguación de pronombres": una máquina no tiene forma de determinar a quién oa qué se refiere un pronombre en una oración. (pág.61).
- E McGaughey, '¿Los robots automatizarán su trabajo? Pleno empleo, renta básica y democracia económica '(2018) SSRN, parte 2 (3) Archivado el 24 de mayo de 2018 en Wayback Machine .
- George Musser , " Imaginación artificial : cómo las máquinas pueden aprender la creatividad y el sentido común , entre otras cualidades humanas", Scientific American , vol. 320, no. 5 (mayo de 2019), págs. 58–63.
- Myers, Courtney Boyd ed. (2009). "The AI Report" Archivado el 29 de julio de 2017 en Wayback Machine . Forbes, junio de 2009
- Rafael, Bertram (1976). La computadora pensante . WHFreeman and Company. ISBN 978-0-7167-0723-3. Archivado desde el original el 26 de julio de 2020 . Consultado el 22 de agosto de 2020 .
- Scharre, Paul, "Aplicaciones asesinas: los peligros reales de una carrera armamentista de IA", Asuntos Exteriores , vol. 98, no. 3 (mayo / junio de 2019), págs. 135–44. "Las tecnologías de inteligencia artificial de hoy son poderosas pero poco confiables. Los sistemas basados en reglas no pueden lidiar con circunstancias que sus programadores no anticiparon. Los sistemas de aprendizaje están limitados por los datos en los que fueron entrenados. Las fallas de inteligencia artificial ya han llevado a una tragedia. Funciones avanzadas de piloto automático en automóviles, aunque funcionan bien en algunas circunstancias, han conducido automóviles sin previo aviso contra camiones, barreras de concreto y automóviles estacionados. En la situación incorrecta, los sistemas de IA pasan de súper inteligentes a superdumb en un instante. Cuando un enemigo está tratando de manipular y piratear una IA sistema, los riesgos son aún mayores ". (pág. 140.)
- Serenko, Alexander (2010). "El desarrollo de un ranking de revistas de IA basado en el enfoque de preferencia revelada" (PDF) . Revista de Informetrics . 4 (4): 447–459. doi : 10.1016 / j.joi.2010.04.001 . Archivado (PDF) desde el original el 4 de octubre de 2013 . Consultado el 24 de agosto de 2013 .
- Serenko, Alexander; Michael Dohan (2011). "Comparación de la encuesta de expertos y los métodos de clasificación de revistas de impacto de citas: ejemplo del campo de la inteligencia artificial" (PDF) . Revista de Informetrics . 5 (4): 629–649. doi : 10.1016 / j.joi.2011.06.002 . Archivado (PDF) desde el original el 4 de octubre de 2013 . Consultado el 12 de septiembre de 2013 .
- Tom Simonite (29 de diciembre de 2014). "2014 en informática: avances en inteligencia artificial" . Revisión de tecnología del MIT .
- Sun, R. y Bookman, L. (eds.), Arquitecturas computacionales: Integración de procesos neuronales y simbólicos . Editores académicos de Kluwer, Needham, MA. 1994.
- Taylor, Paul, "Insanely Complicated, Hopefully Inadequate" (revisión de Brian Cantwell Smith , The Promise of Artificial Intelligence: Reckoning and Judgment , MIT, octubre de 2019, ISBN 978 0 262 04304 5 , 157 págs .; Gary Marcus y Ernest Davis, Rebooting AI: Building Artificial Intelligence We Can Trust , Ballantine, septiembre de 2019, ISBN 978 1 5247 4825 8 , 304 págs .; Judea Pearl y Dana Mackenzie, The Book of Why: The New Science of Cause and Effect , Penguin, mayo de 2019, ISBN 978 0 14 198241 0 , 418 págs.), London Review of Books , vol. 43, no. 2 (21 de enero de 2021), págs. 37–39. Paul Taylor escribe (p. 39): "Quizás haya un límite en lo que una computadora puede hacer sin saber que está manipulando representaciones imperfectas de una realidad externa".
- Tooze, Adam , "La democracia y sus descontentos", The New York Review of Books , vol. LXVI, no. 10 (6 de junio de 2019), págs. 52–53, 56–57. "La democracia no tiene una respuesta clara para la operación sin sentido del poder burocrático y tecnológico . De hecho, podemos estar presenciando su extensión en forma de inteligencia artificial y robótica. Asimismo, después de décadas de advertencias nefastas, el problema ambiental permanece fundamentalmente sin abordar ... La extralimitación burocrática y la catástrofe ambiental son precisamente el tipo de desafíos existenciales lentos que las democracias enfrentan muy mal ... Finalmente, está la amenaza del día: las corporaciones y las tecnologías que promueven ". (págs. 56–57.)
enlaces externos
- "Inteligencia artificial" . Enciclopedia de Filosofía de Internet .
- Thomason, Richmond. "Lógica e Inteligencia Artificial" . En Zalta, Edward N. (ed.). Enciclopedia de Filosofía de Stanford .
- Inteligencia artificial , BBC Radio 4 discusión con John Agar, Alison Adam e Igor Aleksander ( In Our Time , 8 de diciembre de 2005)