Inteligencia artificial general


De Wikipedia, la enciclopedia libre
  (Redirigido desde Inteligencia artificial general )
Saltar a navegación Saltar a búsqueda

La inteligencia artificial general ( AGI ) es la capacidad hipotética [1] de un agente inteligente para comprender o aprender cualquier tarea intelectual que pueda realizar un ser humano . [2] Es un objetivo principal de algunas investigaciones sobre inteligencia artificial y un tema común en la ciencia ficción y los estudios de futuro . AGI también se puede denominar IA fuerte , [3] [4] [5] IA completa , [6] o acción inteligente general . [7] Algunas fuentes académicas reservan el término "IA fuerte" para los programas de computadora que pueden experimentar sensibilidad , autoconciencia y conciencia . [8] A finales de la década de 2010, se especula que la IA estará a décadas de distancia de AGI. [9] [10]

A diferencia de la IA fuerte, la IA débil [11] (también llamada IA ​​estrecha [4] ) no está destinada a tener una personalidad y capacidades cognitivas similares a las humanas ; más bien, la IA débil se limita al uso de software para estudiar o realizar tareas específicas de resolución de problemas o razonamiento previamente aprendidas ( sistemas expertos ). [12]

A partir de 2017, más de cuarenta organizaciones están investigando activamente AGI. [13]

Caracteristicas

Se han propuesto varios criterios para la inteligencia (el más famoso es la prueba de Turing ), pero hasta la fecha, no existe una definición que satisfaga a todos. [a] Sin embargo, no es amplio consenso entre los investigadores de inteligencia artificial que se requiere inteligencia para hacer lo siguiente: [15]

  • razonar , utilizar estrategias, resolver acertijos y emitir juicios en condiciones de incertidumbre ;
  • representar el conocimiento , incluido el conocimiento de sentido común ;
  • planificar ;
  • aprender ;
  • comunicarse en lenguaje natural ;
  • e integrar todas estas habilidades hacia objetivos comunes.

Otras capacidades importantes incluyen la capacidad de sentir (por ejemplo, ver ) y la capacidad de actuar (por ejemplo, mover y manipular objetos ) en el mundo donde se debe observar el comportamiento inteligente. [16] Esto incluiría la capacidad de detectar y responder a peligros . [17] Muchos enfoques interdisciplinarios de la inteligencia (por ejemplo , ciencia cognitiva , inteligencia computacional y toma de decisiones ) tienden a enfatizar la necesidad de considerar rasgos adicionales como la imaginación (tomada como la capacidad de formar imágenes y conceptos mentales que no fueron programados en) [18] ] yautonomía . [19] Existen sistemas basados ​​en computadora que exhiben muchas de estas capacidades (por ejemplo, ver creatividad computacional , razonamiento automatizado , sistema de soporte de decisiones , robot , computación evolutiva , agente inteligente ), pero aún no a niveles humanos.

Pruebas para confirmar el AGI a nivel humano

Se han considerado las siguientes pruebas para confirmar el AGI a nivel humano: [20] [21]

La prueba de Turing ( Turing )
Una máquina y un humano conversan sin ser vistos con un segundo humano, que debe evaluar cuál de los dos es la máquina, que pasa la prueba si puede engañar al evaluador una fracción significativa del tiempo. Nota: Turing no prescribe lo que debería calificar como inteligencia, solo que saber que es una máquina debería descalificarla.
La prueba del café ( Wozniak )
Se requiere una máquina para ingresar a una casa estadounidense promedio y descubrir cómo hacer café: encuentre la máquina de café, encuentre el café, agregue agua, encuentre una taza y prepare el café presionando los botones adecuados.
Prueba para estudiantes universitarios de robots ( Goertzel )
Una máquina se inscribe en una universidad, toma y aprueba las mismas clases que los humanos, y obtiene un título.
Ben Goertzel declara: "Un estudiante universitario robot probablemente tendrá una variedad de conciencia y experiencia vagamente similar a la de un ser humano". [22]
La prueba de empleo ( Nilsson )
Una máquina realiza un trabajo económicamente importante al menos tan bien como los humanos en el mismo trabajo.

Problemas que requieren AGI para resolver

Los problemas más difíciles para las computadoras se conocen informalmente como "AI completo" o "AI difícil", lo que implica que resolverlos es equivalente a la aptitud general de la inteligencia humana, o AI fuerte, más allá de las capacidades de un algoritmo de propósito específico. [23]

Se plantea la hipótesis de que los problemas completos de IA incluyen la visión general por computadora , la comprensión del lenguaje natural y el manejo de circunstancias inesperadas mientras se resuelve cualquier problema del mundo real. [24]

Los problemas completos de IA no se pueden resolver solo con la tecnología informática actual, y también requieren computación humana . Esta propiedad podría ser útil, por ejemplo, para probar la presencia de humanos, como pretenden hacer los CAPTCHA ; y para que la seguridad informática repele los ataques de fuerza bruta . [25] [26]

Historia

IA clásica

La investigación moderna de la IA comenzó a mediados de la década de 1950. [27] La primera generación de investigadores de IA estaba convencida de que la inteligencia artificial general era posible y que existiría en unas pocas décadas. El pionero de la IA, Herbert A. Simon, escribió en 1965: "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer". [28] Sus predicciones fueron la inspiración para el personaje de Stanley Kubrick y Arthur C. Clarke HAL 9000 , quien encarnó lo que los investigadores de IA creían que podían crear para el año 2001. El pionero de la IA Marvin Minsky fue consultor [29]sobre el proyecto de hacer que HAL 9000 sea lo más realista posible de acuerdo con las predicciones consensuadas de la época; Crevier lo cita diciendo sobre el tema en 1967: "Dentro de una generación ... el problema de crear 'inteligencia artificial' se resolverá sustancialmente", [30] aunque Minsky afirma que fue citado erróneamente. [ cita requerida ]

Sin embargo, a principios de la década de 1970, se hizo evidente que los investigadores habían subestimado enormemente la dificultad del proyecto. Las agencias de financiamiento se volvieron escépticas con AGI y presionaron cada vez más a los investigadores para producir una "IA aplicada" útil. [b] Cuando comenzó la década de 1980, el Proyecto de Computadoras de Quinta Generación de Japón revivió el interés en AGI, estableciendo una línea de tiempo de diez años que incluía metas de AGI como "mantener una conversación informal". [34] En respuesta a esto y al éxito de los sistemas expertos , tanto la industria como el gobierno volvieron a inyectar dinero en el campo. [32] [35] Sin embargo, la confianza en la IA se derrumbó espectacularmente a fines de la década de 1980, y los objetivos del Proyecto de Computadora de Quinta Generación nunca se cumplieron.[36] Por segunda vez en 20 años, se demostró que los investigadores de IA que habían predicho el logro inminente de AGI estaban fundamentalmente equivocados. En la década de 1990, los investigadores de IA se habían ganado la reputación de hacer promesas vanas. Se volvieron reacios a hacer predicciones en absoluto [c] y evitar cualquier mención de inteligencia artificial de "nivel humano" por temor a ser etiquetados como "soñadores de ojos salvajes". [38]

Investigación estrecha de IA

En la década de 1990 y principios del siglo XXI, la IA convencional logró un éxito comercial y una respetabilidad académica mucho mayores al centrarse en subproblemas específicos en los que pueden producir resultados verificables y aplicaciones comerciales, como redes neuronales artificiales y aprendizaje automático estadístico . [39] Estos sistemas de "IA aplicada" ahora se utilizan ampliamente en toda la industria de la tecnología, y la investigación en este sentido está muy financiada tanto en la academia como en la industria. Actualmente, el desarrollo en este campo se considera una tendencia emergente y se espera que ocurra una etapa de madurez en más de 10 años. [40]

La mayoría de los investigadores de IA convencionales esperan que se pueda desarrollar una IA fuerte combinando los programas que resuelven varios subproblemas. Hans Moravec escribió en 1988:

"Estoy seguro de que esta ruta ascendente hacia la inteligencia artificial algún día se encontrará con la ruta descendente tradicional más de la mitad, lista para proporcionar la competencia del mundo real y el conocimiento de sentido común que ha sido tan frustrantemente esquivo en los programas de razonamiento. se producirán máquinas inteligentes cuando se impulse la metafórica punta dorada uniendo los dos esfuerzos ". [41]

Sin embargo, incluso esta filosofía fundamental ha sido cuestionada; por ejemplo, Stevan Harnad de Princeton concluyó su artículo de 1990 sobre la Hipótesis de la base del símbolo afirmando:

"A menudo se ha expresado la expectativa de que los enfoques" de arriba hacia abajo "(simbólicos) para modelar la cognición se encontrarán de alguna manera con los enfoques" de abajo hacia arriba "(sensoriales) en algún punto intermedio. Si las consideraciones de base en este documento son válidas, entonces esta expectativa es irremediablemente modular y realmente solo hay una ruta viable desde el sentido a los símbolos: desde cero. Un nivel simbólico flotante como el nivel de software de una computadora nunca se alcanzará por esta ruta (o viceversa), ni está claro por qué deberíamos intentar alcanzar ese nivel, ya que parece que llegar allí equivaldría a desarraigar nuestros símbolos de sus significados intrínsecos (reduciéndonos así simplemente al equivalente funcional de una computadora programable) ". [42]

Investigación moderna de inteligencia artificial general

El término "inteligencia general artificial" fue utilizado ya en 1997 por Mark Gubrud [43] en una discusión sobre las implicaciones de la producción y operaciones militares totalmente automatizadas. El término fue re-introducido y popularizado por Shane Legg y Ben Goertzel alrededor de 2002. [44] El objetivo de la investigación es mucho más antigua, por ejemplo Doug Lenat 's Cyc proyecto (que comenzó en 1984), y Allen Newell ' s Soar proyecto son considerado dentro del alcance de AGI. La actividad de investigación de AGI en 2006 fue descrita por Pei Wang y Ben Goertzel [45]como "producción de publicaciones y resultados preliminares". La primera escuela de verano en AGI fue organizada en Xiamen, China en 2009 [46] por el Laboratorio de Cerebro Artificial de la Universidad de Xiamen y OpenCog. El primer curso universitario se impartió en 2010 [47] y 2011 [48] en la Universidad de Plovdiv, Bulgaria, por Todor Arnaudov. El MIT presentó un curso sobre AGI en 2018, organizado por Lex Fridman y con varios conferenciantes invitados. Sin embargo, hasta ahora, la mayoría de los investigadores de IA han prestado poca atención a la AGI, y algunos afirman que la inteligencia es demasiado compleja para ser replicada por completo a corto plazo. Sin embargo, un pequeño número de científicos informáticos participan activamente en la investigación de AGI, y muchos de este grupo están contribuyendo a una serie de conferencias de AGI.. La investigación es extremadamente diversa y, a menudo, pionera en la naturaleza. En la introducción a su libro, [49] Goertzel dice que las estimaciones del tiempo necesario antes de que se construya una AGI verdaderamente flexible varían de 10 años a más de un siglo, pero el consenso en la comunidad de investigación de AGI parece ser que la línea de tiempo discutida por Ray Kurzweil en The Singularity is Near [50] (es decir, entre 2015 y 2045) es plausible. [51]

Sin embargo, los principales investigadores de la IA han dado una amplia gama de opiniones sobre si el progreso será tan rápido. Un metanálisis de 2012 de 95 opiniones de este tipo encontró un sesgo hacia la predicción de que la aparición de AGI ocurriría dentro de los 16 a 26 años para las predicciones modernas e históricas por igual. Más tarde se descubrió que el conjunto de datos enumeraba a algunos expertos como no expertos y viceversa. [52]

Las organizaciones que persiguen explícitamente AGI incluyen el laboratorio suizo de IA IDSIA , [53] Nnaisense, [54] Vicarious , Maluuba , [13] la OpenCog Foundation , Adaptive AI, LIDA y Numenta y el asociado Redwood Neuroscience Institute . [55] Además, organizaciones como el Machine Intelligence Research Institute [56] y OpenAI [57] se han fundado para influir en el camino de desarrollo de AGI. Por último, proyectos como el Proyecto Cerebro Humano [58]tienen el objetivo de construir una simulación funcional del cerebro humano. Una encuesta de 2017 de AGI categorizó cuarenta y cinco "proyectos activos de I + D" que explícita o implícitamente (a través de investigaciones publicadas) investigan AGI, y los tres más grandes son DeepMind , Human Brain Project y OpenAI . [13]

En 2017, [ cita requerida ] Ben Goertzel fundó la plataforma de inteligencia artificial SingularityNET con el objetivo de facilitar el control democrático y descentralizado de AGI cuando llegue. [59]

En 2017, los investigadores Feng Liu, Yong Shi y Ying Liu realizaron pruebas de inteligencia en IA débil disponible públicamente y de libre acceso, como Google AI o Siri de Apple y otros. Como máximo, estas IA alcanzaron un valor de CI de alrededor de 47, lo que corresponde aproximadamente a un niño de seis años en primer grado. Un adulto llega a alrededor de 100 en promedio. En 2014 se llevaron a cabo pruebas similares, y la puntuación de CI alcanzó un valor máximo de 27. [60] [61]

En 2019, el programador de videojuegos e ingeniero aeroespacial John Carmack anunció planes para investigar AGI. [62]

En 2020, OpenAI desarrolló GPT-3 , un modelo de lenguaje capaz de realizar muchas tareas diversas sin una formación específica. Según Gary Grossman en un artículo de VentureBeat , si bien existe consenso en que GPT-3 no es un ejemplo de AGI, algunos lo consideran demasiado avanzado para clasificarlo como un sistema de IA estrecho. [63]

Simulación de cerebro

Emulación de cerebro completo

Un enfoque popularmente discutido para lograr una acción inteligente general es la emulación de todo el cerebro . Un modelo de cerebro de bajo nivel se construye escaneando y mapeando un cerebro biológico en detalle y copiando su estado en un sistema informático u otro dispositivo computacional. La computadora ejecuta un modelo de simulación tan fiel al original que se comportará esencialmente de la misma manera que el cerebro original, o para todos los propósitos prácticos, de manera indistinguible. [64] La emulación del cerebro completo se analiza en neurociencia computacional y neuroinformática , en el contexto de la simulación cerebral con fines de investigación médica. Se discute eninvestigación en inteligencia artificial [51] como enfoque para una IA fuerte. Las tecnologías de neuroimagen que podrían proporcionar la comprensión detallada necesaria están mejorando rápidamente, y el futurista Ray Kurzweil en el libro The Singularity Is Near [50] predice que un mapa de calidad suficiente estará disponible en una escala de tiempo similar a la potencia de cálculo requerida.

Estimaciones tempranas

Estimaciones de cuánta potencia de procesamiento se necesita para emular un cerebro humano en varios niveles (de Ray Kurzweil y Anders Sandberg y Nick Bostrom ), junto con la supercomputadora más rápida de TOP500 mapeada por año. Tenga en cuenta la escala logarítmica y la línea de tendencia exponencial, que supone que la capacidad de cálculo se duplica cada 1,1 años. Kurzweil cree que la carga mental será posible en la simulación neuronal, mientras que el informe de Sandberg y Bostrom es menos seguro acerca de dónde surge la conciencia . [sesenta y cinco]

Para la simulación cerebral de bajo nivel, se necesitaría una computadora extremadamente poderosa. El cerebro humano tiene una gran cantidad de sinapsis . Cada una de las 10 11 (cien mil millones) de neuronas tiene un promedio de 7.000 conexiones sinápticas (sinapsis) con otras neuronas. Se ha estimado que el cerebro de un niño de tres años tiene alrededor de 10 15 sinapsis (1 billón). Este número disminuye con la edad y se estabiliza en la edad adulta. Las estimaciones varían para un adulto, oscilando entre 10 14 y 5 × 10 14 sinapsis (100 a 500 billones). [66] Una estimación de la capacidad de procesamiento del cerebro, basada en un modelo de interruptor simple para la actividad neuronal, es de alrededor de 10 14(100 billones) de actualizaciones sinápticas por segundo ( SUPS ). [67] En 1997, Kurzweil examinó varias estimaciones del hardware necesario para igualar el cerebro humano y adoptó una cifra de 10 16 cálculos por segundo (cps). [d] (A modo de comparación, si un "cálculo" fuera equivalente a una " operación de punto flotante ", una medida utilizada para calificar las supercomputadoras actuales , entonces 10 16 "cálculos" serían equivalentes a 10 petaFLOPS , logrado en 2011). Usó esta cifra para predecir que el hardware necesario estaría disponible en algún momento entre 2015 y 2025, si continuaba el crecimiento exponencial en la potencia de las computadoras en el momento de escribir este artículo.

Modelando las neuronas con más detalle

El modelo de neurona artificial asumido por Kurzweil y utilizado en muchas implementaciones actuales de redes neuronales artificiales es simple en comparación con las neuronas biológicas . Una simulación del cerebro probablemente tendría que capturar el comportamiento celular detallado de las neuronas biológicas , actualmente entendido sólo en el más amplio de los contornos. La sobrecarga introducida por el modelado completo de los detalles biológicos, químicos y físicos del comportamiento neuronal (especialmente a escala molecular) requeriría poderes computacionales varios órdenes de magnitud mayores que la estimación de Kurzweil. Además, las estimaciones no tienen en cuenta las células gliales., que son al menos tan numerosos como las neuronas, y que pueden superar en número a las neuronas hasta en 10: 1, y ahora se sabe que desempeñan un papel en los procesos cognitivos. [70]

La investigación actual

Hay algunos proyectos de investigación que están investigando la simulación cerebral utilizando modelos neuronales más sofisticados, implementados en arquitecturas informáticas convencionales. El proyecto del Sistema de Inteligencia Artificial implementó simulaciones en tiempo no real de un "cerebro" (con 10 11 neuronas) en 2005. Se necesitaron 50 días en un grupo de 27 procesadores para simular 1 segundo de un modelo. [71] El Blue Brain proyecto utilizó una de las arquitecturas de superordenadores más rápidos del mundo, IBM 's Blue Gene plataforma, para crear una simulación real de tiempo de una sola rata columna neocortical que consiste en aproximadamente 10.000 neuronas y 10 8 sinapsis en 2006.[72] Un objetivo a más largo plazo es construir una simulación funcional detallada de los procesos fisiológicos en el cerebro humano: "No es imposible construir un cerebro humano y podemos hacerlo en 10 años", Henry Markram , director de dijo el Blue Brain Project en 2009 en la conferencia TED en Oxford. [73] También ha habido afirmaciones controvertidas de haber simulado el cerebro de un gato . Se han propuesto interfaces de neuro-silicio como una estrategia de implementación alternativa que puede escalar mejor. [74]

Hans Moravec abordó los argumentos anteriores ("los cerebros son más complicados", "las neuronas deben modelarse con más detalle") en su artículo de 1997 "¿Cuándo coincidirá el hardware de la computadora con el cerebro humano?". [69] Midió la capacidad del software existente para simular la funcionalidad del tejido neural, específicamente la retina. Sus resultados no dependen del número de células gliales, ni de qué tipo de neuronas procesadoras realizan y dónde.

La complejidad real del modelado de neuronas biológicas se ha explorado en el proyecto OpenWorm que tenía como objetivo la simulación completa de un gusano que tiene solo 302 neuronas en su red neuronal (entre aproximadamente 1000 células en total). La red neuronal del animal ha sido bien documentada antes del inicio del proyecto. Sin embargo, aunque la tarea parecía sencilla al principio, los modelos basados ​​en una red neuronal genérica no funcionaron. Actualmente, los esfuerzos se centran en la emulación precisa de neuronas biológicas (en parte a nivel molecular), pero el resultado aún no puede considerarse un éxito total. Incluso si el número de problemas a resolver en un modelo a escala de cerebro humano no es proporcional al número de neuronas, la cantidad de trabajo a lo largo de este camino es obvia. [75]

Críticas a los enfoques basados ​​en simulación

Una crítica fundamental del enfoque del cerebro simulado se deriva de la cognición encarnada, donde la encarnación humana se toma como un aspecto esencial de la inteligencia humana. Muchos investigadores creen que la encarnación es necesaria para fundamentar el significado. [76] Si este punto de vista es correcto, cualquier modelo cerebral completamente funcional deberá abarcar más que solo las neuronas (es decir, un cuerpo robótico). Goertzel [51] propone una encarnación virtual (como en Second Life ), pero aún no se sabe si esto sería suficiente.

Las computadoras de escritorio que utilizan microprocesadores con capacidad de más de 10 9 cps (la unidad no estándar de Kurzweil "cálculos por segundo", ver arriba) están disponibles desde 2005. Según las estimaciones de potencia cerebral utilizadas por Kurzweil (y Moravec), esta computadora debería ser capaz de soportar una simulación del cerebro de una abeja, pero a pesar de cierto interés [77], no existe tal simulación. [ cita requerida ] Hay al menos tres razones para esto:

  1. El modelo de neurona parece estar muy simplificado (ver la siguiente sección).
  2. No hay suficiente comprensión de los procesos cognitivos superiores [e] para establecer con precisión con qué se correlaciona la actividad neuronal del cerebro, observada mediante técnicas como la resonancia magnética funcional .
  3. Incluso si nuestra comprensión de la cognición avanza lo suficiente, es probable que los primeros programas de simulación sean muy ineficientes y, por lo tanto, necesitarán considerablemente más hardware.
  4. El cerebro de un organismo, aunque crítico, puede no ser un límite apropiado para un modelo cognitivo. Para simular un cerebro de abeja, puede ser necesario simular el cuerpo y el entorno. La tesis de Extended Mind formaliza el concepto filosófico, y la investigación sobre cefalópodos ha demostrado claros ejemplos de un sistema descentralizado. [79]

Además, la escala del cerebro humano actualmente no está bien limitada. Una estimación sitúa el cerebro humano en alrededor de 100 mil millones de neuronas y 100 billones de sinapsis. [80] [81] Otra estimación es de 86 mil millones de neuronas, de las cuales 16,3 mil millones están en la corteza cerebral y 69 mil millones en el cerebelo . [82] Actualmente, las sinapsis de las células gliales no están cuantificadas, pero se sabe que son extremadamente numerosas.

Perspectiva filosófica

En 1980, el filósofo John Searle acuñó el término "IA fuerte" como parte de su argumento de la habitación china . [83] Quería distinguir entre dos hipótesis diferentes sobre la inteligencia artificial: [f]

  • Un sistema de inteligencia artificial puede pensar y tener mente . (La palabra "mente" tiene un significado específico para los filósofos, como se usa en "el problema mente-cuerpo " o "la filosofía de la mente ").
  • Un sistema de inteligencia artificial puede (solo) actuar como piensa y tiene una mente.

La primera se llama "la hipótesis de la IA fuerte " y la segunda es "la hipótesis de la IA débil " porque la primera hace la declaración más fuerte : asume que algo especial le ha sucedido a la máquina que va más allá de todas sus capacidades que podemos probar. Searle se refirió a la "hipótesis de IA fuerte" como "IA fuerte". Este uso también es común en la investigación académica de IA y en los libros de texto. [84]

La hipótesis de la IA débil es equivalente a la hipótesis de que la inteligencia artificial general es posible. Según Russell y Norvig , "la mayoría de los investigadores de IA dan por sentada la hipótesis de IA débil y no les importa la hipótesis de IA fuerte". [85]

En contraste con Searle, Ray Kurzweil usa el término "IA fuerte" para describir cualquier sistema de inteligencia artificial que actúa como si tuviera una mente, [50] independientemente de si un filósofo podría determinar si realmente tiene una mente o no. En la ciencia ficción, AGI se asocia con rasgos como la conciencia , la sensibilidad , la sapiencia y la autoconciencia que se observan en los seres vivos. Sin embargo, según Searle, es una cuestión abierta si la inteligencia general es suficiente para la conciencia. La "IA fuerte" (según la definición anterior de Kurzweil) no debe confundirse con la " hipótesis de IA fuerte de Searle. "La hipótesis de la IA fuerte es la afirmación de que una computadora que se comporta tan inteligentemente como una persona también debe tener necesariamente una mente y una conciencia . AGI se refiere solo a la cantidad de inteligencia que muestra la máquina, con o sin mente.

Conciencia

Hay otros aspectos de la mente humana además de la inteligencia que son relevantes para el concepto de IA fuerte que juegan un papel importante en la ciencia ficción y la ética de la inteligencia artificial :

  • conciencia : Tener experiencia y pensamiento subjetivos . [gramo]
  • autoconciencia : Ser consciente de uno mismo como un individuo separado, especialmente para ser consciente de los propios pensamientos.
  • Sentiencia : La capacidad de "sentir" percepciones o emociones subjetivamente.
  • sapience : La capacidad de sabiduría.

Estos rasgos tienen una dimensión moral, porque una máquina con esta forma de IA fuerte puede tener derechos, análogos a los derechos de los animales no humanos . Como tal, se ha realizado un trabajo preliminar sobre enfoques para la integración de agentes éticos plenos con los marcos legales y sociales existentes. Estos enfoques se han centrado en la posición jurídica y los derechos de la IA "fuerte". [87]

Sin embargo, Bill Joy , entre otros, argumenta que una máquina con estos rasgos puede ser una amenaza para la vida o la dignidad humana. [88] Queda por demostrar si alguno de estos rasgos es necesario para una IA fuerte. El papel de la conciencia no está claro y actualmente no existe una prueba acordada para su presencia. Si una máquina está construida con un dispositivo que simula los correlatos neuronales de la conciencia , ¿automáticamente tendría autoconciencia? También es posible que algunas de estas propiedades, como la sensibilidad, emerjan naturalmente de una máquina completamente inteligente, o que sea natural atribuirestas propiedades a las máquinas una vez que comienzan a actuar de una manera claramente inteligente. Por ejemplo, la acción inteligente puede ser suficiente para la sensibilidad, y no al revés [¿ según quién? ] .

Investigación de la conciencia artificial

Aunque el papel de la conciencia en una IA / AGI fuerte es discutible, muchos investigadores de AGI [78] consideran que la investigación que investiga las posibilidades de implementar la conciencia es vital. En un esfuerzo inicial, Igor Aleksander [89] argumentó que los principios para crear una máquina consciente ya existían, pero que se necesitarían cuarenta años para entrenar tal máquina para que entendiera el lenguaje .

Posibles explicaciones del lento progreso de la investigación de la IA

Desde el lanzamiento de la investigación de IA en 1956, el crecimiento de este campo se ha ralentizado con el tiempo y ha estancado los objetivos de crear máquinas capacitadas con acciones inteligentes a nivel humano. [90] Una posible explicación de este retraso es que las computadoras carecen de suficiente capacidad de memoria o capacidad de procesamiento. [90] Además, el nivel de complejidad que se conecta con el proceso de investigación de la IA también puede limitar el progreso de la investigación de la IA. [90]

Si bien la mayoría de los investigadores de IA creen que se puede lograr una IA fuerte en el futuro, hay algunas personas como Hubert Dreyfus y Roger Penrose que niegan la posibilidad de lograr una IA fuerte. [90] John McCarthy fue uno de los varios científicos informáticos que creen que se logrará la IA a nivel humano, pero no se puede predecir con precisión una fecha. [91]

Las limitaciones conceptuales son otra posible razón de la lentitud en la investigación de la IA. [90] Los investigadores de IA pueden necesitar modificar el marco conceptual de su disciplina para proporcionar una base más sólida y una contribución a la búsqueda de lograr una IA fuerte. Como escribió William Clocksin en 2003: "el marco comienza con la observación de Weizenbaum de que la inteligencia se manifiesta solo en relación con contextos sociales y culturales específicos". [90]

Además, los investigadores de IA han podido crear computadoras que pueden realizar trabajos que son complicados para las personas, como las matemáticas, pero a la inversa, han luchado por desarrollar una computadora que sea capaz de realizar tareas que son simples para los humanos. como caminar ( paradoja de Moravec ). [90] Un problema descrito por David Gelernter es que algunas personas asumen que pensar y razonar son equivalentes. [92] Sin embargo, la idea de si los pensamientos y el creador de esos pensamientos están aislados individualmente ha intrigado a los investigadores de IA. [92]

Los problemas que se han encontrado en la investigación de la IA durante las últimas décadas han obstaculizado aún más el progreso de la IA. Las predicciones fallidas que han prometido los investigadores de IA y la falta de una comprensión completa de los comportamientos humanos han ayudado a disminuir la idea principal de la IA a nivel humano. [51] Aunque el progreso de la investigación de la IA ha traído tanto una mejora como una decepción, la mayoría de los investigadores se han mostrado optimistas sobre la posibilidad de lograr el objetivo de la IA en el siglo XXI. [51]

Se han propuesto otras posibles razones para la extensa investigación sobre el progreso de una IA fuerte. La complejidad de los problemas científicos y la necesidad de comprender completamente el cerebro humano a través de la psicología y la neurofisiología han limitado a muchos investigadores a emular la función del cerebro humano en el hardware de las computadoras. [93] Muchos investigadores tienden a subestimar cualquier duda relacionada con las predicciones futuras de la IA, pero sin tomarse esos problemas en serio, las personas pueden pasar por alto las soluciones a preguntas problemáticas. [51]

Clocksin dice que una limitación conceptual que puede impedir el progreso de la investigación de la IA es que las personas pueden estar utilizando técnicas incorrectas para los programas informáticos y la implementación de equipos. [90] Cuando los investigadores de IA empezaron a apuntar al objetivo de la inteligencia artificial, un interés principal era el razonamiento humano. [94] Los investigadores esperaban establecer modelos computacionales del conocimiento humano a través del razonamiento y descubrir cómo diseñar una computadora con una tarea cognitiva específica. [94]

La práctica de la abstracción, que la gente tiende a redefinir cuando trabaja con un contexto particular en la investigación, proporciona a los investigadores una concentración en solo unos pocos conceptos. [94] El uso más productivo de la abstracción en la investigación de la IA proviene de la planificación y la resolución de problemas. [94] Aunque el objetivo es aumentar la velocidad de un cálculo, el papel de la abstracción ha planteado preguntas sobre la participación de los operadores de abstracción. [95]

Una posible razón de la lentitud en la IA se relaciona con el reconocimiento por parte de muchos investigadores de IA de que la heurística es una sección que contiene una brecha significativa entre el rendimiento de la computadora y el rendimiento humano. [93] Las funciones específicas que se programan en una computadora pueden tener en cuenta muchos de los requisitos que le permiten coincidir con la inteligencia humana. No se garantiza necesariamente que estas explicaciones sean las causas fundamentales del retraso en el logro de una IA fuerte, pero numerosos investigadores están de acuerdo en ellas.

Ha habido muchos investigadores de IA que debaten sobre la idea de si las máquinas deben crearse con emociones . No hay emociones en los modelos típicos de IA y algunos investigadores dicen que programar emociones en máquinas les permite tener una mente propia. [90] La emoción resume las experiencias de los humanos porque les permite recordar esas experiencias. [92] David Gelernter escribe: "Ninguna computadora será creativa a menos que pueda simular todos los matices de las emociones humanas". [92] Esta preocupación por la emoción ha planteado problemas a los investigadores de IA y se conecta con el concepto de IA fuerte a medida que avanza su investigación en el futuro. [96]

Controversias y peligros

Factibilidad

En agosto de 2020, AGI sigue siendo especulativo [9] [97] ya que aún no se ha demostrado un sistema de este tipo. Las opiniones varían sobre si llegará la inteligencia artificial general y cuándo llegará. En un extremo, el pionero de la inteligencia artificial Herbert A. Simon especuló en 1965: "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer". Sin embargo, esta predicción no se hizo realidad. El cofundador de Microsoft, Paul Allen, creía que tal inteligencia es poco probable en el siglo XXI porque requeriría "avances imprevisibles y fundamentalmente impredecibles" y una "comprensión científicamente profunda de la cognición". [98] Escribiendo en The Guardian, el roboticista Alan Winfield afirmó que el abismo entre la informática moderna y la inteligencia artificial a nivel humano es tan amplio como el abismo entre los vuelos espaciales actuales y los vuelos espaciales prácticos más rápidos que la luz. [99]

Las opiniones de los expertos en inteligencia artificial sobre la viabilidad de AGI aumentan y disminuyen, y es posible que hayan visto un resurgimiento en la década de 2010. Cuatro encuestas realizadas en 2012 y 2013 sugirieron que la estimación media entre los expertos sobre cuándo estarían 50% seguros de que llegaría el AGI era de 2040 a 2050, según la encuesta, con una media de 2081. De los expertos, el 16,5% respondió con " nunca "cuando se le hace la misma pregunta pero con un 90% de confianza. [100] [101] Se pueden encontrar más consideraciones actuales sobre el progreso del AGI debajo de Pruebas para confirmar el AGI a nivel humano .

Amenaza potencial para la existencia humana

La tesis de que la IA plantea un riesgo existencial, y que este riesgo necesita mucha más atención de la que recibe actualmente, ha sido respaldada por muchas figuras públicas; quizás los más famosos sean Elon Musk , Bill Gates y Stephen Hawking . El investigador de IA más notable que respalda la tesis es Stuart J. Russell . Los que respaldan la tesis a veces expresan desconcierto ante los escépticos: Gates afirma que no "entiende por qué algunas personas no están preocupadas", [102] y Hawking criticó la indiferencia generalizada en su editorial de 2014:

Entonces, frente a posibles futuros de beneficios y riesgos incalculables, los expertos seguramente están haciendo todo lo posible para garantizar el mejor resultado, ¿verdad? Equivocado. Si una civilización alienígena superior nos envía un mensaje diciendo: 'Llegaremos en unas pocas décadas', simplemente responderíamos: 'Está bien, llámanos cuando llegues, ¿dejaremos las luces encendidas?' Probablemente no, pero esto es más o menos lo que está sucediendo con la IA ”. [103]

Muchos de los académicos que están preocupados por el riesgo existencial creen que la mejor manera de avanzar sería realizar una investigación (posiblemente masiva) para resolver el difícil " problema de control " para responder a la pregunta: qué tipos de salvaguardas, algoritmos o arquitecturas pueden implementar los programadores. para maximizar la probabilidad de que su IA que mejora recursivamente continúe comportándose de una manera amigable, en lugar de destructiva, después de alcanzar la superinteligencia? [87] [104]

La tesis de que la IA puede representar un riesgo existencial también tiene muchos detractores fuertes. Los escépticos a veces acusan que la tesis es cripto-religiosa, con una creencia irracional en la posibilidad de que la superinteligencia reemplace una creencia irracional en un Dios omnipotente; en un extremo, Jaron Lanier sostiene que todo el concepto de que las máquinas actuales son inteligentes de alguna manera es "una ilusión" y una "estafa estupenda" de los ricos. [105]

Gran parte de las críticas existentes argumenta que AGI es poco probable a corto plazo. El informático Gordon Bell sostiene que la raza humana ya se destruirá a sí misma antes de alcanzar la singularidad tecnológica . Gordon Moore , el proponente original de la Ley de Moore , declara que "soy un escéptico. No creo que [una singularidad tecnológica] ocurra, al menos durante mucho tiempo. Y no sé por qué siento eso manera." [106] El ex vicepresidente y científico jefe de Baidu , Andrew Ng, afirma que el riesgo existencial de la IA es "como preocuparse por la superpoblación en Marte cuando aún no hemos puesto un pie en el planeta". [107]

Ver también

  • Cerebro artificial
  • Problema de control de IA
  • Aprendizaje automático automatizado
  • Iniciativa BRAIN
  • Proyecto Cerebro de China
  • Instituto del Futuro de la Humanidad
  • Juego general
  • Proyecto Cerebro Humano
  • Amplificación de inteligencia (IA)
  • Ética de la máquina
  • Aprendizaje multitarea
  • Esquema de la inteligencia artificial
  • Esquema del transhumanismo
  • Superinteligencia
  • Inteligencia sintética
  • Transferir aprendizaje

Notas

  1. El fundador de AI, John McCarthy, escribe: "todavía no podemos caracterizar en general qué tipos de procedimientos computacionales queremos llamar inteligentes". [14] (Para un análisis de algunas definiciones de inteligencia utilizadas por los investigadores de inteligencia artificial , consulte la filosofía de la inteligencia artificial ).
  2. ^ El informe Lighthill criticó específicamente los "grandiosos objetivos" de la IA y lideró el desmantelamiento de la investigación de la IA en Inglaterra. [31] En los EE. UU., DARPA se decidió a financiar solo "investigación directa orientada a la misión, en lugar de investigación básica no dirigida". [32] [33]
  3. Comoescribe elfundador de AI, John McCarthy, "sería un gran alivio para el resto de los trabajadores de AI si los inventores de nuevos formalismos generales expresaran sus esperanzas de una forma más cautelosa de lo que ha sido en ocasiones". [37]
  4. ^ En "Mind Children" [68] se usa10 15 cps. Más recientemente, en 1997, [69] Moravec defendió 10 8 MIPS que corresponderían aproximadamente a 10 14 cps. Moravec habla en términos de MIPS, no "cps", que es un término no estándar que Kurzweil introdujo.
  5. ^ En el libro AGI de Goertzels, Yudkowsky propone 5 niveles de organización que deben entenderse (código / datos, modalidad sensorial, concepto y categoría, pensamiento y deliberación (conciencia)) para poder utilizar el hardware disponible. [78]
  6. ^ Como se define en un libro de texto estándar de IA: "La afirmación de que las máquinas posiblemente podrían actuar de manera inteligente (o, quizás mejor, actuar como si fueran inteligentes) es llamada la hipótesis de la 'IA débil' por los filósofos, y la afirmación de que las máquinas que lo hacen están pensando (en contraposición a la simulación del pensamiento) se llama la hipótesis de la 'IA fuerte' ". [67]
  7. ^ Tenga en cuenta que la conciencia es difícil de definir. Una definición popular, debida a Thomas Nagel , es que "se siente como" algo estar consciente. Si no estamos conscientes, entonces no se siente como nada. Nagel usa el ejemplo de un murciélago: podemos preguntarnos sensatamente "¿qué se siente ser un murciélago?" Sin embargo, es poco probable que nos preguntemos "¿qué se siente al ser una tostadora?" Nagel concluye que un murciélago parece estar consciente (es decir, tiene conciencia) pero una tostadora no. [86]

Referencias

  1. ^ Hodson, Hal (1 de marzo de 2019). "DeepMind y Google: la batalla por el control de la inteligencia artificial" . 1843 . Archivado desde el original el 7 de julio de 2020 . Consultado el 7 de julio de 2020 . AGI son las siglas de Artificial General Intelligence, un programa informático hipotético ...
  2. ^ "Una cartilla ejecutiva sobre inteligencia artificial general | McKinsey" . www.mckinsey.com . Consultado el 4 de agosto de 2021 .
  3. ^ Kurzweil , 2005 , p. 260.
  4. ↑ a b Kurzweil, Ray (5 de agosto de 2005a), "Larga vida a la IA" , Forbes: Kurzweil describe la IA fuerte como "inteligencia artificial con toda la gama de inteligencia humana".
  5. ^ Treder, Mike (10 de agosto de 2005), "Inteligencia humana avanzada" , Nanotecnología responsable , archivado desde el original el 16 de octubre de 2019
  6. ^ "La era de la inteligencia artificial: George John en TEDxLondonBusinessSchool 2013" . Archivado desde el original el 26 de febrero de 2014 . Consultado el 22 de febrero de 2014 .
  7. ^ Newell & Simon 1976 , este es el término que utilizan para la inteligencia "a nivel humano" en lahipótesis del sistema de símbolos físicos .
  8. ^ Searle 1980 , Consulte a continuación el origen del término "IA fuerte" y consulte la definición académica de " IA fuerte " en el artículo Sala china .
  9. ↑ a b Boucher, Philip (marzo de 2019). "Observaciones finales". Cómo funciona la inteligencia artificial (PDF) (Informe). Servicio de Investigación del Parlamento Europeo. Archivado (PDF) desde el original el 3 de marzo de 2020 . Consultado el 3 de marzo de 2020 . La IA actual es poderosa y útil, pero está lejos de los AGI o ASI especulados.
  10. ^ Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (31 de julio de 2018). "Punto de vista: ¿Cuándo superará la IA el rendimiento humano? Evidencia de expertos en IA" . Revista de Investigación en Inteligencia Artificial . 62 : 729–754. doi : 10.1613 / jair.1.11222 . ISSN 1076-9757 . 
  11. ^ "La Universidad Abierta sobre IA fuerte y débil" . Archivado desde el original el 25 de septiembre de 2009 . Consultado el 8 de octubre de 2007 .
  12. ^ "La filosofía será la clave que desbloquea la inteligencia artificial | Neurociencia | The Guardian" . Archivado desde el original el 6 de febrero de 2021.
  13. ^ a b c Baum, Seth (12 de noviembre de 2017), "Una encuesta de proyectos de inteligencia artificial general para la ética, el riesgo y la política", SSRN , SSRN 3070741 , Documento de trabajo 17-1 del Instituto de riesgo catastrófico global 
  14. ^ McCarthy, John (2007a). "Preguntas básicas" . Universidad de Stanford . Archivado desde el original el 26 de octubre de 2007 . Consultado el 6 de diciembre de 2007 .
  15. ^ Esta lista de rasgos inteligentes se basa en los temas cubiertos por los principales libros de texto de IA, que incluyen: Russell & Norvig 2003 , Luger & Stubblefield 2004 , Poole, Mackworth & Goebel 1998 y Nilsson 1998 .
  16. ^ Pfeifer, R. y Bongard JC, Cómo el cuerpo da forma a la forma en que pensamos: una nueva visión de la inteligencia (The MIT Press, 2007). ISBN 0-262-16239-3 
  17. ^ Blanco, RW (1959). "Motivación reconsiderada: el concepto de competencia". Revisión psicológica . 66 (5): 297–333. doi : 10.1037 / h0040934 . PMID 13844397 . 
  18. ^ Johnson 1987
  19. de Charms, R. (1968). Causalidad personal. Nueva York: Academic Press.
  20. ^ Muehlhauser, Luke (11 de agosto de 2013). "¿Qué es AGI?" . Instituto de Investigación en Inteligencia de Máquina. Archivado desde el original el 25 de abril de 2014 . Consultado el 1 de mayo de 2014 .
  21. ^ "¿Qué es la inteligencia artificial general (AGI)? | 4 pruebas para garantizar la inteligencia artificial general" . Blog de Talky . 13 de julio de 2019. Archivado desde el original el 17 de julio de 2019 . Consultado el 17 de julio de 2019 .
  22. ^ Goertzel, Ben. "¿Qué cuenta como una máquina de pensar consciente?" . Nuevo científico . Consultado el 28 de julio de 2021 .
  23. ^ Shapiro, Stuart C. (1992). "Inteligencia artificial" (PDF) . En Stuart C. Shapiro (ed.). Enciclopedia de Inteligencia Artificial (Segunda ed.). Nueva York: John Wiley. págs. 54–57. Archivado (PDF) desde el original el 1 de febrero de 2016. (La sección 4 trata sobre "Tareas completas de IA").
  24. ^ Yampolskiy, Roman V. (2012). Xin-She Yang (ed.). "Prueba de Turing como característica definitoria de la completitud de la IA" (PDF) . Inteligencia artificial, computación evolutiva y metaheurística (AIECM) : 3–17. Archivado (PDF) desde el original el 22 de mayo de 2013.
  25. ^ Luis von Ahn, Manuel Blum, Nicholas Hopper y John Langford. CAPTCHA: Uso de problemas duros de IA para la seguridad Archivado el 4 de marzo de 2016 en Wayback Machine . En Proceedings of Eurocrypt, vol. 2656 (2003), págs. 294–311.
  26. ^ Bergmair, Richard (7 de enero de 2006). "Esteganografía en lenguaje natural y una primitiva de seguridad" completa con IA ". CiteSeer . CiteSeerX 10.1.1.105.129 . 
  27. ^ Crevier 1993 , págs. 48–50
  28. ^ Simon 1965 , p. 96 citado en Crevier 1993 , p. 109
  29. ^ "Científico en el set: una entrevista con Marvin Minsky" . Archivado desde el original el 16 de julio de 2012 . Consultado el 5 de abril de 2008 .
  30. Marvin Minsky to Darrach (1970) , citado en Crevier (1993 , p. 109).
  31. ^ Lighthill 1973 ; Howe 1994
  32. ^ a b NRC 1999 , "Cambio a la investigación aplicada aumenta la inversión".
  33. ^ Crevier 1993 , págs. 115-117; Russell y Norvig 2003 , págs. 21-22.
  34. ^ Crevier 1993 , p. 211, Russell y Norvig 2003 , pág. 24 y ver también Feigenbaum & McCorduck 1983
  35. ^ Crevier 1993 , págs. 161-162,197-203,240; Russell y Norvig 2003 , pág. 25.
  36. ^ Crevier 1993 , págs. 209–212
  37. ^ McCarthy, John (2000). "Responder a Lighthill" . Universidad Stanford. Archivado desde el original el 30 de septiembre de 2008 . Consultado el 29 de septiembre de 2007 .
  38. ^ Markoff, John (14 de octubre de 2005). "Detrás de la inteligencia artificial, un escuadrón de personas reales brillantes" . The New York Times . En su punto más bajo, algunos científicos informáticos e ingenieros de software evitaron el término inteligencia artificial por temor a ser vistos como soñadores con ojos desorbitados.
  39. ^ Russell y Norvig 2003 , págs. 25-26
  40. ^ "Tendencias en el ciclo del bombo tecnológico emergente" . Informes de Gartner. Archivado desde el original el 22 de mayo de 2019 . Consultado el 7 de mayo de 2019 .
  41. ^ Moravec 1988 , p. 20
  42. ^ Harnad, S (1990). "El problema de conexión a tierra del símbolo". Physica D . 42 (1-3): 335-346. arXiv : cs / 9906002 . Código bibliográfico : 1990PhyD ... 42..335H . doi : 10.1016 / 0167-2789 (90) 90087-6 .
  43. ^ Gubrud 1997
  44. ^ "¿Quién acuñó el término" AGI "?» Goertzel.org " . Archivado desde el original el 28 de diciembre de 2018 . Consultado el 28 de diciembre de 2018 ., a través de Life 3.0 : 'El término "AGI" fue popularizado por ... Shane Legg, Mark Gubrud y Ben Goertzel'
  45. ^ Wang y Goertzel 2007 . Véase también Wang (2006) [ se necesita cita completa ] con un resumen actualizado y muchos enlaces.
  46. ^ "Primera escuela de verano internacional en inteligencia artificial general, escuela de verano principal: 22 de junio - 3 de julio de 2009, OpenCog Lab: 6 al 9 de julio de 2009" . Archivado desde el original el 28 de septiembre de 2020 . Consultado el 11 de mayo de 2020 .
  47. ^ "Избираеми дисциплини 2009/2010 - пролетен триместър" [Cursos electivos 2009/2010 - trimestre de primavera]. Факултет по математика и информатика [Facultad de Matemáticas e Informática] (en búlgaro). Archivado desde el original el 26 de julio de 2020 . Consultado el 11 de mayo de 2020 .
  48. ^ "Избираеми дисциплини 2010/2011 - зимен триместър" [Cursos electivos 2010/2011 - trimestre de invierno]. Факултет по математика и информатика [Facultad de Matemáticas e Informática] (en búlgaro). Archivado desde el original el 26 de julio de 2020 . Consultado el 11 de mayo de 2020 .
  49. ^ Goertzel y Pennachin, 2006 .
  50. ↑ a b c ( Kurzweil 2005 , p. 260) o vea Advanced Human Intelligence Archivado el 30 de junio de 2011 en Wayback Machine, donde define IA fuerte como "inteligencia de máquina con el rango completo de inteligencia humana".
  51. ^ a b c d e f Goertzel 2007 .
  52. ^ Katja Grace (2016). "Error en Armstrong y Sotala 2012" . Impactos de la IA (blog). Archivado desde el original el 4 de diciembre de 2020 . Consultado el 24 de agosto de 2020 .
  53. ^ Marcus Hutter (abril de 2004). "Máquinas inteligentes que aprenden sin ayuda" (PDF) . IMPRESSUM . Ticino Ricerca. Archivado (PDF) desde el original el 17 de octubre de 2016 . Consultado el 24 de agosto de 2020 .
  54. ^ Markoff, John (27 de noviembre de 2016). "Cuando la IA madura, puede llamar a Jürgen Schmidhuber 'papá ' " . The New York Times . Archivado desde el original el 26 de diciembre de 2017 . Consultado el 26 de diciembre de 2017 .
  55. ^ James Barrat (2013). "Capítulo 11: Un despegue difícil". Nuestra invención final: la inteligencia artificial y el fin de la era humana (Primera ed.). Nueva York: St. Martin's Press. ISBN 9780312622374.
  56. ^ "Acerca del Instituto de investigación de inteligencia artificial" . Instituto de Investigación en Inteligencia de Máquina . Archivado desde el original el 21 de enero de 2018 . Consultado el 26 de diciembre de 2017 .
  57. ^ "Acerca de OpenAI" . OpenAI . Archivado desde el original el 22 de diciembre de 2017 . Consultado el 26 de diciembre de 2017 .
  58. ^ Theil, Stefan. "Problemas en la mente" . Scientific American . págs. 36–42. Código Bibliográfico : 2015SciAm.313d..36T . doi : 10.1038 / scientificamerican1015-36 . Archivado desde el original el 9 de noviembre de 2017 . Consultado el 26 de diciembre de 2017 .
  59. ^ Walch, Kathleen (14 de julio de 2020). "¿Está la inteligencia artificial general (AGI) en el horizonte? Entrevista con el Dr. Ben Goertzel, director ejecutivo y fundador de la Fundación SingularityNET" . Forbes . Archivado desde el original el 6 de noviembre de 2020 . Consultado el 16 de octubre de 2020 .El Dr. Goertzel es el fundador de SingularityNET, una plataforma de inteligencia artificial descentralizada que permite que múltiples agentes de inteligencia artificial cooperen para resolver problemas de manera participativa sin ningún controlador central. ... El Dr. Goertzel creó SingularityNET por una simple razón: “Tengo la intención de crear AGI y cuando implemente este AGI, quiero que se implemente de una manera descentralizada y controlada democráticamente, en lugar de de una manera que lo permita para ser controlado por una sola persona o entidad corporativa o gubernamental ".
  60. ^ Liu, Feng; Shi, Yong; Liu, Ying (2017). "Cociente de inteligencia y grado de inteligencia de la inteligencia artificial". Annals of Data Science . 4 (2): 179-191. arXiv : 1709.10242 . Código bibliográfico : 2017arXiv170910242L . doi : 10.1007 / s40745-017-0109-0 . S2CID 37900130 . 
  61. ^ Brien, Jörn (5 de octubre de 2017). "Google-KI doppelt so schlau wie Siri" [Google AI es dos veces más inteligente que Siri, pero un niño de seis años supera a ambos] (en alemán). Archivado desde el original el 3 de enero de 2019 . Consultado el 2 de enero de 2019 .
  62. ^ Lawler, Richard (13 de noviembre de 2019). "John Carmack da un paso atrás en Oculus para trabajar en IA similar a la humana" . Engadget . Archivado desde el original el 26 de julio de 2020 . Consultado el 4 de abril de 2020 .
  63. ^ Grossman, Gary (3 de septiembre de 2020). "Estamos entrando en la zona de penumbra de la IA entre la IA estrecha y la general" . VentureBeat . Archivado desde el original el 4 de septiembre de 2020 . Consultado el 5 de septiembre de 2020 . Ciertamente, también, hay quienes afirman que ya estamos viendo un ejemplo temprano de un sistema AGI en la red neuronal GPT-3 de procesamiento del lenguaje natural (NLP) recientemente anunciada. ... Entonces, ¿GPT-3 es el primer ejemplo de un sistema AGI? Esto es discutible, pero el consenso es que no es AGI. ... Al menos, GPT-3 nos dice que hay un término medio entre la IA general y la estrecha.
  64. ^ Sandberg y Boström 2008 . "La idea básica es tomar un cerebro en particular, escanear su estructura en detalle y construir un modelo de software que sea tan fiel al original que, cuando se ejecute en el hardware apropiado, se comportará esencialmente de la misma manera que el original. cerebro."
  65. ^ Sandberg y Boström 2008 .
  66. ^ Drachman 2005 .
  67. ^ a b Russell y Norvig, 2003 .
  68. ^ Moravec 1988 , p. 61.
  69. ↑ a b Moravec, 1998 .
  70. ^ Swaminathan, Nikhil (enero-febrero de 2011). "Glía, las otras células cerebrales" . Descubrir . Archivado desde el original el 8 de febrero de 2014 . Consultado el 24 de enero de 2014 .
  71. Izhikevich, Eugene M .; Edelman, Gerald M. (4 de marzo de 2008). "Modelo a gran escala de sistemas talamocorticales de mamíferos" (PDF) . PNAS . 105 (9): 3593–3598. Código bibliográfico : 2008PNAS..105.3593I . doi : 10.1073 / pnas.0712231105 . PMC 2265160 . PMID 18292226 . Archivado desde el original (PDF) el 12 de junio de 2009 . Consultado el 23 de junio de 2015 .   
  72. ^ "Hitos del proyecto" . Cerebro azul . Consultado el 11 de agosto de 2008 .
  73. ^ "Cerebro artificial '10 años de distancia 'noticias de la BBC de 2009" . 22 de julio de 2009. Archivado desde el original el 26 de julio de 2017 . Consultado el 25 de julio de 2009 .
  74. ^ Noticias de la Universidad de Calgary Archivado el 18 de agosto de 2009 en Wayback Machine , Noticias de NBC News Archivado el 4 de julio de 2017 en Wayback Machine.
  75. ^ Sarma GP, Lee CW, Portegys T, Ghayoomie V, Jacobs T, Alicea B, et al. (Septiembre de 2018). "OpenWorm: descripción general y avances recientes en la simulación biológica integradora de Caenorhabditis elegans " . Transacciones filosóficas de la Royal Society de Londres. Serie B, Ciencias Biológicas . 373 (1758): 20170382. doi : 10.1098 / rstb.2017.0382 . PMC 6158220 . PMID 30201845 .  
  76. ^ de Vega, Glenberg y Graesser 2008 . Una amplia gama de puntos de vista en la investigación actual, todos los cuales requieren conexión a tierra hasta cierto punto.
  77. ^ "[enlaces a estudios sobre el cerebro de las abejas]" . Cerebro de abeja de miel . Archivado desde el original el 25 de julio de 2008 . Consultado el 30 de marzo de 2010 .CS1 maint: URL no apta ( enlace )
  78. ↑ a b Yudkowsky, 2006 .
  79. ^ Yekutieli, Y; Sagiv-Zohar, R; Aharonov, R; Engel, Y; Hochner, B; Flash, T (agosto de 2005). "Modelo dinámico del brazo del pulpo. I. Biomecánica del pulpo alcanzando el movimiento". J. Neurophysiol . 94 (2): 1443–58. doi : 10.1152 / jn.00684.2004 . PMID 15829594 . 
  80. ^ Williams y Herrup 1988
  81. ^ "sistema nervioso, humano". Encyclopædia Britannica . 9 de enero de 2007
  82. ^ Azevedo y col. 2009 .
  83. ^ Searle 1980
  84. ^ Por ejemplo:
    • Russell y Norvig 2003 ,
    • Diccionario de psicología de Oxford University Press Archivado el 3 de diciembre de 2007 en Wayback Machine (citado en "High Beam Encyclopedia"),
    • MIT Encyclopedia of Cognitive Science Archivado el 19 de julio de 2008 en Wayback Machine (citado en "AITopics")
    • Planet Math Archivado el 19 de septiembre de 2007 en Wayback Machine.
    • ¿Permitirán las computadoras biológicas que las máquinas artificialmente inteligentes se conviertan en personas? Archivado el 13 de mayo de 2008 en la Wayback Machine Anthony Tongen.
  85. ^ Russell y Norvig 2003 , p. 947.
  86. ^ Nagel 1974 .
  87. ^ a b Sotala, Kaj; Yampolskiy, Roman V. (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta" . Physica Scripta . 90 (1): 018001. doi : 10.1088 / 0031-8949 / 90/1/018001 . ISSN 0031-8949 . 
  88. ^ Joy, Bill (abril de 2000). "Por qué el futuro no nos necesita". Cableado .
  89. ^ Aleksander 1996 .
  90. ^ a b c d e f g h i Relojes en 2003 .
  91. ^ McCarthy 2003 .
  92. ^ a b c d Gelernter, 2010 .
  93. ↑ a b McCarthy, 2007 .
  94. ^ a b c d Holte y Choueiry, 2003 .
  95. ^ Zucker 2003 .
  96. ^ Kaplan, Andreas; Haenlein, Michael (2019). "Kaplan Andreas y Haelein Michael (2019) Siri, Siri, en mi mano: ¿Quién es el más justo del país? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Horizontes de negocios . 62 : 15-25. doi : 10.1016 / j.bushor.2018.08.004 .
  97. ^ itu.int: Beyond Mad ?: The Race For Artificial General Intelligence Archivado el 9 de noviembre de 2020 en Wayback Machine , "AGI representa un nivel de poder que permanece firmemente en el ámbito de la ficción especulativa hasta la fecha". 2 de febrero de 2018, consultado el 3 de marzo de 2020
  98. ^ Allen, Paul. "La singularidad no está cerca" . Revisión de tecnología del MIT . Consultado el 17 de septiembre de 2014 .
  99. ^ Winfield, Alan. "La inteligencia artificial no se convertirá en un monstruo de Frankenstein" . The Guardian . Archivado desde el original el 17 de septiembre de 2014 . Consultado el 17 de septiembre de 2014 .
  100. ^ Raffi Khatchadourian (23 de noviembre de 2015). "La invención del día del juicio final: ¿nos traerá la inteligencia artificial la utopía o la destrucción?" . The New Yorker . Archivado desde el original el 28 de enero de 2016 . Consultado el 7 de febrero de 2016 .
  101. ^ Müller, VC y Bostrom, N. (2016). Progreso futuro en inteligencia artificial: una encuesta de opinión de expertos. En Cuestiones fundamentales de la inteligencia artificial (págs. 555–572). Springer, Cham.
  102. ^ Rawlinson, Kevin. "Bill Gates de Microsoft insiste en que la IA es una amenaza" . BBC News . Archivado desde el original el 29 de enero de 2015 . Consultado el 30 de enero de 2015 .
  103. ^ "Stephen Hawking: 'La trascendencia analiza las implicaciones de la inteligencia artificial, pero ¿nos estamos tomando la IA lo suficientemente en serio? ' " . The Independent (Reino Unido) . Archivado desde el original el 25 de septiembre de 2015 . Consultado el 3 de diciembre de 2014 .
  104. ^ Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias (Primera ed.). ISBN 978-0199678112.
  105. ^ "Pero, ¿qué significaría para mí el fin de la humanidad?" . El Atlántico . 9 de mayo de 2014. Archivado desde el original el 4 de junio de 2014 . Consultado el 12 de diciembre de 2015 .
  106. ^ "Las luminarias tecnológicas abordan la singularidad" . IEEE Spectrum: Noticias de tecnología, ingeniería y ciencia (INFORME ESPECIAL: LA SINGULARIDAD). 1 de junio de 2008. Archivado desde el original el 30 de abril de 2019 . Consultado el 8 de abril de 2020 .
  107. ^ Shermer, Michael (1 de marzo de 2017). "Apocalipsis AI" . Scientific American . pag. 77. Código bibliográfico : 2017SciAm.316c..77S . doi : 10.1038 / scientificamerican0317-77 . Archivado desde el original el 1 de diciembre de 2017 . Consultado el 27 de noviembre de 2017 .

Fuentes

  • Aleksander, Igor (1996), Mentes imposibles , World Scientific Publishing Company, ISBN 978-1-86094-036-1
  • Azevedo FA, Carvalho LR, Grinberg LT, Farfel J, et al. (Abril de 2009), "El mismo número de células neuronales y no neuronales hacen del cerebro humano un cerebro de primates isométricamente escalado" , The Journal of Comparative Neurology , 513 (5): 532–41, doi : 10.1002 / cne.21974 , PMID  19226510 , S2CID  5200449 , archivado desde el original el 18 de febrero de 2021 , consultado el 4 de septiembre de 2013
  • Berglas, Anthony (2008), Artificial Intelligence will Kill our Grandchildren , archivado desde el original el 23 de julio de 2014 , consultado el 31 de agosto de 2012
  • Chalmers, David (1996), La mente consciente , Oxford University Press.
  • Clocksin, William (agosto de 2003), "La inteligencia artificial y el futuro", Philosophical Transactions of the Royal Society A , 361 (1809): 1721-1748, Bibcode : 2003RSPTA.361.1721C , doi : 10.1098 / rsta.2003.1232 , PMID  12952683 , S2CID  31032007.
  • Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence , Nueva York, NY: BasicBooks, ISBN 0-465-02997-3 
  • Darrach, Brad (20 de noviembre de 1970), "Meet Shakey, the First Electronic Person", Life Magazine , págs. 58–68.
  • Drachman, D (2005), "¿Tenemos cerebro de sobra?", Neurology , 64 (12): 2004–5, doi : 10.1212 / 01.WNL.0000166914.38327.BB , PMID  15985565 , S2CID  38482114.
  • Feigenbaum, Edward A .; McCorduck, Pamela (1983), La quinta generación: la inteligencia artificial y el desafío informático de Japón al mundo , Michael Joseph, ISBN 978-0-7181-2401-4
  • Gelernter, David (2010), Dream-logic, the Internet and Artificial Thought , archivado desde el original el 26 de julio de 2010 , consultado el 25 de julio de 2010
  • Goertzel, Ben; Pennachin, Cassio, eds. (2006), Inteligencia artificial general (PDF) , Springer, ISBN 978-3-540-23733-4, archivado desde el original (PDF) el 20 de marzo de 2013
  • Goertzel, Ben (diciembre de 2007), "La inteligencia general artificial a nivel humano y la posibilidad de una singularidad tecnológica: una reacción a The Singularity Is Near, de Ray Kurzweil, y la crítica de McDermott a Kurzweil" , Artificial Intelligence , 171 (18, Número especial de revisión ): 1161-1173, doi : 10.1016 / j.artint.2007.10.011 , archivado desde el original el 7 de enero de 2016 , consultado el 1 de abril de 2009.
  • Gubrud, Mark (noviembre de 1997), "Nanotechnology and International Security" , Fifth Foresight Conference on Molecular Nanotechnology , archivado desde el original el 29 de mayo de 2011 , consultado el 7 de mayo de 2011
  • Halal, William E. "Serie de artículos de TechCast: La automatización del pensamiento" (PDF) . Archivado desde el original (PDF) el 6 de junio de 2013.
  • Holte, RC; Choueiry, BY (2003), "Abstracción y reformulación en inteligencia artificial", Transacciones filosóficas de la Royal Society B , 358 (1435): 1197–1204, doi : 10.1098 / rstb.2003.1317 , PMC  1693218 , PMID  12903653.
  • Howe, J. (noviembre de 1994), Inteligencia artificial en la Universidad de Edimburgo: una perspectiva , archivado del original el 17 de agosto de 2007 , consultado el 30 de agosto de 2007
  • Johnson, Mark (1987), El cuerpo en la mente , Chicago, ISBN 978-0-226-40317-5
  • Kurzweil, Ray (2005), The Singularity is Near , Viking Press
  • Lighthill, profesor Sir James (1973), "Inteligencia artificial: un estudio general", Inteligencia artificial: un simposio en papel , Consejo de Investigación Científica
  • Luger, George; Stubblefield, William (2004), Inteligencia artificial: estructuras y estrategias para la resolución de problemas complejos (5ª ed.), The Benjamin / Cummings Publishing Company, Inc., p. 720 , ISBN 978-0-8053-4780-7
  • McCarthy, John (octubre de 2007), "De aquí a la IA a nivel humano", Inteligencia artificial , 171 (18): 1174-1182, doi : 10.1016 / j.artint.2007.10.009.
  • McCorduck, Pamela (2004), Máquinas que piensan (2a ed.), Natick, MA: AK Peters, Ltd., ISBN 1-56881-205-1
  • Moravec, Hans (1976), The Role of Raw Power in Intelligence , archivado desde el original el 3 de marzo de 2016 , consultado el 29 de septiembre de 2007
  • Moravec, Hans (1988), Mind Children , Harvard University Press
  • Moravec, Hans (1998), "¿Cuándo coincidirá el hardware de la computadora con el cerebro humano?" , Journal of Evolution and Technology , 1 , archivado desde el original el 15 de junio de 2006 , consultado el 23 de junio de 2006
  • Nagel (1974), "What Is It Like to Be a Bat" (PDF) , Philosophical Review , 83 (4): 435–50, doi : 10.2307 / 2183914 , JSTOR  2183914 , archivado (PDF) desde el original el 16 de octubre 2011 , consultado el 7 de noviembre de 2009.
  • Newell, Allen ; Simon, HA (1963), "GPS: un programa que simula el pensamiento humano", en Feigenbaum, EA; Feldman, J. (eds.), Computers and Thought , Nueva York: McGraw-Hill
  • Newell, Allen ; Simon, HA (1976). "La informática como investigación empírica: símbolos y búsqueda" . Comunicaciones de la ACM . 19 (3): 113–126. doi : 10.1145 / 360018.360022 .
  • Nilsson, Nils (1998), Inteligencia artificial: una nueva síntesis , Morgan Kaufmann Publishers, ISBN 978-1-55860-467-4
  • NRC (1999), "Developments in Artificial Intelligence" , Funding a Revolution: Government Support for Computing Research , National Academy Press, archivado desde el original el 12 de enero de 2008 , consultado el 29 de septiembre de 2007
  • Omohundro, Steve (2008), The Nature of Self-Improving Artificial Intelligence , presentado y distribuido en la Singularity Summit 2007, San Francisco, CA.
  • Poole, David ; Mackworth, Alan; Goebel, Randy (1998), Computational Intelligence: A Logical Approach , Nueva York: Oxford University Press, archivado del original el 25 de julio de 2009 , consultado el 6 de diciembre de 2007
  • Russell, Stuart J .; Norvig, Peter (2003), Inteligencia artificial: un enfoque moderno (2a ed.), Upper Saddle River, Nueva Jersey: Prentice Hall, ISBN 0-13-790395-2
  • Sandberg, Anders; Boström, Nick (2008), Whole Brain Emulation: A Roadmap (PDF) , Technical Report # 2008-3, Future of Humanity Institute, Oxford University, archivado (PDF) del original el 25 de marzo de 2020 , consultado el 5 de abril de 2009
  • Searle, John (1980), "Minds, Brains and Programs" (PDF) , Behavioral and Brain Sciences , 3 (3): 417–457, doi : 10.1017 / S0140525X00005756 , archivado (PDF) desde el original el 17 de marzo de 2019 , Consultado el 3 de septiembre de 2020.
  • Simon, HA (1965), The Shape of Automation for Men and Management , Nueva York: Harper & Row
  • Sutherland, JG (1990), "Modelo holográfico de memoria, aprendizaje y expresión", Revista internacional de sistemas neuronales , 1-3 : 256-267.
  • de Vega, Manuel; Glenberg, Arthur; Graesser, Arthur, eds. (2008), Símbolos y encarnación: Debates sobre significado y cognición , Oxford University Press, ISBN 978-0-19-921727-4.
  • Wang, Pei; Goertzel, Ben (2007). "Introducción: Aspectos de la Inteligencia General Artificial" . Avances en Inteligencia Artificial General: Conceptos, Arquitecturas y Algoritmos: Actas del Taller AGI 2006 . págs. 1-16. ISBN 978-1-58603-758-1. Archivado desde el original el 18 de febrero de 2021 . Consultado el 13 de diciembre de 2020 .
  • Williams RW, Herrup K (1988), "The control of neuron number", Annual Review of Neuroscience , 11 : 423–53, doi : 10.1146 / annurev.ne.11.030188.002231 , PMID  3284447.
  • Yudkowsky, Eliezer (2006), "Inteligencia artificial general" (PDF) , Revisión anual de psicología , Springer, 49 : 585–612, doi : 10.1146 / annurev.psych.49.1.585 , ISBN 978-3-540-23733-4, PMID  9496632 , archivado desde el original (PDF) el 11 de abril de 2009.
  • Yudkowsky, Eliezer (2008), "La inteligencia artificial como factor positivo y negativo en el riesgo global", Riesgos catastróficos globales , Bibcode : 2008gcr..book..303Y , doi : 10.1093 / oso / 9780198570509.003.0021 , ISBN 9780198570509.
  • Zucker, Jean-Daniel (julio de 2003), "Una teoría fundamentada de la abstracción en la inteligencia artificial", Philosophical Transactions of the Royal Society B , 358 (1435): 1293–1309, doi : 10.1098 / rstb.2003.1308 , PMC  1693211 , PMID  12903672.

enlaces externos

  • El portal AGI mantenido por Pei Wang
  • The Genesis Group en CSAIL del MIT : investigación moderna sobre los cálculos que subyacen a la inteligencia humana
  • OpenCog: proyecto de código abierto para desarrollar una IA a nivel humano
  • Simulando el pensamiento humano lógico
  • ¿Qué sabemos sobre las líneas de tiempo de la IA? - Revisión de literatura
Obtenido de " https://en.wikipedia.org/w/index.php?title=Artificial_general_intelligence&oldid=1037128764 "