Parte de una serie sobre |
Inteligencia artificial |
---|
La inteligencia artificial general ( AGI ) es la capacidad hipotética [1] de un agente inteligente para comprender o aprender cualquier tarea intelectual que pueda realizar un ser humano . [2] Es un objetivo principal de algunas investigaciones sobre inteligencia artificial y un tema común en la ciencia ficción y los estudios de futuro . AGI también se puede denominar IA fuerte , [3] [4] [5] IA completa , [6] o acción inteligente general . [7] Algunas fuentes académicas reservan el término "IA fuerte" para los programas de computadora que pueden experimentar sensibilidad , autoconciencia y conciencia . [8] A finales de la década de 2010, se especula que la IA estará a décadas de distancia de AGI. [9] [10]
A diferencia de la IA fuerte, la IA débil [11] (también llamada IA estrecha [4] ) no está destinada a tener una personalidad y capacidades cognitivas similares a las humanas ; más bien, la IA débil se limita al uso de software para estudiar o realizar tareas específicas de resolución de problemas o razonamiento previamente aprendidas ( sistemas expertos ). [12]
A partir de 2017, más de cuarenta organizaciones están investigando activamente AGI. [13]
Se han propuesto varios criterios para la inteligencia (el más famoso es la prueba de Turing ), pero hasta la fecha, no existe una definición que satisfaga a todos. [a] Sin embargo, no es amplio consenso entre los investigadores de inteligencia artificial que se requiere inteligencia para hacer lo siguiente: [15]
Otras capacidades importantes incluyen la capacidad de sentir (por ejemplo, ver ) y la capacidad de actuar (por ejemplo, mover y manipular objetos ) en el mundo donde se debe observar el comportamiento inteligente. [16] Esto incluiría la capacidad de detectar y responder a peligros . [17] Muchos enfoques interdisciplinarios de la inteligencia (por ejemplo , ciencia cognitiva , inteligencia computacional y toma de decisiones ) tienden a enfatizar la necesidad de considerar rasgos adicionales como la imaginación (tomada como la capacidad de formar imágenes y conceptos mentales que no fueron programados en) [18] ] yautonomía . [19] Existen sistemas basados en computadora que exhiben muchas de estas capacidades (por ejemplo, ver creatividad computacional , razonamiento automatizado , sistema de soporte de decisiones , robot , computación evolutiva , agente inteligente ), pero aún no a niveles humanos.
Se han considerado las siguientes pruebas para confirmar el AGI a nivel humano: [20] [21]
Los problemas más difíciles para las computadoras se conocen informalmente como "AI completo" o "AI difícil", lo que implica que resolverlos es equivalente a la aptitud general de la inteligencia humana, o AI fuerte, más allá de las capacidades de un algoritmo de propósito específico. [23]
Se plantea la hipótesis de que los problemas completos de IA incluyen la visión general por computadora , la comprensión del lenguaje natural y el manejo de circunstancias inesperadas mientras se resuelve cualquier problema del mundo real. [24]
Los problemas completos de IA no se pueden resolver solo con la tecnología informática actual, y también requieren computación humana . Esta propiedad podría ser útil, por ejemplo, para probar la presencia de humanos, como pretenden hacer los CAPTCHA ; y para que la seguridad informática repele los ataques de fuerza bruta . [25] [26]
La investigación moderna de la IA comenzó a mediados de la década de 1950. [27] La primera generación de investigadores de IA estaba convencida de que la inteligencia artificial general era posible y que existiría en unas pocas décadas. El pionero de la IA, Herbert A. Simon, escribió en 1965: "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer". [28] Sus predicciones fueron la inspiración para el personaje de Stanley Kubrick y Arthur C. Clarke HAL 9000 , quien encarnó lo que los investigadores de IA creían que podían crear para el año 2001. El pionero de la IA Marvin Minsky fue consultor [29]sobre el proyecto de hacer que HAL 9000 sea lo más realista posible de acuerdo con las predicciones consensuadas de la época; Crevier lo cita diciendo sobre el tema en 1967: "Dentro de una generación ... el problema de crear 'inteligencia artificial' se resolverá sustancialmente", [30] aunque Minsky afirma que fue citado erróneamente. [ cita requerida ]
Sin embargo, a principios de la década de 1970, se hizo evidente que los investigadores habían subestimado enormemente la dificultad del proyecto. Las agencias de financiamiento se volvieron escépticas con AGI y presionaron cada vez más a los investigadores para producir una "IA aplicada" útil. [b] Cuando comenzó la década de 1980, el Proyecto de Computadoras de Quinta Generación de Japón revivió el interés en AGI, estableciendo una línea de tiempo de diez años que incluía metas de AGI como "mantener una conversación informal". [34] En respuesta a esto y al éxito de los sistemas expertos , tanto la industria como el gobierno volvieron a inyectar dinero en el campo. [32] [35] Sin embargo, la confianza en la IA se derrumbó espectacularmente a fines de la década de 1980, y los objetivos del Proyecto de Computadora de Quinta Generación nunca se cumplieron.[36] Por segunda vez en 20 años, se demostró que los investigadores de IA que habían predicho el logro inminente de AGI estaban fundamentalmente equivocados. En la década de 1990, los investigadores de IA se habían ganado la reputación de hacer promesas vanas. Se volvieron reacios a hacer predicciones en absoluto [c] y evitar cualquier mención de inteligencia artificial de "nivel humano" por temor a ser etiquetados como "soñadores de ojos salvajes". [38]
En la década de 1990 y principios del siglo XXI, la IA convencional logró un éxito comercial y una respetabilidad académica mucho mayores al centrarse en subproblemas específicos en los que pueden producir resultados verificables y aplicaciones comerciales, como redes neuronales artificiales y aprendizaje automático estadístico . [39] Estos sistemas de "IA aplicada" ahora se utilizan ampliamente en toda la industria de la tecnología, y la investigación en este sentido está muy financiada tanto en la academia como en la industria. Actualmente, el desarrollo en este campo se considera una tendencia emergente y se espera que ocurra una etapa de madurez en más de 10 años. [40]
La mayoría de los investigadores de IA convencionales esperan que se pueda desarrollar una IA fuerte combinando los programas que resuelven varios subproblemas. Hans Moravec escribió en 1988:
"Estoy seguro de que esta ruta ascendente hacia la inteligencia artificial algún día se encontrará con la ruta descendente tradicional más de la mitad, lista para proporcionar la competencia del mundo real y el conocimiento de sentido común que ha sido tan frustrantemente esquivo en los programas de razonamiento. se producirán máquinas inteligentes cuando se impulse la metafórica punta dorada uniendo los dos esfuerzos ". [41]
Sin embargo, incluso esta filosofía fundamental ha sido cuestionada; por ejemplo, Stevan Harnad de Princeton concluyó su artículo de 1990 sobre la Hipótesis de la base del símbolo afirmando:
"A menudo se ha expresado la expectativa de que los enfoques" de arriba hacia abajo "(simbólicos) para modelar la cognición se encontrarán de alguna manera con los enfoques" de abajo hacia arriba "(sensoriales) en algún punto intermedio. Si las consideraciones de base en este documento son válidas, entonces esta expectativa es irremediablemente modular y realmente solo hay una ruta viable desde el sentido a los símbolos: desde cero. Un nivel simbólico flotante como el nivel de software de una computadora nunca se alcanzará por esta ruta (o viceversa), ni está claro por qué deberíamos intentar alcanzar ese nivel, ya que parece que llegar allí equivaldría a desarraigar nuestros símbolos de sus significados intrínsecos (reduciéndonos así simplemente al equivalente funcional de una computadora programable) ". [42]
El término "inteligencia general artificial" fue utilizado ya en 1997 por Mark Gubrud [43] en una discusión sobre las implicaciones de la producción y operaciones militares totalmente automatizadas. El término fue re-introducido y popularizado por Shane Legg y Ben Goertzel alrededor de 2002. [44] El objetivo de la investigación es mucho más antigua, por ejemplo Doug Lenat 's Cyc proyecto (que comenzó en 1984), y Allen Newell ' s Soar proyecto son considerado dentro del alcance de AGI. La actividad de investigación de AGI en 2006 fue descrita por Pei Wang y Ben Goertzel [45]como "producción de publicaciones y resultados preliminares". La primera escuela de verano en AGI fue organizada en Xiamen, China en 2009 [46] por el Laboratorio de Cerebro Artificial de la Universidad de Xiamen y OpenCog. El primer curso universitario se impartió en 2010 [47] y 2011 [48] en la Universidad de Plovdiv, Bulgaria, por Todor Arnaudov. El MIT presentó un curso sobre AGI en 2018, organizado por Lex Fridman y con varios conferenciantes invitados. Sin embargo, hasta ahora, la mayoría de los investigadores de IA han prestado poca atención a la AGI, y algunos afirman que la inteligencia es demasiado compleja para ser replicada por completo a corto plazo. Sin embargo, un pequeño número de científicos informáticos participan activamente en la investigación de AGI, y muchos de este grupo están contribuyendo a una serie de conferencias de AGI.. La investigación es extremadamente diversa y, a menudo, pionera en la naturaleza. En la introducción a su libro, [49] Goertzel dice que las estimaciones del tiempo necesario antes de que se construya una AGI verdaderamente flexible varían de 10 años a más de un siglo, pero el consenso en la comunidad de investigación de AGI parece ser que la línea de tiempo discutida por Ray Kurzweil en The Singularity is Near [50] (es decir, entre 2015 y 2045) es plausible. [51]
Sin embargo, los principales investigadores de la IA han dado una amplia gama de opiniones sobre si el progreso será tan rápido. Un metanálisis de 2012 de 95 opiniones de este tipo encontró un sesgo hacia la predicción de que la aparición de AGI ocurriría dentro de los 16 a 26 años para las predicciones modernas e históricas por igual. Más tarde se descubrió que el conjunto de datos enumeraba a algunos expertos como no expertos y viceversa. [52]
Las organizaciones que persiguen explícitamente AGI incluyen el laboratorio suizo de IA IDSIA , [53] Nnaisense, [54] Vicarious , Maluuba , [13] la OpenCog Foundation , Adaptive AI, LIDA y Numenta y el asociado Redwood Neuroscience Institute . [55] Además, organizaciones como el Machine Intelligence Research Institute [56] y OpenAI [57] se han fundado para influir en el camino de desarrollo de AGI. Por último, proyectos como el Proyecto Cerebro Humano [58]tienen el objetivo de construir una simulación funcional del cerebro humano. Una encuesta de 2017 de AGI categorizó cuarenta y cinco "proyectos activos de I + D" que explícita o implícitamente (a través de investigaciones publicadas) investigan AGI, y los tres más grandes son DeepMind , Human Brain Project y OpenAI . [13]
En 2017, [ cita requerida ] Ben Goertzel fundó la plataforma de inteligencia artificial SingularityNET con el objetivo de facilitar el control democrático y descentralizado de AGI cuando llegue. [59]
En 2017, los investigadores Feng Liu, Yong Shi y Ying Liu realizaron pruebas de inteligencia en IA débil disponible públicamente y de libre acceso, como Google AI o Siri de Apple y otros. Como máximo, estas IA alcanzaron un valor de CI de alrededor de 47, lo que corresponde aproximadamente a un niño de seis años en primer grado. Un adulto llega a alrededor de 100 en promedio. En 2014 se llevaron a cabo pruebas similares, y la puntuación de CI alcanzó un valor máximo de 27. [60] [61]
En 2019, el programador de videojuegos e ingeniero aeroespacial John Carmack anunció planes para investigar AGI. [62]
En 2020, OpenAI desarrolló GPT-3 , un modelo de lenguaje capaz de realizar muchas tareas diversas sin una formación específica. Según Gary Grossman en un artículo de VentureBeat , si bien existe consenso en que GPT-3 no es un ejemplo de AGI, algunos lo consideran demasiado avanzado para clasificarlo como un sistema de IA estrecho. [63]
Un enfoque popularmente discutido para lograr una acción inteligente general es la emulación de todo el cerebro . Un modelo de cerebro de bajo nivel se construye escaneando y mapeando un cerebro biológico en detalle y copiando su estado en un sistema informático u otro dispositivo computacional. La computadora ejecuta un modelo de simulación tan fiel al original que se comportará esencialmente de la misma manera que el cerebro original, o para todos los propósitos prácticos, de manera indistinguible. [64] La emulación del cerebro completo se analiza en neurociencia computacional y neuroinformática , en el contexto de la simulación cerebral con fines de investigación médica. Se discute eninvestigación en inteligencia artificial [51] como enfoque para una IA fuerte. Las tecnologías de neuroimagen que podrían proporcionar la comprensión detallada necesaria están mejorando rápidamente, y el futurista Ray Kurzweil en el libro The Singularity Is Near [50] predice que un mapa de calidad suficiente estará disponible en una escala de tiempo similar a la potencia de cálculo requerida.
Para la simulación cerebral de bajo nivel, se necesitaría una computadora extremadamente poderosa. El cerebro humano tiene una gran cantidad de sinapsis . Cada una de las 10 11 (cien mil millones) de neuronas tiene un promedio de 7.000 conexiones sinápticas (sinapsis) con otras neuronas. Se ha estimado que el cerebro de un niño de tres años tiene alrededor de 10 15 sinapsis (1 billón). Este número disminuye con la edad y se estabiliza en la edad adulta. Las estimaciones varían para un adulto, oscilando entre 10 14 y 5 × 10 14 sinapsis (100 a 500 billones). [66] Una estimación de la capacidad de procesamiento del cerebro, basada en un modelo de interruptor simple para la actividad neuronal, es de alrededor de 10 14(100 billones) de actualizaciones sinápticas por segundo ( SUPS ). [67] En 1997, Kurzweil examinó varias estimaciones del hardware necesario para igualar el cerebro humano y adoptó una cifra de 10 16 cálculos por segundo (cps). [d] (A modo de comparación, si un "cálculo" fuera equivalente a una " operación de punto flotante ", una medida utilizada para calificar las supercomputadoras actuales , entonces 10 16 "cálculos" serían equivalentes a 10 petaFLOPS , logrado en 2011). Usó esta cifra para predecir que el hardware necesario estaría disponible en algún momento entre 2015 y 2025, si continuaba el crecimiento exponencial en la potencia de las computadoras en el momento de escribir este artículo.
El modelo de neurona artificial asumido por Kurzweil y utilizado en muchas implementaciones actuales de redes neuronales artificiales es simple en comparación con las neuronas biológicas . Una simulación del cerebro probablemente tendría que capturar el comportamiento celular detallado de las neuronas biológicas , actualmente entendido sólo en el más amplio de los contornos. La sobrecarga introducida por el modelado completo de los detalles biológicos, químicos y físicos del comportamiento neuronal (especialmente a escala molecular) requeriría poderes computacionales varios órdenes de magnitud mayores que la estimación de Kurzweil. Además, las estimaciones no tienen en cuenta las células gliales., que son al menos tan numerosos como las neuronas, y que pueden superar en número a las neuronas hasta en 10: 1, y ahora se sabe que desempeñan un papel en los procesos cognitivos. [70]
Hay algunos proyectos de investigación que están investigando la simulación cerebral utilizando modelos neuronales más sofisticados, implementados en arquitecturas informáticas convencionales. El proyecto del Sistema de Inteligencia Artificial implementó simulaciones en tiempo no real de un "cerebro" (con 10 11 neuronas) en 2005. Se necesitaron 50 días en un grupo de 27 procesadores para simular 1 segundo de un modelo. [71] El Blue Brain proyecto utilizó una de las arquitecturas de superordenadores más rápidos del mundo, IBM 's Blue Gene plataforma, para crear una simulación real de tiempo de una sola rata columna neocortical que consiste en aproximadamente 10.000 neuronas y 10 8 sinapsis en 2006.[72] Un objetivo a más largo plazo es construir una simulación funcional detallada de los procesos fisiológicos en el cerebro humano: "No es imposible construir un cerebro humano y podemos hacerlo en 10 años", Henry Markram , director de dijo el Blue Brain Project en 2009 en la conferencia TED en Oxford. [73] También ha habido afirmaciones controvertidas de haber simulado el cerebro de un gato . Se han propuesto interfaces de neuro-silicio como una estrategia de implementación alternativa que puede escalar mejor. [74]
Hans Moravec abordó los argumentos anteriores ("los cerebros son más complicados", "las neuronas deben modelarse con más detalle") en su artículo de 1997 "¿Cuándo coincidirá el hardware de la computadora con el cerebro humano?". [69] Midió la capacidad del software existente para simular la funcionalidad del tejido neural, específicamente la retina. Sus resultados no dependen del número de células gliales, ni de qué tipo de neuronas procesadoras realizan y dónde.
La complejidad real del modelado de neuronas biológicas se ha explorado en el proyecto OpenWorm que tenía como objetivo la simulación completa de un gusano que tiene solo 302 neuronas en su red neuronal (entre aproximadamente 1000 células en total). La red neuronal del animal ha sido bien documentada antes del inicio del proyecto. Sin embargo, aunque la tarea parecía sencilla al principio, los modelos basados en una red neuronal genérica no funcionaron. Actualmente, los esfuerzos se centran en la emulación precisa de neuronas biológicas (en parte a nivel molecular), pero el resultado aún no puede considerarse un éxito total. Incluso si el número de problemas a resolver en un modelo a escala de cerebro humano no es proporcional al número de neuronas, la cantidad de trabajo a lo largo de este camino es obvia. [75]
Una crítica fundamental del enfoque del cerebro simulado se deriva de la cognición encarnada, donde la encarnación humana se toma como un aspecto esencial de la inteligencia humana. Muchos investigadores creen que la encarnación es necesaria para fundamentar el significado. [76] Si este punto de vista es correcto, cualquier modelo cerebral completamente funcional deberá abarcar más que solo las neuronas (es decir, un cuerpo robótico). Goertzel [51] propone una encarnación virtual (como en Second Life ), pero aún no se sabe si esto sería suficiente.
Las computadoras de escritorio que utilizan microprocesadores con capacidad de más de 10 9 cps (la unidad no estándar de Kurzweil "cálculos por segundo", ver arriba) están disponibles desde 2005. Según las estimaciones de potencia cerebral utilizadas por Kurzweil (y Moravec), esta computadora debería ser capaz de soportar una simulación del cerebro de una abeja, pero a pesar de cierto interés [77], no existe tal simulación. [ cita requerida ] Hay al menos tres razones para esto:
Además, la escala del cerebro humano actualmente no está bien limitada. Una estimación sitúa el cerebro humano en alrededor de 100 mil millones de neuronas y 100 billones de sinapsis. [80] [81] Otra estimación es de 86 mil millones de neuronas, de las cuales 16,3 mil millones están en la corteza cerebral y 69 mil millones en el cerebelo . [82] Actualmente, las sinapsis de las células gliales no están cuantificadas, pero se sabe que son extremadamente numerosas.
En 1980, el filósofo John Searle acuñó el término "IA fuerte" como parte de su argumento de la habitación china . [83] Quería distinguir entre dos hipótesis diferentes sobre la inteligencia artificial: [f]
La primera se llama "la hipótesis de la IA fuerte " y la segunda es "la hipótesis de la IA débil " porque la primera hace la declaración más fuerte : asume que algo especial le ha sucedido a la máquina que va más allá de todas sus capacidades que podemos probar. Searle se refirió a la "hipótesis de IA fuerte" como "IA fuerte". Este uso también es común en la investigación académica de IA y en los libros de texto. [84]
La hipótesis de la IA débil es equivalente a la hipótesis de que la inteligencia artificial general es posible. Según Russell y Norvig , "la mayoría de los investigadores de IA dan por sentada la hipótesis de IA débil y no les importa la hipótesis de IA fuerte". [85]
En contraste con Searle, Ray Kurzweil usa el término "IA fuerte" para describir cualquier sistema de inteligencia artificial que actúa como si tuviera una mente, [50] independientemente de si un filósofo podría determinar si realmente tiene una mente o no. En la ciencia ficción, AGI se asocia con rasgos como la conciencia , la sensibilidad , la sapiencia y la autoconciencia que se observan en los seres vivos. Sin embargo, según Searle, es una cuestión abierta si la inteligencia general es suficiente para la conciencia. La "IA fuerte" (según la definición anterior de Kurzweil) no debe confundirse con la " hipótesis de IA fuerte de Searle. "La hipótesis de la IA fuerte es la afirmación de que una computadora que se comporta tan inteligentemente como una persona también debe tener necesariamente una mente y una conciencia . AGI se refiere solo a la cantidad de inteligencia que muestra la máquina, con o sin mente.
Hay otros aspectos de la mente humana además de la inteligencia que son relevantes para el concepto de IA fuerte que juegan un papel importante en la ciencia ficción y la ética de la inteligencia artificial :
Estos rasgos tienen una dimensión moral, porque una máquina con esta forma de IA fuerte puede tener derechos, análogos a los derechos de los animales no humanos . Como tal, se ha realizado un trabajo preliminar sobre enfoques para la integración de agentes éticos plenos con los marcos legales y sociales existentes. Estos enfoques se han centrado en la posición jurídica y los derechos de la IA "fuerte". [87]
Sin embargo, Bill Joy , entre otros, argumenta que una máquina con estos rasgos puede ser una amenaza para la vida o la dignidad humana. [88] Queda por demostrar si alguno de estos rasgos es necesario para una IA fuerte. El papel de la conciencia no está claro y actualmente no existe una prueba acordada para su presencia. Si una máquina está construida con un dispositivo que simula los correlatos neuronales de la conciencia , ¿automáticamente tendría autoconciencia? También es posible que algunas de estas propiedades, como la sensibilidad, emerjan naturalmente de una máquina completamente inteligente, o que sea natural atribuirestas propiedades a las máquinas una vez que comienzan a actuar de una manera claramente inteligente. Por ejemplo, la acción inteligente puede ser suficiente para la sensibilidad, y no al revés [¿ según quién? ] .
Aunque el papel de la conciencia en una IA / AGI fuerte es discutible, muchos investigadores de AGI [78] consideran que la investigación que investiga las posibilidades de implementar la conciencia es vital. En un esfuerzo inicial, Igor Aleksander [89] argumentó que los principios para crear una máquina consciente ya existían, pero que se necesitarían cuarenta años para entrenar tal máquina para que entendiera el lenguaje .
Desde el lanzamiento de la investigación de IA en 1956, el crecimiento de este campo se ha ralentizado con el tiempo y ha estancado los objetivos de crear máquinas capacitadas con acciones inteligentes a nivel humano. [90] Una posible explicación de este retraso es que las computadoras carecen de suficiente capacidad de memoria o capacidad de procesamiento. [90] Además, el nivel de complejidad que se conecta con el proceso de investigación de la IA también puede limitar el progreso de la investigación de la IA. [90]
Si bien la mayoría de los investigadores de IA creen que se puede lograr una IA fuerte en el futuro, hay algunas personas como Hubert Dreyfus y Roger Penrose que niegan la posibilidad de lograr una IA fuerte. [90] John McCarthy fue uno de los varios científicos informáticos que creen que se logrará la IA a nivel humano, pero no se puede predecir con precisión una fecha. [91]
Las limitaciones conceptuales son otra posible razón de la lentitud en la investigación de la IA. [90] Los investigadores de IA pueden necesitar modificar el marco conceptual de su disciplina para proporcionar una base más sólida y una contribución a la búsqueda de lograr una IA fuerte. Como escribió William Clocksin en 2003: "el marco comienza con la observación de Weizenbaum de que la inteligencia se manifiesta solo en relación con contextos sociales y culturales específicos". [90]
Además, los investigadores de IA han podido crear computadoras que pueden realizar trabajos que son complicados para las personas, como las matemáticas, pero a la inversa, han luchado por desarrollar una computadora que sea capaz de realizar tareas que son simples para los humanos. como caminar ( paradoja de Moravec ). [90] Un problema descrito por David Gelernter es que algunas personas asumen que pensar y razonar son equivalentes. [92] Sin embargo, la idea de si los pensamientos y el creador de esos pensamientos están aislados individualmente ha intrigado a los investigadores de IA. [92]
Los problemas que se han encontrado en la investigación de la IA durante las últimas décadas han obstaculizado aún más el progreso de la IA. Las predicciones fallidas que han prometido los investigadores de IA y la falta de una comprensión completa de los comportamientos humanos han ayudado a disminuir la idea principal de la IA a nivel humano. [51] Aunque el progreso de la investigación de la IA ha traído tanto una mejora como una decepción, la mayoría de los investigadores se han mostrado optimistas sobre la posibilidad de lograr el objetivo de la IA en el siglo XXI. [51]
Se han propuesto otras posibles razones para la extensa investigación sobre el progreso de una IA fuerte. La complejidad de los problemas científicos y la necesidad de comprender completamente el cerebro humano a través de la psicología y la neurofisiología han limitado a muchos investigadores a emular la función del cerebro humano en el hardware de las computadoras. [93] Muchos investigadores tienden a subestimar cualquier duda relacionada con las predicciones futuras de la IA, pero sin tomarse esos problemas en serio, las personas pueden pasar por alto las soluciones a preguntas problemáticas. [51]
Clocksin dice que una limitación conceptual que puede impedir el progreso de la investigación de la IA es que las personas pueden estar utilizando técnicas incorrectas para los programas informáticos y la implementación de equipos. [90] Cuando los investigadores de IA empezaron a apuntar al objetivo de la inteligencia artificial, un interés principal era el razonamiento humano. [94] Los investigadores esperaban establecer modelos computacionales del conocimiento humano a través del razonamiento y descubrir cómo diseñar una computadora con una tarea cognitiva específica. [94]
La práctica de la abstracción, que la gente tiende a redefinir cuando trabaja con un contexto particular en la investigación, proporciona a los investigadores una concentración en solo unos pocos conceptos. [94] El uso más productivo de la abstracción en la investigación de la IA proviene de la planificación y la resolución de problemas. [94] Aunque el objetivo es aumentar la velocidad de un cálculo, el papel de la abstracción ha planteado preguntas sobre la participación de los operadores de abstracción. [95]
Una posible razón de la lentitud en la IA se relaciona con el reconocimiento por parte de muchos investigadores de IA de que la heurística es una sección que contiene una brecha significativa entre el rendimiento de la computadora y el rendimiento humano. [93] Las funciones específicas que se programan en una computadora pueden tener en cuenta muchos de los requisitos que le permiten coincidir con la inteligencia humana. No se garantiza necesariamente que estas explicaciones sean las causas fundamentales del retraso en el logro de una IA fuerte, pero numerosos investigadores están de acuerdo en ellas.
Ha habido muchos investigadores de IA que debaten sobre la idea de si las máquinas deben crearse con emociones . No hay emociones en los modelos típicos de IA y algunos investigadores dicen que programar emociones en máquinas les permite tener una mente propia. [90] La emoción resume las experiencias de los humanos porque les permite recordar esas experiencias. [92] David Gelernter escribe: "Ninguna computadora será creativa a menos que pueda simular todos los matices de las emociones humanas". [92] Esta preocupación por la emoción ha planteado problemas a los investigadores de IA y se conecta con el concepto de IA fuerte a medida que avanza su investigación en el futuro. [96]
Esta sección necesita expansión . Puedes ayudar agregando más . ( Febrero de 2016 ) |
En agosto de 2020, AGI sigue siendo especulativo [9] [97] ya que aún no se ha demostrado un sistema de este tipo. Las opiniones varían sobre si llegará la inteligencia artificial general y cuándo llegará. En un extremo, el pionero de la inteligencia artificial Herbert A. Simon especuló en 1965: "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer". Sin embargo, esta predicción no se hizo realidad. El cofundador de Microsoft, Paul Allen, creía que tal inteligencia es poco probable en el siglo XXI porque requeriría "avances imprevisibles y fundamentalmente impredecibles" y una "comprensión científicamente profunda de la cognición". [98] Escribiendo en The Guardian, el roboticista Alan Winfield afirmó que el abismo entre la informática moderna y la inteligencia artificial a nivel humano es tan amplio como el abismo entre los vuelos espaciales actuales y los vuelos espaciales prácticos más rápidos que la luz. [99]
Las opiniones de los expertos en inteligencia artificial sobre la viabilidad de AGI aumentan y disminuyen, y es posible que hayan visto un resurgimiento en la década de 2010. Cuatro encuestas realizadas en 2012 y 2013 sugirieron que la estimación media entre los expertos sobre cuándo estarían 50% seguros de que llegaría el AGI era de 2040 a 2050, según la encuesta, con una media de 2081. De los expertos, el 16,5% respondió con " nunca "cuando se le hace la misma pregunta pero con un 90% de confianza. [100] [101] Se pueden encontrar más consideraciones actuales sobre el progreso del AGI debajo de Pruebas para confirmar el AGI a nivel humano .
La tesis de que la IA plantea un riesgo existencial, y que este riesgo necesita mucha más atención de la que recibe actualmente, ha sido respaldada por muchas figuras públicas; quizás los más famosos sean Elon Musk , Bill Gates y Stephen Hawking . El investigador de IA más notable que respalda la tesis es Stuart J. Russell . Los que respaldan la tesis a veces expresan desconcierto ante los escépticos: Gates afirma que no "entiende por qué algunas personas no están preocupadas", [102] y Hawking criticó la indiferencia generalizada en su editorial de 2014:
Entonces, frente a posibles futuros de beneficios y riesgos incalculables, los expertos seguramente están haciendo todo lo posible para garantizar el mejor resultado, ¿verdad? Equivocado. Si una civilización alienígena superior nos envía un mensaje diciendo: 'Llegaremos en unas pocas décadas', simplemente responderíamos: 'Está bien, llámanos cuando llegues, ¿dejaremos las luces encendidas?' Probablemente no, pero esto es más o menos lo que está sucediendo con la IA ”. [103]
Muchos de los académicos que están preocupados por el riesgo existencial creen que la mejor manera de avanzar sería realizar una investigación (posiblemente masiva) para resolver el difícil " problema de control " para responder a la pregunta: qué tipos de salvaguardas, algoritmos o arquitecturas pueden implementar los programadores. para maximizar la probabilidad de que su IA que mejora recursivamente continúe comportándose de una manera amigable, en lugar de destructiva, después de alcanzar la superinteligencia? [87] [104]
La tesis de que la IA puede representar un riesgo existencial también tiene muchos detractores fuertes. Los escépticos a veces acusan que la tesis es cripto-religiosa, con una creencia irracional en la posibilidad de que la superinteligencia reemplace una creencia irracional en un Dios omnipotente; en un extremo, Jaron Lanier sostiene que todo el concepto de que las máquinas actuales son inteligentes de alguna manera es "una ilusión" y una "estafa estupenda" de los ricos. [105]
Gran parte de las críticas existentes argumenta que AGI es poco probable a corto plazo. El informático Gordon Bell sostiene que la raza humana ya se destruirá a sí misma antes de alcanzar la singularidad tecnológica . Gordon Moore , el proponente original de la Ley de Moore , declara que "soy un escéptico. No creo que [una singularidad tecnológica] ocurra, al menos durante mucho tiempo. Y no sé por qué siento eso manera." [106] El ex vicepresidente y científico jefe de Baidu , Andrew Ng, afirma que el riesgo existencial de la IA es "como preocuparse por la superpoblación en Marte cuando aún no hemos puesto un pie en el planeta". [107]
AGI son las siglas de Artificial General Intelligence, un programa informático hipotético ...
La IA actual es poderosa y útil, pero está lejos de los AGI o ASI especulados.
En su punto más bajo, algunos científicos informáticos e ingenieros de software evitaron el término inteligencia artificial por temor a ser vistos como soñadores con ojos desorbitados.
El Dr. Goertzel es el fundador de SingularityNET, una plataforma de inteligencia artificial descentralizada que permite que múltiples agentes de inteligencia artificial cooperen para resolver problemas de manera participativa sin ningún controlador central. ... El Dr. Goertzel creó SingularityNET por una simple razón: “Tengo la intención de crear AGI y cuando implemente este AGI, quiero que se implemente de una manera descentralizada y controlada democráticamente, en lugar de de una manera que lo permita para ser controlado por una sola persona o entidad corporativa o gubernamental ".
Ciertamente, también, hay quienes afirman que ya estamos viendo un ejemplo temprano de un sistema AGI en la red neuronal GPT-3 de procesamiento del lenguaje natural (NLP) recientemente anunciada. ... Entonces, ¿GPT-3 es el primer ejemplo de un sistema AGI? Esto es discutible, pero el consenso es que no es AGI. ... Al menos, GPT-3 nos dice que hay un término medio entre la IA general y la estrecha.