Muchos estudiosos creen que los avances en inteligencia artificial algún día conducirán a una economía posterior a la escasez en la que las máquinas inteligentes pueden superar a los humanos en casi todos los dominios. Las preguntas sobre cómo podría ser un mundo así y si los escenarios específicos constituyen utopías o distopías son objeto de un animado debate.
![Un niño parece gatear hacia un pequeño robot de juguete](http://wikiimg.tojsiabtv.com/wikipedia/commons/thumb/1/11/Child_interacts_with_an_ArtBot_at_2011_show.jpg/440px-Child_interacts_with_an_ArtBot_at_2011_show.jpg)
Fondo
La mayoría de los científicos creen que la investigación de la IA conducirá en algún momento a la creación de máquinas que sean tan inteligentes, o más inteligentes, que los seres humanos en todos los ámbitos de interés. [1] No existe ninguna ley física que impida que las partículas se organicen de manera que realicen cálculos aún más avanzados que las disposiciones de las partículas en el cerebro humano; por lo tanto, la superinteligencia es físicamente posible. [2] [3] Además de las posibles mejoras algorítmicas sobre los cerebros humanos, un cerebro digital puede ser muchos órdenes de magnitud más grande y más rápido que un cerebro humano, cuyo tamaño fue limitado por la evolución para ser lo suficientemente pequeño como para pasar por un canal de parto. . [4] Si bien no hay consenso sobre cuándo la inteligencia artificial superará a los humanos, muchos estudiosos argumentan que siempre que suceda, la introducción de una segunda especie de vida inteligente en el planeta tendrá implicaciones de gran alcance. [2] [5] Los académicos a menudo no están de acuerdo entre sí sobre qué tipos de escenarios posteriores a la IA son más probables y qué tipos de escenarios posteriores a la IA serían los más deseables . Finalmente, algunos disidentes argumentan que la IA nunca se volverá tan inteligente como los humanos, por ejemplo, porque la raza humana probablemente ya se habrá destruido a sí misma antes de que la investigación tenga tiempo de avanzar lo suficiente como para crear inteligencia artificial general. [6]
Postulados: mano de obra robótica y economía post-escasez
Todos los siguientes "escenarios de las secuelas de la IA" de las secuelas del desarrollo de la IA arbitrariamente avanzado dependen de manera crucial de dos tesis entrelazadas. La primera tesis es que, en algún momento en el futuro, algún tipo de crecimiento económico continuará hasta que se alcance una economía "post-escasez" que podría, a menos que esté extremadamente hiperconcentrada, proporcionar sin esfuerzo un nivel de vida extremadamente cómodo para una población igual o , dentro de lo razonable, superando a la población humana actual, sin siquiera requerir que el grueso de la población participe en la fuerza laboral. Este crecimiento económico podría provenir de la continuación de las tendencias de crecimiento existentes y el refinamiento de las tecnologías existentes, o de avances futuros en tecnologías emergentes como la nanotecnología y la automatización a través de la robótica y la inteligencia artificial avanzada futurista . La segunda tesis es que los avances en inteligencia artificial harán que los humanos sean innecesarios para el funcionamiento de la economía: la mano de obra humana disminuye en valor económico relativo si los robots son más fáciles de producir en masa a bajo costo que los humanos, más personalizables que los humanos, y si se vuelven más inteligentes. y capaz que los humanos. [6] [7] [8]
Dotación cósmica y límites al crecimiento
El Universo puede ser espacialmente infinito; sin embargo, el Universo accesible está limitado por el horizonte de eventos cosmológicos de alrededor de 16 mil millones de años luz. [9] [10] Algunos físicos creen que es plausible que la civilización alienígena más cercana pueda estar ubicada a más de 16 mil millones de años luz de distancia; [11] [12] en este escenario de expansión en el mejor de los casos, la raza humana podría eventualmente, al colonizar una fracción significativa del Universo accesible, aumentar la biosfera accesible en quizás 32 órdenes de magnitud. [13] El siglo XX vio una " transición demográfica " parcial hacia tasas de natalidad más bajas asociadas con sociedades más ricas; [14] sin embargo, a muy largo plazo, se predice que las correlaciones de fertilidad intergeneracionales (ya sea debido a la selección natural o debido a la transmisión cultural de las normas de familias numerosas de padres a hijos) darán como resultado un aumento de la fertilidad con el tiempo, en ausencia de de anticonceptivos obligatorios o catástrofes malthusianas periódicas . [15] [16]
Escenarios posteriores a la IA
Libertarianismo
Los escenarios libertarios postulan que las máquinas inteligentes, los humanos cargados, los cyborgs y los humanos no mejorados coexistirán pacíficamente en un marco centrado en el respeto de los derechos de propiedad. Dado que la productividad industrial ya no depende de la escasez de trabajo humano, el valor de la tierra se dispara en comparación con el precio de los bienes; incluso los seres humanos " luditas " restantes que poseían o heredaban tierras deberían poder vender o arrendar una pequeña parte de ella a los robots más productivos a cambio de una anualidad perpetua suficiente para satisfacer fácilmente de forma indefinida todas sus necesidades financieras básicas. [6] Estas personas pueden vivir todo el tiempo que deseen y son libres de participar en casi cualquier actividad que puedan concebir, por placer o para la autorrealización, sin preocupaciones económicas. Las tecnologías avanzadas permiten modos de pensamiento y experiencia completamente nuevos, lo que se suma a la paleta de posibles sentimientos. Las personas en el futuro pueden incluso experimentar interminables "gradientes de felicidad". [17]
La evolución avanza hacia una mayor complejidad, mayor elegancia, mayor conocimiento, mayor inteligencia, mayor belleza, mayor creatividad y mayores niveles de atributos sutiles como el amor. En toda tradición monoteísta, Dios también es descrito como todas estas cualidades, solo que sin ninguna limitación: conocimiento infinito, inteligencia infinita, belleza infinita, creatividad infinita, amor infinito, etc. Por supuesto, incluso el crecimiento acelerado de la evolución nunca alcanza un nivel infinito, pero a medida que explota exponencialmente, ciertamente se mueve rápidamente en esa dirección. De modo que la evolución avanza inexorablemente hacia esta concepción de Dios, aunque sin llegar nunca a alcanzar este ideal. Podemos considerar, por tanto, la liberación de nuestro pensamiento de las severas limitaciones de su forma biológica como una empresa esencialmente espiritual. [17] [18]
- Ray Kurzweil , autor de The Singularity is Near
Tales escenarios descentralizados pueden ser inestables a largo plazo, ya que los elementos más codiciosos de las clases superinteligentes tendrían tanto los medios como los motivos para usurpar la propiedad de las clases no mejoradas. Incluso si los mecanismos para garantizar los derechos de propiedad legales son irrompibles y libres de lagunas jurídicas, aún puede existir un peligro siempre presente de que los humanos y los cyborgs sean "engañados" por las máquinas superinteligentes más inteligentes para que cedan involuntariamente su propia propiedad. El sufrimiento puede ser generalizado, ya que los seres sintientes sin propiedad pueden morir, y ningún mecanismo impide que un ser se reproduzca hasta los límites de sus propios recursos heredables, lo que resulta en una multitud de descendientes de ese ser que buscan una existencia de sustento mínimo. [6] [8] [19]
Imagínese correr en una cinta de correr en una pendiente pronunciada: el corazón late con fuerza, los músculos duelen, los pulmones se quedan sin aire. Un vistazo al cronómetro: su próxima pausa, que también será su muerte, vence en 49 años, 3 meses, 20 días, 4 horas, 56 minutos y 12 segundos. Desearías no haber nacido. [7]
- Nick Bostrom , filósofo, Universidad de Oxford
Dictador benevolente
En este escenario, postula que una inteligencia artificial superinteligente toma el control de la sociedad, pero actúa de manera beneficiosa. Sus programadores, a pesar de estar en una fecha límite, resolvieron problemas cuasi filosóficos que a algunos les habían parecido intratables, y crearon una IA con el siguiente objetivo: usar su superinteligencia para descubrir cómo es la utopía humana analizando el comportamiento humano, el cerebro humano, y genes humanos; y luego, implementar esa utopía. La IA llega a una definición sutil y compleja del florecimiento humano. Al valorar la diversidad y reconocer que diferentes personas tienen diferentes preferencias, la IA divide a la Tierra en diferentes sectores. Dañar a otros, fabricar armas, evadir la vigilancia o intentar crear una superinteligencia rival están prohibidos a nivel mundial; aparte de eso, cada sector es libre de hacer sus propias leyes; por ejemplo, una persona religiosa puede optar por vivir en el "sector piadoso" correspondiente a su religión, donde se aplican estrictamente las reglas religiosas apropiadas. En todos los sectores se han eliminado las enfermedades, la pobreza, la delincuencia, las resacas, las adicciones y todos los demás sufrimientos involuntarios. Muchos sectores cuentan con una arquitectura avanzada y un espectáculo que "hacen palidecer las visiones típicas de la ciencia ficción en comparación". [6] La vida es un "crucero de placer con todo incluido", [6] como si fuera "Navidad los 365 días del año". [20]
Después de pasar una semana intensa en el sector del conocimiento aprendiendo sobre las leyes fundamentales de la física que la IA ha descubierto, puede decidir desatarse en el sector hedonista durante el fin de semana y luego relajarse durante unos días en el resort de playa en el sector de la vida silvestre. . [6]
- Max Tegmark , físico, MIT
Aún así, muchas personas están insatisfechas, escribe Tegmark. Los seres humanos no tienen libertad para dar forma a su destino colectivo. Algunos quieren la libertad de tener tantos hijos como quieran. A otros les molesta la vigilancia de la IA, o les molesta la prohibición de armamento y la creación de más máquinas de superinteligencia. Otros pueden llegar a lamentar las decisiones que han tomado o encontrar que sus vidas se sienten vacías y superficiales. [6]
Bostrom sostiene que idealmente el código de ética de una IA debería mejorar de cierta manera las normas actuales de comportamiento moral, de la misma manera que consideramos que la moralidad actual es superior a la moralidad de eras anteriores de esclavitud. Por el contrario, Ernest Davis, de la Universidad de Nueva York, este enfoque es demasiado peligroso, afirmando que "me siento más seguro en manos de una superinteligencia que se guía por la moralidad de 2014, o para el caso por la moral de 1700, que en manos de alguien que decide considere la pregunta por sí misma ". [21]
Gatekeeper AI
En los escenarios de IA "Gatekeeper", la IA puede actuar para evitar que se creen superinteligencias rivales, pero por lo demás se equivoca al permitir que los humanos creen su propio destino. [6] Ben Goertzel de OpenCog ha abogado por un escenario de "IA niñera" en el que la IA también asume cierta responsabilidad para evitar que los humanos se destruyan a sí mismos, por ejemplo, ralentizando el progreso tecnológico para dar tiempo a la sociedad para avanzar de una manera más reflexiva y deliberada. . [6] [22] En un tercer escenario, una IA "protectora" superinteligente da a los humanos la ilusión de control, al ocultar o borrar todo el conocimiento de su existencia, pero trabaja detrás de escena para garantizar resultados positivos. En los tres escenarios, mientras la humanidad gana más control (o al menos la ilusión de control), la humanidad termina progresando más lentamente de lo que lo haría si la IA no tuviera restricciones en su voluntad de hacer llover todos los beneficios de su tecnología avanzada sobre el ser humano. raza. [6]
IA en caja
(grabado del siglo XIX)
La gente pregunta cuál es la relación entre humanos y máquinas, y mi respuesta es que es muy obvio: las máquinas son nuestros esclavos. [23]
- Tom Dietterich , presidente de la AAAI
El escenario de AI Box postula que una IA superinteligente puede estar "confinada a una caja" y sus acciones pueden ser restringidas por guardianes humanos; los humanos a cargo intentarían aprovechar algunos de los avances científicos o las habilidades de razonamiento de la IA, sin permitir que la IA se apodere del mundo. El control de acceso exitoso puede ser difícil; cuanto más inteligente sea la IA, más probable será que la IA pueda encontrar una forma inteligente de utilizar el " hackeo social " y convencer a los guardianes de que la dejen escapar, o incluso de encontrar un método físico de escape imprevisto. [24] [25]
Fusión humano-IA
Kurzweil sostiene que en el futuro "No habrá distinción, post Singularidad, entre humano y máquina o entre realidad física y virtual". [26]
Extinción humana
Si una máquina superinteligente dominante llegara a la conclusión de que la supervivencia humana es un riesgo innecesario o un desperdicio de recursos, el resultado sería la extinción humana. Esto podría ocurrir si una máquina, programada sin respeto por los valores humanos, inesperadamente gana superinteligencia a través de la superación personal recursiva, o logra escapar de su contención en un escenario de AI Box. Esto también podría ocurrir si la primera IA superinteligente fuera programada con una comprensión incompleta o inexacta de los valores humanos, ya sea porque la tarea de inculcar valores humanos en la IA es demasiado difícil o imposible; debido a una implementación inicial con errores de la IA; o debido a errores introducidos accidentalmente, ya sea por sus programadores humanos o por la propia IA que se mejora a sí misma, en el curso de refinar su base de código. Bostrom y otros argumentan que la extinción humana es probablemente el "camino predeterminado" que la sociedad está tomando actualmente, en ausencia de una atención preparatoria sustancial a la seguridad de la IA. La IA resultante podría no ser sensible y podría no darle ningún valor a la vida sensible; el mundo vacío resultante, desprovisto de vida, podría ser como "un Disneylandia sin niños". [7]
zoo
Jerry Kaplan , autor de Humans Need Not Apply , plantea un escenario en el que los humanos son cultivados o mantenidos en una reserva, al igual que los humanos preservan especies en peligro de extinción como los chimpancés. [27] El cofundador de Apple y escéptico de la inteligencia artificial, Steve Wozniak, declaró en 2015 que los robots que asumieran el control serían en realidad "buenos para la raza humana", con el argumento de que cree que los humanos se convertirían en las mascotas mimadas de los robots. [28]
Alternativas a la IA
Algunos estudiosos dudan de que las máquinas superinteligentes "que cambien el juego" alguna vez lleguen a suceder. Gordon Bell de Microsoft Research ha declarado que "la población se destruirá a sí misma antes que la singularidad tecnológica ". Gordon Moore , descubridor de la ley homónima de Moore , declaró: "Soy un escéptico. No creo que sea probable que suceda este tipo de cosas, al menos durante mucho tiempo. Y no sé por qué me siento así. " El psicólogo evolutivo Steven Pinker declaró: "El hecho de que puedas visualizar un futuro en tu imaginación no es evidencia de que sea probable o incluso posible". [29]
Bill Joy de Sun Microsystems , en su ensayo de abril de 2000 Por qué el futuro no nos necesita , ha abogado por la "renuncia voluntaria" global de la inteligencia artificial general y otras tecnologías de riesgo. [30] [31] La mayoría de los expertos creen que la renuncia es extremadamente improbable. El escéptico de la IA, Oren Etzioni, ha declarado que los investigadores y científicos no tienen más remedio que seguir adelante con los desarrollos de la IA: "China dice que quieren ser un líder en IA, Putin ha dicho lo mismo. Así que la carrera mundial está en marcha". [32]
Referencias
- ^ Müller, Vincent C. y Nick Bostrom. "Progreso futuro en inteligencia artificial: una encuesta de opinión de expertos". Cuestiones fundamentales de la inteligencia artificial. Springer International Publishing, 2016. 553-570.
- ^ a b "Stephen Hawking: 'La trascendencia analiza las implicaciones de la inteligencia artificial, pero ¿nos estamos tomando la IA lo suficientemente en serio? ' " . The Independent (Reino Unido) . Consultado el 4 de diciembre de 2017 .
- ^ "Stephen Hawking advierte que la inteligencia artificial podría acabar con la humanidad" . BBC . 2 de diciembre de 2014 . Consultado el 4 de diciembre de 2017 .
- ^ Graves, Matthew (8 de noviembre de 2017). "Por qué deberíamos preocuparnos por la superinteligencia artificial" . Skeptic (revista estadounidense) . 22 (2) . Consultado el 4 de diciembre de 2017 .
- ^ "Piñones inteligentes" . The Economist . 9 de agosto de 2014 . Consultado el 4 de diciembre de 2017 .
- ^ a b c d e f g h yo j k Tegmark, Max (2017). "Capítulo 5: Consecuencias: Los próximos 10.000 años". Life 3.0: Ser humano en la era de la inteligencia artificial (Primera ed.). Nueva York: Knopf. ISBN 9781101946596. OCLC 973137375 .
- ^ a b c Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias . Prensa de la Universidad de Oxford.
- ^ a b Robin Hanson (2016). La era de Em: trabajo, amor y vida cuando los robots gobiernan la tierra . Prensa de la Universidad de Oxford .
- ^ Ćirković, Milan M. "Pronóstico para el próximo eón: cosmología aplicada y el destino a largo plazo de los seres inteligentes". Fundamentos de la física 34.2 (2004): 239-261.
- ^ Olson, S. Jay. "Cosmología homogénea con civilizaciones en expansión agresiva". Gravedad clásica y cuántica 32.21 (2015): 215025.
- ^ Tegmark, Max. "Nuestro universo matemático". Libros de Allen Lane-Penguin, Londres (2014).
- ^ John Gribbin . Solo en el Universo . Nueva York, Wiley, 2011.
- ^ Russell, Stuart (30 de agosto de 2017). "Inteligencia artificial: el futuro es superinteligente" . Naturaleza . 548 (7669): 520–521. Código Bib : 2017Natur.548..520R . doi : 10.1038 / 548520a .
- ^ Myrskylä, Mikko; Kohler, Hans-Peter; Billari, Francesco C. (6 de agosto de 2009). "Los avances en el desarrollo revierten la disminución de la fecundidad". Naturaleza . 460 (7256): 741–743. Código Bibliográfico : 2009Natur.460..741M . doi : 10.1038 / nature08230 . PMID 19661915 . S2CID 4381880 .
- ^ Kolk, M .; Cownden, D .; Enquist, M. (29 de enero de 2014). "Correlaciones en la fecundidad entre generaciones: ¿puede persistir la baja fecundidad?" . Actas de la Royal Society B: Ciencias Biológicas . 281 (1779): 20132561. doi : 10.1098 / rspb.2013.2561 . PMC 3924067 . PMID 24478294 .
- ^ Burger, Oskar; DeLong, John P. (28 de marzo de 2016). "¿Qué pasa si la disminución de la fertilidad no es permanente? La necesidad de un enfoque evolutivamente informado para comprender la baja fertilidad" . Transacciones filosóficas de la Royal Society B: Ciencias biológicas . 371 (1692): 20150157. doi : 10.1098 / rstb.2015.0157 . PMC 4822437 . PMID 27022084 .
- ^ a b Jordan, Gregory E (2006). "Apología de la religión transhumanista". Revista de Evolución y Tecnología . 15 (1): 55–72.
- ^ Kurzweil, Ray. La singularidad está cerca . Gerald Duckworth y compañía, 2010.
- ^ Poole, Steven (15 de junio de 2016). "La revisión de Age of Em - el horrible futuro cuando los robots gobiernan la Tierra" . The Guardian . Consultado el 4 de diciembre de 2017 .
- ^ "Inteligencia artificial: ¿podemos controlarla?" . Financial Times . 14 de junio de 2016 . Consultado el 4 de diciembre de 2017 .
- ^ Davis, Ernest (marzo de 2015). "Pautas éticas para una superinteligencia" . Inteligencia artificial . 220 : 121-124. doi : 10.1016 / j.artint.2014.12.003 .
- ^ Goertzel, Ben. "¿Debería la humanidad construir una niñera de IA global para retrasar la singularidad hasta que se comprenda mejor?". Revista de estudios de la conciencia . 19 (1-2): 96-111.
- ^ "¡Como Jeopardy! Robot Watson crece, ¿qué miedo deberíamos tener?" . Revista de Nueva York . 20 de mayo de 2015 . Consultado el 4 de diciembre de 2017 .
- ^ "Controle la IA peligrosa antes de que nos controle, dice un experto" . NBC News . 1 de marzo de 2012 . Consultado el 4 de diciembre de 2017 .
- ^ Vinge, Vernor (1993). "La singularidad tecnológica venidera: cómo sobrevivir en la era post-humana". Visión-21: Ciencia e ingeniería interdisciplinarias en la era del ciberespacio : 11-22. Código Bibliográfico : 1993vise.nasa ... 11V .
Sostengo que el confinamiento es intrínsecamente impráctico. Para el caso de confinamiento físico: Imagínese confinado en su casa con acceso limitado a datos al exterior, a sus amos. Si esos maestros pensaran a un ritmo, digamos, un millón de veces más lento que tú, hay pocas dudas de que durante un período de años (tu tiempo) podrías dar "consejos útiles" que, de paso, te liberarían.
- ^ "Científicos: humanos y máquinas se fusionarán en el futuro" . www.cnn.com . 15 de julio de 2008 . Consultado el 4 de diciembre de 2017 .
- ^ Wakefield, Jane (28 de septiembre de 2015). "¿Realmente tenemos que temer a la IA?" . BBC News . Consultado el 4 de diciembre de 2017 .
- ^ Gibbs, Samuel (25 de junio de 2015). "El cofundador de Apple, Steve Wozniak, dice que los humanos serán las mascotas de los robots" . The Guardian . Consultado el 7 de enero de 2018 .
- ^ "Las luminarias tecnológicas abordan la singularidad" . IEEE Spectrum: Noticias de tecnología, ingeniería y ciencia . 1 de junio de 2008 . Consultado el 4 de diciembre de 2017 .
- ^ "Por qué el futuro no nos necesita" . CON CABLE . 1 de abril de 2000 . Consultado el 4 de diciembre de 2017 .
- ^ "La alfombrilla de ratón que rugió" . SFGate . 14 de marzo de 2000 . Consultado el 4 de diciembre de 2017 .
- ^ "Elon Musk dice que la IA podría condenar la civilización humana. Zuckerberg no está de acuerdo. ¿Quién tiene razón?" . USA HOY . 2 de enero de 2018 . Consultado el 8 de enero de 2018 .
Ver también
- Riesgo existencial de la inteligencia artificial general