En futurología , un singleton es un orden mundial hipotético en el que existe una única agencia de toma de decisiones al más alto nivel, capaz de ejercer un control efectivo sobre su dominio y prevenir permanentemente las amenazas internas y externas a su supremacía. El término fue definido por primera vez por Nick Bostrom . [1] [2] [3] [4] [5] [6] [7] [8]
Descripción general
Una inteligencia general artificial que haya sufrido una explosión de inteligencia podría formar un singleton, al igual que un gobierno mundial armado con tecnologías de control mental y vigilancia social . Un singleton no necesita microgestionar directamente todo en su dominio; podría permitir diversas formas de organización dentro de sí mismo, aunque garantizado que funcione dentro de parámetros estrictos. Un singleton no necesita apoyar a una civilización y, de hecho, podría destruirla al llegar al poder.
Un singleton no tiene por qué ser necesariamente una organización, un gobierno o una IA. Podría formarse a través de todas las personas que aceptan los mismos valores u objetivos. La unión de estas personas formaría una "agencia" en el sentido amplio del término según Bostrom. [9]
Un singleton tiene tanto riesgos potenciales como beneficios potenciales. En particular, un singleton adecuado podría resolver problemas de coordinación mundial que de otro modo no serían solucionables, abriendo trayectorias de desarrollo que de otro modo no estarían disponibles para la civilización. Por ejemplo, Ben Goertzel , un investigador de AGI, sugiere que los humanos pueden decidir crear una " Niñera de IA " con "poderes de inteligencia y vigilancia levemente sobrehumanos", para proteger a la raza humana de riesgos existenciales como la nanotecnología y retrasar el desarrollo de otros ( hostiles) inteligencias artificiales hasta que se resuelvan los problemas de seguridad. [10] Además, Bostrom sugiere que un singleton podría contener las presiones evolutivas darwinianas , evitando que los agentes interesados solo en la reproducción lleguen a dominar. [11]
Sin embargo, Bostrom también considera la posibilidad de un régimen global totalitario, represivo y estable como un grave riesgo existencial. [12] La misma estabilidad de un singleton hace que la instalación de un singleton malo sea especialmente catastrófica, ya que las consecuencias nunca se pueden deshacer. Bryan Caplan escribe que "quizás una eternidad de totalitarismo sería peor que la extinción". [13]
De manera similar, Hans Morgenthau destacó que el desarrollo mecánico de las armas, el transporte y las comunicaciones hace que "la conquista del mundo sea técnicamente posible, y hacen que sea técnicamente posible mantener al mundo en ese estado conquistado". Su falta fue la razón por la que los grandes imperios antiguos, aunque vastos, no lograron completar la conquista universal de su mundo y perpetuar la conquista. Ahora, sin embargo, esto es posible. La tecnología deshace las barreras geográficas y climáticas. "Hoy en día, ningún obstáculo tecnológico se interpone en el camino de un imperio mundial", ya que "la tecnología moderna hace posible extender el control de la mente y la acción a todos los rincones del mundo, independientemente de la geografía y la estación". [14] Morgenthau continuó con el progreso tecnológico:
También le ha dado a la guerra total ese ímpetu aterrador y mundial que parece satisfacerse nada menos que con el dominio mundial ... La era de las máquinas engendra sus propios triunfos, cada paso adelante convocando a dos o más en el camino del progreso tecnológico. También engendra sus propias victorias, militares y políticas; porque con la capacidad de conquistar el mundo y mantenerlo conquistado, crea la voluntad de conquistarlo. [15]
Ver también
Referencias
- ^ Nick Bostrom (2006). "¿Qué es un Singleton?" . Investigaciones lingüísticas y filosóficas 5 (2): 48-54.
- ^ Dvorsky, George. "7 resultados totalmente inesperados que podrían seguir la singularidad" . io9 . Consultado el 3 de febrero de 2016 .
- ^ Miller, James D. (6 de septiembre de 2011). "La solución Singleton" . hplusmagazine.com . Consultado el 3 de febrero de 2016 .
- ^ Thiel, Thomas (21 de diciembre de 2014). "Die Superintelligenz ist gar nicht super" . Faz.net . Frankfurter Allgemeine Zeitung . Consultado el 3 de febrero de 2016 .
- ^ Barrat, James (octubre de 2013). Nuestra última invención: la inteligencia artificial y el fin de la era humana . ISBN 978-0312622374. Consultado el 3 de febrero de 2016 .
- ^ Haggstrom, Olle (2016). Here Be Dragons: ciencia, tecnología y el futuro de la humanidad . ISBN 9780198723547. Consultado el 3 de febrero de 2016 .
- ^ O'Mathúna, Dónal (2009). Nanoética: grandes problemas éticos con la pequeña tecnología . A&C Negro. pag. 185 . ISBN 9781847063953. Consultado el 3 de febrero de 2016 .
- ^ Könneker, Carsten (19 de noviembre de 2015). "Fukushima der künstlichen Intelligenz" . Spektrum . Consultado el 3 de febrero de 2016 .
- ^ Nick Bostrom (2006). "¿Qué es un Singleton?" . Investigaciones lingüísticas y filosóficas 5 (2): 48-54.
- ^ Goertzel, Ben. " ¿Debería la humanidad construir una niñera de inteligencia artificial global para retrasar la singularidad hasta que se comprenda mejor? ", Revista de estudios de conciencia 19.1-2 (2012): 1-2.
- ^ Nick Bostrom (2004). "El futuro de la evolución humana" . Muerte y anti-muerte: doscientos años después de Kant, cincuenta años después de Turing , ed. Charles Tandy (Ria University Press: Palo Alto, California): 339-371.
- ^ Nick Bostrom (2002). "Riesgos existenciales: análisis de escenarios de extinción humana y peligros relacionados" . Revista de Evolución y Tecnología 9 (1).
- ^ Bryan Caplan (2008). " La amenaza totalitaria ". Riesgos catastróficos globales , eds. Bostrom y Cirkovic (Oxford University Press): 504-519. ISBN 9780198570509
- ^ Política entre las naciones: la lucha por el poder y la paz , cuarta edición, Nueva York: Alfred A. Knopf, 1967, p 358-365.
- ^ Política entre naciones , p 369-370.