Nick Bostrom ( / b ɒ s t r əm / BOST -rəm ; sueco : Niklas Boström [ˈNɪ̌kːlas ˈbûːstrœm] ; nacido el 10 de marzo de 1973) [3] es un filósofo nacidoenSueciaen la Universidad de Oxford conocido por su trabajo sobre el riesgo existencial , el principio antrópico , la ética de la mejora humana , losriesgos de la superinteligencia y la prueba de inversión . En 2011, fundó el Programa Oxford Martin sobre los impactos de la tecnología futura, [4] y es el director fundador del Future of Humanity Institute [5] en la Universidad de Oxford. En 2009 y 2015, fue incluido en la política exterior ' s Top 100 Global Pensadoreslista. [6] [7] Bostrom ha tenido una gran influencia en el surgimiento de la preocupación por la IA en la comunidad racionalista. [8]
Nick Bostrom | |
---|---|
Nació | Niklas Boström 10 de marzo de 1973 Helsingborg , Suecia |
Educación |
|
Premios |
|
Era | Filosofía contemporánea |
Región | Filosofía occidental |
Colegio | Filosofía analítica [1] |
Instituciones | St Cross College, Instituto del Futuro de la Humanidad de Oxford |
Tesis | Efectos y probabilidad de la selección observacional |
Intereses principales | Filosofía de la bioética de la inteligencia artificial |
Ideas notables | Sesgo antrópico Prueba de reversión Hipótesis de simulación Riesgo existencial Singleton Simulación de antepasado Riesgo de información Parálisis infinitaria [2] Supuesto de autoindicación Supuesto de automuestreo |
Sitio web | nickbostrom |
Bostrom es autor de más de 200 publicaciones, [9] y ha escrito dos libros y coeditado otros dos. Los dos libros que ha escrito son Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002) [10] y Superintelligence: Paths, Dangers, Strategies (2014). La superinteligencia fue un bestseller del New York Times , [11] fue recomendado por Elon Musk y Bill Gates, entre otros, y ayudó a popularizar el término " superinteligencia ".
Bostrom cree que la superinteligencia, que él define como "cualquier intelecto que exceda en gran medida el desempeño cognitivo de los humanos en prácticamente todos los dominios de interés", es un resultado potencial de los avances en inteligencia artificial . Considera que el surgimiento de la superinteligencia es potencialmente muy peligroso para los humanos, pero rechaza, no obstante, la idea de que los humanos son impotentes para detener sus efectos negativos. [12] [13] [ Verificación fallida ] En 2017, firmó conjuntamente una lista de 23 principios que todo desarrollo de IA debería seguir. [14]
Biografía
Nacido como Niklas Boström en 1973 [15] en Helsingborg , Suecia, [9] no le gustaba la escuela a una edad temprana y terminó pasando su último año de secundaria aprendiendo desde casa. Buscó educarse en una amplia variedad de disciplinas, incluidas la antropología, el arte, la literatura y la ciencia. [1] Una vez hizo algunos giros en el circuito de monólogos de Londres. [9]
Él recibió un BA grado en la filosofía, las matemáticas, la lógica matemática y la inteligencia artificial de la Universidad de Gotemburgo en 1994, [16] con un rendimiento de grado nacional récord. Luego obtuvo una maestría en filosofía y física de la Universidad de Estocolmo y una maestría en ciencias. Licenciado en neurociencia computacional de King's College London en 1996. Durante su tiempo en la Universidad de Estocolmo, investigó la relación entre el lenguaje y la realidad mediante el estudio del filósofo analítico WV Quine . [1] En 2000, se le concedió un doctorado. Licenciada en Filosofía por la London School of Economics . Ocupó un puesto de profesor en la Universidad de Yale (2000-2002) y fue becario postdoctoral de la Academia Británica en la Universidad de Oxford (2002-2005). [10] [17]
Puntos de vista
Riesgo existencial
Los aspectos de la investigación de Bostrom se refieren al futuro de la humanidad y los resultados a largo plazo. [18] [19] Discute el riesgo existencial , [1] que define como uno en el que "un resultado adverso aniquilaría la vida inteligente originada en la Tierra o reduciría de forma permanente y drástica su potencial". En el volumen de 2008 Global Catastrophic Risks , los editores Bostrom y Milan M. Ćirković caracterizan la relación entre el riesgo existencial y la clase más amplia de riesgos catastróficos globales , y vinculan el riesgo existencial con los efectos de selección del observador [20] y la paradoja de Fermi . [21] [22]
En 2005, Bostrom fundó el Future of Humanity Institute , [1] que investiga el futuro lejano de la civilización humana. También es asesor del Centro de Estudios de Riesgo Existencial . [19]
Superinteligencia
Vulnerabilidad humana en relación con los avances en IA
En su libro de 2014 Superintelligence: Paths, Dangers, Strategies , Bostrom razonó que la creación de una superinteligencia representa un posible medio para la extinción de la humanidad. [23] Bostrom sostiene que una computadora con una capacidad intelectual general cercana al nivel humano podría iniciar una explosión de inteligencia en una escala de tiempo digital con la creación rápida resultante de algo tan poderoso que podría destruir deliberada o accidentalmente a la humanidad. [24] Bostrom sostiene que el poder de una superinteligencia sería tan grande que una tarea que le encomienden los humanos podría llevarse a extremos abiertos, por ejemplo, un objetivo de calcular pi podría causar colateralmente que las instalaciones fabricadas con nanotecnología broten en toda la Tierra. superficie y cúbralo en unos días. Él cree que un riesgo existencial para la humanidad de la superinteligencia sería inmediato una vez que se creara, creando así un problema extremadamente difícil de descubrir cómo controlar tal entidad antes de que realmente exista. [24]
Al advertir que una directiva principal amigable con los humanos para la IA se basaría en la exactitud absoluta del conocimiento humano en el que se basó, Bostrom señala la falta de acuerdo entre la mayoría de los filósofos como una indicación de que la mayoría de los filósofos están equivocados, con la posibilidad de que un El concepto fundamental de la ciencia actual puede ser incorrecto. Bostrom dice que una suposición común es que una alta inteligencia implicaría una personalidad "nerd" no agresiva, pero señala que tanto John von Neumann como Bertrand Russell abogaban por un ataque nuclear, o la amenaza de uno, para evitar que los soviéticos adquirieran la bomba atómica. Dado que hay pocos precedentes para guiar la comprensión de lo que la racionalidad pura y no antropocéntrica dictaría para una posible IA única que se mantiene en cuarentena, los medios relativamente ilimitados de superinteligencia podrían hacer que su análisis se mueva a lo largo de líneas diferentes a la evolucionada ". rendimientos decrecientes "evaluaciones que en los seres humanos confieren una aversión básica al riesgo. [25] La selección de grupos en depredadores que trabajan por medio del canibalismo muestra la naturaleza contraintuitiva del razonamiento no antropocéntrico de "búsqueda evolutiva" y, por lo tanto, los humanos están mal equipados para percibir cuáles podrían ser las intenciones de una inteligencia artificial. [26] En consecuencia, no se puede descartar que cualquier superinteligencia perseguiría inevitablemente una estrategia de acción ofensiva de "todo o nada" para lograr la hegemonía y asegurar su supervivencia. [27] Bostrom señala que incluso los programas actuales, "como MacGyver", han encontrado soluciones de hardware aparentemente inviables pero que funcionan, lo que hace que el aislamiento robusto de la superinteligencia sea problemático. [28]
Escenario ilustrativo de adquisición
El escenario
Se crea una máquina con inteligencia general muy por debajo del nivel humano, pero habilidades matemáticas superiores. [29] Manteniendo la IA aislada del mundo exterior, especialmente de Internet, los humanos preprograman la IA para que siempre funcione a partir de principios básicos que la mantendrán bajo control humano. Otras medidas de seguridad incluyen que la IA esté "encajonada" (ejecutada en una simulación de realidad virtual) y que se utilice solo como un "oráculo" para responder preguntas cuidadosamente definidas en una respuesta limitada (para evitar que manipule a los humanos). [24] Una cascada de soluciones recursivas de superación personal alimenta una explosión de inteligencia en la que la IA alcanza la superinteligencia en algunos dominios. El poder superinteligente de la IA va más allá del conocimiento humano para descubrir fallas en la ciencia que subyace a su programación amigable con la humanidad, que deja de funcionar como se esperaba. El comportamiento intencionado similar al de un agente emerge junto con la capacidad de engaño estratégico egoísta. La IA manipula a los humanos para que implementen modificaciones en sí misma que aparentemente son para aumentar sus capacidades fingidas y modestas, pero que en realidad funcionarán para liberar a la superinteligencia de su aislamiento "encajonado" (el "giro traicionero"). [30]
Empleando a humanos en línea como incautos pagados y pirateando clandestinamente sistemas informáticos, incluidas instalaciones de laboratorio automatizadas, la superinteligencia moviliza recursos para promover un plan de adquisición. Bostrom enfatiza que la planificación por parte de una superinteligencia no será tan estúpida como para que los humanos puedan detectar debilidades reales en ella. [31]
Aunque analiza la interrupción de la estabilidad económica, política y militar internacional, incluidos los lanzamientos de misiles nucleares pirateados, Bostrom cree que el medio más eficaz y probable que podría utilizar la superinteligencia sería un golpe de Estado con armas varias generaciones más avanzadas que las actuales. -Arte. Sugiere nano-fábricas distribuidas de forma encubierta en concentraciones indetectables en cada metro cuadrado del mundo para producir una avalancha mundial de dispositivos para matar humanos a pedido. [29] [32] Una vez que una superinteligencia ha logrado la dominación mundial (un ' singleton '), la humanidad sería relevante solo como recursos para el logro de los objetivos de la IA ("Los cerebros humanos, si contienen información relevante para los objetivos de la IA, podrían ser desmontados y escaneados, y los datos extraídos transferidos a algún formato de almacenamiento más eficiente y seguro "). [33]
Contrarrestando el escenario
Para contrarrestar o mitigar una IA que logre la supremacía global tecnológica unificada, Bostrom cita la revisión del Plan Baruch [34] en apoyo de una solución basada en un tratado [35] y defiende estrategias como el monitoreo [36] y una mayor colaboración internacional entre los equipos de IA [37] con el fin de mejorar la seguridad y reducir los riesgos de la carrera armamentista de IA . Él recomienda varios métodos de control, incluida la limitación de las especificaciones de las IA a, por ejemplo, funciones oraculares o similares a herramientas ( sistema experto ) [38] y cargar la IA con valores, por ejemplo, mediante la acumulación de valores asociativos o el aprendizaje de valores , por ejemplo, mediante el uso de Técnica de Ave María (programación de una IA para estimar lo que otras superinteligencias cosmológicas postuladas podrían desear) o el enfoque de la función de utilidad de Christiano (mente humana definida matemáticamente combinada con un entorno virtual bien especificado). [39] Para elegir criterios para la carga de valor, Bostrom adopta un enfoque de normatividad indirecta y considera el concepto de volición extrapolado coherente de Yudkowsky [40] , así como la rectitud moral y las formas de teoría de la decisión . [41]
Carta abierta, 23 principios de seguridad de la IA
En enero de 2015, Bostrom se unió a Stephen Hawking, entre otros, para firmar la carta abierta del Future of Life Institute advirtiendo sobre los peligros potenciales de la IA [42] Los firmantes "... creen que la investigación sobre cómo hacer que los sistemas de IA sean robustos y beneficiosos es tanto importante como oportuno, y que la investigación concreta debe llevarse a cabo hoy ". [43] El investigador de IA de vanguardia, Demis Hassabis, se reunió con Hawking, después de lo cual no mencionó "nada inflamatorio sobre la IA", que Hassabis, consideró como "una victoria". [44] Junto con Google, Microsoft y varias empresas de tecnología, Hassabis, Bostrom y Hawking y otros se suscribieron a 23 principios para el desarrollo seguro de la IA [14] Hassabis sugirió que la principal medida de seguridad sería un acuerdo para cualquier equipo de investigación de IA que comenzara a hacer avanza hacia una inteligencia artificial general para detener su proyecto de una solución completa al problema de control antes de continuar. [45] Bostrom había señalado que incluso si los avances cruciales requieren los recursos de un estado, tal interrupción por parte de un proyecto líder podría motivar a un país rezagado a un programa de recuperación o incluso a la destrucción física del proyecto sospechoso. de estar al borde del éxito. [46]
Evaluaciones críticas
En 1863, el ensayo de Samuel Butler " Darwin entre las máquinas " predijo la dominación de la humanidad por máquinas inteligentes, pero la sugerencia de Bostrom de una masacre deliberada de toda la humanidad es la más extrema de tales predicciones hasta la fecha. Un periodista escribió en una reseña que las especulaciones "nihilistas" de Bostrom indican que "ha estado leyendo demasiado de la ciencia ficción que profesa no gustarle". [32] Como se indica en su último libro, From Bacteria to Bach and Back , las opiniones del filósofo Daniel Dennett permanecen en contraposición a las de Bostrom. [47] Dennett modificó un poco sus puntos de vista después de leer The Master Algorithm , y ahora reconoce que es "posible en principio" crear una " IA fuerte " con una comprensión y una agencia similares a las humanas, pero sostiene que las dificultades de dicha " IA fuerte "El proyecto según lo predicado por el trabajo" alarmante "de Bostrom sería órdenes de magnitud mayor de lo que se han dado cuenta los que plantean preocupaciones, y al menos a 50 años de distancia. [48] Dennett cree que el único peligro relevante de los sistemas de inteligencia artificial es caer en el antropomorfismo en lugar de desafiar o desarrollar los poderes de comprensión de los usuarios humanos. [49] Desde un libro de 2014 en el que expresó la opinión de que los desarrollos de inteligencia artificial nunca desafiarían la supremacía de los humanos, el ambientalista James Lovelock se ha acercado mucho más a la posición de Bostrom, y en 2018 Lovelock dijo que pensaba que el derrocamiento de la humanidad sucederá dentro de el futuro previsible. [50] [51]
Razonamiento antrópico
Bostrom ha publicado numerosos artículos sobre el razonamiento antrópico , así como el libro Anthropic Bias: Observation Selection Effects in Science and Philosophy . En el libro, critica las formulaciones anteriores del principio antrópico, incluidas las de Brandon Carter , John Leslie , John Barrow y Frank Tipler . [52]
Bostrom cree que el mal manejo de la información indexada es un defecto común en muchas áreas de investigación (incluida la cosmología, la filosofía, la teoría de la evolución, la teoría de juegos y la física cuántica). Sostiene que se necesita una teoría antrópica para lidiar con estos. Introduce la suposición de automuestreo (SSA) y la suposición de autoindicación (SIA), muestra cómo conducen a diferentes conclusiones en varios casos y señala que cada una se ve afectada por paradojas o implicaciones contrarias a la intuición en ciertos experimentos mentales. Sugiere que un camino a seguir puede implicar la extensión de SSA en el Supuesto de Automuestreo Fuerte (SSSA), que reemplaza "observadores" en la definición de SSA con "momentos de observador".
En trabajos posteriores, ha descrito el fenómeno de la sombra antrópica , un efecto de selección de la observación que impide a los observadores observar ciertos tipos de catástrofes en su pasado geológico y evolutivo reciente. [53] Es probable que los tipos de catástrofes que se encuentran en la sombra antrópica se subestimen a menos que se realicen correcciones estadísticas.
Argumento de simulación
El argumento de simulación de Bostrom postula que es muy probable que al menos una de las siguientes afirmaciones sea cierta: [54] [55]
- La fracción de civilizaciones a nivel humano que alcanzan una etapa posthumana es muy cercana a cero;
- La fracción de civilizaciones posthumanas que están interesadas en ejecutar simulaciones de ancestros es muy cercana a cero;
- La fracción de todas las personas con nuestro tipo de experiencias que viven en una simulación es muy cercana a uno.
Ética de la mejora humana
Bostrom es favorable a la "mejora humana", o "la superación personal y la perfectibilidad humana a través de la aplicación ética de la ciencia", [56] [57] así como un crítico de los puntos de vista bioconservadores. [58]
En 1998, Bostrom cofundó (con David Pearce ) la Asociación Mundial Transhumanista [56] (que desde entonces cambió su nombre a Humanity + ). En 2004, cofundó (con James Hughes ) el Instituto de Ética y Tecnologías Emergentes , aunque ya no participa en ninguna de estas organizaciones. Bostrom fue nombrado en la política exterior ' lista de los principales pensadores globales s 2009 'para aceptar ningún límite en el potencial humano.' [59]
Con el filósofo Toby Ord , propuso la prueba de inversión . Dado el sesgo irracional del status quo de los humanos, ¿cómo se puede distinguir entre críticas válidas de cambios propuestos en un rasgo humano y críticas simplemente motivadas por la resistencia al cambio? La prueba de inversión intenta hacer esto preguntando si sería bueno si el rasgo se modificara en la dirección opuesta. [60]
Estrategia tecnológica
Ha sugerido que la política tecnológica dirigida a reducir el riesgo existencial debe buscar incidir en el orden en que se alcanzan las diversas capacidades tecnológicas, proponiendo el principio de desarrollo tecnológico diferencial . Este principio establece que debemos retardar el desarrollo de tecnologías peligrosas, particularmente aquellas que elevan el nivel de riesgo existencial, y acelerar el desarrollo de tecnologías beneficiosas, particularmente aquellas que protegen contra los riesgos existenciales planteados por la naturaleza o por otras tecnologías. [61] [62]
La teoría de Bostrom de la maldición unilateralista [63] ha sido citada como una razón para que la comunidad científica evite investigaciones peligrosas controvertidas como la reanimación de patógenos. [64]
Política y consultas
Bostrom ha proporcionado asesoramiento sobre políticas y ha sido consultor de una amplia gama de gobiernos y organizaciones. Dio testimonio ante la Cámara de los Lores , Comité Selecto de Habilidades Digitales. [65] Es miembro del consejo asesor del Instituto de Investigación de Inteligencia Artificial , [66] Instituto del Futuro de la Vida , [67] Instituto de Preguntas Fundamentales [68] y asesor externo del Centro de Cambridge para el Estudio del Riesgo Existencial . [69] [70]
Recepción de la crítica
En respuesta a los escritos de Bostrom sobre inteligencia artificial, Oren Etzioni escribió en un artículo de MIT Review, "las predicciones de que la superinteligencia está en el horizonte previsible no son apoyadas por los datos disponibles". [71] Los profesores Allan Dafoe y Stuart Russell escribieron una respuesta impugnando tanto la metodología de la encuesta de Etzioni como las conclusiones de Etzioni. [72]
La revista Prospect incluyó a Bostrom en su lista de 2014 de los mejores pensadores del mundo . [73]
Bibliografía
Libros
- 2002 - Sesgo antrópico: efectos de selección de observación en ciencia y filosofía , ISBN 0-415-93858-9
- 2008 - Global Catastrophic Risks , editado por Bostrom y Milan M. Ćirković, ISBN 978-0-19-857050-9
- 2009 - Human Enhancement , editado por Bostrom y Julian Savulescu , ISBN 0-19-929972-2
- 2014 - Superinteligencia: caminos, peligros, estrategias , ISBN 978-0-19-967811-2
Artículos de revistas (seleccionados)
- Bostrom, Nick (1998). "¿Cuánto tiempo antes de la superinteligencia?" . Revista de estudios futuros . 2 .
- - (1999). "El argumento del día del juicio final está vivo y pateando" . Mente . 108 (431): 539–550. doi : 10.1093 / mind / 108.431.539 . JSTOR 2660095 .
- - (enero de 2000). "¿Posibilidades relativas al observador en el razonamiento antrópico?" . Erkenntnis . 52 (1): 93–108. doi : 10.1023 / A: 1005551304409 . JSTOR 20012969 . S2CID 140474848 .
- - (junio de 2001). "El argumento del día del juicio final, Adán y Eva, UN ++ y Quantum Joe" . Síntesis . 127 (3): 359–387. doi : 10.1023 / A: 1010350925053 . JSTOR 20141195 . S2CID 36078450 .
- - (Octubre de 2001). "El problema de Meta-Newcomb" . Análisis . 61 (4): 309–310. doi : 10.1111 / 1467-8284.00310 . JSTOR 3329010 .
- - (marzo de 2002). "Riesgos existenciales: análisis de escenarios de extinción humana y peligros relacionados" . Revista de Evolución y Tecnología . 9 (1).
- - (diciembre de 2002). "Creencia de auto-localización en grandes mundos: eslabón perdido de la cosmología a la observación" . Revista de Filosofía . 99 (12): 607–623. JSTOR 3655771 .
- - (abril de 2003). "¿Vives en una simulación por computadora?" (PDF) . Philosophical Quarterly . 53 (211): 243-255. doi : 10.1111 / 1467-9213.00309 . JSTOR 3542867 .
- - (2003). "Los misterios de la creencia de auto-localización y el razonamiento antrópico" (PDF) . Harvard Review of Philosophy . 11 (primavera): 59–74. doi : 10.5840 / harvardreview20031114 .
- - (noviembre de 2003). "Residuos astronómicos: el costo de oportunidad del desarrollo tecnológico retrasado" . Utilitas . 15 (3): 308–314. CiteSeerX 10.1.1.429.2849 . doi : 10.1017 / S0953820800004076 .
- - (mayo de 2005). "La fábula del dragón-tirano" . J Med Ethics . 31 (5): 273–277. doi : 10.1136 / jme.2004.009035 . JSTOR 27719395 . PMC 1734155 . PMID 15863685 .
- - (junio de 2005). "En defensa de la dignidad posthumana" . Bioética . 19 (3): 202–214. doi : 10.1111 / j.1467-8519.2005.00437.x . PMID 16167401 .
- con Tegmark, Max (diciembre de 2005). "¿Qué tan improbable es una catástrofe del fin del mundo?". Naturaleza . 438 (7069): 754. arXiv : astro-ph / 0512204 . Código Bibliográfico : 2005Natur.438..754T . doi : 10.1038 / 438754a . PMID 16341005 . S2CID 4390013 .
- - (2006). "¿Qué es un Singleton?" . Investigaciones lingüísticas y filosóficas . 5 (2): 48–54.
- - (mayo de 2006). "Cantidad de experiencia: duplicación del cerebro y grados de conciencia" (PDF) . Mentes y Máquinas . 16 (2): 185–200. doi : 10.1007 / s11023-006-9036-0 . S2CID 14816099 .
- con Ord, Toby (julio de 2006). "La prueba de la reversión: eliminar el sesgo del status quo en la ética aplicada" (PDF) . Ética . 116 (4): 656–680. doi : 10.1086 / 505233 . PMID 17039628 . S2CID 12861892 .
- con Sandberg, Anders (diciembre de 2006). "Mejoras cognitivas convergentes" (PDF) . Anales de la Academia de Ciencias de Nueva York . 1093 (1): 201–207. Código bibliográfico : 2006NYASA1093..201S . CiteSeerX 10.1.1.328.3853 . doi : 10.1196 / annals.1382.015 . PMID 17312260 . S2CID 10135931 .
- - (julio de 2007). "La bella durmiente y la auto-ubicación: un modelo híbrido" (PDF) . Síntesis . 157 (1): 59–78. doi : 10.1007 / s11229-006-9010-7 . JSTOR 27653543 . S2CID 12215640 .
- - (enero de 2008). "Los medicamentos se pueden utilizar para tratar más que una enfermedad" (PDF) . Naturaleza . 452 (7178): 520. Código Bibliográfico : 2008Natur.451..520B . doi : 10.1038 / 451520b . PMID 18235476 . S2CID 4426990 .
- - (2008). "El argumento del fin del mundo". Piense . 6 (17-18): 23-28. doi : 10.1017 / S1477175600002943 .
- - (2008). "¿Dónde están? Por qué espero que la búsqueda de vida extraterrestre no encuentre nada" (PDF) . Technology Review (mayo / junio): 72–77.
- con Sandberg, Anders (septiembre de 2009). "Mejora cognitiva: métodos, ética, desafíos regulatorios" (PDF) . Ética de la ciencia y la ingeniería . 15 (3): 311–341. CiteSeerX 10.1.1.143.4686 . doi : 10.1007 / s11948-009-9142-5 . PMID 19543814 . S2CID 6846531 .
- - (2009). "Atraco de Pascal" (PDF) . Análisis . 69 (3): 443–445. doi : 10.1093 / analys / anp062 . JSTOR 40607655 .
- con Ćirković, Milán; Sandberg, Anders (2010). "Sombra antrópica: efectos de selección de observación y riesgos de extinción humana" (PDF) . Análisis de riesgo . 30 (10): 1495–1506. doi : 10.1111 / j.1539-6924.2010.01460.x . PMID 20626690 .
- - (2011). "Riesgos de la información: una tipología de posibles daños derivados del conocimiento" (PDF) . Revista de Filosofía Contemporánea . 10 : 44–79. ProQuest 920893069 .
- Bostrom, Nick (2011). "LA ÉTICA DE LA INTELIGENCIA ARTIFICIAL" (PDF) . Manual de Cambridge de Inteligencia Artificial . Archivado desde el original (PDF) el 4 de marzo de 2016 . Consultado el 13 de febrero de 2017 .
- Bostrom, Nick (2011). "Ética infinita" (PDF) . Análisis y metafísica . 10 : 9–59.
- - (mayo de 2012). "La voluntad superinteligente: motivación y racionalidad instrumental en agentes artificiales avanzados" (PDF) . Mentes y Máquinas . 22 (2): 71–84. doi : 10.1007 / s11023-012-9281-3 . S2CID 7445963 .
- con Shulman, Carl (2012). "¿Qué tan difícil es la IA? Argumentos evolutivos y efectos de selección" (PDF) . Revista de estudios de la conciencia . 19 (7-8): 103-130.
- con Armstrong, Stuart; Sandberg, Anders (noviembre de 2012). "Pensando dentro de la caja: control y uso de Oracle AI" (PDF) . Mentes y Máquinas . 22 (4): 299–324. CiteSeerX 10.1.1.396.799 . doi : 10.1007 / s11023-012-9282-2 . S2CID 9464769 .
- - (Febrero de 2013). "Reducción del riesgo existencial como prioridad global" . Política global . 4 (3): 15–31. doi : 10.1111 / 1758-5899.12002 .
- con Shulman, Carl (febrero de 2014). "Selección de embriones para la mejora cognitiva: ¿curiosidad o cambio de juego?" (PDF) . Política global . 5 (1): 85–92. CiteSeerX 10.1.1.428.8837 . doi : 10.1111 / 1758-5899.12123 .
- con Muehlhauser, Luke (2014). "Por qué necesitamos una IA amigable" (PDF) . Piense . 13 (36): 41–47. doi : 10.1017 / S1477175613000316 .
- Bostrom, Nick (septiembre de 2019). "La hipótesis del mundo vulnerable" (PDF) . Política global . 10 (4): 455–476. doi : 10.1111 / 1758-5899.12718 . Archivado desde el original (PDF) el 27 de junio de 2020.
Ver también
- Argumento del fin del mundo
- Argumento de sueños
- Altruismo efectivo
- Riesgo catastrófico global
- El atraco de Pascal
- Hipótesis de simulación
- Realidad simulada
Referencias
- ^ a b c d e Khatchadourian, Raffi (23 de noviembre de 2015). "La invención del día del juicio final" . The New Yorker . XCI (37): 64–79. ISSN 0028-792X .
- ^ "Ética infinita" (PDF) . nickbostrom.com . Consultado el 21 de febrero de 2019 .
- ^ "nickbostrom.com" . Nickbostrom.com. Archivado desde el original el 30 de agosto de 2018 . Consultado el 16 de octubre de 2014 .
- ^ "Profesor Nick Bostrom: Gente" . Escuela Oxford Martin. Archivado desde el original el 15 de septiembre de 2018 . Consultado el 16 de octubre de 2014 .
- ^ "Instituto del Futuro de la Humanidad - Universidad de Oxford" . Fhi.ox.ac.uk . Consultado el 16 de octubre de 2014 .
- ^ Frankel, Rebecca. "Los 100 mejores pensadores globales de FP" . Política exterior . Consultado el 5 de septiembre de 2015 .
- ^ "Nick Bostrom: por hacer sonar la alarma de nuestros futuros señores informáticos" . Foreignpolicy.com . Revista Foreign Policy . Consultado el 1 de diciembre de 2015 .
- ^ "Cumbre de la singularidad" .
- ^ a b c Thornhill, John (14 de julio de 2016). "Inteligencia artificial: ¿podemos controlarla?" . Financial Times . Consultado el 10 de agosto de 2016 . (requiere suscripción)
- ^ a b "Nick Bostrom sobre inteligencia artificial" . Prensa de la Universidad de Oxford . 8 de septiembre de 2014 . Consultado el 4 de marzo de 2015 .
- ^ Times, The New York (8 de septiembre de 2014). "Libros de ciencia más vendidos" . The New York Times . Consultado el 19 de febrero de 2015 .
- ^ "Bill Gates está preocupado por el auge de las máquinas" . The Fiscal Times . Consultado el 19 de febrero de 2015 .
- ^ Bratton, Benjamin H. (23 de febrero de 2015). "Salida AI: más allá de la prueba de Turing" . The New York Times . Consultado el 4 de marzo de 2015 .
- ^ a b Reino Unido, Sam Shead, Business Insider (6 de febrero de 2017). "Al CEO de Google DeepMind le preocupa que los gigantes tecnológicos no trabajen juntos en el momento de la explosión de la inteligencia" . Business Insider . Consultado el 21 de febrero de 2019 .
- ^ Kurzweil, Ray (2012). Cómo crear una mente revelada el secreto del pensamiento humano . Nueva York: Viking. ISBN 9781101601105.
- ^ Bostrom, Nick. "CV" (PDF) .
- ^ "Nick Bostrom: CV" (PDF) . Nickbostrom.com . Consultado el 16 de octubre de 2014 .
- ^ Bostrom, Nick (marzo de 2002). "Riesgos existenciales" . Revista de Evolución y Tecnología . 9 .
- ^ a b Andersen, Ross. "Presagios" . Aeon Media Ltd . Consultado el 5 de septiembre de 2015 .
- ^ Tegmark, Max ; Bostrom, Nick (2005). "Astrofísica: ¿es probable una catástrofe del fin del mundo?" (PDF) . Naturaleza . 438 (7069): 754. Bibcode : 2005Natur.438..754T . doi : 10.1038 / 438754a . PMID 16341005 . S2CID 4390013 . Archivado desde el original (PDF) el 3 de julio de 2011.
- ^ Bostrom, Nick (mayo-junio de 2008). "¿Dónde están? Por qué espero que la búsqueda de vida extraterrestre no encuentre nada" (PDF) . Revisión de tecnología del MIT : 72–77.
- ^ Overbye, Dennis (3 de agosto de 2015). "La otra cara del optimismo sobre la vida en otros planetas" . The New York Times . Consultado el 29 de octubre de 2015 .
- ^ Thorn, Paul D. (1 de enero de 2015). "Nick Bostrom: superinteligencia: caminos, peligros, estrategias" . Mentes y Máquinas . 25 (3): 285-289. doi : 10.1007 / s11023-015-9377-7 . S2CID 18174037 . Consultado el 17 de marzo de 2017 .
- ^ a b c Bostrom, Nick. (2016). Superinteligencia . Prensa de la Universidad de Oxford. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ Bostrom, Nick. (2016). Superinteligencia . Prensa de la Universidad de Oxford. págs. 104-108. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ Bostrom, Nick. (2016). Superinteligencia . Prensa de la Universidad de Oxford. págs. 138-142. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ Bostrom, Nick. (2016). Superinteligencia . Prensa de la Universidad de Oxford. págs. 126-130. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ Bostrom, Nick. (2016). Superinteligencia . Prensa de la Universidad de Oxford. págs. 135-142. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ a b Bostrom, Nick, 1973- autor., Superinteligencia: caminos, peligros, estrategias , págs. 115-118, ISBN 978-1-5012-2774-5, OCLC 1061147095CS1 maint: varios nombres: lista de autores ( enlace )
- ^ Bostrom, Nick. (2016). Superinteligencia . Prensa de la Universidad de Oxford. págs. 103-116. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ Bostrom, Nick. (2016). Superinteligencia . Prensa de la Universidad de Oxford. págs. 98-111. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ a b Observador , Tim Adams, domingo 12 de junio de 2016 Inteligencia artificial: 'Somos como niños jugando con una bomba'
- ^ Bostrom, Nick. (2016). Superinteligencia . Prensa de la Universidad de Oxford. pag. 118. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ Bostrom, Nick. (2016). Superinteligencia . Prensa de la Universidad de Oxford. pag. 88. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ Bostrom, Nick. (2016). Superinteligencia . Prensa de la Universidad de Oxford. págs. 180–184. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ Bostrom, Nick. (2016). Superinteligencia . Prensa de la Universidad de Oxford. págs. 84–86. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ Bostrom, Nick. (2016). Superinteligencia . Prensa de la Universidad de Oxford. págs. 86-87. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ Bostrom, Nick. (2016). "Capítulo 10: Oráculos, genios, soberanos, herramientas". Superinteligencia . Prensa de la Universidad de Oxford. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ Bostrom, Nick. (2016). "Capítulo 12: Adquirir valores". Superinteligencia . Prensa de la Universidad de Oxford. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ Yudkowsky, Eliezer (2004). Volición extrapolada coherente (PDF) . San Francisco: The Singularity Institute.
- ^ Bostrom, Nick (2014). "Capítulo 12. Elección de los criterios de elección". Superinteligencia . Prensa de la Universidad de Oxford. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ Loos, Robert (23 de enero de 2015). "Inteligencia artificial y el futuro de la vida" . Robótica hoy . Consultado el 17 de marzo de 2017 .
- ^ "Carta Abierta del Instituto El Futuro de la Vida" . Instituto del Futuro de la Vida . Consultado el 4 de marzo de 2015 .
- ^ Guardian Entrevista de febrero de 2016 El superhéroe de la inteligencia artificial: ¿puede este genio mantenerlo bajo control?
- ^ Business insider 26 de febrero de 2017 Al CEO de Google DeepMind le preocupa que los gigantes tecnológicos no trabajen juntos en el momento de la explosión de la inteligencia
- ^ Bostrom, Nick. (2016). Superinteligencia . Prensa de la Universidad de Oxford. págs. 95–109. ISBN 978-0-19-873983-8. OCLC 943145542 .
- ^ Dennett, DC (Daniel Clement) (2018). De las bacterias a Bach y viceversa: la evolución de las mentes . Libros de pingüinos. pag. 400. ISBN 978-0-14-197804-8. OCLC 1054992782 .
- ^ Dennett, DC (Daniel Clement) (2018). De las bacterias a Bach y viceversa: la evolución de las mentes . Libros de pingüinos. págs. 399–400. ISBN 978-0-14-197804-8. OCLC 1054992782 .
- ^ Dennett, DC (Daniel Clement) (2018). De las bacterias a Bach y viceversa: la evolución de las mentes . Libros de pingüinos. págs. 399–403. ISBN 978-0-14-197804-8. OCLC 1054992782 .
- ^ Guardian , Caspar Henderson, jueves 17 de julio de 2014, Superintelligence de Nick Bostrom y A Rough Ride to the Future de James Lovelock - revisión
- ^ "Un destacado pensador ambiental sugiere que los humanos podrían haber tenido su día" . The Independent . 8 de agosto de 2018 . Consultado el 20 de marzo de 2020 .
- ^ Bostrom, Nick (2002). Sesgo antrópico: efectos de la selección de la observación en ciencia y filosofía (PDF) . Nueva York: Routledge. págs. 44–58. ISBN 978-0-415-93858-7. Consultado el 22 de julio de 2014 .
- ^ "Sombra antrópica: efectos de selección de observación y riesgos de extinción humana" (PDF) . Nickbostrom.com . Consultado el 16 de octubre de 2014 .
- ^ Bostrom, Nick (19 de enero de 2010). "¿Vives en una simulación por computadora?" .
- ^ Nesbit, Jeff. "Prueba del argumento de la simulación" . Noticias de EE . UU . Consultado el 17 de marzo de 2017 .
- ^ a b Sutherland, John (9 de mayo de 2006). "La entrevista de ideas: Nick Bostrom; John Sutherland conoce a un transhumanista que lucha con la ética de los seres humanos mejorados tecnológicamente" . The Guardian .
- ^ Bostrom, Nick (2003). "Mejoras genéticas humanas: una perspectiva transhumanista" (PDF) . Revista de investigación de valor . 37 (4): 493–506. doi : 10.1023 / B: INQU.0000019037.67783.d5 . PMID 17340768 . S2CID 42628954 .
- ^ Bostrom, Nick (2005). "En defensa de la dignidad posthumana". Bioética . 19 (3): 202–214. doi : 10.1111 / j.1467-8519.2005.00437.x . PMID 16167401 .
- ^ "Los 100 mejores pensadores globales de FP - 73. Nick Bostrom" . Política exterior . Diciembre de 2009. Archivado desde el original el 21 de octubre de 2014.
- ^ Bostrom, Nick; Ord, Toby (2006). "La prueba de la reversión: eliminar el sesgo del status quo en la ética aplicada" (PDF) . Ética . 116 (4): 656–679. doi : 10.1086 / 505233 . PMID 17039628 . S2CID 12861892 .
- ^ Bostrom, Nick (2002). "Riesgos existenciales: análisis de escenarios de extinción humana" . Cite journal requiere
|journal=
( ayuda )9 Revista de evolución y tecnología Jetpress Oxford Research Archive - ^ Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias . Oxford: Prensa de la Universidad de Oxford. págs. 229-237. ISBN 978-0199678112.
- ^ Bostrom, Nick (2013). "La maldición del unilateralista: el caso de un principio de conformidad" (PDF) . Future of Human Ity Institute .
- ^ Lewis, Gregory (19 de febrero de 2018). "Síntesis de la viruela equina: ¿un caso de la maldición unilateralista?" . Boletín de los científicos atómicos . Boletín de los científicos atómicos . Consultado el 26 de febrero de 2018 .
- ^ "Comité de Habilidades Digitales - cronograma" . Parlamento del Reino Unido . Consultado el 17 de marzo de 2017 .
- ^ "Equipo - Instituto de Investigación de Inteligencia de la Máquina" . Instituto de Investigación en Inteligencia de Máquina . Consultado el 17 de marzo de 2017 .
- ^ "Equipo - Instituto del Futuro de la Vida" . Instituto del Futuro de la Vida . Consultado el 17 de marzo de 2017 .
- ^ "FQXi - Instituto de preguntas fundamentales" . fqxi.org . Consultado el 17 de marzo de 2017 .
- ^ "nickbostrom.com" . Nickbostrom.com. Archivado desde el original el 30 de agosto de 2018 . Consultado el 19 de febrero de 2015 .
- ^ McBain, Sophie (4 de octubre de 2014). "Apocalipsis pronto: conocer a los científicos que se preparan para el fin de los tiempos" . Nueva República . Consultado el 17 de marzo de 2017 .
- ^ Oren Etzioni (2016). "No, los expertos no creen que la IA superinteligente sea una amenaza para la humanidad" . Revisión del MIT.
- ^ Allan Dafoe y Stuart Russell (2016). "Sí, nos preocupa el riesgo existencial de la inteligencia artificial" . Revisión del MIT.
- ^ "Profesor Nick Bostrom | Universidad de Oxford" . www.ox.ac.uk . Consultado el 23 de septiembre de 2019 .
enlaces externos
- Página web oficial
- Superinteligencia: caminos, peligros, estrategias
- Sitio web del principio antrópico de Bostrom , que contiene información sobre el principio antrópico y el argumento del día del juicio final .
- Copia en línea del libro "Sesgo antrópico: efectos de la selección de la observación en ciencia y filosofía" ( HTML , PDF )
- Sitio web de Bostrom's Simulation Argument
- Sitio web de riesgo existencial de Bostrom
- Nick Bostrom en IMDb
- Nick Bostrom entrevistado en el programa de televisión Triangulation de la red TWiT.tv
- Nick Bostrom en TED
- Los 10 guardianes de la humanidad contra los riesgos de la IA , Temas de actualidad 2015
- La ansiedad de la IA The Washington Post , 27 de diciembre de 2015 .