Instituto del Futuro de la Humanidad


El Future of Humanity Institute ( FHI ) es un centro de investigación interdisciplinario de la Universidad de Oxford que investiga cuestiones generales sobre la humanidad y sus perspectivas. Fue fundada en 2005 como parte de la Facultad de Filosofía y la Escuela Oxford Martin . [1] Su director es el filósofo Nick Bostrom , y su personal de investigación y asociados incluyen al futurista Anders Sandberg , el ingeniero K. Eric Drexler , el economista Robin Hanson y el fundador de Giving What We Can , Toby Ord . [2]

Compartiendo una oficina y trabajando en estrecha colaboración con el Centro para el Altruismo Efectivo , el objetivo declarado del Instituto es enfocar la investigación donde pueda hacer la mayor diferencia positiva para la humanidad a largo plazo. [3] [4] Se involucra en una combinación de actividades académicas y de divulgación, buscando promover la discusión informada y la participación pública en el gobierno, empresas, universidades y otras organizaciones.

Nick Bostrom estableció el Instituto en noviembre de 2005 como parte de la Oxford Martin School, luego la James Martin 21st Century School. [1] Entre 2008 y 2010, FHI organizó la conferencia Global Catastrophic Risks, escribió 22 artículos en revistas académicas y publicó 34 capítulos en volúmenes académicos. Los investigadores de FHI han sido mencionados más de 5.000 veces en los medios de comunicación [5] y han brindado asesoramiento sobre políticas en el Foro Económico Mundial , al sector privado y sin fines de lucro (como la Fundación Macarthur y la Organización Mundial de la Salud ), así como a organismos gubernamentales en Suecia, Singapur, Bélgica, Reino Unido y Estados Unidos. Bostrom y bioeticista Julian Savulescutambién publicó el libro Human Enhancement en marzo de 2009. [6] Más recientemente, FHI se ha centrado en los peligros de la inteligencia artificial (IA) avanzada . En 2014, sus investigadores publicaron varios libros sobre el riesgo de IA, incluidos Smarter Than Us de Stuart Armstrong y Superintelligence: Paths, Dangers, Strategies de Bostrom . [7] [8]

En 2018, el Open Philanthropy Project recomendó una subvención de hasta aproximadamente £ 13,4 millones a FHI durante tres años, con una gran parte condicionada a una contratación exitosa. [9]

El tema más importante que FHI ha dedicado tiempo a explorar es el riesgo catastrófico global y, en particular, el riesgo existencial. En un artículo de 2002, Bostrom definió un "riesgo existencial" como uno "en el que un resultado adverso aniquilaría la vida inteligente originada en la Tierra o reduciría de forma permanente y drástica su potencial". [10] Esto incluye escenarios en los que la humanidad no se ve perjudicada directamente, pero no coloniza el espacio y no hace uso de los recursos disponibles del universo observable en proyectos de valor humano, como se analiza en el artículo de Bostrom de 2003, "Desechos astronómicos: el costo de oportunidad de la tecnología demorada Desarrollo". [11]

El libro de Bostrom y Milan Ćirković de 2008 Global Catastrophic Risks recopila ensayos sobre una variedad de tales riesgos, tanto naturales como antropogénicos. Los posibles riesgos catastróficos de la naturaleza incluyen supervolcanismo , eventos de impacto y eventos astronómicos energéticos como estallidos de rayos gamma , rayos cósmicos , erupciones solares y supernovas . Estos peligros se caracterizan por ser relativamente pequeños y relativamente bien comprendidos, aunque las pandemias pueden ser excepciones porque son más comunes y están en consonancia con las tendencias tecnológicas. [12] [4]