De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

El Centro para el Estudio del Riesgo Existencial ( CSER ) es un centro de investigación de la Universidad de Cambridge , destinado a estudiar las posibles amenazas a nivel de extinción planteadas por la tecnología presente o futura. [1] Los cofundadores del centro son Huw Price (profesor de filosofía Bertrand Russell en Cambridge), Martin Rees (el astrónomo real y ex presidente de la Royal Society ) y Jaan Tallinn (cofundador de Skype ). [2]

Áreas de enfoque [ editar ]

Gestión de riesgos tecnológicos extremos [ editar ]

Los riesgos están asociados con los avances tecnológicos emergentes y futuros y los impactos de la actividad humana. La gestión de estos riesgos tecnológicos extremos es una tarea urgente, pero que plantea dificultades particulares y ha sido relativamente descuidada en el ámbito académico. [3]

  • Los investigadores del CSER desarrollaron una herramienta ampliamente utilizada para escanear automáticamente la literatura científica en busca de nuevas investigaciones relevantes para el riesgo global. [4]
  • CSER ha celebrado dos conferencias internacionales de Cambridge sobre riesgo catastrófico. [5] [6] El Centro también ha asesorado sobre el establecimiento de proyectos de riesgo global en la Universidad Nacional de Australia, [7] la Universidad de California, Los Ángeles [8] y la Universidad de Warwick. [9]
  • CSER ayudó a establecer el primer Grupo Parlamentario de Todos los Partidos sobre las Generaciones Futuras en el Parlamento del Reino Unido, llevando el riesgo global y el pensamiento a largo plazo a los líderes políticos del Reino Unido. [10]
  • CSER ha realizado más de treinta talleres que han reunido a la academia, las políticas y la industria sobre temas que incluyen ciberseguridad, seguridad nuclear, cambio climático e impulsores genéticos. [11]
  • Las Conferencias Públicas de CSER se han visto más de 100.000 veces en línea. [12]

Riesgos biológicos catastróficos globales [ editar ]

  • En 2017, el CSER convocó a responsables políticos y académicos para identificar los desafíos para la Convención de Armas Biológicas (BWC). Una cuestión clave identificada fue que el rápido ritmo de progreso en las ciencias y tecnologías pertinentes ha hecho que sea muy difícil para los órganos de gobernanza, incluida la BWC, mantener el ritmo. [13]
  • Los investigadores del CSER llevaron a cabo un ejercicio de exploración de horizontes para 20 temas emergentes en ingeniería biológica basándose en 30 expertos europeos y estadounidenses. [14] Presentaron el documento en la Reunión de los Estados Partes de la Convención sobre armas biológicas de 2017, [15] y en la Junta Consultiva Científica de la Organización para la Prohibición de las Armas Químicas en 2018 [16].

Riesgos extremos y medio ambiente global [ editar ]

  • Martin Rees y Partha Dasgupta , un asesor principal, han coorganizado una serie de talleres influyentes con el Vaticano. El taller de 2015 influyó en la Encíclica Papal sobre Cambio Climático, [17] que a su vez influyó en el Acuerdo de París sobre cambio climático. Los hallazgos del taller de 2017 pronto se publicarán como un libro sobre extinción biológica. [18]
  • Los investigadores del CSER han publicado sobre la pérdida de biodiversidad y la gobernanza en Nature, [19] el impacto ambiental de la agricultura de alto rendimiento [20] y las perspectivas de la geoingeniería. [21]
  • Los investigadores del CSER publicaron un informe pidiendo que las clasificaciones de las escuelas de negocios incluyan la sostenibilidad. [22] Cuatro días después, el Financial Times anunció una "revisión completa de nuestra metodología". [23]

Riesgos de la inteligencia artificial avanzada [ editar ]

  • En 2015, CSER ayudó a organizar una conferencia sobre las direcciones futuras de la IA en Puerto Rico, lo que resultó en una Carta Abierta sobre Inteligencia Artificial firmada por líderes de investigación en todo el mundo que pedían investigación para garantizar que los sistemas de IA sean seguros y beneficiosos para la sociedad. [24]
  • En 2016, CSER lanzó su primera spin-off: el Centro Leverhulme para el Futuro de la Inteligencia (CFI). Dirigido por el profesor Price, CFI se centra en las oportunidades y los desafíos que plantea la IA. [25]
  • Desde 2017 en adelante, CSER ha organizado una serie de conferencias académicas que reúnen la Teoría de la Decisión y la seguridad de la IA. [26]
  • En 2018, con socios de empresas de tecnología y grupos de expertos en seguridad, CSER publicó El uso malicioso de la inteligencia artificial: pronóstico, prevención y mitigación , sobre las implicaciones de la inteligencia artificial para la seguridad física y cibernética. [27] También publicaron An AI Race: Rhetoric and Risks , que ganó el premio inaugural al Mejor artículo en la conferencia AAAI / ACM AI Ethics and Society 2018 . [28]

Cobertura de los medios [ editar ]

El CSER ha sido cubierto en muchos periódicos diferentes (particularmente en el Reino Unido), [29] [30] [31] cubriendo principalmente diferentes temas de interés. CSER apareció en la portada de Wired, [32] y en la edición especial de Frankenstein de Science en 2018. [33]

Asesores [ editar ]

Los asesores de CSER incluyen académicos de Cambridge como:

  • Sir Partha Dasgupta (Economía), ganador del Blue Planet Prize
  • Profesora Susan Owens (Geografía)
  • Profesor Bill Sutherland (Zoología)
  • Profesora Jane Heal (Filosofía).

Y asesores como:

  • Hermann Hauser (fundador de Acorn Computers y ARM )
  • David Cleevely (experto en telecomunicaciones y emprendedor de Silicon Fen)
  • Elon Musk ( Tesla y SpaceX )
  • George Church (Biotecnología)
  • Peter Singer (Filosofía)
  • Stuart J. Russell (inteligencia artificial)
  • Max Tegmark (cosmología). [34]

Ver también [ editar ]

  • Boletín de los científicos atómicos
  • Iniciativa de amenaza nuclear
  • Centro Johns Hopkins para la seguridad sanitaria
  • Riesgos catastróficos globales
  • Instituto del Futuro de la Humanidad
  • Instituto del Futuro de la Vida
  • Centro de Leverhulme para el futuro de la inteligencia
  • Instituto de Investigación de Inteligencia Artificial

Referencias [ editar ]

  1. ^ Biba, Erin (1 de junio de 2015). "Conozca al cofundador de un Think Tank de Apocalipsis". Scientific American . 312 (6): 26. doi : 10.1038 / scientificamerican0615-26 . PMID  26336680 .
  2. ^ Lewsey, Fred (25 de noviembre de 2012). "El último invento de la humanidad y nuestro futuro incierto" . Noticias de investigación . Consultado el 24 de diciembre de 2012 .
  3. ^ "Gestión de riesgos tecnológicos extremos" .
  4. ^ "Red de investigación de riesgo existencial | Red de investigación de riesgo X | www.x-risk.net" .
  5. ^ "Conferencia de Cambridge sobre riesgo catastrófico 2016" .
  6. ^ "Conferencia de Cambridge sobre riesgo catastrófico 2018" .
  7. ^ "Últimas noticias | Humanos para la supervivencia" .
  8. ^ "El Instituto B. John Garrick para las Ciencias del Riesgo" .
  9. ^ "Los investigadores de PAIS aseguran la prestigiosa financiación de Leverhulme" .
  10. ^ "Appg-future-gens" .
  11. ^ "Eventos" .
  12. ^ "CSER Cambridge" . YouTube . Consultado el 6 de abril de 2019 .
  13. ^ "Convención sobre armas biológicas: ¿qué sigue?" .
  14. ^ Wintle, Bonnie C .; Boehm, Christian R .; Rhodes, Catherine; Molloy, Jennifer C .; Millett, Piers; Adam, Laura; Breitling, Rainer; Carlson, Rob; Casagrande, Rocco; Dando, Malcolm; Doubleday, Robert; Drexler, Eric; Edwards, Brett; Ellis, Tom; Evans, Nicholas G .; Hammond, Richard; Haseloff, Jim; Kahl, Linda; Kuiken, Todd; Lichman, Benjamin R .; Matthewman, Colette A .; Napier, Johnathan A .; Óhéigeartaigh, Seán S .; Patrona, Nicola J .; Perello, Edward; Shapira, Philip; Tait, Joyce; Takano, Eriko; Sutherland, William J. (2017). "Una perspectiva transatlántica sobre 20 temas emergentes en ingeniería biológica" . eLife . 6 . doi : 10.7554 / eLife.30247 . PMC 5685469 . PMID  29132504 .
  15. ^ "Conferencia de prensa de la BWC" .
  16. ^ "Hablar con la Organización para la Prohibición de Armas Químicas" .
  17. ^ Universidad de California (24 de septiembre de 2015). "Un 'Parcela de estacionamiento' para el Papa" . Consultado el 6 de abril de 2019 , a través de YouTube.
  18. ^ Dasgupta, Partha; Cuervo, Peter; McIvor, Anna, eds. (2019). Extinción biológica editado por Partha Dasgupta . doi : 10.1017 / 9781108668675 . ISBN 9781108668675.
  19. ^ Amano, Tatsuya; Székely, Tamás; Sandel, Brody; Nagy, Szabolcs; Mundkur, Taej; Langendoen, Tom; Blanco, Daniel; Soykan, Candan U .; Sutherland, William J. (2017). "La conservación exitosa de las poblaciones de aves acuáticas mundiales depende de una gobernanza eficaz" . Naturaleza . 553 (7687): 199–202. doi : 10.1038 / nature25139 . PMID 29258291 . 
  20. ^ Balmford, Andrew; Amano, Tatsuya; Bartlett, Harriet; Chadwick, Dave; Collins, Adrian; Edwards, David; Field, Rob; Garnsworthy, Philip; Green, Rhys; Smith, Pete; Aguas, Helen; Whitmore, Andrew; Escoba, Donald M .; Chara, Julian; Finch, Tom; Garnett, Emma; Gathorne-Hardy, Alfred; Hernández-Medrano, Juan; Herrero, Mario; Hua, Fangyuan; Latawiec, Agnieszka; Misselbrook, Tom; Phalan, Ben; Simmons, Benno I .; Takahashi, Taro; Vause, James; Zu Ermgassen, Erasmus; Eisner, Rowan (2018). "Los costos y beneficios ambientales de la agricultura de alto rendimiento" . Sostenibilidad de la naturaleza . 1 (9): 477–485. doi : 10.1038 / s41893-018-0138-5 . PMC 6237269 . PMID 30450426  .
  21. ^ Currie, Adrian (2018). "Tensiones de geoingeniería" (PDF) . Futuros . 102 : 78–88. doi : 10.1016 / j.futures.2018.02.002 .
  22. ^ "Ranking de escuelas de negocios para el siglo XXI" .
  23. ^ "Así como las escuelas de negocios repensan lo que hacen, también lo debe hacer el FT" . 2019-01-27.
  24. ^ McMillan, Robert (16 de enero de 2015). "Ha llegado la IA, y eso realmente preocupa a las mentes más brillantes del mundo" . Cableado . Consultado el 24 de abril de 2015 .
  25. ^ "Centro de Leverhulme para el futuro de la inteligencia" .
  26. ^ "Decisión y AI" .
  27. ^ maliciosoaireport.com
  28. ^ "Premio al mejor artículo - Conferencia Aies" .
  29. ^ Connor, Steve (14 de septiembre de 2013). "¿Podemos sobrevivir?" . The New Zealand Herald .
  30. ^ "Cobertura de los medios de comunicación CSER" . Centro de Estudio del Riesgo Existencial. Archivado desde el original el 30 de junio de 2014 . Consultado el 19 de junio de 2014 .
  31. ^ "La última invención de la humanidad y nuestro futuro incierto" . Noticias de investigación de la Universidad de Cambridge . 2012-11-25.
  32. Benson, Richard (12 de febrero de 2017). "Conoce a los Guardianes de la Tierra, los X-men y mujeres del mundo real que nos salvan de las amenazas existenciales" . Reino Unido cableado .
  33. Kupferschmidt, Kai (12 de enero de 2018). "Domando a los monstruos del mañana". Ciencia . 359 (6372): 152-155. Código Bibliográfico : 2018Sci ... 359..152K . doi : 10.1126 / science.359.6372.152 . PMID 29326256 . 
  34. ^ "Equipo" .

Enlaces externos [ editar ]

  • Página web oficial