El desarrollo tecnológico diferencial es una estrategia de gobernanza tecnológica que tiene como objetivo disminuir los riesgos de las tecnologías emergentes al influir en la secuencia en la que se desarrollan. En esta estrategia, las sociedades se esforzarían por retrasar el desarrollo de tecnologías dañinas y sus aplicaciones, mientras aceleran el desarrollo de tecnologías beneficiosas, especialmente aquellas que ofrecen protección contra las dañinas. [1] [2]
Historia de la idea
El desarrollo tecnológico diferencial fue propuesto inicialmente por el filósofo Nick Bostrom en 2002 [1] y aplicó la idea a la gobernanza de la inteligencia artificial en su libro de 2014 Superintelligence: Paths, Dangers, Strategies . [3] La estrategia también fue respaldada por el filósofo Toby Ord en su libro de 2020 El precipicio: riesgo existencial y el futuro de la humanidad , quien escribe que "Si bien puede ser demasiado difícil prevenir el desarrollo de una tecnología arriesgada, es posible que podamos para reducir el riesgo existencial acelerando el desarrollo de tecnologías de protección en relación con las peligrosas ". [2] [4]
Discusión informal
Paul Christiano cree que si bien acelerar el progreso tecnológico parece ser una de las mejores formas de mejorar el bienestar humano en las próximas décadas, una tasa de crecimiento más rápida no puede ser igualmente importante para el futuro lejano porque el crecimiento debe eventualmente saturarse debido a límites físicos. Por tanto, desde la perspectiva del futuro lejano, el desarrollo tecnológico diferencial parece más crucial. [5] [ fuente no confiable? ]
Inspirándose en la propuesta de Bostrom, Luke Muehlhauser y Anna Salamon sugirieron un proyecto más general de "progreso intelectual diferencial", en el que la sociedad avanza su sabiduría, sofisticación filosófica y comprensión de los riesgos más rápido que su poder tecnológico. [6] [ fuente no confiable? ] [7] [ fuente no confiable? ] Brian Tomasik ha ampliado esta noción. [8] [ fuente no confiable? ]
Ver también
Referencias
- ↑ a b Bostrom, Nick (2002). "Riesgos existenciales: análisis de escenarios de extinción humana" . Cite journal requiere
|journal=
( ayuda )9 Revista de evolución y tecnología Jetpress Oxford Research Archive - ^ a b Ord, Toby (2020). El precipicio: riesgo existencial y el futuro de la humanidad . Reino Unido: Bloomsbury Publishing . pag. 200. ISBN 978-1526600219.
- ^ Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias . Oxford: Prensa de la Universidad de Oxford. págs. 229-237. ISBN 978-0199678112.
- ^ Purtill, Corinne. "¿Qué tan cerca está la humanidad del límite?" . The New Yorker . Consultado el 27 de noviembre de 2020 .
- ^ Christiano, Paul (15 de octubre de 2014). "Sobre el progreso y la prosperidad" . Foro de Altruismo Efectivo . Consultado el 21 de octubre de 2014 .
- ^ Muehlhauser, Luke; Anna Salamon (2012). "Explosión de inteligencia: evidencia e importancia" (PDF) : 18-19. Archivado desde el original (PDF) el 26 de octubre de 2014 . Consultado el 29 de noviembre de 2013 . Cite journal requiere
|journal=
( ayuda ) - ^ Muehlhauser, Luke (2013). Frente a la explosión de inteligencia . Instituto de Investigación en Inteligencia de Máquina . Consultado el 29 de noviembre de 2013 .
- ^ Tomasik, Brian (23 de octubre de 2013). "Progreso intelectual diferencial como proyecto de suma positiva" . Instituto de Investigaciones Fundacionales . Consultado el 18 de febrero de 2016 .