El dilema de Collingridge es un dilema metodológico en el que los esfuerzos por influir o controlar el desarrollo futuro de la tecnología se enfrentan a un problema de doble vínculo :
- Un problema de información: los impactos no se pueden predecir fácilmente hasta que la tecnología se desarrolle y se utilice ampliamente.
- Un problema de poder : el control o el cambio es difícil cuando la tecnología se ha afianzado.
La idea fue acuñada por David Collingridge, Unidad de Política Tecnológica de la Universidad de Aston , en su libro de 1980 El control social de la tecnología . [1] El dilema es un punto de referencia básico en los debates sobre evaluación de tecnologías . [2]
En "This Explains Everything", editado por John Brockman , el crítico de tecnología Evgeny Morozov explica la idea de Collingridge citando al propio Collingridge: "Cuando el cambio es fácil, no se puede prever su necesidad; cuando la necesidad de cambio es evidente, el cambio se ha vuelto caro , difícil y lento ". [3]
En "El problema del ritmo, el dilema de Collingridge y el determinismo tecnológico " de Adam Thierer , investigador principal del Mercatus Center de la Universidad George Mason , el dilema de Collingridge está relacionado con el "problema del ritmo" en la regulación tecnológica. El "problema del ritmo" se refiere a la noción de que la innovación tecnológica está superando cada vez más la capacidad de las leyes y regulaciones para mantenerse al día, explicada por primera vez en el libro de Larry Downes de 2009 The Laws of Disruption , en el que afirma que "la tecnología cambia exponencialmente, pero los sistemas sociales, económicos y legales cambian gradualmente ". En el ensayo de Thierer, intenta correlacionar estos dos conceptos diciendo que "el 'dilema de Collingridge' es simplemente una reafirmación del problema del ritmo pero con mayor énfasis en los impulsores sociales detrás del problema del ritmo y una solución implícita al 'problema' en la forma de control preventivo de las nuevas tecnologías mientras aún son jóvenes y más manejables ". [4]
Una solución al dilema de Collingridge es el " principio de precaución ". Adam Thierer lo define como la creencia de que las nuevas innovaciones no deben aceptarse "hasta que sus desarrolladores puedan demostrar que no causarán ningún daño a individuos, grupos, entidades específicas, normas culturales o diversas leyes, normas o tradiciones existentes". [4] Si no lo hacen, esta innovación debería ser "prohibida, restringida, modificada, descartada o ignorada". [5] Esta definición ha sido criticada por Kevin Kelly, quien cree que tal principio está mal definido [4] y está sesgado en contra de cualquier cosa nueva porque eleva drásticamente el umbral para cualquier cosa innovadora. Según el filósofo estadounidense Max More , el principio de precaución "es muy bueno para una cosa: detener el progreso tecnológico ... no porque lleve en malas direcciones, sino porque no conduce en ninguna dirección". [5] Pero la Declaración de Río de 1992 sobre el Medio Ambiente y el Desarrollo define el principio de precaución como "" Cuando haya amenazas de daños graves o irreversibles, la falta de certeza científica total no se utilizará como motivo para posponer medidas rentables para prevenir daños ambientales. degradación ". [6] Entonces, en lugar de concebirse como que no imponga ningún cambio hasta que se presente una prueba de seguridad, esta definición del principio de precaución está destinada a legitimar las medidas de protección, tratando de evitar el deseo de los defensores de una tecnología de retrasar la legislación hasta que haya evidencia irrefutable de se puede producir daño.
La solución de Collingridge no fue exactamente el principio de precaución, sino más bien la aplicación de "Prueba y error inteligente", un proceso mediante el cual el poder de toma de decisiones permanece descentralizado, los cambios son manejables, las tecnologías e infraestructuras están diseñadas para ser flexibles y el proceso general está orientado hacia aprender rápidamente manteniendo los costos potenciales tan bajos como sea posible. [7] Collingridge abogó por garantizar que la innovación se produzca de forma más gradual para adaptarse mejor al ritmo del aprendizaje humano y evitar tecnologías cuyo diseño sea contrario a un proceso inteligente de prueba y error.
Referencias
- ^ El control social de la tecnología (Nueva York: St. Martin's Press; Londres: Pinter) ISBN 0-312-73168-X
- ^ Artículo de K. Böhle en TATuP, septiembre de 2009, págs. 121-125 (en alemán)
- ^ "Esto lo explica todo" (Harper Perennial, 2013, p.255, ISBN 0062230174 )
- ^ a b c "El problema del ritmo, el dilema de Collingridge y el determinismo tecnológico" . Frente de Liberación Tecnológica . 2018-08-16 . Consultado el 23 de septiembre de 2018 .
- ^ a b Kelly, Kevin (2010). Qué quiere la tecnología . Prensa vikinga.
- ^ Declaración de Río sobre Medio Ambiente y Desarrollo . Naciones Unidas. 1992.
- ^ La gestión de la escala: grandes organizaciones, grandes tecnologías, grandes errores . Routledge. 1992.