Accidentes normales: vivir con tecnologías de alto riesgo es un libro de 1984 del sociólogo de Yale Charles Perrow , que proporciona un análisis detallado de sistemas complejos desde una perspectiva sociológica. Fue el primero en "proponer un marco para caracterizar sistemas tecnológicos complejos como el tráfico aéreo, el tráfico marítimo, las plantas químicas, las presas y especialmente las centrales nucleares en función de su riesgo". Perrow argumenta que múltiples e inesperados fracasos están integrados en los sistemas complejos y estrechamente acoplados de la sociedad. Tales accidentes son inevitables y no se pueden diseñar en torno a ellos. [1]
Autor | Charles Perrow |
---|---|
Editor | Libros básicos |
Fecha de publicación | 1984 |
ISBN | 978-0-691-00412-9 |
El argumento de Perrow, basado en características sistémicas y errores humanos , es que los grandes accidentes tienden a escalar, y la tecnología no es el problema, sino las organizaciones. Cada uno de estos principios sigue siendo relevante en la actualidad. [1] [2]
Accidentes del sistema
Los accidentes "normales", o accidentes del sistema, son denominados por Perrow porque tales accidentes son inevitables en sistemas extremadamente complejos. Dada la característica del sistema involucrado, se producirán múltiples fallas que interactúan entre sí, a pesar de los esfuerzos para evitarlas. Perrow dijo que, si bien el error del operador es un problema muy común, muchas fallas se relacionan con las organizaciones más que con la tecnología, y los grandes accidentes casi siempre tienen comienzos muy pequeños. [3] Para empezar, tales eventos parecen triviales antes de que, de manera impredecible, caigan en cascada a través del sistema para crear un gran evento con graves consecuencias. [1]
Los accidentes normales aportaron conceptos clave a un conjunto de desarrollos intelectuales en la década de 1980 que revolucionaron la concepción de seguridad y riesgo. Hizo el caso para examinar las fallas tecnológicas como el producto de sistemas altamente interactivos, y destacó los factores organizacionales y de gestión como las principales causas de las fallas. Los desastres tecnológicos ya no podían atribuirse a un mal funcionamiento aislado del equipo, un error del operador o casos fortuitos. [4]
Perrow identifica tres condiciones que hacen que un sistema sea susceptible a accidentes normales. Estos son:
- El sistema es complejo
- El sistema está estrechamente acoplado
- El sistema tiene un potencial catastrófico
Isla de las Tres Millas
La inspiración para los libros de Perrow fue el accidente de Three Mile Island de 1979 , donde un accidente nuclear resultó de una interacción no anticipada de múltiples fallas en un sistema complejo. [2] El evento fue un ejemplo de un accidente normal porque fue "inesperado, incomprensible, incontrolable e inevitable". [5]
Perrow concluyó que la falla en Three Mile Island fue una consecuencia de la inmensa complejidad del sistema. Se dio cuenta de que esos sistemas modernos de alto riesgo eran propensos a fallar, por muy bien que se manejaran. Era inevitable que eventualmente sufrieran lo que él denominó un "accidente normal". Por lo tanto, sugirió, sería mejor contemplar un rediseño radical o, si eso no fuera posible, abandonar por completo dicha tecnología. [4]
Nuevos diseños de reactores
Una desventaja de cualquier nueva tecnología de reactor nuclear es que los riesgos de seguridad pueden ser mayores inicialmente, ya que los operadores de los reactores tienen poca experiencia con el nuevo diseño. El ingeniero nuclear David Lochbaum ha explicado que casi todos los accidentes nucleares graves han ocurrido con lo que en ese momento era la tecnología más reciente. Sostiene que "el problema de los nuevos reactores y accidentes es doble: surgen escenarios imposibles de planificar en simulaciones y los humanos cometemos errores". [6] Como dijo Dennis Berry, Director Emérito del Laboratorio Nacional Sandia [7] , "la fabricación, construcción, operación y mantenimiento de nuevos reactores enfrentarán una curva de aprendizaje empinada: las tecnologías avanzadas tendrán un mayor riesgo de accidentes y errores. La tecnología puede estar probada, pero las personas no ". [6]
A veces, las redundancias de ingeniería que se implementan para ayudar a garantizar la seguridad, pueden ser contraproducentes y producir menos, no más confiabilidad. Esto puede suceder de tres maneras: Primero, los dispositivos de seguridad redundantes dan como resultado un sistema más complejo, más propenso a errores y accidentes. En segundo lugar, el despido puede dar lugar a que los trabajadores eludan la responsabilidad. En tercer lugar, la redundancia puede conducir a mayores presiones de producción, lo que da como resultado un sistema que opera a velocidades más altas, pero con menor seguridad. [8]
Número de lectores
Normal Accidents es un libro muy citado, con más de 1.000 citas en el Social Science Citation Index y el Science Citation Index hasta 2003. [8] Una traducción al alemán del libro se publicó en 1987, con una segunda edición en 1992. [9 ]
Ver también
- Lista de libros sobre cuestiones nucleares
- Teoría del cisne negro
- Megaproyectos y Riesgo
- Apagón del noreste de 2003
- Poder quebradizo
- Desastre nuclear de Fukushima
- Escala internacional de eventos nucleares
- Lo pequeño es hermoso
- Desastre del transbordador espacial Challenger
- Meltdown: por qué fallan nuestros sistemas y qué podemos hacer al respecto
Literatura
- Charles., Perrow, (1984). Accidentes normales: convivencia con tecnologías de alto riesgo,
- Charles Perrow: Accidentes, Normal , en: Enciclopedia Internacional de Ciencias Sociales y del Comportamiento , Elsevier 2001, páginas 33–38, en línea
Referencias
- ^ a b c Daniel E Whitney (2003). "Accidentes normales de Charles Perrow" (PDF) . Instituto de Tecnología de Massachusetts .
- ^ a b Clearfield, Chris; Tilcsik, András (2018). Meltdown: por qué fallan nuestros sistemas y qué podemos hacer al respecto . Nueva York: Penguin Press. ISBN 9780735222632.
- ^ Perrow, Charles. Accidentes normales: Viviendo con tecnologías de alto riesgo Nueva York: Basic Books, 1984. p.5
- ^ a b Pidgeon, Nick (22 de septiembre de 2011). "En retrospectiva: accidentes normales" . Naturaleza . Consultado el 4 de septiembre de 2019 .
- ^ Perrow, C. (1982), "La comisión del presidente y el accidente normal", en Sils, D., Wolf, C. y Shelanski, V. (Eds), Accidente en Three Mile Island: The Human Dimensions , Westview, Boulder, págs. 173-184.
- ^ a b Benjamin K. Sovacool. Una evaluación crítica de la energía nuclear y la electricidad renovable en Asia, Journal of Contemporary Asia , vol. 40, No. 3, agosto de 2010, pág. 381.
- ^ Impugnando el futuro de la energía nuclear ..., Benjamin K. Sovacool
- ^ a b Scott D. Sagan (marzo de 2004). "Aprendiendo de los accidentes normales" (PDF) . Organización y Medio Ambiente . Archivado desde el original (PDF) el 14 de julio de 2004.
- ^ Ver datos del libro en la Biblioteca Nacional Alemana