Accidente del sistema


De Wikipedia, la enciclopedia libre
  (Redirigido de accidente normal )
Saltar a navegación Saltar a búsqueda

Un accidente del sistema (o accidente normal ) es una "interacción no anticipada de múltiples fallas" en un sistema complejo . [1] Esta complejidad puede ser de tecnología o de organizaciones humanas, y con frecuencia es ambas cosas. Un accidente del sistema puede ser fácil de ver en retrospectiva, pero extremadamente difícil en la previsión porque simplemente hay demasiadas vías de acción para considerar seriamente todas. Charles Perrow desarrolló estas ideas por primera vez a mediados de la década de 1980. [1] William Langewiesche escribió a fines de la década de 1990, "el control y la operación de algunas de las tecnologías más riesgosas requieren organizaciones tan complejas que virtualmente se garantiza que ocurran fallas graves". [2]

Los propios sistemas de seguridad son a veces la complejidad añadida que conduce a este tipo de accidente. [3]

Una vez que una empresa pasa de cierto tamaño, con muchos empleados, especialización, sistemas de respaldo, doble verificación, manuales detallados y comunicación formal, los empleados pueden recurrir con demasiada facilidad al protocolo, el hábito y "tener la razón". Al igual que intentar ver una película complicada en un idioma con el que uno no está familiarizado, el hilo narrativo de lo que está sucediendo puede perderse. Y dado que los accidentes del mundo real casi siempre tienen múltiples causas, otros fenómenos como el pensamiento de grupo también pueden estar ocurriendo al mismo tiempo. En particular, es una señal de una organización disfuncional simplemente culpar a la última persona que tocó algo.

En 2012, Charles Perrow escribió: "Un accidente normal [accidente del sistema] es donde todos se esfuerzan mucho por jugar de manera segura, pero la interacción inesperada de dos o más fallas (debido a la complejidad interactiva) provoca una cascada de fallas (debido al acoplamiento estrecho) . " Charles Perrow usa el término accidente normal para enfatizar que, dado el nivel actual de tecnología, estos accidentes son muy probables durante varios años o décadas. [4]

James T. Reason  [ fr ] amplió este enfoque con la fiabilidad humana [5] y el modelo del queso suizo , ahora ampliamente aceptado en la seguridad de la aviación y la asistencia sanitaria.

Hay un aspecto en el que un animal se devora la cola, en el que más formalidad y esfuerzo para hacerlo bien puede empeorar la situación. [6] Por ejemplo, cuanto más riga-ma-rol organizacional esté involucrado en el ajuste a las condiciones cambiantes, más probablemente los empleados retrasarán la notificación de tales cambios, "problemas" y condiciones inesperadas.

Estos accidentes a menudo se parecen a los dispositivos de Rube Goldberg en la forma en que pequeños errores de juicio, fallas en la tecnología y daños insignificantes se combinan para formar un desastre emergente .

William Langewiesche escribe sobre "toda una realidad fingida que incluye cadenas de mando que no funcionan, programas de formación que no se pueden aprender, manuales que no se pueden leer y la ficción de regulaciones, comprobaciones y controles". [6]

Una idea opuesta es la de la organización de alta fiabilidad . [7]

Scott Sagan

Scott Sagan tiene varias publicaciones que discuten la confiabilidad de sistemas complejos, especialmente en lo que respecta a las armas nucleares. The Limits of Safety (1993) proporcionó una revisión extensa de situaciones cercanas durante la Guerra Fría que podrían haber resultado en una guerra nuclear por accidente. [8]

Posibles accidentes del sistema

Vuelo espacial Apolo 13 , 1970

Junta de revisión del Apolo 13:


"[Introducción] ... Se encontró que el accidente no fue el resultado de un mal funcionamiento casual en un sentido estadístico, sino que resultó de una combinación inusual de errores, junto con un diseño algo deficiente e implacable [Énfasis agregado]. .

" g. Al revisar estos procedimientos antes del vuelo, los funcionarios de la NASA, ER y Beech no reconocieron la posibilidad de daños debido al sobrecalentamiento. Muchos de estos funcionarios no estaban al tanto del funcionamiento prolongado del calentador. En cualquier caso, interruptores termostáticos adecuados podría haberse esperado que protegiera el tanque ". [9]

Isla de las Tres Millas , 1979

Charles Perrow:

"Se parecía a otros accidentes en plantas nucleares y en otros sistemas operador-máquina de alto riesgo, complejos y altamente interdependientes; ninguno de los accidentes fue causado por la ineptitud de la gerencia o del operador o por una regulación gubernamental deficiente, aunque estas características existían y deberían haberse esperado. Sostuve que el accidente fue normal, porque en sistemas complejos es probable que haya múltiples fallas que no se pueden evitar con la planificación y que los operadores no pueden comprender de inmediato ". [10]

ValuJet (AirTran) 592 , Everglades, 1996

William Langewiesche:

Señala que en "el enorme manual de mantenimiento del MD-80 ... Al buscar diligentemente sus opciones, el mecánico podría haber encontrado el camino a una parte diferente del manual y haber aprendido que ... [los generadores de oxígeno] deben desecharse de acuerdo con las normativas locales y utilizando procedimientos autorizados ". [6]

Es decir, la mayoría de los procedimientos de seguridad tal como están escritos son "correctos" en cierto sentido, pero no son útiles ni informativos.

Brian Stimpson:

Paso 2. Las cajas de cartón sin marcar, almacenadas durante semanas en un estante de piezas, se llevaron al departamento de envío y recepción de SabreTech y se dejaron en el piso en un área asignada a la propiedad de ValuJet.

Paso 3. Continental Airlines, un cliente potencial de SabreTech, estaba planeando una inspección de la instalación, por lo que se le pidió a un empleado de envío de SabreTech que limpiara el lugar de trabajo. Decidió enviar los generadores de oxígeno a la sede de ValuJet en Atlanta y etiquetó las cajas como "partes de aviones". Había enviado material de ValuJet a Atlanta antes sin una aprobación formal. Además, entendió mal las etiquetas verdes para indicar "inservible" o "fuera de servicio" y llegó a la conclusión de que los generadores estaban vacíos.

Paso 4. El encargado de envíos preparó una carga para la bodega de carga delantera de las cinco cajas más dos neumáticos principales grandes y un neumático de nariz más pequeño. Le indicó a un compañero de trabajo que preparara un boleto de envío que indicara "botes de oxígeno - vacíos". El compañero de trabajo escribió, "Oxy Canisters" seguido de "Empty" entre comillas. También se enumeraron los neumáticos.

Paso 5. Uno o dos días después, las cajas fueron entregadas al agente de rampa de ValuJet para su aceptación en el vuelo 592. El boleto de envío con la lista de llantas y botes de oxígeno debería haberle llamado la atención, pero no lo hizo. Luego, los botes se cargaron contra las regulaciones federales, ya que ValuJet no estaba registrado para transportar materiales peligrosos. Es posible que, en la mente del agente de rampa, la posibilidad de que los trabajadores de SabreTech le envíen carga peligrosa fuera inconcebible. [11] [12]

2008 institución financiera cercana al colapso

En una monografía de 2014, el economista Alan Blinder afirmó que los instrumentos financieros complicados dificultaban a los inversores potenciales juzgar si el precio era razonable. En una sección titulada "Lección n. ° 6: la complejidad excesiva no solo es anticompetitiva, es peligrosa" , afirmó además, "pero el mayor peligro puede provenir de la opacidad. Cuando los inversores no comprenden los riesgos inherentes a los valores que comprar (ejemplos: el tramo intermedio de un CDO-Squared  ; un CDS en un CDO sintético, ...), se pueden cometer grandes errores, especialmente si las agencias de calificación te dicen que son triple A, es decir, lo suficientemente seguras para la abuela. Cuando llegue la crisis, las pérdidas pueden ser mucho mayores de lo que los inversores imaginaban. Los mercados pueden agotarse ya que nadie sabe cuánto valen realmente estos valores. Puede surgir el pánico. Por lo tanto, la complejidad per se es una fuente de riesgo ". [13]

Hundimiento de MV Sewol

Posibles aplicaciones futuras del concepto

Se ha multiplicado por cinco la seguridad de los aviones desde la década de 1980, pero los sistemas de vuelo a veces cambian a "modos" inesperados por sí mismos.

En un artículo titulado "El factor humano", William Langewiesche habla del accidente en 2009 del vuelo 447 de Air France sobre el Atlántico medio. Señala que, desde la década de 1980, cuando comenzó la transición a los sistemas de cabina automatizados, la seguridad se ha quintuplicado. Langwiesche escribe: "En la privacidad de la cabina del piloto y más allá de la vista del público, los pilotos han sido relegados a roles mundanos como administradores de sistemas". Cita al ingeniero Earl Wiener, quien toma la divertida declaración atribuida a la duquesa de Windsor de que uno nunca puede ser demasiado rico o demasiado delgado, y agrega "o demasiado cuidadoso con lo que pones en un sistema de guía de vuelo digital". Wiener dice que el efecto de la automatización suele ser reducir la carga de trabajo cuando es liviana, pero aumentarla cuando es pesada.

El ingeniero de Boeing, Delmar Fadden, dijo que una vez que se agregan capacidades a los sistemas de gestión de vuelo, su eliminación se vuelve imposiblemente costosa debido a los requisitos de certificación. Pero si no se usa, en cierto sentido puede acechar en las profundidades invisibles. [14]

Langewiesche cita a la ingeniera industrial Nadine Sarter que escribe sobre "sorpresas de automatización", a menudo relacionadas con modos del sistema que el piloto no comprende completamente o que el sistema cambia por sí solo. De hecho, una de las preguntas más comunes que se hacen en las cabinas de hoy es: "¿Qué está haciendo ahora?" En respuesta a esto, Langewiesche nuevamente señala el aumento de cinco veces en la seguridad y escribe: "Nadie puede abogar racionalmente por un regreso al glamour del pasado". [14]

¿Interacción más saludable entre la teoría y la práctica en la que a veces se cambian las reglas de seguridad?

Del artículo "Un nuevo modelo de accidentes para la ingeniería de sistemas más seguros", de Nancy Leveson, en Safety Science , abril de 2004:
"Sin embargo, las instrucciones y los procedimientos escritos casi nunca se siguen exactamente cuando los operadores se esfuerzan por ser más eficientes y productivos y por tratar con presiones de tiempo ... incluso en entornos tan restringidos y de alto riesgo como las plantas de energía nuclear, la modificación de las instrucciones se encuentra repetidamente y la violación de las reglas parece ser bastante racional, dada la carga de trabajo real y las limitaciones de tiempo bajo las cuales los operadores En estas situaciones, existe un conflicto básico entre el error visto como una desviación del procedimiento normativo y el error visto como una desviación de lo racional y normalmente usado.procedimiento eficaz (Rasmussen y Pejtersen, 1994) ". [15]

Ver también

  • Consecuencias no deseadas

Referencias

Notas

  1. ↑ a b Perrow, Charles (1984 y 1999). Accidentes normales: Viviendo con tecnologías de alto riesgo, con un nuevo epílogo y una posdata sobre el problema del año 2000 , Basic Books, 1984, Princeton University Press, 1999, página 70.
  2. ^ "El pensamiento de Charles Perrow es más difícil de aceptar para pilotos como yo. Perrow llegó involuntariamente a su teoría sobre los accidentes normales después de estudiar las fallas de las grandes organizaciones. Su punto no es que algunas tecnologías sean más riesgosas que otras, lo cual es obvio, sino que el control y la operación de algunas de las tecnologías más riesgosas requieren organizaciones tan complejas que virtualmente se garantiza que ocurran fallas graves [énfasis agregado]. Esas fallas ocasionalmente se combinarán de maneras imprevisibles y si inducen fallas adicionales en un entorno operativo de procesos estrechamente interrelacionados , las fallas se saldrán de control, anulando todas las intervenciones ". -Desde Las lecciones de Valujet 592 , The Atlantic, William Langewiesche, marzo de 1998, en la sección titulada Un "accidente normal", que es aproximadamente dos tercios del recorrido de todo el artículo.
  3. ^ El accidente de ValuJet 592: Implicaciones para la atención médica , J. Daniel Beckham, enero de 1999. Archivo DOC -> http://www.beckhamco.com/41articlescategory/054_crashofvalujet592.doc El Sr. Beckham dirige una empresa de consultoría de atención médica y este artículo se incluye en el sitio web de la empresa. Él escribe, "Los accidentes en Chernobyl y Three Mile Island fueron provocados por sistemas de seguridad fallidos".
  4. ^ LLEGANDO A LA CATÁSTROFE : CONCENTRACIONES, COMPLEJIDAD Y ACOPLAMIENTO , Charles Perrow, The Montréal Review , diciembre de 2012.
  5. Reason, James (26 de octubre de 1990). Error humano . Prensa de la Universidad de Cambridge . ISBN 0-521-31419-4.
  6. ↑ a b c Langewiesche, William (marzo de 1998). Las lecciones de Valujet 592 , The Atlantic . Vea especialmente los últimos tres párrafos de este largo artículo: “. . . Comprender por qué podría evitar que el sistema sea aún más complejo y, por lo tanto, quizás también más peligroso ".
  7. ^ Convirtiéndose en una organización de alta confiabilidad , Critical Care , M. Christianson, K. Sutcliffe, et. al, 8 de diciembre de 2011. Concepto opuesto. Este es un concepto que no está de acuerdo con el de accidente del sistema.
  8. ^ Sagan, Scott D. (1993). Los límites de la seguridad: organizaciones, accidentes y armas nucleares . Princeton U. Pr. ISBN 0-691-02101-5.
  9. ^ INFORME DE LA JUNTA DE REVISIÓN DE APOLLO 13 ("Informe Cortright") , Presidente Edgar M. Cortright, CAPÍTULO 5, RESULTADOS, DETERMINACIONES Y RECOMENDACIONES.
  10. Perrow, C. (1982), Resumen de Perrow para su capítulo titulado "La Comisión del Presidente y el Accidente Normal", en Sils, D., Wolf, C. y Shelanski, V. (Eds), Accidente en Three Mile Island: The Human Dimensions , Boulder, Colorado, EE.UU .: Westview Press, 1982 págs. 173–184.
  11. ^ Stimpson, Brian (octubre de 1998). Operación de sistemas tecnológicos altamente complejos y peligrosos sin errores: las lecciones equivocadas de ValuJet 592 , ingeniero profesional de Manitoba . Este artículo proporciona contraejemplos de organizaciones complejas que tienen buenos antecedentes de seguridad, como los portaaviones de clase Nimitz de EE. UU. Y la planta nuclear Diablo Canyon en California.
  12. ^ Véase también Accidentes normales: vivir con tecnologías de alto riesgo , Charles Perrow, edición revisada de 1999, páginas 383 y 592.
  13. ^ ¿Qué aprendimos de la crisis financiera, la gran recesión y la patética recuperación? (Archivo PDF), Alan S. Blinder, Universidad de Princeton, Centro Griswold de Estudios de Política Económica, Documento de trabajo No. 243, noviembre de 2014.
  14. ^ a b The Human Factor , Vanity Fair , William Langewiesche, 17 de septiembre de 2014. "... los pilotos han sido relegados a roles mundanos como administradores de sistemas ... Desde la década de 1980, cuando comenzó el cambio, el historial de seguridad ha mejorado cinco veces, hasta el actual accidente mortal por cada cinco millones de salidas. Nadie puede abogar racionalmente por un regreso al glamour del pasado ".
  15. ^ Un nuevo modelo de accidentes para la ingeniería de sistemas más seguros , Nancy Leveson, Ciencias de la seguridad , vol. 42, No. 4, abril de 2004. Documento basado en una investigación parcialmente financiada por la National Science Foundation y la NASA. ".. De hecho, una forma común de que los trabajadores ejerzan presión sobre la gerencia sin realmente ir a la huelga es 'trabajar para gobernar', lo que puede conducir a un colapso en la productividad e incluso al caos".

Otras lecturas

  • Cooper, Alan (5 de marzo de 2004). Los reclusos dirigen el asilo: por qué los productos de alta tecnología nos vuelven locos y cómo restaurar la cordura . Indianápolis: Sams - Pearson Education . ISBN 0-672-31649-8.
  • Gross, Michael Joseph (29 de mayo de 2015). Vida y muerte en Cirque du Soleil , este artículo de Vanity Fair dice: "... Un accidente del sistema es aquel que requiere que muchas cosas salgan mal en una cascada. Cambie cualquier elemento de la cascada y es posible que el accidente no ocurra, pero cada elemento comparte la culpa... "
  • Helmreich, Robert L. (1994). "Anatomía de un accidente del sistema: El accidente del vuelo 052 de Avianca". Revista Internacional de Psicología de la Aviación . 4 (3): 265–284. doi : 10.1207 / s15327108ijap0403_4 . PMID  11539174 .
  • Hopkins, Andrew (junio de 2001). "¿Fue Three Mile Island un accidente normal?" (PDF) . Revista de Contingencias y Gestión de Crisis . 9 (2): 65–72. doi : 10.1111 / 1468-5973.00155 . Archivado desde el original (PDF) el 29 de agosto de 2007 . Consultado el 6 de marzo de 2008 .
  • Más allá de la ingeniería: una nueva forma de pensar en la tecnología , Todd La Prote, Karlene Roberts y Gene Rochlin, Oxford University Press, 1997. Este libro proporciona contraejemplos de sistemas complejos que tienen buenos antecedentes de seguridad.
  • Pidgeon, Nick (22 de septiembre de 2011). "En retrospectiva: accidentes normales", Nature .
  • Perrow, Charles (29 de mayo de 2000). "Catástrofes inducidas organizacionalmente" (PDF) . Instituto de Estudios de Sociedad y Medio Ambiente. Corporación Universitaria de Investigaciones Atmosféricas . Consultado el 6 de febrero de 2009 . Cite journal requiere |journal=( ayuda )
  • Roush, Wade Edmund. CATÁSTROFE Y CONTROL: CÓMO LOS DESASTRES TECNOLÓGICOS MEJORAN LA DEMOCRACIA, Tesis doctoral, Instituto de Tecnología de Massachusetts, 1994, página 15. '. . Accidentes normales es una lectura esencial hoy en día para gerentes industriales, sociólogos organizacionales, historiadores de la tecnología y laicos interesados ​​por igual, porque muestra que una estrategia importante que los ingenieros han utilizado en este siglo para mantener bajo control las tecnologías peligrosas: múltiples capas de "seguridad a prueba de fallas". "Dispositivos de respaldo: a menudo agrega un nivel peligroso de imprevisibilidad al sistema en su conjunto. . '
  • "La prueba muestra botes de oxígeno que provocan un fuego intenso" . CNN.com . 1996-11-19 . Consultado el 6 de marzo de 2008 .
  • Wallace, Brendan (5 de marzo de 2009). Más allá del error humano . Florida: CRC Press. ISBN 978-0-8493-2718-6.
Obtenido de " https://en.wikipedia.org/w/index.php?title=System_accident&oldid=1051721689 "