El modelo suizo de causalidad de accidentes es un modelo utilizado en el análisis de riesgos y la gestión de riesgos , incluida la seguridad de la aviación , la ingeniería , la atención médica , las organizaciones de servicios de emergencia, y como el principio detrás de la seguridad por capas, como se usa en la seguridad informática y la defensa en profundidad . Compara los sistemas humanos con múltiples rebanadas de queso suizo., apilados uno al lado del otro, en el que el riesgo de que una amenaza se convierta en realidad es mitigado por las diferentes capas y tipos de defensas que están "en capas" una detrás de la otra. Por tanto, en teoría, los lapsus y debilidades en una defensa no permiten que se materialice un riesgo, ya que también existen otras defensas, para prevenir un único punto de falla . El modelo fue propuesto formalmente originalmente por James T. Reason de la Universidad de Manchester , [1] y desde entonces ha ganado una amplia aceptación. A veces se denomina "efecto de acto acumulativo".
Aunque el modelo del queso suizo se respeta y se considera un método útil para relacionar conceptos, ha sido objeto de críticas por su uso demasiado amplio y sin suficientes otros modelos o apoyo. [2]
Dominios de fallas
La razón planteó la hipótesis de que la mayoría de los accidentes se pueden rastrear a uno o más de los cuatro dominios de falla: influencias organizacionales, supervisión, condiciones previas y actos específicos. [3] [4] Por ejemplo, en la aviación, las condiciones previas para actos inseguros incluyen tripulación aérea fatigada o prácticas de comunicación inadecuadas. La supervisión insegura comprende, por ejemplo, emparejar a pilotos sin experiencia en un vuelo nocturno en un clima adverso conocido. Las influencias organizativas abarcan aspectos tales como la reducción del gasto en formación de pilotos en tiempos de austeridad financiera. [5] [6]
Agujeros y cortes
En el modelo de queso suizo, las defensas de una organización contra el fracaso se modelan como una serie de barreras, representadas como lonchas de queso, específicamente queso suizo con agujeros conocidos como " ojos ", como el queso Emmental . Los agujeros en los cortes representan debilidades en partes individuales del sistema y varían continuamente en tamaño y posición en los cortes. El sistema produce fallas cuando un agujero en cada rebanada se alinea momentáneamente, permitiendo (en palabras de Reason) "una trayectoria de oportunidad de accidente", de modo que un peligro pasa a través de agujeros en todas las rebanadas, lo que lleva a una falla. [7] [8] [9] [6]
Frosch [10] describió el modelo de Reason en términos matemáticos como un modelo en la teoría de la percolación , que analiza como una red de Bethe .
Fallos activos y latentes
El modelo incluye fallas activas y latentes. Las fallas activas comprenden los actos inseguros que pueden estar directamente relacionados con un accidente, como (en el caso de accidentes de aeronaves) un error de navegación . Las fallas latentes incluyen factores contribuyentes que pueden permanecer inactivos durante días, semanas o meses hasta que contribuyen al accidente. Las fallas latentes abarcan los primeros tres dominios de falla en el modelo de Reason. [5]
En los primeros días del modelo Swiss Cheese, desde finales de 1980 hasta aproximadamente 1992, se intentó combinar dos teorías: el modelo de defensa multicapa de James Reason y la teoría del trípode de Willem Albert Wagenaar sobre la causa de accidentes . Esto dio lugar a un período en el que el diagrama de queso suizo se representó con las etiquetas de las lonchas de queso como fallas activas, condiciones previas y fallas latentes.
Estos intentos de combinar dos teorías todavía causan confusión en la actualidad. Se muestra una versión más correcta de las teorías combinadas con las fallas activas (ahora llamadas causas inmediatas), la condición previa y la falla latente (ahora llamadas causas subyacentes) que se muestran como la razón por la que cada barrera (rebanada de queso) tiene un agujero y las rebanadas de queso como las barreras.
Aplicaciones
El mismo marco puede aplicarse en algunas áreas de la atención médica. Por ejemplo, una falla latente podría ser el empaquetado similar de dos medicamentos que luego se almacenan uno cerca del otro en una farmacia. Tal falla sería un factor que contribuiría a la administración del medicamento equivocado a un paciente. Tal investigación llevó a la comprensión de que el error médico puede ser el resultado de "fallas del sistema, no fallas de carácter", y que la codicia, la ignorancia, la malicia o la pereza no son las únicas causas de error. [12]
Lubnau, Lubnau y Okray [13] aplican el modelo a la ingeniería de sistemas de extinción de incendios, con el objetivo de reducir los errores humanos "insertando capas adicionales de queso en el sistema", es decir, las técnicas de gestión de recursos de la tripulación .
Este es uno de los muchos modelos enumerados, con referencias, en Taylor et al (2004). [14]
Kamoun y Nicho [15] encontraron que el modelo del queso suizo es un modelo teórico útil para explicar los aspectos multifacéticos (humanos, organizativos y tecnológicos) de las violaciones de datos sanitarios.
Ver también
Referencias
- ^ Razón de 1990 .
- ^ "Revisando el modelo de accidentes del queso suizo" (PDF) . Eurocontrol. Octubre de 2006.
- ^ Doran, JA; van der Graaf, GC (1996). Trípode-BETA: Investigación y análisis de incidentes . Conferencia de SPE sobre salud, seguridad y medio ambiente en la exploración y producción de petróleo y gas, 9-12 de junio de 1996. Nueva Orleans, Luisiana: Sociedad de Ingenieros de Petróleo. doi : 10.2118 / 35971-MS .
- ^ Gower-Jones, AD; van der Graf, GC (1998). Experiencia con Tripod BETA Incident Analysis . Conferencia internacional de la SPE sobre salud, seguridad y medio ambiente en la exploración y producción de petróleo y gas, del 7 al 10 de junio de 1998. Caracas, Venezuela: Sociedad de Ingenieros de Petróleo. doi : 10.2118 / 46659-MS .
- ^ a b Douglas A. Wiegmann y Scott A. Shappell (2003). Un enfoque de error humano para el análisis de accidentes de aviación: el sistema de análisis y clasificación de factores humanos . Ashgate Publishing. págs. 48–49. ISBN 0754618730.
- ^ a b Stranks, J. (2007). Factores humanos y seguridad del comportamiento . Butterworth-Heinemann. págs. 130–31. ISBN 9780750681551.
- ^ Daryl Raymond Smith; David Frazier; LW Reithmaier y James C Miller (2001). Control de error piloto . Profesional de McGraw-Hill. pag. 10. ISBN 0071373187.
- ^ Jo. H. Wilson; Andrew Symon; Josephine Williams y John Tingle (2002). Gestión de riesgos clínicos en la partería: ¿el derecho a un bebé perfecto? . Ciencias de la salud de Elsevier. págs. 4–6. ISBN 0750628510.
- ^ Tim Amos y Peter Snowden (2005). "Gestión de riesgos". En Adrian JB James; Tim Kendall y Adrian Worrall (eds.). Gobernanza clínica en los servicios de salud mental y problemas de aprendizaje: una guía práctica . Gaskell. pag. 176. ISBN 1904671128.
- ^ Robert A. Frosch (2006). "Apuntes hacia una teoría de la gestión de la vulnerabilidad". En Philip E Auerswald; Lewis M Branscomb; Todd M La Porte; Erwann Michel-Kerjan (eds.). Semillas del desastre, raíces de la respuesta: cómo la acción privada puede reducir la vulnerabilidad pública . Prensa de la Universidad de Cambridge. pag. 88. ISBN 0521857961.
- ^ Wiles, Siouxsie (22 de octubre de 2020). "Siouxsie Wiles y Toby Morris: Covid-19 y el sistema de queso suizo" . El spin-off . Consultado el 28 de octubre de 2020 .
- ^ Patricia Hinton-Walker; Gaya Carlton; Lela Holden y Patricia W. Stone (30 de junio de 2006). "La intersección de la seguridad del paciente y la investigación en enfermería". En Joyce J. Fitzpatrick y Patricia Hinton-Walker (eds.). Revisión anual de la investigación en enfermería Volumen 24: Enfoque en la seguridad del paciente . Springer Publishing. págs. 8–9. ISBN 0826141366.
- ^ Thomas Lubnau II; Randy Okray y Thomas Lubnau (2004). Gestión de recursos de tripulación para el servicio de bomberos . Libros PennWell. págs. 20-21. ISBN 1593700067.
- ^ Taylor, GA; Pascua, KM; Hegney, RP (2004). Mejora de la seguridad y la salud en el trabajo . Elsevier. págs. 140–41, 147–53, 241–45. ISBN 0750661976.
- ^ Faouzi Kamoun y Mathew Nicho (2014). Factores humanos y organizativos de las infracciones de datos sanitarios: el modelo de queso suizo de causalidad y prevención de infracciones de datos, Revista Internacional de Sistemas de Información e Informática Sanitaria, 9 (1) . IGI Global. págs. 42–60.
Fuentes
- Razón, James (12 de abril de 1990). "La contribución de las fallas humanas latentes a la ruptura de sistemas complejos" . Transacciones filosóficas de la Royal Society de Londres. Serie B, Ciencias Biológicas . 327 (1241): 475–84. Código Bibliográfico : 1990RSPTB.327..475R . doi : 10.1098 / rstb.1990.0090 . JSTOR 55319 . PMID 1970893 .
Otras lecturas
- Bayley, Carol (2004). "Qué pueden decirnos los errores médicos sobre los errores de gestión". En Paul B. Hofmann y Frankie Perry (ed.). Errores de gestión en la asistencia sanitaria: identificación, corrección y prevención . Prensa de la Universidad de Cambridge. págs. 74–75. ISBN 0521829003.
- Garland, Daniel J .; Westrum, Ron; Adamski, Anthony J. (1998). "Factores organizativos asociados con la seguridad y el éxito de la misión en entornos de aviación". Manual de factores humanos de la aviación . Lawrence Erlbaum Associates. pag. 84. ISBN 0805816801.- Westrum y Adamski relacionan el modelo de queso suizo de Reason con el modelo de "envoltura humana" de Westrum, donde "alrededor de cada operación compleja hay una envoltura humana que desarrolla, opera, mantiene, interconecta y evalúa la función del sistema sociotecnológico" y donde el sistema Depende de la integridad de esta envoltura, de su grosor y resistencia ”. Westrum modela las fallas latentes como vacíos dentro de esta envoltura y las fallas activas como factores externos a la envoltura que actúan para romperla.
- Horn, John R .; Hansten, Philip D. (2004). "Fuentes de error en las interacciones farmacológicas: el modelo del queso suizo" . Tiempos de farmacia .
- Howell, Elizabeth A .; Chassin, Mark R. (mayo de 2006). "¿Derecha? ¿Izquierda? ¡Ninguna!" . Rondas de morbilidad y mortalidad en la Web . Agencia de Investigación y Calidad Sanitaria. Archivado desde el original el 16 de octubre de 2011. - la aplicación del modelo Swiss Cheese a un caso específico de error médico
- Luxhøj, James T .; Kauffeld, Kimberlee (2003). "Evaluación del efecto de la inserción de tecnología en el sistema del espacio aéreo nacional" . El erudito de Rutgers . 3 .
- Nance, John J. (12 de abril de 2005). "¿Qué tan segura es la seguridad de las aerolíneas?: El modelo de queso suizo y lo que realmente hemos logrado desde el 11 de septiembre" . ABC News .
- Perneger, Thomas V. (9 de noviembre de 2005). "El modelo del queso suizo de los incidentes de seguridad: ¿hay agujeros en la metáfora?" . Investigación de BMC Health Services . BioMed Central Ltd. 5 (71): 71. doi : 10.1186 / 1472-6963-5-71 . PMC 1298298 . PMID 16280077 .
- Razón, James (1995). "Un enfoque de sistema para el error organizacional". Ergonomía . 38 (8): 1708–21. doi : 10.1080 / 00140139508925221 .
- Razón, James (1997). Gestión de los riesgos de accidentes organizativos . Aldershot: Ashgate. ISBN 1840141042.
- Razón, James (18 de marzo de 2000). "Error humano: modelos y gestión" . Revista médica británica . 320 (7237): 768–70. doi : 10.1136 / bmj.320.7237.768 . PMC 1117770 . PMID 10720363 .
- Shappell, Scott A .; Wiegmann, Douglas A. (febrero de 2000). "El sistema de clasificación y análisis de factores humanos - HFACS: el modelo de" queso suizo "de causalidad de accidentes" . Servicio Nacional de Información Técnica .
- Young, MS; Shorrock, ST; Faulkner, JPE (14 de junio de 2005). "Buscar y encontrar causas de accidentes organizativos: Comentarios sobre el modelo del queso suizo" . Departamento de Aviación, Universidad de Nueva Gales del Sur .(también disponible en línea aquí ): un recordatorio de que, si bien el modelo de Reason extiende la causalidad a las fallas latentes, esto no es a expensas de eliminar por completo las fallas activas.