La confiabilidad humana (también conocida como desempeño humano o HU ) está relacionada con el campo de los factores humanos y la ergonomía , y se refiere a la confiabilidad de los humanos en campos que incluyen la fabricación , la medicina y la energía nuclear . El desempeño humano puede verse afectado por muchos factores como la edad , el estado de ánimo, la salud física , la actitud , las emociones , la propensión a ciertos errores comunes, errores y sesgos cognitivos , etc.
La confiabilidad humana es muy importante debido a las contribuciones de los humanos a la resiliencia de los sistemas y a las posibles consecuencias adversas de los errores o descuidos humanos , especialmente cuando lo humano es una parte crucial de los grandes sistemas socio-técnicos como es común en la actualidad. El diseño centrado en el usuario y el diseño tolerante a errores son sólo dos de los muchos términos utilizados para describir los esfuerzos para hacer la tecnología más adecuado para la operación por los seres humanos.
Trampas comunes de la naturaleza humana
Las personas tienden a sobreestimar su capacidad para mantener el control cuando están trabajando. Las características comunes de la naturaleza humana que se tratan a continuación se acentúan especialmente cuando el trabajo se realiza en un entorno de trabajo complejo. [1]
Estrés El problema del estrés es que puede acumularse y dominar a una persona, volviéndose perjudicial para el rendimiento.
Evitación de la tensión mental Los seres humanos son reacios a participar en un pensamiento concentrado prolongado, ya que requiere altos niveles de atención durante períodos prolongados.
Los sesgos mentales, o atajos, que se utilizan a menudo para reducir el esfuerzo mental y acelerar la toma de decisiones incluyen:
- Supuestos: una condición que se da por sentada o se acepta como cierta sin verificación de los hechos.
- Hábito: patrón inconsciente de comportamiento adquirido a través de la repetición frecuente.
- Sesgo de confirmación: la renuencia a abandonar una solución actual.
- Sesgo de similitud: la tendencia a recordar soluciones de situaciones que parecen similares
- Sesgo de frecuencia: una apuesta de que una solución de uso frecuente funcionará.
- Sesgo de disponibilidad: la tendencia a decidirse por soluciones o cursos de acción que se le ocurren fácilmente.
Memoria de trabajo limitada: la memoria a corto plazo de la mente es el "banco de trabajo" para la resolución de problemas y la toma de decisiones.
Recursos de atención limitados: la capacidad limitada de concentrarse en dos o más actividades desafía la capacidad de procesar la información necesaria para resolver problemas.
Mentalidad Las personas tienden a concentrarse más en lo que quieren lograr (una meta) y menos en lo que deben evitarse porque los seres humanos están principalmente orientados a metas por naturaleza. Como tal, la gente tiende a "ver" sólo lo que la mente espera o quiere ver.
Dificultad para ver el propio error : los individuos, especialmente cuando trabajan solos, son particularmente susceptibles a fallar errores.
Perspectiva limitada : los humanos no pueden ver todo lo que hay para ver. La incapacidad de la mente humana para percibir todos los hechos pertinentes a una decisión desafía la resolución de problemas.
Susceptibilidad a los factores emocionales / sociales : la ira y la vergüenza influyen negativamente en el desempeño individual y del equipo.
Fatiga : la gente se cansa. La fatiga física, emocional y mental puede provocar errores y falta de juicio.
Presentismo : algunos empleados estarán presentes en la necesidad de pertenecer al lugar de trabajo a pesar de una capacidad disminuida para realizar sus trabajos debido a una enfermedad o lesión.
Técnicas de análisis
Existe una variedad de métodos para el análisis de confiabilidad humana (HRA). [2] [3] Dos clases generales de métodos son los que se basan en la evaluación probabilística del riesgo (PRA) y los que se basan en una teoría cognitiva de control .
Técnicas basadas en ARP
Un método para analizar la confiabilidad humana es una extensión directa de la evaluación probabilística de riesgos (PRA): de la misma manera que los equipos pueden fallar en una planta de energía, un operador humano puede cometer errores. En ambos casos, un análisis ( descomposición funcional para equipos y análisis de tareas para humanos) articularía un nivel de detalle para el cual se pueden asignar probabilidades de falla o error. Esta idea básica está detrás de la Técnica para la predicción de la tasa de errores humanos (THERP). [4] THERP está destinado a generar probabilidades de error humano que se incorporarían en un PRA. El procedimiento de confiabilidad humana del Programa de Evaluación de Secuencia de Accidentes (ASEP) es una forma simplificada de THERP; una herramienta computacional asociada es el Código de Análisis de Error Humano Simplificado (SHEAN). [5] Más recientemente, la Comisión Reguladora Nuclear de los Estados Unidos ha publicado el método de análisis estandarizado de riesgo de plantas - análisis de confiabilidad humana (SPAR-H) para tener en cuenta el potencial de error humano. [6] [7]
Técnicas basadas en el control cognitivo
Erik Hollnagel ha desarrollado esta línea de pensamiento en su trabajo sobre el Modelo de Control Contextual (COCOM) [8] y el Método de Fiabilidad Cognitiva y Análisis de Errores (CREAM). [9] COCOM modela el desempeño humano como un conjunto de modos de control: estratégico (basado en la planificación a largo plazo), táctico (basado en procedimientos), oportunista (basado en el contexto actual) y codificado (aleatorio), y propone un modelo de cómo se producen las transiciones entre estos modos de control. Este modelo de transición del modo de control consta de una serie de factores, incluida la estimación del operador humano del resultado de la acción (éxito o fracaso), el tiempo restante para lograr la acción (adecuado o inadecuado) y el número de objetivos simultáneos de la acción. el operador humano en ese momento. CREAM es un método de análisis de confiabilidad humana que se basa en COCOM.
Técnicas relacionadas
Las técnicas relacionadas en ingeniería de seguridad e ingeniería de confiabilidad incluyen análisis de modos y efectos de falla , hazop , árbol de fallas y SAPHIRE (Programas de análisis de sistemas para evaluaciones prácticas de confiabilidad integradas).
Sistema de clasificación y análisis de factores humanos (HFACS)
El Sistema de clasificación y análisis de factores humanos (HFACS) se desarrolló inicialmente como un marco para comprender el papel del "error humano" en los accidentes de aviación. [10] [11] Se basa en el modelo de error humano en sistemas complejos del queso suizo de James Reason . HFACS distingue entre "fallas activas" de actos inseguros y "fallas latentes" de condiciones previas para actos inseguros, supervisión insegura e influencias organizacionales. Estas categorías se desarrollaron empíricamente sobre la base de muchos informes de accidentes de aviación.
Los "actos inseguros" son realizados por el operador humano "en la línea del frente" (por ejemplo, el piloto, el controlador de tráfico aéreo, el conductor). Los actos inseguros pueden ser errores (de percepción, toma de decisiones o desempeño basado en habilidades) o violaciones (rutinarias o excepcionales). Los errores aquí son similares a la discusión anterior. Las violaciones son el desprecio deliberado de las reglas y procedimientos. Como su nombre lo indica, las violaciones de rutina son aquellas que ocurren habitualmente y generalmente son toleradas por la organización o autoridad. Las infracciones excepcionales son inusuales y, a menudo, extremas. Por ejemplo, conducir a 60 mph en una zona de límite de velocidad de 55 mph es una infracción de rutina, pero conducir a 130 mph en la misma zona es excepcional.
Hay dos tipos de condiciones previas para los actos inseguros: las que se relacionan con el estado interno del operador humano y las que se relacionan con las prácticas o formas de trabajo del operador humano. Los estados internos adversos incluyen los relacionados con la fisiología (p. Ej., Enfermedad) y el estado mental (p. Ej., Fatiga mental, distracción). Un tercer aspecto del "estado interno" es realmente un desajuste entre la capacidad del operador y las demandas de la tarea; por ejemplo, es posible que el operador no pueda emitir juicios visuales o reaccionar con la suficiente rapidez para apoyar la tarea en cuestión. Las malas prácticas de los operadores son otro tipo de condición previa para actos inseguros. Estos incluyen una gestión deficiente de los recursos de la tripulación (cuestiones como el liderazgo y la comunicación) y las prácticas de preparación personal deficientes (por ejemplo, violar los requisitos de descanso de la tripulación en la aviación).
Cuatro tipos de supervisión insegura son: supervisión inadecuada; operaciones inadecuadas planificadas; no corregir un problema conocido; y violaciones de supervisión.
Las influencias organizacionales incluyen aquellas relacionadas con la gestión de recursos (por ejemplo, recursos humanos o financieros inadecuados), clima organizacional (estructuras, políticas y cultura) y procesos organizacionales (tales como procedimientos, horarios, supervisión).
Ver también
- Juicio de probabilidad absoluta
- ATHEANA : una técnica utilizada en el campo de la evaluación de la confiabilidad humana (una técnica para el análisis de eventos humanos)
- Técnica de evaluación y reducción de errores humanos (HEART), una técnica utilizada en el campo de la confiabilidad humana
- Enfoque de diagramas de influencia
- Error humano latente
- Error de equipo
- TESEO (Tecnica Empirica Stima Errori Operatori)
Notas al pie
- ^ https://www.standards.doe.gov/standards-documents/1000/1028-BHdbk-2009-v1/@@images/file DOE-HDBK-1028-2009
- ^ Kirwan y Ainsworth, 1992
- ^ Kirwan, 1994
- ^ Swain y Guttmann, 1983
- ^ Código simplificado de análisis de errores humanos (Wilson, 1993)
- ^ SPAR-H
- ^ Gertman y col., 2005
- ↑ (Hollnagel, 1993)
- ^ (Hollnagel, 1998)
- ^ Shappell y Wiegmann, 2000
- ^ Wiegmann y Shappell, 2003
Referencias
- Gertman, DL; Blackman, HS (2001). Manual de datos de análisis de seguridad y confiabilidad humana . Wiley.
- Gertman, D., Blackman, H., Marble, J., Byers, J. y Smith, C. (2005). El método de análisis de confiabilidad humana SPAR-H. NUREG / CR-6883. Laboratorio Nacional de Idaho, preparado para la Comisión Reguladora Nuclear de EE . UU .CS1 maint: varios nombres: lista de autores ( enlace )[1]
- M. Cappelli, AMGadomski, M.Sepielli (2011). Factores humanos en la gestión de la seguridad de las centrales nucleares: un enfoque de modelado sociocognitivo utilizando la metateoría de TOGA. Actas del Congreso Internacional sobre Avances en Centrales Nucleares. Niza (FR) . SFEN ( Société Française d'Energie Nucléaire ).CS1 maint: varios nombres: lista de autores ( enlace )
- Hollnagel, E. (1993). Análisis de confiabilidad humana: contexto y control . Prensa académica.
- Hollnagel, E. (1998). Método de análisis de errores y fiabilidad cognitiva: CREAM . Elsevier.
- Hollnagel, E .; Amalberti, R. (2001). ¿La ropa nueva del emperador, o lo que sea que haya pasado con el "error humano"? Presentación invitada en el 4º Taller Internacional sobre Error Humano, Seguridad y Desarrollo de Sistemas . Linköping, 11 al 12 de junio de 2001.
- Hollnagel, E., Woods, DD y Leveson, N. (Eds.) (2006). Ingeniería de la resiliencia: conceptos y preceptos . Ashgate.CS1 maint: varios nombres: lista de autores ( enlace ) CS1 maint: texto adicional: lista de autores ( enlace )
- Jones, PM (1999). Error humano y su mejora. En Handbook of Systems Engineering and Management (AP Sage y WB Rouse, eds.), 687-702 . Wiley.
- Kirwan, B. (1994). Una guía para la evaluación práctica de la confiabilidad humana . Taylor y Francis.
- Kirwan, B. y Ainsworth, L. (Eds.) (1992). Una guía para el análisis de tareas . Taylor y Francis.CS1 maint: varios nombres: lista de autores ( enlace ) CS1 maint: texto adicional: lista de autores ( enlace )
- Norman, D. (1988). La psicología de las cosas cotidianas . Libros básicos.
- Razón, J. (1990). Error humano . Prensa de la Universidad de Cambridge.
- Roth, E .; et al. (1994). Una investigación empírica del desempeño del operador en emergencias simuladas exigentes cognitivas. NUREG / CR-6208, Westinghouse Science and Technology Center . Informe elaborado para la Comisión Reguladora Nuclear.
- Sage, AP (1992). Ingeniería de sistemas . Wiley.
- Remitentes, J .; Moray, N. (1991). Error humano: causa, predicción y reducción . Lawrence Erlbaum Associates.
- Shappell, S .; Wiegmann, D. (2000). El sistema de análisis y clasificación de factores humanos - HFACS. DOT / FAA / AM-00/7, Oficina de Medicina Aeronáutica, Administración Federal de Aviación, Departamento de Transporte .[2]
- Swain, AD y Guttman, HE (1983). Manual de análisis de confiabilidad humana con énfasis en aplicaciones de centrales nucleares . NUREG / CR-1278 (Washington DC).CS1 maint: varios nombres: lista de autores ( enlace )
- Wallace, B .; Ross, A. (2006). Más allá del error humano . Prensa CRC.
- Wiegmann, D .; Shappell, S. (2003). Un enfoque de error humano para el análisis de accidentes de aviación: el sistema de análisis y clasificación de factores humanos . Ashgate.
- Wilson, JR (1993). SHEAN (código simplificado de análisis de errores humanos) y THERP automatizado . Informe técnico del Departamento de Energía de los Estados Unidos Número WINCO - 11908. [3]
- Woods, DD (1990). Modelar y predecir el error humano. En J. Elkind, S. Card, J. Hochberg y B. Huey (Eds.), Modelos de desempeño humano para ingeniería asistida por computadora (248-274) . Prensa académica.
- Administración Federal de Aviación. 2009 código electrónico de regulaciones. Consultado el 25 de septiembre de 2009 en https://web.archive.org/web/20120206214308/http://www.airweb.faa.gov/Regulatory_and_Guidance_library/rgMakeModel.nsf/0/5a9adccea6c0c4e286256d3900494a77/$FILE/Hdf
Otras lecturas
- Autrey, TD (2015). Cultura de seguridad de 6 horas: cómo reducir de manera sostenible el error y el riesgo humanos (y hacer lo que la capacitación por sí sola no puede hacer) . Asociación de Actuación Humana.
- Davies, JB, Ross, A., Wallace, B. y Wright, L. (2003). Gestión de la seguridad: un enfoque de sistemas cualitativos . Taylor y Francis.CS1 maint: varios nombres: lista de autores ( enlace )
- Dekker, SWA (2005). Diez preguntas sobre el error humano: una nueva visión de los factores humanos y la seguridad de los sistemas . Lawrence Erlbaum Associates.
- Dekker, SWA (2006). La guía de campo para comprender el error humano . Ashgate.
- Dekker, SWA (2007). Cultura justa: equilibrio entre seguridad y responsabilidad . Ashgate.
- Dismukes, RK, Berman, BA y Loukopoulos, LD (2007). Los límites de la experiencia: repensar el error del piloto y las causas de los accidentes aéreos . Ashgate.CS1 maint: varios nombres: lista de autores ( enlace )
- Forester, J., Kolaczkowski, A., Lois, E. y Kelly, D. (2006). Evaluación de métodos de análisis de confiabilidad humana frente a buenas prácticas. Informe final NUREG-1842 . Comisión Reguladora Nuclear de EE. UU.CS1 maint: varios nombres: lista de autores ( enlace ) [4]
- Goodstein, LP, Andersen, HB y Olsen, SE (Eds.) (1988). Tareas, errores y modelos mentales . Taylor y Francis.CS1 maint: varios nombres: lista de autores ( enlace ) CS1 maint: texto adicional: lista de autores ( enlace )
- Grabowski, M .; Roberts, KH (1996). "Error humano y organizacional en sistemas a gran escala". Transacciones IEEE sobre sistemas, hombre y cibernética - Parte A: Sistemas y seres humanos . 26 : 2-16. doi : 10.1109 / 3468.477856 .
- Greenbaum, J. y Kyng, M. (Eds.) (1991). Diseño en acción: Diseño cooperativo de sistemas informáticos . Lawrence Erlbaum Associates.CS1 maint: varios nombres: lista de autores ( enlace ) CS1 maint: texto adicional: lista de autores ( enlace )
- Harrison, M. (2004). Análisis de errores humanos y evaluación de la confiabilidad . Taller sobre interacción y confiabilidad entre humanos y computadoras, 46ª reunión del Grupo de Trabajo 10.4 de la IFIP, Siena, Italia, 3 al 7 de julio de 2004. [5]
- Hollnagel, E. (1991). El fenotipo de acciones erróneas: implicaciones para el diseño de HCI. En GWR Weir y JL Alty (Eds.), Interacción humano-computadora y sistemas complejos. Prensa académica.
- Hutchins, E. (1995). Cognición en estado salvaje . Prensa del MIT.
- Kahneman, D., Slovic, P. y Tversky, A. (Eds.) (1982). "Juicio bajo incertidumbre: heurísticas y sesgos". Ciencia . Prensa de la Universidad de Cambridge. 185 (4157): 1124–31. doi : 10.1126 / science.185.4157.1124 . PMID 17835457 .CS1 maint: varios nombres: lista de autores ( enlace ) CS1 maint: texto adicional: lista de autores ( enlace )
- Leveson, N. (1995). Safeware: seguridad del sistema y computadoras . Addison-Wesley.
- Morgan, G. (1986). Imágenes de organización . Sabio.
- Mura, SS (1983). Violaciones de licencias: violaciones legítimas del principio conversacional de Grice. En R. Craig y K. Tracy (Eds.), Coherencia conversacional: forma, estructura y estrategia (101-115) . Sabio.
- Perrow, C. (1984). Accidentes normales: convivencia con tecnologías de alto riesgo . Libros básicos.
- Rasmussen, J. (1983). Habilidades, reglas y conocimiento: señales, signos y símbolos y otras distinciones en los modelos de desempeño humano. Transacciones IEEE sobre sistemas, hombre y cibernética , SMC-13, 257-267 .
- Rasmussen, J. (1986). Procesamiento de información e interacción hombre-máquina: un enfoque de la ingeniería cognitiva . Wiley.
- Silverman, B. (1992). Criticar el error humano: un enfoque de colaboración humano-computadora basado en el conocimiento . Prensa académica.
- Swets, J. (1996). Teoría de detección de señales y análisis ROC en psicología y diagnóstico: artículos recopilados . Lawrence Erlbaum Associates.
- Tversky, A .; Kahneman, D. (1974). Juicio bajo incertidumbre: heurísticas y sesgos. Science , 185, 1124-1131 .
- Vaughan, D. (1996). La decisión de lanzamiento del Challenger: tecnología, cultura y desviación arriesgadas en la NASA . Prensa de la Universidad de Chicago.
- Woods, DD, Johannesen, L., Cook, R. y Sarter, N. (1994). Detrás del error humano: sistemas cognitivos, computadoras y retrospectiva. Informe CSERIAC SOAR 94-01 . Centro de análisis de información ergonómica de sistemas de tripulación, base de la fuerza aérea de Wright-Patterson, Ohio.CS1 maint: varios nombres: lista de autores ( enlace )
- Wu, S., Hrudey, S., French, S., Bedford, T., Soane, E. y Pollard, S. (2009). "Un papel para el análisis de confiabilidad humana (HRA) en la prevención de incidentes relacionados con el agua potable y la seguridad del agua potable" (PDF) . Investigación del agua . 43 (13): 3227–3238. doi : 10.1016 / j.watres.2009.04.040 . PMID 19493557 .CS1 maint: varios nombres: lista de autores ( enlace )
- CCPS, Directrices para prevenir errores humanos. Este libro explica acerca de la metodología cualitativa y cuantitativa para predecir el error humano. La metodología cualitativa denominada SPEAR: Sistemas para predecir el error humano y la recuperación, y la metodología cuantitativa también incluye THERP, etc.
enlaces externos
Estándares y documentos de orientación
- Estándar IEEE 1082 (1997): Guía IEEE para incorporar análisis de confiabilidad de acción humana para estaciones generadoras de energía nuclear
- Estándar DOE DOE-HDBK-1028-2009: Manual de mejora del desempeño humano
Herramientas
- Calculadora EPRI HRA
- Herramientas de error humano de Eurocontrol
- Software RiskSpectrum HRA
- Código simplificado de análisis de errores humanos
Laboratorios de investigación
- Erik Hollnagel en el Centro de Investigación de Crisis y Riesgo en la Escuela de Minas
- Análisis de confiabilidad humana en los laboratorios nacionales Sandia de EE. UU.
- Centro de Estudios de Fiabilidad Humana del Laboratorio Nacional de Oak Ridge de EE. UU.
- Laboratorio de cognición de vuelo en el Centro de investigación Ames de la NASA
- David Woods en el Laboratorio de Ingeniería de Sistemas Cognitivos en la Universidad Estatal de Ohio
- Laboratorio Leonardo da Vinci de Sidney Dekker para la complejidad y el pensamiento sistémico, Universidad de Lund, Suecia
Cobertura mediática
- "Cómo evitar errores humanos en TI"
- “Fiabilidad humana. Nos descomponemos como máquinas “ Industrial Engineer - November 2004, 36 (11): 66
Redes
- Grupo de gestión de alta fiabilidad en LinkedIn.com