El sesgo de automatización es la propensión de los humanos a favorecer las sugerencias de los sistemas automatizados de toma de decisiones e ignorar la información contradictoria elaborada sin automatización, incluso si es correcta. [1] El sesgo de automatización proviene de la literatura de psicología social que encontró un sesgo en la interacción humano-humano que mostró que las personas asignan evaluaciones más positivas a las decisiones tomadas por humanos que a un objeto neutral. [2] Se ha encontrado el mismo tipo de sesgo de positividad para la interacción humano-automatización, [3] donde las decisiones automatizadas se califican más positivamente que neutrales. [4] Esto se ha convertido en un problema creciente para la toma de decisiones como unidades de cuidados intensivos ,Las plantas de energía nuclear y las cabinas de los aviones han integrado cada vez más monitores de sistemas computarizados y ayudas para la toma de decisiones para descartar en su mayoría posibles errores humanos. Los errores de sesgo de automatización tienden a ocurrir cuando la toma de decisiones depende de computadoras u otras ayudas automatizadas y el ser humano tiene un papel de observatorio pero es capaz de tomar decisiones. Los ejemplos de sesgo de automatización van desde asuntos urgentes como volar un avión con piloto automático hasta asuntos tan mundanos como el uso de programas de corrección ortográfica . [5]
Desuso y mal uso
La confianza de un operador en el sistema también puede conducir a diferentes interacciones con el sistema, incluido el uso, mal uso, desuso y abuso del sistema. [6] [ vago ]
La tendencia a depender demasiado de las ayudas automatizadas se conoce como "uso indebido de la automatización". [6] [7] El mal uso de la automatización se puede ver cuando un usuario no monitorea adecuadamente un sistema automatizado, o cuando el sistema automatizado se usa cuando no debería serlo. Esto contrasta con el desuso, donde el usuario no utiliza correctamente la automatización, ya sea apagándola o ignorándola. Tanto el uso indebido como el desuso pueden ser problemáticos, pero el sesgo de automatización está directamente relacionado con el uso indebido de la automatización debido a una confianza excesiva en las capacidades del sistema o al uso predeterminado de la heurística. El mal uso puede llevar a la falta de seguimiento del sistema automatizado o al acuerdo ciego con una sugerencia de automatización, categorizados por dos tipos de errores, errores de omisión y errores de comisión, respectivamente. [8] [9] [6]
El uso y desuso de la automatización también pueden influir en las etapas del procesamiento de la información: adquisición de información, análisis de información, toma de decisiones y selección de acciones , e implementación de acciones. [10] [ página necesaria ]
Por ejemplo, la adquisición de información, el primer paso en el procesamiento de la información, es el proceso mediante el cual un usuario registra una entrada a través de los sentidos. [10] [ página necesaria ] Un indicador de motor automatizado podría ayudar al usuario con la adquisición de información a través de funciones de interfaz simples, como resaltar cambios en el rendimiento del motor, dirigiendo así la atención selectiva del usuario. Cuando se enfrentan a problemas que se originan en una aeronave, los pilotos pueden tender a sobrecargar los indicadores del motor de una aeronave, perdiendo de vista otras posibles fallas no relacionadas con el motor. Esta actitud es una forma de autocomplacencia y mal uso de la automatización. Sin embargo, si el piloto dedica tiempo a interpretar el indicador del motor y manipula la aeronave en consecuencia, solo para descubrir que la turbulencia del vuelo no ha cambiado, el piloto puede inclinarse a ignorar las recomendaciones de error futuras transmitidas por un indicador del motor, una forma de autocomplacencia de la automatización que conduce al desuso.
Errores de comisión y omisión
El sesgo de automatización puede tomar la forma de errores de comisión, que ocurren cuando los usuarios siguen una directiva automatizada sin tener en cuenta otras fuentes de información. Por el contrario, los errores de omisión ocurren cuando los dispositivos automatizados no detectan o indican problemas y el usuario no se da cuenta porque no están monitoreando adecuadamente el sistema. [11]
Se ha demostrado que los errores de omisión son el resultado de disminuciones de la vigilancia cognitiva, mientras que los errores de comisión son el resultado de una combinación de no tener en cuenta la información y una confianza excesiva en la confiabilidad de las ayudas automatizadas. [5] Los errores de comisión ocurren por tres razones: (1) desvío abierto de la atención lejos de la ayuda automatizada; (2) disminución de la atención a la ayuda; (3) descuento activo de la información que contradiga las recomendaciones de la ayuda. [12] Los errores de omisión ocurren cuando la persona que toma las decisiones no se da cuenta de una falla en la automatización, ya sea debido a una baja vigilancia o una excesiva confianza en el sistema. [5] Por ejemplo, un programa de revisión ortográfica que marque incorrectamente una palabra como mal escrita y sugiera una alternativa sería un error de comisión, y un programa de revisión ortográfica que no advierta una palabra mal escrita sería un error de omisión. En estos casos, el sesgo de automatización podría ser observado por un usuario que acepta la palabra alternativa sin consultar un diccionario, o un usuario que no se da cuenta de la palabra mal escrita y asume que todas las palabras son correctas sin revisar las palabras.
Se ha demostrado que la capacitación que se centró en la reducción del sesgo de automatización y los problemas relacionados reduce la tasa de errores de comisión, pero no de errores de omisión. [5]
Factores
La presencia de ayudas automáticas, como dice una fuente, "disminuye la probabilidad de que los tomadores de decisiones hagan el esfuerzo cognitivo para buscar otra información de diagnóstico o procesen toda la información disponible de formas cognitivamente complejas". También aumenta la probabilidad de que los usuarios concluyan su evaluación de una situación demasiado apresuradamente después de que una ayuda automática les solicite que tomen un curso de acción específico. [7]
Según una fuente, hay tres factores principales que conducen al sesgo de automatización. En primer lugar, la tendencia humana a elegir el enfoque menos cognitivo para la toma de decisiones, que se denomina hipótesis del avaro cognitivo . En segundo lugar, la tendencia de los seres humanos a considerar que las ayudas automatizadas tienen una capacidad analítica superior a la suya. En tercer lugar, la tendencia de los humanos a reducir su propio esfuerzo al compartir tareas, ya sea con otra persona o con una ayuda automatizada. [12]
Otros factores que conducen a una dependencia excesiva de la automatización y, por lo tanto, al sesgo de automatización incluyen la inexperiencia en una tarea (aunque los usuarios sin experiencia tienden a ser los más beneficiados por los sistemas automatizados de apoyo a la toma de decisiones), la falta de confianza en las propias habilidades, la falta de alternativas fácilmente disponibles. información, o el deseo de ahorrar tiempo y esfuerzo en tareas complejas o grandes cargas de trabajo. [13] [14] [15] [8] Se ha demostrado que las personas que tienen una mayor confianza en sus propias habilidades para tomar decisiones tienden a depender menos del apoyo automatizado externo, mientras que las que tienen más confianza en los sistemas de apoyo a las decisiones (DSS ) dependían más de él. [13]
Diseño de pantalla
Un estudio, publicado en la Revista de la Asociación Estadounidense de Informática Médica , encontró que la posición y la prominencia de los consejos en una pantalla pueden afectar la probabilidad de sesgo de automatización, y es más probable que se sigan los consejos que se muestran de manera prominente, sean correctos o no; otro estudio, sin embargo, pareció descartar la importancia de este factor. [13] Según otro estudio, una mayor cantidad de detalles en pantalla puede hacer que los usuarios sean menos "conservadores" y, por lo tanto, aumentar la probabilidad de sesgo de automatización. [13] Un estudio mostró que responsabilizar a las personas por su desempeño o la precisión de sus decisiones redujo el sesgo de automatización. [5]
Disponibilidad
"La disponibilidad de ayudas para la toma de decisiones automatizadas", afirma un estudio de Linda Skitka , "a veces puede alimentar la tendencia humana general a recorrer el camino del menor esfuerzo cognitivo". [5]
Conciencia del proceso
Un estudio también encontró que cuando los usuarios conocen el proceso de razonamiento empleado por un sistema de soporte de decisiones, es probable que ajusten su dependencia en consecuencia, reduciendo así el sesgo de automatización. [13]
Equipo vs individual
El desempeño de los trabajos por parte de las cuadrillas en lugar de los individuos que actúan solos no necesariamente elimina el sesgo de automatización. [16] [11] Un estudio ha demostrado que cuando los dispositivos automatizados no detectaban las irregularidades del sistema, los equipos no tenían más éxito que los artistas solistas en responder a esas irregularidades. [5]
Capacitación
La formación que se centra en el sesgo de automatización en la aviación ha logrado reducir los errores de omisión de los estudiantes pilotos. [16] [11]
Fallo de automatización y "descuido aprendido"
Se ha demostrado que la falla de la automatización va seguida de una caída en la confianza del operador, que a su vez es seguida por una lenta recuperación de la confianza. La disminución de la confianza después de una falla de automatización inicial se ha descrito como el efecto de la primera falla. [12] Del mismo modo, si las ayudas automatizadas demuestran ser muy fiables a lo largo del tiempo, es probable que el resultado sea un mayor nivel de sesgo de automatización. A esto se le llama "descuido aprendido". [12]
Suministro de información de confianza del sistema
En los casos en que se proporciona información de confianza del sistema a los usuarios, esa información en sí misma puede convertirse en un factor de sesgo de automatización. [12]
Presiones externas
Los estudios han demostrado que cuantas más presiones externas se ejercen sobre la capacidad cognitiva de un individuo, más puede depender del apoyo externo. [13]
Problemas de definición
Aunque el sesgo de automatización ha sido objeto de muchos estudios, siguen existiendo quejas de que el sesgo de automatización sigue estando mal definido y que la notificación de incidentes que involucran sesgo de automatización no es sistemática. [13] [8]
Una revisión de varios estudios de sesgo de automatización categorizó los diferentes tipos de tareas en las que se utilizaron las ayudas automatizadas, así como la función que cumplían las ayudas automatizadas. Las tareas en las que se utilizaron ayudas automatizadas se clasificaron como tareas de supervisión, tareas de diagnóstico o tareas de tratamiento. Los tipos de asistencia automatizada se enumeraron como Automatización de alertas, que rastrea cambios importantes y alertan al usuario, Automatización de soporte de decisiones, que puede proporcionar un diagnóstico o recomendación, o Automatización de implementación, donde la ayuda automatizada realiza una tarea específica. [8]
Complacencia inducida por la automatización
El concepto de sesgo de automatización se considera que se superpone con la complacencia inducida por la automatización, también conocida más simplemente como complacencia de la automatización. Al igual que el sesgo de automatización, es una consecuencia del mal uso de la automatización e implica problemas de atención. Si bien el sesgo de automatización implica una tendencia a confiar en los sistemas de apoyo a la toma de decisiones, la complacencia de la automatización implica una atención y un seguimiento insuficientes de la salida de automatización, normalmente porque esa salida se considera fiable. [13] "Aunque los conceptos de complacencia y sesgo de automatización se han discutido por separado como si fueran independientes", escribe un experto, "comparten varios puntos en común, lo que sugiere que reflejan diferentes aspectos del mismo tipo de mal uso de la automatización". De hecho, se ha propuesto que los conceptos de complacencia y sesgo de automatización se combinen en un solo "concepto integrador" porque estos dos conceptos "pueden representar diferentes manifestaciones de fenómenos superpuestos inducidos por la automatización" y porque "complacencia inducida por la automatización y sesgo de automatización representan conceptos teóricos estrechamente vinculados que muestran una superposición considerable con respecto a los procesos subyacentes ". [12]
La complacencia de la automatización se ha definido como "una detección más pobre de fallas en el sistema bajo automatización en comparación con bajo control manual". El Sistema de Informes de Seguridad de la Aviación de la NASA (ASRS) define la complacencia como "autosatisfacción que puede resultar en una falta de vigilancia basada en una suposición injustificada de un estado satisfactorio del sistema". Varios estudios han indicado que ocurre con mayor frecuencia cuando los operadores realizan tareas manuales y automatizadas al mismo tiempo. A su vez, las percepciones de los operadores sobre la confiabilidad del sistema automatizado pueden influir en la forma en que el operador interactúa con el sistema. Endsley (2017) describe cómo la alta confiabilidad del sistema puede llevar a los usuarios a desconectarse de los sistemas de monitoreo, aumentando así los errores de monitoreo, disminuyendo la conciencia de la situación e interfiriendo con la capacidad de un operador para volver a asumir el control del sistema en caso de que se hayan excedido las limitaciones de rendimiento. [17] Esta complacencia puede reducirse drásticamente cuando la confiabilidad de la automatización varía con el tiempo en lugar de permanecer constante, pero no se reduce con la experiencia y la práctica. Tanto los participantes expertos como los inexpertos pueden exhibir sesgos de automatización y complacencia en la automatización. Ninguno de estos problemas puede superarse fácilmente mediante la formación. [12]
El término "autocomplacencia de la automatización" se utilizó por primera vez en relación con los accidentes o incidentes de aviación en los que los pilotos , los controladores de tráfico aéreo u otros trabajadores no controlaban los sistemas lo suficiente, asumiendo que todo estaba bien cuando, en realidad, estaba a punto de ocurrir un accidente. . La complacencia del operador, esté o no relacionada con la automatización, ha sido reconocida durante mucho tiempo como un factor principal en los accidentes aéreos. [12]
Como tal, las percepciones de confiabilidad, en general, pueden resultar en una forma de ironía de la automatización, en la que una mayor automatización puede disminuir la carga de trabajo cognitiva pero aumentar la oportunidad de monitorear errores. Por el contrario, una baja automatización puede aumentar la carga de trabajo pero disminuir la oportunidad de monitorear errores. [18] Tomemos, por ejemplo, un piloto que vuela en condiciones climáticas adversas, en el que los truenos continuos interfieren con la capacidad del piloto para comprender la información transmitida por un controlador de tránsito aéreo (ATC). A pesar de cuánto esfuerzo se dedica a comprender la información transmitida por el ATC, el desempeño del piloto está limitado por la fuente de información necesaria para la tarea. Por lo tanto, el piloto tiene que depender de medidores automáticos en la cabina del piloto para comprender la información de la trayectoria de vuelo. Si el piloto percibe que los medidores automáticos son altamente confiables, la cantidad de esfuerzo necesario para comprender el ATC y los medidores automáticos puede disminuir. Además, si se percibe que los medidores automáticos son altamente confiables, el piloto puede ignorar esos medidores para dedicar recursos mentales a descifrar la información transmitida por ATC. Al hacerlo, el piloto se convierte en un monitor complaciente, por lo que corre el riesgo de perder información crítica transmitida por los medidores automáticos. Sin embargo, si el piloto percibe que los medidores automáticos no son confiables, el piloto ahora tendrá que interpretar la información del ATC y los medidores automatizados simultáneamente. Esto crea escenarios en los que el operador puede estar gastando recursos cognitivos innecesarios cuando la automatización es de hecho confiable, pero también aumenta las probabilidades de identificar errores potenciales en los indicadores meteorológicos en caso de que ocurran. Para calibrar la percepción de confiabilidad del piloto, la automatización debe diseñarse para mantener la carga de trabajo en los niveles apropiados y, al mismo tiempo, garantizar que el operador permanezca comprometido con las tareas de monitoreo. Es menos probable que el operador se desconecte del monitoreo cuando la confiabilidad del sistema puede cambiar en comparación con un sistema que tiene una confiabilidad constante (Parasuraman, 1993). [19]
Hasta cierto punto, la complacencia del usuario compensa los beneficios de la automatización, y cuando el nivel de confiabilidad de un sistema automatizado cae por debajo de cierto nivel, la automatización ya no será un activo neto. Un estudio de 2007 sugirió que esta automatización ocurre cuando el nivel de confiabilidad alcanza aproximadamente el 70%. Otros estudios han encontrado que la automatización con un nivel de confiabilidad por debajo del 70% puede ser útil para las personas con acceso a las fuentes de información sin procesar, que se pueden combinar con la salida de automatización para mejorar el desempeño. [12]
Sectores
El sesgo de automatización se ha examinado en muchos campos de investigación. [13] Puede ser una preocupación particularmente importante en la aviación, la medicina , el control de procesos y las operaciones militares de mando y control . [12]
Aviación
Al principio, la discusión sobre el sesgo de automatización se centró principalmente en la aviación. Las ayudas automatizadas han desempeñado un papel cada vez más importante en las cabinas, asumiendo un papel cada vez mayor en el control de tareas de vuelo tales como determinar las rutas más eficientes en combustible, navegar y detectar y diagnosticar fallas en el sistema. Sin embargo, el uso de estas ayudas puede llevar a que los seres humanos busquen y procesen la información menos atentos y atentos. En algunos casos, los seres humanos pueden confiar más en la información errónea proporcionada por las computadoras de vuelo que en sus propias habilidades. [7]
Un factor importante en el sesgo de automatización relacionado con la aviación es el grado en que los pilotos se perciben a sí mismos como responsables de las tareas que realizan las ayudas automatizadas. Un estudio de pilotos mostró que la presencia de un segundo miembro de la tripulación en la cabina no afectó el sesgo de automatización. Un estudio de 1994 comparó el impacto de los niveles altos y bajos de automatización (LOA) en el rendimiento del piloto y concluyó que los pilotos que trabajaban con un LOA alto dedicaban menos tiempo a reflexionar de forma independiente sobre las decisiones de vuelo. [12]
En otro estudio, todos los pilotos que recibieron falsas alertas automáticas que les indicaban que apagaran un motor lo hicieron, a pesar de que esos mismos pilotos insistieron en una entrevista en que no responderían a dicha alerta apagando un motor y que, en su lugar, lo harían. han reducido la potencia a inactivo. Un estudio de 1998 encontró que los pilotos con aproximadamente 440 horas de experiencia de vuelo detectaron más fallas de automatización que los no pilotos, aunque ambos grupos mostraron efectos de complacencia. Un estudio de 2001 de pilotos que usaban un sistema de automatización de cabina, el sistema de indicación de motor y alerta de tripulación (EICAS), mostró evidencia de complacencia. Los pilotos detectaron menos fallas en el motor cuando usaban el sistema que cuando realizaban la tarea manualmente. [12]
En un estudio de 2005, controladores de tráfico aéreo experimentados utilizaron una simulación de alta fidelidad de un escenario ATC (vuelo libre) que implicaba la detección de conflictos entre aeronaves "auto-separables". Tenían acceso a un dispositivo automatizado que identificaba posibles conflictos con varios minutos de anticipación. Cuando el dispositivo falló cerca del final del proceso de simulación, muchos menos controladores detectaron el conflicto que cuando la situación se manejó manualmente. Otros estudios han producido hallazgos similares. [12]
Dos estudios de sesgo de automatización en la aviación descubrieron una mayor tasa de errores de comisión que de omisión, mientras que otro estudio de aviación encontró tasas de omisión del 55% y tasas de comisión del 0%. [13] Los errores de omisión relacionados con la automatización son especialmente comunes durante la fase de crucero. Cuando un vuelo de China Airlines perdió potencia en un motor, el piloto automático intentó corregir este problema bajando el ala izquierda, una acción que ocultó el problema a la tripulación. Cuando se desactivó el piloto automático, el avión giró hacia la derecha y descendió abruptamente, causando grandes daños. El derribo en 1983 de un 747 de Korean Airlines sobre el espacio aéreo soviético ocurrió porque la tripulación coreana "confiaba en la automatización que había sido configurada de manera inapropiada, y nunca verificaron su progreso manualmente". [7]
Cuidado de la salud
Los sistemas de apoyo a las decisiones clínicas (CDSS) están diseñados para ayudar en la toma de decisiones clínicas. Tienen el potencial de lograr una gran mejora en este sentido y dar como resultado mejores resultados para los pacientes. Sin embargo, si bien los CDSS, cuando se utilizan correctamente, producen una mejora general en el rendimiento, también provocan errores que pueden no ser reconocidos debido al sesgo de automatización. Un peligro es que los consejos incorrectos dados por estos sistemas pueden hacer que los usuarios cambien una decisión correcta que hayan tomado por sí mismos. Dada la naturaleza sumamente grave de algunas de las posibles consecuencias de la BA en el campo de la atención de la salud, es especialmente importante ser consciente de este problema cuando se presenta en entornos clínicos. [13]
A veces, el sesgo de automatización en entornos clínicos es un problema importante que hace que el CDSS, en general, sea contraproducente; a veces es un problema menor, y los beneficios superan el daño causado. Un estudio encontró más sesgo de automatización entre los usuarios mayores, pero se observó que podría deberse no a la edad sino a la experiencia. Los estudios sugieren, de hecho, que la familiaridad con CDSS a menudo conduce a efectos de desensibilización y habituación. Aunque el sesgo de automatización ocurre con más frecuencia entre personas sin experiencia en una tarea determinada, los usuarios sin experiencia exhiben la mayor mejora en el rendimiento cuando utilizan CDSS. En un estudio, el uso de CDSS mejoró las respuestas de los médicos en un 21%, del 29% al 50%, y el 7% de las respuestas correctas que no pertenecen al CDSS se cambiaron incorrectamente. [13]
Un estudio de 2005 encontró que cuando los médicos de atención primaria utilizaron fuentes electrónicas como PubMed , Medline y Google , hubo un aumento "pequeño a mediano" en las respuestas correctas, mientras que en un porcentaje igualmente pequeño de casos los médicos fueron engañados por su uso. de esas fuentes, y cambiaron las respuestas correctas a incorrectas. [12]
Los estudios de 2004 y 2008 que involucraron el efecto de ayudas automatizadas en el diagnóstico de cáncer de mama encontraron evidencia clara de sesgo de automatización que involucra errores de omisión. Los cánceres diagnosticados en el 46% de los casos sin ayudas automatizadas se descubrieron en solo el 21% de los casos con ayudas automatizadas que no lograron identificar el cáncer. [12]
Militar
El sesgo de automatización puede ser un factor crucial en el uso de sistemas inteligentes de apoyo a la toma de decisiones para operaciones militares de comando y control. Un estudio de 2004 encontró que los efectos del sesgo de automatización han contribuido a una serie de decisiones militares fatales, incluidos asesinatos con fuego amigo durante la guerra de Irak . Los investigadores han tratado de determinar la LOA adecuada para los sistemas de apoyo a la toma de decisiones en este campo. [12]
Automotor
La complacencia de la automatización también es un desafío para los sistemas de conducción automatizada en los que el ser humano solo tiene que monitorear el sistema o actuar como un conductor alternativo. Esto se discute, por ejemplo, en el informe de la Junta Nacional de Seguridad en el Transporte sobre el accidente fatal entre un vehículo de prueba UBER y la peatón Elaine Herzberg . [20]
Corrección de sesgo
El sesgo de automatización se puede mitigar mediante el diseño de sistemas automatizados, como la reducción de la prominencia de la pantalla, la disminución de los detalles o la complejidad de la información mostrada o la presentación de la asistencia automatizada como información de apoyo en lugar de como directivas o comandos. [13] Se ha demostrado que la capacitación en un sistema automatizado, que incluye la introducción de errores deliberados, es significativamente más eficaz para reducir el sesgo de automatización que simplemente informar a los usuarios que pueden ocurrir errores. [21] Sin embargo, la excesiva comprobación y cuestionamiento de la asistencia automatizada puede aumentar las presiones de tiempo y la complejidad de las tareas, reduciendo así los beneficios de la asistencia automatizada, por lo que el diseño de un sistema automatizado de apoyo a las decisiones puede equilibrar los efectos positivos y negativos en lugar de intentar eliminar los efectos negativos. [14]
Ver también
- Sesgo algorítmico
- Lista de sesgos cognitivos
- Automatización
Referencias
- ^ Cummings, Mary (2004). "Sesgo de automatización en sistemas inteligentes de soporte de decisiones en tiempos críticos" (PDF) . I Jornada Técnica de Sistemas Inteligentes AIAA (PDF) . doi : 10.2514 / 6.2004-6313 . ISBN 978-1-62410-080-2. Archivado desde el original el 1 de noviembre de 2014.CS1 maint: bot: estado de URL original desconocido ( enlace )
- ^ Bruner, JS y Tagiuri, R. 1954. "La percepción de las personas". En G. Lindzey (Ed.), Manual de psicología social (vol 2) : 634-654. Reading, MA: Addison-Wesley.
- ^ Madhavan, P .; Wiegmann, DA (1 de julio de 2007). "Similitudes y diferencias entre la confianza humano-humano y humano-automatización: una revisión integradora". Cuestiones teóricas en ciencia de la ergonomía . 8 (4): 277-301. doi : 10.1080 / 14639220500337708 . S2CID 39064140 .
- ^ Dzindolet, Mary T .; Peterson, Scott A .; Pomranky, Regina A .; Pierce, Linda G .; Beck, Hall P. (2003). "El papel de la confianza en la dependencia de la automatización". Revista Internacional de Estudios Humano-Informáticos . 58 (6): 697–718. doi : 10.1016 / S1071-5819 (03) 00038-7 .
- ^ a b c d e f g Skitka, Linda. "Automatización" . Universidad de Illinois . Universidad de Illinois en Chicago . Consultado el 16 de enero de 2017 .
- ^ a b c Parasuraman, Raja; Riley, Víctor (1997). "Seres humanos y automatización: uso, mal uso, desuso, abuso". Factores humanos: The Journal of the Human Factors and Ergonomics Society . 39 (2): 230–253. doi : 10.1518 / 001872097778543886 .
- ^ a b c d Mosier, Kathleen; Skitka, Linda; Heers, Susan; Burdick, Mark (1997). "Sesgo de automatización: toma de decisiones y rendimiento en cabinas de alta tecnología" . Revista Internacional de Psicología de la Aviación . 8 (1): 47–63. doi : 10.1207 / s15327108ijap0801_3 . PMID 11540946 .
- ^ a b c d Lyell, David; Coiera, Enrico (agosto de 2016). "Sesgo de automatización y complejidad de la verificación: una revisión sistemática" . Revista de la Asociación Estadounidense de Informática Médica . 24 (2): 424–431. doi : 10.1093 / jamia / ocw105 . PMID 27516495 .
- ^ Tversky, A .; Kahneman, D. (1974). "Juicio bajo incertidumbre: heurística y sesgos". Ciencia . 185 (4157): 1124-1131. Código bibliográfico : 1974Sci ... 185.1124T . doi : 10.1126 / science.185.4157.1124 . PMID 17835457 .
- ^ a b Wickens, Christopher D .; Hollands, Justin G .; Banbury, Simon; Parasuraman, Raja (2015). Psicología de la ingeniería y desempeño humano (4ª ed.). Prensa de psicología. ISBN 9781317351320.
- ^ a b c Mosier, Kathleen L .; Dunbar, Melisa; McDonnell, Lori; Skitka, Linda J .; Burdick, Mark; Rosenblatt, Bonnie (1998). "Sesgo de automatización y errores: ¿son los equipos mejores que los individuos?". Actas de la Reunión Anual de la Sociedad de Factores Humanos y Ergonomía . 42 (3): 201–205. doi : 10.1177 / 154193129804200304 .
- ^ a b c d e f g h i j k l m n o p Parasuraman, Raja; Manzey, Dietrich (junio de 2010). "Complacencia y sesgo en el uso humano de la automatización: una integración atencional" . La Revista de la Sociedad de Factores Humanos y Ergonomía . 52 (3): 381–410. doi : 10.1177 / 0018720810376055 . PMID 21077562 . Consultado el 17 de enero de 2017 .
- ^ a b c d e f g h yo j k l m Goddard, K .; Roudsari, A .; Wyatt, JC (2012). "Sesgo de automatización: una revisión sistemática de frecuencia, mediadores de efecto y mitigadores" . Revista de la Asociación Estadounidense de Informática Médica . 19 (1): 121-127. doi : 10.1136 / amiajnl-2011-000089 . PMC 3240751 . PMID 21685142 .
- ^ a b Alberdi, Eugenio; Strigini, Lorenzo; Povyakalo, Andrey A .; Ayton, Peter (2009). "¿Por qué las decisiones de las personas a veces son peores con el soporte informático?" (PDF) . Seguridad informática, confiabilidad y seguridad . Apuntes de conferencias en Ciencias de la Computación. 5775 . Springer Berlín Heidelberg. págs. 18–31. doi : 10.1007 / 978-3-642-04468-7_3 . ISBN 978-3-642-04467-0.
- ^ Goddard, Kate; Roudsari, Abdul; Wyatt, Jeremy C. (2014). "Sesgo de automatización: resultados empíricos que evalúan factores de influencia". Revista Internacional de Informática Médica . 83 (5): 368–375. doi : 10.1016 / j.ijmedinf.2014.01.001 . PMID 24581700 .
- ^ a b Mosier, Kathleen; Skitka, Linda; Dunbar, Melisa; McDonnell, Lori (13 de noviembre de 2009). "Tripulaciones aéreas y sesgo de automatización: ¿las ventajas del trabajo en equipo?". La Revista Internacional de Psicología de la Aviación . 11 (1): 1–14. doi : 10.1207 / S15327108IJAP1101_1 . S2CID 4132245 .
- ^ Endsley, Mica (2017). "De aquí a las lecciones de autonomía aprendidas de la investigación sobre automatización humana". Factores humanos . 59 (1): 5-27. doi : 10.1177 / 0018720816681350 . PMID 28146676 .
- ^ Bainbridge, Lisanne (1983). "Ironías de la automatización" (PDF) . Automatica . 19 (6): 775–779. doi : 10.1016 / 0005-1098 (83) 90046-8 .
- ^ Parasuraman, Raja; Molloy, Robert; Singh, Indramani L. (1993). "Consecuencias de rendimiento de la 'complacencia ' inducida por la automatización ". La Revista Internacional de Psicología de la Aviación . 3 : 1–23. doi : 10.1207 / s15327108ijap0301_1 .
- ^ "Colisión entre el vehículo controlado por el sistema de conducción automatizado de desarrollo y el peatón" . www.ntsb.gov . Consultado el 19 de diciembre de 2019 .
- ^ Bahner, J. Elin; Hüper, Anke-Dorothea; Manzey, Dietrich (2008). "Mal uso de ayudas a la toma de decisiones automatizadas: Complacencia, sesgo de automatización y el impacto de la experiencia de formación". Revista Internacional de Estudios Humano-Informáticos . 66 (9): 688–699. doi : 10.1016 / j.ijhcs.2008.06.001 .
Otras lecturas
- Goddard, K; Roudsari, A; Wyatt, JC (2011). "Sesgo de automatización: un problema oculto para el uso del sistema de apoyo a la decisión clínica" . Perspectivas internacionales en informática de la salud . Estudios en Tecnología e Informática de la Salud. 164 . págs. 17-22. ISBN 978-1-60750-708-6. PMID 21335682 .
enlaces externos
- 175 razones por las que no piensa con claridad