Seguridad de pacientes. Estado de la ciencia: evolución de las perspectivas sobre el ‘error humano’

Gemma JM Leer

Este es un interesante artículo, que repasa las teorías actuales basadas en Safety II, recordando que es complementaria con Safety I, Porque respectivamente analiza lo que se hace bien y la otra la causa del error. Este desarrollo condujo a un cambio de denominación pasando del pensamiento Safety-I (es decir, centrarse en la prevención de accidentes e incidentes) a Safety-II (comprensión del funcionamiento diario y cómo las cosas suelen «salir bien»). Si bien se ha enfatizado que estos puntos de vista son complementarios en lugar de expresar conceptos opuestos, Safety-II aboga por un enfoque mucho más fuerte en la variabilidad del desempeño normal dentro de un sistema, especialmente en los niveles más altos (por ejemplo, gobierno, reguladores) que tradicionalmente adoptan un punto de vista de Safety-I ( Hollnagel et al., 2013 ). Es una evolución normal de la seguridad de pacientes.

Pasar del error humano a la perspectiva de los sistemas cambiaría fundamentalmente la forma en que vemos y medimos constructos como la conciencia de la situación (ver Stanton et al. 2017 ), la carga de trabajo (Salmon et al. 2017 ) y el trabajo en equipo.

1. Introducción

Muchos de nosotros, en particular los que trabajamos en industrias críticas para la seguridad, recibimos una educación fundamenta en modelos de errores humanos (p. ej., Rasmussen 1982 ; Reason 1990 , 1997 ) y métodos de análisis (p. ej., Kirwan 1992a , 1992b ). La simplicidad del término ‘error humano’ puede ser una bendición, pero es insuficiente. Es probable que hayamos explicado nuestro papel a quienes están fuera de la disciplina utilizando este término. De hecho, la familiaridad con el error humano dentro del lenguaje cotidiano puede haber facilitado la aceptación de la importancia de la ergonomía y los factores humanos (EHF)1 Sin embargo, su simplicidad también puede ser una preocupación (Shorrock 2013 ), con consecuencias no deseadas para la seguridad y la justicia, y para la disciplina EHF en general.

Actualmente, factores humanos se encuentran dentro de un cambio que está modificando la naturaleza de muchos conceptos antiguos, introduciendo sutilezas que son menos fáciles o simples de explicar a los usuarios de los servicios de EHF, los medios, el sistema de justicia y el público. El movimiento de la ‘vieja visión’ a la ‘nueva visión’ del error humano propuesto por Dekker ( 2006 ) y de Seguridad-I a Seguridad-II (Hollnagel et al. 2013 ; Hollnagel 2014 ) considera muchos de estos desafíos e introduce conceptos más nuevos a la gestión de la seguridad. Ya sea que se considere un cambio de paradigma (por ejemplo, Provan et al. 2020 ) o más una evolución en el pensamiento, el discurso reciente ha cuestionado la utilidad práctica de los métodos y teorías del error humano (Salmon et al. 2017 ).). Apuntalar esto es un cambio fundamental en el enfoque en EHF de analizar las interacciones humano-tecnología a una forma de pensamiento más amplia y holística que reconoce varios aspectos de la ciencia de la complejidad (Dekker 2011b ; Salmon et al. 2017 ; Walker et al. 2010 ).

Junto a esto está el reconocimiento de que la actividad ocurre dentro de los sistemas sociotécnicos, que comprenden componentes humanos y técnicos que trabajan juntos para lograr un objetivo común. En sistemas sociotécnicos complejos, los resultados (por ejemplo, comportamientos, accidentes, éxitos) surgen de las interacciones entre múltiples componentes del sistema (es decir, humanos y tecnologías). Estas interacciones son dinámicas, no lineales (es decir, la fuerza de una causa no es equivalente a su efecto) y no deterministas (es decir, inciertas y difíciles de predecir). Las personas actúan localmente, sin conocimiento del sistema como un todo; por lo tanto, existen diferentes perspectivas y cosmovisiones. Es importante destacar que los sistemas sociotécnicos complejos generalmente están abiertos a su entorno y deben responder y adaptarse a los cambios ambientales. Estos aspectos diferencian los sistemas complejos de los sistemas meramente complicados, dentro del cual las relaciones entre los componentes se pueden analizar con mayor certeza. Muchos artefactos de ingeniería tradicionales pueden conceptualizarse como sistemas complicados, como un avión jumbo o un automóvil. Estos sistemas se pueden reducir a sus partes, analizar y luego volver a ensamblar en su totalidad. Sin embargo, una vez que un elemento social (es decir, la interacción humana) se convierte en parte de los límites del sistema, el sistema se vuelve complejo (Cilliers1998 ; Dekker, Cilliers y Hofmeyr 2011 ). Los sistemas complejos son indivisibles, y por tanto el sistema debe ser la unidad de análisis (Ottino 2003 ). Ackoff ( 1973 )) describió cómo debemos alejarnos de las visiones del mundo de la ‘era de las máquinas’ que asumen que los sistemas son complicados y, por lo tanto, pueden ser tratados de manera reduccionista (es decir, divididos en partes constituyentes, analizados y re ensamblados en un todo). El reverso de esto es el pensamiento sistémico: una forma de pensar el mundo en sistemas, enfatizando las interacciones y relaciones, múltiples perspectivas y patrones de causa y efecto. Aquí, el sistema es la unidad de análisis y el comportamiento de los componentes solo debe considerarse dentro del contexto del todo. Una implicación clave del pensamiento sistémico es que los accidentes no se pueden atribuir al comportamiento de un componente individual (es decir, un error humano), sino que debemos examinar cómo fallaron las interacciones entre los componentes; es decir, cómo falló el propio sistema. Vale la pena señalar aquí, al usar el término ‘fallo del sistema’, se reconoce que los sistemas en sí solo funcionan; los resultados se definen como éxitos o fracasos desde la perspectiva de las partes interesadas humanas (es decir, si se cumplen o no los propósitos de las partes interesadas y las expectativas del sistema).

Ha habido muchos trabajos influyentes que describen este caso para el cambio (por ejemplo, Rasmussen 1997 ; Leveson 2004 ; Dekker 2002 ; Hollnagel 2014 ). Si bien estos debates comenzaron hace más de treinta años (Senders y Moray 1991 ), siguen sin resolverse. Si bien las perspectivas de pensamiento sistémico están experimentando un resurgimiento en EHF (Salmon et al. 2017 ), esta perspectiva aún debe fluir hacia los medios o los sistemas de justicia (p. ej., Gantt y Shorrock 2017 ). Esto crea una situación difícil en la que los mensajes ambiguos de la comunidad EHF sobre la validez y utilidad del error humano son potencialmente perjudiciales para la disciplina (Shorrock 2013 ).). Por lo tanto, esta revisión del estado de la ciencia es oportuna.

 Este documento tiene como objetivo resumir la historia y el estado actual de la investigación del error humano, evaluar críticamente el papel del error humano en la investigación y la práctica modernas de EHF, resumir los argumentos para un cambio a los enfoques de pensamiento sistémico y proporcionar recomendaciones para que los investigadores y profesionales de EHF tomen la disciplina adelante.

1.1. Consecuencias del ‘error humano’

Se sigue citando el error humano como la causa de la mayoría de los accidentes (Woods et al. 2010 ). Surgiendo en la década de 1970 como un foco de investigación de accidentes después de desastres como Three Mile Island y Tenerife, las explicaciones de errores humanos llegaron a complementar el enfoque anterior dirigido por la ingeniería en las fallas técnicas y de equipos en las investigaciones (Reason 2008 ). En la actualidad, se afirma comúnmente en los dominios críticos para la seguridad que las fallas humanas causan la mayoría de los accidentes (en el rango de 50 a 90 % según el dominio; p. ej., Baybutt 2002 ; Guo y Sun 2020 ; Shappell y Wiegmann 1996 ). La Agencia Nacional de Seguridad del Transporte por Carretera de los Estados Unidos (NHTSA 2018 )) asigna el 94 % de los accidentes de tránsito al conductor, lo que se interpreta como que «el 94 % de los accidentes graves son causados ​​por errores humanos» (por ejemplo, Rushe 2019 ). En la aviación, el error humano está implicado en la mayoría de las ‘siete causas significativas’ de accidentes de la Autoridad de Aviación Civil (CAA) del Reino Unido (CAA 2011 ), y se ha estimado que el error médico es la tercera causa principal de muerte en los EE. UU. (Makary y Daniel 2016). No sorprende que cifras como estas se utilicen para justificar el reemplazo de humanos por automatización, o la introducción de controles de comportamiento más estrictos (es decir, reglas o procedimientos) con castigo para disuadir el incumplimiento. Sin embargo, a pesar de (ya veces debido a) los controles de seguridad como la automatización, los controles de comportamiento y los castigos, aún ocurren accidentes. De hecho, hemos llegado a un punto en muchos dominios donde la disminución de las tasas de accidentes en los países más desarrollados se ha estancado, por ejemplo, en aviación (Weigmann y Shappell 2003) , carreteras (Departamento de Transporte 2017; NHTSA 2019) y ferrocarril (Walker y Strathie 2016). La visión tradicional del error humano nos ha llevado tan lejos y, al hacerlo, ha expuesto cada vez más la naturaleza sistémica de los errores ‘sobrantes’ junto con las limitaciones de los modelos y métodos existentes (Leveson 2011 ; Salmon et al. 2017 ).

1.2. Orígenes y uso del término

La tendencia humana a atribuir causalidad a las acciones de otro ser humano parece ser parte de nuestra naturaleza (Reason 1990 ). Sin embargo, los esfuerzos por traducir esta atribución común en una construcción científica han resultado difíciles. Para brindar contexto al uso moderno del concepto de error, comenzamos explorando su historia en lenguaje común y su desarrollo temprano como una construcción científica.

El término ‘error’ tiene una larga historia. El latín errorem , del que deriva error, significaba ‘un extraviarse, extraviarse, extraviarse; serpenteante; duda, incertidumbre’; también ‘un extravío figurativo, error’. 2 Alrededor de 1300, el error del inglés medio significaba , entre otras cosas, ‘desviación de la verdad, sabiduría, buen juicio, buena práctica o precisión hecha por ignorancia o inadvertencia; algo imprudente, incorrecto o equivocado’ o una ‘ofensiva contra la moral o la justicia; transgresión, maldad, pecado’ (Kurath 1953/1989 ) . El término ‘accidente’ se deriva del latín cadere , que significa ‘caer’ 3que tiene similitudes con el significado de errorem en que ambos implican un movimiento desde algún ‘camino correcto’ objetivo. Esto requiere que se haga un juicio sobre cuál es el ‘camino correcto’ y la naturaleza de cualquier transgresión de él. Por lo tanto, el juicio es clave. Esta es ‘la capacidad de tomar decisiones meditadas o llegar a conclusiones sensatas’ o ‘una desgracia o calamidad vista como un castigo divino’. 4 Juicio es el sustantivo mientras que ‘ser juzgado’ es el verbo, y aquí radica la etimología de la relación del error humano con la ‘culpa’: la culpa connota ‘responsabilidad’, ‘condena’ o incluso ‘condenación’. La responsabilidad individual es fundamental para el derecho penal occidental (Horlick-Jones 1996) y las relaciones superpuestas entre error, accidente, juicio y culpa aparecen regularmente en los juicios jurídicos y en el discurso popular. Algo a lo que Horlick-Jones se refiere como un enfoque ‘culpista’.

Después de la Segunda Guerra Mundial, el lenguaje y las metáforas de nuevos campos de investigación como la cibernética y la computación encontraron expresión en nuevos conceptos de error humano en el campo emergente de la psicología cognitiva. Los modelos de procesamiento de información, como el modelo de atención por etapas de Broadbent ( 1958 ), hicieron explícita la idea de que diferentes unidades cognitivas de procesamiento de información realizan diferentes funciones que permiten a los humanos procesar información del entorno y actuar sobre esta información. Uno de los primeros enfoques del error humano basado en el procesamiento de información fue el de Payne y Altman ( 1962 ).) taxonomía. Esto clasificó los errores asociados con la sensación o la percepción como «errores de entrada«, los errores asociados con el procesamiento de la información como «errores de mediación» y los errores asociados con las respuestas físicas como «errores de salida». No todos los errores, por tanto, eran iguales.

Más recientemente, ha surgido la ingeniería de resiliencia para considerar la capacidad intrínseca de un sistema para ajustar su funcionamiento antes, durante o después de cambios y perturbaciones, de modo que pueda sostener las operaciones requeridas en condiciones esperadas e inesperadas” (Hollnagel 2014). 

Este desarrollo condujo a un cambio de marca del pensamiento Safety-I (es decir, centrarse en la prevención de accidentes e incidentes) a Safety-II (comprensión del funcionamiento diario y cómo las cosas suelen «salir bien»). Si bien se ha enfatizado que estos puntos de vista son complementarios en lugar de conflictivos, Safety-II aboga por un enfoque mucho más fuerte en la variabilidad del desempeño normal dentro de un sistema, especialmente en los niveles más altos (por ejemplo, gobierno, reguladores) que tradicionalmente adoptan un punto de vista de Safety-I ( Hollnagel et al., 2013 ).

A partir de la etimología de la palabra error, la creciente referencia al error humano en la literatura científica y los orígenes de diferentes bases teóricas, es claro que el error humano -como concepto- es central en la disciplina, aunque no completamente resuelto. Los orígenes del concepto en EHF se basaron rápidamente en el hecho de que el error humano es muy a menudo un «error inducido por el diseño», y desde entonces ha habido tensión entre eso y una visión más mecanicista y coloquial del error y la «inculpación». Esta tensión impregna el estado actual de la ciencia. A continuación, consideramos cómo se ve el error humano desde diferentes perspectivas de una manera más general, incluso por parte de quienes están fuera de la disciplina EHF. Proponemos un amplio conjunto de perspectivas sobre el error humano y su papel en la seguridad y la causalidad de accidentes (reconociendo que la seguridad no es el único contexto relevante para las discusiones sobre el error humano). Luego, exploramos cómo se ha definido, modelado y analizado el «error humano» mediante la aplicación de métodos EHF.

2. Perspectivas, modelos y métodos para comprender el error humano

2.1. Perspectivas sobre la seguridad y el error humano

En esta sección, proponemos cuatro perspectivas para sintetizar nuestra comprensión del error humano: la perspectiva mecanicista, la perspectiva individual, la perspectiva interaccionista y la perspectiva de sistemas. Los aspectos clave de cada perspectiva se resumen en la Tabla 1 .

Tabla 1. Perspectivas sobre la gestión de la seguridad y la causalidad de accidentes.

PerspectivaConceptualización típica del comportamiento humano en el sistemaUnidad típica de análisisError como causaSeguridad-I o Seguridad-II
Perspectiva mecanicistaComplicadoMicro – el humanoCon frecuenciaSeguridad-I
Perspectiva individualComplicadoMicro – el humanoCon frecuenciaSeguridad-I
Perspectiva interaccionistaComplicadoMeso: el contexto humano y más amplio, a veces la organización.Con frecuenciaSeguridad-I
Perspectiva de sistemasComplejoMacro – el sistema como unidad de análisisSeguridad-I o -II

Las perspectivas representan de alguna manera la evolución de las prácticas de gestión de la seguridad a lo largo del tiempo. Si bien el concepto de error humano y culpa ha prevalecido en la sociedad a lo largo de la historia, los enfoques formales de seguridad, como la investigación de accidentes, comenzaron desde una perspectiva de ingeniería (Reason 2008 ), seguidos por la introducción de la psicología y EHF, y luego la adopción de la teoría de sistemas y ciencia de la complejidad dentro de EHF. También podría verse que las perspectivas encajan a lo largo de un continuo entre la ‘vieja visión’ y la ‘nueva visión’ del error humano de Dekker ( 2006 ), con las perspectivas mecanicista e individual que representan la antigua visión, la visión interaccionista que tiende hacia la nueva visión, y la perspectiva de sistemas que representan la nueva visión.

2.1.1. La perspectiva mecanicista

La perspectiva mecanicista se centra en la tecnología y ve el comportamiento humano de manera determinista. Respaldada por los principios de ingeniería y la ciencia newtoniana, esta perspectiva sugiere que el comportamiento humano se puede predecir con cierta certeza y que se puede calcular la confiabilidad de la falla humana. Una visión reduccionista, la perspectiva mecanicista toma una visión micro y se alinea con el pensamiento de Seguridad-I en relación con la prevención de fallas. Tiende a ver el error como una causa de accidentes.

2.1.2. La perspectiva individual

Esta perspectiva puede conceptualizarse como abordando las ‘malas aplicaciones’ (Dekker 2006 ) o los malos comportamientos. Una indicación de que esta perspectiva está en uso puede ser una referencia al ‘factor humano’. Este enfoque a menudo se asocia con ‘blamismo’ y está desactualizado dentro de EHF. Sin embargo, todavía se puede encontrar dentro de la práctica de seguridad ejemplificada en algunos enfoques de seguridad basados ​​en el comportamiento y en las intervenciones de educación y cumplimiento comúnmente aplicadas para abordar problemas de seguridad pública. Por ejemplo, este enfoque continúa dominando la investigación y la práctica de la seguridad vial en la que el comportamiento del conductor se considera la causa principal de los accidentes de tránsito y la educación vial y la aplicación son estrategias de intervención comunes (p. ej., Salmon et al. 2019 ).

2.1.3. La perspectiva interaccionista

Generalmente aplicada en un contexto de Seguridad-I, esta perspectiva todavía ve el error como la causa de los accidentes, pero reconoce el papel contribuyente de los factores contextuales y organizacionales. A veces denominado «pensamiento sistémico simplista» (Mannion y Braithwaite 2017 ), considera las influencias del sistema en el comportamiento, pero a menudo de forma lineal o mecanicista, y se limita al contexto organizacional. A diferencia de las perspectivas mecanicista e individual, la perspectiva interacciona lista no connota una visión negativa de los humanos, a menudo todo lo contrario (p. ej., el enfoque de la ergonomía centrado en la persona de Branton (1916-1990); Osbourne et al. 2012).

2.1.4. La perspectiva de los sistemas

Esta perspectiva, respaldada por la teoría de sistemas y la ciencia de la complejidad, adopta una visión más amplia del comportamiento del sistema en múltiples organizaciones y reconoce influencias sociales más amplias. Puede diferenciarse de la perspectiva interaccionista en que toma el propio sistema como unidad de análisis (a menudo considerando elementos más allá de los límites de la organización); considera interacciones no lineales; y generalmente ve los accidentes como ‘fallas de los sistemas’, en lugar de adoptar la visión del ‘error como causa’. Excepcionalmente, esta perspectiva puede explicar los accidentes en los que no hay un «error» subyacente, pero en los que el desempeño normal de las personas en todos los niveles del sistema lo lleva a ir más allá de los límites de la operación segura. Johnston y Harris ( 2019 )), hablando de las fallas del Boeing 737 Max explica que “también se debe recordar que nadie en Boeing quería cambiar vidas humanas por mayores ganancias… A pesar de las creencias y prioridades individuales, las organizaciones pueden tomar y ejecutar decisiones que ninguno de los participantes realmente quiere… (pág. . 10). La perspectiva de los sistemas se alinea más a menudo con Safety-II, con el objetivo de optimizar el rendimiento en lugar de solo prevenir fallas. También es compatible con los enfoques de diseño centrados en el ser humano en los que las necesidades y perspectivas del usuario se consideran dentro de una comprensión más amplia del funcionamiento del sistema (por ejemplo, Clegg 2000 ).

2.2. Modelos de desempeño humano

Partiendo predominantemente de las perspectivas EHF individual e interaccionista, los modelos de desempeño humano (ver Tabla 2 ) brinda representaciones conceptuales de los mecanismos por los cuales surgen los errores. Los modelos deben interpretarse en el contexto en el que se desarrollaron, con modelos que surgen de los cambios en el estado de la ciencia. Los modelos estructurales, como los enfoques de procesamiento de información, se alinean con la perspectiva individual. Estos modelos se centran en las estructuras cognitivas y la cognición ‘en la cabeza’. En contraste, modelos funcionales como el modelo de ciclo perceptual (Neisser 1976 ), rutinas reescribibles (Baber y Stanton 1997 ; Stanton y Baber 1996 ) y el modelo de control contextual (Hollnagel 1993; Hollnagel y Woods 2005 ), se alinean con la perspectiva interaccionista y consideran interacciones dirigidas a objetivos entre los humanos y su entorno. Es importante destacar que el error humano, fenomenológicamente, aparecerá de manera diferente dependiendo de la lente de modelado a través de la cual se proyecte. Algunos modelos iluminarán ciertas perspectivas más que otras y algunos tendrán mayor validez predictiva, en algunas situaciones, que en otras. El modelo seleccionado, por tanto, incide en la realidad del error humano.

Tabla 2. Resumen de los modelos de desempeño humano y error humano; por orden de fecha de publicación.


Modelo
Aspectos clave/descripciónComponente/tipos de errores humanosSustento teórico
Modelo de ciclo perceptivo (PCM; Neisser 1976)Pueden ocurrir errores donde:
Activation-Trigger-Schema (ATS) / modelo Norman-Shallice (p. ej., Norman 1981)Las principales fuentes de boletas de acción incluyen:
Marco de habilidades, reglas y conocimientos (SRK) (Rasmussen 1982)Propone que la información se procese en tres niveles:
de Rasmussen ( 1974 )) la escalera de decisión representa la interacción de los tres niveles que identifican las etapas de procesamiento de la información y los estados de conocimiento resultantes desde el momento en que se advierte la necesidad de tomar una decisión hasta la ejecución de la acción
Tres tipos de errores, en función de los niveles de procesamiento de la información:
Factores de configuración del rendimiento reconocidos por influir o contribuir a los errores
Modelo de ciclo de ejecución-evaluación del procesamiento de información humana (Norman 1988)En The Design of Everyday Things , Norman propuso siete etapas de acción asociadas con la interacción con el mundo (cuatro etapas de ejecución y tres etapas de evaluación):Los errores ocurren cuando existen discrepancias entre el sistema y el ser humano:
Sistema genérico de modelado de errores (GEMS; Reason 1990)Cuatro categorías de actos inseguros:
Modelo de procesamiento de información humana (Wickens y Hollands 1992)Los errores pueden ocurrir dentro de las diferentes etapas del procesamiento:Psicología cognitiva, modelos lineales de entrada-salida como:
Modelo de control contextual (COCOM; Hollnagel 1993; Hollnagel y Woods 2005)Tres constituyentes principales:
Rutinas regrabables (Baber y Stanton 1997; Stanton y Baber 1996)Pueden ocurrir errores donde:

2.3. métodos de error humano

La selección de modelos también influye en los métodos aplicados. Hace dos décadas, Kirwan ( 1998a ) revisó y analizó 38 enfoques para la identificación de errores humanos, y desde entonces se han desarrollado muchos más. Esto incluye análisis de confiabilidad humana (HRA), identificación de errores humanos (HEI) y métodos de análisis de accidentes. Por lo tanto, limitamos nuestra revisión (ver Tabla 3 ) a los métodos descritos en Stanton et al. ( 2013) como representación de métodos que están generalmente disponibles y en uso por los profesionales de EHF. Para comprender la influencia relativa de cada método, utilizamos Scopus para identificar citas y otras métricas de artículos para cada publicación fundamental que describe un método. Si bien estos recuentos de citas son una medida aproximada y no nos dicen nada sobre la utilización en la práctica, 5 brindan una idea de la importancia de los métodos dentro de la literatura académica.

Tabla 3. Métodos y taxonomías del error humano

Tabla 3. Métodos y taxonomías del error humano.
MétodoPropósitoTaxonomías de error humano aplicadasSustento teórico/empíricoÁreas de aplicación de ejemploCitas totalesCitas últimos 15 añosCitas de los últimos 15 años (excl. autocitas)
Métodos retrospectivos
Sistema de clasificación y análisis de factores humanos (HFACS; Weigmann y Shappel  2001 )Análisis de accidentesTaxonomía de fallas con cuatro niveles: actos inseguros (errores y violaciones), condiciones previas para actos inseguros, supervisión insegura, influencias organizacionales252238228
Métodos prospectivos
Técnica de evaluación y reducción del error humano (HEART; Williams  1986 )IES y HRATipos de tareas genéricas, taxonomía de condiciones que producen errores y taxonomía de medidas correctivas140106106
Error humano HAZOP (Kirwan y Ainsworth  1992 )IESPalabras guía centradas en el error humano (por ejemplo, no hecho, menos que, más que, repetido)n/a 6n / An / A
Herramienta de identificación de errores humanos en sistemas (HEIST; Kirwan  1994 )IESCategorías de comportamiento (p. ej., activación/desactivación, observación/recopilación de datos, identificación del estado del sistema, selección de objetivos), PSF globales (p. ej., tiempo, procedimientos, complejidad de la tarea), EEM, PEM, pautas de reducción de errores124 71111
TAFEI (Baber y Stanton  1994 )IESNinguna503418
Systems for Predicting Human Error and Recovery (SPEAR; CCPS (Centro para la Seguridad de Procesos Químicos)  1994 )IESEEM (por ejemplo, errores de acción, errores de verificación, errores de comunicación) y PEM (por ejemplo, desorientación espacial, mala interpretación)822
Marco de evaluación de recuperación y errores humanos (HERA) (Kirwan  1998a , 1998b )IESEEM y PSF514141
Técnica para la Evaluación del Error Humano (THEA; Pocock et al.  2001 )IES y HRATipos de falla cognitiva relacionada con metas, planes, acciones, percepción/interpretación/evaluación372615
Plantilla de error humano (HET; Stanton et al.  2006 )HEI (predictivo)Lista de verificación de 12 modos de error (p. ej., falla en la ejecución, ejecución de la tarea incompleta, tarea ejecutada en la dirección incorrecta)414125
Enfoque sistemático de predicción y reducción de errores humanos (SHERPA; Embrey  1986 )HEI (predictivo)EEM (p. ej., errores de acción, errores de verificación, errores de comunicación) y PEM (p. ej., desorientación espacial, mala interpretación)
PIF (p. ej., ruido, iluminación, fatiga)
151135127
Métodos retrospectivos y prospectivos
Método de análisis de error y confiabilidad cognitiva (CREAM; Hollnagel  1998 )HEI, HRA y análisis de accidentesCondiciones de desempeño comunes (similares a las PSF; por ejemplo, adecuación de la organización, condiciones de trabajo), modos de error (fenotipos; por ejemplo, acción en el momento equivocado), genotipos relacionados con la persona (por ejemplo, observación falsa), genotipos relacionados con la tecnología (por ejemplo, falla del software), y genotipos relacionados con la organización (por ejemplo, falla en el diseño)1,1491,1191,101
Técnica para el análisis retrospectivo y predictivo de errores cognitivos (TRACEr; Shorrock y Kirwan  2002 )HEI y análisis de accidentesError de tarea, Información, Factores de configuración del rendimiento, EEMS, Modos de error interno, PEM, Detección de errores, Corrección de errores192186178

Nota: EEM: modo de error externo; PEM: mecanismo de error psicológico; PSF: factor de configuración del rendimiento; PIF: factor que influye en el rendimiento. Se incluyen citas de Scopus, hasta finales de 2020, autocitas y citas de libros, a menos que se indique lo contrario.

En términos generales, los métodos de error humano revisados ​​pertenecen a dos clases: retrospectivo y prospectivo; sin embargo, un subconjunto abarca ambas clases.

Los métodos retrospectivos de análisis de errores humanos brindan información sobre qué comportamientos contribuyeron a un accidente o evento adverso, y la mayoría de los métodos alientan al analista a clasificar los errores (p. ej., resbalones, fallas o errores) y los factores que determinan el desempeño (p. ej., presión de tiempo, acciones del supervisor, procedimientos en el lugar de trabajo). . El Sistema de Clasificación y Análisis de Factores Humanos (HFACS; Weigmann y Shappell 2001 ) fue el único método identificado como retrospectivo únicamente. Originalmente desarrollado para la aviación, HFACS se ha adaptado para varios dominios críticos para la seguridad (p. ej., marítimo, Chauvin et al. 2013 ; minería, Patterson y Shappell 2010 ; y ferrocarril, Madigan, Golightly y Madders 2016 ).). HFACS proporciona taxonomías de errores y modos de falla en cuatro niveles organizacionales (actos inseguros, condiciones previas para actos inseguros, supervisión insegura e influencias organizacionales).

Los métodos de error humano prospectivo se utilizan para identificar todos los posibles tipos de error que pueden ocurrir durante tareas específicas para que los remedios de diseño puedan implementarse con anticipación. Generalmente aplicados junto con el análisis de tareas, permiten al analista identificar sistemáticamente qué errores podrían cometerse. El Enfoque Sistemático de Reducción y Predicción del Error Humano (SHERPA; Embrey 1986 , 2014 )), por ejemplo, proporciona a los analistas una taxonomía de ‘modos de error externo’ basados ​​en el comportamiento, junto con ‘mecanismos de error psicológico’, con los que identificar errores creíbles basados ​​en operaciones derivadas de una tarea de análisis del proceso bajo análisis. Los errores creíbles y los factores relevantes que influyen en el rendimiento se describen y clasifican según su probabilidad y criticidad antes de identificar las medidas correctivas adecuadas. Los métodos prospectivos también pueden apoyar HRA, mediante el cual las tareas se evalúan para las probabilidades cuantitativas de que ocurran errores humanos teniendo en cuenta las probabilidades de error humano de referencia y los factores de configuración de rendimiento relevantes. Los ejemplos incluyen la técnica de evaluación y reducción de errores humanos (HEART; Williams 1986 ) y el método de análisis de errores y confiabilidad cognitiva (CREAM; Hollnagel1998 ). Como se puede ver en la Tabla 3 , CREAM fue el más citado de los métodos revisados.

En diversos grados, todos los métodos de error humano se basan en una perspectiva mecanicista, individual o interaccionista subyacente. No hay duda de que tales enfoques son útiles, pero se recomienda precaución. La precisión de los enfoques HRA ha sido cuestionada dadas las incertidumbres que rodean las estimaciones de probabilidad de error (Embrey 1992 ) y la confiabilidad y validez metodológica general (Stanton et al. 2013 ). También se ha sugerido que la categorización y el conteo de errores respaldan una visión del mundo de los humanos como componentes de sistemas poco confiables que necesitan ser controlados o incluso reemplazados por automatización (Woods y Hollnagel 2006 ). Tanto Embrey ( 1992 ) como Stanton et al. ( 2006) sugieren que los métodos deben centrarse en la identificación de errores potenciales en lugar de su cuantificación, con el beneficio de los conocimientos cualitativos obtenidos y las oportunidades para identificar medidas correctivas que pueden informar el diseño o el rediseño.

Como era de esperar, ninguno de los métodos revisados ​​adopta una perspectiva de sistemas.

3. Uso, mal uso y abuso del error humano

Está claro que el estado actual de la ciencia comprende múltiples perspectivas sobre el error humano, múltiples marcos teóricos y múltiples métodos. Todos han desempeñado un papel en la elevación del perfil de EHF dentro de las industrias críticas para la seguridad. Del mismo modo, desde la perspectiva de la conciencia pública de EHF, la idea de error humano está muy extendida en los informes de los medios y tiende a usarse como sinónimo de EHF (Gantt y Shorrock 2017 ). Se ha demostrado que el ‘blamismo’ de los medios influye en las personas para que acepten más fácilmente que las personas culpables merecen un castigo y asignen menos responsabilidad a la organización en general (Nees, Sharma y Shore 2020). De hecho, los medios de comunicación tienden a modificar el término para culpar a la persona más cercana al evento (por ejemplo, error del piloto, error del conductor, error de la enfermera). La tensión no resuelta entre el error humano y el error de diseño conduce a consecuencias no deseadas. Incluso el uso de tales términos fomenta un enfoque en el ‘factor humano’ en lugar del sistema más amplio (Shorrock 2013 ). Parafraseando a Parasuraman y Riley ( 1997 ) sobre la automatización; el término error humano es ‘usado’, ‘mal usado’ y ‘abusado’. Una discusión que considere estos temas ayuda a explorar más a fondo el estado actual de la ciencia.

3.1. Uso y utilidad del error humano

3.1.1. Una construcción intuitiva y significativa

El error humano es “intuitivamente significativo” (Hollnagel y Amalberti 2001 , 2). Es fácil de explicar a personas ajenas a la disciplina EHF oa aquellos nuevos en EHF. Enmarcar las acciones como errores, como actos u omisiones no intencionales en lugar de violaciones intencionales, puede ayudar a reducir la culpa injusta. La mayoría de la gente también estará de acuerdo con la frase “errar es humano” (Alexander Pope 1688-1744), al menos en principio. De hecho, el ensayo y error es una parte importante de los procesos normales de aprendizaje y los errores ayudan a mantener los sistemas seguros al desarrollar la experiencia del operador en su gestión (Amalberti 2001 ). Singleton ( 1973 , 731) señaló que los operadores hábiles hacen un “buen uso del error” y “son efectivos debido a sus características supremas en la corrección de errores más que en la prevención de errores”.

3.1.2. Los errores y las recuperaciones heroicas surgen de los mismos procesos subyacentes.

Los errores también facilitan la innovación fortuita (Reason 2008 ). Por ejemplo, si Wilson Greatbatch no hubiera instalado el tamaño incorrecto de resistencia en su dispositivo experimental de registro del ritmo cardíaco, no habría notado que el circuito resultante emitía pulsos eléctricos y probablemente no se habría inspirado para construir el primer marcapasos en 1956 (Watts 2011 ). De manera similar, si Alexander Fleming hubiera mantenido un laboratorio limpio y ordenado, no habría regresado de vacaciones para encontrar moho creciendo en una placa de Petri, lo que condujo al descubrimiento de la penicilina (Bennett y Chung 2001 ).). De acuerdo con los argumentos de Seguridad II, estos eventos demuestran que los procesos que sustentan el error humano son los mismos que conducen a resultados deseables. En consecuencia, la eliminación del error a través de la automatización o controles estrictos también puede actuar para eliminar la innovación, la adaptabilidad, la creatividad y la resiliencia humanas.

3.1.3. Oportunidades para aprender

Los modelos de error humano y las taxonomías han sido una herramienta importante en EHF durante décadas. Han facilitado el aprendizaje de cuasi accidentes y accidentes (p. ej., Chauvin et al. 2013 ; Baysari, McIntosh y Wilson 2008 ), el diseño de interfaces hombre-máquina mejoradas (p. ej., Rouse y Morris 1987 ) y el diseño de sistemas tolerantes a errores. (por ejemplo, Baber y Stanton 1994 ).

3.2. Mal uso y abuso del error humano

Por el contrario, hay varias formas en las que el error humano ha sido mal utilizado, abusado o ambos. Estos se relacionan con la falta de precisión en el constructo y la forma en que se usa en el lenguaje. También se relaciona con una cultura subyacente de culpabilidad, explicaciones simplistas de la causalidad de los accidentes, un enfoque en los trabajadores de primera línea y la implementación de soluciones inapropiadas.

3.2.1. Una falta de precisión en la teoría y el uso en el lenguaje.

Una crítica científica clave de la noción de error humano es que representa un modelo popular de cognición. Es decir, el error humano es una construcción no observable, utilizada para hacer inferencias causales, sin claridad sobre el mecanismo detrás de la causalidad (Dekker y Hollnagel 2004 ). Esta noción está respaldada por el hecho de que existen múltiples modelos de error humano. En términos de lenguaje, Hollnagel y Amalberti ( 2001 ) sugieren que el mal uso del error humano puede estar relacionado con que se considere una causa, un proceso o una consecuencia:

  1. Error humano como causa : Cuando se utiliza el error humano como causa o explicación de un evento adverso, representa un punto de parada para la investigación. Esto dificulta el aprendizaje, con factores más amplios que jugaron un papel contribuyente en el accidente potencialmente pasados ​​por alto. El error humano no es una explicación del fracaso, exige una explicación  (Dekker 2006 , 68). Enmarcar el error como causa del fracaso genera varios resultados negativos, como el refuerzo de la culpa, la recomendación de contramedidas inapropiadas (es decir, reentrenamiento, modificación del comportamiento) y la falta de acción sobre los problemas sistémicos que son las verdaderas causas subyacentes del fracaso. Razón ( 2000) proporcionó la analogía de aplastar mosquitos versus drenar pantanos. Podemos aplastar a los mosquitos (culpando y reentrenando a las personas) o drenar los pantanos en los que se reproducen los mosquitos (abordando los factores sistémicos). Sin embargo, las acciones de quienes están en primera línea siguen siendo el foco de las investigaciones oficiales de accidentes. Por ejemplo, la investigación sobre el descarrilamiento de un tren en Santiago de Compostela en 2013 por parte de la Comisión de Investigación de Accidentes Ferroviarios de España se centró en el error del maquinista (Vizoso 2018 ) y la investigación de la Oficina de Investigación y Análisis para la Seguridad de la Aviación Civil de Francia sobre Air France El accidente del 447 se centró en la falla de los pilotos para controlar la aeronave (Salmon, Walker y Stanton 2016 ).
  2. El error humano como proceso : cuando el error humano se analiza como un proceso o un evento, la atención se centra en el error en sí mismo, en lugar de sus resultados. Uno de los problemas con este enfoque es que el error a menudo se define como una desviación de un proceso ‘bueno’ (Woods y Cook 2012 ); alguna ‘verdad fundamental’ en una realidad objetiva. Pero esto plantea más preguntas, como qué estándar es aplicable y cómo explicamos la racionalidad local. También plantea preguntas sobre lo que significa para otras desviaciones, dado que estas son relativamente comunes y ocurren sin consecuencias adversas (y, de hecho, a menudo conducen a consecuencias exitosas).
  3. Confundir el error con su resultado : El uso final del error humano discutido por Hollnagel y Amalberti ( 2001 ) es donde el error se define en términos de su consecuencia, es decir, el evento del accidente. El error humano usado en este sentido se confunde con el daño que ha ocurrido. A modo de ejemplo, aunque el informe de salud seminal To Err is Human (Kohn, Corrigan y Donaldson 1999) pidió un cambio sistémico y fue un catalizador para centrarse en la seguridad del paciente, también confundió el daño médico con el error médico, poniendo así el foco en el desempeño individual del trabajador de la salud. Hacer referencia al error humano también tuvo la consecuencia no deseada de que el sector de la salud creyera que podía abordar los problemas que enfrentaba sin la ayuda de otras disciplinas, por lo que no pudo mantenerse al día con los desarrollos modernos en la ciencia de la seguridad (Wears y Sutcliffe 2019 ).

Como señalan Hollnagel y Amalberti ( 2001 ), para cada una de las formas en que se utiliza el error humano en el lenguaje, tiene connotaciones negativas. Esto es importante, porque aunque muchas personas en la vida cotidiana y en los lugares de trabajo reconocerán que ‘todo el mundo comete errores’, estamos sesgados cognitivamente para suponer que las cosas malas (es decir, los errores y los resultados adversos asociados) les suceden a las personas malas, los llamados ‘simplemente’. hipótesis mundial’ (ver Furnham 2003 para una revisión; también Reason 2000 ). De manera similar, el ‘credo de la causalidad’ (Hollnagel 2014) es la idea de que para cada accidente debe haber una causa, y generalmente una mala (ya que las malas causas preceden a las malas consecuencias), que estas malas causas pueden buscarse hacia atrás hasta que una ‘causa raíz’ (o conjunto de causas) pueda ser identificados, y que todos los accidentes son prevenibles encontrando y tratando estas causas. Esta mentalidad refuerza un enfoque en descubrir ‘cosas malas’. Sin embargo, como hemos visto, el pensamiento contemporáneo postula que las personas actúan en un contexto de racionalidad limitada y local, donde la adaptación y la variabilidad no solo son comunes sino necesarias para mantener el desempeño del sistema. La contribución del ‘desempeño normal’ a los accidentes ahora es ampliamente aceptada (Dekker 2011b ; Perrow 1984 ; Salmon et al. 2017 ).

3.2.2. Culpa y explicaciones simplistas de los accidentes

El credo de la causalidad se alinea con la tradición legal de responsabilidad individual por accidentes, donde la mala causa es un delito o el incumplimiento de un deber legal. Dekker ( 2011a ) describe el cambio en las actitudes sociales desde antes del siglo XVII, cuando la religión y las supersticiones explicaban las desgracias, hasta la adopción de lo que se consideraba un concepto más científico y racional de «accidente». Los accidentes fueron vistos como “simplemente una coincidencia en el espacio y el tiempo sin motivación ni humana ni divina” (Green 2003, 31). No fue hasta el advenimiento de catástrofes industriales a gran escala como Three Mile Island en 1979 y Tenerife en 1977 que un enfoque de gestión de riesgos pasó a primer plano, con la correspondiente reducción en la aceptación pública del riesgo a “tolerancia cero al fracaso”. (Dekker 2011a , 123). Esto ha generado una presión adicional para identificar a un actor culpable y garantizar que sea llevado ante la justicia.

Otro elemento es el sesgo de resultado por el cual la culpa y la criminalización son más probables cuando las consecuencias de un evento son más graves (Henriksen y Kaplan 2003 ; Dekker 2011b ). Teoría de la atribución defensiva (Shaver 1970) propone que se atribuye más culpabilidad a los accidentes de alta severidad que a los de baja severidad, ya que un evento de alta severidad evoca nuestras defensas autoprotectoras contra la aleatoriedad de los accidentes. El aumento de la culpa proporciona entonces una sensación de control sobre el mundo. Atribuir la culpa después de un evento adverso, particularmente uno catastrófico, restaura un sentido de confianza en los ‘expertos’ (que pueden ser individuos u organizaciones). Esta reparación de la confianza es necesaria para la continuación de la expansión tecnológica y sugiere una “necesidad fundamental, casi primitiva, de culpar…” (Horlick-Jones 1996 , 71).

La retrospectiva también juega un papel importante (Dekker 2006 ). Después de un accidente, es fácil caer en la trampa de ver los eventos y las condiciones que conducen al evento como lineales y deterministas. El sesgo retrospectivo en combinación con el sesgo de atribución ayuda a fortalecer las creencias de gerentes, jueces, investigadores y otros que revisan accidentes para ‘persuadirse a sí mismos… de que nunca habrían sido tan irreflexivos o imprudentes’ (Hudson 2014 , 760). El derecho penal en los países occidentales tiende a basarse en la noción de que los eventos adversos surgen de las acciones de actores racionales que actúan libremente (Horlick-Jones 1996 ). Este ‘determinismo progresivo’ (Fischoff 1975) también aumenta la confianza en nuestra capacidad para predecir eventos futuros, lo que significa que es posible que no tengamos en cuenta las vías causales que no han surgido previamente.

3.2.3. Centrarse en los trabajadores de primera línea

Los modelos y métodos de error humano, casi universalmente, no tienen en cuenta que los errores son cometidos por humanos en todos los niveles de un sistema (Dallat, Salmon y Goode 2019 ). Más bien, hacen que los analistas se concentren en el comportamiento de los operadores y usuarios, particularmente aquellos en la ‘primera línea’ o ‘extremo afilado, como los pilotos, los operadores de la sala de control y los conductores. Esto es inconsistente con la comprensión contemporánea de la causalidad de los accidentes, que enfatiza el papel que juegan las decisiones y acciones de otros actores en todo el sistema de trabajo en las trayectorias de los accidentes (Rasmussen 1997 ; Salmon et al. 2020 ). Además, décadas de investigación sobre liderazgo en seguridad (Flin y Yule 2004 ) y clima de seguridad (Mearns, Whitaker y Flin 2003) destacan la importancia de las decisiones y acciones gerenciales en la creación de ambientes seguros (o inseguros). No obstante, es interesante notar que, a pesar de décadas de investigación, nuestro conocimiento del error humano todavía se limita en gran medida a los trabajadores o usuarios de primera línea, mientras que la naturaleza y la prevalencia de los errores en los niveles más altos de los sistemas críticos para la seguridad han recibido mucha menos atención. Esto puede explicarse por el hecho de que la relación o acoplamiento entre el comportamiento y el resultado afecta cómo se atribuye la responsabilidad (Harvey y Rule 1978 ). Los aspectos clave de esto incluyen la causalidad y la previsibilidad (Shaver 1985). A menudo hay un lapso de tiempo entre las decisiones o acciones tomadas por aquellos que están fuera de la línea del frente y el evento del accidente. Dentro del marco de tiempo intermedio, existen muchas oportunidades para que otras decisiones y acciones, o circunstancias, cambien el curso de los acontecimientos. Además, cuando las decisiones están separadas temporalmente del evento, es más difícil prever las consecuencias, particularmente en sistemas complejos donde las consecuencias no deseadas no son infrecuentes.

La forma en que definimos el error humano también puede generar dificultades al considerar el papel de quienes están en los niveles superiores del sistema. Los trabajadores de primera línea generalmente operan bajo reglas y procedimientos que proporcionan un estándar normativo contra el cual se puede juzgar su comportamiento. Por el contrario, los diseñadores, gerentes y demás generalmente operan con más grados de libertad. Es más fácil entender que sus decisiones involucran compensaciones entre demandas en competencia, como un gerente que no puede contratar personal adicional debido a restricciones presupuestarias o un diseñador que renuncia a la funcionalidad para maximizar la usabilidad. En muchos sentidos, la gran cantidad de reglas y procedimientos que imponemos a los trabajadores de primera línea para restringir su comportamiento enmascara nuestra capacidad de ver sus decisiones y acciones como involucrando el mismo tipo de compensaciones (por ejemplo, entre costo y calidad,

Otras razones para centrarse en el trabajador de primera línea son más pragmáticas, como las dificultades prácticas de identificar decisiones específicas que ocurrieron mucho antes del evento que pueden no estar bien documentadas o recordadas. Incluso cuando se pudiera identificar a los involucrados, puede ser difícil localizarlos. Centrarse en el trabajador de primera línea, o «la última persona en tocar el sistema», proporciona una explicación sencilla. Los gerentes y los tribunales prefieren las explicaciones causales simples (Hudson 2014 ) y son menos costosas que las investigaciones en profundidad que pueden identificar fallas sistémicas.

Además, la investigación ha demostrado que las explicaciones causales simples reducen la incertidumbre pública sobre los eventos adversos, como los tiroteos en las escuelas (Namkoong y Henderson 2014 ). También es conveniente que una organización se centre en la responsabilidad individual. Esto no solo es legalmente deseable, sino que enmarca el problema de una manera que permite que la organización continúe operando como de costumbre, dejando intactas sus estructuras, cultura y sistemas de poder (Catino 2008 ; Wears y Sutcliffe 2019 ).

3.2.4. Arreglos inapropiados

En la práctica, el enfoque en el error humano ha llevado a recomendaciones frecuentes de correcciones o contramedidas inapropiadas del sistema. Por ejemplo, en muchas industrias, las investigaciones de accidentes aún conducen a recomendaciones centradas en los trabajadores de primera línea, como el reentrenamiento o la educación sobre los riesgos (Reason 1997 ; Dekker 2011b). Además, la omnipresencia del enfoque de jerarquía de control en ingeniería de seguridad y salud y seguridad ocupacional (OHS) puede reforzar la filosofía de que los humanos son un «punto débil» en los sistemas y necesitan ser controlados a través de mecanismos administrativos y de ingeniería. Esta filosofía de seguridad, sin la entrada adecuada de EHF, puede reforzar las intervenciones basadas en personas que intentan restringir el comportamiento, como la adición de nuevas reglas y procedimientos a un conjunto ya abrumador del cual nadie tiene total supervisión o comprensión. Esto contrasta con las intervenciones tradicionales de EHF basadas en un diseño centrado en el ser humano, mejorando la calidad de vida laboral y promoviendo el bienestar de los trabajadores. Un ejemplo contemporáneo es una tendencia hacia el uso de la automatización en más aspectos de nuestra vida cotidiana, como conducir, respaldado por el argumento de que los humanos son intrínsecamente poco confiables. Esto encarna la suposición determinista que subyace a muchos enfoques de la seguridad y la prevención de accidentes que ignora los atributos fundamentales de los sistemas complejos, como la no linealidad, la emergencia, los bucles de retroalimentación y la variabilidad del rendimiento (Cilliers1998 ; Grant et al. 2018 ). Por lo tanto, las soluciones se basan en suposiciones inapropiadas de certeza y estructura, en lugar de ayudar a los humanos a adaptarse y hacer frente a la complejidad. En una nota relacionada, la creciente imposición de reglas, procedimientos y tecnologías agrega complejidad y acoplamiento dentro del sistema, lo que a su vez puede aumentar las oportunidades de fracaso (Perrow 1984 ).

4. Perspectivas de sistemas y métodos en EHF

El uso apropiado de términos, teorías y métodos relacionados con el error humano ha permitido indudablemente progresar, pero la tensión subyacente entre el error humano y el «fallo de los sistemas» sigue sin resolverse. El uso indebido y el abuso del error humano generan desventajas que pueden estar ralentizando el progreso en la mejora de la seguridad. En respuesta, las perspectivas sobre el error humano que se consideraban radicales en la década de 1990 se están generalizando y el estado actual de la ciencia apunta hacia un enfoque sistémico. De hecho, EHF se conceptualiza regularmente como una disciplina de sistemas (por ejemplo, Dul et al. 2012 ; Moray 2000 ; Wilson 2014 ; Salmon et al. 2017). Específicamente, al considerar las fallas, se propone que vayamos más allá del error humano, el error de diseño (Fitts y Jones 1947 ), incluso más allá de la ‘falla inducida por el sistema’ de Weiner ( 1977 ) para reconocer los accidentes como ‘fallas del sistema’.

Adoptar un enfoque de sistemas, ya sea para examinar el fracaso o para respaldar el éxito, requiere métodos estructurados y sistemáticos para respaldar la aplicación práctica de constructos como la teoría de sistemas y el pensamiento de sistemas. Si bien los métodos de la perspectiva interaccionista pueden ser apropiados en algunas circunstancias, por ejemplo, al comparar opciones de diseño o evaluación predictiva de riesgos, no toman el sistema completo como unidad de análisis y consideran posibles interacciones no lineales.

Actualmente se utiliza un conjunto básico de métodos de sistemas (Hulme et al. 2019 ). Estos incluyen AcciMap (Svedung y Rasmussen 2002 ), el Modelo Teórico de Accidentes de Sistemas y Procesos (STAMP; Leveson 2004 ), el Análisis Cognitivo del Trabajo (CWA; Vicente 1999 ), el Análisis de Eventos del Trabajo Sistémico en Equipo (EAST; Walker et al. 2006 ), el Sistema de gestión de riesgos y análisis de peligros en red (Net-HARMS; Dallat, Salmon y Goode 2018 ) y el Método de resonancia de análisis funcional (FRAM; Hollnagel 2012 ). Estos métodos tienen en cuenta las propiedades clave de los sistemas complejos (ver Tabla 4 ). En comparación con los métodos de error humano ( Tabla 3), los métodos de sistemas ofrecen una perspectiva fundamentalmente distinta al tomar el sistema como unidad de análisis, en lugar de comenzar con un enfoque en el comportamiento humano. En consecuencia, los análisis producidos son útiles para identificar las condiciones o componentes que pueden interactuar para crear los tipos de comportamientos que otros métodos clasificarían como errores. Es importante destacar que esto incluye fallas pero también un rendimiento normal. En particular, el límite del sistema de interés siempre debe definirse para un propósito particular y desde una perspectiva particular, y esto puede ser más amplio (p. ej., social; Salmon et al. 2019 ) o más estrecho (p. ej., que comprende un equipo operativo y actividades asociadas). , contextos y herramientas; Stanton 2014). Las definiciones de los límites dependerán del nivel de detalle requerido y de un juicio sobre la fuerza de las influencias externas, pero son vitales para definir la ‘unidad de análisis’.

Tabla 4. Error humano definido en relación con las propiedades de los sistemas complejos.

Propiedad del sistema complejoDescripciónImplicaciones sobre cómo se ve el error humano
Los resultados surgen de las interacciones entre los componentes del sistemaLas interacciones entre los componentes producen fenómenos emergentes. Estos solo pueden entenderse analizando el sistema como un todo, en lugar de examinar los componentes de forma aislada (Dekker 2011b ; Leveson 2004 )
El rendimiento del sistema y de los componentes es variableLos componentes del sistema y los propios sistemas se adaptan constantemente en respuesta a las presiones locales y las perturbaciones imprevistas (Hollnagel 2009 ). La adaptación y la variabilidad aseguran la supervivencia en condiciones ambientales siempre cambiantes (Vicente 1999 ). La presencia de variabilidad en el rendimiento hace que sea difícil predecir el comportamiento de los componentes y el rendimiento del sistema.
Los sistemas son dinámicosLos sistemas implican procesos dinámicos, como la transformación de entradas en salidas y la operación de bucles de retroalimentación. A través de estos procesos, los sistemas evolucionan con el tiempo en respuesta a las condiciones cambiantes. Con tendencia a la entropía, los sistemas migran hacia un estado de mayor riesgo (Rasmussen 1997 ; Leveson 2011 ) y pueden derivar hacia el fracaso (Dekker 2011b )
Los sistemas están organizados en estructuras jerárquicas.Los sistemas tienden a autoorganizarse en jerarquías de sistemas y subsistemas (Skyttner 2005 ). Para entender un sistema, es necesario examinar cada nivel jerárquico relevante y su relación con los de arriba y los de abajo (Rasmussen 1997 ; Vicente 1999 )

xhibición

Si bien los métodos de sistemas se han utilizado durante algún tiempo, sigue habiendo solicitudes de aplicaciones más frecuentes en una variedad de dominios (Hulme et al. 2019 ; Salmon et al. 2017 ), desde la aviación (p. ej., Stanton, Li y Harris 2019 ), salud (Carayon et al. 2014 ), hasta energía nuclear (p. ej., Alvarenga, Frutuoso e Melo y Fonseca 2014 ), para abordar el riesgo de terrorismo (Salmon, Carden y Stevens 2018). Están viendo un uso cada vez mayor en la práctica, ya que son más capaces de hacer frente a la complejidad de los sistemas sociotécnicos modernos. Por ejemplo, en el contexto de la gestión del tráfico aéreo, EUROCONTROL ha abogado por un alejamiento de las nociones simplistas del error humano y hacia el pensamiento sistémico y los conceptos y métodos asociados, como los citados en este documento (Shorrock et al. 2014 ). Se han desarrollado métodos como Net-HARMS (Dallat, Salmon y Goode 2018 ) con el propósito expreso de que sean utilizados tanto por profesionales como por investigadores.

Un beneficio significativo de la perspectiva de sistemas y los métodos de sistemas es abordar el problema de la culpa y las explicaciones simplistas de los accidentes, expandiendo el mensaje más allá de los profesionales de EHF y las organizaciones en las que trabajan. Como ejemplo, el Grupo de Trabajo de Cultura Justa de EUROCONTROL ha llevado al reconocimiento de la cultura justa en las regulaciones de la UE (Van Dam, Kovacova y Licu 2019 ) y ha brindado, durante 15 años, educación y capacitación sobre cultura justa y el poder judicial. Esto incluye talleres y conferencias anuales que reúnen a fiscales, controladores de tránsito aéreo, pilotos y especialistas en seguridad y EHF (Licu, Baumgartner y van Dam 2013) e incluye contenido en torno al pensamiento sistémico, así como solo a la cultura. Se proporciona orientación para interactuar con los medios, ayudar a educar a los periodistas sobre la cultura justa y, en última instancia, facilitar que los medios informen sobre incidentes de gestión del tráfico aéreo de manera equilibrada y sin prejuicios (EUROCONTROL 2008 ). Si bien se reconoce que el cambio cultural es un proceso lento, estas actividades tienen un enfoque a largo plazo con el objetivo de cambiar la mentalidad con el tiempo.

5. Resumen del cambio del desempeño humano a la ergonomía de los sistemas

El surgimiento de la perspectiva de sistemas en EHF sin duda ha impactado la popularidad y el uso de términos, teorías y métodos de error humano. La Figura 2 resume el desarrollo a lo largo del tiempo de las teorías, modelos y métodos que se relacionan con las cuatro perspectivas sobre el error humano. Esto destaca la proliferación del desarrollo de modelos y métodos en un período relativamente corto, particularmente desde finales de la década de 1970 hasta principios de la de 2000. Hollnagel ( 2009 )) atribuye este aumento en el desarrollo de métodos, en particular los métodos de error humano, a la fusión nuclear de Three Mile Island en 1979. Él identifica esto al comienzo de la segunda era de los factores humanos, donde el ser humano es visto como un lastre. Vale la pena destacar que muchos de los métodos de sistemas se desarrollaron en paralelo a los métodos de error humano, con algunos ejemplos notables que también provienen del sector nuclear (por ejemplo, CWA). Figura 2sugiere que EHF ha pasado las últimas tres décadas operando bajo múltiples perspectivas, en lugar de experimentar necesariamente un cambio de paradigma. Curiosamente, ha habido algunos ejemplos de integración entre perspectivas, como el método Net-HARMS extraído de SHERPA y la adopción de la taxonomía SRK por parte de CWA. Sin embargo, dado que la EHF ya no es una disciplina ‘nueva’, con solo esta revista celebrando recientemente 60 años de publicación, es oportuno discutir un camino más claro a seguir.

Figura 2. Resumen de la evolución de modelos ( cuadros blancos ), métodos ( óvalos blancos ) y teoría subyacente ( cuadros grises ) por perspectiva. Tenga en cuenta que la alineación con las perspectivas pretende ser aproximada y confusa en lugar de una clasificación estricta.

6. Errar dentro de un sistema es humano: una propuesta de camino a seguir

El concepto de error humano ha llegado a un punto crítico. Si bien continúa siendo utilizado por investigadores y profesionales de todo el mundo, cada vez hay más preguntas sobre su utilidad, validez y, en última instancia, su relevancia dado el cambio hacia la perspectiva de los sistemas. Sugerimos que existen tres campamentos dentro de EHF (Shorrock 2013): 1) un grupo que sigue usando el término con ‘buena intención’, argumentando que hay que seguir hablando de error para aprender de él; 2) un grupo que sigue usando el término por conveniencia (es decir, cuando se comunica en ámbitos que no son EHF) pero rechaza el concepto simplista y, en cambio, se centra en cuestiones organizativas o sistémicas más amplias; y 3) un grupo que ha abandonado el término, argumentando que el concepto carece de claridad y utilidad y su uso es perjudicial. Prevemos que este tercer grupo seguirá creciendo. Reconocemos que el concepto de error puede tener valor desde un punto de vista psicológico, al describir un comportamiento que se aparta de las expectativas e intenciones de un individuo. Sin embargo, también podría considerarse proactivamente en el diseño del sistema, los métodos HEI interaccionistas que se centran en todos los tipos de rendimiento, en lugar de solo errores o fallas, brinde a los analistas una visión más matizada. Sin embargo, es importante que hayamos visto cómo el concepto de error humano ha sido mal utilizado y abusado, particularmente asociado con una visión de error como causa, lo que lleva a consecuencias no deseadas que incluyen culpa y soluciones inapropiadas.

Se ofrece un conjunto de recomendaciones prácticas como una forma de alejar a EHF y a nuestros colegas dentro de disciplinas relacionadas, de un enfoque en el «error humano» individual, mecanicista y culpable y hacia la concepción de un sistema holístico de rendimiento del sistema. Estos se muestran en la Figura 3 .

Figura 3. Una propuesta de camino a seguir.

Es importante considerar las implicancias de los cambios propuestos en otras áreas de la disciplina de la seguridad. Pasar de un error humano a la perspectiva de los sistemas cambiaría fundamentalmente la forma en que vemos y medimos constructos como la conciencia de la situación (ver Stanton et al. 2017 ), la carga de trabajo (Salmon et al. 2017 ) y el trabajo en equipo, por ejemplo. También hay implicaciones significativas para áreas como el trabajo y el diseño del trabajo, donde podemos ver un resurgimiento del interés en los enfoques respaldados por la teoría de los sistemas sociotécnicos (Clegg 2000 ) junto con nuevos entendimientos de cómo las organizaciones pueden apoyar a los trabajadores, por ejemplo, promoviendo la agencia en respondiendo a la incertidumbre (Griffin y Grote 2020). Una nota final mientras terminamos nuestra discusión es que un principio clave del pensamiento sistémico se relaciona con mantener la conciencia de las diferentes visiones del mundo y perspectivas dentro de un sistema complejo. Donella Meadows (1941–2001) destacó una consideración vital para cualquier disciplina cuando sugirió que el punto de influencia más alto para el cambio de sistema es el poder de trascender paradigmas. No hay certeza en ninguna visión del mundo, y la flexibilidad en el pensamiento, en lugar de la rigidez, puede ser la base para un “empoderamiento radical” (Meadows 1999 , 18).

7. Conclusiones

El error humano ha ayudado a avanzar en nuestra comprensión del comportamiento humano y nos ha proporcionado un conjunto de métodos que continúan utilizándose hasta el día de hoy. Sigue siendo, sin embargo, una construcción esquiva. Su base científica y su uso en la práctica han sido cuestionados. Si bien su naturaleza intuitiva sin duda ha ayudado a EHF a ganar aceptación dentro de varias industrias, su uso generalizado dentro y más allá de la disciplina ha tenido consecuencias no deseadas. El reconocimiento de que los humanos solo operan como parte de sistemas complejos más amplios lleva a la conclusión inevitable de que debemos ir más allá de un enfoque en un error individual a la falla de los sistemas para comprender y optimizar sistemas completos. Existen teorías y métodos que adoptan una perspectiva de sistemas para respaldar este cambio, y el estado actual de la ciencia apunta a que su aceptación va en aumento.

Publicado por saludbydiaz

Especialista en Medicina Interna-nefrología-terapia intensiva-salud pública. Director de la Carrera Economía y gestión de la salud de ISALUD

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: