Método de Análisis de Resonancia Funcional - FRAM

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 18

FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Libro: FRAM Método de Análisis de Resonancia Funcional


Autor: Erik Hollnagel (Dinamarca)
Traducción al Español: Stephenson Prieto (Venezuela)

Nota: Lo siguiente es una traducción sólo del primer capítulo, la cual no está hecha con fines
de comercialización, sino con el espíritu de popularizar y promover la utilización de Métodos
Sistémicos (como FRAM) el mundo de la Seguridad en regiones de hispanoamérica.

Stephenson Prieto
Especialista en Seguridad Industrial
Impulsor de Análisis bajo enfoques Sistémicos
Entusiasta de Nuevas Visiones de la Seguridad
https://www.linkedin.com/in/stephenson-prieto
Larga Vida y Seguridad

-------------------------------------------------------------------------

Si te interesa compartir con la comunidad de FRAM en español, puedes acceder al


Grupo FRAMily Latinoamérica 🌎 en la siguiente dirección:
https://lnkd.in/eJaQqd9i 👈

-------------------------------------------------------------------------

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Capítulo 1
La necesidad
Prácticamente todo el diseño
se lleva a cabo en
un estado de relativa ignorancia
del comportamiento completo
del sistema que se está diseñando

Henry Petroski

• Un Estado de (relativa) Ignorancia


• Las razones de Ignorancia
• Ignorancia, Riesgo y Seguridad
• Ignorancia, Complejidad e Intratabilidad
• Sistemas Redefinidos
• De la Probabilidad a la Variabilidad
• Conclusiones

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Un Estado de (relativa) Ignorancia


Cuando se diseña un sistema, existe desde el principio la necesidad de saber cómo
funcionará. De hecho, la razón misma del diseño del sistema es construir un artefacto que
proporcione una funcionalidad prevista.

En el libro de Henry Petroski sobre 'Paradigmas de diseño', del que se toma el epígrafe
anterior, el tema era el Diseño de Ingeniería, y la mayoría de los ejemplos eran estructuras
físicas y sistemas estáticos, como puentes.

El 'comportamiento' de un puente es aparentemente simple: sólo tiene que estar allí y


mantener su propia estructura para permitir el paso seguro de quien sea que lo use. Sin
embargo, incluso en este caso hay una 'ignorancia relativa' de lo que puede suceder, como
han demostrado numerosos ejemplos de estructuras colapsadas.

Si bien el diseño puede no requerir un conocimiento perfecto, al menos requiere una


ignorancia aceptable.

La ignorancia parcial es inevitable tanto en principio como en la práctica, pero debe


ser tan pequeña que las consecuencias sean imperceptibles.

En otras palabras, debemos estar razonablemente seguros de que los sistemas que
construimos:

◦ harán lo que se supone que deben hacer,


◦ que funcionarán de manera confiable según lo previsto
◦ y que, además, no harán nada que no se supone que deben hacer. Este último, en el caso
de un puente, significa derrumbarse o caerse.

Sin embargo, la historia está llena de ejemplos de lo que sucedió desde el desastre
del puente Dee (1847) hasta el espectacular colapso de Tacoma Narrows (1940) y,
más recientemente, hasta la falla del puente del río Mississippi I-35W (2007).

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Las razones de Ignorancia


Hay varias razones para esta relativa ignorancia. Una se debe a que es posible que:
• no se conozcan suficientemente las propiedades de los materiales,
• ni cómo se comportarán en condiciones extremas (presión, temperatura, viento, etc),
• ni cómo se comportarán con el tiempo (envejecimiento, degradación).

Otro razón es que:


• no se sabe a qué condiciones externas se verá sometido el sistema.

En el caso de los puentes, las condiciones se refieren a:


• el clima,
• cambios en la composición química del aire,
• calidad del mantenimiento,
• cambios en las características del 'cliente' (por ejemplo, automóviles más pesados y más tráfico), etc.

Una razón más, es que el trabajo generalmente se realiza con insuficiencias de:
• condiciones de tiempo,
• información
• y recursos.

Lo único que podemos saber con certeza es que sucederán cosas en las que nunca
habíamos pensado, aunque eso en sí mismo es de comodidad limitada.

Si la situación es difícil para las estructuras y los sistemas estáticos, la situación es aún
peor para los sistemas dinámicos
(tenga en cuenta, por cierto, que hasta ahora sólo nos hemos referido a sistemas nominalmente técnicos,
por ejemplo, puentes. Incluso aquí, la influencia de los sistemas sociales es obvia, por ejemplo, en qué tan
bien se mantiene el sistema técnico, qué tan bien los componentes cumplen con las especificaciones o
requisitos, qué tan bien está diseñado y construido el sistema, etc).

Para los sistemas dinámicos es necesario considerar también el estado de las partes y
componentes así como las dependencias entre ellos. Hay que aportar energía (e
información), mover masa y materiales, transformar sustancias, entre otros.

Esto crea literalmente innumerables dependencias de las que existe una relativa
ignorancia, pero que, sin embargo, deben funcionar según lo planeado para que el sistema
cumpla su propósito…

...pero como es casi imposible


prever todas las combinaciones posibles,
incluso para sistemas puramente tecnológicos,
abundan las sorpresas.

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Ignorancia, Riesgo y Seguridad


El lamento de Petroski donde expresa que:
“Prácticamente todo el diseño
se lleva a cabo en un estado
de relativa ignorancia
del comportamiento completo
del sistema que se está diseñando”

...puede extenderse desde el diseño de sistemas técnicos para incluir también:


• la Investigación de Accidentes
• y la Evaluación de Riesgos.

Prácticamente todas las Investigaciones de Accidentes y todas las Evaluaciones de


Riesgos se llevan a cabo en un estado de relativo desconocimiento del comportamiento
completo del sistema que se analiza y, en algunos casos, incluso en un estado de
desconocimiento del comportamiento típico.

En relación con las investigaciones de eventos, rara vez podemos obtener toda la
información que necesitamos sobre lo que sucedió. Una razón es que la búsqueda de
información está influenciada por sesgos y restricciones prácticas.

Uno de esos sesgos es el principio de:


• Lo que buscas es lo que encuentras
(WYLFIWYF las siglas en inglés de What-You-Look-For-Is-What-You-Find)
Es decir, significa que buscamos lo que asumimos es importante. Este principio nos impide
encontrar algo que no buscamos, excepto la casualidad.

Otro sesgo es la 'Comprensión Ilusoria' :


El hecho de que podamos comprimir eventos en marcos explicativos preexistentes,
todos los cuales implican causalidad, significa que vemos la causalidad aunque en
realidad no esté allí.

Entre las limitaciones prácticas está la demasiado frecuente falta de tiempo :


Esto hace que la búsqueda de información se detenga cuando se ha encontrado una
explicación aceptable, aunque sea incompleta o incorrecta.

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

En relación con la Evaluación de Riesgos...

La primera fuente de ignorancia es la incertidumbre ineludible sobre lo que traerá el


futuro.
• Esta es una observación hecha por muchos filósofos, y a menudo repetida por los
políticos, es que no podemos saber con certeza lo que sucederá en el futuro.
• El filósofo danés Søren Kierkegaard (1813-1855) señaló que si bien la vida sólo
puede entenderse al revés, debe vivirse hacia adelante.
• Samuel Coleridge (1772-1834) señaló de manera algo más poética que “la luz que nos
da la experiencia es una linterna en la popa que brilla sólo sobre las olas detrás de
nosotros”.

Una segunda fuente de ignorancia es que la mayoría de los modelos o representaciones


que usamos están tan simplificados que su validez es cuestionable.
• En un Árbol de Eventos, por ejemplo, se supone que el principio de representación
elegido (ramificación binaria) es una representación aceptable de la realidad. Pero
claramente ese no es el caso, tanto porque la distinción entre fracasar y tener éxito
es relativa más que absoluta, y porque las cosas rara vez se desarrollan de la forma
esperada.

Una tercera fuente de ignorancia es la falta de imaginación que en parte es innata, en


parte proviene de la familiaridad y la habituación.
• Un ejemplo de libro de texto de eso es la caracterización de Alan Greenspan de la
crisis financiera de 2008 como un "tsunami crediticio único en un siglo,... que... resultó
ser mucho más amplio de lo que podría haber imaginado".

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Ignorancia, Complejidad e Intratabilidad


La ignorancia del futuro (y hasta cierto punto también la ignorancia del pasado) a veces se
atribuye al grado de complejidad de los sistemas con los que estamos tratando, o
simplemente al supuesto hecho de que 'los sistemas de hoy son, o se han vuelto...
complejos'.

Sin embargo, la complejidad no es un concepto bien definido, como lo ejemplifican las


siguientes definiciones:
• La complejidad matemática es una medida del número de posibles estados que puede adoptar un
sistema, cuando hay demasiados elementos y relaciones para ser entendidos de forma analítica o
lógica simple.
• La complejidad pragmática significa que una descripción, o un sistema, tiene muchas variables.
• La complejidad dinámica se refiere a situaciones en las que la causa y el efecto son sutiles y en las que
los efectos de las intervenciones a lo largo del tiempo no son evidentes.
• La complejidad ontológica no tiene un significado científicamente detectable, ya que es imposible
referirse a la complejidad de un sistema independientemente de cómo se describa.
• La complejidad epistemológica se puede definir como el número de parámetros necesarios para
describir completamente un sistema en el espacio y el tiempo. Mientras que los aspectos
epistemológicos se pueden descomponer e interpretar recursivamente, los aspectos ontológicos no.

De hecho, podría preguntarse si:


¿Existe un estado de relativa ignorancia porque los sistemas con los que tratamos son complejos?
o si por el contrario:
¿llamamos complejos a los sistemas porque no tenemos, y posiblemente no podamos tener, un
conocimiento completo sobre ellos?

Si bien podemos abrigar la esperanza de que el conocimiento completo en principio sea


posible para los sistemas tecnológicos (salvo los caprichos del software), no hay motivo
para tal optimismo en el caso de los sistemas sociotécnicos.
• Aquí la ignorancia es un hecho de la vida porque es imposible definir o describir
completamente los parámetros en el espacio o el tiempo incluso si supiéramos cuáles
eran.
• Sin embargo, la razón principal de esto no es que haya demasiados parámetros, sino
que los sistemas son dinámicos, es decir, que cambian continuamente.

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Para que un sistema sea comprensible es necesario saber lo que sucede 'dentro' de él,
tener una descripción o especificación suficientemente clara del sistema y sus funciones.
• Los mismos requisitos deben cumplirse para que un sistema sea analizado y para que
sus riesgos sean evaluados.
• Que esto debe ser así es obvio si consideramos lo contrario.
• Si no tenemos una descripción o especificación clara de un sistema, y/o si no sabemos
lo que sucede 'dentro' de él, entonces es claramente imposible comprenderlo de
manera efectiva y, por lo tanto, también investigar accidentes o evaluar riesgos.

La presencia de la ignorancia (relativa) choca con los supuestos de los métodos de


análisis de seguridad establecidos. Estos supuestos son una herencia de los sistemas
tecnológicos a gran escala para los cuales se desarrollaron los primeros métodos de
evaluación de la seguridad a fines de la década de 1950.

Aunque las suposiciones subyacentes rara vez se establecen explícitamente, son fáciles de
reconocer al observar métodos establecidos, como:
• FMEA (Análisis de modo y efectos de fallas)
• HAZOP (Estudio de peligros y operabilidad)
• Árboles de Fallas
• Entre otros

Las cuatro suposiciones principales son:

1) Un sistema se puede descomponer en elementos significativos (partes o


componentes típicos). De manera similar, los eventos se pueden descomponer en
pasos o actos individuales (el principio de descomposición está, por supuesto, en
conflicto con el principio holístico de que el todo es más que la suma de las partes).

2) Las partes y los componentes funcionarán o fallarán. En este caso, la probabilidad


de falla se puede analizar y describir para cada parte o componente individualmente.
Esto es parte de la justificación para centrarse en la probabilidad de error humano y,
de hecho, para las clasificaciones de errores humanos.

3) El orden o secuencia de eventos está predeterminado y fijado como lo describe


la representación elegida. Si se necesita considerar una secuencia diferente de
eventos, es necesario producir una nueva versión de la representación, por ejemplo,
un nuevo árbol de eventos o árbol de fallas.

4) Las combinaciones de eventos son ordenadas y lineales. Se pueden describir


mediante operadores lógicos estándar y las salidas son proporcionales a las entradas.

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Aunque estas suposiciones pueden estar justificadas para los sistemas tecnológicos, es
muy cuestionable si se aplican a los sistemas y organizaciones sociales o a las actividades
humanas.

Los modelos y métodos que requieren que el sistema en cuestión pueda describirse en su
totalidad, por esa razón no serán adecuados para los sistemas sociotécnicos, ni para el
análisis de accidentes ni para la evaluación de riesgos.

Por lo tanto, es necesario optar por nuevos métodos y enfoques que puedan usarse para
sistemas que están incompletamente descritos o subespecificados.

Los dos tipos de sistemas pueden llamarse tratables e intratables, respectivamente.

Las diferencias se resumen en la Tabla 1.1 a continuación.

Cuadro 1.1 Sistemas tratables e intratables

Sistema Tratable Sistema Intratable

Número de detalles La descripción es simple La descripción está elaborada


con pocos detalles con muchos detalles

Baja; en particular, Alta; el sistema cambia


el sistema no cambia antes de que se pueda completar
Tasa de cambio mientras se describe una descripción.

Los principios de funcionamiento Los principios de funcionamiento


son completamente conocidos son parcialmente desconocidos
Comprensibilidad

Homogéneo y Heterogéneos y
Característica de los regular posiblemente irregulares
procesos

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Las diferencias entre los sistemas tratables y sistemas intratables se pueden ilustrar con
dos ejemplos.

• Primero consideremos un sistema tratables, como una línea de ensamblaje de


automóviles.
▪ Aquí las descripciones son (relativamente) simples con sólo una pequeña cantidad de detalles.
▪ El trabajo se planifica y programa meticulosamente para que el montaje sea lo más eficiente
posible y se produzcan coches de alta calidad.
▪ La tasa de cambio es baja y, por lo general, es el resultado de una intervención planificada.
▪ El trabajo está dominado por la rutina y, por lo tanto, es homogéneo y muy regular.
Finalmente, la comprensibilidad es alta, lo que significa que hay poco, si es que hay algo, que
no se entienda en detalle.
▪ Por lo tanto, el sistema es tratable, lo que significa que se puede especificar con gran detalle
y que la descomposición es un enfoque natural para comprenderlo mejor.

• Ahora consideremos un sistema intratable, como una Sala de Emergencias (ER) en


un Hospital, o para el caso, una sala de manejo de emergencias en cualquier lugar.
▪ Las descripciones de tales sistemas son elaboradas y con muchos detalles, ya que el trabajo no
es rutinario y la misma situación rara vez ocurre dos veces.
▪ Los sistemas intratables son más heterogéneos que homogéneos.
▪ La tasa de cambio es alta, lo que significa que el sistema, y su desempeño, es irregular y
posiblemente inestable.
▪ A diferencia de una planta de ensamblaje de automóviles, el trabajo en una sala de
emergencias es difícil de planificar porque es imposible saber cuándo llegarán los pacientes,
cuántos serán y qué tipo de tratamiento requieren.
▪ Finalmente, la comprensibilidad es baja, porque no todo se entiende en detalle.
▪ Por lo tanto, el sistema es intratable, lo que significa que no se puede especificar en detalle y
que no tiene sentido descomponerlo.

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Sistemas Redefinidos
Los sistemas generalmente se definen con referencia a su estructura, es decir, en términos
de sus partes y cómo están conectadas o ensambladas.

• Las definiciones comunes enfatizan que el sistema es un todo y que está compuesto
de partes u objetos independientes que están interrelacionados de una forma u otra.

• Las definiciones de este tipo hacen que sea natural confiar en el principio de
descomposición para comprender cómo funciona un sistema y explicar el
funcionamiento general en términos del funcionamiento de los componentes o
partes, teniendo en cuenta, por supuesto, que el todo es más grande que la suma de
las partes.

Sin embargo…
...es completamente posible definir un sistema de una manera diferente, a saber, en
términos de cómo funciona en lugar de en términos de cuáles son los componentes y cómo
se juntan.

• Desde esta perspectiva, un sistema es un conjunto de funciones acopladas o


mutuamente dependientes.

• Esto significa que el desempeño característico del sistema (del conjunto de funciones)
no puede entenderse a menos que incluya una descripción de todas las
funciones, es decir, el conjunto como un todo.

• La delimitación del sistema, por lo tanto, no se basa en su estructura o en las


relaciones entre los componentes (la arquitectura del sistema).

• Una organización, por ejemplo, no debe caracterizarse por lo que es sino por lo
que hace.

• Igualmente, no debe caracterizarse por las personas que se encuentran en un


determinado lugar (en el organigrama o en la realidad) sino por las funciones que
desempeñan.

Una consecuencia de una perspectiva funcional es que la distinción entre un sistema y su


entorno (y por lo tanto también el límite del sistema) se vuelve menos importante (como se
apreciará en la discusión de las funciones de primer plano y de fondo).

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

De la Probabilidad a la Variabilidad

Un desarrollo importante en la historia de la Seguridad Industrial fue la transición que


ocurrió en respuesta al accidente en la planta de energía nuclear de Three Mile Island en
1979. Esto condujo a un cambio en el enfoque de la tecnología únicamente al desempeño
humano y las formas en el que esto podría salir mal.

Dado que las prácticas de seguridad establecidas requerían que se pudiera calcular la
probabilidad de una falla o mal funcionamiento, esto generó numerosas propuestas sobre
cómo calcular la probabilidad de un 'Error Humano'.

Para acortar una larga historia...

...la llamada Primera Generación de Evaluación de la Confiabilidad Humana (HRA),


representada por métodos como:
• THERP (Técnica para la Predicción de la Tasa de Error Humano)
• y HCR (Confiabilidad Cognitiva Humana),
Estas técnicas asumieron que era significativo para refirse a una probabilidad de Error
Humano (aunque también reconocieron que el valor o la magnitud de esto dependía de
factores externos que moldeaban el desempeño). No obstante, la probabilidad de Error
Humano fue la 'señal' codiciada, mientras que la influencia de los Factores de Condiciones
del Desempeño fue el 'ruido'.

Posteriormente, esta posición se invirtió efectivamente en los llamados métodos HRA de


Segunda Generación, representados por:
• ATHEANA (A Technique for Human Error Analysis),
• CREAM (Cognitive Reliability and Error Analysis Method)
• y MERMOS (Méthode d'E Evaluation de la Realisations des Missions Opérateur pour la
Sûreté),

Estos métodos se caracterizaron la influencia de las condiciones de desempeño y se


consideraba más importante que la probabilidad de Error Humano postulada. En otras
palabras, la influencia de los factores de condiciones del desempeño ahora se convirtió en la
'señal' , mientras que la probabilidad de Error Humano se convirtió en el 'ruido', hasta el
punto de que algunos métodos incluso se abstuvieron de referirse a la noción de Error
Humano.

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Una transición similar tuvo lugar cuando el enfoque cambió del factor humano a la
organización y/o cultura de seguridad.

Esto sucedió a mediados de la década de 1980 y, a menudo, está relacionado con el


desastre en la planta de energía nuclear de Chernobyl y la pérdida del transbordador
espacial Challenger (ambos en 1986).
• Para comprender estos accidentes se hizo necesario introducir nuevos factores o
condiciones, aunque el pensamiento básico sobre la seguridad siguió siendo el
mismo.
• Pero aunque la idea de la cultura de la seguridad fue útil, sin embargo, fue difícil
incluir a la organización en el cálculo de las probabilidades de falla.
• En la práctica, la búsqueda de una 'probabilidad de error humano' se complementó
con una búsqueda de una 'probabilidad de error organizacional' o 'tasa de falla
organizacional', aunque generalmente no se expresa de manera tan directa.
• Sin embargo, describirlo de esta manera deja en claro que una 'tasa de falla
organizacional' es un concepto sin sentido. Una organización no puede fallar ni
funcionar de la misma manera que un componente, es decir, no tiene sentido pensar
en ella en términos del principio bimodal, como si estuviera bien o mal. De hecho, una
organización, o un departamento en una organización o un rol específico, no puede
considerarse realmente como un componente en primer lugar.

Aunque HRA nominalmente buscó la probabilidad de un 'Error Humano', en realidad se


centró en cómo el desempeño humano de una función específica podría fallar en alcanzar
sus objetivos en lugar de si el ser humano como tal falló.
• Sin embargo, en la práctica, la terminología llevó (erróneamente) a las personas a
centrarse en las probabilidades de error.
• Si bien puede estar justificado en el dominio tecnológico ver el desempeño de una
función como sinónimo del estado de un componente, claramente no es así en el
caso de las funciones humanas o las funciones de un sistema sociotécnico.

Las diferencias de perspectiva se vuelven claras cuando un sistema se define en términos


de cómo funciona en lugar de en términos de su arquitectura y componentes.
• En este caso, la pregunta es si el funcionamiento logra sus propósitos.
• Pero esto no puede simplificarse a la pregunta de si el sistema está en un estado
'normal' o en un estado 'fallido'.

En cambio...
… es una cuestión de la variabilidad del funcionamiento y si el resultado es aceptable en
las condiciones existentes.

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Pero tan pronto como decimos variabilidad, también reconocemos que cualquier 'fallo'
será temporal, por lo tanto, reversible.
• En consecuencia, deberíamos tratar de comprender qué tan probable es la
variabilidad del rendimiento de un sistema y cómo la variabilidad de múltiples
funciones puede interactuar para producir un resultado no deseado.

Sin embargo, lo que nos interesa no es si una función será variable, ya que por definición
todas lo son. En cambio, lo que nos interesa es si la variabilidad será tan grande que la
función no podrá proporcionar los resultados deseados.
• Esto puede deberse o bien a la variabilidad de una sola función
• o, más probable y también más importante, la combinación de la variabilidad de
múltiples funciones en el tiempo y en el espacio.

Por supuesto, siempre habrá casos (incluso en sistemas sociotécnicos complejos) en los que la
variabilidad de una sola función (o una sola actividad) sea tan grande que un resultado
adverso sea inevitable.
• Pero incluso en ese caso, tiene un uso limitado para decir que la función ha fallado o
que el componente o la entidad ha funcionado mal y calcular la probabilidad de que
esto suceda o suceda.
• En la mayoría de los casos, los resultados (no deseados) se deben a interacciones
entre funciones individuales, por lo tanto, combinaciones de los efectos de su
variabilidad.

• Siendo esto el caso, es claramente necesario encontrar formas de identificar el


potencial de variabilidad y analizar cómo esto puede combinarse para producir
señales fuertes o efectos no deseados.

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Conclusiones
Prácticamente todas las Investigaciones de Accidentes y Evaluaciones de Riesgos se
llevan a cabo en un estado de relativa ignorancia del comportamiento total del sistema.

Esta condición contrasta con el hecho de que todos los enfoques establecidos para la
evaluación de riesgos requieren que sea posible describir el sistema y los escenarios en
detalle, es decir, que el sistema sea tratable.

Desafortunadamente, todos los sistemas sociotécnicos son más o menos intratables, lo


que significa que los métodos establecidos no son adecuados.

Dado que no es razonable superar este problema haciendo que las descripciones de los
sistemas sean tan simples que se vuelvan tratables, es necesario buscar nuevos enfoques
que puedan usarse para sistemas intratables, es decir, para sistemas que están
incompletamente descritos o sub-especificados.

La Ingeniería de Resiliencia proporciona la base para tales enfoques.


• La Ingeniería de Resiliencia comienza con una descripción de las funciones
características y busca formas de mejorar la capacidad de un sistema para:
▪ Responder
▪ Monitorear
▪ Aprender y
▪ Anticipar

• Al enfatizar que la Seguridad es algo que hace un sistema en lugar de algo que tiene , el
estado inevitable de ignorancia relativa puede reducirse centrándose en lo que
realmente sucede.

Para hacerlo, se requiere un conjunto de conceptos, una terminología y un conjunto de


métodos que permitan describir el trabajo como se imagina y como realmente se hace en
lugar del trabajo...

...y de eso se trata el FRAM


(Método de Análisis
de Resonancia Funcional)

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Comentarios del Autor acerca del Capítulo 1

• La cita al principio es de la página 93 en Petroski, H. (1994), Design Paradigms. Prensa de la


Universidad de Cambridge.

• El principio Loquebuscasesloqueencuentras (WYLFIWYF) tuvo su primera presentación en un taller


de Ingeniería de Resiliencia en Río de Janeiro en diciembre de 2005. Se puede encontrar una
explicación y ejemplos en Lundberg, J., Rollenhagen, C. y Hollnagel, E. (2009).
Lo que busca es lo que encuentra: las consecuencias de los modelos de accidentes subyacentes en
ocho manuales de investigación de accidentes. Ciencias de la seguridad, 47, 12971311.

• La cita completa de Coleridge de 1835 es “Si los hombres pudieran aprender de la historia, ¡qué
lecciones nos enseñaría! Pero la pasión y la fiesta ciegan nuestros ojos, y la luz que nos da la experiencia
es una linterna en la popa que alumbra sólo sobre las olas detrás de nosotros”.
Søren Kierkegaard escribió que “Livet forstås baglænds, men må leves forlænds” en 1843.

• La falta de imaginación en el diseño, análisis y gestión de los sistemas tecnológicos y sociotécnicos


puede tener fácilmente consecuencias desastrosas y la importancia de la imaginación suficiente, o
necesaria, difícilmente puede exagerarse.
Un argumento temprano para eso se puede encontrar en Westrum, R. (1991). Tecnologías y sociedad:
La formación de personas y cosas. Belmont, CA: Wadsworth.

• La Complejidad, particularmente en los sistemas complejos, a menudo se invoca como un deus ex


machina para 'explicar' por qué el uso de la tecnología moderna está marcado por tantos eventos
inesperados.
Muchos también parecen cautivados por las llamadas Ciencias de la Complejidad, aunque esto puede
resultar el triunfo de la esperanza sobre la experiencia.
• Pringle, JWS (1951) proporciona una buena discusión sobre la complejidad. Sobre el paralelismo entre
aprendizaje y evolución. Comportamiento, 3, 175215.

• Hay varias descripciones o encuestas de modelos HRA, que también incluyen parte de su historia.
Por ejemplo Kirwan, B. (1994). Una guía para la evaluación práctica de la confiabilidad humana.
Londres: Taylor & Francis, o Hollnagel, E. (1998). Método de Análisis de Errores y Confiabilidad
Cognitiva (CREAM). Oxford: Elsevier Science Ltd.

Traducción Stephenson Prieto


FRAM: Método de Análisis de Resonancia Funcional por Erik Hollnagel

Traducción Stephenson Prieto

También podría gustarte