Método de Análisis de Resonancia Funcional - FRAM
Método de Análisis de Resonancia Funcional - FRAM
Método de Análisis de Resonancia Funcional - FRAM
Nota: Lo siguiente es una traducción sólo del primer capítulo, la cual no está hecha con fines
de comercialización, sino con el espíritu de popularizar y promover la utilización de Métodos
Sistémicos (como FRAM) el mundo de la Seguridad en regiones de hispanoamérica.
Stephenson Prieto
Especialista en Seguridad Industrial
Impulsor de Análisis bajo enfoques Sistémicos
Entusiasta de Nuevas Visiones de la Seguridad
https://www.linkedin.com/in/stephenson-prieto
Larga Vida y Seguridad
-------------------------------------------------------------------------
-------------------------------------------------------------------------
Capítulo 1
La necesidad
Prácticamente todo el diseño
se lleva a cabo en
un estado de relativa ignorancia
del comportamiento completo
del sistema que se está diseñando
Henry Petroski
En el libro de Henry Petroski sobre 'Paradigmas de diseño', del que se toma el epígrafe
anterior, el tema era el Diseño de Ingeniería, y la mayoría de los ejemplos eran estructuras
físicas y sistemas estáticos, como puentes.
En otras palabras, debemos estar razonablemente seguros de que los sistemas que
construimos:
Sin embargo, la historia está llena de ejemplos de lo que sucedió desde el desastre
del puente Dee (1847) hasta el espectacular colapso de Tacoma Narrows (1940) y,
más recientemente, hasta la falla del puente del río Mississippi I-35W (2007).
Una razón más, es que el trabajo generalmente se realiza con insuficiencias de:
• condiciones de tiempo,
• información
• y recursos.
Lo único que podemos saber con certeza es que sucederán cosas en las que nunca
habíamos pensado, aunque eso en sí mismo es de comodidad limitada.
Si la situación es difícil para las estructuras y los sistemas estáticos, la situación es aún
peor para los sistemas dinámicos
(tenga en cuenta, por cierto, que hasta ahora sólo nos hemos referido a sistemas nominalmente técnicos,
por ejemplo, puentes. Incluso aquí, la influencia de los sistemas sociales es obvia, por ejemplo, en qué tan
bien se mantiene el sistema técnico, qué tan bien los componentes cumplen con las especificaciones o
requisitos, qué tan bien está diseñado y construido el sistema, etc).
Para los sistemas dinámicos es necesario considerar también el estado de las partes y
componentes así como las dependencias entre ellos. Hay que aportar energía (e
información), mover masa y materiales, transformar sustancias, entre otros.
Esto crea literalmente innumerables dependencias de las que existe una relativa
ignorancia, pero que, sin embargo, deben funcionar según lo planeado para que el sistema
cumpla su propósito…
En relación con las investigaciones de eventos, rara vez podemos obtener toda la
información que necesitamos sobre lo que sucedió. Una razón es que la búsqueda de
información está influenciada por sesgos y restricciones prácticas.
Para que un sistema sea comprensible es necesario saber lo que sucede 'dentro' de él,
tener una descripción o especificación suficientemente clara del sistema y sus funciones.
• Los mismos requisitos deben cumplirse para que un sistema sea analizado y para que
sus riesgos sean evaluados.
• Que esto debe ser así es obvio si consideramos lo contrario.
• Si no tenemos una descripción o especificación clara de un sistema, y/o si no sabemos
lo que sucede 'dentro' de él, entonces es claramente imposible comprenderlo de
manera efectiva y, por lo tanto, también investigar accidentes o evaluar riesgos.
Aunque las suposiciones subyacentes rara vez se establecen explícitamente, son fáciles de
reconocer al observar métodos establecidos, como:
• FMEA (Análisis de modo y efectos de fallas)
• HAZOP (Estudio de peligros y operabilidad)
• Árboles de Fallas
• Entre otros
Aunque estas suposiciones pueden estar justificadas para los sistemas tecnológicos, es
muy cuestionable si se aplican a los sistemas y organizaciones sociales o a las actividades
humanas.
Los modelos y métodos que requieren que el sistema en cuestión pueda describirse en su
totalidad, por esa razón no serán adecuados para los sistemas sociotécnicos, ni para el
análisis de accidentes ni para la evaluación de riesgos.
Por lo tanto, es necesario optar por nuevos métodos y enfoques que puedan usarse para
sistemas que están incompletamente descritos o subespecificados.
Homogéneo y Heterogéneos y
Característica de los regular posiblemente irregulares
procesos
Las diferencias entre los sistemas tratables y sistemas intratables se pueden ilustrar con
dos ejemplos.
Sistemas Redefinidos
Los sistemas generalmente se definen con referencia a su estructura, es decir, en términos
de sus partes y cómo están conectadas o ensambladas.
• Las definiciones comunes enfatizan que el sistema es un todo y que está compuesto
de partes u objetos independientes que están interrelacionados de una forma u otra.
• Las definiciones de este tipo hacen que sea natural confiar en el principio de
descomposición para comprender cómo funciona un sistema y explicar el
funcionamiento general en términos del funcionamiento de los componentes o
partes, teniendo en cuenta, por supuesto, que el todo es más grande que la suma de
las partes.
Sin embargo…
...es completamente posible definir un sistema de una manera diferente, a saber, en
términos de cómo funciona en lugar de en términos de cuáles son los componentes y cómo
se juntan.
• Esto significa que el desempeño característico del sistema (del conjunto de funciones)
no puede entenderse a menos que incluya una descripción de todas las
funciones, es decir, el conjunto como un todo.
• Una organización, por ejemplo, no debe caracterizarse por lo que es sino por lo
que hace.
De la Probabilidad a la Variabilidad
Dado que las prácticas de seguridad establecidas requerían que se pudiera calcular la
probabilidad de una falla o mal funcionamiento, esto generó numerosas propuestas sobre
cómo calcular la probabilidad de un 'Error Humano'.
Una transición similar tuvo lugar cuando el enfoque cambió del factor humano a la
organización y/o cultura de seguridad.
En cambio...
… es una cuestión de la variabilidad del funcionamiento y si el resultado es aceptable en
las condiciones existentes.
Pero tan pronto como decimos variabilidad, también reconocemos que cualquier 'fallo'
será temporal, por lo tanto, reversible.
• En consecuencia, deberíamos tratar de comprender qué tan probable es la
variabilidad del rendimiento de un sistema y cómo la variabilidad de múltiples
funciones puede interactuar para producir un resultado no deseado.
Sin embargo, lo que nos interesa no es si una función será variable, ya que por definición
todas lo son. En cambio, lo que nos interesa es si la variabilidad será tan grande que la
función no podrá proporcionar los resultados deseados.
• Esto puede deberse o bien a la variabilidad de una sola función
• o, más probable y también más importante, la combinación de la variabilidad de
múltiples funciones en el tiempo y en el espacio.
Por supuesto, siempre habrá casos (incluso en sistemas sociotécnicos complejos) en los que la
variabilidad de una sola función (o una sola actividad) sea tan grande que un resultado
adverso sea inevitable.
• Pero incluso en ese caso, tiene un uso limitado para decir que la función ha fallado o
que el componente o la entidad ha funcionado mal y calcular la probabilidad de que
esto suceda o suceda.
• En la mayoría de los casos, los resultados (no deseados) se deben a interacciones
entre funciones individuales, por lo tanto, combinaciones de los efectos de su
variabilidad.
Conclusiones
Prácticamente todas las Investigaciones de Accidentes y Evaluaciones de Riesgos se
llevan a cabo en un estado de relativa ignorancia del comportamiento total del sistema.
Esta condición contrasta con el hecho de que todos los enfoques establecidos para la
evaluación de riesgos requieren que sea posible describir el sistema y los escenarios en
detalle, es decir, que el sistema sea tratable.
Dado que no es razonable superar este problema haciendo que las descripciones de los
sistemas sean tan simples que se vuelvan tratables, es necesario buscar nuevos enfoques
que puedan usarse para sistemas intratables, es decir, para sistemas que están
incompletamente descritos o sub-especificados.
• Al enfatizar que la Seguridad es algo que hace un sistema en lugar de algo que tiene , el
estado inevitable de ignorancia relativa puede reducirse centrándose en lo que
realmente sucede.
• La cita completa de Coleridge de 1835 es “Si los hombres pudieran aprender de la historia, ¡qué
lecciones nos enseñaría! Pero la pasión y la fiesta ciegan nuestros ojos, y la luz que nos da la experiencia
es una linterna en la popa que alumbra sólo sobre las olas detrás de nosotros”.
Søren Kierkegaard escribió que “Livet forstås baglænds, men må leves forlænds” en 1843.
• Hay varias descripciones o encuestas de modelos HRA, que también incluyen parte de su historia.
Por ejemplo Kirwan, B. (1994). Una guía para la evaluación práctica de la confiabilidad humana.
Londres: Taylor & Francis, o Hollnagel, E. (1998). Método de Análisis de Errores y Confiabilidad
Cognitiva (CREAM). Oxford: Elsevier Science Ltd.