Guía ARA 6
Guía ARA 6
Guía ARA 6
Introducción
Conceptos generales
Los trabajos desarrollados por Fisher en los años 20 y por los matemáticos Neyman y
Pearson en la década del 30, dieron lugar al método actualmente conocido como prueba de
significación, correspondiente al paradigma frecuentista. Este método engloba un índice
para medir la fuerza de la evidencia, el valor p, y el procedimiento de prueba de hipótesis.
Se ha señalado que el paradigma clásico implica una decisión dicotómica, que constituye
una medida que depende vitalmente de un elemento exógeno a los datos: el tamaño de
muestra. A un efecto pequeño observado en un estudio con un tamaño de muestra grande
puede corresponder el mismo valor p que a un gran efecto registrado a través de una
muestra pequeña.
Alternativamente, la inferencia bayesiana conforma una aproximación metodológica
exenta de casi todas las críticas que se le hacen a las pruebas de significación y permite
incorporar las evidencias aportadas por experiencias previas dentro del proceso analítico,
contemplándolas en las conclusiones. Por ejemplo, un médico tiene un criterio a priori
sobre un paciente; realiza exámenes complementarios y actualiza su visión inicial sobre el
diagnóstico que corresponde a ese paciente al conjugar las dos cosas (visión inicial e
información complementaria) en lo que constituye un proceso de inducción integral.
Parece bastante natural que un investigador se conduzca de manera similar; esa es
exactamente la forma en que opera el pensamiento bayesiano.
El pensamiento bayesiano tiene más similitud que el frecuentista con el tipo de
situaciones en que se ve el científico habitualmente: lo que tiene son datos (individuos
enfermos con ciertos rasgos, medias muestrales, series de datos) y lo que quiere es
descubrir qué circunstancias determinaron que los datos fueran esos y no otros (es decir,
quiere hacer juicios acerca de las leyes que gobiernan el proceso que produjo los datos que
observa). La diferencia esencial entre el pensamiento clásico y el bayesiano radica en que
aquél se pronuncia probabilísticamente sobre los datos a partir de supuestos; en tanto que
éste se pronuncia (también probabilísticamente) sobre los supuestos partiendo de los datos.
Probabilidad subjetiva
en este marco las probabilidades pueden variar de una persona a otra, se llaman
probabilidades subjetivas o grados de creencia. La alternativa bayesiana está abierta a
manejarse con esta última variante, aunque no excluye la primera.
sugiere cierta arbitrariedad; sin embargo, el hecho de que diferentes sujetos atribuyan
probabilidades diferentes al mismo evento no significa que se conduzcan arbitrariamente.
Qué probabilidad hay que un alumno apruebe un examen? para emitir una respuesta,
nadie exigiría someterlo 1.000 veces a ese examen para poder contar cuántas veces aprobó
y poder computar el porcentaje de éxitos.
La inducción bayesiana consiste en usar recursos probabilísticos para actualizar
(cambiar) nuestra asignación probabilística inicial o previa (haya sido ésta, objetiva o
subjetivamente establecida) a la luz de nuevas observaciones; es decir, computar nuevas
asignaciones condicionadas por nuevas observaciones.
Por ejemplo, cierta clase de fruta se cultiva en 2 regiones, A y B. Ambas áreas sufren a
veces de invasiones de mosca de la fruta. Las probabilidades son:
¿Qué probabilidad hay de que una, otra o ambas regiones estén infectadas en determinado
momento?
Esquemáticamente:
P (X e Y) = P (X) P (Y)
137
Se define como:
P A B
P AB = , P B 0
P B
1.4. Sumario
Son X e Y
mutuamente excluyentes?
1. P (X e Y) = 0 1. P (X e Y) > 0
2. P (X ó Y) = P (x) + P (y) 2. P (X ó Y) = P(X) + P(Y) P(X e Y)
Son X e Y independientes?
P x e y
1. P (X Y) = P (X) 1. P x y
P y
2. P (X e Y) = P (X) P (Y) 2. P (X e Y) = P (X Y) P (Y)
= P (Y X) P (X)
2. Teorema de Bayes
El teorema de Bayes es una herramienta para pasar de una probabilidad inicial, a una
probabilidad posterior o actualizada, sobre la base de una nueva observación. Produce una
probabilidad conformada a partir de dos componentes: una que con frecuencia se delimita
subjetivamente, conocida como probabilidad a priori, y otra objetiva, llamada
verosimilitud, basada exclusivamente en los datos. A través de la combinación de ambas,
el analista conforma entonces un juicio de probabilidad que sintetiza su nuevo grado de
convicción al respecto. Esta probabilidad a priori, una vez incorporada la evidencia que
aportan los datos, se transforma así en una probabilidad a posteriori.
El teorema de Bayes se deriva a partir de la definición de probabilidad condicional.
Esta se definiría para dos sucesos A y B, donde A y B son ambos sucesos posibles, es
139
P A B
P B/A [1]
P A
Análogamente,
P A B
P AB =
P B
P A/B P B
P B/A [2]
P A
Ahora bien, supóngase que B1, B2, ..., Bk son k sucesos mutuamente excluyentes, uno
de los cuales ha de ocurrir necesariamente; entonces la ley de la probabilidad total
establece que:
k
P A P A/Bi P(Bi )
i 1
P A/B P B
P Bj / A k
[3]
P A/Bi P Bi
i=1
P(A/B j )P(B j )
P(B j/A) k
P(A/Bi )P(Bi )
i=1
Dónde:
P(Bi) son las probabilidades a priori. Representan las probabilidades de los estados
del suceso antes de tomar la información adicional.
P(A/Bj) es la verosimilitud de la hipótesis. Representa la probabilidad condicional
de observar la información adicional A, cuando el estado del suceso que se
presenta sea Bj.
P(Bi/A) es la probabilidad a posteriori. Representa la probabilidad de ocurrencia
del estado del suceso Bi dada la información adicional A.
Los diagramas de árbol son útiles para organizar cálculos que envuelvan varias
etapas.
Cada segmento del árbol es una etapa del problema
Las probabilidades en las ramas de cada punto deben sumar 1.
La probabilidad de alcanzar el final de cualquier vía completa es el producto de las
probabilidades en sus ramas.
mide la calidad de la prueba diagnóstica: cuanto más cerca de uno esté, mejor es el
test.
Especificidad (Sp): la probabilidad de
prueba) dado que no está infectado. Es otra probabilidad condicional y medida de
calidad: cuanto más cerca esté de la unidad, mejor es la prueba.
Deseamos conocer la probabilidad de que un animal esté infectado (I), dado que pasa
un control veterinario específico. Primeramente visualizamos el problema mediante un
diagrama de árbol de eventos:
SI Pasa/Infectado (0,05) F -
SI PASA
P=0,08 TEST ? No pasa/Infectado (0,95) Se
NO
Animal infectado?
NO
NO PASA No pasa/Sano (0,02) F +
0,92 TEST ? Pasa/Sano (0,98) Sp
SI
¿Cuál es la probabilidad de que un animal infectado haya resultado negativo (es decir,
haya pasado la prueba)?
Verosimilitud
Alternativa Priori Conjunta Posterior
P (pasa/alt)
Infectado 0,08 0,05 0,004 0,004416
Sano 0,92 0,98 0,9016
Norma 0,9056
4. Inferencia Bayesiana
( )l ( x / )
f ( / x)
( )l ( x / )d
Donde:
istribución a priori.
Probabilidad calculada a partir de observar aleatoriamente los datos x para un dado valor
ión incorpora la información contenida en los datos. Si
contienen muy poca, la función tendrá una elevada dispersión, en tanto que si contienen
mucha información, estará muy concentrada alrededor de un valor particular del
parámetro. Si la forma de la función se corresponde fuertemente con la distribución a
f ( / x) ( )l ( x / )
Bibliografía
Kammen, D. y Hassenzahl, D. 2001. Should we risk it?. Princeton University Press.
Pérez, E. 2000. Decisión Estadística Bayesiana. Ediciones cooperativas.
Organización Panamericana de la Salud. 2003. Análisis Bayesiano. OPS y Dir. Gral. Salud
Pública de Galicia Editores.
Vose, D. Risk Analysis, a quantitative guide. 2004. John Wiley and Sons.
144
2. Se le realiza un análisis diagnóstico para detectar una enfermedad que afecta una
persona cada 5000, y que no presenta síntomas inicialmente. El análisis tiene un 5% de
falsos positivos y un 2% de falsos negativos. Aplicando análisis bayesiano para la
obtención de las probabilidades a posteriori, qué concluye Ud. si:
a) Su test resulta negativo para la enfermedad
b) El resultado de su test es positivo para la enfermedad.
145