Tema 02
Tema 02
Tema 02
Recopilación de datos
En este capítulo se describen las diferentes técnicas de recopilación de datos, y se da un
procedimiento para diseñar las diferentes etapas del proceso de obtención de datos. Se hace hin-
capié en los métodos de medición. O sea, en la recopilación de datos por medio de instrumentos,
como es la práctica diaria en un laboratorio de análisis clínicos y en las dosificaciones de medi-
camentos en la industria farmacéutica. Otras formas de recopilar como encuestas, censos, etc. se
tocan muy someramente pues se espera que el lector interesado use los textos específicos para
profundizar estos conceptos.
Etapa 1 - Objetivos de la Recopilación: esta primera etapa consiste en determinar con claridad
qué es lo que se quiere lograr con la recopilación. No siempre es fácil saber lo que se quiere y
menos determinarlo en detalle. Por eso, se deben definir primero los objetivos generales del tra-
bajo estadístico. Y a partir de ellos se conocerán las variables a medir y así saber cuáles elemen-
tos se necesitarán. Con esto se tiene una primera idea de los alcances y limitaciones de la tarea a
realizar, según sea el tipo de información a obtener de la población en estudio. Los objetivos de-
ben redactarse como si fueran un telegrama, esto es, concisos, breves y claros. Una buena delimi-
tación temprana de la tarea ahorra tiempo, dinero y trabajo, que se desperdiciaría en futuras revi-
siones, correcciones, ampliaciones, etc. Otra cosa a determinar con claridad en esta etapa es la
población en estudio y las hipótesis necesarias para simplificar el trabajo, desde el punto de vista
práctico. Normalmente, la persona a cargo de la investigación es la responsable de esta etapa
pues tiene una visión más completa y actualizada del tema en estudio. Este paso y el siguiente
están íntimamente relacionados. La doble flecha en el diagrama indica esta situación. Lo práctico
es ajustar lo que se quiere, en función de lo que se tiene o se puede conseguir, para no caer en
utopías. Por ejemplo, si se necesita la distribución de la población por edades y sexo, no es lo
mismo disponer de la información del último censo realizado que hacerlo uno mismo.
Bioestadística aplicada a Bioquímica y Farmacia 2-2
Azzimonti Renzo, JC - [email protected]
OBJETIVOS
RELEVAMIENTOS
CREACION DE ALTERNATIVAS
SELECCION DE ALTERNATIVAS
PRUEBA PILOTO
PUESTA EN MARCHA
Etapa 2 - Relevamientos: esta etapa consiste en determinar lo que se tiene para alcanzar
los objetivos definidos en la etapa anterior. Se trata de listar los bienes necesarios para poder
hacer el trabajo, y el listado de los disponibles. Conviene tener en cuenta la siguiente clasifica-
ción de los bienes:
Materiales
Equipamiento
Bienes tangibles Dinero
Infraestructura
Personal
Organización
Bienes intangibles
Conocimientos
Los materiales incluyen los de vidrio, de limpieza, drogas, reactivos, analitos, etc. Por equipa-
miento se entiende no sólo los aparatos de medición, sino los accesorios como muebles y útiles
de laboratorio y para oficina. El dinero o los recursos monetarios deben ser determinados con
mucho detalle para afrontar gastos e inversiones durante la investigación. Además, hay que de-
terminar los fondos disponibles y las posibles fuentes financieras adonde poder recurrir. La in-
fraestructura incluye a los edificios, laboratorios, electricidad, agua, etc. El personal es todo el
necesario en sus diferentes niveles, como ser: profesionales, técnicos, ayudantes, consultores ex-
ternos, de servicio, etc. Este relevamiento de los bienes tangibles disponibles y de los necesarios
para la recopilación condiciona de alguna manera los objetivos. Puede ser que se disponga de
bienes sobrados para alcanzar los objetivos, por lo que se pueden plantear metas más ambiciosas.
Por otra parte, puede ocurrir que los bienes disponibles estén lejos de cubrir los necesarios, y por
lo tanto se deberán resignar los objetivos planteados por otros más modestos. Por su parte, los
bienes intangibles son dos: la organización de los bienes tangibles, de manera tal de alcanzar los
objetivos, y los conocimientos para saber cómo usarlos. Esto es el “know how” de cada profesión.
Y también lo es la búsqueda bibliográfica de trabajos similares en revistas especializadas, textos
y otras fuentes de información. Una vez terminada esta etapa, que seguramente habrá ayudado a
depurar la anterior, se debe comenzar a pensar en las diferentes maneras de hacerlo.
Etapa 3 - Creación de alternativas: esta etapa consiste en saber cómo hacerlo. O sea,
generar distintas alternativas de sistemas de recopilación de datos, de acuerdo con los objetivos
adoptados y los bienes disponibles. Se debe hacer un listado con todas las formas posibles de
efectuar la recopilación a fin de tener un panorama completo. Esto se ilustra en el diagrama de
flujo con el planteo de n alternativas. Básicamente, hay dos tipos de alternativas: una es lograr
los datos a través de publicaciones existentes llamadas fuentes; la otra forma es con mediciones
propias. A su vez, dentro de cada tipo, se pueden plantear varias alternativas, por ejemplo: si las
determinaciones se harán en laboratorio propio o por encargo a terceros, si se controlará la cali-
dad de los instrumentos a usar, etc. En síntesis, se habla de fuente propia cuando se decide extra-
er los datos mediante mediciones. Fuente Primaria es cuando se toman los datos de otros inves-
tigadores que publican los resultados de sus propias mediciones. Fuente Secundaria es cuando
los datos se extraen de publicaciones que usan como referencia a fuentes primarias. Y así sucesi-
Bioestadística aplicada a Bioquímica y Farmacia 2-4
Azzimonti Renzo, JC - [email protected]
vamente. Siempre que sea posible se aconseja el empleo de fuente propia en razón de la confiabi-
lidad de los datos a manejar. Cuando esto no sea posible, entonces conviene usar una fuente pri-
maria para evitar errores de imprenta, de trascripción, etc. En Argentina existe el Instituto Nacio-
nal de Estadísticas y Censos que es la fuente primaria por excelencia de los investigadores. El
INDEC, como se lo conoce popularmente, publica boletines periódicos con información obteni-
da de fuentes propias. O en forma directa, a través de los Censos Nacionales de Población y Vi-
vienda, encuestas etc. Ya sea, a través de los organismos provinciales similares con los que está
asociado en esta tarea.
En caso de empate se promedia y se asigna el orden promedio (Tiempo: hubo empate entre A y B, o sea entre el
2º y 3º puesto, se asigna 2,5 puntos a cada uno). En Trabajo, Nº y Costo no hay empates, en Confiabilidad hay
empate entre el puesto 1 y 2 (1,5 puntos), y entre el 3 y el 4 (3,5 puntos).
5. Finalmente, se escoge como mejor alternativa aquella que obtuvo el puntaje mayor. En
este caso se escoge la Alternativa A, y como segunda opción la Alternativa D.
Bioestadística aplicada a Bioquímica y Farmacia 2-5
Azzimonti Renzo, JC - [email protected]
La única forma de sumar peras con manzanas es transformando cada una a pesos. El “grading”
hace algo similar porque se trata de valorizar criterios totalmente subjetivos para poder sumar los
puntajes y así decidir. En el ejemplo, se debe efectuar una determinación clínica de glucosa en
una población dada para obtener sus valores de referencia. Se determinaron cuatro formas de
hacer este trabajo y son las Alternativas A, B, C y D. El problema es decidirse por alguna de
ellas. Los criterios a tener en cuenta para esta selección son: 1) menores costos; 2) obtener la ma-
yor cantidad de datos posibles porque se trata de los valores de referencia; 3) optimizar la calidad
del sistema de medición para tener confiabilidad en los datos a obtener; 4) no demorar mucho
con todo el trabajo; y 5) hacerlo en la forma más sencilla posible. Una vez determinados los cri-
terios a usar, se debe valorizarlos. Para ello, se le asigna un puntaje a cada uno, en forma subjeti-
va, comparándolos entre sí. En el ejemplo, el tema del costo es muy importante y recibe 90 pun-
tos sobre 100. Si hubiese sido decisivo, entonces tendría los 100 puntos. La cantidad de datos es
más o menos importante y por eso se le otorgan 50 puntos. La confiabilidad está a medio camino
entre los dos anteriores y recibe 80 puntos. El tiempo que se tarde en hacer todo el trabajo no es
crítico, pero sí conveniente, y por ello se le dan 40 puntos. La laboriosidad de cada método incide
poco en la decisión a tomar y por lo tanto se le dan 30 puntos.
Con esto ya se tienen valorizados los criterios entre sí, y lo que falta es aplicarlos en cada
una de las cuatro alternativas dadas. Para simplificar la tarea, se emplea dentro de cada criterio
un “ranking” de las alternativas. La escala se puede hacer de mejor a peor. Como hay cuatro al-
ternativas, habrá cuatro puestos en el ranking. A la alternativa más conveniente se le asigna el
mayor valor posible, esto es 4. A la peor el menor valor posible: 1. Luego, entre las dos restantes
se elige la mejor de ambas para ponerle un 3 y a la remanente un 2. Por ejemplo, en el criterio del
costo, se sabe que la alternativa más cara es la B y así le toca el último puesto con un punto,
mientras que la más barata es la A y le tocan 4 puntos. En el medio quedan las alternativas C y D,
pero como la C es un poco más cara tiene 2 y la D queda con 3. Análogamente, para los demás
criterios. Debe notarse que en caso de empate se deben promediar los puntos. Por ejemplo, en el
criterio del tiempo, lo único que se sabe es que la alternativa D es la peor (por eso sale con un
punto) y la C es la mejor (4 puntos). Pero, de las otras dos lo único que se sabe es que demanda-
ran un tiempo similar, una especie de empate entre ellas. Por lo tanto, quedan empatados los
puestos 2º y 3º, el puntaje promedio resulta 2,5 y es el que se le asigna a las alternativas A y B.
Ahora se pueden volcar todos estos puntajes a una tabla, como la que se muestra en el Pa-
so 3 del Cuadro 2.1. En cada casilla se multiplica el puntaje obtenido en el “ranking” por los
puntos obtenidos en el “grading” de cada criterio (Paso 2). Así, cada combinación posible de cri-
terio y alternativa, resulta valorizada en una de las casillas de esa tabla. Se tiene una ponderación
de los valores subjetivos presentados. El último paso es sumar el total de puntos logrado por cada
alternativa para saber cuál gana. En el ejemplo, la alternativa A resulta seleccionada por tener el
valor máximo de 930 puntos. Y queda como segunda opción la alternativa D que le sigue con
640 puntos. Puede verse que la alternativa ganadora obtuvo el 80% del puntaje máximo posible
[4 (90+50+80+40+30) = 1.160]; esto es, se trata de una buena selección.
El gerente de una Obra Social quiere elegir la mejor farmacia de Posadas para firmar un
convenio con ella para la atención de sus afiliados. Los criterios que emplea son: reparto a
domicilio, al cual le da una importancia del 90%. Buen surtido de medicamentos con 80%.
Atención personalizada 50%. Muchas bocas de expendio repartidas en la ciudad 60% y
buen trato a los clientes 40%. Las candidatas son tres: las farmacias A, B y C. Realizando
un ranking entre ellas para cada criterio resulta :
Este tipo de análisis puede emplearse en todos los casos donde resulte difícil tomar una decisión,
porque los factores a tener en cuenta son muy diversos. Desde un estudio biométrico hasta una
decisión de tipo personal.
Etapa 5 - Prueba piloto: existe una diferencia entre el diseño en los papeles y la realidad.
Es por eso que siempre es aconsejable hacer una prueba piloto antes de la puesta en marcha para
poder juzgar cómo trabaja el sistema de recopilación de datos. Se sacan unos pocos datos y se
analizan las dificultades no previstas, junto con los resultados. Comparando los valores obtenidos
con los que se esperaba tener, se hace una especie de control previo del sistema.
Etapa 6 - Ajustes: sería demasiado optimista esperar que todo salga bien al primer intento y
que no sea necesario efectuar correcciones. Lo normal es tener que hacer pequeños ajustes que
permitan optimizar al sistema. De las diferencias detectadas en el control de la etapa anterior se
sacan indicios. Estos muestran qué tópicos retocar y surgen nuevas ideas de cómo hacer mejor
las cosas. Básicamente, usando el sentido común se corrigen los principales defectos, como ser:
mejorar el entrenamiento y conocimientos del personal, rediseñar formularios, calibrar equipos
de medición, estimación de la magnitud del error de medición, etc. Pero también hay técnicas de
optimización especiales como son los distintos modelos de la Investigación Operativa. Esta es
una disciplina muy emparentada con estadística y sus modelos más conocidos son: Teoría de Lí-
neas de Espera, Programación por Camino Crítico (PERT), Programación Dinámica y Lineal,
Reemplazos, Simulaciones, etc. Una vez hechos los ajustes, se vuelve a la etapa anterior y se
Bioestadística aplicada a Bioquímica y Farmacia 2-7
Azzimonti Renzo, JC - [email protected]
efectúa una nueva prueba piloto. Este ensayo permite decidir si se continúa adelante, o si son ne-
cesarios más ajustes. Hay que continuar hasta que todo sea satisfactorio y recién entonces pasar a
la etapa siguiente. Pero puede ocurrir que la prueba piloto demuestre que la alternativa escogida
no sea satisfactoria para los objetivos previstos. Entonces, hay que escoger una nueva alternativa
y recomenzar con los ensayos. En el Cuadro 2.1, esto implicaría desechar la alternativa A y optar
por la D para hacerle una nueva prueba piloto. Y así sucesivamente hasta lograr una alternativa
aceptable. Si ocurre que ninguna de las alternativas planteadas es satisfactoria, entonces hay que
generar más alternativas para que sean probadas. Si todavía esto no alcanza, lo que queda es vol-
ver atrás hasta definir nuevos objetivos y empezar todo de nuevo.
Obtención propia
Esta primera clasificación se basa en la fuente de donde se toman los datos. La idea es
que siempre conviene la fuente propia por razones de seguridad y confiabilidad. Mientras que si
es de terceros, entonces conviene más la fuente primaria que las otras por la posibilidad de erro-
res en la trascripción, publicación, etc. Pero hay otros factores a tener en cuenta como las defini-
ciones de los términos y de los conceptos usados en el trabajo, las unidades usadas, etc.
Cuando es una fuente propia se conocen todas las definiciones. Pero cuando se trata de
una fuente primaria no siempre están escritas en la publicación, y en el caso de una fuente secun-
daria no se acostumbra ponerlas. El hecho de no tener muy claras las definiciones de términos
implica no tener claro el ámbito de aplicación del trabajo. Por ejemplo, si se toman datos de un
estudio de las familias de Misiones, conviene saber qué cosa entiende el autor del trabajo por fa-
milia. Una cosa es la familia censal constituida por la cabeza de familia, su esposa y los hijos
solteros que habitan bajo el mismo techo. Otra cosa es la familia biológica formada por el padre,
la madre y todos los hijos de ambos (definida así en el Diccionario Demográfico de Naciones
Unidas). Otra cosa es la familia como se entiende vulgarmente, constituida por padres, hijos y
parientes. Por lo tanto, si no se tiene claro a qué tipo de familia se refiere el autor del trabajo, no
se puede saber a qué población aplicar las conclusiones. Ni tampoco si tales datos pueden ser
tomados como fuente para un nuevo trabajo.
Bioestadística aplicada a Bioquímica y Farmacia 2-8
Azzimonti Renzo, JC - [email protected]
Cuando no se conocen muy bien las unidades que se usaron para medir los datos, estos
son directamente inútiles. Por ejemplo, si se poseen datos de la producción maderera de Misiones
expresados en m3. Una cosa es el m3 estéreo usado en la cubicación de los rollos de madera en
planchada de camión, otra el m3 Alto Paraná usado para cubicar madera en el monte, y otra muy
diferente el m3 lineal del Sistema Internacional de Unidades (1 m3 = 18,25 m3 Alto Paraná ).
Única vez
Formas de recopilar
Sistemática
Otra forma de clasificar, es tomar en cuenta la cantidad de veces que se hará el mismo
trabajo de recopilación para una investigación determinada. Hay veces en que se repite la tarea en
períodos fijos de tiempo, caso típico los Censos Nacionales de Población y Vivienda que se rea-
lizan cada diez años. También se pueden efectuar Censos sobre otras actividades, como por
ejemplo: Censo Industrial, Censo de Establecimientos Educacionales, Censo Agropecuario etc.
Por su parte existen Encuestas o trabajos similares de recopilación hechas en forma sistemática.
Un ejemplo, son las mediciones necesarias para calcular los Índices Económicos mensuales que
publica el INDEC (Índice de Costo de vida, de la Construcción, de Precios, etc.). En Misiones se
realiza la Encuesta Permanente de Hogares, para controlar la situación socioeconómica de sus
habitantes y ver su evolución en el tiempo.
Estratificadas
Formas de recopilar
No Estratificadas
Se puede clasificar la forma de recopilar de acuerdo con la manera en que se tomaron las
muestras. Muchas veces la población se divide en subconjuntos llamados estratos para lograr
mayor calidad en las estimaciones que si se toma toda la población en su conjunto. En Clínica, la
estratificación más común es la clasificación de la población por Edad y Sexo. Pero es usual el
empleo de otros estratos como: Nivel de Educación o de Ingresos, Raza, Religión, etc. Para un
Laboratorio de Análisis Clínicos, la manera diaria de recopilación de datos es medir, y su pro-
blema principal es la variabilidad (error) que afecta toda determinación clínica. En una Farmacia,
el movimiento diario generado por las ventas afecta el stock. La manera de medir es haciendo el
recuento de mercadería – una equivocación en el recuento no debe ser considerado como “error”.
Las variaciones debidas a la preparación del paciente, no solo incluyen a los factores
biológicos que operan antes de la recogida de la muestra, sino también a los factores analíticos y
psicológicos que actúan durante la toma. Dentro de todos ellos, los que tienen un efecto más
acentuado son: el ejercicio, la dieta y la ingestión de fármacos. El ejercicio genera una actividad
muscular que tiene efectos transitorios, a veces prolongados, sobre diversas cantidades clínicas.
Las variaciones transitorias de los constituyentes del plasma inducidas por ejercicio incluyen una
disminución de ácidos grasos libres, un aumento fuerte (del 180%) en la concentración del ami-
noácido alanina, y uno mayor (300%) en la de lactato. Esto se observa durante la primera hora
después del ejercicio por razones de tipo metabólico, y vuelven a sus niveles anteriores en las
horas siguientes. Los efectos duraderos del ejercicio se notan en el aumento de la actividad de las
enzimas musculares medidas en suero como fosfatasa-alcalina (AP), creatino-fosfo-cinasa
(CPK), lactato-deshidrogenasa (LDH), etc. Por ejemplo, se midieron variaciones de AP del
120%, once horas después de realizar el ejercicio.
Las variaciones debidas a la dieta son muy conocidas. Aunque se recomienda que antes
de someterse a la extracción el paciente esté en ayunas, un ayuno prolongado (de 24 horas) puede
conducir a resultados inesperados. La bilirrubina se incrementa en 240% después de ayunar 48
horas. Así también se detectaron incrementos en la concentración plasmática de leucina, valina e
isoleucina, como disminuciones de concentraciones de glucosa y proteínas. El tipo de ingesta
influye también en las determinaciones. Una dieta rica en proteínas produce un incremento en la
concentración sérica de urea, amoníaco y urato. La ingesta de alta proporción de ácidos grasos no
saturados disminuye el colesterol. Las bebidas con cafeína, mateína o teína, pueden llegar a tri-
plicar la concentración de ácidos grasos. La supresión de hidratos de carbono aumenta la excre-
ción de acetona en orina. La ingestión de etanol induce incrementos en la concentración de lacta-
tos, uratos, triglicéridos y metabolitos del etanol, como disminuciones de la CPK y de la AP.
Las variaciones producidas por los efectos fisiológicos de los fármacos son muy grandes.
Sobre todo, por la gran disponibilidad de los mismos usadas en el tratamiento de los pacientes.
Existen dos categorías básicas: los efectos fisiológicos in vivo del fármaco o de alguno de sus
metabolitos, sobre la variable clínica a determinar, y los efectos in vitro debido a propiedades
físico-químicas del fármaco que interfieren con el material de ensayo. Young (1975), compiló un
archivo de más de 2.000 referencias con 15.000 interacciones de fármacos, donde puede verse la
gran cantidad de posibilidades existentes. Pudo observar que la respuesta farmacológica de un
paciente difiere mucho de la de un individuo sano y que la respuesta in vivo depende de una serie
de factores como: dosis, estado físico y otras medicaciones suministradas en conjunto.
nentes de suero en individuos sanos que estuvieron de pie hasta un minuto antes de la extracción,
y de los mismos individuos luego de estar media hora acostados. Aparecieron variaciones de más
del 10% en Fosfatasa alcalina, Albúmina y ALT; más del 5% en Proteínas totales, Hierro, Lípi-
dos totales, Colesterol, AST y Fosfatasa ácida.; más del 3% en Fosfato Potasio y Calcio; mientras
que el ácido úrico disminuyó en casi un 4%. La selección de sangre capilar frente a sangre veno-
sa no suele ser de mucha importancia, excepto en las pruebas de tolerancia de glucosa donde la
capilar tiene concentraciones mayores del 10% al 30% respecto de la venosa. En la recogida de
especimenes de orina de 24 horas, se deben seguir cuidadosamente las instrucciones sobre el mé-
todo a seguir; caso contrario se produce mucha confusión en los resultados.
Durante la Etapa Instrumental, es decir, mientras se están midiendo las muestras, pueden
ocurrir variaciones debidas al manejo. Una cosa común es hacer las diluciones con pipetas en
Bioestadística aplicada a Bioquímica y Farmacia 2-11
Azzimonti Renzo, JC - [email protected]
lugar de usar balanzas de precisión. Aunque se trate de pipetas calibradas, las determinaciones
volumétricas son de menor calidad que las efectuadas en balanzas analíticas. Estas pueden detec-
tar variaciones de hasta 10-4 g para cantidades de hasta 200 g, precisión que no logra una pipeta.
Análogamente, cuando se fracciona la muestra total en alícuotas, el trasvasamiento y la determi-
nación volumétrica pueden dar lugar a variaciones por falta de precisión instrumental. La mezcla
de las alícuotas con los reactivos para efectuar las determinaciones, es otro paso de combinación
de volúmenes susceptible de lo expresado antes. Pero no sólo pueden producirse variaciones por
emplear pipetas manualmente, sino que pueden ocurrir contaminaciones tanto en los materiales
empleados como en los reactivos. Por ejemplo, una contaminación bacteriana conduce a diferen-
cias detectables en una Carta de Control de Calidad. Finalmente, las fluctuaciones de los instru-
mentos son una de las causas clásicas del llamado error de medición.
El sentido común indica que si se efectúan mediciones repetidas del mismo material bajo
condiciones estables y con el mismo instrumento, los resultados obtenidos deberían ser los mis-
mos. Sin embargo, todo investigador que haya operado con instrumentos sensibles sabe que esto
no es así. Hay variaciones debidas a causas desconocidas y a esa ignorancia se le puso un nom-
bre: “error”, y una causa: “el azar”.
En un conteo la medición es exacta si hay algún “error”, entonces se trata de una equivo-
cación al contar mal. Cuando al efectuar una serie de mediciones se obtienen valores iguales, se
piensa que el instrumento no es lo suficientemente sensible como para detectar el error. Nunca se
puede creer que son iguales porque siempre hay errores y las sutiles variaciones ocasionadas por
el “azar” no son detectadas en el instrumento. Ejemplos: detectar en un reloj común una varia-
ción del orden de unas centésimas de segundo, o el peso de un grano de arena en una balanza de
almacén, etc. Si bien los errores no pueden ser evitados, por lo menos pueden ser cuantificados.
Como se mostrará en el punto 2.6.
Cohortes
Diseño de estudios clínicos Caso-control
RCT (también llamados “Clinical trials”)
tidad de casos en que aparece el estado buscado (enfermos) y los casos de ausencia del mismo
(sanos). Con estos datos se puede armar una Tabla de riesgo como la vista en el capítulo anterior.
Este caso es de un estudio prospectivo, aunque también se podría hacer uno de tipo retrospectivo
donde se busca en la historia del paciente si alguna vez estuvo expuesto al factor de riesgo. Uno
de los problemas de este tipo de diseño es la gran cantidad de datos requerida cuando la enferme-
dad es poco frecuente, por ejemplo si una hemorragia gastrointestinal en personas que usan cierto
medicamento aparece 1,5 veces cada mil personas, en comparación con aquellos que no usan el
medicamento en los cuales aparece 1 cada mil, el tamaño muestral requerido (NNT) es de 75.000
sujetos para cada grupo. El otro problema de los estudios observacionales es la aparición de cier-
tos factores de confusión, que enmascaran otras causas que provocan la enfermedad. Por ejem-
plo, si en el caso de las hemorragias el medicamento se prescribe para pacientes de avanzada
edad, y se sabe que los pacientes viejos tienen más tendencia a sangrar que los jóvenes; entonces
el factor edad puede incrementar el riesgo de hemorragias que se presume debido al medicamen-
to. Por todo esto, los investigadores deben documentar muy cuidadosamente las características de
los sujetos investigados, tanto expuestos como no expuestos, ya sea para demostrar su
compatibilidad o para corregir las diferencias usando técnicas estadísticas. Se supone que ambos
grupos deberían tener características similares para poder ser comparados como por ejemplo
tener aproximadamente la misma edad, sexo, condiciones socio-económicas etc. Cuando los
investigadores no consigan un buen balance en edad entre ambos grupos, se deberán usar
métodos estadísticos para ajustar el desbalance de los grupos. Pero aunque se tomen todas las
precauciones posibles al respecto como: la comparación entre los factores de confusión
potenciales, la documentación cuidados para evitar un desbalance, grandes tamaños muestrales,
etc.; ni aún así, pueden estar seguros que factores importantes para el diagnóstico no se hayan
tenido en cuenta, porque sencillamente los desconocen, o no los han medido y por lo tanto no
saben si ocasionan un desbalance entre los grupos. Todo esto muestra que las inferencias
obtenidas con los estudios por cohortes nunca será tan confiables como las que se pueden obtener
con un riguroso estudio del tipo RCT donde el investigador controla mejor los factores
involucrados.
En un estudio diseñado como caso-control los pacientes que han desarrollado la enfer-
medad, o el síntoma buscado, se clasifican como casos, y luego se eligen como controles a indi-
viduos que son razonablemente similares a los casos, con relación a aspectos relevantes como
pueden ser sexo, edad, condiciones médicas concurrentes, etc., pero que no han desarrollado la
enfermedad. Este tipo de estudios es más conveniente que el anterior cuando las enfermedades
son raras, o cuando un estudio por cohortes toma demasiado tiempo para que sea factible. Usan-
do un diseño del tipo caso-control los investigadores pueden determinar la frecuencia relativa de
exposición al agente que se cree origina la enfermedad, ajustando los resultados con las otras va-
riables conocidas en el pronóstico. Este diseño permite también el estudio simultáneo de múlti-
ples factores de exposición que podrían tener una asociación con la enfermedad resultante. Por
ejemplo, los investigadores podrían hacer un estudio del tipo caso-control para demostrar la rela-
ción entre la ingesta de “dietilstibestrol” (DST) en mujeres embarazadas y el desarrollo de ade-
nocarcinoma vaginal en sus hijas muchos años más tarde. Un estudio del tipo RCT o por cohorte
requerirían más de 20 años para poder ser completados. Peor aún, dado que no es muy frecuente
esta enfermedad la cantidad de casos requerida sería de cientos de miles. Por el contrario, usando
un diseño del tipo caso-control los investigadores escandinavos separaron dos grupos: en el pri-
mero colocaron a las jóvenes que habían desarrollado la enfermedad como casos (8 en total) y
luego buscaron como controles jóvenes con similares características que no la habían desarrolla-
do como controles (32 en total). Luego retrocediendo en el tiempo determinaron si existió la in-
Bioestadística aplicada a Bioquímica y Farmacia 2-13
Azzimonti Renzo, JC - [email protected]
gesta de DST durante el embarazo de sus madres. Se encontró una fuerte asociación (p <
0,00001) entre la ingesta de DST y el desarrollo del adenocarcinoma vaginal, sin tener que espe-
rar 20 años y con tan solo 40 mujeres en lugar de cientos de miles.
En los estudios diseñados como RCT se pueden estudiar la exposición a agentes dañinos
tanto como a agentes beneficiosos para el paciente como inmunizaciones, protección antibiótica
previo a una cirugía, etc. Como la aleatoriedad de la muestra es la mejor manera de balancear los
grupos de expuestos y no expuestos, las estimaciones resultarán menos sesgadas que con los
otros tipos de estudios. Se ha encontrado que los resultados inesperados que a veces aparecen en
estos estudios, tienen gran potencial en la determinación del daño potencia de un factor en estu-
dio (por ejemplo, drogas que los investigadores suponen beneficiosas a veces aparecen asociadas
con un incremento de la mortalidad).
Hay otro tipo de estudios tales como las series de casos (descripción de una serie de pa-
cientes) y el informe de un caso (descripciones de pacientes individuales). Estos dos tipos de es-
tudios no suministran comparaciones entre grupos, ni requieren que los grupos tratados y de con-
trol tengan similar prognosis. Sin embargo, ocasionalmente se encuentran dramáticos hallazgos
que demandan un inmediato cambio en el trabajo de los médicos, como por ejemplo el caso del
uso de la talidomina en embarazadas y sus consecuencias en el recién nacido. O bien, la serie de
casos que se fueron reportando hasta que se identificó al Sida como una nueva enfermedad. Pero
también pueden haber consecuencias indeseables cuando se toman acciones en respuesta a cierta
evidencia de enfermedad, por ejemplo el caso de la droga Bendectin usada como antiemético en
el embarazo, donde el fabricante tuvo que sacarla de inmediato del mercado, como resultado de
informes de series de casos que sugerían que era peligrosa. Aunque estudios posteriores demos-
traron que la droga era relativamente segura, la mala fama adquirida no pudo ser erradicada, co-
mo tampoco la posibilidad de juicios en contra del fabricante al reintroducir la droga. En conse-
cuencia, las posibilidades benéficas de esa droga se perdieron por esos motivos. Por eso los mé-
dicos no deben dejarse llevar tanto por los informes de casos, donde aparecen ciertas relaciones
del tipo causa-efecto, sino más bien reconocer que esos resultados pueden conducir a las investi-
gaciones pertinentes por los entes reguladores, o por parte de los investigadores clínicos. La apa-
rición del llamado “mal de la vaca loca” fue informada al público mucho más tarde de haber sido
descubierta, ocasionando pérdidas económicas severas. Durante el 2003 la aparición del SARS
en China y su rápida propagación, sigue generando serias preocupaciones en muchos países.
Bioestadística aplicada a Bioquímica y Farmacia 2-14
Azzimonti Renzo, JC - [email protected]
Las mediciones típicas de Laboratorio forman parte del control de calidad en la industria.
Se debe controlar tanto la materia prima ingresante como el producto final terminado. En la in-
dustria farmacéutica, alimenticia y de cosmética, los procesos son similares. La materia prima se
inspecciona en el laboratorio para determinar la concentración del reactivo comprado, de los sol-
ventes y otros integrantes de la fórmula del producto a fabricar. Es decir, su grado de “pureza”.
Pero también deben controlarse los demás insumos como envases, envolturas, frascos, ampollas,
etc. Aquí, el objetivo es asegurarse que cumplan los requisitos pedidos, como por ejemplo los
colores e impresión de los envases de cartón, de las etiquetas a pegar, el estampado en los tapo-
nes, etc. Luego, al final del proceso productivo se deben hacer más controles de calidad. En este
caso, el objeto es asegurarse que el producto terminado cumpla las normas de calidad adoptadas
por la empresa. Estas normas van desde la forma de empaquetamiento hasta el grado de pureza
de los principios activos del medicamento. La presentación del producto final hace a la imagen
empresaria entre los consumidores. En un perfume, por ejemplo, la estética del envase a veces es
más importante que el contenido. En un medicamento es al revés, por lo tanto el mayor cuidado
en esos casos se centra en el contenido. (Las acotaciones hechas en el punto anterior, en términos
generales, son aplicables al laboratorio de control en la industria. Pero las mediciones efectuadas
a lo largo del proceso productivo son otra cosa).
El problema general en la industria química es la mezcla en una o más fases del proceso
de varios componentes dentro de aparatos adecuados, ya sea en forma continua o en forma de
“batch” (lotes de producción). Cada componente puede ser considerado transferible a otras fases
posteriores, teniendo en cuenta los cambios producidos por las reacciones químicas, con libera-
ción o absorción de calor, reacciones catalíticas, oxidaciones, humidificaciones, etc. Dadas las
condiciones iniciales necesarias para que comiencen las reacciones o para poner al sistema en
cierto punto, luego de cierto tiempo de contacto comienza el proceso que debe ser controlado en
todas las etapas subsiguientes, en cada punto o momento donde se produzcan los efectos busca-
dos. En términos generales, se debe prestar atención a los puntos siguientes:
- Balance de materiales: la masa de la entrada, menos la de salida, debe ser igual a la acu-
mulada durante el proceso. Esto permite tener un balance diferencial para cada compo-
nente y se puede disponer de relaciones estequiométricas disponibles para el control.
- Primera Ley de la Termodinámica: tomando la etapa como un todo, se puede aplicar la
manera diferencial de la primera ley para tener una ecuación de control. Esto se reduce a
un balance de entalpía si no hay flujo de calor desde el contorno hacia dentro o fuera, ni
trabajo hecho por el sistema.
Bioestadística aplicada a Bioquímica y Farmacia 2-15
Azzimonti Renzo, JC - [email protected]
- Equilibrios: en los límites de las regiones interfaciales entre las etapas, se producen con-
diciones de equilibrios que prevalecen en cada fase, y que se pueden considerar como
partes del equilibrio final alcanzado por el proceso como un todo.
- Ecuaciones porcentuales: se aplican a la transferencia de calor a través de todas las inter-
faces entre las etapas del proceso, a la transferencia de masa de cada componente indivi-
dual y de las reacciones químicas ocurridas.
De apreciación
Errores Sistemáticos
Casuales
Básicamente, hay tres tipos de escala que usan los instrumentos: lectura directa, digital y
de alineación. Estos casos se esquematizan en el Gráfico 2.1. Los instrumentos de lectura directa
son todos aquellos cuya escala es continua. Donde a simple vista se puede ver hasta la menor
unidad de la escala. El ejemplo clásico es una regla milimetrada o un termómetro de mercurio,
como el caso (b) del Gráfico 2.1. Para efectuar una medición de temperatura en un líquido, se
sumerge el bulbo del termómetro en el mismo y se compara la altura de la columna de mercurio
con la regla grabada en el vidrio del mismo. Si el termómetro está graduado en grados centígra-
dos, significa que la distancia entre dos marcas sucesivas en el vidrio tiene ese valor. Si se puede
ver que el menisco de mercurio está entre la marca de 56°C y la de 57°C, entonces, el resultado x
de esta medición se debe expresar:
x ε (56; 57)°C
o lo que es lo mismo:
x ε (56,5 + 0,5)°C
Bioestadística aplicada a Bioquímica y Farmacia 2-16
Azzimonti Renzo, JC - [email protected]
(a) Sin escala (b) Escala de tipo continua (c) Escala de tipo discreta
La segunda manera de expresar el resultado de la medición significa tomar el valor más probable
dado por el promedio, y aceptar una incertidumbre de medio grado llamada error de apreciación.
Cuando la lectura es directa, se cuantifica a ese error con un valor del 50% de la menor unidad de
la escala. Por ejemplo, en una regla milimetrada el error de apreciación sería de 0,5 mm; en un
reloj de agujas con segundero sería de medio segundo. La indeterminación, en estos casos, está
dada por la capacidad del ojo humano para discernir entre las dos marcas de la regla. No sería
razonable decir que el ojo puede ver las centésimas de milímetro en una regla común.
Los instrumentos de lectura indirecta pueden ser de dos tipos: los de escala discreta y los
de comparación. Cuando el instrumento es digital se tiene una escala discreta, pues los valores
van de uno en uno y es imposible “apreciar” la mitad de la menor magnitud de la escala. En el
Gráfico 2.1 puede verse en el caso (c) un reloj digital que informa hasta el segundo. Indica una
lectura de 12 hs. 23' y 41''. La siguiente indicación podrá verse como 12:23:42. O sea, el error de
apreciación en estos casos se cuantifica con la menor magnitud de la escala. Así, una lectura
cualquiera se expresará como:
x ε ( x + ∆x)
El valor x obtenido hace pensar que el valor verdadero de la magnitud medida pertenece a un
intervalo definido por: el valor más probable más o menos el error de apreciación ∆x. Para el
ejemplo anterior, si se mide un intervalo que empieza a las 12:23:42 y termina a las 12:24:05, el
tiempo transcurrido se expresa como: x ε (23 + 1) segundos.
Los instrumentos con una escala de comparación son algo más complicados. En el caso
(a) del Gráfico 2.1 se muestra el esquema de una balanza de platillos. Aquí se tiene una aguja,
llamada el fiel, que oscila alrededor de la posición central de equilibrio. Cuando se coloca la ma-
sa a pesar en un plato de la balanza esta se desequilibra. Se van agregando pesas hasta volver a
lograr el equilibrio. Sumando el valor de las pesas se obtiene la medición. En este caso no hay
una escala en el sentido clásico del término. Por lo tanto, para cuantificar el error de apreciación
se procede como sigue: se toma la menor pesa disponible y se la coloca con mucho cuidado en el
plato; si la aguja no se mueve, entonces se toma la pesa inmediata superior. Y así sucesivamente
Bioestadística aplicada a Bioquímica y Farmacia 2-17
Azzimonti Renzo, JC - [email protected]
hasta poner una que altere el equilibrio, lo más chica posible. El valor de tal pesa será el módulo
del error de apreciación para esa lectura.
Todo lo anterior muestra que siempre habrá una manera de poder cuantificar la indeter-
minación que afecta a toda lectura en un instrumento. Cualquiera sea el tipo de escala del instru-
mento, cualquiera sea el instrumento, toda medición puede y debe ser expresada usando el con-
cepto de error. Es mucho más prudente estimar el valor desconocido de la magnitud, con un in-
tervalo, en vez de un único valor. Como ejemplo, se puede pensar en un paciente que concurre a
un bioquímico a medirse la glucosa y este le informa (90 + 15) mg/l, luego para confirmar el va-
lor va a otro laboratorio a repetirse la medición y en éste último le informan (103 + 7) mg/l. Al
comparar ambos informes no ve incongruencias. Muy distinto hubiera sido el caso si ambos la-
boratorios le hubiesen informado con un único valor 90 vs. 103. Cuando se estila medir una sola
vez al paciente, entonces conviene conocer el error porcentual del sistema de medición. Por
ejemplo, si se sabe que para medir glucosa en nuestro laboratorio se comete un error porcentual
del 8%, entonces cuando un paciente arroja un resultado de 93 mg/l se debería añadir (+ 8%)
Cuando se mide más de una vez a la misma magnitud, entonces cambia todo el procedi-
miento para determinar la incertidumbre de las medidas. Ahora se pueden obtener:
Error sistemático: es aquel que se caracteriza por tener siempre el mismo signo y aproximada-
mente el mismo módulo, en una serie de mediciones.
Un reloj que atrasa, una regla dilatada, un espectrofotómetro sin el ajuste del cero, son los
ejemplos típicos de esta clase de errores. Son los más difíciles y costosos de detectar. Para poder
corregirlos, generalmente se deben calibrar los instrumentos con personal especializado. Cuando
se los acota, se pueden corregir los resultados finales en alguna medida, pero nunca se los puede
eliminar totalmente. Hay una serie de causas que los originan debidas al:
La responsabilidad por este tipo de causas recae en el profesional, pues si toma las ade-
cuadas precauciones podría evitar la mayoría de ellas. Este es uno de los motivos por los cuales
toda técnica de laboratorio tiene un protocolo a respetar estrictamente. Además, todo laboratorio
debería tener procedimientos de control de calidad para sus prácticas, junto con los planes de
mantenimiento preventivo para los aparatos, materiales y drogas. Sin embargo, como el factor
humano es el principal responsable de la prevención, lo mejor es mantener a todo el personal mo-
tivado y entrenado en esta problemática. Las técnicas estadísticas sólo informan de la aparición
Bioestadística aplicada a Bioquímica y Farmacia 2-18
Azzimonti Renzo, JC - [email protected]
de estos errores después que han ocurrido, cuando lo ideal sería evitar que ocurran. Si todo el
personal conoce el tema de errores en mediciones a fondo y si ponen su empeño en evitarlos, casi
todo el trabajo está hecho. No debe perderse de vista la tendencia humana a evitarse problemas.
Cada vez que se detectan desvíos, eso implica una serie de trabajos extras fuera de la rutina habi-
tual del laboratorio y lo más difícil: descubrir las causas desconocidas que los provocan. El ser
humano reacciona instintivamente ante lo desconocido con temor. El abandono de una estereoti-
pia de conducta cómoda y habitual, le genera ansiedad. Le es difícil aceptar el hecho de que tiene
fallas ante sí mismo y más aún ante los demás. Así, lo natural es la resistencia al cambio. Por eso,
la parte más difícil en la implementación de un programa de control de calidad no es su diseño ni
su implementación, sino lograr que el personal lo adopte de buen grado en su fuero íntimo. Un
cambio de actitud. Lo más difícil.
Error casual: es aquel provocado por una gran serie de causas desconocidas y variables llamadas
casualidad, en una serie de mediciones. Su módulo no es constante y tampoco, tie-
ne el mismo signo.
Toda vez que se efectúan varias mediciones y los resultados obtenidos son diferentes, se
puede tener una medida del mismo. Para poder cuantificarlo se usa la teoría estadística de los
errores casuales, que se verá más adelante. Por ahora, basta decir que se los usa en técnicas de
calibración para poder cuantificar la precisión y exactitud de las técnicas de laboratorio. Ambos
criterios se usan también para seleccionar prácticas entre sí. Cuando hay varios métodos posibles
para hacer la misma determinación clínica conviene elegir el de mejor calidad, y hasta hace poco
eso significaba el de mejor precisión y exactitud. Actualmente se emplean otros criterios de se-
lección. Sobre todo en las magnitudes cualitativas donde precisión y exactitud no tienen sentido.
En síntesis, todo resultado de una práctica clínica debe ser informado a los usuarios usan-
do un intervalo formado por un valor más probable y una estimación del error de medición. Este
error acota y cuantifica la variabilidad de las mediciones de laboratorio y tiene que ser informado
al médico necesariamente. Se supone que el método empleado ha sido testeado, calibrado, y está
controlado para seguir manteniendo una indeterminación aceptable (lo que en Medicina significa:
un 95% de confiabilidad en los resultados).
27) Usando el método del grading encontrar la mejor de las alternativas propuestas:
En cuatro laboratorios de la ciudad se prestan especialidades relacionadas con hormonas y radio-
inmuno ensayo. Un sanatorio se apresta a firmar un convenio con uno de ellos y debe decidir con
cuál. Para esto toma en cuenta los criterios siguientes:
a) Cercanía al sanatorio (los laboratorios A y C están a pocas cuadras y los otros dos muy le-
jos, siendo el B más cercano que el D).
b) Control de calidad (los laboratorios C y D llevan un programa de control y los otros no).
c) Rapidez en la entrega de resultados (A es el más veloz, luego D, C y por último B).
d) Comisiones (B da la máxima, C una intermedia y A y B la mínima).
e) Experiencia (D es el más antiguo, A el más novato y los otros dos parecidos entre sí).
Se le asigna 40 puntos al primer criterio, 80 puntos al segundo, 60 al tercero, 100 puntos al cuar-
to y 50 puntos a la experiencia.