Potochnik Colombo Wright 2019 Experimentos y Estudios
Potochnik Colombo Wright 2019 Experimentos y Estudios
Potochnik Colombo Wright 2019 Experimentos y Estudios
CAPÍTULO 2
Experimentos y Estudios
2.1 LOS EXPERIMENTOS CONECTAN HIPÓTESIS Y OBSERVACIONES
Los tres ingredientes comunes en las recetas para la ciencia y las relaciones entre
ellos son las siguientes:
1
una intervención. Una variable dependiente es una variable cuyo cambio depende de otra
variable. Cuando los científicos cambian el valor de una variable independiente en algún
experimento, lo hacen para investigar cómo afecta ese cambio a una o más variables
dependientes. Por ejemplo, uno podría variar la cantidad de luz visible (variable
independiente) en una fábrica o espacio de trabajo y luego buscar cambios en la
productividad de los trabajadores (variable dependiente).
Los métodos experimentales están diseñados para permitir a los científicos aislar la
relación entre variables independientes y dependientes. Esto requiere controlar las
condiciones de fondo, o variables extrañas, tanto como lo permitan las circunstancias. Las
variables extrañas son otras variables además de la variable independiente que pueden
influir en el valor de la variable dependiente. Si está explorando la relación entre la cantidad
de luz visible en una fábrica (variable independiente) y la productividad de los trabajadores
(variable dependiente), entonces las variables extrañas incluyen los niveles de ruido en la
fábrica, las alturas de los trabajadores, la cantidad de trabajadores del café beber
diariamente, el país en el que se encuentra la fábrica, el clima, etc. Si no se tienen en
cuenta las variables extrañas, ellas, y no la variable independiente, pueden ser
responsables de cualquier cambio en la variable dependiente. Alternativamente, las
variables extrañas pueden contrarrestar la influencia de la variable independiente sobre la
variable dependiente. De esta manera, las variables extrañas pueden "confundir" la relación
entre las variables independientes y dependientes. Si lo hacen, se conocen como variables
de confusión. Estas son variables extrañas, que varían de manera que influyen en el valor
de la variable dependiente de manera imprevista. Las variables de confusión pueden
interferir con la precisión de las conclusiones extraídas de un experimento.
Imagine ahora que desea investigar la relación entre la cantidad de luz visible en una
fábrica y la productividad de los trabajadores. En particular, su hipótesis es que una mejor
iluminación aumenta la productividad de los trabajadores. Para probar esta hipótesis, podría
realizar un experimento variando la cantidad de luz (variable independiente) y luego buscar
cambios en la productividad de los trabajadores (variable dependiente). ¿Cuáles son
algunas formas en las que puedes pensar para cambiar el valor de la variable
independiente? Una opción es cambiar el número de luminarias en algún espacio de
trabajo; otra opción es esperar a que cambie la época del año (hay más luz solar durante
más horas en verano que en invierno). Una tercera opción es comparar dos fábricas, una
con mejor iluminación que la otra. Una cosa a considerar al sopesar estas opciones es la
posibilidad de variables de confusión. De estas opciones, ¿cuál introduce el menor número
de variables extrañas? Piense en todos los cambios entre el verano y el invierno más allá de
la cantidad de luz, tal vez usar ropa de lana áspera en el invierno o los días más cortos de
invierno reducen la productividad laboral, o quizás el calor del verano reduce la
productividad. Estas son variables extrañas que fácilmente podrían convertirse en variables
de confusión. Asimismo, diferentes fábricas pueden tener muchas otras diferencias entre
ellas más allá de la calidad de la iluminación. Tal vez uno pague un mejor salario por hora
que el otro, ofrezca más vacaciones o tenga café gratis en la sala de descanso. La mejor
opción parece ser elegir un espacio de trabajo y luego variar el número de luminarias,
manteniendo todas las demás condiciones lo más uniformes posible. Querrá medir y
registrar los valores de la variable independiente (cantidad de luz), para comparar esos
valores con los valores observados para la variable dependiente (productividad de los
trabajadores). ¿Cómo podría medir la productividad de los trabajadores? ¿Quizás por la
cantidad de unidades producidas en una hora? Pero, ¿y si varía el número de personas que
vienen a trabajar en un día determinado? Probablemente sea mejor medir el número de
2
unidades producidas en una hora dividido por el número de trabajadores, o promediado
entre ellos. Eso tiene en cuenta, o controla, la variable extraña del número de trabajadores.
El punto general aquí es que el diseño del experimento, incluido su ubicación y
tiempo, cómo se interviene en la variable independiente, el tipo de mediciones, etc., están
todos determinados por la necesidad de minimizar la posibilidad de variables de confusión.
Esta es la clave para un diseño experimental eficaz: se varía una variable independiente de
forma controlada y se mide el valor de una variable dependiente, manteniendo fijas todas
las variables extrañas o tomándolas en cuenta de alguna otra manera. (Es por eso que
dividimos las unidades producidas por la cantidad de trabajadores presentes para tener en
cuenta cualquier variación en la cantidad de trabajadores que se presentaron a trabajar ese
día).
En los experimentos que involucran a participantes humanos, una variable de
confusión puede ser el efecto Hawthorne o el sesgo del observador, donde los participantes
experimentales cambian su comportamiento, quizás inconscientemente, en respuesta a ser
observados. El nombre de este efecto tiene su origen en una serie de experimentos de
finales de la década de 1920 y principios de la de 1930 que se realizaron en un suburbio de
Chicago en la fábrica Hawthorne de Western Electric (Parsons, 1974). Algunos de estos
experimentos investigaron los efectos de las condiciones de iluminación en la productividad
de los trabajadores. Dos grupos de trabajadores participaron en el estudio. Un grupo trabajó
en un área donde hubo un aumento dramático en la calidad de la iluminación. Para el otro
grupo, las condiciones de iluminación se mantuvieron igual que antes. Los
experimentadores descubrieron que la productividad de los trabajadores en el área bien
iluminada aumentó significativamente en comparación con el otro grupo. Este hallazgo
pareció respaldar su hipótesis de que la iluminación mejorada aumenta la productividad. Sin
embargo, los experimentadores se sorprendieron al descubrir que la productividad de los
trabajadores también mejoró con los cambios en los descansos, las horas de trabajo y los
tipos de comidas que se ofrecían en el comedor de la fábrica. A medida que experimentaron
más, descubrieron que incluso atenuar las luces a los niveles originales ¡aumentaba la
productividad! Este resultado socavó los hallazgos iniciales sobre la relación entre la
cantidad de luz y la productividad. Los experimentadores finalmente concluyeron que los
cambios en la calidad de la iluminación no tenían un impacto real en la productividad
laboral. Al final resultó que los trabajadores se volvían más productivos simplemente cuando
sabían que estaban siendo estudiados. Este es, por supuesto, el efecto Hawthorne en
acción.
3
Experimentos cruciales y replicación de experimentos
En el siglo XVII, influyentes filósofos de la naturaleza pensaron que la luz de color se
producía por la modificación de la luz blanca por la interacción con los objetos y los
materiales a través de los cuales viaja. Entonces, se pensaba que pasar la luz a través de
un prisma de vidrio producía un espectro de colores porque la luz blanca se modifica por las
impurezas del vidrio. Del mismo modo, se pensaba que percibimos arcoíris de colores
porque la luz solar se modifica al atravesar gotas de humedad. A Isaac Newton
(1643-1727), uno de los científicos más influyentes de todos los tiempos, no le convenció
este punto de vista. En cambio, planteó la hipótesis de que los colores siempre están
contenidos dentro de la luz en sí misma y que el paso de la luz a través de los materiales
simplemente separa los colores de los que está hecha la luz. Para probar estas hipótesis
contrapuestas, Newton oscureció su habitación y perforó un pequeño agujero en los
postigos de las ventanas, de modo que sólo un delgado haz de luz pudiera entrar en la
habitación. Cuando Newton colocó un prisma de vidrio en el haz, los colores espectrales, un
arco iris de luz, aparecieron en su pared. Sin embargo, esta observación era consistente
con ambas hipótesis. Tanto la hipótesis de la modificación como la hipótesis de Newton de
que la luz blanca es una mezcla de colores podrían explicar la observación de que un haz
de luz que viaja a través de un prisma de vidrio produce un espectro de colores.
En otro experimento, Newton hizo pasar un haz de luz a través de dos prismas en
lugar de uno. ¿Qué esperaría observar si la hipótesis de modificación fuera verdadera?
Presumiblemente, las impurezas contenidas en los dos prismas de vidrio continuarían
modificando la luz solar blanca y ampliando aún más el espectro de color. Cuando Newton
dejó pasar el haz de luz a través del primer prisma, se dividió en un espectro de colores
como se esperaba, al igual que en el experimento anterior. Pero cuando el espectro de luz
coloreada pasó a través del segundo prisma, ¡se recompuso en luz blanca! Esta
observación fue inesperada bajo la hipótesis de la modificación, pero era consistente con el
pensamiento de Newton de que la luz blanca está compuesta de colores. Así pues, este
experimento proporcionó a Newton pruebas contra la hipótesis de la modificación y en
apoyo de su propia hipótesis de que pasar la luz a través de un prisma simplemente separa
lo que ya está allí.
Newton pensó que estos experimentos demostraban que la luz blanca es una mezcla
de colores, que no es modificada por un prisma para volverse coloreada. Newton llamó a
esto un experimento crucial (experimentum crucis), que es un experimento que juzga
decisivamente entre dos hipótesis, estableciendo de una vez por todas cuál es la verdadera.
Tales experimentos decisivos son emocionantes, pero muy pocos experimentos son
realmente experimentos cruciales.
[Existen] tres fuentes de incertidumbre sobre lo que muestra un experimento:
variables extrañas, hipótesis imprevistas y supuestos auxiliares. Una de las formas
principales de minimizar la incertidumbre de estas tres fuentes es replicar los experimentos.
La replicación implica volver a realizar el experimento original, a menudo con alguna
modificación en su diseño, para verificar si el resultado sigue siendo el mismo. Si, por
ejemplo, el espectro de luz que se recombina en luz blanca observado por Newton también
es observado por diferentes personas, utilizando diferentes prismas, en diferentes lugares y
en diferentes momentos, esto también respalda la hipótesis de Newton de que la luz blanca
contiene un espectro de colores. Si algún resultado experimental no se puede replicar, si
diferentes científicos siguen procedimientos experimentales similares pero no obtienen el
mismo resultado, entonces el resultado experimental original puede ser una casualidad, o
4
puede deberse a alguna variable de confusión en el diseño experimental que los científicos
aún no han identificado.
La replicabilidad de los experimentos es un ingrediente indispensable de la ciencia,
tanto que una falla persistente para replicar los hallazgos puede socavar la credibilidad de
un campo científico. Por ejemplo, el fracaso de la astrología para replicar los hallazgos es
parte de su estatus pseudocientífico. Recientemente, también se ha sugerido que el campo
de la psicología social se enfrenta a una crisis de replicabilidad, donde diferentes grupos de
investigación han intentado pero no han podido replicar algunos resultados experimentales
clásicos. Esto sugiere que tal vez no deberíamos darle demasiada importancia a esos
hallazgos, a menos que se resuelva esta falla en la replicabilidad (Pashler & Wagenmakers,
2012).
Aquí hay [un] ejemplo de una expectativa clara y precisa basada en una hipótesis.
Este ejemplo proviene de la teoría de juegos, que es un marco amplio para pensar sobre el
conflicto y la cooperación entre los tomadores de decisiones estratégicas. Imagina que te
dan $10. Se le pide que comparta esta suma con un compañero, y usted y su compañero
deben ponerse de acuerdo sobre cómo dividirla. Puedes proponer una división de los $10 y
tu pareja puede aceptar o rechazar esa oferta. Si su socio rechaza su división propuesta,
ninguno de los dos obtendrá dinero; si su socio acepta su oferta, cada uno obtendrá su
parte acordada del dinero. ¿Qué harías?
Con base en la teoría de juegos estándar, si todos actúan en su propio interés, uno
esperaría que los proponentes en esta situación no ofrezcan casi nada a sus socios y que
los que respondan acepten cualquier cosa por más de $0. Para los respondedores, es
racional aceptar cualquier cosa, ya que de lo contrario no obtendrán nada. Y los
proponentes lo saben, por lo que es racional que ofrezcan solo una pequeña cantidad.
Esta expectativa se ha probado experimentalmente una y otra vez y resulta ser
incorrecta (Güth, Schmittberger y Schwarze, 1982). Las ofertas promedio rondan entre el 40
5
y el 50% de la suma total, es decir, unos $4 o $5 dólares cuando se dividen $10. Y cuando
los proponentes ofrecen menos del 30 %, los que responden lo rechazan constantemente
por considerarlo injusto, aunque esto resulte en que no obtengan ningún dinero. Los
proponentes y los que respondieron estaban en la misma página, aparentemente
dispuestos a sacrificar el interés propio por la equidad. Esto no era en absoluto lo que
predecía la teoría de juegos estándar.
Como ilustra este ejemplo, las hipótesis y teorías de los científicos a menudo
involucran conceptos y variables que no tenemos una manera obvia de contrastar. Este es
un obstáculo para formular expectativas claras para un experimento. ¿Cómo se pueden
medir los valores de variables como la riqueza, la violencia, el estado de ánimo y la justicia?
Para manejar esta dificultad, los científicos a menudo usan definiciones operacionales y
grupos de indicadores para caracterizar conceptos borrosos de una manera que permita la
medición.
Una definición operacional es una especificación de las condiciones cuando se aplica
algún concepto, que permite la medición u otros tipos de precisión. En el ejemplo de teoría
de juegos de la página anterior, podríamos definir operacionalmente ofertas justas para
incluir cualquier oferta del 40 al 60% del dinero. Esta definición es clara y útil, no porque
establezca correctamente la naturaleza de la equidad, sino porque ofrece una forma precisa
de proceder con las pruebas. Las definiciones operacionales pueden carecer de matices. La
riqueza, por ejemplo, significa más que simplemente tener un ingreso alto o un padre que
gana mucho. Esta es la razón por la cual los economistas a menudo estudian la pobreza y
la riqueza utilizando una combinación de indicadores como el ingreso anual, el acceso a la
educación y la atención médica y la vivienda permanente. Dichos conglomerados de
indicadores identifican varios marcadores de alguna variable para medirla con mayor
precisión sin simplificar demasiado.
Para algunos conceptos, simplemente no existe una única mejor definición o medida.
En consecuencia, existe la posibilidad de elegir cómo definirlo operacionalmente o grupos
de indicadores utilizar. Aún así, algunas definiciones son mejores que otras. Algunas
definiciones o conjuntos de indicadores se acercan más que otros a capturar lo que
tenemos en mente para, por ejemplo, un trato justo o ser rico. Nuestras teorías de los
fenómenos bajo investigación regularmente informan cómo definimos los conceptos. Por
ejemplo, se puede demostrar que algunas definiciones especifican la naturaleza de la
pobreza con mayor precisión que otras porque concuerdan mejor con nuestras mejores
teorías económicas y sociológicas o porque se ha demostrado que estas definiciones
predicen mejor los eventos futuros de manera consistente en todos los estudios.
Intervención
Una intervención experimental es la pieza central de un experimento perfectamente
controlado. Recuerde que una intervención es una manipulación directa del valor de una
variable. Debido a esta intervención, esa variable se llama la variable independiente. Las
intervenciones podrían incluir la administración de un fármaco a un grupo de pacientes,
fertilizantes a un terreno o cambios deliberados en las condiciones de iluminación en un
lugar de trabajo. Durante un experimento, los científicos intervienen deliberadamente en la
variable independiente y luego miden el impacto de su intervención en la variable
dependiente. En un experimento agrícola, por ejemplo, los científicos pueden evaluar la
hipótesis de que un fertilizante en particular es mejor para el rendimiento de los cultivos. Su
intervención consistiría en cambiar el valor de la variable de interés: el tipo de fertilizante. En
particular, cambiarían el fertilizante por el fertilizante particular que la hipótesis predice que
6
es mejor. Luego se observan los cambios en el rendimiento de los cultivos, la variable
dependiente. La expectativa basada en la hipótesis es que el rendimiento de los cultivos
aumentará; su medida del valor de la variable dependiente, el rendimiento del cultivo, es
una forma de evaluar esta hipótesis.
Hay muchas maneras diferentes de realizar intervenciones experimentales. Pero
idealmente, los científicos quieren que las intervenciones sean "quirúrgicas". Esta metáfora
sugiere que las intervenciones deben realizarse con la precisión que los cirujanos aportan a
la mesa de operaciones; la incisión debe hacerse con cuidado en el lugar exacto que
producirá el efecto deseado. Si una intervención es quirúrgica en este sentido, afecta
únicamente a la variable independiente. Cualquier cambio en el valor de la variable
dependiente se puede rastrear hasta la influencia de la variable independiente. Una
intervención quirúrgica en el tipo de fertilizante simplemente cambiará el viejo fertilizante por
uno nuevo. Todo lo demás debe permanecer igual: cuándo y con qué frecuencia se aplica el
fertilizante, el método utilizado para aplicarlo, la ubicación del campo, el cultivo, el tiempo de
crecimiento, etc.
El control sobre las variables se puede abordar de varias maneras. Estas se pueden
dividir en dos grandes categorías: directas e indirectas. El control directo de variables es
cuando todas las variables extrañas se mantienen en valores constantes durante una
intervención. Debido a que las variables extrañas no cambian, no pueden ser responsables
de ningún cambio en la variable dependiente. Entonces, si el control directo de la variable
tiene éxito, sólo la intervención puede ser responsable de un cambio en la variable
dependiente. Recuerde los experimentos con prismas de Newton. Newton podía controlar
directamente algunas variables extrañas, como la hora del día en la que realizaba sus
experimentos y las condiciones de iluminación en sus cámaras. Mantener esas variables
constantes aseguró que, por ejemplo, cualquier diferencia en la composición de la luz de la
mañana y la tarde no afectara sus hallazgos. Newton también intentó controlar las
influencias de confusión de las burbujas de aire y otras impurezas en los prismas mediante
el uso de prismas de mayor calidad.
En muchos experimentos, sin embargo, el control directo de todas las variables
extrañas simplemente no es posible. Como hemos visto, los científicos a menudo ni siquiera
conocen todas las variables extrañas que pueden ser relevantes. La segunda categoría de
control de variables, el control indirecto de variables , ayuda con esto. La idea básica es
permitir que las variables extrañas varíen de forma independiente a la intervención.
Entonces, aunque las variables extrañas variarán, deberían hacerlo de la misma manera
para los diferentes valores de la variable independiente. Cualquier diferencia sistemática en
la variable dependiente entre diferentes valores de la variable independiente puede
atribuirse razonablemente a la variable independiente.
El primer paso para el control indirecto de variables es establecer dos grupos de
entidades experimentales (ya sean células, terrenos, personas, ratones u otros sujetos)
para comparar. La intervención debe ser lo único que distinga a estos grupos entre sí. Un
grupo, el grupo experimental, recibe la intervención a la variable independiente. El otro
grupo, el grupo de control, experimenta los otros valores predeterminados de la variable
independiente. Y luego, se usa algún enfoque para tratar de asegurar que todas las
variables extrañas afecten a los dos grupos por igual.
Un enfoque para el control indirecto de variables es la aleatorización: la asignación
indiscriminada de entidades experimentales al grupo experimental o al grupo de control. Se
adopta algún método de asignación de grupos para que no se puedan tener en cuenta
características de las entidades experimentales, ni siquiera inconscientemente, al
7
determinar la pertenencia al grupo. Esto tiene como objetivo garantizar que cualquier
diferencia entre las entidades experimentales varíe aleatoriamente entre los grupos y, por lo
tanto, no tenga relación con la diferencia sistemática entre los grupos, la intervención.
Muchos científicos creen que la aleatorización es el estándar de oro del control indirecto de
variables.
La aleatorización es uno de los mejores enfoques para el control indirecto de
variables, pero no es una garantía segura. Podría suceder que todos los pacientes con
alguna característica, por ejemplo, todos los fumadores, se asignen aleatoriamente al grupo
experimental, mientras que todos los no fumadores se asignen aleatoriamente al grupo de
control. En un experimento diseñado para probar, digamos, el efecto del ejercicio sobre la
salud, si la gente fuma es sin duda una variable de confusión significativa. Este ejemplo es
extremo, pero hay un punto mucho más general detrás de él. La asignación aleatoria de
grupos garantiza que las variables extrañas no estén relacionadas con la asignación de
grupos, pero no garantiza que las variables extrañas, de hecho, varíen por igual entre los
dos grupos. Incluso con la asignación aleatoria, los grupos experimental y de control aún
pueden diferir entre sí en formas distintas a la intervención.
Por esta razón, hay otra condición que se debe cumplir para que la aleatorización sea
un enfoque efectivo para el control indirecto de variables: el tamaño de la muestra debe ser
lo suficientemente grande. El tamaño de la muestra se refiere al número de fuentes
individuales de datos en un estudio; a menudo, esto es simplemente el número de
entidades o sujetos experimentales.Si el tamaño de la muestra es muy pequeño, es
probable que existan variaciones aleatorias entre los grupos experimentales y de control
asignados aleatoriamente. Si el tamaño de la muestra es muy grande, tal variación aleatoria
es extremadamente improbable, tan improbable que estas variables puedan considerarse
efectivamente controladas.
Imagine un experimento que involucre solo a cuatro personas, dos de las cuales son
fumadores. Es razonablemente probable que ambos fumadores sean asignados
aleatoriamente a un grupo. De hecho, esto sucedería una de cada tres veces que se
asignan aleatoriamente a los grupos. Ahora piense en todas las variables entre esas cuatro
personas: edad, sexo, historial médico, nivel educativo, etc. Está casi garantizado que al
menos algunas de estas variables extrañas se distribuirán aleatoriamente de manera
desigual entre los grupos experimental y de control, convirtiéndose en variables de
confusión. Imagine, por el contrario, un experimento con un tamaño de muestra de 10.000
personas, de las cuales aproximadamente la mitad fuma. Es extremadamente improbable,
tan improbable que es virtualmente imposible, que todos los fumadores sean asignados
aleatoriamente a un grupo. En términos más generales, un tamaño de muestra grande
ayuda a garantizar que la variación en todas las variables extrañas se distribuya más o
menos por igual entre los grupos asignados al azar.
8
Para controlar el posible sesgo del investigador, los científicos a veces diseñan sus
experimentos de modo que ni siquiera ellos sepan qué sujetos están en el grupo de control
y cuáles en el grupo experimental. Este protocolo se llama experimento ciego. En el
experimento de ejercicio/salud, la asignación a los grupos no solo debe ser aleatoria sino
también ciega; los investigadores no deberían saber qué sujetos están en qué grupo.
Entonces, cuando evalúan la salud de un sujeto, sus expectativas con respecto a los
efectos del ejercicio no pueden influir en sus juicios sobre la salud de ese individuo, ya que
no sabrán si el sujeto ha hecho ejercicio o no.
Con un diseño experimental ciego, las expectativas de los investigadores no pueden
influir en los hallazgos, pero las expectativas de los sujetos experimentales sí pueden.
Imagina que te asignan al grupo experimental y haces ejercicio como corresponde. Es
posible que esté motivado para trabajar más duro en la evaluación de su salud, o su
expectativa de buena salud podría disminuir su presión arterial, o puede haber alguna otra
influencia no deseada en su salud debido a su expectativa de los efectos del ejercicio.
También es posible que simplemente desee complacer a los investigadores ayudando a
demostrar que tienen razón sobre el valor del ejercicio.
Esta posibilidad se elimina si tanto los investigadores como los sujetos desconocen
qué sujetos están en qué grupo. Esto se llama un experimento doble ciego. Los
experimentos doble ciego son especialmente importantes para los ensayos de
medicamentos. Si los participantes o experimentadores esperan que un medicamento en
particular sea efectivo, esa expectativa puede conducir directamente a una mejora en la
salud. Esto se llama el efecto placebo. Por esta razón, es importante que ni los
experimentadores ni los participantes del experimento sepan qué participantes reciben el
medicamento que se está probando. El grupo de control recibe un placebo, una sustancia o
una terapia impotente. De esta forma, ningún participante podrá discernir si está recibiendo
el medicamento real y estará igualmente sujeto al efecto placebo. (Esto es, entonces, un
control indirecto de la variable extraña del efecto placebo).
Otra forma de controlar las expectativas de los participantes es mediante el engaño.
Mientras que el cegamiento implica omitir alguna información, el engaño implica desinformar
activamente a los participantes para interferir con la forma en que sus expectativas influyen
en su comportamiento.
El experimento de Milgram
El psicólogo social estadounidense Stanley Milgram (1933–1984) utilizó a menudo el
engaño en sus experimentos. Por ejemplo, Milgram quería comprender la disposición de las
personas a obedecer a una figura de autoridad que les ordenaba infligir daños graves a los
demás. Probablemente no hubiera funcionado decirles a los participantes experimentales
que esto era lo que se estaba probando. ¡Pocos de nosotros queremos ser vistos como
infligiendo daño a otros solo porque alguien en el poder nos lo ordenó! Entonces, Milgram
les dijo falsamente a los participantes que estaban ayudando a otra persona a aprender
algún material al interrogar a la otra persona y aplicarle descargas eléctricas para castigar
cualquier respuesta incorrecta. En realidad, no había otra persona aprendiendo ni
descargas eléctricas. Los experimentadores simplemente estaban estudiando hasta dónde
llegarían los participantes para dañar a otros simplemente porque se les dijo que lo hicieran.
El experimento de Milgram involucró tres roles: aprendiz, experimentador y maestro.
Cada sujeto esperó en un salón con otra persona a quien se les hizo creer que era un
segundo sujeto. De hecho, la segunda persona era un cómplice —un actor que pretendía
ser un súbdito— que iba a desempeñar el papel de aprendiz. Una tercera persona, otro
9
cómplice más, desempeñó el papel de experimentador autorizado. Esta persona dio breve y
vagamente una explicación artificial del experimento (no el experimento real). El supuesto
experimentador luego fingió asignar al azar a los otros dos individuos para que
desempeñaran los roles de maestro y alumno. De hecho, la asignación fue amañada; al
sujeto ingenuo siempre se le asignó el papel de maestro, y el segundo "sujeto" —el
cómplice de Milgram— siempre se le asignó el papel de aprendiz. El experimentador
acompañó a ambos individuos a un escenario de laboratorio, utilizando fuertes restricciones
para sujetar al alumno a lo que parecía ser un aparato de silla electrificada. Para asegurarse
de que el sujeto ingenuo creyera que la silla estaba realmente operativa, el experimentador
administró una descarga real pero leve. Luego, el experimentador llevó al sujeto a una
habitación separada con lo que parecía ser un generador de descargas eléctricas. La
máquina tenía un panel de instrumentos que constaba de 30 interruptores horizontales,
cada uno etiquetado por voltaje o fuerza de corriente eléctrica. El voltaje etiquetado osciló
entre 15 y 450 voltios. Los interruptores se agruparon en ocho categorías de choque: leve,
moderado, fuerte, muy fuerte, intenso, de intensidad extrema, peligro: choque severo y,
finalmente, solo 'XXX'. Se accionó un interruptor, luego se encendió una luz roja, se
escuchó un zumbido eléctrico y el medidor de voltaje fluctuó. El experimentador pretendía
que el maestro (el sujeto ingenuo) administrara una tarea de aprendizaje de cuatro pares de
palabras, que se suponía que el alumno debía aprender. El experimentador le indicó al
sujeto que accionara un interruptor por cada respuesta incorrecta, comenzando con
descargas de 15 voltios y aumentando por cada error hasta que el alumno hubiera
aprendido todos los pares correctamente. La variable dependiente del experimento real fue
la descarga máxima que los sujetos estaban dispuestos a administrar antes de negarse a
continuar.
En el primer estudio de Milgram, descubrió que, aunque muchos mostraban una
profunda incomodidad al hacerlo, un 65 % de los sujetos administró el nivel más alto de
descarga, marcado como 'XXX'.
Las pautas éticas son más estrictas ahora que entonces, y este estudio
probablemente no se aprobaría ahora. El código de ética de la Asociación Estadounidense
de Psicología (APA) sostiene que la experimentación no puede implicar el uso de técnicas
engañosas a menos que hacerlo tenga un valor científico, educativo o de aplicación
significativo; que otros procedimientos alternativos efectivos y no engañosos no sean
viables; que causen dolor físico o angustia emocional severa; y que los psicólogos
expliquen cualquier engaño experimental a los participantes tan pronto como sea posible.
10
confusión, lograda mediante el control directo o indirecto de todas las variables extrañas
relevantes.
Sin embargo, también existen algunas desventajas en la investigación de laboratorio.
Para empezar, algunos fenómenos no se investigan fácilmente en un laboratorio. Además,
las mismas condiciones que facilitan el control directo e indirecto de las variables hacen que
las condiciones del laboratorio sean diferentes del mundo exterior, y eso también tiene
algunas desventajas. La artificialidad del entorno experimental podría significar que los
resultados obtenidos en el laboratorio no se generalizan bien a los entornos de la vida real
fuera del laboratorio. Esto es problemático, ya que, en última instancia, son las
características de los fenómenos del mundo real las que queremos conocer.
Los laboratorios facilitan así una alta validez interna, pero potencialmente a costa de
la validez experimental externa. La validez experimental externa es la medida en que los
resultados experimentales se generalizan de las condiciones experimentales a otras
condiciones, especialmente a los fenómenos sobre los que se supone que el experimento
proporciona conocimiento. La validez externa tiene dos componentes: validez poblacional y
validez ecológica.
La validez poblacional es el grado en que las entidades experimentales son
representativas de la clase más amplia de entidades de interés. Para experimentos con
sujetos humanos, esta es la población más amplia que representan. Cuanto más
representativa sea una muestra de la clase o población amplia, más seguros pueden estar
los científicos de la validez externa del experimento.
Aquí hay una ilustración de la importancia de la validez de la población. Muchos
ensayos clínicos que prueban la eficacia y los efectos secundarios de los medicamentos se
realizan solo en hombres, pero se espera que los resultados también se generalicen a las
mujeres. Esto disminuye la validez poblacional de los resultados, ya que las mujeres y los
hombres difieren en varios aspectos médicamente relevantes. Por tanto, existe un
conocimiento experimental relativamente limitado sobre los efectos de algunos fármacos en
las mujeres, y esto puede tener graves consecuencias para la salud y la medicina. De
hecho, muchos medicamentos recetados han sido retirados del mercado después de que se
reveló tardíamente que presentaban mayores riesgos para la salud de las mujeres que de
los hombres (Simon, 2005).
El segundo componente de la validez externa, la validez ecológica, es el grado en que
las circunstancias del experimento son representativas de las circunstancias del mundo real.
Los escenarios experimentales o lo que se les pide a los sujetos que hagan pueden ser
artificiales, a diferencia de las circunstancias del mundo real, en formas que impactan el
fenómeno bajo investigación. Considere nuevamente el experimento de Milgram sobre el
cumplimiento. ¿Cómo crees que califica la validez ecológica de este experimento? Para
responder a esta pregunta, debemos considerar qué tan similar es la situación encontrada
en este experimento, administrar descargas eléctricas a otras personas siguiendo las
instrucciones de un líder autoritario, a los escenarios en los que generalmente se les pide a
las personas que cumplan. La validez ecológica limitada es una razón para cuestionar la
validez externa de un experimento, es decir, su importancia para las conclusiones más
amplias que queremos sacar de él.
Los experimentos de campo se llevan a cabo fuera de un laboratorio, en el entorno
cotidiano de los participantes. Los investigadores aún manipulan una variable independiente
y aún buscan controlar variables extrañas. A menudo, esto implica un control indirecto,
quizás con aleatorización si las circunstancias lo permiten. Los experimentos de campo son
más frecuentes en las ciencias sociales, del comportamiento y biológicas que en la física y
11
la química. El experimento descrito anteriormente sobre los efectos de las condiciones de
iluminación en la productividad de los trabajadores de la fábrica Hawthorne de Western
Electric es un ejemplo de un experimento de campo. Los experimentos de campo tienden a
tener más validez externa que los experimentos de laboratorio porque ocurren en
circunstancias naturales. Como resultado, su validez ecológica es mayor. También es
probable que los sujetos experimentales sean una subsección algo arbitraria de la población
de interés más amplia, lo que aumenta la validez de la población. La desventaja es la
disminución de la validez interna. Una menor influencia sobre las circunstancias y la
selección de sujetos experimentales también está relacionada con un menor control sobre
las variables extrañas y, a veces, con una menor capacidad para intervenir de la manera
deseada. Debido a que la aleatorización puede no ser factible en los experimentos de
campo, los investigadores deben decidir cuál es la mejor manera de dividir a los sujetos en
grupos de control y experimentales, lo que puede generar confusión. Además de disminuir
la validez interna, esta disminución de la influencia en el diseño experimental también
dificulta que otros investigadores repliquen el experimento.
12
quirúrgicas e infecciones posteriores que complicaron aún más las cosas. Otro factor de
complicación es, por supuesto, que solo hay un caso de lesión de Gage; un solo estudio de
caso no crea ninguna oportunidad para el control de variables o la observación de cómo se
desarrollan diferentes instancias. Por estas razones, aunque los estudios de casos pueden
proporcionar un cuerpo rico de información cualitativa, tienen una validez interna y externa
limitada. La validez interna de un estudio de caso está limitada por la falta de control sobre
variables extrañas y de confusión. Los estudios de casos también son particularmente
vulnerables a los sesgos debido a la evaluación de datos cualitativos y al no cegamiento. Y
debido a que la investigación se enfoca en un solo individuo, evento o grupo, los resultados
pueden ser difíciles de replicar y generalizar.
De vez en cuando, la naturaleza presenta un caso que puede desempeñar el papel de
un experimento. Estos llamados experimentos naturales ocurren cuando una intervención
en una variable independiente ocurre naturalmente en la vida real sin que ningún
experimentador haga nada. Esto mismo sucedió en el caso de Phineas Gage y también en
otros casos famosos de la historia de la neuropsicología, como el caso de Louis Leborgne.
Cuando tenía unos 30 años, Louis Leborgne perdió la capacidad de hablar. Solo podía
pronunciar una sola sílaba, tan, que solía repetir dos veces seguidas, dando lugar a su
apodo 'Tan Tan'. Aparte de su incapacidad para hablar, Leborgne no mostró síntomas de
trauma físico o psicológico. Podía entender a otras personas y sus otras funciones mentales
aparentemente estaban intactas. Después de que Leborgne muriera a la edad de 51 años
en un hospital de París en 1861, el médico francés Paul Broca realizó una autopsia y
descubrió que Leborgne tenía una lesión en el lóbulo frontal del hemisferio cerebral
izquierdo (que luego se conoció como “Área de Broca”). Este caso es una especie de
intervención natural. La variable de interés, la región cerebral x, no se manipuló
deliberadamente, pero no hubo evidencia de ninguna variable de confusión asociada con
esa manipulación. Broca usó este caso para identificar una región del cerebro importante
para la articulación del habla; si se lesionara el área de Broca, se produciría una
incapacidad para la producción del habla, es decir, la afasia de Broca. Leborgne acababa de
sufrir el mismo tipo de daño cerebral que podría dejar en claro la función de esa área del
cerebro.
13
Las supercomputadoras y las técnicas de machine learning, también conocidas como
análisis de datos, se utilizan para administrar y extraer estos grandes conjuntos de datos.
Las técnicas de aprendizaje automático ayudan a los investigadores a comprimir y visualizar
grandes conjuntos de datos en tablas o gráficos; también ayudan a filtrar conjuntos de datos
para permitir a los investigadores sacar conclusiones sobre sus características. Imagine, por
ejemplo, que desea determinar las tendencias generales en las preferencias alimentarias y
tiene a su disposición un conjunto de datos que contiene todos los tweets producidos en un
año. Filtrar esos tweets a un subconjunto relevante para las preferencias de alimentos es
extraordinariamente valioso, al igual que visualizar los datos sobre la popularidad de varios
alimentos. Los patrones y tendencias descubiertos mediante el análisis de big data pueden
dar una idea de las relaciones entre las variables de interés y se pueden utilizar para hacer
predicciones. Un ejemplo muy publicitado de investigación ambiciosa basada en datos en
línea es el análisis a largo plazo de los datos de los usuarios del sitio web de citas en línea
OKCupid (Rudder, 2014). Pero puede ser difícil evaluar la investigación de big data, y a
algunos les preocupa que se tome más en serio de lo que debería ser. En 2008, los
investigadores de Google afirmaron que podían predecir de inmediato qué regiones
experimentarían brotes de gripe basándose simplemente en las búsquedas en línea de las
personas. La idea era que cuando las personas están enfermas de gripe, a menudo buscan
información relacionada con la gripe en Google. Desafortunadamente, esta idea no fue
confirmada. Google Flu Trends hizo predicciones muy inexactas, sobreestimó
significativamente los brotes de gripe y el programa se cerró (Lazer et al., 2014).
Quizás el mayor desafío que enfrentan las técnicas de big data es su opacidad. Los
algoritmos utilizados para muestrear, filtrar y ordenar los datos a menudo son desconocidos
para los investigadores externos, y las personas que crean los datos en primer lugar
generalmente son desconocidas incluso para los investigadores que realizan la
investigación. Esto dificulta la evaluación de los procedimientos de estudio, la importancia
de los datos y la posibilidad de variables de confusión.
Otro desafío con las técnicas de big data se refiere a la validez de la población.
Muchas personas en el mundo no usan ninguna red social, por lo que es posible que
quienes lo hacen no sean representativos de la población en general, y existen versiones
más matizadas de este problema para cualquier forma particular de datos en línea.
También hay problemas con la privacidad. Los datos en línea a menudo son de
dominio público, pero la investigación de big data publica datos y revela tendencias con las
que las personas responsables de los datos pueden no sentirse cómodas. La publicación de
los datos de usuario de OKCupid fue un ejemplo de este tema ampliamente discutido en la
prensa. Sin embargo, estos desafíos no borran el valor científico del big data.
14