Cotraste de Hipotesis

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 13

COTRASTE DE HIPOTESIS

Inferencia experimental: conjunto de reglas que permiten establecer cadenas permisibles de


enunciados dentro de una ciencia dada.

Un estadístico de contraste es un resultado muestral que cumple la doble condición de 1)


proporcionar información empírica relevante sobre la afirmación propuesta en la Ho y 2) poseer
una distribución muestral conocida.

La regla de decisión es el criterio que se usa para decidir si la Ho planteada debe o no ser
rechazada, esta regla se basa en la partición de la distribución muestral del estadístico de
contraste en dos zonas exclusivas y exhaustivas: la zona de rechazo y la zona de aceptación.

La medida precisa de la inseguridad que comporta toda inferencia experimental estadística la


garantiza la aplicación del cálculo matemático de probabilidades, sin el recurso de
probabilidades a priori.

Hipótesis nihilista – hipótesis nula: asume que no hay efecto alguno del tratamiento o que la
correlación es cero.

3 problemas

- La Ho se propone como una hipótesis falsa a priori. Es falsa, en consecuencia, su rechazo


ciertamente no se pone en duda. La única pregunta es si el investigador ha recogido
suficientes datos como para demostrar este resultado predeterminado. El rechazo de
tal hipótesis nula no provee de evidencia adicional y, por tanto, no permite progresar.
- Rechazar la Ho solo ‘’prueba’’ la hipótesis de investigación en un sentido débil.
- La práctica de rechazar el ‘’no efecto’’ (Ho) a favor de ‘’cierto efecto’’ (H1) no incentiva
al investigador a determinar el tamaño y naturaleza del efecto.

El contraste de hipótesis es un método controversial de extraer info a partir de datos


experimentales y de orientar la elaboración de conclusiones científicas.

Los argumentos del contraste de hipótesis de pueden reunir en dos grandes grupos:
relacionados con la dimensión estadística del contraste y otro referido a los aspectos de corte
metodológico.

Criticas:

- El tamaño muestral es arbitrario


- Nunca se tienen en cuenta los supuestos asociados
- Las pruebas de significación estadística de hipótesis se utilizan, de manera simplista e
indebida, como procedimientos de decisión automatizados.
- Los errores tipo I y II están inversamente relacionados. Los investigadores ignorar el
error tipo II al prestarle una atención indebida al error tipo I.

Ataques:

- El uso de contraste de hipótesis debe eliminarse a favor de los intervalos de confianza;


el contraste de hipótesis solo es aceptable si es reforzado con el reporte del tamaño del
efecto y acompañado de un despliegue grafico o bayesiano.
- El contraste de hipótesis debe descartarse por razones de tipo filosófico. ¿la ciencia se
ha beneficiado en algo con este tema?

Nickerson: las concepciones erradas de los usuarios y, en consecuencia, el uso


inconveniente del procedimiento, lleva a muchos a etiquetas inadecuadamente a la táctica.

Schmidt: 3 creencias falsas

- El nivel de significación de un estudio indica la probabilidad de réplicas acertadas del


estudio.
- El nivel estadístico de significación proporciona un índice de la importancia o tamaño de
una diferencia o de una relación.
- Si una diferencia, o una relación, no es estadísticamente significativa entonces su valor
es cero, o es tan pequeña que con seguridad se puede ver como cero. Por consiguiente,
erróneamente se cree que si la Ho no se rechaza entonces debe aceptarse; esta es la
creencia en que una ventaja importante de las pruebas de significación es que nos dicen
si una diferencia, o un efecto, es verdadero o ‘’probablemente ocurren solo por azar’’.

Abelson: MAGIC: dar buenos argumentos que expliquen diferencias comparativas, con la
esperanza de que se haga de un modo interesante.

Sugerencias para mejorar el procedimiento de contraste de hipótesis:

Didácticas

Deben orientarse a mejorar la enseñanza del contraste de hipótesis y enriquecer el discurso


relativo al contraste.

Falacia de afirmar el consecuente: hallar evidencia estadística acorde con una teoría no prueba
que la teoría es cierta.

Restringir su uso a los estudios experimentales; apelar al análisis exploratorio de datos; utilizar
métodos de análisis visual de datos; emplear límites de confianza; calcular y tomar en cuenta el
poder de la prueba; estimar la magnitud del efecto; recurrir al meta-análisis; utilizar métodos
robustos de estimación y contraste de hipótesis; acudir a técnicas de remuestreo; valerse de
métodos bayesianos.

Metodológicas

Calculo de la probabilidad de la replicación / ¿Por qué es valiosa? – reduce la posibilidad de que


un efecto observado sea un artefacto causado por la variabilidad de la muestra; cualquier
replicación es en algo diferente al experimento original: ocurre en un momento diferente y
puede implicar a otros investigadores en un lugar distinto. Formas de abordarla: 1) intervalos de
confianza 2) consideración del significado de la p de experimentos subsecuentes 3) cálculo de la
probabilidad de la replicación. Replicar: repetir las mismas operaciones empíricas y registrar los
datos que apoyan la disposición original.

P: probabilidad de rechazar Ho

Prep: indica la probabilidad a largo plazo de que una replicación exacta de la investigación apoye
la disposición original.
- Descartar el uso de la hipótesis nula como sinónimo de una relación nula de toda nulidad
(la hipótesis nihilista); en todos los casos el investigador debe estimar a priori, pero con
fundamento, cual es el efecto esperable por azar y, claro está, cual por acción de las VI’s.
- Efectuar el AF que mejor muestre las características de las variables en cuestión, de
modo que se minimice el número de supuestos necesarios y se verifiquen todos aquellos
que resultan imprescindibles.
- Realizar el contraste de hipótesis tradicional, cuidando la representatividad y tamaño
de la muestra, teniendo en cuenta lo que ciertamente significa rechazar o aceptar las
hipótesis en juego.
- Calcular el poder de la prueba y la magnitud del efecto, así como la Prep.

LECTURA PAGINA 25 – 42 EN INGLES, REVISAR DESPUES

Intervalo de confianza

Conjunto de valores, con un límite inferior y uno superior, que con una determinada confianza
se espera que contenga el valor del parámetro de interés en una población especifica. El
resultado puntual obtenido pudo ser uno presente en las diferentes muestras que se hubiera
podido tomar. El grado de confianza se refiere a la probabilidad de que al aplicar repetidamente
el procedimiento, el intervalo contenga el parámetro.

La confianza del intervalo debe ser entendida como la fracción de intervalos calculados a partir
de una gran serie de muestras de tamaño idéntico que contienen el valor verdadero del
parámetro poblacional.

La precisión esta en relación con el tamaño muestral y con la variabilidad de los datos,
representados en las desviaciones estándar.

La amplitud del IC depende del error estándar de la estimación que puede haber sido influida
por el tamaño muestral y por lo tanto tiene implicación clínica relevante. Los extremos del IC
proporcionan la verdadera significancia en el campo clínico cotidiano.

Los IC no son más que la suma y resta de dos errores típicos al valor agregado.

Potencia estadística, sensibilidad y tamaño de efecto: ¿un nuevo canon para la investigación?

Sensibilidad y potencia: la sensibilidad de un diseño investigativo reside en su capacidad de


detectar diferencia o efectos allí donde los haya. ‘’grado de probabilidad de detectar
diferencias…(?’’

Ho: es aquella según la cual los promedios no son estadísticamente diferentes (la intuición inicial
de los investigadores no se ve respaldada por los datos).

H1: es aquella según la cual si hay diferencias estadísticamente significativas entre los promedios
de los grupos comparados (la que la razón a los investigadores).

*las pruebas que emplean la t de student se utilizan para contrastar los promedios de dos grupos.
Las pruebas ANOVA se utilizan para comparar los promedios de tres o más grupos.

¿Cómo se calcula la potencia? – se efectúa a través de tres cifras: n muestral (cantidad de


elementos de la muestra); el nivel de error (alpha, generalmente establecido en un nivel de 0.05
o 0.01); el tamaño de efecto (d; permite saber cuan profunda o fructífera fue la intervención, es
decir, cual es la magnitud del tratamiento; permite hacerse una idea de cuan distintos son dos
grupos en una o más variables medidas).
La potencia estadística es un equilibrio entre lo que se conoce como error tipo I y error tipo II.

Error tipo I es el más grave y peligroso en cualquier investigación cuantitativa y por tanto el que
mayor atención recibe y el que más se controla.

Error tipo II es el error que se comete cuando se acepta una Ho que en realidad es falsa, se puede
cometer por distintas razones, una de ellas es un tamaño muestral bajo (cuando d es bajo, para
detectar estadísticamente las diferencias se necesita un tamaño muestral más alto, o de lo
contrario es posible que las diferencias existentes entre las poblaciones pasen desapercibidas).

La potencia es igual a 1-B, el nivel ideal de potencia debiera ser siempre igual o superior a 1 –
0.2, es decir, 0.8. Es una escala que va de 0 a 1.

El valor de alpha lo determina el investigador. La potencia deseada va a ser siempre 0.8 o más y
el tamaño de efecto lo podemos ingresar recurriendo a las tablas de Cohen.

Meta análisis: consiste en revisar la literatura investigativa relacionada con un determinado


problema para tomar nota de los resultados obtenidos por otros y luego analizarlos.

Posibles aplicaciones prácticas de la potencia:

- Se puede determinar un tamaño muestral adecuado antes de efectuar una investigación


- Se puede determinar la viabilidad o inviabilidad de una investigación dadas ciertas
limitantes (habitualmente relacionadas con el tamaño muestral).
- Se controla el riesgo de efectuar errores tipo II, que por lo general no son tenidos en
cuenta en las investigaciones cuantitativas.
- Se puede obtener un índice de potencia real observada para una investigación. Cuando
este nivel es lo suficientemente alto, la investigación gana rigor y en posibilidades de
publicación y aceptación.

La potencia es una convención. Un término matemático que permite abordar ciertas cuestiones
estadísticas a partir de grados de mayor o menor probabilidad, y como tal descansa sobre ciertos
supuestos y es en más de alguna medida arbitrario.

La sensibilidad no es una convención sino un hecho implícito en cualquier investigación


cuantitativa: cada vez que se efectúa una investigación existe el riesgo de obtener una Ho.

El tamaño del efecto

Cuando comparamos dos medias nos suele interesar responder a estas tres preguntas:

- ¿podemos afirmar que hay una diferencia? – se responde mediante la t de Student. Es


lo mismo que preguntar si la diferencia es estadísticamente significativa, o si es mayor
de lo puramente aleatorio (diferencia distinta de cero en la población).
- ¿es grande la diferencia? – a un mayor valor de t no corresponde de manera sistemática
una mayor diferencia; un valor grande de t solo nos dice que tenemos mucha seguridad
para poder afirmar que la diferencia entre las medias de las poblaciones no es cierto,
que hay una diferencia, pero un valor grande de t no nos permite afirmar que la
diferencia es grande.
- ¿es importante la diferencia? – la respuesta a esta pregunta supone un juicio cualitativo,
pero depende en buena medida de las respuestas a las dos preguntas anteriores.
Un valor estadísticamente significativo de t nos permite afirmar que la diferencia entre las
medias de las poblaciones representadas por esas dos muestras no es cero pero no hay relación
entre el valor de t y la magnitud de la diferencia, porque el valor de t no depende solamente de
la diferencia de entre las dos medias, sino de las varianzas de las muestras y sobre todo del
tamaño de las muestras.

- Los valores de t dependen mucho del número de sujetos. Aumentando el tamaño de la


muestra se obtiene con facilidad resultados estadísticamente significativos.
- Los valores de t nos dicen si una diferencia es probable o improbable por azar en el caso
de que no haya diferencia entre las medias de las poblaciones pero estos valores no nos
dicen nada sobre como valorar la magnitud de la diferencia.
- …

PAG 63 – 64

Completar el contraste de medias con el cálculo del tamaño del efecto nos permite:

- Interpretar mejor una diferencia estadísticamente significativa


- Establecer comparaciones entre diferencias que proceden de pares de grupos de
tamaño muy distinto
- Hacer síntesis claras e interpretables que proceden de estudios distintos

Procedimientos más utilizados:

- Calculo de coeficientes de relación


- Tamaño del efecto

Coeficiente de correlación biserial-puntual:

Una manera de cuantificar la magnitud de la diferencia en términos más interpretables consiste


en convertir el valor de t en un coeficiente de correlación biserial-puntual (rbp) el que una
variables es dicotómica y la otra variable es continua.

La finalidad y utilidad de este coeficiente de correlación es clara: 1) es un dato sobre la magnitud


y no sobre s una diferencia es simplemente estadísticamente significativa o no lo es (si es o no
es distinta de cero en la población); 2) dos valores de t obtenidos en pares de muestras de
tamaño distinto, o en la misma muestra pero en variables distintas, no son fácilmente
comparables entre sí; en cambio esta conversión nos traduce el resultado (una diferencia) a
términos comparables y más fácilmente interpretables. Los juicios sobre si una diferencia es o
no es relevante, de importancia práctica, etc., no dependen solamente de que sea
estadísticamente significativa sino también de que sea grande o pequeña…; incluso una
diferencia no estadísticamente significativa puede ser importante en una situación dada.

Desviación típica…

- Combinada: se utilizan dos o más grupos en el análisis de varianza


- Del grupo control: se comparan un grupo experimental y otro control
- Del post-test: se trata de la diferencia entre las medias de un pre-test y un post-test.

PAG 69

Valoración de la magnitud del tamaño del efecto: 0.20 pequeño; 0.350 moderado; 0.80 grande.
PAG 71
Para valorar la magnitud de una diferencia en términos del tamaño del efecto disponemos al
menos de tres tipos de criterios (compatibles entre sí):

- Podemos fijarnos en su valor absoluto siguiendo las valoraciones Cohen o de Hopkings.


En innovaciones educacionales podemos considerar relevante al menos un tamaño del
efecto que se aproxime a d= 0.30.
- Podemos fijarnos en su valor relativo, comparándolo con otros del mismo estudio o de
otros semejantes.
- Podemos analizar la razón coste/beneficios.

El tamaño del efecto es un dato sobre la magnitud de la diferencia independiente del número
de sujetos, y no sobre la seguridad con que afirmamos la diferencia y es importante al menos
para cuantificar cambios, hacer comparaciones o para resumir resultados.

- Los efectos grandes si lis hay, se pueden detectar en muestras relativamente pequeñas;
en torno a los 25 sujetos.
- Los efectos moderados pueden detectarse en muestras de entre 50 a 100 sujetos.
- Para detectar efectos pequeños hacen falta muestras mayores, cercanas a los 500
sujetos.

La fórmula básica del tamaño del efecto es la diferencia entre dos medias dividida por una
desviación típica.

Muestras independientes: al comparar las medias de dos muestras independientes en un diseño


experimental se utiliza una desviación tipica combinada.

Grupos experimental y de control sin pre-test: formulas de cohen y hedges

Muestras relacionadas: pre y post-test sin grupo de control: al comparar las medias del pre y
post test se divide la diferencia por la desviación típica del post-test.

Grupos experimental y de control con pre y post test: …

PAG 90 RESUMEN

El tamaño del efecto nos dice cuanto de la VD se puede controlar, predecir o explicar por la VI o
en qué grado la Ho es falsa. Nos permite hablar de magnitudes, de diferencias grandes o
pequeñas y consiguientemente de la relevancia de la diferencia encontrada.

Lo que se pretende con este procedimiento:

- Cuantificar una diferencia de manera que se pueda interpretar mejor en términos de


magnitud e importancia para no confundir la significación estadística de un resultado
con su relevancia practica.
- Poder comparar unas diferencias con otras que procedan de estudios diferentes (e
incluso obtenidas con instrumentos distintos y analizadas con métodos estadísticos
distintos).
- Poder unir o resumir cuantitativamente los resultados obtenidos en investigaciones
distintas; de esto se trata precisamente en el meta-analisis.

Se trata en definitiva de llegar a una métrica común que facilite la interpretación y la integración
de resultados. Es importante completar el contraste de medias con el calculo del tamaño del
efecto porque nos permite:
- Interpretar mejor una diferencia estadísticamente significativa (e incluso una diferencia
no sig, que también puede tener su interés).
- Establecer comparaciones entre diferencias que proceden de pares de grupos de
tamaño muy distinto.
- Hacer síntesis claras e interpretables que proceden de estudios distintos.

Consideraciones generales en torno a los estudios de potencia

Análisis exploratorio de los datos

Es un conjunto de técnicas estadísticas cuya finalidad es conseguir un entendimiento básico de


los datos de las relaciones existentes entre las variables analizadas; es un paso previo e
indispensable para la aplicación exitosa de cualquier método estadístico. Proporciona métodos
sistemáticos sencillos para organizar y preparar los datos, detectar fallos en el diseño y recogida
de los mismos, tratamiento y evaluación de datos ausentes, identificación de casos atípicos y
comprobación de los supuestos subyacentes en la mayor parte de las técnicas (normalidad,
linealidad, homocedasticidad).

*Homocedasticidad:

Etapas del AED:

- Preparas los datos para hacerlos accesibles a cualquier técnica estadística.

La codificación de los datos depende del tipo de variable.

Diagrama de tallo y hojas – permite observar al conjunto de datos como un todo y destacar
algunas características (simetría del conjunto de datos; variabilidad de los datos; presencia o no
de outliers; concentración de los datos; brechas en el conjunto de datos).

- Realizar un examen grafico de la naturaleza de las variables individuales a analizar y un


análisis descriptico numérico que permita cuantificar algunos aspectos graficos de los
datos.
- Realiza un examen grafico de las relaciones entre las variables analizadas y un análisis
descriptivo numérico que cuantifique el grado de interrelación existente entre ellas.
- Evaluar, si fuera necesario, algunos supuestos básicos subyacentes a muchas técnicas
estadísticas como, por ejemplo, la normalidad, linealidad, homocedasticidad.
- Identificar los posibles casos atípicos y evaluar el impacto potencial que puedan ejercer
en análisis estadísticos posteriores.
- Evaluar, si fuera necesario, el impacto potencial que pueden tener los datos ausentes
sobre la representatividad de los datos analizados.

El análisis inferencial trata de estimar a partir de los estadísticos obtenidos de la muestra, los
parámetros de la población, según un determinado modelo o distribución supuesto para ella.
Suele ser de tipo confirmatorio, es decir, trata de evaluar una hipótesis de partida mas que
meramente estimar el valor de unos determinados parámetros; intenta comprobar si se cumple
nuestra hipótesis según el modelo propuesto.
Fase exploratoria

- La forma de la distribución es como mínimo tan importante como su localización y


dispersión
- Las representaciones visuales son superiores a las representaciones numéricas para
descubrir la forma característica de una distribución
- La elección de que estadístico descriptivo es más apropiado para describir unos datos
debería ser dependiente de lo apropiado de tal estadístico de acuerdo con la
distribución que presentan dichos datos.

Un investigador debería obtener la máxima información de una variable antes de utilizar los
datos para poner a prueba las hipótesis, en la inferencia estadística, y asi poder enriquecer la
teoría subyacente bajo estudio.

Fase confirmatoria: acentúa la evaluación/contraste de la evidencia disponible.

Según Hartwig y Dearing cabe desarrollar dos principios básicos que guían a todo investigador
que siga la perspectiva del AED: el escepticismo y una actitud abierta

- Escepticismo – se ha de ser escéptico sobre los ‘’resúmenes numéricos’’ del conjunto de


datos puesto que a veces pueden oscurecer o no revelar lo que podrían ser los aspectos
más informativos de los datos. Los estadísticos en ocasiones pueden oscurecer e incluso
ignorar información que pueda ser de gran importancia; en el AED el análisis visual
debiera proceder a los análisis estadísticos numéricos, si bien estos últimos siguen
siendo el producto final deseado.
- Actitud abierta - ser abierto a patrones no previstos en los datos, ya que esto podrían
ser los aspectos más reveladores del análisis.

Cuatro grandes temas que siempre han estado presentes en el AED

- Estadísticos resistentes

Un estadístico es resistente cuando el valor de este no se halla apenas afectado por cambios
arbitrarios en una pequeña parte del conjunto de datos; no se halla apenas afectado por un
pequeño numero de puntuaciones extremas o por cierto numero de errores de rondeo,
truncado o agrupamiento (puntuaciones atipicas). Los métodos resistentes prestan mucha
atención al cuerpo de los datos y poco a las puntuaciones extremas, de modo que puedan
‘’resistir’’ pequeñas alteraciones de los datos. La media y la varianza muestrales no pueden ser
consideradas como tales, una sola puntuación extrema puede afectarlas a ambas.

- Datos residuales

Los datos residuales son los datos que tras la aplicación del modelo no encajan en el mismo. El
AED mantiene estos datos para avisar de aspectos sistemáticos importantes de los datos que
puedan necesitar de atención tales como la curvatura, no aditividad y no constancia de la
variabilidad. Se emplea para detectar inadecuaciones de los modelos teóricos puestos a prueba,
en los que habitualmente se supone que los residuales son meramente error aleatorio, sin
ningún tipo de sistematismo.

- Transformación de datos

Se refiere al cambio en la medida de la escala de la variable objeto de estudio, para adecuar los
datos a los supuestos de los modelos paramétricos. Ej: para realizar un análisis de varianza
(ANOVA) los datos deben seguir la distribución normal…la transformación de los datos va
referida a que el investigador pueda analizar los datos a través de la utilización de otra escala
que pueda simplificar el análisis de datos. Se trata de considera si la escala original de medida
es satisfactoria; en el caso de que no lo sea, la transformación de datos en otra escala puede dar
lugar a la deseada simetría de la distribución…

- Revelación

Importancia de las representaciones gráficas. Estructura de los datos. Sirven para la búsqueda y
exploración de características y como una vía de comunicar información a audiencia no técnica.

La media se ve afectada por todos los datos. La desviación típica también se ve afectada por la
asimetría.

- Si se puede suponer que la distribución población es una distribución normal o se


aproxima a una, y la muestra es relativamente grande entonces se podría usar la media
muestral como un estimador aceptable de la media poblacional.
- Si se cree que la distribución descrita por la población es simétrica y unimodal, pero con
unas colas más gruesas en los extremos que la distribución normal se podría utilizar la
Mediana muestral como estimador de la media poblacional.
- Si como ocurre comúnmente, en la investigación empírica, no se sabe si la distribución
de la población es normal, se debería tratar de encontrar un estimador de la media
poblacional adecuado para varios tipos posibles de distribuciones, es decir, se busca un
estimador robusto.

Estimador robusto: funciona bien para varios tipos distintos de distribuciones teóricas, aunque
pueda no ser el mejor estimador disponible para ningún tipo concreto de distribución. Se refiere
a la insensibilidad de un estimador a violar los supuestos subyacentes bajo un modelo
probabilístico o distribución teórica. La media y varianza no lo son. Son métodos paramétricos.

Son aquellos que no se ven (o solo ligeramente) influidos por pequeños cambios en los datos.

Modalidades de tendencia central:

- Media truncada: consiste en calcular la media aritmética sobre un subconjunto central


del conjunto de datos, no considerándose una determinada proporción p por cada
extremo
- Media winsorizada: es análogo a las medias recortadas excepto en que las puntuaciones
eliminadas ya no lo son sino que se sustituyen por los valores menor y mayor que
quedan para el cómputo de la media winsorizada.
- Trimedia: es un índice de tendencia central que consiste en calcular una media
aritmética ponderada de tres medidas, la mediana (con peso doble) y el primer y tercer
cuartil.
- Otros: el estimador-M de Huber, el estimador biponderado de Tukey, el estimador M-
redescendente de Hampel y el estimador en onda de Andrew. Estos estimadores se
diferencian entre sí por el tipo de ponderación aplicada sobre los datos.

Datos anómalos: aquella observación que parece ser inconsistente con el resto de los valores de
la serie, en relación con el modelo supuesto.

- Rechazarlos, eliminándolos del resto de la serie.


- Identificarlos, resaltando algún aspecto que pudiera resultar interesante.
- Incorporarlos, ampliando la distribución-modelo propuesta.

El método bootstrap: se enmarca entre los procedimientos de re muestreo, consistentes en


generar un elevado número de muestras como base para estudiar el comportamiento de
determinados estadísticos. es un método de remuestreo propuesto por Bradley Efron en 1979.
Se utiliza para aproximar la distribución en el muestreo de un estadístico. Se usa frecuentemente
para aproximar el sesgo o la varianza de un análisis estadístico, así como para construir
intervalos de confianza o realizar contrastes de hipótesis sobre parámetros de interés. En la
mayor parte de los casos no pueden obtenerse expresiones cerradas para las aproximaciones
bootstrap y por lo tanto es necesario obtener remuestras en un ordenador para poner a prueba
el método. La enorme potencia de cálculo de los ordenadores actuales facilita
considerablemente la aplicabilidad de este método tan costoso computacionalmente. a idea
básica de bootstrap es que la inferencia sobre una población a partir de datos de muestra,
(muestra → población), puede ser modelada mediante un nuevo muestreo de los datos de la
muestra y realizando la inferencia sobre una muestra a partir de datos reamosturados. Como la
población es desconocida, el verdadero error en una muestra estadística contra su valor
poblacional es desconocido. En las re-muestras de bootstrap, la 'población' es de hecho la
muestra, y esto se conoce; por lo tanto, se puede medir la calidad de la inferencia de la muestra
"verdadera" a partir de datos remuestreados, (muestra re-muestreada).

__

Un sistema de clasificacion de los diseños de investigacion en psicologia

El primer pilar del proceso de investigacion es el diseño, que puede definirse como un plan que
proporciona una estructura para integrar todos los elementos de un estudio empirico de modo
que los resultados sea creibles, libres de sesgo y generalizables. Dos tipos de validez determinan
la calidad de la aplicacion del diseño: la interna (capacidad de controlar el efecto de terceras
variables que pueden ser causadas alternativas a la causa investigada) y la externa (capacidad
de generalizar los resultados a otros participantes a otros contextos y a otros momentos
temporales)

El segundo pilar es la medida, que concierne a la identificacion, definicion, medicion de las


variables observables y observables y la generacion de valores numericos o datos empiricos que
son la entrada de los procedimientos de analisis estadistico. El tipo de validez asociada a este
pilar es la de constructo (capacidad de definir y operativizar apropiadamente las variables de la
investigacion)

El tercer pilar es el analisis, que concierne a la estimcion de parametros y prueba de hipotesis


acerca del objetio de investigacion planteado con los procedimientos estadisticos mas
apropiados. El tipo de validez asociada aqui es la de la conclusion estadistica (se refiere a si el
metodo de analisis utilizado es correcto y si el valor de las estimaciones se aproximaal de la
poblacion).

Seleccionar un buen diseño y mantener un equilibro entre los tipos de validez


Principios básicos en el proceso de diseño de evaluación de una investigación:

- La investigación debe responder un objetivo especifico. Relación entre problema de


investigación y el diseño de la misma.
- Replicabilidad con la finalidad de desarrollar un conocimiento científico coherente.
Contribuir a la acumulación de conocimiento.
- El estudio debe incluir información detallada de los instrumentos de recogida de info y
de la naturaleza de los datos empíricos (definición y operacionalizacion de las V’s).
informe e interpretación de la fiabilidad, la validez y las puntuaciones de corte de los
instrumentos de recogida de la info.
- En cuanto al análisis estadístico se deben describir los métodos utilizados con el detalle
suficiente para ser comprendidos por otros investigadores, asi como los procedimientos
para el tratamiento de datos perdidos

- Investigación teorica: recopilan los avances producidos en la teoría sustantica o en la


metodología sobre una temática de investigación especifica, y también las revisiones o
actualizaciones de investigación que no requieran emplear datos empíricos
originales…revisión narrativa (revisión o actualización de estudios), revisión sistematica
(), revisión sistematica cuantitativa

- Investigación instrumental: analizan las propiedades psicométricas de instrumentos de


medida psicológicos ya sea de nuevos tests, para los que se recomienda seguir los
estándares de validación de tests.

- Investigación metodológica: trabajos que presentan nuevas metodologías para el


correcto tratamiento de cualquier temática relativa a los tres pilares básicos de la
investigación empírica que desarrollamos mas arriba: el diseño, la medida, el análisis.

- Investigación empírica: para dar Rs a los problemas de investigación que se plantean en


psicología suelen utilizarse tres estrategias de investigación generalmente aceptadas:
estrategias manipulativas, asociativa y descriptiva.

META ANALISIS

- Revision sistematica: es un tipo de investigación científica mediante la cual se revisa la


literatura científica sobre un tópico partiendo de una pregunta formulada de forma clara
y objetiva, utilizando métodos sistemáticos y explícitos para localizar, seleccionar y
valorar críticamente las investigaciones relevantes a dicha pregunta y aplicando
protocolos sistemáticos para la recogida de datos e info de dichas investigaciones, con
el objetivo de alcanzar conclusiones válidas y objetivas sobre dicho tópico.

Meta análisis es el análisis estadístico de una gran colección de resultados de trabajos


individuales con el propósito de integrar los hallazgos obtenidos.
Fases

- Formulación del problema

Plantear el problema de investigación, definir constructos y conceptos implicados en el mismo.


Objetivos e hipótesis.

- Búsqueda de los estudios

CRITERIOS: Identificar los diseños de los estudios admisibles para el meta análisis; definir los
tipos de programas, tratamientos o intervenciones que se pretenden investigar; definir las
características de los participantes en los estudios; determinar los datos estadísticos que deben
aportar los estudios para poder calcular los tamaños del efecto y; identificar como han de venir
medidas las variables de estudios (ej: escalas psicológicas, pruebas de rendimiento debidamente
baremadas, medidas de autoinforme, etc.). idioma y rango temporal que se pretende examinar.

- Codificación de los estudios

Elaborar un manual de codificación en el que se hagan explicitos los criterios mediante los cuales
se van a codificar las características de los estudios. La razón de examinar dichas características
no es otra que comprobar qué características de los estudios pueden estar moderando o
afectando a los resultados. Existen dos enfoques para la medición de la calidad, el que se centra
en el análisis de componentes individuales de calidad (consiste en identificar dimensiones
especificas que hagan referencia a algún aspecto de la calidad metodológica…PAG 26 SESGOS)
y el que aplica escalas de calidad ().

- Calculo del tamaño del efecto

El tamaño del efecto es un índice estadístico que mide el grado en que existe el fenómeno que
se esta investifando en cada estudio y no se deja afectar por el tamaño muestral, como ocurre
con las pruebas de significación estadística. Los índices del tamaño del efecto mas utilizados en
los meta análisis son: a) la familia d, especialmente indicada para estudios que aplican diseños
de dos grupos y el resultado se mide de forma continua, y que consuste en calcular la diferencia
entre las medias de los dos grupos y, opcionalmente, dividirla por la desviación típica conkinta
de ambos grupos; b) la familia r, especialmente indicada para estudios correlacionales, que se
basa en la obtención de un coeficiente de correlacion, y c) la familia de índices de riesgo, que
esta indicada para estudios de dos grupos en los que la variable de respuesta es dicotómica.

- Análisis estadístico e interpretación

Calculo del tamaño del efecto medio con su IC y valoración de su significación estadístico;
análisis de la heterogeneidad de los tamaños del efecto y; si los tamaños del efecto son
heterogéneos, búsqueda de variables moderadoras de tal variabilidad. Cuanto mayor es el
tamaño muestral de un estudio, tanto mayor es su precisión…

- Publicación del meta análisis

También podría gustarte