INTRODUCCIÓN A LA PSICOMETRÍA
1. EL MARCO DE REFERENCIA
El marco fundamental de psicometría es tratar de afirmar la precisión de las medidas de un test para medir
un constructo psicológico. La psicometría se basa en principios de la construcción y utilización de tests.
Trata de los intentos más básicos de abordar precisión y validez de las medidas de psicología (dos CC
básicas de los datos es que tienen que ser precisos y válidos).
La psicometría en tanto que parte de la psicología operando como ciencia se basa en modelos
matemáticos, desarrollándolos y manejándolos para obtener el conocimiento sobre constructos
psicológicos que no son observables a primera vista (inteligencia). Lo que si observamos son
comportamientos a partir de los cuales infiero las VV psicológicas, que no son directamente observables,
sino que se construyen a través de conductas, es por eso que son denominados constructos psicológicos.
¿Qué es una ciencia? Es un modo de conocimiento mediante el que el individuo humano se aproxima a la
realidad (cambiante) con el objetivo de observar, describir, entender y explicar cómo son las cosas, y, a
partir de ello, predecir cómo pueden ser en el futuro (para poder vivir en esa realidad de un modo
ventajoso).
Tiene cierta ventaja en el mundo de conocimiento, es el mejor modo de conocimiento ya que se caracteriza
porque:
- Tiene en la realidad el origen de sus preguntas y el aval para sus respuestas (metodología empírica)
- Se sirve de herramientas formales cuyo referente último es la lógica (hipotético-deductiva).
La ciencia también se caracteriza porque la realidad es la que la inspira en sus teorías, problemas y
preguntas. La realidad permite tanto confirmar como falsar teorías, más que nada falsar partes de la
realidad ya que si no las puedo comprobar, si no las observo, no existirán. La herramienta fundamental de
la ciencia es la matemática y su desempeño termina cuando las teorías se verifican/comprueban con
rigurosos datos.
A menudo, las situaciones de la realidad sobre las que se pretende establecer algún conocimiento científico
están afectadas por incertidumbre. A la hora de abordar problemas en el mundo matemático, la
herramienta de trabajo fundamental es la estadística, la cual parte de representaciones de la realidad que
son los modelos estocásticos.
La ciencia opera a través de modelos de la realidad, los cuales son su objeto de interés. Un modelo de un
aspecto de la realidad es una representación idealizada, simplificada y tratable de ese cierto aspecto de la
realidad (se trata de simplificar algo para hacerlo accesible al conocimiento – más allá de lo evidente-). Es
necesario simplificar, abstraer lo realmente determinante, para poder estudiarlo y todo lo demás tenerlo lo
mejor controlado posible. El objetivo de un modelo es obtener un conocimiento que no tenemos
previamente, “visitar una tiniebla”.
Un modelo matemático es una representación en términos matemáticos, tiene los siguientes componentes
(con el mismo nivel de importancia entre ellos):
- Partes separables y significativas/constitutivas del aspecto de la realidad abordado: VV
- Relaciones características que existen (hipotéticamente) entre esas partes: ECUACIONES
- Detalles/condiciones particulares relevantes: SUPUESTOS
Uno que vamos a estudiar es el modelo débil de la puntuación verdadera: Xj = Vj + Ej. En todo proceso de
la aplicación de un test para medir una VV de interés psicológico puede haber un error, es decir,
obtenemos una medida aproximada ya que hay un error estrictamente aleatorio (puede infravalorar o
sobrevalorar al sujeto). El rendimiento del sujeto es fruto de la interacción de dos factores, puntuación
1
verdadera del sujeto y efecto de la incertidumbre en el proceso de medición (evitable error de medida el
cual no sabemos si está actuando o no, pero siempre hay que tenerlo en cuenta), ambas estrictamente
independientes. El error puede afectar a cada cual, de manera desconocida y aleatoria, lo que significa que
a la larga tienden a compensarse por lo que su promedio sería 0.
¿Por qué sabemos que la puntuación verdadera y el efecto de la incertidumbre son independientes? Es
porque la operación es una suma, una función aditiva, la cual nos indica que las dos cosas unidas actúan de
manera independiente sobre el resultado.
Un modelo estocástico es el que se utiliza cuando la información disponible sobre el aspecto de la realidad
considerado, por mucha que sea, no permite formular una regla para determinar con total certeza los
resultados del proceso de estudio, aunque sí se observa cierta regularidad estadística (hay incertidumbre-
aleatoriedad-, aunque estos resultados si son predecibles “a la larga”).
Cuando se elabora un modelo estocástico para tratar un proceso de registro de información, es necesario
encontrar respuestas adecuadas a varios problemas prácticos:
- Identificación de todos los resultados (observables) posibles
- Identificación de todos los resultados relevantes
- Formalización/cuantificación de tales resultados (entra en juego la probabilidad)
Un proceso de registro de información en situaciones con incertidumbre (área de trabajo de la estadística)
es un experimento aleatorio:
- Proceso de registro de información bien delimita, cuyos posibles resultados son conocidos de
antemano.
- Cuyo resultado concreto en cada caso no se puede anticipar con seguridad.
- Que puede ser repetido en condiciones más o menos idénticas.
- En el que, a lo largo de un número elevado de repeticiones, sí es posible identificar patrones de
resultados (tendencias o regularidades estadísticas).
2. ORGANIZACIÓN DE LA INFORMACIÓN
Todo proceso de registro de información en estadística se denomina experimento aleatorio a partir del cual
de define todo un conjunto de procesos. Lo más importante es sopesar el impacto de cada resultado
posible, el indicador de la magnitud de cada resultado posible es la probabilidad.
PROBABILIDAD
La probabilidad es la medida de la (in)certidumbre o magnitud, importancia, presencia, tamaño de cada
resultado de un experimento aleatorio. Es decir, es un número que señala la relevancia de cada resultado
posible de un experimento realizado un número elevado de veces. Se expresa con un número,
generalmente la frecuencia relativa con que aparece ese resultado, r, a lo largo de n repeticiones del
experimento aleatorio, es decir, el cociente entre el número de veces que aparece ese resultado (nf(r)) y el
número total de repeticiones (n, grande):
p(r) = nf(r)/n.
Kolmogorov establece que, siempre:
- P(r)≥0
- P(E)=1, donde E es el conjunto de todos los resultados posibles del experimento aleatorio.
- Para cualquier conjunto de resultados posibles, r,s,t… que sean mutuamente excluyentes
(incompatibles, sin ningún elemento común):
p (𝑟 ∪ 𝑠 ∪ 𝑡 ∪…) = p(r) + p(s) + p(t)…
VV ALEATORIA:
Es una función que asocia a cada resultado posible distinto de un experimento aleatorio (forma de
representar o codificar la información) un número real distinto. Con lo que vamos a trabajar en estadística
2
es con los valores numéricos. Cuando le asigno a cada valor una probabilidad lo que estoy haciendo es
organizar esa información creando una distribución de probabilidad inducida.
- A la función que se asocia a todos y cada uno de los valores de una VV aleatoria una probabilidad
correspondiente se le conoce como distribución de probabilidad (inducida) de la VV aleatoria:
f(x)=P(X=x)
- A la función que asocia a todos y cada uno de los valores de una VV aleatoria la suma de su
probabilidad asociada mediante f(x) más las probabilidades igualmente asociadas mediante f(x) a
todos los valores que están por debajo (según su orden creciente) se le conoce como función de
distribución de la VV aleatoria: F(x)=P(X≤x)
Si son valores discretos se les asocia su frecuencia relativa y se denomina función de probabilidad, si la
variable es continua (valores continuos) la función que asocia a cada valor una probabilidad estadística, se
denomina función de densidad de probabilidad. Ambas son el mismo concepto, a cada valor se le asocia
una probabilidad característica, lo que cambia son los nombres particulares que toman la función
determinada por los valores que tienen. A efectos prácticos, vamos a trabajar con las dos de la misma
manera. En la psicología, por definición las variables se consideran estrictamente continuas, por
consiguiente, lo habitual es trabajar con funciones de densidad de probabilidad.
No para toda VV aleatoria se pueden organizar los datos en una función de distribución de probabilidad, ya
que esta función asocia a cada valor de la VV aleatoria la probabilidad de haber alcanzado ese valor de la
variable o cualquiera que pueda estar por debajo. Esta función solo existe cuando entre los valores de la VV
se pueda establecer un orden, lo que implica que como mínimo ha de ser una VV ordinal. La distribución de
probabilidad inducida es característica de las VV nominales, ya que la función de probabilidad ha de ser
sobre una VV ordinal. De VV ordinales en adelante, la relación establecida es 1:1 es decir, cada distribución
de probabilidad inducida tiene asignada una función de probabilidad.
Existe una relación entre la distribución de probabilidad inducida y la función de probabilidad que es de
mutua especificación entre f(X) y F(X): sean x1<x2. INCLUIR EN EL FORMULARIO
P(x1<X≤x2) = F(x2) – F(x1):
Si en una población determinada meto la mano e intento sacar un sujeto,
la probabilidad de que un sujeto este por encima de X1 y no supere o iguale a otro sujeto X2
esta definida por la diferencia entre el sujeto X2 y el sujeto X1.
Siempre pregunta si la relación entre la distribución de probabilidad inducida y
la función de probabilidad se establece por esa ecuación o de alguna otra manera.
P(X>x) = 1 – P(X≤x) = 1 – F(x):
La función de distribución es la probabilidad de no superar un valor, por lo que la probabilidad de si
superarlo es igual a la probabilidad total menos la probabilidad de no superar el valor (función).
3. VV. DISCRETAS
DISTRIBUCIÓN DE BERNOULLI:
En la vida real es inusual encontrarnos con ella. Es la distribución de referencia cuando tenemos el tipo de
VV aleatoria más simple, una VV aleatoria binaria o dicotómica (dos únicos valores). Existe una condición
adicional es que la probabilidad de los valores no puede ser extrema (p=0,00001 y q=0,99999).
Se genera en un proceso tal que:
- Se puede considerar como un experimento aleatorio que consiste en una única realización (ensayo)
- Presenta únicamente dos únicos resultados (sucesos) posibles, que son mutuamente excluyentes
(incompatibles), y de denominan (por convención):
o Éxito, acierto: p: x=1
o Fracaso, error: q: x=0
3
Función de probabilidad Ber(p) = f(xi) = P(X=x) = pxq(1-x) – f(1)=p, f(0)=q.
Función de distribución F(x) = P (X≤xk) =∑!"#$ 𝑝xiq(n-xi) – F(0)=q, F(1)=q+p=1
Parámetros E(X)=p, VAR (X)=pq.
En el ámbito de la estadística aplicada a la psicología esta distribución no es el marco de referencia, lo que
si es importante es la sucesión de VV binarias, algo que podemos medir con la siguiente distribución.
DISTRIBUCIÓN BINOMIAL: suma de VV binomiales/dicotómicas, suma de Bernoulli.
Estudios en los que para cada ítem hay una respuesta correcta y una respuesta falsa (que comprende las
otras no correctas más la omisión de respuesta), es por esto por lo que se comprende como la suma de
Bernoulli. Al igual que con Bernoulli, las probabilidades de respuesta no pueden ser extremas. En general, la
puntuación de un sujeto en el test puede asumirse que sigue una distribución binomial, siempre que el
esquema de puntuación siga la distribución 0 y 1.
Se genera en un proceso tal que:
- Se puede considerar como un experimento aleatorio que consiste en una sucesión de n
realizaciones (ensayos) independientes de un experimento aleatorio con distribución de Bernoulli.
- La probabilidad de éxito, p, se mantiene constante a lo largo de todos los n ensayos (lógicamente,
también la de fracaso, q=1-p).
Función de probabilidad B(n,p) = f(xi) = P(X=x) = [n!/(x!(n-x)!)]pxq(n-x)
k
Función de distribución F(x) = P(X≤xk) = ∑ [n!/(xi!(n-xi)!)]pxiq(n-xi)
Parámetros E(X)=np, VAR(X)=npq.
La distribución binomial y normal, en el infinito convergen, terminan siendo la misma. Si tengo un número
alto de sujetos se utiliza por norma la distribución normal. Ejemplo: si tenemos 3000 sujetos que realizan
un test que a su vez tiene 30 preguntas cada uno, trabajamos con un gran número de datos, con los que
por defecto asumimos la convergencia y trabajamos con la distribución normal.
DISTRIBUCIÓN DE POISSON:
Alternativa a la Bernoulli cuando la probabilidad de los dos valores es extrema. Esta distribución nos la
vamos a encontrar en la TRI, nunca explícitamente pero sí puede estar ahí.
Se genera en un proceso del tipo binomial, B(n,p) cuando n es muy grande y p es muy pequeña. Asimismo,
cuando un suceso aparece un número promedio de veces igual a 𝜆 en un cierto intervalo (de tiempo,
espacio,…), el número de apariciones del suceso en ese intervalo o un múltiplo k de este sigue la
distribución de Poisson.
En tales casos, la probabilidad de que aparezca el suceso un numero x de veces en un número n de ensayos
o en un intervalo dado es igual a: X – Po(𝜆) = P(X=x) = e^-𝜆 (𝜆x/x!)
Las siguientes distribuciones no las vamos a usar en la asignatura:
- GEOMÉTRICA O DE PASCAL: determinar la probabilidad de obtener un éxito después de haber
tenido un número determinado de fracasos, y viceversa. Se genera en un proceso del tipo binomial
cuando lo que se requiere es estimar la probabilidad de que ocurra un número x de intentos
“fallidos” antes de que aparezca el primer éxito.
- HIPERGEOMÉTRICA: se genera en un proceso de tipo binomial cuando se trata de estimar la
probabilidad de encontrar x éxitos en una muestra de r observaciones o ensayos (al azar).
4
4. VV. CONTINUAS
DISTRIBUCIÓN NORMAL O GAUSSIANA: X –> N(𝜇, 𝜎2)
Es una distribución vinculada necesariamente a una VV aleatoria continua. La función de densidad de
probabilidad es intentar encontrar un valor x dentro de una distribución gaussiana.
Existe una distribución normal estandarizada: zx –> N(0,1)
2
f(x)=(1/[σ√(2π)])e-(1/2)([X-μ]/σ)
Función de densidad de probabilidad
Parámetros E(X)= 𝜇 , VAR(X)= 𝜎2
La distribución es asintótica respecto de X,
no toca el eje de abscisas, es paralela hasta
el infinito. Dentro de una distribución
gaussiana no hay valores imposibles, se
definen como valores muy/bastante
probables o muy/poco probables.
La distribución tiene un máximo relativo
en todo el dominio(X= 𝜇), hasta llegar a
ese valor la probabilidad va creciendo y al
llegar a ese valor en adelante la
probabilidad va decreciendo, por lo que es
simétrica respecto de X=𝜇.
Tiene dos puntos de inflexión en:
- X= 𝜇 - 𝜎
- X= 𝜇 + 𝜎
La mayor parte de puntuaciones en
cualquier variable está comprendida entre
+3 y -3 desviaciones típicas de la media.
DISTRIBUCIÓN 𝜒2N:
Su utilidad va a ser en cuanto queramos comparar
distribuciones.
Las características de esta distribución son:
- Suma de n distribuciones normales tipificadas
al cuadrado.
- Uniparamétrica: grados de libertad, n.
- Solo toma valores mayores o iguales a 0.
- Asimétrica positiva.
- Asintótica respecto al eje de abscisas.
- Si n tiende a infinito, la distribución se
aproxima a la normal.
Parámetros E(X)=n, VAR(X)=2n
5
DISTRIBUCIÓN tn:
Es la distribución utilizada cuando tenemos valores pequeños, se utiliza en inferencias acerca de la media.
Parámetros E(X)=0, VAR(X)= n/(n-2)
Es la equivalente a la gaussiana cuando hay
pocos datos, sujetos. Es una distribución
derivada de una distribución normal y otra 𝜒2N.
Esta distribución es simétrica respecto a tn=0, al
igual que tiene un máximo en ese mismo
punto. Es asintótica respecto al eje de abscisas
y cuando n tiende a infinito la distribución se
aproxima a la normal.
DISTRIBUCIÓN F DE FISHER-SNEDECOR:
Distribución usada para comparar varianzas de funciones de
probabilidad, es decir, se utiliza en inferencias acerca de la
varianza. Es una distribución asimétrica y asintótica derivada de
dos 𝜒2N.
Es una distribución que solo toma valores
mayores o iguales a cero, asimétrica
positiva, asintótica respecto al eje de
abscisas. Si n1 y n2 tienden a infinito la
distribución se aproxima a la normal.
E(X)=n2/(n1-2)
Parámetros
VAR(X)=[2n2 (n1+ n2-2)]/[n1(n2-4)(n2-2)2]
2
5. MEDICIÓN
INICIOS DE LA MEDICIÓN EN LA PSICOLOGÍA:
La medición es un procedimiento especializado de registro de información (en busca de información
fidedigna, confiable). Hay dos concepciones de la medición:
a) Concepción tradicional, convencional: es un proceso cualificado de registro de información,
llevado a cabo por un observador para estimar la magnitud de cada manifestación de un
atributo (VV aleatoria) cuantitativo, por comparación con una manifestación de referencia
(unidad de medida) y expresada por medio de un número real (la medida). En la práctica, toda
medida es inherentemente imprecisa. Esta idea es la básica y simple utilizada por la ciencia.
Para poder medir un aspecto de la realidad, entre las modalidades existentes de ese apsecto
debe darse relaciones de equivalencia, de orden y de aditivitad. Por lo que según esta
concepción solo se puede medir VV cuantitativas.
b) Concepción representacional (Russel): es un proceso por el que se asigna un número real a
cada manifestación de un atributo cuantitativo siguiendo reglas, de tal manera que entre los
numerales queden representadas las relaciones (cuantitativas) que existen entre las
manifestaciones del atributo. Determina que las medidas deben de representar las CC del
aspecto de la realidad que se quiere medir.
La idea de medición universal al comienzo de la psicología es esta, que solo se pueden medir variables
cuantitativas, es por esto por lo que los psicólogos parten del supuesto que los constructos psicológicos que
van a medir son de origen cuantitativo.
6
Un conjunto es una colección de elementos determinado en un tiempo y espacio concretos. Dentro de un
conjunto hay características (elementos) y relaciones diferentes como la equivalencia, orden y aditividad.
Este conjunto de relaciones del conjunto se denomina estructura del conjunto. Un conjunto esta dotado de
estructura cuantitativa cuando entre sus elementos se observan estas tres relaciones en relación con la
característica de la realidad. Según la concepción tradicional y según la concepción representacional solo se
pueden medir este tipo de conjuntos cuantitativos, llamadas variables cuantitativas.
El test es el procedimiento de medición estándar. Un test es una colección de EE(ítems) que permiten
desencadenar y registrar comportamientos por parte de los sujetos a través de los cuales se ponen de
manifiesto los diversos aspectos que definen una cierta característica psicológica, no observable
directamente (VV latente o constructo):
- Procedimiento sistemático: sigue ciertos patrones, reglas, que siempre son = para el = test.
- Muestra de comportamientos representativos: los EE que configuran el test constituyen o hacen
referencia a detalles específicos que se consideran que forman parte del constructo que queremos
medir. Los ítems deben permitir obtener una muestra representativa de la característica
psicológica que quiere medir.
- Medida objetiva: no depende de quien interpreta la respuesta ni de quien responde, sino que hay
una subjetividad compartida (dependiendo de las normas a seguir para interpretarlas)
- Base comparativa (grupo normativo): hay una población a la que el test está destinada la cual
establece los criterios de interpretación. Ejemplo: resultados de un estudio con niños de primaria
han de ser interpretados en referencia a niños de primaria (actúa de grupo normativo). Esta no es
una característica constitutiva del test, no es necesaria, pero si habitual.
- Uso predictivo: no es necesario que un test se use para predecir, es habitual.
Es un procedimiento indirecto ya que consideramos comportamientos observables a través de los cuales
inferimos una VV psicológica no observable.
EL IMPULSO A LOS TESTS:
Thurstone propone las condiciones o propiedades de la medida obtenida de un test en la psicología, las
cuales son:
- Unidimensionalidad: si quiero medir algo tengo que diseñar un test que mida específicamente ese
rasgo. Ejemplo: cuando quiero medir inteligencia verbal, los ítems deben de estar diseñados de
manera que me permitan medir esa misma capacidad.
- Linealidad: debe de haber proporcionalidad entre la medida que se esta empleando y la manera en
la que se está manifestando la característica, aditividad.
- Abstracción: la unidad de medida es alguna clase de proceso.
- Invariabilidad: cuando mido una determinada VV tengo que poder medirla igual si hay un test
formado por unos ítems u otros. Es decir:
o calibración del instrumento independiente de los sujetos
o medición para cada sujeto independiente de los aspectos concretos del instrumento.
Posteriormente, Guttman propuso la condición de escalamiento (transitividad conjunta) en la que un test
proporciona una escala de medida si para todo sujeto A que tiene un nivel superior a otro sujeto B en la
variable que se pretende medir, el sujeto A no tiene una puntuación inferior al sujeto B en ninguno de los
ítems del test. Es una condición para el test, la medida, no para el sujeto.
MEDICIÓN SIGUIENDO A STEVENS:
Las turbulencias sobre la medida se dieron con el informe del comité Ferguson (1940) y la respuesta vino
por parte de Stevens, quién dio una concepción representacional de la medición.
Stevens redefine la medición completamente, a partir de Stevens ya no esta el comparar, la medición va a
ser algo parecido a lo que formula Russell, proceso mediante el cual un observador asocia un numeral a
cada manifestación de un atributo siguiendo reglas, de tal manera que entre los numerales queden
representadas las relaciones que existan entre las manifestaciones del atributo. En rigor, un numeral es una
cadena fina de cosas por lo que lo que Stevens determina es la codificación, pero a efectos prácticos se usa.
7
Ejemplo – SEXO BIOLÓGICO: estrictamente para Stevens esto son numerales, XX XY
mientras que para nosotros son consideradas codificaciones. Si utilizamos XX=2 FEMENINO MASCULINO
y XY =1, siguen siendo numerales (símbolos numéricos) pero la diferencia es MUJERES HOMBRES
que son calculables, usables para programas matemáticos y calculadoras, e HEMBRAS VARONES
incluso para el cerebro humano. Estos numerales que son los que se usan dan licencias peligrosas, ya que a
pesar de ser símbolos numéricos no pueden sumarse los conceptos (no son números de verdad, son
símbolos asociados a una característica) ya que no podemos obtener alguien que tenga sexo biológico de
hombre y mujer a la vez.
En la práctica, medir un atributo es construir una escala de medida para él. Una escala de medida es una
terna, ξ=‹E,N,f›, formada por:
- Un sistema empírico, E, como componente de una escala esta formado por unas manifestaciones y
una serie de relaciones entre ellas. Corresponde a aquello que se pretende medir.
- Un sistema numérico, N, formado por los números que se asignan a las distintas manifestaciones y
las relaciones existentes entre ellos.
- Una regla de asignación de un número a cada manifestación del atributo (aplicación), que garantice
que N represente a E.
Técnicamente hablando hay cosas implícitas que conviene hacer patentes, hablamos de un sistema
empírico y numérico, pero ¿Qué es un sistema? Para que haya un conjunto tiene que estar claro que
elementos forman parte de ese conjunto, pero un conjunto entre cuyos elementos se dan relaciones más
allá de aquella de pertenecer en común al conjunto, es un sistema dotado de una estructura cuantitativa.
Lo ideal es que esta aplicación fuese biyectiva (estrictamente 1:1), lo que llevaría a una representación
isomórfica (se asigna un número distinto a cada manifestación distinta del atributo que se quiere medir),
pero lo más frecuente, en la práctica es trabajar con una aplicación inyectiva (muchos:1), construyendo una
representación homomórfica (asignamos un número a cierto valor el cual se aplica a todos los sujetos que
compartan ese valor). Lo normal en psicología es que construyamos escalas o representaciones
homomórficas a pesar de que lo ideal debería ser una representación isomórfica.
Tipos de escala de medida (Stevens): en orden de complejidad creciente.
Relaciones Transformaciones Análisis
Tipo de escala de medida
existentes admisibles estadísticos
Equivalencia (=) Nominal: medición es un proceso Inyectivas Moda, C
simbólico de codificación de las La información
categorías (códigos de obtenida nos puede
representación). servir si eso para
segmentar.
=,Orden débil (≥, ≤) Ordinal (rango, jerarquía): Monótonas Mdn, Estadísticos,
atribuimos un numeral a cada rangos
modalidad de manera que ese
orden quede plasmado en los
numerales asignados. No se
puede calcular, ya que son
conceptos.
=, ><, Origen débil, Intervalo (razón entre distancias) Afines, Y=bX+a 𝜇, 𝜌, 𝜎2
origen y unidad
convencionales
=, ><, Origen débil, Razón (razón entre magnitudes – Lineales, Y=bX Todo
origen y unidad nº reales)
empíricos
En psicología vamos a contar con que nuestras VV son cuantitativas y a efectos prácticos las medimos en
escalas de intervalo.