Estadistica Basica
Estadistica Basica
Estadistica Basica
William W. Watt
Índice general
Prefacio 1
1. Introducción 3
1.1. La Estadı́stica como ciencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Para qué sirve la Estadı́stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. El método cientı́fico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. El proceso experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5. Bibliografı́a complementaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
I ESTADÍSTICA DESCRIPTIVA 9
i
ii ÍNDICE GENERAL
II DISTRIBUCIONES DE PROBABILIDAD 45
5. Leyes de probabilidad 47
5.1. Sucesos aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.2. Definición y propiedades de la probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2.1. Concepto clásico de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2.2. Definición axiomática de la probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.2.3. Propiedades de la probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.3. Probabilidad condicionada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.3.1. Definición de probabilidad condicionada . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.3.2. Sucesos dependientes e independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.3.3. Teorema de la probabilidad total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3.4. Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.4. Análisis combinatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.4.1. Variaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.4.2. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.4.3. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6. Variables aleatorias 63
6.1. Descripción de las variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.1.1. Concepto de variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.1.2. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
6.1.3. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
6.2. Medidas caracterı́sticas de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.2.1. Media o esperanza matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.2.2. Varianza y desviación tı́pica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.2.3. Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
6.3. Variable aleatoria bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.3.1. Distribución de probabilidad conjunta y marginal . . . . . . . . . . . . . . . . . . . . . 71
6.3.2. Distribución condicionada e independencia estadı́stica . . . . . . . . . . . . . . . . . . 73
6.3.3. Medias, varianzas y covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.4. Teorema de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Este libro recoge el material didáctico utilizado por los autores para la impartición de la asignatura
Estadı́stica en la Facultad de CC. Fı́sicas de la Universidad Complutense de Madrid. Esta asignatura se
introdujo en el Plan de Estudios del año 1995 y desde entonces ha demostrado aportar un conocimiento
esencial para la formación de los estudiantes de la Licenciatura en Fı́sica. Estamos convencidos de que este
tipo de conocimiento es básico para cualquier estudiante de ciencias.
Aunque la bibliografı́a en este campo es extensa, hemos considerado oportuno redactar un libro res-
tringido a los contenidos especı́ficos que se incluyen en un curso introductorio de Estadı́stica. Pretendemos
ası́ delimitar, y en lo posible simplificar, el trabajo del estudiante, mostrándole de forma precisa los con-
ceptos más fundamentales. Una vez consolidados estos conceptos, esperamos que los estudiantes de ciencias
encuentren menos dificultades para aprender y profundizar en las técnicas estadı́sticas más avanzadas que
son de uso común en el trabajo diario de un cientı́fico.
Queremos agradecer a los diferentes profesores que durante estos años han dedicado su esfuerzo a enseñar
Estadı́stica en la Facultad de CC. Fı́sicas. El temario que finalmente se plasma en este libro ha evolucionado
y se ha enriquecido de las conversaciones mantenidas con ellos: Natalia Calvo Fernández, Andrés Javier
Cenarro Lagunas, Manuel Cornide Castro-Piñeiro, Jesús Fidel González Rouco, Ricardo Garcı́a Herrera,
Gregorio Maqueda Burgos, Ma Luisa Montoya Redondo, Ma Belén Rodrı́guez de Fonseca, Encarnación
Serrano Mendoza y, de forma muy especial y con todo el afecto, nuestro agradecimiento a Elvira Zurita
Garcı́a. Una excelente profesora y mejor persona, para quien la calidad de la enseñanza fue siempre una
prioridad constante. Siempre la recordaremos con cariño.
Los autores
Madrid, febrero de 2009
1
Capı́tulo 1
Introducción
“La Ciencia es más una forma de pensar que una rama del conocimiento.”
La Estadı́stica es la ciencia que se encarga de recoger, organizar e interpretar los datos. Es la ciencia de los
datos. En la vida diaria somos bombardeados continuamente por datos estadı́sticos: encuestas electorales,
economı́a, deportes, datos meteorológicos, calidad de los productos, audiencias de TV. Necesitamos una
formación básica en Estadı́stica para evaluar toda esta información. Pero la utilidad de la Estadı́stica va
mucho más allá de estos ejemplos.
La Estadı́stica es fundamental para muchas ramas de la ciencia desde la medicina a la economı́a. Pero
sobre todo, y en lo que a nosotros importa, es esencial para interpretar los datos que se obtienen de la
investigación cientı́fica. Es necesario leer e interpretar datos, producirlos, extraer conclusiones, en resumen
saber el significado de los datos. Es por lo tanto una herramienta de trabajo profesional.
Se recomienda leer la Introducción de Estadı́stica: modelos y métodos de Daniel Peña, para conocer el
desarrollo histórico de la Estadı́stica. La Estadı́stica (del latı́n, Status o ciencia del estado) se ocupaba sobre
todo de la descripción de los datos fundamentalmente sociológicos: datos demográficos y económicos ( censos
de población, producciones agrı́colas, riquezas, etc.), principalmente por razones fiscales. En el siglo XVII
el cálculo de probabilidades se consolida como disciplina independiente aplicándose sobre todo a los juegos
de azar. Posteriormente (s. XVIII) su uso se extiende a problemas fı́sicos (principalmente de Astronomı́a)
y actuariales (seguros marı́timos). Posteriormente se hace imprescindible en la investigación cientı́fica y es
ésta la que la hace avanzar. Finalmente, en el siglo XIX, nace la Estadı́stica como ciencia que une ambas
disciplinas.
El objetivo fundamental de la estadı́stica es obtener conclusiones de la investigación empı́rica usando
modelos matemáticos. A partir de los datos reales se construye un modelo que se confronta con estos datos
por medio de la Estadı́stica. Esta proporciona los métodos de evaluación de las discrepancias entre ambos.
Por eso es necesaria para toda ciencia que requiere análisis de datos y diseño de experimentos.
3
4 Introducción
Ya hemos visto que la Estadı́stica se encuentra ligada a nuestras actividades cotidianas. Sirve tanto para
pronosticar el resultado de unas elecciones, como para determinar el número de ballenas que viven en nuestros
océanos, para descubrir leyes fundamentales de la Fı́sica o para estudiar cómo ganar a la ruleta.
La Estadı́stica resuelve multitud de problemas que se plantean en ciencia:
Análisis de muestras. Se elige una muestra de una población para hacer inferencias respecto a esa
población a partir de lo observado en la muestra (sondeos de opinión, control de calidad, etc).
Contraste de hipótesis. Metodologı́a estadı́stica para diseñar experimentos que garanticen que las con-
clusiones que se extraigan sean válidas. Sirve para comparar las predicciones resultantes de las hipótesis
con los datos observados (medicina eficaz, diferencias entre poblaciones, etc).
Medición de relaciones entre variables estadı́sticas (contenido de gas hidrógeno neutro en galaxias y la
tasa de formación de estrellas, etc)
Predicción. Prever la evolución de una variable estudiando su historia y/o relación con otras variables.
Citando a Martin Gardner: “La ciencia es una búsqueda de conocimientos fidedignos acerca del mundo:
cómo se estructura y cómo funciona el universo (incluyendo los seres vivos)”. La informacion que maneja la
ciencia es amplia, al ser amplio su ámbito. Pero se suele reunir en tres apartados: los hechos, las leyes y las
teorı́as. No es una partición estanca, aunque podemos entender aquı́ nos referimos con algún ejemplo. Los
hechos se refiere a casos especı́ficos y/o únicos. Por ejemplo la Tierra tiene una luna (satélite natural).
La primera ley de Kepler (ya que estamos con planetas) es un buen ejemplo de ley: los planetas describen
orbitas elı́pticas en torno al Sol, que ocupa uno de los focos de la elipse. Como se ve, frente al hecho, concreto
y único, la ley se refiere a muchos casos, como lo son los planetas que orbitan en torno al Sol. La generalización
de la ley de Kepler permite aplicarla a cualquier par de cuerpos ligados por la gravedad.
Una teorı́a es una abstracción, con entidades inobservables, que explica hechos y leyes. Por ejemplo la
teorı́a newtoniana de la gravitación. En ella se habla de fuerzas (o de campos gravitatorios) que no son entes
observables, pero esta teorı́a explica hechos y leyes.
Sucede que el conocimiento cientı́fico no es completamente seguro en ninguna de las precedentes cate-
gorı́as. Podrı́a existir otra luna en torno a la Tierra. O, como sabemos, la teorı́a newtoniana de la gravitación
no es completa, porque no da cuenta de algunos fenómenos. De ahı́ vino su evolución a nuevas teorı́as de la
gravitación. No hay ası́ un conocimiento completamente seguro: los enunciados absolutamente ciertos sólo
existen en el ámbito de las matemáticas o la lógica. Pero la ciencia usa una correspondencia con estas dos
disciplinas. La matemática y la lógica aplicadas a las ciencias facilitan poder establecer hechos, leyes y teorı́as
con coherencia interna y con un alto grado de certeza. Y la Estadı́stica proporciona una herramienta para
poder evaluar esta certeza, o proporcionar pautas para realizar inferencias a partir de lo que se conoce.
Lo que distingue a una teorı́a cientı́fica es que ésta, a diferencia de la que no lo es, puede ser refutada:
puede existir un conjunto de circunstancias que si son observadas demuestran que la teorı́a está equivocada.
A continuación se ofrece una visión simplificada del método cientı́fico.
Hacemos observaciones en la naturaleza y a través de un proceso creativo generamos una hipótesis de cómo
funciona cierto aspecto de la naturaleza (modelos). Basándonos en esa hipótesis diseñamos un experimento
que consiste en que un conjunto de observaciones deben tener lugar, bajo ciertas condiciones, si la hipótesis
es cierta. En el caso de que estas observaciones no ocurran nos enfrentamos a varias posibilidades: nuestras
hipótesis necesitan ser revisadas, el experimento se llevó a cabo de forma incorrecta, o nos hemos equivocado
en el análisis de los resultados del experimento.
Hace algunos cientos de años se estableció un método para encontrar respuestas a los interrogantes que nos planteamos al
contemplar la naturaleza. Este método, conocido como método cientı́fico, se basa en tres pilares fundamentales: observación,
razonamiento y experimentación.
El método cientı́fico no es una simple receta, sino que es un proceso exigente que requiere, entre otros ingredientes, juicio crı́tico.
De forma resumida, el método cientı́fico incorpora las siguientes facetas:
Observación: aplicación atenta de los sentidos a un objeto o a un fenómeno, para estudiarlos tal como se presentan en realidad.
Descripción: las mediciones deben ser fiables, es decir, deben poder repetirse. Las observaciones únicas e irrepetibles no
permiten predecir futuros resultados. En este sentido la Cosmologı́a se enfrenta, a priori, a un grave problema. El
Universo es único y no podemos volver a repetirlo modificando las condiciones iniciales.
Predicción: las predicciones de cualquier fenómeno deben ser válidas tanto para observaciones pasadas, como presentes y
futuras.
Control: capacidad de modificar las condiciones del experimento para estudiar el impacto de los diferentes parámetros parti-
cipantes. Esto se opone a la aceptación pasiva de datos, que puede conducir a un importante sesgo (bias) empı́rico.
Falsabilidad o eliminación de alternativas plausibles: Este es un proceso gradual que requiere la repetición de los experimentos
(preferiblemente por investigadores independientes, quienes deben ser capaces de replicar los resultados iniciales con la
intención de corroborarlos). Todas las hipótesis y teorı́as deben estar sujetas a la posibilidad de ser refutadas. En este
sentido, a medida que un área de conocimiento crece y las hipótesis o teorı́as sobre la que se sustenta van realizando
predicciones comprobables, aumenta la confianza en dichas hipótesis o teorı́as (uno de los defensores fundamentales del
criterio de falsabilidad es Karl Popper (1902–1994); ver, por ejemplo, La lógica de la investigación cientı́fica en Popper
1935).
Explicación causal: los siguientes requisitos son normalmente exigibles para admitir una explicación como cientı́fica:
La experimentación está lejos de estar carente de dificultades. Algunas técnicas experimentales exigen
un aprendizaje largo y, en muchas ocasiones, el volumen de datos a manejar puede ser tan grande que sea
necesario un trabajo de análisis intenso. La paciencia y la perseverancia son grandes aliadas en este sentido.
Las razones para realizar un experimento son diversas y de alcance muy variable. Preguntas tı́picas son,
por ejemplo: ¿Cómo de aplicable es una teorı́a particular? ¿Es posible mejorar una técnica de medida? ¿A
qué temperatura debe fundir una nueva aleación? ¿Qué ocurre con las propiedades magnéticas de un material
al someterlo a temperaturas de trabajo muy bajas? ¿Se ven alteradas las propiedades de un semiconductor
debido al bombardeo por radiación nuclear?
De una forma esquemática, el proceso experimental suele desarrollarse siguiendo el siguiente esquema:
1. Definir la pregunta o problema a resolver. Cuanto más claro y definido sea el objetivo del experimento,
mucho más fácil será realizar su planificación y ejecución.
2. Obtener información y recursos. Una vez definido el objetivo del experimento, es necesario elaborar un
plan de trabajo para poder alcanzarlo. Hay que identificar qué equipos son necesarios, qué cantidades
hay que medir, y de qué manera se va a realizar el experimento.
3. Formular hipótesis, acerca de los resultados de nuestro experimento. Hacerlo antes de su ejecución evita
el sesgo personal de identificar los resultados que ya se conocen como objetivos iniciales (no debemos
engañarnos a nosotros mismos).
4. Realizar el experimento y obtener las medidas. Esta tarea se subdivide en varios pasos:
Preparación: el equipo debe ser puesto a punto para su utilización. Si el experimento requiere
la utilización de aparatos con los que no estamos familiarizados, es necesario leer atentamente
los manuales de utilización, e incluso consultar a experimentadores con experiencia previa en
su manejo. Todo ello evita perder tiempo y cometer errores de bulto, a la vez que preserva la
integridad del equipo (¡y la nuestra!).
Experimentación preliminar: suele ser muy aconsejable realizar una pequeña experimentación de
prueba antes de iniciar la toma definitiva de medidas. Esto facilita el uso correcto del equipo
instrumental, permitiendo identificar los aspectos más difı́ciles o en los que resulta más fácil
cometer errores.
Toma de datos: el trabajo cuidadoso y detallado son fundamentales en todo proceso experimental.
Ejecutar dicha labor siguiendo un plan de trabajo bien definido resulta básico. No hay nada más
frustrante que descubir, tras largas horas de medidas, que hemos olvidado anotar algún parámetro
esencial o sus unidades. En este sentido resulta imprescindible tener presentes varias cuestiones
Comprobación de la repitibilidad: siempre que sea posible, todo experimento deberı́a repetirse va-
rias veces para comprobar que los resultados obtenidos son repetibles y representativos. Y aunque,
obviamente, la repetición de un experimento no proporciona exactamente los mismos números,
discrepancias muy grandes deben alertarnos acerca de la existencia de efectos sistemáticos que
pueden estar distorsionando el experimento.
5. Analizar los datos: una vez obtenidas las medidas es necesario su tratamiento estadı́stico para poder
obtener magnitudes (e incertidumbres asociadas) representativas del objeto de nuestro estudio.
6. Interpretar los datos y extraer conclusiones que sirvan como punto de partida para nuevas hipótesis. El
éxito de esta interpretación dependerá, básicamente, de la calidad de las medidas y de su análisis. Las
herramientas estadı́sticas que se describen en este libro nos permitirán tomar decisiones
de manera objetiva.
7. Publicar los resultados. Los resultados de cualquier proceso experimental deben ser comunicados de
manera clara y concisa. Esto incluye desde un sencillo informe de laboratorio, como el que se exigirá en
los diversos laboratorios en los que se trabajará durante la licenciatura de Fı́sicas, hasta la publicación
de un artı́culo cientı́fico en una revista reconocida.
No es extraño que, aunque la pregunta inicial a responder haya sido establecida de una forma clara, tras
el desarrollo del experimento y el análisis de los resultados, se descubran fenómenos no previstos que obliguen
a modificar y repetir el proceso descrito. De hecho, si el resultado de un experimento fuera completamente
predecible, tendrı́a poco sentido llevarlo a cabo. Por ello, de forma práctica el esquema anterior se ejecuta
siguiendo un proceso iterativo entre los puntos 3 y 6. Una vez obtenido un conocimiento significativo, éste ha
de ser explicado en una publicación, permitiendo a nuevos investigadores corroborar o refutar las conclusiones.
La consulta de libros es necesaria para conocer diferentes enfoques y, desde luego, se hace imprescindible
para ampliar la colección de ejemplos y ejercicios, ya que la Estadı́stica es una disciplina eminentemente
práctica. A continuación se enumeran algunos de los textos en castellano más frecuentes en las bibliotecas
de las Facultades de Ciencias, con una pequeña descripción en relación a los contenidos cubiertos por este
libro:
ESTADÍSTICA DESCRIPTIVA
9
Capı́tulo 2
Fundamentos de Estadı́stica
Descriptiva
Los objetivos de la Estadı́stica Descriptiva son los que se abordan en la primera de estas fases. Es decir, su
misión es ordenar, describir y sintetizar la información recogida. En este proceso será necesario establecer
medidas cuantitativas que reduzcan a un número manejable de parámetros el conjunto (en general grande)
de datos obtenidos.
La realización de gráficas (visualización de los datos en diagramas) también forma parte de la Estadı́stica
Descriptiva dado que proporciona una manera visual directa de organizar la información.
La finalidad de la Estadı́stica Descriptiva no es, entonces, extraer conclusiones generales sobre el fenómeno
que ha producido los datos bajo estudio, sino solamente su descripción (de ahı́ el nombre).
El concepto de variable estadı́stica es, sin duda, uno de los más importantes en Estadı́stica. Pero antes
de abordar su definición, es necesario introducir anteriormente diversos conceptos básicos.
11
12 Fundamentos de Estadı́stica Descriptiva
Ejemplo I–1 Los habitantes de un paı́s, los planetas del Sistema Solar, las estrellas en la Vı́a Láctea, son elementos de
una población finita. Sin embargo, el número de posibles medidas que se puedan hacer de la velocidad de
la luz, o de tiradas de un dado, forman poblaciones infinitas.
Cuando, aunque la población sea finita, su número de elementos es elevado, es necesario trabajar con solo
una parte de dicha población. A un subconjunto de elementos de la población se le conoce como muestra.
Ejemplo I–2 Si se quiere estudiar las propiedades de las estrellas en nuestra Galaxia, no tendremos la oportunidad
de observarlas todas; tendremos que conformarnos con una muestra representativa. Obviamente, elegir
de forma representativa los elementos de una muestra es algo muy importante. De hecho existe un grave
problema, conocido como efecto de selección, que puede condicionar el resultado de un estudio si uno no
realiza una selección correcta de los elementos que forman parte de una muestra.
Al número de elementos de la muestra se le llama tamaño de la muestra. Es fácil adelantar que para
que los resultados de nuestro estudio estadı́stico sean fiables es necesario que la muestra tenga un tamaño
mı́nimo. El caso particular de una muestra que incluye a todos los elementos de la población es conocido
como censo.
caracteres cuantitativos: aquellos que toman valores numéricos. Por ejemplo la altura o la velocidad
de un móvil.
caracteres cualitativos: también llamados atributos, son aquellos que no podemos representar numéri-
camente y describen cualidades. Por ejemplo, un color o el estado civil.
Aunque existen algunas diferencias, el tratamiento para ambos casos es similar, pudiéndose asignar, en
muchas ocasiones, valores numéricos a los diferentes caracteres cualitativos.
El primer paso para el estudio estadı́stico de una muestra es su ordenación y presentación en una tabla
de frecuencias.
x1 n1 f1 N1 F1
x2 n2 f2 N2 F2
.. .. .. .. ..
. . . . .
xk nk fk Nk Fk
En la primera columna de esta tabla se escriben los distintos valores de la variable, xi , ordenados de
mayor a menor. Es posible hacer también una tabla de frecuencias de una variable cualitativa. En ese caso,
en la primera columna se escribirán las diferentes cualidades o atributos que puede tomar la variable. En las
siguientes columnas se escriben para cada valor de la variable:
Frecuencia absoluta ni : Definida como el número de veces que aparece repetido el valor en cuestión
de la variable estadı́stica en el conjunto de las observaciones realizadas. Si N es el número de observa-
ciones (o tamaño de la muestra), las frecuencias absolutas cumplen las propiedades
k
!
0 ≤ ni ≤ N ; ni = N.
i=1
La frecuencia absoluta, aunque nos dice el número de veces que se repite un dato, no nos informa de
la importancia de éste. Para ello se realiza la siguiente definición.
k k "k
! ! ni i=1 ni
0 ≤ fi ≤ 1 ; fi = = = 1.
i=1 i=1
N N
Esta frecuencia relativa se puede expresar también en tantos por cientos del tamaño de la muestra,
para lo cual basta con multiplicar por 100
( %)xi = 100xfi .
Por ejemplo, si fi = 0.25, esto quiere decir que la variable xi se repite en el 25 % de la muestra.
Frecuencia absoluta acumulada Ni : Suma de las frecuencias absolutas de los valores inferiores o
igual a xi , o número de medidas por debajo, o igual, que xi . Evidentemente la frecuencia absoluta
acumulada de un valor se puede calcular a partir de la correspondiente al anterior como
Ni = Ni−1 + ni y N1 = n1 . (2.2)
Nk = N.
Fk = 1.
Se puede expresar asimismo como un porcentaje (multiplicando por 100) y su significado será el tanto
por ciento de medidas con valores por debajo o igual que xi .
Ejemplo I–5 Supongamos que el número de hijos de una muestra de 20 familias es el siguiente:
2 1 1 3 1 2 5 1 2 3
4 2 3 2 1 4 2 3 2 1
xi ni fi Ni Fi
"i "i
ni /20 n
1 j 1
fj
1 6 0.30 6 0.30
2 7 0.35 13 0.65
3 4 0.20 17 0.85
4 2 0.10 19 0.95
5 1 0.05 20 1.00
la variable en el centro de cada intervalo se le llama marca de clase. De esta forma se sustituye cada
medida por la marca de clase del intervalo a que corresponda. A la diferencia entre el extremo superior e
inferior de cada intervalo se le llama amplitud del intervalo. Normalmente se trabajará con intervalos de
amplitud constante. La tabla de frecuencias resultante es similar a la vista anteriormente. En el caso de una
distribución en k intervalos ésta serı́a:
a1 − a2 c1 n1 f1 N1 F1
a2 − a3 c2 n2 f2 N2 F2
.. .. .. .. .. ..
. . . . . .
ak − ak+1 ck nk fk Nk Fk
El realizar el estudio mediante el agrupamiento en intervalos de clase simplifica el trabajo, pero también
supone una pérdida de información, ya que no se tiene en cuenta cómo se distribuyen los datos dentro de
cada intervalo. Para que dicha pérdida sea mı́nima es necesario elegir con cuidado los intervalos. Aunque no
existen ningunas reglas estrictas para la elección de los intervalos, los pasos a seguir son:
1. Determinar el recorrido, o rango, de los datos. Esto es, la diferencia entre el mayor y el menor de los
valores que toma la variable.
2. Decidir el número k de intervalos de clase en que se van a agrupar los datos. Dicho número se debe
situar normalmente entre 5 y 20, dependiendo del caso. En general el número será más grande cuanto
más datos tenga la muestra. Una regla que a veces se sigue es elegir k como el entero más próximo a
√
N , donde N es el número total de medidas.
3. Dividir el recorrido entre el número de intervalos para determinar la amplitud (constante) de cada
intervalo. Dicha amplitud no es necesario que sea exactamente el resultado de esa división, sino que
normalmente se puede redondear hacia un número algo mayor.
4. Determinar los extremos de los intervalos de clase. Evidentemente el extremo superior de cada intervalo
ha de coincidir con el extremo inferior del siguiente. Es importante que ninguna observación coincida
con alguno de los extremos, para evitar ası́ una ambiguedad en la clasificación de este dato. Una forma
de conseguir esto es asignar a los extremos de los intervalos una cifra decimal más que las medidas de
la muestra. Por ejemplo, si la variable estadı́stica toma valores enteros: 10, 11, 12, . . ., los intervalos se
podrı́an elegir: 9.5 − 11.5, 11.5 − 13.5, . . ..
5. Calcular las marcas de clase de cada intervalo como el valor medio entre los lı́mites inferior y superior
de cada intervalo de clase. Otra consideración a tomar en cuenta a la hora de elegir los intervalos es
intentar que las marcas de clase coincidan con medidas de la muestra, disminuyéndose ası́ la pérdida
de información debida al agrupamiento.
Una vez determinados los intervalos se debe hacer un recuento cuidadoso del número de observaciones
que caen dentro de cada intervalo, para construir ası́ la tabla de frecuencias.
Ejemplo I–6 En la tabla siguiente se listan los datos medidos por James Short en 1763 sobre la paralaje del Sol en
segundos de arco. La paralaje es el ángulo subtendido por la Tierra vista desde el Sol. Se midió observando
tránsitos de Venus desde diferentes posiciones y permitió la primera medida de la distancia Tierra-Sol, que
es la unidad básica de la escala de distancias en el Sistema Solar (la unidad astronómica).
ai —ai+1 ci ni fi Ni Fi
7.405 — 8.105 7.755 7 0.333 7 0.333
8.105 — 8.805 8.455 9 0.429 16 0.762
8.805 — 9.505 9.155 2 0.095 18 0.857
9.505 — 10.205 9.855 2 0.095 20 0.952
10.205— 10.905 10.555 1 0.048 21 1.000
Suma 21 1.000
Figura 2.1: Diagrama de barras y polı́gono de frecuencias. Se han usado los datos del ejemplo I–5.
Figura 2.2: Diagrama de frecuencias acumuladas. Se han usado los datos del ejemplo I–5.
Figura 2.3: Histograma y polı́gono de frecuencias de las medidas de la paralaje del Sol del ejemplo I–6. Las alturas
de los rectángulos se obtienen como hi = ni /∆, siendo en este caso la amplitud del intervalo ∆ = 0.7. Nótese que el
histograma tiene la misma forma si las alturas se hacen proporcionales a las frecuencias.
Figura 2.4: Polı́gono de frecuencias acumuladas de las medidas de la paralaje del Sol del ejemplo I–6. Las zonas de
mayor pendiente en este diagrama corresponden a las zonas más altas en el histograma (ver figura anterior).
Nota ni fi Ni Fi αi
Suspenso (SS) 110 0.46 110 0.46 165.6
Aprobado (AP) 90 0.38 200 0.84 136.8
Notable (NT) 23 0.10 223 0.94 36.0
Sobresaliente (SB) 12 0.05 235 0.99 18.0
Matrı́cula de Honor (MH) 2 0.01 237 1.00 3.6
Figura 2.5: Diagrama de rectángulos (izquierda) y de sectores (derecha) para las notas del ejemplo I–7. Las frecuencias
relativas están dadas en tanto por ciento. Los ángulos de cada sector circular se determinan como αi = fi × 360
(grados).
Después de haber aprendido en el capı́tulo anterior a construir tablas de frecuencias y haber realizado
alguna representación gráfica, el siguiente paso para llevar a cabo un estudio preliminar de los datos recogidos
es el cálculo de diferentes magnitudes caracterı́sticas de la distribución. Se definen entonces diversas medidas
que serán capaces de resumir toda la información recogida a un pequeño número de valores. Estas medidas
resumen van a permitir comparar nuestra muestra con otras y dar una idea rápida de cómo se distribuyen
los datos. Es evidente que todas estas medidas solo pueden definirse para variables cuantitativas.
Entre las medidas caracterı́sticas de una distribución destacan las llamadas medidas de centralización,
que nos indicarán el valor promedio de los datos, o en torno a qué valor se distribuyen estos.
Supongamos que tenemos una muestra de tamaño N , donde la variable estadı́stica x toma los valores
x1 , x2 , . . . , xN . Se define la media aritmética x, o simplemente media, de la muestra como
"N
i=1 xi
x= . (3.1)
N
Es decir, la media se calcula sencillamente sumando los distintos valores de x y dividiendo por el número
de datos. En el caso de que los diferentes valores de x aparezcan repetidos, tomando entonces los valores
x1 , x2 , . . . , xk , con frecuencias absolutas n1 , n2 , . . . , nk , la media se determina como
"k
i=1 xi ni
x= , (3.2)
N
21
22 Medidas caracterı́sticas de una distribución
k
!
x= xi fi . (3.3)
i=1
Ejemplo I–5 (Continuación.) Calcularemos la media aritmética para los datos del ejemplo I–5.
xi ni fi xi × ni xi × fi
1 6 0.30 6 0.30
2 7 0.35 14 0.70
3 4 0.20 12 0.60
4 2 0.10 8 0.40
5 1 0.05 5 0.25
Total 20 1.00 45 2.25
En el caso de tener una muestra agrupada en k intervalos de clase la media se puede calcular, a partir
de las marcas de clase ci y el número ni de datos en cada intervalo, utilizando una expresión similar a (3.2)
"k
i=1 ci ni
x= . (3.4)
N
Sin embargo, hay que indicar que la expresión anterior es solamente aproximada. En el caso de que
sea posible, es más exacto para el cálculo de la media, no realizar el agrupamiento en intervalos y usar la
expresión (3.1).
Ejemplo I–6 (Continuación.) Calcularemos la media aritmética para el ejemplo I–6.
ci ni ci × ni
7.755 7 54.285
8.455 9 76.095
9.155 2 18.310
9.855 2 19.710
10.555 1 10.555
Total 21 178.955
Una propiedad importante de la media aritmética es que la suma de las desviaciones de un conjunto de
datos respecto a su media es cero. Es decir, la media equilibra las desviaciones positivas y negativas respecto
a su valor
N
! N
! N
! N
!
(xi − x) = xi − x= xi − N x = 0. (3.5)
i=1 i=1 i=1 i=1
La media representa entonces una especie de centro de gravedad, o centro geométrico, del conjunto
de medidas. Una caracterı́stica importante de la media como medida de tendencia central es que es muy
poco robusta, es decir depende mucho de valores particulares de los datos. Si por ejemplo, en una muestra
introducimos un nuevo dato con un valor mucho mayor que el resto, la media aumenta apreciablemente
(dados los datos 1, 2, 1, 1, 100, se tiene x = 21). La media aritmética es por tanto muy dependiente de
observaciones extremas.
Como el objetivo de la estadı́stica descriptiva es describir de la forma más simple y clara la muestra
obtenida, es importante siempre usar unas unidades que cumplan mejor dicho fin. Por este motivo, a veces
es muy útil realizar un cambio de origen y unidades para simplificar los valores de la variable. Por ejemplo,
supongamos que x es la altura en metros de una muestra de individuos. Tomará entonces valores tı́picos
x = 1.75, 1.80, 1.67, . . .. Si efectuamos aquı́ un cambio a una nueva variable y definida como y = 100(x−1.65),
los nuevos valores serán y = 10, 15, 2, . . . y, por tanto, el análisis será más sencillo y se usarán menos dı́gitos.
A este proceso de cambio de origen y unidades se le llama una transformación lineal y, en general,
consistirá en pasar de una variable x a otra y definida como
y = a + bx. (3.6)
Es decir, una vez calculada la media aritmética de la nueva variable y, se puede encontrar la media de x
haciendo
y−a
x= .
b
Ejemplo I–8 Supongamos una serie de medidas experimentales con un péndulo simple para obtener el valor de la
aceleración de la gravedad (en m/s2 ).
√
xG = N
x1 x2 . . . xN . (3.7)
Esta media tiene la caracterı́stica negativa de que si uno de los valores es nulo, la media serı́a asimismo cero,
y por lo tanto serı́a poco representativa del valor central. Además si existen valores negativos es posible que
no se pueda calcular. A la hora de calcularla es útil tener en cuenta que el logaritmo de la media geométrica
es la media aritmética del logaritmo de los datos
"k
i=1 ni log xi
log xG = .
N
La media armónica xA se define como la inversa de la media aritmética de las inversas de los valores
de la variable. Es decir, para variables no agrupadas y agrupadas, serı́a
N N
xA = "N 1
; xA = "k ni
. (3.9)
i=1 xi i=1 xi
xA ≤ xG ≤ x ≤ xQ .
Ninguna de estas medias es muy robusta en general, aunque esto depende de cómo se distribuyan las
variables. Por ejemplo, la media armónica es muy poco sensible a valores muy altos de x, mientras que a la
media cuadrática apenas le afectan los valores muy bajos de la variable.
Media armónica
6 6
xA = = = 9.871.
6
! 1 1 1
1 + + ... +
9.77 9.78 10.25
xi
i=1
Media cuadrática
%" %
6
i=1
x2i 9.772 + 9.782 + . . . + 10.252
xQ = = = 9.875.
6 6
Debe notarse que
xA ≤ xG ≤ x ≤ xQ
9.871 ≤ 9.872 ≤ 9.873 ≤ 9.875
y que la media armónica es la menos afectada por el valor demasiado alto, mientras que la cuadrática es
la más sensible a dicho número.
3.1.3. Mediana
Una medida de centralización importante es la mediana Me . Se define ésta como una medida central
tal que, con los datos ordenados de menor a mayor, el 50 % de los datos son inferiores a su valor y el 50 %
de los datos tienen valores superiores. Es decir, la mediana divide en dos partes iguales la distribución de
frecuencias o, gráficamente, divide el histograma en dos partes de áreas iguales. Vamos a distinguir diversos
casos para su cálculo:
1. Supongamos en primer lugar que los diferentes valores de la variable no aparecen, en general, repetidos.
En este caso, y suponiendo que tenemos los datos ordenados, la mediana será el valor central, si N is
impar, o la media aritmética de los dos valores centrales, si N es par. Por ejemplo, si x = 1, 4, 6, 7, 9,
la mediana serı́a 6. Por otro lado, si x = 1, 4, 6, 7 la mediana es Me = (4 + 6)/2 = 5.
Ejemplo I–8 (Continuación.)
Para el ejemplo de las medidas de la gravedad, como el número de datos es par (N = 6), se situará entre
los dos centrales (media aritmética)
9.77/9.78/9.80/ * /9.81/9.83/10.25
9.80 + 9.81
Me = = 9.805
2
Nótese que no depende tanto del valor extremo. Es una medida más robusta. Compárese con el valor
x = 9.873 calculado anteriormente.
2. En el caso de que tengamos una variable discreta con valores repetidos sobre la cual hemos elaborado
una tabla de frecuencias se calcula en primer lugar el número de observaciones N dividido entre 2.
Podemos distinguir entonces dos casos. El primero de ellos es cuando dicho valor N/2 coincide con
la frecuencia absoluta acumulada Nj de un valor xj de la variable (o, lo que es lo mismo, cuando la
frecuencia relativa acumulada Fj = 0.5). En este caso la mediana se ha de situar entre este valor de
la variable y el siguiente ya que de esta forma dividirá la distribución de frecuencias en 2. Es decir, se
calcula como la media aritmética de dicho valor de la variable y su superior
xj + xj+1
Me =
2
Figura 3.1: Interpolación en el polı́gono de frecuencias para determinar la mediana en el caso de que N/2 no coincida
con ninguna frecuencia acumulada Nj .
Si N/2 no coincidiese con ningún valor de la columna de frecuencias acumuladas (como suele ocurrir)
la mediana serı́a el primer valor de xj con frecuencia absoluta acumulada Nj mayor que N/2, ya que
el valor central de la distribución corresponderı́a a una de las medidas englobadas en ese xj .
Ejemplo I–5 (Continuación.)
Usando los datos del número de hijos del ejemplo I–5, tenemos
xi Ni 1–1–1–1–1–1–2–2–2–2–2–2–2–3–3–3–3–4–4–5
1 6 N/2 = 10
2 13
3 17 La mediana será el primer valor de xi con frecuencia absoluta acumulada Ni > 10, es
4 19 decir
5 20
Me = x2 = 2.
3. Supongamos ahora que tenemos una muestra de una variable continua cuyos valores están agrupados
en intervalos de clase. En este caso pueden ocurrir dos situaciones. En primer lugar, si N/2 coincide
con la frecuencia absoluta acumulada Nj de un intervalo (aj , aj+1 ) (con marca de clase cj ), la mediana
será sencillamente el extremo superior aj+1 de ese intervalo. En el caso general de que ninguna fre-
cuencia absoluta acumulada coincida con N/2 será necesario interpolar en el polı́gono de frecuencias
acumuladas (Fig. 3.1). Supongamos que el valor N/2 se encuentra entre las frecuencias Nj−1 y Nj ,
correspondientes a los intervalos (aj−1 , aj ) y (aj , aj+1 ) respectivamente, la mediana se situará en algún
lugar del intervalo superior (aj , aj+1 ). Para calcular el valor exacto se interpola según se observa en la
Figura 3.1
aj+1 − aj Me − aj
=
Nj − Nj−1 N/2 − Nj−1
N/2 − Nj−1 N/2 − Nj−1
⇒ Me = aj + (aj+1 − aj ) = aj + (aj+1 − aj ).
Nj − Nj−1 nj
ai —ai+1 ni Ni
7.405—8.105 7 7 N/2 = 10.5 &= Ni
8.105—8.805 9 16 (N1 = 7) < (N/2 = 10.5) < (N2 = 16)
8.805—9.505 2 18 La mediana se situará entonces en el intervalo 8.105—8.805,
9.505—10.205 2 20 8.105 < Me < 8.805.
10.205—10.905 1 21
En comparación con la media aritmética la mediana, como medida de centralización, tiene propiedades
muy distintas, presentando sus ventajas e inconvenientes. Por un lado, la mayor ventaja de la media es
que se utiliza toda la información de la distribución de frecuencias (todos los valores particulares de la
variable), en contraste con la mediana, que solo utiliza el orden en que se distribuyen los valores. Podrı́a pues
considerarse, desde este punto de vista, que la media aritmética es una medida más fiable del valor central
de los datos. Sin embargo, como hemos visto anteriormente, la media es muy poco robusta, en el sentido
de que es muy sensible a valores extremos de la variable y, por lo tanto, a posibles errores en las medidas.
La mediana, por otro lado, es una medida robusta, siendo muy insensible a valores que se desvı́en mucho.
Por ejemplo, supongamos que la variable x toma los valores x = 2, 4, 5, 7, 8, la media y la mediana serı́an
en este caso muy parecidas (x = 5.2, Me = 5). Pero si sustituimos el último valor 8 por 30, la nueva media
se ve muy afectada (x = 9.6), no siendo en absoluto una medida de la tendencia central, mientras que el
valor de la mediana no cambia (Me = 5). Podrı́amos poner como contraejemplo el caso de las longitudes
de barras (en cm) inicialmente idénticas calentadas a temperaturas desconocidas en distintos recipientes:
1.80/1.82/1.85/1.90/2.00, cuya media y mediana son x = 1.874 y Me = 1.85. Si la temperatura de uno de
esos recipientes varı́a, y la longitud mayor aumenta de 2.00 a 2.20 cm, la mediana no varı́a, pero la media
pasa a x = 1.914 y nos informa del cambio.
En general, lo mejor es considerar media aritmética y mediana como medidas complementarias. Es más,
la comparación de sus valores puede suministrar información muy útil sobre la distribución de los datos.
3.1.4. Moda
Se define la moda Mo de una muestra como aquel valor de la variable que tiene una frecuencia máxima.
En otras palabras, es el valor que más se repite. Hay que indicar que puede suceder que la moda no sea única,
es decir que aparezcan varios máximos en la distribución de frecuencias. En ese caso diremos que tenemos
una distribución bimodal, trimodal, etc. Evidentemente, en el caso de una variable discreta que no toma
valores repetidos, la moda no tiene sentido. Cuando sı́ existen valores repetidos su cálculo es directo ya que
puede leerse directamente de la tabla de distribución de frecuencias.
Figura 3.2: Determinación de la moda utilizando las diferencias de frecuencias entre el intervalo modal y los adya-
centes. Histograma con datos del ejemplo I–6 (también ejemplo I–2), y localización de la media, mediana y moda.
xi ni fi Ni Fi
1 6 0.30 6 0.30
El valor que más se repite es 2 hijos, que ocurre en siete
2 7 0.35 13 0.65
familias de la muestra (ni = 7). La moda es por tanto Mo = 2
3 4 0.20 17 0.85
y en este caso coincide con la mediana.
4 2 0.10 19 0.95
5 1 0.05 20 1.00
δ1
Mo = aj + (aj+1 − aj )
δ1 + δ2
(ver demostración en el libro de Quesada). Es decir, la moda estará más próxima a aj cuanto menor sea la
diferencia de frecuencias con el intervalo anterior, y al revés. Si, por ejemplo, nj−1 = nj (δ1 = 0), la moda
será efectivamente aj . Por el contrario si nj+1 = nj (δ2 = 0) la moda será aj+1 , estando situada entre dos
intervalos.
δ1 2
Mo = aj + (aj+1 − aj ) = 8.105 + (8.805 − 8.105) = 8.26.
δ1 + δ2 2+7
En el caso de que tuviésemos una distribución perfectamente simétrica, las tres medidas de centralización
media aritmética, mediana y moda coincidirı́an en el mismo valor. Sin embargo, cuando la distribución de
las medidas es claramente asimétrica las posiciones relativas entre las tres medidas suelen ser tı́picamente
como se representa en el polı́gono de frecuencias de la Figura 3.2. Es decir, la mediana se suele situar entre
la moda y la media.
ai —ai+1 ni Ni
7.405—8.105 7 7
N/4 = 5.25 < 7 3 × N/4 = 15.75 < 16
8.105—8.805 9 16
Q1/4 se sitúa en el primer intervalo 7.405—8.105.
8.805—9.505 2 18
Q3/4 se sitúa en el segundo intervalo 8.105—8.805.
9.505—10.205 2 20
10.205—10.905 1 21
De la misma forma podemos definir los deciles como aquellos valores de la variable que dividen la muestra,
ordenada, en 10 partes iguales. Estos valores, denotados por Dk , con k = 1, 2, . . . , 9, tienen entonces un valor
tal que el decil k–esimo deja por debajo de él al 10xk por ciento de los datos de la muestra. De la misma
manera se definen los percentiles, también llamados centiles, como aquellos valores Pk (con k = 1, 2, . . . , 99)
que dividen la muestra en 100 partes iguales. Es decir el percentil Pk deja por debajo de él al k por ciento
de la muestra ordenada.
La forma de calcular deciles y percentiles es igual a la de la mediana y los cuartiles, sustituyendo N/2 por
la fracción del número total de datos correspondiente. Evidentemente algunos valores de cuartiles, deciles y
centiles coinciden, cumpliéndose por ejemplo
P50 = D5 = Q1/2 = Me
3.2.1. Recorridos
Una evaluación rápida de la dispersión de los datos se puede realizar calculando el recorrido (también
llamado rango), o diferencia entre el valor máximo y mı́nimo que toma la variable estadı́stica. Con el fin de
eliminar la excesiva influencia de los valores extremos en el recorrido, se define el recorrido intercuartı́lico
como la diferencia entre el trecer y primer cuartil
Está claro que este recorrido nos dará entonces el rango que ocupan el 50 % central de los datos. En ocasiones
se utiliza el recorrido semiintercuartı́lico, o mitad del recorrido intercuartı́lico
Q3/4 − Q1/4
RSI = .
2
Otra manera de estimar la dispersión de los valores de la muestra es comparar cada uno de estos con
el valor de una medida de centralización. Una de las medidas de dispersión más usada es la desviación
media, también llamada con más precisión desviación media respecto a la media aritmética. Se define ésta
como la media aritmética de las diferencias absolutas entre los valores de la variable y la media aritmética
de la muestra. Suponiendo que en una muestra de tamaño N los k distintos valores xi de la variable tengan
Evidentemente, en el caso de que la variable no tome valores repetidos, ni esté agrupada en intervalos, la
expresión anterior se simplifica a
"N
i=1 |xi − x|
Dx = . (3.13)
N
Hay que destacar la importancia de tomar valores absolutos de las desviaciones. Si no se hiciese ası́ unas
desviaciones se anuları́an con otras, alcanzando finalmente la desviación media un valor de 0, debido a la
propiedad de la media aritmética vista en (3.5).
En ocasiones se define una desviación media en términos de desviaciones absolutas en torno a una
medida de centralización diferente de la media aritmética. Cuando se utiliza la mediana se obtiene la llamada
desviación media respecto a la mediana, definida como
"k
i=1 |xi − Me |ni
DMe = . (3.14)
N
Sin lugar a dudas la medida más usada para estimar la dispersión de los datos es la desviación tı́pica.
Esta es especialmente aconsejable cuando se usa la media aritmética como medida de tendencia central. Al
igual que la desviación media, está basada en un valor promedio de las desviaciones respecto a la media.
En este caso, en vez de tomar valores absolutos de las desviaciones, para evitar ası́ que se compensen
desviaciones positivas y negativas, se usan los cuadrados de las desviaciones. Esto hace además que los datos
con desviaciones grandes influyan mucho en el resultado final. Se define entonces la varianza de una muestra
con datos repetidos como
"k
2 i=1 (xi− x)2 ni
s = . (3.15)
N −1
Evidentemente la varianza no tiene las mismas unidades que los datos de la muestra. Para conseguir las
mismas unidades se define la desviación tı́pica (algunas veces llamada desviación estándar) como la raı́z
cuadrada de la varianza $
"k
√ − x)2 ni
i=1 (xi
s = s2 = . (3.16)
N −1
xi ni xi × ni x2i × ni
"5 "5
1 6 6 6 2 1
x2i ni − 20
1
( 1
xi ni )2
s =
2 7 14 28 20 − 1
3 4 12 36
1
127 − 20 452
s2 = = 1.355
4 2 8 32 19
5 1 5 25 √
s= 1.355 = 1.16
Total 20 45 127
"5 "5
ci ni ci × ni c2i × ni 2 1
c2i ni − 20
1
( 1
ci ni )2
s =
21 − 1
7.755 7 54.285 420.980
8.455 9 76.095 643.383
1
1537.641 − 21 178.9552
s2 = = 0.632
9.155 2 18.310 167.628 20
En cuanto a las propiedades de la desviación tı́pica, es fácil ver que ésta será siempre positiva y sólo
tendrá un valor nulo cuando todas las observaciones coincidan con el valor de la media. Además, si se define
la desviación cuadrática respecto a un promedio a como
"k
2 − a)2 ni
i=1 (xi
D = .
N −1
Se puede demostrar que dicha desviación cuadrática será mı́nima cuando a = x. Es decir, la varianza (y,
por tanto, la desviación tı́pica) es la mı́nima desviación cuadrática. Para demostrarlo derivamos la expresión
anterior respecto a a, e igualamos la derivada a 0 (condición necesaria para que D2 sea mı́nimo)
"
∂D2 −2 (xi − a)ni
=0=
∂a N −1
! ! !
⇒ (xi − a)ni = 0 ⇒ xi ni − a ni = 0
"
! xi ni
⇒ xi ni − aN = 0 ⇒ a= = x,
N
como querı́amos demostrar. Esta propiedad le da además más sentido a la definición de la desviación tı́pica.
Hay que indicar que la desviación tı́pica no es una medida robusta de la dispersión. El hecho de que
se calcule evaluando los cuadrados de las desviaciones hace que sea muy sensible a observaciones extremas,
bastante más que la desviación media (dado que aparece un cuadrado). En definitiva, la desviación tı́pica no es
una buena medida de dispersión cuando se tiene algún dato muy alejado de la media. El rango intercuartı́lico
nos darı́a en ese caso una idea más aproximada de cuál es la dispersión de los datos. El que la desviación
tı́pica sea la medida de dispersión más común se debe a su ı́ntima conexión con la distribución normal, como
se verá en sucesivos capı́tulos.
En la discusión sobre la media aritmética se vió cómo su cálculo se podı́a simplificar a veces si se realizaba
una transformación lineal de la variable x a una nueva variable y, definida en (3.6). En este caso, existe una
relación muy sencilla entre las desviaciones tı́picas (sx y sy ) de ambas variables, ya que
%" %" % "
(yi − y)2 (a + bxi − a − bx)2 b2 (xi − x)2
sy = = = = bsx .
N −1 N −1 N −1
De esta forma, una vez calculada la desviación tı́pica de y, se puede evaluar la de x haciendo
sy
sx = .
b
Se demuestra ası́ además que, aunque la desviación tı́pica depende de la unidades elegidas (a través de b),
es independiente de un cambio de origen (dado por a).
"6 "6
(xi − x)2 (yi − y)2
xi yi s2x = 1
; s2y = 1
N −1 N −1
9.77 −3 "6
9.78 −2 (yi − 7.33)2
s2y = 1
= 345.07
5
9.80 0
√
9.81 +1 ⇒ sy = 345.07 = 18.58
9.83 +3
10.25 +45 sy 18.58
sx = = = 0.186 m/s2 .
b 100
Nótese que es mucho mayor que la desviación media Dx = 0.125. La desviación tı́pica es poco robusta y
fuertemente dependiente de los valores extremos.
Asimismo se pueden definir otras medidas de dispersión relativas, como el coeficiente de variación
media. Éste es similar al coeficiente de variación de Pearson, pero empleando una desviación media en vez
de la media aritmética. Se tienen entonces dos coeficientes de variación media dependiendo de que se calcule
respecto a la desviación media respecto a la media aritmética o respecto a la mediana
Dx DMe
CV Mx = ; CV MMe = . (3.19)
|x| |Me |
3.3. Momentos
Algunas de las definiciones vistas hasta ahora, como la de la media aritmética y la varianza, son en
realidad casos particulares de una definición más general. Si tenemos una muestra de la variable estadı́stica
Los momentos respecto al origen suministran entonces medidas de tendencia central. Es fácil ver que los
primeros momentos respecto al origen son
"k "k "k
ni xi ni x2i ni
a0 = i=1
=1 ; a1 = i=1
=x ; a2 = i=1
= xQ 2
N N N
La descripción estadı́stica de una muestra de datos no concluye con el cálculo de su tendencia central y
su dispersión. Para dar una descripción completa es necesario estudiar también el grado de simetrı́a de los
datos respecto a su medida central y la concentración de los datos alrededor de dicho valor.
Figura 3.3: Distribución con asimetrı́a hacia la derecha, positiva, (panel a), simétrica (panel b) y con asimetrı́a hacia
la izquierda, negativa (panel c).
caso de una distribución perfectamente simétrica los valores de media aritmética, mediana y moda coinciden
(x = Me = Mo ).
En el caso de no tener simetrı́a, diremos que tenemos asimetrı́a a la derecha (o positiva) o a la izquierda
(o negativa) dependiendo de que el histograma muestre una cola de medidas hacia valores altos o bajos de
la variable respectivamente. También se puede decir que la distribución está sesgada a la derecha (sesgo
positivo) o a la izquierda (sesgo negativo). En el caso de una distribución asimétrica, la media, mediana y
moda no coinciden, siendo x ≥ Me ≥ Mo para una asimetrı́a positiva y x ≤ Me ≤ Mo para una asimetrı́a
negativa (ver Figura 3.3).
Con el fin de cuantificar el grado de asimetrı́a de una distribución se pueden definir los coeficientes de
asimetrı́a. Aunque no son los únicos, existen dos coeficientes principales:
Coeficiente de asimetrı́a de Fisher. Se define como el cociente entre el momento de orden 3 respecto
a la media y el cubo de la desviación tı́pica
"k
m3 − x)3 ni
i=1 (xi
g1 = donde m3 = . (3.23)
s3 N
En el caso una distribución simétrica, las desviaciones respecto a la media se anularán (puesto que
en m3 el exponente es impar se sumarán números positivos y negativos) y el coeficiente de asimetrı́a
será nulo (g1 = 0). En caso contrario, g1 tendrá valores positivos para una asimetrı́a positiva (a la
derecha) y negativos cuando la asimetrı́a sea en el otro sentido. Hay que indicar que la división por el
cubo de la desviación tı́pica se hace para que el coeficiente sea adimensional y, por lo tanto, comparable
entre diferentes muestras.
x − Mo
AP = . (3.24)
s
Su interpretación es similar a la del coeficiente de Fisher, siendo nulo para una distribución simétrica
(en ese caso media y moda coinciden) y tanto más positivo, o negativo, cuando más sesgada esté la
Figura 3.4: Distribuciones con diferente grado de apuntamiento: leptocúrtica (g2 > 3), mesocúrtica (g2 = 3) y
platicúrtica (g2 < 3).
Este coeficiente adimensional alcanza valores mayores cuanto más puntiaguda es la distribución, teniendo
un valor de 3 para la distribución mesocúrtica (o normal), mayor que 3 para la leptocúrtica y menor para la
platicúrtica (ver Figura 3.4).
Diremos que tenemos una muestra estadı́stica bidimensional cuando sobre cada elemento de la muestra
se realiza la observación simultánea de dos caracteres. Por ejemplo, una muestra bidimensional serı́a una
serie de datos sobre altura y presión atmosférica, o la edad y el peso de un grupo de individuos. Tendremos
en este caso una variable estadı́stica bidimensional, representada por la pareja de sı́mbolos (x, y) y
que en general, para una muestra de N elementos, podrá tomar los valores (x1 , y1 ), (x2 , y2 ), . . . , (xN , yN ).
Evidentemente, los caracteres representados por las variables x e y no tienen porqué ser del mismo tipo,
pudiendo ser cada uno de ellos de tipo cuantitativo o cualitativo. Además en el caso de ser ambas variables
cuantitativas (caso en el que nos concentraremos en nuestro análisis) cada una de ellas podrá ser continua o
discreta. En este capı́tulo se describirá en primer lugar cómo se puede estudiar la distribución de frecuencias
de una variable bidimensional. En el Tema V se abordará el estudio de cómo se pueden analizar las posibles
relaciones entre los dos caracteres de una variable bidimensional. Hay que indicar que el estudio de las
variables bidimensionales es un caso particular del de las variables n-dimensionales, el cual se puede abordar
con facilidad generalizando el primero.
39
40 Variables estadı́sticas bidimensionales
tomar los l valores diferentes y1 , y2 , . . . , yl , donde k no tiene porqué ser igual a l. Para construir la tabla
de frecuencias habrá que contabilizar el número de veces que cada par distinto de la variable bidimensional
aparece repetido, ordenándose dichos valores en la llamada tabla de frecuencias de doble entrada, donde
en ordenadas se escriben los diferentes valores de x y en abscisas los valores de y:
En esta tabla nij es la frecuencia absoluta, o número de veces que se repite el par (xi , yj ). De la misma
forma se podrı́a construir una tabla de frecuencias relativas escribiendo los valores fij , definidos como
nij
fij = .
N
k !
! l
nij = N,
i=1 j=1
k !
l k !
l "k "l
! ! nij i=1 j=1 nij
fij = = = 1.
i=1 j=1 i=1 j=1
N N
La tabla anterior se puede construir de la misma manera en el caso de que uno o los dos caracteres x e
y correspondan a datos agrupados en intervalos.
Ejemplo I–9 Se tienen los siguientes datos para las alturas xi (en m) y pesos yj (en kg):
l
! k
!
nxi = nij ; nyj = nij . (4.1)
j=1 i=1
De esta forma, nxi representa el número de veces que x toma el valor xi , independientemente de los posibles
valores de y, y lo mismo para nyj . A la distribución formada por los diferentes valores de x y sus frecuencias
marginales se le llama distribución marginal de x. Normalmente las frecuencias marginales de x e y se
escriben respectivamente en la última columna y fila de la tabla de frecuencias de doble entrada. Su cálculo
es muy sencillo ya que basta con sumar los correspondientes valores de cada fila y columna.
De la misma manera se pueden definir las frecuencias relativas marginales como
nxi nyj
fxi = ; fyj = .
N N
k
! l
!
nxi = N ; nyj = N.
i=1 j=1
k
! l
!
fxi = 1 ; fyj = 1.
i=1 j=1
Para caracterizar estas distribuciones marginales se pueden definir sus medias y varianzas como
"k "l
i=1xi nxi j=1 yj nyj
x= ; y= .
N N
"k "l
− x)2 nxi
i=1 (xi j=1 (yj − y)2 nyj
s2x = ; s2y = .
N −1 N −1
y las desviaciones tı́picas serı́an las correspondientes raı́ces cuadradas de las varianzas.
Hay que indicar que al evaluar las frecuencias marginales se está perdiendo información, ya que se obvian
las distribuciones en la otra parte de la variable. Es más, el análisis de ambas distribuciones marginales no
proporciona tanta información como la tabla de frecuencias completa.
Ejemplo I–9 (Continuación.) Calculemos las distribuciones marginales del ejemplo anterior. Determinamos las medias
y varianzas usando las marcas de clase.
xi ci nxi
yj cj nyj
1.50–1.60 1.55 3 "k
c n
i=1 i xi 60–70 65 6
1.60–1.70 1.65 6 x= = 1.71 m
"l N 70–80 75 9
1.70–1.80 1.75 7 c n
j=1 j yj
y= = 74.5 kg 80–90 85 5
1.80–1.90 1.85 4 N
Suma 20
Suma 20
$ $
"k "l
(c − x)2 nxi
i=1 i j=1
(cj − y)2 nyj
sx = = 0.10 m ; sy = = 7.6 kg
N −1 N −1
x n(x|y = yj ) f (x|y = yj )
x1 n1j f1j
x2 n2j f2j
.. .. ..
. . .
xi nij fij
.. .. ..
. . .
xk nkj fkj
nyj 1
Para calcular las frecuencias relativas de x condicionadas a y = yj habrá que dividir por el número de
datos que tienen y = yj , es decir por la frecuencia marginal de yj (nyj )
k
! l
!
n(xi |y = yj ) = nyj ; n(yj |x = xi ) = nxi ,
i=1 j=1
k
! l
!
f (xi |y = yj ) = 1 ; f (yj |x = xi ) = 1.
i=1 j=1
Figura 4.1: Diagrama tridimensional para la muestra de pesos y alturas del ejemplo I–9.
Al igual que para las variables unidimensionales, existen diversas formas de representar gráficamente los
datos de una muestra bidimensional de forma que se pueda obtener una idea rápida de cómo se distribuyen
los valores.
En el caso de variables discretas con repeticiones de valores y de datos agrupados en intervalos, los
diagramas más usuales son los diagramas de barras e histogramas tridimensionales. Para ello se
dibuja en perspectiva un plano XY donde se marcan los valores de la variable y se levanta, en el caso del
diagrama de barras (para variables discretas), sobre cada par una barra de altura proporcional a la frecuencia
(ver Figura 4.1).
El histograma, para variables agrupadas en intervalos, se construye sustituyendo las barras por parale-
lepı́pedos solapados. En general se hace que los volúmenes de los paralelepı́pedos sean proporcionales a las
frecuencias de cada intervalo o, para intervalos de amplitud constante y de forma más sencilla, con alturas
proporcionales a las frecuencias.
Cuando no existen apenas valores repetidos y no se hace agrupamiento por intervalos, la representación
se hace sobre un diagrama de dispersión (ver Figura 4.2). Este diagrama bidimensional se construye
dibujando para cada par (x, y) un punto sobre un plano cartesiano. Como se verá posteriormente, este
diagrama permite examinar de forma rápida si puede haber alguna relación entre las dos partes de la variable
bidimensional.
DISTRIBUCIONES DE
PROBABILIDAD
45
Capı́tulo 5
Leyes de probabilidad
La teorı́a de la probabilidad surge para poder estudiar los, llamados, experimentos aleatorios. Se dice
que un experimento es aleatorio si puede dar lugar a varios resultados sin que se pueda predecir con certeza
el resultado concreto. Es decir, al repetir el experimento bajo condiciones similares se obtendrán resultados
que, en general, serán diferentes. Un ejemplo de un experimento aleatorio puede ser la tirada de un dado, ya
que no se puede predecir el número que aparecerá en su cara superior.
Al conjunto de todos los resultados posibles de un experimento aleatorio se le llama espacio muestral,
que representaremos por el sı́mbolo S. Por ejemplo, en el lanzamiento del dado, el espacio muestral serı́a el
conjunto S = {1, 2, 3, 4, 5, 6}. No siempre es posible describir el espacio muestral enumerando sus diferentes
elementos. A veces se define por medio de una condición, o regla, que han de cumplir sus elementos (ej.
puntos que se sitúan en una circunferencia). Dependiendo del número de resultados posibles del experimento
aleatorio, el espacio muestral podrá ser: finito (ej. resultados de la tirada de un dado), infinito numerable
(cuando a cada elemento del espacio se le puede hacer corresponder un número entero sin lı́mite, ej. vida en
años de un componente electrónico), e infinito no numerable (ej. números reales en el intervalo 0 − 1).
Se define un suceso como un subconjunto A del espacio muestral, es decir es un subconjunto de resultados
posibles. Los sucesos más simples son los sucesos elementales, que consisten en un único punto del espacio
muestral. De forma más exacta se puede definir los sucesos elementales de un experimento aleatorio como
aquellos sucesos que verifican: a) siempre ocurre alguno de ellos, y b) son mutuamente excluyentes. Por
ejemplo, obtener un 4 es un suceso elemental del experimento de lanzar un dado. Por otra parte, diremos
que un suceso es compuesto cuando, al contrario que con los sucesos elementales, puede ser descompuesto
en sucesos más simples. Es decir, serı́an los sucesos construı́dos a partir de la unión de sucesos elementales.
Por ejemplo, en el experimento de lanzar el dado, al suceso compuesto A de obtener un número par le
corresponde el siguiente conjunto de puntos del espacio muestral A = {2, 4, 6}.
47
48 Leyes de probabilidad
Existen dos sucesos particulares especialmente interesantes. El primero es el suceso imposible Ø, de-
finido como el subconjunto vacı́o del espacio muestral. Es decir, será el suceso que no ocurrirá nunca. Por
otra parte, el propio espacio muestral también puede considerarse como un suceso. Será el suceso seguro
S, que ocurrirá siempre. Cuando un suceso no coincide ni con el suceso imposible ni con el seguro, diremos
que el suceso es probable.
Puesto que los sucesos aleatorios se definen como conjuntos, podemos definir entre ellos las mismas
operaciones que se realizan sobre los conjuntos abstractos. Se definen ası́:
La unión de dos sucesos A y B como el suceso, representado por A ∪ B, que ocurrirá siempre que
ocurra el suceso A o el suceso B.
La intersección de dos sucesos A y B como el suceso, representado por A ∩ B, que ocurrirá siempre
que ocurran simultáneamente los sucesos A y B.
Dado un suceso A, llamaremos suceso complementario de A al suceso A" que ocurrirá siempre que
no ocurra A. Evidentemente, se cumplen las propiedades
Diremos que dos sucesos A y B son incompatibles, o mutuamente excluyentes, si nunca pueden
ocurrir a la vez. Es decir cuando
A ∩ B = Ø.
Dados dos sucesos A y B, diremos que A está contenido en B, y lo representaremos por A ⊂ B, cuando
se cumpla que siempre que ocurre A ocurre a la vez B. Es evidente que para cualquier suceso A se
cumple
Ø ⊂ A ⊂ S.
Además, la unión e intersección de sucesos cumplirán las conocidas propiedades conmutativa, asociativa
y distributiva1 . Podemos afirmar además que la clase formada por los sucesos de un experimento aleatorio
tiene estructura de álgebra de Boole.
Para facilitar el estudio de los sucesos se pueden utilizar los conocidos diagramas de Venn (Figura 5.1),
donde el espacio muestral se representa por un rectángulo, y cada suceso como un recinto incluı́do en él.
1 En álgebra abstracta, un álgebra booleana es una estructura algebraica (una colección de elementos y operaciones que
obedecen unos axiomas definidos) que engloban las propiedades esenciales de las operaciones lógicas y de conjuntos. Especı́fi-
camente, se encarga de las operaciones de conjuntos denominadas intersección, unión y complemento; y las operaciones lógicas
AND, OR y NOT.
— Propiedad conmutativa: A ∪ B = B ∪ A; A ∩ B = B ∩ A
— Propiedad asociativa: A ∪ (B ∪ C) = (A ∪ B) ∪ C; A ∩ (B ∩ C) = (A ∩ B) ∩ C
— Propiedad distributiva: A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C); A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
— Ley de Morgan #1: (A ∪ B)" = A" ∩ B " : lo opuesto a que al menos uno de los eventos ocurra es que no ocurra ninguno de
ellos.
— Ley de Morgan #2: (A ∩ B)" = A" ∪ B " : ambos eventos no ocurren simultáneamente si al menos uno de ellos no ocurre.
Figura 5.1: Diagramas de Venn: este tipo de diagramas son ilustraciones utilizadas en el campo de las matemáticas
conocido como Teorı́a de Conjuntos. Se emplean para mostrar las relaciones matemáticas o lógicas entre diferentes
conjuntos de cosas.
es decir, P (A) es el lı́mite cuando n tiende a infinito de la frecuencia relativa del suceso A. Puede observarse
que si el suceso ocurre siempre nA = n y P (A) = 1, y, al contrario, si el suceso no ocurre nunca, su
probabilidad P (A) = 0. De esta forma, la probabilidad de un suceso estará comprendida entre 0 y 1 (0 ≤
P (A) ≤ 1), y el suceso será tanto más probable cuanto más se acerque a 1 su probabilidad.
Ejemplo II–1 El lanzamiento de la moneda al aire es clásico. La probabilidad de obtener cara o cruz es P (A) = 1/2. En
1900 el estadı́stico Pearson realizó el experimento con un número total de lanzamientos de 24000 (tardó unas
40 horas). Obtuvo un resultado de 12012 caras (y 11988 cruces). Esto significa P (A) = 12012/24000 =
0.5005 que es un valor muy próximo a la probabilidad teórica.
La definición anterior implica, evidentemente, que hay que repetir un gran número de veces el experimento
para calcular la probabilidad de un suceso. Afortunadamente, el cálculo de la probabilidad se puede simplificar
mucho en el caso en que todos los sucesos elementales sean equiprobables (es decir, sus frecuencias sean iguales
cuando el experimento se repite un gran número de veces). En este caso, la probabilidad de un suceso se
puede establecer a partir de la definición, introducida por Laplace, según la cual P (A) es el cociente entre el
número a de casos favorables al suceso A (o número de sucesos elementales en que se da A) y el número N
a casos favorables
P (A) = = . (5.2)
N casos posibles
1
En particular, en este caso de sucesos equiprobables, la probabilidad de un suceso elemental será: P (A) = N.
Ejemplo II–2 El lanzamiento de un dado no trucado supone que los sucesos son equiprobables. Ası́ la probabilidad
de obtener un 4 al lanzar un dado será 1/6. Como ejemplo de un suceso compuesto, la probabilidad de
obtener un número par en dicho lanzamiento será P (A) = 3/6 = 1/2, ya que hay tres casos favorables
{2, 4, 6} de seis posibles {1, 2, 3, 4, 5, 6}.
A veces sucesos que parecen equiprobables no lo son. Por ejemplo si se estudia una ruleta en parti-
cular durante el tiempo suficiente, se comprueba que no todos los números son equiprobables. Esto es
debido a pequeñas imperfecciones en la propia ruleta. Por esta causa los casinos no permiten la entrada a
los jugadores que anotan sistemáticamente los resultados de sus ruletas ya que éstos jugarı́an con ventaja
si conocieran bien su comportamiento.
Es decir, la probabilidad del suceso unión de dos incompatibles es la suma de las probabilidades de
ambos sucesos. Esto se puede generalizar a cualquier número de sucesos incompatibles
Estos axiomas constituyen la base sobre la que se puede construir toda la teorı́a del cálculo de probabi-
lidades. Nótese que las propiedades anteriores son coherentes con la definición de la probabilidad basada en
las frecuencias relativas de un gran número de experimentos.
Efectivamente, puesto que A ∪ A" = S y teniendo en cuenta que A y su complementario son incompa-
tibles (A ∩ A" = Ø)
P (A ∪ A" ) = P (S) ⇒ P (A) + P (A" ) = 1
P (Ø) = 0. (5.7)
P (Ø) = 1 − P (S) = 1 − 1 = 0.
A partir del primer axioma y la propiedad anterior, se puede ver que para cualquier suceso A
0 ≤ P (A) ≤ 1. (5.8)
Si un suceso A está contenido en otro B, se cumple (por definición de un suceso contenido en otro)
En el caso particular de que los sucesos fuesen incompatibles (A ∩ B = Ø) esta propiedad se reducirı́a
al tercer axioma de la probabilidad.
Ejemplo II–4 Calcular la probabilidad de obtener o un número par o un número mayor que 3 en el lanzamiento de un
dado.
A : obtener un número par P(A) = 3/6 = 1/2 {2,4,6}
B : obtener un número mayor que 3 P(B) = 3/6 = 1/2 {4,5,6}
1 1 2 4 2
+ − = =
P (A ∪ B) = P (A) + P (B) − P (A ∩ B) =
2 2 6 6 3
que era lo esperado ya que el espacio muestral es en este caso {2, 4, 5, 6}, es decir, 4/6 = 2/3.
Para demostrar esta propiedad hacemos uso del diagrama de Venn (Figura 5.2), en el cual es fácil de
comprobar que se verifica
A = (A ∩ S) = (A ∩ (B ∪ B " ) = (A ∩ B) ∪ (A ∩ B " ).
Figura 5.2: Diagrama de Venn representando la probabilidad de un suceso unión de dos sucesos no incompatibles.
De la misma forma
B = (A ∩ B) ∪ (A" ∩ B).
Por tanto
A ∪ B = (A ∩ B) ∪ (A ∩ B " ) ∪ (A" ∩ B).
Puesto que en cada una de las expresiones anteriores, los sucesos del término de la derecha son incom-
patibles entre sı́, usando el tercer axioma podemos escribir
P (A ∪ B) = P (A ∩ B) + P (A ∩ B " ) + P (A" ∩ B)
P (A ∪ B) = P (A ∩ B) + P (A) − P (A ∩ B) + P (B) − P (A ∩ B) =
1. Es evidente que se satisface el primer axioma puesto que el cociente de dos números no negativos es
un número no negativo
P (A|B) ≥ 0.
P (S ∩ B) P (B)
P (S|B) = = = 1.
P (B) P (B)
P (A ∩ B) 2/6 4 2
P (A ∩ B) = 2/6 (ejemplo anterior) ; P (A|B) = = = =
P (B) 1/2 6 3
Que coincide con el cociente entre casos favorables 2 ({4, 6}) y casos posibles 3 ({4, 5, 6}).
o
P (A ∩ B) = P (B|A)P (A). (5.13)
De esta forma, la probabilidad de que tanto A como B ocurran es igual a la probabilidad de que A ocurra
dado que B haya ocurrido multiplicado por la probabilidad de que B ocurra. Esto se puede generalizar a la
intersección de más sucesos. En el caso particular de 3 sucesos
En este caso, la probabilidad de que A ocurra no está afectada por la ocurrencia o no ocurrencia de B y se
dice que los dos sucesos son independientes. Aplicando (5.12) es fácil ver que en este caso se cumple
Es decir, la probabilidad de la intersección de dos sucesos independientes (en otras palabras, la probabilidad
de que se den ambos sucesos) es el producto de sus probabilidades. Esta última relación se toma usualmente
como condición necesaria y suficiente para la existencia de independencia. El concepto de independencia se
puede generalizar a una familia de n sucesos. Se dice que son mutuamente independientes cuando cualquier
pareja de sucesos es independiente y la probabilidad de la intersección de cualquer número de sucesos
independientes es el producto de sus probabilidades. En el caso de tres sucesos independientes
Cuando no se cumple la relación (5.14) hay que utilizar la expresión general (5.12) para calcular la pro-
babilidad de la intersección. En este caso se dice que los sucesos son dependientes, es decir, la probabilidad
de que ocurra uno de ellos depende de que haya ocurrido o no el otro.
Ejemplo II–6 Tenemos en una urna 4 bolas blancas y 6 bolas negras. Si extraemos 2 bolas sucesivamente, calcular la
probabilidad de que las 2 sean blancas. Consideremos dos casos:
a) Se reemplaza la 1a despues de sacarla.
Entonces los dos sucesos son independientes: la naturaleza de la 2a bola no está condicionada por la
naturaleza de la 1a .
A: bola blanca en la primera extracción
B: idem en la segunda
4 4 16
P (A ∩ B) = P (A) P (B) = × = = 0.16
10 10 100
4 3 12
P (A ∩ B) = P (A) P (B|A) = × = = 0.13
10 9 90
Sea un conjunto de sucesos Ai , i = 1, . . . , n tales la unión de todos ellos es el suceso seguro y además son
incompatibles entre sı́. Es decir
n
'
Ai = S ; Ai ∩ Aj = Ø para i %= j.
i=1
Este conjunto de sucesos recibe el nombre de conjunto completo de sucesos y se dice que constituye una
partición del espacio muestral. Supongamos además que, para todo i, P (Ai ) > 0. Entonces, el teorema de
la probabilidad total establece que la probabilidad de cualquier suceso B se puede calcular como
n
!
P (B) = P (Ai )P (B|Ai ), (5.16)
i=1
es decir, la probabilidad de que ocurra B es la suma de las probabilidades de los sucesos Ai por las proba-
bilidades de B condicionadas a cada Ai .
Para demostrar el teorema aplicamos las condiciones del conjunto completo de sucesos y expresamos el
suceso B como
n
' n
'
B =B∩S =B∩( Ai ) = (B ∩ Ai ).
i=1 i=1
Al ser los sucesos Ai incompatibles también lo son los diferentes (B ∩ Ai ), de forma que la probabilidad de
B, utilizando (5.12), se puede expresar
n
! n
!
P (B) = P (B ∩ Ai ) = P (Ai )P (B|Ai ),
i=1 i=1
P (Aj )P (B|Aj )
P (Aj |B) = "n . (5.17)
i=1 P (Ai )P (B|Ai )
El teorema es útil cuando, conociéndose que se cumple un cierto suceso B, queremos conocer la probabilidad
de que la causa que lo haya producido sea el suceso Aj .
La demostración del teorema es sencilla, partiendo de la definición (5.11) y, aplicando la relación (5.12),
podemos expresar
P (Aj ∩ B) P (B|Aj )P (Aj )
P (Aj |B) = = .
P (B) P (B)
Sustituyendo ahora P (B) por su expresión según el teorema de la probabilidad total (5.16) llegamos a la
expresión que queremos demostrar.
Ejemplo II–8 Se dispone de dos urnas que contienen un 70 % de bolas blancas y 30 % de negras la primera y 30 %
de blancas y 70 % de negras la segunda. Seleccionamos una de las urnas al azar y se extraen 10 bolas
con reemplazamiento resultando B={bnbbbbnbbb} siendo b: bola blanca y n: bola negra. Determinar la
probabilidad de que esta muestra proceda de la urna primera.
Como la urna se selecciona al azar
P (U1 ) = P (U2 ) = 1/2.
luego
P (B|U1 ) = P (bnbbbbnbbb|U1 ) = P (b|U1 ) × P (n|U1 ) × . . . P (b|U1 ) = 0.78 × 0.32
P (B|U2 ) = P (bnbbbbnbbb|U2 ) = P (b|U2 ) × P (n|U2 ) × . . . P (b|U2 ) = 0.38 × 0.72
Entonces la probabilidad que nos piden puede determinarse con la ayuda del teorema de Bayes
P (B|U1 )P (U1 )
P (U1 |B) = =
P (B|U1 )P (U1 ) + P (B|U2 )P (U2 )
Ejemplo II–9 El problema de las tres puertas. (Daniel Peña, Estadı́stica Modelos y Métodos, p. 111).
Un concursante debe elegir entre tres puertas, detrás de una de las cuales se encuentra el premio. Hecha
la elección y antes de abrir la puerta, el presentador le muestra que en una de las dos puertas no escogidas
no está el premio y le da la posibilidad de reconsiderar su decisión. ¿Qué debe hacer el concursante?
Definamos los dos sucesos siguientes:
Ai = el concursante elige inicialmente la puerta i; i=1,2,3
Ri = el premio realmente está en la puerta i; i=1,2,3
El espacio muestral está formado por 9 sucesos (Ai ∩ Rj ), cada uno de ellos con probabilidad 1/9. Si, por
ejemplo, se da A1 , la probabilidad de ganar es:
P (R1 ∩ A1 ) 1/9 3 1
P (R1 |A1 ) = = = =
P (A1 ) 1/3 9 3
R1 R2 R3
B1 — — —
B2 P (B2 ∩ R1 ) = 1/6 — P (B2 ∩ R3 ) = 1/3
B3 P (B3 ∩ R1 ) = 1/6 P (B3 ∩ R2 ) = 1/3 —
Veamos cómo se han calculado las probabilidades indicadas. Inicialmente el coche se ubica al azar en
cualquiera de las tres puertas, es decir,
Cuando el premio está en la puerta elegida, R1 , tan probable es que el presentador muestre la puerta 2
como la 3, luego
y por lo tanto,
1 1 1
P (B2 ∩ R1 ) = P (B2 |R1 )P (R1 ) = × =
2 3 6
y lo mismo para P (B3 ∩ R1 ).
Cuando el concursante elige A1 y el premio está en la puerta 2 (R2 ) el presentador debe necesariamente
mostrar la puerta 3 (B3 ),
1 1
P (B3 |R2 ) = 1 ; P (B3 ∩ R2 ) = P (B3 |R2 )P (R2 ) = 1 × =
3 3
Análogamente, cuando el concursante elige A1 y el premio está en la puerta 3 (R3 ) el presentador debe
necesariamente mostrar la puerta 2 (B2 ),
1 1
P (B2 |R3 ) = 1 ; P (B2 ∩ R3 ) = P (B2 |R3 )P (R3 ) = 1 × =
3 3
Entonces la probabilidad de ganar que tienen los concursantes que no cambian su elección es 1/3 (la que
tenı́an). Se comprueba viendo que tras elegir la puerta 1 (A1 ) y abriendo el presentador la j (j=2,3),
1
P (R1 )P (Bj |R1 ) 3
× 12 1
P (R1 |Bj ) = " = 1 1
=
P (Ri )P (Bj |Ri ) 3
× 2
+ 31 × 1 3
La probabilidad de ganar que tienen los concursantes que si cambian su elección es igual a la probabilidad
de que el premio esté en la puerta que no muestra el presentador. Suponiendo que muestra la 3 (B3 ),
1
P (R2 )P (B3 |R2 ) 3
×1 2
P (R2 |B3 ) = " = 1 1
=
P (Ri )P (B3 |Ri ) 3
× 2
+ 13 × 1 3
Este resultado es análogo si muestra la puerta 2, obteniéndose en ese caso P (R3 |B2 ) = 2/3.
La razón por la que resulta rentable o conveniente cambiar de puerta es que el suceso Bj (presentador
abre la puerta j) no es independiente de los sucesos Ri (el premio está en la puerta i), es decir el suceso
Bj da información sobre los Ri . En efecto, P (B2 ) = P (B3 ) = 1/2 y P (R1 ) = P (R2 ) = P (R3 ) = 1/3 pero
en general P (Bj ∩ Ri ) &= 1/6. Cuando se da A1 los sucesos R1 y Bj (j = 2, 3) sı́ son independientes ya que
P (R1 ∩ B2 ) = P (R1 ∩ B3 ) = 1/6 (el presentador puede abrir las puertas 2 ó 3 indistintamente es, pues
el premio está en la 1). Pero los sucesos Ri (i = 2, 3) y Bj (j = 2, 3) son dependientes (el presentador
sólo puede mostrar la puerta 2/3 si el premio está en la 3/2). Esta dependencia conduce a que convenga
reconsiderar la decisión y cambiar de puerta siempre. Si se juega muchas veces a la larga se gana 2/3 de
las veces si se cambia de puerta y sólo 1/3 si se permanece en la primera elección.
Un caso especialmente interesante en los problemas de probabilidad es cuando todos los sucesos elemen-
tales son igualmente probables. Ya hemos visto que, en este caso, la probabilidad de un suceso elemental
es 1/n, donde n es el número de puntos del espacio muestral, o número de sucesos elementales en que se
puede descomponer. Efectivamente, como el suceso seguro S se puede descomponer en los diferentes sucesos
elementales Ai y todos estos tienen la misma probabilidad k
n
' n
! n
!
1 = P (S) = P ( Ai ) = P (Ai ) = k = kn
i=1 i=1 i=1
1
⇒ P (Ai ) = k =
n
Una vez conocidas las probabilidades de los sucesos elementales de esta forma, las probabilidades de los
sucesos compuestos se pueden calcular utilizando las propiedades de la probabilidad. El problema se reduce
entonces a calcular n, o número de puntos del espacio muestral.
Una primera herramienta muy útil es el regla de la multiplicación, la cual establece que si una
operación puede realizarse de n1 formas y, por cada una de éstas, una segunda operación puede llevarse a
cabo de n2 formas, entonces las dos operaciones pueden realizarse juntas en n1 n2 formas (número de puntos
del espacio muestral).
Para calcular n en el caso general se ha desarrollado el análisis combinatorio, el cual constituye una
herramienta indispensable para estudiar los experimentos aleatorios. A continuación se ven sus principales
conceptos y expresiones.
5.4.1. Variaciones
m!
Vm,n = , (5.19)
(m − n)!
(donde conviene recordar que el factorial del número cero es, por definición, igual a la unidad, 0! ≡ 1.)
Por otra parte, se llaman variaciones con repetición de m elementos tomados de n en n a las
variaciones vistas anteriormente con la condición adicional de que un elemento puede aparecer repetido en
el mismo subconjunto cualquier número de veces. Como en las variaciones normales, los subconjuntos son
distintos si tienen diferentes elementos o diferente orden de colocación de estos. Su número se representa por
Vmn y es
Vmn = mn . (5.20)
5.4.2. Permutaciones
Las permutaciones de n elementos son el caso particular de las variaciones de m elementos tomados
de n en n en que m es igual a n. Es decir, representan las diferentes formas de ordenar n elementos. Su
número se representa por Pn y se calcula por
Para que esto sea consistente con la definición (5.19) de las variaciones, se toma por convenio que 0! = 1.
Por otro lado, dado un conjunto de m elementos, se denominan permutaciones con repetición a
los distintos subconjuntos de tamaño n que se pueden formar con los m elementos y en los que en cada
subconjunto cada elemento aparece repetido n1 , n2 , . . . , nm veces, con
n1 + n2 + . . . + nm = n
Por ejemplo, dado el conjunto aabbbc son permutaciones con repetición de él las siguientes: abbcab, bcabab,
etc. El número de permutaciones con repetición se representa por Pnn1 ,n2 ,...,nm y se evalúa por
n!
Pnn1 ,n2 ,...,nm = (5.22)
n1 ! n2 ! . . . nm !
5.4.3. Combinaciones
Dado un conjunto de m elementos, se llaman combinaciones de m elementos tomados de n en
n a todos los subconjuntos de n elementos que se pueden formar del conjunto original, con la condición
de que dos subconjuntos se consideran distintos cuando difieren en algún elemento. Es decir, a diferencia
de las variaciones, no se considera el orden de colocación de los elementos. El número de combinaciones se
representa por Cm,n y se calcula por
Variables aleatorias
“Claro que lo entiendo. Hasta un niño de cinco años podrı́a
entenderlo. ¡Que me traigan un niño de cinco años!”
Con el fin de estudiar estadı́sticamente un cierto experimento aleatorio es imprescindible realizar una
descripción numérica de los resultados de dicho experimento. Para ello se define una variable, llamada
aleatoria, asignando a cada resultado del experimento aleatorio un cierto valor numérico. En este capı́tulo
veremos cómo para describir el experimento aleatorio será necesario especificar qué valores puede tomar la
variable aleatoria en cuestión junto con las probabilidades de cada uno de ellos. Las dos primeras secciones
estarán dedicadas a las, llamadas, variables aleatorias unidimensionales, mientras que posteriormente se
estudiarán brevemente las variables aleatorias bidimensionales.
63
64 Variables aleatorias
Figura 6.1: Función de probabilidad, f (x), y función de distribución, F (x), para una variable aleatoria discreta
X = {x1 , x2 , x3 , x4 , x5 }.
En particular, para un valor xi de la variable aleatoria: f (xi ) = P (X = xi ). Además, por las propiedades
de la probabilidad, la función de probabilidad cumple, para todo xi
!
f (xi ) ≥ 0 ; f (xi ) = 1. (6.2)
i
x x1 x2 ··· xi ···
P (X = x) f (x1 ) f (x2 ) ··· f (xi ) ···
Asimismo, gráficamente se suele representar usando un diagrama de barras donde en abscisas se sitúan
los diferentes valores de X y en ordenadas las probabilidades correspondientes (Figura 6.1).
Otra forma de caracterizar la distribución de una variable aleatoria es mediante la función de distri-
bución F (x), o función de probabilidad acumulativa, definida para cada x como la probabilidad de que la
variable aleatoria X tome un valor menor o igual que x. Es decir
donde x no se restringe a los valores que puede tomar la variable aleatoria y es cualquier número real
(−∞ ≤ x ≤ ∞). Es fácil ver que, por su definición, F (x) es una función no decreciente y toma los valores
extremos
F (−∞) = 0 ; F (∞) = 1.
Si suponemos que la variable aleatoria puede tomar los valores X = {x1 , x2 , . . . , xn }, ordenados de menor
a mayor, entonces la función de distribución para cada punto estará dada por
0 x < x1
f (x1 ) x1 ≤ x < x2
F (x) = f (x1 ) + f (x2 ) x2 ≤ x < x3
.. ..
. .
"n
i=1 f (xi ) = 1 xn ≤ x
De modo que la representación gráfica de la función de distribución discreta tiene forma de escalera, con
saltos en los valores aislados que toma la variable y con continuidad por la derecha (es decir, en cada salto
el valor que toma F (x) es el del escalón superior, ver Figura 6.1).
Conocida además la función de distribución puede calcularse la probabilidad de que la variable aleatoria
esté comprendida entre dos valores xi y xj
j
!
P (xi < X ≤ xj ) = f (xk ) = F (xj ) − F (xi )
k=i+1
P (X > xi ) = 1 − F (xi ).
Ejemplo II–11 Si deseamos determinar la probabilidad de que este valor se encuentre en el rango 4 < x ≤ 7,
21 6 15 4 5 6
P (4 < x ≤ 7) = F (7) − F (4) = − = =( + + )
36 36 36 36 36 36
33 3 2 1
P (x > 10) = 1 − F (10) = 1 − = =( + )
36 36 36 36
Como ejercicio adicional se puede demostrar que es más difı́cil obtener 9 tirando 3 dados que obtener 10.
Galileo (1564-1642) demostró que hay 216 combinaciones posibles equiprobables: 25 conducen a 9 y 27 a
10. La diferencia es muy pequeña: 2/216 ∼ 0.01.
Veamos ahora el caso de las variables aleatorias continuas, es decir, aquellas que pueden tomar cualquier
valor en un intervalo (a, b), o incluso (−∞, ∞). En este caso, la probabilidad de que la variable X tome
un valor determinado dentro de ese intervalo es cero, ya que existen infinitos valores posibles en cualquier
intervalo, por pequeño que sea, alrededor del valor en cuestión. Por ejemplo, la probabilidad de que la
altura de una persona sea exactamente 1.75 cm, con infinitos ceros en las cifras decimales, es cero. Por
tanto no se puede definir una función de probabilidad igual que se hacı́a para las variables discretas, dando
la probabilidad de cada valor de la variable. Lo que se si puede especificar es la probabilidad de que la
variable esté en un cierto intervalo. Para ello se define una función f (x) llamada función de densidad, o
distribución de probabilidad, de la variable aleatoria continua X de forma que, para todo x, cumpla
. ∞
f (x) ≥ 0 ; f (x) dx = 1. (6.4)
−∞
De forma que la probabilidad de que X se encuentre entre dos valores x1 y x2 se puede calcular como
. x2
P (x1 < X < x2 ) = f (x) dx. (6.5)
x1
Las tres expresiones anteriores constituyen la definición de la función de densidad. Puede demostrarse
que esta definición cumple los axiomas de la probabilidad. Puesto que la probabilidad de que X tome un
/x
determinado valor x0 es nula ( x00 f (x) dx = 0), en la expresión anterior es indiferente escribir el signo <
ó ≤.
Puede observarse que, por la definición (6.4), la representación gráfica de la función de densidad (Figu-
ra 6.2) será la de una curva, normalmente continua, que toma siempre valores positivos o nulos, y con área,
comprendida entre la curva y el eje x, unidad. De igual forma, por la expresión (6.5), la probabilidad de que
la variable tome un valor entre x1 y x2 será el área bajo la función de densidad entre las abscisas x1 y x2 .
Esta asociación de probabilidad a área es sumamente útil para el estudio de la distribuciones continuas de
probabilidad.
Al igual que para el caso discreto, se puede definir la función de distribución F (x) en cada punto x
de una variable aleatoria continua como la probabilidad de que la variable X tome un valor inferior a x
Por la definición de función de densidad, ésta se relaciona con la función de distribución por
. x
F (x) = f (t) dt. (6.7)
−∞
Figura 6.2: Función de densidad, f (x), y función de distribución, F (x), para una variable aleatoria continua.
También al igual que en el caso discreto, la probabilidad de que X esté en un cierto intervalo (x1 , x2 ) se
podrá expresar como . x2
P (x1 < X < x2 ) = F (x2 ) − F (x1 ) = f (x) dx.
x1
dF (x)
⇒ f (x) = .
dx
Es decir, la derivada de la función de distribución es la función de densidad.
En general, la función de distribución será una función continua no decreciente que además cumple
. −∞ . ∞
F (−∞) = f (x) dx = 0 ; F (∞) = f (x) dx = 1.
−∞ −∞
De la misma forma en que se definı́an medidas caracterı́sticas de las distribuciones de frecuencias, se pue-
den definir también medidas caracterı́sticas para la distribución de una variable aleatoria, dividiéndose éstas
en medidas de centralización y medidas de dispersión. Por convenio, estas medidas teóricas se representan
por letras griegas para ası́ diferenciarlas de las medidas de las distribuciones de frecuencias, calculadas a
partir de una muestra de datos, que se denotaban por letras latinas.
Es decir, la media se obtiene multiplicando cada valor de X por su probabilidad y sumando estos productos
para todos los posibles valores de X (el sumatorio se puede extender desde 1 hasta n ó ∞). Evidentemente, el
significado de la media es que da un valor tı́pico o promedio de la variable aleatoria. Nótese que esta definición
"k
es consistente con la de la media aritmética para una distribución de frecuencias (x = i=1 xi ni /N ), ya que
si hacemos tender el número de medidas a infinito y recordamos la definición de probabilidad dada en (5.1)
k k 0 k k
! xi ni ! ni 1 ! !
lı́m x = lı́m = xi lı́m = xi P (X = xi ) = xi f (xi ) = µ.
N →∞ N →∞
i=1
N i=1
N →∞ N
i=1 i=1
En el caso continuo la expresión para la media es similar. Se define la media o esperanza matemática de
una variable aleatoria continua X con función de densidad f (x) como
. ∞
µ = E(X) = xf (x) dx, (6.9)
−∞
y su significado es el mismo. Cuando la variable aleatoria sólo tome valores en un intervalo (a, b), la media
se puede escribir también como
. b
µ = E(X) = xf (x) dx.
a
El concepto de esperanza matemática se puede generalizar para una función g(X) de la variable aleatoria
X. Nótese que dicha función será una nueva variable aleatoria. La media de esa función vendrá dada entonces,
en el caso discreto y continuo, por
2 "
g(xi )f (xi )
µg(X) = E(g(X)) = / ∞i (6.10)
−∞
g(x)f (x) dx
! 252
Ejemplo II–12 Calculemos la media en el lanzamiento de dos dados: µ = xi f (xi ) = =7
36
i
La media por sı́ sola no proporciona una adecuada descripción de la distribución de la variable aleatoria.
Además de conocer en qué valor se centra esa distribución es importante determinar la dispersión o variación
de los valores de la variable aleatoria en torno a la media. Para ello se define la varianza, representada por
σ 2 ó Var(X), de una variable aleatoria discreta X como
3 4 !
Var(X) = σ 2 = E (X − µ)2 = (xi − µ)2 f (xi ). (6.13)
i
Es decir, es la esperanza matemática de las desviaciones al cuadrado de los valores de la variable respecto a
su media. Es claro que cuanto mayor sea la varianza menos concentrados estarán los valores de X respecto
a su media. Al igual que ocurrı́a con la media, la definición anterior de la varianza está ı́ntimamente ligada
a la definición, ya vista, de varianza de una distribución de frecuencias
"k k
i=1 (xi− x)2 ni N ! ni
lı́m s2 = lı́m = lı́m (xi − x)2 .
N →∞ N →∞ N −1 N →∞ N − 1
i=1
N
Con el fin de obtener una medida de dispersión que tenga las mismas unidades que la variable aleatoria
se define la desviación tı́pica σ como la raı́z cuadrada positiva de la varianza
$!
√
σ = + σ2 = (xi − µ)2 f (xi ). (6.14)
i
Existe una expresión alternativa más útil en la práctica para calcular la varianza
!
σ2 = x2i f (xi ) − µ2 = E(X 2 ) − µ2 . (6.15)
i
Para demostrar esta expresión desarrollamos el cuadrado en (6.13) y aplicamos la definición de media
! !
σ2 = (xi − µ)2 f (xi ) = (x2i + µ2 − 2xi µ)f (xi ) =
i i
! ! !
= x2i f (xi ) + µ2 f (xi ) − 2µ xi f (xi ) = E(X 2 ) + µ2 − 2µµ = E(X 2 ) − µ2 .
i i i
De la misma manera se puede definir la varianza y desviación tı́pica de una variable aleatoria continua
X con función de densidad f (x)
. ∞
3 4
Var(X) = σ 2 = E (X − µ)2 = (x − µ)2 f (x) dx, (6.16)
−∞
$.
∞
σ= (x − µ)2 f (x) dx. (6.17)
−∞
Cuando X sólo toma valores en un intervalo (a, b), la definición de la varianza se reduce a
. b
σ2 = (x − µ)2 f (x) dx.
a
También, al igual que en el caso discreto, existe una expresión más práctica para su cálculo
. ∞
σ2 = x2 f (x) dx − µ2 = E(X 2 ) − µ2 . (6.18)
−∞
Análogamente a la media, suponiendo una función g(X) de la variable aleatoria X, su varianza será
2 "
3 4 (g(xi ) − µg(X) )2 f (xi )
2
σg(X) = E (g(X) − µg(X) )2 = / ∞i (6.19)
−∞
(g(x) − µg(X) )2 f (x) dx
y en el caso particular de que la función sea de la forma g(X) = aX + b, donde a y b son constantes
2
σaX+b = Var(aX + b) = a2 σX
2
. (6.20)
2
3 4 3 4
σaX+b = E (aX + b − µaX+b )2 = E (aX + b − aµX − b)2 =
3 4 3 4
= E a2 (X − µX )2 = a2 E (X − µX )2 = a2 σX
2
.
σb2 = Var(b) = 0 ; 2
σaX = Var(aX) = a2 σX
2
. (6.21)
Es decir, la varianza de una constante es nula. Estas expresiones son muy útiles para realizar cambios de
variables que simplifiquen los cálculos.
Ejemplo II–12 (Continuación.)
Calculemos la varianza en el lanzamiento de dos dados:
! 1974
σ2 = x2i f (xi ) − µ2 = − 72 = 5.83 ⇒ σ = 2.42
36
i
6.2.3. Momentos
Media y varianza son en realidad casos particulares de la definición más general de momento. Dada una
variable aleatoria X se define el momento de orden r respecto al parámetro c como la esperanza
matemática de (X − c)r 2 "
(xi − c)r f (xi )
E ((X − c)r ) = / ∞i (6.22)
−∞
(x − c)r f (x) dx
Una definición importante es la de función generatriz de momentos. Dada una variable aleatoria X,
esta función se define, para cualquier real t, como la esperanza matemática de etX y se denota por MX (t).
Es decir, en el caso discreto y continuo, será
2 "
etxi f (xi )
MX (t) = E(e tX
)= / ∞i (6.23)
−∞
etx f (x) dx
La utilidad de la función generatriz de momentos estriba en que puede utilizarse para generar (o calcular)
todos los momentos respecto al origen de la variable X, ya que se cumple
5
dr MX (t) 55
µ"r = (6.24)
dtr 5t=0
! 5 !
= xri etxi 5t=0 f (xi ) = xri f (xi ) = µ"r
i i
Una propiedad de la función generatriz de momentos que se usará con posterioridad es la siguiente:
Si a y b son dos números reales, entonces
6 7
t
M(X+a)/b (t) = eat/b MX , (6.25)
b
y la demostración es
0 1 0 1 0 1 6 7
t(X+a)/b tX/b ta/b ta/b (t/b)X at/b t
M(X+a)/b (t) = E e =E e e =e E e =e MX .
b
A veces es interesante estudiar simultáneamente varios aspectos de un experimento aleatorio. Para ello se
define la variable aleatoria bidimensional como una función que asigna un par de números reales a cada
uno de los puntos, o resultados posibles, del espacio muestral (ej. peso y altura de una muestra de individuos).
En general, denotaremos una variable aleatoria bidimensional de un experimento aleatorio por (X, Y ), de
forma que tomará valores (x, y) en un espacio bidimensional real. Diremos que una variable bidimensional es
discreta cuando las dos variables que la componen lo sean. Asimismo será continua cuando tanto X como Y
sean continuas. No es difı́cil generalizar el estudio de las variables aleatorias bidimensionales a las variables
multidimensionales, aunque no se hará aquı́.
En el caso de que la variable aleatoria bidimensional sea continua se define la función de densidad
conjunta como la función f (x, y) tal que
. x2 . y2
P (x1 < X < x2 , y1 < Y < y2 ) = f (x, y) dx dy. (6.27)
x1 y1
Para que estas definiciones sean completas hay que añadir la condición
f (x, y) ≥ 0, (6.28)
!! . ∞ . ∞
f (xi , yj ) = 1 ; f (x, y) dx dy = 1. (6.29)
i j −∞ −∞
Gráficamente, la función de densidad conjunta f (x, y) representa una superficie con volumen (entre ella
y el plano xy) unidad. Ası́ la probabilidad de que la variable (X, Y ) tome valores en unos intervalos se evalúa
calculando un volumen mediante (6.27).
Para el caso discreto la función de probabilidad se suele representar mediante una tabla de doble entrada.
Si asumimos que X toma valores entre x1 y xn , e Y toma valores entre y1 e ym , dicha tabla tendrá la forma
X \ Y y1 y2 ··· ym Total
x1 f (x1 , y1 ) f (x1 , y2 ) ··· f (x1 , ym ) f1 (x1 )
x2 f (x2 , y1 ) f (x2 , y2 ) ··· f (x2 , ym ) f1 (x2 )
.. .. .. .. .. ..
. . . . . .
xn f (xn , y1 ) f (xn , y2 ) ··· f (xn , ym ) f1 (xn )
Total f2 (y1 ) f2 (y2 ) ··· f2 (ym ) 1
donde las funciones f1 (x) y f2 (y) son las funciones de probabilidad marginal de X e Y respectivamente.
Representan la probabilidad de que X (ó Y ) tome un determinado valor independientemente de los valores
de Y (ó X) y se calculan por
! !
f1 (x) = P (X = x) = f (x, yj ) ; f2 (y) = P (Y = y) = f (xi , y). (6.30)
j i
Análogamente, para variable aleatoria continua, se pueden definir las funciones de densidad marginal
como . ∞ . ∞
f1 (x) = f (x, y) dy ; f2 (y) = f (x, y) dx. (6.31)
−∞ −∞
Al igual que en caso unidimensional, se puede definir la función de distribución conjunta como la
probabilidad de que X e Y sean inferiores a unos valores dados. Ası́, en el caso discreto y continuo
! !
F (x, y) = P (X ≤ x, Y ≤ y) = f (xi , yj ), (6.32)
xi ≤x yj ≤y
. x . y
F (x, y) = P (X < x, Y < y) = f (u, v) du dv, (6.33)
−∞ −∞
cumpliéndose además
∂2F
f (x, y) = .
∂x ∂y
También se pueden definir las funciones de distribución marginal F1 (x) y F2 (y) como
! !
F1 (x) = P (X ≤ x) = f1 (xi ) ; F2 (y) = P (Y ≤ y) = f2 (yj ) (6.34)
xi ≤x yj ≤y
. x . ∞ . ∞ . y
F1 (x) = f (u, v) du dv ; F2 (y) = f (u, v) du dv, (6.35)
−∞ −∞ −∞ −∞
P (X = x, Y = y) f (x, y)
P (X = x|Y = y) = =
P (Y = y) f2 (y)
siempre que P (Y = y) %= 0. Esto nos permite definir la función de probabilidad condicionada, en el caso
discreto, o la función de densidad condicionada, en el caso continuo, de X dado Y (y, análogamente, de
Y dado X) como el cociente entre la función de probabilidad conjunta y la función de probabilidad marginal
de la variable cuyo valor se fija
f (x, y) f (x, y)
f (x|y) = ; f (y|x) = , (6.36)
f2 (y) f1 (x)
por ejemplo
f (x2 , y3 ) f (x2 , y4 )
f (x2 |y3 ) = ; f (y4 |x2 ) = .
f2 (y3 ) f1 (x2 )
De esta forma, si se desea encontrar la probabilidad de que la variable aleatoria X tome valores entre a
y b cuando la variable Y tiene un valor y, habrá que evaluar, en el caso discreto y continuo
!
P (a ≤ X ≤ b|Y = y) = f (xi |y),
a≤xi ≤b
. b
P (a < X < b|Y = y) = f (x|y) dx.
a
Esto puede demostrarse fácilmente, por ejemplo en el caso continuo, desarrollando la definición de la función
donde se ha aplicado que f (x|y) no depende del valor de y. Utilizando entonces la definición de la función de
probabilidad (o de densidad) condicionada, vista en (6.36), en el caso de que las variables sean independientes
se cumplirá
f (x, y) = f1 (x)f2 (y). (6.37)
Esto se suele tomar como la condición necesaria y suficiente para la condición de independencia, de forma
que diremos que dos variables aleatorias X e Y son independientes si la función de probabilidad conjunta
(o la función de densidad conjunta, en el caso continuo) puede expresarse como el producto de una función
de X y una función de Y , las cuales coinciden con las funciones de probabilidad (o de densidad) marginales.
Esta definición de variables aleatorias independientes es equivalente a la definición de sucesos independientes
vista en (5.15). En el caso de independencia es evidente que la función de distribución conjunta también se
puede expresar en función de las funciones de distribución marginales
Sea una variable aleatoria bidimensional (X, Y ) con función de probabilidad, o función de densidad,
conjunta f (x, y). Al igual que en el caso unidimensional, se pueden definir las medias, o esperanzas
matemáticas, de cada una de las dos variables como (en el caso discreto y continuo)
!! !!
µX = E(X) = xi f (xi , yj ) ; µY = E(Y ) = yj f (xi , yj ),
i j i j
. ∞ . ∞ . ∞ . ∞
µX = E(X) = xf (x, y) dx dy ; µY = E(Y ) = yf (x, y) dx dy.
−∞ −∞ −∞ −∞
En el caso de tener una variable aleatoria expresada como una función g(X, Y ) de las dos variables X e
Y , su media vendrá dada por
2 " "
g(xi , yj )f (xi , yj )
µg(X,Y ) = E(g(X, Y )) = / ∞i /j∞ (6.38)
−∞ −∞
g(x, y)f (x, y) dx dy
En particular, si la función es una combinación de lineal de las dos variables de la forma g(X, Y ) = aX + bY
es inmediato que
µaX+bY = aµX + bµY y en concreto : µX+Y = µX + µY . (6.39)
La esperanza matemática es entonces un operador lineal. Otra importante expresión puede deducirse supo-
niendo que g(X, Y ) = XY . En este caso, si las dos variables son independientes, se cumple
Para demostrarlo se parte de la definición dada en (6.38) y se aplica la condición de independencia (6.37)
. ∞ . ∞ . ∞ . ∞
µXY = xyf (x, y) dx dy = xyf1 (x)f2 (y) dx dy =
−∞ −∞ −∞ −∞
. ∞ . ∞
= xf1 (x) dx yf2 (y) dy = µx µy .
−∞ −∞
Por otra parte, se pueden definir las varianzas de X e Y , para variables aleatorias discretas y continuas,
como (en este caso sólo escribimos las varianzas de X, para Y las expresiones son análogas)
!!
2
σX = Var(X) = (xi − µX )2 f (xi , yj ),
i j
. ∞ . ∞
2
σX = (x − µX )2 f (x, y) dx dy.
−∞ −∞
2
σXY = Cov(X, Y ) = E ((X − µX )(Y − µY )) . (6.41)
. ∞ . ∞
2
σXY = (x − µX )(y − µY )f (x, y) dx dy. (6.43)
−∞ −∞
Hay que indicar que en algunos textos no se incluye el cuadrado en la notación de la covarianza, repre-
sentándose ésta por σXY . Otra forma, útil en la práctica, de expresar la covarianza es
2
σXY = E(XY ) − µX µY = µXY − µX µY . (6.44)
!! !! !!
= xi yj f (xi , yj ) − µY xi f (xi , yj ) − µX yj f (xi , yj )+
i j i j i j
!!
+µX µY f (xi , yj ).
i j
Puesto que el primer término es la esperanza matemática del producto XY y el sumatorio del último término
es la unidad
2
σXY = E(XY ) − µY µX − µX µY + µX µY = µXY − µX µY ,
Si aplicamos la relación (6.40) a esta última expresión de la covarianza se obtiene que, para variables
aleatorias independientes, la covarianza es nula (σXY = 0). Este resultado indica que la covarianza es una
medida del grado de correlación, o asociación, entre las dos variables, al igual que ocurrı́a con la covarianza
de una variable estadı́stica bidimensional. Un valor alto de la covarianza indicará una correlación (positiva o
negativa, dependiendo del signo de la covarianza) importante (los valores de una variable tienden a aumentar
al aumentar la otra, en el caso de covarianza positiva). Hay que indicar, sin embargo, que el que la covarianza
sea nula no implica que las dos variables sean estadı́sticamente independientes.
Una expresión importante es la de la varianza de una combinación lineal de variables aleatorias, la cual
2
σaX+bY = a2 σX
2
+ b2 σY2 + 2abσXY
2
. (6.45)
2
3 4 3 4
σaX+bY = E (aX + bY − µaX+bY )2 = E (aX + bY − aµX − bµY )2 =
3 4
= E (a(X − µX ) + b(Y − µY ))2 =
3 4 3 4
= a2 E (X − µX )2 + b2 E (Y − µY )2 + 2abE ((X − µX )(Y − µY )) =
= a2 σX
2
+ b2 σY2 + 2abσXY
2
.
En el caso importante de variables aleatorias independientes la covarianza es nula y, por tanto, (6.45) se
convierte en
2
σaX+bY = a2 σX
2
+ b2 σY2 y en particular : 2
σX±Y 2
= σX + σY2 . (6.46)
Nótese que la expresión es la misma para la suma o resta de dos variables aleatorias.
Como ya se ha visto anteriormente, la varianza, o la desviación tı́pica, de una variable aleatoria proporcio-
na una medida de la dispersión, o variabilidad, de las observaciones respecto a su valor medio. Si la varianza
es pequeña la mayorı́a de los valores de la variable se agrupan alrededor de la media. Por el contrario, si σ es
grande existirá una gran dispersión de estos valores. En este sentido, el teorema de Chebyshev establece
una relación entre la desviación tı́pica y la probabilidad de que la variable tome un valor entre dos valores
simétricos alrededor de la media. En particular, proporciona una estimación conservadora de la probabilidad
de que una variable aleatoria asuma un valor dentro de k desviaciones tı́picas alrededor de la media.
El enunciado del teorema es el siguiente: Sea una variable aleatoria X con media µ y desviación tı́pica σ.
La probabilidad de que X tome un valor dentro de k desviaciones tı́picas de la media es al menos 1 − 1/k 2 .
Es decir
1
P (µ − kσ < X < µ + kσ) ≥ 1 − . (6.47)
k2
Para demostrarlo, en el caso continuo, desarrollamos la definición de varianza
. ∞
σ2 = (x − µ)2 f (x) dx =
−∞
. µ−kσ . µ+kσ . ∞
= (x − µ)2 f (x) dx + (x − µ)2 f (x) dx + (x − µ)2 f (x) dx,
−∞ µ−kσ µ+kσ
entonces . .
µ−kσ ∞
σ2 ≥ (x − µ)2 f (x) dx + (x − µ)2 f (x) dx,
−∞ µ+kσ
puesto que ninguna de las integrales es negativa. Puesto que en los intervalos que cubren las dos últimas
integrales siempre se cumple
|x − µ| ≥ kσ ⇒ (x − µ)2 ≥ k 2 σ 2 ,
y por ello
. µ−kσ . ∞
σ2 ≥ k 2 σ 2 f (x) dx + k 2 σ 2 f (x) dx
−∞ µ+kσ
. µ−kσ . ∞ . µ+kσ
1
⇒ ≥ f (x) dx + f (x) dx = 1 − f (x) dx,
k2 −∞ µ+kσ µ−kσ
puesto que el segundo término es la probabilidad de que X tome un valor fuera del intervalo (µ − kσ, µ + kσ).
Por tanto . µ+kσ
1
P (µ − kσ < X < µ + kσ) = f (x) dx ≥ 1 − ,
µ−kσ k2
como querı́amos demostrar.
Nótese que, por ejemplo, haciendo k = 2, el teorema nos dice que la probabilidad de que una variable,
con cualquier distribución de probabilidad, tome un valor más cerca de 2σ de la media es al menos 0.75.
Para calcular un valor exacto de estas probabilidades habrá que conocer cual es la forma de la distribución
de probabilidad. Análogamente el intervalo µ ± 3σ (k = 3) contiene al menos el 89 % de la distribución y
µ ± 4σ (k = 4) contiene al menos el 94 %.
Distribuciones discretas de
probabilidad
“La vida merece la pena sólo por dos cosas: por descubrir las
matemáticas y por enseñarlas.”
La distribución uniforme es la más simple de todas las distribuciones discretas de probabilidad. Diremos
que tenemos una distribución discreta uniforme cuando todos los posibles valores de la variable aleatoria
sean igualmente probables. En este caso, si la variable aleatoria X puede tomar los valores x1 , x2 , . . . , xn con
probabilidades iguales, la función de probabilidad vendrá dada por
1
f (x; n) = , donde x = x1 , x2 , . . . , xn (7.1)
n
"
por la condición de normalización (6.2) ( f (xi ) = 1). Se ha utilizado la notación f (x; n) puesto que, en este
caso, la distribución de probabilidad depende (únicamente) del parámetro n, o número de valores posibles.
Las expresiones para la media y varianza de esta distribución son, evidentemente
n n "n
! ! xi i=1 xi
µ= xi f (xi , n) = = ,
i=1 i=1
n n
n n "n
! ! (xi − µ)2 i=1 (xi − µ)2
σ2 = (xi − µ)2 f (xi , n) = = .
i=1 i=1
n n
79
80 Distribuciones discretas de probabilidad
Ejemplo II–13 Lanzamiento de un dado (no trucado). Es una distribución discreta uniforme.
1
x = 1, 2, 3, 4, 5, 6 n=6 f (x; 6) =
6
"
xi 1+2+3+4+5+6 21
µ= = = = 3.5
n 6 6
" "
(xi − µ)2 (xi − 3.5)2
σ2 = = = 2.92 ⇒ σ = 1.71
n 6
2. El resultado de cada uno de los ensayos puede clasificarse en éxito o fracaso (excluyentes).
Ejemplos de procesos de Bernoulli son la prueba de artı́culos de una cadena de producción para determinar
cuáles son defectuosos, la extracción de una carta para ver si es de un palo o no (siempre que se devuelva la
carta extraı́da a la baraja) o la observación del sexo de recien nacidos.
Se define la variable aleatoria binomial como la función que da el número de éxitos en un proceso de
Bernoulli. Evidentemente, la variable binomial X podrá tener valores en el rango X = {0, 1, 2, . . . , n}, donde
n es el número de veces que se repite el ensayo. La distribución de probabilidad asociada con esta variable
aleatoria se denomina distribución binomial y vendrá representada por
ya que depende del número de ensayos n y la probabilidad de éxito p en un solo ensayo. Para calcular una
expresión para b(x; n, p) consideremos la probabilidad de que se obtengan x éxitos y n − x fracasos en un
orden determinado. Llamando q a la probabilidad de fracaso (que será evidentemente q = 1 − p) y teniendo
en cuenta que los n ensayos son independientes, la probabilidad de esa disposición de resultados particular
será el producto de las probabilidades de cada ensayo, es decir
x n−x
8 9: ; 8 9: ;
p . . . p q . . . q = px q n−x .
Para calcular la probabilidad total de x éxitos, tenemos que sumar la probabilidad anterior para todas
las disposiciones posibles de resultados en que se dan esos x éxitos. Ese número se puede calcular como las
permutaciones con repetición de n elementos con x y n − x elementos repetidos, que por (5.22) se puede
expresar como ( )
n! n
Pnx,n−x = = .
x!(n − x)! x
De esta forma, la probabilidad de obtener x éxitos, o la distribución de probabilidad binomial, viene dada
por ( )
n
b(x; n, p) = px q n−x , donde x = 0, 1, . . . , n (7.2)
x
El término de distribución binomial viene del hecho de que los diversos valores de b(x; n, p) con x =
0, 1, 2, . . . , n corresponden a los n + 1 términos de la expansión binomial de (q + p)n pues
( ) ( ) ( ) ( )
n n n n
(q + p)n = qn + pq n−1 + p2 q n−2 + . . . + pn =
0 1 2 n
n
( )
n
! n
(q + p) = b(0; n, p) + b(1; n, p) + . . . + b(n; n, p) = px q n−x .
x=0 x
n n
( )
! ! n
b(x; n, p) = px q n−x = 1,
x=0 x=0 x
Dado que el cálculo de probabilidades binomiales por la expresión (7.2) es, generalmente, laborioso, en
la Tabla I (Apéndice A) se presentan las probabilidades de que la variable aleatoria binomial X tome los
diferentes posibles valores para diferentes n y p. Con frecuencia es necesario calcular la probabilidad de que
X sea menor a un determinado valor, o esté en un intervalo dado. Para ello es necesario calcular la función
de distribución de la variable aleatoria bidimensional
x
!
P (X ≤ x) = B(x; n, p) = b(r; n, p), (7.3)
r=0
Un caso particular importante de la distribución binomial es cuando n = 1, es decir, cuando sólo se hace
un ensayo. En este caso llamaremos variable de Bernoulli a X, que sólo podrá tomar los valores 0 (fracaso)
y 1 (éxito), y diremos que tenemos una distribución de Bernoulli. La función de probabilidad será
( ) 2
1 q ; x=0
f (x) = px q 1−x = px q 1−x = (7.4)
x p ; x=1
1
!
µ= xi f (xi ) = 0q + 1p = p, (7.5)
xi =0
1
!
σ2 = x2i f (xi ) − µ2 = 02 q + 12 p − p2 = p − p2 = p(1 − p) = pq. (7.6)
xi =0
Estas relaciones pueden utilizarse para calcular la media y la varianza de la distribución binomial. Efec-
tivamente, la variable binomial puede expresarse como la suma de n variables de Bernoulli (indepen-
dientes) (x = x1 + x2 + . . . + xn ) y, por tanto, la media de la distribución binomial, utilizando (6.39)
(µaX+bY = aµX + bµY ) vendrá dada por
n
8 9: ;
µX = µX1 +X2 +...+Xn = µX1 + µX2 + . . . + µXn = p + p + ... + p
⇒ µ = np. (7.7)
Asimismo, podemos utilizar (6.45) para calcular la varianza de la distribución binomial, y puesto que las
2
n variables son independientes (σaX+bY = a2 σX
2
+ b2 σY2 )
n
2 2 2 2 2
8 9: ;
σX = σX 1 +X2 +...+Xn
= σX 1
+ σX 2
+ ... + σX n
= pq + pq + . . . + pq
⇒ σ 2 = npq, (7.8)
Ejemplo II–14 Sea un jugador de baloncesto que tiene que tirar 3 tiros libres. Sabemos que su promedio de acierto es del
80 %. Determinemos las probabilidades de que enceste 0, 1, 2 ó 3 canastas.
Si llamamos: Canasta → S ; Fallo → N ; x: número de canastas o puntos.
Podemos calcular la probabilidad de cada suceso como el producto de las probabilidades de cada tiro ya
que son sucesos independientes.
x P
SSS 3 0.512
SSN 2 0.128 P (S) = 0.8 P (N ) = 0.2
SN S 2 0.128
SN N 1 0.032 P (SSS) = 0.8 × 0.8 × 0.8 = 0.512
N SS 2 0.128 P (SSN ) = 0.8 × 0.8 × 0.2 = 0.128
N SN 1 0.032
P (SN N ) = 0.8 × 0.2 × 0.2 = 0.032
NNS 1 0.032
NNN 0 0.008 P (N N N ) = 0.2 × 0.2 × 0.2 = 0.008
1.000
4 0
.
3
!
P (X ≥ 2) = b(x; 3, 0.80) = 0.384 + 0.512 = 0.896
x=2
3
<
! = 3
µ= x b(x; n, p) = 2.4
=!
σ => (x − µ)2 b(x; n, p) = 0.69
x=0
x=0
emitidas por un material en un tiempo dado, el número de fotones que llegan a un detector en un tiempo
fijado, el número de dı́as al año en que llueve en un cierto lugar, el número de estrellas que se observan en
el cielo en cuadrı́culas del mismo tamaño, etc. Diremos que un experimento de este tipo sigue un proceso
de Poisson cuando se cumplan las siguientes condiciones:
1. El número de resultados que ocurren en un intervalo es independiente del número que ocurre en
otro intervalo disjunto. Es decir, los sucesos aparecen aleatoriamente de forma independiente. Se dice
entonces que el proceso no tiene memoria.
Se define entonces la variable aleatoria de Poisson como el número de resultados que aparecen en un
experimento que sigue el proceso de Poisson. Nótese que el campo de variabilidad de la variable de Poisson
será: X = {0, 1, 2, . . .}. La distribución de probabilidad asociada con esta variable se denomina distribución
de Poisson y dependerá fundamentalmente del número medio de resultados (o sucesos) por intervalo, que
denotaremos por λ. De esta forma, la distribución de Poisson se escribe
Para calcular una expresión para p(x; λ) es importante relacionar la distribución de Poisson con la bi-
nomial. Efectivamente, la distribución de Poisson aparece como lı́mite de la distribución binomial cuando
el número de observaciones en ésta última es muy grande y la probabilidad de que en una observación se
dé el suceso (se obtenga un éxito, en la nomenclatura de la distribución binomial) es muy pequeña. Para
ello dividimos el intervalo de observación en n intervalos muy pequeños, con n suficientemente grande para
que, por la tercera propiedad del proceso de Poisson, no se puedan dar dos sucesos en cada subintervalo, y la
probabilidad p de que ocurra un suceso en un subintervalo sea muy pequeña. De esta forma, el experimento
de observar cuantos sucesos aparecen en un intervalo se convierte en observar si ocurre o no un suceso en n
subintervalos (proceso de Bernoulli). Podemos suponer entonces una distribución binomial con n ensayos y
probabilidad de éxito en cada uno p, que podremos escribir
( )
n n(n − 1) . . . (n − x + 1) x
b(x; n, p) = px q n−x = p (1 − p)n−x .
x x!
6 7−x
λ
lı́m 1− =1
n→∞ n
6 7n ( 6 7n/(−λ) )−λ
λ 1
lı́m 1− = lı́m 1+ = e−λ
n→∞ n n→∞ n/(−λ)
λx −λ
p(x; λ) = e , donde x = 0, 1, 2, . . . (7.10)
x!
x x
! ! λr
P (x; λ) = p(r; λ) = e−λ .
r=0 r=0
r!
Es fácil demostrar que la media de la distribución de Poisson coincide con el parámetro λ, como cabrı́a
esperar
∞ ∞ ∞ ∞
! ! λx ! λx ! λx−1 −λ
µ= xp(x; λ) = x e−λ = x e−λ = λ e .
x=0 x=0
x! x=1
x! x=1
(x − 1)!
Para calcular la varianza σ 2 encontramos primero una expresión alternativa para dicho parámetro. En
general
3 4 3 4
σ 2 = E X 2 − µ2 = E X 2 − E(X) + µ − µ2 = E (X(X − 1)) + µ − µ2 . (7.12)
En el caso particular del cálculo de la distribución de Poisson podemos entonces desarrollar la esperanza que
aparece en el último término de la expresión anterior
∞ ∞ ∞
! λx −λ ! λx ! λx−2 −λ
E (X(X − 1)) = x(x − 1) e = x(x − 1) e−λ = λ2 e .
x=0
x! x=2
x! x=2
(x − 2)!
σ 2 = E (X(X − 1)) + µ − µ2 = λ2 + µ − µ2 = µ2 + µ − µ2 = µ
√
⇒ σ2 = λ ; σ = λ (7.13)
Es decir, la varianza de la distribución de Poisson coincide con su valor medio y con el parámetro λ que
fija la función de probabilidad. La expresión para la desviación tı́pica se suele expresar en teorı́a de la señal
diciendo que el error (desviación tı́pica) es la raı́z cuadrada de la señal (valor medio).
Respecto a la forma de la distribución de Poisson se encuentra que presenta una asimetrı́a a la derecha
y tiende a hacerse simétrica cuando n → ∞.
Ejemplo II–15 Sea un detector astronómico al que llegan una media de 3 fotones cada segundo. Calcular las probabilidades
de que lleguen 0, 1, 2, 3, 4, . . . fotones/s.
Es una distribución de Poisson con λ = 3.
(x; λ) p(x; λ) λx −λ 3x −3
p(x; λ) = e → p(x; 3) = e
(0;3) 0.05 x! x!
(1;3) 0.15
Probabilidades acumuladas:
(2;3) 0.22
3
!
(3;3) 0.22
P (x ≤ 3) = p(x; λ) = 0.05 + 0.15 + 0.22 + 0.22 = 0.64
(4;3) 0.17 x=0
(5;3) 0.10
o mirando en la Tabla III (λ = 3 y x = 3) que sale
(6;3) 0.05
0.647.
(7;3) 0.02
También usando las tablas se puede calcular la probabi-
(8;3) 0.008
lidad de un valor concreto (ej: 5) haciendo:
(9;3) 0.003
(10;3) 0.0008 5
! 4
!
p(5; 3) = p(x; 3) − p(x; 3) = 0.916 − 0.815 = 0.101
x=0 x=0
(50;3) 1.2 × 10−42
∞
! 10
!
µ= xp(x; 3) - xp(x; 3) = 2.97 - 3
x=0 x=0
La desviación tı́pica:
√ √
σ = λ = 3 = 1.73
Y se puede comprobar (saldrı́a exacto si se sumaran todos los términos hasta infinito),
<
=∞
=!
σ => (x − µ)2 p(x; 3) = 1.72 - 1.73
x=0
Las aplicaciones de la distribución de Poisson son numerosas, desde el control de calidad y el muestreo de
aceptación hasta problemas fı́sicos en los que se mide el número de sucesos que se dan en un tiempo dado, o el
número de casos que aparecen en una superficie. Recuerdese además que es una buena aproximación aplicar
esta distribución a distribuciones binomiales con un gran número de ensayos y probabilidades pequeñas.
λ
p= → λ = p n = 0.85
n
0.854 −0.85
P (x = 4) - p(4; 0.85) =
e = 0.009
4!
La aproximación es mejor si el número de ensayos aumenta.
Por ejemplo para n = 1000, p = 0.001 y x = 2,
( )
1000
b(2; 1000, 0.001) = × 0.0012 × 0.9991000−2 = 0.184
P (x = 2) = 2
2
1
p(2; 1) = 2!
e−1 = 0.184
Distribuciones continuas de
probabilidad
Se dice que una variable aleatoria X sigue una distribución continua uniforme cuando su función de
densidad f (x) toma valores constantes en el intervalo [a, b]. Es decir, f (x) = K en ese intervalo y, por tanto,
la probabilidad de que tome un valor en cualquier incremento (de la misma anchura) dentro de ese intervalo
es la misma. Para calcular esa constante aplicamos la condición de normalización de la función de densidad
. ∞ . b . b
1
1= f (x) dx = f (x) dx = K dx = K(b − a) ⇒ K= .
−∞ a a b−a
Podemos además calcular la función de distribución F (x). Cuando x esté en el intervalo [a, b]
. x . x
1 x−a
F (x) = P (X < x) = f (t) dt = dt = ,
−∞ a b−a b−a
y, en general,
0 x<a
F (x) = x−a (8.2)
b−a a<x<b
1 x>b
89
90 Distribuciones continuas de probabilidad
Figura 8.1: Función de densidad, f (x), y función de distribución, F (x), para una distribución continua uniforme.
a+b
⇒ µ= . (8.3)
2
Por otra parte, la varianza puede calcularse como
. ∞ . b 6 72
a+b dx
σ2 = (x − µ)2 f (x) dx = x− =
−∞ a 2 b−a
A 6 72 Bb
1 x3 a+b 2 a+b
− x + x .
b−a 3 2 2
a
(b − a)2 b−a
σ2 = ; σ= √ . (8.4)
12 12
La distribución continua de probabilidad más importante de toda la estadı́stica es, sin duda alguna, la
distribución normal. La importancia de esta distribución se debe a que describe con gran aproximación la
distribución de las variables asociadas con muchos fenómenos de la naturaleza. En particular, las medidas de
magnitudes fı́sicas suelen distribuirse según una distribución normal. Por ejemplo, la distribución de alturas
de un grupo de población, las medidas de calidad de procesos industriales, o la distribución de temperaturas
de una población, se pueden aproximar por distribuciones normales. Además, los errores en las medidas
también se aproximan con mucha exactitud a la distribución normal. Por otra parte, bajo ciertas condiciones,
la distribución normal constituye una buena aproximación a otras distribuciones de probabilidad, como la
binomial y la de Poisson. Frecuentemente, a la distribución normal se la denomina también distribución
gaussiana.
Figura 8.2: Función de densidad, f (x), y función de distribución, F (x), para una distribución normal. Se muestran
las representaciones correspondientes a dos valores de la media µ y la desviación tı́pica σ.
Por definición, se dice que una variable aleatoria continua X sigue una distribución normal de media
µ y desviación tı́pica σ si su función de densidad es
1 (x−µ)2
f (x) = N (µ, σ) = √ e− 2σ2 ; −∞ < x < ∞ (8.5)
σ 2π
De esta forma, una vez que se especifican µ y σ la distribución queda determinada completamente. Puede
comprobarse que esta distribución de probabilidad cumple la condición de normalización dada en (6.4), ya
que . . .
∞ ∞ ∞
1 (x−µ)2 1 z2 1 √
f (x) dx = √ e− 2σ 2 dx = √ e− 2 dz = √ 2π = 1, (8.6)
−∞ σ 2π −∞ 2π −∞ 2π
donde se ha hecho el cambio de variable z = (x − µ)/σ (es decir dx = σ dz) y se ha aplicado el siguiente
/∞ 2 &
valor tabulado de la integral: −∞ e−ax dx = π/a.
Gráficamente (Figura 8.2), la distribución de probabilidad normal tiene forma de campana (llamada
campana de Gauss, o curva normal), simétrica (por depender de x a través del término (x−µ)2 ), centrada en µ
y con anchura proporcional a σ (como es lógico esperar del significado de la desviación tı́pica). Evidentemente,
el máximo de la función de densidad ocurre para x = µ y, por tanto, media, mediana y moda coinciden en
ese punto. Se puede demostrar que los puntos de inflexión de la curva normal están situados en µ − σ y µ + σ.
La curva tiende asintóticamente a cero al alejarse del valor medio. Además, por (8.6), el área entre la curva
normal y el eje X es la unidad.
La función de distribución normal, útil para el cálculo de probabilidades, vendrá dada por
. x
1 (t−µ)2
F (x) = P (X < x) = √ e− 2σ 2 dt. (8.7)
σ 2π −∞
Es claro que la probabilidad de que X tome un valor entre x1 y x2 puede calcularse por
. x2
1 (x−µ)2
P (x1 < X < x2 ) = √ e− 2σ 2 dx. (8.8)
σ 2π x1
Se puede demostrar que, efectivamente, los parámetros µ y σ de la distribución normal coinciden con la
media y la desviación tı́pica de dicha distribución. Para el caso de la media
. ∞ . ∞ . ∞
1 (x−µ)2 1 z2
E(X) = xf (x) dx = √ xe− 2σ 2 dx = √ (µ + σz)e− 2 dz,
−∞ σ 2π −∞ 2π −∞
donde hemos aplicado el mismo cambio de variables que anteriormente (z = (x−µ)/σ). Separando la integral
en dos términos . ∞ . ∞
µ σ z2 z2
E(X) = √ dz + √e− 2 ze− 2 dz =
2π −∞ 2π −∞
µ √ σ C z2
D∞
=√ 2π + √ −e− 2 = µ,
2π 2π −∞
. ∞
σ2 z2
=√ z 2 e− 2 dz,
2π −∞
2
donde se ha hecho el mismo cambio de variable. Integrando ahora por partes haciendo u = z, dv = ze−z /2
dz,
−z 2 /2
de forma que: du = dz y v = −e , se obtiene
6 . ∞ 7
σ2 2
− z2
5∞
− z2
2 σ2 0 √ 1
0 + 2π = σ 2 .
5
Var(X) = √ −ze 5 + e dz =√
2π −∞ −∞ 2π
X −µ
Z= . (8.9)
σ
1 (x−µ)2 1 z2
f (x) = √ e− 2σ2 ⇒ f (z) = √ e− 2 = N (0, 1). (8.10)
σ 2π 2π
Por lo tanto, la variable tipificada sigue una distribución normal con media 0 y desviación tı́pica 1, llamada
función de densidad tipificada, o estándar. Es claro que esta distribución no depende de ningún parámetro
y su representación gráfica es una campana simétrica respecto al eje z=0, en el que alcanza el máximo valor.
El problema de calcular la probabilidad de que X se encuentre en un intervalo (x1 , x2 ) se puede reducir
entonces a calcular la probabilidad de que Z esté en un intervalo equivalente (z1 , z2 )
x1 − µ x2 − µ
P (x1 < X < x2 ) = P (z1 < Z < z2 ), con z1 = y z2 = .
σ σ
Por lo tanto, usando la variable tipificada sólo es necesario trabajar con una tabla de la distribución
normal. En la Tabla IV (Apéndice A) se presentan las probabilidades de que Z tenga un valor mayor que
un zα dado. Se tabulan únicamente los valores de zα ≥ 0. Es lo que se conoce como la áreas de la cola
derecha de la distribución
. ∞
1 z2
P (Z > zα ) = α = √ e− 2 dz
2π zα
Ejemplo : P (Z > 1.75) = 0.0401
Para calcular la probabilidad de que Z esté por debajo de un determinado valor zα se usará, por el
condición de normalización
P (Z < zα ) = 1 − P (Z > zα ) = 1 − α
Ejemplo : P (Z < 1.75) = 1 − 0.0401 = 0.9599
De manera análoga
Nótese que estas probabilidades son más precisas que las que daba el teorema de Chebyshev, que indicaba
que las probabilidades eran, como mı́nimo 0.0, 0.75 y 0.89, para 1σ, 2σ y 3σ respectivamente.
tiende hacia una distribución normal estándar N (0, 1). Es decir, las probabilidades de Y las podremos
" &"
calcular utilizando la distribución normal N ( µi , σi2 ). Esto explica por qué una medida de un fenómeno
natural que está influenciado por un gran número de efectos (con cualquier distribución) ha de de seguir una
distribución normal. Hay que indicar además que, cuando las variables Xi siguen distribuciones normales,
no es necesario que n sea grande para que la variable suma siga una distribución normal. Este teorema es
de gran utilidad en temas posteriores.
El teorema del lı́mite central además nos permite relacionar otras distribuciones con la distribución
normal. En particular, el cálculo de probabilidades de la distribución binomial puede efectuarse usando
tablas, pero puede hacerse muy complicado cuando n (número de ensayos) se hace muy grande, superando los
valores tabulados. Para estos casos, la distribución normal supone una buena aproximación a la distribución
binomial. En particular, si X es una variable aleatoria binomial con media µ = np y desviación tı́pica
√
σ = npq, la variable
X − np
Z= √ (8.11)
npq
sigue la distribución normal tipificada (o estándar) cuando n tiende a infinito (teorema de Moivre). Esto es
una consecuencia inmediata del teorema del lı́mite central ya que la variable binomial puede considerarse,
como ya vimos, como la suma de n variables de Bernoulli con media µ = p y varianza σ 2 = pq, de forma que
"n "n
X − i=1 µi X − i=1 p X − np
Z = &"n = &"n = √ .
2
i=1 σi i=1 pq
npq
Esta importante propiedad se puede comprobar además empı́ricamente calculando probabilidades binomiales
y normales. Como la distribución binomial se hace más simétrica cuando p es próximo a 0.5, la distribución
tiende más rápidamente a la normal para esos valores de p. Para p próximos a 0 ó 1, habrá que aumentar
mucho n para que la asimetrı́a, clara para un número pequeño de ensayos, desaparezca. Como regla práctica
podemos considerar que la distribución normal es una aproximación aceptable de la distribución binomial
cuando tanto np como nq sean mayor que 5 (n p > 5; n q > 5). Esto quiere decir que si p = 0.5, bastará con
que n = 10 para que la aproximación sea aceptable, pero para p = 0.1, será necesario que el número de
X −λ
Z= √ (8.12)
λ
sigue la distribución normal estándar cuando λ tiende a infinito. Es decir, la distribución de Poisson se puede
√
aproximar a la normal con parámetros µ = λ y σ = λ (Recordemos que λ era la media y la varianza
de la distribución de Poisson). Esta aproximación empieza a ser aceptable para λ > 5. Es también una
consecuencia del teorema del lı́mite central, ya que la variable de Poisson se puede considerar como la suma
de muchas variables de Poisson subdiviendo el intervalo de medida.
La aplicación de la distribución normal es entonces muy útil para calcular probabilidades de la distribución
binomial o de Poisson cuando n (ó λ) es grande. Hay que tener en cuenta que al pasar de una variable discreta
X a una continua X " habrá que utilizar la, llamada, corrección de continuidad, que consiste en calcular las
probabilidades como
P (x1 ≤ X ≤ x2 ) = P (x1 − 0.5 < X " < x2 + 0.5).
Sean X1 , X2 , . . . , Xn n variables aleatorias normales con media 0 y varianza 1 independientes entre sı́,
entonces la variable
χ2n = X12 + X22 + . . . + Xn2 (8.13)
donde Γ(α) es la función gamma, definida, para cualquier real positivo α, como
. ∞
Γ(α) = xα−1 e−x dx con α > 0. (8.15)
0
Nótese que la variable χ2 toma únicamente valores positivos, al ser una suma de cuadrados. Además su
distribución depende únicamente del parámetro n, o número de grados de libertad. Gráficamente, su función
de densidad es muy asimétrica (para n = 1 corresponde a elevar al cuadrado una curva normal tipificada),
pero se va haciendo más simétrica a medida que n aumenta.
&
En particular, para n ≥ 30, es una buena aproximación suponer que la variable 2χ2n se distribuye como
√ √
una distribución normal con media 2n − 1 y varianza 1 (N ( 2n − 1, 1)).
Una propiedad importante de la distribución χ2 es que si χ2n1 y χ2n2 son dos variables χ2 con grados de
libertad n1 y n2 respectivamente, entonces la variable suma χ2n = χ2n1 + χ2n2 es una χ2 con n = n1 + n2
grados de libertad. Esto es evidente a partir de la definición dada en (8.13).
La media y la varianza de la distribución χ2n están dadas por
Para demostrar estas relaciones partimos de la definición de χ2 (8.13) y utilizamos la propiedad de la media
y varianza de una suma de variables independientes
( n
) n
! ! 3 4
µ = E(χ2n ) = E Xi2 = E Xi2 ,
i=1 i=1
( n
) n
! ! 3 4
σ 2 = Var(χ2n ) = Var Xi2 = Var Xi2 .
i=1 i=1
Es necesario entonces calcular la media y la varianza de un variable Xi2 . Puesto que Xi es normal con media
0 y varianza 1, se cumple
2
3 4 3 4 3 4
σX i
= E Xi2 − µ2Xi ⇒ 1 = E Xi2 − 0 ⇒ E Xi2 = 1.
2 2
Integrando por partes con u = x3 y dv = xe−x /2
dx (⇒ du = 3x2 dx, v = −e−x /2
)
? 5∞ . ∞ @
3 4 1 x2 5 x2
Var Xi2 = √ −x3 e− 2 5 + 3x2 e− 2 dx − 12 =
2π −∞ −∞
. ∞
3 x2 3 4
=√ x2 e− 2 dx − 1 = 3E Xi2 − 1 = 2.
2π −∞
Y, por lo tanto,
n
! n
3 4 !
µ= E Xi2 = 1 = n,
i=1 i=1
n
! n
3 4 !
σ2 = Var Xi2 = 2 = 2n.
i=1 i=1
Estas expresiones se pueden también demostrar integrando directamente en la definición de media y varianza
usando (8.14).
Para calcular las probabilidades de que la variable χ2 tome valores por encima o debajo de un determinado
valor puede usarse la Tabla V (Apéndice A). En ésta se dan las abscisas, denotadas por χα,n , que dejan
a su derecha un área (o probabilidad) bajo la función de densidad igual a cierto valor α, llamado nivel de
significación. Es decir
P (χ2n > χ2α,n ) = α y P (χ2n < χ2α,n ) = 1 − α.
s2
χ2n−1 = (n − 1) , (8.17)
σ2
obedece a una distribución χ2 con (n − 1) grados de libertad. Esta propiedad es sumamente importante para
la estimación de la varianza y el contraste de hipótesis sobre la varianza σ 2 .
recibe el nombre de t de Student con n grados de libertad. Podemos llegar a una expresión más usual de
la variable t dividiendo numerador y denominador por la desviación tı́pica σ
X
Z
tn = # " σ 3 4 = # , (8.19)
1 n Xi 2 1 2
n i=1 σ n χ n
donde Z es una variable que sigue una distribución normal estándar N (0, 1) y χ2n es una χ2 con n grados de
libertad, siendo ambas independientes.
La función de densidad asociada es la distribución t de Student (introducida por W.S. Gosset), que
se puede expresar como
6 7− n+1
1 t2 2
f (x) = f (t) = √ 31 n
4 1+ ; −∞ < t < ∞ (8.20)
nβ 2, 2
n
donde β(p, q) es la función beta, definida, para un par de reales p y q positivos, haciendo uso de la función
gamma, como
Γ(p)Γ(q)
β(p, q) = . (8.21)
Γ(p + q)
La demostración de que la variable t definida en (8.19) sigue la función de densidad anterior está fuera del
alcance de este libro.
El campo de variabilidad de la variable t de Student será de −∞ a ∞ y su función de densidad depen-
derá únicamente del parámetro n (grados de libertad). Nótese que, al depender f (t) de t a través de t2 , la
función de densidad será simétrica alrededor de t = 0. Su forma será campaniforme, siendo más achatada
para valores bajos de n.
Cuando n aumenta f (t) se va haciendo cada vez más apuntada, tendiendo a la curva normal tipificada
(N (0, 1)) cuando n → ∞. En general, la curva normal es una buena aproximación de la distribución t cuando
n ≥ 30.
La media y la varianza de la distribución t vienen dadas por
n
µ=0 ; σ2 = (para n > 2). (8.22)
n−2
Es evidente que, al ser f (t) simétrica respecto a t = 0, la media ha de ser nula. Respecto a la varianza,
nótese que es mayor que 1 y depende del número de grados de libertad. Sólo al hacerse n muy grande, σ
tiende a 1, y, por tanto, a la distribución normal estándar.
Para calcular las áreas debajo de la distribución t se puede usar la Tabla VI (Apéndice A). Al igual
que con la distribución χ2 , ésta da las abscisas, denotadas por tα,n , que dejan a su derecha un área (o
probabilidad) bajo la función de densidad igual a cierto valor α, llamado nivel de significación. Es decir
además de
tα,n = −t1−α,n ,
relación muy útil para calcular valores de t que dan α > 0.5, que no vienen tabulados en las tablas.
La distribución t de Student es sumamente importante para la estimación y el contraste de hipótesis
sobre la media de una población, como se verá en temas posteriores. Si se tiene una población que sigue
una distribución normal con media µ y desviación tı́pica σ (N (µ, σ)), y se extrae una muestra aleatoria de
tamaño n sobre la que se calcula una media x y una desviación tı́pica s, entonces la variable aleatoria dada
por
x−µ
tn−1 = √ (8.23)
s/ n
Figura 8.6: Distribución t de Student. Simetrı́a y P (tn < −tα,n ) = α y tα,n = −t1−α,n .
Sean χ2n1 y χ2n2 dos variables χ2 de Pearson con n1 y n2 grados de libertad e independientes entre sı́.
Entonces, la variable aleatoria definida como
χ2n1
n
Fn1 ,n2 = 21 (8.24)
χn2
n2
Nótese que el campo de variabilidad de la variable F es entre 0 e ∞ (al ser un cociente de cuadrados) y
que su función de densidad depende exclusivamente de los dos parámetros n1 y n2 , aunque es importante el
orden en el que se dan estos. En particular, por la definición de F dada en (8.24), se cumple
1
Fn1 ,n2 = . (8.26)
Fn2 ,n1
Se puede demostrar que la media y la varianza de la distribución F de Fisher vienen dadas por
n2 2n22 (n1 + n2 − 2)
µ= (n2 > 2) ; σ2 = (n > 4), (8.27)
n2 − 2 n1 (n2 − 4)(n2 − 2)2
Las áreas bajo la curva de la distribución F se pueden calcular usando la Tabla VII (Apéndice A).
Esta da, en función de n1 y n2 , las abscisas, denotadas por Fα;n1 ,n2 , que dejan a su derecha un área (o
probabilidad) bajo la función de densidad igual a cierto valor α, llamado nivel de significación. Por tanto
P (Fn1 ,n2 > Fα;n1 ,n2 ) = α y P (Fn1 ,n2 < Fα;n1 ,n2 ) = 1 − α
En dicha Tabla se tabulan los valores de Fα;n1 ,n2 para valores de α próximos a 0. Para α cercano a 1, puede
usarse la propiedad dada en (8.26), de forma que
1
F1−α;n2 ,n1 = .
Fα;n1 ,n2
Es importante notar que las distribuciones χ2 y t son en realidad casos particulares de la distribución F ,
ya que
χ2n
F1,n = t2n ; Fn,∞ = ,
n
como puede comprobarse fácilmente (Nótese que χ21 es una variable que sigue una distribución normal
tipificada).
χ2n1 −1
n −1
Fn1 −1,n2 −1 = 12 .
χn2 −1
n2 − 1
En otras palabras, si s21 y s22 son las varianzas de variables aleatorias independientes de tamaños n1 y n2 que
se extraen de poblaciones normales con varianzas σ12 y σ22 respectivamente, entonces la variable
s21 /σ12
Fn1 −1,n2 −1 = (8.28)
s22 /σ22
s21
Fn1 −1,n2 −1 = .
s22
INFERENCIA ESTADÍSTICA
103
Capı́tulo 9
Uno de los objetivos principales de la estadı́stica es extraer conclusiones e información sobre una de-
terminada población. Recordemos que por población se denomina al conjunto completo de elementos, con
alguna caracterı́stica común, objeto de nuestro estudio (personas, objetos, experimentos, etc.). Evidente-
mente, la forma más directa de cumplir dicho objetivo serı́a estudiar todos y cada uno de los elementos de
la población. Sin embargo, en numerosas ocasiones esto no es posible ya que, por ejemplo, el tamaño de la
población puede ser demasiado grande (ej. estrellas del cielo) e incluso infinito (ej. tiradas posibles de un
dado), o porque estudiar los elementos supone la destrucción de estos (ej. ensayos destructivos de control de
calidad) o, simplemente, porque el coste económico es prohibitivo. En estos casos, es necesario trabajar con
un subconjunto de elementos de la población, es decir una muestra. Al proceso de obtener muestras se le
denomina muestreo.
La inferencia estadı́stica se ocupa de estudiar los métodos necesarios para extraer, o inferir, conclu-
siones válidas e información sobre una población a partir del estudio experimental de una muestra de dicha
población. Los métodos utilizados en la inferencia estadı́stica dependen de la información previa que se ten-
ga de la población a estudiar. Cuando se conoce la forma de la distribución de probabilidad que sigue la
variable aleatoria a estudiar en la población, el problema consiste en determinar los diferentes parámetros
de dicha distribución (ej. media y varianza para la distribución normal). Para ello se utilizan los métodos
paramétricos, consistentes en procedimientos óptimos para encontrar dichos parámetros. Cuando la dis-
tribución de la población es desconocida, el problema principal es encontrar la forma y caracterı́sticas de la
distribución, lo cual se hace mediante los llamados métodos no paramétricos. En este capı́tulo y en los
dos siguientes nos limitaremos a estudiar los principales métodos paramétricos de inferencia estadı́stica.
Para poder estudiar correctamente una población mediante la inferencia estadı́stica es fundamental que
la muestra esté bien escogida. La clave de un proceso de muestreo es que la muestra sea representativa de la
población. Una forma de conseguir esto es haciendo que todos los elementos de la población tengan la misma
probabilidad de ser elegidos para la muestra. Diremos en este caso que tenemos un muestreo aleatorio.
Para realizar estos muestreos aleatorios se utilizan a menudo tablas de números aleatorios.
105
106 Teorı́a elemental del muestreo
Por otra parte, cuando cada elemento de la población pueda seleccionarse más de una vez tendremos
un muestreo con reemplazamiento, mientras que cuando cada elemento sólo se puede seleccionar una
única vez será un muestreo sin reemplazamiento. Evidentemente, una población finita muestreada con
reemplazamiento puede considerarse infinita. Si la población es infinita, o el tamaño de ésta (N ) es muy
grande comparado con el tamaño de la muestra (n), es prácticamente indiferente que el muestreo sea con o
sin reemplazamiento. Como veremos, normalmente el análisis se simplifica cuando la población es infinita o
el muestreo es con reemplazamiento.
Supongamos que tenemos una población de la cual conocemos la distribución de probabilidad f (x) que
sigue su variable aleatoria asociada X. Se dirá que tenemos una población normal, binomial, etc. cuando f (x)
corresponda a una distribución normal, binomial, etc. Para poder conocer la población objeto de nuestro
estudio es necesario calcular los parámetros que definen su distribución de probabilidad, por ejemplo, la media
µ y la desviación tı́pica σ para una distribución normal, o la probabilidad de éxito p para una distribución
binomial. Estas cantidades que definen la distribución de la población son los parámetros poblacionales.
El problema se concreta entonces en calcular, o estimar, los parámetros poblacionales. Para ello se toma
una muestra aleatoria de la población. Para caracterizar una muestra aleatoria de tamaño n vamos a definir
las variables aleatorias Xi , i = 1, 2, . . . , n, que representan las medidas o valores muestrales que se observen.
Ası́, en una muestra en particular, dichas variables aleatorias tomarán los valores numéricos xi , i = 1, 2, . . . , n.
Nótese que cada una de las variables aleatorias Xi seguirá la misma distribución de probabilidad f (x) de
la población. En el caso de un muestreo con reemplazamiento las diferentes Xi serán independientes entre
sı́ (el valor que tome una Xi particular no dependerá de los valores que se hayan obtenido anteriormente) y,
por tanto, la distribución de probabilidad conjunta podrá expresarse como
Para poder estimar los parámetros poblacionales se usan las medidas de las variables aleatorias Xi
que definen la muestra. Por ejemplo, como veremos más adelante, para estimar la media de una población
normal, se calcula la media aritmética de los diferentes valores xi que se observan en la muestra. Dicha media
aritmética es una función de las variables aleatorias Xi . En general, a cualquier función g(X1 , X2 , . . . , Xn )
de las variables aleatorias que constituyen una muestra aleatoria se le llama estadı́stico. Es importante
indicar que a cada parámetro poblacional le corresponderá un estadı́stico de la muestra, que constituirá una
estimación del primero. Por ejemplo, para estimar el parámetro poblacional media calcularemos el estadı́stico
muestral consistente en la media aritmética de los valores xi . Para distinguir valores de la población de los
valores medidos en la muestra, se denotarán por letras griegas (µ, σ, etc.) los parámetros poblacionales y
por letras romanas (X, S, etc.) los estadı́sticos de la muestra.
Al ser una función de variables aleatorias, una estadı́stico de la muestra se podrá considerar también como
una variable aleatoria, es decir, podrá obtener diferentes valores dependiendo de la muestra en particular que
se elija. Tendrá, por lo tanto, una distribución de probabilidad asociada. A ésta se le llama distribución
muestral del estadı́stico. Dicho de otra forma, consideremos todas las muestras posibles que se pueden
extraer de una población. Sin en cada una de estas muestras se midiese un estadı́stico, por ejemplo la media,
éste tomarı́a valores diferentes, que se distribuirı́an en una determinada distribución muestral. Puesto que los
estadı́sticos van a ser la base para la estimación de los parámetros poblacionales, es sumamente importante
estudiar sus distribuciones, para ası́ verificar su utilidad como estimadores. A continuación se estudian los
principales estadı́sticos y sus distribuciones muestrales.
El primer estadı́stico importante es la media muestral. Si tenemos una muestra aleatoria de tamaño n
representada por las variables aleatorias Xi , i = 1, 2, . . . , n, se define la media muestral, o media de la
muestra, como
X1 + X2 + . . . + Xn
X= . (9.2)
n
Evidentemente, cuando las variables aleatorias Xi tomen, en una muestra, los valores particulares xi , el
valor que tendrá la media muestral vendrá dado por
x1 + x2 + . . . + xn
x= .
n
Al ser una combinación lineal de variables aleatorias, la media muestral es asimismo una nueva variable
aleatoria y tendrá asociada una distribución de probabilidad. Es decir, consideremos una población de la que
se toman diferentes muestras de tamaño n, calculando para cada muestra la media x. Si tomamos k muestras
distintas, obtendremos k valores, en general diferentes, de medias muestrales x1 , x2 , . . . , xk . Si hacemos que
k tienda a infinito, los valores xi tendrán una distribución llamada distribución muestral de la media.
Vamos a calcular la media y la varianza de la distribución muestral de la media. Supongamos que tenemos
una población con una distribución de probabilidad f (x) caracterizada por los parámetros poblacionales
media µ y varianza σ 2 y que tomamos una muestra de tamaño n representada por las variables aleatorias
Xi , i = 1, 2, . . . , n. Puesto que cada Xi sigue la misma distribución de probabilidad f (x) de la población, con
media µ, la media, o esperanza matemática, de cada Xi será
E(Xi ) = µXi = µ.
⇒ µX = E(X) = µ. (9.3)
Es decir, el valor esperado de la media muestral es la media de la población. Este resultado es sumamente
importante.
De forma similar se puede calcular la varianza de la distribución muestral de la media. Puesto que la
varianza de cada Xi coincide con la varianza de la población σ 2
2
Var(Xi ) = σX i
= σ2 ,
podemos calcular la varianza de la distribución de la media utilizando la expresión para la varianza de una
combinación lineal de variables aleatorias. Para ello vamos a suponer que el muestreo es con reemplazamiento
o, equivalentemente, que la población es infinita. En este caso, las diferentes Xi son independientes y podemos
2
hacer el siguiente desarrollo (Recuérdese que para variables aleatorias independientes se cumple σaX+bY =
a2 σX
2
+ b2 σY2 ) 6 7
X1 + X2 + . . . + Xn
Var(X) = Var =
n
6 7
1 1 1 1 2
= Var(X1 ) + 2 Var(X2 ) + . . . + 2 Var(Xn ) = n σ
n2 n n n2
2
3 4 σ2
⇒ σX = E (X − µ)2 = Var(X) = . (9.4)
n
Es decir, la desviación tı́pica de la distribución de medias será la de la población original, dividido por un
√
factor n que depende del tamaño de la muestra.
Ejemplo III–1 Consideremos una caja con tarjetas, cada una con un número. Suponemos que la población tiene µ = 10
y σ = 4. Extraemos muestras de tamaño n = 9 (con reemplazamiento):
Tras una serie de 10 muestras obtenemos X =9.9, 9.3, 9.9, 10.9, 9.6, 9.2, 10.2, 11.5, 9.0 y 11.8. Comprobamos
que el valor medio de X es 10.13, y su desviación tı́pica 0.97. Aplicando las fórmulas se obtiene
σ 4
σX = √ = √ = 1.3333.
n 9
La expresión anterior es válida solo para el caso de población infinita o muestreo con reemplazamiento.
Si tenemos una población finita en que se hace muestreo sin reemplazamiento, la expresión para la media de
la distribución sigue siendo válida, pero la de la varianza hay que substituirla por
6 7
2 σ2 N −n
σX = Var(X) = , (9.5)
n N −1
X −µ
Z= √ (9.6)
σ/ n
era asintóticamente normal. Por la definición de media muestral (9.2) podemos hacer Y = nX, y por tanto,
puesto que todas las Xi tienen la misma media µ y desviación tı́pica σ de la población, Z se convierte en
nX − nµ X −µ
Z= √ = √ ,
nσ 2 σ/ n
como querı́amos demostrar. En resumen, X es asintóticamente normal, sea cual sea la forma de la distribución
de la población de partida. Evidentemente, cuanto mayor sea el tamaño de la muestra, más se aproximará la
distribución de X a la normal. En la práctica, la aproximación de distribución normal se utiliza cuando
n ≥ 30, y la bondad de ésta dependerá de la forma más o menos simétrica de la distribución de la población
muestreada.
Un caso particular muy importante es cuando la distribución de la población de partida es normal. En
este caso, no es necesario que el tamaño de la muestra sea grande para que la distribución muestral de X
sea normal y podemos establecer que:
Si la población de la cual se toman muestras está distribuida normalmente con media µ y varianza σ 2 ,
entonces la media muestral sigue una distribución normal con media µ y varianza σ 2 /n, con independencia
del tamaño de la muestra.
Esto es también consecuencia del teorema del lı́mite central. Una combinación lineal, como X, de variables
aleatorias normales será también normal.
Para derivar estos últimos resultados hemos supuesto que la población era infinita o el muestreo con
reemplazamiento (para que las diferentes Xi fuesen independientes). Si esto no se cumpliese y tuviésemos un
√
muestreo sin reemplazamiento de una población finita, en (9.6) habrı́a que substituir σ/ n por la expresión
dada en (9.5).
Supongamos que tenemos una población sobre la que se experimenta un proceso de Bernoulli. Es decir,
se llevan a cabo n ensayos y el resultado de cada uno de ellos es un éxito o un fracaso. Llamemos p a
la probabilidad de éxito en cada ensayo y q (= 1 − p) a la probabilidad de fracaso. Cada n ensayos se
pueden considerar como una muestra de tamaño n. Para cada muestra vamos a definir el estadı́stico P
como la proporción de éxitos, o número de éxitos dividido por el número de ensayos. Nótese que P puede
considerarse como la media muestral de una variable de Bernoulli (o variable binomial con un único ensayo).
P seguirá una distribución de probabilidad, llamada distribución muestral de una proporción, que es,
entonces, un caso particular de la distribución muestral de una media.
Para calcular los parámetros poblacionales de esta distribución recordemos que la media y varianza de
una variable de Bernoulli vienen dadas por
µ=p ; σ 2 = pq.
Entonces, la media y varianza de la distribución de una proporción las podemos calcular aplicando (9.3)
y (9.4) como
µP = E(P ) = µ = p, (9.7)
σ2 pq p(1 − p)
σP2 = Var(P ) = = = . (9.8)
n n n
Al igual que antes, en el caso de un muestreo sin reemplazamiento de una muestra finita, la segunda
ecuación hay que substituirla por
6 7 6 7
σ2 N −n pq N −n
σP2 = = . (9.9)
n N −1 n N −1
Al ser un caso particular de la distribución muestral de la media, la distribución muestral de una pro-
porción puede aproximarse por una distribución normal para valores grandes del número de ensayos n. En
la práctica esta aproximación se hace para n ≥ 30.
Ejemplo III–2 Un jugador de baloncesto tiene un promedio de acierto en tiros libres del 80 %. Si tira tandas de 100 tiros
libres y se calcula el promedio de aciertos, o la probabilidad de éxitos, la distribución tendrá una media
µP = p = 0.80, y una desviación tı́pica
% %
p(1 − p) 0.80 × 0.20
σP = = = 0.04.
n 100
σ12 σ2
2
σX 2
= σX 2
+ σX = + 2. (9.11)
1 −X2 1 2 n1 n2
Este último resultado solo será válido para poblaciones infinitas o en muestreos con reemplazamiento. En
otro caso deberı́amos usar la expresión (9.5) para llegar a una expresión equivalente.
Por otra parte, respecto a la forma de la distribución, por el teorema del lı́mite central la variable tipificada
definida por
(X1 − X2 ) − (µ1 − µ2 )
Z= # 2 (9.12)
σ1 σ22
n1 + n2
tenderá a la distribución normal estándar cuando tanto n1 como n2 tiendan a infinito. En la práctica se suele
aplicar la aproximación normal si n1 + n2 > 30 (y n1 $ n2 ). Aún cuando n1 y n2 sean menores de 30, la
aproximación normal puede ser razonablemente buena si las distribuciones originales no son muy asimétricas.
Por supuesto, si ambas poblaciones fuesen normales, entonces X1 − X2 tiene una distribución normal sin
importar los tamaños de las muestras.
Ejemplo III–3 Se tienen dos poblaciones normales N (20, 5) y N (10, 6) y se extraen dos muestras de tamaños n1 = 25 y
n2 = 12. ¿Cuál será la distribución muestral de la diferencia de medias?
Ejemplo III–3 (Continuación) ¿Cuál será la probabilidad de obtener una diferencia de medias X1 − X2 > 14?
Para responder, utilizamos la distribución normal tipificada
(X1 − X2 ) − (µ1 − µ2 ) 14 − 10
Z= # = = 2,
2
σ1 2
σ2 2
n1
+ n2
De forma similar se puede deducir la distribución muestral de la diferencia de proporciones para dos
poblaciones con distribuciones de Bernoulli y parámetros p1 , q1 y p2 , q2 respectivamente. En este caso, el
estadı́stico diferencia de proporciones de éxitos (P1 − P2 ) de muestras tomadas de cada población sigue una
distribución con media y varianza dadas por
p1 q 1 p2 q 2
σP2 = σP2 + σP2 = + .
1 −P2 1 2 n1 n2
Al igual que la media muestral, la varianza muestral es una variable aleatoria. Es decir, los valores que
toma dependen de la muestra en particular que se tenga. Tiene por tanto una distribución de probabilidad
asociada, llamada distribución muestral de la varianza. Para la media muestral vimos que la media,
o esperanza matemática, de su distribución coincidı́a con la media poblacional. Para la varianza muestral
sucede lo mismo: El valor esperado de la varianza muestral es la varianza poblacional, es decir
E(S 2 ) = µS 2 = σ 2 . (9.14)
n
! n
! n n
3 42 ! !
(Xi − X)2 = (Xi − µ) − (X − µ) = (Xi − µ)2 − 2(X − µ) (Xi − µ) + n(X − µ)2 .
i=1 i=1 i=1 i=1
" "
Ahora en el segundo término aplicamos: (Xi − µ) = Xi − nµ = n(X − µ), resultando
n
! n
!
(Xi − X)2 = (Xi − µ)2 − n(X − µ)2 . (9.15)
i=1 i=1
3 4
Aplicando la definición de varianza de una variable aleatoria (E (X − µ)2 = σ 2 ), que la varianza de Xi es
2
la varianza poblacional (σX i
= σ 2 ), y que la varianza de la media muestral es, por (9.4), σX
2
= σ 2 /n
( n
) 6 7
21 !
2 2 1 2 σ2 1
E(S ) = σX − nσX = nσ − n = (n − 1)σ 2 = σ 2 ,
n−1 i=1
i
n−1 n n−1
hubiésemos obtenido
2 n−1 2
E(S " ) = σ ,
n
y la varianza muestral hubiese subestimado la varianza poblacional. Este es el motivo por el que estamos
trabajando con la definición (9.13) para la varianza. Como veremos más adelante, se dice que S 2 es un
2
estimador insesgado de la varianza, mientras que S " es un estimador sesgado. Evidentemente, cuando el
tamaño n de la muestra sea grande apenas habrá diferencia de usar una definición u otra para la varianza
muestral.
Los resultados anteriores son válidos si la población es infinita o el muestreo es con reemplazamiento.
En el caso de tener un muestreo sin reemplazamiento de una población finita de tamaño N , la esperanza
matemática de la varianza muestral estarı́a dada por
6 7
N
E(S 2 ) = µS 2 = σ2 . (9.17)
N −1
En vez de trabajar con la distribución muestral de la varianza S 2 , es más cómodo utilizar la distribución
muestral de la nueva variable aleatoria en el muestreo dada por
"n
S2 i=1 (Xi − X)2
(n − 1) 2 = , (9.18)
σ σ2
n
! n
!
(Xi − µ)2 = (Xi − X)2 + n(X − µ)2 . (9.19)
i=1 i=1
Esta expresión tiene un importante significado pues descompone la variabilidad de los datos respecto a
la media verdadera (o poblacional) en la suma de dos variabilidades: la de los datos respecto a la media
muestral, y la de la media muestral respecto a la poblacional. Si en esta expresión dividimos en todos los
miembros por σ 2 , y se aplica la igualdad (9.18) se obtiene
n 6 72 6 72
! Xi − µ (n − 1)S 2 X −µ
= + √ . (9.20)
i=1
σ σ2 σ/ n
Recordemos ahora que se definı́a una variable χ2 con n grados de libertad como la suma de los cuadrados
de n variables aleatorias normales Xi tipificadas (N (0, 1)), es decir χ2n = X12 + . . . + Xn2 . El primer término
de (9.20) es la suma de cuadrados de n variables aleatorias N (0, 1) (pues la media y desviación tı́pica de
cada Xi es µ y σ respectivamente) y, por lo tanto, es una χ2 con n grados de libertad. Por otra parte,
puesto que la media y desviación tı́pica de la distribución muestral de la media X son respectivamente µ,
√
por (9.3), y σ/ n, por (9.4), el último termino del segundo miembro es el cuadrado de una variable normal
tipificada y, por tanto, puede considerarse como una χ2 con 1 grado de libertad. Es decir, tenemos que una
χ2 con n grados de libertad es igual a la variable (n − 1)S 2 /σ 2 más una χ2 con 1 grado de libertad. Por las
propiedades de la distribución χ2 puede deducirse entonces que (n − 1)S 2 /σ 2 es una χ2 con (n − 1) grados
de libertad. Estrictamente, para que esto se cumpla es necesario que el primer y último término de (9.20)
sean independientes entre si. Aunque queda fuera del alcance de este libro, se puede demostrar que dicha
condición se cumple. En resumen:
Si de una población con distribución normal y parámetros µ, σ, se toman muestras aleatorias de tamaño
n, entonces la siguiente variable aleatoria obedece a una distribución χ2 con (n − 1) grados de libertad
S2
χ2n−1 = (n − 1) . (9.21)
σ2
Más adelante se verá cómo esta última propiedad es de importancia para la estimación de la varianza de una
población normal.
" "
Nótese que mientras que (Xi − µ)2 /σ 2 era una χ2 con n grados de libertad, la variable (Xi − X)2 /σ 2
es una χ2 con (n − 1) grados de libertad. Es debido a que, al no conocer µ y estimarla a partir de X,
se pierde un grado de libertad pues esta media muestral se calcula a partir de los diferentes Xi . De esta
forma, en general, cuando se quiere calcular un parámetro poblacional (ej. σ) y no se conoce el otro (ej. µ)
la substitución de éste último por su parámetro muestral (ej. X) hace que el sistema pierda un grado de
libertad. Lo mismo ocurrirá en los dos siguientes apartados.
Ejemplo III–4 Un vendedor asegura que la pintura anticorrosiva de un automóvil dura 10 años, con una desviación tı́pica
de 3 años. Se pintan 6 coches y la pintura dura 12, 17, 3, 9, 5 y 13 años. ¿Podemos creer al vendedor
cuando afirma que σ = 3?
Obtenemos la media muestral X = 9.83 (que lógicamente debe ser próxima a µ). Calculamos ahora la
varianza muestral "6
(Xi − X)2
S2 = i=1
= 27.4
n−1
y por tanto
S2
χ2n−1 = (n − 1) = 15.22,
σ2
que está muy lejos de lo esperado (recordemos que una distribución χ2n−1 tiene µ = (n − 1) = 5 y
σ 2 = 2(n − 1) = 10).
9.3.3. El estadı́stico t
Al estudiar la distribución muestral de la media se vió que la variable aleatoria tipificada dada por
X −µ
Z= √
σ/ n
seguı́a una distribución normal si la población era normal, o tendı́a asintóticamente a la normal en otro caso.
Como veremos, esta expresión se usa para estimar la media µ de la población. Sin embargo, en la mayorı́a
de los casos no se conoce a priori la varianza σ 2 de la población. En ese caso, lo mejor que se puede hacer es
reemplazar dicha varianza σ 2 por el valor de la varianza muestral S 2 , definiéndose ası́ el estadı́stico
X −µ
t= √ . (9.22)
S/ n
Este nuevo estadı́stico t toma valores diferentes de muestra a muestra. Si la muestras son pequeñas, los
valores de S pueden fluctuar considerablemente de una a otra y la distribución de la variable aleatoria t
puede desviarse apreciablemente de la distribución normal.
Este resultado, que se usa para la estimación de la media de una población, sigue siendo válido aún
cuando la población no sea normal pero tenga una distribución en forma de campana similar a la normal.
Ejemplo III–5 Retomando el caso del ejemplo III–1 (µ = 10, σ = 4), supongamos que no conocemos la desviación tı́pica
σ. Calculemos el valor del estadı́stico t.
Datos de la primera muestra (n = 9): 4, 13, 8, 12, 8, 15, 14, 7, 8 ⇒ X = 9.9.
"
(Xi − X)2
S2 = i
⇒ S = 3.72
n−1
X −µ 9.9 − 10
t= √ = √ = −0.08,
S/ n 3.72/ 9
que resulta un valor muy centrado.
S12 S22
χ2n1 −1 = (n1 − 1) ; χ2n2 −1 = (n2 − 1) .
σ12 σ22
χ2n1 −1 /(n1 − 1)
F = ,
χ2n2 −1 /(n2 − 1)
y esto es la definición de una variable F de Fisher con (n1 − 1) y (n2 − 1) grados de libertad (pues se define
χ2n /n1
Fn1 ,n2 = χ2n2 /n2 ).
1
Es decir, si se extraen dos muestras aleatorias independientes de tamaños n1 y n2 de dos
poblaciones normales con varianzas σ12 y σ22 respectivamente, y si las varianzas muestrales para cada muestra
están dadas por S12 y S22 , entonces el estadı́stico F , definido en (9.23), tiene una distribución F con (n1 − 1)
y (n2 − 1) grados de libertad.
Este resultado sigue siendo válido aunque las poblaciones no sean normales pero su distribución tenga
forma de campana.
El objetivo de este tema es describir cómo se puede realizar la estimación de las caracterı́sticas de una
población a partir del estudio de una muestra aleatoria extraı́da de la misma. Vamos a suponer que se
conoce la distribución de probabilidad que sigue la variable en estudio de la población, es decir, estamos en
el caso de la estadı́stica paramétrica. El problema se reduce entonces a estimar los valores de los parámetros
poblacionales que definen dicha distribución. Sea α el parámetro poblacional a estimar. Supongamos que
los posibles valores de la variable aleatoria en la muestra se representan por X1 , X2 , . . . , Xn . El problema
se resuelve definiendo una función A = A(X1 , X2 , . . . , Xn ) de las medidas realizadas en la muestra tal que
A constituya una estimación razonable del parámetro poblacional α. Evidentemente, para una muestra en
particular A tomará un valor a = a(x1 , x2 , . . . , xn ) que variará de muestra a muestra. Es decir, al ser una
función de variables aleatorias, A será asimismo una variable aleatoria, o un estadı́stico, con una distribución
de probabilidad asociada. Al estadı́stico que sirve para realizar una estimación de un parámetro poblacional
se le llama estimador. Por ejemplo, para estimar la media µ de una población normal se define el estimador
X que tomará los valores particulares representados por x.
Evidentemente queremos disponer de un buen estimador, en el sentido de que proporcione una estimación
lo más precisa posible del parámetro poblacional. En general, la bondad de cada estimador dependerá de
su distribución de probabilidad asociada. Por ejemplo, será conveniente que los diferentes valores que puede
tomar el estimador para muestras de la misma población se distribuyan alrededor del valor del parámetro
poblacional con una pequeña dispersión. En general, para cada parámetro poblacional se podrán definir varios
estimadores, cada uno con sus caracterı́sticas. Será importante elegir, de entre todos los estimadores posibles,
el estimador óptimo para cada parámetro poblacional. Las propiedades que definen un buen estimador son
las siguientes:
E(A) = µA = α. (10.1)
Por ejemplo, la media aritmética X es un estimador insesgado de la media de una población (9.3)
117
118 Estimación puntual de parámetros
2
y S 2 es un estimador insesgado de la varianza (9.14). Sin embargo, S " , definida como (9.16), es un
estimador sesgado.
Si se tienen dos estimadores A1 , A2 de un parámetro poblacional, se dice que A1 es más eficiente que
A2 si su varianza es menor. Es decir
2 2
σA 1
< σA 2
. (10.2)
Por ejemplo, para la estimación de la media poblacional, los estimadores media aritmética X y mediana
Me son insesgados, pero la media es más eficiente que la mediana (su varianza es menor). Evidentemen-
te, entre dos estimadores insesgados siempre será preferible usar el más eficiente. Incluso en algunos
casos será mejor usar un estimador algo sesgado pero más eficiente que otro insesgado.
Se dice que un estimador es consistente cuando, al crecer el tamaño muestral, se aproxima asintóti-
camente al valor del parámetro poblacional y su varianza se hace nula. Es decir
2
lı́m A = α ; lı́m σA = 0. (10.3)
n→∞ n→∞
Un estimador ideal ha de ser insesgado y con una eficacia máxima. Sin embargo, en la práctica, a veces no
es posible calcular dichos estimadores, y, por la comodidad con que se obtienen, se trabaja con estimadores
sesgados o poco eficientes. De todas formas, un requisito mı́nimo que ha de cumplir cualquier estimador es
que sea consistente.
Existen dos procedimientos para realizar la estimación de un parámetro poblacional. Cuando se determina
un único valor de un estimador que se aproxime al parámetro poblacional desconocido se dice que se hace una
estimación puntual. Cuando, alternativamente, se calculan dos valores entre los cuales se considera que,
con cierta probabilidad, se encuentra el parámetro poblacional, el procedimiento se conoce como estimación
por intervalos de confianza. En este tema veremos la estimación puntual y en el siguiente la estimación
por intervalos.
Un estimador puntual de un parámetro poblacional es una función real de los n valores que la variable
estadı́stica toma en el muestreo. Es decir, es un estadı́stico (variable aleatoria) que cambia de muestra a
muestra de forma aleatoria. Una estimación puntual es el valor concreto que toma el estimador puntual
en una muestra en particular. Como ya se ha indicado, los estimadores puntuales se usan para realizar la
estimación de parámetros poblacionales. En general, a cada parámetro poblacional se le pueden asociar dife-
rentes estimadores puntuales aunque normalmente se elegirán aquellos que sean insesgados y más eficientes.
Evidentemente, no se espera que un estimador puntual proporcione sin error el parámetro poblacional, sino
que se pretende que las estimaciones puntuales no se alejen mucho del valor desconocido a calcular.
A continuación se dan los estimadores puntuales más usados asociados a las principales distribuciones de
probabilidad que puede seguir la población a estudiar:
Supongamos que la caracterı́stica en estudio de la población sigue una distribución normal con
media µ y varianza σ 2 , es decir es N (µ, σ). Como estimadores puntuales de los parámetros poblaciones
Además, puede demostrarse que ambos estimadores puntuales tienen una eficiencia máxima, es decir
son de varianza mı́nima comparados con otros estimadores de los mismos parámetros poblacionales.
Consideremos ahora una población cuya caracterı́stica en estudio siga una distribución de Pois-
son. Sea λ, o número medio de sucesos por intervalo, el parámetro poblacional a determinar. Sean
X1 , X2 , . . . , Xn los números de resultados obtenidos en n experimentos (muestra de tamaño n). En-
tonces, un estimador puntual para λ es la media muestral, definida como
"n
i=1 Xi
λ= . (10.6)
n
Este estimador es insesgado, es decir E(λ) = λ, y además tiene varianza mı́nima (es el más eficiente).
En la seccion anterior se ha visto como, con frecuencia, los estimadores puntuales mejores coinciden con
los que se elegirı́an intuitivamente. Por ejemplo, es lógico que la media muestral X sea un estimador apropiado
para la media poblacional µ. Sin embargo, en ocasiones, no es del todo obvio cual ha de ser el mejor estimador.
Para ello, se presenta a continuación un metodo general muy potente para hallar estimadores puntuales. Se
trata del método de la máxima verosimilitud.
Para ilustrar el método supongamos que la distribución de probabilidad de la población, caracterizada
por una variable aleatoria X, contiene un único parámetro α a determinar. Sea f (x, α) la función de pro-
babilidad, en el caso discreto, o función de densidad, en el caso continuo, de dicha variable aleatoria. Si de
esta población se extrae una muestra de tamaño n representada por los valores X1 , X2 , . . . , Xn , podemos
expresar la distribución de probabilidad conjunta (9.1) por
donde hemos supuesto que las diferentes Xi son independientes (población infinita o muestreo con reempla-
zamiento). A esta función L se le llama función de verosimilitud y variará de muestra a muestra y con
el parámetro α. Evidentemente, la función de verosimilitud para una muestra discreta en particular, da la
probabilidad de que las variables tomen unos determinados valores. Se define entonces el estimador puntual
de máxima verosimilitud como el valor de α que hace máxima dicha función de verosimilitud L. Es decir,
es el parámetro α para el cual la probabilidad de haber obtenido la muestra en particular que se tiene es
máxima.
Ejemplo III–6 Supongamos que se hace un experimento de Bernoulli (por ejemplo en el control de calidad de 3 artı́culos
para ver sin son defectuosos) y encontramos dos éxitos y un fracaso. Queremos estimar el parámetro p
(probabilidad de éxito) de la distribución binomial. Si consideramos X = 1 como éxito y X = 0 como
fracaso, la función de verosimilitud podrá calcularse como
Como buscamos el máximo de esta función, tomamos derivadas e igualamos a cero, es decir
dL
= 2p − 3p2 = 0 ⇒ (2 − 3p)p = 0,
dp
cuyas soluciones son p = 0 (no nos vale) y p = 2/3. Ası́ que p = 2/3 es la estimación de máxima
verosimilitud de p y coincide, además, con lo que se esperarı́a de forma natural como probabilidad de éxito
(número de éxitos dividido por el número de ensayos).
Por razones prácticas, se suele trabajar con el logarı́tmo neperiano de la función de verosimilitud. De esta
forma para encontrar el valor de α que lo hace máximo se iguala la siguiente derivada a cero
d ln L 1 dL
= = 0, (10.8)
dα L dα
y se resuelve esta ecuación para encontrar α. En el caso de que la distribución de probabilidad tenga más
de un parámetro poblacional, se hacen las derivadas parciales respecto a cada parámetro y se resuelve el
sistema de ecuaciones.
Como ejemplo del método a continuación se derivan los estimadores de máxima verosimilitud para las
principales distribuciones:
Supongamos que la población sigue una distribución binomial, consistiendo la muestra en n ensayos
en los que, en cada uno, se obtiene un éxito, que representaremos por X = 1, o un fracaso, X = 0. La
función de probabilidad para un único ensayo vendrá dada por
2
x 1−x 1−p ; x=0
f (x, p) = p (1 − p) =
p ; x=1
ln L = f ln p + (n − f ) ln (1 − p).
d ln L f n−f
= − = 0.
dp p 1−p
Despejando p
f
p(n − f ) = f − f p ⇒ p(n − f + f ) = f ⇒ p= .
n
Por lo tanto, el estimador de máxima verosimilitud del parámetro p es la frecuencia relativa de éxitos,
como cabrı́a esperar.
Supongamos ahora que se tiene una distribución normal con parámetros µ y σ, es decir N (µ, σ), de la
que se extrae una muestra de tamaño n. La función de verosimilitud será en este caso
n
E 1 (xi −µ)2
L= √ e− 2σ2 ,
i=1
σ 2π
n 6 7
! √ (xi − µ)2
ln L = − ln 2π − ln σ − =
i=1
2σ 2
n n 1 !
=− ln 2π − ln σ 2 − 2 (xi − µ)2 .
2 2 2σ
A continuación se hacen las derivadas parciales respecto a los dos parámetros poblacionales para
calcular sus estimadores
∂ ln L 1 !
= − 22 (xi − µ) = 0 ⇒
∂µ 2σ
"n
! !
i=1 xi
(xi − µ) = 0 ⇒ xi − nµ = 0 ⇒ µ= .
n
Por lo tanto, el estimador de máxima verosimilitud para µ coincide con la media muestra, es decir, con
el estimador puntual usado hasta ahora.
Similarmente, para la varianza
∂ ln L n 1 1 !
= − + (xi − µ)2 = 0.
∂σ 2 2 σ2 2σ 4
Multiplicando por 2σ 4
"n
2
!
2 2 i=1 (xi − µ)2
nσ = (xi − µ) ⇒ σ = .
n
n n
d ln L 1! !
= xi − n = 0 ⇒ xi = λ n
dλ λ
i=1 i=1
"n
i=1
xi
⇒λ= , que es el número promedio de eventos/intervalo.
n
“No puedo juzgar mi trabajo mientras lo hago. He de hacer como los pinto-
res, alejarme y mirarlo desde cierta distancia, aunque no demasiada. ¿Cuánta?
Adivı́nelo.”
Generalmente, una estimación puntual no proporciona un valor exacto del parámetro poblacional a
determinar. Es más, en la mayorı́a de los casos, no tendremos información sobre la precisión de tal estimación,
de forma que su valor único no nos informa sobre la probabilidad de que se encuentre cerca o lejos del
valor verdadero. En la práctica, interesa no solamente dar una estimación, sino precisar la incertidumbre
de dicha estimación. Esto se consigue mediante la estimación por intervalos de confianza, en la cual
se calcula un intervalo sobre el que podamos establecer que, con cierta probabilidad, está contenido el
parámetro poblacional desconocido. De esta manera, en vez de calcular un único estimador, se determinan
dos estimadores que serán los lı́mites inferior (L1 ) y superior (L2 ) (o lı́mites de confianza) de un intervalo
de confianza I = [L1 , L2 ]. A esta pareja de valores se le llama estimador por intervalo. Estos lı́mites de
confianza serán estadı́sticos que variarán de muestra a muestra, de forma que podrá considerarse al intervalo
como una variable aleatoria bidimensional. Efectivamente, los lı́mites del intervalo serán función de los valores
que toma la variable aleatoria en el muestreo
L1 = f1 (X1 , X2 , . . . , Xn ) ; L2 = f2 (X1 , X2 , . . . , Xn ).
Al valor concreto que toma el intervalo aleatorio en una muestra en particular se le llama estimación
por intervalo. Al ser el estimador por intervalo una variable aleatoria, podrá decirse que existe una cierta
probabilidad de que el intervalo aleatorio cubra el verdadero valor del parámetro poblacional β. Es decir
donde, por definición, a 1−α se le llama nivel de confianza y al intervalo [L1 , L2 ] se le denomina intervalo
de confianza del (1 − α)100 %.
Nótese que, una vez tomada una muestra en particular, no tiene sentido decir que β estará dentro del
intervalo con una cierta probabilidad, puesto que estará o no estará. La forma correcta de expresar esto es
diciendo que 1 − α es la probabilidad de seleccionar una muestra concreta que conduzca a un intervalo que
contenga al parámetro poblacional. En otras palabras, el 100(1 − α) % de los intervalos correspondientes a
todas las muestras posibles del mismo tamaño contienen a β y el 100α % no lo contienen.
Evidentemente, al aumentar el tamaño de la muestra ha de aumentar la precisión con que se conoce el
parámetro poblacional, y por lo tanto, para un nivel de confianza fijo, el intervalo de confianza ha de hacerse
123
124 Estimación por intervalos de confianza
más pequeño. Es decir, la longitud del intervalo de confianza indica la precisión de la estimación.
Para ilustrar los conceptos anteriores, supongamos que para realizar la estimación por intervalos de
confianza de un parámetro poblacional se calcula un estadı́stico B. Este estadı́stico tendrá un distribución
muestral asociada, con media µB y desviación tı́pica σB . Supongamos que la distribución muestral de B
es aproximadamente normal (sabemos que esto es una buena aproximación si la muestra es suficientemen-
te grande). En este caso, usando las propiedades de la curva normal, podemos establecer las siguientes
probabilidades
P (µB − σB < B < µB + σB ) = 0.6827
En general, para un nivel de confianza 1 − α habrá que buscar las abscisas zα/2 de la distribución normal
tipificada N (0, 1) que dejan a su derecha un área igual a α/2, expresándose entonces el intervalo de confianza
del (1 − α)100 % como
P (B − zα/2 σB < µB < B + zα/2 σB ) = 1 − α. (11.2)
La expresión anterior es sumamente útil para calcular intervalos de confianza usando estadı́sticos con dis-
tribuciones muestrales normales. Lo único que habrá que hacer será substituir B por el estadı́stico insesgado
correspondiente y µB y σB por la media y desviación tı́pica de la distribución muestral.
En el caso de que la distribución muestral del estadı́stico no sea normal, se pueden hacer las modificaciones
correspondientes. Ası́ si B siguiera una distribución t de Student con n grados de libertad, el intervalo vendrı́a
dado por
P (B − tα/2,n σB < µB < B + tα/2,n σB ) = 1 − α, (11.3)
donde tα/2,n representa el valor de la abscisa de la distribución t con n grados de libertad que deja a su
derecha un área igual a α/2. Ası́ mismo, se pueden encontrar las expresiones correspondientes para las
distribuciones χ2 y F , introduciendo las abscisas χ2α/2,n y Fα/2;n1 ,n2 .
Supongamos en primer lugar que la población en estudio sigue una distribución normal N (µ, σ) y que
como estimador puntual de la media poblacional µ se usa la media muestral X. Distinguiremos tres casos
principales:
Ya se ha visto que si la población es normal, la media muestral sigue una distribución normal con
2
media µX = µ (9.3) y varianza σX = σ 2 /n (9.4). Entonces, aplicando (11.2), el intervalo de confianza
del (1 − α)100 % para la media puede expresarse como
Nótese que muestras diferentes darán lugar a valores diferentes de X y, por lo tanto, a intervalos
diferentes. Sin embargo, la longitud de los intervalos será siempre la misma y dependerá únicamente
(para muestras de igual tamaño) del nivel de confianza 1 − α que se haya fijado (a menor α mayor
anchura del intervalo). Evidentemente, no todos los intervalos que se construyan de diferentes muestras
contendrán al parámetro µ, aunque sabemos que esto se cumplirá para el 100(1 − α) % de los intervalos
posibles.
Ejemplo III–8 Retornando al ejemplo III–1, calculemos el intervalo de confianza para la media (σ = 4 es conocida) de
las dos primeras muestras (usar nivel de confianza 0.95).
1 − α = 0.95 ⇒ α = 0.05
De cada 100 muestras, en el 95 % de ellas el intervalo de confianza ası́ calculado incluirá al valor real.
X −µ
T = √
S/ n
sigue una distribución t de Student con n − 1 grados de libertad. Por lo tanto, al ser la distribución t
también simétrica, se puede expresar que
6 7
X −µ
P −tα/2,n−1 < √ < tα/2,n−1 = 1 − α.
S/ n
De manera que el intervalo de confianza de nivel (1 − α) para la media de una distribución normal de
varianza desconocida y muestra pequeña es
? @
S
I = X ± tα/2,n−1 √ , (11.10)
n
donde tα/2,n−1 es la abscisa de la distribución t que deja a su derecha un área igual a α/2. Esta
expresión será además exacta y podrá utilizarse para calcular el intervalo de confianza para muestras
grandes (n > 30). Sin embargo, por las propiedades de la distribución t, esta distribución tiende a la
normal al aumentar los grados de libertad, por lo que la expresión (11.8) es suficientemente buena si
n es grande.
Ejemplo III–9 Calcular los intervalos de confianza para la media en el ejemplo anterior suponiendo que la varianza es
desconocida.
Para calcular los intervalos de confianza para la media anteriores se ha supuesto que la población de
partida sigue una distribución normal. Sin embargo, en virtud del teorema del lı́mite central y según se
vió en (9.6), la distribución muestral de la media tiende asintóticamente a la normal cualquiera que sea la
población de partida. Esto quiere decir que, para muestras grandes de cualquier población, el intervalo de
confianza para la media es aproximadamente
? @
S
I = X ± zα/2 √ , (11.11)
n
Supongamos que la población sigue una distribución binomial con parámetro desconocido p. Ya se ha
visto como la proporción de éxitos P (número de éxitos dividido por el número de ensayos) constituye
un buen estimador de p. Además la distribución muestral del estadı́stico P puede aproximarse a la dis-
tribución normal cuando la muestra (o número de ensayos) es grande. En (9.7) y (9.8) se demostró que
la media y varianza de la distribución muestral de una proporción son respectivamente µP = p y
σP2 = p(1 − p)/n. Entonces, aproximando la distribución por una normal y aplicando (11.2), donde el
estadı́stico es P , se obtiene
$ $
P (1 − P ) P (1 − P )
P P − zα/2 < p < P + zα/2 = 1 − α. (11.12)
n n
Es decir, para una muestra grande, el intervalo de confianza de nivel (1 − α) para el parámetro p de
una distribución binomial es $
P (1 − P )
I = P ± zα/2 . (11.13)
n
Nótese que en la varianza muestral se ha substituido p por P , lo cual es una buena aproximación si
la muestra es grande. Para muestras pequeñas (n < 30) la aproximación realizada de substituir la
binomial por una normal es posible que no sea buena, especialmente si p se acerca a 0 ó a 1. Como ya
se explicó, cuando se cumpla que conjuntamente np > 5 y n(1 − p) > 5, la aproximación anterior es
válida incluso para muestras pequeñas.
Ejemplo III–10 Un jugador de baloncesto lanza 100 tiros libres y anota 85. Calcular el intervalo de confianza para la
proporción de aciertos.
Como n = 100 es claramente mayor que 30, podemos aproximar por la distribución normal. La proporción
de éxitos será entonces P = 85/100 = 0.85. Usando un nivel de confianza 1 − α = 0.95,
A % B A % B
P (1 − P ) 0.85 × 0.15
I = P ± zα/2 = 0.85 ± 1.96 = [0.85 ± 0.07] ,
n 100
Consideremos ahora que la población sigue una distribución de Poisson con parámetro λ. Ya se ha
visto como un estimador puntual de dicho parámetro poblacional es la media muestral λ, definida en
(10.6). Para calcular el intervalo de confianza vamos a suponer que la muestra es grande, por lo que
se puede aproximar la distribución por una normal. Igualando la media y la desviación tı́pica muestral
√
respectivamente a X = λ y S = λ (por las propiedades de la distribución de Poison), y aplicando
(11.2), se puede escribir
$ $
λ λ
P λ − zα/2 < λ < λ + zα/2 = 1 − α. (11.14)
n n
Es decir, para una muestra grande, el intervalo de confianza de nivel (1 − α) para el parámetro λ de
una distribución de Poisson es $
λ
I = λ ± zα/2 . (11.15)
n
Supongamos que se tienen dos poblaciones normales N (µ1 , σ1 ) y N (µ2 , σ2 ). Vamos a estudiar cómo
se puede determinar un intervalo de confianza para la diferencia de medias µ1 − µ2 a partir de muestras
aleatorias independientes de tamaños n1 y n2 extraı́das de cada población respectivamente. Distinguiremos
diferentes casos
Ya se ha visto que un buen estimador puntual para la diferencia de medias es la diferencia de medias
muestrales X1 − X2 . Además se cumple que la distribución muestral de la diferencia de medias es
2
normal con media µX1 −X2 = µ1 − µ2 (9.10) y varianza σX = σ12 /n1 + σ22 /n2 (9.11). Por tanto,
1 −X2
= 1 − α. (11.16)
Ejemplo III–11 Volviendo a utilizar los datos del ejemplo III–1, determinar el intervalo de confianza para la diferencia de
medias de las dos primeras muestras. Suponer la varianza poblacional conocida.
X 1 = 9.9 n1 = 9 σ1 = 4
X 1 = 9.3 n2 = 9 σ2 = 4
A % B
σ12 σ2
I = (X1 − X2 ) ± zα/2 + 2 =
n1 n2
A % B
16 16
= (9.9 − 9.3) ± 1.96 + = [0.6 ± 3.7]
9 9
Generalmente no se conocerán a priori los valores de las varianzas poblacionales. Sin embargo, cuando
las muestras son grandes, ya se ha visto como las varianzas muestrales son generalmente una buena
aproximación a las varianzas poblacionales. Por lo tanto, en este caso el intervalo de confianza para la
diferencia de medias puede aproximarse por las expresiones (11.16) y (11.17) sustituyendo σ12 y σ22 por
S12 y S22 respectivamente
$ $
S12 S2 S12 S22
P (X1 − X2 ) − zα/2 + 2 < µ1 − µ2 < (X1 − X2 ) + zα/2 +
n1 n2 n1 n2
=1−α (11.18)
$
S12 S2
⇒ I = (X1 − X2 ) ± zα/2 + 2 . (11.19)
n1 n2
Las aproximaciones anteriores son entonces válidas para muestras grandes. Para esto se usan diferentes
criterios. Algunos autores exigen que tanto n1 > 30 como n2 > 30. Aqui vamos a fijar el criterio de que
n1 + n2 > 30, con la condición adicional de que ambos tamaños muestrales sean similares (n1 $ n2 ).
Supongamos ahora el caso de que las muestras no son grandes, por lo que no se pueden aplicar las
aproximaciones anteriores. Consideremos en primer lugar que se puede asegurar a priori que las dos
varianzas poblacionales han de ser iguales (σ12 = σ22 ), aunque con valor desconocido. En este caso, por
Por otra parte, por (9.21), sabemos que (n1 − 1)S12 /σ 2 y (n2 − 1)S22 /σ 2 obedecen a distribuciones χ2
con n1 − 1 y n2 − 1 grados de libertad respectivamente. Por tanto, se puede construir la siguiente
variable χ2 con n1 + n2 − 2 grados de libertad
(X1 − X2 ) − (µ1 − µ2 )
= # , (11.21)
Sp n11 + n12
6 % % 7
1 1 1 1
P (X1 − X2 ) − tα/2 Sp + < µ1 − µ2 < (X1 − X2 ) + tα/2 Sp +
n1 n2 n1 n2
= 1 − α. (11.23)
Al calcularse por (11.22), Sp2 representa una estimación puntual de la varianza común σ 2 , calculándose
como una media ponderada, con el número de grados de libertad, de las dos varianzas observadas.
Hay que indicar que las relaciones anteriores siguen siendo una buena aproximación aún cuando existan
algunas diferencias entre las varianzas poblacionales si los tamaños de las muestras son iguales. En
general, para calcular intervalos de confianza para la diferencia de medias siempre será conveniente
contar con muestras de tamaño lo más parecido posible.
Ejemplo III–12 Calcular el intervalo de confianza para la diferencia de medias en dos métodos distintos empleado por
Michelson para determinar la velocidad de la luz (expresamos la velocidad como c = x + 299000 km/s).
• Método i): 850, 740, 900, 1070, 930, 850, 950, 980; n1 = 8.
• Método ii): 883, 816, 778, 796, 682, 711, 611, 599, 1051, 781, 578, 796; n2 = 12.
X 1 = 908.75 S1 = 99.1 n1 = 8
X 2 = 756.83 S2 = 133.5 n2 = 12
⇒ Sp = 121.3
Por otro lado, si usamos α = 0.05, tenemos t0.025,18 = 2.101 (tablas). El intervalo será entonces
? % @
1 1
I = (X1 − X2 ) ± tα/2,n1 +n2 −2 Sp + =
n1 n2
A % B
1 1
= (908.8 − 756.8) ± 2.101 × 121.3 × Sp + = [152 ± 116] .
8 12
Veamos ahora el caso general en el que no se conocen las varianzas poblacionales, no se puede asumir
que sean iguales y las muestras no son grandes. En este caso se puede hacer un desarrollo similar al
anterior y definir un estadı́stico equivalente a (11.21) de la forma
(X1 − X2 ) − (µ1 − µ2 )
t= # 2 . (11.25)
S1 S22
n1 + n2
Se puede demostrar que la variable anterior sigue aproximadamente una distribución t de Student con
f grados de libertad, donde f es el entero más próximo a la aproximación de Welch
0 12
S12 S22
n1 + n2
f= (S12 /n1 )2 (S22 /n2 )2
− 2.
n1 +1 + n2 +1
= 1 − α. (11.26)
Por lo tanto, el intervalo de confianza de nivel (1 − α) para la diferencia de medias de dos poblaciones
normales de varianzas desconocidas es
$
S12 S22
I = (X1 − X2 ) ± tα/2,f + . (11.27)
n1 n2
A % B
99.12 133.52
I = (908.8 − 756.8) ± 2.086 + = [152 ± 109] .
8 12
Para calcular los intervalos de confianza anteriores se ha supuesto que las poblaciones de partida son
normales. Como consecuencia del teorema del lı́mite central, para cualesquiera distribuciones de partida la
distribución muestral de la diferencia de medias puede aproximarse por una normal siempre que el tamaño
de las muestras sea suficientemente grande. En consecuencia, la expresión (11.19) sigue siendo aplicable para
distribuciones no normales y muestras grandes. Un caso particular de este resultado es el siguiente:
p1 (1 − p1 ) p2 (1 − p2 )
σp21 −p2 = + .
n1 n2
Por tanto, suponiendo que las muestras son grandes, y que, por lo tanto, la distribución muestral de
la diferencia de proporciones es aproximadamente normal, se puede escribir, por analogı́a con (11.19),
que el intervalo de confianza de nivel (1 − α) para la diferencia de proporciones es
$
P1 (1 − P1 ) P2 (1 − P2 )
I = (P1 − P2 ) ± zα/2 + . (11.28)
n1 n2
A continuación se estudia cómo se puede calcular un intervalo de confianza para la varianza de una
distribución normal. Supongamos que se extrae una muestra de tamaño n sobre la que se calcula la varianza
muestral S 2 . Por (9.21) sabemos que el estadı́stico (n − 1)S 2 /σ 2 sigue una distribución χ2 con n − 1 grados
de libertad. Por lo tanto se puede expresar
6 7
(n − 1)S 2
P χ21−α/2,n−1 < < χ2α/2,n−1 = 1 − α,
σ2
donde χ2α/2,n−1 es la abscisa de la distribución χ2 con n − 1 grados de libertad que deja a su derecha un área
igual a α/2, y de manera similar para χ21−α/2,n−1 . Nótese que aunque la distribución de χ2 no es simétrica,
el intervalo se ha escogido para que el área de las dos colas sea igual a α/2.
Dividiendo cada término de la desigualdad por (n − 1)S 2 e invirtiendo las desigualdades, se obtiene
( )
χ21−α/2,n−1 1 χ2α/2,n−1
P < 2 < =1−α ⇒
(n − 1)S 2 σ (n − 1)S 2
( )
(n − 1)S 2 (n − 1)S 2
P 2 < σ2 < 2 = 1 − α. (11.29)
χα/2,n−1 χ1−α/2,n−1
Por lo tanto, el intervalo de confianza de nivel (1 − α) para la varianza de una distribución normal con
varianza muestral S 2 es A B
(n − 1)S 2 (n − 1)S 2
I= , . (11.30)
χ2α/2,n−1 χ21−α/2,n−1
Este intervalo no tiene por qué ser simétrico en torno a la varianza muestral. De la misma manera, el intervalo
de confianza para la desviación tı́pica de una población normal puede escribirse como
A$ $ B
(n − 1)S 2 (n − 1)S 2
I= , . (11.31)
χ2α/2,n−1 χ21−α/2,n−1
Ejemplo III–14 Calcular el intervalo de confianza para la desviación tı́pica de la segunda muestra del ejemplo III–12.
Ya vimos que S = 133.5 y n = 12. Por otro lado, consultando las tablas vemos que, para α/2 = 0.025
tenemos
χ20.025,11 = 21.920 y χ20.975,11 = 3.816.
Supongamos que se tienen dos poblaciones normales con varianzas σ12 y σ22 . Vamos a estudiar cómo
construir un intervalo de confianza para la razón de dichas varianzas a partir de dos muestras independientes
de tamaños n1 y n2 y varianzas muestrales S12 y S22 respectivamente. Anteriormente se ha demostrado que,
en este caso, el estadı́stico F = (S12 /σ12 )/(S22 /σ22 ) sigue una distribución F de Fisher con (n1 − 1) y (n2 − 1)
grados de libertad (9.23). Por lo tanto, se puede escribir
6 7
S 2 /σ 2
P F1−α/2;n1 −1,n2 −1 < 12 12 < Fα/2;n1 −1,n2 −1 = 1 − α,
S2 /σ2
donde F1−α/2;n1 −1,n2 −1 y Fα/2;n1 −1,n2 −1 son los valores de la distribución F , con (n1 −1) y (n2 −1) grados de
libertad, que dejan a su derecha áreas iguales a 1−α/2 y α/2 respectivamente. Multiplicando las desigualdades
anteriores por S22 /S12 e invirtiendo los términos, se obtiene
6 7
S12 1 σ12 S12 1
P 2 < 2 < 2 = 1 − α.
S2 Fα/2;n1 −1,n2 −1 σ2 S2 F1−α/2;n1 −1,n2 −1
Aplicando ahora la propiedad de la distribución F según la cual F1−β;ν1 ,ν2 = 1/Fβ;ν2 ,ν1 , se llega a:
6 7
S12 1 σ12 S12
P < < Fα/2;n2 −1,n1 −1 = 1 − α. (11.32)
S22 Fα/2;n1 −1,n2 −1 σ22 S22
Por lo tanto, el intervalo de confianza (1 − α) para el cociente de varianzas de dos poblaciones normales
independientes puede expresarse como
? @
S12 1 S12
I= , F α/2;n2 −1,n1 −1 . (11.33)
S22 Fα/2;n1 −1,n2 −1 S22
y el intervalo para la razón de desviaciones tı́picas se obtiene tomando raices cuadradas en la expresión
anterior.
Ejemplo III–15 Calcular el intervalo de confianza para la razón de varianzas de las dos poblaciones del ejemplo III–12.
S12
⇒ = 0.5510
S22
y además
Fα/2;n1 −1,n2 −1 = F0.025;7,11 = 3.7586
4.7611 + 4.6658
Fα/2;n2 −1,n1 −1 = F0.025;11,7 = = 4.71345
2
Y el intervalo se calcula finalmente como
? @ C D
S12 1 S2 0.5510
I= 2
, 12 Fα/2;n2 −1,n1 −1 = , 0.5510 × 4.7135 ,
S2 Fα/2;n1 −1,n2 −1 S2 3.7586
por lo que el intervalo buscado es (0.15,2.60). Vemos que este intervalo es compatible con que las varianzas
sean iguales.
En los apartados anteriores siempre que se ha trabajado con dos poblaciones se ha supuesto que éstas
eran independientes. Pero éste no es siempre el caso. Vamos a suponer ahora que se tienen dos poblaciones
normales N (µ1 , σ12 ) y N (µ2 , σ22 ) de las que se extraen dos muestras que no son independientes. Nos vamos a
restringir al caso en el cual los tamaños n de ambas muestras son iguales entre si. Tı́picamente consideraremos
la situación en la cual las muestras no se extraen de forma independiente de cada población, sino que cada
muestra consiste en la medida de una caracterı́stica en los mismos elementos de una población. Por ejemplo,
supongamos que sobre los elementos de una muestra se mide cierta variable, después se aplica un determinado
tratamiento a la muestra y, sobre los mismos elementos, se vuelve a medir la misma variable (ej. temperatura
antes y después de aplicar un tratamiento). A este tipo de experimentos se le llama de observaciones
pareadas.
El objetivo en este caso es calcular un intervalo de confianza para la diferencia de medias µ1 − µ2 en
dichas muestras. Para ello se consideran las diferencias di = x1i − x2i (i = 1, 2, . . . , n) entre los valores de
las variables en cada uno de los elementos de la muestra. Para plantear el problema se asume que estas
diferencias son los valores de una nueva variable aleatoria D. Si la muestra es suficientemente grande (en la
práctica n > 30) puede considerarse que dicha variable se distribuye normalmente con media µD = µ1 − µ2 y
2 2
varianza σD . Las estimaciones puntuales de estos parámetros serán respectivamente D y SD , que tomarán,
para una muestra en particular, los valores concretos
"n "n
i=1 di i=1 (x1i − x2i )
d= = ,
n n
"n
i=1 (di− d)2
s2d = .
n−1
El problema se reduce entonces a calcular un intervalo de confianza para la media µD de una distribución
2 2
normal. Por analogı́a con (11.7) y aproximando la varianza σD por SD por ser la muestra grande, puede
escribirse entonces 6 7
SD SD
P D − zα/2 √ < µ1 − µ2 < D + zα/2 √ = 1 − α, (11.34)
n n
donde se ha igualado µD a µ1 − µ2 . Por lo tanto, el intervalo de confianza de nivel (1 − α) para la diferencia
de medias de observaciones pareadas con n > 30 puede expresarse como
? @
SD
I = D ± zα/2 √ . (11.35)
n
En el caso de que la muestra fuera pequeña (n < 30) habrı́a que substituir la distribución normal por
una distribución t, siendo el intervalo de confianza
? @
SD
I = D ± tα/2,n−1 √ . (11.36)
n
Ejemplo III–16 Se aplica un proceso para aumentar el rendimiento en 10 fábricas muy diferentes (no dejar tomarse el
bocadillo a media mañana). Los rendimientos (en ciertas unidades, como toneladas/dı́a) antes y después
son:
antes 13 22 4 10 63 18 34 6 19 43 X1
después 15 22 2 15 65 17 30 12 20 42 X2
obtenemos: Di = 2, 0, -2, 5, 2, -1, -4, 6, 1, -1. Con estos datos ya podemos calcular
"
i
Di 8
D= = = 0.8
n 10
% "n
(di − d)2 i=1
= 3.08
SD =
n−1
Como el número de datos es menor que 30, usamos t0.025,9 = 2.262 (tablas). El intervalo que buscamos
será entonces ? @? @
SD 3.08
I = D ± tα/2,n−1 √ 0.8 ± 2.262 √ = [0.8 ± 2.2],
n 10
es decir, (−1.4,3.0).
Hasta ahora siempre se ha supuesto conocido el tamaño de la muestra n. Sin embargo, y fundamentalmen-
te en el diseño de experimentos, en ocasiones el problema principal es la determinación del tamaño muestral
requerido para obtener la estimación de los parámetros poblacionales con una determinada precisión. Nótese
que una muestra demasiado grande puede traducirse en una perdida de tiempo y dinero, mientras que, si la
muestra es demasiado pequeña, no se obtendrá la fiabilidad deseada y el experimento será un fracaso.
La precisión de una estimación por intervalos de confianza vendrá marcada por la longitud del intervalo
(en ocasiones, llamada error). Para ilustrar el problema supongamos que tenemos una distribución normal y
que queremos determinar la media poblacional µ a partir de la media muestral X. El intervalo de confianza
vendrá entonces dado por (11.5), de manera que la longitud l del intervalo es
σ
l = 2zα/2 √ .
n
De esta forma, comparando la expresión anterior con (11.4), una vez fijado α puede calcularse n igualando
el error ) a la semilongitud del intervalo (l/2)
σ 2 σ2
) = zα/2 √ ⇒ n = zα/2 . (11.37)
n )2
Es decir, si se utiliza X como una estimación de µ, puede tenerse una confianza del (1 − α)100 % de que,
en una muestra del tamaño anterior, el error no excederá a un valor ).
Para poder aplicar la expresión anterior es necesario conocer previamente σ. Si éste no es el caso, en
la práctica se toma una muestra piloto pequeña (aunque es deseable que n > 30) para poder estimar σ
mediante la desviación tı́pica muestral S.
Ejemplo III–17 En el ejemplo III–1, ¿cuál ha de ser el tamaño de la muestra para poder determinar la media con un error
de 0.5?
2 σ2
n = zα/2
&2
En este caso tenemos z0.025 = 1.96, σ = 4 y & = 0.5. Por tanto, n = 245.86 - 246.
CONTRASTE DE HIPÓTESIS
137
Capı́tulo 12
Contrastes de hipótesis
Las aplicaciones de la estadı́stica a la investigación cientı́fica van mucho más allá de la estimación de
parámetros poblacionales vista en el tema anterior. Tı́picamente, el método cientı́fico se caracteriza por
basarse en la construcción de hipótesis, o modelos, lo más simples posibles de cómo funciona cierto aspecto
de la naturaleza, y la comprobación o refutación de tales hipótesis por medio de la experimentación. A través
del contraste de hipótesis, la estadı́stica proporciona procedimientos óptimos para decidir la aceptación
o el rechazo de afirmaciones o hipótesis acerca de la población en estudio. Las hipótesis se contrastan
comparando sus predicciones con los datos experimentales. Si coinciden dentro de un margen de error, la
hipótesis se mantiene. En caso contrario se rechaza y hay que buscar hipótesis o modelos alternativos que
expliquen la realidad. De esta manera, el contraste de hipótesis juega un papel fundamental en el avance de
cualquier disciplina cientı́fica.
Una hipótesis estadı́stica es una afirmación o conjetura que se hace sobre una, o varias, caracterı́sticas
de una población. Ejemplos de dichas afirmaciones incluyen el que la media de una población tenga un de-
terminado valor, o que los valores de una variable presenten menor dispersión en torno a un valor medio en
una población comparada con la dispersión en otra, etc. Evidentemente, la forma más directa de comprobar
tales hipótesis serı́a estudiando todos y cada uno de los elementos de la población. Sin embargo, frecuen-
temente esto no es posible (la población podrı́a ser incluso infinita), por lo que el contraste de la hipótesis
ha de basarse en una muestra, que supondremos aleatoria, de la población en estudio. Al no estudiarse la
población entera, nunca podremos estar completamente seguros de si la hipótesis realizada es verdadera o
falsa. Es decir, siempre existe la probabilidad de llegar a una conclusión equivocada.
Los métodos de ensayos de hipótesis que se tratan en este tema permitirán estudiar si, en términos
de probabilidad, la hipótesis de partida puede ser aceptada o debe ser rechazada. Debe quedar claro que el
rechazo de una hipótesis implica que la evidencia de la muestra la refuta. Es decir, que existe una probabilidad
muy pequeña de que, siendo la hipótesis verdadera, se haya obtenido una muestra como la estudiada. Por
otro lado, una hipótesis se aceptará cuando la muestra no proporcione evidencias suficientes para refutarla,
lo cual no quiere decir que la hipótesis sea verdadera. Por ejemplo, si se ha hecho la hipótesis de que la media
de una población es cero, y se encuentra que los valores tomados tienen, por ejemplo, media 0.1 y desviación
139
140 Contrastes de hipótesis
tı́pica 10, podremos llegar a la conclusión de aceptar la hipótesis, lo cual no descarta que la media real de la
población sea, por ejemplo, 0.2.
El primer paso en un proceso de ensayo de hipótesis es la formulación de la hipótesis estadı́stica que se
quiere aceptar o rechazar. Comunmente, se formulan las hipótesis estadı́sticas con el propósito de rechazarlas
para ası́ probar el argumento deseado. Por ejemplo, para demostrar que un producto es mejor que otro, se
hace la hipótesis de que son iguales, es decir, que cualquier diferencia observada es debida únicamente a
fluctuaciones en el muestreo. O por ejemplo, si se quiere demostrar que una moneda está trucada (no existe
la misma probabilidad de que salga cara o cruz) se hace la hipótesis de que no está trucada (es decir, la
probabilidad p de cara o cruz es siempre 0.5) y a continuación se estudia si los datos de la muestra llevan a
un rechazo de esa hipótesis. Por este motivo, a la hipótesis de partida que se quiere contrastar se la llama
hipótesis nula, y se representa por H0 . La hipótesis nula es por tanto la hipótesis que se acepta o rechaza
como consecuencia del contraste de hipótesis. Por otra parte, la hipótesis que se acepta cuando se rechaza
H0 es la hipótesis alternativa, denotada por H1 . Es decir, si se acepta H0 se rechaza H1 y al contrario. En
el ejemplo de la moneda trucada la hipótesis nula serı́a p = 0.5 y la hipótesis alternativa p %= 0.5. En muchas
ocasiones una hipótesis nula referida a un parámetro poblacional especificará un valor exacto del parámetro,
mientras que la hipótesis alternativa incluirá la posibilidad de varios valores. Por otra parte, cuando se trate
de comparar dos poblaciones, la hipótesis nula suele ser que las dos poblaciones tienen el mismo parámetro
(ejemplo, media) y la alternativa, que los parámetros son diferentes.
Es importante recordar que la hipótesis nula, aunque se acepte, nunca se considera probada (por ejemplo,
para probar que exactamente la media de una población tiene un determinado valor, habrı́a que estudiar
todos los elementos de la población). Sin embargo, sı́ puede rechazarse. Ası́, si suponiendo que H0 es cierta,
se encuentra que los resultados observados en una muestra aleatoria difieren marcadamente de los que cabrı́a
esperar teniendo en cuenta la variación propia del muestreo, se dice que las diferencias son significativas y
se rechaza H0 .
Para realizar un contraste de hipótesis se utiliza un estadı́stico de prueba (también llamado función
de decisión del contraste) cuya distribución muestral se supone conocida si la hipótesis nula H0 es verdadera.
Ası́, por ejemplo, si H0 es que en una población normal la media tiene un determinado valor µ, el estadı́stico
√
de prueba será la media muestral X, cuya distribución tendrá media µ y desviación tı́pica σ/ n. Una vez
elegida una muestra, se medirá el estadı́stico de prueba y se comprobará si el valor que toma es compatible
con la distribución muestral esperada si H0 fuese cierta. Si el valor medido difiere considerablemente de
los valores esperados, la hipótesis nula se rechazará. Todos los posibles valores del estadı́stico que llevan a
rechazar H0 constituyen la región crı́tica del contraste. Por el contrario, todos los valores que llevan a una
aceptación de H0 determinan la región de aceptación. En el ejemplo anterior, los valores de X próximos
a µ determinarán la región de aceptación, mientras que los alejados de µ constituirán la región crı́tica.
Si se acepta la hipótesis H0 cuando es falsa se dice que se comete un error de tipo II.
En cualquiera de los dos casos se comete un error al tomar una decisión equivocada. Estos dos tipos de
errores se resumen en la siguiente tabla:
H0 verdadera H0 falsa
Se acepta H0 Decisión correcta Error tipo II
Se rechaza H0 Error tipo I Decisión correcta
número de caras
P =
número de ensayos
Aceptando H0 como hipótesis inicial, vamos a calcular las probabilidades de que el estadı́stico de prueba
esté dentro de diferentes intervalos. Usamos la tabla de la distribución binomial.
10
! 10
!
P (0.4 ≤ P ≤ 0.6) = b(x; 10, 0.5) − b(x; 10, 0.5) = 0.828 − 0.172 = 0.656.
x=4 x=7
Y, de la misma forma,
P (0.3 ≤ P ≤ 0.7) = 0.890
Si nos fijamos, por ejemplo, en P (0.2 ≤ P ≤ 0.8) = 0.978, vemos que entonces podemos también escribir
P (X = 0, 1, 9, 10) = 1−0.978 = 0.022, donde X es el estadı́stico número de caras. En este caso definirı́amos
las regiones crı́ticas y de aceptación como
A: {x : 2 ≤ x ≤ 8}
C: {x : x < 2 o x > 8}
Según esto, la probabilidad de comer un error de tipo I (o rechazar la hipótesis nula cuando es verdadera)
es 0.02. Es decir, α = 0.02, donde α es el nivel de significación. En resumen, nos equivocaremos en un 2 %
de los casos.
La probabilidad de cometer un error de tipo II, denotada por β, es tı́picamente imposible de calcular
a no ser que se tenga una hipótesis alternativa especı́fica. Por ejemplo, en el contraste de la media de una
población, si la media real µ" fuese un valor muy cercano a la media que estamos suponiendo en la hipótesis
H0 , la probabilidad de cometer un error de tipo II serı́a muy alta, pero no la podemos conocer a priori a
no ser que se supongan ciertos valores para µ" . En otras palabras, si la hipótesis nula es falsa, β aumenta
cuando el valor verdadero del parámetro se acerca al valor hipotético establecido en H0 . Cuanto mayor es
la diferencia entre dicho valor hipotético y el real, menor será β. Tı́picamente, los errores de tipo II han de
acotarse imponiendo que, si hubiese una diferencia que se considere significativa entre el valor supuesto en
H0 y el valor real, la probabilidad β de cometer un error de tipo II (y aceptar H0 cuando es falsa) no sea
mayor que un determinado valor.
Es claro que los errores de tipo I y tipo II se relacionan entre sı́. Desafortunadamente, para una muestra
dada, una disminución en la probabilidad de uno se convierte en un aumento en la probabilidad del otro. De
forma que normalmente no es posible reducir ambos errores simultáneamente. La única forma en que esto
es posible es aumentando el tamaño de la muestra. Para cada caso particular, habrá que estudiar cuál de los
dos tipos de errores es más importante controlar, y fijar las regiones de aceptación y crı́tica de forma que
se acote el error menos deseable de los dos. Para disminuir α se disminuye el tamaño de la región crı́tica,
y lo contrario para β. Esto nos lleva a un concepto importante en el contraste de hipótesis: se denomina
potencia de una prueba a la probabilidad de rechazar la hipótesis nula H0 cuando es falsa. Es decir, su
valor es 1 − β y, depende, por tanto, del verdadero valor del parámetro. La potencia de una prueba se puede
considerar como una medida de la sensibilidad para detectar diferencias en los valores del parámetro. Si se
fija de antemano el nivel de significación, se elegirá siempre el tipo de contraste que presente una potencia
mayor para un determinado tamaño muestral.
Ejemplo IV–2 En el ejemplo anterior, para calcular la probabilidad de cometer un error de tipo II debemos suponer un
valor conocido para la proporción de éxitos, pverd .
a) Supongamos que pverd = 0.7. Entonces
10
! 10
!
β = P (2 ≤ X ≤ 8, dado que pverd = 0.7) = b(x; 10, 0.7) − b(x; 10, 0.7) = 1.000 − 0.149 = 0.851.
x=2 x=9
10
! 10
!
β = P (2 ≤ X ≤ 8, dado que pverd = 0.9) = b(x; 10, 0.9) − b(x; 10, 0.9) = 1.000 − 0.736 = 0.264.
x=2 x=9
Con el fin de ilustrar los conceptos expuestos anteriormente supongamos que se quiere hacer un contraste
sobre la media de una población normal. La hipótesis nula H0 es en este caso µ = µ0 . Como estadı́stico de
√
prueba se utiliza la media muestral, que como sabemos, si H0 es cierta, seguirá un distribución N (µ0 , σ/ n).
√
Es decir, la variable dada por Z = (X − µ0 )/(σ/ n) sigue una distribución normal tipificada.
Por las propiedades de la distribución normal, sabemos que, si H0 es cierta, el 95 % de las veces el
estadı́stico Z se situarı́a entre los valores −1.96 y 1.96 mientras que sólo un 5 % de las veces obtendrı́amos
valores mayores que 1.96 o menores que −1.96. Esto quiere decir que, para un nivel de significación de
α = 0.05 la región de aceptación estarı́a definida por los valores del intervalo (−1.96, 1.96) mientras que la
región crı́tica estarı́a dada por (−∞, −1.96) y (1.96, ∞). Es decir, la probabilidad de que cometer un error de
tipo I (o el nivel de significación) ha de coincidir con el área de la región crı́tica. De esta manera, cuando se
obtuviese un valor de X situado en la región crı́tica rechazarı́amos la hipótesis nula al nivel de significación
0.05, mientras que la aceptarı́amos en caso contrario. Nótese que si H0 fuese falsa pero el valor verdadero
de µ estuviese muy próximo a µ0 tendrı́amos una probabilidad muy alta de aceptar H0 , y por lo tanto de
cometer un error de tipo II.
El ejemplo anterior nos permite ver cómo el contraste de hipótesis está ı́ntimamente relacionado con la
estimación por intervalos de confianza vista en el tema anterior. Efectivamente, en dicho ejemplo, el intervalo
de confianza del (1 − α) % para la media µ0 viene dado por
6 7
σ σ
P x − zα/2 √ < µ0 < x + zα/2 √ =1−α ⇒
n n
6 7
x − µ0
P −zα/2 < √ < zα/2 = 1 − α.
σ/ n
y esto coincide con la región de aceptación para un nivel de significación α. Es decir, el contraste de la
hipótesis H0 (en este caso, µ = µ0 ) con un nivel de significación α es equivalente a calcular un intervalo de
nivel de confianza 1 − α y rechazar H0 si la media muestral no está dentro del intervalo. De esta forma,
generalmente se puede emplear el intervalo de confianza para realizar el contraste de hipótesis. Este resultado
se puede extender a los intervalos de confianza de varianzas, diferencia de medias, etc.
Ejemplo IV–3 Supongamos que tiramos una moneda 100 veces. Como n es grande, bajo la hipótesis nula H0 : p = 0.5,
&
tenemos que p sigue una distribución normal de media 0.5 y desviación tı́pica σ = p(1 − p)/n, es decir
( % )
p(1 − p)
N p, = N (0.5, 0.05).
n
p − 0.5
z=
0.05
Para buscar la región de aceptación y la región crı́tica tomamos como nivel de significación α = 0.05. En
ese caso, zα/2 = 1.96. Es decir
p − 0.5
+1.96 = ⇒ p = 0.598 ⇒ x = p × n = 59.8 caras
0.05
p − 0.5
−1.96 =
⇒ p = 0.402 ⇒ x = p × n = 40.2 caras
0.05
Entonces podemos decir que, con un nivel de confianza del 95 %,
Dicho de otra forma, si obtenemos un número de caras comprendido entre 40 y 60, no podemos rechazar
H0 (al nivel de significación elegido).
β = P (40 < x < 60) = P (0.4 < p < 0.6) = P (−6.55 < z < −2.18) = 0.0146.
β = P (40 < x < 60) = P (0.4 < p < 0.6) = P (−16.67 < z < −10.) - 0.0.
La potencia será 1 − β - 1.0 (seguro que lo detectamos; la moneda es “muy falsa” y hemos realizado
muchos lanzamientos).
En el ejemplo anterior se ha visto como la región crı́tica se dividı́a en dos intervalos de la recta representada
por los valores posible del estadı́stico. En general, a un contraste de hipótesis en el que la región crı́tica se
divide en dos partes se le llama bilateral y se dice que se hace un ensayo de dos colas (ver Fig. 12.1).
Generalmente, aunque no siempre, el área de cada cola suele coincidir con la mitad del nivel de significación.
Por ejemplo, si el contraste se hace sobre el valor de la media poblacional µ las hipótesis nula y alternativa
tendrán tı́picamente la siguiente forma 2
H0 : µ = µ0
(12.1)
H1 : µ %= µ0
Es decir, se intenta probar si el parámetro puede tomar un determinado valor o si, por el contrario, ha
de ser diferente (sin importar que sea mayor o menor). Otro ejemplo serı́a el contraste sobre la igualdad de
medias de dos poblaciones. En este caso la hipótesis nula es que las dos medias coinciden y la alternativa es
que son diferentes 2
H0 : µ1 = µ2
(12.2)
H1 : µ1 %= µ2
A veces interesa comprobar si un parámetro es mayor (o menor) que un determinado valor. Es decir, no
sólo interesa que sea diferente sino que hay que comprobar la hipótesis de que la diferencia vaya en un cierto
sentido. En estos casos se define un contraste unilateral, o un ensayo de una cola, como aquel en el que la
región crı́tica está formada por un único conjunto de puntos de la recta real. En este caso, el área de la única
región crı́tica ha de coincidir con el nivel de significación (ver Fig. 12.1). Por ejemplo, si se quiere comprobar
que la media de una población es mayor que un cierto valor se plantearán las siguientes hipótesis
2
H0 : µ ≤ µ0
(12.3)
H1 : µ > µ0
En este caso la región crı́tica cae en la cola derecha del estadı́stico de prueba, mientras que la cola
izquierda forma parte de la región de aceptación. Otro ejemplo es aquel en el que interesa comprobar si la
media de una población es mayor que la de otra. En este caso
2
H0 : µ1 ≤ µ2
(12.4)
H1 : µ1 > µ2
Nótese que, para un mismo nivel de significación que en el caso bilateral, en el contraste unilateral la
abscisa en la que comienza la región crı́tica (llamada valor crı́tico) ha de disminuir para que se conserve el
área total (comparar gráficas izquierda y derecha en la Fig. 12.1).
En la siguiente tabla se dan los valores crı́ticos para ensayos de una y dos colas y diferentes niveles de
significación en el caso de que el estadı́stico siga una distribución normal:
Es importante hacer notar que el hecho de hacer un contraste unilateral o bilateral depende de la con-
clusión que se quiera extraer y es algo que, en general, hay que decidir a priori, es decir, antes de realizar las
medidas y los cálculos.
Figura 12.1: Contrastes bilaterales y unilaterales: en la figura de la izquierda se muestran sombreadas las dos regiones
crı́ticas de un contraste bilateral, en el que el área de cada cola es α/2, es decir, la mitad del nivel de significación.
En la figura de la derecha se muestra la única región crı́tica de un contraste unilateral, cuya área ha de coincidir en
este caso con el nivel de significación.
Ejemplo IV–4 Necesitamos utilizar un contraste unilateral para probar que una moneda está cargada para sacar más
caras:
H0 : p ≤ 0.5
H1 : p > 0.5
p − 0.5
z= .
0.05
Es decir
p − 0.5
1.645 = ⇒ p = 0.582.
0.05
Las regiones crı́tica y de aceptación será entonces
A: {x : x ≤ 58}
C: {x : x > 58}
Como resumen de los conceptos vistos hasta ahora, a continuación se especifican los procedimientos que
hay que seguir para realizar un contraste de hipótesis:
1. Establecer cuáles son las hipótesis nula H0 y alternativa H1 . En este momento habrá que decidir si el
contraste va a ser unilateral o bilateral para ası́ elegir entre las formulaciones (12.1) y (12.2) o (12.3)
y (12.4).
3. Especificar el tamaño muestral n. En ocasiones, dicho tamaño viene dado antes de hacer el contraste.
Sin embargo, cuando se está diseñando un experimento habrá que elegir un tamaño muestral óptimo.
Normalmente esto se hace, para un α fijo, acotando los errores de tipo II que nos podemos permitir.
4. Seleccionar el estadı́stico de prueba apropiado. Nótese que la distribución muestral de este estadı́stico
se supone conocida bajo la hipótesis de que H0 es verdadera.
5. Determinar la región crı́tica a partir del tipo de estadı́stico de prueba y el nivel de significación deseado.
6. Calcular el valor del estadı́stico a partir de los datos de la muestra particular que se tenga.
En este tema se presentan los contrastes de hipótesis para diferentes parámetros poblacionales de una
única población. Debido a la ı́ntima relación existente entre los contrastes de hipótesis y los intervalos
de confianza, utilizaremos las expresiones vistas en temas anteriores para estos últimos para describir los
contrastes. En todo lo siguiente se supone que se tiene un muestreo con reemplazamiento o en una población
infinita. En otro caso habrá que hacer las modificaciones necesarias en las expresiones ya vistas.
Supongamos que se tiene una población normal de la cual se extrae una muestra aleatoria descrita por
"n
X1 , X2 , . . . , Xn . Como estimador de la media poblacional se usará la media muestral X = i=1 Xi /n, que,
en una muestra en particular tomará el valor x. A continuación se describen los contrastes de hipótesis para
la media de la población. Al igual que para calcular los intervalos de confianza, se distinguirán varios casos:
Es decir, se intenta contrastar si la media de la población tiene un determinado valor µ0 , o si, por
el contrario, la media ha de ser distinta. En este caso, si se supone H0 verdadera sabemos que la
2
distribución muestral de medias será normal con media µX = µ0 y σX = σ 2 /n. Por lo tanto, se
puede definir el siguiente estadı́stico que seguirá una normal tipificada (en el caso de que µ = µ0 ) y
tomará valores
x − µ0
z= √ . (13.2)
σ/ n
147
148 Contrastes de hipótesis para una población
Además, podemos establecer que, en el caso de que H0 fuese cierta, z se distribuirı́a de forma que
3 4
P −zα/2 < z < zα/2 = 1 − α,
donde zα/2 es la abscisa de la normal N (0, 1) que deja a su derecha un área de probabilidad igual a
α/2.
Es decir, existirı́a una probabilidad α (nivel de significación) de encontrar x fuera de ese intervalo. Esto
nos define entonces la región de aceptación A y crı́tica C del contraste como
Ejemplo IV–5 Se hacen 50 medidas de la acelaración de la gravedad, g, y se obtienen valores que conducen a x = 9.9 m/s2 .
Se sabe que, por el error en el método, σ = 0.4 m/s2 . ¿Es el valor medio significativamente diferente del
valor esperado de g (µ0 = 9.8 m/s2 )?
5. La región crı́tica será entonces: C = {z : |z| > zα/2 }, donde zα/2 = z0.025 = 1.96.
|9.9 − 9.8|
|z| = √ = 1.77 < 1.96
0.4/ 50
b) Contraste unilateral
donde estamos contrastando si la media de la población puede o no ser mayor que un determinado
valor. También podrı́an invertirse las desigualdades y hacer el contraste de una cola contrario. Se define
aquı́ el mismo estadı́stico z (13.2) que para el contraste bilateral.
La región crı́tica se sitúa en este caso en la cola derecha de la distribución, de forma que podemos
establecer que
A = {z : z ≤ zα } ; C = {z : z > zα }, (13.6)
donde zα es la abscisa de la normal N (0, 1) que deja a su derecha un área de probabilidad igual a α.
Es decir, solo se rechaza H0 si la media muestral toma un valor mucho mayor que el supuesto en la
hipótesis nula.
Ejemplo IV–6 Con los datos del ejemplo anterior, queremos probar si el valor obtenido es significativamente mayor que
µ0 = 9.8 m/s2 .
Es un contraste unilateral 2
H0 : µ ≤ 9.8
H1 : µ > 9.8
Usamos el mismo nivel de significación (α = 0.05), x y n. La región crı́tica será ahora C = {z : z > zα },
donde zα = z0.05 = 1.645.
Calculamos el estadı́stico
x − µ0
z= √ = 1.77
σ/ n
Como z > zα , rechazamos H0 al nivel de significación α = 0.05.
x − µ0
z= √ , (13.8)
s/ n
y los contrastes, con las mismas hipótesis nulas y alternativas expresadas en (13.1) y (13.5), quedan:
a) Constraste bilateral
Es decir, si
|x − µ0 |
√ ≤ zα/2 , (13.9)
s/ n
|x − µ0 |
√ > zα/2 .
s/ n
b) Contraste unilateral
A = {z : z ≤ zα } ; C = {z : z > zα }.
x − µ0
t= √ (13.11)
s/ n
y utilizando que, como se estudió en el tema anterior, esta nueva variable sigue una distribución t de Student
con n − 1 grados de libertad.
Entonces, los contrastes para la media, con las mismas hipótesis nulas y alternativas expresadas en (13.1)
y (13.5), son iguales que para el caso de varianza conocida pero sustituyendo σ por la desviación tı́pica
muestral s y la distribución normal por la distribución t. Es decir:
a) Constraste bilateral
Al ser la distribución t una distribución simétrica se puede expresar que, si H0 se cumple (es decir, si
µ = µ0 ), entonces
3 4
P −tα/2,n−1 < t < tα/2,n−1 = 1 − α,
donde tα/2,n−1 es la abscisa de la distribución t de Student con n − 1 grados de libertad que deja a su
derecha un área de probabilidad igual a α/2. Por lo tanto, las regiones de aceptación A y crı́tica C del
contraste son
A = {t : |t| ≤ tα/2,n−1 } ; C = {t : |t| > tα/2,n−1 }, (13.12)
|x − µ0 |
√ ≤ tα/2,n−1 , (13.13)
s/ n
b) Contraste unilateral
De forma similar, las regiones de aceptación A y crı́tica C para un contraste bilateral son
x − µ0
√ > tα,n−1 .
s/ n
Hay que indicar que todas las expresiones anteriores sólo son estrictamente válidas si se puede asegurar
que la población en estudio sigue una distribución normal. Sin embargo, siempre que las muestras sean
grandes no se comete un error excesivo si se supone normalidad y se aplican las relaciones anteriores (sobre
todo si la distribución tiene forma de campana).
Ejemplo IV–7 Considerando la siguiente serie de medidas de la velocidad de la luz por Michelson
(299000+): 850, 740, 900, 1070, 930, 850, 950, 980 (km/s)
se quiere saber si la media es significativamente diferente de 1000.
De la muestra anterior deducimos de forma inmediata n = 8, x = 908.8 km/s y s = 99.1 km/s. El valor de
σ es desconocido y el número de datos n ≤ 30. Las hipótesis nula y alternativa son:
2
H0 : µ = 1000
H1 : µ &= 1000
Aceptaremos H0 si
|x − µ0 |
t= √ ≤ tα/2,n−1 .
s/ n
Usando α = 0.10 ⇒ t0.05,7 = 1.895. Por tanto
|908.8 − 1000.0|
t= √ = 2.60 > t0.05,7 ,
99.1/ 8
Supongamos que se quiere hacer un contraste de hipótesis para el parámetro p de una distribución
binomial. Ya se ha visto cómo la proporción de éxitos (o número de éxitos dividido por el número de ensayos)
constituye un estimador puntual de p. Supongamos que p es el valor de dicha proporción en una muestra
en particular. Para realizar el contraste de hipótesis vamos a suponer que la muestra es suficientemente
grande para aproximar la distribución muestral de p por una normal con media p y varianza p(1 − p)/n. Si la
muestra no fuese grande, las aproximaciones siguientes no son válidas y habrı́a que utilizar las propiedades
de la distribución binomial para realizar el contraste.
a) Constraste bilateral
La hipótesis nula en este caso es que el parámetro p toma un determinado valor p0 . Es decir
2
H0 : p = p0
(13.16)
H1 : p %= p0
Al ser la muestra grande, el siguiente estadı́stico seguirá una distribución normal tipificada
p − p0
z=# , (13.17)
p(1−p)
n
y, H0 se aceptará si
|p − p0 |
# ≤ zα/2 , (13.18)
p(1−p)
n
|p − p0 |
# > zα/2 .
p(1−p)
n
b) Contraste unilateral
De manera similar puede establecerse el contraste unilateral, con hipótesis
2
H0 : p ≤ p0
(13.19)
H1 : p > p0
A = {z : z ≤ zα } ; C = {z : z > zα }.
aceptándose H0 si
p − p0
# ≤ zα (13.20)
p(1−p)
n
p − p0
# > zα .
p(1−p)
n
Ejemplo IV–8 Un amigo nos dice que tiene un porcentaje de acierto en tiros libres del 90 %. Para probarlo tira 100
lanzamientos y encesta sólo 85. ¿Le podemos creer?
Usaremos un nivel de significación α = 0.05. Estamos ante un ensayo unilateral de una proporción:
2
H0 : p ≥ 0.90
H1 : p < 0.90
Se aceptará H0 si
p − p0
# ≤ zα .
p(1−p)
n
0.90 − 0.85
# = 1.40 ≤ zα ,
0.85(1−0.85)
100
a) Contraste bilateral
Es decir, se quiere comprobar si la varianza de una población puede coincidir con un determinado valor
σ02 . Para ello se define el estadı́stico
(n − 1)s2
χ2 = . (13.22)
σ02
Sabemos que, si se cumple H0 , el estadı́stico anterior sigue una distribución χ2 con n − 1 grados de
libertad. Es decir
P (χ21−α/2,n−1 < χ2 < χ2α/2,n−1 ) = 1 − α,
donde χ2α/2,n−1 es la abscisa de la distribución χ2 con n − 1 grados de libertad que deja a su derecha un
área de probabilidad igual a α/2, y lo mismo para χ21−α/2,n−1 . Por lo tanto, las regiones de aceptación
y rechazo de la hipótesis nula serán
Nótese que en este caso la distribución no es simétrica, y región de confianza se escoge para tener áreas
(n − 1)s2
∈ [χ21−α/2,n−1 , χ2α/2,n−1 ] (13.24)
σ02
b) Contraste unilateral
El contraste unilateral para la varianza de una población normal puede plantearse de manera similar
a partir de las hipótesis 2
H0 : σ 2 ≤ σ02
(13.25)
H1 : σ 2 > σ02
Se define entonces el estadı́stico χ2 como en (13.22). La región crı́tica se sitúa ahora sólo en la cola
derecha de la distribución de forma que se tienen las regiones
y la hipótesis H0 se acepta si
(n − 1)s2
≤ χ2α,n−1 (13.27)
σ02
rechazándose al nivel de significación α en caso contrario.
Ejemplo IV–9 ¿Puede ser la desviación tı́pica del ejemplo IV–7 igual a 200?
Aceptaremos H0 si
(n − 1)s2
∈ [χ21−α/2,n−1 , χ2α/2,n−1 ].
σ02
Consultando las tablas, vemos que (n = 8, n − 1 = 7)
mientras que
(n − 1)s2 7 × 99.12
= = 1.72,
σ02 2002
que se encuentra dentro del intervalo requerido. Por tanto, no rechazamos H0 (la muestra es demasiado
pequeña).
En este capı́tulo se presentan los contrastes de hipótesis para diferentes parámetros poblacionales de
dos poblaciones. Debido a la ı́ntima relación existente entre los contrastes de hipótesis y los intervalos de
confianza, utilizaremos las expresiones vistas en capı́tulos anteriores para estos últimos para describir los
contrastes. En todo lo siguiente se supone que se tiene un muestreo con reemplazamiento o en una población
infinita. En otro caso habrı́a que hacer las modificaciones necesarias usando las expresiones presentadas en
capı́tulos anteriores.
A continuación se describen los procedimientos de contraste de hipótesis para comparar las medias de
dos poblaciones normales. Se supone que se cuenta con muestras aleatorias independientes de tamaños n1
y n2 para cada población. Se representará por µ1 y µ2 la media de cada población respectivamente, y por
x1 y x2 los valores que tomen las medias muestrales para muestras particulares de ambas poblaciones. Los
contrastes de hipótesis tendrán como finalidad en general verificar si ambas medias poblacionales pueden ser
iguales o si hay evidencias a favor de que una puede ser mayor que la otra. Distinguiremos diferentes casos:
a) Contraste bilateral
155
156 Contrastes de hipótesis para dos poblaciones
Para este contraste la hipótesis nula será que ambas medias son iguales, de forma que
2
H0 : µ1 = µ2
(14.2)
H1 : µ1 %= µ2
Este estadı́stico es similar al utilizado en (13.2), siguiendo una distribución normal tipificada, por lo
que las regiones de aceptación y crı́tica para H0 son
|x − x |
# 1 2 2 2 ≤ zα/2 (14.4)
σ1 σ2
n1 + n2
|x − x |
# 1 2 2 2 > zα/2
σ1 σ2
n1 + n2
b) Contraste unilateral
Como estadı́stico de contraste se utiliza el especificado en (14.3) de forma que se tienen las regiones
A = {z : z ≤ zα } ; C = {z : z > zα }.
y H0 se acepta si
x −x
# 1 2 2 2 ≤ zα , (14.6)
σ1 σ2
n1 + n2
Generalmente las varianzas poblacionales σ12 y σ22 serán desconocidas. Sin embargo, si las muestras son
grandes, las varianzas muestrales son, en principio, una buena aproximación de las poblacionales. De esta
forma el contraste de hipótesis para la diferencia de medias se puede realizar igual que en el caso anterior,
sustituyendo σ1 y σ2 por s1 y s2 respectivamente, y asumiendo que el nuevo estadı́stico
x1 − x2
z=# 2 (14.7)
s1 s22
n1 + n2
sigue una distribución normal tipificada. Las hipótesis nulas y alternativas son las mismas que las establecidas
en (14.2) y (14.5), siendo los criterios de aceptación y rechazo los siguientes.
a) Contraste bilateral
A = {z : |z| ≤ zα/2 } ; C = {z : |z| > zα/2 }
Y la hipótesis H0 se acepta si
|x − x2 |
# 12 ≤ zα/2 , (14.8)
s1 s22
n1 + n2
b) Contraste unilateral
A = {z : z ≤ zα } ; C = {z : z > zα }
Y la hipótesis H0 se acepta si
x − x2
# 12 ≤ zα , (14.9)
s1 s22
n1 + n2
Ciudad 1 x1 = 36◦ s1 = 5◦ n1 = 31
◦ ◦
Ciudad 2 x2 = 34 s2 = 4 n2 = 25
x − x2 36 − 34
# 12 = # = 1.66,
s1 s2 52 42
n1
+ 2
n2 31
+ 25
por lo que rechazamos H0 y se puede considerar (al nivel de significación α) que la ciudad 1 es más calurosa
que la ciudad 2.
Los contrastes de hipótesis se basan en este estadı́stico. Nótese que cuando se hace la hipótesis nula de
que las medias poblacionales son iguales, t se convierte en nuestro estadı́stico de prueba
x − x2
t= #1 . (14.11)
sp n11 + n12
Por lo tanto, los criterios de aceptación y rechazo para los contrastes, con las hipótesis establecidas en (14.2)
y (14.5), son
a) Contraste bilateral
|x1 − x2 |
# ≤ tα/2,n1 +n2 −2 (14.13)
sp n11 + n12
b) Contraste unilateral
Y la hipótesis H0 se acepta si
x − x2
#1 ≤ tα,n1 +n2 −2 (14.15)
sp n11 + n12
En un caso general no se podrá hacer a priori la suposición de que las dos varianzas poblacionales son
iguales. Para hacer el contraste de hipótesis sobre la igualdad de medias en este caso se utiliza que, según
se demostró en el tema anterior, se puede suponer que el siguiente estadı́stico sigue una distribución t de
Student con f grados de libertad
(x1 − x2 ) − (µ1 − µ2 )
t= # 2 , (14.16)
s1 s22
n1 + n2
Al hacer la hipótesis nula el estadı́stico anterior se convierte en el estadı́stico a usar en este contraste de
hipótesis
x1 − x2
t= # 2 . (14.17)
s1 s22
n1 + n2
Entonces, se puede establecer que los criterios de aceptación y rechazo para los contrastes, con las hipótesis
(14.2) y (14.5) son los siguientes:
a) Contraste bilateral
A = {t : |t| ≤ tα/2,f } ; C = {t : |t| > tα/2,f } (14.18)
|x − x2 |
# 12 ≤ tα/2,f (14.19)
s1 s22
n1 + n2
b) Contraste unilateral
A = {t : t ≤ tα,f } ; C = {t : t > tα,f } (14.20)
Ejemplo IV–11 Las notas de 2 alumnos, en las 9 asignaturas del primer curso, son
Alumno 1 5, 7, 7, 6, 5, 5, 8, 6, 8
Alumno 2 5, 6, 8, 9, 7, 6, 5, 8, 10
Tenemos 2
H0 : µ 1 = µ 2
H1 : µ1 &= µ2
Vamos a considerar dos casos
i) Varianzas desconocidas, y σ1 &= σ2 . En este caso, se aceptará H0 si
|x1 − x2 |
t= # ≤ tα/2,f .
s2 s2
1
n1
+ n2
2
De esta forma,
tα/2,f = t0.025,16 = 2.120,
|6.33 − 7.11|
t= # = 1.09 < tα/2,f ,
1.222 1.762
9
+ 9
por lo que no rechazamos H0 (no hay evidencias de que sean diferentes, al nivel de significación elegido).
|x1 − x2 |
t= # ≤ tα/2,n1 +n2 −2 .
1 1
sp n1
+ n2
Supongamos ahora que se quiere hacer un contraste de hipótesis sobre la igualdad de los parámetros p1
y p2 de dos distribuciones binomiales. Denotaremos por p1 y p2 a las proporciones observadas en muestras
de tamaños n1 y n2 extraı́das de cada población. En la determinación del intervalo de confianza para la
diferencia de p1 y p2 se demostró que, para muestras grandes, la distribución muestral de p1 − p2 tiende a
una distribución normal con media p1 − p2 y varianza
p1 (1 − p1 ) p2 (1 − p2 )
σ2 = + .
n1 n2
De esta manera, por analogı́a con (14.3), y en el caso de que se cumpla la hipótesis nula p1 = p2 , el
estadı́stico de prueba
p1 − p2
z=# (14.22)
p1 (1−p1 ) p2 (1−p2 )
n1 + n2
seguirá una distribución normal tipificada. Nótese que, puesto que estamos suponiendo muestras grandes,
estamos sustituyendo la varianza poblacional por la varianza muestral. Los contrastes quedan entonces como
sigue:
a) Contraste bilateral
Las hipótesis nula y alternativa son las siguientes
2
H0 : p 1 = p 2
(14.23)
H1 : p1 %= p2
Puesto que el estadı́stico dado en (14.22) sigue una distribución normal si H0 es cierta, las regiones de
aceptación y crı́tica serán
|p1 − p2 |
# ≤ zα/2 , (14.24)
p1 (1−p1 ) p2 (1−p2 )
n1 + n2
b) Contraste unilateral
En este contraste las hipótesis nula y alternativa son:
2
H0 : p 1 ≤ p 2
(14.25)
H 1 : p 1 > p2
A = {z : z ≤ zα } ; C = {z : z > zα },
p1 − p2
# ≤ zα (14.26)
p1 (1−p1 ) p2 (1−p2 )
n1 + n2
s21 /σ12
F = (14.27)
s22 /σ22
sigue una distribución F de Fisher con (n1 − 1) y (n2 − 1) grados de libertad. Aprovechando esta propiedad,
los contrastes serán:
a) Contraste bilateral
Para este contraste la hipótesis nula será que las dos medias poblacionales son iguales, es decir
2
H0 : σ12 = σ22
(14.28)
H1 : σ12 %= σ22
El estadı́stico de prueba será el descrito en (14.27) cuando se cumple la hipótesis nula. Es decir
s21
F = . (14.29)
s22
Al seguir este estadı́stico una distribución F , se puede escribir (igualando el área de las dos colas de la
distribución)
P (F1−α/2,n1 −1,n2 −1 < F < Fα/2,n1 −1,n2 −1 ) = 1 − α,
donde Fα/2,n1 −1,n2 −1 es la abscisa de la distribución F con n1 − 1 y n2 − 1 grados de libertad que deja
a su derecha un área de probabilidad igual a α/2, y lo mismo para F1−α/2,n1 −1,n2 −1 . Por lo tanto, las
regiones de aceptación y rechazo de la hipótesis nula serán
2
A = {F : F1−α/2,n1 −1,n2 −1 ≤ F ≤ Fα/2,n1 −1,n2 −1 }
(14.30)
C = {F : F < F1−α/2,n1 −1,n2 −1 o F > Fα/2,n1 −1,n2 −1 }
s21
∈ [F1−α/2,n1 −1,n2 −1 , Fα/2,n1 −1,n2 −1 ] (14.31)
s22
b) Contraste unilateral
Como estadı́stico de prueba se usa el especificado en (14.29), situándose la región crı́tica en la cola
derecha de la distribución F
s21
≤ Fα,n1 −1,n2 −1 , (14.34)
s22
Ejemplo IV–12 ¿Son las varianzas del ejemplo IV–10 diferentes? ¿Y las del ejemplo IV–11?
1 1
F1−α/2,n1 −1,n2 −1 = F0.95,30,24 = = = 0.5298
F0.05,24,30 1.8874
Por lo que el estadı́stico será F = s21 /s22 = 52 /42 = 1.56 ∈ [0.53, 1.94] ⇒ no se rechaza H0 .
Ejemplo IV–11: supongamos ahora que α = 0.05. De formar similar a como hemos trabajado anteriormente
1 1
F1−α/2,n1 −1,n2 −1 = F0.975,8,8 = = = 0.2256
F0.025,8,8 4.4332
Supongamos ahora que se tiene un experimento de observaciones pareadas. Es decir, se extraen dos
muestras no independientes con el mismo tamaño n de dos poblaciones normales. En el tema anterior
se vió cómo este problema se simplificaba definiendo una nueva variable aleatoria D consistente en las
diferencias entre cada par de observaciones. De forma que para una muestra en particular se tenı́an n valores
"
de di = x1i − x2i , pudiendo definirse una media y una varianza muestral de esta variable como d = di /n
"
y s2d = (di − d)2 /(n − 1). Entonces el contraste de hipótesis para la diferencia de medias se convierte en
un contraste sobre el valor poblacional de d = µ1 − µ2 . El problema es equivalente entonces al del contraste
de la media de una población, por lo que se tiene que el estadı́stico
d−d
t= √ (14.35)
sd / n
sigue una distribución t de Student con n − 1 grados de libertad. Aquı́ se ha supuesto que la muestra no
es demasiado grande, por lo que hay que utilizar la distribución t. Para muestras grandes de poblaciones
normales (n > 30) se podrı́a substituir la distribución t por una normal sin cometer un excesivo error.
a) Contraste bilateral
El contraste bilateral consiste en comprobar si la diferencia entre las dos medias es nula. Esto es
equivalente a contrastar los siguientes valores de d
2
H0 : d = 0 ; µ1 = µ2
(14.36)
H1 : d %= 0 ; µ1 %= µ2
d
t= √ (14.37)
sd / n
|d|
√ ≤ tα/2,n−1 (14.38)
sd / n
b) Contraste unilateral
Para el contraste unilateral las hipótesis son:
2
H0 : d ≤ 0 ; µ1 ≤ µ2
(14.39)
H1 : d > 0 ; µ1 > µ2
Ejemplo IV–13 En el ejemplo III–16, ¿aumenta la producción al no permitir el bocadillo a media mañana? Utilizar α = 0.05.
0.8
t= √ = 0.82 ≤ t0.05,9 ⇒ se acepta H0
3.08/ 10
y no se considera probado que aumente la producción.
Aplicaciones de la distribución χ2
En los temas anteriores nos hemos ocupado de los contrastes de hipótesis sobre los parámetros pobla-
cionales. Para poderlos hacer hemos supuesto ciertas condiciones sobre la muestra, como que era aleatoria
y provenı́a de una población que seguı́a una determinada distribución. Ahora se presentan algunos méto-
dos para comprobar que una muestra dada cumple estas suposiciones. En particular, se estudiarán tests de
hipótesis para comprobar si la distribución supuesta es consistente con la muestra, si diferentes muestras
pueden considerarse homogéneas y si las observaciones de dos factores o parámetros de una misma población
son independientes. Todos estos tests se basan en un procedimiento común consistente en la aplicación de la
distribución χ2 .
Los intervalos de confianza y los contrastes de hipótesis sobre parámetros poblacionales se basan en supo-
ner que la población sigue una determinada distribución de probabilidad (normal, en muchos casos). Puesto
que las conclusiones de dichos contrastes dependen de la elección de la distribución teórica, es importante
determinar si dicha hipótesis puede ser correcta. Evidentemente, al trabajar con una muestra de una po-
blación, siempre existirán diferencias entre la distribución teórica y la observada. Sin embargo, habrá que
comprobar si dichas desviaciones pueden ser debidas al azar o, por el contrario, proporcionan evidencias de
que la distribución supuesta es incorrecta. Con este fin, en esta sección se presenta una prueba para, a partir
de una muestra, determinar si una población sigue una distribución teórica especı́fica.
La prueba aquı́ presentada, llamada de la bondad del ajuste, se basa en comparar las frecuencias
observadas para una muestra concreta (es decir, el número de elementos de la muestra en los que la variable
toma un valor concreto, o en un intervalo determinado) con las frecuencias esperadas si la muestra siguiese
la distribución teórica hipotética.
Supongamos que tenemos una muestra de tamaño n y que la variable aleatoria X puede tomar los
valores X1 , X2 , . . . , Xk excluyentes. Esto en principio sólo serı́a válido para una variable discreta, sin embargo
se puede aplicar también a una variable continua realizando un agrupamiento en intervalos. Sean oi las
frecuencias observadas para cada Xi , es decir, el número de elementos de la muestra con X = Xi . Si se
supone una distribución de probabilidad teórica, existirá una probabilidad pi de que X tome un determinado
valor Xi . Por lo tanto, las frecuencias esperadas para cada Xi serán ei = npi . Nótese que ha de cumplirse
165
166 Aplicaciones de la distribución χ2
X X1 X2 ... Xi ... Xk
Frecuencias observadas o1 o2 ... oi ... ok
Frecuencias esperadas e1 e2 ... ei ... ek
A continuación se hace la hipótesis nula H0 consistente en suponer que la muestra sigue la distribución
teórica elegida y, por tanto, las desviaciones encontradas respecto a ésta son debidas al azar. Para realizar
el contraste de esta hipótesis se define el estadı́stico
k
! (oi − ei )2
χ2k−1 = . (15.1)
i=1
ei
Se puede demostrar que, en el caso de que se cumpla H0 , el estadı́stico anterior sigue una distribución χ2
con k − 1 grados de libertad. Una demostración rigurosa de esto está fuera del alcance de este libro. Sin
embargo, una justificación intuitiva es la siguiente:
Consideremos como variable el número de elementos de la muestra con valores X = Xi , es decir oi . Si
la muestra es grande, puede suponerse que esta variable sigue una distribución de Poisson, con parámetro
λ = npi (valor esperado de oi ). Sabemos que si λ > 5, el siguiente estadı́stico sigue una normal tipificada
oi − λ oi − npi
Z= √ = √ $ N (0, 1)
λ npi
y, por tanto, teniendo en cuenta que ei = npi , los términos de la expresión (15.1) son los cuadrados de
variables aleatorias normales N (0, 1) y su suma constituye una χ2 . Puesto que, de las diferentes variables oi ,
"
sólo k − 1 son independientes (ya que oi = n), (15.1) será una χ2 con k − 1 grados de libertad.
Evidentemente, si las frecuencias observadas se acercan a las esperadas se obtendrá un valor bajo de χ2 y
la hipótesis nula (la muestra sigue la distribución teórica) se debe aceptar. Por el contrario, cuando existan
considerables diferencias entre las frecuencias observadas y esperadas, el valor de χ2 será grande y el ajuste
será pobre, rechazándose H0 . La región crı́tica cae entonces en la cola derecha de la distribución y, para un
nivel de significación α, se acepta H0 si
k
! (oi − ei )2
≤ χ2α,k−1 (15.2)
i=1
ei
y se rechaza si
k
! (oi − ei )2
> χ2α,k−1 . (15.3)
i=1
ei
k k
! (oi − ei )2 ! o2 − 2oi ei + e2
i i
= =
i=1
ei i=1
ei
k k k k k
! o2 i
! ! ! o2 i
! o2 i
= −2 oi + ei = − 2n + n = −n
i=1
ei i=1 i=1 i=1
ei i=1
ei
Para poder aplicar este método correctamente es necesario que el tamaño de la muestra sea suficien-
temente grande (tı́picamente n > 30). En particular, se suele poner la restricción de que las frecuencias
esperadas para cada Xi (o intervalo) no sean inferiores a 5 (ei ≥ 5). Cuando no se cumpla esto habrá que
agrupar diferentes valores de Xi (o intervalos) para que se verifique la condición. Evidentemente, ello reduce
el número de grados de libertad.
Otra consideración importante es que, si para calcular las frecuencias esperadas hay que usar parámetros
poblacionales estimados a partir de la propia muestra (ej. media y varianza para la distribución normal), el
número de grados de libertad de la χ2 hay que reducirlo a k − p − 1, donde p es el número de parámetros
poblacionales que se estiman (nótese que esto no se aplica si los parámetros poblacionales se conocen, o se
suponen, a priori, sin estimarlos a partir de los datos muestrales).
Esta prueba de la bondad del ajuste es una herramienta muy importante debido, fundamentalmente,
a que muchos procedimientos estadı́sticos dependen de la suposición de una determinada distribución de
probabilidad. En particular, es importante para comprobar la suposición de normalidad para la población,
aunque puede aplicarse en general para cualquier distribución.
Ejemplo IV–14 Consideremos el lanzamiento de un dado. Queremos saber si el dado está cargado. Es decir,
H0 : la población sigue una distribución uniforme.
xi : 1 2 3 4 5 6
oi : 92 85 102 94 117 110
ei : 100 100 100 100 100 100
1 1
pi = ⇒ ei = npi = 600 × = 100
6 6
6
! (oi − ei )2
χ2k−1 = = 7.18.
ei
i=1
Como χ2k−1 < χ2α,k−1 ⇒ no podemos rechazar H0 (las diferencias observadas son compatibles con el azar).
Un problema usual en las ciencias experimentales es el estudio de la dependencia o independencia entre dos
caracteres o factores medidos sobre los elementos de una población (ej. entre peso y altura para una muestra
de individuos). Además, a menudo hemos hecho la hipótesis de independencia para derivar expresiones
simplificadas respecto a la estimación de parámetros poblacionales. Es importante contar con un método
para contrastar dicha hipótesis. Para ello se puede seguir un procedimiento similar al de la prueba de la
bondad del ajuste, basado en la distribución χ2 .
Supongamos que sobre una muestra de tamaño n de una población se miden dos caracteres dados por
las variables aleatorias X e Y , que pueden tomar los valores x1 , x2 , . . . , xk e y1 , y2 , . . . , ym . Estos valores
particulares pueden representar a una variable cualitativa, discreta o continua agrupada en intervalos. De-
notaremos por oij a la frecuencia o número de elementos de la muestra que tienen conjuntamente X = xi e
Y = yj . Las frecuencias observadas se presentan usualmente en una tabla, llamada tabla de contingencia.
Para el caso de k valores posibles para X y m valores posibles para Y , la tabla de contingencia k × m será:
x \ y y1 y2 ··· yj ··· ym
x1 o11 (e11 ) o12 (e12 ) ··· o1j (e1j ) ··· o1m (e1m ) ox1
x2 o21 (e21 ) o22 (e22 ) ··· o2j (e2j ) ··· o2m (e2m ) ox2
.. .. .. .. .. .. .. ..
. . . . . . . .
xi oi1 (ei1 ) oi2 (ei2 ) ··· oij (eij ) ··· oim (eim ) oxi
.. .. .. .. .. .. .. ..
. . . . . . . .
xk ok1 (ek1 ) ok2 (ek2 ) ··· okj (ekj ) ··· nkm (ekm ) oxk
oy 1 oy 2 ··· oy j ··· oy m n
Se hace entonces la hipótesis nula H0 de que los dos caracteres son independientes, es decir, que para
cualquier valor fijo de Y las distribuciones para las diferentes X son las mismas, y viceversa. El contraste
de esta hipótesis se basa en comparar las frecuencias observadas con las que se esperarı́an si realmente los
dos caracteres fuesen independientes. Las frecuencias esperadas, representadas por eij , se pueden calcular
a partir de las probabilidades pij de que ambas variables tomen conjuntamente unos determinados valores,
que, bajo la hipótesis de independencia, serán
oxi oyj
pij = P (X = xi , Y = yj ) = P (X = xi )P (Y = yj ) $ .
n n
Por tanto
oxi oyj
eij = npij = . (15.4)
n
Es decir, las frecuencias esperadas se calculan multiplicando los totales de la fila y columna correspondiente
y dividendo por n. Estos valores se incluyen en la tabla de contingencia escribiéndolos entre paréntesis.
Para el contraste de la hipótesis de independencia se utiliza, igual que en la prueba de la bondad del
ajuste, el estadı́stico
k ! m k ! m
! (oij − eij )2 ! o2ij
χ2ν = = − n. (15.5)
i=1 j=1
eij e
i=1 j=1 ij
En el caso de ser H0 cierta, este estadı́stico sigue una distribución χ2 con ν grados de libertad. Para
calcular dicho número de grados de libertad hay que tener en cuenta que las sumas de las frecuencias
esperadas de cada fila o columna deben dar las frecuencias marginales, de forma que, para cada fila o
columna, sólo es necesario calcular k − 1 o m − 1 valores independientes. Ası́, por ejemplo, para una tabla
2 × 3 sólo hace falta calcular las frecuencias e11 y e12 por lo que el número de grados de libertad es 2. De
la misma manera, una tabla de contingencia 2 × 2 tiene un único grado de libertad. De forma general, el
número de grados de libertad se calcula como
ν = (k − 1)(m − 1).
Para tablas de contingencia de dimensiones determinadas existen fórmulas para calcular el valor de χ2 a
partir únicamente de las frecuencias observadas. Ası́, para una tabla 2 × 2, la expresión (15.5) es equivalente
a
n(o11 o22 − o12 o21 )2
χ2ν = , (15.6)
ox1 ox2 oy1 oy2
Al igual que ocurrı́a en la prueba de la bondad del ajuste, el método sólo es fiable si el número de
elementos es suficientemente grande. En particular, si alguna de las frecuencias esperadas es menor que 5
habrá que agrupar filas o columnas.
En resumen, puede establecerse que, para un nivel de significación α, la hipótesis H0 de independencia
de caracteres se acepta si
k ! m
! (oij − eij )2
≤ χ2α,(k−1)(m−1) (15.8)
i=1 j=1
eij
k ! m
! (oij − eij )2
≤ χ2α,(k−1)(m−1) .
i=1 j=1
eij
Grupos
Notas A B C D oxi
NT–SB 14 5 13 5 37
AP 26 31 23 10 90
SS 29 30 25 26 110
oyj 69 66 61 41 237
ox1 oy1 37 × 69
e11 = = = 10.8
n 237
ox1 oy2 37 × 66
e12 = = = 10.3
n 237
...
...
De tal forma que podemos añadir a la tabla las frecuencias esperadas ası́ calculadas (números entre parénte-
sis):
Grupos
Notas A B C D oxi
NT–SB 14 (10.8) 5 (10.3) 13 (9.5) 5 (6.4) 37
AP 26 (26.2) 31 (25.1) 23 (23.2) 10 (15.6) 90
SS 29 (32.0) 30 (30.6) 25 (28.3) 26 (19.0) 110
oyj 69 66 61 41 237
3 !
4
! o2ij
χ2ν = − n = 248.93 − 237 = 11.93.
eij
i=1 j=1
La probabilidad de éxito p se puede estimar a partir del conjunto de todas las muestras como
"k
ai
p = "ki=1 .
i=1 ni
De esta forma, se pueden calcular las frecuencias esperadas de éxitos como n1 p, n2 p, . . . , nk p y las de fracasos
como n1 − n1 p, n2 − n2 p, . . . , nk − nk p. Estos valores esperados se muestran entre paréntesis en la tabla de
contingencia.
La hipótesis nula H0 es que las muestras son homogéneas, y por tanto no hay diferencias significativas
entre las frecuencias observadas y esperadas. A partir de la tabla de contingencia, el estadı́stico en este caso
se puede escribir como
k ! 2 k k 2
! (oij − eij )2 ! (ai − ni p)2 ! ((ni − ai ) − (ni − ni p))
χ2k−1 = = + =
i=1 j=1
eij i=1
ni p i=1
ni − ni p
k 6 7 k
! (ai − ni p)2 (ai − ni p)2 ! (1 − p)(ai − ni p)2 + p(ai − ni p)2
= + =
i=1
ni p ni (1 − p) i=1
ni p(1 − p)
k
! (ai − ni p)2
1
⇒ χ2k−1 = , (15.11)
p(1 − p) i=1 ni
y sigue una distribución χ2 con un número de grados de libertad dado por ν = (k − 1)(m − 1) = k − 1 (puesto
que p se ha calculado a partir de los datos muestrales, sólo k − 1 de ellos son realmente independientes). Por
lo tanto, la hipótesis H0 de homogeneidad de las muestras puede aceptarse con un nivel de significación α
cuando
k
! (ai − ni p)2
1
≤ χ2α,k−1 . (15.12)
p(1 − p) i=1 ni
Un caso similar es cuando se quiere contrastar que k muestras pertenecen a una población binomial con
un parámetro p determinado. El análisis es el mismo con la diferencia de que, al no calcularse p a partir de
los datos muestrales y estar determinado a priori, el número de grados de libertad de la χ2 es k en vez de
k − 1 (los k números de éxitos esperados son ahora independientes).
Otro caso importante de aplicación del contraste de homogeneidad de muestras es cuando se quiere
contrastar si para k muestras supuestamente extraı́das de una población de Poisson, el parámetro λ, o
número medio de sucesos, es el mismo. Representemos por a1 , a2 , . . . , ak el número de sucesos observados en
cada muestra. A partir de estos datos, asumiendo la hipótesis nula H0 de homogeneidad, se puede realizar
una estimación del parámetro λ como
"k
i=1 ai
λ=
k
Por lo tanto, el número de sucesos esperados en cada muestra ha de ser ei = λ, para todas las muestras. De
esta forma, el estadı́stico χ2 del contraste de homogeneidad se puede escribir como
k k k k k
! (oi − ei )2 ! (ai − λ)2 ! a2 i
! ai λ !
χ2k−1 = = = −2 + λ=
i=1
ei i=1
λ i=1
λ i=1
λ i=1
k k k k
1! 2 ! 1! 2 !
= ai − 2 ai + λk = ai − ai (15.13)
λ i=1 i=1
λ i=1 i=1
y este estadı́stico seguirá una distribución χ2 con k − 1 grados de libertad. Por lo tanto, la hipótesis nula de
k k
1! 2 !
ai − ai ≤ χ2α,k−1 . (15.14)
λ i=1 i=1
Análisis de varianza
Supongamos que se tienen p poblaciones independientes de las que se extraen p muestras aleatorias de
tamaños no necesariamente iguales y representados por n1 , n2 , . . . , np . En el análisis de varianza se emplea
normalmente el término tratamiento para hablar de la caracterı́stica que diferencia a las p poblaciones.
Tı́picamente dicho tratamiento será, por ejemplo, un diferente abono (en agricultura), un diferente medica-
mento (en medicina) o, en general, un proceso diferente que se ha aplicado a cada una de las poblaciones y
sobre el que se quiere medir su efectividad. De esta forma diremos que se tienen p tratamientos diferentes.
Representaremos por xij al valor que toma la variable aleatoria en estudio para el elemento i–esimo del tra-
tamiento (o muestra) j. Los valores de la variable aleatoria obtenidos en el muestreo se pueden representar
entonces en una tabla de la siguiente forma:
173
174 Análisis de varianza
La tabla lista además las sumas muestrales Tj y los tamaños de cada muestra, en los que se verifica
p
!
nj = n,
j=1
donde n es el número total de elementos observados. Se incluyen también las medias muestrales definidas
como
nj
1 !
xj = xij (16.1)
nj i=1
Se puede definir además una media total que se puede escribir como
p nj p
1 !! 1!
x= xij = nj xj (16.2)
n j=1 i=1 n j=1
Para poder aplicar correctamente el análisis de varianza es necesario que las p poblaciones de partida
cumplan las siguientes condiciones:
Bajo estas condiciones, el objetivo del análisis de varianza es comprobar si las p medias poblacionales
pueden ser las mismas. Es decir, se trata de probar si los efectos producidos por los tratamientos son
significativamente diferentes entre si o no (ej. abono o medicamento más eficiente). En otras palabras, las
hipótesis nula y alternativa del análisis de varianza de un solo factor son:
2
H0 : µ1 = µ2 = . . . = µj = . . . = µp
(16.3)
H1 : Al menos dos de las medias son diferentes
El método del análisis de varianza se basa en estudiar las variaciones que siempre existirán entre los datos
xij de la tabla. En principio se supone que dichas variaciones se pueden separar en dos tipos de variaciones
diferentes:
a) Variación dentro de los tratamientos (VDT), es decir variaciones entre los elementos de cada
columna. Estas variaciones se suponen debidas al azar, es decir intrı́nsecas al proceso aleatorio de
elección de la muestra.
b) Variación entre los tratamientos (VET), o variaciones entre los valores medios xj de cada trata-
miento. Estas serán debidas, por una parte a efectos aleatorios, y podrán incluir posibles variaciones
sistemáticas entre las medias poblacionales de cada tratamiento.
De esta manera, el objetivo del método es estudiar si la variación entre tratamientos es consistente con
lo que podrı́a esperarse de las variaciones aleatorias, o si, por el contrario, existen evidencias de variaciones
sistemáticas entre los diferentes tratamientos. En otras palabras se trata de contrastar si la variación entre
tratamientos es significativamente mayor que la variación dentro de los tratamientos.
Para desarrollar este método matemáticamente, se define la variación total (VT) de los datos de la
tabla como
nj
p !
!
VT = (xij − x)2 . (16.4)
j=1 i=1
nj
p ! nj
p ! nj
p !
! ! !
2 2
= (xij − xj ) + (xj − x) + 2 (xij − xj )(xj − x).
j=1 i=1 j=1 i=1 j=1 i=1
p
( nj
) p
! ! !
= (xj − x) xij − nj xj (xj − x) = ((xj − x)nj xj − nj xj (xj − x)) = 0.
j=1 i=1 j=1
Esta última expresión, considerada como la ecuación fundamental del análisis de varianza, implica que
la variación total de los datos puede escribirse como una suma de dos variaciones. La primera coincide con
la variación dentro de los tratamientos, denotada por V DT
nj
p !
!
V DT = (xij − xj )2 , (16.6)
j=1 i=1
Es importante hacer notar que ambas variaciones, V ET y V DT , pueden servir para hacer una estimación
de la varianza poblacional común σ 2 en el caso de que H0 sea cierta (es decir, si no existe diferencia entre las
medias para cada tratamiento). Sin embargo, V ET y V DT no son exactamente estimadores de la varianza
pues constituyen suma de cuadrados de desviaciones, sin dividir aún por el número de puntos usados en cada
estimación.
En particular, a partir de la variación dentro de los tratamientos V DT puede estimarse σ 2 . Por una
parte, usando un único tratamiento, un estimador puntual de la varianza del tratamiento j será la varianza
muestral "nj
i=1 (xij − xj )2
s2j =
nj − 1
Como todas las columnas han de tener la misma varianza poblacional σ 2 , una buena estimación de ésta
puede conseguirse haciendo la media ponderada de las varianzas muestrales pesando con el número de grados
de libertad (o número de puntos menos 1) de cada muestra. Llamemos s2V DT a esta estimación de σ 2
"p "p "nj
(nj − 1)s2j i=1 (xij − xj )2
s2V DT = "j=1
p =
j=1
.
j=1 (nj − 1) n−p
V DT
⇒ M E ≡ s2V DT = , (16.9)
n−p
donde se ha denotado esta estimación de σ 2 por M E, llamado cuadrado medio del azar, ya que representa
la varianza esperada únicamente por los efectos aleatorios. Es importante indicar que, se cumpla o no la
hipótesis nula de igualdad de medias, M E constituye siempre una estimación insesgada de la varianza
poblacional. El número de grados de libertad de esta estimación es lógicamente n − p pues se han usado p
medias muestrales para su cálculo (sólo n − p valores son independientes).
Por otra parte, si la hipótesis H0 fuese cierta, la varianza poblacional también podrı́a estimarse a partir
de la variación entre tratamientos V ET . Supongamos por simplicidad que todas las muestras tienen el
mismo tamaño, que denotaremos por n0 . Las diferentes xj son estimaciones de la media muestral (que
suponemos constante). De forma que la varianza de la distribución muestral de medias se puede expresar
como σx2 = σ 2 /n0 . Por lo tanto, una estimación, denotada por s2V ET , de la varianza poblacional σ 2 puede
obtenerse a partir de la varianza de la distribución muestral de medias como
"p "p
j=1 (xj − x)2 j=1 n0 (xj − x)2
s2V ET = n0 sx2 = n0 = .
p−1 p−1
Con un desarrollo algo más largo se puede también demostrar que, en el caso de muestras de tamaños
desiguales, una estimación de σ 2 viene dada, como cabrı́a esperarse, por
"p
j=1 nj (xj − x)2
s2V ET = .
p−1
V ET
⇒ M T ≡ s2V ET = , (16.10)
p−1
donde esta estimación de σ 2 se ha denotado por M T , llamado cuadrado medio de los tratamientos,
representando la varianza esperada tanto por efectos aleatorios como por posibles diferencias entre las medias
de cada tratamiento. Es decir, M T es una estimación insesgada de la varianza poblacional únicamente en el
caso de que se cumpla H0 . En otro caso, se esperarı́an valores mayores de M T pues los efectos sistemáticos,
debidos a las diferencias entre las distintas medias, se sumarı́an a los aleatorios. Lógicamente, el número de
grados de libertad de esta varianza es p − 1, pues se han usado p − 1 datos independientes.
En resumen, si se cumple H0 , tanto M E como M T constituirán estimaciones insesgadas de σ 2 . Por
el contrario, si hay variaciones sistemáticas entre poblaciones, esperarı́amos tener un valor de M T mayor
que M E, que sigue constituyendo una estimación de σ 2 . De esta manera, el problema se convierte en una
comparación de varianzas y las hipótesis establecidas en (16.3) son equivalentes a
2
H0 : σV2 ET ≤ σV2 DT
(16.11)
H1 : σV2 ET > σV2 DT
Es, entonces, un contraste unilateral sobre la igualdad de varianzas. Solo se rechazará la hipótesis nula
cuando la varianza calculada a partir de la variación entre tratamientos sea mayor que la varianza estimada
a partir de la variación dentro de los tratamientos. Según se explicó en la sección 2.2.3, este contraste se
resuelve definiendo el estadı́stico
s2V ET MT
F = = (16.12)
s2V DT ME
y aceptando la hipótesis nula de no diferencia entre todas las medias poblacionales, a un nivel de significación
α, cuando
MT
≤ Fα,p−1,n−p , (16.13)
ME
donde Fα,p−1,n−p es la abscisa de la distribución F de Fisher con p − 1 y n − p grados de libertad que deja
a su derecha un área igual a α.
Como resumen, los cálculos que se han de realizar para llevar a cabo el análisis de varianza se pueden
mostrar en la siguiente tabla de análisis de varianza:
(Nótese cómo el número de grados de libertad de la variación total es la suma de los grados de libertad de
V ET y V DT )
En la práctica existen fórmulas sencillas para el cálculo de las diferentes variaciones necesarias para el
análisis. Por una parte, se puede desarrollar la expresión (16.4) para la variación total como sigue
nj
p ! nj
p ! nj
p ! nj
p !
! ! ! !
2
VT = (xij − x) = x2ij − 2x xij + x2 =
j=1 i=1 j=1 i=1 j=1 i=1 j=1 i=1
nj
p ! nj
p !
! !
= x2ij − 2xnx + nx2 = x2ij − nx2
j=1 i=1 j=1 i=1
Por otra parte, la variación entre tratamientos V ET se puede calcular desarrollando (16.7)
p
! p
! p
! p
!
V ET = nj (xj − x)2 = nj xj 2 − 2x nj xj + x2 nj .
j=1 j=1 j=1 j=1
nj
!
Tj ≡ nj xj = xij , (16.16)
i=1
p
! Tj2
⇒ V ET = − C. (16.17)
j=1
nj
Por último, la variación dentro de los tratamientos V DT se puede calcular a partir de V T y V ET usando
(16.8). Es decir
V DT = V T − V ET. (16.18)
A partir de aquı́ se calculan los cuadrados medios M E y M T usando (16.9) y (16.10), y el cociente
F = M T /M E, que se comparará con el valor crı́tico F1−α,p−1,n−p para aceptar o rechazar la hipótesis nula
de igualdad de medias entre las poblaciones.
El análisis de varianza con un sólo factor de variación puede generalizarse al caso en que se tengan más
factores de variación entre las poblaciones. En el caso particular de dos factores de variación se supone que
además de tener p poblaciones con distintos tratamientos, en las muestras que se extraen de éstas, cada
elemento corresponde a un valor de un segundo factor. Es decir cada muestra se divide en b elementos
diferenciados por un factor. A cada conjunto de elementos con este segundo factor igual pero variando el
primer factor, o tratamiento, se le llama bloque. Un ejemplo claro es cuando se quiere probar la eficiencia de
p máquinas distintas (aquı́ las diferentes máquinas serı́an los tratamientos). Para ello se prueba el rendimiento
de cada máquina cuando en ella trabajan b diferentes operarios (cada operario serı́a un bloque). En realidad es
como si se tuvieran p×b poblaciones diferentes y se tomase un único dato de cada una de ellas. Evidentemente,
además de las esperables variaciones aleatorias podrı́a haber diferencias significativas debidas a los distintos
tratamientos (eficiencia de las máquinas en el ejemplo) o a los distintos bloques (eficiencia de los operarios en
el ejemplo). El análisis de varianza con dos factores de variación es la herramienta adecuada para contrastar
simultáneamente si pueden existir variaciones sistemáticas entre tratamientos o entre bloques.
En general se representará por xij al valor que toma la variable aleatoria en estudio para el bloque i y
el tratamiento j. De esta forma, si se tienen p tratamientos y b bloques los valores de la variable aleatoria
obtenidos en el muestreo se pueden representar en la siguiente tabla (suponemos que hay un único dato para
cada tratamiento y bloque):
La tabla lista además las sumas muestrales para cada bloque (TBi ) y tratamiento (TTj ), junto con las
medias muestrales, definidas para el bloque i y el tratamiento j como
p b
1! 1!
xBi = xij ; xTj = xij . (16.19)
p j=1 b i=1
p b b p
1 !! 1! 1!
x= xij = xBi = xT , (16.20)
n j=1 i=1 b i=1 p j=1 j
2
H0" : µB1 = µB2 = . . . = µBi = . . . = µBb
(16.22)
H1" : Al menos dos de las medias µBi son diferentes
El método del análisis de varianza se basa entonces en estudiar las variaciones entre los datos. Dichas
variaciones se suponen de tres tipos diferentes:
a) Variación debida al azar. Son las variaciones dentro de cada columna o fila de la tabla. Es decir,
son similares a las variaciones dentro de los tratamientos en el análisis con un sólo factor.
b) Variación entre los tratamientos, o variaciones entre los valores medios xTj de cada tratamiento.
Estas serán debidas a los efectos aleatorios más las posibles variaciones sistemáticas entre los trata-
mientos.
c) Variación entre los bloques, debidas a los efectos aleatorios más las posibles variaciones sistemáticas
entre los bloques.
p !
! b p !
! b
3 42
VT = (xij − x)2 = (xij − xTj − xBi + x) + (xTj − x) + (xBi − x) .
j=1 i=1 j=1 i=1
Se puede comprobar que, al igual que en el caso del análisis con un sólo factor, los términos cruzados de
la expresión anterior se anulan, quedando la variación total como
p !
! b p !
! b p !
! b
VT = (xij − xTj − xBi + x)2 + (xTj − x)2 + (xBi − x)2 (16.23)
j=1 i=1 j=1 i=1 j=1 i=1
Por lo tanto se puede descomponer la variación total en tres términos correspondientes a la variación
debida al azar (denotada por V DT pues es similar a la variación dentro de los tratamientos para el caso de
un factor), la variación entre tratamientos (V ET ) y la variación entre bloques (V EB). Es decir
V T = V DT + V ET + V EB, (16.24)
donde
p !
! b
V DT = (xij − xTj − xBi + x)2 , (16.25)
j=1 i=1
p
!
V ET = b (xTj − x)2 , (16.26)
j=1
b
!
V EB = p (xBi − x)2 . (16.27)
i=1
Estas tres variaciones, V DT , V ET y V EB, pueden servir para hacer una estimación de la varianza po-
blacional común σ 2 en el caso de que H0 y H0" sean ciertas. Por analogı́a con el caso de un factor, estas
estimaciones se pueden escribir como los siguientes cuadrados medios del azar (M E), tratamientos (M T )
y bloques (M B)
V DT
M E ≡ s2V DT = , (16.28)
(p − 1)(b − 1)
V ET
M T ≡ s2V ET = , (16.29)
p−1
V EB
M B ≡ s2V EB = , (16.30)
b−1
donde se ha dividido cada suma de cuadrados por los grados de libertad, o número de datos independientes
para calcular dichas sumas. Nótese que en el caso de M E, al usarse p medias de tratamientos y b medias de
bloques, el número de grados de libertad ha de ser (p − 1)(b − 1).
Es importante indicar que M E constituye siempre una estimación insesgada de σ 2 , se cumplan o no
las hipótesis nulas. Sin embargo, M T y M B sólo serán estimadores insegados cuando se cumplan, respec-
tivamente, H0 y H0" . En otros casos, es decir cuando existan diferencias sistemáticas entre tratamientos o
bloques, dichos cuadrados tomarı́an valores mayores que σ 2 , y por tanto que M E. Por lo tanto, el problema
se plantea como dos contrastes unilaterales de igualdad de varianzas donde las hipótesis son
2
H0 : σV2 ET ≤ σV2 DT
(16.31)
H1 : σV2 ET > σV2 DT
2
H0" : σV2 EB ≤ σV2 DT
(16.32)
H1" : σV2 EB > σV2 DT
s2V ET MT s2V EB MB
F = 2 = ; F" = 2 = , (16.33)
sV DT ME sV DT ME
aceptándose la hipótesis nula H0 de no diferencia entre los tratamientos, a un nivel de significación α, cuando
MT
≤ Fα,p−1,(p−1)(b−1) (16.34)
ME
MB
≤ Fα,b−1,(p−1)(b−1) . (16.35)
ME
Al igual que antes, se puede escribir una tabla resumen con todos los factores necesarios para realizar
este análisis de varianza como:
(El número de grados de libertad de la variación total es n − 1 (= pb − 1) y coincide con la suma de los
grados de libertad de V ET , V EB y V DT )
Las fórmulas para el cálculo de las diferentes variaciones necesarias para el análisis son similares a las
presentadas para el caso de un único factor. Ası́ la variación total puede calcularse como
2
p !
b p !
b
! 1 !
VT = x2ij − C donde C= xij . (16.36)
j=1 i=1
n j=1 i=1
Por otra parte, las variaciones entre tratamientos V ET y entre bloques V EB se pueden expresar como
p b
! TT2j !
V ET = −C donde TTj = xij (16.37)
j=1
b i=1
b p
! TB2 i
!
V EB = −C donde T Bi = xij (16.38)
i=1
p j=1
Por último, la variación debida al azar V DT se puede calcular, usando (16.24), como
V DT = V T − V ET − V EB. (16.39)
Hay que indicar que en el análisis anterior se ha supuesto que hay un único dato para cada bloque y
tratamiento dado. Se pueden hacer modificaciones a los desarrollos anteriores para realizar el análisis de
varianza con dos factores cuando para cada tratamiento y bloque (es decir, para cada celda de la tabla de
datos) se tienen toda una serie de medidas.
REGRESIÓN LINEAL
183
Capı́tulo 17
Regresión lineal
Dentro del estudio de las variables estadı́sticas bidimensionales vamos a abordar el análisis de la existencia
de relaciones o dependencias entre las dos variables x e y que forman la variable bidimensional. Básicamente,
la relación entre las dos variables podrá ser de dos tipos: funcional, cuando exista una relación matemática
exacta que ligue ambas variables (ej. el radio y el área de un cı́rculo), o aleatoria, cuando, aunque no exista
entre las variables una relación exacta, se puede observar (aunque no siempre es el caso) una cierta tendencia
entre los comportamientos de ambas (ej. el peso y la altura de un individuo).
El primer paso para el estudio de la relación entre las variables consiste en la construcción y observación
de un diagrama de dispersión (Figura 17.1). El problema de la regresión se concreta entonces en ajustar una
función a la nube de puntos representada en dicho diagrama. Esta función permitirá entonces obtener, al
menos de forma aproximada, una estimación del valor de una de las variables a partir del valor que tome
la otra. Cuando la función sea del tipo y = f (x), hablaremos de regresión de y sobre x (a partir de los
valores de x se pueden estimar los de y). Al contrario, la regresión de x sobre y se basará en una función
del tipo x = f (y).
Se conoce como lı́nea de regresión a la representación gráfica de la función que se ajusta a la nube
de puntos del diagrama de dispersión. Un primer problema para el estudio de la regresión es la elección del
tipo de lı́nea de regresión. Efectivamente, ésta podrá adoptar diferentes formas funcionales, y el tipo de lı́nea
se elegirá a partir de la forma de la nube de puntos. Cuando dicha nube se distribuya aproximadamente a
lo largo de una lı́nea recta ajustaremos una recta de regresión. Será el caso particular de la regresión
lineal. En este caso importante, la regresión de y sobre x vendrá dada entonces por
y = a + bx, (17.1)
donde a y b son dos parámetros que habremos de determinar. Gráficamente a será la ordenada de la recta
en el origen (es decir el valor de y para x = 0) y b la pendiente de ésta.
Aunque aquı́ nos concentraremos, por simplicidad, en la regresión lineal, la lı́nea de regresión puede
responder a otras formas funcionales como, por ejemplo, es el caso de la regresión parabólica (y = a+bx+cx2 )
y exponencial (y = abx ).
185
186 Regresión lineal
Figura 17.1: Ejemplo de diagrama de dispersión. Los datos corresponden a las medidas de dispersión de velocidades
y luminosidad en una muestra de 40 galaxias elı́pticas realizadas por Schechter (1980).
Dentro del estudio de la regresión lineal vamos a analizar cómo se pueden determinar los parámetros a y
b de la recta de regresión dada por (17.1), es decir, en el caso de la regresión de y sobre x (el caso contrario
es similar). Como ya se ha indicado dicha recta de regresión nos permitirá obtener valores aproximados de
y conocidos los de x.
Para calcular la recta que mejor se ajusta a la nube de puntos observada se usa el método de mı́nimos
cuadrados. Veamos a continuación en qué consiste.
Sea una muestra de tamaño n en que la variable estadı́stica bidimensional toma los valores
(x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ).
A cada valor xi de la variable x le corresponde entonces un valor yi de la variable y, pudiendo además
asociársele un valor yi∗ , que serı́a el dado por la recta que queremos calcular. Es decir
yi∗ = a + bxi .
Llamemos di a la diferencia entre los dos valores, observado y dado por la recta, de la variable y en cada
punto (ver Figura 17.2)
di = yi∗ − yi .
Para que la recta a determinar sea la que mejor se ajuste a la nube de puntos de entre todas las rectas
posibles, dichas distancias di deberán ser lo más pequeñas posible. Es decir, hay que minimizar los di . Para
ello es conveniente tomar los cuadrados de las distancias, para que ası́ no se anulen desviaciones positivas y
Para encontrar los valores de a y b que hacen mı́nima esa expresión se deriva M respecto a esos dos parámetros
y se igualan las derivadas a 0 (a partir de aquı́ se simplifica la notación de los sumatorios y no se indica que
el ı́ndice va desde i = 1 hasta n)
∂M !
= 2(a + bxi − yi ) = 0
∂a
∂M =
!
2(a + bxi − yi )xi = 0
∂b
"n
Desarrollando los sumatorios y recordando que i=1 a = an
"
(a + bxi − yi ) = 0
⇒ (17.2)
"(ax + bx2 − x y ) = 0
i i i i
" "
an + b xi = yi
⇒ (17.3)
a " x + b " x2 = " x y
i i i i
Este sistema sencillo de ecuaciones, conocidas como ecuaciones normales, se puede resolver por el método
5 " 5
5 5
5 n 5yi" " "
1 55 5 n xi yi − xi yi
b= 5= " "
∆ 55 " "
5
5 n x2i − ( xi )2
5 xi xi yi 5
Estas expresiones para los parámetros de la recta se pueden simplificar introduciendo las definiciones de
media " "
xi yi
x= y y= .
n n
Dividiendo por n2 en el numerador y denominador de la expresión para b, ésta queda
1
"
n xi yi − x y
b= 1
" 2 . (17.4)
n xi − x2
y = a + bx. (17.5)
a = y − bx. (17.6)
La expresión (17.5) es además interesante ya que indica que la recta de regresión debe pasar por (x, y), es
decir, por el centro de la nube de puntos.
El desarrollo anterior puede generalizarse para calcular expresiones similares para la regresión parabólica
y, en general, polinómica (y = a0 + a1 x + a2 x2 + . . . + an xn ). En el caso de la regresión exponencial el
problema de la regresión se puede simplificar al de la regresión lineal ya que, tomando logaritmos
Las expresiones para los parámetros de la recta de regresión se pueden simplificar más introduciendo una
importante definición. Se define la covarianza de una muestra bidimensional a
"n
i=1 (xi− x)(yi − y)
Cov ≡ s2xy = . (17.7)
n−1
Es decir, es una definición muy similar a la de la varianza s2 , pero mezclando las desviaciones de ambas
variables. Al igual que ocurrı́a con la varianza, en muchas ocasiones en el denominador se utiliza n en vez
de n − 1. Aquı́ usaremos esta segunda definición.
En el caso general de que haya valores repetidos, o agrupamiento en intervalos, la definición de la cova-
rianza serı́a "k "l
i=1 j=1 (xi − x)(yj − y)nij
Cov ≡ s2xy = . (17.8)
n−1
Más adelante se profundizará más en el significado de la covarianza. Desarrollando la expresión (17.7) de
la covarianza se puede llegar a una fórmula simplificada para calcularla
" "
(xi − x)(yi − y) (xi yi − xyi − xi y + x y)
s2xy = = =
n−1 n−1
" " "
xi yi − x yi − y xi + nx y
= =
n−1
" "
xi yi − xny − ynx + nx y xi yi − nx y
= = . (17.9)
n−1 n−1
De la misma forma se puede desarrollar la expresión para la varianza de x
" " 2 " 2 "
(xi − x)2 (xi − 2xi x + x2 ) xi − 2x xi + nx2
s2x = = = =
n−1 n−1 n−1
" "
x2i − 2nx2 + nx2 x2i − nx2
= = . (17.10)
n−1 n−1
Nótese además que estas dos expresiones desarrolladas para la covarianza y varianza son similares al
numerador y denominador, respectivamente, de la fórmula (17.4) para calcular el parámetro b (ordenada en
el origen) de la recta de regresión. La similitud es más clara si escribimos dichas expresiones como
6 7 6 7
n 1! n 1! 2
s2xy = xi yi − x y ; s2x = xi − x2 .
n−1 n n−1 n
De forma que la expresión para el coeficiente b de la recta de regresión de y sobre x puede escribirse como la
razón entre la covarianza y la varianza de x. A dicho coeficiente se le llama coeficiente de regresión de
y sobre x y se denota por byx
s2xy Cov
by x = = 2 . (17.11)
s2x sx
Esto nos permite además, utilizando (17.6), poder escribir la ecuación de la recta de regresión como
Cov
⇒ y−y = (x − x). (17.12)
s2x
De igual manera se puede obtener la recta de regresión de x sobre y (x = a + by), minimizando en este
caso las distancias horizontales (x∗i − xi ) a la recta. El resultado es que el coeficiente de regresión de x
sobre y (denotado por bxy ) y la recta resultante se pueden escribir
Cov Cov
bxy = ; x−x= (y − y). (17.13)
s2y s2y
Nótese que ambas rectas de regresión (17.12) y (17.13) no coinciden en general y que ambas se cortan en
el punto (x, y) (ver Figura 17.3). Hay que indicar que la regresión de x sobre y es igualmente importante a la
Figura 17.3: Usando los mismos datos de la Figura 17.1 se comprueba que la recta de regresión de y sobre x (lı́nea
continua) no coincide con la recta de regresión de x sobre y (lı́nea de trazos). Ambas rectas se cruzan en el punto
(x, y).
de y sobre x. En general, a no ser que se quiera estudiar en particular la dependencia de y con x, habrá que
calcular ambas rectas.
El significado de los coeficientes de regresión es que byx es, como ya se ha indicado, la pendiente de la
recta de y sobre x, de forma que cuando sea positivo la recta será creciente y al contrario. En el caso de que
byx = 0 la recta será horizontal. De la misma manera, bxy representa la pendiente de la recta respecto al eje
de ordenadas Y , y cuando sea nulo la recta será vertical. Se puede observar además que ambos coeficientes
de regresión tienen el mismo signo (el signo de la covarianza, ya que las varianzas siempre son positivas).
Esto implica que las dos rectas de regresión serán a la vez ascendentes o descendentes.
Después de haber considerado el tema de la regresión, cuyo objetivo era la estimación de una variable
a partir de la otra, nos planteamos el problema de la correlación, el cual estudia el grado de asociación o
dependencia entre las dos variables. Es decir, estudiar la correlación significa analizar hasta qué punto es
significativa la dependencia de una variable con la otra. De esta manera, por ejemplo, cuando exista una
dependencia funcional entre ambas variables diremos que tenemos una correlación perfecta (ej. radio y área
de un cı́rculo). Cuando, por el contrario, no exista ninguna dependencia entre las variables diremos que
no hay correlación (ej. primera letra del apellido y altura de un individuo). El caso más interesante es el
intermedio, cuando es posible que exista alguna correlación, aunque no perfecta, que habrá que cuantificar.
Nos vamos a concentrar aquı́ en un tipo particular de correlación que es la correlación lineal. Esta
estudiará el grado en que la nube de puntos representada en el diagrama de dispersión se acerca a una recta.
Cuanto mejor se aproxime dicha nube a una recta, mayor será el grado de correlación lineal. De esta forma,
el estudio de la correlación lineal está ı́ntimamente ligado al de la regresión lineal. Distinguiremos dos tipos
Figura 17.4: Distintos ejemplos sencillos de correlaciones: (a) claramente positiva; (b) claramente negativa; (c)
débilmente positiva; y (d) sin sin correlación.
de correlación lineal. Cuando al crecer la variable x, la variable y tienda también a aumentar (pendiente
positiva de la recta de regresión) diremos que tenemos una correlación positiva o directa. Cuando ocurra
lo contrario, la correlación será negativa o inversa.
Evidentemente, la simple observación del diagrama de dispersión proporciona una idea cualitativa del
grado de correlación. Sin embargo, es claramente más útil disponer de una medida cuantitativa de dicha
correlación. Una primera cuantificación de la correlación se puede obtener a partir de la covarianza. Efecti-
vamente, en la Figura 17.4 puede observarse que, en el caso de una clara correlación lineal positiva, la mayor
parte de los puntos estarán en el segundo y tercer cuadrante, de forma que, en la definición de covarianza
dada en (17.7) cuando xi sea mayor que x, también yi tenderá a ser mayor que y, y al revés. Por tanto, la
mayorı́a de los términos del sumatorio serán positivos y la covarianza alcanzará un valor alto. Por el mismo
argumento, si existe correlación lineal negativa, la mayorı́a de los términos del sumatorio serán negativos y la
covarianza tendrá un valor alto y negativo. En el caso de que no hubiese correlación y los puntos estuviesen
repartidos en los cuatro cuadrantes, en el numerador de (17.7) aparecerı́an por igual términos positivos y
negativos, que se anuları́an dando un valor muy bajo, en valor absoluto, de la covarianza. En resumen, la
covarianza es una medida de la correlación lineal entre las dos variables.
La utilidad de la covarianza como medida de correlación está limitada por el hecho de que depende de las
unidades de medida en que se trabaje. Para construir una medida adimensional de la correlación habrá que
dividir la varianza por un término con sus mismas dimensiones. De esta forma, se define el coeficiente de
correlación lineal r como el cociente entre la covarianza y las desviaciones tı́picas (o raices cuadradas de
las varianzas) de x e y
s2xy Cov
r= = . (17.14)
sx sy sx sy
Desarrollando esta expresión mediante la aplicación de (17.9) y (17.10) se puede llegar a una fórmula más
fácil de aplicar para el cálculo del coeficiente de correlación lineal
"1
s2xy ( xi yi − nx y)
n−1
r= =# 4# 1 3" 2 4=
sx sy 1
3" 2
x − nx2
y − ny 2
n−1 i n−1 i
Es importante resaltar que el coeficiente de correlación no depende de las unidades en que se midan las
variables, al contrario que la varianza o la covarianza.
Es posible establecer una relación entre el coeficiente de correlación lineal (r) y los coeficientes de regresión
(byx y bxy ). Usando las definiciones de ambos coeficientes
Cov
by x = ⇒ Cov = byx s2x
s2x
sy
⇒ byx s2x = rsx sy ⇒ byx = r . (17.15)
sx
Cov
r= ⇒ Cov = rsx sy
sx sy
De la misma forma se puede encontrar una expresión para el coeficiente de regresión de x sobre y en
función del coeficiente de correlación
sx
bxy = r . (17.16)
sy
Además se puede demostrar que el coeficiente de correlación es la media geométrica de los dos coeficientes
de regresión, ya que $
Cov Cov Cov #
r= = 2 2
= ± byx bxy .
sx sy sx sy
Es decir, al igual que la varianza de una variable es una medida de la dispersión respecto al valor medio
de ésta, la varianza residual mide la dispersión de los puntos respecto a la recta ajustada. Algunos autores
definen la varianza residual utilizando n en vez de n − 2. La definición aquı́ usada da una mejor estimación
de la dispersión del ajuste. Nótese que, de forma similar a lo que ocurrı́a en la definición de la varianza, solo
existen n − 2 desviaciones independientes respecto a la recta (el sistema tiene n − 2 grados de libertad), ya
que si sólo tuviésemos 2 puntos conocerı́amos sus desviaciones pues ambas serı́an 0, de aquı́ el sentido de
promediar las desviaciones al cuadrado dividendo por ese número.
A partir de la varianza residual se puede definir la desviación tı́pica residual como
$"
n
i=1 (yi − a − bxi )2
sr = . (17.18)
n−2
También se puede encontrar una relación entre esta varianza residual y el coeficiente de correlación.
Partiendo de la definición de varianza residual e introduciendo (17.6)
" " " 2
(yi − a − bxi )2 (yi − y + bx − bxi )2 ((yi − y) − b(xi − x))
s2r = = = =
n−2 n−2 n−2
" " "
(yi − y)2 + b2 (xi − x)2 − 2b (yi − y)(xi − x)
= .
n−2
Introducimos ahora las definiciones de varianza y covarianza (17.7)
n−1 2
s2r = (s + b2 s2x − 2bCov).
n−2 y
Sustituyendo b por su expresión en (17.15) (nótese que el coeficiente de regresión que estamos usando es byx )
y poniendo la covarianza en función del coeficiente de correlación, usando (17.14)
( ) 6 7
n−1 s2y sy n−1 sy
s2r = s2y + r2 2 s2x − 2r Cov = s2y + r2 s2y − 2r rsx sy =
n−2 sx sx n−2 sx
n−1 2 n−1 2
= (s + r2 s2y − 2r2 s2y ) = (s − r2 s2y )
n−2 y n−2 y
n−1 2
⇒ s2r = s (1 − r2 ). (17.19)
n−2 y
Usando las relaciones derivadas en el apartado anterior se puede hacer una interpretación del coeficiente
de correlación. En primer lugar, a partir de (17.19) podemos acotar sus posibles valores. Efectivamente, dado
que, por sus definiciones, tanto la varianza residual s2r como la varianza s2y han de ser positivas, podemos
deducir que el coeficiente de correlación ha de estar acotado entre los valores −1 y +1
(1 − r2 ) ≥ 0 ⇒ r2 ≤ 1 ⇒ −1 ≤ r ≤ 1.
Además, a partir de la relaciones (17.15) y (17.16), junto con la definición (17.14) del coeficiente de
correlación, puede observarse que dicho coeficiente de correlación, los coeficientes de regresión y la covarianza
han de tener el mismo signo
Es decir, cuando el coeficiente de correlación sea positivo, la pendiente de la recta será positiva (al
igual que la varianza) y tendremos una correlación directa o positiva. Asimismo, cuando r sea negativo, nos
1. r = 0. En este caso, por las relaciones vistas en el apartado anterior, es claro que se cumple
Es decir, en este caso, al ser la covarianza nula no existirá correlación. Además las pendientes de la
rectas de regresión de y sobre x y de x sobre y serán nulas, es decir sus orientaciones serán horizontal y
vertical respectivamente. Por otra parte, al ser la varianza residual aproximadamente igual a la varianza
de y, la dispersión de la variable y no se verá reducida al ajustar la recta de regresión.
2. r = 1. Es claro que en este caso se cumple que la varianza residual es nula (s2r = 0), por lo que no
habrá dispersión de los puntos respecto a la recta y todos se situaran sobre ella. En este caso tendremos
una dependencia funcional entre ambas variables y una correlación positiva, o directa, perfecta. Además
las dos rectas de regresión (de y sobre x y de x sobre y) coincidirán.
3. r = −1. Al igual que en el caso anterior todos los puntos se situarán sobre la recta y la correlación
será negativa, o inversa, perfecta.
4. 0 < r < 1. En este caso, la correlación será positiva pero no perfecta. Evidentemente la correlación (y
la covarianza) será mejor cuanto más se acerque r a 1.
5. −1 < r < 0. De la misma manera tendremos una correlación negativa tanto mejor cuanto más próximo
esté r a −1.
Para examinar más profundamente el significado del coeficiente de correlación, despejemos éste de la
relación (17.19) "n ∗ 2
2 (n − 2)s2r i (yi − yi )
r =1− = 1 − " n , (17.20)
(n − 1)s2y i (yi − y)
2
donde se han aplicado las definiciones de varianza de y y varianza residual (17.17). Además se puede desa-
rrollar el término del denominador como
n
! n
! 2
(yi − y)2 = ((yi − yi∗ ) + (yi∗ − y)) =
i=1 i=1
n
! n
! n
!
(yi − yi∗ )2 + (yi∗ 2
− y) + 2 (yi − yi∗ )(yi∗ − y).
i=1 i=1 i=1
n
! n
! n
!
=a (yi − a − bxi ) + b xi (yi − a − bxi ) − y (yi − a − bxi ) = 0,
i=1 i=1 i=1
puesto que todos los sumatorios se anulan por (17.2). Por lo tanto, hemos demostrado que
n
! n
! n
!
(yi − y)2 = (yi − yi∗ )2 + (yi∗ − y)2 . (17.21)
i=1 i=1 i=1
Esta última expresión puede interpretarse usando la terminologı́a del análisis de varianza. Efectivamente
la suma de cuadrados del primer término representa la variación total (VT) de la variable dependiente
respecto a su valor medio y. Por otra parte, el primer sumando del segundo término es la variación no
explicada (VNE) por la recta de regresión, representando la variación de los datos, o residuos, alrededor de
dicha recta. Al último sumando se le llama variación explicada (VE), ya que es la parte de la variación
total que se explica por la recta ajustada. De esta forma, la variación total se descompone en dos variaciones,
no explicada y explicada por la recta de regresión
V T = V NE + V E (17.22)
"n
(yi∗ − y)2 VE Variación explicada
⇒ r2 = "i=1
n 2
= = . (17.23)
i=1 (yi − y) VT Variación total
Tanto la recta de regresión como el coeficiente de correlación no son robustos, en el sentido de que
resultan muy afectados por medidas particulares que se alejen mucho de la tendencia general.
No hay que olvidar que el coeficiente de correlación no es más que una medida resumen. En ningún
caso puede substituir al diagrama de dispersión, que siempre habrá que construir para extraer más
información. Formas muy diferentes de la nube de puntos pueden conducir al mismo coeficiente de
correlación.
El que en un caso se obtenga un coeficiente de correlación bajo no significa que no pueda existir
correlación entre las variables. De lo único que nos informa es de que la correlación no es lineal (no se
ajusta a una recta), pero es posible que pueda existir una buena correlación de otro tipo.
Un coeficiente de correlación alto no significa que exista una dependencia directa entre las variables.
Es decir, no se puede extraer una conclusión de causa y efecto basándose únicamente en el coeficiente
de correlación. En general hay que tener en cuenta que puede existir una tercera variable escondida
que puede producir una correlación que, en muchos casos, puede no tener sentido.
En este tema se van a utilizar los conceptos básicos de la teorı́a muestral y el contraste de hipótesis, ya
estudiados en los temas anteriores, para elaborar un modelo estadı́stico de la regresión lineal simple. Esto
nos permitirá estudiar desde un punto de vista probabilı́stico los parámetros de la recta de regresión y el
concepto de correlación.
18.1. Fundamentos
En primer lugar es importante hacer la distinción entre las dos variables x e y que intervienen en la
regresión lineal. Por una parte, y se considera como la variable dependiente (o respuesta), que tomará di-
ferentes valores dependiendo del valor de x, o variable independiente (o de regresión). Supongamos que
en el experimento se toma una muestra aleatoria representada por los pares (xi , yi ), donde i = 1, 2, . . . , n.
Normalmente, los valores de xi se fijan a priori (antes de realizar el experimento) y por tanto serán los
mismos para las diferentes muestras que se puedan tomar. Se consideran entonces que tienen asociado un
error despreciable y no son variables aleatorias. Por el contrario, para un valor de x fijo, el yi particular
medido podrá variar de una muestra a otra, de forma que, para cada xi , la variable Yi , que engloba a todos
los posibles valores de y que se pueden obtener para x = xi , se considerará una variable aleatoria en el
muestreo. Tendrá, por lo tanto, una distribución de probabilidad asociada y se podrán definir su valor medio
y varianza. Llamaremos µY |x al valor medio de la variable Y para un valor fijo de x y σY2 |x a su varianza.
Dichos valores medios dependerán entonces del valor concreto de x que se considere.
La hipótesis básica de la regresión lineal es que µY |x está linealmente relacionado con x por la ecuación
µY |x = α + βx. (18.1)
Esta es la ecuación de regresión lineal poblacional. α y β serán los parámetros poblacionales correspondientes
que tendrán que estimarse a partir de una muestra. Como se demostrará posteriormente, los coeficientes de
la recta a y b se usarán como los estimadores de dichos parámetros poblacionales. De esta forma, µY |x se
197
198 Inferencia estadı́stica sobre la regresión
estimará por
y ∗ = a + bx, (18.2)
que será la ecuación de regresión lineal ajustada o de la muestra. Es importante destacar que para diferentes
muestras se obtendrán diferentes valores concretos de a y b, y por lo tanto diferentes rectas de regresión
ajustadas, que en general no coincidirán con la recta poblacional dada en (18.1). A y B serán entonces
también variables aleatorias en el muestreo.
El modelo estadı́stico para la regresión se basa entonces en suponer que todas las µY |x caen sobre la recta
poblacional y las diferencias encontradas se basan en la limitación del muestreo. En particular, para cada
valor fijo de x = xi , un valor concreto de Yi (denotado por yi ) pofrá expresarse como
donde εi es el error aleatorio que tiene en cuenta la diferencia entre el valor observado y el valor medio
esperado. Lógicamente se cumplirá que µεi = 0.
Por otra parte, al usar la recta ajustada (18.2), los valores yi medidos se podrán expresar como
σ 2 es por tanto la varianza de las diferentes variables aleatorias Yi . Otra suposición importante es considerar
que las variables aleatorias Yi , para cada x = xi , siguen una distribución normal, es decir, sus errores se
distribuyen normalmente alrededor del valor medio. Por tanto, cada Yi tendrá una distribución N (α+βxi , σ).
Como ya se ha indicado, para estimar los parámetros poblacionales α y β de la recta poblacional se usan
los valores a y b deducidos a partir del método de los mı́nimos cuadrados. Diferentes muestras conducen a
diferentes valores de dichos estimadores y, por lo tanto, A y B son variables aleatorias en el muestreo, con
distribuciones de probabilidad asociadas. Para poder realizar contrastes de hipótesis sobre los parámetros de
la recta es necesario entonces estudiar en primer lugar las caracterı́sticas de dichas distribuciones muestrales.
"n n
i=1 (xi
− x)yi xi − x
!
b= 2
= wi yi donde wi =
(n − 1)sx i=1
(n − 1)s2x
De esta forma podemos expresar el coeficiente de regresión como una combinación lineal de las variables
aleatorias Yi . Nótese que cada wi depende únicamente de los valores de las x y, por tanto, no cambia de
muestra a muestra. Puesto que cada Yi es normal, por las propiedades de dicha distribución el estadı́stico
B seguirá también una distribución normal. El valor esperado (o medio) de B puede calcularse tomando
esperanzas matemáticas en la expresión anterior
n
! n
! n
! n
!
µB = E(B) = wi E(Yi ) = wi (α + βxi ) = α wi + β wi xi
i=1 i=1 i=1 i=1
Los sumatorios que aparecen en esta expresión pueden desarrollarse para demostrar que
"n
− x)
i=1 (xi
!
wi = =0
i
(n − 1)s2x
n "n "n 2
"n
i=1 (xi− x)xi i=1 xi − x i=1 xi
!
wi xi = = "n 2 2 =1
i=1
(n − 1)s2x i=1 xi − nx
Por lo tanto
µB = E(B) = β. (18.6)
n n "n
2
! !
i=1 (xi− x)2
σB = V ar(B) = wi2 σY2 i =σ 2
wi2 =σ 2
i=1 i=1
(n − 1)2 s4x
2 s2x σ2
⇒ σB = σ2 4
= .
(n − 1)sx (n − 1)s2x
De forma similar se puede estudiar la distribución muestral del estadı́stico A que representa la ordenada
en el origen. Desarrollando la expresión (17.6) para a se puede demostrar también que ésta puede expresarse
como una combinación lineal de las variables aleatorias Yi
"n n n 6 7
i=1 yi ! ! 1
a = y − bx = −x wi yi = − xwi yi
n i=1 i=1
n
n
! 1
a= ri yi donde ri = − xwi
i=1
n
Al ser entonces una combinación lineal de variables normales independientes, A seguirá también una
n n 0 1 "n x n
! ! xi i
!
ri xi = − xwi xi = i=1 − x wi xi = x − x = 0.
i=1 i=1
n n i=1
Por lo tanto
µA = E(A) = α (18.8)
( n n n
) 6 7
2 2
! 1
2
!
2 2x ! 2 1 x2
⇒ σA =σ + x wi − wi = σ + .
i=1
n2 i=1
n i=1 n (n − 1)s2x
Esta expresión también tiene un significado claro. El error en la ordenada en el origen es suma de dos
términos: el primero es el error en la ordenada media Y y el segundo tiene en cuenta que el error será mayor
cuanto más alejados estén los datos del origen x = 0. Es fácil comprobar que la expresión anterior es
equivalente a la siguiente "n
x2
2
σA = σ "n i=1 i 2 .
2
(18.9)
n i=1 (xi − x)
En definitiva el estimador A de la ordenada en el origen sigue una distribución normal del tipo
$
1 x2
N α, σ + . (18.10)
n (n − 1)s2x
Para realizar contrastes sobre los coeficientes de la recta usando las expresiones anteriores es necesario
conocer la varianza σ 2 , es decir, la varianza de cada una de las Yi , conocida como varianza del error del
modelo. Se puede demostrar que, como cabrı́a esperarse, la varianza residual de la muestra, definida en
(17.17) como "n "n "n 2
i=1 (yi− y ∗ )2 i=1 (yi− a − bxi )2 e
s2r = = = i=1 i
n−2 n−2 n−2
es un estimador insesgado de σ 2 . Nótese que mientras que s2r mide las desviaciones de los datos respecto a
la recta ajustada (y = a + bx), σ 2 mide las desviaciones de cada Yi respecto a su valor medio µY |xi , lo que
es equivalente a las desviaciones respecto a la recta poblacional (y = α + βx) (puesto que los valores medios
se han de situar sobre ésta). Por tanto, es lógico que la varianza residual sea el estimador insesgado de σ 2 .
Es decir
E(s2r ) = σ 2 . (18.11)
De forma similar a lo que ocurrı́a con la varianza muestral y poblacional de una variable, lo anterior
s2r
χ2n−2 = (n − 2) , (18.12)
σ2
Las propiedades anteriores de las distribuciones muestrales para los coeficientes de la recta de regresión
pueden usarse para construir intervalos de confianza sobre los parámetros poblacionales de la recta. En el
caso del coeficiente de regresión es claro que se puede construir la siguiente variable normal tipificada
b−β
z= √
σ/( n − 1sx )
√b−β
z σ/( n−1sx ) b−β
tn−2 = # =% R = √ (18.13)
χ2n−2 /(n − 2) (n−2)s2r sr /( n − 1sx )
σ2 (n − 2)
seguirá una distribución t con n − 2 grados de libertad. Por tanto, para un nivel de confianza 1 − α se puede
expresar 6 7
b−β
P −tα/2,n−2 < √ < tα/2,n−2 = 1 − α,
sr /( n − 1sx )
que conduce al siguiente intervalo de confianza para el parámetro poblacional β
6 7
sr sr
P ( b − tα/2,n−2 √ < β < b + tα/2,n−2 √ =1−α (18.14)
n − 1sx n − 1sx
? @
sr
I = b ± tα/2,n−2 √ . (18.15)
n − 1sx
Por otra parte, lo anterior se puede usar para realizar constrastes de hipótesis sobre β. Si suponemos un
contraste bilateral del tipo 2
H0 : β = β0
Hipótesis :
H1 : β %= β0
|b − β0 |
√ ≤ tα/2,n−2 . (18.16)
sr /( n − 1sx )
a−α
t= # (18.17)
1 x2
sr n + (n−1)s2x
seguirá una distribución t con n − 2 grados de libertad. Esto conduce al siguiente intervalo de confianza para
α $ $
2 2
1 x 1 x
P a − tα/2,n−2 sr + < α < a + tα/2,n−2 sr + =
n (n − 1)s2x n (n − 1)s2x
=1−α (18.18)
$
2
1 x
I = a ± tα/2,n−2 sr + , (18.19)
n (n − 1)s2x
|a − α0 |
# ≤ tα/2,n−2 . (18.20)
x2
sr n1 + (n−1)s 2
x
Nótese que en estas expresiones el sı́mbolo “α” se utiliza con dos sentidos diferentes: nivel de significación
y ordenada en el origen de la recta poblacional.
18.3. Predicción
Aunque los intervalos de confianza para los parámetros poblacionales de la recta son importantes, en
general el cientı́fico necesita calcular el intervalo de confianza para futuras evaluaciones de la recta, obtenidas
para un valor concreto de la abscisa x0 , o lo que normalmente se conoce como intervalo de confianza para la
predicción. En general dicho valor x0 no coincidirá con ninguno de los valores xi utilizados en para el cálculo
de la recta de regresión. Vamos a distinguir dos situaciones diferentes.
σY2 0∗ = σA+Bx
2
= σY2 +B(x = σY2 + (x0 − x)2 σB
2
+ 2(xo − x)cov(Y , B) =
0 o −x)
6 7
σ2 σ2 1 (x0 − x)2
= + (xo − x)2 = σ2 +
n (n − 1)s2x n (n − 1)s2x
El siguiente estadı́stico
Y ∗ − µY |x0
tn−2 = #0 (18.21)
(x0 −x)2
sr n1 + (n−1)s 2
x
sigue una distribución t de Student con n−2 grados de libertad. El intervalo de confianza buscado vendrá dado
por A $ B
1 (x0 − x)2
I= y0∗ ± tα/2,n−2 sr + (18.22)
n (n − 1)s2x
6 7 6 7
1 (x0 − x)2 1 (x0 − x)2
σY2 0∗ −Y0 = σY2 0∗ + σY2 0 = σY2 0∗ + σε20 = σ 2 + + σ2 = σ2 1 + +
n (n − 1)s2x n (n − 1)s2x
El siguiente estadı́stico
Y0∗ − Y0
tn−2 = # (18.23)
1 (x0 −x)2
sr 1+ n + (n−1)s2x
sigue una distribución t de Student con n − 2 grados de libertad. Por tanto, el intervalo de confianza para
Y0 puede finalmente calcularse mediante
A $ B
1 (x0 − x)2
I= y0∗ ± tα/2,n−2 sr 1+ + (18.24)
n (n − 1)s2x
18.4. Correlación
Hasta ahora hemos supuesto que la variable de regresión independiente x es una variable fı́sica o cientı́fica,
pero no una variable aleatoria. De hecho, en este contexto, x frecuentemente recibe el nombre de variable
matemática, la cual, en el proceso de muestreo, se mide con un error despreciable. Sin embargo, resulta
mucho más realista suponer que tanto X como Y son variables aleatorias.
El análisis de correlación intenta cuantificar las relaciones entre dos variables por medio de un simple
número que recibe el nombre de coeficiente de correlación.
Para ello vamos a considerar que el conjunto de medidas (xi , yi ), con i = 1, . . . , n, son observaciones de
una población que tiene una función de densidad conjunta f (x, y). No es difı́cil mostrar que en ese caso (ver
libro de Walpole y Myers, Sección 9.10) la función de densidad conjunta de X e Y puede escribirse como
una distribución normal bivariada
1
f (x, y) = & ×
2 π σX σY 1 − ρ2
2 A6 72 6 76 7 6 72 BS
−1 x − µX x − µX y − µY y − µY
exp − 2ρ + , (18.25)
2(1 − ρ2 ) σX σX σY σY
2
σXY
⇒ρ= (18.26)
σX σY
recibe el nombre de coeficiente de correlación poblacional y juega un papel importante en muchos
problemas de análisis de datos de dos variables.
De entrada, si hacemos ρ = 0 en (18.25) obtenemos
2 A6 72 6 72 BS
1 1 x − µX y − µY
f (x, y) = exp − + =
2 π σX σY 2 σX σY
2 6 72 S 2 6 72 S
1 1 x − µX 1 1 y − µY
=√ exp − ×√ exp − =
2 π σX 2 σX 2 π σY 2 σY
f (x) f (y),
es decir, la función de distribución conjunta se puede expresar como producto de dos funciones independientes
de X e Y . En otras palabras, si ρ = 0 las variables aleatorias X e Y son independientes. Por otra parte, si
ρ %= 0, no podemos separar las dos funciones y las variables no serán independientes.
Por otro lado, recordando que ρ2 = β 2 σX
2
/σY2 , vemos que estudiar la presencia de correlación se conver-
tirá en estudiar si ρ %= 0 o si β %= 0. Dicho de otra forma
Contraste de la hipótesis ρ = 0
2
H0 : ρ = 0
Hipótesis :
H1 : ρ %= 0
b rsy /sx rs
β=0 → t= √ = √ = √y =
sr /( n − 1sx ) sr /( n − 1sx ) sr / n − 1
rsy
#
n−1
√ √
n−2 sy 1 − r2 / n − 1
√
r n−2
⇒ tn−2 = √
1 − r2
Se acepta H0 si √
|r| n − 2
√ ≤ tα/2,n−2 . (18.27)
1 − r2
El que un valor de r sea o no indicativo de correlación dependerá también del número de puntos. Si n
es grande, será fácil rechazar H0 y existirá correlación.
Contraste de la hipótesis ρ = ρ0
2
H0 : ρ = ρ0
Hipótesis :
H1 : ρ %= ρ0
Es decir
0 1 0 1
1
ln 1+r
− 1
ln 1+ρ0 √ 6 7
2 1−r 2 1−ρ0 n−3 (1 + r)(1 − ρ0 )
Z= # = ln es N (0, 1).
1 2 (1 − r)(1 + ρ0 )
n−3
Se acepta H0 si √ 5 6 75
n−3 5ln (1 + r)(1 − ρ0 ) 5 ≤ zα/2 .
5 5
(18.28)
2 5 (1 − r)(1 + ρ0 ) 5
Vemos que si n crece es más fácil rechazar H0 . Por otro lado, si ρ es muy parecido a ρ0 , la cantidad
dentro del logaritmo tiende a uno y el logaritmo a cero.
A–1
Capı́tulo 19
Apéndice A: Distribuciones de
Probabilidad
Los datos que aparecen en las tablas han sido calculados utilizando funciones de Numerical Recipes in
Fortran 77 (Press et al. 1992) y programas propios de los autores de este libro.
A–3
Estadı́stica Básica para Estudiantes de Ciencias
A–4
Tabla I 6
n
7
PROBABILIDADES BINOMIALES INDIVIDUALES b(x; n, p) = px q n−x
x
p
n x 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.99 x
2 0 0.980 0.902 0.810 0.722 0.640 0.562 0.490 0.423 0.360 0.303 0.250 0.202 0.160 0.123 0.090 0.062 0.040 0.022 0.010 0.003 0.0+ 0
1 0.020 0.095 0.180 0.255 0.320 0.375 0.420 0.455 0.480 0.495 0.500 0.495 0.480 0.455 0.420 0.375 0.320 0.255 0.180 0.095 0.020 1
2 0.0+ 0.003 0.010 0.023 0.040 0.062 0.090 0.122 0.160 0.202 0.250 0.303 0.360 0.422 0.490 0.562 0.640 0.723 0.810 0.902 0.980 2
3 0 0.970 0.857 0.729 0.614 0.512 0.422 0.343 0.275 0.216 0.166 0.125 0.091 0.064 0.043 0.027 0.016 0.008 0.003 0.001 0.0+ 0.0+ 0
1 0.029 0.135 0.243 0.325 0.384 0.422 0.441 0.444 0.432 0.408 0.375 0.334 0.288 0.239 0.189 0.141 0.096 0.057 0.027 0.007 0.0+ 1
2 0.0+ 0.007 0.027 0.057 0.096 0.141 0.189 0.239 0.288 0.334 0.375 0.408 0.432 0.444 0.441 0.422 0.384 0.325 0.243 0.135 0.029 2
3 0.0+ 0.0+ 0.001 0.003 0.008 0.016 0.027 0.043 0.064 0.091 0.125 0.166 0.216 0.275 0.343 0.422 0.512 0.614 0.729 0.857 0.970 3
4 0 0.961 0.815 0.656 0.522 0.410 0.316 0.240 0.179 0.130 0.092 0.062 0.041 0.026 0.015 0.008 0.004 0.002 0.001 0.0+ 0.0+ 0.0+ 0
1 0.039 0.171 0.292 0.368 0.410 0.422 0.412 0.384 0.346 0.299 0.250 0.200 0.154 0.111 0.076 0.047 0.026 0.011 0.004 0.0+ 0.0+ 1
2 0.001 0.014 0.049 0.098 0.154 0.211 0.265 0.311 0.346 0.368 0.375 0.368 0.346 0.311 0.265 0.211 0.154 0.098 0.049 0.014 0.001 2
3 0.0+ 0.0+ 0.004 0.011 0.026 0.047 0.076 0.111 0.154 0.200 0.250 0.299 0.346 0.384 0.412 0.422 0.410 0.368 0.292 0.171 0.039 3
4 0.0+ 0.0+ 0.0+ 0.001 0.002 0.004 0.008 0.015 0.026 0.041 0.062 0.092 0.130 0.179 0.240 0.316 0.410 0.522 0.656 0.815 0.961 4
5 0 0.951 0.774 0.590 0.444 0.328 0.237 0.168 0.116 0.078 0.050 0.031 0.018 0.010 0.005 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.048 0.204 0.328 0.392 0.410 0.396 0.360 0.312 0.259 0.206 0.156 0.113 0.077 0.049 0.028 0.015 0.006 0.002 0.0+ 0.0+ 0.0+ 1
2 0.001 0.021 0.073 0.138 0.205 0.264 0.309 0.336 0.346 0.337 0.312 0.276 0.230 0.181 0.132 0.088 0.051 0.024 0.008 0.001 0.0+ 2
3 0.0+ 0.001 0.008 0.024 0.051 0.088 0.132 0.181 0.230 0.276 0.312 0.337 0.346 0.336 0.309 0.264 0.205 0.138 0.073 0.021 0.001 3
4 0.0+ 0.0+ 0.0+ 0.002 0.006 0.015 0.028 0.049 0.077 0.113 0.156 0.206 0.259 0.312 0.360 0.396 0.410 0.392 0.328 0.204 0.048 4
5 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.005 0.010 0.018 0.031 0.050 0.078 0.116 0.168 0.237 0.328 0.444 0.590 0.774 0.951 5
7 0 0.932 0.698 0.478 0.321 0.210 0.133 0.082 0.049 0.028 0.015 0.008 0.004 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.066 0.257 0.372 0.396 0.367 0.311 0.247 0.185 0.131 0.087 0.055 0.032 0.017 0.008 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 1
2 0.002 0.041 0.124 0.210 0.275 0.311 0.318 0.298 0.261 0.214 0.164 0.117 0.077 0.047 0.025 0.012 0.004 0.001 0.0+ 0.0+ 0.0+ 2
3 0.0+ 0.004 0.023 0.062 0.115 0.173 0.227 0.268 0.290 0.292 0.273 0.239 0.194 0.144 0.097 0.058 0.029 0.011 0.003 0.0+ 0.0+ 3
4 0.0+ 0.0+ 0.003 0.011 0.029 0.058 0.097 0.144 0.194 0.239 0.273 0.292 0.290 0.268 0.227 0.173 0.115 0.062 0.023 0.004 0.0+ 4
5 0.0+ 0.0+ 0.0+ 0.001 0.004 0.012 0.025 0.047 0.077 0.117 0.164 0.214 0.261 0.298 0.318 0.311 0.275 0.210 0.124 0.041 0.002 5
6 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.008 0.017 0.032 0.055 0.087 0.131 0.185 0.247 0.311 0.367 0.396 0.372 0.257 0.066 6
Febrero 2009
7 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.004 0.008 0.015 0.028 0.049 0.082 0.133 0.210 0.321 0.478 0.698 0.932 7
Estadı́stica Básica para Estudiantes de Ciencias
Tabla I (Continuación) 6
n
7
PROBABILIDADES BINOMIALES INDIVIDUALES b(x; n, p) = px q n−x
x
p
n x 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.99 x
8 0 0.923 0.663 0.430 0.272 0.168 0.100 0.058 0.032 0.017 0.008 0.004 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.075 0.279 0.383 0.385 0.336 0.267 0.198 0.137 0.090 0.055 0.031 0.016 0.008 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 1
2 0.003 0.051 0.149 0.238 0.294 0.311 0.296 0.259 0.209 0.157 0.109 0.070 0.041 0.022 0.010 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 2
3 0.0+ 0.005 0.033 0.084 0.147 0.208 0.254 0.279 0.279 0.257 0.219 0.172 0.124 0.081 0.047 0.023 0.009 0.003 0.0+ 0.0+ 0.0+ 3
4 0.0+ 0.0+ 0.005 0.018 0.046 0.087 0.136 0.188 0.232 0.263 0.273 0.263 0.232 0.188 0.136 0.087 0.046 0.018 0.005 0.0+ 0.0+ 4
5 0.0+ 0.0+ 0.0+ 0.003 0.009 0.023 0.047 0.081 0.124 0.172 0.219 0.257 0.279 0.279 0.254 0.208 0.147 0.084 0.033 0.005 0.0+ 5
6 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.010 0.022 0.041 0.070 0.109 0.157 0.209 0.259 0.296 0.311 0.294 0.238 0.149 0.051 0.003 6
7 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.008 0.016 0.031 0.055 0.090 0.137 0.198 0.267 0.336 0.385 0.383 0.279 0.075 7
8 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.004 0.008 0.017 0.032 0.058 0.100 0.168 0.272 0.430 0.663 0.923 8
9 0 0.914 0.630 0.387 0.232 0.134 0.075 0.040 0.021 0.010 0.005 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.083 0.299 0.387 0.368 0.302 0.225 0.156 0.100 0.060 0.034 0.018 0.008 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 1
2 0.003 0.063 0.172 0.260 0.302 0.300 0.267 0.216 0.161 0.111 0.070 0.041 0.021 0.010 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 2
3 0.0+ 0.008 0.045 0.107 0.176 0.234 0.267 0.272 0.251 0.212 0.164 0.116 0.074 0.042 0.021 0.009 0.003 0.001 0.0+ 0.0+ 0.0+ 3
4 0.0+ 0.001 0.007 0.028 0.066 0.117 0.172 0.219 0.251 0.260 0.246 0.213 0.167 0.118 0.074 0.039 0.017 0.005 0.001 0.0+ 0.0+ 4
5 0.0+ 0.0+ 0.001 0.005 0.017 0.039 0.074 0.118 0.167 0.213 0.246 0.260 0.251 0.219 0.172 0.117 0.066 0.028 0.007 0.001 0.0+ 5
6 0.0+ 0.0+ 0.0+ 0.001 0.003 0.009 0.021 0.042 0.074 0.116 0.164 0.212 0.251 0.272 0.267 0.234 0.176 0.107 0.045 0.008 0.0+ 6
7 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.010 0.021 0.041 0.070 0.111 0.161 0.216 0.267 0.300 0.302 0.260 0.172 0.063 0.003 7
8 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.008 0.018 0.034 0.060 0.100 0.156 0.225 0.302 0.368 0.387 0.299 0.083 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.005 0.010 0.021 0.040 0.075 0.134 0.232 0.387 0.630 0.914 9
10 0 0.904 0.599 0.349 0.197 0.107 0.056 0.028 0.013 0.006 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.091 0.315 0.387 0.347 0.268 0.188 0.121 0.072 0.040 0.021 0.010 0.004 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 1
2 0.004 0.075 0.194 0.276 0.302 0.282 0.233 0.176 0.121 0.076 0.044 0.023 0.011 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 2
3 0.0+ 0.010 0.057 0.130 0.201 0.250 0.267 0.252 0.215 0.166 0.117 0.075 0.042 0.021 0.009 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 3
4 0.0+ 0.001 0.011 0.040 0.088 0.146 0.200 0.238 0.251 0.238 0.205 0.160 0.111 0.069 0.037 0.016 0.006 0.001 0.0+ 0.0+ 0.0+ 4
5 0.0+ 0.0+ 0.001 0.008 0.026 0.058 0.103 0.154 0.201 0.234 0.246 0.234 0.201 0.154 0.103 0.058 0.026 0.008 0.001 0.0+ 0.0+ 5
6 0.0+ 0.0+ 0.0+ 0.001 0.006 0.016 0.037 0.069 0.111 0.160 0.205 0.238 0.251 0.238 0.200 0.146 0.088 0.040 0.011 0.001 0.0+ 6
7 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.009 0.021 0.042 0.075 0.117 0.166 0.215 0.252 0.267 0.250 0.201 0.130 0.057 0.010 0.0+ 7
8 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.011 0.023 0.044 0.076 0.121 0.176 0.233 0.282 0.302 0.276 0.194 0.075 0.004 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.004 0.010 0.021 0.040 0.072 0.121 0.188 0.268 0.347 0.387 0.315 0.091 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.006 0.013 0.028 0.056 0.107 0.197 0.349 0.599 0.904 10
11 0 0.895 0.569 0.314 0.167 0.086 0.042 0.020 0.009 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.099 0.329 0.384 0.325 0.236 0.155 0.093 0.052 0.027 0.013 0.005 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 1
2 0.005 0.087 0.213 0.287 0.295 0.258 0.200 0.140 0.089 0.051 0.027 0.013 0.005 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 2
3 0.0+ 0.014 0.071 0.152 0.221 0.258 0.257 0.225 0.177 0.126 0.081 0.046 0.023 0.010 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 3
4 0.0+ 0.001 0.016 0.054 0.111 0.172 0.220 0.243 0.236 0.206 0.161 0.113 0.070 0.038 0.017 0.006 0.002 0.0+ 0.0+ 0.0+ 0.0+ 4
Febrero 2009
A–5
Estadı́stica Básica para Estudiantes de Ciencias
A–6
Tabla I (Continuación) 6
n
7
PROBABILIDADES BINOMIALES INDIVIDUALES b(x; n, p) = px q n−x
x
p
n x 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.99 x
11 5 0.0+ 0.0+ 0.002 0.013 0.039 0.080 0.132 0.183 0.221 0.236 0.226 0.193 0.147 0.099 0.057 0.027 0.010 0.002 0.0+ 0.0+ 0.0+ 5
6 0.0+ 0.0+ 0.0+ 0.002 0.010 0.027 0.057 0.099 0.147 0.193 0.226 0.236 0.221 0.183 0.132 0.080 0.039 0.013 0.002 0.0+ 0.0+ 6
7 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.006 0.017 0.038 0.070 0.113 0.161 0.206 0.236 0.243 0.220 0.172 0.111 0.054 0.016 0.001 0.0+ 7
8 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.010 0.023 0.046 0.081 0.126 0.177 0.225 0.257 0.258 0.221 0.152 0.071 0.014 0.0+ 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.005 0.013 0.027 0.051 0.089 0.140 0.200 0.258 0.295 0.287 0.213 0.087 0.005 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.005 0.013 0.027 0.052 0.093 0.155 0.236 0.325 0.384 0.329 0.099 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.009 0.020 0.042 0.086 0.167 0.314 0.569 0.895 11
12 0 0.886 0.540 0.282 0.142 0.069 0.032 0.014 0.006 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.107 0.341 0.377 0.301 0.206 0.127 0.071 0.037 0.017 0.008 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 1
2 0.006 0.099 0.230 0.292 0.283 0.232 0.168 0.109 0.064 0.034 0.016 0.007 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 2
3 0.0+ 0.017 0.085 0.172 0.236 0.258 0.240 0.195 0.142 0.092 0.054 0.028 0.012 0.005 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 3
4 0.0+ 0.002 0.021 0.068 0.133 0.194 0.231 0.237 0.213 0.170 0.121 0.076 0.042 0.020 0.008 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 4
5 0.0+ 0.0+ 0.004 0.019 0.053 0.103 0.158 0.204 0.227 0.222 0.193 0.149 0.101 0.059 0.029 0.011 0.003 0.001 0.0+ 0.0+ 0.0+ 5
6 0.0+ 0.0+ 0.0+ 0.004 0.016 0.040 0.079 0.128 0.177 0.212 0.226 0.212 0.177 0.128 0.079 0.040 0.016 0.004 0.0+ 0.0+ 0.0+ 6
7 0.0+ 0.0+ 0.0+ 0.001 0.003 0.011 0.029 0.059 0.101 0.149 0.193 0.222 0.227 0.204 0.158 0.103 0.053 0.019 0.004 0.0+ 0.0+ 7
8 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.008 0.020 0.042 0.076 0.121 0.170 0.213 0.237 0.231 0.194 0.133 0.068 0.021 0.002 0.0+ 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.012 0.028 0.054 0.092 0.142 0.195 0.240 0.258 0.236 0.172 0.085 0.017 0.0+ 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.007 0.016 0.034 0.064 0.109 0.168 0.232 0.283 0.292 0.230 0.099 0.006 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.008 0.017 0.037 0.071 0.127 0.206 0.301 0.377 0.341 0.107 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.006 0.014 0.032 0.069 0.142 0.282 0.540 0.886 12
14 0 0.869 0.488 0.229 0.103 0.044 0.018 0.007 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.123 0.359 0.356 0.254 0.154 0.083 0.041 0.018 0.007 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 1
Estadı́stica Básica para Estudiantes de Ciencias
Tabla I (Continuación) 6
n
7
PROBABILIDADES BINOMIALES INDIVIDUALES b(x; n, p) = px q n−x
x
p
n x 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.99 x
14 2 0.008 0.123 0.257 0.291 0.250 0.180 0.113 0.063 0.032 0.014 0.006 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 2
3 0.0+ 0.026 0.114 0.206 0.250 0.240 0.194 0.137 0.085 0.046 0.022 0.009 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 3
4 0.0+ 0.004 0.035 0.100 0.172 0.220 0.229 0.202 0.155 0.104 0.061 0.031 0.014 0.005 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 4
5 0.0+ 0.0+ 0.008 0.035 0.086 0.147 0.196 0.218 0.207 0.170 0.122 0.076 0.041 0.018 0.007 0.002 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 5
6 0.0+ 0.0+ 0.001 0.009 0.032 0.073 0.126 0.176 0.207 0.209 0.183 0.140 0.092 0.051 0.023 0.008 0.002 0.0+ 0.0+ 0.0+ 0.0+ 6
7 0.0+ 0.0+ 0.0+ 0.002 0.009 0.028 0.062 0.108 0.157 0.195 0.209 0.195 0.157 0.108 0.062 0.028 0.009 0.002 0.0+ 0.0+ 0.0+ 7
8 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.008 0.023 0.051 0.092 0.140 0.183 0.209 0.207 0.176 0.126 0.073 0.032 0.009 0.001 0.0+ 0.0+ 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.007 0.018 0.041 0.076 0.122 0.170 0.207 0.218 0.196 0.147 0.086 0.035 0.008 0.0+ 0.0+ 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.014 0.031 0.061 0.104 0.155 0.202 0.229 0.220 0.172 0.100 0.035 0.004 0.0+ 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.009 0.022 0.046 0.085 0.137 0.194 0.240 0.250 0.206 0.114 0.026 0.0+ 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.006 0.014 0.032 0.063 0.113 0.180 0.250 0.291 0.257 0.123 0.008 12
13 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.007 0.018 0.041 0.083 0.154 0.254 0.356 0.359 0.123 13
14 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.007 0.018 0.044 0.103 0.229 0.488 0.869 14
15 0 0.860 0.463 0.206 0.087 0.035 0.013 0.005 0.002 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.130 0.366 0.343 0.231 0.132 0.067 0.031 0.013 0.005 0.002 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 1
2 0.009 0.135 0.267 0.286 0.231 0.156 0.092 0.048 0.022 0.009 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 2
3 0.0+ 0.031 0.129 0.218 0.250 0.225 0.170 0.111 0.063 0.032 0.014 0.005 0.002 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 3
4 0.0+ 0.005 0.043 0.116 0.188 0.225 0.219 0.179 0.127 0.078 0.042 0.019 0.007 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 4
5 0.0+ 0.001 0.010 0.045 0.103 0.165 0.206 0.212 0.186 0.140 0.092 0.051 0.024 0.010 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 5
6 0.0+ 0.0+ 0.002 0.013 0.043 0.092 0.147 0.191 0.207 0.191 0.153 0.105 0.061 0.030 0.012 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 6
7 0.0+ 0.0+ 0.0+ 0.003 0.014 0.039 0.081 0.132 0.177 0.201 0.196 0.165 0.118 0.071 0.035 0.013 0.003 0.001 0.0+ 0.0+ 0.0+ 7
8 0.0+ 0.0+ 0.0+ 0.001 0.003 0.013 0.035 0.071 0.118 0.165 0.196 0.201 0.177 0.132 0.081 0.039 0.014 0.003 0.0+ 0.0+ 0.0+ 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.012 0.030 0.061 0.105 0.153 0.191 0.207 0.191 0.147 0.092 0.043 0.013 0.002 0.0+ 0.0+ 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.010 0.024 0.051 0.092 0.140 0.186 0.212 0.206 0.165 0.103 0.045 0.010 0.001 0.0+ 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.007 0.019 0.042 0.078 0.127 0.179 0.219 0.225 0.188 0.116 0.043 0.005 0.0+ 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.005 0.014 0.032 0.063 0.111 0.170 0.225 0.250 0.218 0.129 0.031 0.0+ 12
13 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.009 0.022 0.048 0.092 0.156 0.231 0.286 0.267 0.135 0.009 13
14 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.005 0.013 0.031 0.067 0.132 0.231 0.343 0.366 0.130 14
15 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.005 0.013 0.035 0.087 0.206 0.463 0.860 15
16 0 0.851 0.440 0.185 0.074 0.028 0.010 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.138 0.371 0.329 0.210 0.113 0.053 0.023 0.009 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 1
2 0.010 0.146 0.275 0.277 0.211 0.134 0.073 0.035 0.015 0.006 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 2
3 0.0+ 0.036 0.142 0.229 0.246 0.208 0.146 0.089 0.047 0.022 0.009 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 3
4 0.0+ 0.006 0.051 0.131 0.200 0.225 0.204 0.155 0.101 0.057 0.028 0.011 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 4
5 0.0+ 0.001 0.014 0.056 0.120 0.180 0.210 0.201 0.162 0.112 0.067 0.034 0.014 0.005 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 5
6 0.0+ 0.0+ 0.003 0.018 0.055 0.110 0.165 0.198 0.198 0.168 0.122 0.075 0.039 0.017 0.006 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 6
Febrero 2009
A–7
Estadı́stica Básica para Estudiantes de Ciencias
A–8
Tabla I (Continuación) 6
n
7
PROBABILIDADES BINOMIALES INDIVIDUALES b(x; n, p) = px q n−x
x
p
n x 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.99 x
16 7 0.0+ 0.0+ 0.0+ 0.005 0.020 0.052 0.101 0.152 0.189 0.197 0.175 0.132 0.084 0.044 0.019 0.006 0.001 0.0+ 0.0+ 0.0+ 0.0+ 7
8 0.0+ 0.0+ 0.0+ 0.001 0.006 0.020 0.049 0.092 0.142 0.181 0.196 0.181 0.142 0.092 0.049 0.020 0.006 0.001 0.0+ 0.0+ 0.0+ 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.006 0.019 0.044 0.084 0.132 0.175 0.197 0.189 0.152 0.101 0.052 0.020 0.005 0.0+ 0.0+ 0.0+ 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.006 0.017 0.039 0.075 0.122 0.168 0.198 0.198 0.165 0.110 0.055 0.018 0.003 0.0+ 0.0+ 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.014 0.034 0.067 0.112 0.162 0.201 0.210 0.180 0.120 0.056 0.014 0.001 0.0+ 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.011 0.028 0.057 0.101 0.155 0.204 0.225 0.200 0.131 0.051 0.006 0.0+ 12
13 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.009 0.022 0.047 0.089 0.146 0.208 0.246 0.229 0.142 0.036 0.0+ 13
14 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.006 0.015 0.035 0.073 0.134 0.211 0.277 0.275 0.146 0.010 14
15 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.009 0.023 0.053 0.113 0.210 0.329 0.371 0.138 15
16 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.010 0.028 0.074 0.185 0.440 0.851 16
17 0 0.843 0.418 0.167 0.063 0.023 0.008 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.145 0.374 0.315 0.189 0.096 0.043 0.017 0.006 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 1
2 0.012 0.158 0.280 0.267 0.191 0.114 0.058 0.026 0.010 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 2
3 0.001 0.041 0.156 0.236 0.239 0.189 0.125 0.070 0.034 0.014 0.005 0.002 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 3
4 0.0+ 0.008 0.060 0.146 0.209 0.221 0.187 0.132 0.080 0.041 0.018 0.007 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 4
5 0.0+ 0.001 0.017 0.067 0.136 0.191 0.208 0.185 0.138 0.087 0.047 0.021 0.008 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 5
6 0.0+ 0.0+ 0.004 0.024 0.068 0.128 0.178 0.199 0.184 0.143 0.094 0.052 0.024 0.009 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 6
7 0.0+ 0.0+ 0.001 0.007 0.027 0.067 0.120 0.168 0.193 0.184 0.148 0.101 0.057 0.026 0.009 0.002 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 7
8 0.0+ 0.0+ 0.0+ 0.001 0.008 0.028 0.064 0.113 0.161 0.188 0.185 0.154 0.107 0.061 0.028 0.009 0.002 0.0+ 0.0+ 0.0+ 0.0+ 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.009 0.028 0.061 0.107 0.154 0.185 0.188 0.161 0.113 0.064 0.028 0.008 0.001 0.0+ 0.0+ 0.0+ 9
18 0 0.835 0.397 0.150 0.054 0.018 0.006 0.002 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.152 0.376 0.300 0.170 0.081 0.034 0.013 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 1
2 0.013 0.168 0.284 0.256 0.172 0.096 0.046 0.019 0.007 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 2
3 0.001 0.047 0.168 0.241 0.230 0.170 0.105 0.055 0.025 0.009 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 3
4 0.0+ 0.009 0.070 0.159 0.215 0.213 0.168 0.110 0.061 0.029 0.012 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 4
5 0.0+ 0.001 0.022 0.079 0.151 0.199 0.202 0.166 0.115 0.067 0.033 0.013 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 5
6 0.0+ 0.0+ 0.005 0.030 0.082 0.144 0.187 0.194 0.166 0.118 0.071 0.035 0.015 0.005 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 6
Febrero 2009
7 0.0+ 0.0+ 0.001 0.009 0.035 0.082 0.138 0.179 0.189 0.166 0.121 0.074 0.037 0.015 0.005 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 7
Estadı́stica Básica para Estudiantes de Ciencias
Tabla I (Continuación) 6
n
7
PROBABILIDADES BINOMIALES INDIVIDUALES b(x; n, p) = px q n−x
x
p
n x 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.99 x
18 8 0.0+ 0.0+ 0.0+ 0.002 0.012 0.038 0.081 0.133 0.173 0.186 0.167 0.125 0.077 0.038 0.015 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.003 0.014 0.039 0.079 0.128 0.169 0.185 0.169 0.128 0.079 0.039 0.014 0.003 0.0+ 0.0+ 0.0+ 0.0+ 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.015 0.038 0.077 0.125 0.167 0.186 0.173 0.133 0.081 0.038 0.012 0.002 0.0+ 0.0+ 0.0+ 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.015 0.037 0.074 0.121 0.166 0.189 0.179 0.138 0.082 0.035 0.009 0.001 0.0+ 0.0+ 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.015 0.035 0.071 0.118 0.166 0.194 0.187 0.144 0.082 0.030 0.005 0.0+ 0.0+ 12
13 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.013 0.033 0.067 0.115 0.166 0.202 0.199 0.151 0.079 0.022 0.001 0.0+ 13
14 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.012 0.029 0.061 0.110 0.168 0.213 0.215 0.159 0.070 0.009 0.0+ 14
15 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.009 0.025 0.055 0.105 0.170 0.230 0.241 0.168 0.047 0.001 15
16 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.007 0.019 0.046 0.096 0.172 0.256 0.284 0.168 0.013 16
17 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.013 0.034 0.081 0.170 0.300 0.376 0.152 17
18 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.006 0.018 0.054 0.150 0.397 0.835 18
19 0 0.826 0.377 0.135 0.046 0.014 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.159 0.377 0.285 0.153 0.068 0.027 0.009 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 1
2 0.014 0.179 0.285 0.243 0.154 0.080 0.036 0.014 0.005 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 2
3 0.001 0.053 0.180 0.243 0.218 0.152 0.087 0.042 0.017 0.006 0.002 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 3
4 0.0+ 0.011 0.080 0.171 0.218 0.202 0.149 0.091 0.047 0.020 0.007 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 4
5 0.0+ 0.002 0.027 0.091 0.164 0.202 0.192 0.147 0.093 0.050 0.022 0.008 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 5
6 0.0+ 0.0+ 0.007 0.037 0.095 0.157 0.192 0.184 0.145 0.095 0.052 0.023 0.008 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 6
7 0.0+ 0.0+ 0.001 0.012 0.044 0.097 0.153 0.184 0.180 0.144 0.096 0.053 0.024 0.008 0.002 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 7
8 0.0+ 0.0+ 0.0+ 0.003 0.017 0.049 0.098 0.149 0.180 0.177 0.144 0.097 0.053 0.023 0.008 0.002 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 8
9 0.0+ 0.0+ 0.0+ 0.001 0.005 0.020 0.051 0.098 0.146 0.177 0.176 0.145 0.098 0.053 0.022 0.007 0.001 0.0+ 0.0+ 0.0+ 0.0+ 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.007 0.022 0.053 0.098 0.145 0.176 0.177 0.146 0.098 0.051 0.020 0.005 0.001 0.0+ 0.0+ 0.0+ 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.008 0.023 0.053 0.097 0.144 0.177 0.180 0.149 0.098 0.049 0.017 0.003 0.0+ 0.0+ 0.0+ 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.008 0.024 0.053 0.096 0.144 0.180 0.184 0.153 0.097 0.044 0.012 0.001 0.0+ 0.0+ 12
13 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.008 0.023 0.052 0.095 0.145 0.184 0.192 0.157 0.095 0.037 0.007 0.0+ 0.0+ 13
14 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.008 0.022 0.050 0.093 0.147 0.192 0.202 0.164 0.091 0.027 0.002 0.0+ 14
15 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.007 0.020 0.047 0.091 0.149 0.202 0.218 0.171 0.080 0.011 0.0+ 15
16 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.006 0.017 0.042 0.087 0.152 0.218 0.243 0.180 0.053 0.001 16
17 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.014 0.036 0.080 0.154 0.243 0.285 0.179 0.014 17
18 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.009 0.027 0.068 0.153 0.285 0.377 0.159 18
19 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.014 0.046 0.135 0.377 0.826 19
20 0 0.818 0.358 0.122 0.039 0.012 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.165 0.377 0.270 0.137 0.058 0.021 0.007 0.002 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 1
2 0.016 0.189 0.285 0.229 0.137 0.067 0.028 0.010 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 2
3 0.001 0.060 0.190 0.243 0.205 0.134 0.072 0.032 0.012 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 3
4 0.0+ 0.013 0.090 0.182 0.218 0.190 0.130 0.074 0.035 0.014 0.005 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 4
Febrero 2009
A–9
Estadı́stica Básica para Estudiantes de Ciencias
A–10
Tabla I (Continuación) 6
n
7
PROBABILIDADES BINOMIALES INDIVIDUALES b(x; n, p) = px q n−x
x
p
n x 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.99 x
20 5 0.0+ 0.002 0.032 0.103 0.175 0.202 0.179 0.127 0.075 0.036 0.015 0.005 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 5
6 0.0+ 0.0+ 0.009 0.045 0.109 0.169 0.192 0.171 0.124 0.075 0.037 0.015 0.005 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 6
7 0.0+ 0.0+ 0.002 0.016 0.055 0.112 0.164 0.184 0.166 0.122 0.074 0.037 0.015 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 7
8 0.0+ 0.0+ 0.0+ 0.005 0.022 0.061 0.114 0.161 0.180 0.162 0.120 0.073 0.035 0.014 0.004 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 8
9 0.0+ 0.0+ 0.0+ 0.001 0.007 0.027 0.065 0.116 0.160 0.177 0.160 0.119 0.071 0.034 0.012 0.003 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.010 0.031 0.069 0.117 0.159 0.176 0.159 0.117 0.069 0.031 0.010 0.002 0.0+ 0.0+ 0.0+ 0.0+ 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.003 0.012 0.034 0.071 0.119 0.160 0.177 0.160 0.116 0.065 0.027 0.007 0.001 0.0+ 0.0+ 0.0+ 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.014 0.035 0.073 0.120 0.162 0.180 0.161 0.114 0.061 0.022 0.005 0.0+ 0.0+ 0.0+ 12
13 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.015 0.037 0.074 0.122 0.166 0.184 0.164 0.112 0.055 0.016 0.002 0.0+ 0.0+ 13
14 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.015 0.037 0.075 0.124 0.171 0.192 0.169 0.109 0.045 0.009 0.0+ 0.0+ 14
15 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.015 0.036 0.075 0.127 0.179 0.202 0.175 0.103 0.032 0.002 0.0+ 15
16 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.014 0.035 0.074 0.130 0.190 0.218 0.182 0.090 0.013 0.0+ 16
17 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.012 0.032 0.072 0.134 0.205 0.243 0.190 0.060 0.001 17
18 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.010 0.028 0.067 0.137 0.229 0.285 0.189 0.016 18
19 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.007 0.021 0.058 0.137 0.270 0.377 0.165 19
20 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.012 0.039 0.122 0.358 0.818 20
21 0 0.810 0.341 0.109 0.033 0.009 0.002 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0
1 0.172 0.376 0.255 0.122 0.048 0.017 0.005 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 1
2 0.017 0.198 0.284 0.215 0.121 0.055 0.022 0.007 0.002 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 2
3 0.001 0.066 0.200 0.241 0.192 0.117 0.058 0.024 0.009 0.003 0.001 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 3
20 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.017 0.048 0.122 0.255 0.376 0.172 20
21 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.009 0.033 0.109 0.341 0.810 21
Estadı́stica Básica para Estudiantes de Ciencias
Tabla II n
!
PROBABILIDADES BINOMIALES ACUMULADAS b(x; n, p)
x=r
p
n r 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.99 r
2 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.020 0.098 0.190 0.278 0.360 0.438 0.510 0.577 0.640 0.697 0.750 0.798 0.840 0.877 0.910 0.938 0.960 0.978 0.990 0.997 1− 1
2 0.0+ 0.003 0.010 0.023 0.040 0.062 0.090 0.122 0.160 0.202 0.250 0.303 0.360 0.422 0.490 0.562 0.640 0.723 0.810 0.902 0.980 2
3 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.030 0.143 0.271 0.386 0.488 0.578 0.657 0.725 0.784 0.834 0.875 0.909 0.936 0.957 0.973 0.984 0.992 0.997 0.999 1− 1− 1
2 0.0+ 0.007 0.028 0.061 0.104 0.156 0.216 0.282 0.352 0.425 0.500 0.575 0.648 0.718 0.784 0.844 0.896 0.939 0.972 0.993 1− 2
3 0.0+ 0.0+ 0.001 0.003 0.008 0.016 0.027 0.043 0.064 0.091 0.125 0.166 0.216 0.275 0.343 0.422 0.512 0.614 0.729 0.857 0.970 3
4 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.039 0.185 0.344 0.478 0.590 0.684 0.760 0.821 0.870 0.908 0.938 0.959 0.974 0.985 0.992 0.996 0.998 1− 1− 1− 1− 1
2 0.001 0.014 0.052 0.110 0.181 0.262 0.348 0.437 0.525 0.609 0.688 0.759 0.821 0.874 0.916 0.949 0.973 0.988 0.996 1− 1− 2
3 0.0+ 0.0+ 0.004 0.012 0.027 0.051 0.084 0.126 0.179 0.241 0.312 0.391 0.475 0.563 0.652 0.738 0.819 0.890 0.948 0.986 1− 3
4 0.0+ 0.0+ 0.0+ 0.001 0.002 0.004 0.008 0.015 0.026 0.041 0.062 0.092 0.130 0.179 0.240 0.316 0.410 0.522 0.656 0.815 0.961 4
5 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.049 0.226 0.410 0.556 0.672 0.763 0.832 0.884 0.922 0.950 0.969 0.982 0.990 0.995 0.998 1− 1− 1− 1− 1− 1− 1
2 0.001 0.023 0.081 0.165 0.263 0.367 0.472 0.572 0.663 0.744 0.812 0.869 0.913 0.946 0.969 0.984 0.993 0.998 1− 1− 1− 2
3 0.0+ 0.001 0.009 0.027 0.058 0.104 0.163 0.235 0.317 0.407 0.500 0.593 0.683 0.765 0.837 0.896 0.942 0.973 0.991 0.999 1− 3
4 0.0+ 0.0+ 0.0+ 0.002 0.007 0.016 0.031 0.054 0.087 0.131 0.188 0.256 0.337 0.428 0.528 0.633 0.737 0.835 0.919 0.977 1− 4
5 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.005 0.010 0.018 0.031 0.050 0.078 0.116 0.168 0.237 0.328 0.444 0.590 0.774 0.951 5
6 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.059 0.265 0.469 0.623 0.738 0.822 0.882 0.925 0.953 0.972 0.984 0.992 0.996 0.998 1− 1− 1− 1− 1− 1− 1− 1
2 0.001 0.033 0.114 0.224 0.345 0.466 0.580 0.681 0.767 0.836 0.891 0.931 0.959 0.978 0.989 0.995 0.998 1− 1− 1− 1− 2
3 0.0+ 0.002 0.016 0.047 0.099 0.169 0.256 0.353 0.456 0.558 0.656 0.745 0.821 0.883 0.930 0.962 0.983 0.994 0.999 1− 1− 3
4 0.0+ 0.0+ 0.001 0.006 0.017 0.038 0.070 0.117 0.179 0.255 0.344 0.442 0.544 0.647 0.744 0.831 0.901 0.953 0.984 0.998 1− 4
5 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.005 0.011 0.022 0.041 0.069 0.109 0.164 0.233 0.319 0.420 0.534 0.655 0.776 0.886 0.967 0.999 5
6 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.004 0.008 0.016 0.028 0.047 0.075 0.118 0.178 0.262 0.377 0.531 0.735 0.941 6
7 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.068 0.302 0.522 0.679 0.790 0.867 0.918 0.951 0.972 0.985 0.992 0.996 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1
2 0.002 0.044 0.150 0.283 0.423 0.555 0.671 0.766 0.841 0.898 0.938 0.964 0.981 0.991 0.996 0.999 1− 1− 1− 1− 1− 2
3 0.0+ 0.004 0.026 0.074 0.148 0.244 0.353 0.468 0.580 0.684 0.773 0.847 0.904 0.944 0.971 0.987 0.995 0.999 1− 1− 1− 3
4 0.0+ 0.0+ 0.003 0.012 0.033 0.071 0.126 0.200 0.290 0.392 0.500 0.608 0.710 0.800 0.874 0.929 0.967 0.988 0.997 1− 1− 4
5 0.0+ 0.0+ 0.0+ 0.001 0.005 0.013 0.029 0.056 0.096 0.153 0.227 0.316 0.420 0.532 0.647 0.756 0.852 0.926 0.974 0.996 1− 5
6 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.009 0.019 0.036 0.062 0.102 0.159 0.234 0.329 0.445 0.577 0.717 0.850 0.956 0.998 6
7 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.004 0.008 0.015 0.028 0.049 0.082 0.133 0.210 0.321 0.478 0.698 0.932 7
Febrero 2009
A–11
Estadı́stica Básica para Estudiantes de Ciencias
A–12
Tabla II (Continuación) n
!
PROBABILIDADES BINOMIALES ACUMULADAS b(x; n, p)
x=r
p
n r 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.99 r
8 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.077 0.337 0.570 0.728 0.832 0.900 0.942 0.968 0.983 0.992 0.996 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1
2 0.003 0.057 0.187 0.343 0.497 0.633 0.745 0.831 0.894 0.937 0.965 0.982 0.991 0.996 0.999 1− 1− 1− 1− 1− 1− 2
3 0.0+ 0.006 0.038 0.105 0.203 0.321 0.448 0.572 0.685 0.780 0.855 0.912 0.950 0.975 0.989 0.996 0.999 1− 1− 1− 1− 3
4 0.0+ 0.0+ 0.005 0.021 0.056 0.114 0.194 0.294 0.406 0.523 0.637 0.740 0.826 0.894 0.942 0.973 0.990 0.997 1− 1− 1− 4
5 0.0+ 0.0+ 0.0+ 0.003 0.010 0.027 0.058 0.106 0.174 0.260 0.363 0.477 0.594 0.706 0.806 0.886 0.944 0.979 0.995 1− 1− 5
6 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.011 0.025 0.050 0.088 0.145 0.220 0.315 0.428 0.552 0.679 0.797 0.895 0.962 0.994 1− 6
7 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.009 0.018 0.035 0.063 0.106 0.169 0.255 0.367 0.503 0.657 0.813 0.943 0.997 7
8 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.004 0.008 0.017 0.032 0.058 0.100 0.168 0.272 0.430 0.663 0.923 8
9 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.086 0.370 0.613 0.768 0.866 0.925 0.960 0.979 0.990 0.995 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1
2 0.003 0.071 0.225 0.401 0.564 0.700 0.804 0.879 0.929 0.961 0.980 0.991 0.996 0.999 1− 1− 1− 1− 1− 1− 1− 2
3 0.0+ 0.008 0.053 0.141 0.262 0.399 0.537 0.663 0.768 0.850 0.910 0.950 0.975 0.989 0.996 0.999 1− 1− 1− 1− 1− 3
4 0.0+ 0.001 0.008 0.034 0.086 0.166 0.270 0.391 0.517 0.639 0.746 0.834 0.901 0.946 0.975 0.990 0.997 1− 1− 1− 1− 4
5 0.0+ 0.0+ 0.001 0.006 0.020 0.049 0.099 0.172 0.267 0.379 0.500 0.621 0.733 0.828 0.901 0.951 0.980 0.994 1− 1− 1− 5
6 0.0+ 0.0+ 0.0+ 0.001 0.003 0.010 0.025 0.054 0.099 0.166 0.254 0.361 0.483 0.609 0.730 0.834 0.914 0.966 0.992 1− 1− 6
7 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.011 0.025 0.050 0.090 0.150 0.232 0.337 0.463 0.601 0.738 0.859 0.947 0.992 1− 7
8 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.009 0.020 0.039 0.071 0.121 0.196 0.300 0.436 0.599 0.775 0.929 0.997 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.005 0.010 0.021 0.040 0.075 0.134 0.232 0.387 0.630 0.914 9
11 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.105 0.431 0.686 0.833 0.914 0.958 0.980 0.991 0.996 0.999 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1
2 0.005 0.102 0.303 0.508 0.678 0.803 0.887 0.939 0.970 0.986 0.994 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 2
3 0.0+ 0.015 0.090 0.221 0.383 0.545 0.687 0.800 0.881 0.935 0.967 0.985 0.994 0.998 1− 1− 1− 1− 1− 1− 1− 3
Febrero 2009
4 0.0+ 0.002 0.019 0.069 0.161 0.287 0.430 0.574 0.704 0.809 0.887 0.939 0.971 0.988 0.996 0.999 1− 1− 1− 1− 1− 4
Estadı́stica Básica para Estudiantes de Ciencias
Tabla II (Continuación) n
!
PROBABILIDADES BINOMIALES ACUMULADAS b(x; n, p)
x=r
p
n r 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.99 r
11 5 0.0+ 0.0+ 0.003 0.016 0.050 0.115 0.210 0.332 0.467 0.603 0.726 0.826 0.901 0.950 0.978 0.992 0.998 1− 1− 1− 1− 5
6 0.0+ 0.0+ 0.0+ 0.003 0.012 0.034 0.078 0.149 0.247 0.367 0.500 0.633 0.753 0.851 0.922 0.966 0.988 0.997 1− 1− 1− 6
7 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.008 0.022 0.050 0.099 0.174 0.274 0.397 0.533 0.668 0.790 0.885 0.950 0.984 0.997 1− 1− 7
8 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.012 0.029 0.061 0.113 0.191 0.296 0.426 0.570 0.713 0.839 0.931 0.981 0.998 1− 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.006 0.015 0.033 0.065 0.119 0.200 0.313 0.455 0.617 0.779 0.910 0.985 1− 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.006 0.014 0.030 0.061 0.113 0.197 0.322 0.492 0.697 0.898 0.995 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.009 0.020 0.042 0.086 0.167 0.314 0.569 0.895 11
12 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.114 0.460 0.718 0.858 0.931 0.968 0.986 0.994 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1
2 0.006 0.118 0.341 0.557 0.725 0.842 0.915 0.958 0.980 0.992 0.997 0.999 1− 1− 1− 1− 1− 1− 1− 1− 1− 2
3 0.0+ 0.020 0.111 0.264 0.442 0.609 0.747 0.849 0.917 0.958 0.981 0.992 0.997 1− 1− 1− 1− 1− 1− 1− 1− 3
4 0.0+ 0.002 0.026 0.092 0.205 0.351 0.507 0.653 0.775 0.866 0.927 0.964 0.985 0.994 0.998 1− 1− 1− 1− 1− 1− 4
5 0.0+ 0.0+ 0.004 0.024 0.073 0.158 0.276 0.417 0.562 0.696 0.806 0.888 0.943 0.974 0.991 0.997 1− 1− 1− 1− 1− 5
6 0.0+ 0.0+ 0.001 0.005 0.019 0.054 0.118 0.213 0.335 0.473 0.613 0.739 0.842 0.915 0.961 0.986 0.996 1− 1− 1− 1− 6
7 0.0+ 0.0+ 0.0+ 0.001 0.004 0.014 0.039 0.085 0.158 0.261 0.387 0.527 0.665 0.787 0.882 0.946 0.981 0.995 1− 1− 1− 7
8 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.009 0.026 0.057 0.112 0.194 0.304 0.438 0.583 0.724 0.842 0.927 0.976 0.996 1− 1− 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.006 0.015 0.036 0.073 0.134 0.225 0.347 0.493 0.649 0.795 0.908 0.974 0.998 1− 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.008 0.019 0.042 0.083 0.151 0.253 0.391 0.558 0.736 0.889 0.980 1− 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.008 0.020 0.042 0.085 0.158 0.275 0.443 0.659 0.882 0.994 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.006 0.014 0.032 0.069 0.142 0.282 0.540 0.886 12
13 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.122 0.487 0.746 0.879 0.945 0.976 0.990 0.996 0.999 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1
2 0.007 0.135 0.379 0.602 0.766 0.873 0.936 0.970 0.987 0.995 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 2
3 0.0+ 0.025 0.134 0.308 0.498 0.667 0.798 0.887 0.942 0.973 0.989 0.996 0.999 1− 1− 1− 1− 1− 1− 1− 1− 3
4 0.0+ 0.003 0.034 0.118 0.253 0.416 0.579 0.722 0.831 0.907 0.954 0.980 0.992 0.997 1− 1− 1− 1− 1− 1− 1− 4
5 0.0+ 0.0+ 0.006 0.034 0.099 0.206 0.346 0.499 0.647 0.772 0.867 0.930 0.968 0.987 0.996 1− 1− 1− 1− 1− 1− 5
6 0.0+ 0.0+ 0.001 0.008 0.030 0.080 0.165 0.284 0.426 0.573 0.709 0.821 0.902 0.954 0.982 0.994 0.999 1− 1− 1− 1− 6
7 0.0+ 0.0+ 0.0+ 0.001 0.007 0.024 0.062 0.129 0.229 0.356 0.500 0.644 0.771 0.871 0.938 0.976 0.993 0.999 1− 1− 1− 7
8 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.006 0.018 0.046 0.098 0.179 0.291 0.427 0.574 0.716 0.835 0.920 0.970 0.992 1− 1− 1− 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.013 0.032 0.070 0.133 0.228 0.353 0.501 0.654 0.794 0.901 0.966 0.994 1− 1− 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.008 0.020 0.046 0.093 0.169 0.278 0.421 0.584 0.747 0.882 0.966 0.997 1− 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.011 0.027 0.058 0.113 0.202 0.333 0.502 0.692 0.866 0.975 1− 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.005 0.013 0.030 0.064 0.127 0.234 0.398 0.621 0.865 0.993 12
13 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.010 0.024 0.055 0.121 0.254 0.513 0.878 13
14 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
Febrero 2009
A–13
Estadı́stica Básica para Estudiantes de Ciencias
A–14
Tabla II (Continuación) n
!
PROBABILIDADES BINOMIALES ACUMULADAS b(x; n, p)
x=r
p
n r 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.99 r
14 2 0.008 0.153 0.415 0.643 0.802 0.899 0.953 0.979 0.992 0.997 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 2
3 0.0+ 0.030 0.158 0.352 0.552 0.719 0.839 0.916 0.960 0.983 0.994 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 3
4 0.0+ 0.004 0.044 0.147 0.302 0.479 0.645 0.780 0.876 0.937 0.971 0.989 0.996 0.999 1− 1− 1− 1− 1− 1− 1− 4
5 0.0+ 0.0+ 0.009 0.047 0.130 0.258 0.416 0.577 0.721 0.833 0.910 0.957 0.982 0.994 0.998 1− 1− 1− 1− 1− 1− 5
6 0.0+ 0.0+ 0.001 0.012 0.044 0.112 0.219 0.359 0.514 0.663 0.788 0.881 0.942 0.976 0.992 0.998 1− 1− 1− 1− 1− 6
7 0.0+ 0.0+ 0.0+ 0.002 0.012 0.038 0.093 0.184 0.308 0.454 0.605 0.741 0.850 0.925 0.969 0.990 0.998 1− 1− 1− 1− 7
8 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.010 0.031 0.075 0.150 0.259 0.395 0.546 0.692 0.816 0.907 0.962 0.988 0.998 1− 1− 1− 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.008 0.024 0.058 0.119 0.212 0.337 0.486 0.641 0.781 0.888 0.956 0.988 0.999 1− 1− 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.006 0.018 0.043 0.090 0.167 0.279 0.423 0.584 0.742 0.870 0.953 0.991 1− 1− 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.011 0.029 0.063 0.124 0.220 0.355 0.521 0.698 0.853 0.956 0.996 1− 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.006 0.017 0.040 0.084 0.161 0.281 0.448 0.648 0.842 0.970 1− 12
13 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.008 0.021 0.047 0.101 0.198 0.357 0.585 0.847 0.992 13
14 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.007 0.018 0.044 0.103 0.229 0.488 0.869 14
15 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.140 0.537 0.794 0.913 0.965 0.987 0.995 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1
2 0.010 0.171 0.451 0.681 0.833 0.920 0.965 0.986 0.995 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 2
3 0.0+ 0.036 0.184 0.396 0.602 0.764 0.873 0.938 0.973 0.989 0.996 0.999 1− 1− 1− 1− 1− 1− 1− 1− 1− 3
4 0.0+ 0.005 0.056 0.177 0.352 0.539 0.703 0.827 0.909 0.958 0.982 0.994 0.998 1− 1− 1− 1− 1− 1− 1− 1− 4
5 0.0+ 0.001 0.013 0.062 0.164 0.314 0.485 0.648 0.783 0.880 0.941 0.975 0.991 0.997 1− 1− 1− 1− 1− 1− 1− 5
16 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.149 0.560 0.815 0.926 0.972 0.990 0.997 0.999 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1
2 0.011 0.189 0.485 0.716 0.859 0.937 0.974 0.990 0.997 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 2
3 0.001 0.043 0.211 0.439 0.648 0.803 0.901 0.955 0.982 0.993 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 3
4 0.0+ 0.007 0.068 0.210 0.402 0.595 0.754 0.866 0.935 0.972 0.989 0.997 1− 1− 1− 1− 1− 1− 1− 1− 1− 4
5 0.0+ 0.001 0.017 0.079 0.202 0.370 0.550 0.711 0.833 0.915 0.962 0.985 0.995 0.999 1− 1− 1− 1− 1− 1− 1− 5
Febrero 2009
6 0.0+ 0.0+ 0.003 0.024 0.082 0.190 0.340 0.510 0.671 0.802 0.895 0.951 0.981 0.994 0.998 1− 1− 1− 1− 1− 1− 6
Estadı́stica Básica para Estudiantes de Ciencias
Tabla II (Continuación) n
!
PROBABILIDADES BINOMIALES ACUMULADAS b(x; n, p)
x=r
p
n r 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.99 r
16 7 0.0+ 0.0+ 0.001 0.006 0.027 0.080 0.175 0.312 0.473 0.634 0.773 0.876 0.942 0.977 0.993 0.998 1− 1− 1− 1− 1− 7
8 0.0+ 0.0+ 0.0+ 0.001 0.007 0.027 0.074 0.159 0.284 0.437 0.598 0.744 0.858 0.933 0.974 0.993 0.999 1− 1− 1− 1− 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.007 0.026 0.067 0.142 0.256 0.402 0.563 0.716 0.841 0.926 0.973 0.993 0.999 1− 1− 1− 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.007 0.023 0.058 0.124 0.227 0.366 0.527 0.688 0.825 0.920 0.973 0.994 1− 1− 1− 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.006 0.019 0.049 0.105 0.198 0.329 0.490 0.660 0.810 0.918 0.976 0.997 1− 1− 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.015 0.038 0.085 0.167 0.289 0.450 0.630 0.798 0.921 0.983 1− 1− 12
13 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.011 0.028 0.065 0.134 0.246 0.405 0.598 0.790 0.932 0.993 1− 13
14 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.007 0.018 0.045 0.099 0.197 0.352 0.561 0.789 0.957 1− 14
15 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.010 0.026 0.063 0.141 0.284 0.515 0.811 0.989 15
16 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.010 0.028 0.074 0.185 0.440 0.851 16
17 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.157 0.582 0.833 0.937 0.977 0.992 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1
2 0.012 0.208 0.518 0.748 0.882 0.950 0.981 0.993 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 2
3 0.001 0.050 0.238 0.480 0.690 0.836 0.923 0.967 0.988 0.996 0.999 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 3
4 0.0+ 0.009 0.083 0.244 0.451 0.647 0.798 0.897 0.954 0.982 0.994 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 4
5 0.0+ 0.001 0.022 0.099 0.242 0.426 0.611 0.765 0.874 0.940 0.975 0.991 0.997 1− 1− 1− 1− 1− 1− 1− 1− 5
6 0.0+ 0.0+ 0.005 0.032 0.106 0.235 0.403 0.580 0.736 0.853 0.928 0.970 0.989 0.997 1− 1− 1− 1− 1− 1− 1− 6
7 0.0+ 0.0+ 0.001 0.008 0.038 0.107 0.225 0.381 0.552 0.710 0.834 0.917 0.965 0.988 0.997 1− 1− 1− 1− 1− 1− 7
8 0.0+ 0.0+ 0.0+ 0.002 0.011 0.040 0.105 0.213 0.359 0.526 0.685 0.817 0.908 0.962 0.987 0.997 1− 1− 1− 1− 1− 8
9 0.0+ 0.0+ 0.0+ 0.0+ 0.003 0.012 0.040 0.099 0.199 0.337 0.500 0.663 0.801 0.901 0.960 0.988 0.997 1− 1− 1− 1− 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.003 0.013 0.038 0.092 0.183 0.315 0.474 0.641 0.787 0.895 0.960 0.989 0.998 1− 1− 1− 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.012 0.035 0.083 0.166 0.290 0.448 0.619 0.775 0.893 0.962 0.992 1− 1− 1− 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.011 0.030 0.072 0.147 0.264 0.420 0.597 0.765 0.894 0.968 0.995 1− 1− 12
13 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.009 0.025 0.060 0.126 0.235 0.389 0.574 0.758 0.901 0.978 0.999 1− 13
14 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.006 0.018 0.046 0.103 0.202 0.353 0.549 0.756 0.917 0.991 1− 14
15 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.012 0.033 0.077 0.164 0.310 0.520 0.762 0.950 1− 15
16 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.007 0.019 0.050 0.118 0.252 0.482 0.792 0.988 16
17 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.008 0.023 0.063 0.167 0.418 0.843 17
18 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.165 0.603 0.850 0.946 0.982 0.994 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1
2 0.014 0.226 0.550 0.776 0.901 0.961 0.986 0.995 0.999 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 2
3 0.001 0.058 0.266 0.520 0.729 0.865 0.940 0.976 0.992 0.997 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 3
4 0.0+ 0.011 0.098 0.280 0.499 0.694 0.835 0.922 0.967 0.988 0.996 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 4
5 0.0+ 0.002 0.028 0.121 0.284 0.481 0.667 0.811 0.906 0.959 0.985 0.995 0.999 1− 1− 1− 1− 1− 1− 1− 1− 5
6 0.0+ 0.0+ 0.006 0.042 0.133 0.283 0.466 0.645 0.791 0.892 0.952 0.982 0.994 0.999 1− 1− 1− 1− 1− 1− 1− 6
7 0.0+ 0.0+ 0.001 0.012 0.051 0.139 0.278 0.451 0.626 0.774 0.881 0.946 0.980 0.994 0.999 1− 1− 1− 1− 1− 1− 7
Febrero 2009
A–15
Estadı́stica Básica para Estudiantes de Ciencias
A–16
Tabla II (Continuación) n
!
PROBABILIDADES BINOMIALES ACUMULADAS b(x; n, p)
x=r
p
n r 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.99 r
18 8 0.0+ 0.0+ 0.0+ 0.003 0.016 0.057 0.141 0.272 0.437 0.609 0.760 0.872 0.942 0.979 0.994 0.999 1− 1− 1− 1− 1− 8
9 0.0+ 0.0+ 0.0+ 0.001 0.004 0.019 0.060 0.139 0.263 0.422 0.593 0.747 0.865 0.940 0.979 0.995 1− 1− 1− 1− 1− 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.021 0.060 0.135 0.253 0.407 0.578 0.737 0.861 0.940 0.981 0.996 1− 1− 1− 1− 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.006 0.021 0.058 0.128 0.240 0.391 0.563 0.728 0.859 0.943 0.984 0.997 1− 1− 1− 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.006 0.020 0.054 0.119 0.226 0.374 0.549 0.722 0.861 0.949 0.988 0.999 1− 1− 12
13 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.006 0.018 0.048 0.108 0.209 0.355 0.534 0.717 0.867 0.958 0.994 1− 1− 13
14 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.015 0.041 0.094 0.189 0.333 0.519 0.716 0.879 0.972 0.998 1− 14
15 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.012 0.033 0.078 0.165 0.306 0.501 0.720 0.902 0.989 1− 15
16 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.008 0.024 0.060 0.135 0.271 0.480 0.734 0.942 1− 16
17 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.014 0.039 0.099 0.224 0.450 0.774 0.986 17
18 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.006 0.018 0.054 0.150 0.397 0.835 18
19 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.174 0.623 0.865 0.954 0.986 0.996 0.999 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1
2 0.015 0.245 0.580 0.802 0.917 0.969 0.990 0.997 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 2
3 0.001 0.067 0.295 0.559 0.763 0.889 0.954 0.983 0.995 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 3
4 0.0+ 0.013 0.115 0.316 0.545 0.737 0.867 0.941 0.977 0.992 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 4
5 0.0+ 0.002 0.035 0.144 0.327 0.535 0.718 0.850 0.930 0.972 0.990 0.997 1− 1− 1− 1− 1− 1− 1− 1− 1− 5
6 0.0+ 0.0+ 0.009 0.054 0.163 0.332 0.526 0.703 0.837 0.922 0.968 0.989 0.997 1− 1− 1− 1− 1− 1− 1− 1− 6
7 0.0+ 0.0+ 0.002 0.016 0.068 0.175 0.334 0.519 0.692 0.827 0.916 0.966 0.988 0.997 1− 1− 1− 1− 1− 1− 1− 7
20 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.182 0.642 0.878 0.961 0.988 0.997 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1
2 0.017 0.264 0.608 0.824 0.931 0.976 0.992 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 2
3 0.001 0.075 0.323 0.595 0.794 0.909 0.965 0.988 0.996 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 3
Febrero 2009
4 0.0+ 0.016 0.133 0.352 0.589 0.775 0.893 0.956 0.984 0.995 0.999 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 4
Estadı́stica Básica para Estudiantes de Ciencias
Tabla II (Continuación) n
!
PROBABILIDADES BINOMIALES ACUMULADAS b(x; n, p)
x=r
p
n r 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 0.99 r
20 5 0.0+ 0.003 0.043 0.170 0.370 0.585 0.762 0.882 0.949 0.981 0.994 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 5
6 0.0+ 0.0+ 0.011 0.067 0.196 0.383 0.584 0.755 0.874 0.945 0.979 0.994 0.998 1− 1− 1− 1− 1− 1− 1− 1− 6
7 0.0+ 0.0+ 0.002 0.022 0.087 0.214 0.392 0.583 0.750 0.870 0.942 0.979 0.994 0.998 1− 1− 1− 1− 1− 1− 1− 7
8 0.0+ 0.0+ 0.0+ 0.006 0.032 0.102 0.228 0.399 0.584 0.748 0.868 0.942 0.979 0.994 0.999 1− 1− 1− 1− 1− 1− 8
9 0.0+ 0.0+ 0.0+ 0.001 0.010 0.041 0.113 0.238 0.404 0.586 0.748 0.869 0.943 0.980 0.995 1− 1− 1− 1− 1− 1− 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.003 0.014 0.048 0.122 0.245 0.409 0.588 0.751 0.872 0.947 0.983 0.996 1− 1− 1− 1− 1− 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.017 0.053 0.128 0.249 0.412 0.591 0.755 0.878 0.952 0.986 0.997 1− 1− 1− 1− 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.020 0.057 0.131 0.252 0.414 0.596 0.762 0.887 0.959 0.990 0.999 1− 1− 1− 12
13 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.006 0.021 0.058 0.132 0.252 0.416 0.601 0.772 0.898 0.968 0.994 1− 1− 1− 13
14 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.006 0.021 0.058 0.130 0.250 0.417 0.608 0.786 0.913 0.978 0.998 1− 1− 14
15 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.006 0.021 0.055 0.126 0.245 0.416 0.617 0.804 0.933 0.989 1− 1− 15
16 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.006 0.019 0.051 0.118 0.238 0.415 0.630 0.830 0.957 0.997 1− 16
17 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.005 0.016 0.044 0.107 0.225 0.411 0.648 0.867 0.984 1− 17
18 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.012 0.035 0.091 0.206 0.405 0.677 0.925 0.999 18
19 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.008 0.024 0.069 0.176 0.392 0.736 0.983 19
20 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.012 0.039 0.122 0.358 0.818 20
21 0 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 0
1 0.190 0.659 0.891 0.967 0.991 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1
2 0.019 0.283 0.635 0.845 0.942 0.981 0.994 0.999 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 2
3 0.001 0.085 0.352 0.630 0.821 0.925 0.973 0.991 0.998 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 3
4 0.0+ 0.019 0.152 0.389 0.630 0.808 0.914 0.967 0.989 0.997 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 4
5 0.0+ 0.003 0.052 0.197 0.414 0.633 0.802 0.908 0.963 0.987 0.996 1− 1− 1− 1− 1− 1− 1− 1− 1− 1− 5
6 0.0+ 0.0+ 0.014 0.083 0.231 0.433 0.637 0.799 0.904 0.961 0.987 0.996 1− 1− 1− 1− 1− 1− 1− 1− 1− 6
7 0.0+ 0.0+ 0.003 0.029 0.109 0.256 0.449 0.643 0.800 0.904 0.961 0.987 0.996 1− 1− 1− 1− 1− 1− 1− 1− 7
8 0.0+ 0.0+ 0.001 0.008 0.043 0.130 0.277 0.464 0.650 0.803 0.905 0.962 0.988 0.997 1− 1− 1− 1− 1− 1− 1− 8
9 0.0+ 0.0+ 0.0+ 0.002 0.014 0.056 0.148 0.294 0.476 0.659 0.808 0.909 0.965 0.989 0.998 1− 1− 1− 1− 1− 1− 9
10 0.0+ 0.0+ 0.0+ 0.0+ 0.004 0.021 0.068 0.162 0.309 0.488 0.668 0.816 0.915 0.969 0.991 0.998 1− 1− 1− 1− 1− 10
11 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.006 0.026 0.077 0.174 0.321 0.500 0.679 0.826 0.923 0.974 0.994 1− 1− 1− 1− 1− 11
12 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.009 0.031 0.085 0.184 0.332 0.512 0.691 0.838 0.932 0.979 0.996 1− 1− 1− 1− 12
13 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.002 0.011 0.035 0.091 0.192 0.341 0.524 0.706 0.852 0.944 0.986 0.998 1− 1− 1− 13
14 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.012 0.038 0.095 0.197 0.350 0.536 0.723 0.870 0.957 0.992 1− 1− 1− 14
15 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.013 0.039 0.096 0.200 0.357 0.551 0.744 0.891 0.971 0.997 1− 1− 15
16 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.013 0.039 0.096 0.201 0.363 0.567 0.769 0.917 0.986 1− 1− 16
17 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.004 0.013 0.037 0.092 0.198 0.367 0.586 0.803 0.948 0.997 1− 17
18 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.003 0.011 0.033 0.086 0.192 0.370 0.611 0.848 0.981 1− 18
19 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.009 0.027 0.075 0.179 0.370 0.648 0.915 0.999 19
20 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.006 0.019 0.058 0.155 0.365 0.717 0.981 20
Febrero 2009
21 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.0+ 0.001 0.002 0.009 0.033 0.109 0.341 0.810 21
A–17
Estadı́stica Básica para Estudiantes de Ciencias
A–18
Tabla III x
! λr
PROBABILIDADES ACUMULADAS DE POISSON P (x; λ) = e−λ
r=0
r!
x x
λ 0 1 2 3 4 5 6 λ 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
0.01 0.990 1.000 1.000 1.000 1.000 1.000 1.000 1.10 0.333 0.699 0.900 0.974 0.995 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.02 0.980 1.000 1.000 1.000 1.000 1.000 1.000 1.20 0.301 0.663 0.879 0.966 0.992 0.998 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.03 0.970 1.000 1.000 1.000 1.000 1.000 1.000 1.30 0.273 0.627 0.857 0.957 0.989 0.998 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.04 0.961 0.999 1.000 1.000 1.000 1.000 1.000 1.40 0.247 0.592 0.833 0.946 0.986 0.997 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.05 0.951 0.999 1.000 1.000 1.000 1.000 1.000 1.50 0.223 0.558 0.809 0.934 0.981 0.996 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.06 0.942 0.998 1.000 1.000 1.000 1.000 1.000 1.60 0.202 0.525 0.783 0.921 0.976 0.994 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.07 0.932 0.998 1.000 1.000 1.000 1.000 1.000 1.70 0.183 0.493 0.757 0.907 0.970 0.992 0.998 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.08 0.923 0.997 1.000 1.000 1.000 1.000 1.000 1.80 0.165 0.463 0.731 0.891 0.964 0.990 0.997 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.09 0.914 0.996 1.000 1.000 1.000 1.000 1.000 1.90 0.150 0.434 0.704 0.875 0.956 0.987 0.997 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.10 0.905 0.995 1.000 1.000 1.000 1.000 1.000 2.00 0.135 0.406 0.677 0.857 0.947 0.983 0.995 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.11 0.896 0.994 1.000 1.000 1.000 1.000 1.000 2.10 0.122 0.380 0.650 0.839 0.938 0.980 0.994 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.12 0.887 0.993 1.000 1.000 1.000 1.000 1.000 2.20 0.111 0.355 0.623 0.819 0.928 0.975 0.993 0.998 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.13 0.878 0.992 1.000 1.000 1.000 1.000 1.000 2.30 0.100 0.331 0.596 0.799 0.916 0.970 0.991 0.997 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.14 0.869 0.991 1.000 1.000 1.000 1.000 1.000 2.40 0.091 0.308 0.570 0.779 0.904 0.964 0.988 0.997 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.15 0.861 0.990 0.999 1.000 1.000 1.000 1.000 2.50 0.082 0.287 0.544 0.758 0.891 0.958 0.986 0.996 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.16 0.852 0.988 0.999 1.000 1.000 1.000 1.000 2.60 0.074 0.267 0.518 0.736 0.877 0.951 0.983 0.995 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.17 0.844 0.987 0.999 1.000 1.000 1.000 1.000 2.70 0.067 0.249 0.494 0.714 0.863 0.943 0.979 0.993 0.998 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.18 0.835 0.986 0.999 1.000 1.000 1.000 1.000 2.80 0.061 0.231 0.469 0.692 0.848 0.935 0.976 0.992 0.998 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.19 0.827 0.984 0.999 1.000 1.000 1.000 1.000 2.90 0.055 0.215 0.446 0.670 0.832 0.926 0.971 0.990 0.997 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000
0.20 0.819 0.982 0.999 1.000 1.000 1.000 1.000 3.00 0.050 0.199 0.423 0.647 0.815 0.916 0.966 0.988 0.996 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000
x
λ 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
4.80 0.008 0.048 0.143 0.294 0.476 0.651 0.791 0.887 0.944 0.975 0.990 0.996 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
5.00 0.007 0.040 0.125 0.265 0.440 0.616 0.762 0.867 0.932 0.968 0.986 0.995 0.998 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
5.20 0.006 0.034 0.109 0.238 0.406 0.581 0.732 0.845 0.918 0.960 0.982 0.993 0.997 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
5.40 0.005 0.029 0.095 0.213 0.373 0.546 0.702 0.822 0.903 0.951 0.977 0.990 0.996 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
5.60 0.004 0.024 0.082 0.191 0.342 0.512 0.670 0.797 0.886 0.941 0.972 0.988 0.995 0.998 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
5.80 0.003 0.021 0.072 0.170 0.313 0.478 0.638 0.771 0.867 0.929 0.965 0.984 0.993 0.997 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
6.00 0.002 0.017 0.062 0.151 0.285 0.446 0.606 0.744 0.847 0.916 0.957 0.980 0.991 0.996 0.999 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
6.20 0.002 0.015 0.054 0.134 0.259 0.414 0.574 0.716 0.826 0.902 0.949 0.975 0.989 0.995 0.998 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
6.40 0.002 0.012 0.046 0.119 0.235 0.384 0.542 0.687 0.803 0.886 0.939 0.969 0.986 0.994 0.997 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
6.60 0.001 0.010 0.040 0.105 0.213 0.355 0.511 0.658 0.780 0.869 0.927 0.963 0.982 0.992 0.997 0.999 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
6.80 0.001 0.009 0.034 0.093 0.192 0.327 0.480 0.628 0.755 0.850 0.915 0.955 0.978 0.990 0.996 0.998 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
7.00 0.001 0.007 0.030 0.082 0.173 0.301 0.450 0.599 0.729 0.830 0.901 0.947 0.973 0.987 0.994 0.998 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
7.20 0.001 0.006 0.025 0.072 0.156 0.276 0.420 0.569 0.703 0.810 0.887 0.937 0.967 0.984 0.993 0.997 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
7.40 0.001 0.005 0.022 0.063 0.140 0.253 0.392 0.539 0.676 0.788 0.871 0.926 0.961 0.980 0.991 0.996 0.998 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
7.60 0.001 0.004 0.019 0.055 0.125 0.231 0.365 0.510 0.648 0.765 0.854 0.915 0.954 0.976 0.989 0.995 0.998 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
7.80 0.000 0.004 0.016 0.048 0.112 0.210 0.338 0.481 0.620 0.741 0.835 0.902 0.945 0.971 0.986 0.993 0.997 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
8.00 0.000 0.003 0.014 0.042 0.100 0.191 0.313 0.453 0.593 0.717 0.816 0.888 0.936 0.966 0.983 0.992 0.996 0.998 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000
8.20 0.000 0.003 0.012 0.037 0.089 0.174 0.290 0.425 0.565 0.692 0.796 0.873 0.926 0.960 0.979 0.990 0.995 0.998 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000
8.40 0.000 0.002 0.010 0.032 0.079 0.157 0.267 0.399 0.537 0.666 0.774 0.857 0.915 0.952 0.975 0.987 0.994 0.997 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000
8.60 0.000 0.002 0.009 0.028 0.070 0.142 0.246 0.373 0.509 0.640 0.752 0.840 0.903 0.945 0.970 0.985 0.993 0.997 0.999 0.999 1.000 1.000 1.000 1.000 1.000 1.000
8.80 0.000 0.001 0.007 0.024 0.062 0.128 0.226 0.348 0.482 0.614 0.729 0.822 0.890 0.936 0.965 0.982 0.991 0.996 0.998 0.999 1.000 1.000 1.000 1.000 1.000 1.000
9.00 0.000 0.001 0.006 0.021 0.055 0.116 0.207 0.324 0.456 0.587 0.706 0.803 0.876 0.926 0.959 0.978 0.989 0.995 0.998 0.999 1.000 1.000 1.000 1.000 1.000 1.000
9.20 0.000 0.001 0.005 0.018 0.049 0.104 0.189 0.301 0.430 0.561 0.682 0.783 0.861 0.916 0.952 0.974 0.987 0.993 0.997 0.999 0.999 1.000 1.000 1.000 1.000 1.000
9.40 0.000 0.001 0.005 0.016 0.043 0.093 0.173 0.279 0.404 0.535 0.658 0.763 0.845 0.904 0.944 0.969 0.984 0.992 0.996 0.998 0.999 1.000 1.000 1.000 1.000 1.000
9.60 0.000 0.001 0.004 0.014 0.038 0.084 0.157 0.258 0.380 0.509 0.633 0.741 0.828 0.892 0.936 0.964 0.981 0.990 0.995 0.998 0.999 1.000 1.000 1.000 1.000 1.000
9.80 0.000 0.001 0.003 0.012 0.033 0.075 0.143 0.239 0.356 0.483 0.608 0.719 0.810 0.879 0.927 0.958 0.977 0.988 0.994 0.997 0.999 0.999 1.000 1.000 1.000 1.000
10.00 0.000 0.000 0.003 0.010 0.029 0.067 0.130 0.220 0.333 0.458 0.583 0.697 0.792 0.864 0.917 0.951 0.973 0.986 0.993 0.997 0.998 0.999 1.000 1.000 1.000 1.000
10.20 0.000 0.000 0.002 0.009 0.026 0.060 0.118 0.203 0.311 0.433 0.558 0.674 0.772 0.849 0.906 0.944 0.968 0.983 0.991 0.996 0.998 0.999 1.000 1.000 1.000 1.000
10.40 0.000 0.000 0.002 0.008 0.023 0.053 0.107 0.186 0.290 0.409 0.533 0.650 0.752 0.834 0.894 0.936 0.963 0.980 0.989 0.995 0.997 0.999 0.999 1.000 1.000 1.000
10.60 0.000 0.000 0.002 0.007 0.020 0.048 0.097 0.171 0.269 0.385 0.508 0.627 0.732 0.817 0.882 0.927 0.957 0.976 0.987 0.994 0.997 0.999 0.999 1.000 1.000 1.000
10.80 0.000 0.000 0.001 0.006 0.017 0.042 0.087 0.157 0.250 0.363 0.484 0.603 0.710 0.799 0.868 0.918 0.951 0.972 0.985 0.992 0.996 0.998 0.999 1.000 1.000 1.000
11.00 0.000 0.000 0.001 0.005 0.015 0.038 0.079 0.143 0.232 0.341 0.460 0.579 0.689 0.781 0.854 0.907 0.944 0.968 0.982 0.991 0.995 0.998 0.999 1.000 1.000 1.000
11.20 0.000 0.000 0.001 0.004 0.013 0.033 0.071 0.131 0.215 0.319 0.436 0.555 0.667 0.762 0.839 0.896 0.936 0.963 0.979 0.989 0.994 0.997 0.999 0.999 1.000 1.000
11.40 0.000 0.000 0.001 0.004 0.012 0.029 0.064 0.119 0.198 0.299 0.413 0.532 0.644 0.743 0.823 0.885 0.928 0.957 0.976 0.987 0.993 0.997 0.998 0.999 1.000 1.000
11.60 0.000 0.000 0.001 0.003 0.010 0.026 0.057 0.108 0.183 0.279 0.391 0.508 0.622 0.723 0.807 0.872 0.919 0.951 0.972 0.984 0.992 0.996 0.998 0.999 1.000 1.000
11.80 0.000 0.000 0.001 0.003 0.009 0.023 0.051 0.099 0.169 0.260 0.369 0.485 0.599 0.702 0.790 0.859 0.909 0.944 0.967 0.982 0.990 0.995 0.998 0.999 0.999 1.000
12.00 0.000 0.000 0.001 0.002 0.008 0.020 0.046 0.090 0.155 0.242 0.347 0.462 0.576 0.682 0.772 0.844 0.899 0.937 0.963 0.979 0.988 0.994 0.997 0.999 0.999 1.000
Febrero 2009
A–19
Estadı́stica Básica para Estudiantes de Ciencias
A–20
Tabla III (Continuación) x
! λr
PROBABILIDADES ACUMULADAS DE POISSON P (x; λ) = e−λ
r=0
r!
x
λ 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
12.50 0.000 0.000 0.000 0.002 0.005 0.015 0.035 0.070 0.125 0.201 0.297 0.406 0.519 0.628 0.725 0.806 0.869 0.916 0.948 0.969 0.983 0.991 0.995 0.998 0.999 0.999
13.00 0.000 0.000 0.000 0.001 0.004 0.011 0.026 0.054 0.100 0.166 0.252 0.353 0.463 0.573 0.675 0.764 0.835 0.890 0.930 0.957 0.975 0.986 0.992 0.996 0.998 0.999
13.50 0.000 0.000 0.000 0.001 0.003 0.008 0.019 0.041 0.079 0.135 0.211 0.304 0.409 0.518 0.623 0.718 0.798 0.861 0.908 0.942 0.965 0.980 0.989 0.994 0.997 0.998
14.00 0.000 0.000 0.000 0.000 0.002 0.006 0.014 0.032 0.062 0.109 0.176 0.260 0.358 0.464 0.570 0.669 0.756 0.827 0.883 0.923 0.952 0.971 0.983 0.991 0.995 0.997
14.50 0.000 0.000 0.000 0.000 0.001 0.004 0.010 0.024 0.048 0.088 0.145 0.220 0.311 0.413 0.518 0.619 0.711 0.790 0.853 0.901 0.936 0.960 0.976 0.986 0.992 0.996
15.00 0.000 0.000 0.000 0.000 0.001 0.003 0.008 0.018 0.037 0.070 0.118 0.185 0.268 0.363 0.466 0.568 0.664 0.749 0.819 0.875 0.917 0.947 0.967 0.981 0.989 0.994
15.50 0.000 0.000 0.000 0.000 0.001 0.002 0.006 0.013 0.029 0.055 0.096 0.154 0.228 0.317 0.415 0.517 0.615 0.705 0.782 0.846 0.894 0.930 0.956 0.973 0.984 0.991
x
λ 26 27 28 29 30
Tabla IV
DISTRIBUCIÓN NORMAL TIPIFICADA
Tabla de áreas de las colas derechas, para valores de zα
de centésima en centésima (tabla superior)
y de décima en décima (tabla inferior)
. ∞
1 2
α= √ e−z /2 dz
zα 2π
zα 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641
0.1 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247
0.2 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859
0.3 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483
0.4 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121
0.5 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776
0.6 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451
0.7 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148
0.8 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867
0.9 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611
1.0 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379
1.1 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170
1.2 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985
1.3 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823
1.4 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0721 0.0708 0.0694 0.0681
1.5 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0571 0.0559
1.6 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455
1.7 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367
1.8 0.0359 0.0351 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0301 0.0294
1.9 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0239 0.0233
2.0 0.02275 0.02222 0.02169 0.02118 0.02068 0.02018 0.01970 0.01923 0.01876 0.01831
2.1 0.01786 0.01743 0.01700 0.01659 0.01618 0.01578 0.01539 0.01500 0.01463 0.01426
2.2 0.01390 0.01355 0.01321 0.01287 0.01255 0.01222 0.01191 0.01160 0.01130 0.01101
2.3 0.01072 0.01044 0.01017 0.00990 0.00964 0.00939 0.00914 0.00889 0.00866 0.00842
2.4 0.00820 0.00798 0.00776 0.00755 0.00734 0.00714 0.00695 0.00676 0.00657 0.00639
2.5 0.00621 0.00604 0.00587 0.00570 0.00554 0.00539 0.00523 0.00508 0.00494 0.00480
2.6 0.00466 0.00453 0.00440 0.00427 0.00415 0.00402 0.00391 0.00379 0.00368 0.00357
2.7 0.00347 0.00336 0.00326 0.00317 0.00307 0.00298 0.00289 0.00280 0.00272 0.00264
2.8 0.00256 0.00248 0.00240 0.00233 0.00226 0.00219 0.00212 0.00205 0.00199 0.00193
2.9 0.00187 0.00181 0.00175 0.00169 0.00164 0.00159 0.00154 0.00149 0.00144 0.00139
3.0 0.001350 0.001306 0.001264 0.001223 0.001183 0.001144 0.001107 0.001070 0.001035 0.001001
3.1 0.000968 0.000935 0.000904 0.000874 0.000845 0.000816 0.000789 0.000762 0.000736 0.000711
3.2 0.000687 0.000664 0.000641 0.000619 0.000598 0.000577 0.000557 0.000538 0.000519 0.000501
3.3 0.000483 0.000466 0.000450 0.000434 0.000419 0.000404 0.000390 0.000376 0.000362 0.000349
3.4 0.000337 0.000325 0.000313 0.000302 0.000291 0.000280 0.000270 0.000260 0.000251 0.000242
3.5 0.000233 0.000224 0.000216 0.000208 0.000200 0.000193 0.000185 0.000178 0.000172 0.000165
3.6 0.000159 0.000153 0.000147 0.000142 0.000136 0.000131 0.000126 0.000121 0.000117 0.000112
3.7 0.000108 0.000104 0.000100 0.000096 0.000092 0.000088 0.000085 0.000082 0.000078 0.000075
3.8 0.000072 0.000069 0.000067 0.000064 0.000062 0.000059 0.000057 0.000054 0.000052 0.000050
3.9 0.000048 0.000046 0.000044 0.000042 0.000041 0.000039 0.000037 0.000036 0.000034 0.000033
zα 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
0.0 0.500 0.460 0.421 0.382 0.345 0.309 0.274 0.242 0.212 0.184
1.0 0.159 0.136 0.115 0.968E-01 0.808E-01 0.668E-01 0.548E-01 0.446E-01 0.359E-01 0.287E-01
2.0 0.228E-01 0.179E-01 0.139E-01 0.107E-01 0.820E-02 0.621E-02 0.466E-02 0.347E-02 0.256E-02 0.187E-02
3.0 0.135E-02 0.968E-03 0.687E-03 0.483E-03 0.337E-03 0.233E-03 0.159E-03 0.108E-03 0.723E-04 0.481E-04
4.0 0.317E-04 0.207E-04 0.133E-04 0.854E-05 0.541E-05 0.340E-05 0.211E-05 0.130E-05 0.793E-06 0.479E-06
5.0 0.287E-06 0.170E-06 0.996E-07 0.579E-07 0.333E-07 0.190E-07 0.107E-07 0.599E-08 0.332E-08 0.182E-08
6.0 0.987E-09 0.530E-09 0.282E-09 0.149E-09 0.777E-10 0.402E-10 0.206E-10 0.104E-10 0.523E-11 0.260E-11
Tabla V
DISTRIBUCIÓN χ2 DE PEARSON
Abcisas χ2α,n que dejan a su derecha un área α bajo
la función con n grados de libertad
1
x(n/2)−1 e−x/2 x>0
f (x) = 2n/2 Γ(n/2)
0 x≤0
α
n 0.995 0.990 0.980 0.975 0.950 0.900 0.800 0.750 0.700
Tabla V (Continuación)
DISTRIBUCIÓN χ2 DE PEARSON
Abcisas χ2α,n que dejan a su derecha un área α bajo
la función con n grados de libertad
1
x(n/2)−1 e−x/2 x>0
f (x) = 2n/2 Γ(n/2)
0 x≤0
α
n 0.500 0.300 0.250 0.200 0.100 0.050 0.025 0.020 0.010 0.005 0.001
1 .4549 1.074 1.323 1.642 2.706 3.841 5.024 5.412 6.635 7.880 10.827
2 1.386 2.408 2.773 3.219 4.605 5.991 7.378 7.824 9.210 10.597 13.816
3 2.366 3.665 4.108 4.642 6.251 7.815 9.348 9.838 11.345 12.838 16.266
4 3.357 4.878 5.385 5.989 7.779 9.488 11.143 11.668 13.277 14.861 18.464
5 4.351 6.064 6.626 7.289 9.236 11.071 12.832 13.388 15.086 16.749 20.514
6 5.348 7.231 7.841 8.558 10.645 12.592 14.449 15.033 16.812 18.548 22.460
7 6.346 8.383 9.037 9.803 12.017 14.067 16.013 16.623 18.486 20.278 24.321
8 7.344 9.524 10.219 11.030 13.362 15.507 17.535 18.168 20.090 21.955 26.124
9 8.343 10.656 11.389 12.242 14.684 16.919 19.023 19.679 21.666 23.589 27.877
10 9.342 11.781 12.549 13.442 15.987 18.307 20.483 21.161 23.209 25.189 29.589
11 10.341 12.899 13.701 14.631 17.275 19.675 21.920 22.618 24.725 26.757 31.281
12 11.340 14.011 14.845 15.812 18.549 21.026 23.337 24.054 26.217 28.299 32.910
13 12.340 15.119 15.984 16.985 19.812 22.362 24.736 25.471 27.688 29.820 34.529
14 13.339 16.222 17.117 18.151 21.064 23.685 26.119 26.873 29.141 31.319 36.124
15 14.339 17.322 18.245 19.311 22.307 24.996 27.488 28.260 30.578 32.801 37.697
16 15.339 18.418 19.369 20.465 23.542 26.296 28.845 29.633 32.000 34.266 39.253
17 16.338 19.511 20.489 21.615 24.769 27.587 30.191 30.995 33.409 35.718 40.793
18 17.338 20.601 21.605 22.760 25.989 28.869 31.526 32.346 34.805 37.157 42.314
19 18.338 21.689 22.718 23.900 27.204 30.144 32.852 33.687 36.191 38.582 43.821
20 19.337 22.775 23.828 25.037 28.412 31.410 34.170 35.020 37.566 39.997 45.314
21 20.337 23.858 24.935 26.171 29.615 32.671 35.479 36.343 38.932 41.401 46.797
22 21.337 24.939 26.039 27.301 30.813 33.924 36.850 37.660 40.289 42.796 48.269
23 22.337 26.018 27.141 28.429 32.007 35.172 38.076 38.968 41.638 44.182 49.728
24 23.337 27.096 28.241 29.553 33.196 36.415 39.364 40.270 42.980 45.558 51.178
25 24.337 28.172 29.339 30.675 34.382 37.652 40.646 41.566 44.314 46.928 52.622
26 25.336 29.246 30.435 31.795 35.563 38.885 41.923 42.856 45.642 48.290 54.052
27 26.336 30.319 31.528 32.912 36.741 40.113 43.194 44.139 46.963 49.645 55.477
28 27.336 31.391 32.620 34.027 37.916 41.337 44.461 45.419 48.278 50.996 56.893
29 28.336 32.461 33.711 35.139 39.087 42.557 45.722 46.693 49.588 52.336 58.301
30 29.336 33.530 34.800 36.250 40.256 43.773 46.979 47.962 50.892 53.672 59.703
Tabla VI
DISTRIBUCIÓN t DE STUDENT
Abcisas tα,n que dejan a su derecha un área α bajo
la función con n grados de libertad
6 7− n+1
1 t2 2
f (t) = √ 3 1 n 4 1+
nβ 2 , 2 n
α
n 0.50 0.40 0.30 0.20 0.10 0.050 0.025 0.010 0.005 0.001 0.0005
1 0.000 0.325 0.727 1.376 3.078 6.320 12.706 31.820 63.656 318.390 636.791
2 0.000 0.289 0.617 1.061 1.886 2.920 4.303 6.964 9.925 22.315 31.604
3 0.000 0.277 0.584 0.978 1.638 2.353 3.182 4.541 5.841 10.214 12.925
4 0.000 0.271 0.569 0.941 1.533 2.132 2.776 3.747 4.604 7.173 8.610
5 0.000 0.267 0.559 0.920 1.476 2.015 2.571 3.365 4.032 5.893 6.869
6 0.000 0.265 0.553 0.906 1.440 1.943 2.447 3.143 3.707 5.208 5.958
7 0.000 0.263 0.549 0.896 1.415 1.895 2.365 2.998 3.499 4.784 5.408
8 0.000 0.262 0.546 0.889 1.397 1.860 2.306 2.897 3.355 4.501 5.041
9 0.000 0.261 0.543 0.883 1.383 1.833 2.262 2.821 3.250 4.297 4.782
10 0.000 0.260 0.542 0.879 1.372 1.812 2.228 2.764 3.169 4.144 4.587
11 0.000 0.260 0.540 0.876 1.363 1.796 2.201 2.718 3.106 4.025 4.437
12 0.000 0.259 0.539 0.873 1.356 1.782 2.179 2.681 3.055 3.929 4.318
13 0.000 0.259 0.538 0.870 1.350 1.771 2.160 2.650 3.012 3.852 4.221
14 0.000 0.258 0.537 0.868 1.345 1.761 2.145 2.624 2.977 3.787 4.141
15 0.000 0.258 0.536 0.866 1.341 1.753 2.131 2.602 2.947 3.733 4.073
16 0.000 0.258 0.535 0.865 1.337 1.746 2.120 2.583 2.921 3.686 4.015
17 0.000 0.257 0.534 0.863 1.333 1.740 2.110 2.567 2.898 3.646 3.965
18 0.000 0.257 0.534 0.862 1.330 1.734 2.101 2.552 2.878 3.610 3.921
19 0.000 0.257 0.533 0.861 1.328 1.729 2.093 2.539 2.861 3.579 3.884
20 0.000 0.257 0.533 0.860 1.325 1.725 2.086 2.528 2.845 3.552 3.850
21 0.000 0.257 0.532 0.859 1.323 1.721 2.080 2.518 2.831 3.527 3.819
22 0.000 0.256 0.532 0.858 1.321 1.717 2.074 2.508 2.819 3.505 3.792
23 0.000 0.256 0.532 0.858 1.319 1.714 2.069 2.500 2.807 3.485 3.768
24 0.000 0.256 0.531 0.857 1.318 1.711 2.064 2.492 2.797 3.467 3.745
25 0.000 0.256 0.531 0.856 1.316 1.708 2.060 2.485 2.787 3.450 3.725
26 0.000 0.256 0.531 0.856 1.315 1.706 2.056 2.479 2.779 3.435 3.704
27 0.000 0.256 0.531 0.855 1.314 1.703 2.052 2.473 2.771 3.421 3.689
28 0.000 0.256 0.530 0.855 1.313 1.701 2.048 2.467 2.763 3.408 3.674
29 0.000 0.256 0.530 0.854 1.311 1.699 2.045 2.462 2.756 3.396 3.660
30 0.000 0.256 0.530 0.854 1.310 1.697 2.042 2.457 2.750 3.385 3.646
40 0.000 0.255 0.529 0.851 1.303 1.684 2.021 2.423 2.704 3.307 3.551
50 0.000 0.255 0.528 0.849 1.299 1.676 2.009 2.403 2.678 3.261 3.496
60 0.000 0.254 0.527 0.848 1.296 1.671 2.000 2.390 2.660 3.232 3.460
70 0.000 0.254 0.527 0.847 1.294 1.667 1.994 2.381 2.648 3.211 3.435
80 0.000 0.254 0.527 0.846 1.292 1.664 1.990 2.374 2.639 3.195 3.416
90 0.000 0.254 0.526 0.846 1.291 1.662 1.987 2.368 2.632 3.183 3.404
100 0.000 0.254 0.526 0.845 1.290 1.661 1.984 2.364 2.626 3.174 3.390
200 0.000 0.254 0.525 0.843 1.286 1.653 1.972 2.345 2.601 3.132 3.340
300 0.000 0.254 0.525 0.843 1.284 1.650 1.968 2.339 2.592 3.118 3.323
400 0.000 0.254 0.525 0.843 1.284 1.649 1.966 2.336 2.588 3.111 3.341
500 0.000 0.253 0.525 0.842 1.283 1.648 1.965 2.334 2.586 3.107 3.310
∞ 0.000 0.253 0.524 0.842 1.282 1.645 1.960 2.326 2.576 3.090 3.291
Tabla VII
DISTRIBUCIÓN F DE FISHER
Abcisas Fα;n1 ,n2 que dejan a su derecha un área α bajo la función con n1 y n2 grados de libertad.
1
Para valores de α próximos a uno se puede utilizar la relación F1−α;n2 ,n1 = .
Fα;n1 ,n2
α = 0.10
n1
n2 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞
1 39.863 49.500 53.593 55.833 57.240 58.204 58.906 59.438 59.857 60.195 60.705 61.222 61.741 62.002 62.265 62.529 62.794 63.061 63.325
2 8.5263 9.0000 9.1618 9.2434 9.2926 9.3255 9.3491 9.3667 9.3806 9.3916 9.4082 9.4248 9.4414 9.4500 9.4579 9.4662 9.4746 9.4829 9.4912
3 5.5383 5.4624 5.3908 5.3426 5.3092 5.2847 5.2662 5.2517 5.2400 5.2304 5.2156 5.2003 5.1845 5.1762 5.1681 5.1598 5.1512 5.1425 5.1337
4 4.5448 4.3246 4.1909 4.1072 4.0506 4.0097 3.9790 3.9549 3.9357 3.9199 3.8955 3.8703 3.8443 3.8310 3.8174 3.8037 3.7896 3.7753 3.7607
5 4.0604 3.7797 3.6195 3.5202 3.4530 3.4045 3.3679 3.3393 3.3163 3.2974 3.2682 3.2380 3.2067 3.1905 3.1741 3.1572 3.1402 3.1228 3.1050
6 3.7760 3.4633 3.2888 3.1809 3.1075 3.0546 3.0145 2.9830 2.9577 2.9369 2.9047 2.8712 2.8363 2.8183 2.8000 2.7812 2.7620 2.7423 2.7222
7 3.5894 3.2574 3.0740 2.9605 2.8833 2.8273 2.7849 2.7516 2.7247 2.7025 2.6681 2.6322 2.5947 2.5753 2.5555 2.5351 2.5142 2.4928 2.4708
8 3.4579 3.1131 2.9238 2.8064 2.7265 2.6683 2.6241 2.5893 2.5612 2.5380 2.5020 2.4642 2.4246 2.4041 2.3830 2.3614 2.3391 2.3162 2.2926
9 3.3604 3.0065 2.8129 2.6927 2.6106 2.5509 2.5053 2.4694 2.4403 2.4163 2.3789 2.3396 2.2983 2.2768 2.2547 2.2320 2.2085 2.1843 2.1592
10 3.2850 2.9245 2.7277 2.6053 2.5216 2.4606 2.4141 2.3772 2.3473 2.3226 2.2840 2.2435 2.2007 2.1784 2.1554 2.1317 2.1072 2.0818 2.0554
12 3.1765 2.8068 2.6055 2.4801 2.3940 2.3310 2.2828 2.2446 2.2135 2.1878 2.1474 2.1049 2.0597 2.0360 2.0115 1.9861 1.9597 1.9323 1.9036
15 3.0732 2.6952 2.4898 2.3614 2.2730 2.2081 2.1582 2.1185 2.0862 2.0593 2.0171 1.9722 1.9243 1.8990 1.8728 1.8454 1.8168 1.7867 1.7551
20 2.9747 2.5893 2.3801 2.2489 2.1582 2.0913 2.0397 1.9985 1.9649 1.9367 1.8924 1.8449 1.7938 1.7667 1.7382 1.7083 1.6768 1.6432 1.6074
24 2.9271 2.5383 2.3274 2.1949 2.1030 2.0351 1.9826 1.9407 1.9063 1.8775 1.8319 1.7831 1.7302 1.7019 1.6721 1.6407 1.6073 1.5715 1.5327
30 2.8807 2.4887 2.2761 2.1422 2.0492 1.9803 1.9269 1.8841 1.8490 1.8195 1.7727 1.7223 1.6673 1.6377 1.6065 1.5732 1.5376 1.4989 1.4564
40 2.8354 2.4404 2.2261 2.0909 1.9968 1.9269 1.8725 1.8289 1.7929 1.7627 1.7146 1.6624 1.6052 1.5741 1.5411 1.5056 1.4672 1.4248 1.3769
60 2.7911 2.3932 2.1774 2.0410 1.9457 1.8747 1.8194 1.7748 1.7380 1.7070 1.6574 1.6034 1.5435 1.5107 1.4755 1.4373 1.3952 1.3476 1.2915
120 2.7478 2.3473 2.1300 1.9923 1.8959 1.8238 1.7675 1.7220 1.6842 1.6524 1.6012 1.5450 1.4821 1.4472 1.4094 1.3676 1.3203 1.2646 1.1926
∞ 2.7055 2.3026 2.0838 1.9448 1.8473 1.7741 1.7167 1.6702 1.6315 1.5987 1.5458 1.4871 1.4206 1.3832 1.3419 1.2951 1.2400 1.1686 1.1000
Febrero 2009
A–25
Estadı́stica Básica para Estudiantes de Ciencias
A–26
Tabla VII (Continuación)
DISTRIBUCIÓN F DE FISHER
Abcisas Fα;n1 ,n2 que dejan a su derecha un área α bajo la función con n1 y n2 grados de libertad.
1
Para valores de α próximos a uno se puede utilizar la relación F1−α;n2 ,n1 = .
Fα;n1 ,n2
α = 0.05
n1
n2 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞
1 161.45 199.70 215.71 224.58 230.15 233.99 236.76 238.88 240.54 241.89 243.90 245.90 248.03 249.05 250.09 251.14 252.20 253.25 254.32
2 18.513 19.000 19.164 19.247 19.296 19.329 19.353 19.371 19.385 19.396 19.425 19.429 19.446 19.454 19.463 19.471 19.479 19.487 19.496
3 10.128 9.5521 9.2766 9.1156 9.0135 8.9406 8.8867 8.8452 8.8121 8.7855 8.7446 8.7029 8.6602 8.6385 8.6166 8.5944 8.5720 8.5493 8.5264
4 7.7087 6.9443 6.5914 6.3883 6.2563 6.1631 6.0942 6.0411 5.9987 5.9644 5.9117 5.8578 5.8027 5.7744 5.7459 5.7170 5.6877 5.6580 5.6280
5 6.6079 5.7863 5.4095 5.1922 5.0503 4.9503 4.8759 4.8183 4.7725 4.7351 4.6777 4.6188 4.5582 4.5271 4.4957 4.4638 4.4314 4.3984 4.3650
6 5.9874 5.1433 4.7571 4.5337 4.3874 4.2839 4.2067 4.1468 4.0990 4.0602 3.9999 3.9381 3.8742 3.8415 3.8082 3.7743 3.7398 3.7047 3.6689
7 5.5914 4.7374 4.3468 4.1219 3.9715 3.8660 3.7870 3.7257 3.6767 3.6363 3.5747 3.5107 3.4445 3.4105 3.3758 3.3402 3.3043 3.2675 3.2297
8 5.3177 4.4590 4.0662 3.8378 3.6875 3.5806 3.5004 3.4381 3.3881 3.3472 3.2839 3.2184 3.1503 3.1152 3.0794 3.0428 3.0053 2.9669 2.9276
9 5.1173 4.2565 3.8625 3.6331 3.4817 3.3737 3.2927 3.2296 3.1789 3.1373 3.0729 3.0061 2.9365 2.9005 2.8636 2.8259 2.7872 2.7475 2.7067
10 4.9646 4.1028 3.7083 3.4781 3.3258 3.2172 3.1355 3.0717 3.0204 2.9782 2.9130 2.8450 2.7740 2.7372 2.6995 2.6609 2.6211 2.5801 2.5379
40 4.0847 3.2317 2.8388 2.6060 2.4495 2.3359 2.2490 2.1802 2.1240 2.0772 2.0035 1.9244 1.8389 1.7929 1.7444 1.6928 1.6373 1.5766 1.5089
60 4.0012 3.1504 2.7581 2.5252 2.3683 2.2541 2.1666 2.0970 2.0401 1.9926 1.9174 1.8364 1.7480 1.7001 1.6491 1.5943 1.5343 1.4673 1.3893
120 3.9201 3.0718 2.6802 2.4472 2.2898 2.1750 2.0868 2.0164 1.9588 1.9104 1.8337 1.7505 1.6587 1.6084 1.5543 1.4952 1.4290 1.3519 1.2539
∞ 3.8415 2.9957 2.6049 2.3719 2.2141 2.0986 2.0096 1.9384 1.8799 1.8307 1.7522 1.6664 1.5705 1.5173 1.4591 1.3940 1.3180 1.2214 1.1000
Febrero 2009
Estadı́stica Básica para Estudiantes de Ciencias
α = 0.025
n1
n2 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞
1 647.80 799.70 864.18 899.58 921.80 937.10 948.23 956.65 963.28 968.65 976.70 984.88 993.30 997.20 1001.4 1005.5 1009.9 1014.0 1018.3
2 38.513 39.000 39.166 39.247 39.298 39.332 39.355 39.373 39.387 39.398 39.414 39.438 39.448 39.450 39.465 39.473 39.475 39.490 39.498
3 17.443 16.044 15.439 15.101 14.885 14.735 14.624 14.540 14.473 14.419 14.337 14.252 14.167 14.124 14.081 14.036 13.992 13.948 13.902
4 12.218 10.649 9.9791 9.6045 9.3645 9.1973 9.0741 8.9795 8.9031 8.8439 8.7508 8.6564 8.5600 8.5109 8.4612 8.4109 8.3604 8.3090 8.2572
5 10.007 8.4336 7.7636 7.3875 7.1463 6.9777 6.8530 6.7571 6.6809 6.6192 6.5246 6.4273 6.3286 6.2781 6.2269 6.1751 6.1225 6.0693 6.0153
6 8.8131 7.2598 6.5988 6.2272 5.9876 5.8198 5.6955 5.5996 5.5234 5.4609 5.3662 5.2687 5.1684 5.1188 5.0652 5.0125 4.9590 4.9045 4.8491
7 8.0727 6.5415 5.8898 5.5226 5.2852 5.1186 4.9949 4.8993 4.8232 4.7611 4.6658 4.5678 4.4667 4.4150 4.3624 4.3089 4.2545 4.1989 4.1423
8 7.5709 6.0594 5.4159 5.0525 4.8173 4.6517 4.5285 4.4333 4.3572 4.2951 4.1997 4.1012 3.9995 3.9473 3.8940 3.8398 3.7844 3.7279 3.6702
9 7.2094 5.7147 5.0750 4.7181 4.4844 4.3197 4.1971 4.1023 4.0260 3.9637 3.8682 3.7693 3.6669 3.6142 3.5604 3.5055 3.4493 3.3922 3.3328
10 6.9367 5.4563 4.8256 4.4683 4.2361 4.0721 3.9498 3.8549 3.7790 3.7168 3.6209 3.5217 3.4186 3.3654 3.3110 3.2554 3.1984 3.1399 3.0798
12 6.5538 5.0959 4.4742 4.1212 3.8911 3.7283 3.6065 3.5118 3.4358 3.3735 3.2773 3.1772 3.0728 3.0187 2.9633 2.9063 2.8478 2.7874 2.7250
15 6.1995 4.7650 4.1528 3.8042 3.5764 3.4147 3.2938 3.1987 3.1227 3.0602 2.9641 2.8621 2.7559 2.7006 2.6437 2.5850 2.5242 2.4611 2.3953
20 5.8715 4.4613 3.8587 3.5146 3.2891 3.1283 3.0074 2.9128 2.8365 2.7737 2.6759 2.5731 2.4645 2.4076 2.3486 2.2873 2.2234 2.1562 2.0853
24 5.7167 4.3188 3.7211 3.3794 3.1548 2.9946 2.8738 2.7791 2.7027 2.6396 2.5411 2.4374 2.3273 2.2693 2.2090 2.1460 2.0799 2.0099 1.9353
30 5.5676 4.1821 3.5894 3.2499 3.0266 2.8667 2.7460 2.6512 2.5750 2.5112 2.4120 2.3072 2.1952 2.1359 2.0739 2.0089 1.9400 1.8664 1.7867
40 5.4239 4.0510 3.4633 3.1261 2.9037 2.7444 2.6238 2.5289 2.4519 2.3882 2.2882 2.1819 2.0677 2.0069 1.9429 1.8752 1.8028 1.7242 1.6371
60 5.2856 3.9252 3.3425 3.0077 2.7863 2.6274 2.5068 2.4117 2.3344 2.2702 2.1692 2.0613 1.9445 1.8817 1.8152 1.7440 1.6668 1.5810 1.4822
120 5.1523 3.8046 3.2269 2.8943 2.6740 2.5154 2.3948 2.2994 2.2217 2.1570 2.0548 1.9450 1.8249 1.7597 1.6899 1.6141 1.5299 1.4327 1.3104
∞ 5.0239 3.6889 3.1161 2.7858 2.5665 2.4082 2.2875 2.1918 2.1136 2.0483 1.9447 1.8326 1.7085 1.6402 1.5660 1.4835 1.3883 1.2684 1.1000
Febrero 2009
A–27
Estadı́stica Básica para Estudiantes de Ciencias
A–28
Tabla VII (Continuación)
DISTRIBUCIÓN F DE FISHER
Abcisas Fα;n1 ,n2 que dejan a su derecha un área α bajo la función con n1 y n2 grados de libertad.
1
Para valores de α próximos a uno se puede utilizar la relación F1−α;n2 ,n1 = .
Fα;n1 ,n2
α = 0.01
n1
n2 1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 ∞
1 4052.1 4999.7 5404.1 5624.5 5763.3 5858.9 5928.5 5980.9 6021.7 6055.7 6106.5 6156.9 6208.9 6234.5 6260.5 6286.9 6312.9 6339.3 6365.7
2 98.500 99.100 99.169 99.200 99.300 99.331 99.363 99.373 99.400 99.300 99.419 99.431 99.448 99.456 99.469 99.473 99.481 99.494 99.300
3 34.116 30.817 29.457 28.710 28.237 27.911 27.672 27.491 27.344 27.229 27.052 26.872 26.689 26.598 26.505 26.409 26.316 26.222 26.125
4 21.198 18.000 16.695 15.977 15.519 15.207 14.975 14.799 14.659 14.546 14.373 14.198 14.020 13.929 13.838 13.745 13.652 13.558 13.463
5 16.258 13.274 12.060 11.392 10.967 10.672 10.455 10.289 10.158 10.051 9.8875 9.7223 9.5527 9.4665 9.3793 9.2910 9.2021 9.1118 9.0205
6 13.745 10.925 9.7795 9.1483 8.7457 8.4662 8.2600 8.1016 7.9761 7.8740 7.7183 7.5594 7.3958 7.3127 7.2289 7.1433 7.0566 6.9690 6.8800
7 12.246 9.5465 8.4514 7.8467 7.4604 7.1906 6.9929 6.8402 6.7250 6.6200 6.4690 6.3143 6.1554 6.0744 5.9920 5.9085 5.8236 5.7373 5.6495
8 11.259 8.6490 7.5910 7.0061 6.6316 6.3707 6.1775 6.0289 5.9106 5.8143 5.6667 5.5150 5.3591 5.2792 5.1981 5.1125 5.0316 4.9461 4.8588
9 10.562 8.0215 6.9919 6.4221 6.0570 5.8020 5.6128 5.4671 5.3512 5.2564 5.1115 4.9621 4.8080 4.7289 4.6485 4.5666 4.4831 4.3978 4.3109
10 10.044 7.5595 6.5523 5.9945 5.6359 5.3858 5.2001 5.0567 4.9424 4.8492 4.7059 4.5581 4.4054 4.3270 4.2469 4.1653 4.0818 3.9961 3.9086
40 7.3141 5.1781 4.3125 3.8283 3.5138 3.2906 3.1238 2.9930 2.8875 2.8005 2.6648 2.5216 2.3689 2.2880 2.2034 2.1142 2.0194 1.9172 1.8047
60 7.0771 4.9774 4.1259 3.6490 3.3389 3.1187 2.9530 2.8233 2.7184 2.6318 2.4961 2.3523 2.1978 2.1154 2.0285 1.9360 1.8363 1.7263 1.6006
120 6.8509 4.7865 3.9491 3.4795 3.1735 2.9559 2.7918 2.6629 2.5586 2.4721 2.3363 2.1916 2.0346 1.9500 1.8600 1.7629 1.6557 1.5330 1.3805
∞ 6.6349 4.6051 3.7816 3.3192 3.0173 2.8020 2.6394 2.5113 2.4073 2.3209 2.1848 2.0385 1.8783 1.7908 1.6964 1.5923 1.4730 1.3246 1.1000
Febrero 2009
Capı́tulo 20
A–29
Estadı́stica Básica para Estudiantes de Ciencias
A–30
Parámetro a estimar Estimador Distribución Intervalo
!n
Media de una N (µ, σ) Xi σ
" # $ %
X = i=1 Normal: N µ, √σn I = X ± zα/2 √
σ 2 conocida n n
Media de una N (µ, σ) !n
i=1 Xi S
" # $ %
σ 2 desconocida X= Normal: N µ, √Sn I = X ± zα/2 √
n n
n > 30
Media de una N (µ, σ) !n X−µ
i=1 Xi S
$ %
T = S/
σ 2 desconocida
√
X= n I = X ± tα/2,n−1 √
n sigue una t de Student con (n − 1) g.l. n
n ≤ 30
!n
Media de cualquier población i=1 Xi S
" # $ %
X= Normal: N µ, √S I = X ± zα/2 √
muestras grandes n n n
+
P (1 − P )
& ' (
p de Binomial número de éxitos
P = número Normal: N P , P (1−P )
I = P ± zα/2
de ensayos n n
+
!n
i=1 Xi λ
& ' (
λ
λ de Poisson λ= Normal: N λ, n I = λ ± zα/2
n n
Diferencia de medias
+ +
σ12 σ22 σ12 σ22
poblaciones normales X1 − X2 N µ1 − µ2 , + I = (X1 − X2 ) ± zα/2 +
n1 n2 n1 n2
σ12 y σ22 conocidas
Diferencia de medias + +
poblaciones normales S12 S22 S12 S22
X1 − X2 N µ1 − µ2 , + I = (X1 − X2 ) ± zα/2 +
donde f = −2
(S12 /n1 )2 (S22 /n2 )2
+
n1 + 1 n2 + 1
Estadı́stica Básica para Estudiantes de Ciencias
Diferencia de medias
+ +
S12 S22 S12 S22
poblaciones no normales X1 − X2 N µ1 − µ2 , + I = (X1 − X2 ) ± zα/2 +
n1 n2 n1 n2
muestras grandes
+ +
Diferencia de proporciones P1 (1 − P1 ) P2 (1 − P2 ) P1 (1 − P1 ) P2 (1 − P2 )
P1 − P2 N p 1 − p 2 , + I = (P1 − P2 ) ± zα/2 +
muestras grandes n1 n2 n1 n2
2 3
Razón de varianzas S12 /σ12 S12 1 S2
S12 /S22 Fn1 −1,n2 −1 = I= , 12 Fα/2;n2 −1,n1 −1
dos poblaciones normales S22 /σ22 2
S2 Fα/2;n1 −1,n2 −1 S2
Febrero 2009
A–31
A–32 Apéndice B: Tablas con Intervalos de Confianza
A–33
Estadı́stica Básica para Estudiantes de Ciencias
A–34
CONTRASTE PARA LA MEDIA DE UNA POBLACIÓN
Tipo de contraste H0 H1 Estadı́stico Distribución Se acepta si Se rechaza si
BILATERAL |x − µ0 | |x − µ0 |
µ = µ0 µ != µ0 √ ≤ zα/2 √ > zα/2
σ 2 conocida σ/ n σ/ n
x − µ0
z= √ Normal
σ/ n
UNILATERAL x − µ0 x − µ0
µ ≤ µ0 µ > µ0 √ ≤ zα √ > zα
σ 2 conocida σ/ n σ/ n
BILATERAL
|x − µ0 | |x − µ0 |
σ 2 desconocida µ = µ0 µ != µ0 √ ≤ zα/2 √ > zα/2
s/ n s/ n
n > 30
x − µ0
z= √ Normal
s/ n
UNILATERAL
x − µ0 x − µ0
σ 2 desconocida µ ≤ µ0 µ > µ0 √ ≤ zα √ > zα
s/ n s/ n
n > 30
BILATERAL
|x − µ0 | |x − µ0 |
σ 2 desconocida µ = µ0 µ != µ0 √ ≤ tα/2,n−1 √ > tα/2,n−1
s/ n s/ n
n ≤ 30
x − µ0
t= √ t de Student
s/ n
UNILATERAL
x − µ0 x − µ0
σ 2 desconocida µ ≤ µ0 µ > µ0 √ ≤ tα,n−1 √ > tα,n−1
s/ n s/ n
n ≤ 30
σ02
(n − 1)s2 2 (n − 1)s2
UNILATERAL σ 2 ≤ σ02 σ 2 > σ02 ≤ χ α,n−1 > χ2α,n−1
σ02 σ02
Estadı́stica Básica para Estudiantes de Ciencias
A–35
Estadı́stica Básica para Estudiantes de Ciencias
A–36
CONTRASTE DE LA IGUALDAD ENTRE DOS PROPORCIONES
Tipo de contraste H0 H1 Estadı́stico Distribución Se acepta si Se rechaza si
|p1 − p2 | |p1 − p2 |
BILATERAL p1 = p2 p1 != p2 ! ≤ zα/2 ! > zα/2
p1 (1−p1 ) p2 (1−p2 ) p1 (1−p1 ) p2 (1−p2 )
n1 + n2 n1 + n2
p 1 − p2
z=! Normal
p1 (1−p1 ) p2 (1−p2 )
n1 + n2
p1 − p 2 p1 − p 2
UNILATERAL p1 ≤ p2 p1 > p2 ! ≤ zα ! > zα
p1 (1−p1 ) p2 (1−p2 ) p1 (1−p1 ) p2 (1−p2 )
n1 + n2 n1 + n2
s21 s21
BILATERAL σ12 = σ22 σ12 != σ22 ∈ [F1−α/2,n1 −1,n2 −1 , Fα/2,n1 −1,n2 −1 ] ∈| [F1−α/2,n1 −1,n2 −1 , Fα/2,n1 −1,n2 −1 ]
s21 s22 s22
F = F de Fisher
s22
s21 s21
UNILATERAL σ12 ≤ σ22 σ12 > σ22 ≤ Fα,n1 −1,n2 −1 > Fα,n1 −1,n2 −1
s22 s22
Febrero 2009
Este libro se ha escrito utilizado LATEX, software libre disponible bajo licencia LPPL.