Resumen 2° - Probabilidad y Estadistica
Resumen 2° - Probabilidad y Estadistica
Resumen 2° - Probabilidad y Estadistica
A los pares ordenados (𝑥, 𝑝X (𝑥)) con 𝑥 ∈ ℛX, como a su representación gráfica, la
llamamos indistintamente distribución de probabilidad de la variable aleatoria X.
Parámetros de una V.A. Discreta
Esperanza Matemática.
Esperanza matemática de la variable aleatoria X o media poblacional de la variable
aleatoria X y la notamos indistintamente 𝐸 (𝑋) o 𝜇X al número:
𝐸(𝑋) = ∑ 𝑥. 𝑃(𝑋 = 𝑥) = 0. (1 − 𝑝) + 1. 𝑝 = 𝑝
𝑥=0;1
𝐸 (𝑋 ) = 𝑝
• Variancia:
𝜎 2 = 𝐸(𝑋 2 ) − 𝐸 2 (𝑋) = [02 . (1 − 𝑝) + 12 . 𝑝] − 𝑝2 = 𝑝 − 𝑝2 = 𝑝. (1 − 𝑝)
𝜎 2 = 𝑝. (1 − 𝑝)
• Desvío estándar:
𝜎 = √𝑝. (1 − 𝑝)
Distribución de Probabilidad Binomial
La distribución binomial es una de las distribuciones más utilizadas en estadística aplicada
para variable discreta. Esta distribución se deriva de una secuencia de n ensayos de
Bernoulli, donde se cumplen las siguientes condiciones:
- En cada ensayo ocurre uno de dos posibles resultados, mutuamente excluyentes (éxito o
fracaso).
- Los n ensayos son independientes, es decir, el resultado de algún ensayo en particular no
afecta la probabilidad de éxito de cualquier otro ensayo en el experimento, en otras
palabras, la probabilidad de un éxito (𝑝) permanece constante de un ensayo a otro.
- La variable aleatoria binomial X es el resultado del número de veces que se presenta el
suceso éxito en las n ensayos, por lo tanto, puede tomar cualquier valor entero entre 0 y
n.
Para elaborar una distribución binomial debemos contar con:
- El número de repeticiones de la experiencia aleatoria o el número de ensayos de
Bernoulli (𝑛).
- La probabilidad de éxito en cada ensayo (𝑝).
Estos dos valores se denominan parámetros de la distribución, ya que a distintos valores
de 𝑛 y 𝑝, tenemos distintas distribuciones. Si una variable aleatoria X tiene distribución
binomial se utiliza la siguiente simbología:
X ~ Bi (𝑛, 𝑝)
La cual se lee de la siguiente manera: “la variable aleatoria X sigue una distribución
binomial con parámetros 𝑛 y 𝑝.”
Se calcula de la siguiente manera:
Para calcular la probabilidad 𝑃 (𝑋 = 𝑥) es necesario conocer de cuántas formas diferentes
se puede presentar 𝑥 veces el suceso favorable en las 𝑛 repeticiones de Bernoulli.
Sea 𝐴 un suceso con probabilidad 𝑝. Entonces, la variable aleatoria X: n° de veces que se
presenta A en las n repeticiones independientes, tiene una distribución binomial con
parámetros n y p.
𝑛
𝑃(𝑋 = 𝑥) = ( ) . 𝑝 𝑥 . (1 − 𝑝)1−𝑥
𝑥
El número de maneras de combinar (en cualquier orden), 𝑥 éxitos y (𝑛 − 𝑥) fracasos en 𝑛
𝑛
observaciones viene dado por el número combinatorio ( ) . Todas estas combinaciones
𝑥
son excluyentes entre sí.
Combinatorio:
𝑛!
𝑥=
𝑥!. (𝑛 − 𝑋)!
La distribución binomial cumple con las condiciones de una distribución de probabilidad:
1. 𝑝X ≥ 0, ∀ 𝑥 ∈ ℛX
2. Σ X∈ℛx 𝑝X (𝑥) = 1
La Esperanza y Variancia de una variable aleatoria X con distribución binomial son:
Esperanza Matemática:
𝐸(𝑋) = 𝑛. 𝑝
Variancia:
𝜎 2 = 𝑛. 𝑝. (1 − 𝑝)
Desvío estándar:
𝜎 = √𝑛. 𝑝. (1 − 𝑝)
p se mantiene constante.
Porque el muestreo de población puede ser:
- Finito: muestreo con reposición.
- Infinito: muestreo sin reposición.
Tablas.
A las probabilidades acumuladas las simbolizábamos con la letra F, por lo tanto,
F (X) = 𝑃 (𝑋 ≤ x)
La distribución binomial se encuentra tabulada por lo que es fácil calcular probabilidades
sin necesidad de hacer demasiadas cuentas.
Para usar las tablas de la distribución binomial es necesario conocer:
- El número de veces que se realiza el experimento (n).
- La probabilidad de éxito (p).
- El número de éxitos (x).
Distribución de Probabilidad Hipergeométrica
Esta distribución está relacionada con la distribución binomial. Con la diferencia que en la
distribución hipergeométrica la extracción de los elementos se realiza sin reposición, lo
que hace que no sean independientes, por lo que la probabilidad del suceso de interés no
será constante de extracción en extracción.
Por definición:
- Un conjunto de N objetos contiene K objetos clasificados como éxitos y (N – K) objetos
clasificados como fracasos.
- Se toma una muestra de tamaño n, al azar (sin reposición) entre N objetos, donde k ≤ N y
n ≤ N. n es el número de éxitos que se quiere conocer.
Sea la variable aleatoria X: número de éxitos en la muestra, entonces X tiene una
distribución hipergeométrica y
𝐾 𝑁−𝐾
( )( )
𝑃(𝑋 = 𝑥) = 𝑥 𝑛 − 𝑥 𝑑𝑜𝑛𝑑𝑒 𝑥 = 0,1, … min(𝑘, 𝑛)
𝑁
( )
𝑛
Distribución de Probabilidad Poisson
En situaciones donde n es muy grande y p es muy pequeño, se consigue una buena
aproximación binomial por medio de otra distribución de probabilidad, denominada
distribución de Poisson.
La distribución de Poisson se emplea para describir sucesos discretos que ocurren con
poca frecuencia en el tiempo o en el espacio, por eso muchas veces recibe el nombre de
distribución de sucesos raros.
Consideremos la variable aleatoria X, que representa la cantidad de veces que ocurre un
suceso de interés en un intervalo dado. Dado que X proviene del conteo, podría tomar
teóricamente cualquier valor entero entre 0 e infinito.
Sea 𝜆 una constante que denota el número promedio de veces que acontece un suceso en
un intervalo.
Se dice que X tiene distribución Poisson con parámetro 𝜆 si la probabilidad de que X tome
el valor x viene dada por:
𝑒 −𝜆 𝜆𝑥
𝑃(𝑋 = 𝑥) = 𝑑𝑜𝑛𝑑𝑒 𝑥 = 0, 1, … . 𝑦 𝑒 = 2,71828
𝑥!
La distribución de Poisson implica un conjunto de supuestos fundamentales:
- La probabilidad de que acontezca un suceso en un intervalo es proporcional a la
amplitud del mismo.
- En principio, teóricamente, es imposible que suceda un número infinito de eventos en un
intervalo dado. No hay límite al número de ensayos.
- Los sucesos ocurren independientemente tanto en el mismo intervalo como entre
intervalos consecutivos.
La media de una variable aleatoria binomial es igual a 𝑛. 𝑝 y su variancia 𝑛. 𝑝. (1 − 𝑝).
Cuando 𝑝 es muy pequeño, (1 − 𝑝) se acerca a 1 y 𝑛. 𝑝. (1 − 𝑝) es aproximadamente 𝑛. 𝑝.
En este caso, la media y la variancia de la distribución son idénticas y pueden
representarse con el parámetro λ.
La propiedad de que la media sea igual a la variancia es una característica que identifica a
la distribución de Poisson.
Si X es una variable aleatoria Poisson con parámetro λ, entonces la media y la variancia se
X son:
Esperanza Matemática:
𝜇 = 𝐸(𝑋) = 𝜆
Variancia:
𝜎 2 = 𝑉(𝑋) = 𝜆
Unidad N° 3 - Parte B
Variables Aleatorias Continuas y Distribuciones de Probabilidad
Variable Aleatoria Continua
Cuando una variable aleatoria es continua, significa que su recorrido es un intervalo real.
Matemáticamente no es factible asignar una probabilidad positiva a cada elemento.
Distribución de una variable aleatoria continua
Si contamos con una cierta cantidad de datos de una V.A. continua, se puede realizar un
histograma para visualizar su distribución de frecuencias. Si pensamos en que se siguen
obteniendo datos de esa variable y se realizan histogramas con una cantidad de datos
cada vez mayor, el histograma va aumentando la cantidad de intervalos y el mismo va
tendiendo a una curva:
𝐹𝑋 : ℝ → [0, 1]
𝑥
𝑥 → 𝐹𝑋 (𝑥) = ∫ 𝑓𝑥 (𝑥)𝑑𝑥
−∞
Variancia:
Sea X una variable aleatoria continua y fX su función de densidad de probabilidad. La
variancia de X que se nota V (X) o σ2X es el número no negativo:
+∞
2
𝑉(𝑋) = 𝜎 𝑋 =∫ (𝑥 − 𝜇𝑋 )2 𝑓𝑥 (𝑥)𝑑𝑥
−∞
Desvío estándar:
El desvío estándar de X (σX) es la raíz cuadrada de la variancia.
Distribución Uniforme
Decimos que una variable aleatoria X se distribuye uniformemente en el intervalo [a,b] y
notamos X∼U(a,b), cuando su función de densidad de probabilidad es:
1
𝑓𝑋 (𝑋) = {𝑏 − 𝑎 𝑠𝑖 𝑥 ∈ [𝑎, 𝑏],
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜.
El hecho de que una variable aleatoria tenga un comportamiento uniforme significa que
intervalos de igual amplitud contenidos en el intervalo [a, b] tienen la misma probabilidad
de ocurrir.
Esperanza Matemática:
𝑏
𝑥 𝑎+𝑏
𝐸(𝑋) = 𝜇𝑋 = ∫ 𝑑𝑥 =
𝑎 𝑏−𝑎 2
Variancia:
𝑏
𝑎+𝑏 2 1 (𝑏 − 𝑎)2
𝑉(𝑋) = 𝜎 2𝑋 = ∫ (𝑥 − ) . 𝑑𝑥 =
𝑎 2 𝑏−𝑎 12
Notar que la esperanza es el punto medio del intervalo, esto ocurre porque la
distribución es simétrica. Y que el desvío estándar es proporcional a la amplitud del
intervalo (a, b).
Distribución Exponencial
Decimos que una variable aleatoria X tiene una distribución exponencial de parámetro
α > 0 y notamos X∼Exp(α) cuando su función de densidad de probabilidad es:
−𝛼𝑥
𝑠𝑖 𝑥 ∈ [𝑎, 𝑏],
𝑓𝑋 (𝑋) = {𝛼𝑒
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜.
Si x > 0, entonces:
𝑥
𝐹𝑋 (𝑥) = ∫ 𝛼𝑒 −𝛼𝑥 𝑑𝑥 = 1 − 𝑒 −𝛼𝑥
0
Consecuentemente:
Variancia:
+∞
1 2 1
𝑉(𝑋) = 𝜎 2𝑋 = ∫ (𝑥 − ) . 𝛼𝑒 −𝛼𝑥 𝑑𝑥 = 2
0 𝛼 𝛼
Propiedad de no memoria:
Si X∼Exp(α) y t y s son positivos:
𝑃(𝑋 > 𝑡 + 𝑠/𝑋 > 𝑠) = 𝑃(𝑋 > 𝑡)
𝑃((𝑋 > 𝑡 + 𝑠) ∩ (𝑋 > 𝑠) 𝑃(𝑋 > 𝑡 + 𝑠) 𝑒 −𝛼(𝑡+𝑠)
𝑃(𝑋 > 𝑡 + 𝑠/𝑋 > 𝑠) = = = = 𝑒 −𝛼𝑡
𝑃(𝑋 > 𝑠) 𝑃(𝑋 > 𝑠) 𝑒 −𝛼𝑠
𝑒 −𝛼𝑡 = 𝑃(𝑋 > 𝑡)
Vinculación con la distribución de Poisson.
Sea Xt la cantidad de automóviles que llegan a un puesto de peaje en un período de
tiempo t. Supongamos que Xt∼Po(αt), es decir:
(𝛼𝑘)𝑘 𝑒 −𝛼𝑡
𝑃(𝑋𝑡 = 𝑘) = , 𝑘 = 0, 1, 2, ….
𝑘!
Sea T: ‘tiempo que transcurre hasta que se produce la llegada de un automóvil al puesto
de peaje’ o equivalentemente ‘tiempo que transcurre entre la llegada de un automóvil y el
siguiente’. Los sucesos ‘el tiempo entre la llegada de dos automóviles sea mayor que t’ y
’no llega ningún automóvil al puesto de peaje en un periodo de tiempo t’ son
equivalentes, describen lo mismo. Entonces, sus probabilidades son iguales. En símbolos:
1 (𝑥−𝜇)2
−
𝑓𝑋 (𝑥) = 𝑒 2𝜎2
√2𝜋𝜎
Esta función de densidad es simétrica con respecto a μ y es mayor a 0 para todo x real.
Características.
• Sus parámetros son μ (media poblacional) y σ (desvió estándar poblacional).
• Tiene forma acampanada.
• Es simétrica con respecto a la μ y unimodal, es decir, μ = Mna = Mo.
• Los extremos de la curva o colas son asintóticas respecto al eje x.
• El área bajo la curva es igual a 1.
• Los puntos de inflexión de la curva se dan para μ – σ y μ + σ.
• Si el parámetro μ aumenta, la función de densidad se traslada a la derecha; en el caso
contrario, se traslada a la izquierda.
• Si el parámetro σ aumenta, la curva se “aplana”, los datos se extienden o dispersan a lo
largo del eje x; en el caso contrario, la curva se “apuntala”, los datos se acumulan en el
centro de la distribución.
Regla empírica.
En la distribución normal aproximadamente:
• El 68% de las observaciones se encuentran entre μ – σ y μ + σ.
• El 95% de las observaciones se encuentran entre μ – 2σ y μ + 2σ.
• El 99,7% de las observaciones se encuentran entre μ – 3σ y μ + 3σ.
Distribución Normal Estándar.
Es la distribución Normal donde la media vale 0 y el desvío estándar 1.
Se denota con Z. Z∼N (0;1)
Cálculo de probabilidades:
Si no se cuenta con medios electrónicos, el cálculo de las probabilidades se basa en tablas
que dan las probabilidades acumuladas para Z∼N (0;1). Luego mediante una
transformación, se obtienen las probabilidades para cualquier variable con distribución
normal X∼N (μ, σ).
Cualquier variable aleatoria con distribución Normal, X∼N (μ, σ). Se relaciona con Z
mediante la siguiente ecuación:
𝑋−𝜇
𝑍=
𝜎
Entonces, a partir de esta relación, si se quiere obtener P(X < t), se obtiene de tabla la
𝑋−𝜇
probabilidad P (𝑍 < ), ya que ambas probabilidades son iguales.
𝜎
𝑋−𝜇
𝐹𝑋 (𝑥) = 𝑃(𝑋 ≤ 𝑥) = 𝑃 (𝑍 ≤ )
𝜎