Resumen 2° - Probabilidad y Estadistica

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 15

Unidad N° 3 - Parte A

Variables Aleatorias Discretas y Distribuciones de Probabilidad


Variable Aleatoria
Una variable aleatoria es una función que asigna a cada elemento del espacio muestral un
número real:
𝑿: 𝑺 → ℝ
- Es discreta si su recorrido es un conjunto finito o infinito numerable.
- Es continua si el recorrido es un intervalo real.
Distribución de Probabilidad
Una distribución de probabilidad está dada por todos los valores que puede tomar la
variable y las probabilidades asociadas a cada uno de ellos.
Una distribución de probabilidad para una variable aleatoria discreta puede representarse
mediante una tabla, un gráfico o una función o ley de probabilidad.
Función de Probabilidad
Sea X una variable aleatoria y ℛX su recorrido. La función que a cada valor de la variable le
hace corresponder la probabilidad de que la variable X asuma ese valor, se denomina
función de probabilidad puntual asociada a la variable aleatoria X. En símbolos
𝑝X : ℛX → [0,1]
Si 𝑝X es una función de probabilidad entonces cumple lo siguiente:
1. 𝑝X ≥ 0, ∀ 𝑥 ∈ ℛX
2. Σ X∈ℛx 𝑝X (𝑥) = 1
Gráficamente se puede representar la función de probabilidad a través del gráfico de
bastones.
A los pares ordenados (𝑥, 𝑝X (𝑥)) con 𝑥 ∈ ℛX, como a su representación gráfica, la
llamamos indistintamente distribución de probabilidad de la variable aleatoria X.
Función de Probabilidad Acumulada
Sea X una variable aleatoria discreta con recorrido ℛX y función de probabilidad 𝑝X. La
función 𝐹X = 𝑃 (𝑋 ≤ 𝑥) tal que
𝐹X : ℝ → [0,1]
La denominamos función de distribución acumulada o distribución de probabilidad
acumulada para la variable aleatoria X.
En algunas ocasiones resulta necesario calcular la probabilidad de que una variable
aleatoria asuma un valor menor o igual a un cierto valor dado. Es decir que la función de
distribución acumulada suma las probabilidades de aquellos valores que asume la variable
aleatoria y que son menores o igual que x.
Gráficamente se puede representar la función de distribución acumulada de la siguiente
manera:

A los pares ordenados (𝑥, 𝑝X (𝑥)) con 𝑥 ∈ ℛX, como a su representación gráfica, la
llamamos indistintamente distribución de probabilidad de la variable aleatoria X.
Parámetros de una V.A. Discreta
Esperanza Matemática.
Esperanza matemática de la variable aleatoria X o media poblacional de la variable
aleatoria X y la notamos indistintamente 𝐸 (𝑋) o 𝜇X al número:

𝐸(𝑋) = 𝜇𝑋 = ∑ 𝑥𝑝𝑋 (𝑥)


𝑥∈ℛ𝑋
Variancia.
Variancia de una variable aleatoria X y la notamos indistintamente V (X) o 𝜎X2 al número:

𝑉(𝑋) = 𝜎𝑋2 = ∑ (𝑥 − 𝜇𝑋 )2 𝑝𝑋 (𝑥)


𝑥∈ℛ𝑋

La variancia de una variable aleatoria cuantifica la variación, en la población, de los valores


de la variable respecto de su media. La variancia resulta grande cuando la variable asume
valores alejados de la media con alta probabilidad.
El valor de V (X) está expresado en unidades al cuadrado de X. Esto motiva a considerar el
desvío estándar de la variable aleatoria X que resulta la raíz de la variancia: 𝜎X = √ 𝜎X2
Propiedades del valor esperado y de la variancia.
• Efecto de sumar una constante a la variable aleatoria X
Sea “a” una constante y X una variable aleatoria, definimos Y= a + X, entonces:
E (Y) = E (X + a) = E (X) + a
V (Y) = V (X + a) = V (X)
• Efecto de multiplicar por una constante
Sea “a” una constante y X una variable aleatoria, definimos a Y= a . X entonces:
E (Y) = E (X . a) = a . E (X)
V (Y) = V (X . a) = a2 . V (X)
𝜎Y = |a| 𝜎X
Algunas Distribuciones
Una distribución de probabilidad para una variable aleatoria discreta puede representarse
mediante una tabla, un gráfico o una función o ley de probabilidad.
En ocasiones, algunas variables aleatorias siguen una distribución de probabilidad
particular.
Se parte de los siguientes supuestos:
• Hay sólo dos resultados posibles para cada ensayo (éxito o fracaso). Siendo éxito lo que
nos interesa estudiar y fracaso lo contrario.
• La probabilidad de un éxito es la misma para cada ensayo.
• Hay n ensayos, donde n es una constante.
• Los n ensayos son independientes.
Los ensayos que satisfacen estos supuestos se llaman ensayos de Bernoulli.
Ensayo de Bernoulli.
Cuando en un ensayo de algún proceso o experimento puede ocurrir sólo uno de dos
resultados mutuamente excluyentes, el ensayo de llama ensayo de Bernoulli. Uno de esos
posibles resultados se denota como éxito y el otro como fracaso.
Vamos a asignarle un valor numérico a estos dos resultados posibles:
- Si se presenta el suceso éxito (𝐴) la variable aleatoria tomará el valor 1, con probabilidad
𝑝
𝑥=1 𝑃(𝐴) = 𝑝
- Si se presenta el suceso fracaso (𝐴̅) la variable aleatoria tomará el valor 0, con
probabilidad 1 − 𝑝
𝑥=0 𝑃 𝐴̅ = 1 − 𝑝
Como son dos sucesos complementarios la suma de sus probabilidades debe ser 1.
Si consideramos la variable aleatoria X, como el número de éxitos en un experimento de
Bernoulli, entonces su distribución de probabilidad se la puede expresar con la siguiente
fórmula:
𝑃(𝑋 = 𝑥) = 𝑝 𝑥 . (1 − 𝑝)1−𝑥 𝑑𝑜𝑛𝑑𝑒 𝑥 = 0; 1
Como se puede ver esta distribución depende del valor de p, por lo que para diferentes
valores de 𝑝 se obtienen diferentes distribuciones de Bernoulli.
A este valor 𝑝 se lo llama parámetro de la distribución. Los parámetros de la variable
aleatoria de Bernoulli son:
• Esperanza matemática:

𝐸(𝑋) = ∑ 𝑥. 𝑃(𝑋 = 𝑥) = 0. (1 − 𝑝) + 1. 𝑝 = 𝑝
𝑥=0;1

𝐸 (𝑋 ) = 𝑝
• Variancia:
𝜎 2 = 𝐸(𝑋 2 ) − 𝐸 2 (𝑋) = [02 . (1 − 𝑝) + 12 . 𝑝] − 𝑝2 = 𝑝 − 𝑝2 = 𝑝. (1 − 𝑝)
𝜎 2 = 𝑝. (1 − 𝑝)
• Desvío estándar:

𝜎 = √𝑝. (1 − 𝑝)
Distribución de Probabilidad Binomial
La distribución binomial es una de las distribuciones más utilizadas en estadística aplicada
para variable discreta. Esta distribución se deriva de una secuencia de n ensayos de
Bernoulli, donde se cumplen las siguientes condiciones:
- En cada ensayo ocurre uno de dos posibles resultados, mutuamente excluyentes (éxito o
fracaso).
- Los n ensayos son independientes, es decir, el resultado de algún ensayo en particular no
afecta la probabilidad de éxito de cualquier otro ensayo en el experimento, en otras
palabras, la probabilidad de un éxito (𝑝) permanece constante de un ensayo a otro.
- La variable aleatoria binomial X es el resultado del número de veces que se presenta el
suceso éxito en las n ensayos, por lo tanto, puede tomar cualquier valor entero entre 0 y
n.
Para elaborar una distribución binomial debemos contar con:
- El número de repeticiones de la experiencia aleatoria o el número de ensayos de
Bernoulli (𝑛).
- La probabilidad de éxito en cada ensayo (𝑝).
Estos dos valores se denominan parámetros de la distribución, ya que a distintos valores
de 𝑛 y 𝑝, tenemos distintas distribuciones. Si una variable aleatoria X tiene distribución
binomial se utiliza la siguiente simbología:
X ~ Bi (𝑛, 𝑝)
La cual se lee de la siguiente manera: “la variable aleatoria X sigue una distribución
binomial con parámetros 𝑛 y 𝑝.”
Se calcula de la siguiente manera:
Para calcular la probabilidad 𝑃 (𝑋 = 𝑥) es necesario conocer de cuántas formas diferentes
se puede presentar 𝑥 veces el suceso favorable en las 𝑛 repeticiones de Bernoulli.
Sea 𝐴 un suceso con probabilidad 𝑝. Entonces, la variable aleatoria X: n° de veces que se
presenta A en las n repeticiones independientes, tiene una distribución binomial con
parámetros n y p.
𝑛
𝑃(𝑋 = 𝑥) = ( ) . 𝑝 𝑥 . (1 − 𝑝)1−𝑥
𝑥
El número de maneras de combinar (en cualquier orden), 𝑥 éxitos y (𝑛 − 𝑥) fracasos en 𝑛
𝑛
observaciones viene dado por el número combinatorio ( ) . Todas estas combinaciones
𝑥
son excluyentes entre sí.
Combinatorio:
𝑛!
𝑥=
𝑥!. (𝑛 − 𝑋)!
La distribución binomial cumple con las condiciones de una distribución de probabilidad:
1. 𝑝X ≥ 0, ∀ 𝑥 ∈ ℛX
2. Σ X∈ℛx 𝑝X (𝑥) = 1
La Esperanza y Variancia de una variable aleatoria X con distribución binomial son:
Esperanza Matemática:
𝐸(𝑋) = 𝑛. 𝑝
Variancia:
𝜎 2 = 𝑛. 𝑝. (1 − 𝑝)
Desvío estándar:

𝜎 = √𝑛. 𝑝. (1 − 𝑝)

p se mantiene constante.
Porque el muestreo de población puede ser:
- Finito: muestreo con reposición.
- Infinito: muestreo sin reposición.
Tablas.
A las probabilidades acumuladas las simbolizábamos con la letra F, por lo tanto,
F (X) = 𝑃 (𝑋 ≤ x)
La distribución binomial se encuentra tabulada por lo que es fácil calcular probabilidades
sin necesidad de hacer demasiadas cuentas.
Para usar las tablas de la distribución binomial es necesario conocer:
- El número de veces que se realiza el experimento (n).
- La probabilidad de éxito (p).
- El número de éxitos (x).
Distribución de Probabilidad Hipergeométrica
Esta distribución está relacionada con la distribución binomial. Con la diferencia que en la
distribución hipergeométrica la extracción de los elementos se realiza sin reposición, lo
que hace que no sean independientes, por lo que la probabilidad del suceso de interés no
será constante de extracción en extracción.
Por definición:
- Un conjunto de N objetos contiene K objetos clasificados como éxitos y (N – K) objetos
clasificados como fracasos.
- Se toma una muestra de tamaño n, al azar (sin reposición) entre N objetos, donde k ≤ N y
n ≤ N. n es el número de éxitos que se quiere conocer.
Sea la variable aleatoria X: número de éxitos en la muestra, entonces X tiene una
distribución hipergeométrica y
𝐾 𝑁−𝐾
( )( )
𝑃(𝑋 = 𝑥) = 𝑥 𝑛 − 𝑥 𝑑𝑜𝑛𝑑𝑒 𝑥 = 0,1, … min(𝑘, 𝑛)
𝑁
( )
𝑛
Distribución de Probabilidad Poisson
En situaciones donde n es muy grande y p es muy pequeño, se consigue una buena
aproximación binomial por medio de otra distribución de probabilidad, denominada
distribución de Poisson.
La distribución de Poisson se emplea para describir sucesos discretos que ocurren con
poca frecuencia en el tiempo o en el espacio, por eso muchas veces recibe el nombre de
distribución de sucesos raros.
Consideremos la variable aleatoria X, que representa la cantidad de veces que ocurre un
suceso de interés en un intervalo dado. Dado que X proviene del conteo, podría tomar
teóricamente cualquier valor entero entre 0 e infinito.
Sea 𝜆 una constante que denota el número promedio de veces que acontece un suceso en
un intervalo.
Se dice que X tiene distribución Poisson con parámetro 𝜆 si la probabilidad de que X tome
el valor x viene dada por:

𝑒 −𝜆 𝜆𝑥
𝑃(𝑋 = 𝑥) = 𝑑𝑜𝑛𝑑𝑒 𝑥 = 0, 1, … . 𝑦 𝑒 = 2,71828
𝑥!
La distribución de Poisson implica un conjunto de supuestos fundamentales:
- La probabilidad de que acontezca un suceso en un intervalo es proporcional a la
amplitud del mismo.
- En principio, teóricamente, es imposible que suceda un número infinito de eventos en un
intervalo dado. No hay límite al número de ensayos.
- Los sucesos ocurren independientemente tanto en el mismo intervalo como entre
intervalos consecutivos.
La media de una variable aleatoria binomial es igual a 𝑛. 𝑝 y su variancia 𝑛. 𝑝. (1 − 𝑝).
Cuando 𝑝 es muy pequeño, (1 − 𝑝) se acerca a 1 y 𝑛. 𝑝. (1 − 𝑝) es aproximadamente 𝑛. 𝑝.
En este caso, la media y la variancia de la distribución son idénticas y pueden
representarse con el parámetro λ.
La propiedad de que la media sea igual a la variancia es una característica que identifica a
la distribución de Poisson.
Si X es una variable aleatoria Poisson con parámetro λ, entonces la media y la variancia se
X son:
Esperanza Matemática:
𝜇 = 𝐸(𝑋) = 𝜆
Variancia:

𝜎 2 = 𝑉(𝑋) = 𝜆
Unidad N° 3 - Parte B
Variables Aleatorias Continuas y Distribuciones de Probabilidad
Variable Aleatoria Continua
Cuando una variable aleatoria es continua, significa que su recorrido es un intervalo real.
Matemáticamente no es factible asignar una probabilidad positiva a cada elemento.
Distribución de una variable aleatoria continua
Si contamos con una cierta cantidad de datos de una V.A. continua, se puede realizar un
histograma para visualizar su distribución de frecuencias. Si pensamos en que se siguen
obteniendo datos de esa variable y se realizan histogramas con una cantidad de datos
cada vez mayor, el histograma va aumentando la cantidad de intervalos y el mismo va
tendiendo a una curva:

La curva se llama función de densidad.


Función de densidad
Sea X una variable aleatoria continua. Decimos que fX es la función de densidad de
probabilidad asociada a X. La misma verifica:
1. fX (x) ≥ 0 para todo x ∈ ℛ
+∞
2. ∫− ∞ 𝑓𝑋 (𝑥)𝑑𝑥 = 1
𝑏
3. P (a ≤ X ≤ b) = ∫𝑎 𝑓𝑋 (𝑥)𝑑𝑥
Función de distribución acumulada
Sea X una variable aleatoria continua y fX su función de densidad de probabilidad.
La función:

𝐹𝑋 : ℝ → [0, 1]
𝑥
𝑥 → 𝐹𝑋 (𝑥) = ∫ 𝑓𝑥 (𝑥)𝑑𝑥
−∞

se denomina función de distribución acumulada de la variable aleatoria X.


Verifica:
1. FX (x) = P (X ≤ x)
2. 0 ≤ FX ≤ 1, para todo x ∈ ℛ.
3. FX es monótona no decreciente.
4. F´X (x) = fX (x) en los puntos de continuidad de fX.
Esperanza Matemática:
Sea X una variable aleatoria continua y fX su función de densidad de probabilidad. La
esperanza matemática o media poblacional de X, que se nota E(X) o μX es el número:
+∞
𝐸(𝑋) = 𝜇𝑋 = ∫ 𝑥𝑓𝑥 (𝑥)𝑑𝑥
−∞

Variancia:
Sea X una variable aleatoria continua y fX su función de densidad de probabilidad. La
variancia de X que se nota V (X) o σ2X es el número no negativo:
+∞
2
𝑉(𝑋) = 𝜎 𝑋 =∫ (𝑥 − 𝜇𝑋 )2 𝑓𝑥 (𝑥)𝑑𝑥
−∞

Desvío estándar:
El desvío estándar de X (σX) es la raíz cuadrada de la variancia.
Distribución Uniforme
Decimos que una variable aleatoria X se distribuye uniformemente en el intervalo [a,b] y
notamos X∼U(a,b), cuando su función de densidad de probabilidad es:
1
𝑓𝑋 (𝑋) = {𝑏 − 𝑎 𝑠𝑖 𝑥 ∈ [𝑎, 𝑏],
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜.
El hecho de que una variable aleatoria tenga un comportamiento uniforme significa que
intervalos de igual amplitud contenidos en el intervalo [a, b] tienen la misma probabilidad
de ocurrir.

Esperanza Matemática:
𝑏
𝑥 𝑎+𝑏
𝐸(𝑋) = 𝜇𝑋 = ∫ 𝑑𝑥 =
𝑎 𝑏−𝑎 2
Variancia:
𝑏
𝑎+𝑏 2 1 (𝑏 − 𝑎)2
𝑉(𝑋) = 𝜎 2𝑋 = ∫ (𝑥 − ) . 𝑑𝑥 =
𝑎 2 𝑏−𝑎 12
Notar que la esperanza es el punto medio del intervalo, esto ocurre porque la
distribución es simétrica. Y que el desvío estándar es proporcional a la amplitud del
intervalo (a, b).
Distribución Exponencial
Decimos que una variable aleatoria X tiene una distribución exponencial de parámetro
α > 0 y notamos X∼Exp(α) cuando su función de densidad de probabilidad es:
−𝛼𝑥
𝑠𝑖 𝑥 ∈ [𝑎, 𝑏],
𝑓𝑋 (𝑋) = {𝛼𝑒
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜.

Si x > 0, entonces:
𝑥
𝐹𝑋 (𝑥) = ∫ 𝛼𝑒 −𝛼𝑥 𝑑𝑥 = 1 − 𝑒 −𝛼𝑥
0
Consecuentemente:

𝑃(𝑋 > 𝑥) = 1 − (1 − 𝑒 −𝛼𝑥 ) = 𝑒 −𝛼𝑥


Esperanza Matemática:
+∞
1
𝐸(𝑋) = 𝜇𝑋 = ∫ 𝛼𝑒 −𝛼𝑥 𝑑𝑥 =
0 𝛼

Variancia:
+∞
1 2 1
𝑉(𝑋) = 𝜎 2𝑋 = ∫ (𝑥 − ) . 𝛼𝑒 −𝛼𝑥 𝑑𝑥 = 2
0 𝛼 𝛼

Propiedad de no memoria:
Si X∼Exp(α) y t y s son positivos:
𝑃(𝑋 > 𝑡 + 𝑠/𝑋 > 𝑠) = 𝑃(𝑋 > 𝑡)
𝑃((𝑋 > 𝑡 + 𝑠) ∩ (𝑋 > 𝑠) 𝑃(𝑋 > 𝑡 + 𝑠) 𝑒 −𝛼(𝑡+𝑠)
𝑃(𝑋 > 𝑡 + 𝑠/𝑋 > 𝑠) = = = = 𝑒 −𝛼𝑡
𝑃(𝑋 > 𝑠) 𝑃(𝑋 > 𝑠) 𝑒 −𝛼𝑠
𝑒 −𝛼𝑡 = 𝑃(𝑋 > 𝑡)
Vinculación con la distribución de Poisson.
Sea Xt la cantidad de automóviles que llegan a un puesto de peaje en un período de
tiempo t. Supongamos que Xt∼Po(αt), es decir:

(𝛼𝑘)𝑘 𝑒 −𝛼𝑡
𝑃(𝑋𝑡 = 𝑘) = , 𝑘 = 0, 1, 2, ….
𝑘!
Sea T: ‘tiempo que transcurre hasta que se produce la llegada de un automóvil al puesto
de peaje’ o equivalentemente ‘tiempo que transcurre entre la llegada de un automóvil y el
siguiente’. Los sucesos ‘el tiempo entre la llegada de dos automóviles sea mayor que t’ y
’no llega ningún automóvil al puesto de peaje en un periodo de tiempo t’ son
equivalentes, describen lo mismo. Entonces, sus probabilidades son iguales. En símbolos:

𝑃(𝑇 > 𝑡) = 𝑃(𝑋𝑡 = 0) = 𝑒 −𝛼𝑡


Distribución Normal
Decimos que una variable aleatoria X tiene una distribución normal de parámetros μ y σ,
donde σ > 0, y notamos X∼N (μ, σ) cuando su función de densidad de probabilidad es:

1 (𝑥−𝜇)2

𝑓𝑋 (𝑥) = 𝑒 2𝜎2
√2𝜋𝜎
Esta función de densidad es simétrica con respecto a μ y es mayor a 0 para todo x real.
Características.
• Sus parámetros son μ (media poblacional) y σ (desvió estándar poblacional).
• Tiene forma acampanada.
• Es simétrica con respecto a la μ y unimodal, es decir, μ = Mna = Mo.
• Los extremos de la curva o colas son asintóticas respecto al eje x.
• El área bajo la curva es igual a 1.
• Los puntos de inflexión de la curva se dan para μ – σ y μ + σ.
• Si el parámetro μ aumenta, la función de densidad se traslada a la derecha; en el caso
contrario, se traslada a la izquierda.
• Si el parámetro σ aumenta, la curva se “aplana”, los datos se extienden o dispersan a lo
largo del eje x; en el caso contrario, la curva se “apuntala”, los datos se acumulan en el
centro de la distribución.

Regla empírica.
En la distribución normal aproximadamente:
• El 68% de las observaciones se encuentran entre μ – σ y μ + σ.
• El 95% de las observaciones se encuentran entre μ – 2σ y μ + 2σ.
• El 99,7% de las observaciones se encuentran entre μ – 3σ y μ + 3σ.
Distribución Normal Estándar.
Es la distribución Normal donde la media vale 0 y el desvío estándar 1.
Se denota con Z. Z∼N (0;1)

Cálculo de probabilidades:
Si no se cuenta con medios electrónicos, el cálculo de las probabilidades se basa en tablas
que dan las probabilidades acumuladas para Z∼N (0;1). Luego mediante una
transformación, se obtienen las probabilidades para cualquier variable con distribución
normal X∼N (μ, σ).
Cualquier variable aleatoria con distribución Normal, X∼N (μ, σ). Se relaciona con Z
mediante la siguiente ecuación:
𝑋−𝜇
𝑍=
𝜎
Entonces, a partir de esta relación, si se quiere obtener P(X < t), se obtiene de tabla la
𝑋−𝜇
probabilidad P (𝑍 < ), ya que ambas probabilidades son iguales.
𝜎

𝑋−𝜇
𝐹𝑋 (𝑥) = 𝑃(𝑋 ≤ 𝑥) = 𝑃 (𝑍 ≤ )
𝜎

También podría gustarte