01 Repaso Probabilidad

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 64

PROBABILIDAD

COMPONENTES BASICOS
ALEATORIEDAD Y PROBABILIDAD

Llamamos a un fenómeno aleatorio si los


resultados individuales del fenómeno son
inciertos y sin embargo, existe una
distribución regular de los resultados
después de un gran número de repeticiones.
La probabilidad de cualquier resultado de un
fenómeno aleatorio es la proporción de
veces que el resultado se da después de
una larga serie de repeticiones.
UN CONTEXTO PROBABILISTICO
(Comprensión, ejemplos, pocos desarrollos)

Método axiomático  definiciones, axiomas, teoremas (reglas


para calcular), asignación de probabilidades.

Probabilidad condicional e independencia  probabilidad total,


teorema de Bayes.

Variables aleatorias  esperanza matemática, propiedades,


momentos (1°, 2°, 3°, 4°)

Distribuciones de probabilidad (modelos)  binomial,


geométrica, poisson, uniforme, exponencial, normal, gamma.

Teoremas límites  Ley de los grandes números y teorema


límite central.

Distribuciones muestrales  dist. de la media, de S2, dist. t, F


DEFINICIONES
PARAMETRO Y ESTADISTICO

Un parámetro es un número que


describe la población. En la práctica el
valor del parámetro no es conocido.
Un estadístico es un número que se
puede calcular a partir de los datos de la
muestra sin utilizar ningún parámetro
conocido. En la práctica solemos utilizar
un estadístico para estimar el parámetro
desconocido.
MODELOS DE PROBABILIDAD

La probabilidad es un modelo matemático


de la aleatoriedad. Se requiere de dos
cosas básicas para estos modelos:

•Identificar los resultados posibles


•Operatividad matemática que garantice el
cálculo de las probabilidades.
Def 1: Experimento Aleatorio:

Cualquier situación donde los resultados


individuales no se conozcan con certeza de
antemano. Después de muchas repeticiones la
distribución de resultados es regular.

Def 2: Puntos muestrales o eventos singulares o


simples:

Cada uno de los posibles resultados que se


obtienen del experimento (una sola vez).
Def 3: Espacio Muestral ():

Está formado por todos los posibles eventos


simples del fenómeno que estamos estudiando.
Finitos
Infinitos numerables
Infinitos no numerables

Def 4: Eventos:

Un evento es cualquier subconjunto (subconjunto


medible, en el caso continuo) del espacio
muestral. El evento se cumple si se da uno de los
resultados simples que constituyen el evento.
Def 5: Evento imposible: Evento que jamás
ocurrirá ()

Def 6: Evento seguro (): Evento que ocurrirá con


toda certeza.

Def 7: Familia de eventos (): conjunto formado


por todos los subconjuntos del espacio muestral.

Def 8: Consideramos la función: P:   [0, 1].


Si A   entonces P(A) es un número real entre 0
y 1.
VER EJEMPLOS
(1, 2, 3)
AXIOMAS
Axioma 1: Para cada suceso A en el conjunto:
P(A)  0

Axioma 2: Para el suceso seguro o cierto C en el


conjunto  : P(C) = 1 [C =  ]

Axioma 3: Para cualquier número de sucesos


mutuamente excluyentes A1, A2 . . . en :

P(A1  A2  . . .) = P(A1) + P(A2) . . .


Definición de Espacio de Probabilidad:

 = (, , P)
TEOREMAS
Sean A1, A2, A3, . . . , B1, B2, B3 . . . subconjuntos
del Espacio Muestral  (es decir, son eventos).

Teorema 1: Para cada suceso Ai, 0  P(Ai)  1

Teorema 2: P() = 0

Teorema 3: P(A2 – A1) = P(A2) – P(A2A1)

Teorema 4: Si A1  A2 , entonces P(A1)  P(A2)


y además P(A2 − A1) = P(A2) − P(A1)
Teorema 5: Sea A’ el complemento de A,
entonces P(A) = 1 − P(A’)

Teorema 6: Si A = A1  A2  A3 . . .An y
A1, A2, A3 . . . An son sucesos excluyentes:

P(A) = P(A1) + P(A2) + P(A3) . . . + P(An)

En particular, si A =  , entonces
P(A1) + P(A2) + P(A3) . . . + P(An) = 1
Teorema 7: Para cualquier par de sucesos A1, A2:

P(A1  A2) = P(A1) + P(A2) − P(A1 A2)

Es interesante generalizarlo al caso de 3 eventos:

P(A1A2A3) = P(A1) + P(A2) + P(A3) − P(A1A2) −


P(A1A3) - P(A2A3) + P(A1A2A3)

Teorema 8: Del teorema 7 se deduce que la siguiente


desigualdad (desigualdad de Boole):

P(Ai)  P(Ai)
Teorema 9: Para dos sucesos A y B

P(A) = P(A  B) + P(A  Bc)

“La probabilidad total” de que ocurra un evento A


es igual a la probabilidad de que A ocurra y ocurra
B, más la probabilidad de que A ocurra junto con
que Bc ocurra.
VER EJEMPLOS
(4, 5, 6)
DOS FORMAS DE CONSTRUIR LA
FUNCIÓN P:   [0, 1]

ENFOQUE FRECUENTISTA
Y
ENFOQUE CLÁSICO
ALEATORIEDAD Y PROBABILIDAD

Llamamos a un fenómeno aleatorio si los


resultados individuales son inciertos y sin
embargo, existe una distribución regular
de los resultados después de un gran
número de repeticiones.
“La probabilidad de cualquier resultado de
un fenómeno aleatorio es la proporción de
veces que el resultado se da después de
una larga serie de repeticiones”.
RECORDAR:

“La variabilidad muestral no es fatal porque


el comportamiento del azar es impredecible
con pocas repeticiones pero presenta un
comportamiento regular con muchas
repeticiones”. D. Moore
FRECUENCIAS Y PROPORCIONES DEL
LANZAMIENTO DE UNA MONEDA

EJERCICIO: MEDIANTE LA EXPERIENCIA DETERMINAR LA PROBABILIDAD


DE QUE UN CHINCHE CAIGA CON LA PUNTA HACIA ARRIBA
ENFOQUE CLÁSICO

EQUIPROBABILIDAD: Todos los eventos


simples tienen igual probabilidad.
La masa total de probabilidad (= 1) se
reparte equitativamente en todos los
eventos simples. Esto nos lleva a que la
probabilidad de un evento A es:
NúmeroCasosFavorables Cardinal(A )
P[A]  
NúmeroCasosTotales Cardinal(S )
REGLAS PARA CONTAR

Regla 1: Primer principio de conteo o regla


de la multiplicación. Con m elementos a1,
a2, ..., am y n elementos b1, b2,..., bn es
posible formar m.n parejas ordenadas que
contienen un elemento de cada grupo.
Regla 2: Número de permutaciones de r
elementos tomados de un conjunto de n
elementos.

Un arreglo ordenado de n objetos se llama


una permutación. El número de
permutaciones distintas de n objetos tomando
de r de ellos a la vez, denotado por nPr [Pn, r o
P(n,r)] es:

nP r = n(n-1)(n-2)...(n-r+1) = n!/(n – r)!


Regla 3: Número de combinaciones de r elementos
tomados de un conjunto de n elementos.
(coeficiente binomial).

Un arreglo no ordenado de n objetos se llama una


combinación. El número de combinaciones distintas
de n objetos tomando de r de ellos a la vez,
denotado por nCr es:

nCr = (nPr)/r! = n!/r!(n – r)!

Nota: También se usan las siguientes notaciones


para la combinación Cn, r ó C(n,r) ó  n 
r 
 
Regla 4: Número de formas en las que se
pueden asignar n elementos distintos en k
grupos diferentes. (Coeficiente multinomial).
El número de formas en que se pueden
repartir n objetos distintos en k grupos
diferentes que contienen n1, n2, ...., nk
objetos respectivamente, con ni = n es:

 n  n!
  
 n1n 2 ...n k  n1!n 2  n k !
PROBABILIDAD CONJUNTA,
PROBABILIDAD CONDICIONAL
PROBABILIDAD MARGINAL
Definición:

Consideremos el evento A, con P(A) > 0 y el evento


B. Escribiremos P(B|A) para señalar la probabilidad
del evento B dado que el evento A ha ocurrido.
Además definimos:

P(B|A) = P(AB)/P(A).

de donde se deduce que

P(AB) = P(A).P(B|A)
En la ecuación

P(AB) = P(A)P(B|A) [Regla de multiplicación]

la probabilidad conjunta es igual a la probabilidad


condicional multiplicada por algo, que es la
“probabilidad marginal.”
INDEPENDENCIA DE EVENTOS

Definición de independencia Eventos: A y B son


eventos independientes si y sólo si:

P(A  B) = P(A)P(B)

lo cual implica que P(B|A) = P(B)


INDEPENDENCIA CONJUNTA DE EVENTOS

Los eventos A1, A2, . . An son conjuntamente


independientes si y sólo si:

1. Son independientes por pares entre si:

P(Aj  Ak) = P(Aj)P(Ak) j  k, j, k = 1, 2 . . . n

2. y además: P(Ai) = P(Ai)


TEOREMA DE LA PROBABILIDAD TOTAL

TEOREMA DE BAYES
Teorema 10: (Probabilidad Total) Si los
eventos Bi, i  I, son tales que P(A|Bi) está
definida i, Bj  Bk =  para j  k, y i  I Bi =
, entonces:

P(A) =  i  I P(A|Bi)P(Bi).

Recordar que P(ABi) = P(A|Bi)P(Bi).


Teorema 11: (Bayes) Si se cumplen todas las
condiciones del teorema anterior y dada P(A) > 0,
entonces:

P(Bk|A) = P(A|Bk)P(Bk)/ i  I P(A|Bi)P(Bi), Bk


El teorema de Bayes es una regla para “actualizar”
las probabilidades de cualquier evento de una
partición de  dado que el evento A ocurre.

La distinción entre: el evento A no ha ocurrido y


dado que ya ocurrió, apoyan el uso de las
expresiones “probabilidad a priori” y “probabilidad a
posteriori”.
EJEMPLO DE APLICACIÓN TEOREMA DE
BAYES
Ejemplo:

Una máquina embotelladora de bebidas coloca la tapa


correctamente en el 99.5% de las veces si está bien
ajustada, pero sólo el 80% cuando no lo está. Si existe una
probabilidad del 10% de que la máquina esté desajustada.

a) ¿cuál es la probabilidad de que una botella elegida al azar


tenga la tapa bien colocada? b) Si al escoger una botella de
la producción de esta máquina y se encuentra que la tapa
no está correctamente colocada, ¿cuál es la probabilidad de
que la máquina esté bien ajustada?
Solución:

C = tapa colocada correctamente


C/BA = tapa correcta dado máquina bien ajustada
C/MA = tapa correcta dado máquina mal ajustada

De acuerdo al enunciado

P(C/BA) = 0.995, P(C/MA) = 0.80, P(MA) = 0.10

Nos preguntan por las siguientes probabilidades:

P(C) = ? y P(BA/C’) = ?
Solución:

Usamos la probabilidad total para calcular P(C)

P(C) = P(C/BA).P(BA) + P(C/MA).P(MA) =


P(C) = 0.995x0.9 + 0.80x0.10 = 0.9755

Con el teorema de Bayes podemos calcular:

P(BA/C’) = [P(C’/BA)xP(BA)]  0.9755 = 0.005x0.9  0.9755


= 0.0046

EJERCICIOS PARA ENTREGAR: Resolver los ejercicios 2.125,


2.126 y 2.127 de Wackerly y Mendenhall (2010), página 73
VAMOS A CONSTRUIR
MODELOS TEORICOS DE
PROBABILIDAD
DEFINICIÓN DE VARIABLES ALEATORIA
Consideremos un espacio de probabilidad (,,P),
una variable aleatoria X se define como una función
que asocia un número real a cada evento elemental
de , verificando que:

{ω ∈  | X(ω) ≤ r} = X−1((-∞,r]) pertenece a 

Esto nos permite concebir una probabilidad sobre la


recta real: PX(B) = P(X−1(B)), B un evento en 

Intuitivamente: una v. a. es una variable cuyos


valores son resultados numéricos de un fenómeno
aleatorio. [Es una función de valores reales cuyo
dominio es el espacio muestral]
7 8.2 2
4 4 6.08
11 12
6 1 15


X
VARIABLE ALEATORIA
DEFINICIÓN: (función de distribución acumulada)

La función de distribución F de una variable aleatoria X, es


una función definida en la recta real que toma valores en el
intervalo [0,1].

F(x) = P(X ≤ x) = P({ω ∈ : X(ω) ≤ x}) = P(X−1((-∞,x]))

Para cada valor “x” que puede tomar la variable, la función


F nos devuelve la probabilidad de que la variable tome un
valor menor o igual que x.
PROPIEDADES DE UNA FUNCIÓN DE
DISTRIBUCIÓN:

1. 0 ≤ F(x ) ≤ 1

2. F es no decreciente

3. lim F(x) = 1
x→+∞

4. lim F(x) = 0
x→−∞

5. F es continua por la derecha


VARIABLES ALEATORIAS DISCRETAS

Toman valores dentro de un conjunto finito o infinito numerable.

Función de masa de probabilidad de una variable discreta:


Nos indica la probabilidad de cada uno de los valores de la
variable (no acumula como la función de distribución).

Se denota p(x) = P(X = x).

En este caso de variables discretas se cumple que:

F(x) = P(X ≤ x) = Σ p(y)


y≤x

La función de distribución acumulada se obtiene “acumulando


los valores” que va tomando la función de masa de probabilidad.
VARIABLES ALEATORIAS CONTINUAS

Toma todos los valores en uno o varios intervalos


de la recta real (toma una cantidad de valores
infinita no numerable)
Función de densidad de una variable continua:
Se denota por f y se calcula:

f(x) = F’(x)

La función de distribución se obtiene “acumulando los


valores” que va tomando la función de densidad
x
F(x) = ∫ f(y)dy
−∞

La función de densidad no indica probabilidad, es el


área bajo la curva quien lo hace, hay que integrar.
RELACIÓN ENTRE LAS FUNCIONES DE
DISTRIBUCIÓN ACUMULADA Y LA DE DENSIDAD

f(X)

F(X0)
y = f(X)
PROPIEDADES DE LA FUNCIÓN DE DENSIDAD

1. f(x) ≥ 0, x, −∞ < x < +∞


+∞
2. ∫ f (x)dx = F(+∞) = 1
−∞

b
3. P(a ≤ X ≤ b) = ∫ f(x)dx = F(b) − F(a)
a

4. P(X = x0) = 0

P(a  X  b)
PARÁMETROS DE UNA DISTRIBUCIÓN DE
PROBABILIDAD:

Estos deben considerarse como constantes numéricas que


caracterizan la forma, la posición, el comportamiento y otros
rasgos de un modelo. Por medio de experimentos o por
comprobación empírica o bajo supuestos, podemos obtener
información o estimaciones de estas constantes.
EJEMPLO V.A. DISCRETA

El nivel de voltaje de una pila alcalina puede ser aceptable o


inaceptable. Cierto radio requiere de dos pilas para su
funcionamiento, así que se eligen de manera independiente
y se prueban hasta encontrar dos pilas aceptables. Suponga
que usted escoge las pilas de un lote muy grande con cierto
porcentaje r de pilas con voltaje aceptable.

 = {(x1, x2, …): xi = A ó xi = nA}


Consideremos X es la variable aleatoria que asocia el
número de pilas que deben ser probadas hasta
obtener las dos pilas de voltaje aceptable.

X:   {2, 3, 4, … }

Podemos preguntarnos por:

¿Cuál es la probabilidad P(X = 3) = p(3)?


¿Cuál es la probabilidad P(X = 5) = p(5)?
Dar una fórmula general para la función de masa p(x)
EJEMPLO V. A. CONTINUA

AVANCE DEL TIEMPO

El flujo de una unidad de producción es el tiempo


transcurrido entre el instante en que una unidad
termina de pasar un punto fijo y el instante en que
la siguiente unidad comienza a pasar por ese
punto. Sea X el “avance del tiempo” para dos
unidades consecutivas, elegidas al azar en una
línea de producción.
La siguiente fdp es propuesta por
“The Estatistical Properties of Traffic”. Devore 2005

f(x) = 0.15e-0.15(x – 0.5); x  0.5; x en seg


0 en otro caso

Integrando tenemos:
x x
F(x) = ∫ f(t)dt = ∫ 0.15e-0.15(t – 0.5)dt =
−∞ 0.5

0.15e 0.075 1  0.15t


- e
t x
t  0.5 
 e 0.075 - e 0.15x  e 0.075 
 0.15 
Así por ejemplo:
La probabilidad de que el avance del
tiempo, en este proceso productivo,
sea menor que 5 seg es:

P(X < 5) = F(5) = 0.49084


ESPERANZA MATEMÁTICA O
VALOR ESPERADO DE UNA
VARIABLE ALEATORIA
DEFINICION:

Si X es una variable aleatoria la esperanza o


valor esperado de X es

E(X) = xp(x); si X es discreta con fmp p(x)


sobre todo x

E(X) = - xf(x)dx si X es continua con fdp f(x)
VALOR ESPERADO O ESPERANZA DE UNA
FUNCIÓN DE VARIABLES ALEATORIAS:

Si X es una variable aleatoria la esperanza o


valor esperado de una función G de la variable
aleatoria X es:

E(X) = G(x)p(x); si X es discreta con fmp p(x)


sobre todo x

E(X) = - G(x)f(x)dx ; si X es continua con fdp f(x)
PROPIEDADES DE LA ESPERANZA DE
UNA VARIABLE ALEATORIA:

Si X es una variable aleatoria, G(X) y H(X)


son funciones de esta, entonces se cumple
que:

1) E[k] = k; para toda constante k

2) E[kX] = kE[X]

3) E[G(X) + H(X)] = E[G(X)] + E[H(X)]


MOMENTOS DE UNA VARIABLE
ALEATORIA:

El valor E[Xr] es llamado r-ésimo momento de


la variable aleatoria X.

El valor E{(X - E[X])r} es llamado r-ésimo


momento central de la variable aleatoria X.
MEDIA DE UNA VARIABLE ALEATORIA:

La Media  de una variable aleatoria X no es


más que su primer momento, es decir:  = E[X]

VARIANZA DE UNA VARIABLE ALEATORIA:

La Varianza ² de una variable aleatoria X no es


más que su segundo momento central, es decir:

Var(X) = ² = E{(X - E[X])²}


PROPIEDADES DE LA VARIANZA

Var(aX + b) = a2Var(X)

Var(X) = E(X2) – [E(X)]2 = E(X2) – 2

Var(X) =  = desviación estándar

También podría gustarte