Cap2-Distribuicoes_Parametricas

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 22

distribuições paramétricas

As variáveis aleatórias que estão associadas a grande parte das experiências podem ser
representadas por modelos paramétricos (distribuições de probabilidade) e cujas propriedades de
localização, escala e forma são funções de poucos parâmetros.

Distribuições discretas:

Uniforme, U {x1 , x2 , · · · , xn }
Bernoulli, Bernoulli(p)
Binomial, Bi(n,p)
Poisson, Poisson(λ)

Distribuições contı́nuas:

Uniforme, U[a, b]
Exponencial, Exp(λ)
Normal, N(µ, σ)
Qui-quadrado (χ2 ), t-student, Fisher-Snedecor.

distribuição uniforme

A distribuição uniforme em n pontos, {x1 , x2 , · · · , xn }, atribui a mesma probabilidade a qualquer


dos n pontos do contradomı́nio de X.

1
X _ U{x1 , x2 , · · · , xn }; P(X = xi ) = , i = 1, 2, ..., n.
n

A distribuição uniforme aplica-se a situações em que os resultados possı́veis são


equiprováveis (ex. saı́da da face i num dado equilibrado é U{1, 2, · · · , 6}, cuja f.m.p. é
1
P(X = i) = , i = 1, 2, · · · , 6 ).
6
N+1 N 2 −1
Se X _ U{1, 2, ...N}, N ∈ N, então µ = E[X] = 2
e σ 2 = Var[X] = 12
.

No R a função sample simula amostras de distribuições discretas em n pontos, com dadas


probabilidades.
distribuição de Bernoulli

Uma experiência aleatória, diz-se um processo de Bernoulli se verifica as seguintes propriedades:

a experiência pode ser repetida n vezes;(cada repetição é um sucesso ou insucesso);


a probabilidade de sucesso é a mesma em qualquer repetição da experiência;
as repetições da experiência são independentes entre si.

Uma v.a. de Bernoulli toma os valores 0 e 1 (0 se ocorre o insucesso; 1 caso contrário) com
P(”sucesso”) = P(X = 1) = p e P(”insucesso”) = P(X = 0) = 1 − p.

Designa-se por ”sucesso” a caracterı́stica de interesse a observar ((homem, mulher);


(vacinado, não vacinado); (estudante, não estudante); (votar no partido A, não votar no
partido A); fator Rh do sangue ( positivo, negativo)).

distribuição de Bernoulli

X _ Bernoulli(p), p ∈]0, 1[

A função massa de probabilidade (f.m.p.) é:

P(X = k) = pk (1 − p)1−k , k = 0, 1

µ = E[X] = p e σ 2 = Var[X] = p(1 − p)

P(X = 1) = p e P(X = 0) = 1 − p

Exemplo 1: Num estudo da incidência de uma doença, X indica a presença (X = 1) ou


ausência da doença (X = 0).
distribuição Binomial

A distribuição Binomial é uma generalização da distribuição de Bernoulli para o caso de n


repetições independentes da experiência de Bernoulli. Consideremos então a variável aleatória
X=”número de sucessos em n repetições”.
X _ Bi(n, p) e p = P(”sucesso”)

função massa de probabilidade (f.m.p.) é dada por

n k
P(X = k) = k
p (1 − p)n−k , k = 0, 1, 2, . . . , n

µ = E[X] = np e σ 2 = Var[X] = np(1 − p)

Bi(1, p) ≡ Bernoulli(p)

No R, dbinom(x, size, prob)

distribuição Binomial

Exemplo 2: Seja X, o número de termómetros calibrados com exatidão num grupo de 5, é uma
v.a. binomial com p = 0.8.

Determine as probabilidades dos seguintes eventos:

a) Todos os termómetros estão calibrados com exatidão.

b) Pelo menos 4 dos termómetros estão calibrados com exatidão.

c) Determine o valor médio e a variância de X.


distribuição Binomial

X :”número de termómetros calibrados com exatidão num grupo de 5 termómetros”


n = 5 e p = P(”sucesso”) = P(”termómetro calibrado com exatidão”) = 0.8

5
X ∼ Bi(5, 0.8) ⇒ P(X = k) = k
0.8k (1 − 0.8)5−k , k = 0, · · · , 5.

5
a) P(X = 5) = 5
0.85 ∗ 0.20 = 0.85 = 0.3277

5
b) P(X ≥ 4) = P(X = 4) + P(X = 5) = 4
∗ 0.84 ∗ 0.2 + 0.85 = 0.7373

c) µ = E[X] = np = 5 ∗ 0.8 = 4 e σ 2 = Var[X] = np(1 − p) = 5 ∗ 0.8 ∗ 0.2 = 0.8

No R:

> dbinom(5, 5, 0.8) # cálculo de P(X = 5)


[1]0.3277
> 1 − pbinom(3, 5, 0.8) # cálculo de P(X ≥ 4) = 1 − P(X < 4) = 1 − P(X ≤ 3)
[1]0.7373

função de probabilidade da Binomial

f.m.p Bi(10,0.5) f.m.p Bi(10,0.3) f.m.p Bi(10,0.1)

0.25 0.4

0.25

0.20
0.3
0.20

0.15
0.15
P(X=k)

P(X=k)

P(X=k)

0.2

0.10
0.10

0.1
0.05 0.05

0.00 0.00 0.0

0 2 4 6 8 10 0 2 4 6 8 10 0 2 4 6 8 10

k k k

X _ Bi(10, p), com p=0.5; 0.3 e 0.1


f.m.p. e f.d. da Bi(10,0.35)

0.25

1.0
0.20

0.8
0.15

0.6
Fx
fx

0.10

0.4
0.05

0.2
0.00

0.0
0 2 4 6 8 10 0 2 4 6 8 10

x x

Representações das funções massa de probabilidade (esquerda)


e distribuição (direita) da Bi(10, 0.35).

funções no R

Cada modelo tem quatro funções obtidas pelo nome da distribuição precedido da letra d, p ,
q ou r:
d - densidade ou massa de probabilidade;

p - função distribuição (probabilidade acumulada);

q - quantil (função distribuição inversa);

r - simulação de dados de uma variável aleatória (random).

Exercı́cio: Indique o significado dos seguintes comandos: dbinom(3, 4, 0.7); pbinom(3, 4, 0.7);
qbinom(0.9, 4, 0.7) e rbinom(20, 4, 0.7).
distribuição de Poisson

A distribuição de Poisson é usada para modelar fenómenos em que se pretende conhecer o


número de ocorrências de um evento num intervalo temporal ou numa região do espaço.

Exemplo 3: Acontecimentos que se repetem no tempo ou no espaço:

número de relâmpagos observados durante uma hora, numa noite de tempestade;

número de erros ortográficos nas páginas de um livro;

número de chamadas telefónicas durante um dia, numa empresa;

número de bactérias por unidade de volume numa solução;

número de peixes, por unidade de volume, num lago;

número de plantas, por metro quadrado, num terreno florestal.

distribuição de Poisson

Seja λ > 0, o número médio de ocorrências, num dado intervalo de tempo (ou região do
espaço);
X a v.a. que representa o número de ocorrências nesse intervalo, assume os valores no
conjunto {0, 1, ...}. Então diz-se que X segue uma distribuição de Poisson, e escreve-se
X _ Poisson(λ)
A f.m.p. é
λk
P(X = k) = e−λ , k = 0, 1, 2, . . .
k!
µ = E[X] = λ e σ 2 = Var[X] = λ.

No R: dpois(x, lambda)
distribuição de Poisson

Exemplo 4: O número de microscópios que avariam por mês, num laboratório é uma v.a. com
distribuição de Poisson com valor médio λ = 3.
a) Qual a probabilidade, num mês, de o número de microscópios avariados ser superior a 6?
b) Determine a capacidade mı́nima da empresa de reparações de modo que se reparem pelo
menos 90% dos microscópios avariados.

X :”número de microscópios avariados num mês”

e−3 3k
X _ Poisson(3) ⇒ P(X = k) = , k = 0, 1, · · · .
k!

6
X e−3 3k
a) P(X > 6) = 1 − P(X ≤ 6) = 1 − = 0.0335
k=0
k!

x
X e−3 3k
b) P(X ≤ x) ≥ 0.9 e P(X ≤ x) = , tendo-se P(X ≤ 4) = 0.8115 e P(X ≤ 5) = 0.9125,
k=0
k!
donde x = 5.

Distribuição de Poisson

Exemplo 4 (cont.):
No software R:

a) > 1 − ppois(6, 3)#cálculo de P(X > 6) = 1 − P(X ≤ 6)

[1]0.03350854

ppois(6, 3, lower.tail = F)#cálculo de P(X > 6)

[1]0.03350854

b) qpois(0.90, 3)

[1]5
distribuição de Poisson

Frequentemente estamos interessados em calcular probabilidades para diversos intervalos de


tempo, pelo que se torna mais conveniente definir λ como o no médio de eventos por unidade de
tempo. Assim, o parâmetro da distribuição deixará de ser λ para se considerar λt, com t o
intervalo de tempo. Tendo-se µ = E[X] = λt e σ 2 = Var[X] = λt.

Exemplo 5:
Um material radioativo emite partı́culas α a uma taxa de 2 por cada milisegundo. Determine as
probabilidades de:
a) serem emitidas 2 partı́culas num milisegundo;

b) serem emitidas 4 partı́culas em 2 milisegundos;

c) serem emitidas pelo menos 3 partı́culas em 2 milisegundos.

distribuição de Poisson

Seja Xi :”número de partı́culas α emitida por cada t milisegundo”, então Xi _ Poisson(2t).

22
a) Para t = 1, X1 _ Poisson(2), P(X1 = 2) = e−2 = 0.2707
2!

44
b) Para t = 2, X2 _ Poisson(4), P(X2 = 4) = e−4 = 0.1954
4!

c) Para t = 2, X2 _ Poisson(4),

P(X2 ≥ 3) = 1 − P(X2 < 3)

= 1 − P(X2 = 0) − P(X2 = 1) − P(X2 = 2)

40 41 42
= 1 − e−4 { + + }
0! 1! 2!

= 0.7619
distribuição de Poisson
Exemplo 5 (cont.):

No software R:

a) P(X1 = 2) = 0.2707

> dpois(2, 2)
[1]0.2706706

b) P(X2 = 4) = 0.1954

> dpois(4, 4)
[1]0.1953668

c) P(X2 ≥ 3) = 1 − P(X2 < 3) = 1 − P(X2 ≤ 2) = 0.7619

> 1 − ppois(2, 4)
[1]0.7618967

resumo - distribuição discretas


Caracterı́sticas teóricas caso discreto (medidas de localização, dispersão e forma)
P
valor médio E(X) = µ i xi pi

var(X) = σ 2 − µ)2 pi
P
variância i (xi

1
− µ)3 pi
P
coef. assimetria β1 σ3 i (xi

1
− µ)4 pi
P
coef. achatamento β2 σ4 i (xi

mediana χ1/2 inf {x : F(x) ≥ 1/2}

modelo parâmetro v. médio variância assimetria achatamento


µ σ2 β1 β2

n+1 n2 −1 6 n2 +1
U{1, ..., n} n>1 2 12
0 3− 5 n2 −1

1−6 p(1−p)
Bi(n, p) 0<p<1 np np(1 − p) √ 1−2p 3+ np(1−p)
np(1−p)
n>0

Poisson(λ) λ>0 λ λ √1 3+ 1
λ λ
distribuição uniforme (contı́nua)
Uma variável aleatória X segue a distribuição uniforme no intervalo [a, b] com a função
densidade de probabilidade (f.d.p.):


1
, x ∈ [a, b]

f (x) = b − a
 0 x∈
/ [a, b]

sendo os parâmetros a e b números reais tais que a < b, e escreve-se abreviadamente


X _ U[a, b]. A função distribuição é dada por:


 0, x<a
 x−a
F(x) = , x ∈ [a, b[
 b−a

1 x≥b

a+b (b − a)2
com µ = E[X] = e σ 2 = Var[X] = .
2 12

distribuição uniforme

Função densidade Função distribuição


1.0

1.0
0.8

0.8
0.6

0.6
duniforme

duniforme
0.4

0.4
0.2

0.2
0.0

0.0

0.0 0.5 1.0 1.5 2.0 2.5 3.0 0.0 0.5 1.0 1.5 2.0 2.5 3.0

x x

X _ U[1, 2]

No R: dunif(x, min = a, max = b) e punif(x, min = a, max = b)


distribuição uniforme

Exemplo 6: Sabendo que o atraso nas consultas de um gabinete médico segue uma distribuição
uniforme U[0, 30] minutos. Calcule:

a probabilidade de se verificar um atraso superior a 15 minutos na hora da consulta:


X:”tempo de atraso, em minutos, na hora da consulta, num gabinete médico”; X _ U[0, 30]

P(X > 15) = 1 − P(X ≤ 15) = 1 − F(15) = 0.5

> punif(15, 0, 30, lower.tail = F) # cálculo de P(X > 15)


[1]0.5

o atraso médio e o desvio padrão na hora das consultas:

30
µ = E[X] = = 15 min
2

(30)2 √
σ 2 = Var[X] = = 75 ⇒ σ = 75 = 8.66 min.
12

distribuição exponencial

Uma variável aleatória X tem distribuição exponencial com parâmetro λ (λ > 0) se a f.d.p.
for dada por:

0, x<0
f (x) =
λe−λx , x≥0

escreve-se abreviadamente X _ Exp(λ).

A função distribuição é dada por:



0, x<0
F(x) = P(X ≤ x) =
1 − e−λx , x≥0

1 1
com µ = E[X] = e σ 2 = Var[X] = 2 .
λ λ

1, x<0
Alternativa: X _ Exp(λ) ⇔ P(X > x) =
e−λx , x≥0

Aplicações a intervalos de tempo entre ocorrências de fenómenos, durações de vida.


distribuição exponencial

Função densidade Função distribuição

1.0
4

0.8
3

0.6
distexp
dexp

0.4
1

0.2
0.0
0

0.0 0.5 1.0 1.5 2.0 2.5 3.0 0.0 0.5 1.0 1.5 2.0 2.5 3.0

x x

X _ Exp(λ), E(X) = 1/λ

No R: Para X _ Exp(1) então dexp(x, rate = 1, ...)

distribuição exponencial

Exemplo 7: Seja T a v.a. que representa a duração de vida (em horas) de uma bactéria de certo
tipo, e admita que T _ Exp(0.5).

Calcule a probabilidade de uma bactéria desse tipo durar entre 1 a 2 horas.

T : ”tempo de vida (em horas) de uma bactéria em estudo” e T _ Exp(0.5)

P(1 ≤ T ≤ 2) = F(2) − F(1) = 0.2386512

No R:

> pexp(2, 0.5) − pexp(1, 0.5)

[1]0.2386512
distribuição normal

A distribuição Normal ou Gaussiana, é uma distribuição contı́nua cuja função densidade tem
a forma de sino e é muito utilizada em estatı́stica. Uma variável aleatória X segue uma
distribuição Normal cuja f.d.p. é da forma:

2
1 − 12 x−µ
f (x) = √ e σ , x∈R
2πσ 2

escreve-se abreviadamente X _ N(µ, σ).

A função distribuição é dada por:

1
Z x t−µ
2
− 12
F(x) = P(X ≤ x) = √ e σ dt.
2πσ 2 −∞

distribuição normal
Exemplo 8: Sabendo que a duração de um certo tratamento segue uma distribuição normal com
média 850 dias e desvio-padrão 45 dias. Calcule a probabilidade do tratamento durar:
entre 700 e 1000 dias
> pnorm(1000, 850, 45) − pnorm(700, 850, 45) # cálculo de P(700 < X < 1000)
[1]0.9991419

mais de 800 dias


> pnorm(800, 850, 45, lower.tail = F) # cálculo de P(X > 800)
[1]0.8667397

menos de 750 dias


> pnorm(750, 850, 45) # cálculo de P(X < 750)
[1]0.01313415
exactamente 1000 dias
> dnorm(1000, 850, 45) ≈ 0

Qual deve ser o número de dias necessário para haver uma eficácia de 5% ?
> qnorm(0.05, 850, 45)
[1]775.9816
distribuição normal reduzida

A média e variância de uma distribuição Normal correspondem aos parâmetros da


distribuição: E[X] = µ e Var[X] = σ 2 .

Quando µ = 0 e σ = 1, temos a distribuição Normal reduzida ou estandardizada,


representada como: Z _ N(0, 1).

Se X _ N(µ, σ), então

X−µ
Z= _ N(0, 1)
σ

A letra Φ é reservada para a distribuição Normal reduzida:

1
Z x 1 2
Φ(x) = F(x) = P(Z ≤ x) = √ e− 2 t dt
2π −∞

distribuição normal N(0, 1)

Função densidade Função distribuição


0.4

1.0
0.8
0.3

0.6
distnorm
dnorm

0.2

0.4
0.1

0.2
0.0

0.0

−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6

x x

Representação da f.d.p. e f.d. de X _ N(0, 1)

dnorm(x, mean = ..., sd = ...) pnorm(x, mean = ..., sd = ...)


distribuição normal reduzida

Exemplo 9:
Sendo X _ N(5, 2), calcular P(X < 7).

X−5 7−5
P(X < 7) = P( < ) = P(Z < 1) = Φ(1) = 0.84134
2 2

No R considerando uma distribuição N(5,2):

> pnorm(7, 5, 2)
[1]0.8413447

No R considerando uma distribuição N(0,1):

> pnorm((7 − 5)/2, 0, 1)


[1]0.8413447

resumo - distribuições contı́nuas


Caracterı́sticas teóricas caso contı́nuo (medidas de localização, dispersão e forma)
R
valor médio E(X) = µ x f (x) dx

var(X) = σ 2 (x − µ)2 f (x) dx


R
variância

1
(x − µ)3 f (x) dx
R
coef. assimetria β1 σ3

1
(x − µ)4 f (x) dx
R
coef. achatamento β2 σ4

mediana χ1/2 inf {x : F(x) ≥ 1/2}

modelo parâmetro v. médio variância mediana assimetria achatamento


µ σ2 χ1/2 β1 β2

a+b (b−a)2 a+b 9


U[a, b] a<b 2 12 2
0 5

1 1 log2
Exp(λ) λ>0 λ λ2 λ
2 9

N(µ, σ) µ∈R µ σ2 µ 0 3
σ>0
propriedades da distribuição normal

Φ(−x) = 1 − Φ(x);


Se X _ N(µ, σ) e Y = aX + b com a e b constantes, então Y _ N(aµ + b, a2 σ 2 );

Se Xi _ N(µi , σi ), i = 1, 2, . . . , n então X = X1 + X2 + · · · + Xn = Sn _ N(µ, σ) com

µ = µ1 + µ2 + · · · + µn e σ 2 = σ12 + σ22 + · · · + σn2 ;

Se Xi _ N(µ, σ), i = 1, 2, . . . , n então X = X1 + X2 + · · · + Xn = Sn _ N(µ1 , σ1 ) com

µ1 = nµ e σ12 = nσ 2 ;


Se Xi _ N(µ, σ), i = 1, 2, . . . , n, são v.a.’s i.i.d.’s então X _ N(µ, σ/ n).

distribuição normal reduzida

Exemplo 10: O peso de um homem é uma v.a. com distribuição N(75, 5). Qual a probabilidade do
peso de 4 homens (com pesos independentes) não exceder 320kg?

4
X
Considerando Y = Xi com Xi _ N(µ = 75, σ = 5), i = 1, ..., 4, Y _ N(µY , σY ) com
i=1

µY = 4 × 75 = 300 e σY2 = 4 × 25 = 100 ⇒ σY = 10;

Y − 300 320 − 300


P(Y ≤ 320) = P( ≤ ) = P(Z ≤ 2) = Φ(2) = 0.9772
10 10

No R:
> pnorm((320 − 300)/10, 0, 1)# cálculo de P(Z ≤ 2)
[1]0.9772499
> pnorm(320, 300, 10)# cálculo de P(Y ≤ 320)
[1]0.9772499
distribuição normal no R

dnorm(x, mean = ..., sd = ...) determina os valores de f (x) (f.d.p);

pnorm(x, mean = ..., sd = ...) determina os valores de F(x) (f.d.);

qnorm(p, mean = ..., sd = ...) determina o quantil-p da dist.normal;

rnorm(n, mean = ..., sd = ...) simula uma amostra de dimensão n da distribuição normal
com µ (mean) e σ (sd).

distribuições contı́nuas auxiliares

Para uma amostra aleatória X1 , X2 , . . . , Xn , proveniente de uma distribuição normal N(µ, σ),
n
1X
consideremos a v.a. média amostral X = Xi e a v.a. variância amostral
n i=1
n
2 1 X 2
S = Xi − X :
n − 1 i=1

X−µ
Z= √ _ N(0, 1);
σ/ n

X−µ
T= √ _ tn−1 , distribuição t de Student com n − 1 graus de liberdade;
S/ n

S2
U = (n − 1) _ χ2n−1 , distribuição qui-quadrado com n − 1 graus de liberdade.
σ2
distribuições contı́nuas auxiliares

Consideremos duas amostras aleatórias X1 , X2 , . . . , Xn e Y1 , Y2 , . . . , Ym independentes entre


si e provenientes respetivamente das distribuições N(µ, σ) e N(µ0 , σ 0 ). As variâncias
amostrais correspondentes a cada uma das amostras são respetivamente
n m
2 1 X 2 02 1 X 2
S = Xi − X e S = Yi − Y .
n − 1 i=1 m − 1 i=1

Então,

S2 σ 0 2
V= _ Fn−1;m−1 , distribuição F de Fisher-Snedecor com
S0 2 σ 2

n − 1 e m − 1 graus de liberdade (degrees of freedom).

lei dos grandes números (LGN)

Se X1 , · · · , Xn são i.i.d.’s com µ = E[X], então a média amostral X converge em


probabilidade para µ (valor médio populacional), i.e., para qualquer  > 0

lim P(|X − µ| < ) = 1


n→∞

a probabilidade de X estar próximo de µ (tão próximo quanto se queira,  > 0) tende para 1.

Uma consequência da LGN é que a frequência relativa de um acontecimento A, em n


repetições de uma experiência aleatória, converge para a sua probabilidade, P(A).

Se n for grande a frequência relativa será uma boa estimativa para P(A) (teoria frequencista
de probabilidade).
teorema do limite central (TLC)

Sejam X1 , X2 , . . . , Xn variáveis independentes e identicamente distribuı́das com valor médio µ e


variância σ 2 .
n
X 1
Xi = X1 + · · · + Xn , , X= (X1 + X2 + · · · + Xn )
i=1
n

n
X
Xi − nµ  
i=1 X−µ
√ ≈ N(0, 1) ou √ ≈ N(0, 1)
σ n σ/ n

Nota 1: O teorema pode ser aplicado para amostras de dimensão n > 30 desde que a
distribuição de X não seja muito assimétrica.

n
X √ √
Nota 2: Xi ≈ N(nµ, σ n) ; X ≈ N(µ, σ/ n)
i=1

teorema do limite central

Exemplo 11: Considerem-se as variáveis aleatórias i.i.d. X1 , · · · , X40 , com distribuição


X40
uniforme [0, 10]. Determine P( Xi < 230).
i=1

Sendo Xi _ U[0, 10] então µ = E[Xi ] = 5 e σ 2 = Var[Xi ] = 102 /12 = 100/12 = 8.3333.

A aplicação do T.L.C. permite calcular um valor aproximado para P( 40


P
i=1 Xi < 230) através

P40
i=1 Xi − 40E[Xi ]
p ≈ N(0, 1)
40Var[Xi ]
teorema do limite central

Como µ = E[Xi ] = 5 então E( 40


P
i=1 Xi ) = 40 µ = 40 ∗ 5 = 200

Sendo σ 2 = Var[Xi ] = 8.3333 então


Var( 40 2 = 40 ∗ 8.3333 ⇒
P
i=1 X i ) = 40 σ 40 ∗ 8.3333 = 18.2574

P40 !
i=1 Xi − 200 230 − 200
P 
40
P i=1 X i < 230 =P < = P(Z < 1.6432) = Φ(1.6432) =
18.2574 18.2574
= 0.9498

No R:
40
!
X
> pnorm((230 − 200)/18.2574, 0, 1) #cálculo da P Xi < 230 = P(Z < 1.6432)
i=1
[1]0.949826

aproximações para distribuições discretas


Aproximação da distribuição binomial pela distribuição Normal:

p p), i = 1, ..., n, então Sn = X1 + X2 + · · · + Xn _ Bi(n, p) e pelo TLC


Se Xi _ Bi(1,
Sn ≈ N(np, np(1 − p))

Aproximação da distribuição de Poisson pela Normal:

Se Xi _ Poisson(λ),
√ i = 1, ..., n, então Sn = X1 + X2 + · · · + Xn _ Poisson(nλ) e pelo TLC
Sn ≈ N(λ, λ), para λ grande
bi(200,0.3) vs N(60, 42) Poisson(100) vs N(100, 100)

0.04
0.06

0.05
0.03
0.04

0.03 0.02

0.02
0.01
0.01

0.00 0.00

30 40 50 60 70 80 90 60 80 100 120 140

Gráfico de f.d.p. Normal sobreposta na f.m.p. Bi(200, 0.3) e Poisson(100).


distribuição normal bivariada
Seja (X, Y) um par aleatório com distribuição normal bivariada de parâmetros µ1 , µ2 , σ1 , σ2 e ρ, a
função densidade probabilidade conjunta é dada por:
 
1 1 2 2
f (x, y) = exp − y − 2ρ y1 y2 + y2
2 1
p
2πσ1 σ2 1 − ρ2

x − µ1 x − µ2
com y1 = e y2 = .
σ1 σ2

Algumas considerações sobre a distribuição normal bivariada:

X _ N(µ1 , σ1 ) e Y _ N(µ2 , σ2 ) - distribuições marginais

ρ representa a correlação entre X e Y

ρ = 0 ⇔ X e Y são independentes

No R:
mvrnorm (no pacote MASS), dmvnorm (no pacote mvtnorm)

resumo - distribuição contı́nuas no R


prefixo distribuição sufixo

d - densidade f (x) X _ U[a; b] unif

p - distribuição P(X ≤ x) X _ Exp(λ) exp

q - quantil-p X _ N(µ, σ) norm

r - amostra simulada X _ χ2n−1 chisq

X _ tn−1 t

X _ Fn−1;m−1 f

Exemplo:

Seja X _ χ2n−1 a P(X ≤ x) = 0.95 é calculada como qchisq(0.95, df = n − 1)

Seja X _ tn−1 a P(X ≤ a) é calculada como pt(a, df = n − 1)

Seja X _ Fn−1;m−1 , simular amostra de dimensão 100, rf (100, df = n − 1, m − 1)


ajustamento empı́rico de modelos

O recurso à representação gráfica com o objetivo de se identificar a normalidade dos dados


é realizada com a função qqnorm. No caso da amostra ser proveniente do modelo normal,
N(µ, σ), então espera-se que os quantis amostrais sejam aproximadamente iguais aos
quantis teóricos do modelo normal. A nı́vel do gráfico os quantis amostrais/ quantis teóricos
apresentam-se linearmente relacionados se a amostra for proveniente de um modelo
normal.
qqnorm para amostra normal qqnorm para amostra uniforme

1.0
2

0.8
1
quantis empíricos

quantis empíricos

0.6
0

0.4
−1

0.2
−2

0.0
−2 −1 0 1 2 −2 −1 0 1 2

quantis teóricos do modelo Normal quantis teóricos do modelo Normal

Os gráficos resultaram da aplicação da função qqnorm a duas amostras de dimensão 100,


simuladas a partir do modelo N(0, 1) e do modelo U[−3, 3]:
qqnorm(rnorm(100), . . .) qqnorm(runif(100), . . .)

ajustamento empı́rico de modelos

qqline adiciona ao gráfico quantil-quantil uma reta que passa nos 1o e 3o quartis do modelo
normal.
qqnorm para amostra normal qqnorm para amostra uniforme
1.0
2

0.8
1
quantis empíricos

quantis empíricos

0.6
0

0.4
−1

0.2
−2

0.0

−2 −1 0 1 2 −2 −1 0 1 2

quantis teóricos do modelo Normal quantis teóricos do modelo Normal

Observação: o método de ajustamento empı́rico é pouco eficaz em amostras pequenas e é


sempre subjetivo.

Você também pode gostar