Notas de Aula
Notas de Aula
Notas de Aula
Computacionais
da Fı́sica B
3
4 LISTA DE FIGURAS
5
6 SUMÁRIO
2 Mapas 39
2.1 Mapa Logı́stico . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2 Estabilidade para λ < 0, 25 . . . . . . . . . . . . . . . . . . . 41
2.3 Estabilidade para 0, 25 < λ < 0, 75 . . . . . . . . . . . . . . . 41
2.4 λ > 0,75 e o Limite Cı́clico . . . . . . . . . . . . . . . . . . . 43
2.5 λ > 0, 89 e o Limite Caótico . . . . . . . . . . . . . . . . . . . 44
2.6 Mapas de Teia e Mapas de Primeiro Retorno . . . . . . . . . 45
2.7 Coeficiente de Lyapunov . . . . . . . . . . . . . . . . . . . . . 47
2.8 Mapa de Hénon . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.9 Atividades Sugeridas . . . . . . . . . . . . . . . . . . . . . . . 50
A Desigualdades 73
A.1 Desigualdades com valores absolutos . . . . . . . . . . . . . . 74
CAPÍTULO 1
7
8 CAPÍTULO 1. EQUAÇÕES DIFERENCIAIS ORDINÁRIAS
dx
= f (t, x), a ≤ t ≤ b, x(a) = α,
dt
é dito bem posto (”well-posed”) se:
• existem uma constante 0 > 0 tal que para qualquer , com 0 > > 0,
para qualquer função δ(t) contı́nua com |δ(t)| < , para qualquer t no
intervalo [a, b], e com |δ0 | < , o problema de valor inicial
dz
= f (t, z) + δ(t), a ≤ t ≤ b, z(a) = α + δ0 ,
dt
tem uma solução única z(t) que satisfaz
Finalmente:
dx
= f (t, x), a ≤ t ≤ b, x(a) = α,
dt
é bem posto.
O teorema acima mostra que pequenas mudanças nos dados iniciais con-
duzem a pequenas alterações nas respostas. Entretanto, pode ser que o pro-
blema seja bem posto, mas mal condicionado com respeito à computação
numérica. Para melhor entender quando isto ocorre podemos calcular partir
das seguintes equações:
Z x(t) Z t
dx
= f (t, x) → dx = x(t) − x(a) = f (t0 , x)dt0 ,
dt x(a) a
Deste resultado temos que a equação diferencial somente será bem posta se
∂f
≡ L ≤ 0,
∂x
já que somente neste caso |z(t) − x(t)| permanecerá finito à medida que
t → ∞.
dx → ∆x = xn+1 − xn (1.7)
dt → ∆t = tn+1 − tn ,
onde o ı́ndice i indica o n-ésimo passo discreto a partir das condições iniciais
do problema. Matematicamente:
dx ∆x
= f (t; x) ∼ = f (t; x).
dt ∆t
Podemos usar as definições (1.7) na equação acima, obtendo:
dxi
= fi (t; x1 ; . . . ; xN ), i = 1, . . . , N, (1.8)
dt
onde as funções fi no lado direito são conhecidas.
onde:
h ≡ ∆t = tn+1 − tn ,
xn+1 = x(tn+1 ) = x(tn + h) e
xn = x(tn ).
Exemplo
Erro de Truncamento
h2 00
τn = x(tn ) + h f (tn , x(tn )) + x (ξn ) − [wn + h f (tn , wn )],
2
h2 00
|x(tn+1 ) − wn+1 | ≤ |x(tn ) − wn | + h|f (tn , x(tn )) − f (tn , wn )| + |x (ξn )|.
2
Se f satisfazer a condição de Lipschitz (eq. 1.2), e se utilizarmos a equação
(1.6), podemos escrever a equação acima como:
h2 M
|x(tn+1 ) − wn+1 | ≤ (1 + hL) |x(tn ) − wn | + , (1.13)
2
onde M é uma constante tal que |x00 (t)| ≤ M . Pode-se mostrar que a
equação acima pode ser re-escrita como:
hM (ti+1 −t0 ) L
|x(tn+1 ) − wn+1 | ≤ e −1 ,
2L
para cada i = 0, 1, ..., N − 1.
x(t) = x0 eλt .
w1 = w0 + h φ(t0 , w0 , h) = w0 + h (λ w0 ) = (1 + hλ) w0 ,
1.2. MÉTODO DE EULER-CROMER 17
Im(λh)
dx
=v
dt
dv
= a(t; x; v)
dt
O método pode ser descrito como:
vn+1 = vn + a(tn ; xn ; vn ) h
xn+1 = xn + vn+1 h,
1 dx2 1 dx3
dx 2
h3 + O ∆t4
xn+1 = xn + h+ 2
h + 3
(1.16)
dt tn
2 dt tn 3! dt tn
1 dx2 1 dx3
dx 2
h3 + O ∆t4
xn−1 = xn − h+ 2
h − 3
(1.17)
dt tn
2 dt tn 3! dt tn
1.3. MÉTODO DE VERLET 19
e a partir de (1.19):
xn+1 − xn−1
vn = . (1.21)
2h
Para se utilizar a equação (1.20), é necessário que se conheça inicial-
mente a posição da partı́cula em dois intervalos de tempo sucessivos. Este,
geralmente, não é o caso, já que o mais usual é termos como condição inicial
somente a posição da partı́cula (e a velocidade) no instante inicial. Entre-
tanto, a posição da partı́cula no tempo t1 pode ser estimada a partir da
expansão em séries de Taylor:
1
x1 = x0 + v0 ∆t + a0 ∆t2 + O ∆t3 .
2
Em geral este erro inicial não é considerado um problema grande pois depois
de uma sucessão de passos de tempo ele torna-se pequeno frente ao erro total.
Embora a equação (1.20) seja suficiente para se calcular as trajetórias
das partı́culas, em muitas situações é necessário que se conheça também
as velocidades das partı́culas para que possamos, por exemplo, calcular a
energia cinética total a fim de se verificar se há conservação de energia no
sistema. Entretanto, a equação (1.21) para a velocidade da partı́cula, que
encontra-se no trabalho original de Verlet, possui dois problemas principais:
ela precisa ser inicializada por alguma outra equação e, ademais, ela produz
valores incorretos de velocidade que conduzem, quando utilizadas para cal-
cular a energia cinética das partı́culas, ao descumprimento do teorema da
conservarão de energia total.
Um problema grande que há com o cálculo da velocidade através da
equação (1.21) está no fato de que no mesmo instante de tempo tn , a posição
e a velocidade calculadas não referem-se ao mesmo instante de tempo, ou
seja, calcula-se a posição xn+1 e a velocidade vn . Uma maneira alternativa
de se calcular a velocidade no instante de tempo seguinte é utilizarmos a
expressão:
xn+1 − xn
vn+1 = + O (∆t)
∆t
20 CAPÍTULO 1. EQUAÇÕES DIFERENCIAIS ORDINÁRIAS
Novamente, note que o método assume que a aceleração não depende ex-
plicitamente da velocidade. Alternativamente, um dos passos intermediários
pode ser eliminado, resultando em:
Tanto este método quanto o método de Verlet tradicional tem erro local
O(h4 ) na posição e O(h2 ) na velocidade. Em sistemas conservativos, onde
a energia total permanece constante, a solução numérica pelo método de
Verlet oscila próximo ao valor real da energia.
1 d2 x
dy
h2 + O h3 .
xn+1 = xn + h+ 2
dt (tn ,xn )
2! dt (tn ,xn )
onde
k1 ≡ f (tn ; xn ),
e
k2 ≡ f (tn + p1 h; xn + q11 k1 h).
a1 + a2 = 1
a2 p 1 = 1
a2 q11 = 1
Método de Heun
22 CAPÍTULO 1. EQUAÇÕES DIFERENCIAIS ORDINÁRIAS
1
a2 =
2
1
a1 + a2 = 1 → a1 =
2
1
a2 p1 = → p1 = 1
2
1
a2 q11 = → q11 = 1.
2
Logo:
1 1
xn+1 = xn + k1 + k2 h (1.24)
2 2
k1 = f (tn ; xn ) (1.25)
k2 = f (tn + h; xn + k1 h). (1.26)
a2 = 1
a1 + a2 = 1 → a1 = 0
1 1
a2 p1 = → p1 =
2 2
1 1
a2 q11 = → q11 = .
2 2
Logo:
xn+1 = xn + k2 h (1.27)
k1 = f (tn ; xn ) (1.28)
h k1 h
k2 = f tn + ; xn + . (1.29)
2 2
1.4. MÉTODO DE RUNGE-KUTTA 23
Método de Ralston
2
a2 =
3
1
a1 + a2 = 1 → a1 =
3
1 3
a2 p 1 = → p1 =
2 4
1 3
a2 q11 = → q11 = .
2 4
Logo:
1 2
xn+1 = xn + ( k1 + k2 ) h
3 3
k1 = f (tn ; xn )
3 3
k2 = f tn + h; xn + k1 h .
4 4
h
tn+ 1 = tn +
2 2
h
xn+ 1 = xn + vn
2 2
h
vn+ 1 = vn + an
2 2
an+ 1 = a(tn+ 1 ; xn+ 1 ; vn+ 1 ),
2 2 2 2
24 CAPÍTULO 1. EQUAÇÕES DIFERENCIAIS ORDINÁRIAS
tn+1 = tn + h
xn+1 = xn + v 1 h
2
vn+1 = vn + an+ 1 h
2
Método de Runge
1
xn+1 = xn + [k1 + 2 k2 + 2 k3 + k4] h, (1.30)
6
onde
k1 = f (tn ; xn )
1 1
k2 = f (tn + h; xn + k1 h)
2 2
1 1
k3 = f (tn + h; xn + k2 h)
2 2
k4 = f (tn + h; xn + k3 h)
Método de Kutta
1
xn+1 = xn + [k1 + 3 k2 + 3 k3 + k4 ] h, (1.31)
8
1.4. MÉTODO DE RUNGE-KUTTA 25
onde
k1 = f (tn ; xn )
1 1
k2 = f (tn + h; yn + k1 h)
3 3
2 1
k3 = f (tn + h; yn − k1 h + k2 h)
3 3
k4 = f (tn + h; yn + k1 h − k2 h + k3 h)
1 xn = xn
1 vn = vn
1 an = a(tn ; 1 xn ; 1 vn ).
No primeiro passo intermediário temos:
h
2 tn = tn+ 1 = tn +
2 2
h h
2 xn = xn+ 1 =1 xn + 1 vn = xn + vn
2 2 2
h h
2 vn = vn+ 1 =1 vn + 1 an = vn + an
2 2 2
2 an = an+ 1 = a(tn ; 1 xn ; 1 vn ) = a(tn+ 1 ; xn+ 1 ; vn+ 1 ).
2 2 2 2
3 tn =2 tn = tn+ 1
2
h h
3 xn = xn + 2 vn = xn + vn+ 1
2 2 2
h h
3 vn = vn + 2 an = vn + an+ 1
2 2 2
3 an = a(2 tn ; 2 xn ; 2 vn ) = a(tn+ 1 ; xn+ 1 ; vn+ 1 ).
2 2 2
4 tn = tn + h
4 xn = xn + 3 vn h
4 vn = vn + 3 an h
4 an = a(tn+1 ; 4 xn ; 4 vn ).
26 CAPÍTULO 1. EQUAÇÕES DIFERENCIAIS ORDINÁRIAS
tn+1 = tn + h
1
xn+1 = xn + [1 vn + 2 2 vn + 2 3 vn +4 vn ] h
6
1
vn+1 = vn + [1 an + 2 2 an + 2 3 an +4 an ] h.
6
com erro de truncamento τi+1 = O(hm ). Este mesmo problema pode ser
resolvido utilizando-se um outro método de Runge-Kutta com erro de trun-
˜ i+1 = O(hp ), com p > m, através de:
camento tau
w̃0 =α
(1.33)
w̃i+1 = w̃i + hφ̃(ti . w̃i , h), i = 0, 1, ..., N − 1,
Assumimos que o valor atual da função é tal que wi ∼ x(ti ) ∼ w̃i . Assim, o
erro de truncamento para o primeiro sistema pode ser calculado como:
x(ti+1 ) − x(ti )
τi = − φ(ti , y(ti ), h)
h
x(ti+1 ) − wi
− φ(ti , wi , h)
h
x(ti+1 ) − [wi + h φ(ti , wi , h)
h
1
[x(ti+1 ) − wi+1 ].
h
E, de maneira similar:
1
τ̃i = [x(ti+1 ) − w̃i+1 ].
h
Consequentemente:
1
τi+1 = [x(ti+1 ) − wi+1 ]
h
1
[x(ti+1 ) − w̃i+1 + w̃i+1 − wi+1 ]
h
1
τ̃i+1 + [w̃i+1 − wi+1 ].
h
1.4. MÉTODO DE RUNGE-KUTTA 27
Como τi+1 é O(hm ) e τ̃i+1 é O(hp ) com p > m, o termo significativo de τi+1
deve vir da parcela [w̃i+1 − wi+1 ]/h. Assim, temos, aproximadamente:
1
τi+1 ∼ [w̃i+1 − wi+1 ].
h
Para o ajuste do valor do passo h, podemos assumir que existe um valor K,
independente de h, para o qual é valida a seguinte aproximação:
τi+1 ∼ K hm .
1
τi+1 ∼ K(qh)m = q m Khm ∼ q m [w̃i+1 − wi+1 ].
h
Se escolhermos arbitrariamente um valor máximo para o erro de truncamente
ε, teremos:
qm
| [w̃i+1 − wi+1 ]| ≤ ε,
h
e, portanto:
1/m
εh
q≤ .
|w̃i+1 − wi+1 |
k1 = λw0
λ2 h
h
k2 = λ w0 + (λw0 ) = w0 (λ + )
2 2
λ2 h2
w1 = w0 + h k2 = w0 1 + λh +
2
k1 = λw0
λ2 h
h
k2 = λ w0 + (λw0 ) = w0 (λ + )
2 2
λ2 h λh λ2 h2
h
k3 = λ w0 + w0 (λ + ) = w0 λ + +
2 2 2 4
2 2
λh λ h
k4 = λ w0 + hw0 λ + + .
2 4
k1 = h f (xn ; tn ) (1.36)
k2 = h f (xn + b21 k1 ; tn + a2 h) (1.37)
k3 = h f (xn + b31 k1 + b32 k2 ; tn + a3 h) (1.38)
... (1.39)
k6 = h f (xn + b61 k1 + b62 k2 + ... + b65 k5 ; tn + a6 h) (1.40)
xn+1 = xn + c1 k1 + c2 k2 + c3 k3 + c4 k4 + c5 k5 + c6 k6 , (1.41)
i ai bij ci c?i
37 2825
1 378 27648
1 1
2 5 5 0 0
3 3 9 250 18575
3 10 40 40 621 48384
3 3 9 6 125 13525
4 5 10 − 10 5 594 55296
5 1 − 11
54
5
2
70
− 27 35
27 0 277
14336
7 1631 175 575 44275 253 512 1
6 8 55296 512 13824 110592 4096 1771 4
j= 1 2 3 4 5
• caso o valor de εc seja maior do que ε, a equação acima nos diz quanto
temos que reduzir o valor de h ao repetir o passo atual. Isto implica
em descartar o passo atual!
Nos métodos de resolução numérica vistos até agora, quase sempre pre-
cisávamos somente do valor da função x em uma única posição anterior
xi (ti ). Entretanto, podemos utilizar métodos que lançam mão dos valores
de função encontrados em outros passos também. Desde as possı́veis aborda-
gens, aquela mais utilizada consiste no chamado método multi-passo linear.
Em geral, métodos multi-passos podem obter resultados melhores, para os
mesmos números de passos, do que métodos que utilizam somente um único
passo, uma vez que a informação da função em posição dos passos anteriores
32 CAPÍTULO 1. EQUAÇÕES DIFERENCIAIS ORDINÁRIAS
Assim, temos:
3 1
xn+1 = xn + h fn − fn−1 ,
2 2
h
m=3 xn+1 =xn + [23fn − 16fn−1 + 5fn−2 ]
12
h
m=4 xn+1 =xn + [55fn − 59fn−1 + 37fn−2 − 9fn−3 ]
24
h
m=5 xn+1 =xn + [1901fn − 2774fn−1 + 2616fn−2 +
720
−1274fn−3 + 251fn−4 ]
h
m=6 xn+1 =xn + [4277fn − 7923fn−1 +
1440
+9982fn−2 − 7298fn−3 + 2877fn−4 − 475fn−5 ]
faz com que todos os valores de fn anteriores tenham que ser recalculados
por outro método, por exemplo RK4.
∆ttotal
Errglobal ∝ n O(hm ) = O(hm ) ∝ O(hm−1 ).
h
Assim sendo, espera-se que o erro global varie com hm+1 quando o erro
local variar com hm .
36 CAPÍTULO 1. EQUAÇÕES DIFERENCIAIS ORDINÁRIAS
37
38 REFERÊNCIAS BIBLIOGRÁFICAS
CAPÍTULO 2
Mapas
39
40 CAPÍTULO 2. MAPAS
ser utilizado para os estudos populacionais tem que estar restrito à região
[0,1].
A equação (2.1) têm as caracterı́sticas mencinadas nos items acima, uma
vez que o crescimento populacional é proporcional ao tamanho atual da
população (xn+1 ∝ xn ), ao mesmo tempo em que há um decrécimo da
população para valores populacionais altos (xn+1 ∝ (1 − xn )).
O comportamento geral da equação (2.1) pode ser visto na figura (2.1).
0.4
λ = 0.4
0.35
0.3
0.25
xn+1
0.2
0.15
0.1
0.05
0
0 0.2 0.4 0.6 0.8 1
xn
f (x) = 0 = 4λxn (1 − xn ) → λ = 0,
f (x) = 1 = 4λxn (1 − xn ) → λ = 1.
0.6
0.5
xn
0.4
0.3
0.2
0.1
0
0 2 4 6 8 10
tempo
Para os casos em que λ é maior do que 0,25 mas menor do que 0,75,
a solução assimptótica de xn+1 varia sucessivamente para valores cada vez
maiores de x. Isto pode ser visto na figura (2.3), onde temos a representação
dos valores de xn+1 para alguns valores de x0 e λ, dentro do limite descrito
acima.
0.6
0.55
0.5
0.45
0.4
x0 = 0.1; λ = 0.3
x0 = 0.25; λ = 0.3
x0 = 0.5; λ = 0.3
xn
0.25
0.2
0.15
0.1
0 2 4 6 8 10
tempo
(1 − 2x)
< −1,
(1 − x)
2.4. λ > 0,75 E O LIMITE CÍCLICO 43
Em resumo, com λ entre 0,25 e 0,75, teremos que xn+1 tende assimptóticamente
a valores cada vez maiores de x, entre 0 e 2/3. Estes valores de x são pontos-
fixos estáveis. Os valores dos pontos fixos podem ser facilmente encontra-
dos de forma gráfica, pois eles se encontram na intersecção entre as curvas
xn+1 = xn 4λ(1 − xn ) e xn+1 = xn (já que quando xn+1 = x os próximos
valores de x serão sempre iguais). Por exemplo, a figura (2.3) mostra os
gráficos correspondentes para λ = 0, 6. Podemos ver graficamente que o va-
lor assimptótico está ao redor de 0,58. O valor numérico pode ser facilmente
encontrado por:
Para valores de λ maiores do que 0,75, vemos que não ocorre um ponto-
fixo estável, conforme mostrado na seção anterior. Entretanto, podemos
procurar por pontos fixos de ordem maior, em outras palavras, podemos
procurar por valores de x que se repetem de forma cı́clica mas não con-
secutiva. Por exemplo, pontos-fixos de segunda ordem são pontos em que
xn+2 = xn . O valor de xn+2 ≡ f (f (x)) é dado por:
Pode-se mostrar que a única solução do sistema acima que tem relevância
para √
o caso especı́fico do estudo do mapa logı́stico mostra que 0, 75 < λ <
(1 + 6)/4 = 0, 86237.
A figura (2.4) mostra o plot de xn+1 para x0 = 0, 25 e λ = 0, 8, mostrando
a repetição cı́clica dos valores assimptóticos de xn para grandes valores de
t.
A figura (2.5) ilustra a obtenção gráfica dos dois valores assimptóticos de
x para o caso em que λ = 0, 8. Note que há um terceiro ponto-fixo (entre os
44 CAPÍTULO 2. MAPAS
0.9
0.8
0.7
0.6
xn
0.5
0.4
0.3
x0 = 0.25; λ = 0.8
x0 = 0.25; λ = 0.88
0.2
0 2 4 6 8 10
tempo
0.8
0.6
yn+1
0.4
0.2
f(xn) = 4 λ xn (1 - xn)
x
f(f(xn))
0
0 0.2 0.4 0.6 0.8 1
xn
λk − λk−1
δF = lim = 4, 6692... (2.6)
k→∞ λk+1 − λk
0.9
0.8
0.7
0.6
xn+1
0.5
0.4
0.3
0.2
0.1
0
0.7 0.75 0.8 0.85 0.9 0.95 1
λ
x0 0
x0 x1
x1 x1
x1 x2
x2 x2
x2 x3
...,
0.6
f(x) = 4 λ x (1 - x)
y=x
teia de aranha
0.5
0.4
xn+1
0.3
0.2
0.1
0
0 0.1 0.2 0.3 0.4 0.5 0.6
xn
1000
(f(xn) - f(xm)) < 10-5
900
800
700
600
m
500
400
300
200
100
0
0 100 200 300 400 500 600 700 800 900 1000
n
grandes de n, temos:
δn
= e λL n ,
δ0
onde λL é o chamado expoente de Lyapunov, definido como:
n
1 X 0
λL ≡ lim ln f (xi ) . (2.7)
n→∞ n
i=1
0.5
0
coeficiente de Lyupanov λL
-0.5
-1
-1.5
-2
-2.5
-3
0.7 0.75 0.8 0.85 0.9 0.95 1
λ
51
52 REFERÊNCIAS BIBLIOGRÁFICAS
CAPÍTULO 3
53
54CAPÍTULO 3. NÚMEROS ALEATÓRIOS E MÉTODO DE MONTE CARLO
entre os valores limites da série xmin e xmax ; como exemplo tı́pico podemos
considerar números aleatórios reais gerados entre 0 e 1.
A propriedade de independência ocorre quando a sequência de números
é completamente aleatória, ou seja, um dado valor xi pode ser escolhido
com igual probabilidade dentro do intervalo xmin e xmax independente dos
valores anteriores da série xi−1 , xi−2 , ...
Por este motivo, costuma-se dizer que os números aleatórios gerados a par-
tir de um gerador congruente são, na verdade, pseudo-aleatórios. Alguém
que saiba o algoritmo utilizado na geração dos números aleatórios poderá,
conhecendo também a série de números gerados anteriormente, conhecer
também os próximos valores da série. Entretanto, esta é uma caracterı́stica
benéfica em determinados contextos, por exemplo na simulação computaci-
onal que utiliza números aleatórios na atribuição de variáveis especı́ficas e
onde deseja-se repetir a simulação e verificar o resultado de pequenas modi-
ficações quando a mesma série de números é utilizada nas duas versões. Caso
as duas séries utilizadas fossem diferentes seria praticamente impossı́vel de
se verificar se os resultados observados na simulação são causados pelas mu-
danças feitas no algoritmo ou pelo fato de se utilizar outra série de números
aleatórios.
Uma caracterı́stica facilmente verificável é que, uma vez que o i-ésimo
número da sequência depende exclusivamente do números gerados anterior-
mente - e muitas vezes depende somente do (i − 1)-ésimo número gerado
-, teremos a partir de determinado ponto a repetição de, pelo menos, parte
da série gerada. Dito de outra maneira, embora possamos gerar uma série
infinita de números aleatórios segundo a equação (3.2), a série terá repetição
cı́clica de comprimento C. A distância L = i − 0, entre os números xi e x0 ,
3.1. SEQUÊNCIAS DE NÚMEROS ALEATÓRIOS 55
cauda L=3
z }| {
{X} = 3, 5, 2, 1, 9, 8, 7, 1, 9, 8, 7, 1, ...
| {z }
região cíclica C=4
1. o gerador deve ser simples o suficiente para que seu algoritmo possa
ser facilmente implementado e não tome muito tempo computacional
para que possa ser executado, uma vez que, dependendo da aplicação,
milhões ou mais números aleatórios deverão ser gerados;
• o módulo de m deve ser grande, uma vez que quanto maior m, maior
será o possı́vel perı́odo do gerador;
usando para isto o fato de que m pode ser fatorado da seguinte maneira:
m = a q + r,
3.2. HISTOGRAMAS E A DENSIDADE DE PROBABILIDADE 57
3.2.1 Histogramas
Neste caso, diz-se que < X k > representa o k-ésimo momento da distri-
buição para os valores de X.
f (x) ≥ 0, para x0 ≤ x ≤ xf ,
3.2. HISTOGRAMAS E A DENSIDADE DE PROBABILIDADE 59
g(x)
f dp(x) = , (3.11)
N
onde a normalização N é dada por:
Z xf
N = f (x0 )dx0 . (3.12)
x0
Das definições (3.11) e (3.12), fica claro que a função f dp(x) obedece à
definição (3.9), sendo consequentemente uma função densidade de probabi-
lidade também.
Adicionalmente, definimos a função densidade cumulativa (FDC) f dc(x)
como sendo: Z x
f dc(x) ≡ f dp(x0 ) dx0 . (3.13)
x0
Fica claro pela definição acima que para x0 ≤ x ≤ xf temos que 0 ≤ f dc(x) ≤ 1.
Exemplo
Imaginemos que exista em uma sala um número grande de pessoas. A
tabela (3.1) apresenta o número de pessoas que possuem determinada idade:
Podemos calcular a idade média (< idade >) das pessoas através da sala
através das seguintes relações:
7
15 + 15 + 16 + ... + 21 1 X
< idade >= = ni × (idade)i , (3.14)
30 N
i=1
sendo f dc(x) um número real no intervalo [0; 1]. Isto nos habilita, a princı́pio,
a realizarmos a operação inversa, ou seja, a partir de um número real
R = f dc(x) no intervalo [0; 1] podemos determinar através da inversão da
equação (3.19) o valor correspondente de x. O lado prático desta inversão
é que os valores de x obtidos desta forma seguem a mesma distribuição de
f (x).
1 1 02 x
Z x
1 0 0 1
f dc(x) = R = 2x dx = 2x = x2 ,
50 0 50 2 0 50
que resulta em: √
x= 50R 0 ≤ R ≤ 0, 5.
A segunda parte pode ser escrita como:
Z 5 Z x
1 0 0 0 0
f dc(x) = R = 2x dx + 10 − 2(x − 5) dx ,
50 0 5
que é igual a:
1 x
25 + 20x0 − x02 5
f dc(x) = R =
50
que resulta em:
20
A
B
C
D
15 E
10
5
xn
-5
-10
-15
0 10 20 30 40 50 60 70 80 90 100
tempo
onde:
X1 (t) + X2 (t) + ... + XN (t)
E[X(t)] = ,
N
e onde Xi (t) é o caminho total percorrido por um caminhante aleatório no
instante t. Além disso, o teorema também diz que os valores de Xi formarão
uma distribuição normal (Gaussiana) ao redor de N µ, com variância dada
por ∼ N σ 2 .
Atividades Sugeridas
71
72 REFERÊNCIAS BIBLIOGRÁFICAS
APÊNDICE A
Desigualdades
Vejamos um exemplo:
3x < 3 + 7 (3 + 7 = 10)
3x < 10 (÷3)
x < 10/3
73
74 APÊNDICE A. DESIGUALDADES
1. |x − 20| > 5:
2. |x − 3| ≤ 4:
• caso 1: x − 3 ≤ 4 → x ≤ 7;
• caso 2: x − 3 ≥ −4 → x ≥ −1;
• resposta: x ≤ 7 e x ≥ −1 que é −1 ≤ x ≤ 7.
3. |3 + x| − 4 < 0: