Aula Analise Numerica
Aula Analise Numerica
17 de março de 2023
1
BURDEN, R. L., FAIRES, J. D. Análise Numérica. 3o ed. São Paulo: Cengage
Leaning, 2015.
1 / 242
Sumário
3 Integração
8 Avaliações
2 / 242
Taylor
3 / 242
Anotações
4 / 242
Taylor
5 / 242
Anotações
6 / 242
Taylor
Teorema de Taylor
Suponha que f (x) tenha n + 1 derivadas em um intervalo aberto I e que
a ∈ I . Para cada x ∈ I , existe pelo menos um número c entre a e x tal que:
1
Rn (x) = f (n+1) (c) (x − a)n+1
(n + 1)!
7 / 242
Anotações
8 / 242
Taylor
Pode-se aproximar ln (x), por exemplo, como:
1 1
ln (x) ' 0 + (x − 1) − (x − 1)2 + (x − 1)3 ≡ P3 (x) .
2 3
Em particular pode-se escrever:
1 (4) 1
R3 (x) = f (c) (x − 1)4 = − 4 (x − 1)4
4! 4c
ou ainda (com c entre x e a)
1
R3 (x) = ln (x) − P3 (x) ⇒ ln (x) = P3 (x) − (x − 1)4 .
4c 4
Por exemplo, se x = 1.1, em módulo tem-se:
9 / 242
Anotações
10 / 242
Erros: absoluto e relativo
|p − p ∗ |
E .A. = |p − p ∗ | E .R. = .
|p ∗ |
11 / 242
Anotações
12 / 242
Erros: absoluto e relativo
Exemplo: Comparação entre erros
(I) Considere que p1 é representado por p1∗ = 3.1 de modo que
E .A. < 0.1, então:
E .A. = |p1 − 3.1| < 0.1 ⇒
13 / 242
Anotações
14 / 242
Processos iterativos
{Pk }m
k=0 = {P0 , P1 , P2 , . . . , Pm } , P∈k
||Pn − Pn−1 | |
E .R.n = <ε
||Pn | |
15 / 242
Anotações
16 / 242
Ordem de convergência
Denotando os erros relativos (gerados em uma malha de espaçamento
h) por E h , então estes podem ser estimados via expressão E h ' Chθ .
A constante C é dependente dos dados do problema e θ é uma
estimativa para ordem de convergência.
Se E h/2 ' C (h/2)θ segue que:
Eh Chθ 1
h
E
' = 2θ ⇒ θ' log .
E h/2 C (h/2)θ log 2 E h/2
17 / 242
Anotações
18 / 242
Lista de Exercícios - 1
1 Sejam f (x) = cos (x) e x0 = 0. Determine
(a) o segundo polinômio de Taylor de f em x0 ; e
(b) o terceiro polinômio de Taylor de f em x0 .
20 / 242
Lista de Exercícios - 1
22 / 242
Respostas da Lista de Exercícios - 1
1 1
1 (a) 1 − x 2 + x 3 sin (c)
2 6
1 1
(b) cos (x) = 1 − x 2 − x 4 cos (c).
2 24
1 1 1 √
2 P3 (x) = 1 + x − x 2 + x 3 ; x + 1 = P3 (x) + R3 (x)
√ 2 8 16
0.5 ' P3 (−1/2)
√
erro ' 0.5 − P3 (−1/2)
23 / 242
Anotações
24 / 242
Respostas da Lista de Exercícios - 1
7π π
4 Como 42o = radianos, use x0 = . Então
30 4
π 7π n+1
7π 0.053n+1
4 − 30
Rn ≤ <
30 (n + 1)! (n + 1)!
7π
para que Rn < 10−6 , é suficiente tomar n = 3. Até 7
30
7π 7π
algarismos, cos = 0.7431448 e P3 = 0.7431446.
30 30
EA ER EA ER
−4 −6
a 0.001264 4.025 × 10 7.346 × 10 2.338 × 10−6
b 2.818 × 10−4 1.037 × 10−4 2.136 × 10−4 1.510 × 10−4
25 / 242
Anotações
26 / 242
Sumário
27 / 242
Anotações
28 / 242
Interpolação Spline Sp
Considere a tabela de um conjunto de dados do tipo:
x x1 x2 . . . xn+1
f (x) y1 y2 . . . yn+1
Tabela 1: Tabela do conjunto de dados.
c) Sp (xi ) = yi ; i = 1, 2, . . . , n + 1.
29 / 242
Anotações
30 / 242
Interpolação Spline Linear
A Spline linear interpolante 2 , S1i (x), da Tabela 1, que verifica a
definição Spline do slide anterior, é:
xi+1 − x x − xi
i
S1 (x) = yi + yi+1 (4)
xi+1 − xi xi+1 − xi
32 / 242
Interpolação Spline Linear
Exemplo: Da tabela a seguir segue que:
x 5 10 17 21 25
f (x) 0 5 9 7 0
Como neste exemplo n = 4 então pela expressão (4) temos:
10 − x x −5
S11 (x) = 0 +5 =x −5 ; x ∈ [5, 10]
5 5
4 5
S12 (x) = x− ; x ∈ [10, 17]
7 7
1 35
S13 (x) = − x + ; x ∈ [17, 21]
2 2
7 175
S14 (x) = − x + ; x ∈ [21, 25]
4 4
33 / 242
Anotações
34 / 242
Interpolação Spline Linear
ou ainda
∈ [5, 10]
1
S (x) ; x
12
∈ [10, 17]
S1 (x) ; x
SLI (x) =
S 3
(x) ; x ∈ [17, 21]
14
S1 (x) ; x ∈ [21, 25]
cujo gráfico é tipo
35 / 242
Anotações
36 / 242
Interpolação Spline Linear
A2: Exemplo:
x 5 10 17 21 25
f (x) 0 5 9 7 0
Da tabela acima construa a spline linear interpolante parametrizada:
i
x1 (t)
SLI (t) = t ∈ [ti , ti+1 ]
i
y1 (t)
Dica: Conside a tabela
t 1 2 3 4 5
x 5 10 17 21 25
para o cálculo de x1i (t). Para y1i (t) considere
t 1 2 3 4 5
f (x) 0 5 9 7 0
37 / 242
Anotações
38 / 242
Interpolação Spline Linear
A3: Exemplo: Obtenha a spline linear do seguinte gráfico, com início em
A e fim em B.
39 / 242
Anotações
40 / 242
Interpolação Spline Cúbico
x x1 x2 ... xn+1
f (x) y1 y2 ... yn+1
Tabela 2: Tabela do conjunto de dados com monotonicidade estrita.
42 / 242
Interpolação Spline Cúbico
Os polinômios Pk (x) a serem obtidos são da forma:
Pk (x) = Ak (x − xk )3 + Bk (x − xk )2 + Ck (x − xk ) + Dk (5)
para k = 2, . . . , n + 1.
44 / 242
Interpolação Spline Cúbico
Uma vez que
então
−2Bk + Pk00 (xk−1 ) −Pk00 (xk ) + Pk00 (xk−1 )
Ak = =
6 (xk−1 − xk ) 6 (xk−1 − xk )
45 / 242
Anotações
46 / 242
Interpolação Spline Cúbico
Da condição (III)
Pk (xk ) = Pk+1 (xk ) = f (xk )
adicionalmente
Pk+1 (xk ) = Ak+1 (xk −xk+1 )3+Bk+1 (xk −xk+1 )2+Ck+1 (xk −xk+1 )+Dk+1
o que conduz a
3
− Ak+1 hk+1 2
+ Bk+1 hk+1 − Ck+1 hk+1 + Dk+1 = f (xk ) (9)
com hk+1 = (xk+1 − xk ) (−1).
48 / 242
Interpolação Spline Cúbico
1
−Ak hk3 + Bk hk2 + Dk − f (xk−1 )
Ck =
hk
⇒
f (xk ) − f (xk−1 ) 2Pk00 (xk ) hk + Pk−1
00 (xk−1 ) hk
Ck = + (10)
hk 6
49 / 242
Anotações
50 / 242
Interpolação Spline Cúbico
Por outro lado, da igualdade (5) segue que
1
{2hk+1 gk+1 + hk+1 gk − 2hk gk − gk−1 hk + 3gk+1 hk+1
6
yk − yk−1 yk+1 − yk
−3gk hk+1 − 6gk+1 hk+1 } = − (15)
hk hk+1
51 / 242
Anotações
52 / 242
Interpolação Spline Cúbico
ou finalmente
yk − yk−1 yk+1 − yk
hk gk−1 + 2 (hk +hk+1 ) gk +hk+1 gk+1 = −6 − (16)
hk hk+1
para k = 2, . . . , n.
A igualdade (16) é um sistema linear com (n − 1) equações e (n + 1)
incógnitas, logo indeterminado.
Para que o sistema seja de solução única uma das seguintes
alternativas podem ser utilizadas:
1 g1 = gn+1 = 0 (condição Spline Natural);
53 / 242
Anotações
54 / 242
Interpolação Spline Cúbico
2 (h2 + h3 ) h3
g2 M2 − M1
h3 ... ...
...
... ... ... ... ... =
...
... hn ...
...
hn 2 (hn + hn+1 ) gn Mn − Mn−1
yk+1 − yk
onde Mk = 6 .
hk+1
55 / 242
Anotações
56 / 242
Interpolação Spline Cúbico
Pk (x) = Ak (x − xk )3 + Bk (x − xk )2 + Ck (x − xk ) + Dk ;
para k = 2, 3, 4, 5
h2 = h3 = h4 = h5 = 5
Por Spline Natural, segundo a relação (16), temos
20 5 0
g2 −22.8
5 20 5 12
g3 =
0 5 20 g4 −12
57 / 242
Anotações
58 / 242
Interpolação Spline Cúbico
g2 = −1.43571428
g3 = 1.18285714 g1 = g5 = 0
g4 = −0.89571428
Os coeficientes de Pk (x) ficam determinados então por:
D2 = 20 D3 = 16 D4 = 22 D5 = 18
59 / 242
Anotações
60 / 242
Interpolação Spline Cúbico
61 / 242
Anotações
62 / 242
Interpolação Spline Cúbico
A4: Exemplo:
x 5 10 15 20 25
f (x) 5 20 16 22 18
Da tabela acima construa a spline cúbica interpolante parametrizada:
i
x1 (t)
SCI (t) = t ∈ [ti , ti+1 ]
i
y1 (t)
e esboce o gráfico
Dica: Conside a tabela t 1 2 3 4 5
x 5 10 15 20 25
para o cálculo de x1i (t). Para y1i (t) considere
t 1 2 3 4 5
f (x) 5 20 16 22 18
63 / 242
Anotações
64 / 242
Lista de Exercícios - 2
Encontre b, c e d.
65 / 242
Anotações
66 / 242
Respostas da Lista de Exercícios - 2
1 b = −1, c = −3 e d = 1
67 / 242
Anotações
68 / 242
Sumário
69 / 242
Anotações
70 / 242
Regras: dos Trapézios e de Simpson
Regra dos Trapézios Composta
b−a
Sejam f ∈ C 2 [a, b], h = e xj = a + jh com j = 0, . . . , n. Existe um
n
µ ∈ (a, b) para o qual a Regra dos Trapézios Composta, para n subintervalos
pode ser escrita como:
Z b n−1
h X b − a 2 00
f (x) dx = f (a) + 2 f (xj ) + f (b) − h f (µ) .
a 2 12
j=1
71 / 242
Anotações
72 / 242
Regras: dos Trapézios e de Simpson
1 2
Z
Exemplo: Cálculo da dx pelas regras do Trapézio e Simpson com
0 x +1
o menor número de elementos possíveis.
2−0
RT: n = 1, h = , j = 0, 1
1
2
1 2 1 4
Z
dx ' 1+ '
0 x +1 2 3 3
2−0
RS: n = 2, h = , j = 0, 1, 2
2
2
1 1 1 1 10
Z
dx ' 1+4 + '
0 x +1 3 2 3 9
73 / 242
Anotações
74 / 242
Regras: dos Trapézios e de Simpson
|Ef |RT
2 2 16 1
|Ef |RT = − 22 =
12 (µ + 1)3 12 (µ + 1)3
16 máx 1 16
≤ = ' 1.333...
12 µ ∈ [0, 2] (µ + 1)3 12
|Ef |RS
2 4 24 48 1
|Ef |RS = − 1 =
180 (µ + 1)5 180 (µ + 1)5
48 máx 1 48
≤ = ' 0.266...
180 µ ∈ [0, 2] (µ + 1)5 180
OBS: Note que o |Ef |RS é significativamente menor do que o |Ef |RT .
75 / 242
Anotações
76 / 242
Regras: dos Trapézios e de Simpson
Z π
Exemplo: Qual o menor número n de elementos, no cálculo de sen (x) dx,
0
com erro absoluto menor que 0.00002, via regras do Trapézio e Simpson?
De
π−0 π
h= ⇒ h= e xj = 0 + jh = jh com j = 0, 1, 2, . . . , n
n n
então π 2 πh2
|Ef |RT = − h {−sen (µ)} = |{−sen (µ)}|
12 12
estimado
π(π/n)2 máx π3 z}|{
≤ {sen (µ)} = 1 ⇒
12 µ ∈ [0, π] 12n2
s
π3 −5 π3
< 2 × 10 ⇔ n > ' 359.43 ⇒ n = 360
12n2 24 × 10−5
78 / 242
Quadratura Gaussiana
Considere a integral
Z 1 p
X
f (t) dt = wi f(ti ) + Ep p≥1 (17)
−1 i=1
2n 1
+ n
ρn+1 (t) = tρn (t) − ρn−1 (t) n≥1
n+1 n+1
(18)
ρ0 (t) = 1 ; ρ1 (t) = t.
79 / 242
Anotações
80 / 242
Quadratura Gaussiana
Teorema para o cálculo dos pesos
Os pontos de integração ti são os zeros dos Polinômios de Legendre de grau
p e os wi são:
1 2
wi = 2 · ; i = 1, 2, . . . , p. (19)
1 − ti2
ρ0p (ti )
22p+1 (p!)4
Ep = · f (2p) (ξ) ; ξ ∈ [−1, 1] . (20)
(2p + 1) [(2p)!]3
Observe que a avaliação de (17) se dá pelos cálculos dos pesos
mediante (19) cujos pontos de integração são obtidos via (18). O erro
da Quadratura Gaussiana pode ser estimado por (20).
81 / 242
Anotações
82 / 242
Quadratura Gaussiana
Regras de Gauss
Z 1
1o Ordem (p = 1) f (t) dt = w1 f(t1 ) + E1
−1
ρ1 (t) = t ⇒ t1 = 0 ; w1 = 2
1
1
Z
∴ f (t) dt = 2f(0) + f (2)(ξ)
−1 3
Z 1
2o Ordem (p = 2) f (t) dt = w1 f(t1 ) + w2 f(t2 ) + E2
−1
3 1 1 1
ρ2 (t) = t 2 − ⇒ t1 = − √ ; t2 = √ ; w1 = w2 = 1
2 2 3 3
1 1 1 (4)
Z 1
∴ f (t) dt = f − √ +f √ + f (ξ)
−1 3 3 135
para ξ ∈ [−1, 1].
A2: Deduza a regra de Gauss de ordem 3.
83 / 242
Anotações
84 / 242
Quadratura Gaussiana
No caso de um intervalo genérico [a, b] onde se deseja realizar a
integração, é necessário fazer uma mudança de variável do tipo:
1 b−a
x= [a + b + t (b − a)] e dx = dt
2 2
Z 10
Exemplo: e −x dx
0
De x = 5 + 5t e dx = 5dt temos:
Z 10 Z 1
−x −5
e dx = 5e e −5t dt ' 0.606102
0 −1
(integração de 2o ordem)
85 / 242
Anotações
86 / 242
Lista de Exercícios - 3
87 / 242
Anotações
88 / 242
Respostas da Lista de Exercícios - 3
a. 0.639900 c. 22.47713
b. 0.970926 d. 0.6043941
a. 0.1922594 b. −0.1768200
89 / 242
Anotações
90 / 242
Quadratura Adaptativa
A Quadratura Adaptativa é uma técnica que procura prever a variação
funcional e adaptar o tamanho do espaçamento quando for necessário,
como sugere o gráfico abaixo.
92 / 242
Quadratura Adaptativa para a Regra de Simpson
Admita por hipótese que queiramos calcular no intervalo I = [a, b]
Z b
f (x) dx
a
via a Regra de Simpson (R.S.) com quadratura adaptativa.
b−a
Assumindo que n = 2 e h = , ver discretização na figura acima,
2
pela R.S. (pág. 71) temos: b−a=2h
z}|{
Z b
h h5
f (x) dx = [f (a) + 4f (a + h) + f (b)] − f (4) (µ)
a 3
| {z }| 90 {z }
integral aproximada termo do erro
= I2 + E2 ; µ ∈ (a, b) (21)
93 / 242
Anotações
94 / 242
Quadratura Adaptativa para a Regra de Simpson
h b−a
Agora, tomando n = 4 e = encontramos pela R.S.:
2 4
Z b
h
f (x) dx = [f (a) + 2f (a + h) + 4 (f (a + h/2) + f (a + 3h/2))
a 6
1 h5
+ f (b)] − f (4) (e e ∈ (a, b)
µ ) = I 4 + E4 ; µ
16 90
que nos permite escrever:
h
I4− = [f (a) + f (a + h) + 4f (a + h/2)]
6
h
I4+ = [f (a + h) + 4f (a + 3h/2) + f (b)]
6
95 / 242
Anotações
96 / 242
Quadratura Adaptativa para a Regra de Simpson
então a integral fica:
b
1 h5
Z
f (x) dx = I4− + I4+ − f (4) (e
µ) (22)
a 16 90
µ'µ
e ⇒ f (4) (µ) ' f (4) (e
µ)
ou ainda
h5 (4) 16
I2 − I4− − I4+ . (23)
f (eµ) '
90 15
97 / 242
Anotações
98 / 242
Quadratura Adaptativa para a Regra de Simpson
De (22) segue que:
1 h5
Z b
f (x) dx − I4− − I4+ = − f (4) (e
µ)
a 16 90
mas considerando (23) deduz-se
1
Z b
f (x) dx − I4− − I4+ ' I2 − I4− − I4+ .
a 15
Impondo que:
1
eε = I2 − I4− − I4+ < ε (24)
15
para algum ε fixado a-priori, espera-se (por conta da hipótese ousada)
Z b
f (x) dx − I4− − I4+ < ε (25)
a Z b
e então, I4− + I4+ é aceito como uma aproximação de f (x) dx.
a
99 / 242
Anotações
100 / 242
Quadratura Adaptativa para a Regra de Simpson
Por outro lado, se (24) não é verificado é provável que o resultado
(25) não seja válido também. Diante disso, dividimos o intervalo I na
forma I = IA ∪ IB , e aplicamos a R.S. tal que:
a+b a+b
IA = a, e IB = ,b .
2 2
ε
Em IA estimamos uma versão parecida com (24) para e não ε.
2
ε
Esperamos que a versão parecida com (25) seja válida em .
2
Analogamente estimamos em IB .
Se as estimativas valerem para IA e IB então a soma das integrais
nestes intervalos provavelmente satisfaz a expressão (25), ou seja:
Z b
ε ε
f (x) dx − I4−A − I4+A − I4−B − I4+B < + = ε (26)
a 2 2
Z b
e então é aceito como aproximação de f (x) dx o valor
a
I4−A + I4+A + I4−B + I4+B .
101 / 242
Anotações
102 / 242
Quadratura Adaptativa para a Regra de Simpson
103 / 242
Anotações
104 / 242
Quadratura Adaptativa para a Regra de Simpson
Z π/2
Exemplo: sen (x) dx cujo critério é ε = 1 × 10−5
0
1o Iteração:
π/4
I2 = [sen (0) + 4sen (π/4) + sen (π/2)]
3
π/4
I4− = [sen (0) + sen (π/4) + 4sen (π/8)]
6
π/4
I4+ = [sen (π/4) + 4sen (3π/8) + sen (π/2)]
6
1
eε = I2 − I4− − I4+ = 1.43 × 10−4 < 1 × 10−5 (F) “Itera!”
15
105 / 242
Anotações
106 / 242
Quadratura Adaptativa para a Regra de Simpson
2o Iteração:
IA
π/8
I2 = [sen (0) + 4sen (π/8) + sen (π/4)]
3
π/8
I4− = [sen (0) + sen (π/8) + 4sen (π/16)]
6
π/8
I4+ = [sen (π/8) + 4sen (3π/16) + sen (π/4)]
6
1
e 2ε = I2 − I4− − I4+ = 2.4 × 10−6 < ε/2 (V)
15
107 / 242
Anotações
108 / 242
Quadratura Adaptativa para a Regra de Simpson
Z π/4
∴ sen (x) dx ' 0.29289564
0
IB
..
.
..
.
..
.
e 2ε = 5.9 × 10−6 < ε/2 (F) “Itera em IB !”
109 / 242
Anotações
110 / 242
Quadratura Adaptativa para a Regra de Simpson
3o Iteração:
A4:
IBA IBB
111 / 242
Anotações
112 / 242
Lista de Exercícios - 4
1 1
1 Faça os gráficos de sen e cos em [0.1, 2]. Utilize a
x x
quadratura adaptativa para obter uma aproximação das integrais a
seguir com a precisão de 10−3 .
1 1
Z 2 Z 2
a. sen dx b. cos dx
0.1 x 0.1 x
113 / 242
Anotações
114 / 242
Respostas da Lista de Exercícios - 4
a. 1.1454 b. 0.67378
115 / 242
Anotações
116 / 242
Sumário
Lista de Exercícios
Método do Gradiente Conju-
1 Erro
gado
2 Interpolação Spline 5 Resolução de Sistemas Não-
Lineares
3 Integração
6 Aproximação
4 Resolução de Sistemas Lineares
Normas 7 Cálculo de Autovalores e Autove-
Método das Relaxações Suces- tores
sivas
Critérios de Convergência
8 Avaliações
117 / 242
Anotações
118 / 242
Normas
Uma norma em <m×n é uma
função com as seguintes propriedades:
i) ∀A ∈ <m×n (||A|| > 0 e ||A|| = 0 ↔ A = 0)
120 / 242
Normas
Norma vetorial/matricial
Suponha que x = (−2 1 6) então temos:
1
X
||x||c = máx |xi,j | = máx {| − 2|, |1|, |6|} = 6
16j63
i=1
√ √
||x||l = 9 ||x||2 = 4 + 1 + 36 = 41
0 2 6 2
1 1 5 1
mas se M = 0
então:
0 4 2
0 1 2 5
4
X
||x||c = máx |mi,j | = máx {1, 4, 17, 10} = 17
16j64
i=1
√
||M||2 = 122 ||x||l = máx {10, 8, 6, 8} = 10
121 / 242
Anotações
122 / 242
Método das Relaxações Sucessivas
O Método das Relaxações Sucessivas é uma técnica que resolve sistemas
lineares, AX = b, de modo iterativo. Sem perda de generalidade considere:
a x + a12 x2 + a13 x3 + a14 x4 = b1
11 1
a x +a x +a x +a x = b
21 1 22 2 23 3 24 4 2
a x
31 1 + a x
32 2 + a x
33 3 + a x
34 4 = b 3
a41 x1 + a42 x2 + a43 x3 + a44 x4 = b4
onde aii 6= 0 para i = 1, 2, 3, 4. Esse sistema pode ser reescrito na forma
1
x1 = (b1 − a12 x2 − a13 x3 − a14 x4 )
a11
1
x2 = a (b2 − a21 x1 − a23 x3 − a24 x4 )
22
(27)
1
x3 =
(b3 − a31 x1 − a32 x2 − a34 x4 )
a33
x4 = 1 (b4 − a41 x1 − a42 x2 − a43 x3 )
a44
123 / 242
Anotações
124 / 242
Método das Relaxações Sucessivas
e assumindo que no nível k os valores x1 , x2 , x3 , x4 sejam conhecidos, então
de (27) temos para o nível k + 1 o que segue:
k+1 1 k k k
x1 = b1 − a12 x 2 − a 13 x3 − a 14 x4
a11
1
k+1
b2 − a21 x1k − a23 x3k − a24 x4k
x2 =
a22
k+1 1 k k k
− − −
x3 = b3 a31 x 1 a 32 x2 a 34 x4
a33
x k+1 = 1 b4 − a41 x k − a42 x k − a43 x k
4 1 2 3
a44
que corresponde ao Método de Jacobi para a resolução do sistema linear.
No caso geral o método pode ser escrito como:
i−1 n
1 X X
xik+1 = bi − aij xjk − aij xjk (28)
aii
j=1 j=i+1
com i = 1, . . . , n.
125 / 242
Anotações
126 / 242
Método das Relaxações Sucessivas
Por outro lado, se xi está sendo calculado então todos os valores xj para
j = 1, . . . , i − 1 são conhecidos, logo de (28) pode-se deduzir
i−1 n
1 X X
xik+1 = bi − aij xjk+1 − aij xjk (29)
aii
j=1 j=i+1
128 / 242
Método das Relaxações Sucessivas
Observe
em (30) que xik+1 é xik acrescido de um termo de correção
i−1 n
1 X X
bi − k+1
aij xj − aij xjk .
aii
j=1 j=i
129 / 242
Anotações
130 / 242
Método das Relaxações Sucessivas
Desta forma, de (30) pode-se escrever ainda
i−1 n
ω X X
xik+1 = xik + bi − aij xjk+1 − aij xjk
aii
j=1 j=i
ou
i−1 n
aii k ω X X
xik+1 = xik − ω xi + bi − aij xjk+1 − aij xjk
aii aii
j=1 j=i+1
ou finalmente
i−1 n
ω X X
xik+1 = bi − aij xjk+1 − aij xjk − (ω − 1) xik (31)
aii
j=1 j=i+1
132 / 242
Método das Relaxações Sucessivas
Exemplo:
4 0.24 −0.08 x1 8 0
0.09 3 −0.15 x2 = 9 ;
X = 0 ;
0
ε = 0.02; ω =1
0.04 −0.08 4 x3 20 0
x1 x2 x3 Erel
– 0 0 0 –
k =0 2 2.94 5.0388 {1,1,1}
1 < ε (F)
k =1 1.9244 3.1942 5.0446 {3.9×10−2 ,7.9×10−2 ,1.1×10−3 }
7.9 × 10−2 < ε (F)
k =2 1.9092 3.1950 5.0448 {7.9×10−3 ,2.5×10−4 ,3.9×10−5 }
7.9 × 10−3 < ε (V)
134 / 242
Critérios de Convergência
Teorema: Critério das Linhas
n
1 X
Considere o sistema linear A.X = b e seja αL = |aLj |.
|aLL | j=1
j6=L
Se α = máx αL < 1, então o Método de Gauss-Seidel gera uma sequência
16L6n
de vetores solução convergente para a solução do sistema linear qualquer que
seja a escolha de X 0 .
Observação:
o critério das linhas estabelece que a matriz dos coeficientes é
diagonal dominante;
que a convergência, via o método de Gauss-Seidel, tem relação estrita
com a estrutura da matriz dos coeficientes A.
135 / 242
Anotações
136 / 242
Critérios de Convergência
Teorema: Critério de Sassenfeld
Seja o sistema linear A.X = b e sejam:
n
1 X
β1 = |a1j |
|a11 | j=1
j6=L
1
βL = (|aL1 |β1 + |aL2 |β2
|aLL |
+ · · · + |aL,j−1 |βj−1 + |aL,j+1 |β1 + · · · + |aLn |)
138 / 242
Critérios de Convergência
Exemplo:
1 3 1
x1 −2
5 2 2 x2 = 3
0 6 8 x3 −6
Temos:
α = 4 ⇒ não há garantia de convergência via M.G.S.
5 2 2 3
x1
1 3 1 x2 = −2
0 6 8 x3 −6
139 / 242
Anotações
140 / 242
Critérios de Convergência
Exemplo:
141 / 242
Anotações
142 / 242
Critérios de Convergência
Teorema: Critério Ostrowski-Reich
Seja o sistema linear A.X = b, se A for definida positiva
hX , A.X i = X .A.X > 0, ∀X , então o Método das Relaxações Sucessivas
t
143 / 242
Anotações
144 / 242
Lista de Exercícios - 5
1 Considere os sistemas lineares:
10x1 + 5x2 = 6
5x1 + 10x2 − 4x3 = 25
3x1 − x2 + x3 = 1 (III)
−4x2 + 8x3 − x4 = −11
(I) 3x1 + 6x2 + 2x3 = 0
−x3 + 5x4 = −11
3x1 + 3x2 + 7x3 = 4
4x1 + x2 + x3 + x5 6
=
−x1 − 3x2 + x3 + x4 6
=
10x1 − x2 = 9
(IV)
2x1 + x2 + 5x3 − x4 − x5 = 6
(II) −x1 + 10x2 − 2x3 = 7
−x1 − x2 − x3 + 4x4 = 6
−2x2 + 10x3 = 6
2x2 − x3 + x4 + 4x5 6
=
146 / 242
Produto Interno
Teorema: Para quaisquer vetores x, y , z e qualquer nº real α, temos:
1 hx, y i = hy , xi
3 hx + z, y i = hx, y i + hz, y i
4 hx, xi ≥ 0
5 hx, xi = 0 ↔ x = 0
148 / 242
Formulação do Método Gradiente
Dem.
(⇒) Considere x 6= 0 e v 6= 0 fixos, e t ∈ R variável, então:
g (x + tv ) =
hx + tv , Ax + tAv i − 2 hx + tv , bi =
hx, Ax + tAv i + htv , Ax + tAv i − 2 {hx, bi + htv , bi} =
hx, Axi + hx, tAv i + htv , Axi + htv , tAv i − 2 hx, bi − 2 htv , bi =
hx, Axi + t hx, Av i + t hv , Axi + t 2 hv , Av i − 2 hx, bi − 2t hv , bi =
ou finalmente
g (x + tv ) = g (x) + 2 hv , Ax − bi t + hv , Av i t 2 .
149 / 242
Anotações
150 / 242
Formulação do Método Gradiente
Com x, v fixos e t variável, definimos a função H (t) = g (x + tv ). Uma
vez que hv , Av i > 0, então H (t) tem valor mínimo em t = t̂. De fato,
considerando
H 0 (t) = 2 hv , Ax − bi t + 2t hv , Av i = 0
sai que
hv , Ax − bi hv , b − Axi
t=− = = t̂.
hv , Av i hv , Av i
Desta forma,
g x + t̂v =
g (x) + 2t̂ hv , Ax − bi + t̂ 2 hv , Av i =
hv , b − Axi 2
hv , b − Axi
g (x) + 2 hv , Ax − bi + hv , Av i =
hv , Av i hv , Av i
hv , Ax − bi2 hv , Ax − bi2
g (x) − 2 +
hv , Av i hv , Av i
151 / 242
Anotações
152 / 242
Formulação do Método Gradiente
ou simplesmente
hv , Ax − bi2
g x + t̂v = g (x) −
hv , Av i
é o Valor Mínimo.
153 / 242
Anotações
154 / 242
Formulação do Método Gradiente
hv , Ax ∗ − bi2
g x ∗ + t̂v = g (x ∗ ) − = g (x ∗ )
, ∀v
hv , Av i
2
hv , Ax ∗ − bi
2.2 g x ∗ + t̂v = g (x ∗ ) −
hv , Av i
155 / 242
Anotações
156 / 242
Formulação do Método Gradiente
(⇐) De (2.1) e (2.2) segue
hv , Ax ∗ − bi2
g x ∗ + t̂v − g (x ∗ ) =
−
hv , Av i
0 = hv , Ax ∗ − bi
∗
Ax − b = 0 , pois por hipótese v 6= 0
ou seja, x ∗ é solução do sistema linear. Portanto o teorema está provado!
Em resumo, o método gradiente conjugado consiste em:
1 Escolha x
0
2 Admita v 1 6= 0
3 Para k = 1, 2, 3, . . . calcule
v k , b k − Ax k−1
tk =
hv k , Av k i
x k = x k−1 + tk v k
escolha uma nova direção v k+1
4 fim 157 / 242
Anotações
158 / 242
Formulação do Método Gradiente
A melhor forma de escolha de v k+1 é a partir do conjunto v 1 , v 2 , . . . , v n
A-Ortogonal.
159 / 242
Anotações
160 / 242
Método das Relaxações Sucessivas
Exemplo:
4 3 0 x1 24
3 4 −1x2= 30
0 −1 4 x3 −24
k =2 t2 = 48/7
x 1 = (6/7 48/7 0)T
k =3 t1 = −5
x 1 = (3 4 − 5)T solução exata.
161 / 242
Anotações
162 / 242
Formulação do Método Gradiente
< r k , v j >= 0 ; j = 1, 2, . . . , k.
r k−1 , r k−1
tk =
hv k , Av k i
rk, rk
sk = ; v k+1 = r k + sk v k .
hr k−1 , r k−1 i
163 / 242
Anotações
164 / 242
Formulação do Método Gradiente
Algoritmo 1: Gradiente Conjugado
Entrada: A, b, x 0 , ITMAX ,
Saída: x k para algum 1 ≤ k < ITMAX
1 início
2 r 0 = b − Ax 0 ; v 1 = r 0
3 para k = 1, . . . , ITMAX faça
r k−1 , r k−1
4 tk = ; r k = r k−1 − tk Av k ; x k = x k−1 +tk v k
hv k , Av k i
5 se ||r k || ≤ então
6 Convergiu! x k é a solução numérica
7 senão
rk, rk
8 sk = k−1 k−1 ; v k+1 = r k + sk v k
hr ,r i
9 fim
10 fim
11 fim
166 / 242
Sumário
Caso particular
Caso geral
1 Erro
Lista de Exercícios
2 Interpolação Spline
6 Aproximação
3 Integração 7 Cálculo de Autovalores e Autove-
tores
4 Resolução de Sistemas Lineares
8 Avaliações
5 Resolução de Sistemas Não-
Lineares
167 / 242
Anotações
168 / 242
Caso particular
Considere uma função não linear F : D ⊂ <2 → <2 de modo que queremos
as soluções de F (x) = 0, ou equivalentemente
(
f1 (x1 , x2 ) = 0
(32)
f2 (x1 , x2 ) = 0
onde x = (x1 , x2 ) e F (x) = (f1 (x) f2 (x))T . Considere ainda x ∗ = (x1∗ , x2∗ )
como a solução da função F (x), então é verdade que:
(
f1 (x1∗ , x2∗ ) = 0
F (x ∗ ) = 0 ⇔
f2 (x1∗ , x2∗ ) = 0
Admita que x10 , x20 seja uma aproximação de (x1∗ , x2∗ ) e que a Série de
170 / 242
Caso particular
Levando as funções anteriores em (32) temos
∂ ∂
f1 x 0 + f1 x 0 x1 − x10 + f1 x 0 x2 − x20 +E1 = 0
∂x1 ∂x2
∂ ∂
f2 x 0 + f2 x 0 x1 − x10 + f2 x 0 x2 − x20 +E2 = 0
∂x1 ∂x2
171 / 242
Anotações
172 / 242
Caso particular
Denotando
x1 − x10 = p0 x 1 = x10 + p0
⇒ (34)
x2 − x20 = q0 x 2 = x20 + q0
174 / 242
Caso particular
e obter novas estimativas
x12 = x11 + p1
x22 = x21 + q1
175 / 242
Anotações
176 / 242
Caso particular
resolver o sistema linear
pk
J x1k , x2k . = −F x1k , x2k (36)
qk
onde J x1k , x2k é nomeada Matriz Jacobiana
calcular a nova estimativa
x1k+1 = x1k + pk
(37)
x2k+1 = x2k + qk
178 / 242
Caso particular
T
Exemplo: F (x) = x1 + x2 − 3, x12 + x22 − 9 ; x 0 = (1, 5) ; ε1 =
ε2 = ε = 10−4
Temos que
1 1
J (x) =
2x1 2x2
1 1
p0 −3
logo para k = 0, mediante (36), escrevemos = .
2 10 q0 −17
Mas resolvendo o sistema e considerando (37) obtemos a primeira aproxi-
mação, ou seja,
x11 = 1 + p0 = −0.625
x21 = 5 + q0 = 3.625.
180 / 242
Caso geral
No caso geral, dado o sistema não linear
f1 (x1 , x2 , . . . , xn ) = 0
f2 (x1 , x2 , . . . , xn ) = 0
.. (39)
.
fn (x1 , x2 , . . . , xn ) = 0
181 / 242
Anotações
182 / 242
Caso geral
h i−1
Como o custo computacional de J x k em geral é alto, então (40)
pode ser implementado pelos cálculos:
J x k .y k = −F x k
(41)
x k+1 = xk + yk
183 / 242
Anotações
184 / 242
Caso geral
Uma alternativa seria calcular
−1 k
x k+1 = x k − J x 0 (42)
.F x
ou equivalentemente
J x 0 .y k = −F x k
(43)
x k+1 = xk + yk
onde a matriz Jacobiana é avaliada uma única vez, o que nos dá o Método
de Newton modificado. O mesmo tem taxa linear de convergência.
http://hplgit.github.io/Programming-for-Computations/pub/
p4c/._p4c-bootstrap-Matlab030.html
185 / 242
Anotações
186 / 242
Lista de Exercícios - 6
1
3x1 − cos (x2 x3 ) − = 0
2
2
x1 − 81 (x2 + 0.1) + sen (x3 ) + 1.06 = 0
2
10π − 3
e −x1 x2 + 20x3 + = 0
3
187 / 242
Anotações
188 / 242
Sumário
6 Aproximação
Mínimos Quadrados Linear
1 Erro
Mínimos Quadrados Não-Linear
Coeficientes de determinação
2 Interpolação Spline
7 Cálculo de Autovalores e Autove-
3 Integração tores
189 / 242
Anotações
190 / 242
Mínimos Quadrados Linear
Com relação ao caso discreto, considere a tabela:
x x1 x2 ... xm
f (x) f (x1 ) f (x2 ) ... f (xm )
Tabela 3: Tabela do conjunto de dados.
e as funções
g1 (x) , g2 (x) , . . . , gn (x)
definidas e escolhidas a priori, onde m ≥ n necessariamente.
O objetivo é encontrar o vetor de constantes α = (α1 , ..., αn ) tal que
3
g (α, x) = α1 g1 (x) + · · · + αn gn (x) (44)
se aproxime de f (x).
3
g é uma combinação linear de funções
191 / 242
Anotações
192 / 242
Mínimos Quadrados Linear
Seja dk (α) = f (xk )−g (α, xk ) o desvio no ponto k. O Método dos Mínimos
Quadrados Linear (MMQL) consiste em encontrar os αj 0 s tal que
m
X m
2 X 2
Res (α) ≡ dk (α) = f (xk ) − g (α, xk ) (45)
k=1 k=1
então temos
m
∂F X
=2 f (xk ) − α1 g1 (xk ) − · · · − αn gn (xk ) . − gj (xk )
∂αj
k=1
193 / 242
Anotações
194 / 242
Mínimos Quadrados Linear
∂F
e impondo = 0 para j = 1, . . . , n encontramos
∂αj
m
X
− − · · · − n n .g1 = 0
f (x k ) α g
1 1 α g
k=1
..
. (46)
X m
f (xk ) − α1 g1 − · · · − αn gn .gn = 0
k=1
ou ainda m
X
aij = gi (xk ) gj (xk ) ≡< g i , g j >
a α + · · · + a1n αn = b1
11 1 k=1
.. aji = aij
. ,
m
an1 α1 + · · · + ann αn = bn
X
bi = f (xk ) gi (xk ) ≡< f , g i >
k=1
196 / 242
Mínimos Quadrados Linear
Observações:
I. demonstra-se que: se g1 (x) , . . . , gn (x) forem tais que
g 1 , . . . , g n sejam LI então det (A) 6= 0, logo o sistema linear
(46) tem solução única;
II. a solução α = (α1 . . . αn )T , em [I], é o ponto de mínimo
da função F (α1 , . . . , αn );
III. se g 1 , . . . , g n tiverem a propriedade
(
= 0 ; i 6= j
< gi, gj >
6= 0 ; i = j
MMQL-Ponderados e o MMQL-Móveis.
197 / 242
Anotações
198 / 242
Exemplo linear - MMQL
Exemplo:
x 1 2 3 4 5 6 7 8
f (x) 0.5 0.6 0.9 0.8 1.2 1.5 1.7 2.0
199 / 242
Anotações
200 / 242
Exemplo linear - MMQL
Exemplo:
x 1 2 3 4 5 6 7 8
f (x) 0.5 0.6 0.9 0.8 1.2 1.5 1.7 2.0
201 / 242
Anotações
202 / 242
Mínimos Quadrados Linear (Caso não linear!)
Existem modelos não lineares de ajuste que podem ser linearizados e servirem
como ótimas práticas de ajustamento de dados, por exemplo:
P (µ, x) = µ1 (µ2 )x
ln (P) = ln (µ1 (µ2 )x ) ⇔ ln (P) = ln (µ1 ) + xln (µ2 ) ⇔
g (α, x) = α1 + α2 x ; g (α, x) = ln (P) ; α1 = ln (µ1 ) ; α2 = ln (µ2 )
1
P (µ, x) =
µ1 + µ2 x
P (µ, x) = µ1 x µ2
√
P (µ, x) = µ1 + µ2 x
e outros .....
204 / 242
Exemplo não linear - Parte I
Exemplo:
x −2 −1 0 1 2 3 4 5 6 7
f (x) 10 8 4 3.5 2.1 1 0.5 0.3 0.2 0.1
g (α,x) α1 +α2
z }| { z }| { z}|{
−µ2 x
P (µ, x) = µ1 e ⇒ ln [P (µ, x)] = ln (µ1 ) −µ2 x
A3: encontre µ 1 e µ2
205 / 242
Anotações
206 / 242
Mínimos Quadrados Não-Linear
Considere a tabela:
x x1 x2 ... xm
f (x) f (x1 ) f (x2 ) ... f (xm )
Tabela 4: Tabela do conjunto de dados.
e o vetor de parâmetros θ = (θ1 , θ2 , . . . , θn , ), de modo que m ≥ n necessa-
riamente. O objetivo é encontrar a função H (x, θ), que depende de forma
não linear de θ, ajustada ao conjunto de dados da tabela (4), no sentido dos
mínimos quadrados.
Em outras palavras, encontrar θ que minimiza a função:
Xm 2
F (θ) = f (xk ) − H (θ, xk ) (47)
k=1
208 / 242
Mínimos Quadrados Não-Linear
Em uma notação mais geral, se escrevermos
f (xk ) − H (θ, xk ) = dk (θ)
então (47) fica
m
X 2
F (θ) = dk (θ) ≡ Res (θ) (48)
k=1
lembrando que objetivamos encontrar θ que minimiza a função F (θ).
∂F (θ)
Tomando = 0 (com j = 1, 2, . . . , n), segue que
∂θj
m
∂F (θ) X ∂
=2 dk (θ) dk (θ) = 0
∂θj ∂θj
k=1
ou ainda
m
X ∂
dk (θ) dk (θ) = 0 para j = 1, 2, . . . , n.
∂θj
k=1
209 / 242
Anotações
210 / 242
Mínimos Quadrados Não-Linear
de modo que 0 é o vetor nulo, enquanto que J (θ) e d (θ) são tais que
∂ ∂ ∂
d (θ) d1 (θ) . . . d1 (θ)
∂θ1 1 ∂θ2 ∂θn
d1 (θ)
∂ ∂ ∂
d2 (θ) d2 (θ) . . . d2 (θ)
d2 (θ)
∂θ ∂θ2 ∂θn
J (θ) = 1
d (θ) =
...
. . . . . . . . . . . .
∂ ∂ ∂ dm (θ)
dm (θ) dm (θ) . . . dm (θ)
∂θ1 ∂θ2 ∂θn
211 / 242
Anotações
212 / 242
Mínimos Quadrados Não-Linear
Por exemplo, se tívessemos os seguintes dados:
x x1 x2 x3 H (θ, x) = θ1 e θ2 x ; f (xk )−θ1 e θ2 xk = dk (θ)
f (x) f (x1 ) f (x2 ) f (x3 ) ∂dk (θ) ∂dk (θ)
= −e θ2 xk ; = −θ1 xk e θ2 xk
Tabela 5: Tabela de dados. ∂θ 1 ∂θ 2
214 / 242
Mínimos Quadrados Não-Linear
1 Método de Newton
2 Método de Gauss-Newton
3 Método de Levenberg-Marquardt.
215 / 242
Anotações
216 / 242
Mínimos Quadrados Não-Linear (Método de Newton)
Para o sistema não linear (49), via (41), o Método de Newton fica:
J J T θIT d θIT .y IT = −J T θIT d θIT
θIT +1 = θIT + y IT
com θ0 suficientemente próximo de θ∗ (solução exata).
Denotando J J T θIT d θIT = U e −J T θIT d θIT = V , temos que:
m
X ∂2 ∂
IT IT
∂
UL,C = dk θ .dk θ + dk θIT . dk θIT
∂θC ∂θL ∂θC ∂θL
k=1
m
X
IT ∂
VC = − dk θ dk θIT
∂θC
k=1
T
com L, C = 1, . . . , n; y IT = y1IT , . . . , ynIT ; e IT = 1, . . . , ITmax .
218 / 242
Exemplo não linear - Parte II
Exemplo:
x −2 −1 0 1 2 3 4 5 6 7
f (x) 10 8 4 3.5 2.1 1 0.5 0.3 0.2 0.1
H (θ, x) = θ1 e θ2 x
A6: encontre θ 1 e θ2
219 / 242
Anotações
220 / 242
Exemplo não linear - MMQL × MMQNL
Exemplo:
x −2 −1 0 1 2 3 4 5 6 7
f (x) 10 8 4 3.5 2.1 1 0.5 0.3 0.2 0.1
10
X 2 10
X 2
c. Res (µ) = dk (µ) = 10.16 ; Res (θ) = dk (θ) = 2.32
k=1 k=1
221 / 242
Anotações
222 / 242
Exemplo não linear - MMQL × MMQNL
Exemplo:
x −2 −1 0 1 2 3 4 5 6 7
f (x) 10 8 4 3.5 2.1 1 0.5 0.3 0.2 0.1
223 / 242
Anotações
224 / 242
Coeficientes de determinação: R 2 e Raj2
O coeficiente de determinação R 2 é uma métrica que explica quanto a curva
de ajuste, g (α, x) ou H (θ, x), explica os dados. O R 2 é escrito por:
2
Pm
MQ − yM
k=1
variação explicada
R2 = 2 = ; 0 ≤ R2 ≤ 1
variação total
Pm
k=1 f (xk ) − yM
onde: m
1 X
g (α, xk )
MQ = e yM = f (xk ) média arit. simples
H (θ, xk ) m
k=1
226 / 242
Sumário
8 Avaliações
227 / 242
Anotações
228 / 242
Definições sobre Autovalores e Autovetores
Muitos problemas aplicados recaem na resolução da equação
Av = λv (50)
De (50) temos
Av = λv ⇔ Av − λv = 0 ⇔ (A − λI) v = 0
230 / 242
Definições sobre Autovalores e Autovetores
1
(A − λI) v = 0 (A − λI)−1 = · adj (A − λI)
−1
det (A − λI)
(A − λI) · (A − λI) v = 0 ∴
6 0
det (A − λI) = ⇒v=0
que implica em
det (A − λI) = 0 ⇒ v 6= 0 ou @v.
231 / 242
Anotações
232 / 242
Caso com n = 2
1 4
A= λ =? v =?
2 3
Problemática:
1 4
v1
v1
· = λ
2 3 v2 v2
Pol. Característico:
1 4 1 0
P (λ) = det − λ = λ2 − 4λ − 5 = (λ − 5) (λ + 1)
2 3 0 1
Sistema Homogêneo:
1−λ 4 0
v1
· =
2 3−λ v2 0
233 / 242
Anotações
234 / 242
Caso com n = 2
Raízes de P (λ):
λ1 = 5 λ2 = −1
√ 1 1
kvλ1 k2 = 2 ⇒ vλN1 = √ ,√
2 2
√ 2 1
kvλ2 k2 = 5 ⇒ vλN1 = −√ , √
5 5
235 / 242
Anotações
236 / 242
Sumário
237 / 242
Anotações
238 / 242
Orientações
Utilize o Overleaf 4
para escrever sobre as suas avaliações (Projeto).
http://www.uel.br/laboratorios/labsan/perfilEliandro.html
4
Acesse a plataforma no link – https://pt.overleaf.com/login
239 / 242
Anotações
240 / 242
Apresentação
241 / 242
Anotações
242 / 242