0% acharam este documento útil (0 voto)
21 visualizações242 páginas

Aula Analise Numerica

Relata sobre alguns erros de cálculo cometidos no dia a dia, principalmente na área de engenharia
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
0% acharam este documento útil (0 voto)
21 visualizações242 páginas

Aula Analise Numerica

Relata sobre alguns erros de cálculo cometidos no dia a dia, principalmente na área de engenharia
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
Você está na página 1/ 242

1

Conceitos Fundamentais em Análise Numérica

Prof. Dr. Eliandro R. Cirilo

Universidade Estadual de Londrina - UEL


Centro de Ciências Exatas - CCE
Departamento de Matemática

17 de março de 2023

1
BURDEN, R. L., FAIRES, J. D. Análise Numérica. 3o ed. São Paulo: Cengage
Leaning, 2015.
1 / 242
Sumário

4 Resolução de Sistemas Lineares


1 Erro
Taylor
5 Resolução de Sistemas Não-
Erros: absoluto e relativo Lineares
Processos iterativos
Ordem de convergência 6 Aproximação
Lista de Exercícios
7 Cálculo de Autovalores e Autove-
2 Interpolação Spline tores

3 Integração
8 Avaliações

2 / 242
Taylor

Seja f uma função dada como uma série de potências em (x − a) na


forma:

X
f (x) = Cn (x − a)n = C0 + C1 (x − a) + C2 (x − a)2 + . . . (1)
n=0

Se o raio de convergência de (1) é r , então f será infinitamente


derivável em (a − r , a + r ). Logo, de (1) resulta:

f 0 (x) = C1 + 2C2 (x − a) + 3C3 (x − a)2 + 4C4 (x − a)3 + . . .

f 00 (x) = 2C2 + 6C3 (x − a) + 12C4 (x − a)2 + . . .

f 000 (x) = 6C3 + 24C4 (x − a) + . . .

3 / 242
Anotações

4 / 242
Taylor

Se x = a em (1) e nas derivadas de f , então obtemos:

f (a) = C0 f 0 (a) = C1 f 00 (a) = 2C2 f 000 (a) = 6C3 ......

que de forma geral permite escrever:


1 (n)
Cn = f (a) . (2)
n!
Portanto levando (2) em (1) encontramos:

X 1 (n)
f (x) = f (a) (x − a)n (3)
n!
n=0

nomeada por Série de Taylor de f em x = a.

5 / 242
Anotações

6 / 242
Taylor
Teorema de Taylor
Suponha que f (x) tenha n + 1 derivadas em um intervalo aberto I e que
a ∈ I . Para cada x ∈ I , existe pelo menos um número c entre a e x tal que:
1
Rn (x) = f (n+1) (c) (x − a)n+1
(n + 1)!

nomeado como resto.

Exemplo: Considerações sobre f (x) = ln (x) em a = 1


Da teoria das séries sabe-se que a série (3) para ln (x), considerando
a = 1, é do tipo:
1 1
ln (x) = ln (1) + 1 (x − 1) + (−1) (x − 1)2 + (2) (x − 1)3 + . . .
2 6

7 / 242
Anotações

8 / 242
Taylor
Pode-se aproximar ln (x), por exemplo, como:
1 1
ln (x) ' 0 + (x − 1) − (x − 1)2 + (x − 1)3 ≡ P3 (x) .
2 3
Em particular pode-se escrever:
1 (4) 1
R3 (x) = f (c) (x − 1)4 = − 4 (x − 1)4
4! 4c
ou ainda (com c entre x e a)

1
R3 (x) = ln (x) − P3 (x) ⇒ ln (x) = P3 (x) − (x − 1)4 .
4c 4
Por exemplo, se x = 1.1, em módulo tem-se:

|R3 (1.1)| ' |ln (1.1) − P3 (1.1)|

= |0.095310 − 0.095333| = 0.000023 = 2.3 × 10−5 .

9 / 242
Anotações

10 / 242
Erros: absoluto e relativo

Considere p ∗ como sendo uma aproximação de p. Os erros absoluto e


relativo são respectivamente:

|p − p ∗ |
E .A. = |p − p ∗ | E .R. = .
|p ∗ |

Sob as definições acima o E .R. descreve de modo mais adequado a


precisão, quando comparado ao E .A..

11 / 242
Anotações

12 / 242
Erros: absoluto e relativo
Exemplo: Comparação entre erros
(I) Considere que p1 é representado por p1∗ = 3.1 de modo que
E .A. < 0.1, então:
E .A. = |p1 − 3.1| < 0.1 ⇒

|p1 − 3.1| 0.1 0.1


E .R. = < ⇔ E .R. < ' 0.0322581.
|3.1| |3.1| 3.1
(II) Considere que p2 é representado por p2∗ = 2112.9 tal que
E .A. < 0.1, logo:
E .A. = |p2 − 2112.9| < 0.1 ⇒

|p2 − 2112.9| 0.1 0.1


E .R. = < ⇔ E .R. < ' 4.7×10−5 .
|2112.9| |2112.9| 2112.9
Conclui-se então que p2 é representado com maior precisão do que p1 ,
pois seu E .R.,comparado ao E.R. em (I), é menor!

13 / 242
Anotações

14 / 242
Processos iterativos

Em processos iterativos gera-se sequência de valores do tipo:

{Pk }m
k=0 = {P0 , P1 , P2 , . . . , Pm } , P∈k

então admite-se que Pk=n , (1 ≤ n ≤ m) é solução numérica se

||Pn − Pn−1 | |
E .R.n = <ε
||Pn | |

com ε << 1 a-priori fixo.

A medida que os sucessivos E .R.k vão se aproximando de ε, dizemos


que há um processo de convergência.

15 / 242
Anotações

16 / 242
Ordem de convergência
Denotando os erros relativos (gerados em uma malha de espaçamento
h) por E h , então estes podem ser estimados via expressão E h ' Chθ .
A constante C é dependente dos dados do problema e θ é uma
estimativa para ordem de convergência.
Se E h/2 ' C (h/2)θ segue que:

Eh Chθ 1
  h 
E
' = 2θ ⇒ θ' log .
E h/2 C (h/2)θ log 2 E h/2

Quanto maior o valor θ, significa que maior será a ordem de


convêrncia.
Em síntese, mais rápido o método numérico converge para a solução
exata.
Artigo 2019
https://doi.org/10.1007/s40819-019-0633-z

17 / 242
Anotações

18 / 242
Lista de Exercícios - 1
1 Sejam f (x) = cos (x) e x0 = 0. Determine
(a) o segundo polinômio de Taylor de f em x0 ; e
(b) o terceiro polinômio de Taylor de f em x0 .

2 Determine o polinômio de Taylo de ordem três P3 (x) para a função


√ √ √ √ √
f (x) = x + 1 em x0 = 0. Aproxime 0.5, 0.75, 1.25 e 1.5
usando P3 (x) e determine os erros reais.

3 Determine o polinômio de Taylo de ordem dois P2 (x) para a função


f (x) = e x cos (x) em x0 = 0.
(a) Use P2 (0.5) para aproximar f (0.5). Determine um
limitante superior para o erro |f (0.5) − P2 (0.5) | usando
a fórmula de erro e compare-o com o erro real.
(b) Determine um limitante para o erro |f (x) − P2 (x) |
cometido ao usar P2 (x) para aproximar f (x) no
intervalo [0, 1]. 19 / 242
Anotações

20 / 242
Lista de Exercícios - 1

4 Use um polinômio de Taylor em π/4 para aproximar cos (42o ) com


uma precisão de 10−6 .

5 Calcule o erro absoluto e o erro relativo na aproximação de p por p ∗ .


a p = π, p ∗ = 22/7 p = π,
√p =

3.1416

b p = e, p = 2.718 p = 2, p ∗ = 1.414
c p = e 10 , p ∗ = 22000 p = 8!, p ∗ = √
39900

d p = 10 , p = 1400
π
p = 9!, p ∗ = 18π (9/e)9

Nota: atente que definimos erro relativo em relação a p ∗ , na bibliografia


do curso a definição foi em relação a p. Sobre isso não existe certo ou
|p − p ∗ |
errado, apenas uma questão de referência. Desta forma, a expressão
|p|
também é correta!
21 / 242
Anotações

22 / 242
Respostas da Lista de Exercícios - 1
1 1
1 (a) 1 − x 2 + x 3 sin (c)
2 6
1 1
(b) cos (x) = 1 − x 2 − x 4 cos (c).
2 24

1 1 1 √
2 P3 (x) = 1 + x − x 2 + x 3 ; x + 1 = P3 (x) + R3 (x)
√ 2 8 16
0.5 ' P3 (−1/2)

erro ' 0.5 − P3 (−1/2)

−2e c (sen(c) + cos(c)) 3


3 P2 (x) = 1 + x ; R2 (x) = x
6
para algum c entre x e 0, temos o seguinte:
(a) P2 (0.5) = 1.5 e |f (0.5) − P2 (0.5) | ≤ 0.0932
(b) |f (x) − P2 (x) | ≤ 1.252

23 / 242
Anotações

24 / 242
Respostas da Lista de Exercícios - 1

7π π
4 Como 42o = radianos, use x0 = . Então
30 4
π 7π n+1
7π 0.053n+1

4 − 30
 
Rn ≤ <
30 (n + 1)! (n + 1)!

 
para que Rn < 10−6 , é suficiente tomar n = 3. Até 7
30
7π 7π
   
algarismos, cos = 0.7431448 e P3 = 0.7431446.
30 30

EA ER EA ER
−4 −6
a 0.001264 4.025 × 10 7.346 × 10 2.338 × 10−6
b 2.818 × 10−4 1.037 × 10−4 2.136 × 10−4 1.510 × 10−4
25 / 242
Anotações

26 / 242
Sumário

4 Resolução de Sistemas Lineares


1 Erro
5 Resolução de Sistemas Não-
Lineares
2 Interpolação Spline
Interpolação Spline Linear
Interpolação Spline Cúbico
6 Aproximação
Lista de Exercícios
7 Cálculo de Autovalores e Autove-
tores
3 Integração
8 Avaliações

27 / 242
Anotações

28 / 242
Interpolação Spline Sp
Considere a tabela de um conjunto de dados do tipo:
x x1 x2 . . . xn+1
f (x) y1 y2 . . . yn+1
Tabela 1: Tabela do conjunto de dados.

com monotonicidade estrita, ou seja x1 < x2 < · · · < xn+1 .


A função Sp (x) é nomeada Spline de grau p com nós nos pontos xi
(i = 1, 2, . . . , n + 1) se:
a) para qualquer subintervalo [xi , xi+1 ] com i = 1, 2, . . . , n
tenhamos Sp (x) como polinômio de grau p;

b) Sp (x) é contínua e tem derivada contínua até a ordem


p − 1 em [xi , xn+1 ];

c) Sp (xi ) = yi ; i = 1, 2, . . . , n + 1.

29 / 242
Anotações

30 / 242
Interpolação Spline Linear
A Spline linear interpolante 2 , S1i (x), da Tabela 1, que verifica a
definição Spline do slide anterior, é:
   
xi+1 − x x − xi
i
S1 (x) = yi + yi+1 (4)
xi+1 − xi xi+1 − xi

com x ∈ [xi , xi+1 ].


Essencialmente, por intermédio da expressão (4) temos um conjunto
de n segmentos de retas.

A1: A dedução da equação (4) é fácil de ser obtida! Como


exercício, a partir dos pontos A = (xi , yi ) e B = (xi+1 , yi+1 ) deduza a
equação da reta.
Porquê é necessária a premissa de garantia da monotonicidade estrita?
2
RUGGIERO, M. A. G.; LOPES, V. L. Cálculo Numérico: Aspectos Teóricos e
Computacionais, 2a edição. São Paulo: Editora Makron, 1996.
31 / 242
Anotações

32 / 242
Interpolação Spline Linear
Exemplo: Da tabela a seguir segue que:
x 5 10 17 21 25
f (x) 0 5 9 7 0
Como neste exemplo n = 4 então pela expressão (4) temos:

10 − x x −5
   
S11 (x) = 0 +5 =x −5 ; x ∈ [5, 10]
5 5

4 5
S12 (x) = x− ; x ∈ [10, 17]
7 7
1 35
S13 (x) = − x + ; x ∈ [17, 21]
2 2
7 175
S14 (x) = − x + ; x ∈ [21, 25]
4 4

33 / 242
Anotações

34 / 242
Interpolação Spline Linear
ou ainda
∈ [5, 10]
 1
S (x) ; x
 12

∈ [10, 17]

S1 (x) ; x
SLI (x) =
S 3
(x) ; x ∈ [17, 21]
 14


S1 (x) ; x ∈ [21, 25]
cujo gráfico é tipo

35 / 242
Anotações

36 / 242
Interpolação Spline Linear

A2: Exemplo:
x 5 10 17 21 25
f (x) 0 5 9 7 0
Da tabela acima construa a spline linear interpolante parametrizada:
 i
 x1 (t)
SLI (t) = t ∈ [ti , ti+1 ]
 i
y1 (t)
Dica: Conside a tabela
t 1 2 3 4 5
x 5 10 17 21 25
para o cálculo de x1i (t). Para y1i (t) considere

t 1 2 3 4 5
f (x) 0 5 9 7 0
37 / 242
Anotações

38 / 242
Interpolação Spline Linear
A3: Exemplo: Obtenha a spline linear do seguinte gráfico, com início em
A e fim em B.

Dica: Construa a tabela de dados. Após, use Spline Linear Parametrizada

39 / 242
Anotações

40 / 242
Interpolação Spline Cúbico
x x1 x2 ... xn+1
f (x) y1 y2 ... yn+1
Tabela 2: Tabela do conjunto de dados com monotonicidade estrita.

Considerando os dados da Tabela 2 a Spline Cúbica Interpolante


S3i (x), nos nós xi , é aquela tal que existem os polinômios cúbicos
Pk (x) ; k = 2, . . ., n + 1 ; de modo que

(I) S3 (x) = Pk (x) ; x ∈ [xk−1 , xk ] ; k = 2, . . . , n + 1

(II) S3 (xk ) = f (xk ) ; k = 1, . . . , n + 1

(III) Pk (xk ) = Pk+1 (xk ) ; k = 2, . . . , n

(IV) Pk0 (xk ) = Pk+1


0
(xk ) ; k = 2, . . . , n

(V) Pk00 (xk ) = Pk+1


00
(xk ) ; k = 2, . . . , n
41 / 242
Anotações

42 / 242
Interpolação Spline Cúbico
Os polinômios Pk (x) a serem obtidos são da forma:
Pk (x) = Ak (x − xk )3 + Bk (x − xk )2 + Ck (x − xk ) + Dk (5)
para k = 2, . . . , n + 1.

Das condições (I) e (II), k = 2, . . . , n + 1, e considerando (5) obtemos:


S3 (xk ) = Pk (xk ) = f (xk )
⇒ Dk = f (xk ) (6)
Pk (xk ) = Dk
e de (5) temos também
Pk0 (x) = 3Ak (x − xk )2 + 2Bk (x − xk ) + Ck
Pk00 (x) = 6Ak (x − xk ) + 2Bk
e como Pk00 (xk ) = 2Bk então
Pk00 (xk )
Bk = . (7)
2
43 / 242
Anotações

44 / 242
Interpolação Spline Cúbico
Uma vez que

Pk00 (xk−1 ) = 6Ak (xk−1 − xk ) + 2Bk

então
−2Bk + Pk00 (xk−1 ) −Pk00 (xk ) + Pk00 (xk−1 )
Ak = =
6 (xk−1 − xk ) 6 (xk−1 − xk )

mas da condição (V) Pk00 (xk−1 ) = Pk−1


00
(xk−1 ). Denotando
xk − xk−1 = hk segue ainda que

Pk00 (xk ) − Pk−1


00 (xk−1 )
Ak = (8)
6hk

45 / 242
Anotações

46 / 242
Interpolação Spline Cúbico
Da condição (III)
Pk (xk ) = Pk+1 (xk ) = f (xk )
adicionalmente
Pk+1 (xk ) = Ak+1 (xk −xk+1 )3+Bk+1 (xk −xk+1 )2+Ck+1 (xk −xk+1 )+Dk+1
o que conduz a
3
− Ak+1 hk+1 2
+ Bk+1 hk+1 − Ck+1 hk+1 + Dk+1 = f (xk ) (9)
com hk+1 = (xk+1 − xk ) (−1).

Em (9), transladando os índices em uma unidade e isolando C


deduz-se que
−Ak hk3 + Bk hk2 − Ck hk + Dk = f (xk−1 )

47 / 242
Anotações

48 / 242
Interpolação Spline Cúbico
1
−Ak hk3 + Bk hk2 + Dk − f (xk−1 )

Ck =
hk

f (xk ) − f (xk−1 ) 2Pk00 (xk ) hk + Pk−1
00 (xk−1 ) hk
Ck = + (10)
hk 6

Denotando Pk00 (xk ) = gk e f (xk ) = yk então de (8), (7), (10) e (6)


escreve-se
gk − gk−1
Ak = (11)
6hk
gk
Bk = (12)
2
yk − yk−1 2hk gk + hk gk−1
Ck = + (13)
hk 6
Dk = yk (14)

49 / 242
Anotações

50 / 242
Interpolação Spline Cúbico
Por outro lado, da igualdade (5) segue que

Pk0 (xk ) = 3Ak (xk − xk )2 + 2Bk (xk − xk ) + Ck = Ck


e
0
Pk+1 (xk ) = 3Ak+1 hk+1
2
− 2Bk+1 hk+1 + Ck+1

logo de Pk0 (xk ) = Pk+1


0
(xk ) sai

Ck+1 = Ck − 3Ak+1 hk+1


2
+ 2Bk+1 hk+1

mas mediante (11), (12) e (13) a igualdade anterior fica

1
{2hk+1 gk+1 + hk+1 gk − 2hk gk − gk−1 hk + 3gk+1 hk+1
6
yk − yk−1 yk+1 − yk
−3gk hk+1 − 6gk+1 hk+1 } = − (15)
hk hk+1

51 / 242
Anotações

52 / 242
Interpolação Spline Cúbico
ou finalmente
 
yk − yk−1 yk+1 − yk
hk gk−1 + 2 (hk +hk+1 ) gk +hk+1 gk+1 = −6 − (16)
hk hk+1

para k = 2, . . . , n.
A igualdade (16) é um sistema linear com (n − 1) equações e (n + 1)
incógnitas, logo indeterminado.
Para que o sistema seja de solução única uma das seguintes
alternativas podem ser utilizadas:
1 g1 = gn+1 = 0 (condição Spline Natural);

2 g1 = g2 e gn+1 = gn (condição Aproximação por Parábolas)

3 g1 = H e gn+1 = L (condição de Inclinação prescrita)

53 / 242
Anotações

54 / 242
Interpolação Spline Cúbico

Por exemplo, se a condição Spline Natural é usada, o sistema (16) fica:

2 (h2 + h3 ) h3
    
g2 M2 − M1
    

 h3 ...  ...  
   ... 

    

 ... ... ... ...  ...  = 
    ... 

    

 ... hn  ...  
    ... 

hn 2 (hn + hn+1 ) gn Mn − Mn−1

yk+1 − yk
onde Mk = 6 .
hk+1

55 / 242
Anotações

56 / 242
Interpolação Spline Cúbico

Exemplo: Da tabela a seguir temos que:


x 5 10 15 20 25
f (x) 5 20 16 22 18
n+1=5 ⇒n=4

Pk (x) = Ak (x − xk )3 + Bk (x − xk )2 + Ck (x − xk ) + Dk ;

para k = 2, 3, 4, 5
h2 = h3 = h4 = h5 = 5
Por Spline Natural, segundo a relação (16), temos

20 5 0
    
g2 −22.8
 5 20 5  12
    
  g3  = 
   
 
0 5 20 g4 −12
57 / 242
Anotações

58 / 242
Interpolação Spline Cúbico

g2 = −1.43571428

g3 = 1.18285714 g1 = g5 = 0

g4 = −0.89571428
Os coeficientes de Pk (x) ficam determinados então por:

A2 = −0.04785 A3 = 0.08728 A4 = −0.06928 A5 = 0.02985

B2 = −0.71785 B3 = 0.59142 B4 = −0.44785 B5 = 0

C2 = 0.60714 C3 = −0.0250 C4 = 0.69285 C5 = −1.54642

D2 = 20 D3 = 16 D4 = 22 D5 = 18

59 / 242
Anotações

60 / 242
Interpolação Spline Cúbico

61 / 242
Anotações

62 / 242
Interpolação Spline Cúbico

A4: Exemplo:
x 5 10 15 20 25
f (x) 5 20 16 22 18
Da tabela acima construa a spline cúbica interpolante parametrizada:
 i
 x1 (t)
SCI (t) = t ∈ [ti , ti+1 ]
 i
y1 (t)

e esboce o gráfico
Dica: Conside a tabela t 1 2 3 4 5
x 5 10 15 20 25
para o cálculo de x1i (t). Para y1i (t) considere
t 1 2 3 4 5
f (x) 5 20 16 22 18

63 / 242
Anotações

64 / 242
Lista de Exercícios - 2

1 Um Spline Cúbico Natural S em [0, 2] é definido por:

S0 (x) = 1 + 2x − x 3 , 0≤x <1



S (x) = 2 3
S1 (x) = 2 + b (x − 1) + c (x − 1) + d (x − 1) , 1 ≤ x ≤ 2

Encontre b, c e d.

2 Determine, por Spline Natural, o desenho da borda do mapa da cidade


de Londrina.
Dica 1: Utilize papel milimetrado para extrair um conjunto de pares
ordenados
Dica 2: Utilize softwares para extração de um conjunto de pares
ordenados

65 / 242
Anotações

66 / 242
Respostas da Lista de Exercícios - 2
1 b = −1, c = −3 e d = 1

67 / 242
Anotações

68 / 242
Sumário

4 Resolução de Sistemas Lineares


1 Erro
5 Resolução de Sistemas Não-
Lineares
2 Interpolação Spline
6 Aproximação
3 Integração
Regras: dos Trapézios e de 7 Cálculo de Autovalores e Autove-
Simpson
tores
Quadratura Gaussiana
Lista de Exercícios
Quadratura Adaptativa
8 Avaliações
Lista de Exercícios

69 / 242
Anotações

70 / 242
Regras: dos Trapézios e de Simpson
Regra dos Trapézios Composta
b−a
Sejam f ∈ C 2 [a, b], h = e xj = a + jh com j = 0, . . . , n. Existe um
n
µ ∈ (a, b) para o qual a Regra dos Trapézios Composta, para n subintervalos
pode ser escrita como:
 
Z b n−1
h X b − a 2 00
f (x) dx = f (a) + 2 f (xj ) + f (b) − h f (µ) .
a 2 12
j=1

Regra de Simpson Composta


b−a
Sejam f ∈ C 4 [a, b], n par, h = e xj = a + jh com j = 0, . . . , n. Existe
n
um µ ∈ (a, b) em que a Regra de Simpson Composta para n subintervalos
é:  n n 
Z b 2
−1 2
h X X b−a 4 0000
f (x) dx = f(a) + 2 f(x2j ) + 4 f(x2j−1 ) + f(b)− h f (µ) .
a 3 180
j=1 j=1

71 / 242
Anotações

72 / 242
Regras: dos Trapézios e de Simpson

1 2
Z
Exemplo: Cálculo da dx pelas regras do Trapézio e Simpson com
0 x +1
o menor número de elementos possíveis.
2−0
RT: n = 1, h = , j = 0, 1
1
2
1 2 1 4
Z  
dx ' 1+ '
0 x +1 2 3 3

2−0
RS: n = 2, h = , j = 0, 1, 2
2
2
1 1 1 1 10
Z  
dx ' 1+4 + '
0 x +1 3 2 3 9

73 / 242
Anotações

74 / 242
Regras: dos Trapézios e de Simpson

|Ef |RT
2 2 16 1
   
|Ef |RT = − 22 =
12 (µ + 1)3 12 (µ + 1)3
16 máx 1 16
 
≤ = ' 1.333...
12 µ ∈ [0, 2] (µ + 1)3 12

|Ef |RS
2 4 24 48 1
   
|Ef |RS = − 1 =
180 (µ + 1)5 180 (µ + 1)5
48 máx 1 48
 
≤ = ' 0.266...
180 µ ∈ [0, 2] (µ + 1)5 180

OBS: Note que o |Ef |RS é significativamente menor do que o |Ef |RT .

75 / 242
Anotações

76 / 242
Regras: dos Trapézios e de Simpson
Z π
Exemplo: Qual o menor número n de elementos, no cálculo de sen (x) dx,
0
com erro absoluto menor que 0.00002, via regras do Trapézio e Simpson?
De
π−0 π
h= ⇒ h= e xj = 0 + jh = jh com j = 0, 1, 2, . . . , n
n n
então π 2 πh2
|Ef |RT = − h {−sen (µ)} = |{−sen (µ)}|
12 12
estimado
π(π/n)2 máx π3 z}|{
≤ {sen (µ)} = 1 ⇒
12 µ ∈ [0, π] 12n2
s
π3 −5 π3
< 2 × 10 ⇔ n > ' 359.43 ⇒ n = 360
12n2 24 × 10−5

A1: De modo análogo confirme n = 18 para a Regra de Simpson.


77 / 242
Anotações

78 / 242
Quadratura Gaussiana
Considere a integral
Z 1 p
X
f (t) dt = wi f(ti ) + Ep p≥1 (17)
−1 i=1

tal que wi é chamado de peso e ti são os pontos de integração.


Em (17) o termo dado pelo somatório é nomeado por Quadratura
Gaussiana e Ep é o seu termo de erro.
Uma forma de se calcular ti e wi é por Polinômios de Legendre. Os
Polinômios de Legendre são aqueles que satisfazem a seguinte relação
de recorrência:

2n 1
    
+ n
 ρn+1 (t) = tρn (t) − ρn−1 (t) n≥1

n+1 n+1

(18)

ρ0 (t) = 1 ; ρ1 (t) = t.

79 / 242
Anotações

80 / 242
Quadratura Gaussiana
Teorema para o cálculo dos pesos
Os pontos de integração ti são os zeros dos Polinômios de Legendre de grau
p e os wi são:

1 2
wi =  2 · ; i = 1, 2, . . . , p. (19)
1 − ti2

ρ0p (ti )

O erro Ep é calculado por:

22p+1 (p!)4
Ep = · f (2p) (ξ) ; ξ ∈ [−1, 1] . (20)
(2p + 1) [(2p)!]3
Observe que a avaliação de (17) se dá pelos cálculos dos pesos
mediante (19) cujos pontos de integração são obtidos via (18). O erro
da Quadratura Gaussiana pode ser estimado por (20).

81 / 242
Anotações

82 / 242
Quadratura Gaussiana
Regras de Gauss
Z 1
1o Ordem (p = 1) f (t) dt = w1 f(t1 ) + E1
−1

ρ1 (t) = t ⇒ t1 = 0 ; w1 = 2
1
1
Z
∴ f (t) dt = 2f(0) + f (2)(ξ)
−1 3
Z 1
2o Ordem (p = 2) f (t) dt = w1 f(t1 ) + w2 f(t2 ) + E2
−1
3 1 1 1
ρ2 (t) = t 2 − ⇒ t1 = − √ ; t2 = √ ; w1 = w2 = 1
2 2 3  3
1 1 1 (4)
Z 1 
∴ f (t) dt = f − √ +f √ + f (ξ)
−1 3 3 135
para ξ ∈ [−1, 1].
A2: Deduza a regra de Gauss de ordem 3.
83 / 242
Anotações

84 / 242
Quadratura Gaussiana
No caso de um intervalo genérico [a, b] onde se deseja realizar a
integração, é necessário fazer uma mudança de variável do tipo:

x ∈ [a, b] para t ∈ [−1, 1]


dada por

1 b−a
x= [a + b + t (b − a)] e dx = dt
2 2
Z 10
Exemplo: e −x dx
0
De x = 5 + 5t e dx = 5dt temos:
Z 10 Z 1
−x −5
e dx = 5e e −5t dt ' 0.606102
0 −1

(integração de 2o ordem)
85 / 242
Anotações

86 / 242
Lista de Exercícios - 3

1 Obtenha uma aproximação das seguintes integrais com os valores


indicados de n.

Regra dos Trapézios Composta : Regra de Simpson :


Z 2 Z 2
a. xln (x) dx; n = 4 c. x 3 e x dx; n = 4
1 −2

5
1
Z Z
8
b. tg (x) dx; n = 8 d. √ dx; n = 8
0 3 x2 − 4

2 Obtenha uma aproximação das seguintes integrais, utilizando


Quadratura Gaussiana, com os valores indicados de n.
1.5 0.35
2
Z Z
a. x ln (x) dx; n = 3
2
b. dx; n = 5
1 0 x2 −4

87 / 242
Anotações

88 / 242
Respostas da Lista de Exercícios - 3

a. 0.639900 c. 22.47713
b. 0.970926 d. 0.6043941

a. 0.1922594 b. −0.1768200

89 / 242
Anotações

90 / 242
Quadratura Adaptativa
A Quadratura Adaptativa é uma técnica que procura prever a variação
funcional e adaptar o tamanho do espaçamento quando for necessário,
como sugere o gráfico abaixo.

O método da Quadratura Adaptativa pode ser deduzido para diversas


regras tipo: dos Trapézios, Simpson, etc.
91 / 242
Anotações

92 / 242
Quadratura Adaptativa para a Regra de Simpson
Admita por hipótese que queiramos calcular no intervalo I = [a, b]
Z b
f (x) dx
a
via a Regra de Simpson (R.S.) com quadratura adaptativa.

b−a
Assumindo que n = 2 e h = , ver discretização na figura acima,
2
pela R.S. (pág. 71) temos: b−a=2h
z}|{
Z b
h h5
f (x) dx = [f (a) + 4f (a + h) + f (b)] − f (4) (µ)
a 3
| {z }| 90 {z }
integral aproximada termo do erro
= I2 + E2 ; µ ∈ (a, b) (21)
93 / 242
Anotações

94 / 242
Quadratura Adaptativa para a Regra de Simpson

h b−a
Agora, tomando n = 4 e = encontramos pela R.S.:
2 4
Z b
h
f (x) dx = [f (a) + 2f (a + h) + 4 (f (a + h/2) + f (a + 3h/2))
a 6
1 h5
 
+ f (b)] − f (4) (e e ∈ (a, b)
µ ) = I 4 + E4 ; µ
16 90
que nos permite escrever:
h
I4− = [f (a) + f (a + h) + 4f (a + h/2)]
6
h
I4+ = [f (a + h) + 4f (a + 3h/2) + f (b)]
6
95 / 242
Anotações

96 / 242
Quadratura Adaptativa para a Regra de Simpson
então a integral fica:
b
1 h5
Z  
f (x) dx = I4− + I4+ − f (4) (e
µ) (22)
a 16 90

Assuma por hipótese (Hipótese ousada!) que

µ'µ
e ⇒ f (4) (µ) ' f (4) (e
µ)

então de (21) e (22) podemos escrever:

I2 + E2 ' I4− + I4+ + E4

ou ainda
h5 (4) 16 
I2 − I4− − I4+ . (23)

f (eµ) '
90 15

97 / 242
Anotações

98 / 242
Quadratura Adaptativa para a Regra de Simpson
De (22) segue que:
1 h5
Z b  
f (x) dx − I4− − I4+ = − f (4) (e
µ)
a 16 90
mas considerando (23) deduz-se
1
Z b
f (x) dx − I4− − I4+ ' I2 − I4− − I4+ .
a 15
Impondo que:
1
eε = I2 − I4− − I4+ < ε (24)
15
para algum ε fixado a-priori, espera-se (por conta da hipótese ousada)
Z b
f (x) dx − I4− − I4+ < ε (25)
a Z b
e então, I4− + I4+ é aceito como uma aproximação de f (x) dx.
a
99 / 242
Anotações

100 / 242
Quadratura Adaptativa para a Regra de Simpson
Por outro lado, se (24) não é verificado é provável que o resultado
(25) não seja válido também. Diante disso, dividimos o intervalo I na
forma I = IA ∪ IB , e aplicamos a R.S. tal que:
   
a+b a+b
IA = a, e IB = ,b .
2 2
ε
Em IA estimamos uma versão parecida com (24) para e não ε.
2
ε
Esperamos que a versão parecida com (25) seja válida em .
2
Analogamente estimamos em IB .
Se as estimativas valerem para IA e IB então a soma das integrais
nestes intervalos provavelmente satisfaz a expressão (25), ou seja:
Z b
ε ε
f (x) dx − I4−A − I4+A − I4−B − I4+B < + = ε (26)
a 2 2
Z b
e então é aceito como aproximação de f (x) dx o valor
a
I4−A + I4+A + I4−B + I4+B .
101 / 242
Anotações

102 / 242
Quadratura Adaptativa para a Regra de Simpson

No entanto se as estimativas para IA e IB não valerem, fracionamos os


intervalos IA e IB e repetimos todo o processo anteriormente descrito.

O procedimento descrito é dinâmico e dependente do valor funcional


de f (x).

Pode ocorrer a necessidade de subdivisões de intervalos novos não


necessariamente aos pares como acima desenvolvido, é aí que se
caracteriza a metodologia adaptativa.

A3: Deduza a Quadratura Adaptativa para a Regra dos Trapézios.


Dica: inicie com n = 1, após considere n = 2 e então finalize o
procedimento em n = 4.

103 / 242
Anotações

104 / 242
Quadratura Adaptativa para a Regra de Simpson
Z π/2
Exemplo: sen (x) dx cujo critério é ε = 1 × 10−5
0
1o Iteração:

π/4
I2 = [sen (0) + 4sen (π/4) + sen (π/2)]
3
π/4
I4− = [sen (0) + sen (π/4) + 4sen (π/8)]
6
π/4
I4+ = [sen (π/4) + 4sen (3π/8) + sen (π/2)]
6
1
eε = I2 − I4− − I4+ = 1.43 × 10−4 < 1 × 10−5 (F) “Itera!”
15

105 / 242
Anotações

106 / 242
Quadratura Adaptativa para a Regra de Simpson
2o Iteração:

IA
π/8
I2 = [sen (0) + 4sen (π/8) + sen (π/4)]
3
π/8
I4− = [sen (0) + sen (π/8) + 4sen (π/16)]
6
π/8
I4+ = [sen (π/8) + 4sen (3π/16) + sen (π/4)]
6
1
e 2ε = I2 − I4− − I4+ = 2.4 × 10−6 < ε/2 (V)
15

107 / 242
Anotações

108 / 242
Quadratura Adaptativa para a Regra de Simpson
Z π/4
∴ sen (x) dx ' 0.29289564
0
IB
..
.
..
.
..
.
e 2ε = 5.9 × 10−6 < ε/2 (F) “Itera em IB !”

Reforçando! É aqui que a adptatividade se mostra relevante. O


refinamento é aplicado apenas em IB , uma vez que em IA já
alcançamos o critério imposto. Essa estratégia tem um menor custo
computacional, o que torna a adptatividade uma metodologia
interessante.

109 / 242
Anotações

110 / 242
Quadratura Adaptativa para a Regra de Simpson
3o Iteração:

A4:
IBA IBB

Obs: Não se esqueça que a verificação é sobre e 4ε nos dois intervalos!


Z π/2
∴ sen (x) dx '?
0

111 / 242
Anotações

112 / 242
Lista de Exercícios - 4

1 1
   
1 Faça os gráficos de sen e cos em [0.1, 2]. Utilize a
x x
quadratura adaptativa para obter uma aproximação das integrais a
seguir com a precisão de 10−3 .

1 1
Z 2   Z 2  
a. sen dx b. cos dx
0.1 x 0.1 x

113 / 242
Anotações

114 / 242
Respostas da Lista de Exercícios - 4

a. 1.1454 b. 0.67378

115 / 242
Anotações

116 / 242
Sumário

Lista de Exercícios
Método do Gradiente Conju-
1 Erro
gado
2 Interpolação Spline 5 Resolução de Sistemas Não-
Lineares
3 Integração
6 Aproximação
4 Resolução de Sistemas Lineares
Normas 7 Cálculo de Autovalores e Autove-
Método das Relaxações Suces- tores
sivas
Critérios de Convergência
8 Avaliações

117 / 242
Anotações

118 / 242
Normas
Uma norma em <m×n é uma
 função com as seguintes propriedades:
i) ∀A ∈ <m×n (||A|| > 0 e ||A|| = 0 ↔ A = 0)

ii) ∀A ∈ <m×n (∀α ∈ <) (||αA|| = |α|.||A||)




iii) ∀A, B ∈ <m×n (||A + B|| 6 ||A|| + ||B||)




As normas usuais são:


v
u m X
n
uX
||A||2 = t 2
ai,j , norma Euclidiana
i=1 j=1
Xm
||A||c = máx |ai,j | , norma do máx. das colunas
16j6n
i=1
X n
||A||l = máx |ai,j | , norma do máx. das linhas
16i6m
j=1
119 / 242
Anotações

120 / 242
Normas
Norma vetorial/matricial
Suponha que x = (−2 1 6) então temos:
1
X
||x||c = máx |xi,j | = máx {| − 2|, |1|, |6|} = 6
16j63
i=1
√ √
||x||l = 9 ||x||2 = 4 + 1 + 36 = 41

0 2 6 2
 
 1 1 5 1 
mas se M =  0
 então:
0 4 2 
0 1 2 5

4
X
||x||c = máx |mi,j | = máx {1, 4, 17, 10} = 17
16j64
i=1

||M||2 = 122 ||x||l = máx {10, 8, 6, 8} = 10
121 / 242
Anotações

122 / 242
Método das Relaxações Sucessivas
O Método das Relaxações Sucessivas é uma técnica que resolve sistemas
lineares, AX = b, de modo iterativo. Sem perda de generalidade considere:

a x + a12 x2 + a13 x3 + a14 x4 = b1
 11 1


 a x +a x +a x +a x = b
21 1 22 2 23 3 24 4 2


 a x
31 1 + a x
32 2 + a x
33 3 + a x
34 4 = b 3

a41 x1 + a42 x2 + a43 x3 + a44 x4 = b4
onde aii 6= 0 para i = 1, 2, 3, 4. Esse sistema pode ser reescrito na forma
 1
 x1 = (b1 − a12 x2 − a13 x3 − a14 x4 )
a11




1



 x2 = a (b2 − a21 x1 − a23 x3 − a24 x4 )



22
(27)
 1
 x3 =
 (b3 − a31 x1 − a32 x2 − a34 x4 )
a33




 x4 = 1 (b4 − a41 x1 − a42 x2 − a43 x3 )




a44
123 / 242
Anotações

124 / 242
Método das Relaxações Sucessivas
e assumindo que no nível k os valores x1 , x2 , x3 , x4 sejam conhecidos, então
de (27) temos para o nível k + 1 o que segue:

k+1 1  k k k

 x1 = b1 − a12 x 2 − a 13 x3 − a 14 x4
a11




1 

 
k+1
b2 − a21 x1k − a23 x3k − a24 x4k

 x2 =


a22
k+1 1  k k k

− − −


 x3 = b3 a31 x 1 a 32 x2 a 34 x4


 a33
 x k+1 = 1 b4 − a41 x k − a42 x k − a43 x k

  


4 1 2 3
a44
que corresponde ao Método de Jacobi para a resolução do sistema linear.
No caso geral o método pode ser escrito como:
 
i−1 n
1  X X
xik+1 = bi − aij xjk − aij xjk  (28)
aii
j=1 j=i+1

com i = 1, . . . , n.
125 / 242
Anotações

126 / 242
Método das Relaxações Sucessivas
Por outro lado, se xi está sendo calculado então todos os valores xj para
j = 1, . . . , i − 1 são conhecidos, logo de (28) pode-se deduzir
 
i−1 n
1  X X
xik+1 = bi − aij xjk+1 − aij xjk  (29)
aii
j=1 j=i+1

com i = 1, . . . , n, o qual é nomeado de Método de Gauss-Seidel.


Adicionando e subtraindo xik em (29) então segue que
 
i−1 n
1  X X
xik+1 = xik − xik + bi − aij xjk+1 − aij xjk 
aii
j=1 j=i+1
aii
mas podemos escrever −xik = − xik , logo
aii
 
i−1 n
1  X X
xik+1 = xik + bi − aij xjk+1 − aij xjk  (30)
aii
j=1 j=i

com i = 1, . . . , n. 127 / 242


Anotações

128 / 242
Método das Relaxações Sucessivas

Observe
 em (30) que xik+1 é xik acrescido de um termo de correção
i−1 n
1  X X
bi − k+1
aij xj − aij xjk .
aii
j=1 j=i

A convergência pode ser acelerada por um fator ω multiplicado pelo termo


de correção. O ω é mais conhecido como Fator de Relaxação e geralmente
é tomado na faixa 0 < ω < 2, de modo que:
0 < ω < 1 significa sub-relaxado

ω = 1 significa que a forma Gauss-Seidel é a utilizada

1 < ω < 2 significa sobre-relaxado

129 / 242
Anotações

130 / 242
Método das Relaxações Sucessivas
Desta forma, de (30) pode-se escrever ainda
 
i−1 n
ω  X X
xik+1 = xik + bi − aij xjk+1 − aij xjk 
aii
j=1 j=i

ou
 
i−1 n
aii k ω  X X
xik+1 = xik − ω xi + bi − aij xjk+1 − aij xjk 
aii aii
j=1 j=i+1

ou finalmente
 
i−1 n
ω  X X
xik+1 = bi − aij xjk+1 − aij xjk  − (ω − 1) xik (31)
aii
j=1 j=i+1

com i = 1, . . . , n e 0 < ω < 2, k = 0, 1, . . . , que é nomeado Método das


Relaxações Sucessivas.
131 / 242
Anotações

132 / 242
Método das Relaxações Sucessivas
Exemplo:
4 0.24 −0.08 x1 8 0
      
0.09 3 −0.15 x2 = 9  ;
   X = 0 ;
0  
ε = 0.02; ω =1
0.04 −0.08 4 x3 20 0

x1 x2 x3 Erel
– 0 0 0 –
k =0 2 2.94 5.0388 {1,1,1}

1 < ε (F)
k =1 1.9244 3.1942 5.0446 {3.9×10−2 ,7.9×10−2 ,1.1×10−3 }
7.9 × 10−2 < ε (F)
k =2 1.9092 3.1950 5.0448 {7.9×10−3 ,2.5×10−4 ,3.9×10−5 }
7.9 × 10−3 < ε (V)

A: 1 avalie os casos em que ω = 0.5 e ω = 1.7 nas outras normas (no


modo relativo).
133 / 242
Anotações

134 / 242
Critérios de Convergência
Teorema: Critério das Linhas
n
1 X
Considere o sistema linear A.X = b e seja αL = |aLj |.
|aLL | j=1
j6=L
Se α = máx αL < 1, então o Método de Gauss-Seidel gera uma sequência
16L6n
de vetores solução convergente para a solução do sistema linear qualquer que
seja a escolha de X 0 .

Observação:
o critério das linhas estabelece que a matriz dos coeficientes é
diagonal dominante;
que a convergência, via o método de Gauss-Seidel, tem relação estrita
com a estrutura da matriz dos coeficientes A.

135 / 242
Anotações

136 / 242
Critérios de Convergência
Teorema: Critério de Sassenfeld
Seja o sistema linear A.X = b e sejam:
n
1 X
β1 = |a1j |
|a11 | j=1
j6=L

1
βL = (|aL1 |β1 + |aL2 |β2
|aLL |
+ · · · + |aL,j−1 |βj−1 + |aL,j+1 |β1 + · · · + |aLn |)

e seja ainda β = máx . Se β < 1, então o Método de Gauss-Seidel gera uma


16L6n
sequência de vetores solução convergente, qualquer que seja X 0 . Quanto
menor o valor de β, mais rápida é a convergência.
Observação:
o critério de Sassenfeld é uma generalização do critério das linhas.
137 / 242
Anotações

138 / 242
Critérios de Convergência
Exemplo:

1 3 1
    
x1 −2
 5 2 2  x2  =  3 
0 6 8 x3 −6
Temos:
α = 4 ⇒ não há garantia de convergência via M.G.S.

mas trocando 1o com a 2o linha,

α = 0.8 ⇒ logo há convergência via M.G.S. nesta configuração.

Ressalta-se que o sistema a ser resolvido é:

5 2 2 3
    
x1
1 3 1  x2  =  −2 
0 6 8 x3 −6
139 / 242
Anotações

140 / 242
Critérios de Convergência
Exemplo:

1 0.5 −0.1 0.1 0.2


    
x1
 0.2 1 −0.2 −0.1  x2
   −2.6 
=
1 0.2  x3 1
 
 −0.1 −0.2  
0.1 0.3 0.2 1 x4 −2.5
Temos:

β1 = 0.7 β2 = 0.44 β3 = 0.358 β4 = 0.2736


então
β = 0.7 < 1
garante uma sequência convergente, via M.G.S., para a solução do sistema
linear.

141 / 242
Anotações

142 / 242
Critérios de Convergência
Teorema: Critério Ostrowski-Reich
Seja o sistema linear A.X = b, se A for definida positiva
hX , A.X i = X .A.X > 0, ∀X , então o Método das Relaxações Sucessivas
t


converge para qualquer escolha X 0 e 0 < w < 2.


Observação:
verificar se A é definida positiva não é uma tarefa fácil. Uma maneira
matemática/computacional dessa verificação é por meio da Fatoração
Cholesky.

A2: Deduza a Fatoração Cholesky. Após, dê mais detalhes sobre como a


Fatoração Cholesky efetivamente é utilizada.

143 / 242
Anotações

144 / 242
Lista de Exercícios - 5
1 Considere os sistemas lineares: 
10x1 + 5x2 = 6

5x1 + 10x2 − 4x3 = 25


 3x1 − x2 + x3 = 1 (III)

−4x2 + 8x3 − x4 = −11
(I) 3x1 + 6x2 + 2x3 = 0


−x3 + 5x4 = −11

3x1 + 3x2 + 7x3 = 4

4x1 + x2 + x3 + x5 6

 =
−x1 − 3x2 + x3 + x4 6

=
10x1 − x2 = 9
 

(IV)

2x1 + x2 + 5x3 − x4 − x5 = 6

(II) −x1 + 10x2 − 2x3 = 7 

 −x1 − x2 − x3 + 4x4 = 6
−2x2 + 10x3 = 6

2x2 − x3 + x4 + 4x5 6

=

(a) Use o método de Gauss-Seidel para resolver os sistemas


lineares com TOL = 10−3 na norma 2.
(b) Use o método das Relaxações Sucessivas, com w = 1.2, para
resolver os sistemas lineares com TOL = 10−3 na norma l.
(c) Determine quais matrizes dos sistemas são tridiagonais
definidas positivas. Resolva os sistemas tridiagonais definidos
positivos por Relaxações Sucessivas para melhor estimativa w .
OBS: Desenvolva um procedimento que valide as soluções dos itens acima!
145 / 242
Anotações

146 / 242
Produto Interno
Teorema: Para quaisquer vetores x, y , z e qualquer nº real α, temos:
1 hx, y i = hy , xi

2 hαx, y i = hx, αy i = α hx, y i

3 hx + z, y i = hx, y i + hz, y i

4 hx, xi ≥ 0

5 hx, xi = 0 ↔ x = 0

Se A é uma matriz definida positiva, então


hx, Axi = x T Ax > 0 , ∀x
a menos que x = 0. Quando A é simétrica temos
x T Ay = x T AT y = (Ax)T y
logo
hx, Ay i = hAx, y i , ∀y .
147 / 242
Anotações

148 / 242
Formulação do Método Gradiente

Teorema: O vetor x ∗ é uma solução do sistema linear definido positivo


Ax = b se e somente se, x ∗ minimiza o funcional
g (x) = hx, Axi − 2 hx, bi .

Dem.
(⇒) Considere x 6= 0 e v 6= 0 fixos, e t ∈ R variável, então:
g (x + tv ) =
hx + tv , Ax + tAv i − 2 hx + tv , bi =
hx, Ax + tAv i + htv , Ax + tAv i − 2 {hx, bi + htv , bi} =
hx, Axi + hx, tAv i + htv , Axi + htv , tAv i − 2 hx, bi − 2 htv , bi =
hx, Axi + t hx, Av i + t hv , Axi + t 2 hv , Av i − 2 hx, bi − 2t hv , bi =
ou finalmente
g (x + tv ) = g (x) + 2 hv , Ax − bi t + hv , Av i t 2 .
149 / 242
Anotações

150 / 242
Formulação do Método Gradiente
Com x, v fixos e t variável, definimos a função H (t) = g (x + tv ). Uma
vez que hv , Av i > 0, então H (t) tem valor mínimo em t = t̂. De fato,
considerando
H 0 (t) = 2 hv , Ax − bi t + 2t hv , Av i = 0
sai que
hv , Ax − bi hv , b − Axi
t=− = = t̂.
hv , Av i hv , Av i
Desta forma,

g x + t̂v =
g (x) + 2t̂ hv , Ax − bi + t̂ 2 hv , Av i =
hv , b − Axi 2
 
hv , b − Axi
g (x) + 2 hv , Ax − bi + hv , Av i =
hv , Av i hv , Av i
hv , Ax − bi2 hv , Ax − bi2
g (x) − 2 +
hv , Av i hv , Av i
151 / 242
Anotações

152 / 242
Formulação do Método Gradiente

ou simplesmente

 hv , Ax − bi2
g x + t̂v = g (x) −
hv , Av i

é o Valor Mínimo.

Desta última igualdade temos:


hv , Ax − bi2
< g (x), pois > 0 considerando que

1 g x + t̂v
hv , Av i
6 0;
hv , Ax − bi =

caso hv , Ax − bi = 0, então g x + t̂v = g (x);



2

é correto dizer que g x + t̂v ≤ g (x).



3

153 / 242
Anotações

154 / 242
Formulação do Método Gradiente

Portanto, temos as seguintes conclusões.

1 Se x ∗ satisfaz Ax ∗ = b, isto implica que

hv , Ax ∗ − bi2
g x ∗ + t̂v = g (x ∗ ) − = g (x ∗ )

, ∀v
hv , Av i

ou seja, x ∗ é o valor tal que g (x ∗ ) é o mesmo que o valor mínimo,


então x ∗ minimiza g .

2 Se x ∗ minimiza g , então é verdade que


2.1 g x ∗ + t̂v ≤ g (x ∗ ) g x ∗ + t̂v = g (x ∗ )
 

2
hv , Ax ∗ − bi
2.2 g x ∗ + t̂v = g (x ∗ ) −

hv , Av i

155 / 242
Anotações

156 / 242
Formulação do Método Gradiente
(⇐) De (2.1) e (2.2) segue
hv , Ax ∗ − bi2
g x ∗ + t̂v − g (x ∗ ) =


hv , Av i
0 = hv , Ax ∗ − bi

Ax − b = 0 , pois por hipótese v 6= 0
ou seja, x ∗ é solução do sistema linear. Portanto o teorema está provado!
Em resumo, o método gradiente conjugado consiste em:
1 Escolha x
0

2 Admita v 1 6= 0
3 Para k = 1, 2, 3, . . . calcule
v k , b k − Ax k−1
tk =
hv k , Av k i
x k = x k−1 + tk v k
escolha uma nova direção v k+1
4 fim 157 / 242
Anotações

158 / 242
Formulação do Método Gradiente
A melhor forma de escolha de v k+1 é a partir do conjunto v 1 , v 2 , . . . , v n


A-Ortogonal.

Considerando o conjunto v 1 , v 2 , . . . , v n e a matriz A definida positiva,




então o conjunto é A-Ortogonal se:


T
vi Av j = 0 se i 6= j.

Teorema: Seja v 1 , v 2 , . . . , v n um conjunto A-Ortogonal de vetores




não nulos associados a matriz definida positiva A, e seja x 0 arbitrário,


se:
v k , b − Ax k−1
tk = ; x k = x k−1 + tk v k
hv k , Av k i
para k = 1, 2, . . . , n. Então, supondo aritmética exata, Ax n = b.

159 / 242
Anotações

160 / 242
Método das Relaxações Sucessivas

Exemplo:
4 3 0 x1 24
    
3 4 −1x2= 30
0 −1 4 x3 −24

A matriz dos coeficientes é definida positiva, e v 1 , v 2 , v 3 é A-Ortogonal




onde v 1 = (1 0 0)T ; v 2 = (−3/4 1 0)T ; v 3 = (−3/7 4/7 1)T .


Se x 0 = 0 então temos:
k =1 t1 = 6
x 1 = (6 0 0)T

k =2 t2 = 48/7
x 1 = (6/7 48/7 0)T

k =3 t1 = −5
x 1 = (3 4 − 5)T solução exata.
161 / 242
Anotações

162 / 242
Formulação do Método Gradiente

Teorema (Hestenes e Stiefel - 1951): Os vetores residuais r k = b − Ax k ,


k = 1, . . . , n, para um método de direção conjugada satisfaz as equações:

< r k , v j >= 0 ; j = 1, 2, . . . , k.

Do teorema é deduzido que

r k−1 , r k−1
tk =
hv k , Av k i

e um novo parâmetro sk surge para atualizar v k+1 tal que o conjunto


v 1 , v 2 , . . . , v n seja A-Ortogonal, ou seja

rk, rk
sk = ; v k+1 = r k + sk v k .
hr k−1 , r k−1 i

163 / 242
Anotações

164 / 242
Formulação do Método Gradiente
Algoritmo 1: Gradiente Conjugado
Entrada: A, b, x 0 , ITMAX , 
Saída: x k para algum 1 ≤ k < ITMAX
1 início
2 r 0 = b − Ax 0 ; v 1 = r 0
3 para k = 1, . . . , ITMAX faça
r k−1 , r k−1
4 tk = ; r k = r k−1 − tk Av k ; x k = x k−1 +tk v k
hv k , Av k i
5 se ||r k || ≤  então
6 Convergiu! x k é a solução numérica
7 senão
rk, rk
8 sk = k−1 k−1 ; v k+1 = r k + sk v k
hr ,r i
9 fim
10 fim
11 fim

A1: resolva o exemplo do slide 161 com o algoritmo 1. 165 / 242


Anotações

166 / 242
Sumário

Caso particular
Caso geral
1 Erro
Lista de Exercícios
2 Interpolação Spline
6 Aproximação
3 Integração 7 Cálculo de Autovalores e Autove-
tores
4 Resolução de Sistemas Lineares
8 Avaliações
5 Resolução de Sistemas Não-
Lineares

167 / 242
Anotações

168 / 242
Caso particular
Considere uma função não linear F : D ⊂ <2 → <2 de modo que queremos
as soluções de F (x) = 0, ou equivalentemente
(
f1 (x1 , x2 ) = 0
(32)
f2 (x1 , x2 ) = 0

onde x = (x1 , x2 ) e F (x) = (f1 (x) f2 (x))T . Considere ainda x ∗ = (x1∗ , x2∗ )
como a solução da função F (x), então é verdade que:
(
f1 (x1∗ , x2∗ ) = 0
F (x ∗ ) = 0 ⇔
f2 (x1∗ , x2∗ ) = 0
Admita que x10 , x20 seja uma aproximação de (x1∗ , x2∗ ) e que a Série de


Taylor de f1 , f2 possam ser calculadas, então para (32) podemos escrever:


 ∂  ∂
f1 (x1 , x2 ) = f1 x 0 + f1 x 0 x1 − x10 + f1 x 0 x2 − x20 +E1
  
∂x1 ∂x2
 ∂  ∂
f2 (x1 , x2 ) = f2 x 0 + f2 x 0 x1 − x10 + f2 x 0 x2 − x20 +E2
  
∂x1 ∂x2
169 / 242
Anotações

170 / 242
Caso particular
Levando as funções anteriores em (32) temos
 ∂  ∂
f1 x 0 + f1 x 0 x1 − x10 + f1 x 0 x2 − x20 +E1 = 0
  
∂x1 ∂x2
 ∂  ∂
f2 x 0 + f2 x 0 x1 − x10 + f2 x 0 x2 − x20 +E2 = 0
  
∂x1 ∂x2

e quando desprezamos E1 e E2 podemos escrever


∂  ∂
  
x1 − x10 −f1 x10 , x20
  
f1 x 0 f1 x 0
 ∂x1 ∂x2 
(33)
  



 = 
 ∂   
0
 ∂ 0
 
0 0 0

f2 x f2 x x2 − x2 −f2 x1 , x2
∂x1 ∂x2
como uma aproximação linear de (32).

171 / 242
Anotações

172 / 242
Caso particular
Denotando
x1 − x10 = p0 x 1 = x10 + p0
⇒ (34)
x2 − x20 = q0 x 2 = x20 + q0

o sistema linear (33) pode ser resolvido por alguma técnica e x 1 e x 2 em


(34) é uma estimativa para (x1∗ , x2∗ ), logo alguma técnica de avaliação sobre
convergência pode agora ser aplicada.
Escrevendo x 1 = x11 e x 2 = x21 de modo que x11 , x21 seja uma aproximação


de (x1∗ , x2∗ ), e procedendo de modo análogo ao feito anteriormente, pode-se


deduzir
∂  ∂
  
−f1 x11 , x21
  
1 1 p1
f1 x f1 x
 ∂x1 ∂x2 
(35)
  



 = 
 ∂   
∂ 
f2 x 1 f2 x 1
 
−f2 x11 , x21

q1
∂x1 ∂x2
173 / 242
Anotações

174 / 242
Caso particular
e obter novas estimativas
x12 = x11 + p1

x22 = x21 + q1

que podem ser avaliadas com respeito a convergência. Procedendo assim


sucessivamente obtém-se um conjunto de soluções numéricas do problema
original (32).
Em resumo, dado o problema
(
f1 (x1 , x2 ) = 0
f2 (x1 , x2 ) = 0

e uma estimativa incial x10 , x20 e um critério de convergência, então o




método de Newton para o sistema não linear consiste em:

175 / 242
Anotações

176 / 242
Caso particular
resolver o sistema linear

 
  pk  
J x1k , x2k .   = −F x1k , x2k (36)
qk
 
onde J x1k , x2k é nomeada Matriz Jacobiana
calcular a nova estimativa
x1k+1 = x1k + pk
(37)
x2k+1 = x2k + qk

avaliar a precisão da estimativa


||F x k+1 − F x k ||
 
||x k+1 − x k ||
ER1 = < ε1 ER2 = < ε2 (38)
||F (x k+1 ) || ||x k+1 ||
177 / 242
Anotações

178 / 242
Caso particular
T
Exemplo: F (x) = x1 + x2 − 3, x12 + x22 − 9 ; x 0 = (1, 5) ; ε1 =
ε2 = ε = 10−4
Temos que
1 1
 
J (x) =
2x1 2x2

1 1
    
p0 −3
logo para k = 0, mediante (36), escrevemos = .
2 10 q0 −17
Mas resolvendo o sistema e considerando (37) obtemos a primeira aproxi-
mação, ou seja,
x11 = 1 + p0 = −0.625

x21 = 5 + q0 = 3.625.

Em seguida, por (38), podemos avaliar se seguimos ou não no processo


iterativo. A1: prossiga com os cálculos ....
179 / 242
Anotações

180 / 242
Caso geral
No caso geral, dado o sistema não linear

f1 (x1 , x2 , . . . , xn ) = 0



 f2 (x1 , x2 , . . . , xn ) = 0


.. (39)


 .
fn (x1 , x2 , . . . , xn ) = 0

e uma escolha x 0 suficientemente próxima da solução x ∗ do sistema, então


o método de Newton para este sistema é:
h  i−1  
x k+1 = x k − J x k .F x k (40)
h  i−1
para k = 0, 1, 2, . . . , desde que J x k exista.

181 / 242
Anotações

182 / 242
Caso geral
h  i−1
Como o custo computacional de J x k em geral é alto, então (40)
pode ser implementado pelos cálculos:

    
 J x k .y k = −F x k
(41)
 x k+1 = xk + yk

Teoricamente, as metodologias (40) ou (41) são de convergência


quadrática, mas por conta de se resolver um sistema linear
iterativamente a convergência diminui.
 
Em (40) ou (41), para cada k temos de calcular novamente J x k ,
porém este procedimento é caro computacionalmente.

183 / 242
Anotações

184 / 242
Caso geral
Uma alternativa seria calcular
−1  k 
x k+1 = x k − J x 0 (42)

.F x
ou equivalentemente
  
 J x 0  .y k = −F x k
(43)
 x k+1 = xk + yk
onde a matriz Jacobiana é avaliada uma única vez, o que nos dá o Método
de Newton modificado. O mesmo tem taxa linear de convergência.

O Octave tem rotinas implementadas que possibilitam a resolução de siste-


mas não lineares, por exemplo consultar o link:
http://homepages.math.uic.edu/~hanson/Octave/
OctaveNonlinearEG.html

http://hplgit.github.io/Programming-for-Computations/pub/
p4c/._p4c-bootstrap-Matlab030.html
185 / 242
Anotações

186 / 242
Lista de Exercícios - 6

1 Considere o sistema Não-linear:

1

 3x1 − cos (x2 x3 ) − = 0
2



2
x1 − 81 (x2 + 0.1) + sen (x3 ) + 1.06 = 0
2

10π − 3


e −x1 x2 + 20x3 + = 0


3

Considerando x 0 = (0.1 0.1 − 0.1)T e ε = 10−5 , nos seguintes casos:


(a) Método de Newton.
(b) Método de Newton modificado.
(c) Faça, no mesmo gráfico, o gráfico de k × ER2 de (a) e (b).
Qual é a conclusão?

187 / 242
Anotações

188 / 242
Sumário

6 Aproximação
Mínimos Quadrados Linear
1 Erro
Mínimos Quadrados Não-Linear
Coeficientes de determinação
2 Interpolação Spline
7 Cálculo de Autovalores e Autove-
3 Integração tores

4 Resolução de Sistemas Lineares 8 Avaliações

5 Resolução de Sistemas Não-


Lineares

189 / 242
Anotações

190 / 242
Mínimos Quadrados Linear
Com relação ao caso discreto, considere a tabela:
x x1 x2 ... xm
f (x) f (x1 ) f (x2 ) ... f (xm )
Tabela 3: Tabela do conjunto de dados.

e as funções
g1 (x) , g2 (x) , . . . , gn (x)
definidas e escolhidas a priori, onde m ≥ n necessariamente.
O objetivo é encontrar o vetor de constantes α = (α1 , ..., αn ) tal que
3
g (α, x) = α1 g1 (x) + · · · + αn gn (x) (44)

se aproxime de f (x).

3
g é uma combinação linear de funções
191 / 242
Anotações

192 / 242
Mínimos Quadrados Linear
Seja dk (α) = f (xk )−g (α, xk ) o desvio no ponto k. O Método dos Mínimos
Quadrados Linear (MMQL) consiste em encontrar os αj 0 s tal que
m 
X m 
2 X 2
Res (α) ≡ dk (α) = f (xk ) − g (α, xk ) (45)
k=1 k=1

seja mínima. Denotando (45) sob a forma:


m 
X 2
F (α1 , . . . , αn ) = f (xk ) − g (α, xk )
k=1

então temos
m   
∂F X
=2 f (xk ) − α1 g1 (xk ) − · · · − αn gn (xk ) . − gj (xk )
∂αj
k=1

193 / 242
Anotações

194 / 242
Mínimos Quadrados Linear
∂F
e impondo = 0 para j = 1, . . . , n encontramos
∂αj
 m  
X
− − · · · − n n .g1 = 0



 f (x k ) α g
1 1 α g

 k=1

..

. (46)


 X m  
f (xk ) − α1 g1 − · · · − αn gn .gn = 0





k=1
ou ainda m
X
 aij = gi (xk ) gj (xk ) ≡< g i , g j >
a α + · · · + a1n αn = b1
 11 1 k=1


.. aji = aij
 . ,
 m
an1 α1 + · · · + ann αn = bn
 X
bi = f (xk ) gi (xk ) ≡< f , g i >
k=1

A1: faça as operações até obter o S.L. 195 / 242


Anotações

196 / 242
Mínimos Quadrados Linear
Observações:
I. demonstra-se que: se g1 (x) , . . . , gn (x) forem tais que
g 1 , . . . , g n sejam LI então det (A) 6= 0, logo o sistema linear
(46) tem solução única;
II. a solução α = (α1 . . . αn )T , em [I], é o ponto de mínimo
da função F (α1 , . . . , αn );
III. se g 1 , . . . , g n tiverem a propriedade
(
= 0 ; i 6= j
< gi, gj >
6= 0 ; i = j

então os vetores são ortogonais entre si. Assim, A é diagonal


e o sistema linear (46) terá solução única facilmente obtida.
IV. Além do MMQL existem também:

MMQL-Ponderados e o MMQL-Móveis.
197 / 242
Anotações

198 / 242
Exemplo linear - MMQL
Exemplo:
x 1 2 3 4 5 6 7 8
f (x) 0.5 0.6 0.9 0.8 1.2 1.5 1.7 2.0

a. Ajuste linear b. Ajuste quadrático


a. g (α, x) = 0.175 + 0.21667x
b. g (α, x) = 0.40714 + 0.07738x + 0.01548x 2

199 / 242
Anotações

200 / 242
Exemplo linear - MMQL
Exemplo:
x 1 2 3 4 5 6 7 8
f (x) 0.5 0.6 0.9 0.8 1.2 1.5 1.7 2.0

c. Quem é melhor (a) ou (b)?


8 
X 2
c. Res (α)a = dk (α) = 0.08833,
k=1
X8  2
Res (α)b = dk (α) = 0.04809
k=1

201 / 242
Anotações

202 / 242
Mínimos Quadrados Linear (Caso não linear!)
Existem modelos não lineares de ajuste que podem ser linearizados e servirem
como ótimas práticas de ajustamento de dados, por exemplo:
P (µ, x) = µ1 (µ2 )x
ln (P) = ln (µ1 (µ2 )x ) ⇔ ln (P) = ln (µ1 ) + xln (µ2 ) ⇔
g (α, x) = α1 + α2 x ; g (α, x) = ln (P) ; α1 = ln (µ1 ) ; α2 = ln (µ2 )
1
P (µ, x) =
µ1 + µ2 x

P (µ, x) = µ1 x µ2

P (µ, x) = µ1 + µ2 x

P (µ, x) = xln (µ1 + µ2 x)

e outros .....

A2: linearize os quatro últimos modelos acima. 203 / 242


Anotações

204 / 242
Exemplo não linear - Parte I
Exemplo:
x −2 −1 0 1 2 3 4 5 6 7
f (x) 10 8 4 3.5 2.1 1 0.5 0.3 0.2 0.1
g (α,x) α1 +α2
z }| { z }| { z}|{
−µ2 x
P (µ, x) = µ1 e ⇒ ln [P (µ, x)] = ln (µ1 ) −µ2 x

A3: encontre µ 1 e µ2
205 / 242
Anotações

206 / 242
Mínimos Quadrados Não-Linear
Considere a tabela:
x x1 x2 ... xm
f (x) f (x1 ) f (x2 ) ... f (xm )
Tabela 4: Tabela do conjunto de dados.
e o vetor de parâmetros θ = (θ1 , θ2 , . . . , θn , ), de modo que m ≥ n necessa-
riamente. O objetivo é encontrar a função H (x, θ), que depende de forma
não linear de θ, ajustada ao conjunto de dados da tabela (4), no sentido dos
mínimos quadrados.
Em outras palavras, encontrar θ que minimiza a função:
Xm  2
F (θ) = f (xk ) − H (θ, xk ) (47)
k=1

e consequentemente nos dar a função H (θ, x) que se aproxima de f (x). A


presente técnica é denominada Método dos Mínimos Quadrados Não-linear
(MMQNL).
207 / 242
Anotações

208 / 242
Mínimos Quadrados Não-Linear
Em uma notação mais geral, se escrevermos
f (xk ) − H (θ, xk ) = dk (θ)
então (47) fica

m 
X 2
F (θ) = dk (θ) ≡ Res (θ) (48)
k=1
lembrando que objetivamos encontrar θ que minimiza a função F (θ).
∂F (θ)
Tomando = 0 (com j = 1, 2, . . . , n), segue que
∂θj
m
∂F (θ) X ∂
=2 dk (θ) dk (θ) = 0
∂θj ∂θj
k=1
ou ainda
m
X ∂
dk (θ) dk (θ) = 0 para j = 1, 2, . . . , n.
∂θj
k=1
209 / 242
Anotações

210 / 242
Mínimos Quadrados Não-Linear

que equivale a escrever

J T(θ) .d (θ) = 0 (49)

de modo que 0 é o vetor nulo, enquanto que J (θ) e d (θ) são tais que

∂ ∂ ∂
 
d (θ) d1 (θ) . . . d1 (θ)
 ∂θ1 1 ∂θ2 ∂θn  
d1 (θ)

 
   
 ∂ ∂ ∂   

d2 (θ) d2 (θ) . . . d2 (θ)
  d2 (θ) 
 ∂θ ∂θ2 ∂θn

J (θ) =  1
 
 d (θ) = 
 
 
... 
  

 . . . . . . . . . . . . 
 



 
 
 ∂ ∂ ∂  dm (θ)
dm (θ) dm (θ) . . . dm (θ)
∂θ1 ∂θ2 ∂θn
211 / 242
Anotações

212 / 242
Mínimos Quadrados Não-Linear
Por exemplo, se tívessemos os seguintes dados:
x x1 x2 x3 H (θ, x) = θ1 e θ2 x ; f (xk )−θ1 e θ2 xk = dk (θ)
f (x) f (x1 ) f (x2 ) f (x3 ) ∂dk (θ) ∂dk (θ)
= −e θ2 xk ; = −θ1 xk e θ2 xk
Tabela 5: Tabela de dados. ∂θ 1 ∂θ 2

por meio de (49) o sistema não linear seria do tipo


 
f (x1 ) − θ1 e θ2 x1 e θ2 x1 + f (x2 ) − θ1 e θ2 x2 e θ2 x2
  

 +




θ2 x3 θ2 x3
= 0
  



 f (x 3 ) − θ 1 e e



f (x1 ) − θ1 e θ2 x1 θ1 x1 e θ2 x1 f (x2 ) − θ1 e θ2 x2 θ1 x2 e θ2 x2
    


 + +




f (x3 ) − θ1 e θ2 x3 θ1 x3 e θ2 x3 = 0.

  

A4: Escreva o presente problema em notação matricial, exibindo de foma


explícita a matriz J (θ) e o vetor d (θ). 213 / 242
Anotações

214 / 242
Mínimos Quadrados Não-Linear

Existem diversas técnicas numéricas que permitem resolver o sistema de


equações (49), as mais conhecidas são:

1 Método de Newton

2 Método de Gauss-Newton

3 Método de Levenberg-Marquardt.

215 / 242
Anotações

216 / 242
Mínimos Quadrados Não-Linear (Método de Newton)
Para o sistema não linear (49), via (41), o Método de Newton fica:
         
 J J T θIT d θIT .y IT = −J T θIT d θIT
 θIT +1 = θIT + y IT
com θ0 suficientemente próximo de θ∗ (solução exata).
        
Denotando J J T θIT d θIT = U e −J T θIT d θIT = V , temos que:
m 
X ∂2      ∂
IT IT
   ∂  
UL,C = dk θ .dk θ + dk θIT . dk θIT
∂θC ∂θL ∂θC ∂θL
k=1

m     
X
IT ∂
VC = − dk θ dk θIT
∂θC
k=1
 T
com L, C = 1, . . . , n; y IT = y1IT , . . . , ynIT ; e IT = 1, . . . , ITmax .

A5: Deduza o Método de Newton, em notação U e V , do problema no


slide página 213. 217 / 242
Anotações

218 / 242
Exemplo não linear - Parte II
Exemplo:
x −2 −1 0 1 2 3 4 5 6 7
f (x) 10 8 4 3.5 2.1 1 0.5 0.3 0.2 0.1

H (θ, x) = θ1 e θ2 x

A6: encontre θ 1 e θ2
219 / 242
Anotações

220 / 242
Exemplo não linear - MMQL × MMQNL
Exemplo:
x −2 −1 0 1 2 3 4 5 6 7
f (x) 10 8 4 3.5 2.1 1 0.5 0.3 0.2 0.1

a. Ajuste via MMQL c. Quem é melhor (a) ou


b. Ajuste via MMQNL (b)?

a. P (µ, x) = 4.5291e −0.5260x

b. H (θ, x) = 4.6031e −0.4112x

10 
X 2 10 
X 2
c. Res (µ) = dk (µ) = 10.16 ; Res (θ) = dk (θ) = 2.32
k=1 k=1

221 / 242
Anotações

222 / 242
Exemplo não linear - MMQL × MMQNL
Exemplo:
x −2 −1 0 1 2 3 4 5 6 7
f (x) 10 8 4 3.5 2.1 1 0.5 0.3 0.2 0.1

223 / 242
Anotações

224 / 242
Coeficientes de determinação: R 2 e Raj2
O coeficiente de determinação R 2 é uma métrica que explica quanto a curva
de ajuste, g (α, x) ou H (θ, x), explica os dados. O R 2 é escrito por:
 2
Pm
MQ − yM
k=1
variação explicada
R2 = 2 = ; 0 ≤ R2 ≤ 1
variação total

Pm
k=1 f (xk ) − yM

onde: m
1 X

g (α, xk )
MQ = e yM = f (xk ) média arit. simples
H (θ, xk ) m
k=1

O Raj2(cof. de det. ajustado) é uma métrica parcimoniosa, quando compa-


rada ao R 2 , que considera a quantidade de parâmetros
 (K ) e o tamanho
 da
1

m −
amostra. O mesmo é escrito por Raj2 = 1 − 1 − R 2 .
m − (K + 1)
| {z }
Penalidade

A7: encontre Raj2 das equações de ajuste do problema no slide (223).


225 / 242
Anotações

226 / 242
Sumário

5 Resolução de Sistemas Não-


Lineares
1 Erro
6 Aproximação
2 Interpolação Spline
7 Cálculo de Autovalores e Autove-
3 Integração tores
Definições sobre Autovalores e
4 Resolução de Sistemas Lineares Autovetores

8 Avaliações

227 / 242
Anotações

228 / 242
Definições sobre Autovalores e Autovetores
Muitos problemas aplicados recaem na resolução da equação

Av = λv (50)

onde A é uma matriz quadrada de ordem n ∈ N sobre o corpo κ, v é um


vetor não-nulo tal que v ∈ κn e λ ∈ κ é um escalar. A resolução da equação
(50) é mais conhecida como o Problema de Autovalor/Autovetor.

De (50) temos

Av = λv ⇔ Av − λv = 0 ⇔ (A − λI) v = 0

que em última análise significa que temos um sistema linear homogêneo a


ser resolvido.

O sistema linear (A − λI) v = 0 sempre tem solução nula. Mas admitirá


solução não nula se for imposto que det (A − λI) = 0, pois:
229 / 242
Anotações

230 / 242
Definições sobre Autovalores e Autovetores
1
(A − λI) v = 0 (A − λI)−1 = · adj (A − λI)
−1
det (A − λI)
(A − λI) · (A − λI) v = 0 ∴
6 0
det (A − λI) = ⇒v=0
que implica em
det (A − λI) = 0 ⇒ v 6= 0 ou @v.

A equação det (A − λI) = 0 é nomeada como Polinômio Característico e


escrita sob a notação:
P (λ) = det (A − λI)
e como tal deseja-se encontrar os λ0 s tais que P (λ) = 0, é aqui que temos
o primeiro desafio!

Encontrado os λ0 s, voltamos em (A − λI) v = 0, e para cada λ resolvemos


o sistema linear, e aqui temos o segundo desafio!

231 / 242
Anotações

232 / 242
Caso com n = 2
1 4
 

A=  λ =? v =?
2 3
Problemática: 
1 4
 
v1
 
v1

 ·  = λ 
2 3 v2 v2
Pol. Característico:
1 4 1 0
   

P (λ) = det   − λ  = λ2 − 4λ − 5 = (λ − 5) (λ + 1)
2 3 0 1
Sistema Homogêneo:

1−λ 4 0
     
v1
 · = 
2 3−λ v2 0
233 / 242
Anotações

234 / 242
Caso com n = 2
Raízes de P (λ):
λ1 = 5 λ2 = −1

1º autovetor associado ao autovalor λ1 = 5:

−v1 + v2 = 0 ⇒ vλ1 = (1, 1)

√ 1 1
 
kvλ1 k2 = 2 ⇒ vλN1 = √ ,√
2 2

2º autovetor associado ao autovalor λ2 = −1:

v1 + 2v2 = 0 ⇒ vλ2 = (−2, 1)

√ 2 1
 
kvλ2 k2 = 5 ⇒ vλN1 = −√ , √
5 5
235 / 242
Anotações

236 / 242
Sumário

5 Resolução de Sistemas Não-


Lineares
1 Erro
6 Aproximação
2 Interpolação Spline
7 Cálculo de Autovalores e Autove-
3 Integração tores

4 Resolução de Sistemas Lineares 8 Avaliações

237 / 242
Anotações

238 / 242
Orientações

Utilize o Overleaf 4
para escrever sobre as suas avaliações (Projeto).

Compartilhe a sua 1º/2º avaliação com o professor.

É necessário o envio do PDF final da sua 1º/2º avaliação nas datas


agendadas.

Use o “Template-Aval” para produzir o Projeto.

http://www.uel.br/laboratorios/labsan/perfilEliandro.html

4
Acesse a plataforma no link – https://pt.overleaf.com/login
239 / 242
Anotações

240 / 242
Apresentação

Para que tenhamos êxito em nossas colaborações, via Matemática Aplicada,


é importante que uma apresentação tenha como principais elementos:

1 a descrição do problema em linguagem comum (não puramente


matemática);

2 a evidenciação da(s) pergunta(s);

3 o detalhamento das ferramentas matemáticas que nos darão acesso


à(s) resposta(s) da(s) pergunta(s) (use com parcimônia);

4 a discussão dos resultados encontrados com validação dos mesmos.

241 / 242
Anotações

242 / 242

Você também pode gostar