mÉtodos numÉricos para equaÇÕes diferenciais …

Post on 23-Jul-2022

4 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

1- Resolução de Sistemas Lineares.

1.1- Matrizes e Vetores.1.2- Resolução de Sistemas Lineares de Equações Algébricas por Métodos Exatos (Diretos).1.3- Resolução de Sistemas Lineares de Equações Algébricas por Métodos Iterativos.1.4- Convergência dos Métodos Iterativos.1.5- Método do Gradiente Conjugado e Método do Gradiente Conjugado Quadrado.

MÉTODOS NUMÉRICOS PARA EQUAÇÕES DIFERENCIAIS PARCIA IS

1.4.1- Convergência do M étodo da Iteração ( Jacobi )

Método da Iteração:

, , , ,

, ( , , )

, ( )

i i

nk ki i ij j

j

ii

ijii ij

ii ii

x

x x k

i n

ab

a a

β

β α

α

β α

+

=

= = + = = = = = −

0

1

1

0 1 2

0 1

3

L

L

Muitas vezes ao reduzir (1) para (2) é conveniente que . Isto pode ser feito Logo as formulas do método serão:

iiα ≠ 0ii ii iiα α α= = +1 20

, , , , ( )́

, , ( , , )iji iii ii ij

i

i i

nk ki i ij j

ii ii

j

i

ab a

x

x x k

ai n

a a

β

β α

β α α

+

=

= = + = = = − = − =

∑2

1 1

1

1

1

0

0 1 2 3

1

L

LMétodo da Iteração

)1(

1

2

1

1

2

1

121

1111211

2122221

1111211

=

−−

−−−−−

n

n

n

n

nnnnnn

nnnnnn

nn

nn

b

b

b

b

x

x

x

x

aaaa

aaaa

aaaa

aaaa

MM

L

L

LLLLL

L

L

( )

, ,

n n

n

i i ij jj

x x

i n

β α

×

=

= +

= +

=

x β α x

1

2

1L

Condição suficiente para a convergência do processo iterativo.

Teorema: Para o sistema reduzido (2) o processo iterativo (3) converge para sua única solução se alguma norma canônica da matriz é menor que a unidade. Isto é, a condição suficiente para a convergência do método da iteração

com arbitrário é .

Prova: Escolha e construa as seguintes aproximações

n n×α

, ,k kn n k−

×= + =x β α x 1 1 2 L

x0 <α 1

1 0

2 1 0 2 0

1 2 1 0

( ) ( )

( ) (*)

n n

n n n n n n n n n n

k k k kn n n n n n n n n n

×

× × × × ×

− −× × × × ×

= +

= + = + + = + + = + = + + + + +

x β α x

x β α x β α β α x E α β α x

x β α x E α α α β α x

LLLLLLLLLLLLLLLLLLLLLLLL

L

x0

,

m a x ( m - n o r m a )

m a x ( l - n o r m a )

( k - n o r m a )

n n i jm ij

n n i jl ji

n n i jki j

a

a

a

×

×

×

= =

=

A

A

A2

1.4.1- Convergência do M étodo da Iteração ( Jacobi )

Nas duas telas a seguir mostraremos um resultado intermediário importante na prova do teorema .

Considere a convergência do seguinte processo iterativo:

1 1 1 1 1 0

1 1 0 0

2 2 1 1 0 0 1

0 0 0 0

2 30 0 0 0 0 0 0 0

, ( ) 1

( ),

( ) ( )[ ]

( )[ ( )( )]

( )[ )] ( )

Seja e

logo

,

k k k k k k k k− − − − −= − = + = + <= − = − +

= − = − + = − + + =− + + − − + =

− + + = − + + +

F E AD D D D F D E F F

F E AD E AD E F

F E AD E AD E F E AD E F E F

E AD E F E E E F E F

E AD E F E F F E AD E F F F

LLLLLLLLLLLLL2 1

0 0 0 0

1 1

0 0 0 00 0

00 0 0

( )

( ) ,

ja que onde .

kk k

k kl l

l l

+

+ +

= =

= − = − + + + + =

− = − −

= − =

∑ ∑

F E AD E AD E F F F

E AD F E E F F

AD E F F E

LLLLLLLLL

L

1

0

( )ln n n n

l

∞−

× ×=

= −∑ α E α

1.4.1- Convergência do M étodo da Iteração ( Jacobi )

0

11 1

0 00

1

0 00

Se o processo iterativo anterior converge e

. Já que

e do resultado anterior segue

1

lim lim ( ) lim

lim ( )

lim ( )

k k kk k k

kl

k kkl

lk

kl

→ ∞ → ∞ → ∞

+− −

→ ∞ =

→ ∞ =

<

= − = − =

= = = − −

= −

= = − − =

⇒ ∑

F

F E A D E A D 0

D A E A F E E F F

0 E A A

0 F E E F F 1

1 10 0 0 0

0 0

10

0

ou .

Se segue . N ote que

é a h ipótese do teorem a que querem os provar. Logo, o

resultado acim a pode ser ap l

( ) ( )

( )

icado à m at

1

r

l l

l l

ln n n n n n n n

l

∞ ∞− −

= =

∞−

× × × ×=

− = = = −

= = − <

∑ ∑

E A A

E F F A A E F E F

F α α E α α

iz .n n×α

1.4.1- Convergência do M étodo da Iteração ( Jacobi )

Se segue quando , consequentemente

e

Se passamos ao limite em (*) quando obtemos

Isto prova a convergência do processo iterativo, ou seja, que existe o limite. Da equação (**) segue que

que significa que é solução do sistema (2). Como a matriz é não singular o sistema (2) tem uma única solução � .

( ) ou ( ) ( )( ) ou ( )n n n n n n n n n n− −

× × × × ×= − − = − − − =x E α β E α x E α E α β E α x β1 1

<α 1

zero( )

lim lim[( ) ]

lim( ) lim ( ) (**)

n n

k k kn n n n n n n n

k k

k kn n n n n n n n n n

k k

−×

−× × × ×→∞ →∞

− −× × × × ×→∞ →∞

+

= = + + + + +

= + + + + + = −

E α

x x E α α α β α x

E α α α β α x E α β

1

2 1 0

2 1 0 1

L

L1444442444443 14243

k →α 0 k → ∞

lim k

k→∞=α 0 lim( ) ( )k k

n n n n n n n n n nk

k

∞− −

× × × × ×→∞ =

+ + + + = = −∑E α α α α E α2 1 1

0

L

k → ∞

ou n n×= +x β α x lim (**)k

k→∞x

( )n n×−E α

1.4.1- Convergência do M étodo da Iteração ( Jacobi )

Como conseqüência do teorema anterior segue.

Corolário 1: O método da iteração para o sistema (2) converge se for verificada uma das desigualdades:

Em particular se os elementos da matriz satisfazem então o método da iteração converge (n é o número de incógnitas).

1

1

2

1 1

1) m a x < 1 (m -n o rm a ) o u

2 ) m a x < 1 ( l-n o rm a ) o u

3 ) < 1 (k -n o rm a )

n

n n i jm ij

n

n n ijl ji

n n

n n ijki j

α

α

α

×=

×=

×= =

=

=

=

∑ ∑

α

α

α

α i j nα < 1

1.4.1- Convergência do M étodo da Iteração ( Jacobi )

Corolário 2: Para o sistema

o método da iteração converge se for verificada uma das desigualdade abaixo:

) ( , , )

) (j , , )

n

ii ijj i

n

jj iji j

a a i n

a a n

> =

> =

1 1

2 1

L

L

=b ( , , )n

ij j ij

a x i n=

=∑1

1L

0 , =−= iiii

ijij a

aαα

) ( , , )

) (j , , )

n

ijj

n

iji

i n

n

α

α

< =

< =

1 1 1

2 1 1

L

L

∑≠=

>

<+++

<−++=++−+−

<++=+++

n

ijj

ijii

iiinii

ii

inii

ii

i

ii

i

iniiii

aa

aaaa

aa

aa

aa

1

21

21

21

10

10

L

LL

LL

α

αααα

Explicado na aula anterior.

1.4.1- Convergência do M étodo da Iteração ( Jacobi )

Sejam e duas aproximações sucessivas da solução do sistema linear . Para segue

Na tela a seguir mostramos este resultado em detalhes!

1.4.2- Estimativa do Erro do M étodo da Iteração ( Jacobi )

n n×= +x α x β

kxk −x 1

p ≥1

é zero, mas esta manipulação permite usar a desigualdade triangular

( ) ( ) ( )

( )

k k

k k

k p k pk k

k k k p k p

k p k k k p+ + −+ + + −+ +

+ ++ +

+

+ −

− = + + − + +

−+ +

+−

x x xx x

x

x xx x

x x x x

x

x

1 2

2 1

21 1

1

1

1 4

L144444444424444444443

L

como e segue ( )m m m m m m m mn n n n n n

+ − + −× × ×= + = + − = −x α x β x α x β x x α x x1 1 1 1

m km m m m k k

n n n n m k−+ − +

× ×− ≤ − ≤ − ∀ > >x x α x x α x x1 1 1 1

logo de (4) segue

pk k k kn n n n

k p k k k k k k p k p

k k

n n

−+ +× ×

+ + + + + + −

− −

+

×

− ≤ − + − + + −

≤ −−

α x x α x x

x x x x x x x x

x xα

11 1

1 2 1 1

111

L14243 1442443

passando ao limite quando nesta desigualdade obtemosp → ∞

Progressão Geométrica

[ ]

(razão)Progressão ( ), com

Geométrica (termo inicial)

lim , se q

pk p k k kn n n n

nni i

n ii

in i

ni i

a qaa qS a

aq

aS S a a q

q

−+ +× ×

=

∞ ∞−

∞ →∞ = =

− ≤ + + + −

= −= = −

= = = =−

∑ ∑

x x α α x x1 1

11

1 1

1 11

1 1

1

11

1

L14444244443

Progressão Geométrica

Pro

1. Logo,

1 (razão)[ ] , com .

1 (termo inicial)

Como , logo

[ ]

pp i n n

n n n n n ni

pi i

n n n ni i n n

pk p kn n n n

q

a

− − ×× × ×

=

∞− −

× ×= = ×

−+× ×

<

= <+ + + = =

≤ =−

− ≤ + + +

∑ ∑

αα α α

α αα

x x α α

1 1

1 1

1 1

1 1

1

1

11

1

L14444244443

L

gressão Geométrica

k k k k

n n

+ +

×

− ≤ −−

x x x xα

1 11114444244443

1.4.2- Estimativa do Erro do M étodo da Iteração ( Jacobi )

Note que nestes cálculos não foram considerados erros devidos à Aritmética de Precisão Finita (round-off errors). Ou seja, é assumido que os cálculos são exatos.

lim (5) ou

(6) se então segue que

logo se consequentemente

. No caso mais geral, se e

k p k k k

pn n

n nk k kn n

n n

k k k k k

k k kn nq

k

ε

ε

+ +

→∞×

× −×

×

×

− −

= ⇒ − ≤ − ∀ ≥−

− ≤ − ≤−

− ≤ − − <

− < −= <

x x x x x xα

αx x

α

x x αα

x x x x x x

x x x x

1

1

1 1

11

1

11 2

1 ,

então e para cada componente (i=1, ,n)k ki i

q

q

x x

ε

ε ε

− −<

− ≤ − <x x

1 1

L

1.4.2- Estimativa do Erro do M étodo da Iteração ( Jacobi )

Se usamos (6) para estimar a norma da diferença entre duas aproximações sucessivas segue

(6)n nk k k

n n

× −

×

− ≤ −−α

x x x xα

1

1

como substituindo em (6)kk k k k

n n n n+ −

× ×− ≤ − ≤ −x x α x x α x x1 1 1 0

. Como caso particular, se escolhemos

, então e .

Portanto, (6 )́

k

n nk

n n

k

n n

n n n n n n n

k

n

n

n

×

×

×

×

×

+

×

×

×

− ≤

− ≤ −−

= = +

= + − = ≤

αx x x x

α

x β x β α x β α β x x α β

αx x β

α

α β

1 0

0 1 0 1 0

1

1

1

Esta desigualdade permite estimar o erro que estamos cometendo na iteração k. Note que este erro depende apenas dos dados do problema (a matriz e o vetor ).βn n×α

1.4.2- Estimativa do Erro do M étodo da Iteração ( Jacobi )

1.4.3- Convergência do Método de Seidel ( Gauss-Seidel )

Primeira condição suficiente para a convergência do método de Seidel (Norma m).

Teorema: Se para o sistema (7) se verifica a condição . com

, então o método de Seidel converge para sua única solução

independentemente da escolha da aproximação inicial .

Note que a prova deste teorema prova como caso particular oCorolário 1 sobre a convergência do método da iteração.

Prova: Seja a aproximação k do método de Seidel. Ou seja,

Se o sistema (7) terá uma única solução que pode

n n×= +x α x β

n n m× <α 1 m ax < 1 (m -n o rm a)n

n n ijm ij

α×=

= ∑α1

n n×= +x α x β

x0

( , , , )k k k knx x x=x 1 2 L

( , , ) ( )i n

k k ki i ij j ij j

j j i

x x x i nβ α α−

= == + + =∑ ∑

11

1

1 8L

n n m× <α 1

ser encontrada pelo método da iteração. Seja a solução exata de

Subtraindo (8) de (9) segue

Que substituindo na desigualdade anterior segue

Denotemos por s=s(k) o valor da componente que verifica

m-norma max segue que k k k ki i j jm mi

x x x x− = − − ≤ −x x x x

( , , , )nx x x=x 1 2 L

( )n

i i ij jj

x xβ α=

= +∑1

9

( ) ( ) logoi n

k k ki i ij j j ij j j

j j i

x x x x x xα α−

= =− = − + −∑ ∑

11

1

. Lembrando a definição dei n

k k ki i ij j j ij j j

j j i

x x x x x xα α−

= =− ≤ − + −∑ ∑

11

1

onde e ( )i n

k k ki i i i i ij i ijm m

j j i

x x p q p qα α−

= =− ≤ − + − = =∑ ∑x x x x

11

1

10

maxk k ks s i i mi

x x x x− = − = −x x

1.4.3- Convergência do Método de Seidel ( Gauss-Seidel )

A desigualdade (10) é valida para todas as componentes i, logo é válida para a componente s e segue

Se definimos segue da desigualdade anterior

Agora devemos provar que . De fato

onde e

ou

( ) ou ( )

s nk k k

s s s s s sj s sjm mj j s

k k k ks s s sm m m

k k k kss sm m m m

s

x x p q p q

x x p q

qp q

p

α α−

= =

− −

− ≤ − + − = =

− = − ≤ − + −

− − ≤ − − ≤ −−

∑ ∑x x x x

x x x x x x

x x x x x x x x

11

1

1

1 111

max( )

i

ii

q

= − 1

( )k k

m mµ −− ≤ −x x x x 1 11

n n mµ ×≤ <α 1

+ por hipótese do Teoremai n n

i i ij ij ij n n mj j i j

p q α α α−

×= = =

+ = = ≤ <∑ ∑ ∑ α1

1 1

1

logo n n i n n i n ni m m mi n n i n nm m

i i i

p pqq p

p p p× × ×

× ×

− −≤ − ⇒ ≤ ≤ =

− − −α α α

α α1 1 1

1.4.3- Convergência do Método de Seidel ( Gauss-Seidel )

Da desigualdade (11) segue

� .

Note que foi obtido:

Isto indica que sob certas condições o método

de Seidel converge melhor que o método da iteração. Neste caso é conveniente que a primeira equação do sistema tenha a menor soma dos módulos.

k k

m mµ −− ≤ −x x x x 1

logo ou n n i n n i n ni m m mn n m

i i i

p pq

p p pµ µ× × ×

×

− −= ≤ ≤ = < <

− − −α α α

α 1 11 1 1

e consequentemente limk k k

m m kµ

→∞− ≤ − =x x x x x x0

para o método da iteração

para o método de Seidel com

k kn n mm m

k kn n mm m

µ µ

−×

−×

− ≤ −

− ≤ − ≤

x x α x x

x x x x α

1

1

max( )

i

ii

q

= − 1

nninniinniinnii pppqpqp ×××× <<<<<≤+ αα e α logo 1 1, 1, α

0 , 11

11 ==∑=

pqn

ijα

1.4.3- Convergência do Método de Seidel ( Gauss-Seidel )

Teoremas e provas semelhantes podem ser construídos se consideramos em lugar da m-norma (linha) a l-norma (coluna) e k-norma (Euclidiana).

Teorema: Se para o sistema (7) se verifica a condição com

, então o método de Seidel converge para sua única solução

independentemente da escolha da aproximação inicial .

Teorema: Se para o sistema (7) se verifica a condição com

, então o método de Seidel converge para sua única soluçãoindependentemente da escolha da aproximação

inicial .

n n×= +x α x β

n n l× <α 1 m ax < 1 ( l-n o rm a)n

n n ijl ji

α×=

= ∑α1

n n×= +x α x β

x0

< 1 ( k - n o r m a )n n

n n i jki j

α×= =

= ∑ ∑α2

1 1

n n×= +x α x β

n n k× <α 1

n n×= +x α x β

x0

1.4.3- Convergência do Método de Seidel ( Gauss-Seidel )

Passando ao limite quando nesta desigualdade segue

1.4.4- Estimativa do Erro do M étodo de Seidel (Gauss-Seidel )

p → ∞

e k k k k k p k k kµµµ

+ − + −− ≤ − − ≤ −−

x x x x x x x x1 1 1

1

Procedendo semelhante ao descrito para o método da iteração obtemos

lim e consequentemente k p k k k

p

µµ

+ −

→∞= − ≤ −

−x x x x x x 1

1

max( )

i

ii

q

= − 1

ou por componente

max se max

então .

kk

kk

i i j j j j kj j

k

x x x x x x

µµ

µ µ εµ µ

ε

− ≤ −−

−− ≤ − − <−

− <

x x x x

x x

1 0

1 0 1 0

1

11

Estimativa do erro na m-norma:

1.4.5- Resumo da Convergência e Estimativa do Erro para o M étodo da Iteração ( Jacobi )

Os métodos da Iteração e de Seidel convergem se alguma norma canônica da matriz é menor que a unidade:

1 0 Método da Iteração1

k

n nk

n n

×

×

− ≤ −−α

x x x xα

n n×α

n n m× <α 1

1

0

1 0 1 0

Como caso particular, se escolhemos , então

e .

Portanto, 1

k

n nk

n n n n n n n n

n n

× ×

× ×

×

=

= + = + − = ≤

− ≤−

x β

x β α x β α β x x α β

β

β

α

α

α

x x

Estimativa do erro na m-norma:

1.4.5- Resumo da Convergência e Estimativa do Erro para o M étodo de Seidel ( Gauss-Seidel )

Os métodos da Iteração e de Seidel convergem se alguma norma canônica da matriz é menor que a unidade:

max( )

i

ii

q

= − 1

1 0 Método de Seidel1

kk µ

µ− ≤ −

−x x x x

n n×α

n n m× <α 1

1

1

onde e i n

i ij i ijj j i

p qα α−

= == =∑ ∑

Método do Gradiente Conjugado (1952, CG) : pode ser utilizado para resolver o sistema linear sempre que a matriz A seja simétrica.

Método do Gradiente Conjugado Quadrado (1989, CGS) : pode ser utilizado para resolver o sistema linear quando a matriz A não é simétrica.

1.5- Método do Gradiente Conjugado e Método do Gradiente Conjugado Quadrado

Para resolver sistemas lineares de equações algébricas existem mais “métodos iterativos” que os estudados no tópico 1.3. Aqui apresentamos sinteticamente dois outros métodos.

Método do Gradiente Conjugado (1952, CG) : Passos da iteração do método:

0- escolher e se calculam os vetores e

1- calcular , onde (r,p) é o produto interno dos vetores r e p.

2- calcular

3- calcular

4- calcular

5- calcular

6- Repetir os passos 1 ao 5 até satisfazer um critério de parada.

1.5- Método do Gradiente Conjugado e Método do Gradiente Conjugado Quadrado

Algumas peculiaridades do método CG (Conjugate Gradient) :

1- A matriz A tem que ser simétrica.

2- A convergência do método não é monótona, diferente àconvergência dos métodos de Jacobi e Gauss-Seidel que são monótonas.

3- A convergência é lenta, mas a taxa de convergência tende a aumentar com o aumento das iterações, podendo chegar a ser convergência superlinear.

4- Em aritmética exata o método converge em até “n” iterações (método direto). Em aritmética de precisão finita existem erros de round-off e a convergência em até “n” iterações não égarantida.

1.5- Método do Gradiente Conjugado e Método do Gradiente Conjugado Quadrado

Método do Gradiente Conjugado Quadrado (1989, CGS) : Passos da iteração do método:

0- escolher e calcular , e

1- calcular

2- calcular

3- calcular

4- calcular

5- calcular

6- calcular

7- calcular

Repetir os passos do 1 ao 7 até verificar um critério de parada.

1.5- Método do Gradiente Conjugado e Método do Gradiente Conjugado Quadrado

Algumas peculiaridades do método CGS (Conjugate GradientSquared) :

1- Desenvolvido para matrizes A não simétricas.

2- A convergência não é monótona.

Referencias Bibliográficas:

Hestenes MR, Stiefel E (1952) Methods of Conjugate Gradients for Solving Linear Systems. Journal of Research of the National Bureau of Standards, Vol. 49, No. 6, 409–436.

Lanczos C (1952) Solution of systems of linear equations by minimized iteration. Journal ofResearch of the National Bureau of Standards, Vol. 49, 33–53.

Sonneveld P (1989) CGS: a fast Lanczos-type solver for nonsymmetric linear systems. SIAM J Sci Stat Comput, Vol. 10, No. 1, 36–52.

Sandip M (2016) Numerical Methods for Partial Differential Equations: Finite Difference andFinite Volume Methods. Academic Press. ISBN: 978-0-12-849894-1

1.5- Método do Gradiente Conjugado e Método do Gradiente Conjugado Quadrado

Frase do Dia

“O objetivo de minha teoria é estabelecer de uma vez por todas a certeza dos métodos matemáticos... O estado atual das coisas, em que nos chocamos com os paradoxos, é intolerável. Imaginem as definições e os métodos dedutivos que todos apreendem, ensinam e usam em matemática, os paradigmas de verdade e de certeza, conduzindo a absurdos! Se o pensamento matemático édefeituoso, onde acharemos verdade e certeza?”

D. Hilbert, “On the Infinite”, em Philosophy of Mathematics, de Benacerraf e Putnam.

top related