apostilamétodos matematicos

149
etodosMatem´aticos Prof. Pablo Siqueira Meirelles Departamento de Mecˆanica Computacional UNICAMP Novembro 22, 2011

Upload: rubia-thorley

Post on 21-Apr-2015

680 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: ApostilaMétodos Matematicos

Metodos Matematicos

Prof. Pablo Siqueira MeirellesDepartamento de Mecanica Computacional

UNICAMP

Novembro 22, 2011

Page 2: ApostilaMétodos Matematicos

4

Page 3: ApostilaMétodos Matematicos

Conteudo

I Primeia parte 15

1 Numeros complexos 17

1.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.2 Representacao de numeros complexos . . . . . . . . . . . . . . . . . . . . . 17

1.3 Operacoes com numeros complexos . . . . . . . . . . . . . . . . . . . . . . 18

1.3.1 Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

1.3.2 Produto por um numero real . . . . . . . . . . . . . . . . . . . . . . 19

1.3.3 Produto de dois numeros complexos . . . . . . . . . . . . . . . . . 19

1.3.4 Potencia de expoente racional . . . . . . . . . . . . . . . . . . . . . 19

1.3.5 Inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

1.3.6 Quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

1.3.7 Radicacao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

1.3.8 Logaritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

1.3.9 Formula de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

1.4 Transcendentes elementares . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2 Series 23

2.1 Series numericas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.1.1 Teoremas de convergencia . . . . . . . . . . . . . . . . . . . . . . . 24

2.1.2 Series de termos positivos reais . . . . . . . . . . . . . . . . . . . . 24

2.1.3 Criterios de convergencia de series de termos positivos . . . . . . . 25

2.1.4 Convergencia absoluta e convergencia condicional . . . . . . . . . . 26

2.1.5 Series de termos alternados . . . . . . . . . . . . . . . . . . . . . . 27

2.2 Operacoes com series . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.2.1 Soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.2.2 Produto de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.3 Sucessao de funcoes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2.4 Serie de funcoes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2.5 Series de potencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.5.1 Soma, diferenca e produto de series de potencia . . . . . . . . . . . 29

2.5.2 Expansao em serie de potencias . . . . . . . . . . . . . . . . . . . . 30

5

Page 4: ApostilaMétodos Matematicos

3 Vetores 33

3.1 Sistema de coordenadas cartesiano . . . . . . . . . . . . . . . . . . . . . . 33

3.1.1 Diferentes notacoes: . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3.2 Operacoes com vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3.2.1 Soma, subtracao . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3.2.2 Multiplicacao por um escalar . . . . . . . . . . . . . . . . . . . . . 35

3.2.3 Produto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3.2.4 Produto vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3.2.5 Produto escalar triplo . . . . . . . . . . . . . . . . . . . . . . . . . 37

3.2.6 Produto vetorial triplo . . . . . . . . . . . . . . . . . . . . . . . . . 37

3.2.7 Produto interno entre vetores complexos . . . . . . . . . . . . . . . 37

3.3 Campos vetoriais e escalares . . . . . . . . . . . . . . . . . . . . . . . . . 38

3.3.1 Definicao de campo vetorial . . . . . . . . . . . . . . . . . . . . . . 38

3.3.2 Definicao de campo escalar . . . . . . . . . . . . . . . . . . . . . . 38

3.3.3 Operador Nabla ∇ . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

3.3.4 Operador laplaciano ∆ . . . . . . . . . . . . . . . . . . . . . . . . 41

4 Notacao indicial 43

4.1 Notacao classica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4.2 Notacao indicial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4.2.1 Definicao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4.2.2 Convencao soma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

4.2.3 Notacao de diferenciacao . . . . . . . . . . . . . . . . . . . . . . . 46

4.2.4 Delta de Kronecker δij . . . . . . . . . . . . . . . . . . . . . . . . . 46

4.2.5 Operador alternante ou alternador εijk . . . . . . . . . . . . . . . . 47

4.2.6 Aplicacoes do tensor εijk . . . . . . . . . . . . . . . . . . . . . . . . 47

4.2.7 Relacao entre δij e εklm . . . . . . . . . . . . . . . . . . . . . . . . 47

4.3 Exercıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4.4 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

5 Vetores Euclidianos 51

5.1 Norma de um vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

5.1.1 Algumas definicoes para a norma . . . . . . . . . . . . . . . . . . . 53

5.2 Obtencao de uma base ortogonal . . . . . . . . . . . . . . . . . . . . . . . 54

5.2.1 Metodo de ortogonalizacao de Gram-Schmidt . . . . . . . . . . . . 54

6 Produto escalar e projecoes em uma reta 59

6.1 Vetor projecao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

6.2 Matriz projetora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

6.3 Teorema da projecao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

6

Page 5: ApostilaMétodos Matematicos

7 Matrizes 677.1 Notacao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 677.2 Definicoes e propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . 677.3 Norma de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 717.4 Determinante de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . 727.5 Calculo do determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . 737.6 Auto-valores de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . 737.7 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 757.8 Subespacos fundamentais de uma matriz . . . . . . . . . . . . . . . . . . 76

8 Autovalores e autovetores de uma matriz 778.1 Propriedades, teoremas, definicoes . . . . . . . . . . . . . . . . . . . . . . 798.2 Numero de condicao espectral de uma matriz . . . . . . . . . . . . . . . . 828.3 Teorema do cırculo de Gerschgorin . . . . . . . . . . . . . . . . . . . . . . 828.4 Translacao de autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . 838.5 Problema de autovalores e autovetores

generalizado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 848.6 Calculo de autovalores e autovetores . . . . . . . . . . . . . . . . . . . . . 85

8.6.1 Algoritmo QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 858.6.2 Metodo da potencia . . . . . . . . . . . . . . . . . . . . . . . . . . 86

8.7 Condicionamento do autosistema [A]{x} = λ{x} . . . . . . . . . . . . . . . 898.7.1 Condicionamento dos autovalores . . . . . . . . . . . . . . . . . . . 898.7.2 Condicionamento dos autovetores . . . . . . . . . . . . . . . . . . . 90

8.8 Forma quadratica de uma matriz [A]N×N . . . . . . . . . . . . . . . . . . 90

II Segunda parte 91

9 Metodos de resolucao de sistemas de equacoes lineares 939.1 Classificacao de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

9.1.1 Sistemas determinados . . . . . . . . . . . . . . . . . . . . . . . . . 939.1.2 Sistemas super-determinados . . . . . . . . . . . . . . . . . . . . . 949.1.3 Sistemas sub-determinados . . . . . . . . . . . . . . . . . . . . . . 959.1.4 Sistemas homogeneos . . . . . . . . . . . . . . . . . . . . . . . . . 95

9.2 Sistemas triangulares (determinados) . . . . . . . . . . . . . . . . . . . . . 959.2.1 Definicao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 959.2.2 Sistema triangular inferior ([L]) . . . . . . . . . . . . . . . . . . . . 969.2.3 Sistema triangular superior ([U]) . . . . . . . . . . . . . . . . . . . 96

9.3 Armazenamento esparso . . . . . . . . . . . . . . . . . . . . . . . . . . . . 979.3.1 Conversao de ındice . . . . . . . . . . . . . . . . . . . . . . . . . . 98

9.4 Sistemas determinados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 999.4.1 Metodo de resolucao baseado na decomposicao QR: . . . . . . . . . 999.4.2 Metodos de resolucao baseados em decomposicao triangular . . . . 101

7

Page 6: ApostilaMétodos Matematicos

9.4.3 Decomposicao triangular de Cholesky . . . . . . . . . . . . . . . . 1029.4.4 Decomposicao triangular de Doolittle . . . . . . . . . . . . . . . . 102

9.5 Sistemas simetricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1049.5.1 Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1049.5.2 Decomposicao de DOOLITTLE . . . . . . . . . . . . . . . . . . . . 1049.5.3 Decomposicao de CROUT: . . . . . . . . . . . . . . . . . . . . . . 1059.5.4 Decomposicao de GAUSS (LDU): . . . . . . . . . . . . . . . . . . 105

9.6 Numero de condicao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1069.6.1 Estimativa de c[A] . . . . . . . . . . . . . . . . . . . . . . . . . . . 1069.6.2 Estimativa melhorada de K ≈ c[A]: . . . . . . . . . . . . . . . . . 107

9.7 Sistemas de equacoes lineares: escalonamento (balanceamento) . . . . . . 1089.7.1 Escalonamento diagonal (por coluna) para [A]{x} = {b} . . . . . . 1089.7.2 Escalonamento diagonal (por linha) para [A]{x} = {b} . . . . . . . 1089.7.3 Escalonamento diagonal (linha e coluna) para [A]{x} = {b} . . . . 1099.7.4 Metodos de obtencao de [D]L e [D]C (resumo) . . . . . . . . . . . . 110

10 Transformacoes similares 11310.1 Transformacao unitaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11410.2 Transformacao ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 11410.3 Forma diagonal de uma matriz [A] . . . . . . . . . . . . . . . . . . . . . . 11510.4 Propriedades e teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11510.5 Forma canonica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 11810.6 Transformacao de Householder . . . . . . . . . . . . . . . . . . . . . . . . 11910.7 Decomposicao QR usando a transformacao de Householder . . . . . . . . 12010.8 Aplicacoes da decomposicao QR . . . . . . . . . . . . . . . . . . . . . . . . 123

10.8.1 Resolucao de sistemas super-determinados . . . . . . . . . . . . . . 12310.9 Forma de Hessenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

11 Pseudo-inversa e decomposicao em valores singulares 12911.1 Decomposicao em valores singulares - SVD . . . . . . . . . . . . . . . . . . 130

11.1.1 Armazenamento computacional . . . . . . . . . . . . . . . . . . . . 13211.2 Algumas aplicacoes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

11.2.1 Calculo da pseudo-inversa . . . . . . . . . . . . . . . . . . . . . . . 13211.2.2 Decomposicao polar . . . . . . . . . . . . . . . . . . . . . . . . . . 13411.2.3 Resolucao de sistemas de equacoes . . . . . . . . . . . . . . . . . . 13411.2.4 Sistemas nao homogeneos . . . . . . . . . . . . . . . . . . . . . . . 13611.2.5 Sistemas retangulares . . . . . . . . . . . . . . . . . . . . . . . . . 13611.2.6 Algoritmo SVD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

12 Integradores lineares 13912.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13912.2 Integradores lineares de um passo . . . . . . . . . . . . . . . . . . . . . . 139

12.2.1 Integradores explıcitos (β1 = 0) . . . . . . . . . . . . . . . . . . . 139

8

Page 7: ApostilaMétodos Matematicos

12.2.2 Integradores implıcitos (β1 6= 0) . . . . . . . . . . . . . . . . . . . 14112.3 Metodos de 2 passos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14112.4 Runge Kutta explıcito de quarta ordem . . . . . . . . . . . . . . . . . . 141

12.4.1 Generalizacao para sistemas de equacoes diferenciais . . . . . . . 14312.5 Famılia de integradores trapezoidais . . . . . . . . . . . . . . . . . . . . 143

12.5.1 Integradores tıpicos . . . . . . . . . . . . . . . . . . . . . . . . . 14412.5.2 Algoritmos na forma {x} . . . . . . . . . . . . . . . . . . . . . . 14412.5.3 Algoritmos na forma {x}N+1 . . . . . . . . . . . . . . . . . . . . 145

12.6 Caracterısticas relevantes de um integrador . . . . . . . . . . . . . . . . 14612.6.1 Analise de estabilidade do algoritmo: . . . . . . . . . . . . . . . . 146

12.7 Analise dos integradores da famılia trapezoidal . . . . . . . . . . . . . . 14712.8 Escolha do integrador . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

9

Page 8: ApostilaMétodos Matematicos

10

Page 9: ApostilaMétodos Matematicos

Lista de Figuras

1.1 Representacao grafica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.1 Vetor no espaco cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.2 Vetor definido por dois pontos. . . . . . . . . . . . . . . . . . . . . . . . . . 343.3 Produto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353.4 Produto vetorial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363.5 area do paralelogramo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373.6 Superfıcie Φ(x, y, z) = ρ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393.7 Curva de equacao φ(x, y) = ρ. . . . . . . . . . . . . . . . . . . . . . . . . . 40

4.1 Domınio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

5.1 Base euclidiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

6.1 Projecao ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 596.2 Distancia de um ponto a um plano. . . . . . . . . . . . . . . . . . . . . . . 62

8.1 Cırculo de Gerschgorin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

9.1 Matriz triangular cheia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 979.2 Matriz triangular em banda. . . . . . . . . . . . . . . . . . . . . . . . . . . 979.3 Matriz triangular ”sky-line”. . . . . . . . . . . . . . . . . . . . . . . . . . . 989.4 Conversao de ındices de matriz para vetor. . . . . . . . . . . . . . . . . . . 98

10.1 Interpolacao por mınimos quadrados. . . . . . . . . . . . . . . . . . . . . . 123

12.1 Integrador de Euler. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14012.2 Metodo de integracao explıcito de Runge-Kutta de ordem 4. . . . . . . . . 14212.3 Convergencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14612.4 Fator de amplificacao. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

11

Page 10: ApostilaMétodos Matematicos

12

Page 11: ApostilaMétodos Matematicos

Prefacio

A elaboracao e resolucao de modelos matematicos que representem os sistemas emestudo constitui uma atividade essencial nas ciencias exatas, e mesmo em algumas naotao exatas, a exemplo da economia.

O matematico holandes Peter Eikof [7], autor de um dos mais conhecidos livros deidentificacao de sistemas, tem porem se preocupado em alertar para dois erros frequentese que devem ser evitados pelos usuarios: jamais se apaixonar pelos modelos, pois elesnunca serao melhores do que a realidade, e nunca tentar ir alem dos limites de validadedos modelos. Somente a experiencia profissional e capaz de conferir a real coerencia edimensao a estas observacoes.

Em consonancia com estas observacoes, e nao apesar delas, e tarefa dos cien-tistas elaborar modelos cada vez mais precisos, confiaveis e gerais, e ao mesmo tempodisponibilizar as ferramentas necessarias a exploracao destes modelos.

A matematica, atraves da sua longa historia, tem se desenvolvido de maneira naouniforme no tempo, impulsionada pelas conjunturas e em congruencia com circunstanciassociais, economicas, tecnologicas, cientıficas e ate teologicas e filosoficas. No passado re-cente o desenvolvimento da matematica aplicada tem se tornado um aliado imprescindıvelpara o avanco acelerado da tecnologia. A exigencia crescente de precisao tem motivadoa elaboracao de modelos sofisticados para representar fenomenos mais complexos. Averificacao (validacao) e correcao (ajuste) dos modelos tem recebido um auxılio enormepela evolucao nos meios de observacao dos fenomenos fısicos, refletida principalmente naevolucao dos transdutores, possibilitada pela microeletronica, e nos meios de coleta eprocessamento dos sinais.

Por outro lado, a manipulacao de modelos maiores e mais sofisticados, somado aexigencia de reducao nos tempos de processamento, requerem ”hardwares” cada vez maispoderosos e metodos numericos cada vez mais eficientes e robustos.

A procura da fronteira entre a sofisticacao dos procedimentos experimentais e o en-riquecimento dos conhecimentos que a evolucao dos processamentos matematicos podemextrair das informacoes obtidas da observacao da realidade, pode ser sentida no seguinteconfronto de ideias: Lanczos [1] defende que, a evolucao das ferramentas matematicas

nao sera jamais capaz de compensar a falta de dados experimentais, ao que Jezequel [2]contrapoe, E necessario desenvolver o processamento matematico tanto quanto possıvel

para extrair o maximo proveito dos dados experimentais disponıveis.Finalmente, e impossıvel nao mencionar a virada de pagina historica promovida

nas tres ultimas decadas do seculo XX pela evolucao e disseminacao dos recursos computa-

13

Page 12: ApostilaMétodos Matematicos

cionais. Atualmente e difıcil conceber qualquer atividade cientıfica aplicada ou tecnologicasem o uso da informatica. Esta realidade conferiu enorme importancia aos metodos aprox-imados de calculo numerico, e portanto o conhecimento destas ferramentas e parte impre-scindıvel na formacao de qualquer cientista ou tecnologo da atualidade.

14

Page 13: ApostilaMétodos Matematicos

Parte I

Primeia parte

15

Page 14: ApostilaMétodos Matematicos
Page 15: ApostilaMétodos Matematicos

Capıtulo 1

Numeros complexos

1.1 Introducao

Uma forma simples de classificar as caracterısticas dos numeros com os quais trabalhamose dividi-los em numeros racionais, irracionais e complexos. O conjunto dos dois primeirosconstitui o universo dos numeros reais, que podem ser representados graficamente numeixo (espaco R1). Os numeros complexos sao uma generalizacao dos numeros reais parao plano (espaco R2).

No esquema a seguir e apresentada esta classificacao dos numeros reais, assim comoalgumas das suas caracterısticas.

Numeros racionais

OrdenadosDensosRepresentaveis por uma fracao

Numeros irracionais → Nao representaveis por uma fracao

Numeros reais

Os numeros reais constituem um conjunto ordenado, denso e contınuo, existindo por-tanto uma correspondencia biunıvoca destes numeros com os pontos de um eixo orientado.

Os numeros complexos sao formados por um par de numeros reais, representaveisem eixos mutuamente perpendiculares, constituindo portanto uma correspondencia comtodos os pontos do plano, chamado Plano Complexo.

Os eixos sao chamados eixo real e eixo imaginario, abscissa e ordenada do sistemaortogonal plano de coordenadas respectivamente.

1.2 Representacao de numeros complexos

Define-se o numero imaginario puro i =√−1 ⇒ i2 = −1. Este e o versor orientacao do

eixo imaginario.Observacao: Alguns autores preferem representar o numero imaginario puro por j no

lugar de i.

17

Page 16: ApostilaMétodos Matematicos

Qualquer numero complexo c pode ser representado de diferentes formas, tais como:

c = a+ ib ; c = ρ(cosϕ+ isenϕ) = ρ∠ϕ = ρ∠(ϕ+ 2kπ) , c = ρeiϕ , c = (a, b)

Para estas representacoes sao validas asrelacoes:

ρ =√a2 + b2 (Modulo)

ϕ = arctg

(b

a

)(Fase ou argumento)

Figura 1.1: Representacao grafica.

Definicao - Complexo conjugado: e chamado conjugado do numero complexo c = a+ibao numero c = a− ib, para qualquer valor real de a e b.

1.3 Operacoes com numeros complexos

1.3.1 Soma

(a+ ib) + (c+ id) = (a+ c) + i(b+ d)

Propriedades:

• Existencia

• Unicidade

• Associativa

• Comutativa

• Existencia do neutro

• Triangular: |Z1 + Z2| ≤ |Z1| + |Z2|

18

Page 17: ApostilaMétodos Matematicos

1.3.2 Produto por um numero real

r.(a+ ib) = ra+ irb

Propriedades:

• Existencia

• Unicidade

• Associativa

• Distributiva

• Existencia do neutro

1.3.3 Produto de dois numeros complexos

Define-se o produto de dois numeros complexos da forma a seguir 1:

(a+ ib).(c+ id) = ac+ iad+ ibc+ i2bd = (ac− bd) + i(ad+ bc)

ρ∠ϕ . τ∠γ = ρ.τ∠(ϕ+ γ)

Propriedades:

• Existencia

• Unicidade

• Associativa

• Distributiva

• Existencia do neutro

1.3.4 Potencia de expoente racional

Z0 = 1 ∀ Z 6= 0

Z1 = Z ∀ Z

Zn = Z.Z.....Z︸ ︷︷ ︸n

(ρ∠ϕ)n = ρn∠nϕ

1Demonstrar a equivalencia entre as duas expressoes como exercıcio

19

Page 18: ApostilaMétodos Matematicos

1.3.5 Inverso

Seja o complexo c = a+ ibDefine-se o inverso de c:

c−1 =1

c=

1

a+ ib=

a− ib

a2 + b2=

c

|c|2

Com esta definicao se verifica que c.1c

= (a+ ib). (a−ib)a2+b2

= a2+b2

a2+b2= 1

Pela definicao de potencia: (ρ∠ϕ)−1 = ρ−1∠ − ϕ

1.3.6 Quociente

Multiplicacao pelo inverso.

1.3.7 Radicacao

n√ρ∠ϕ = n

√ρ∠(ϕ+ 2kπ) = (ρ∠(ϕ+ 2kπ))1/n = (ρ)1/n∠

1

n(ϕ+ 2kπ)

= n√ρ∠

n+ k

n

)

No plano complexo, a raiz de ordem n tem sempre n solucoes.

1.3.8 Logaritmo

Ln(ρ∠ϕ) = x+ iy ⇔ ex+iy = ρ∠ϕ

ex+iy = ex.eiy = ex∠y = ρ∠ϕ

⇒ x = Ln(ρ) e y = ϕ+ 2kπ

∴ Ln(ρ∠ϕ) = Ln(ρ) + i(ϕ+ 2kπ)

1.3.9 Formula de Moivre

(cosα+ i sinα)m = cos(mα) + i sin(mα) (m inteiro)

Demonstracao:

(cosα+ i sinα)m = (eiα)m = eiαm = cos(mα) + i sin(mα)

Observacao: Para qualquer numero complexo

ρeiα = ρ∠α⇒ (ρ∠α)m = ρm∠(mα) = ρmeimα

20

Page 19: ApostilaMétodos Matematicos

1.4 Transcendentes elementares

eiz = cos z + i sin ze−iz = cos z − i sin z

=⇒

cos z =eiz + e−iz

2

sin z =eiz − e−iz

2i

tan z =1

i

eiz − e−iz

eiz + e−iz

Definicoes:

cosh z =ez + e−z

2

sinh z =ez − e−z

2

tanh z =ez − e−z

ez + e−z

Exercıcios:

1. Demonstrar que:

a. ρ∠ϕ . τ∠γ = ρ.τ∠(ϕ+ γ)

b. cos z = eiz+e−iz

2

c. sin z = eiz−e−iz

2i

d. tan z = 1i

eiz−e−iz

eiz+e−iz

e. cosh z = cos iz

f. sinh z = −i sin izg. tanh z = −i tan iz

2. Utilizando as funcoes transcendentes achar expressoes simplificadas para:

a. sin(a± b)

b. cos(a± b)

c. tan(a± b)

d. sin(a) ± sin(b)

e. cos(a) ± cos(b)

21

Page 20: ApostilaMétodos Matematicos

f. tan(a) ± tan(b)

g. sin2 x+ cos2 x

h. cos2 x− sin2 x

i. sinh2 x+ cosh2 x

j. cosh2 x− sinh2 x

k. sinh(x± y)

l. cosh(x± y)

22

Page 21: ApostilaMétodos Matematicos

Capıtulo 2

Series

2.1 Series numericas

Seja uma sequencia de numeros, reais ou complexos: a1 ; a2 ; a3 ; · · · ; an ; · · · Define-sea serie numerica S como sendo a sequencia de numeros S1 ; S2 ; S3 ; · · · ; Sn ; · · · , ondecada termo e obtido pela regra seguinte:

S1 = a1 ; S2 = a1 + a2 ; S3 = a1 + a2 + a3 ; · · · ; Sn = a1 + a2 + a3 + · · · + an ; · · ·

O termo Sn e chamado reduzida de ordem n, ou soma parcial de ordem n, da serie.

Portanto pode se definir uma serie numerica como sendo uma sucessao de reduzidas.

Definicao - Uma serie e dita convergente se a sucessao das reduzidas tem limite finito.

Definicao - A serie e dita convergente, divergente ou oscilante, se S = limn→∞

Sn existe

finito, existe ∞ ou nao existe, respectivamente.

Exemplo - Serie geometrica: Sn+1 = 1 + q + q2 + q3 + ....+ qn (q complexo)

Observacao: Sn = qn−1q−1

1

1Demonstracao por inducao finita:

- Para n = 1 =⇒ S1 = q1−1

q−1 = 1

Observacao - tambem poderıamos comecar demonstrando para n = 2: S2 = q2−1

q−1 =(q+1)(q−1)

q−1 = q + 1

- Admitimos para n = N qualquer: SN = 1 + q + .... + qN−1 = qN−1

q−1- Finalmente demonstramos que se vale para N , tambem vale para N + 1:

SN+1 = 1 + q + .... + qN−1 + qN = SN + qN = qN−1

q−1 + qN = qN−1+qN+1

−qN

q−1 = qN+1−1

q−1Portanto a igualdade esta demonstrada.

23

Page 22: ApostilaMétodos Matematicos

Para o exemplo anterior;

Sn =qn − 1

q − 1

|q| < 1 ⇒ |qn| → 0 ⇒ Sn → 11−q

(Converge)

|q| > 1 ⇒ |qn| → ∞ ⇒ Sn → ∞ (Diverge)

|q| = 1

q = 1 ⇒ Sn = n⇒ limn→∞

Sn = ∞ (Diverge)

q = −1 ⇒ Sn = 1 − 1 + 1 − . . .

⇒{Sn=2N = 0Sn=2N+1 = 1

(Oscila)

q 6= −1 ⇒ q = cosα+ i sinα (α 6= nπ)⇒ qn = cosnα + i sinnα (Oscila)

Definicao: r = S − Sn e o resıduo de ordem n da serie convergente de limite S.

2.1.1 Teoremas de convergencia

1. Adicionar ou tirar um numero finito de termos nao altera o carater convergente ounao da serie. ( Pode alterar o valor de S, se a serie for convergente)

2. Uma serie convergente multiplicada termo a termo por um escalar c continua con-vergente. O limite passa a ser c.S.

3. A serie resultante da soma/diferenca termo a termo de duas series convergentes econvergente. O limite da nova serie sera S = S1 ± S2.

4. Uma condicao necessaria (nao suficiente) para a convergencia da serie e limn→∞

an = 0

5. Condicao de convergencia de Cauchy: Uma serie e convergente ⇐⇒ dado ε > 0arbitrario, existe N � |an+1 + ........+ an+p| < ε ∀ n > N, p natural qualquer ≥ 1.

Esta condicao e equivalente a dizer que Sn e convergente ⇐⇒ |Sn+p−Sn| < ε ∀ n > N,p natural qualquer.

2.1.2 Series de termos positivos reais

Observacoes:

1. Series de termos complexos podem ser reduzidas a pares de series de termos reais.

2. Series de termos negativos podem ser interpretadas como o oposto de uma serie determos positivos.

Propriedade: Series de termos reais positivos sao convergentes ou divergentes, nuncaoscilantes.

Princıpio de Weierstrass:Sn < K ∀ n⇒ Sn → S (Convergente)Sn nao acotada ⇒ Sn Divergente

24

Page 23: ApostilaMétodos Matematicos

2.1.3 Criterios de convergencia de series de termos positivos

1. Comparacao

(a) Se∞∑

n=1

an converge de soma A

bn ≤ an ∀ nEntao

∞∑n=1

bn converge de soma B <= A , pois∞∑

n=1

bn ≤∞∑

n=1

an ≤ A

(b) Se∞∑

n=1

an diverge

bn ≥ an ∀ nEntao

∞∑n=1

bn diverge. (Se bn convergisse, an convergeria pelo teorema anterior).

(c) Se 0 < h < an

bn< k, entao

∞∑n=1

an e∞∑

n=1

bn sao da mesma classe.

Demonstracao:

an < k.bn ⇒ Se bn converge, an tambem converge por 1.a.

h.bn < an ⇒ Se bn diverge, an tambem diverge por 1.b.

(d) Generalizacao: Se limn→∞

an

bn= l > 0 finito, entao

∞∑n=1

an e∞∑

n=1

bn sao da mesma

classe.

Exemplos de series que podem ser utilizadas como referencias para classificar outrasseries por comparacao:

(a)∞∑

n=1

( nn+1

)n2e Convergente

(b)∞∑

n=1

n2n e Convergente

(c)∞∑

n=1

1n!

e Convergente de soma ”e”

(d)∞∑

n=1

12n e Convergente de soma 2

2. Criterio de D’Alembert

Se an+1

an

< 1 ∀ n > N ⇒∞∑

n=1

an converge

≥ 1 ∀ n > N ⇒∞∑

n=1

an diverge

25

Page 24: ApostilaMétodos Matematicos

Ou:

limn→∞

an+1

an= λ⇒

λ < 1 Convergeλ > 1 Divergeλ = 1 Nao se sabe

3. Criterio de Cauchy:

Se n√an

< 1 ∀ n > N ⇒∞∑

n=1

an converge

≥ 1 para infinitos valores de n⇒∞∑

n=1

an diverge

Ou:

limn→∞

n√an = λ⇒

λ < 1 Convergeλ > 1 Divergeλ = 1 Nao se sabe

4. Criterio de Rabe

n(1 − an

an−1)

> 1 ∀ n > N ⇒∞∑

n=1

an converge

≤ 1 ∀ n > N ⇒∞∑

n=1

an diverge

Ou:

limn→∞

n(1 − an

an−1) = λ⇒

λ > 1 Convergeλ < 1 Divergeλ = 1 Nao se sabe

5. Criterio da integral de Cauchy

Define-se f(n) = an

Se f(x)

{monotona decrescente∫∞

cf(x)dx convergente

} ∞∑n=1

an convergente

Observacao: c e arbitrario tal que f(x) definida e contınua em c < x <∞

2.1.4 Convergencia absoluta e convergencia condicional

Seja uma serie S(1)n = a1 + a2 + · · · + an, com termos ai positivos ou negativos.

Define-se a serie S(2)n = |a1| + |a2| + .....+ |an|

Se S(2)n converge ⇒ S

(1)n converge, e e dita absolutamente convergente.

Se S(2)n diverge

S(1)n diverge

ou

S(1)n condicionalmente convergente

26

Page 25: ApostilaMétodos Matematicos

2.1.5 Series de termos alternados

Definicao: Sn =∞∑

n=1

(−1)n−1an , an todos com o mesmo sinal.

Teorema de Leibnitz: Uma serie de termos alternados e convergente se:

1. a sucessao an e monotona decrescente

2. limn→∞

an = 0

Exemplos de series de sinais alternados convergentes:

1.∞∑

n=1

(−1)(n−1)( 1n) e convergente de soma Ln(2)

2.∞∑

n=1

(−1)(n−1)( 1n!

) e convergente de soma 1e

3.∞∑

n=1

(−1)(n+1)( 12n ) e convergente de soma 2

3

Regra do limitante do resıduo - Considerando apenas os n primeiros termos de umaserie convergente de termos alternados, o resıduo Rn = S − Sn tem o sinal do primeirotermo desprezado e e em modulo, menor do que esse termo: |Rn| = |S − Sn| < |an+1|

2.2 Operacoes com series

2.2.1 Soma∞∑

n=1

(an + bn) =∞∑

n=1

an +∞∑

n=1

bn =⇒ Converge para A+B

2.2.2 Produto de Cauchy

Wn = AnBn =n∑

i=1

i∑j=1

ajbi+1−j = somatoria de todos os termos acima da diagonal

secundaria de [anbn]:

[anbn] =

a1b1 · · · a1bn · · ·...

. . ....

anb1 · · · anbn · · ·...

...

AnBn − An−1Bn−1 e igual a somatoria dos termosda diagonal secundaria da matriz [anbn].

Teorema de Mertens:

Se∞∑

n=1

an converge absolutamente para a soma A e∞∑

n=1

bn converge absolutamente para

a soma B, entao∞∑

n=1

Wn converge absolutamente para a soma A.B.

27

Page 26: ApostilaMétodos Matematicos

2.3 Sucessao de funcoes

Sequencia de funcoes com domınio comum.

Definicao - limite de uma sucessao de funcoes:

limn→∞

fn(x) = f(x) se dado ε > 0 arbitrario, existe N(ε, x)�|fn(x) − f(x)| < ε ∀ n >N(ε, x) ; x ∈ [a, b]

Definicao - Convergencia uniforme: e dito que fn(x) converge uniformemente paraf(x) quando N e funcao apenas de ε, e nao de x:

|fn(x) − f(x)| < ε ∀ n > N, ∀ x ∈ [a, b]

Notacao: fn(x) ⇉[a,b]

f(x)

2.4 Serie de funcoes

Sao chamadas series de funcoes (ou funcionais) aquelas que tem as suas reduzidas definidas

por sucessoes de funcoes: SN(x) =N∑

i=1

fi(x). As funcoes fn(x) devem ter domınios de

definicao comuns.

Definicao:∞∑

n=1

fn(x) e convergente de soma S(x) se limn→∞

Sn(x) = S(x) em [a, b].

Definicao:∞∑

n=1

fn(x) e uniformemente convergente de soma S(x) se Sn(x) ⇉[a,b]

S(x).

Condicao de convergencia de Cauchy: A condicao necessaria e suficiente para queuma serie Sn(x) seja uniformemente convergente em [a, b] e que, dado ε > 0, exista N

independente de x tal que |Sn+p(x) − Sn(x)| < ε ∀{n > N independente de xp natural qualquer

Criterio de Weierstrass: A serie∑i

fi(x) converge uniformemente num dado intervalo,

se existe uma serie numerica convergente∑i

ci tal que, para todo x pertencente ao intervalo

considerado, e verificado que |fn(x)| ≤ cn.

A serie∑i

ci e chamada maiorante da serie∑i

fi(x).

Propriedades:

1. Se fi(x) contınua, e Sn(x) uniformemente convergente num intervalo, entao S(x) econtınua no intervalo.

2. A integral da soma de uma serie funcional,∫S(x)dx, e igual a soma dos integrais

dos termos,∑i

(∫fi(x)dx

).

28

Page 27: ApostilaMétodos Matematicos

2.5 Series de potencias

Sao series da forma Sn(x) =n∑

i=1

ai (x− a)i, com os termos a, ai constantes.

Propriedade: As series de potencia sao absolutamente convergentes para todo x talque |x− a| < ρ.

Definicao: ρ e chamado raio de convergencia da serie de potencias.

Teorema de Abel: Se uma serie de potencias e convergente para um valor x1 tal que x1−a > 0, entao ela e uniformemente convergente no intervalo (a− (x1 − a), a+ (x1 − a)).

Calculo de ρ:

1

ρ= lim

n→∞|an+1||an| (2.1)

1

ρ= lim

n→∞n√

|an| (2.2)

Ja que, usando D’Alembert:

limn→∞

∣∣∣∣an+1(x− a)n+1

an(x− a)n

∣∣∣∣ = limn→∞

|an+1||an|

|x− a| ≤ 1

Como a serie converge para |x− a| ≤ ρ, na fronteira temos

limn→∞

|an+1||an|

ρ = 1 ⇒ limn→∞

|an+1||an|

=1

ρ

A expressao para o calculo do ρ da equacao 2.2 pode ser demonstrada de forma analogautilizando o criterio de Cauchy.

Observacoes:

1. Quando o limite nao existe, deve ser utilizado o limite superior, lim.

2. Na fronteira (x− a = ±ρ), e necessario verificar a convergencia.

2.5.1 Soma, diferenca e produto de series de potencia

Duas series de potencias, com raios de convergencia ρ1 e ρ2 respectivamente, podem sersomadas, subtraıdas ou multiplicadas ”a la Cauchy”. A serie resultante tera raio deconvergencia ρ ≥ min (ρ1, ρ2).

29

Page 28: ApostilaMétodos Matematicos

2.5.2 Expansao em serie de potencias

As funcoes contınuas e infinitamente derivaveis podem ser expandidas em series de potencias.Qualquer reduzida da serie e uma aproximacao da sua funcao soma.Uma forma muito utilizada para se obter a expansao em serie de potencias e a

serie de Taylor:

f(x) =∞∑

p=0

f (p)(a)

p!(x− a)p

Pode ser observado que a aproximacao para f(x) e exata em x = a, para qualquerordem da reduzida.

A serie de McLaurin e um caso particular da serie de Taylor, quando a = 0.

f(x) =∞∑

p=0

f (p)(0)

p!xp

Observacoes:

• Toda serie de potencia e a expansao em serie de Taylor ou McLaurin da sua funcaosoma.

• A expansao em serie de Taylor ou McLaurin pode ser realizada para varias variaveissimultaneamente, utilizando derivadas parciais.

• Existem outras expansoes muito utilizadas, por exemplo as series trigonometricas(serie de Fourier).

30

Page 29: ApostilaMétodos Matematicos

Exercıcios:

1. Verifique a convergencia das series numericas:

a. Sn =∞∑i=0

1i!

b. Sn =∞∑i=0

(−1)i 1i!

c. Sn =∞∑i=0

12i

d. Sn =∞∑i=0

(−1)i 12i

e. Sn =∞∑i=0

1i2k

f. Sn =∞∑i=0

(−1)i 1i2k

2. Demonstre a expressao da equacao 2.2

3. Ache o raio de convergencia da serie Sn =∞∑i=0

xi

i. Analise a convergencia no intervalo

[−ρ, ρ].

4. Achar a expansao em serie de potencias e raio de convergencia para:

a. (1 + x)−12

b. ex

31

Page 30: ApostilaMétodos Matematicos

32

Page 31: ApostilaMétodos Matematicos

Capıtulo 3

Vetores

Bibliografia sugerida para os capıtulos 3 e 4: [10] Wai-Fah Chen & Atef F. Saleeb ”Con-stitutive Equation for Engineering Materials, Vol. 1: Elasticity and Modeling”. JhonWiley, 1982, Cap. 1.

3.1 Sistema de coordenadas cartesiano

(a) Vetor definido por 2 pontos. (b) Componentes cartesianas.

Figura 3.1: Vetor no espaco cartesiano

Base normal: destrogira

33

Page 32: ApostilaMétodos Matematicos

3.1.1 Diferentes notacoes:

(−→i ,

−→j ,

−→k ) = (−→e1 ,

−→e2 ,−→e3 )

||−→ei || = 1 (comprimento unitario)(i = 1, 2, 3)

−→V1 = v1

−→i = v1

−→e1−→V2 = v2

−→j = v2

−→e2−→V3 = v3

−→k = v3

−→e3

−→V =

−→V1 +

−→V2 +

−→V3

−→V = v1

−→e1 + v2−→e2 + v3

−→e3 ∼ −→V = v1

−→i + v2

−→j + v3

−→k

{v} =

v1

v2

v3

= [v1, v2, v3]−→V = {v} ∈ E3, vi ∈ E1 (i = 1, 2, 3)

Figura 3.2: Vetor definido por dois pontos.

Sejam A e B dois pontos no plano (xy).

O vetor−→V =

−→AB =

−→B −−→

A , onde−→A e

−→B sao os vetores definidos a partir dos pontos

A(a1, a2, a3) e B(b1, b2, b3) e a origem do sistema de coordenadas (xy). Esta afirmacao evalida para espacos de qualquer ordem. Para espacos de ordem 3 fica:

−→B = b1

−→e1 + b2−→e2 + b3

−→e3−→A = a1

−→e1 + a2−→e2 + a3

−→e3−→V =

−→B −−→

A = (b1 − a1)−→e1 + (b2 − a2)

−→e2 + (b3 − a3)−→e3

3.2 Operacoes com vetores

Seja−→A = [a1, a2, a3],

−→B = [b1, b2, b3],

−→C = [c1, c2, c3]

3.2.1 Soma, subtracao−→C =

−→A ±−→

B, ci = ai ± bi i = (1, 2, 3)

34

Page 33: ApostilaMétodos Matematicos

3.2.2 Multiplicacao por um escalar−→B = α

−→A, bi = αai i = (1, 2, 3)

3.2.3 Produto escalar−→A • −→B = ||−→A ||.||−→B || cos θ

Figura 3.3: Produto escalar.

Utilizando as propriedades distributiva e associativa com relacao ao produto por umescalar:

−→A • −→B = (a1

−→i + a2

−→j + a3

−→k ) • (b1

−→i + b2

−→j + b3

−→k )

= a1b1(−→i • −→i ) + a2b2(

−→j • −→j ) + a3b3(

−→k • −→k )

+ a1b2(−→i • −→j ) + a1b3(

−→i • −→k ) + a2b1(

−→j • −→i )

+ a2b3(−→j • −→k ) + a3b1(

−→k • −→i ) + a3b2(

−→k • −→j )

Num sistema de coordenadas ortonormal:

−→i • −→i = ||−→i ||.||−→i || cos 0 = 1−→i • −→j = ||−→i ||.||−→j || cos 90 = 0−→i • −→k = ||−→i ||.||−→k || cos 90 = 0−→j • −→k = ||−→j ||.||−→k || cos 90 = 0−→j • −→j = ||−→j ||.||−→j || cos 0 = 1−→k • −→k = ||−→k ||.||−→k || cos 0 = 1

(3.1)

Substituındo na equacao anterior:

−→A • −→B = a1b1 + a2b2 + a3b3 =

3∑

i=1

aibi =−→B • −→A

35

Page 34: ApostilaMétodos Matematicos

Portanto,∥∥∥ ~A∥∥∥ =

√N∑

i=1

a2i =

√−→A • −→A

Produto escalar entre vetores complexos

Por definicao, o produto escalar entre vetores complexos e dado por:

−→V • −→W = ({v}∗)T{w} =

N∑

i=1

viwi

{v}∗ - Conjugado do vetor {v}.v - Conjugado do numero v.{

(vR − jvI)i(wR + jwI)i = (vRwR + vIwI + j(vRwI − vIwR))i

(wR − jwI)i(vR + jvI)i = (vRwR + vIwI + j(vIwR − vRwI))i⇒ para vetores

complexos ⇒{ −→

V • −→W 6= −→W • −→V

−→V • −→W =

−→W • −→V

3.2.4 Produto vetorial

−→C =

−→A ×−→

B||−→C || = ||−→A ||.||−→B || sin θ−→

C ⊥ ao plano definido por−→A e

−→B−→

A ,−→B e

−→C formam um triedro direto

(destrogiro)

Propriedade:−→A ×−→

B = −(−→B ×−→

A )

Figura 3.4: Produto vetorial.

Em coordenadas Cartesianas ortonormais:

Permutacao cıclica: Positiva -3

1 2⇒ (1 2 3), (2 3 1), (3 1 2) ⇒ −→

i ×−→j =

−→k , etc...

Negativa -3�

1 2⇒ (1 3 2), (3 2 1), (2 1 3) ⇒ −→

i ×−→k = −−→

j , etc...

36

Page 35: ApostilaMétodos Matematicos

−→C =

∣∣∣∣∣∣

−→i

−→j

−→k

a1 a2 a3

b1 b2 b3

∣∣∣∣∣∣=

−→i (a2b3 − a3b2) +

−→j (a3b1 − a1b3) +

−→k (a1b2 − a2b1)

ou

−→C =

∣∣∣∣∣∣

−→e1−→e2 −→e3

a1 a2 a3

b1 b2 b3

∣∣∣∣∣∣= −→e1 (a2b3 − a3b2) + −→e2 (a3b1 − a1b3) + −→e3 (a1b2 − a2b1)

||−→C || =⇒area do paralelogramo definido por−→A e

−→B .−→

C e perpendicular ao plano formado por−→A e

−→B .

Figura 3.5: area do paralelogramo.

area = ||−→A ||.H H = ||−→B || sin θ =⇒ area = ||−→A ||.||−→B || sin θ =∥∥∥−→A ×−→

B∥∥∥

3.2.5 Produto escalar triplo−→A • (

−→B ×−→

C ) =−→C • (

−→A ×−→

B ) =−→B • (

−→C ×−→

A )∣∣∣∣∣∣

a1 a2 a3

b1 b2 b3c1 c2 c3

∣∣∣∣∣∣=

∣∣∣∣∣∣

c1 c2 c3a1 a2 a3

b1 b2 b3

∣∣∣∣∣∣=

∣∣∣∣∣∣

b1 b2 b3c1 c2 c3a1 a2 a3

∣∣∣∣∣∣= Volume do paralelepıpedo

3.2.6 Produto vetorial triplo

Formula de expulsao:

−→A × (

−→B ×−→

C ) =−→B (

−→A • −→C ) −−→

C (−→A • −→B )

(−→A ×−→

B ) ×−→C =

−→B (

−→A • −→C ) −−→

A (−→B • −→C )

3.2.7 Produto interno entre vetores complexos

O produto interno entre dois vetores−→V e

−→W complexos e um numero complexo que

satisfaz:

1. Simetria: <−→V ,

−→W > = <

−→W,

−→V >

37

Page 36: ApostilaMétodos Matematicos

2. <−→V ,

−→V > > 0 para

−→V 6= −→

0 . Se <−→V ,

−→V > = 0 ⇒ −→

V =−→0 .

3. < α−→V + β

−→W,

−→U >= α <

−→U ,

−→V > + β <

−→U ,

−→W >

<−→U , α

−→V + β

−→W >= α <

−→V ,

−→U > + β <

−→W,

−→U >

Exemplos:1) Produto escalar entre vetores reais,

−→V • −→W = {v}T{w} =

N∑

i=1

viwi = {w}T{v} =−→W • −→V

2) Produto escalar entre vetores complexos definido anteriormente:

−→V • −→W = {v}T{w} =

N∑

i=1

viwi =N∑

i=1

wivi = {w}T{v} =−→W • −→V

3.3 Campos vetoriais e escalares

3.3.1 Definicao de campo vetorial

Funcoes definidas por grandezas vetoriais no En.

Exemplos no E3:

Velocidade−→V (x1, x2, x3)

Forca−→F (x1, x2, x3)

Momento−→M(x1, x2, x3) (pseudo-vetor)

3.3.2 Definicao de campo escalar

Funcoes definidas por grandezas escalares no En.

Exemplos no E3:

Pressao P (x1, x2, x3)Campo magnetico Φ(x1, x2, x3)Campo eletrico E(x1, x2, x3)Campo gravitacional G(x1, x2, x3)

Observacao: As forcas eletromagneticas e gravitacionais constituem campos vetoriais,mas os campos eletromagneticos e gravitacionais sao escalares.

3.3.3 Operador Nabla ∇Aplicacoes do Operador ▽ (Nabla, de Hamilton ou DEL)

Formalmente se define o operador ∇ = ∂∂x

−→i + ∂

∂y

−→j + ∂

∂z

−→k = ∂

∂x1

−→e1 + ∂∂x2

−→e2 + ∂∂x3

−→e3

38

Page 37: ApostilaMétodos Matematicos

Gradiente de uma funcao escalar

O operador ▽ e aplicado a uma funcao escalar, resultando num vetor: Portanto transformacampos escalares em campos vetoriais.

∇() =∂()

∂x

−→i +

∂()

∂y

−→j +

∂()

∂z

−→k =

∂()

∂x1

−→e1 +∂()

∂x2

−→e2 +∂()

∂x3

−→e3

() ⇒ Representa qualquer funcao escalar diferenciavel Φ(x, y, z).

Seja Φ(x, y, z) uma funcao escalar Φ : R3 → R1

GRAD Φ(x, y, z) = ▽Φ(x, y, z) = ∂Φ∂x

−→i + ∂Φ

∂y

−→j + ∂Φ

∂z

−→k

▽Φ(x, y, z) = [∂Φ∂x, ∂Φ

∂y, ∂Φ

∂z]

Propriedade: ∇Φ(x1, y1, z1) e um vetor normal a superfıcie da funcao Φ(x, y, z) = ρ,no ponto (x1, y1, z1), ρ = constante.

Demonstracao:

Figura 3.6: Superfıcie Φ(x, y, z) = ρ.

Seja −→r = x−→i + y

−→j + z

−→k , o vetor posicao de um ponto P(x,y,z), pertencente a

superfıcie definida por Φ(x, y, z) = ρ.

d−→r = dx−→i + dy

−→j + dz

−→k e um vetor tangente a superfıcie no ponto P(x,y,z).

39

Page 38: ApostilaMétodos Matematicos

Figura 3.7: Curva de equacao φ(x, y) = ρ.

d−→r = limQ−→P

−→∆S

d−→r e um vetor tangente a curva φ(x, y) = ρd−→r e um vetor tangente a superfıcie Φ(x, y, z) = ρ.Mas ∇Φ(x, y, z)•d−→r = ∂Φ

∂xdx+ ∂Φ

∂ydy+ ∂Φ

∂zdz = dΦ = 0, pois Φ(x, y, z) = ρ = constante.

Logo ∇Φ e normal a d−→r .

Divergente de um vetor

O operador ▽ e formalmente multiplicado escalarmente por um vetor, resultando em umescalar. Portanto transforma campos vetoriais em campos escalares.

−→V (x, y, z) = v1

−→i + v2

−→j + v3

−→k

DIV−→V = ∇ • −→V =

∂v1

∂x+∂v2

∂y+∂v3

∂z(3.2)

∇ • −→V = (∂()

∂x

−→i +

∂()

∂y

−→j +

∂()

∂z

−→k ) • (v1

−→i + v2

−→j + v3

−→k )

=∂v1

∂x(−→i • −→i ) +

∂v2

∂y(−→j • −→j ) +

∂v3

∂z(−→k • −→k ) +

∂v2

∂x(−→i • −→j ) +

∂v3

∂x(−→i • −→k )

+∂v1

∂y(−→j • −→i ) +

∂v3

∂y(−→j • −→k ) +

∂v1

∂z(−→k • −→i ) +

∂v2

∂z(−→k • −→j )

Lembrando que os produtos escalares de−→i ,

−→j , e

−→k por eles mesmos e igual a unidade,

e que os produtos escalares entre dois deles e igual a zero (ver equacoes 3.1), chega-se naequacao (3.2).

40

Page 39: ApostilaMétodos Matematicos

Rotacional de um campo vetorial

O operador ▽ e formalmente multiplicado vetorialmente por um vetor, resultando em umvetor. Portanto transforma campos vetoriais em campos vetoriais.

ROT−→V = ∇×−→

V =

∣∣∣∣∣∣∣

−→i

−→j

−→k

∂()∂x1

∂()∂x2

∂()∂x3

v1 v2 v3

∣∣∣∣∣∣∣

=−→i (∂v3

∂x2

− ∂v2

∂x3

) +−→j (∂v1

∂x3

− ∂v3

∂x1

) +−→k (

∂v2

∂x1

− ∂v1

∂x2

)

∇×−→V =

∣∣∣∣∣∣

−→e1 −→e2 −→e3∂()∂x1

∂()∂x2

∂()∂x3

v1 v2 v3

∣∣∣∣∣∣= −→e1 (

∂v3

∂x2

− ∂v2

∂x3

) + −→e2 (∂v1

∂x3

− ∂v3

∂x1

) + −→e3 (∂v2

∂x1

− ∂v1

∂x2

)

3.3.4 Operador laplaciano ∆

Definicao:

∆() = ∇ •∇() = ∇2() =∂2()

∂x2+∂2()

∂y2+∂2()

∂z2

Laplaciano de uma funcao escalar φ(x, y, z):

∆φ(x, y, z) = ∇2φ(x, y, z) = ∇ •∇φ =∂2φ

∂x2+∂2φ

∂y2+∂2φ

∂z2

Transforma campos escalares em campos escalares.

Exercıcio: Demonstre as seguintes propriedades:

ROT GRAD φ = ∇×∇φ = 0

DIV ROT−→V = ∇ • (∇×−→

V ) = 0∇(φ.ψ) = φ∇ψ + ψ∇φ∇ • (φ

−→V ) = φ(∇ • −→V ) +

−→V • ∇φ

41

Page 40: ApostilaMétodos Matematicos

42

Page 41: ApostilaMétodos Matematicos

Capıtulo 4

Notacao indicial

Seja um sistema de coordenadas cartesiano definido por (x1, x2, x3) na base (−→e1 ,−→e2 ,−→e3 ).

Figura 4.1: Domınio.

Φ(x1, x2, x3) : R3 −→ R1 e uma funcao escalar contınua em D.−→A,

−→B ,

−→C sao vetores:

−→A = a1

−→e1 + a2−→e2 + a3

−→e3 ou [a1, a2, a3] ou

a1

a2

a3

−→B = b1

−→e1 + b2−→e2 + b3

−→e3 ou [b1, b2, b3] ou

b1b2b3

43

Page 42: ApostilaMétodos Matematicos

4.1 Notacao classica

▽Φ(x1, x2, x3) =∂Φ

∂x1

−→e1 +∂Φ

∂x2

−→e2 +∂Φ

∂x3

−→e3 =3∑

i=1

∂Φ

∂xi

−→ei

ou

▽Φ(x1, x2, x3) = (∂Φ

∂x1

,∂Φ

∂x2

,∂Φ

∂x3

) ou

∂Φ∂x1∂Φ∂x2∂Φ∂x3

▽() =3∑

i=1

∂()

∂xi

−→ei =

∂()∂x1∂()∂x2∂()∂x3

DIV−→A = ▽ • −→A =

3∑

i=1

∂ai

∂xi

=∂a1

∂x1

+∂a2

∂x2

+∂a3

∂x3

ROT−→A = ▽ ×−→

A =

∣∣∣∣∣∣

−→e1−→e2

−→e3∂()∂x1

∂()∂x2

∂()∂x3

a1 a2 a3

∣∣∣∣∣∣= −→e1 (

∂a3

∂x2

− ∂a2

∂x3

) + −→e2 (∂a1

∂x3

− ∂a3

∂x1

) + −→e3 (∂a2

∂x1

− ∂a1

∂x2

)

▽2φ = ▽ •▽φ =3∑

i=1

∂2φ

∂xi∂xi

=∂2φ

∂x21

+∂2φ

∂x22

+∂2φ

∂x23

4.2 Notacao indicial

4.2.1 Definicao

Um vetor cartesiano−→V e representado por suas componentes.−→

V = v1−→e1 + v2

−→e2 + v3−→e3 = [v1, v2, v3] −→ vi

Portanto:−→V −→ vi (Fica implıcito que o ındice i varia de 1 a 3, i = 1, 2, 3)

−→v =⇒ (x1, x2, x3) =⇒ xi ou xj.

Qualquer variavel (−→V ,−→v , etc...) com um ındice vi ou vj sem repeticao, denota um

vetor. i ou j e chamado ındice livre (”free index”).−→A =⇒ ai,

−→B =⇒ bi,

−→C =⇒ ci

−→C =

−→A +

−→B

↓ ↓ ↓ci = ai + bi

Fica implıcito que i = 1, 2, 3.

e equivalente a (c1, c2, c3) = [(a1 + b1), (a2 + b2), (a3 + b3)]

44

Page 43: ApostilaMétodos Matematicos

−→B = α

−→A =⇒ [b1, b2, b3] = [αa1, αa2, αa3]

↓ ↓bj = αaj

Dois ındices livres indicam uma matriz (3x3)aij (implıcito que i e j variam de 1 a 3)

aij =⇒

a11 a12 a13

a21 a22 a23

a31 a32 a33

Tres ındices livres indicam uma matriz 3D (3x3x3)

aijk =⇒

րk −→j

i ↓

a111 a121 a131

a211 a221 a231

a311 a321 a331

(i, j, k) variam de 1 a 3.

4.2.2 Convencao soma

Toda vez que houver repeticao de ındice em um termo e entendido uma somatoria em queos ındices variam de 1 a 3.

O ındice repetido se chama ındice mudo (”dummy index”).Um ındice so pode repetir uma vez num mesmo termo.Exemplos:

Notacao classica Notacao indicial

−→A • −→B =

3∑

i=1

aibi =⇒ −→A • −→B = aibi

▽Φ =3∑

i=1

∂Φ

∂xi

−→ei =⇒ ∂Φ

∂xi

−→ei =∂Φ

∂xj

−→ej

aijxj = bi =⇒{i⇒ ındice livre.j ⇒ ındice mudo.

=⇒

=⇒ {ai1x1 + ai2x2 + ai3x3 = bi} =⇒i = 1i = 2i = 3

a11x1 + a12x2 + a13x3 = b1a21x1 + a22x2 + a23x3 = b2a31x1 + a32x2 + a33x3 = b3

=⇒

=⇒

a11 a12 a13

a21 a22 a23

a31 a32 a33

x1

x2

x3

=

b1b2b3

45

Page 44: ApostilaMétodos Matematicos

4.2.3 Notacao de diferenciacao

A diferenciacao e indicada por uma vırgula como ındice.

Exemplos:

Gradiente de φ:

∇φ = ∂φ∂xi

−→ei = φ,i−→ei (Notacao indicial como soma vetorial)

∇φ = ∂φ∂xi

= φ,i (Notace indicial como componente do vetor gradiente)

∇φ = φ,i

Divergente de−→A :

∇ • −→A = (∂a1

∂x1

+∂a2

∂x2

+∂a3

∂x3

) =∂ai

∂xiNotacao indicial

= ai,i = (a1,1 + a2,2 + a3,3)

∇ • −→A = ai,i

Laplaciano de φ:

∇2φ = ∇ •∇φ =∂2φ

∂x21

+∂2φ

∂x22

+∂2φ

∂x23

=∂2φ

∂xi∂xi(Notacao indicial)

= φ,ii = φ,11 + φ,22 + φ,33

∇2φ = φ,ii

4.2.4 Delta de Kronecker δij

Tensor δij ⇒ Matriz (3x3)

δij ⇒

1 0 00 1 00 0 1

{δij = 1 i = jδij = 0 i 6= j

δij e tambem um operador matricial (operador substituicao).

δijvj = vi (o operador δij aplicado em um vetor vj substitui o ındice repetido dovetor pelo ındice livre).

δijvi = vj

δijvj = δi1v1 + δi2v2 + δi3v3 = vi

δijδij = δii ou δjj = δ11 + δ22 + δ33 = 3

δijaij = aii ou ajj = (a11 + a22 + a33)−→ei • −→ej = δij

46

Page 45: ApostilaMétodos Matematicos

4.2.5 Operador alternante ou alternador εijk

Tensor εijk ⇒ Tensor

Alternanteou

Alternador

εijk → 3 ındices livres → 33 = 27 componentes (Matriz 3x3x3)Definicao:

εijk = 0 se houver ındice repetido (nesse caso nao significa soma)εijk = 1 se a partir da ordem natural (i, j, k) = (1, 2, 3), o numero de

permutacoes for parεijk = −1 se a permutacao for ımpar

Permutacoes pares Permutacoes ımpares(1 2 3) (1 3 2)(2 3 1) (3 2 1)(3 1 2) (2 1 3)

4.2.6 Aplicacoes do tensor εijk

−→C =

−→A ×−→

B =

∣∣∣∣∣∣

−→e1−→e2

−→e3

a1 a2 a3

b1 b2 b3

∣∣∣∣∣∣= εijk

−→ei ajbk = εijkajbk−→ei = εijkajbk

−→A • (

−→B ×−→

C ) =

∣∣∣∣∣∣

a1 a2 a3

b1 b2 b3c1 c2 c3

∣∣∣∣∣∣= ai

−→ei • εjkl−→ej bkcl = εjklaibkcl(

−→ei • −→ej︸ ︷︷ ︸δij

) = δijεjkl︸ ︷︷ ︸εikl

aibkcl = εijkaibjck

= a1b2c3 + a2b3c1 + a3b1c2 − (a1b3c2 + a2b1c3 + a3b2c1) + 0 + 0 + · · · · · · + 0 + 0

|aij| =

∣∣∣∣∣∣

a11 a12 a13

a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣= εijka1ia2ja3k

4.2.7 Relacao entre δij e εklm

εijkεist = δjsδkt − δjtδks

4.3 Exercıcios

Usando notacao indicial,

47

Page 46: ApostilaMétodos Matematicos

1. mostrar que εi12εi23 = 0

εi12εi23 = δ12δ23 − δ13δ22 = 0

2. mostrar que,−→A × (

−→B ×−→

C ) =−→B (

−→A • −→C ) −−→

C (−→A • −→B )

Lado esquerdo da equacao;

−→D =

−→A × (

−→B ×−→

C︸ ︷︷ ︸−→E

) ⇒{ −→

D =−→A ×−→

E → di = εijkajek−→E =

−→B ×−→

C → ek = εkstbsct

di = εijkajεkstbsct ∼ di = εijkεkstajbsct

εijk = εkij ⇒ di = εkijεkstajbsct = (δisδjt − δitδjs)ajbsct

δisbs = biδitct = ci

}=⇒ δjtaj︸︷︷︸

at

bict − δjsaj︸︷︷︸as

bsci

di = atbict − asbsci

di = bi (atct) − ci (asbs)↓ ↓ ↓ ↓ ↓−→D =

−→B (

−→A • −→C ) − −→

C (−→A • −→B )

3. mostrar que εijkεkji = −6

εkji = −εijk ⇒ εijkεkji = −εijkεijk = −(δjjδkk − δjkδkj︸ ︷︷ ︸δjj

)

δii = 3 ⇒ εijkεkji = −9 + 3 = −6

4. mostrar que ▽×▽φ = 0

▽×▽φ = εijk

(∂

∂xj

)(∂φ∂xk

)= εijk

∂2φ∂xjxk

εijkφ,jk = 0

εijkφ,jk = ε123φ,23 + ε132φ,32︸ ︷︷ ︸0

+ ε213φ,13 + ε231φ,31︸ ︷︷ ︸0

+ ε312φ,12 + ε321φ,21︸ ︷︷ ︸0

= 0

5. Mostrar indicialmente que ▽× (▽×−→A ) = ▽(▽ • −→A ) −▽2−→A

−→A = ai

▽2−→A = ▽2a1−→e1 + ▽2a2

−→e2 + ▽2a3−→e3

▽2−→A = ▽2ai = ai,jj

Definindo ▽×−→A = bi = εijkak,j ⇒

▽ × (▽ × −→A ) = ▽ × −→

B = εlmibi,m = εlmiεijkak,jm = εilmεijkak,,jm = (δljδmk −δlkδmj)ak,jm

▽× (▽×−→A ) = (δljδmkak,jm︸ ︷︷ ︸

am,jm

− δlkδmjak,jm︸ ︷︷ ︸ak,mm

) = δljam,jm︸ ︷︷ ︸am,lm

− δlkak,mm︸ ︷︷ ︸al,mm

= am,lm − al,mm

48

Page 47: ApostilaMétodos Matematicos

am,lm = ▽(am,m) = ▽(▽ • −→A )

al,mm = ▽2al = ▽2−→A

}⇒ am,lm − al,mm = ▽(▽ • −→A ) −▽2−→A

4.4 Problemas

Mostrar (indicialmente) que:

a) εijkAjAk =−→A ×−→

A = 0

b) εijkδij = 0

c) ▽ • (▽×−→A ) = 0

d) Dada a matriz simetrica σij (σij = σji) e

{Q1 = εijkεijmσkm P1 = σii

Q2 = εijkεimnσjmσkn P2 = σijσji

mostrar que,

{Q1 = 2P1

Q2 = P 21 − P2

e) Dado bi = ai√ajaj

, mostrar que bi e um vetor unitario.

49

Page 48: ApostilaMétodos Matematicos

50

Page 49: ApostilaMétodos Matematicos

Capıtulo 5

Vetores Euclidianos

Considere-se no espaco euclidiano E3, um referencial (x,y,z) destrogiro.

Um vetor−→V pode ser especificado por suas compo-

nentes,

−→V = v1

−→e 1 + v2−→e 2 + v3

−→e 3 ou v1−→i + v2

−→j + v3

−→k

ou simplesmente−→V =

v1

v2

v3

= {V }

Onde

−→e 1 =

100

, −→e 2 =

010

, −→e 3 =

001

Figura 5.1: Base euclidiana.

Diz-se que−→V ∈ E3 (ou

−→V ∈ C3 se as componentes forem complexas).

Nota: Pode-se generalizar o espaco E3 para um espaco N-dimensional EN . Neste caso,{V } ∈ EN pode ser definido por suas N componentes,

{V } =

v1

v2...vN

Definicao: Vetores linearmente independentes (vetores LI)

Um conjunto de vetores [{x}1, {x}2, . . . , {x}N ], {x}i ∈ EN , e definido comolinearmente independente (LI) se e somente se a combinacao linear,

51

Page 50: ApostilaMétodos Matematicos

α1{x}1 + α2{x}2 + . . .+ αN{x}N = {0}admitir somente a solucao trivial, α1 = α2 = · · · = αN = 0

α1{x}1 + α2{x}2 + . . .+ αN{x}N = {0}

[{x}1 {x}2 . . . {x}N ]

α1

α2...αN

= {0}

x11

x21...xN1

x12

x22...xN2

· · ·

x1N

x2N...xNN

α1

α2...αN

= {0}

[X](N×N){α} = {0}Se |[X]| 6= 0 ⇒ {α} = [X]−1{0} = {0} (solucao trivial unica, conjunto LI)Se |[X]| = 0 ⇒ O sistema homogeneo apresenta solucoes nao triviais ⇒ o conjunto de

vetores e chamado linearmente dependente, (LD).

Definicao: Num espaco EN , qualquer conjunto de N vetores LI, [{b}1, {b}2, . . . , {b}N ]constitui uma base vetorial para o EN .

Qualquer vetor {V } do EN , {V } ∈ EN , pode ser escrito como uma combinacao lineardos vetores da base,

{V } = α1{b}1 + α2{b}2 + . . .+ αN{b}N ou {V } = [{b}1 {b}2 . . . {b}N ]

α1

α2...αN

N e a dimensao do espaco vetorial EN .

Produto escalar entre dois vetores {A} =

a1

a2...aN

e {B} =

b1b2...bN

em uma base

ortonormal:

({A}, {B}) = ({B}, {A}) = {A} · {B} = {A}T{B} =N∑

i=1

aibi

Definicao - Base ortogonal: ({b}1, {b}2, . . . , {b}N) e uma base ortogonal se,

52

Page 51: ApostilaMétodos Matematicos

{b}Ti {b}j = 0 quando i 6= j

6= 0 quando i = j

Definicao: Base ortonormal: ({b}1, {b}2, . . . , {b}N) e uma base ortonormal se,

{b}Ti {b}j = δij =

{0 quando i 6= j1 quando i = j

δij → delta de Kronecker.Obs.: Muitas vezes a base ortonormal e chamada ortogonal.

5.1 Norma de um vetor

Definicao: Norma de um vetor {V } → ‖{V }‖⋆

‖{V }‖⋆ e um escalar que satisfaz 3 condicoes:

(i) ‖{V }‖⋆ > 0 ∀{V } 6= {0}; ‖{V }‖⋆ = 0 implica em {V } = {0}

(ii) ‖α{V }‖⋆ = |α|. ‖{V }‖⋆

(iii) ‖{U} + {V }‖⋆ ≤ ‖{U}‖⋆ + ‖{V }‖⋆ (propriedade triangular)

5.1.1 Algumas definicoes para a norma

(i) Norma euclidiana ou Frobenius:

‖{V }‖E ou ‖{V }‖2 =√{V }T{V } =

√√√√N∑

i=1

|vi|2

(ii) Norma maxima (ou absoluta):

‖{V }‖∞ = Maximoi

|vi|

(iii) ”Taxicab norm”:

‖{V }‖1 =N∑

i=1

|vi|

(iv) Norma generalizada p:

‖{V }‖p = p

√√√√N∑

i=1

|vi|p p inteiro, 1 ≤ p <∞

53

Page 52: ApostilaMétodos Matematicos

Definicao: Vetor unitario ⇒ ‖{V }‖⋆ = 1Portanto o vetor unitario depende da norma utilizada.

5.2 Obtencao de uma base ortogonal

Problema: dado uma base qualquer, [{b}1, {b}2, . . . , {b}N ] ⇒obter uma base ortogonal, [{u}1, {u}2, . . . , {u}N ].

Sapoe-se que o conjunto de vetores [{b}1, {b}2, . . . , {b}N ] seja LI. Caso contrario naoconstituiria uma base.

5.2.1 Metodo de ortogonalizacao de Gram-Schmidt

Dado um conjunto de vetores LI, [{b}1, {b}2, . . . , {b}M ], M ≤ N, {b}i ∈ EN , obterum conjunto de vetores ortonormais [{u}1, {u}2, . . . , {u}M ], {u}T

i {u}j = δij

Algoritmo basico:

1. i=1

{p}1 = {b}1 (5.1)

2. Normalizar {p}1:

α11 = ‖{p}1‖2 =

√√√√N∑

j=1

p2j (5.2)

{u}1 ={p}1

α11

(5.3)

Das equacoes 5.1, 5.2 e 5.3,

{b}1 = α11{u}1

3. i = 2

{p}2 = {b}2 − α12{u}1 (5.4)

Impondo a condicao de ortogonalidade entre {p}2 e {u}1,

{p}T2 {u}1 = {u}T

1 {p}2 = 0 (5.5)

54

Page 53: ApostilaMétodos Matematicos

Pre-multiplicando a equacao 5.4 por {u}T1 ,

{u}T1 {p}2 = {u}T

1 {b}2 − α12{u}T1 {u}1︸ ︷︷ ︸1

= 0 (5.6)

∴ α12 = {u}T1 {b}2 (5.7)

4. Normalizacao de {p}2,

α22 = ‖{p}2‖2 (5.8)

{u}2 ={p}2

α22

(5.9)

∴ {p}2 = α22{u}2

Das equacoes 5.4 e 5.9,

{b}2 = α12{u}1 + α22{u}2 (5.10)

5. i = 3

{p}3 = {b}3 − α13{u}1 − α23{u}2 (5.11)

da ortogonalidade,

{p}T3 {u}1 = {p}T

3 {u}2 = 0 (5.12)

{u}T1 × equacao 5.11⇒ {u}T

1 {p}3 = {u}T1 {b}3 − α13{u}T

1 {u}1︸ ︷︷ ︸1

− α23{u}T1 {u}2︸ ︷︷ ︸0

= 0

α13 = {u}T1 {b}3 (5.13)

{u}T2 × equacao 5.11⇒ {u}T

2 {p}3 = {u}T2 {b}3 − α13{u}T

2 {u}1︸ ︷︷ ︸0

− α23{u}T2 {u}2︸ ︷︷ ︸1

= 0

α23 = {u}T2 {b}3 (5.14)

55

Page 54: ApostilaMétodos Matematicos

6. Normalizacao de {p}3

α33 = ‖{p}3‖2 (5.15)

{u}3 ={p}3

α33

(5.16)

Das equacoes 5.11 e 5.16,

{b}3 = α13{u}1 + α23{u}2 + α33{u}3 (5.17)

7. Para i qualquer, analogamente, obtem-se:

{p}i = {b}i −i−1∑

j=1

αji{u}j (5.18)

αji = {u}Tj {b}i j = 1, 2, . . . , (i− 1) (5.19)

αii = ‖{p}i‖2 (5.20)

{u}i ={p}i

αii

(5.21)

Das equacoes 5.18 e 5.21,

{b}i = α1i{u}1 + α2i{u}2 + · · · + αii{u}i =i∑

j=1

αji{u}j (5.22)

8. Repetir ate i = M , M ≤ N.

Da equacao 5.22 pode-se ver que,

[{b}1{b}2 · · · {b}M ] = [{u}1{u}2 · · · {u}M ]

α11 α12 α13 · · · α1M

0 α22 α23 · · · α2M

0 0 α33 · · · α3M...

......

. . ....

0 0 0 · · · αMM

N

B

︸ ︷︷ ︸M

= N

U

︸ ︷︷ ︸M

[R]

− − −

− −[0] −

︸ ︷︷ ︸M

M

[U ]M×N

T [U ]N×M

= [I]M×M

(as colunas de [U ] sao ortogonais entre si)

Se M = N ⇒ [U ]T [U ] = [U ][U ]T = [I] (as linhas tambem sao ortogonais entre si)

Observacao: Essa decomposicao e chamada de decomposicao QR

56

Page 55: ApostilaMétodos Matematicos

Algoritmo Gram-Schmidt modificado:

Do ponto de vista numerico e conveniente modificar ligeiramente o algoritmo basico. Oobjetivo e minimizar os erros de truncamento.

1. i = 1

{p}1 = {b}1

α11 = ‖{p}1‖2 =

√√√√N∑

j=1

p2j

{u}1 ={p}1

α11

{b}1 = α11{u}1

2. i = 2

α12 = {u}T1 {b}2

{p}2 = {b}2 − α12{u}1

α22 = ‖{p}2‖

{u}2 ={p}2

α22

{b}2 = α12{u}1 + α22{u}2

3. i = 3

α13 = {u}T1 {b}3

{p}13 = {b}3 − α13{u}1

α23 = {u}T2 {p}1

3

{p}23 = {p}1

3 − α23{u}2

α33 =∥∥{p}2

3

∥∥

{u}3 ={p}2

3

α33

{b}3 = α13{u}1 + α23{u}2 + α33{u}3

57

Page 56: ApostilaMétodos Matematicos

4. Analogamente para i qualquer:

α1i = {u}T1 {b}i

{p}1i = {b}i − α1i{u}1

α2i = {u}T2 {p}1

i

{p}2i = {p}1

i − α2i{u}2

α3i = {u}T3 {p}2

i

{p}3i = {p}2

i − α3i{u}3

... =...

α(i−1),i = {u}Ti−1{p}(i−2)

i

{p}(i−1)i = {p}(i−2)

i − α(i−1),i{u}i−1

αii =∥∥{p}i−1

i

∥∥

{u}i ={p}i−1

i

αii

{b}i = α1i{u}1 + α2i{u}2 + · · · + αii{u}i

Observacao: No algoritmo modificado, {p}i−1i e calculado de modo que

{u}Tj {p}(i−1)

i = 0 (j = 1, 2, . . . , (i − 1)) e imposto para cada {u}j, independente-mente.

Programa 1: Programar o Gram Schmidt modificado:

Dados M vetores LI, M ≤ N , [B]N×M

= [{b}1{b}2 · · · {b}M ], {b}i ∈ EN , achar M

vetores ortogonais [U ]N×M

= [{u}1{u}2 · · · {u}M ]

• Verificacao da ortogonalidade: [U ]T [U ] = [I]M×M

• [R] =

α11 α12 · · · α1M

0 α22 · · · α2M...

.... . .

...0 0 · · · αMM

• Saıda: [B]N×M

, [U ]N×M

, [R]M×M

• Verificar [B] = [U ].[R].

58

Page 57: ApostilaMétodos Matematicos

Capıtulo 6

Produto escalar e projecoes em umareta

6.1 Vetor projecao

Figura 6.1: Projecao ortogonal.

Dados dois vetores euclidianos:

−→A → (a1, a2, a3),→ {a} =

a1

a2

a3

−→B → (b1, b2, b3),→ {b} =

b1b2b3

achar a projecao de−→B em

−→A.

59

Page 58: ApostilaMétodos Matematicos

cos θ =−→A

‖−→A‖E

•−→B

‖−→B‖E

∥∥∥−→A∥∥∥

E=√{a}T{a} =

√3∑

i=1

a2i

∥∥∥−→B∥∥∥

E=√

{b}T{b} =

√3∑

i=1

b2i

Seja−→P a projecao de

−→B em

−→A

−→P = α

−→A∥∥∥−→A∥∥∥

E

=α√

{a}T{a}−→A, α =

∥∥∥−→P∥∥∥

E=

−→B •

−→A∥∥∥−→A∥∥∥

E

={b}T{a}

({a}T{a})1/2

−→A

‖−→A‖E

=−→A√

{a}T {a}⇒ Vetor unitario na direcao de

−→A.

∴−→P =

{b}T{a}({a}T{a})1/2

−→A

({a}T{a})1/2=

{a}T{b}{a}T{a}

−→A

6.2 Matriz projetora

Na forma de componentes:

−→P =

p1

p2

p3

= {p}; −→A =

a1

a2

a3

= {a}; −→B =

b1b2b3

= {b}

{p} ={a}T{b}{a}T{a}{a} =

{a}{a}T

{a}T{a}{b}

({a}{a}T

{a}T{a}

)

(N×N)

= [P] ⇒ {p} = [P](N×N){b}

Definicao: A matriz [P] = {a}{a}T

{a}T {a} e chamada matriz projetora ou matriz projecao.

Ela projeta um vetor {b} qualquer na direcao de {a}.

Propriedades da matriz [P]

1. Simetrica: ([P]T = [P])

[P]T =

({a}{a}T

{a}T{a}

)T

=({a}T )T ({a})T

{a}T{a} ={a}{a}T

{a}T{a} = [P]

2. ”Idempotente”: [P][P] = [P] ([P][P] = [P]2 = [P])

60

Page 59: ApostilaMétodos Matematicos

[P][P] ={a}({a}T

{a}T{a} .{a}){a}T

{a}T{a} =({a}T{a})({a}T{a})︸ ︷︷ ︸

1

({a}{a}T )

({a}T{a}) ={a}{a}T

{a}T{a} = [P]

Observacao: um caso particular importante e o dos vetores {b} que produzem umaprojecao nula.

[P]{b} = {0} ⇒ {a}{a}T

{a}T{a}{b} = {0} ⇒ {a}T{b} = {0}

* qualquer vetor {b}⊥{a} produz um vetor nulo quando projetado em {a}.

6.3 Teorema da projecao

Dado dois vetores coplanares nao paralelos−→V 1 e

−→V 2 no E3,

−→V 1 =

v11

v21

v31

e−→V 2 =

v12

v22

v32

, e um ponto B nao pertencente ao plano S2 definido por−→V 1 e

−→V 2, qual e a

distancia do ponto B ao plano S2?

Plano S2 definido por−→V 1 e

−→V 2 ⇒ S2 = {−→R ∈ E3 | −→R = x1

−→V 1 + x2

−→V 2}, x1, x2

escalares.

Na forma matricial:

r1r2r3

= x1

v11

v21

v31

+ x2

v12

v22

v32

r1r2r3

=

v11 v12

v21 v22

v31 v32

{x1

x2

}

{r} = [A]{x}

Seja um ponto O de referencia no plano S2. Seja um ponto A(a1, a2, a3) definido pelo

vetor−→R (ou vice-versa), pertencente ao plano S2. Seja um ponto B(b1, b2, b3) definido

pelo vetor−→B (ou vice-versa).

61

Page 60: ApostilaMétodos Matematicos

(O ponto O e a origemdo sistema de referencia)

−→B =

−−→OB−→

R =−→OA Figura 6.2: Distancia de um ponto a um plano.

A distancia AB entre o ponto A e o ponto B pode ser obtida de,−→B +

−→BA =

−→R ⇒ −→

BA =−→R −−→

B

onde−→R =

−→OA.

∴ AB =∥∥∥−→R −−→

B∥∥∥

E

A menor distancia entre o ponto B e um ponto A do S2 e a distancia entre o ponto Be o plano S2.

d = ABMınimo = Mınimor1,r2,r3

∥∥∥−→R −−→

B∥∥∥

E{R} =

r1r2r3

Solucao:∥∥∥−→R −−→

B∥∥∥

Ee mınimo quando (

−→R − −→

B ) ⊥ −→R , isto e (

−→R − −→

B ) · −→R = 0 =−→R · (−→R −−→

B ).

Mınimo−→R

∥∥∥−→R −−→

B∥∥∥ = Mınimo−→

R

∥∥∥−→R −−→

B∥∥∥

2

∥∥∥−→R −−→

B∥∥∥

2

= (−→R −−→

B ) · (−→R −−→B ) = (

−→R −−→

B ) · −→R − (−→R −−→

B ) · −→B

d2 =∥∥∥−→R −−→

B∥∥∥

2

Mınimo= min|(−→R −−→

B ) · −→B |

Para determinar o vetor−→R :−→

R · (−→R −−→B ) = 0

([A]{x})T ([A]{x} − {b}) = {x}T [A]T ([A]{x} − {b}) = 0{x}T [A]T [A]{x} − {x}T [A]T{b} = 0{x}T ([A]T [A]{x} − [A]T{b}︸ ︷︷ ︸

{0}

) = 0 ⇒ [A]T [A]{x} = [A]T{b}

62

Page 61: ApostilaMétodos Matematicos

O vetor−→R que produz a distancia entre B e S2 e obtido de [A]T [A]{x} = [A]T{b}:

{x}(2×1)

= ( [A](2×3)

T [A](3×2)︸ ︷︷ ︸

(2×2)

)−1[A]T

(2×3)

{b}(3×1)

{−→R} = x1−→V 1 + x2

−→V 2 = [A]{x}

Como

{x1

x2

}e a solucao que torna

∥∥∥−→R −−→

B∥∥∥

2

mınimo ⇒ e equivalente a solucao

por mınimos quadrados.

Neste caso, {R} e a projecao de−→B no plano S2.

{x} = (ATA)−1AT{b}Pre-multiplicando por [A]:

[A]{x} = A(ATA)−1AT

︸ ︷︷ ︸(3×3)

{b}

{R}(3×1)

= [P](3×3)

{b}(3×1)

→ Projecao de {b} em S2

[P] = A(ATA)−1AT e a matriz de projecao,

• simetrica.• Idempotente: [P]2 = A(ATA)−1ATA(ATA)−1

︸ ︷︷ ︸[I]

AT = A(ATA)−1AT = [P]

Generalizacao do Teorema da projecao:

Seja um conjunto de vetores LI, ({V }1, {V }2, . . . , {V }M)

{V }i ∈ EN {V }i =

v1i

v2i...vNi

M ≤ N.

[{V }1 {V }2 · · · {V }M ] =

v11

v21...vN1

v12

v22...vN2

· · ·· · ·. . .

· · ·

v1M

v2M...

vNM

= [A]

(N×M)

O conjunto de M vetores LI define um plano SM , M -dimensional, SM ⊂ EN .SM =

{{R} ∈ EN | {R} = x1{V }1 + x2{V }2 + · · · + xM{V }M , (x1, . . . , xM) escalares

}

Na forma matricial, {R}(N×1)

= [{V }1 {V }2 · · · {V }M ]

x1

x2...xN

= [A]

(N×M)

{x}(M×1)

63

Page 62: ApostilaMétodos Matematicos

Para qualquer vetor {B} =

b1b2...bN

, {B} ∈ EN , existe um vetor {p} ∈ SM tal que

‖{B} − {p}‖2 e mınimo.

Nesse caso, ({B} − {p}) e ortogonal a {p}, isto e ({B} − {p}) • {p} = 0.

O vetor {p} e obtido de {p}(N×1)

= [A(ATA)−1AT ]︸ ︷︷ ︸[P ]

(N×N)

{B}(N×1)

{p} e a projecao de {B} no plano SM .

Exemplo: Dado um ponto B que define o vetor−→B =

−555

= {b}, e o plano

definido por −→e 1 =√

22

100

e −→e 2 =√

22

010

; S2 = {−→R = x1−→e 1 + x2

−→e 2}, calcular a

projecao {p} de−→B em S2. Calcular a distancia de B a S2.

Observacao: e possıvel verificar que o ponto B nao pertence ao plano S2.

Solucao:

{p} = [A(ATA)−1AT ]{b} ⇒ {p} =

1 00 10 0

[

1 00 1

] [1 0 00 1 0

]{b} =

1 0 00 1 00 0 0

︸ ︷︷ ︸[P ]

{b}

{p} =

1 0 00 1 00 0 0

−555

=

−550

d = ‖{B} − {p}‖E =

∥∥∥∥∥∥

−555

−550

∥∥∥∥∥∥=

∥∥∥∥∥∥

005

∥∥∥∥∥∥= 5

Observacao:

[P ] =√

22

1 01 10 0

22

[1 1 00 1 0

] √2

2

1 01 10 0

−1

√2

2

[1 1 00 1 0

]=

1 0 00 1 00 0 0

{p} = [P ]{b} =

−550

64

Page 63: ApostilaMétodos Matematicos

Resultado obvio, ja que os pares de vetores

100

;

010

e√

22

100

;√

22

010

definem o mesmo plano.

Exercıcios:

1. Achar a matriz projetora do vetor {−→V } =

1−2

3−4

Achar a projecao do vetor {−→B } =

5555

na direcao de {−→V }.

2. Dado o plano S que passa por O(2, 1, 0) e definido pelos vetores −→e 1 =

101

e

−→e 2 =

001

, e o ponto P (−5, 1, 1), achar:

(a) Projecao do vetor−→OP sobre S.

(b) Distancia de P a S.

65

Page 64: ApostilaMétodos Matematicos

66

Page 65: ApostilaMétodos Matematicos

Capıtulo 7

Matrizes

7.1 Notacao

[A] = [aij] =

a11 a12 · · · a1N

a21 a22 · · · a2N...

.... . .

...aM1 aM2 · · · aMN

(M×N)

Generalizacao:

aijk ⇒ (Matriz 3D)

7.2 Definicoes e propriedades

Definicao - Matriz diagonal:

. . .

D. . .

(N×N)

=

d1 0 · · · 00 d2 · · · 0...

.... . .

...0 0 · · · dN

67

Page 66: ApostilaMétodos Matematicos

Definicao - Matriz identidade:

[I](N×N)

=

1 0 · · · 00 1 · · · 0...

.... . .

...0 0 · · · 1

Definicao - Matriz transposta: [A]T → Trocam-se as linhas e as colunas de [A].

[A](3×4)

=

a11 a12 a13 a14

a21 a22 a23 a24

a31 a32 a33 a34

⇒ [A]T

(4×3)

=

a11 a21 a31

a12 a22 a32

a13 a23 a33

a14 a24 a34

Propriedade:

[A](M×N)

= [B](M×L)

. [C](L×N)

=⇒ [A]T = [C]T .[B]T

Definicao - Matriz simetrica:

[A] = [A]T

Definicao - Matriz anti-simetrica:

[A] = −[A]T ⇒ diagonal nula em [A] e [A]T .

Definicao - Matriz complexa:

[C](M×N)

= [A](M×N)

+ j [B](M×N)

([A] e [B] matrizes reais).

Definicao - Matriz conjugada:

[C]∗ = [A] − j[B]

Definicao - Matriz inversa [A]N×N

−1:

[A][A]−1 = [A]−1[A] = [I]

Propriedade:

[A](N×N)

= [B](N×N)

. [C](N×N)

=⇒ [A]−1 = [C]−1.[B]−1

68

Page 67: ApostilaMétodos Matematicos

Definicao - Matriz triangular:

Superior → [U ](N×N)

=

− −− −−

− −−0 −

uij = 0 se i > j

Inferior → [L](N×N)

=

− 0−− −−− −− −

lij = 0 se i < j

Definicao - Matriz ortogonal [P ](N×N)

:

[P ]T = [P ]−1

[P ]T [P ] = [P ][P ]T = [I] =

1 0 · · · 00 1 · · · 0...

.... . .

...0 0 · · · 1

[P ] = [{p}1{p}2 . . . {p}N ]

As colunas de [P ] sao ortogonais entre si ⇒ {p}i.{p}j = δij.Analogamente, as linhas de [P ] tambem sao ortogonais entre si.

Propriedades:

‖[P ]{x}‖• = ‖{x}‖• (a norma e preservada)

[P ]{x} • [P ]{y} = {x} • {y} (o produto escalar e preservado)

Definicao - Matriz unitaria:Seja [U ]

(N×N)

complexa. [U ](N×N)

e unitaria se:

([U ]∗)T [U ] = ([U ]T )∗[U ] = [U ]([U ]∗)T = [I]

Ou seja, ([U ]∗)T = [U ]−1.Uma matriz ortogonal e uma matriz unitaria real.

Definicao - Matriz hermitiana:[A] = [A]H e hermitiana se:

([A]∗)T = ([A]T )∗ = [A]

Se [A] = [B] + j[C] ⇒ [A]T = [B]T + j[C]T

69

Page 68: ApostilaMétodos Matematicos

([A]∗)T = ([A]T )∗ = [B]T − j[C]T

Se [A] hermitiana ⇒{

Parte real simetrica → [B] = [B]T

Parte imaginaria anti-simetrica → [C] = −[C]T

Observacao: A diagonal principal e sempre real.

Definicao - Matriz anti-hermitiana: Se ([A]∗)T = −[A]

Parte real ⇒ anti-simetrica.

Parte imaginaria ⇒ simetrica.

Observacao: A diagonal principal e sempre imaginaria pura.

Propriedade: Se [A] e hermitiana ⇒ j[A] e anti-hermitiana e vice versa.

Observacao: Nao confundir matriz hermitiana, que e uma matriz que apresenta apropriedade ([A]∗)T = [A], com a hermitian de uma matriz, H([A]) = ([A]∗)T , que e emgeral diferente de [A].

Definicao - Matriz normal [N ]:

([N ]∗)T [N ] = [N ]([N ]∗)T

As matrizes unitarias, hermitianas e anti-hermitianas sao normais.

Definicao - Traco de uma matriz [A](N×N)

: tr[A]

tr[A] =N∑

i=1

aii

Propriedades:

1. Seja [A](N×N)

, [B](N×N)

tr([A][B]) = tr([B][A]) =N∑

i=1

N∑

j=1

aijbji

2. tr(α[A] + β[B]) = α tr[A] + β tr[B]

3. tr[A] = tr([A]∗)T = tr[A]∗ (Observacao: a e o conjugado do escalar a)

4. tr[A][B][C] = tr[C][A][B] = tr[B][C][A]

70

Page 69: ApostilaMétodos Matematicos

7.3 Norma de matrizes

Definicao - Norma de uma matriz [A], ‖[A]‖•: e um escalar que satisfaz as condicoes

1) ‖[A]‖• > 0, exceto para [A] = [0]. (‖[A]‖• = 0 ⇐⇒ [A] = [0])2) ‖α[A]‖• = |α| . ‖[A]‖•, α escalar3) ‖[A] + [B]‖• 6 ‖[A]‖• + ‖[B]‖•4) ‖[A].[B]‖• 6 ‖[A]‖• . ‖[B]‖• (Propriedade das normas subordinadas).

Exemplos de normas:Seja [A]

(M×N)

• Norma de Frobenius ou norma Euclidiana

‖[A]‖E = ‖[A]‖F =

√√√√N∑

i=1

N∑

j=1

|aij|2 =√tr(([A]∗)T [A])

• Norma absoluta‖[A]‖A = Max

i,j|aij|

Propriedade - A norma de uma matriz pode ser associada a norma de um vetor:

‖[A]‖• = Max{x}6={0}

‖[A]{x}‖•‖{x}‖•

ou ‖[A]‖• = Max‖{x}‖•=1

‖[A]{x}‖•

Tais normas (de uma matriz) sao chamadas de norma de uma matriz subordinada anorma de um vetor e satisfazem a 4a condicao da definicao de norma acima mencionada:

‖[A].[B]‖• 6 ‖[A]‖• . ‖[B]‖•Propriedade 1: ‖[I]‖• = 1 para qualquer norma subordinada.Propriedade 2: Qualquer norma de vetor e matriz que satisfaz ‖[A].{x}‖• 6 ‖[A]‖• . ‖{x}‖•

e chamada consistente ou compatıvel.

Exemplos:

• Norma ”Taxicab”:

‖[A]‖1 = Maxj

N∑

i=1

|aij| (soma da coluna j).

A norma ‖‖1 e uma norma subordinada a ‖{x}‖1 =N∑

i=1

|xi|

71

Page 70: ApostilaMétodos Matematicos

• Norma ∞:

‖[A]‖∞ = Maxi

N∑

j=1

|aij| (soma da linha i).

A norma ‖‖∞ e uma norma subordinada a ‖{x}‖∞ = Maxi

|xi|

• Norma espectral:

‖[A]‖s =√

Maximo autovalor de([A]∗)T [A]

Portanto ‖[A]‖s e subordinada a ‖{x}‖E

Obs.: ‖[A]‖E e consistente com ‖{x}‖E, mas nao e subordinada pois ‖[I]‖E =√N .

7.4 Determinante de uma matriz

Definicao - O determinante de uma matriz [A](N×N)

=

a11 a12 · · · a1N

a21 a22 · · · a2N...

.... . .

...aN1 aN2 · · · aNN

e

|A| =N !∑

p=1

(−1)pa1ipa2jpa3kp

· · · aNtp

onde (i, j, k, . . . , t)p sao todas as N ! permutacoes de 1, 2, 3, · · · , N

Definicao - Cofator de uma matriz [A](N×N)

, |Mij|:

|Mij| = (−1)i+j × (determinante de [A], eliminadas a linha i e a coluna j)

Definicao - Matriz dos cofatores de [A]: Cada elemento cij da matriz e composto pelocofator |Mij| .

[C] =

|M11| |M12| · · · |M1N ||M21| |M22| · · · |M2N |

......

. . ....

|MN1| |MN2| · · · |MNN |

Definicao - Matriz adjunta de [A]: Transposta da matriz dos cofatores de [A] ⇒ [C]T .

Definicao - Menor de ordem m da matriz [A](r×s)

, r e s > m: Matriz quadrada (m×m)

obtida de [A](r×s)

, eliminando-se linhas e colunas.

72

Page 71: ApostilaMétodos Matematicos

7.5 Calculo do determinante

Calculo do determinante de [A](N×N)

utilizando expansao em cofatores.

|[A]| =N∑

j=1

aij |Mij|

(Para um i qualquer)

=N∑

i=1

aij |Mij|(Para um j qualquer)

Note-se que cada cofator |Mij| pode ser expandido de novo pela mesma regra.Propriedades:

• Matriz [A] singular ⇒ |[A]| = 0

• |[A]| =∣∣[A]T

∣∣

• |[A].[B]| = |[A]| . |[B]|, [A] e [B] quadradas, (N ×N).

• Se [B](N×N)

e obtido de [A](N×N)

multiplicando-se uma linha ou coluna por um escalar α,

entao|[B]| = α |[A]| .

• Trocando-se duas linhas ou duas colunas de [A], inverte-se o sinal do determinante.

• Se [B](N×N)

e obtido de [A](N×N)

somando-se a qualquer linha ou coluna de [A] uma

combinacao linear de linhas ou colunas, respectivamente, de [A], entao|[B]| = |[A]|.

• Se [U ](N×N)

e triangular superior, entao |[U ]| =N∏

i=1

uii (elementos da diagonal principal).

• Se [L](N×N)

e triangular inferior, entao |[L]| =N∏

i=1

lii (elementos da diagonal principal).

Observacao: Os auto-valores de [U ] e [L] estao na diagonal principal. Isto pode servisualizado obtendo-se o polinomio caracterıstico pela expansao em cofatores.

7.6 Auto-valores de uma matriz

Por definicao, sao auto-vetores de uma matriz os vetores que se projetam sobre eles mes-mos na transformacao definida pela matriz, sendo os auto-valores as relacoes que existementre as normas euclideanas dos vetores projetados e dos vetores originais (Capıtulo 8).

Portanto, sao autovalores de uma matriz [A](N×N)

, N valores λ que satisfazem a equacao,

[A]{x} = λ{x}ou

73

Page 72: ApostilaMétodos Matematicos

([A] − λ[I]){x} = {0}Esta equacao representa um sistema homogeneo, e portanto terao solucoes nao triviais

somente se o determinante do sistema for nulo. Impondo esta restricao temos,

|[A] − λ[I]| =

∣∣∣∣∣∣∣∣∣

a11 − λ a12 · · · a1N

a21 a22 − λ · · · a2N...

.... . .

...aN1 aN2 · · · aNN − λ

∣∣∣∣∣∣∣∣∣

= 0 ⇒ P (λN) = 0

O polinomio P (λN) e chamado polinomio caracterıstico ou equacao caracterıstica dosistema.

P (λN) = aNλN + aN−1λ

N−1 + · · · + a1λ+ a0 = 0

Para cada solucao (auto-valor) λi, i = 1, . . . , N , existe associada uma solucao {x}i dosistema homogeneo:

([A] − λi[I]){x}i = {0}{x}i e um auto-vetor de [A] associado ao auto-valor λi.

Definicao - Posto (”rank”) de uma matriz [A](M×N)

, ρ[A]: e a ordem da maior matriz nao

singular que pode ser formada retirando-se linhas e/ou colunas de [A].

Propriedades:

1. ρ [A](M×N)

6 Min{M,N}

2. Se [B] e sub-matriz de [A], ρ[B] 6 ρ[A]

3. Se ρ[A] = k ⇒{

Existem no maximo k colunas de [A] LI.Existem no maximo k linhas de [A] LI.

4. ρ[A] = ρ[A]T = ρ([A]∗)T

5. ρ[A] = ρ([A]([A]∗)T ) = ρ(([A]∗)T [A])

6. Se ρ [A](M×N)

= K ⇒ existe [X](M×K)

, [M ](K×K)

e [Y ](K×N)

tal que [A] = [X][M ][Y ], det[M ] 6= 0

7. Se [A](M×N)

, [B](N×P )

⇒ ρ([A][B]) 6 Min{ρ[A], ρ[B]}. A igualdade acontece somente se

[A] e [B] tiverem posto cheio.

8. ρ([A] + [B]) 6 ρ[A] + ρ[B]

74

Page 73: ApostilaMétodos Matematicos

Definicao - Raio espectral de uma matriz [A](N×N)

, ς[A]: Maximo autovalor de [A], em

valor absoluto.

Definicao - Numero de condicao espectral de uma matriz [A](N×N)

, c[A]S:

c[A]S = ‖[A]‖s

∥∥[A]−1∥∥

s=

|λ|Max

|λ|Mın

e uma medida do condicionamento numerico de [A](N×N)

.

Mede a ”sensitividade” da matriz em relacao a uma perturbacao (nos seus coeficientes,δ[A], ou em quem a matriz esta aplicada ).

Exemplo:

[A]{x} = {b} ⇒ δ[A], δ{b}, δ{x}Quanto maior c[A]S, pior e o condicionamento numerico na resolucao do sistema de

equacoes. O caso limite acontece quando [A] e singular ⇒ |λ|Mın = 0 ⇒ c[A]S = ∞.

7.7 Produto interno

Definicao: O produto interno entre duas matrizes [A](M×N)

e [B](M×N)

e um escalar (real ou

complexo) que satisfaz as condicoes:

1. < [A], [B] > = < [B], [A] >

2. < [A], [A] > > 0 se [A] 6= [0]; < [A], [A] > = 0 ⇔ [A] = [0]

3. < α[A] + β[B], [C] > = α < [A], [C] > +β < [B], [C] >

Observacao: O produto interno de matrizes pode ser definido utilizando o produtointerno de vetores, por exemplo:

< [A], [B] >u,v=< [A]{u}, [B]{v} >u

< {v}, {v} >v

; {v} 6= {0}

onde < (.), (.) >u e < (.), (.) >v representam produtos internos vetoriais.

Outros exemplos de produtos internos de matrizes:

< [A], [B] >v=({v}∗)T ([A]∗)T [B]{v}

({v}∗)T{v} ; {v} 6= {0}

< [A], [B] >= tr(([A]∗)T [B])

etc...

75

Page 74: ApostilaMétodos Matematicos

7.8 Subespacos fundamentais de uma matriz

Os quatro subespacos fundamentais de uma matriz [A](M×N)

sao:

1. Subespaco das colunas de [A], R([A]) ⇒ subespaco gerado por todas as combinacoesdas colunas de [A]

(M×N)

. R([A]) ⊂ EM .

2. Subespaco das linhas de [A], R([A]T ) ⇒ subespaco gerado por todas as combinacoesdas colunas de [A]T

(N×M)

(ou linhas de [A]). R([A]T ) ⊂ EN .

3. Subespaco nulo (direito) de [A], N ([A]) ⇒ subespaco constituıdo por todos os ve-tores que satisfazem a equacao [A]

(M×N)

{x}(N×1)

= {0}(M×1)

. N ([A]) ⊂ EN .

4. Subespaco nulo (esquerdo) de [A], N ([A]T ) ⇒ subespaco constituıdo por todosos vetores que satisfazem a equacao [A]T

(N×M)

{y}(M×1)

= {0}(N×1)

, ou {y}T

(1×M)

[A](M×N)

= {0}T

(1×N)

.

N ([A]T ) ⊂ EM .

{N ([A]) e R([A]T ) ⊂ RN

N ([A]T ) e R([A]) ⊂ RM

• Os subespacos nulos sao chamados de kernel de [A].

• R([A]) ⇒ dimensao r (numero de colunas LI), ⇒ posto de [A] = ρ[A] = r.

• R([A]T ) ⇒ dimensao r (numero de linhas LI), ⇒ posto de [A]T = ρ([A]T ) = r.

• N ([A]) ⇒ dimensao (N − r) ⇒ (N − r) vetores LI formando uma base.

• N ([A]T ) ⇒ dimensao (M − r) ⇒ (M − r) vetores LI formando uma base.

76

Page 75: ApostilaMétodos Matematicos

Capıtulo 8

Autovalores e autovetores de umamatriz

Seja [A] uma matriz N ×N qualquer.Os autovetores da matriz [A] sao, por definicao, os vetores que se projetam sobre si

mesmos na transformacao [A]{x} = {y}. Portanto, se {x} e um autovetor, {y} e colinearcom {x} e entao {y} = λ{x}. O fator de escala λ e o autovalor associado ao autovetor{x}.

Portanto o auto-sistema de equacoes e dado por:

[A]{x} = λ{x} ou ([A] − λ[I]){x} = {0} (8.1)

onde tanto λ como {x} sao incognitas.Como (8.1) e um sistema de equacoes homogeneo, a solucao nao trivial so ocorre

quando o determinante e nulo.

|[A] − λ[I]| = P (λN) = 0 (8.2)

Matricialmente,

∣∣∣∣∣∣∣∣∣

(a11 − λ) a12 · · · a1N

a21 (a22 − λ) · · · a2N...

.... . .

...aN1 aN2 · · · (aNN − λ)

∣∣∣∣∣∣∣∣∣

= P (λN) = 0

A expressao do determinante |[A] − λ[I]| resulta num polinomio de grau N , P (λN),denominado polinomio caracterıstico:

P (λN) = λN + αN−1λN−1 + αN−2λ

N−2 + · · · + α0 = 0

As N raizes de P (λN) = 0 ⇒ λ1, λ2, . . . , λN , sao chamadas autovalores de [A].Obtidos os autovalores λi, pode-se voltar a equacao (8.1) e resolver o sistema ho-

mogeneo,

77

Page 76: ApostilaMétodos Matematicos

([A] − λi[I]){x}i = {0} ⇒ {x}i

{x}i e o autovetor associado ao autovalor λi.Portanto, os autovalores e autovetores aparecem aos pares,

(λ1, {x}1), (λ2, {x}2), . . . , (λN , {x}N).

A matriz [S]N×N

= [{x}1 {x}2 · · · {x}N ] e a matriz dos autovetores de [A], tambem

chamada matriz modal.As aplicacoes da teoria de autovalores e autovetores sao inumeras.

Exemplo: Seja um sistema de equacoes diferenciais lineares de ordem 1,

{y} = [A]N×N

{y} + {b}N×1

(8.3)

A estabilidade do sistema e analisada tomando-se o sistema homogeneo,

{y} = [A]{y} (8.4)

A solucao de (8.4) e do tipo,

{y} = {y0}eλt (8.5)

∴ {y} = λ{y0}eλt (8.6)

Substituindo (8.5) e (8.6) em (8.4),

λ{y0}eλt = [A]{y0}eλt

[A]{y0} = λ{y0} (8.7)

A equacao (8.7) caracteriza um problema de autovalores e autovetores de [A].Da equacao (8.7) obtem-se os autovalores λ1, . . . , λN e os autovetores {φ}1, . . . , {φ}N .

Como sao N solucoes LI (autovetores LI), a solucao geral da equacao homogenea e acombinacao linear {y} =

∑Ni=1Ci{φi}eλit.

Num caso geral um autovalor λ pode ser complexo, pois e uma raiz de um polinomiocom coeficientes reais,

λi = αi + jβi (8.8)

A equacao (8.5) pode ser escrita na forma,

{y} =N∑

i=1

Ci{φ}ie(αi+jβi)t (8.9)

78

Page 77: ApostilaMétodos Matematicos

Se algum autovalor λi possuir parte real positiva αi > 0 o sistema e instavel pois otermo {φ}ie

αit tende a crescer sem limite com o tempo.A componente imaginaria indica caracter oscilatorio do sistema, pois,

ejβit = cos(βit) + j sin(βit) (8.10)

Exemplo: Vibracoes livres:

[M ](N×N)

{x} + [K](N×N)

{x} = {0} (8.11)

A solucao e da forma,

{x} = {φ}ejωt (8.12)

para [M ] e [K] reais, simetricas, [M ] positivo-definida e [K] semi-positivo-definida.Da equacao (8.12) podemos observar que,

{x} = −ω2{φ}ejωt (8.13)

Substituindo (8.12) e (8.13) em (8.11),

([K] − ω2[M ]){φ} = {0}ω2 → Frequencia natural do sistema (8.11){φ} → Modo de vibrar associado a ω2.

8.1 Propriedades, teoremas, definicoes

• Se λi e autovalor complexo ⇒ λ∗i Tambem e autovalor.

• Se {φ}i e autovetor complexo ⇒ {φ}∗i tambem e autovetor.

• Os autovalores de [A] e de [A]T sao os mesmos, os autovetores nao necessariamente.

• Se λ1, λ2, . . . , λN sao autovalores de [A], 1λ1, 1

λ2, · · · , 1

λNsao os autovalores de [A]−1.

Os autovetores sao os mesmos.

• λM1 , λ

M2 , . . . , λ

MN sao os autovalores de [A]M = [A].[A]. · · · .[A]︸ ︷︷ ︸

M

• Se [A] e normal ([A][A∗]T = [A∗]T [A]) ⇒ [A] e diagonalizavel (autovetores LI),portanto sendo [S] a matriz dos autovetores de [A], [S] e nao singular,

[S]−1[A][S] =

. . . 0Λ

0. . .

Observacao: Uma matriz hermitiana e normal.

79

Page 78: ApostilaMétodos Matematicos

• Se [A] e hermitiana ⇒ os autovalores sao reais e os autovetores ortogonais.

[A] e diagonalizavel.

– Uma matriz real simetrica, ou imaginacao anti simetrica, e hermitiana.

– Uma matriz unitaria e normal

– Uma matriz real unitaria e ortogonal.

• Se [A] e anti-hermitiana ⇒ os autovalores sao imaginarios.

– Uma matriz real anti-simetrica, ou imaginacao simetrica, e anti-hermitiana.

• Se [A] e unitaria → |λi| = 1 (i = 1, 2, . . . , N)

• Se [A] e ortogonal → λi = ±1

– Normalizacao

unitaria → autovetores ortonormais.hermitiana → autovetores ortogonais se autovalores diferentes

(Strang [4], pg.295).

• Se [U ] ou [L] forem triangulares →

λi = uii

ouλi = lii

• Se λ1, λ2, . . . , λN sao autovalores de [A] →N∑

i=1

λi =N∑

i=1

aii = Traco de [A] eN∏

i=1

λi =

|[A]|

• Se os autovalores de uma matriz [A]N×N

, real, simetrica, forem distintos

(λ1 < λ2 < · · · < λN) → os autovetores {x}1, {x}2, . . . , {x}N sao ortogonais entresi ⇒ {x}T

i {x}j = 0 para todo i 6= j.

Demonstracao:

[A]{x}i = λi{x}i (8.14)

[A]{x}j = λj{x}j (8.15)

Pre multiplicando as equacoes (8.14) e (8.15) por {x}Tj e {x}T

i respectivamente:

{x}Tj [A]{x}i = λi{x}T

j {x}i

{x}Ti [A]{x}j = λj{x}T

i {x}j

Subtraindo uma da outra:

80

Page 79: ApostilaMétodos Matematicos

{x}Tj [A]{x}i − {x}T

i [A]{x}j︸ ︷︷ ︸0

= (λi − λj){x}Ti {x}j

⇒ (λi − λj){x}Ti {x}j = 0

Como (λi − λj) 6= 0 ⇒ {x}Ti {x}j = 0

– Se os autovalores forem repetidos ⇒ os autovetores podem ser escolhidos or-togonais entre si, pois [A] e simetrica, portanto Hermitiana, portanto normal.

• Seja [A]N×N

real, nao simetrica.

[A]{φ}D = λ{φ}D ⇒ {φ}D e o autovetor a direita de [A].

[A]T{φ}E = λ{φ}E

ou{φ}T

E[A] = λ{φ}TE

⇒ {φ}E e o autovetor a esquerda de [A].

Pode-se mostrar que se (λ1 < λ2 < · · · < λN) (autovalores distintos):

{φ}TEj{φ}Di = 0 (i 6= j)

• Se [A] nao e normal e os autovalores forem repetidos → os autovetores podem serLI ou LD.

• Se [A] for normal → os autovetores sao LI, mesmo se os autovalores forem repetidos.

uma hermitiana e normaluma unitaria e hermitianauma ortogonal e unitaria

⇒ autovetores ortogonais, pois [U∗]T [A][U ] = [Λ],onde [U ] e unitaria.

• Seja [A] real, simetrica.

– Se todos os autovalores forem positivos, λi > 0 ⇒ [A] e positivo-definida.

– Se todos os autovalores forem negativos, λi < 0 ⇒ [A] e negativo-definida.

– Se todos os autovalores forem λi ≥ 0 ⇒ [A] e semi-positivo-definida.

– Se todos os autovalores forem λi ≤ 0 ⇒ [A] e semi-negativo-definida.

{x}T [A]{x} e a forma quadratica de [A].

Teorema: Sejam λi os autovalores de ([A∗]T [A])

Se [A] e hermitiana → λ2max ≤

N∑i=1

N∑j=1

|aij|2 = traco de ([A∗]T [A]) = ‖[A]‖2

81

Page 80: ApostilaMétodos Matematicos

Uma matriz real simetrica e hermitiana, e portanto:

λ2max ≤

N∑

i=1

N∑

j=1

a2ij

8.2 Numero de condicao espectral de uma matriz

Dada uma matriz [A], o numero de condicao espectral, c[A]S, e definido como segue:

c[A]S = ‖[A]‖S .∥∥[A]−1

∥∥S

=

∣∣∣∣λi

λj

∣∣∣∣Max

=|λi|Max

|λj|min

Aplicacao: condicionamento de um sistema linear de equacoes [A]{x} = {b}Seja δ{b} uma perturbacao em {b}. A solucao {x} ficara perturbada de δ{x},

[A]({x} + δ{x}) = {b} + δ{b}Mostra-se que,

‖δ{x}‖E

‖{x}‖E

≤ c[A]‖δ{b}‖E

‖{b}‖E

ou se δ[A] e uma perturbacao nos coeficientes de [A],

([A] + δ[A])({x} + δ{x}) = {b} ⇒ ‖δ{x}‖‖{x}‖ ≤ c[A]

‖δ[A]‖‖[A]‖

c[A]S e uma estimativa para a amplificacao das perturbacoes δ{b} ou δ[A] na solucao{x}.

De um modo geral quanto maior c[A]S ⇒ ”menos bem” condicionado a resolucaonumerica de [A]{x} = {b}.

c[A]S = 1 ⇒ condicionamento numerico ideal para a resolucao de [A]{x} = {b}.

8.3 Teorema do cırculo de Gerschgorin

λ1, λ2, . . . , λN sao autovalores de [A](N×N) qualquer.

→ os autovalores de [A] estao contidos num cırculo de raio Ri =N∑

j=1i 6=j

|aij|, com centros

nos valores aii da diagonal principal de [A].

∴ |λ− aii| ≤ Ri =N∑

j=1i6=j

|aij|

82

Page 81: ApostilaMétodos Matematicos

Exemplo:

[A] =

2, 5 −1 0

−1 5 −√

2

0 −√

2 10

=⇒λ1 = 3, 136λ2 = 4, 000λ3 = 10, 364

Figura 8.1: Cırculo de Gerschgorin.

∴ 1, 5 ≤ λi ≤ 11, 414 i = 1, 2, 31, 5 ≤ λ1 ≤ 3, 5 2, 586 ≤ λ2 ≤ 7, 414 8, 585 ≤ λ3 ≤ 11, 414

Observacao: O teorema fornece valores limitantes para os autovalores de [A].

- Strang [4], pg. 386

- Westlake [5], pg. 129

- Noble [6], pg. 289

8.4 Translacao de autovalores

λ1, λ2, . . . , λN sao os autovalores de uma matriz [A]N×N

.

([A] − λ[I]){x} = {0} (8.16)

λ pode ser escrito como,

λ = µ− α (8.17)

De (8.16) em (8.17),

([A] − (µ− α)[I]){x} = {0}[([A] + α[I]) − µ[I]]{x} = {0}

([B] − µ[I]){x} = {0}

83

Page 82: ApostilaMétodos Matematicos

µ1, µ2, . . . , µN sao os autovalores de [B],

[B] =

(a11 + α) a12 · · · a1N

a21 (a22 + α) · · · a2N...

.... . .

...aN1 aN2 · · · (aNN + α)

Da equacao (8.17),

µi = λi + α

• Quando se soma α[I] a matriz [A] os autovalores µi da matriz ([A] + α[I]) sofremuma translacao de α em relacao aos valores λi de [A].

• Os autovetores nao sao afetados.

Aplicacoes: - Tornar todos os autovalores positivos.

- Melhorar a relacao∣∣∣ λ1

λN

∣∣∣ .- etc...

8.5 Problema de autovalores e autovetores

generalizado

Existem outras formas de autovalores e autovetores envolvendo matrizes.Por exemplo:

[A]{x} = λ[B]{x}onde [A] e [B] sao reais e simetricas.

[A] → Semi-positivo definida.[B] → Positivo definida.

Ou

(λ2[M ] + λ[C] + [K]){x} = {0}no caso de vibracoes livres amortecidas.Exemplo:

[K]{x} = ω2[M ]{x}ou

(ω2[M ] − iω[C] − [K]){x} = {0}Como os autovetores sao, da mesma forma que no caso anterior, as solucoes de um

sistema homogeneo de equacoes lineares, o procedimento de calculo e identico ao ja visto.

84

Page 83: ApostilaMétodos Matematicos

8.6 Calculo de autovalores e autovetores

8.6.1 Algoritmo QR

Seja [A]N×N

uma matriz qualquer.

Teorema: Existe uma matriz [M ]N×N

unitaria tal que, [M ]∗T [A][M ] = [U ],

onde [U ] e uma matriz triangular superior.Observacao: Poderia ser triangular inferior, [L].Como [A] e [U ] sao similares ⇒ λi = uii (i = 1, 2, . . . , N)Algoritmo:

1. Matriz [A]0N×N

, real, com autovalores reais por simplicidade.

Criterio de convergencia:

{Nmax = numero maximo de iteracoes.ε = limite para o zero

2. i = 0

(a) Decomposicao QR: [A]0 = [Q]0[R]0

(b) [A]1 = [R]0[Q]0 ([A]1 = [Q]T0 [A]0︸ ︷︷ ︸[R]0

[Q]0)

3. i = 1

(a) Decomposicao QR: [A]1 = [Q]1[R]1

(b) [A]2 = [R]1[Q]1 ([A]2 = [Q]T1 [A]1[Q]1 = [Q]T1 [Q]T0 [A]0[Q]0[Q]1)

4. i = j + 1

[A]j+1 = [R]j[Q]j =⇒ [U ], triangular superior.

[A]j+1 = [Q]Tj [Q]Tj−1 · · · [Q]T2 [Q]T1 [Q]T0︸ ︷︷ ︸[Q]T

[A]0[Q]0[Q]1[Q]2 · · · [Q]j−1[Q]j︸ ︷︷ ︸[Q]

= [Q]T [A]0[Q]

j+1 → ∞ ⇒ [Q] → Tende para a matriz dos autovetores [S] = [{φ}1{φ}2 · · · {φ}N ]

5. Criterio de convergencia: A matriz [A]j+1 tem que ser diagonal.

Usar teorema de Gerschgorin

Para K = 2 a NRR(K) = 0

RR(K) =K−1∑l=1

|ail| l 6= i

if RR(K) > ε, ainda nao convergiu.

Se RR(K) < ε ∀ K ⇒ λi = aii (i = 1, 2, . . . , N) sao os autovalores.

[Q] = [Q]0[Q]1[Q]2 · · · [Q]j−1[Q]j e a matriz dos autovetores.

85

Page 84: ApostilaMétodos Matematicos

Outra forma para verificar a convergencia:∑N

K=2

∑K−1l=1 |aKl| < ε

Observacao: Se os autovalores forem complexos o algoritmo precisa ser modificadopara funcionar.

Se [A] for real, simetrica, j+1 → ∞ ⇒ [A]j+1 →

λ1

. . .

λN

=

. . .

Λ. . .

Problema 5: Programar o algoritmo QR para [A] real simetrica.Saıda: [A], diagonal(λ1, λ2, · · · , λN), [Q] (matriz dos autovetores).Exemplos para verificacao:

1.

[A] =

6 4 4 14 6 1 44 1 6 41 4 4 6

λ1 = −1λ2 = λ3 = 5λ4 = 15

2.

[A] =

5 4 1 14 5 1 11 1 4 21 1 2 4

λ1 = 10λ2 = 5λ3 = 2λ4 = 1

3.

[A] =

1 1 1 1 1 11/2 1/3 1/4 1/5 1/6 1/71/3 1/4 1/5 1/6 1/7 1/81/4 1/5 1/6 1/7 1/8 1/91/5 1/6 1/7 1/8 1/9 1/101/6 1/7 1/8 1/9 1/10 1/11

λ1 = 2, 132376λ2 = −0, 2214068λ3 = −0, 0318433λ4 = −0, 8983233 × 10−3

λ5 = −0, 1706278 × 10−4

λ6 = −0, 1394499 × 10−6

8.6.2 Metodo da potencia

Estimativa do maior autovalor (em modulo), |λ|Maximo ., e do autovetor {x}i corre-spondente.

[A]N×N

real, simetrica, com todos os autovalores reais e distintos.

|λ1| > |λ2| > |λ3| > · · · > |λN |

1. Dados: [A]N×N

, {x}0 6= {0} qualquer.

NMax = numero maximo de iteracoes.

ε = criterio de convergencia.

{x}0 = {x}0

‖{x}0‖2=⇒ ‖{x}0‖2 = 1

86

Page 85: ApostilaMétodos Matematicos

2. i = 1

[A]{x}0 = {x}1

Normalizar {x}1: {x}1 = {x}1

‖{x}1‖2=⇒ ‖{x}1‖2 = 1

3. i = 2

[A]{x}1 = {x}2

Normalizar {x}2: {x}2 = {x}2

‖{x}2‖2=⇒ ‖{x}2‖2 = 1

4. i qualquer

[A]{x}i−1 = {x}i

{x}i ={x}i

‖{x}i‖2

=⇒ ‖{x}i‖2 = 1

5. Criterio de convergencia:

‖{x}i‖ − ‖{x}i−1‖‖{x}i‖

≤ ε⇒ convergiu

λ1 ≃ {x}Ti [A]{x}i ⇒ |λ|Maximo = |λ1|

e {x}i e o autovetor correspondente.

Prova da convergencia:

[A]{x}i = {x}i+1

{x}i+1 ={x}i+1

‖{x}i+1‖(i+ 1) → ∞ ⇒ |λ|Maximo → ‖{x}i+1‖{x}i+1 → {φ}, autovetor correspondente a |λ|Maximo

[A] real, simetrica → {φ}Ti {φ}j = δij

87

Page 86: ApostilaMétodos Matematicos

1. ‖{x}0‖2 = 1

{x}0 = α1{φ}1+α2{φ}2+· · ·+αN{φ}N , {φ}i →autovetores de [A], ‖{φ}i‖ =1, 0

‖{x}0‖2 = 1 = {x}T0 {x}0 = (α1{φ}1 +α2{φ}2 + · · ·+αN{φ}N)T (α1{φ}1 +α2{φ}2 +

· · · + αN{φ}N)

{x}T0 {x}0 = α2

1 + α22 + · · · + α2

N = 1, 0

2. i = 1

[A]{x}0 = {x}1

[A](α1{φ}1 + α2{φ}2 + · · · + αN{φ}N) =

{x}1︷ ︸︸ ︷α1λ1{φ}1 + α2λ2{φ}2 + · · · + αNλN{φ}N

{x}1 = λ1

[α1{φ}1 + α2

λ2

λ1{φ}2 + · · · + αN

λN

λ1{φ}N

]

‖{x}1‖2 =√

{x}T1 {x}1 =

√(α1λ1)2 + (α2λ2)2 + · · · + (αNλN)2

= |λ1|√α2

1 + α22(λ2

λ1

)2 + · · · + α2N(λN

λ1

)2

︸ ︷︷ ︸β1

‖{x}1‖2 = β1 |λ1|

{x}1 ={x}1

‖{x}1‖=

1

β1

[α1{φ}1 + α2(

λ2

λ1

){φ}2 + · · · + αN(λN

λ1

){φ}N

]

3. i = 2

[A]{x}1 = {x}2 = 1β1

[α1λ1{φ}1 + α2(

λ22

λ1){φ}2 + · · · + αN(

λ2N

λ1){φ}N

]

{x}2 = |λ1|β1

[α1{φ}1 + α2(

λ2

λ1)2{φ}2 + · · · + αN(λN

λ1)2{φ}N

]

‖{x}2‖2 = |λ1|β1

√α2

1 + α22(λ2

λ1

)4 + · · · + α2N(λN

λ1

)4

︸ ︷︷ ︸β2

‖{x}2‖ = |λ1| β2

β1

{x}2 ={x}2

‖{x}2‖=

1

β2

[α1{φ}1 + α2(

λ2

λ1

)2{φ}2 + · · · + αN(λN

λ1

)2{φ}N

]

4. [A] = {x}3 = |λ1|β2

[α1{φ}1 + α2(

λ2

λ1)3{φ}2 + · · · + αN(λN

λ1)3{φ}N

]

‖{x}3‖2 = |λ1| β3

β2β3 =

√α2

1 + α22(

λ2

λ1)6 + · · · + α2

N(λN

λ1)6

88

Page 87: ApostilaMétodos Matematicos

{x}3 ={x}3

‖{x}3‖=

1

β3

[α1{φ}1 + α2(

λ2

λ1

)3{φ}2 + · · · + αN(λN

λ1

)3{φ}N

]

5. βi =√α2

1 + α22(

λ2

λ1)2i + · · · + α2

N(λN

λ1)2i

‖{x}i‖ = |λ1| βi

βi−1

limi→∞

βi = α1 ja limi→∞

(λj

λ1)2i = 0, dado que |λ1| > |λj|

limi→∞

βi

βi−1= 1

limi→∞

‖{x}i‖ = |λ1|

limi→∞

{x}i =⇒ {φ}1

λ1=limi→∞

{x}Ti [A]{x}i

8.7 Condicionamento do autosistema [A]{x} = λ{x}(Referencia: [6], pg. 289-295)

8.7.1 Condicionamento dos autovalores

Teorema:Seja [S] = [{x}1{x}2 · · · {x}N ] a matriz dos autovetores, LI, e λ1, λ2, . . . , λN os auto-

valores de uma matriz [A]N×N

.

µ e {γ} sao aproximacoes de um autovalor e autovetor de [A].‖{γ}‖⋆ = 1 (⋆ = 2,∞ ou 1){r} = [A]{γ} − µ{γ} 6= {0}, pois µ e {γ} sao aproximacoes.

Entao, ao menos um autovalor de [A] satisfaz,

|λi − µ| ≤ ‖{r}‖2 . ‖[S]‖ .∥∥[S]−1

∥∥

Se [S] for uma matriz unitaria: |λi| = 1 (autovalores de [S])

Mınimoi

|λi − µ| ≤ ‖{r}‖2

Teorema: [A]{x} = λ{x}{

λi

{x}i

}autovalores e autovetores.

Seja uma perturbacao δ[A] na matriz [A].µ e um autovalor de [A] + δ[A].{γ}, (‖{γ}‖ = 1) e um autovetor correspondente a µ.⇒ Entao ao menos um autovalor λi de [A] satisfaz

89

Page 88: ApostilaMétodos Matematicos

|λi − µ| ≤ ‖δ[A]‖ . ‖[S]‖ .∥∥[S]−1

∥∥

Observacao: 1) O condicionamento dos autovalores de [A] depende de c[S]S, numerode condicao espectral de [S].

2) Se [S] for uma matriz unitaria, |λi − µ| ≤ ‖δ[A]‖2 =⇒ os autovalores de matrizes[A] normais sao sempre bem condicionados ([6], pg. 294).

8.7.2 Condicionamento dos autovetores

De um modo geral, autovetores correspondentes a autovalores nao repetidos, bem sepa-rados entre si, sao bem condicionados ( [6], pg. 295).

8.8 Forma quadratica de uma matriz [A]N×N

Definicao: Seja [A]N×N

hermitiana.

A forma quadratica de [A] e definida como,

Q({x}) = {x∗}T [A]{x}Teorema: Q({x}) e sempre real qualquer que seja {x}.Teorema: Os autovalores de [A] hermitiana sao todos reais.Se Q({x}) > 0 ∀{x} 6= {0} ⇒ [A] e positivo-definida.

Q({x}) ≥ 0 ∀{x} 6= {0} ⇒ [A] ca semi-positivo-definida.Q({x}) < 0 ∀{x} 6= {0} ⇒ [A] ca negativo-definida.Q({x}) ≤ 0 ∀{x} 6= {0} ⇒ [A] ca semi-negativo-definida.

Observacao: Para [A]N×N

real, simetrica, Q({x}) = {x}T [A]{x}Teorema: [A]

N×N

real, simetrica e positivo-definida se e somente se:

(i) {x}T [A]{x} > 0,∀{x} 6= {0}ou (ii) Todos os autovalores sao positivos (λi > 0, i = 1, . . . , N)ou (iii) Qualquer sub-matriz superior a esquerda tem determinante po-

sitivo:

[A] =

[[A]K ∗∗ ∗

]|[A]K | > 0

90

Page 89: ApostilaMétodos Matematicos

Parte II

Segunda parte

91

Page 90: ApostilaMétodos Matematicos
Page 91: ApostilaMétodos Matematicos

Capıtulo 9

Metodos de resolucao de sistemas deequacoes lineares

9.1 Classificacao de sistemas

Diversas classificacoes sao possıveis, para os sistemas de equacoes, em funcao das carac-terısticas da matriz de coeficientes [A] e do vetor de termos independentes {b}.

A seguir e apresentada uma classificacao que sera utilizada para definir o metodonumerico de resolucao mais adequado a cada caso.

Sistema: [A](M×N) {x}(N×1) = {b}(M×1)

[A](M×N) matriz real, qualquer.

M = N ⇒{ρ [A] = N ⇒ Sistema determinadoρ [A] < N ⇒ Sistema sub determinado

M > N ⇒ Sistema super determinado (ρ [A] ≤ N)M < N ⇒ Sistema sub determinado (ρ [A] ≤M)

{b} = 0 ⇒ Sistemas homogeneos

Teorema de Rouche

ρ[A](N×N) = P e ρ[A...{b}] = P ′ =⇒

P = P ′ = N ⇒ Sistema determinadoP = P ′ < N ⇒ Sistema indeterminadoP 6= P ′ ⇒ Sistema incompatıvel

9.1.1 Sistemas determinados

[A](N×N) {x}(N×1) = {b}(N×1)

|[A]| 6= 0ρ [A] = N

}⇒Solucao unica: {x} = [A]−1 {b}

Numericamente e difıcil de definir |[A]| = 0 ou ρ [A] = N (ρ [A] = rank[A])

Exemplo:

93

Page 92: ApostilaMétodos Matematicos

[A](N×N)

=

10−10

10−10

. . .

10−10

=⇒ |[A]| = (10−10)N

Se N = 10 ⇒ |[A]| = 10−100. Entretanto, [A] tem determinante 6= 0, apesar deaparentemente desprezıvel, e e bem condicionada (condicionamento otimo), pois c[A]s =1, 0.

Metodos de resolucao

Diretos: Decomposicao triangular (Gauss, Cholesky, Crout, Doolittle, etc...)Decomposicao QR, QL (por transformacao unitaria (Givens, Householder))

Iterativos: Jacobi, Lanczos, Gauss-Seidel, Newton-Raphson, etc...Gradientes conjugados.

Se o sistema e mal condicionado → os metodos baseados em transformacoes unitarias(QR ou QL por exemplo) sao os recomendados.

Mal condicionamento c [A] > 106

> 108

> 1010

→ Varia com o numero de dıgitos damantissa no computador

Sistemas mal condicionados onde se deseja grande precisao ⇒ metodo SVD (decom-posicao em valores singulares). (Inversa generalizada, pseudo-inversa). E um metodo com-putacionalmente muito custoso. Usualmente nao e utilizado em sistemas muito grandes.

9.1.2 Sistemas super-determinados

M > N

[A](M×N) {x}(N×1) = {b}(M×1) com M > N : M

A

︸ ︷︷ ︸N

x

=

b

Metodos de resolucao{

Para ρ [A] = N =⇒ Recomendado o metodo QR ou QL.Para ρ [A] < N =⇒ SVD.

94

Page 93: ApostilaMétodos Matematicos

9.1.3 Sistemas sub-determinados

M < N ou ρ[A] < N , para M,N qualquer.

ρ [A] ≤M M

A

︸ ︷︷ ︸N

x

=

b

Metodos de resolucao:

Como ρ [A] < N ⇒ Sistema nao determinado ⇒ Metodo SVD (decomposicao em valoressingulares, ou inversa generalizada ou pseudo-inversa)(Capıtulo 11).

9.1.4 Sistemas homogeneos

[A](N×N) {x}(N×1) = {0}(N×1)

Metodos de resolucao

Se

{ρ [A] = N|[A]| 6= 0

=⇒ Solucao unica trivial {x} = [A]−1 {0} = {0}

Se ρ [A] < N =⇒ Eliminacao de Gauss, se as dependencias e independenciaslineares forem bem definidas.

=⇒ SVD se houver problema de condicionamento numerico.

9.2 Sistemas triangulares (determinados)

9.2.1 Definicao

Sistema triangular inferior:

− [0]−− −−− −− −

x

=

b

[L]{x} = {b} =⇒ {x} = [L]−1{b}

Sistema triangular superior:

− −− −−

− −−[0] −

x

=

b

95

Page 94: ApostilaMétodos Matematicos

[U ]{x} = {b} =⇒ {x} = [U ]−1{b}

9.2.2 Sistema triangular inferior ([L])

l11l21 l22 [0]l31 l32 l33...

......

. . .

lN1 lN2 lN3 · · · lNN

x1

x2

x3...xN

=

b1b2b3...bN

Da primeira equacao ⇒ l11.x1 = b1 =⇒ x1 = b1/l11

Da segunda equacao ⇒ l21.x1 + l22.x2 = b2 =⇒ x2 = (b2 − l21.x1)/l22

Da terceira equacao ⇒ l31.x1 + l32.x2 + l33.x3 = b3 =⇒ x3 = (b3 − l31.x1 − l32.x2)/l33Generalizando para a variavel i temos, da i− esima equacao:

li1.x1 + li2.x2 + · · · + lii.xi = bi =⇒ xi = (bi −i−1∑j=1

lij.xj)/lii i = 2, 3, ..., N

9.2.3 Sistema triangular superior ([U])

u11 · · · u1,N−2 u1,N−1 u1,N

. . ....

......

uN−2,N−2 uN−2,N−1 uN−2,N

[0] uN−1,N−1 uN−1,N

uN,N

x1...

xN−2

xN−1

xN

=

b1...

bN−2

bN−1

bN

Da ultima equacao ⇒ uN,N .xN = bN =⇒ xN = bN/uN,N

Da penultima equacao ⇒ uN−1,N−1.xN−1 + uN−1,N .xN = bN−1 =⇒⇒ xN−1 = (bN−1 − uN−1,N .xN)/uN−1,N−1

Da equacao anterior ⇒ uN−2,N−2.xN−2 + uN−2,N−1.xN−1 + uN−2,N .xN = bN−2 =⇒=⇒ xN−2 = (bN−2 − uN−2,N−1.xN−1 − uN−2,N .xN)/uN−2,N−2

Generalizando para a variavel i temos:

uN−i,N−i.xN−i + · · · + uN−i,N .xN = bN−i =⇒ xN−i = (bN−i −N∑

j=N−i+1

uN−i,j.xj)/uN−i,N−i

i = 1, 2, 3, ..., N − 1

96

Page 95: ApostilaMétodos Matematicos

ou, mudando os ındices:

xi = (bi −N∑

j=i+1

ui,j.xj)/ui,i i = N − 1, N − 2, ..., 3, 2, 1

9.3 Armazenamento esparso

Utilizado para matrizes triangulares ou simetricas.

O armazenamento e feito na forma de vetor, por linhas ou colunas.

- Matriz Cheia:

Figura 9.1: Matriz triangular cheia.

- Matriz banda:

Figura 9.2: Matriz triangular em banda.

97

Page 96: ApostilaMétodos Matematicos

- Matriz ”skyline”:

Figura 9.3: Matriz triangular ”sky-line”.

9.3.1 Conversao de ındice

Para matriz triangular superior (i ≤ j) armazenada num vetor por colunas, o ındice deum elemento no vetor, ij, pode ser calculado a partir do par de ındices correspondente alocalizacao do mesmo elemento na matriz, (i, j), utilizando o seguinte tradutor de ındices:

ij = (j − 1) ∗ j/2 + i i ≤ j

Figura 9.4: Conversao de ındices de matriz para vetor.

98

Page 97: ApostilaMétodos Matematicos

Observacao: Um tradutor analogo e possıvel para o armazenamento em banda e ”sky-line”.

Por exemplo para o armazenamento da banda superior, de largura nb, num vetor porcolunas, o ındice do vetor pode ser calculado utilizando o seguinte tradutor de ındices:

ij = j∗(j−1)2

+ i j ≤ nb

ij = nb∗(nb+1)2

+ j ∗ (nb− 1) − nb2 + i j > nb

9.4 Sistemas determinados

[A](N×N) {x}(N×1) = {b}(N×1) ; |[A]| 6= 0

9.4.1 Metodo de resolucao baseado na decomposicao QR:

Dados [A](N×N), real, qualquer, nao singular, e {b}(N×1) qualquer, obter {x}(N×1) quesatisfaca [A](N×N) {x}(N×1) = {b}(N×1)

1. Decomposicao QR: [A] = [Q].[R], onde

{[Q] ortogonal ([Q]T [Q] = [Q][Q]T = [I])[R] triangular superior.

E utilizado um processo de ortogonalizacao, por exemplo o de Gram-Schmidt (capıtulo5 ou referencia [5], pg. 24).

[A]Gram−→

Schmidt[Q] ⇒ [R] = [Q]T [A]

2. {y} = [Q]T {b}

3. Resolver o sistema triangular superior [R] {x} = {y} solucao−→ {x}(N×1)

Ressumindo os 3 passos descritos acima:[A] {x} = {b} =⇒ [Q](N×N).[R](N×N) {x}(N×1)︸ ︷︷ ︸

{y}

= {b}(N×1)

[Q]{y} = {b}. Multiplicando por [Q]T: [Q]T[Q]︸ ︷︷ ︸[I]

{y} = [Q]T {b} ⇒ {y} = [Q]T {b}

[R] {x} = {y} ⇒ Sistema triangular superior:

− − −

− −[0] −

x

=

y

Indicador de condicionamento:

[Q] e uma matriz ortogonal (teoricamente) ⇒ c[Q] = 1c[A] = c([Q].[R]) ≤ c[Q].c[R] = c[R]

c[R] =|rii|Max

|rjj |Min

(Para sistemas diagonais ou triangulares e equivalente a c[A] =

|λ|Max

|λ|Min

).

99

Page 98: ApostilaMétodos Matematicos

Nos exemplos a seguir temos: |[L]| = 1 =⇒ Mal condicionado.|[L]| = 10−10N =⇒ Bem condicionado.

[L] =

10−10

∗ 10−10 [0]∗ ∗ 10−10

......

.... . .

∗ ∗ ∗ · · · 10−10

(Bem condicionado)

[L] =

1050

∗ 10−50 [0]∗ ∗ 1...

......

. . .

∗ ∗ ∗ · · · 1

(Mal condicionado)

∗ → qualquer valor.

Programa 2: Programar a resolucao do sistema [A]{x} = {b}, usando a decomposicaoQR e Gram-Schmidt modificado.

Exemplo para teste:

aij =

{d para i = j1 para i 6= j

N = 10 → [A] =

d 1 1 · · · 11 d 1 · · · 11 1 d · · · 1...

......

. . ....

1 1 1 · · · d

︸ ︷︷ ︸10

10

λi = d− 1 i = 1, 2, ..., N − 1

λN = N + d− 1

Testar para os dois casos seguintes:Caso 1: d = 1, 1 λi = 1, 1 − 1 = 0, 1

λN = 10 + 1, 1 − 1 = 10, 1

{b} =

10, 110, 1

...10, 1

c[A] = 10, 1 × 10c[A] = 1, 01 × 102

Caso 2: d = 1, 00000001 λi = 1, 00000001 − 1 = 0, 00000001λN = 10 + 1, 00000001 − 1 = 10, 00000001

{b} =

10, 0000000110, 00000001

...10, 00000001

c[A] = 1, 000000001 × 109

Calcular resıduo para os dois casos.

100

Page 99: ApostilaMétodos Matematicos

9.4.2 Metodos de resolucao baseados em decomposicao trian-gular (LU ou LDU)

[A](N×N), real, qualquer, nao singular. Existe uma decomposicao triangular LU tal que,

[A] = [L][U ] =

− [0]− −− − −

− − −

− −[0] −

[A] {x} = {b} =⇒ [L][U ] {x}︸ ︷︷ ︸{y}

= {b} ⇒ [L]{y} = {b}

[L]{y} = {b} e um sistema triangular inferior ⇒ e possıvel resolver para {y}.[U ] {x} = {y} e um sistema triangular superior ⇒ e possıvel resolver para {x}.

Decomposicao CHOLESKY:

[L] =

− [0]...

. . .

− · · · −

[U ] = [L]T =

− · · · −

. . ....

[0] −

A decomposicao de Cholesky e simples e bastante utilizada para sistemas simetricospositivo-definidos de coeficientes reais. Se a matriz [A] nao for simetrica, a matriz [L]resultante e complexa.

Decomposicao CROUT:

[L] =

− [0]...

. . .

− · · · −

[U ] =

1 · · · −

. . ....

[0] 1

ui,i = 1, 0 i = 1, 2, ..., N

Decomposicao de DOOLITTLE:

[L] =

1 [0]...

. . .

− · · · 1

[U ] =

− · · · −

. . ....

[0] −

li,i = 1, 0 i = 1, 2, ..., N

Decomposicao triangular LDU:

[L] =

1 [0]...

. . .

− · · · 1

li,i=1,0

[U ] =

1 · · · −

. . ....

[0] 1

ui,i=1,0

[D] =

d1,1 [0]

. . .

[0] dN,N

di,j=0 ∀ i 6=j

101

Page 100: ApostilaMétodos Matematicos

9.4.3 Decomposicao triangular de Cholesky

[A] =

a11 · · ·a21 a22 Sim.a31 a32 a33 · · ·...

......

. . ....

aN1 aN2 aN3 · · · aNN

=

l11l21 l22 [0]l31 l32 l33...

......

. . .

lN1 lN2 lN3 · · · lNN

l11 l21 l31 · · · lN1

l22 l32 · · · lN2

l33 · · · lN3

[0]. . .

...lNN

Igualando termo a termo, somente a metade inferior devido e simetria:Primeira linha: l211 = a11 ⇒ l11 =

√a11

Segunda linha: l21l11 = a21 ⇒ l21 = a21

l11

l221 + l222 = a22 ⇒ l22 =√a22 − l221

Terceira linha: l31l11 = a31 ⇒ l31 = a31

l11

l31l21 + l32l22 = a32 ⇒ l32 = a32−l31l21l22

l231 + l232 + l233 = a33 ⇒ l33 =√a33 − l231 − l232

i-esima linha: lij =aij−

j−1P

k=1likljk

ljj; j < i

lii =

aii −i−1∑k=1

l2ik

9.4.4 Decomposicao triangular de Doolittle

[A] =

a11 a12 a13 · · · a1N

a21 a22 a23 · · · a2N

a31 a32 a33 · · · a3N...

......

. . ....

aN1 aN2 aN3 · · · aNN

=

1l21 1 [0]l31 l32 1...

......

. . .

lN1 lN2 lN3 · · · 1

u11 u12 u13 · · · u1N

u22 u23 · · · u2N

u33 · · · u3N

[0]. . .

...uNN

1a linha de [A]: ⇒ a11 = u11 a12 = u12 · · · a1N = u1N

102

Page 101: ApostilaMétodos Matematicos

u1j = a1j j = 1, 2, ..., N

1a coluna de [A]: ⇒ a21 = l21u11 ⇒ l21 = a21/u11

a31 = l31u11 ⇒ l31 = a31/u11

a41 = l41u11 ⇒ l41 = a41/u11...aN1 = lN1u11 ⇒ lN1 = aN1/u11

li1 = ai1/u11 , i = 1, 2, ..., N

2a linha de [A]: ⇒ a22 = l21u12 + u22 ⇒ u22 = a22 − l21u12

a23 = l21u13 + u23 ⇒ u23 = a23 − l21u13

a24 = l21u14 + u24 ⇒ u24 = a24 − l21u14...a2N = l21u1N + u2N ⇒ u2N = a2N − l21u1N

u2j = a2j − l21u1j j = 2, 3, ..., N

2a coluna de [A]: ⇒ a32 = l31u12 + l32u22 ⇒ l32 = (a32 − l31u12)/u22

a42 = l41u12 + l42u22 ⇒ l42 = (a42 − l41u12)/u22

a52 = l51u12 + l52u22 ⇒ l52 = (a52 − l51u12)/u22...aN2 = lN1u12 + lN2u22 ⇒ lN2 = (aN2 − lN1u12)/u22

li2 = (ai2 − li1u12)/u22 i = 3, 4, ..., N

3a linha de [A]: ⇒ a33 = l31u13 + l32u23 + u33 ⇒ u33 = a33 − l31u13 − l32u23

a34 = l31u14 + l32u24 + u34 ⇒ u34 = a34 − l31u14 − l32u24

a35 = l31u15 + l32u25 + u35 ⇒ u35 = a35 − l31u15 − l32u25...a3N = l31u1N + l32u2N + u3N ⇒ u3N = a3N − l31u1N − l32u2N

u3j = a3j −3−1∑k=1

l3kukj j = 3, 4, ..., N

103

Page 102: ApostilaMétodos Matematicos

3a coluna de [A]: ⇒ Analogamente,

li3 = (ai3 −3−1∑k=1

likuk3)/u33 i = 4, 5, ..., N

Resumo:

{u1j = a1j j = 1, 2, ..., Nli1 = ai1/u11 i = 2, 3, ..., N (l11 = 1)

Calcular alternadamente: (i e j = 2, 3, ..., N)

uij = aij −i−1∑k=1

likukjPara um determinado ij = i, (i+ 1), ..., N

lij = (aij −j−1∑k=1

likukj)/ujjPara um determinado ji = (j + 1), (j + 2), ..., N

Observacao: lii = 1 ∀ iRepetir para i = i+ 1 e j = j + 1.Nota: As formulas para CROUT podem ser obtidas da mesma forma.

9.5 Sistemas simetricos

[A]{x} = {b} com [A] = [A]T

9.5.1 Cholesky

Ja foi visto na secao 9.4.3

9.5.2 Decomposicao de DOOLITTLE

Para sistemas simetricos, a decomposicao de Doolittle resulta em:[A] = [L][U ] lii = 1 i = 1, 2, ..., N

1 0 · · · 0l21 1 · · · 0...

.... . .

...lN1 lN2 · · · 1

u11 u12 · · · u1N

0 u22 · · · u2N...

.... . .

...0 0 · · · uNN

[U ] pode ser fatorada: [U ] =

d11 0 · · · 00 d22 · · · 0...

.... . .

...0 0 · · · dNN

1 u12 · · · u1N

0 1 · · · u2N...

.... . .

...0 0 · · · 1

= [D][U ]

(∴ dii = uii)

104

Page 103: ApostilaMétodos Matematicos

u1j = d11u1j j = 1, 2, ..., N

u2j = d22u2j j = 2, 3, ..., N...

uij = diiuij j = i, (i+ 1), ..., N

{[A] = [L][U ] = [L][D][U ]Se [A] = [A]T ⇒ [U ] = [L]T

}=⇒ [A] = [L][D][L]T ou [U ]T [D][U ]

9.5.3 Decomposicao de CROUT:

Analogamente, partindo da decomposicao de Crout obtem-se:

[A] = [L][U ] onde uii = 1, 0 i = 1, 2, ..., N

Nesse caso [L] e fatorado, [L] = [L][D]

Entao [A] = [L][D][U ] ⇒ [L] = [U ]T ⇒ [A] = [U ]T [D][U ]

Portanto para sistemas simetricos ([A] = [A]T ):

[A] = [U ]T [D][U ] (a) [U ] e a matriz de referencia.

ou

[A] = [L][D][L]T (b) [L] e a matriz de referencia.

9.5.4 Decomposicao de GAUSS (LDU):

A decomposicao de Gauss para sistemas simetricos recai no metodo de DOOLITTLE ouCROUT simetricos. Para sistemas simetricos [L] = [U ]T .

di = dii i = 1, 2, ..., N [D] =

d1

d2

. . .

dN

{d1 = a11

u1j = a1j/d1j = 1, 2, ..., N

Calcular alternadamente:

di = aii −i−1∑k=1

ukidkuki

uii = 1 ∀ iuij = (aij −

i−1∑k=1

ukidkukj)/di

i = 2, 3, ..., N j = (i+ 1), (i+ 2), ..., N

Programa 3: Programar a resolucao do sistema [A]{x} = {b}, usando a decomposicaoLU, para os mesmos sistemas do programa 2.

aij =

{d para i = j1 para i 6= j

105

Page 104: ApostilaMétodos Matematicos

N = 10 → [A] =

d 1 1 · · · 11 d 1 · · · 11 1 d · · · 1...

......

. . ....

1 1 1 · · · d

︸ ︷︷ ︸10

10

λi = d− 1 i = 1, 2, ..., N − 1

λN = N + d− 1

Testar para os dois casos citados anteriormente:

Caso 1: d = 1, 1

Caso 2: d = 1, 00000001

9.6 Numero de condicao

Para sistemas lineares [A]{x} = {b}, e possıvel estimar o numero de condicao c[A].

Observacao: So determinante nao indica o condicionamento do sistema. Pode ocorrerque um sistema com |[L]| = 1 seja mal condicionado.

Por exemplo, para sistemas triangulares: |[L]| =N∏

i=1

lii = l11.l22. . . . .lNN Se l11 = 10−6,

l(2:N−1),(2:N−1) = 1, lNN = 106 → |L| = 1, mas o sistema e mal condicionado.

A seguir sao apresentadas formulacoes para metodos que utilizam a decomposicaotriangular LU [3].

9.6.1 Estimativa de c[A]

Seja [A](N×N) real simetrica.

[A] = [U ]T [D][U ] [D] =

d1

d2

. . .

dN

[U ] =

1 u12 · · · u1N

0 1 · · · u2N...

.... . .

...0 0 · · · 1

Seja ds tal que |di| ≤ |ds| i = 1, 2, ..., N → ds e o valor maximo em modulo.

e seja dr tal que |dr| ≤ |di| i = 1, 2, ..., N → dr e o valor mınimo em modulo.

Portanto,

{|ds| = Max(|di|)|dr| = Min(|di|)

Uma estimativa de c[A] e dada por K,

K =|ds||dr|

=|λ|Max

|λ|Min

, ja visto.

106

Page 105: ApostilaMétodos Matematicos

9.6.2 Estimativa melhorada de K ≈ c[A]:

Seja {e}r =

0...010...0

→Linha r de [D] correspondente a |dr|, (Min(|di|))

{e}s =

0...010...0

→Linha s de [D] correspondente a |ds|, (Max(|di|))

Resolver o sistema triangular superior:

1. [U ]{φ}r = {e}r ⇒ {φ}r

2. {φ}s = [U ]T{e}s ⇒ {φ}s

3. Estimativa melhorada K ≈ c[A]:

K = ‖{φ}r‖E . ‖{φ}s‖E .

K︷ ︸︸ ︷( |ds||dr|

)

Observacao:

{φ}s = {φ}s

‖{φ}s‖Ee uma estimativa do autovetor de [A] correspondente a λN (Max(|λ|))

{φ}r = {φ}r

‖{φ}r‖Ee uma estimativa do autovetor de [A] correspondente a λ1 (Min(|λ|))

Analogamente pode-se obter uma estimativa de c[A] para [A] nao simetrica e comautovalores reais.

[A] = [L][D][U ]|ds| ≥ |di| i = 1, 2, ..., N|dr| ≤ |di| i = 1, 2, ..., N

K =|ds||dr|

≃ c[A]

Estimativa melhorada:

107

Page 106: ApostilaMétodos Matematicos

[U ]{φ}r = {e}r ⇒ {φ}r ⇒ {φ}r ={φ}r

‖{φ}r‖E

[L]−1{φ}s = {e}s ⇒ {φ}s = [L]{e}s ⇒ {φ}s ={φ}s

‖{φ}s‖E

K = ‖{φ}r‖ . ‖{φ}s‖ .K K =|ds||dr|

9.7 Sistemas de equacoes lineares: escalonamento

(balanceamento)

Seja o sistema de equacoes lineares [A](N×N) {x}(N×1) = {b}(N×1)

9.7.1 Escalonamento diagonal (por coluna) para [A]{x} = {b}

[A]c = [A][D]c [D]c =

d1

d2

. . .

dN

di = inverso do elemento da coluna (i) de [A] com maior modulo:

di =1

Maxj

|aji|

[A] = [A]c[D]−1c ⇒ [A]c[D]−1

c {x}︸ ︷︷ ︸{y}

= {b}

[A]c{y} = {b} ⇒ {y}

[D]−1c {x} = {y} ⇒ {x} = [D]c{y} =

y1d1

y2d2...yNdN

9.7.2 Escalonamento diagonal (por linha) para [A]{x} = {b}

[A]L = [D]L[A] onde di =

(Max

j|aji|

)−1

[A] = [D]−1L [A]L

[D]−1L [A]L{x} = {b}

108

Page 107: ApostilaMétodos Matematicos

[A]L{x} = [D]L{b}︸ ︷︷ ︸y

=

d1b1d2b2

...dNbN

⇒ [A]L{x} = {y} ⇒ {x}

9.7.3 Escalonamento diagonal (linha e coluna) para [A]{x} = {b}

[A]LC = [D]L[A]︸ ︷︷ ︸[A]L

[D]C (di)L =

(Max

j|aij|

)−1

[A]LC = [A]L[D]C (di)C =

(Max

j|aji|L

)−1

(|aji|L da matriz ja escalonada por

linha)

[A] = [D]−1L [A]LC [D]−1

C

[D]−1L [A]LC [D]−1

C {x}︸ ︷︷ ︸{y}

= {b}

[A]LC{y} = [D]L{b} ⇒ {y}[D]−1

C {x} = {y} ⇒ {x} = [D]C{y}

Exemplo:

[A] =

1 1 2 × 109

2 −1 1 × 109

1 2 0

[A]C = [A][D]C

[D]−1C =

2 0 00 2 00 0 2 × 109

⇒ [D]C =

0, 5 0 00 0, 5 00 0 0, 5 × 10−9

[A]C =

1 1 2 × 109

2 −1 1 × 109

1 2 0

0, 5

0, 50, 5 × 10−9

=

0, 5 0, 5 11 −0, 5 0, 5

0, 5 1 0

Resultados obtidos utilizando o comando cond do MATLAB:

cond([A]) = 1, 34 × 109

cond([A]c) = 2, 61

109

Page 108: ApostilaMétodos Matematicos

9.7.4 Metodos de obtencao de [D]L e [D]C (resumo)

[D]−1 =

d1

d2

. . .

dN

(a) (di)L = Maxj

|aij| (i = 1, 2, ..., N) =⇒ obtencao de [D]L.

(di)C = Maxj

|aji| (i = 1, 2, ..., N) =⇒ obtencao de [D]C .

(b) di =

(N∑

j=1

a2ij

)1/2

=⇒ obtencao de [D]L. (Equivalente e a norma euclidiana da linha

i).

di =

(N∑

j=1

a2ji

)1/2

=⇒ obtencao de [D]C . (Equivalente a norma euclidiana da coluna

i).

(c) β-scaling

di = βM , onde β e a base numerica do computador (normalmente sistema binario⇒ β = 2).

M e um numero inteiro tal que

di

β≤ βM < di

(di e obtido do metodo (a) ou (b))

Observacao: o escalonamento β nao produz erro de truncamento.A multiplicacao de um numero (na base β) por uma potencia de β nao afeta a mantissa

do numero, so o expoente.Nota: No escalonamento diagonal por coluna o vetor {b} pode ser balanceado simul-

taneamente.

Considerando novamente o problema [A] {x} = {b}:Seja t o fator de escalonamento do vetor {b},

t =1

Maxj

|bj|ou t =

1(

N∑j=1

b2j

)1/2

110

Page 109: ApostilaMétodos Matematicos

[A]C = [A][D]C =⇒ [A] = [A]C [D]−1C

O sistema de equacoes torna-se

[A]︷ ︸︸ ︷[A]C [D]−1

C {x} = {b}[D]−1

C {x} = {y} ⇒ [A]C{y} = {b}

Multiplicando tudo por t⇒ [A]Ct{y}︸︷︷︸{y}

= t{b} = {b}

{y} = t{y} = [A]−1C {b} ⇒ {y} =

1

t{y} ⇒ [D]−1

C {x} = {y} ⇒ {x} = [D]C{y}

Exercıcio: Resolver sistemas mal condicionados com e sem condicionamento, usando{x} = [A]−1{b}.

111

Page 110: ApostilaMétodos Matematicos

112

Page 111: ApostilaMétodos Matematicos

Capıtulo 10

Transformacoes similares

As transformacoes similares e especialmente as unitarias sao importantes, pois sao as basespara inumeros algoritmos de resolucao de sistemas de equacoes lineares, de problemas deautovalores e autovetores algebricos, etc...

Definicao: Considere-se a matriz [A](N×N) qualquer, e [M ](N×N) nao singular. Pode-seobter uma matriz [B](N×N) a partir de [A] e [M ] tal que,

[B] = [M ]−1[A][M ]

ou

[B] = [M ][A][M ]−1

As matrizes [A] e [B] sao chamadas similares e a transformacao [A] ↔ [B] e chamadatransformacao similar.

Propriedade: - Os auto-valores de [A] e [B] sao os mesmos.- Os auto-vetores sao, normalmente, distintos.

Demonstracao:- Relacao entre os autovalores:As equacoes caracterısticas de [A] e [B] sao,

([A] − λ[I]){x} = {0} (10.1)

([B] − λ[I]){y} = {0} (10.2)

A solucao nao trivial para um sistema homogeneo e obtida da condicao,

|[A] − λ[I]| = 0 e |[B] − λ[I]| = 0 (10.3)

Por exemplo, considere-se a equacao (10.3)

|[B] − λ[I]| = PB(λN) = 0 (polinomio caracterıstico)∣∣[M ]−1[A][M ] − λ[M ]−1[I][M ]

∣∣ =∣∣[M ]−1([A] − λ[I])[M ]

∣∣ =

�∣∣[M ]−1

∣∣ . |[A] − λ[I]| .�|[M ]| = |[A] − λ[I]| = PA(λN) = 0

113

Page 112: ApostilaMétodos Matematicos

Observar que |[M ]−1| e |[M ]| cancelam ja que |[M ]| . |[M ]−1| = 1, ou |[M ]| = 1|[M ]−1| .

Portanto temos que:

PB(λN) = |[B] − λ[I]| = PA(λN) = |[A] − λ[I]| = 0

Como [A] e [B] possuem o mesmo polinomio caracterıstico tambem possuem os mesmosautovalores.

- Relacao entre os autovetores:

[A]{x} = λ{x}[M ][B][M ]−1{x} = λ{x} ⇒ [B][M ]−1{x}︸ ︷︷ ︸

{y}

= λ[M ]−1{x}︸ ︷︷ ︸{y}

[B]{y} = λ{y}

Portanto a relacao entre os autovetores e

{y} = [M ]−1{x} ou {x} = [M ]{y}

10.1 Transformacao unitaria

Definicao: Se [M ] e uma matriz unitaria entao a transformacao,

[B] = ([M ]∗)T [A][M ] ou [B] = [M ][A]([M ]∗)T

e chamada de transformacao unitaria.

Lembrete: Matriz unitaria e aquela que satisfaz ([M ]∗)T = ([M ]T )∗ = [M ]−1 ⇒

⇒ ([M ]∗)T .[M ] = [M ].([M ]∗)T = [I]

10.2 Transformacao ortogonal

Definicao: Se [M ] for uma matriz unitaria real ⇒ [M ] e ortogonal e a transformacao sechama transformacao ortogonal.

[M ] ortogonal ⇒ [M ]T [M ] = [M ][M ]T = [I] ⇒ [M ]T = [M ]−1

Portanto as linhas e as colunas de [M ] sao ortonormais entre si.

[B] = [M ]T [A][M ] ou [B] = [M ][A][M ]T

114

Page 113: ApostilaMétodos Matematicos

10.3 Forma diagonal de uma matriz [A]

[A]N×N

possui uma forma diagonal quando existe uma matriz diagonal,

[Λ] =

λ1

λ2

. . .

λN

, similar.

Exemplo:Seja [S]

N×N

= [{x}1{x}2 · · · {x}N ], a matriz cujas colunas sao os autovetores de [A].

[A]{x}i = λi{x}i

[A] [S] = [S] [Λ]

[A]︷ ︸︸ ︷[{x}1{x}2 · · · {x}N ] =

︷ ︸︸ ︷[{x}1{x}2 · · · {x}N ]

λ1

λ2

. . .

λN

Se os autovetores (colunas de [S]) forem LI → [S] e nao singular e pode-se escreverque,

[S]−1[A][S] = [Λ]

Por definicao, [A] e [Λ] sao similares e a diagonal de [Λ] constituıda dos autovaloresde [A].

10.4 Propriedades e teoremas

Teorema: Se os autovalores de [A] sao distintos (λ1 > λ2 > · · · > λN), entao [A] ediagonalizavel (os autovetores sao LI).

Teorema: [A][S] = [S][Λ] so acontece se [S] for a matriz dos autovetores de [A].

Propriedade: Nem toda matriz e diagonalizavel, pois se houver autovalores repetidos podeacontecer o caso em que os autovetores sao LD.

Propriedade: A matriz [S] nao e unica. Depende da normalizacao dos autovetores.

([A] − λi[I]){x}i = {0}Como {x}i e solucao de uma equacao homogenea ⇒ infinitas solucoes α{x}i.e comum normalizar {x}j → ‖{x}j‖• = 1, no entanto a norma escolhida pode tambem

variar.Teorema: Forma canonica de Schur (lema de Schur).

115

Page 114: ApostilaMétodos Matematicos

Para qualquer [A]N×N

, existe uma matriz [M ] unitaria tal que

[M∗]T [A][M ] = [U ] =

u11 u12 . . . u1N

0 u22 . . . u2N...

.... . .

...0 0 · · · uNN

([U ] e triangular superior).

• [A] e [U ] sao similares.

• Portanto os autovalores de [A] sao os elementos da diagonal principal de [U ].

λi = uii (i = 1, 2, . . . , N)

• Se [A] for hermitiana ⇒ [U ] e diagonal.

Teorema: Toda matriz hermitiana ([A∗]T = [A]) e diagonalizavel.(Os autovetores sao LI. Portanto toda matriz real simetrica ou imaginaria anti-simetrica

tem autovetores LI e e diagonalizavel).Teorema: Toda matriz [A]

N×N

hermitiana pode ser decomposta na forma,

[A] = [S][Λ][S∗]T (Decomposicao espectral)

Portanto seus autovetores podem ser ortogonalizados.Teorema: Se [A]

N×N

e hermitiana e [M ]N×N

unitaria, entao [B] = [M∗]T [A][M ] tambem e

hermitiana.

([M ]H [A][M ])H = [M ]H([M ]H([A])H = [M ]H [A]H [M ] = [M ]H [A][M ]

Teorema: Se [M ]N×N

e unitaria existe [S]N×N

unitaria tal que

[S∗]T [M ][S] =

λ1

λ2

. . .

λN

|λi| = 1 (i = 1, 2, . . . , N).

Portanto os autovetores podem ser ortonormalizados.

Teorema: Se [M ]N×N

e ortogonal existe [S]N×N

ortogonal tal que

[S]T [M ][S] =

λ1

λ2

. . .

λN

, λi = ±1

116

Page 115: ApostilaMétodos Matematicos

Teorema: Se [N ]N×N

e uma matriz normal ([N ]H [N ] = [N ][N ]H), entao existe [S]N×N

unitaria tal que

[S∗]T [N ][S] =

λ1

λ2

. . .

λN

([4], pg.311 e pg. 315).

Portanto os autovetores podem ser ortonormalizados. Entao:- Toda matriz normal e diagonalizavel.- Toda matriz unitaria e normal.- Toda matriz hermitiana e normal.- Toda matriz ortogonal e normal.- Toda matriz ortogonal e unitaria.- Toda matriz real simetrica e hermitiana.- Toda matriz imaginaria anti-simetrica e hermitiana.

Exemplos de aplicacao:

1. Resolucao de sistemas de equacoes diferenciais

{dx

dt

}= [A]

N×N

{x}

Seja a mudanca de variavel {x} = [M ]N×N

{v} onde [M ] e nao singular.

{dx

dt

}= [M ]

{dv

dt

}= [A][M ]{v}

{dv

dt

}= [M ]−1[A][M ]{v}

Se [M ] = [S] e a matriz dos autovetores de [A] e [S] tem colunas LI ⇒{

dvdt

}= [Λ]{v}

Obtem-se N equacoes diferenciais desacopladas.

———————————————————————————————————

2. Teste de convergencia de sistemas iterativos

Seja um Metodo iterativo linear: {u}i+1 = [A]{u}i + {b}Considere-se uma iteracao linear exata: {u} = [A]{u} + {b}onde {u} e o valor exato.

Subtraindo uma equacao da outra, {u} − {u}i+1︸ ︷︷ ︸{e}i+1

= [A]({u} − {u}i︸ ︷︷ ︸{e}i

)

117

Page 116: ApostilaMétodos Matematicos

{e}i+1, {e}i → vetor dos erros.

Seja a transformacao {u} = [M ]{v} → {e} = [M ]{e}

[M ]{e}i+1 = [A][M ]{e}i ⇒ {e}i+1 = [M ]−1[A][M ]{e}i

Se [M ] = [S] e a matriz dos autovetores de [A] e [S] for LI, entao

[M ]−1[A][M ] =

λ1

λ2

. . .

λN

Se |λi| < 1 o algoritmo converge para a solucao exata, pois o erro diminui em cadaiteracao.

10.5 Forma canonica de Jordan

Seja [A]N×N

, qualquer.

Se os autovetores de [A] → [S] = [{φ}1{φ}2 · · · {φ}N ] forem LI, entao [A] e diago-nalizavel.

[S]−1[A][S] = [Λ]

Se houver autovalores repetidos e autovetores LD ⇒ [A] nao e diagonalizavel.Se houver s autovetores LI, s < N , existe [M ]

N×N

, tal que:gon

[J ] = [M ]−1[A][M ] =

[J ]1[J ]2

. . .

[J ]s

(Forma canonica de Jordan).

onde

[J ]i =

λi 1 0 · · · 00 λi 1 · · · 0...

......

. . ....

0 0 0 · · · 10 0 0 · · · λi

︸ ︷︷ ︸r

r

Na equacao anterior, r e o numero de repeticoes do autovalor λi cujos autovetores saoLD.

118

Page 117: ApostilaMétodos Matematicos

• Esta decomposicao e unica.

• Um λi repetido pode aparecer em blocos diferentes.

• Duas matrizes [A] e [B] sao similares se tiverem a mesma forma canonica de Jordan,[J ].

• Os metodos numericos para se obter [J ] nao sao muito estaveis com relacao a umavariacao δ[A] da matriz [A].

Exemplo de transformacao ortogonal: Matriz de rotacao

Definicao - Matriz de rotacao plana: [M ] =

[cos θ − sin θsin θ cos θ

]=

[c −ss c

]

[M ]T [M ]⇓

= [M ][M ]T = [I] ⇒ [M ] e uma matriz ortogonal.[

c s−s c

] [c −ss c

]=

[(c2 + s2) 0

0 (c2 + s2)

]=

[1 00 1

]= [I]

Pode ser construıda uma matriz [M ] de rotacao (N ×N):

[M ] =(i)

(j)

(i) (j)

[I]... [0]

... [0]· · · c · · · −s · · ·[0]

... [I]... [0]

· · · s · · · c · · ·[0]

... [0]... [I]

Teorema: Se [M ]0(N×N)

e [M ]1(N×N)

sao ortogonais, [M ]2 = [M ]0[M ]1 tambem e ortogonal:

[M ]T2 [M ]2 = ([M ]0[M ]1)T ([M ]0[M ]1) = [M ]T1 [M ]T0 [M ]0︸ ︷︷ ︸

[I]

[M ]1 = [I]

10.6 Transformacao de Householder

Seja [H](N×N), real, simetrica, ortogonal obtida de,

[H] = [I] − 2{v}{v}T

‖{v}‖2E

{v}(N×1), real.

[H] e simetrica, pois [H]T = [H]:

[H]T =

([I] − 2{v}{v}T

‖{v}‖2E

)T

= [I]T − 2({v}T

)T {v}T

‖{v}‖2E

= [I] − 2{v}{v}T

‖{v}‖2E

= [H]

[H] e ortogonal, pois [H]T [H] = [H][H]T = [I]:

119

Page 118: ApostilaMétodos Matematicos

[H]T [H] =

([I] − 2{v}{v}T

‖{v}‖2E

)T ([I] − 2{v}{v}T

‖{v}‖2E

)

= [I] − 4{v}{v}T

‖{v}‖2E

+4{v}{v}T{v}{v}T

‖{v}‖4E

= [I] − 4{v}{v}T

‖{v}‖2E

+4{v}{v}T ‖{v}‖2

E

‖{v}‖4E

= [I]

Propriedade da transformacao de Householder:Seja {x}(N×1) qualquer.

[H](N×N)

= [I] − 2{v}{v}T

‖{v}‖2E

, onde {v} = {x} + σ{Z}

σ = ‖{x}‖E

{Z} =

0...1...0

→ i-esima linha.

entao

[H]{x} = −σ{Z} =

0...

−σ...0

→ i-esima linha.

⇒ a transformacao zera o vetor {x} com excecao da linha (i).Portanto ‖[H]{x}‖E = ‖{x}‖E = σ (as matrizes ortogonais preservam as normas dos

vetores).Exercıcio: Mostrar que [H]{x} = −σ{Z}.

10.7 Decomposicao QR usando a transformacao de

Householder

Seja [A]0(N×N)

real, qualquer, nao singular.

120

Page 119: ApostilaMétodos Matematicos

Decomposicao QR: ⇒ [A]0(N×N)

= [Q](N×N)

[R](N×N)

onde [Q] e uma matriz ortogonal ([Q]T [Q] =

[I] ⇒ [Q]T = [Q]−1) e [R] e triangular superior.

Se [A]0(M×N)

, M ≥ N , ⇒ [A]0(M×N)

= [Q](M×M)

[R](M×N)

e [Q](M×M)

T [Q](M×M)

= [I](M×M)

Dado:

[A]0(M×N)

= [{a}01 {a}0

2 · · · {a}0N ]

Constroi-se,

[H]0(M×M)

= [I](M×M)

− 2{v}0({v}0)T

‖{v}0‖2E

onde {v}0

(M×1)

= {a}01

(M×1)

+ σ0 {z}0

(M×1)

σ0 = ‖{a}01‖ e {z}0 =

10...0

Transformacao,

[A]1(M×N)

= [H]0(M×M)

[A]0(M×N)

⇒ [A]1 =

−σ0 × × · · · ×0... {a}1

2 {a}13

. . . {a}1N

0

{a}12

(M−1)×1

⇒ 2a coluna a partir do a22.

Constroi-se,

[H]1(M−1)×(M−1)

= [I] − 2{v}1({v}1)T

‖{v}1‖2 onde {v}1

(M−1)×1

= {a}12 + σ1{z}1

σ1 = ‖{a}12‖ e {z}1 =

10...0

[H]1(M×M)

=

1 0 · · · 00... [H]1

(M−1)×(M−1)

0

Transformacao,

[A]2(M×N)

= [H]1(M×M)

[A]1(M×N)

= [H]1[H]0[A]0︸ ︷︷ ︸[A]1

121

Page 120: ApostilaMétodos Matematicos

⇒ [A]2 =

−σ0 × × × · · · ×0 −σ1 × × · · · ×0 0...

... {a}23 {a}2

4. . . {a}2

N

0 0

Construcao:

[H]2(M−2)×(M−2)

= [I] − 2{v}2({v}2)T

‖{v}2‖2 onde {v}2

(M−2)×1

= {a}23 + σ2{z}2

σ2 = ‖{a}23‖ e {z}2 =

10...0

[H]2 =

1 0 0 · · · 00 1 0 · · · 00 0...

... [H]20 0

Transformacao:[A]3

(M×N)

= [H]2(M×M)

[A]2(M×N)

= [H]2[H]1[H]0[A]0

[A]3 =

−σ0 × × × × · · · ×0 −σ1 × × × · · · ×0 0 −σ2 × × · · · ×0 0 0...

...... {a}3

4 {a}35

. . . {a}3N

0 0 0

Fazendo sucessivas transformacoes:[A]N−1(M×N)

= [H]N−2[H]N−3 · · · [H]1[H]0︸ ︷︷ ︸[Q]T

(M×M)

[A]0(M×N)

= [R](M×N)

∴ [Q]T

(M×M)

[A]0(M×N)

= [R](M×N)

Pre-multiplicando por [Q] ⇒ [Q][Q]T [A]0 = [Q][R] ⇒ [A]0 = [Q][R]

Observacao: Foi utilizado o teorema que mostra que qualquer produto de matrizesortogonais resulta em uma matriz ortogonal.

Portanto [Q] = [H]0[H]1 · · · [H]N−3[H]N−2 e ortogonal ⇒ [Q]T = [Q]−1 ⇒ [Q][Q]T =[I]

Aplicando este resultado na expressao anterior ⇒ [I][A]0 = [Q][R] ⇒ [A]0(M×N)

= [Q](M×M)

[R](M×N)

122

Page 121: ApostilaMétodos Matematicos

Para efeito computacional pode-se mostrar que: [A]0(M×N)

= [Q](M×N)

[R](N×N)

, onde foram

eliminadas as ultimas colunas de [Q] e as linhas de [R] abaixo da linha N .

10.8 Aplicacoes da decomposicao QR

10.8.1 Resolucao de sistemas super-determinados

Exemplo: Ajuste linear por mınimos quadrados (Resolucao de um sistema de equacoeslineares superdeterminado).

[A](M×N)

{x}(N×1)

= {b}(M×1)

M ≥ N

Figura 10.1: Interpolacao por mınimos quadrados.

y(x) = ax2 + bx+ c =⇒ M medidas

y1 = ax21 + bx1 + c

y2 = ax22 + bx2 + c

y3 = ax23 + bx3 + c...

yM = ax2M + bxM + c

Matricialmente,

123

Page 122: ApostilaMétodos Matematicos

x21 x1 1x2

2 x2 1x2

3 x3 1...

......

x2M xM 1

abc

=

y1

y2

y3...yM

[A](M×N)

{x}(N×1)

= {b}(M×1)

M ≥ N

Definicao: Vetor dos resıduos → {r}(M×1)

= [A](M×N)

{x}(N×1)

− {b}(M×1)

{x} =

x1

x2...xN

Quando M = N e [A](N×N)

e nao singular ⇒ solucao unica:

{x} = [A]−1{b}e {r} = {0} (solucao exata).

Quando M > N ⇒ geralmente ‖{r}‖ > 0 para qualquer {x} nao nulo.

{r} = [A]{x} − {b}Funcao erro: ⇒ E = ‖{r}‖2

2 = {r}T{r}Mınimos quadrados ⇒ minimizar E = minimizar {r}T{r}

E = {r}T{r} = ([A]{x} − {b})T ([A]{x} − {b})= {x}T [A]T [A]{x} − 2{x}T [A]T{b} + {b}T{b}

Condicao de mınimo de E ⇒{

∂E∂xi

}=

∂E∂x1∂E∂x2...

∂E∂xN

= {0},

{∂E

∂xi

}= ∇E = 2[A]T [A]{x} − 2[A]T{b} = {0}

⇒ [A]T

(N×M)

[A](M×N)

{x}(N×1)

= [A]T

(N×M)

{b}(M×1)

Portanto a solucao por mınimos quadrados e

{x}(N×1)

= ([A]T [A]︸ ︷︷ ︸(N×N)

)−1 [A]T

(N×M)

{b}(M×1)

124

Page 123: ApostilaMétodos Matematicos

Solucao por decomposicao QR:

[A](M×N)

{x}(N×1)

= {b}(M×1)

M ≥ N

[A](M×N)

= [Q](M×N)

[R](N×N)

=⇒ [Q][R]{x} = {b}

Pre-multiplicando por [Q]T ⇒ [Q]T [Q]︸ ︷︷ ︸[I]

[R]{x} = [Q]T{b}

[R]{x} = [Q]T{b} =⇒ {x} = [R]−1[Q]T{b}

Solucao por mınimos quadrados:

{x} = ([A]T [A])−1[A]T{b} = ([R]T [Q]T [Q]︸ ︷︷ ︸[I]

[R])−1[R]T [Q]T{b}

= ([R]T [R])−1[R]T [Q]T{b} = [R]−1[R]−T [R]T︸ ︷︷ ︸[I]

[Q]T{b}

⇒ {x} = [R]−1[Q]T{b}

Portanto a solucao por decomposicao QR e ”solucao mınimos quadrados”.

10.9 Forma de Hessenberg

Seja [A]N×N

real, qualquer.

[A]0 = [{a}1{a}2 · · · {a}N ]

Construir [H]0:

Seja [H]0(N−1)×(N−1)

= [I] − 2{v}{v}T

σ20

{v} = {a}01 + σ0{z}0

{a}01 → 1a coluna de [A]0 a partir da 2a linha: {a}0

1 =

a21

a31...aN1

0

1

σ0 = ‖{a}01‖

{z}0 =

10...0

125

Page 124: ApostilaMétodos Matematicos

[H]0(N×N)

=

1 0 · · · 00... [H]0

(N−1)×(N−1)

0

[A]1 = [H]0[A]0[H]0 =

a11 a12 a13 · · · a1N

−σ0 × × · · · ×0... {a}1

2 {a}13

. . . {a}1N

0

([A]0 e [A]1 saomatrizes similares.

)

Montar [H]1

[H]1 =

1 0 0 · · · 00 1 0 · · · 00 0...

... [H]1(N−2)×(N−2)

0 0

[H]1(N−1)×(N−1)

= [I] − 2{v}1{v}T1

σ21

[v]1 = {a}12 + σ1{z}1, onde:

{a}12 =

a32

a42...aN2

1

; σ1 = ‖{a}12‖ e {z}1 =

10...0

[A]2 = [H]1[A]1[H]1 = [H]1[H]0[A]0[H]0[H]1

[A]2 =

a11 a12 a13 a14 · · · a1N

−σ0 × × × · · · ×0 −σ1 × × · · · ×0 0...

... {a}23 {a}2

4. . . {a}2

N

0 0

E assim sucessivamente, ate

126

Page 125: ApostilaMétodos Matematicos

[A]H = [A]N−3 = [H]N−4[A]N−4[H]N−4

=

. . . − −− −− −− −− −− − →−σ0

. . . − −− −− −− −− − →−σ1

. . . − −− −− −− − →−σ2

. . . − −− −− − →. . .

[0] −σN−4. . . − − →⊛

. . . →

(Forma deHessenberg

)

Se [A]0(N×N)

for simetrica, a forma de Hessenberg e

tri-diagonal, simetrica e similar=⇒

Aplicacao: Em vez de calcular os autovalores/autovetores de uma matriz [A]0 naoesparsa ⇒ utiliza-se [A]H tri-diagonal ou quase-triangular ⇒ economia de operacoes,principalmente se o sistema de resolucao empregado for iterativo.

127

Page 126: ApostilaMétodos Matematicos

128

Page 127: ApostilaMétodos Matematicos

Capıtulo 11

Pseudo-inversa e decomposicao emvalores singulares

Definicao: Dada uma matriz [A]M×N

qualquer (M >,= ou< N), define-se como inversa generalizada

(pseudo-inversa ou inversa de Moore-Penrose) de [A], a matriz [A]+N×M

que satisfaz as

condicoes:

1. [A]M×N

[A]+N×M

[A]M×N

= [A]M×N

2. [A]+N×M

[A]M×N

[A]+N×M

= [A]+N×M

3. [A] [A]+ e [A]+ [A] sao matrizes hermitianas, isto e

(a) ([A][A]+)∗T

= [A] [A]+

(b) ([A]+[A])∗T

= [A]+ [A]

Obs.: Se [A] for real, ([A][A]+)T

= [A] [A]+ e ([A]+[A])T

= [A]+ [A] (Simetricas).

4. [A]+ e uma matriz unica.

Observacao: Resultado dos trabalhos publicados por Eliakim Hastings Moore (1920)[11] e Roger Penrose (1955) [12].

Aplicacoes importantes:

• Analise numerica.

• Analise funcional.

• Estatıstica matematica.

129

Page 128: ApostilaMétodos Matematicos

11.1 Decomposicao em valores singulares - SVD

(Singular Value Decomposition)

Teorema: Seja [A]M×N

uma matriz qualquer (M >,= ou < N), real ou complexa.

Existe uma decomposicao unica, [A]M×N

= [U ]M×M

[Σ]M×N

[V ∗]TN×N

, onde:

1. [U ]M×M

e [V ]N×N

sao unitarias: ([U∗]T [U ] = [U ][U∗]T = [I])([V ∗]T [V ] = [V ][V ∗]T = [I])

Observacao: Se [A] for real, [U ] e [V ] sao ortogonais.

2. As colunas de [U ]M×M

sao autovetores de [A](M×N)

[A∗]T

(N×M)

3. As colunas de [V ]N×N

sao autovetores de [A∗]T

(N×M)

[A](M×N)

4. [Σ]M×N

=

M

︷ ︸︸ ︷σ1 0 · · · 00 σ2 · · · 0...

.... . .

...0 0 · · · σM

∣∣∣∣∣∣∣∣∣

00...0

· · ·· · ·. . .

· · ·

00...0

︸ ︷︷ ︸

M

N

se M < N

ou [Σ]M×N

=

N

σ1 0 · · · 00 σ2 · · · 0...

.... . .

...0 0 · · · σN

0 0 · · · 0...

.... . .

...0 0 · · · 0︸ ︷︷ ︸

N

M se M > N

onde σi = +√λi i = 1, 2, . . . ,M para M < N

i = 1, 2, . . . , N para M > N

λi sao os autovalores (reais) de [A∗]T

(N×M)

[A](M×N)

para N ≤M , ou [A](M×N)

[A∗]T

(N×M)

para M ≤ N.

λi ≥ 0 sao reais pois [A∗]T [A] ou [A][A∗]T sao hermitianas.Os σi sao os valores singulares de [A]

(M×N)

.

Demonstracao de 2. e 3.: as colunas de [U ] e [V ] sao autovetores de [A][A∗]T e [A∗]T [A]respectivamente.

130

Page 129: ApostilaMétodos Matematicos

Seja [A](M×N)

real; [U ]M×M

e [V ]N×N

sao ortogonais.

[A](M×N)

= [U ](M×M)

[Σ](M×N)

[V ]T

(N×N)

, [A]T

(M×N)

= [V ](N×N)

[Σ]T

(N×M)

[U ]T

(M×M)

Demonstracao de 2.[A]

(M×N)

[A]T

(N×M)

= [U ][Σ][V ]T [V ]︸ ︷︷ ︸[I]

[Σ]T [U ]T = [U ] [Σ][Σ]T︸ ︷︷ ︸2

6

6

6

6

6

6

6

4

λ1 0λ2

. . .

0 λM

3

7

7

7

7

7

7

7

5

[U ]T

Pos-multiplicando por [U ]:

[([A][A]T )[U ] =

λ1 0λ2

. . .

0 λM

[U ] ⇒ [U ] e a matriz dos autovetores de ([A][A]T ).

Analogamente, demonstracao de 3.[A]T

(N×M)

[A](M×N)

= [V ][Σ]T [U ]T [U ]︸ ︷︷ ︸[I]

[Σ][V ]T = [V ][Σ]T [Σ]︸ ︷︷ ︸[λ]

[V ]T ⇒

⇒ [V ]T ([A]T [A])[V ] =

λ1 0λ2

. . .

0 λN

⇒ [V ] e a matriz dos autovetores de

([A]T [A]).

131

Page 130: ApostilaMétodos Matematicos

11.1.1 Armazenamento computacional

M > N :[A]

(M×N)

= [U ](M×M)

[Σ](M×N)

[V ]T

(N×N)

=

σ1 0σ2

. . .

0 σN

[0]

M

N

= M

N

N

N

σ1 0σ2

. . .

0 σN

N

N

M < N :[A]

(M×N)

= [U ](M×M)

[Σ](M×N)

[V ]T

(N×N)

=

σ1 0

. . . [0]0 σM

M

N

= M

M

M

M

σ1 0

. . .

0 σM

M

N

11.2 Algumas aplicacoes

11.2.1 Calculo da pseudo-inversa

[A](M×N)

⇒ [A]+

(N×M)

Hipotese:

M > N

E utilizado armazenamento computacional.

[A] real.

132

Page 131: ApostilaMétodos Matematicos

[A](M×N)

= [U ](M×M)

[Σ](M×N)

[V ]T

(N×N)

onde [Σ] =

σ1

σ2

. . .

σN

Teorema: A pseudo-inversa de [A] e dada por[A]+

(N×M)

= [V ](N×N)

[Σ]+

(N×M)

[U ]T

(M×M) , onde:

[Σ]+ =

σ+1

σ+2

. . .

σ+N

=

1/σ1

1/σ2

. . .

1/σN

σ+i = 1

σise σi > 0

σ+i = 0 se σi = 0

[Σ][Σ]+ = [I] se nao houver σi = 0, ja que σiσ+i = 1 ∀ σi 6= 0.

Propriedades da inversa generalizada:

1. [A][A]+[A] = [A]

[U ][Σ][V ]T [V ]︸ ︷︷ ︸[I]

[Σ]+[U ]T [U ]︸ ︷︷ ︸[I]

[Σ][V ]T = [U ][Σ][Σ]+︸ ︷︷ ︸[I]

[Σ][V ]T = [U ][Σ][V ]T = [A]

Observacao: O teste nao funciona numericamente se houver algum valor singularnulo, σi = 0.

Analogamente pode-se verificar que,

2. [A]+[A][A]+ = [A]+

[V ][Σ]+[U ]T [U ]︸ ︷︷ ︸[I]

[Σ][V ]T [V ]︸ ︷︷ ︸[I]

[Σ]+[U ]T = [V ][Σ]+[Σ]︸ ︷︷ ︸[I]

[Σ]+[U ]T = [V ][Σ]+[U ]T = [A]+

3. (a) ([A][A]+)T = [A][A]+ = [I]

([U ][Σ][V ]T [V ]︸ ︷︷ ︸[I]

[Σ]+[U ]T )T = ([U ][Σ][Σ]+︸ ︷︷ ︸[I]

[U ]T = [U ][U ]T = [I] (para [A] real).

(b) Analogamente verifica-se que,

([A]+[A])T = [A]+[A] = [I]

([V ][Σ]+[U ]T [U ]︸ ︷︷ ︸[I]

[Σ][V ]T )T = ([V ][V ]T )T = [I]

133

Page 132: ApostilaMétodos Matematicos

11.2.2 Decomposicao polar

Seja [A](N×N)

qualquer.

Tese: Existe uma decomposicao unica na forma,

[A](N×N)

= [U ](N×N)

[S](N×N)

onde

[U ] e unitaria e

[S] e hermitiana

{positivo-definida se [A] for nao singular.semi-positivo-definida se [A] for singular.

Nota: Se [A] for real ⇒ [U ] = [Q] ortogonal e[S] e real e simetrica.

Exemplo: [A](N×N)

real → [A] = [U ][Σ][V ]T .

Como [V ]T [V ] = [I] ([V ] e ortogonal)

[A] = [U ][V ]T︸ ︷︷ ︸[Q] ortogonal

[S]︷ ︸︸ ︷[V ][Σ][V ]T = [Q][S]

[S] → simetrica e no maximo semi-positivo definida, pois σi ≥ 0.

Teorema: Existe uma decomposicao polar reversa.

[A] = [U ][Σ][V ]T = ([U ][Σ][U ]T︸ ︷︷ ︸[S]

)([U ][V ]T︸ ︷︷ ︸[Q]

) = [S][Q], com

{[S] simetrica[Q] ortogonal

11.2.3 Resolucao de sistemas de equacoes

Sistemas homogeneos

[A](N×N)

{x} = {0}

Se |[A]| 6= 0 ⇒ solucao trivial unica {x} = [A]−1{0} = {0}Se |[A]| = 0 ⇒ um (ou mais) auto-valor nulo.

⇒ solucao nao trivial.

134

Page 133: ApostilaMétodos Matematicos

[A](N×N)

= [U ](N×N)

[Σ]

σ1

σ2

. . .

σr

0. . .

0

[V ]T

(N×N)

σi > 0 i ≤ rσi = 0 i = (r + 1), . . . , N

(11.1)

[U ] = [{u}1{u}2 · · · {u}N ]

[V ] = [{v}1{v}2 · · · {v}N ]

Pos multiplicando (11.1) por [V ],

[A] [V ] = [A] [{v}1 · · · {v}N ] = [U ] [Σ] [V ]T [V ]︸ ︷︷ ︸[I]

= [{u}1 · · · {u}N ]

σ1

. . .

σr

0. . .

0

Portanto

[A]{v}1 = σ1{u}1

[A]{v}2 = σ2{u}2

...

[A]{v}i = σi{u}i i = 1, 2, . . . , r

[A]{v}j = {0} j = (r + 1), (r + 2), . . . , N

{v}j, j = (r + 1), (r + 2), . . . , N ⇒ solucoes independentes de [A] {x} = {0}.Analogamente pode-se achar a solucao de [A]T{y} = {0}:Dado,

[A] = [U ] [Σ] [V ]T (11.2)

Pre-multiplicando (11.2) por [U ]T ,

[U ]T [A] = [U ]T [U ]︸ ︷︷ ︸[I]

[Σ] [V ]T (11.3)

Transpondo (11.3),

135

Page 134: ApostilaMétodos Matematicos

([U ]T [A])T = [A]T [U ] = [V ] [Σ]

[A]T [{u}1{u}2 · · · {u}N ] = [{v}1{v}2 · · · {v}N ]

σ1

σ2

. . .

σr

0. . .

0

[A]T{u}1 = σ1{v}1

[A]T{u}2 = σ2{v}2...[A]T{u}i = σi{v}i i = 1, 2, . . . , r[A]T{u}j = {0} j = (r + 1), (r + 2), . . . , N

{u}j, j = (r + 1), (r + 2), . . . , N ⇒ solucoes independentes de [A]T {y} = {0}.

11.2.4 Sistemas nao homogeneos

[A]N×N

{x} = {b}

{x}+ = [A]+ {b} = [V ][Σ]+[U ]T{b}

{x}+ =

| | || | || | |

1/σ1

1/σ2

. . .

1/σN

− − −− − −− − −

{b}

Como σi > 0, se [A]N×N

e nao singular, nao ha problema com 1σi> 0. Para [A] singular,

define-se 1σi

= 0 para σi = 0.

Notas:

• Utilizar SVD so se o sistema for muito mal condicionado (ou se |[A]| = 0).

• Alto custo computacional se a ordem do sistema for alta.

• {x}+ e tal que minimiza ‖[A] {x} − {b}‖2 (e equivalente a mınimos quadrados).

11.2.5 Sistemas retangulares

[A]M×N

real; [A]M×N

{x}N×1

= {b}M×1

Solucao usando pseudo inversa:

136

Page 135: ApostilaMétodos Matematicos

{x}+

N×1

= [A]+

N×M

{b}M×1

a) [A]M×N

= [U ]M×N

[Σ]N×N

[V ]T

N×N

M > N

{x}+ = [V ]N×N

[Σ]+

N×N

[U ]T

N×M

{b}M×1

M > N

b) [A]M×N

= [U ]M×M

[Σ]M×M

[V ]T

M×N

M < N

{x}+ = [V ]N×M

[Σ]+

M×M

[U ]T

M×M

{b}M×1

M < N

Notas:

• {x}+ minimiza ‖[A] {x} − {b}‖2.

• No caso a), M > N , {x}+ e solucao do problema de mınimos quadrados. Nessecaso, para N grande, utilizar SVD so se houver problema de mau condicionamento.

• No caso M < N (ou M = N mas [A] singular) o sistema e consistente ⇐⇒{b}T

1×M

{y}M×1

= 0 ∀{y}M×1

tal que [A]N×M

T {y}M×1

= {0}

11.2.6 Algoritmo SVD

(De Golub & Reinsch, 1970 [13]).

1. Transformacao de [A]M×N

real numa matriz [J ]0M×N

, bi-diagonal superior.

[A] = M

| | || | || | || | |

︸ ︷︷ ︸N

⇒ [J ]0 =

. . . . . . [0]. . . . . .

[0]. . .

[0]

︸ ︷︷ ︸N

M

[A] = M

− − − −− − − −− − − −

︸ ︷︷ ︸N

⇒ [J ]0 =

. . . . . . [0]. . . . . . [0]

[0]. . .

︸ ︷︷ ︸N

M

[A]M×N

= [P ]M×M

[J ]0M×N

[Q]T

N×N

⇒ [J ]0M×N

= [P ]T

M×M

[A]M×N

[Q]N×N

137

Page 136: ApostilaMétodos Matematicos

onde [Q] e [P ] sao matrizes de transformacao ortogonais (usando Householder)

Teorema: Os valores singulares de [A] e [J ]0 sao os mesmos.

2. Obtido [J ]0 aplica-se algum metodo para diagonalizar [J ]T0 [J ]0 ou [J ]0 [J ]T0 .

[J ]T0

. . .

. . . . . . [0]. . . . . .

N×M

[J ]0

. . . . . .. . . . . .

. . .

[0]

M×N

=

. . . . . . [0]

. . . . . . . . .

[0]. . . . . .

N×N

(tri-diagonal, simetrica).

Dos autovalores λi de [J ]T0 [J ]0, λi ≥ 0 calculam-se os σi =√λi (i = 1, . . . , N).

[J ]0M×N

= [G] [Σ] [H]T

onde

{[G] → matriz dos autovetores de [J ]0 [J ]T0[H] → matriz dos autovetores de [J ]T0 [J ]0

3. [A]M×N

= [U ] [Σ] [V ]T

onde

{[U ] = [P ] [G][V ] = [Q] [H] ⇒ [H]T [Q]T = [V ]T

138

Page 137: ApostilaMétodos Matematicos

Capıtulo 12

Integradores lineares para problemasde primeira ordem.

12.1 Introducao

Dado dy(t)dt

= f(y, t) com a condicao inicial y(t0) = y0 calcular y(t) para t ∈ [t0, tf ].

Nota: y0 e f(y, t) sao dados do problema. Se f(y) for nao linear a equacao diferenciale nao-linear.

Notacao:

y0 = y(t0)f0 = f(y0, t0)

y0 = dy(t0)dt

= f0

· · ·

yi = y(ti)fi = f(yi, ti)

yi = dy(ti)dt

= fi

Supoe-se o tempo discretizado em varios instantes, t0 < t1 < t2 < . . . < ti < ti+1 <. . . < tN , e conhecida a funcao f(y, t).

Hi−1 = ti − ti−1 e o passo de integracao.

Se Hi for constante, tN = t0 +NH.

12.2 Integradores lineares de um passo

yN+1 = H[β1f(yN+1, tN+1) + β2f(yN , tN)]

Nesse caso, para se obter yN+1 = y(tN+1), utilizam-se os dados do passo anterior tN ,(yN e f(yN , tN)).

Se β1 = 0 ⇒ yN+1 = Hβ2f(yN , tN)

O integrador e chamado explıcito. (yN+1 e obtido explicitamente qualquer que seja aforma da funcao f(y, t)).

Se β1 6= 0 ⇒ integrador implıcito.

12.2.1 Integradores explıcitos (β1 = 0)

Exemplo: Integrador de Euler para frente (forward Euler).

139

Page 138: ApostilaMétodos Matematicos

Proposto por Euler para resolver o problema da Brachistocrona1, e tem como funda-mento a expansao em serie de Taylor truncada na primeira ordem (aproximacao linear).

yN+1 = yN +Hf(yN , tN) (nesse caso β2 = ( yN

HfN+ 1))

Figura 12.1: Integrador de Euler.

yN+1 = yN +Hf(yN , tN)yN+2 = yN+1 +Hf(yN+1, tN+1)...O incremento da funcao e aproximado pela tangente:

HtgθN = Hf(yN , tN)

tgθN = yN+1−yN

H= yN = fN

tgθN+1 = yN+2−yN+1

H= yN+1 = fN+1

...————————————————————————————————-Exemplo: dy(t)

dt= y2 + y︸ ︷︷ ︸

f

yN+1 = yN +Hf(yN , tN) = yN +H(y2N + yN)

————————————————————————————————-

1 y

[1 +

(dy

dx

)2]

= C

140

Page 139: ApostilaMétodos Matematicos

12.2.2 Integradores implıcitos (β1 6= 0)

yN+1 = β1Hf(yN+1, tN+1) + β2Hf(yN , tN)

Exemplo: Integrador Crank-Nicolson (ou regra do trapezio, ou regra do ponto medio).

yN+1 = yN + H2[f(yN+1, tN+1) + f(yN , tN)]

Nesse caso yN+1 nao pode ser obtido diretamente da formula devido ao termo f(yN+1, tN+1)que e especıfico de cada equacao diferencial.

Exemplo: dydt

= y2 + y

yN+1 = yN +H

2[f(yN+1, tN+1) + f(yN , tN)]

yN+1 = yN +H

2[y2

N+1 + yN+1 + y2N + yN ]

Re-arranjando:

y2N+1 + (1 − 2

H)yN+1 + y2

N + (1 +2

H)yN = 0

A solucao deste polinomio de segundo grau fornece yN+1.

12.3 Metodos de 2 passos

yN+2 = β3Hf(yN+2, tN+2) + β2Hf(yN+1, tN+1) + β1Hf(yN , tN)

Nota: Os metodos multi-passos nao sao muito utilizados porque para o primeiro passoe necessario utilizar um outro metodo de um passo.

12.4 Runge Kutta explıcito de quarta ordem

dy(t)dt

= f(y, t)y0 = y(t0)

yN+1 = yN +1

6[K1 + 2K2 + 2K3 +K4]

onde,K1 = Hf(yN , tN) → passo de Euler no instante tN .K2 = Hf(yN + K1

2, tN + H

2) →Euler no instante tN + H

2= tN+ 1

2, usando K1 para

estimar yN+ 12

= (yN + K1

2).

K3 = Hf(yN + K2

2, tN + H

2) →Euler no instante tN + H

2= tN+ 1

2, usando K2 para

estimar yN+ 12

= (yN + K2

2).

141

Page 140: ApostilaMétodos Matematicos

Figura 12.2: Metodo de integracao explıcito de Runge-Kutta de ordem 4.

K4 = Hf(yN +K3, tN +H) →Euler no instante tN +H = tN+1, usando a estimativayN+1 = (yN +K3).

Runge-Kutta faz uma media ponderada entre as derivadas nos instantes tN , tN+ 12

e

tN+1, usando valores estimados de yN , yN+ 12

e yN+1, (usando Euler).

O Runge-Kutta explıcito e um dos melhores integradores explıcitos de 1 passo (paraproblemas de 1a ordem).

- A precisao e muito boa.- E adequado para problemas de ”transiente forte”.

Nota: Um metodo de primeira ordem pode ser aplicado numa equacao diferencial desegunda ordem.

Exemplo:

d2y(t)

dt2= f

(t, y,

dy

dt

)

Condicoes iniciais: y0 = y(t0)

y0 = dy(t0)dt

A equacao d2y(t)dt2

= f(t, y, dy

dt

)pode ser transformada num sistema de primeira ordem:

Define-se Z(t) = dydt

⇒ dZdt

= f(t, y, Z)Portanto,

{dy(t)

dtdZ(t)

dt

}=

{Z(t)

f(t, y, Z)

}

142

Page 141: ApostilaMétodos Matematicos

Com as condicoes iniciais: y0 = y(t0)

Z0 = Z(t0) = dydt

(t0)

12.4.1 Generalizacao para sistemas de equacoes diferenciais

Os integradores podem ser facilmente generalizados para sistemas de equacoes diferenciais.

Exemplo: Runge-Kutta

{ {dy(t)

dt

}= {f({y(t)}, t)}

{y}0 = {y(t0)}

}onde

{y} =

y1...yN

{dy(t)

dt

}=

dy1(t)dt...

dyN (t)dt

{f({y(t)}, t)} =

f1({y(t)}, t)...

fN({y(t)}, t)

H = tN+1 − tN{y}N+1 = {y}N + 1

6[{K1} + 2{K2} + 2{K3} + {K4}]

onde:

{K1} = H {f({y}N , tN)}

{K2} = H

{f({y}N +

1

2{K1}, tN +

H

2)

}tN+ 1

2= tN + H

2

tN+1 = tN +H

{K3} = H

{f({y}N +

1

2{K2}, tN +

H

2)

}

{K4} = H {f({y}N + {K3}, tN +H)}

12.5 Famılia de integradores trapezoidais

Seja o sistema de equacoes diferenciais:

[M ]{x} + [K]{x} = {F (t)}{x}0 = {x(t0)}

[M ](N×N)

real, simetrica, positivo-definida.

[K](N×N)

real, simetrica, semi-positivo-definida.

143

Page 142: ApostilaMétodos Matematicos

Notacao: {x}N+1 = {x(tN+1)}{x}N+1 = {x(tN+1)}{F}N+1 = {F (tN+1)}

Equacoes discretizadas da famılia de integradores trapezoidais.

[M ]{x}N+1 + [K]{x}N+1 = {F}N+1 (12.1)

{x}N+1 = {x}N + ∆t{x}N+α (12.2)

{x}N+α = {x}N(1 − α) + {x}N+1α α ∈ [0, 1] (12.3)

Observacao: Na equacao (12.2), se α = 0 ⇒ passo de Euler para frente.se α = 1 ⇒ passo de Euler para traz.

Da equacao (12.3){x}N+1 = 1

α( {x}N+α︸ ︷︷ ︸{x}N+1−{x}N

∆t

− (1− α){x}N) = 1α∆t

[{x}N+1 − {x}N −∆t(1− α){x}N ]

12.5.1 Integradores tıpicos

α Metodo Tipo

0Euler (Forward Euler)(Diferenca para frente)

Explıcito

1/2Crank-Nicolson

(Regra do trapezio)(Regra do ponto medio)

Implıcito

1Euler (Backward Euler)(Diferenca para traz)

Implıcito

Implementacao computacional: Forma {x}N+1

Forma {x}N+1

Os algoritmos tanto na forma {x}N+1 como na forma {x}N+1 sao obtidos utilizandoas equacoes (12.1), (12.2) e (12.3).

12.5.2 Algoritmos na forma {x}1.

[M ]{x} + [K]{x} = {F (t)}{x}0 = {x(t0)}

2. Calculo de {x}0 = {x(t0)}Da equacao (12.1) ⇒ {x}0 = [M ]−1({F}0 − [K]{x}0) (N = 0)

144

Page 143: ApostilaMétodos Matematicos

3. Calculo do valor preditor para {x}N+1.

{x}pN+1 = {x}N + (1 − α)∆t{x}N

Observacao: Para α = 0 ⇒ {x}pN+1 e obtido por um passo de Euler.

4. Resolver o sistema:

([M ] − α∆t[K]){x}N+1 = {F}N+1 − [K]{x}pN+1 (12.4)

A equacao (12.4) foi obtida das combinacoes das equacoes (12.1), (12.2) e (12.3).

Combinando (12.2) e (12.3):

{x}N+1 = {x}pN+1 + α∆t{x}N+1 (12.5)

Substituindo a equacao (12.5) na equacao (12.1) obtem-se a equacao (12.4).

5. {x}N+1 = {x}pN+1 + α∆t{x}N+1

6. N = N + 1

Se N ≤ Nmınimo repetir passo 3.

Observacao: A forma {x} e conveniente para α = 0 (explıcito).

12.5.3 Algoritmos na forma {x}N+1

1. Dados

2. {x}0 = [M ]−1({F}0 − [K]{x}0) (N = 0)

3. {x}pN+1 = {x}N + (1 − α)∆t{x}N

4. Resolver 1α∆t

[[M ] + α∆t[K]]{x}N+1 = {F}N+1 + 1α∆t

[M ]{x}pN+1

5.

{x}N+1 ={x}N+1 − {x}p

N+1

α∆t

6. N = N + 1

Se N ≤ Nmınimo repetir passo 3.

Observacao: A forma {x}N+1 nao e conveniente quando α = 0.

145

Page 144: ApostilaMétodos Matematicos

12.6 Caracterısticas relevantes de um integrador

• Convergencia

• Estabilidade

• Precisao

Convergencia: O algoritmo e convergente para um dado ti se {x}i → {x(ti)} (valorteorico exato) quando ∆t→ 0

Estabilidade: Diz respeito a forma como se da a convergencia.Precisao: E a taxa de convergencia com que {x}i → {x(ti)} quando ∆t→ 0, para um

dado ti.Quanto mais preciso for o algoritmo, maior pode ser o ∆t utilizado, para se obter o

mesmo erro.

12.6.1 Analise de estabilidade do algoritmo:

Normalmente a analise de estabilidade do algoritmo e feita tomando-se como referenciauma equacao diferencial linear que representa um sistema fısico estavel, por exemplo:

dy(t)

dt+ λy(t) = 0, λ > 0

A solucao exata e dada por y(t) = Ce−λt.Portanto, como λ ≥ 0, o sistema e estavel para qualquer perturbacao C 6= 0.

Figura 12.3: Convergencia.

Para qualquer C finito ⇒ y(t) → 0 quando t→ ∞.Para λ = 0 o sistema se mantem estavel na posicaoinicial, y(t) = constante = y.

Seja y(t) a solucao exata do problema,

{dy(t)

dt+ λy(t) = 0

y(0) = y(t0)

}λ ≥ 0

146

Page 145: ApostilaMétodos Matematicos

- Seja um dado integrador e as solucoes aproximadas pelo mesmo: y1, . . . , yN−1, yN , yN+1, . . .nos instantes t1, . . . , tN−1, tN , tN+1, . . .

- ∆t = tN+1 − tN- Se |yN+1|

|yN | ≤ 1 para qualquer ∆t⇒ o integrador e incondicionalmente estavel.

- Se |yN+1||yN | ≤ 1 para 0 ≤ ∆t ≤ ∆tcrıtico ⇒ o integrador e condicionalmente estavel.

- Se |yN+1||yN | > 1 para qualquer ∆t⇒ o integrador e instavel.

12.7 Analise dos integradores da famılia trapezoidal

Equacao diferencial de referencia:

y(t) + λy(t) = 0, λ ≥ 0 (12.6)

Passo preditor:

ypN+1 = yN + (1 − α)∆tyN (12.7)

Da equacao diferencial (12.6),yN = −λyN (12.8)

De (12.8) em (12.7):

ypN+1 = yN − (1 − α)λ∆tyN = (1 − (1 − α)λ∆t)yN (12.9)

Do algoritmo na forma {x}N+1:

1

α∆t(1 + α∆tλ)yN+1 = 0 +

ypN+1

α∆t= (1 − (1 − α)λ∆t)

yN

α∆tyN+1

yN= (1−(1−α)λ∆t)

(1+α∆tλ)= A⇒ Fator de amplificacao.

yN+1 = AyN

Condicao de estabilidade do integrador: |A| ≤ 1

|yN+1||yN |

= |A| ≤ 1

1. Para λ = 0 ⇒ A = 1, qualquer que seja ∆t.

2. Para λ > 0 ⇒ |A| ≤ 1 ou −1 ≤ A ≤ 1

Analise do termo A ≤ 1

A) Como

{λ > 0∆t > 0

}⇒ λ∆t > 0 ⇒

{(1 + αλ∆t) ≥ 1(1 − α)λ∆t ≥ 0

}⇒ (1−(1−α)λ∆t)

(1+αλ∆t)< 1 para

qualquer α ∈ [0, 1] e ∆t > 0.

147

Page 146: ApostilaMétodos Matematicos

B) Analise de, −1 ≤ (1−(1−α)λ∆t)(1+αλ∆t)

a. Para 12≤ α ≤ 1 ⇒ −1 < A qualquer que seja ∆t, (λ∆t).

Portanto para 12≤ α ≤ 1 ⇒ os integradores sao incondicionalmente estaveis.

b. Para 0 ≤ α < 12

:

−1 ≤ (1−(1−α)λ∆t)(1+αλ∆t)

−(1 + αλ∆t) ≤ (1 − (1 − α)λ∆t)

−2 ≤ (2α− 1)λ∆t

λ∆t ≤ 2(1−2α)

⇒ ∆t ≤ 2(1−2α)λ

∆tcrıtico = 2(1−2α)λMax

∴ ∆t ≤ ∆tcrıtico

Entao, para 0 ≤ α < 12⇒ o algoritmo e condicionalmente estavel.

O ∆tcrıtico depende do α sendo usado e de λMax, que e uma caracterıstica do sistemafısico sendo analisado.

(λMax → no caso de um sistema de equacoes diferenciais).

yN+1 = AyN

limAλ∆t→∞

= A∞

Figura 12.4: Fator de amplificacao.

Observacao: O valor de λ∆t para o qual A = 0 chama-se limite de oscilacao, (λ∆t)0.

148

Page 147: ApostilaMétodos Matematicos

yN+1 = AyN ⇒ yN+1 = A(N+1)y0.Para valores de ∆t > (λ∆t)0 ⇒ A < 0. Portanto A(N+1) muda de sinal em cada passo.Para α = 1

2e λ∆t >> 5 ⇒ |A| ≈ 1.

Havera pouco decaimento e as componentes modais altas se comportara como se A =(−1)N+1. Sao modos espurios gerados pelo integrador.

Solucao: Filtrar as oscilacoes atraves do uso da media entre dois passos consecutivos,yN+ 1

2= (yN+1 + yN)/2.

12.8 Escolha do integrador

Explıcito ou implıcito?

Criterio: Balanco entre os requisitos:

{- Precisao- Estabilidade

, do integrador em relacao ao

problema sendo resolvido.Seja ∆test = ∆tcrıtico em relacao a estabilidade do integrador, e ∆tprec = ∆t necessario

para atender os requisitos de precisao.

1. Se ∆tprec << ∆test ⇒ utilizar um integrador explıcito. Normalmente nesses casos aresposta do sistema envolve um transiente forte (solicitacao do tipo impacto, ondasde choque, etc...).

2. Se ∆tprec >> ∆test ⇒ utilizar um integrador implıcito. Normalmente quando sedeseja analisar regimes permanentes que envolvem os auto-valores mais baixos dosistema.

Exemplos para teste:

{dy(t)

dt= 4t

√y ye(t) = (1 + t2)2 0 ≤ t ≤ 2

y(0) = 0{dy(t)

dt= −10(y − 1)2 ye(t) = 1

1+10t 0 ≤ t ≤ 40

y(0) = 2

149

Page 148: ApostilaMétodos Matematicos

150

Page 149: ApostilaMétodos Matematicos

Bibliografia

[1] C. Lanczos: Linear differential operators. Van Nostrand, New York, 1961.

[2] L. Jezequel: Synthese Modale: Theorie et extensions. Tese de doutoramento, Uni-versite Claude Bernard (Lyon, France), 1985.

[3] P.E. Gill, W. Murray & M.H. Wright: Practical Optimization. Academic Press,(1981).

[4] G. Strang: Linear Algebra and its Applications. Harcourt Brace Jovanovich Publish-ers, 3rd edition (1988).

[5] J.R. Westlake: A Handbook of Numerical Matrix Inversion and Solution of Linear

Equations. Wiley (1968).

[6] B. Noble & J.W. Daniel: Applied Linear Algebra. Prentice-Hall, 2nd edition (1977).

[7] P. Eykhoff: System Identification. John Wiley & Sons Ltd. (1974).

[8] J.H. Wilkinson: The Algebraic Eigenvalue Problem. Oxford Press (1965).

[9] T.J.R. Hughes: The Finite Element Method. Prentice-Hall (1987).

[10] W.-F. Chen & A.F. Saleeb: Constitutive Equations for Engineering Materials, Vol.1, Chapter 1. Wiley (1982).

[11] E.H. Moore: On the Reciprocal of the General Algebric Matrix. Bulletin of theAmerican mathematical Society Number 26, pp. 394-395 (1920).

[12] R. Penrose: A Generalized Inverse for Matrices. Procedings of the Cambridge Philo-sophical Society Number 51, pp.406-413 (1955).

[13] G.H. Golub & C. Reinsch: SVD and Least Squares Solutions. Numerische Math., 14,pp. 403-420, (1970).

151