universidade federal do amazonas - ufam instituto...

48
UNIVERSIDADE FEDERAL DO AMAZONAS - UFAM INSTITUTO DE CIÊNCIAS EXATAS - ICE PROGRAMA DE PÓS-GRADUAÇÃO EM MATEMÁTICA MÉTODOS DE NEWTON PARA RESOLUÇÃO DE EQUAÇÕES NÃO-SUAVES VIA SUBDIFERENCIAL DE GAO SAMUEL DE OLIVEIRA VIEIRA MANAUS 2007

Upload: others

Post on 02-Feb-2020

5 views

Category:

Documents


0 download

TRANSCRIPT

UNIVERSIDADE FEDERAL DO AMAZONAS - UFAMINSTITUTO DE CIÊNCIAS EXATAS - ICE

PROGRAMA DE PÓS-GRADUAÇÃO EM MATEMÁTICA

MÉTODOS DE NEWTON PARA RESOLUÇÃO DE EQUAÇÕESNÃO-SUAVES VIA SUBDIFERENCIAL DE GAO

SAMUEL DE OLIVEIRA VIEIRA

MANAUS

2007

Livros Grátis

http://www.livrosgratis.com.br

Milhares de livros grátis para download.

UNIVERSIDADE FEDERAL DO AMAZONAS - UFAMINSTITUTO DE CIÊNCIAS EXATAS - ICE

PROGRAMA DE PÓS-GRADUAÇÃO EM MATEMÁTICA

SAMUEL DE OLIVEIRA VIEIRA

MÉTODOS DE NEWTON PARA RESOLUÇÃO DE EQUAÇÕESNÃO-SUAVES VIA SUBDIFERENCIAL DE GAO

Dissertação apresentada ao Programa de Pós-Graduação em Matemática da UniversidadeFederal do Amazonas, como requisito par-cial para obtenção do título de Mestre emMatemática, área de concentração em Geome-tria Diferencial com ênfase em Otimização.

Orientador: Prof. Dr. Nilomar Vieira de Oliveira

MANAUS2007

SAMUEL DE OLIVEIRA VIEIRA

MÉTODOS DE NEWTON PARA RESOLUÇÃO DE EQUAÇÕESNÃO-SUAVES VIA SUBDIFERENCIAL DE GAO

Dissertação apresentada ao Programa de Pós-Graduação em Matemática da UniversidadeFederal do Amazonas, como requisito par-cial para obtenção do título de Mestre emMatemática, área de concentração em Geome-tria Diferencial com ênfase em Otimização.

Aprovado em junho de 2007.

BANCA EXAMINADORA

.................................................................Prof. Dr. Nilomar Vieira de Oliveira, Orientador

Universidade Federal do Amazonas

.................................................................Prof. Dr. Mário Salvatierra JúniorUniversidade Federal do Amazonas

..................................................................Prof. Dr. Paulo Sérgio Marques dos Santos

Universidade Federal do Piauí.

AGRADECIMENTOS

Agradeço a Deus pela vida e oportunidade de estar concluindo este trabalho,pois, sem Ele nada seria realizado.

À minha querida esposa, pela compreensão, estímulo, carinho, paciência,cumplicidade e amor.

Agradeço ao meu orientador, professor Dr. Nilomar, por sua orientação, con-fiança e paciência.

Aos professores do Mestrado em Matemática da UFAM, em particular, aoprofessor e amigo Alfredo Wagner.

Agradeço aos meus amigos, pelo apoio e incentivo, principalmente, DomingosAnselmo, Raul Mesquita e Alcides Neto.

RESUMO

MÉTODOS DE NEWTON PARA RESOLUÇÃO DEEQUAÇÕES NÃO-SUAVES VIA SUBDIFERENCIAL

DE GAO

Apresentamos um trabalho baseado num artigo de Gao [16], o qual é uma extensãodos atuais métodos de Newton e métodos de Newton inexatos com os mesmosresultados de convergência. Nele, uma subdiferencial para função localmentelipschitziana é utilizada. Baseados nessa subdiferencial foram demonstrados osmétodos de Newton e métodos de Newton inexatos para solução de sistemas deequações não-suaves e para solução de sistemas de composições suaves de funçõesnão-suaves.

Palavras-chave: Equações não-suaves, otimização não-suave, métodos de Newton,métodos de Newton inexatos, semisuavidade.

ABSTRACT

NEWTON METHODS FOR SOLVING NONSMOOTHEQUATIONS VIA GAO’S SUBDIFFERENTIAL

We present a work based on a Gao’s paper [16], which is a extension of the Newtonmethods and inexact-Newton methods with same convergence results. In thesemethods, a new subdifferential for a locally Lipschitzian function is used. Basedon this subdifferential, Newton methods and inexact-Newton methods for solvingthe system of nonsmooth equations, are developed.

Keywords: Nonsmooth equations, nonsmooth optimization, Newton methods,inexact-Newton methods, semismoothness, composite functions.

Sumário

1 Generalidades 11.1 Definições e alguns fatos básicos . . . . . . . . . . . . . . . . . . . 1

1.1.1 Existência de soluções globais . . . . . . . . . . . . . . . . 11.2 Elementos de Análise Convexa . . . . . . . . . . . . . . . . . . . . 31.3 Funções convexas não-suaves . . . . . . . . . . . . . . . . . . . . . 61.4 Métodos de Newton e Newton Inexatos . . . . . . . . . . . . . . . 14

1.4.1 Convergência Local . . . . . . . . . . . . . . . . . . . . . . 151.4.2 Teorema das duas vizinhanças . . . . . . . . . . . . . . . 161.4.3 Convergência dos métodos Newton Inexatos . . . . . . . . 18

1.5 Método de Newton para equação não-suave . . . . . . . . . . . . . 191.5.1 Funções Semisuaves de várias variáveis . . . . . . . . . . . 19

2 Teoremas Principais 252.1 Os métodos de Newton e Newton inexatos . . . . . . . . . . . . . 262.2 Aplicações de composição suave de funções não-suaves . . . . . . 302.3 Considerações Finais . . . . . . . . . . . . . . . . . . . . . . . . . 35

Introdução

Otimização é um ramo da Matemática com muitas aplicações na atualidade.Consiste em encontrar os mínimos ou máximos de uma função de várias variáveis,com valores dentro de uma determinada região de um espaço multi-dimensional.Os responsáveis pela tomada de decisões nos mais variados campos das atividadeshumana defrontam-se, cotidianamente, com esse tipo de necessidade. A necessi-dade por resultados precisos, ou a própria curiosidade os conduzirá a formalizarvariáveis, restrições e objetivos, de maneira que a natureza do problema surja.A problemática de adequar um modelo matemático a sua situação real tambémpode ser formulada como problema matemático quase sempre de otimização.

O método de Newton foi classicamente usado para soluções de equações, sendogeneralizado pela primeira vez, não por Newton, mas pelo eminente matemáticodo século XVIII Simpson para a resolução de sistemas de equações suaves. Essemétodo é bastante utilizado, pois, sob certas condições nos pontos iniciais, garantesua convergência muito rápida, em certo sentido que definiremos posteriormente.No entanto, o estudo para a solução de equações não-diferenciáveis é relativamenterecente.

A análise não-suave teve suas origens no inícios dos anos 1970 quando os teóri-cos de controle ótimo e matemáticos que trabalhavam com a programação nãolinear tentaram lidar com as condições necessárias de otimalidade para proble-mas com dados não-suaves ou com funções não-suaves (tais como o máximo porpartes de funções suaves de várias variáveis) que surgem mesmo em problemascom dados suaves.

Na tentativa de lidar flexivelmente com tais problemas, vários conceitos dederivadas generalizadas (ponto-conjunto) foram propostos para substituir a nãoexistência da derivada. O objetivo era definir uma derivada generalizada paratodo ponto no domínio de uma função pertencendo a uma classe particular (taiscomo aquelas de funções localmente lipzchitziana).

O primeiro de tais gradientes generalizados comuns foi o gradiente genera-lizado introduzido por Clarke em seu trabalho pioneiro [6]. Ele aplicou sistemati-camente este gradiente generalizado para problemas não-suaves numa variedadede problemas e, por conseguinte abriu porta para estudar metodicamente prob-lemas não-suaves.

Neste trabalho abordaremos o método de Newton [2] para a solução de sis-temas de equações não-suaves através de um jacobiano generalizado, similar aode Clarke, no lugar da matriz jacobiana comum.

A estrutura do trabalho é a seguinte: no Capítulo 1 apresentaremos uma re-visão bibliográfica dos fatos básicos que utilizaremos ao longo da dissertação. NoCapítulo 2 provaremos o teorema principal, o qual diz que, sob certas condições, ométodo de Newton para sistemas não-suaves converge com taxaQ-superlinear. Também mostraremos que os métodos de Newton inexatos con-verge com taxa Q-linear. Após essa abordagem iremos elaborar as consideraçõesfinais desta pesquisa enfatizando os resultados obtidos e sua relevância para oestudo em Otimização.

Capítulo 1

Generalidades

Neste capítulo estudaremos alguns conceitos básicos sobre os problemas de otimi-zação. Serão apresentados os resultados de existência de extremos globais, ele-mentos de análise convexa, funções convexas e funções não diferenciáveis. Alémdisso, estudaremos os métodos de Newton e Newton Inexato, uma solução deequação não-suave para o método de Newton.

1.1 Definições e alguns fatos básicosSejam dados um conjunto D ⊂ Rn e uma função f : D → R. O problemaprincipal a ser considerado aqui é achar um minimizador de f no conjunto D.Este problema será escrito como

min f(x)

sujeito a x ∈ D. (1.1)

O conjunto D será chamado conjunto viável do problema, os pontos de Dserão chamados pontos viáveis, e f será chamada função objetivo.

Definição 1.1.1. Dizemos que um ponto x∗ ∈ D é:

1. minimizado global de (1.1), se

f(x∗) ≤ f(x),∀ x ∈ D; (1.2)

2. minimizador local de (1.1), se existe uma vizinhança U de x∗ tal que

f(x∗) ≤ f(x),∀ x ∈ D ∩ U. (1.3)

1.1.1 Existência de soluções globais

Agora estudaremos alguns critérios que garantem a existência de solução globale precisaremos de alguns resultados relativos a continuidade de uma função.

1

Definição 1.1.2. Seja f : X → Rn uma aplicação definida no conjunto X ⊂ Rn.Diz-se que f é contínua no ponto a ∈ X quando, para todo ε > 0 existe δ > 0tal que x ∈ X, com ‖x− a‖ < δ implicar que ‖f(x)− f(a)‖ < ε.

Definição 1.1.3. Dado X ⊂ Rm, uma aplicação f : X → Rn diz-se Lipschitzquando existe L > 0 (constante de Lipschitz) tal que, para quaisquer x, y ∈ X,tem-se ‖f(x)− f(y)‖ ≤ L‖x− y‖.

Definição 1.1.4. Diz-se que uma função f : Rn → Rm é localmente lipschitzianaquando para todo x0 ∈ Rn, existem L = Lx0 > 0 e δx0 > 0, tais que

‖f(x)− f(y)‖ ≤ Lx0‖x− y‖,

para todo x, y ∈ B(x0, δxo).

Propriedades:

P1 - Toda aplicação localmente lipschitiziana é contínua. De fato, dado ε > 0,basta tomar δ = ε

L. Então ‖x− y‖ < δ ⇒ ‖f(x)− f(y)‖ ≤ L‖x− y‖ < L. ε

L= ε.

P2 - Toda tranformação linear A : Rm → Rn é lipschitziana. Com efeito, sejac = max‖A.e1‖, · · · , ‖A.em‖. Então, para todo x = (x1, · · · , xm) ∈ Rm temos

‖A.x‖ = ‖A.(Σxiei)‖ = ‖ΣxiAei‖ ≤ Σ‖xi‖.‖A.ei‖ ≤ c.Σ‖xi‖.Tomando em Rm a norma da soma, temos ‖A.x‖ ≤ c.‖x‖ para todo x ∈ Rm.

Então, para x, y ∈ Rm arbitrário, vale:

‖Ax− Ay‖ = ‖A.(x− y)‖ ≤ c‖x− y‖.Assim, a transformação linear A cumpre a condição de Lipschitz, com uma

constante igual ou maior das normas dos vetores-coluna de sua matriz. Em par-ticular, A é contínua.

Teorema 1.1.1. (Weierstrass) Sejam D ⊂ Rn um conjunto compacto não vazioe f : D → R uma função contínua. Então, o problema (1.1) tem solução global.

(ver [3]).

A hipótese de que o conjunto viável seja compacto só pode ser eliminada nosresultados de existência de solução ao custo de fortalecimento das hipóteses so-bre a função objetivo. Neste sentido, a noção de conjunto de nível é fundamental.

Definição 1.1.5. O conjunto de nível da função f : D → R associado a c ∈ R,é o conjunto dado por

Lf,D(c) = x ∈ D | f(x) ≤ c.

2

Corolário 1.1.1. Sejam D ⊂ Rn e f : D → R contínua no conjunto D. Supo-nhamos que existe c ∈ R tal que o conjunto de nível Lf,D(c) seja não vazio ecompacto. Então o problema (1.1) possui uma solução global.

(ver [1]).

Definição 1.1.6. Dizemos que uma função f : D → R é semicontínua inferior-mente no ponto x ∈ D ⊂ Rn, quando para qualquer seqüência xk ⊂ D tal quexk → x (k →∞), tem-se

lim infk→∞

f(xk) ≥ f(x).

Dizemos que f é semicontínua superiormente quando, nas mesmas condições,

lim supk→∞

f(xk) ≤ f(x).

A partir desta seção suponhamos que f : D ⊂ Rn → R está bem definida etem derivadas primeiras em um aberto Ω que contém o conjunto D.

1.2 Elementos de Análise ConvexaNesta seção vamos tratar de alguns conceitos básicos a respeito dos conjuntosconvexos e funções convexas em Rn as quais serão utilizados nas seções seguintes.Estudaremos algumas propriedades das funções convexas e demonstraremos al-guns resultados. Os resultados de análise convexa utilizados nesta seção encon-tram em [1, 2, 3].

Definição 1.2.1. Um conjunto D ⊂ Rn é chamado conjunto convexo se paraquaisquer x, y ∈ D e α ∈ [0, 1], tem-se αx+ (1− α)y ∈ D.

Um conjunto convexo é caracterizado por conter todos os segmentos cujosextremos pertencem ao conjunto.

Teorema 1.2.1. Um conjuntoD ⊂ Rn é convexo se, e somente se, para quaisquerx1, · · · , xm elementos de D e para αi ∈ [0, 1], i = 1, · · · ,m tais que Σm

i=1αi = 1, acombinação convexa Σm

i=1αixi também é um elemento de D.

(ver [2]).

Teorema 1.2.2. (Carathéodory)Seja x ∈ Rn uma combinação convexa de pontos do conjunto D ⊂ Rn. Entãoexistem xi ∈ D e αi ∈ R+, i = 1, . . . , n+1, tais que x =

∑n+1i=1 αixi,

∑n+1i=1 αi = 1.

Demonstração: Pela hipotese, existe p ∈ N tal que

x =

p∑i=1

βixi, xi ∈ D, βi ∈ R+, i = 1, . . . , p,

p∑i=1

βi = 1. (1.4)

3

Mostraremos que se p > n + 1, então x pode ser escrito como uma combinaçãoconvexa de p − 1 pontos de D. Isto prova que podemos eliminar um ponto decada vez, até chegar a n+ 1 pontos, que é a afirmação do teorema.

Se em (1.4) temos βi = 0 para algum i ∈ 1, . . . , p, o ponto x já é umacombinação convexa de p − 1 pontos de D (podemos simplesmente eliminar darepresentação (1.4) o ponto xi correspondente).

Suponhamos então que βi > 0 para todo i = 1, . . . , p. Como p > n + 1,para quaisquer p − 1 > n elementos do Rn são linearmente dependentes. Logo,xi − xp, i = 1, . . . , p − 1 são linearmente dependentes, i.e., existemγi ∈ R, i = 1, . . . , p− 1 (não todos nulos), tais que

0 =

p−1∑i=1

γi(xi − xp). (1.5)

Definimos γp = −∑p−1

i=1 γi. Com esta definição,

p∑i=1

γi =

p−1∑i=1

γi + γp = 0, (1.6)

e ainda,

p∑i=1

γixi =

p−1∑i=1

γixi + γpxp

=

p−1∑i=1

γixi −

p−1∑i=1

γi

xp = 0, (1.7)

onde a última igualdade segue de (1.5). Seja j ∈ 1, . . . , p qualquer índicesatisfazendo

γj

βj

= maxi=1,...,p

γi

βi

.

Definimosqi = βi −

βj

γj

γi, i = 1, . . . , p.

É óbvio que qi ≥ qj = 0 para todo i = 1, . . . , p. E ainda,

p∑i=1, i6=j

qi =

p∑i=1

qi =

p∑i=1

βi −βj

γj

p∑i=1

γi =

p∑i=1

βi = 1,

onde usando (1.6) e (1.4). Além disso,

x =

p∑i=1

βixi =

p∑i=1

qixi +βj

γj

p∑i=1

γixi =

p∑i=1

qixi =

p∑i=1, i6=j

qixi,

usando (1.7). Acabamos de mostrar que se p > n + 1, x pode ser representadocomo combinação convexa de p − 1 pontos de D. Repetindo este argumentop− (n+ 1) vezes, chegamos ao resultado desejado.

4

Definição 1.2.2. Seja D ⊂ Rn um conjunto qualquer. O fecho convexo de D, de-notado conv D, é o menor conjunto convexo em Rn que contém D(ou, equivalentemente, a interseção de todos os conjuntos convexos em Rn quecontêm D).

Proposição 1.2.1. Seja D ⊂ Rn um conjunto qualquer. O fecho convexo de Dé o conjunto de todas as combinações convexas de pontos de D.

(ver [1])

Proposição 1.2.2. Seja D ⊂ Rn um conjunto compacto. Então conv D é com-pacto.

(ver [1])

Definição 1.2.3. Dizemos que x ∈ D é um ponto extremo do conjunto convexoD quando x não pode ser representado por uma combinação convexa de doispontos diferentes de D, i.e., não existem xi ∈ D\x, i = 1, 2 e α ∈ (0, 1) taisque x = αxi + (1− α)x2.

Definição 1.2.4. Se D é um conjunto convexo, f : D → R é uma função convexase para todo x, y ∈ D,λ ∈ [0, 1],

f(λx+ (1− λ)y) ≤ λf(x) + (1− λ)f(y).

Definição 1.2.5. Se D é um conjunto convexo, chama-se epigrafo de f : D → Rao conjunto

(x, y) ∈ Rn × R | x ∈ D, y ≥ f(x).

Teorema 1.2.3. A função f : D → R é convexa se, e somente se, o epigrafo def é convexo.

(ver [2]).

Proposição 1.2.3. Sejam g : Rn → R uma função convexa, ψ : R → R umafunção convexa e não decrescente. Então a função f : Rn → R, f(x) = ψ(g(x)) éconvexa.

(ver [1]).

Teorema 1.2.4. Suponhamos que o conjunto D ⊂ Rn seja convexo e a funçãof : D → R seja convexa em D. Então o conjunto de nível

Lf,D(c) = x ∈ D | f(x) ≤ c é convexo para todo c ∈ R.

(ver [1]).

A convexidade de todos os conjuntos de nível de uma função não é suficientepara dizer se ela é convexa. Como consequência do Teorema 1.2.4, obtemosuma condição suficiente para garantir a convexidade de um conjunto definido porrestrições funcionais.

5

Corolário 1.2.1. Seja Ω ⊂ Rn um conjunto convexo. Sejam g : Rn → Rm umafunção convexa e h : Rn → Rl uma função afim. Então o conjuntoD = x ∈ Ω | h(x) = 0, g(x) ≤ 0 é convexo.

(ver [1])

Em geral, para garantir a convexidade de um conjunto com a estrutura es-pecificada no Corolário 1.2.1, as restrições de igualdade têm de ser lineares.

Teorema 1.2.5. Sejam D ⊂ Rn um conjunto convexo aberto e f : D → R umafunção convexa em D. Então f é localmente Lipschitz-contínua em D. Em par-ticular, f é contínua em D.

(ver [1])

Teorema 1.2.6. Seja f : Rn → R uma função convexa. Suponhamos que existac ∈ R tal que o conjunto de nível

Lf,Rn(c) = x ∈ Rn | f(x) ≤ c

é não vazio e limitado. Então Lf,Rn(t) é limitado ∀ t ∈ R.

(ver [1])

Teorema 1.2.7. Sejam D ⊂ Rn um conjunto convexo compacto e f uma funçãoconvexa num conjunto aberto que contém D. Então o problema

max f(x)sujeito a x ∈ D

tem uma solução que é um ponto extremo de D.

(ver [1])

1.3 Funções convexas não-suavesNesta seção estudaremos as propriedades de funções convexas não diferenciáveis.Esta classe de função é muito importante porque a perda da diferenciabilidadeacontece em otimização com frequência. Por exemplo o supremo de uma funçãoconvexa é uma função convexa, figura 1.1, mas como pode ser visto com facilidade,em geral ela não é diferenciável mesmo quando as funções que definem o supremosão diferenciáveis. Mostraremos no entanto, que uma função convexa possuiderivadas direcionais e possui ainda uma derivada generalizada, que chamamossubdiferencial.

A seguir mostraremos que a derivada direcional de uma função convexa ésemicontínua superiomente. Mostraremos também que se a função convexa édiferenciável, então a sua derivada é contínua.

6

Figura 1.1: Em geral a função máximo não é diferenciável, mesmo quando as suasfunções f1 e f2 são diferenciáveis

Teorema 1.3.1. (Derivadas direcional de uma função convexa)Seja f : Rn → R uma função convexa. Então para todo x ∈ Rn, f é diferenciávelem cada direção d ∈ Rn. Além disso,

f(x+ αd) ≥ f(x) + α.f ′(x; d),∀ α ∈ R+.

Demonstração: Seja x ∈ Rn um ponto fixo e d ∈ Rn arbitrário. Definimos

ψ : R → R, ψ(α) = f(x+ αd).

Pela definição, temos que mostrar a existência do limite

(i) f ′(x; d) = limα→0+

f(x+ αd)− f(x)

α

(ii) f ′(x; d) = limα→0+

ψ(α)− ψ(0)

α.

Como f é localmente Lipschitz-contínua em torno de x, Teorema 1.2.5, existemL > 0 e α > 0 tais que

‖f(x+ αd)− f(x)‖ ≤ Lα‖d‖, ∀ α ∈ [0, α].

Logo,

‖ψ(α)− ψ(0)‖α

≤ L‖d‖,

7

i.e., a função α−1(ψ(α)−ψ(0)) é limitada no conjunto [0, α]. Mostraremos agoraque ela também é não decrescente em [0, α].

Sejam β ≥ α > 0. Logo, existe um certo t ∈ (0, 1] tal que α = tβ =(1− t)0 + tβ. Pela convexidade de ψ,

ψ(α) ≤ (1− t)ψ(0) + tψ(β).

Portanto,

ψ(α)− ψ(0)

α≤ (1− t)ψ(0) + tψ(β)− ψ(0)

α

=t(ψ(β)− ψ(0))

=ψ(β)− ψ(0)

β

Isto mostra que a função α−1(ψ(α)−ψ(0)) é monotona quando α→ 0+. Comoela é limitada (em particular inferiormente), segue-se que o limite existe. Ainda,pela monotonicidade, esta função não pode ultrapassar o seu limite. Portanto,

α−1(ψ(α)− ψ(0)) ≥ f ′(x; d),

ou seja,f(x+ αd) ≥ f(x) + αf ′(x; d).

Os argumentos acima também mostram que, para uma função convexa, tem-se

(i) f ′(x; d) = limα→0+

f(x+ αd)− f(x)

α

(ii) = infα>0

f(x+ αd)− f(x)

α.

Mostraremos na proposição abaixo que a derivada direcional de uma funçãoconvexa é semicontinua superiormente.

Proposição 1.3.1. Seja f : Rn → R uma função convexa. Então para quaisquerduas seqüências xk → x, dk → d (k →∞), tem-se que

lim supk→∞

f ′(xk; dk) ≤ f ′(x; d).

Mais ainda, se f é diferenciável no Rn, então a derivada de f é contínua no Rn.

Demonstração: Pela segunda igualdade (ii) acima, para todo ε > 0 existe α > 0tal que

f(x+ αd)− f(x)

α< f ′(x; d) + ε.

Portanto, pela continuidade de f (Teorema 1.2.5), para todo k suficientementegrande, tem-se que

8

f(xk + αdk)− f(xk)

α< f ′(x; d) + ε.

Por outro lado, da segunda igualdade (ii) segue-se que

f ′(xk; dk) ≤f(xk + αdk)− f(xk)

α.

Portanto,f ′(xk; dk) < f ′(x; d) + ε,

dondelim sup

k→∞f ′(xk; dk) < f ′(x; d) + ε.

Como ε > 0 é arbitrário, isto implica o resultado desejado.Suponhamos agora que f seja diferenciável no Rn. Sejam xk → x

(k →∞) e d ∈ Rn quaisquer. Temos que

lim supk→∞

〈f ′(xk), d〉 = lim supk→∞

f ′(xk; d)

≤ f ′(x; d) = 〈f ′(x), d〉− lim inf

k→∞〈f ′(xk), d〉 = lim sup

k→∞〈f ′(x),−d〉

= lim supk→∞

f ′(xk;−d)

≤ f ′(x;−d) = −〈f ′(x), d〉.

Portanto,lim sup

k→∞〈f ′(xk), d〉 ≤ 〈f ′(x), d〉 ≤ lim inf

k→∞〈f ′(xk), d〉,

i.e.,

lim infk→∞

〈f ′(xk), d〉 = lim supk→∞

〈f ′(xk), d〉

= limk→∞

〈f ′(xk), d〉 = 〈f ′(x), d〉,

onde xk → x (k →∞) e d ∈ Rn são arbitrários. Logo,

limk→∞

f ′(xk) = f ′(x),

i.e., f ′ é contínua.

Definição 1.3.1. Seja f : Rn → R uma função convexa. Dizemos que y ∈ Rn éum subgradiente de f no ponto x ∈ Rn se

f(z) ≥ f(x) + 〈y, z − x〉,∀ z ∈ Rn.

O conjunto de todos os subgradientes de f em x chama-se subdiferencial, de-notamos por ∂f(x). O subgradiente define uma aproximação linear de f cujográfico fica abaixo daquele de f e cujo valor coincide com f no ponto x. No

9

Figura 1.2: Os elementos y1 e y2 são subgradientes de f em x, i.e., para todo ztem-se que f(z) ≥ f(x) + 〈yi, z − x〉, i = 1, 2.

caso diferenciável o subgradiente é único: ∂f(x) = f ′(x). Mas no caso nãodiferenciável, uma função convexa admite mais de um subgradiente.

Considerando z ∈ Rn como z = x + αd, onde d ∈ Rn, α > 0, a definição desubgradiente pode ser escrita da maneria seguinte:

y ∈ ∂f(x) ⇔ f(x+ αd)− f(x)

α≥ 〈y, d〉,∀ d ∈ Rn,∀ α > 0. (1.8)

Pelo Teorema 1.3.1, α−1(f(x + αd) − f(x)) é uma função não decrescente,possui limite quando α → 0+. Portanto, (1.8) são equivalentes às condiçõesseguintes:

f ′(x; d) = limα→0+

f(x+ αd)− f(x)

α≥ 〈y, d〉,∀ d ∈ Rn,

ou,

∂f(x) = y ∈ Rn | f ′(x; d) ≥ 〈y, d〉,∀ d ∈ Rn (1.9)

Mostraremos agora que uma função convexa definida em todo o espaço, osubdiferencial dela é um conjunto convexo, compacto e não vazio em cada ponto.

Teorema 1.3.2. Seja f : Rn → R uma função convexa. Então para todo x ∈ Rn,o conjunto ∂f(x) é convexo, compacto e não vazio. Além disso, para todo d ∈ Rn,tem-se

f ′(x; d) = maxy∈∂f(x)

〈y, d〉. (1.10)

Demonstração: Por (1.9), temos

∂f(x) = y ∈ Rn | f ′(x; d) ≥ 〈y, d〉, ∀ d ∈ Rn= ∩ d∈Rny ∈ Rn | f ′(x; d) ≥ 〈y, d〉.

10

Como a interseção de semi-espaços fechados é convexo e fechado, obteremosque ∂f(x) é convexo e fechado. Mostraremos agora que ∂f(x) também é limitado.

Caso ∂f(x) = ∅ (ainda não provamos o contrário), o subdiferencial é li-mitado trivialmente. Suponhamos que exista uma sequência yk ⊂ ∂f(x) talque ‖yk‖ → ∞ (k → ∞). Para todo k, seja dk = yk

‖yk‖. Podemos admitir, sem

perda de generalidade, que dk → d (k →∞). Por (1.9), obtemos que

‖yk‖ = 〈yk, dk〉 ≤ f ′(x, dk).

Portantolim sup

k→∞‖yk‖ ≤ lim sup

k→∞f ′(x; dk) ≤ f ′(x; d) < +∞,

onde a segunda desigualdade segue da Proposição (1.3.1). Isto contradiz a hipótesede que ‖yk‖ → ∞(k →∞). Logo, ∂f(x) é limitado.

Agora provaremos (1.10) e ao mesmo tempo verificaremos que ∂f(x) 6= ∅.Fixamos d ∈ Rn arbitrário. Pela análise de (1.9),

f ′(x; d) ≥ maxy∈∂f(x)

〈y, d〉,

onde o máximo existe pelo Teorema de Weierstrass, Teorema 1.1.1, porque ∂f(x)é compacto. Suponhamos que (1.10) não aconteça, i.e.,

f ′(x; d) > 〈y, d〉, ∀ y ∈ ∂f(x). (1.11)

Definimos os seguintes conjuntos (veja figura):

Figura 1.3: Os conjuntos D1 e D2 na prova do teorema

11

D1 = (z , c) ∈ Rn × R| c > f(z ),

D2 =

(z , c) ∈ Rn × R

∣∣∣ c = f(x) + αf ′(x; d),z = x+ αd, α ∈ R+

,

É claro que D2 é convexo. O conjunto D1 é o epígrafo de f sem a fronteira.Portanto, ele também é convexo, pela convexidade de f (a prova do Teorema1.2.3 pode ser facilmente adaptado para mostrar que isto).

Se D1 ∩D2 6= ∅, teríamos que

f(x+ αd) < f(x) + αf ′(x; d)

para algum α ∈ R+, em contradição com o Teorema 1.3.1. Portanto, D1∩D2 = ∅.Pelo Teorema da Separação (ver [1]), existe um certo (u, β) ∈ (Rn ×R) \ 0

tal que

〈u, z 〉+ βc ≤ 〈u, x+ αd〉+ β(f(x) + αf ′(x; d)) (1.12)∀z ∈ Rn, ∀ α ∈ R+,∀ c > f(z ).

Se fosse β = 0, teríamos

〈u, z 〉 ≤ 〈u, x+ αd〉 ∀ z ∈ Rn,

o que só pode acontecer quando u = 0. Como (u, β) 6= 0, concluindo então queβ 6= 0.

Suponhamos que β > 0. Escolhendo z = x e α = 0 em (1.12), temos queβc ≤ βf(x), então c ≤ f(x), o que é uma contradição a (1.12).

Concluímos então que β < 0. Dividindo os dois lados em (1.12) por β < 0,obtemos

c + 〈uβ, z − x〉 ≥ f(x) + αf ′(x; d) + α〈u

β, d〉 (1.13)

∀z ∈ Rn, ∀ α ∈ R+,∀ c > f(z ).

Tomando os limites α→ 0+ e c → f(z)+, temos que

f(z) ≥ f(x)− 〈uβ, z − x〉 ∀z ∈ Rn,

i.e., −uβ∈ ∂f(x), pela definição de subgradiente. Em particular, acabamos de

mostrar que ∂f(x) 6= ∅. Tomando ainda em (1.13) α = 1 e z = x, e passando aolimite c → f(z)+, temos

0 ≥ f ′(x; d) + 〈uβ, d〉.

Temos então que〈−uβ, d〉 ≥ f ′(x; d), −u

β∈ ∂f(x),

em contradição com (1.11). Portanto, (1.10) tem que ser satisfeita.

12

Lema 1.3.1. Seja f : Rn → R uma função diferenciável. Então f é convexa se,e somente se,

f(y) ≥ f(x) + 〈∇f(x), y − x〉, (1.14)

para todo y em Rn.

Demonstração: Seja f uma função convexa. Para x, y ∈ Rn e α ∈ (0, 1) arbi-trários, temos da definição de convexidade que

f(αy + (1− α)x)− f(x) ≤ α[f(y)− f(x)].

Sabemos que αy+(1−α)x = x+α(y−x), dividindo tudo por α e fazendo α→ 0,o lado direito da desigualdade acima tende a 〈∇f(x), y − x〉. Logo, (1.14) estádemonstrada.

Reciprocamente, tome x1 e x2 em Rn, α ∈ (0, 1) e defina x := αx1 +(1 − α) x2 ∈ Rn. Por hipótese, f(xi) ≥ f(x) + 〈∇f(x), xi − x〉, para i = 1, 2.Usando combinação convexa, obtemos

αf(x1) + (1− α)f(x2) ≥ f(x) + 〈∇f(x), αx1 + (1− α)x2 − x〉,

após simplificação resulta em

αf(x1) + (1− α)f(x2) ≥ f(αx1 + (1− α)x2).

Concluimos que ∇f(x) ∈ ∂f(x). Mostraremos no próximo teorema que de f éuma função diferenciável, então o conjunto ∂f(x) contém somente ∇f(x).

Teorema 1.3.3. Uma função convexa f : Rn → R é diferenciável no pontox ∈ Rn se, e somente se, o conjunto ∂f(x) contém um só elemento. Neste caso,∂f(x) = f ′(x).

Demonstração: Pela definição da subdiferencial, para todo x ∈ Rn, segue quef(y) ≥ f(x) + 〈s, y − x〉. Tomando y = x+ td ∈ Rn, obteremos

〈s, d〉 ≤ f ′(x; d) = limt→0

f(x+ td)− f(x)

t,

para todo t > 0. Mas, por hipótese, f é uma função diferenciável, o que implicaem 〈s, d〉 ≤ 〈∇f(x), d〉, para todo d ∈ Rn. Portanto, s = ∇f(x).

Veremos a seguir que x∗ é minimizador de f para todo x ∈ Rn quando 0 forum elemento da ∂F (x∗).

13

Proposição 1.3.2. Seja f : Rn → R uma função convexa. O ponto x∗ ∈ Rn éum minimizador de f se, e somente se, 0 ∈ ∂f(x∗).

Demonstração: Suponhamos inicialmente que f(x) ≥ f(x∗), para todo x ∈ Rn.Pela definição de subdiferencial temos: f(x) ≥ f(x∗) + 〈0, x − x∗〉. Portanto,0 ∈ ∂f(x∗).

Reciprocamente, para todo x ∈ Rn, segue da definição de subdiferencial quef(x) ≥ f(x∗) + 〈s, x − x∗〉, para todo x ∈ Rn. Como 0 ∈ ∂f(x∗), temos f(x) ≥f(x∗) + 〈0, x− x∗〉 e portanto, x∗ é um mínimo de f .

1.4 Métodos de Newton e Newton InexatosNesta seção, faremos um resumo dos método de Newton e métodos de Newtoninexatos, que se baseiam no princípio de achar os zeros das funções. Os métodosque estudaremos são paradigmáticos: o objetivo final é resolver um problema"difícil" (neste caso F (x) = 0), a solução do qual vai sendo aproximada por umasequência de pontos xk. A aproximação xk+1 é a solução do problema "fá-cil". O problema fácil muda de uma iteração para a seguinte e, via de regra,sua solução está cada vez mais próxima da solução do problema difícil original.No nosso problema atual, o k-ésimo termo do problema fácil vem considerar aaproximação de Taylor de primeira ordem de F (x), numa vizinhança do pontoatual xk.

Seja F : Ω → Rn, com Ω ⊂ Rn aberto e convexo e F ∈ C1(Ω). Portanto, paratodo x ∈ Ω,

limh→0

‖F (x+ h)− F (x)− J(x)h‖‖h‖

= 0 (1.15)

Suporemos também que x∗ ∈ Ω e que F (x∗) = 0 e J(x∗) é não-singular.

F (x) ≈ Lk(x) = F (xk) + J(xk)(x− xk) (1.16)

seguindo o princípio descrito acima, o ponto seguinte xk+1 é uma solução de

Lk(x) = 0 (1.17)

Se J(xk) é não-singular, (1.17) tem solução única e a iteração de Newtonconsiste em resolver um sistema linear:

J(xk)sk = −F (xk),

xk+1 = xk + sk. (1.18)

A implamentação de (1.18) pressupõe o cálculo de J(xk), isto é, a avaliação dasderivadas primeiras das funções fi(x), i = 1, . . . , n. O método de Newton possui

14

Figura 1.4: A inclinação da reta tangente é f ′(x0) = f(x0)/(x0−x1), para k = 0,segue que x1 = x0 − f(x0)/f

′(x0).

uma propriedade única entre os algoritmos para resolver sistemas: a invariân-cia por mudança de coordenadas, tanto no espaço domínio quanto no contra-domínio. No contra-domínio, isto signfica que as iterações de Newton aplicadas aF (x) = 0 são as mesmas aplicadas ao sistema AF (x) = 0, para quaisque matrizA não-singular. A invariância no domínio consiste em que, se xk é a seqüêncianewtoniana para F (x) = 0, então os iterandos para o sistema F (Ax + b) = 0,com A não-singular e com aproximação inicial Ax0 + b, são os pontos da formaAxk + b.

O trabalho realizado em uma iteração do método de Newton consiste na avalia-ção de F em xk e suas derivadas tem um custo de o(n3

3) operações necessárias

para resolver (1.18), quando J é não singular.

1.4.1 Convergência Local

Diremos que um método possui convergência local em relação a determinado tipode solução do problema considerando se, cada uma solução x∗ desse tipo, existeε > 0 tal que toda seqüência xk gerada pelo algoritmo onde ‖x0 − x∗‖ ≤ ε,converge para x∗. Os resultados de convergência local estão quase sempre asso-ciados a resultados de ordem de convergência.

Diremos que uma seqüência xk converge linearmente para x∗ relativamenteà norma ‖ · ‖ se existem k0 ∈ N e r ∈ (0, 1) tais que, para todo k ≥ k0,

‖xk+1 − x∗‖ ≤ r‖xk − x∗‖, (1.19)

A convergência de xk para x∗ será chamada superlinear se existe umaseqüência rk com rk > 0 tendendo a 0, tal que

‖xk+1 − x∗‖ ≤ rk‖xk − x∗‖ (1.20)

15

para todo k = 0, 1, 2, . . .. Pela equivalência das normas em Rn a convergência deuma seqüência independe da norma. Ao mesmo tempo, se xk → x∗ superlinear-mente, então dado qualquer r ∈ (0, 1) e qualquer norma em Rn, a desigualdade(1.19) acabará se verificando para k0 suficientemente grande, ou seja, teremosconvergência linear.

Se xk → x∗ e existem k0 ∈ N, c > 0 e p > 0 tais que, ∀ k ≥ k0

‖xk+1 − x∗‖ ≤ c‖xk − x∗‖p+1, (1.21)

diremos que xk converge para x∗ com ordem pelo menos p+ 1. Quanto maiorfor p mais rapidamente xk tenderá a x∗. Em particular, quando p = 1 dizemosque a convergência é quadrática.

Para a prova da convergência quadrática do método de Newton vamos suporque existam L > 0 e p > 0 tais que, em uma vizinhança de x∗,

‖J(x)− J(x∗)‖ ≤ L‖x− x∗‖p (1.22)

onde ‖ · ‖ é uma norma qualquer em Rn bem como a norma de matrizes consis-tentes associadas em Rn×n.

Para tal prova, precisaremos de duas propriedades:

1. Para todos x, z ∈ Ω,

‖F (z)− F (x)− J(x∗)(z − x)‖ ≤ L‖x− z‖ max ‖x− x∗‖p, ‖z − x∗‖p.

2. Para todo x ∈ Ω temos:

‖F (x)− J(x∗)(x− x∗)‖ ≤L

1 + p‖x− x∗‖p+1.

1.4.2 Teorema das duas vizinhanças

O Objetivo desta seção é mostrar que, se x0 está próximo de x∗ e todas as matrizesBk estão perto de J(x∗), a seqüência gerada por xk+1 = xk −B−1

k F (xk) convergepara x∗ com taxa linear, de tal maneira que todas as matrizes encontradas numavizinhança da matriz não-singular J(x∗) são não-singulares. Para isso precisamosda definição do espaço de Banach e do Lema abaixo.

Definição 1.4.1. Um espaço vetorial normado é dito de Banach quando é com-pleto.

Lema 1.4.1. (Banach) Dada uma norma arbitrária ‖ · ‖ em Rn, que denotatambém a norma matricial subordinada, se ‖A‖ < 1, então I + A é não-singulare

1

1 + ‖A‖≤ ‖(I + A)−1‖ ≤ 1

1− ‖A‖.

(ver [2])

16

Corolário 1.4.1. Sejam A,B ∈ L(Rn) e suponha que A é inversível, com‖A−1‖ ≤ α. Se ‖A−B‖ ≤ β e βα < 1, então B é também inversível, e

‖B−1‖ ≤ α

1− αβ.

Demonstração: Como ‖I −A−1B‖ = ‖A−1(A−B)‖ ≤ ‖A−1‖.‖A−B‖ ≤ αβ < 1e A−1B = I − (I − A−1B), segue do Lema 1.4.1 que A−1B é inversível, destemodo B é inversível. Portanto,

‖B−1‖ = ‖[I − (I − A−1B)]−1A−1‖ ≤ α

1− αβ.

Lema 1.4.2. Se B ∈ Rn×n e que ‖B − J(x∗)‖ ≤1

2‖J(x∗)−1‖. Então B−1 existe

e satisfaz ‖B−1‖ ≤ 2‖J(x∗)−1‖.

(ver [2])

Lema 1.4.3. Para cada x ∈ Ω e B ∈ Rn×n, definimos a função Φ(x,B) =x − B−1F (x). Seja r ∈ (0, 1). Existem ε1 = ε1(r), δ1 = δ1(r) > 0 tais que se‖x − x∗‖ ≤ ε1, ‖B − J(x∗)‖ ≤ δ1, a função Φ(x,B) esta bem definida e satisfaz‖Φ(x,B)− x∗‖ ≤ r‖x− x∗‖.

(ver [2])

Teorema 1.4.1. Seja r ∈ (0, 1). Existem ε = ε(r) e δ = δ(r) tais que, se‖x0 − x∗‖ ≤ ε e ‖Bk − J(x∗)‖ ≤ δ para todo k, então a sequência gerada porxk+1 = xk−B−1

k F (xk) está bem definida, converge a x∗ e ‖xk+1−x∗‖ ≤ r‖xk−x∗‖para todo k.

(ver [2])

Teorema 1.4.2. (Convergência quadrática de Newton)Suponhamos que F, L, p satisfazem (1.22). Então existem ε, γ > 0 tais que paratodo x0 verificando ‖x0 − x∗‖ ≤ ε, a sequência gerada por

xk+1 = xk − J(xk)−1F (xk), k = 0, 1, . . .

está bem definida, converge a x∗ e satisfaz

‖xk+1 − x∗‖ ≤ γ‖xk − x∗‖p+1.

Demonstração: Escolhemos um r arbitrário entre 0 e 1, digamos, r = 0,5. Sejaε1 = ε1(r), definido pelo Lema 1.4.3. Pela continuidade de J(x), existe ε2 > 0tal que, sempre que ‖x − x∗‖ ≤ ε2, temos ‖J(x) − J(x∗)‖ ≤ δ1. Tomamosε = minε1, ε2, logo ‖J(x0)− J(x∗)‖ ≤ δ1(r). Então, pelo Lema 1.4.3,

‖x1 − x∗‖ ≤ r‖x0 − x∗‖ < ε1.

17

Portanto, ‖J(x1)−J(x∗)‖ ≤ δ1(r) e o raciocínio pode ser repetido, indutivamente,para provar que xk converge para x∗ linearmente com taxa r. Agora, pelo Lema1.4.2 temos que, para todo k,

‖xk+1 − x∗‖ = ‖xk − x∗ − J(xk)−1F (xk)‖

= ‖J(xk)−1(−F (xk)− J(xk)(x∗ − xk))‖

≤ 2‖J(x∗)−1‖ ‖F (xk)− J(xk)(xk − x∗)‖.

Mas, por(1.22) e pela propriedade(2),

‖F (xk)− J(xk)(xk − x∗)‖ ≤ ‖F (xk)− J(x∗)(xk − x∗)‖+ L‖xk − x∗‖p+1

≤ 2L‖xk − x∗‖p+1.

Portanto,‖xk+1 − x∗‖ ≤ 4‖J(x∗)

−1‖L‖xk − x∗‖p+1.

O Lema abaixo mostra que ‖F (x)‖ pode ser utilizado como uma medida dadistância entre x e x∗ quando J(x∗) é não-singular:

Lema 1.4.4. Existem ε1, c1, c2 > 0 tais que sempre que ‖x− x∗‖ ≤ ε,

c1‖x− x∗‖ ≤ ‖F (x)‖ ≤ c2‖x− x∗‖.

(ver [2])

1.4.3 Convergência dos métodos Newton Inexatos

Chamamos métodos de Newton inexatos àqueles baseados nas condições

‖J(xk)sk + F (xk)‖ ≤ ηk‖F (xk)‖ (1.23)

e xk+1 = xk + sk, onde a norma ‖ · ‖ é qualquer em Rn.

Os métodos de Newton inexatos são localmente convergente com taxa linear,em determinada norma, onde ‖ηk‖ é uma sequência entre (0, 1), se o valor ‖ηk‖ semantém fixo ao longo de todo o processo. Se ηk → 0, vemos que a convergênciaé superlinear.

Teorema 1.4.3. (Dembo - Eisenstart - Steihang)

(i) Se ηk ≤ ηmax < r < 1, existe ε > 0 tal que se ‖x0 − x∗‖ ≤ ε, então asequência xk gerada por um método de Newton inexato converge a x∗.Além disso a convergência é linear com taxa r:

‖xk+1 − x∗‖∗ ≤ r‖xk − x∗‖∗, (1.24)

onde a norma ‖ · ‖∗ está definida por ‖y‖∗ = ‖J(x∗)y‖.

18

(ii) Se a sequência xk gerada por um método de Newton inexato convergea x∗ e se

limk→∞

ηk = 0, (1.25)

então a convergência é superlinear.

(ver [2])

1.5 Método de Newton para equação não-suaveO Método de Newton para solução de equação não linear de várias váriáveis éextendida para um caso não-suave mas usando o jacobiano generalizado ao in-vés de sua derivada. A extensão inclui a versão do método de Newton usandoB-diferencial como um caso especial. As demonstrações dos teoremas estão rela-cionados as condições de semisuavidade.

O método de Newton é dado por

xk+1 = xk − [F ′(xk)]−1F (xk) (1.26)

para solução de equação não-linear

F (x) = 0, (1.27)

onde F : Rn → Rn é uma função contínua diferenciável, i.e., uma função suave.Muitos outros métodos para solução de (1.27) são relacionados a este métodos(ver [11]). Suponhamos agora que F é uma função não-suave, no entanto umafunção localmente lipschitziana. Então a fórmula (1.26) não pode ser usada.

Seja ∂ClF (xk) o jacobiano generalizado de F em xk, definido por Clarke. Nestecaso, em vez de usar (1.26), podemos usar

xk+1 = xk − V −1k F (xk) (1.28)

onde Vk ∈ ∂ClF (xk), para resolver (1.27). Neste trabalho, mostraremos resultadosde convergência local e global em (1.28).

1.5.1 Funções Semisuaves de várias variáveis

Suponhamos que F : Rn → Rm é uma função localmente lipschitziana. Denote-mos DF o conjunto dos pontos onde F é diferenciável. Escrevemos da forma usualJF (x)m×n a matriz jacobiana das derivadas parciais em x sempre que existiremnecessariamente as derivadas parciais.

Definição 1.5.1. O jacobiano generalizado de F em x, definido por Clarke edenotado ∂ClF (x), é o fecho convexo do conjunto das matrizes Vm×n obtidascomo limite de seqüência da forma JF (xi), onde xi → x com xi ∈ DF , ou seja,

∂ClF (x) = conv lim JF (xi) \ xi → x, xi ∈ DF.

19

Proposição 1.5.1. Seja F lipschitziana em um conjunto convexo aberto U emRn, e sejam x e y pontos de U . Então teremos

F (y)− F (x) ∈ conv ∂ClF ([x, y])(y − x).

(ver [6])

Proposição 1.5.2. Dado x um ponto do Rn. Se para qualquer h ∈ Rn,

limV ∈ ∂ClF (x + th)

t → 0+

V h (1.29)

existe. Então a derivada direcional clássica dada por

F ′(x;h) = limt→0+

F (x+ th)− F (x)

t(1.30)

existe e

F ′(x;h) = limV ∈ ∂ClF (x + th)

t → 0+

V h. (1.31)

Demonstração: Como F é localmente lipschitzianaF (x+ th)− F (x)

t(1.32)

é limitado. Suponha que l seja um ponto de acumulação de (1.32) com t → 0+.Então existem tj → 0+ tais que

l = limj→∞

F (x+ tjh)− F (x)

tj.

É suficiente mostrar que l é igual ao limite de (1.29) e pela Proposição 1.5.1

F (x+ tjh)− F (x)

tj∈ conv ∂ClF (x;x+ tjh)h.

Pelo Teorema de Carathéodory, existe tkj ∈ [0, tj], λkj ∈ [0, 1], V k

j ∈∂ClF ([x, x+ tkjh]), para k = 0, ...,m.

∑mk=0 λ

kj = 1, tal que

F (x+ tjh)− F (x)

tj=

m∑k=0

λkjV

kj h.

Passando agora para subseqüência, podemos supor que λkj → λk com j →∞.

Temos λk ∈ [0, 1] para k = 0, ...,m e∑m

k=0 λk = 1. Então

l = limj→∞

F (x+ tjh)− F (x)

tj= lim

j→∞

m∑

k=0

λkjV

kj h

=m∑

k=0

limj→∞

λkj lim

j→∞V k

j h =m∑

k=0

λk limV ∈ ∂ClF (x + th)

t → 0+

V h =

limV ∈ ∂ClF (x + th)

t → 0+

V h.

20

Definição 1.5.2. Dizemos que F é semisuave em x se é localmente lipschitzianaem x e

limV ∈ ∂ClF (x + th′)

h′ → h, t → 0+

V h′. (1.33)

existe para todo h ∈ Rn.

Lema 1.5.1. Suponha que F : Rn → Rm é uma função localmente lipschitzianae F ′(x;h) existe para qualquer h em x. Então

(i) F ′(x;h) é lipschitziana;

(ii) Para todo h, existe V ∈ ∂ClF (x) tal que

F ′(x;h) = V h.

Demonstração: (i) é trivial.Agora, pela Proposição 1.5.1 e por (1.30), existem sequências tk e Vk tal

que tk → 0+ com Vk ∈ conv ∂ClF ([x;x+ tkh]),

F ′(x;h) = limk→∞

Vkh

por causa da propriedade localmente lipschitziana de F, Vk é limitada. Pas-sando para subsequência, poderemos supor Vk → V . Porém, devido a definiçãodo jacobiano generalizado, ∂ClF é fechado. Deste modo V ∈ ∂ClF (x).

Teorema 1.5.1. Suponha que F : Rn → Rm uma função localmentelipschitziana. As seguintes afirmações são equivalentes:

(i) F é semisuave em x;

(ii) O limite em (1.33) é uniformemente convergente para todo h com normaunitária;

(iii) O lado direito do limite (1.31) é uniformente convergente para todo h comnorma unitária;

(iv) Para todo V ∈ ∂ClF (x+ h), h→ 0,

V h− F ′(x;h) = o(‖ h ‖); (1.34)

(v)

limx + h ∈ DF

h → 0

F ′(x+ h;h)− F ′(x;h)

‖ h ‖= 0. (1.35)

21

Demonstração: (i) → (ii) Suponha que não seja verdadeira (ii). Então existemε > 0, hk ∈ Rn \ ‖hk‖ = 1, k = 1, . . ., ‖hk − hk‖ → 0, tk → 0+, Vk ∈∂ClF (x+ tkhk) tal que

‖Vkhk − F ′(x;hk)‖ ≥ 2ε, (1.36)

para k = 1, 2, . . .. Passando para subsequência, podemos assumir que hk → h.Deste modo, hk → h também. Pelo Lema 1.5.1 (ii) e (1.36) implica que

‖Vkhk − F ′(x;h)‖ ≥ ε,

para todo k suficientemente grande. Isto contradiz a suposição de semisuavidade.Logo (i) → (ii).

(ii) → (iii) → (iv) é trivial.

(iv) → (i) Suponhamos que F não é semisuave em x. Então existe h ∈ Rn,hk → h, ε > 0, tk → 0+, Vk ∈ ∂ClF (x+ tkhk) tal que

‖Vkhk − F ′(x;h)‖ ≥ 2ε, (1.37)

para k = 1, 2 . . .. Pelo Lema 1.5.1 (ii) e (1.37) implica que

‖Vkhk − F ′(x;hk)‖ ≥ ε,

para todo k suficientemente grande. Isto contradiz (1.34).

(iv) → (v), concordando com o Lema 1.5.1.

(v) → (iv). Dado ε > 0, por (1.35), existe δ > 0 tal que para todo h ∈ Rn

satisfazendo ‖h‖ ≤ δ e x+ h ∈ DF ,

‖F ′(x+ h;h)− F ′(x;h)‖ ≤ ε‖h‖. (1.38)

Supondo que ‖h‖ ≤ 12δ e V ∈ ∂ClF (x+ h). Nos mostraremos que

‖V h − F ′(x;h)‖ ≤ 5ε‖h‖. (1.39)

Pela Definição 1.5.1 ,

V h ∈ conv

limhi → h

x + hi ∈ DF

F ′(x+ hi;h).

Pelo Teorema de Carathéodory, existem hk tal que ‖hk − h‖ ≤ min12δ, ‖h‖,

ε‖h‖L, x + hk ∈ DF , onde k = 0, . . . ,m, L é a constante lipschitziana de F

próximo de x, e

‖V h−m∑

k=0

λkF′(x+ hk;h)‖ ≤ ε,

onde λk ≥ 0 para k = 0, . . . ,m,∑m

k=0 λk = 1. Por (1.38) e o Lema 1.5.1 (i),

22

‖m∑

k=0

λk F ′(x+ hk;h)− F ′(x;h)‖

≤m∑

k=0

λk[‖F ′(x+ hk;hk)− F ′(x+ hk;h)‖

+‖F ′(x+ hk;hk)− F ′(x;hk)‖+ ‖F ′(x;h)− F ′(x;hk)‖]

≤m∑

k=0

λk[L‖hk − h‖+ ε‖hk‖+ L‖hk − h‖]

≤m∑

k=0

λk.4ε‖h‖ = 4ε‖h‖.

Agora, (1.39) segue de ‖V h −∑m

k=0 λkF′(x + hk;h)‖ ≤ ε e do resultado acima.

Isto prova (1.34).

O Lema abaixo desempenha um importante papel na análise de convergênciados métodos de Newton e dos métodos de Newton inexatos para resolução deequações não-suaves.

Lema 1.5.2. Suponha que F : Rn → Rm é localmente lipschitziana em Rn esemisuave em x. Então, tem-se que

F (x+ h)− F (x)− F ′(x;h) = o(‖h‖).(As fórmulas (1.34) e do Lema (1.5.2) podem ser reescritas como segue:

V (x− x∗)− F ′(x∗;x− x∗) = o(‖x− x∗‖), ∀V ∈ ∂ClF (x) (1.40)

eF (x)− F (x∗)− F ′(x∗;x− x∗) = o(‖x− x∗‖), ∀V ∈ ∂ClF (x), (1.41)

(1.40) com (1.41) resulta em

F (x)− F (x∗)− V (x− x∗) = o(‖x− x∗‖), ∀ V ∈ ∂ClF (x) ). (1.42)

Demonstração: Suponhamos por contradição que exista ε > 0 e uma seqüênciahk com ‖ hk ‖:= tk ≤ 1

ke tal que

‖F (x+ hk)− F (x)− F ′(x;hk)‖ > εtk,

para k = 1, 2, . . . . Passando a uma subseqüência, se necessário, suponhamos quehk

tk→ d para algum d de norma 1. Seja L > 0 a constante de Lipschitz no ponto

x. Deste modo, temos

εtk ≤ ‖F (x+ hk)− F (x)− F ′(x;hk)‖≤ ‖F (x+ hk)− F (x+ tkd)‖+ ‖F (x+ tkd)− F (x)− F ′(x; tkd)‖+ ‖F ′(x; tkd)− F ′(x;hk)‖≤ 2L ‖ hk − tkd ‖ +‖F (x+ tkd)− F (x)− F ′(x; tkd)‖.

23

Dividindo por tk > 0 e passando o limite em relação a k, teremos ε ≤ 0,absurdo. Portanto

F (x+ h)− F (x)− F ′(x;h) = o(‖h‖).

24

Capítulo 2

Teoremas Principais

Neste capítulo, enfatizaremos primeiramente a noção de um novo tipo de sub-diferencial apresentada por Gao [16], baseados nos trabalhos oriundos de Clarke[6] para uma função localmente lipschitziana do Rn no Rm. Então provaremosa convergência Q-superlinear e Q-linear dos métodos de Newton e métodos deNewton inexatos, respectivamente, utilizando essa nova definição. Além disso,demonstraremos um teorema que nos dá uma condição necessária e suficientepara a convergência do método de Newton inexato e a aplicação desse métodode Newton para resolução de um sistema envolvendo a composição de funçõesnão-suaves.

Considere a seguinte equação não-suave:

F (x) = 0, (2.1)

onde F : Rn → Rn é localmente lipschitiziana. O Método de Newton para resolveras equações (2.1) é dado como segue:

xk+1 = xk − V −1k F (xk), (2.2)

onde Vk pode ser tomado como um elemento das várias subdiferenciais de F emxk.

Definição 2.0.3. Seja F : Rn → Rm localmente lipschitziana e DF o conjuntoonde F é diferenciável

∂BF (x) = lim JF (xn) \ xn → x, xn ∈ DF,

onde "J"denota o Jacobiano, é chamado B-diferencial de F em x.

De acordo com a Definição 1.5.1 temos,

∂ClF (x) = conv ∂BF (x).

No caso m = 1, ∂ClF (x) reduz-se ao gradiente generalizado de Clarke de F emx. Devido a [15], teremos

∂bF (x) = ∂Bf1(x) × · · · × ∂Bfm(x)

25

onde fi(x) é a i-ésima componente de F (x), e chamaremos de b-diferencial de Fem x; particularmente, se m = 1, ∂bF (x) = ∂BF (x).

Definição 2.0.4. Sejam X e Y subconjuntos de espaços de dimensão finita. Aaplicação ponto-conjunto x → S(x) de X em 2Y é dita ser semicontínua supe-riormente num ponto x ∈ X, quando que para qualquer ε > 0, exista um númeroδ > 0 tal que ‖ x− x0 ‖≤ δ implique que

S(x) ⊂ S(x0) + εB(0, 1),

onde B(0, 1) é a bola unitária centrada em 0. Dizemos que a aplicação ponto-conjunto x→ S(x) é semicontínua superiormente em X se é semicontínua supe-riormente em cada ponto x ∈ X.

Seja F : Rn → Rm uma função localmente lipschitziana. Denotaremos por∂∗F (x), uma * - diferencial de F em x, as aplicações ponto conjunto que satis-fizem as seguintes propriedades:

1. ∂∗F (x) : Rn → 2Rm×n é semicontinua superiormente;

2. O conjunto ∂∗F (x) é limitado e não vazio para cada x ∈ Rn;

3.∂∗F (x) ⊂ ∂Clf1(x)× · · · × ∂Clfm(x), (2.3)

onde fi é a i-ésima componente de F .

Exemplo: Podemos verificar que ∂ClF (x), ∂BF (x) e ∂bF (x) são ∗-diferenciaispara uma função localmente lipschitziana F : Rn → Rm, por causa da semicon-tinuidade das aplicações ponto-conjuntos x → ∂ClF (x), x → ∂BF (x) ex→ ∂bF (x). Usaremos ∗-diferenciais para estudar equações não-suaves, ao invésdo Jacobiano generalizado de Clarke, B-diferencial e b-diferencial.

2.1 Os métodos de Newton e Newton inexatosPrimeiramente, apresentamos um lema que servirá de base nas demonstraçõesdos teoremas posteriores.

Lema 2.1.1. Suponhamos que F : Rn → Rn é localmente lipschitziana e ∂∗F (x)é uma ∗-diferencial de F . Se todas V ∈ ∂∗F (x) são não-singulares então existeum escalar β > 0 tal que

‖V −1‖ ≤ β, ∀ V ∈ ∂∗F (x) (2.4)

26

Além disso, existe uma vizinhança N(x) tal que

‖V −1‖ ≤ 10

9β, ∀ V ∈ ∂∗F (y), y ∈ N(x). (2.5)

Demonstração: Note que a aplicação ponto-conjunto x→ ∂∗F (x) é semicontínuasuperiormente em x, e o conjunto ∂∗F (x) para um ponto x é limitado por causade (2.3). Portanto, ambos (2.4) e (2.5) valem.

Dada uma ∗-diferencial ∂∗F (x) de F , apresentamos o método de Newton pararesolver as equações (2.1) como segue:

xk+1 = xk − V −1k F (xk), Vk ∈ ∂∗F (xk). (2.6)

Obviamente, diferentes ∗-diferenciais ∂∗F (x) geram diferentes métodos de Newtonpelo procedimento (2.6).

Teorema 2.1.1. Suponha que x∗ é uma solução das equações (2.1), F é semi-suave em x∗ e todas V ∈ ∂∗F (x∗) são não-singulares. Então, o método de iteração,dado em (2.6), está bem definido e gera uma seqüência xk convergindo para x∗Q-superlinearmente numa vizinhança de x∗.

Demonstração: Em virtude do Lema 2.1.1, (2.6) está bem definido numa vizi-nhança de x∗ para o primeiro passo k = 0. Denotemos a i-ésima linha de Vk

por V ik e a i-ésima componente de F por fi. Como as fi para i = 1, · · · , n, são

semisuaves em x∗ e V ik ∈ ∂Clfi(xk), segue de (1.40) que

V ik (xk − x∗)− f ′i(x∗;xk − x∗) = o(‖xk − x∗‖), i = 1, . . . , n. (2.7)

Portanto, tem-se que

Vk(xk − x∗)− F ′(x∗;xk − x∗) = o(‖xk − x∗‖). (2.8)

Além disso, o Lema 2.1.1 e a fórmula (2.8) levam

‖xk+1 − x∗‖ = ‖xk − x∗ − V −1k F (xk)‖

≤ ‖V −1k [F (xk)− F (x∗)− F ′(x∗;xk − x∗)]‖

+ ‖V −1k [Vk(xk − x∗)− F ′(x∗;xk − x∗)]‖

= o(‖xk − x∗‖).

Isto mostra que a convergência Q-superlinear de xk para x∗ numa vizinhançade x∗. Portanto, completamos a prova do teorema.

Agora passaremos à aplicação do método de Newton inexato para solução dasequações não-suaves (2.1) como segue:

xk+1 = xk − U−1k F (xk), Uk ∈ Rn×n. (2.9)

27

Teorema 2.1.2. Suponha que x∗ é uma solução das equações (2.1), F é semisuaveem x∗, todas V ∈ ∂∗F (x∗) são não-singulares, existem escalares ε > 0 e ∆ > 0tal que se ‖x0 − x∗‖ ≤ ε e existe Vk ∈ ∂∗F (xk) tal que

‖Vk − Uk‖ ≤ ∆. (2.10)

Então, o método de iteração dado em (2.9) está bem definido e a sequência xkgerada por (2.9) converge para x∗ Q-linearmente.

Demonstração: Em virtude do Lema 2.1.1, existe um escalar β > 0 e uma vizi-nhança N(x∗) tal que

‖V −1‖ ≤ β, ∀ V ∈ ∂∗F (x∗), (2.11)

‖V −1‖ ≤ 10

9β, ∀ V ∈ ∂∗F (y), y ∈ N(x∗). (2.12)

Tomemos um escalar ∆ > 0 satisfazendo

6β∆ ≤ 1. (2.13)

Denotemos a i-ésima linha de V ∈ ∂∗F (x) por V i. Note que a i-ésima componentefi de F é localmente lipschitziana em Rn e semisuave em x∗, assim como tambémV i ∈ ∂Clfi(x). De acordo com (1.40), tem-se

V i(x− x∗)− f ′i(x∗;x− x∗) = o(‖x− x∗‖), i = 1, . . . , n.

Resulta que

V (x− x∗)− F ′(x∗;x− x∗) = o(‖x− x∗‖), ∀ V ∈ ∂∗F (x). (2.14)

Portanto, podemos escolher um número positivo ε pequeno tal que

x ∈ Rn | ‖x− x∗‖ ≤ ε ⊂ N(x∗)

e

‖F (x)− F (x∗)− V (x− x∗)‖ ≤ ∆‖x− x∗‖, (2.15)∀ V ∈ ∂∗F (x), ‖x− x∗‖ ≤ ε.

Em virtude de (2.11) e (2.12), a relação ‖x−x∗‖ ≤ ε implica que todo V ∈ ∂∗F (x)é não-singular, e, além disso,

‖V −1‖ ≤ 10

9β, ∀V ∈ ∂∗F (x), ‖x− x∗‖ ≤ ε (2.16)

Pelo Corolário 1.4.1, A e B são inversíveis e vale a seguinte relação:

‖B−1‖ ≤ ‖A−1‖1− ‖A−1‖.‖A−B‖

. (2.17)

28

A partir de agora, suporemos que ‖xk−x∗‖ ≤ ε para todo k. Fazendo B = Uk

e A = Vk em (2.17) obteremos

‖U−1k ‖ ≤ ‖V −1

k ‖1− ‖V −1

k ‖.‖(Vk − Uk)‖

≤109β

1− 109β∆

≤ 3

2β. (2.18)

Além disso, segue-se que

‖xk+1 − x∗‖ = ‖xk − U−1k F (xk)− x∗‖

≤ ‖U−1k ‖‖F (xk)− F (x∗)− Uk(xk − x∗)‖

≤ ‖U−1k ‖[‖F (xk)− F (x∗)− Vk(xk − x∗)‖

+‖Vk − Uk‖‖xk − x∗‖]. (2.19)

Substituindo (2.10), (2.13), (2.15) e (2.18) em (2.19) leva a isto

‖xk+1 − x∗‖ ≤ 3

2β [∆‖xk − x∗‖+ ∆‖xk − x∗‖]

= 3β∆‖xk − x∗‖

≤ 1

2‖xk − x∗‖. (2.20)

Por indução matemática, a relação ‖x0 − x∗‖ ≤ ε e a fórmula (2.20) implicamque ‖xk − x∗‖ ≤ ε vale para todo k. Portanto, ‖xk+1− x∗‖ ≤ 1

2‖xk − x∗‖ é válida

para todo k sob a suposição que ‖x0 − x∗‖ ≤ ε. Concluímos que a sequênciaxk gerada por (2.9) converge para x∗ Q-linearmente. Dessa maneira, a provado teorema está completa.

O próximo teorema dá uma condição necessária e suficiente de convergênciaQ-superlinear dos métodos de Newton inexatos (2.9).

Teorema 2.1.3. Suponha que F é semisuave em x∗ e todas V ∈ ∂∗F (x∗) sãonão-singulares. Sejam Uk uma sequência de matrizes não-singulares em Rn×n,xk uma sequência gerada por (2.9) com xk 6= x∗ para todo k, e limk→∞ xk = x∗.Então, xk converge Q-superlinearmente para x∗, e F (x∗) = 0 se, e somente se,existem Vk ∈ ∂∗F (xk) tal que

limk→∞

‖(Vk − Uk)sk‖‖sk‖

= 0, (2.21)

onde sk = xk+1 − xk.

29

Demonstração: Suponha que (2.21) vale e ponha ek = xk − x∗. Então, ambassequências ek e sk convergem para zero. Em virtude de (2.9), é obtido que

F (x∗) = [F (xk) + Vksk]− [F (xk)− F (x∗)− Vkek]− Vkek+1

= F (xk) + Uksk − (Uk − Vk)sk − [F (xk)− F (x∗)− Vkek]− Vkek+1

= −(Uk − Vk)sk − [F (xk)− F (x∗)− Vkek]− Vkek+1. (2.22)

(1.42) leva a queF (xk)− F (x∗)− Vkek = o(‖ek‖). (2.23)

De acordo com (2.21), tem-se que

−(Uk − Vk)sk = o(‖sk‖). (2.24)

Assim, (2.22), (2.23), (2.24), ek → 0 e a limitação de Vk implicam queF (x∗) = 0. Portanto,

−(Uk − Vk)sk − [F (xk)− F (x∗)− Vkek]− Vkek+1 = 0. (2.25)

De acordo com o Lema 2.1.1, V −1k é limitado. De (2.23), (2.24), (2.25) e a

limitação de V −1k , segue que

‖ek+1‖ ≤ o(‖sk‖) + o(‖ek‖)≤ o(‖ek‖) + o(‖ek+1‖).

dividindo por ‖ek‖ e fazendo ek → 0, significa

limk→∞

‖ek+1‖‖ek‖

= 0,

isto é, xk converge Q-superlinearmente para x∗.Reciprocamente, suponhamos que F (x∗) = 0 e xk converge Q-superli-

nearmente para x∗. A inversão da discussão acima leva à condição (2.21) ime-diatamente. Isto completa a prova do teorema.

2.2 Aplicações de composição suave de funçõesnão-suaves

Nesta seção, abordaremos a solução de sistema das composições não-suaves deequações, as quais têm a forma:

g1(f1(x), . . . , fm(x)) = 0

· · · · · · · · · · · · · · · · · · · · · · · · (2.26)gn(f1(x), . . . , fm(x)) = 0

onde fj : Rn → R para j = 1, · · · ,m são localmente lipschitziana e gi : Rm → Rpara i = 1, · · · , n são continuamente diferenciáveis. Seja

30

G(y) = (g1(y), . . . , gn(y))T (2.27)

eF (x) = (f1(x), . . . , fm(x))T . (2.28)

Assim, as equações (2.26) podem ser reescritas como

G(F (x)) = 0. (2.29)

Sabemos que os métodos apresentados na seção anterior podem ser aplica-dos às equações (2.26) diretamente. Entretanto, em algumas aplicações, a com-putação de um elemento de uma ∗-diferencial para G F é cara, enquanto queé muito barato calcular um elemento de uma ∗-diferencial para F . O próximométodo de Newton, somente a ∗-diferencial de F , não G F , é exigida. Agoraapresentamos o método de Newton para a solução das equações (2.26) a seguir:

xk+1 = xk −W−1k G(F (xk)), Wk ∈ JG(F )|F=F (xk)∂∗F (xk). (2.30)

Em geral, Wk ∈ JG(F )|F=F (xk)∂∗F (xk) não está mais contida no conjunto

∂Clg1(F (x))× · · · × ∂Clgm(F (x))

embora satisfaça a relação abaixo:

∂∗F (x) ⊂ ∂Clf1(x)× · · · × ∂Clfm(x).

Portanto, ela não pode ser tomada como uma ∗-diferencial de G F .

Lema 2.2.1. Sejam F e G dadas por (2.27) e (2.28), e ∂∗F (x) uma ∗-diferencialde F . Se todas W ∈ JG(F )|F=F (x)∂∗F (x) são não-singulares, então existe umescalar β > 0 tal que

‖W−1‖ ≤ β, ∀ W ∈ JG(F )|F=F (x)∂∗F (x). (2.31)

Além disso, existe uma vizinhança N(x) tal que

‖W−1‖ ≤ 10

9β, ∀ W ∈ JG(F )|F=F (y) ∂∗F (y), y ∈ N(x). (2.32)

Demonstração: Note que G é continuamente diferenciável. A prova do lemapoderia ser completada similarmente ao Lema 2.1.1.

Teorema 2.2.1. Suponha que x∗ é uma solução da equação (2.26), F é semi-suave em x∗ e todos W ∈ JG(F )|F=F (x∗)∂∗F (x∗) são não-singulares. Então, ométodo de iteração (2.30) está bem definido e a sequência x∗ gerado por (2.30)converge para x∗ Q-superlinearmente numa vizinhança de x∗.

31

Demonstração: Em virtude do Lema 2.1.1, (2.30) está bem definida para oprimeiro passo k = 0. Denote a i-ésima linha de Wk por W i

k. Portanto, elatem a seguinte forma:

W ik =

m∑j=1

∂gi(F )

∂fj

∣∣∣F=F (xk)

V jk , i = 1, . . . , n, (2.33)

onde V 1k × · · · × V m

k ∈ ∂∗F (xk). Pela definição de ∗-diferencial, V jk ∈ ∂Clfj(xk)

para j = 1, . . . ,m. Baseado em (1.40), as regras da cadeia, assim como também

a limitação local e a continuidade de∂gi(F )

∂fj

, tem-se que

W ik(xk− x∗)− (gi F )′(x∗;xk − x∗)

=m∑

j=1

∂gi(F )

∂fj

∣∣∣F=F (xk)

V jk (xk − x∗)−

m∑j=1

∂gi(F )

∂fj

∣∣∣F=F (x∗)

f ′j(x∗;xk − x∗)

=m∑

j=1

∂gi(F )

∂fj

∣∣∣F=F (xk)

[V j

k (xk − x∗)− f ′j(x∗;xk − x∗)]

+m∑

j=1

[∂gi(F )

∂fj

∣∣∣F=F (xk)

− ∂gi(F )

∂fj

∣∣∣F=F (x∗)

]f ′j(x

∗;xk − x∗)

= o(‖xk − x∗‖), i = 1, . . . , n. (2.34)

A fórmula (2.34) dá-nos que

Wk(xk − x∗)− (G F )′(x∗;xk − x∗) = o(‖xk − x∗‖). (2.35)

Note que G F é semisuave em x∗. De (1.41), (2.32) e (2.35), segue que

‖xk+1 − x∗‖ = ‖xk − x∗ −W−1k G(F (xk))‖

≤ ‖W−1k [G(F (xk))−G(F (x∗))− (G F )′(x∗;xk − x∗)]

+‖W−1k [Wk(xk − x∗)− (G F )′(x∗;xk − x∗)] ‖

= o(‖xk − x∗‖).

Isto mostra a convergência Q-superlinear de xk para x∗.

A seguir apresentamos o método do Newton inexato para a solução as equações(2.6) como o seguinte:

xk+1 = xk −W−1k G(F (xk)), Wk = JG(F )|F=F (xk)Uk, Uk ∈ Rn×n. (2.36)

Teorema 2.2.2. Suponha que x∗ é uma solução das equações (2.26), F é semi-suave em x∗, e todas W∗ ∈ JG(F )|F=F (x∗)∂∗F (x∗) são não-singulares. Existe umnúmero ε > 0 e ∆ > 0 tal que se ‖x0 − x∗‖ ≤ ε e existe um Vk ∈ ∂∗F (xk)satisfazendo

‖Vk − Uk‖ ≤ ∆, (2.37)

32

então o método de iteração , dado em (2.36), está bem definido e gera uma se-quência xk convergindo para x∗ Q-linearmente.

Demonstração: Do Lema 2.2.1 e da continuidade de JG(F )|F=F (x), segue queexiste um número β > 0 e γ > 1, assim como também a vizinhança N(x∗) talque

‖W−1‖ ≤ β, ∀ W ∈ JG(F )|F=F (x∗)∂∗F (x∗),

‖W−1‖ ≤ 10

9β, ∀ W ∈ JG(F )|F=F (y)V, V ∈ ∂∗F (y), y ∈ N(x∗), (2.38)

‖JG(F )|F=F (y)‖ ≤ γ, ∀ y ∈ N(x∗). (2.39)

Escolha um escalar ∆ > 0 satisfazendo

6βγ∆ ≤ 1. (2.40)

Denotando por (JG(F )|F=F (x)V )i, a i-ésima linha de W ∈ JG(F )|F=F (x)V tema forma

(JG(F )|F=F (x)V )i =m∑

j=1

∂gi(F )

∂fj

∣∣∣∣F=F (x)

V j,

onde V 1 × · · · × V m ∈ ∂∗F (x). Note que cada gi F é semisuave em x∗ eV j ∈ ∂Clfj(x). De (1.41), (2.39), a limitação local de V j e a diferenciabilidadecontínua de gi, para qualquer V ∈ ∂∗F (x), segue que

‖gi (F (x))− gi(F (x∗))− (JG(F )|F=F (x)V )i(x− x∗)‖

=

∥∥∥∥gi(F (x))− gi(F (x∗))−m∑

j=1

∂gi(F )

∂fj

∣∣∣∣F=F (x)

V j(x− x∗)

∥∥∥∥≤ ‖gi(F (x))− gi(F (x∗))− (gi F )′(x∗;x− x∗)‖

+

∥∥∥∥(gi F )′(x∗;x− x∗)−m∑

j=1

∂gi(F )

∂fj

∣∣∣∣F=F (x)

V j(x− x∗)

∥∥∥∥= o‖x− x∗‖+

∥∥∥∥ m∑j=1

∂gi(F )

∂fj

∣∣∣∣F=F (x∗)

f ′j(x∗;x− x∗)

−m∑

j=1

∂gi(F )

∂fj

∣∣∣∣F=F (x)

V j(x− x∗)

∥∥∥∥≤ o(‖x− x∗‖) +

∥∥∥∥ m∑j=1

∂gi(F )

∂fj

∣∣∣∣F=F (x∗)

[f ′j(x∗;x− x∗)− V j(x− x∗)]

∥∥∥∥+

m∑j=1

∥∥∥∥[∂gi(F )

∂fj

∣∣∣∣F=F (x)

− ∂gi(F (x))

∂fj

∣∣∣∣F=F (x∗)

]V j(x− x∗)

∥∥∥∥= o(‖x− x∗‖), i = 1, . . . , n. (2.41)

Portanto, para qualquer V ∈ ∂∗F (x), vale a seguinte relação:

‖G(F (x))− g(F (x∗))− JG(F )|F=F (x)V (x− x∗)‖ = o(‖x− x∗‖). (2.42)

33

De acordo com (2.42), devemos escolher um número positivo ε pequeno suficientetal que

x ∈ Rn | ‖x− x∗‖ ≤ ε ⊂ N(x∗)

e

‖G(F (x))−G(F (x∗))− JG(F )|F=F (x)V (x− x∗)‖ ≤ ∆‖x− x∗‖,∀V ∈ ∂∗F (x), ‖x− x∗‖ ≤ ε. (2.43)

Em virtude de (2.38) e (2.39), ‖x − x∗‖ ≤ ε implica que para qualquerV ∈ ∂∗F (x), JG(F )|F=F (x)V é não singular e satisfaz

‖(JG(F )|F=F (x)V )−1‖ ≤ 10

9β (2.44)

e‖JG(F )|F=F (x)‖ ≤ γ. (2.45)

No que segue, suponhamos que ‖xk − x∗‖ ≤ ε. Fazendo A = JG(F )|F=F (xk)Uk eB = JG(F )|F=F (x∗)Vk, Corolário 1.4.1, obtém-se que

‖W−1k ‖ ≤

‖[JG(F )|F=F (xk)Vk]−1‖

1− ‖[JG(F )|F=F (xk)Vk]−1[JG(F )|F=F (xk)(Uk − Vk)]‖

≤109β

1− 109βγ∆

≤109β

1− 527

≤ 3

2β. (2.46)

Por dedução, segue que

‖xk+1 − x∗‖ = ‖xk −W−1k G(F (xk))− x∗‖

≤ ‖W−1k ‖ ‖G(F (xk))−G(F (x∗))−Wk(xk − x∗)‖

≤ ‖W−1k ‖[‖G(F (xk))−G(F (x∗))− JG(F )|F=F (xk)Vk(xk − x∗)‖

+‖JG(F )|F=F (xk)(Vk − Uk)‖‖xk − x∗‖]. (2.47)

Substituindo (2.40), (2.42), (2.45) e (2.46) em (2.47), tem-se que

‖xk+1 − x∗‖ ≤ 3

2β (∆‖xk − x∗‖+ γ∆‖xk − x∗‖)

=3

2(β∆ + βγ∆)‖xk − x∗‖

≤ 1

4

(1

γ+ 1

)‖xk − x∗‖

≤ 1

2‖xk − x∗‖. (2.48)

Por indução matemática, ‖x0 − x∗‖ ≤ ε e (2.48) implica que ‖xk − x∗‖ ≤ ε valepara todo k. Portanto, a relação ‖xk+1 − x∗‖ ≤ 1

2‖xk − x∗‖ é válida para todo k

34

sob a condição ‖x0−x∗‖ ≤ ε. Logo, conclui-se que o processo iterativo (2.36) estábem definido e a sequencia xk converge para x∗ Q-linearmente. Isto completaa prova do teorema.

Exemplo 4.1 Considere as equações abaixo:

f1(x) + f2(x) = 0

f3(x)f4(x) = 0 (2.49)

onde fj : R2 → R2 para j = 1, . . . , 4 são localmente lipschitziana no R2 e semi-suaves na solução x∗ de (2.49). Agora usaremos o método de Newton para resolveras equações (2.49). Seja

F (x) = (f1(x), f2(x), f3(x), f4(x))T ,

g1(f1, f2, f3, f4) = f1 + f2,

g2(f1, f2, f3, f4) = f3f4,

G(y) = (g1(y), g2(y))T .

Segue que

JG(F ) =

(1 1 0 00 0 f4 f3

).

Dado uma Vk = V 1k × V 2

k × V 3k × V 4

k ∈ ∂∗F (xk), tem-se que

Wk = JG(F )|F=F (xk)Vk

=

(1 1 0 00 0 f4(xk) f3(xk)

) V 1

k

V 2k

V 3k

V 4k

=

(V 1

k + V 2k

f4(xk)V3k + f3(xk)V

4k

).

Portanto, o procedimento de iterativo para as equações (2.49) tem a seguinteforma:

xk+1 = xk +

(V 1

k + V 2k

f4(xk)V3k + f3(xk)V

4k

)−1 (f1(xk) + f2(xk)f3(xk)f4(xk)

).

2.3 Considerações FinaisNeste trabalho estudamos uma nova família de subdiferenciais que extende osresultados obtidos em [13], [14] e [15]. Esta nova subdiferencial é utilizada nosmétodos de Newton e métodos de Newton inexatos para resolver sistemas deequações não-suaves. Fizemos uma revisão bibliográfica dos fatos fundamentaisutilizados na dissertação e concluímos com os teoremas que mostram as con-vergências Q-superlinear e Q-linear para os métodos de Newton e métodos deNewton inexatos, respectivamente. Para prosseguimento deste trabalho suge-rimos a implementação dos algoritmos estudados. Sabemos que existem váriasaplicações que podem ser exploradas com a utilização desses resultados teóricos.

35

Referências Bibliográficas

[1] IZMAILOV, A., e SOLODOV, M., Otimização - Condições de Otimalidade,Elementos de Análise Convexa e de Dualidade, IMPA, Rio de Janeiro, 2005.

[2] MARTINEZ, J. M., e SANTOS, S. A., 20o Colóquio brasileiro deMatemática, Métodos Computacionais de otimização. Rio de Janeiros, 24- 28 de julho, 1995.

[3] LIMA, E.L.„ Curso de Análise, Vol I e II,Rio de Janeiro: IMPA - ProjetoEuclides, 2005.

[4] CHEN W, CHEN G, FENG E (1996) Variational principle eith nonlinearcomplementary for three dimensional contact problems and its numericalmethod. Science in China (Ser. A) 39: 528-539.

[5] CHEN X (1997) A verification method for solutions of nonsmooth equations.Computing 58: 281-294.

[6] CLARKE, F.H., (1983) Optimization and nonsmooth analysis. Wiley Inter-science Publication, New York.

[7] DEMYANOV VF, STAVROULAKIS GE, POLYAKOVA LN, Pana-giotopoulous PD (1996) Quasidifferenciability and nonsmooth modelling inmechanics, engeening and economic. Kluwer Academic Publishers, Dorder-cht.

[8] HIRIART-URRUTY JB, LAMARECHAL C (1993) Convex analysis andminimization. Springer Verlag, Berlin

[9] MENG F, GAO Y, XIA Z (1998) Second-order directional derivatives formax-type functions Journal of Dalian University of Technology 38: 621-624(in Chinese)

[10] MIFFLIN M (1997) Semismooth and semiconvex functions in constrainedoptimization. SIAM Journal on Control and Optmization 15: 957-972

[11] ORTEGA, J.M., e RHEINBOLDT, W.C., (1970) Iterative solution of non-linear equations in several variables. Academic Press, New York

[12] POTRA FA, QI L, SUN D (1998) Secant methods for semismooth equations.Numerische Mathemitik 80: 305-324

36

[13] QI L (1993) Convergence analysis of some algorithms for solving nonsmoothequations. Mathematics of Operations Research 18:227-244

[14] QI L, Sun J (1993) A nonsmooth version of Newton’s method. MathematicalProgramming 58: 353-367

[15] SUN D, HAN J (1997) Newton and quasi-Newton methods for a class ofnonsmooth equations and related problems. SIAM Journal on Optimization7:463-480.

[16] Gao Y (2001) Newton methods for solving nonsmooth equations via a newsubdifferential. Mathematical Methods of Operations Research. 54: 239-257.

37

Livros Grátis( http://www.livrosgratis.com.br )

Milhares de Livros para Download: Baixar livros de AdministraçãoBaixar livros de AgronomiaBaixar livros de ArquiteturaBaixar livros de ArtesBaixar livros de AstronomiaBaixar livros de Biologia GeralBaixar livros de Ciência da ComputaçãoBaixar livros de Ciência da InformaçãoBaixar livros de Ciência PolíticaBaixar livros de Ciências da SaúdeBaixar livros de ComunicaçãoBaixar livros do Conselho Nacional de Educação - CNEBaixar livros de Defesa civilBaixar livros de DireitoBaixar livros de Direitos humanosBaixar livros de EconomiaBaixar livros de Economia DomésticaBaixar livros de EducaçãoBaixar livros de Educação - TrânsitoBaixar livros de Educação FísicaBaixar livros de Engenharia AeroespacialBaixar livros de FarmáciaBaixar livros de FilosofiaBaixar livros de FísicaBaixar livros de GeociênciasBaixar livros de GeografiaBaixar livros de HistóriaBaixar livros de Línguas

Baixar livros de LiteraturaBaixar livros de Literatura de CordelBaixar livros de Literatura InfantilBaixar livros de MatemáticaBaixar livros de MedicinaBaixar livros de Medicina VeterináriaBaixar livros de Meio AmbienteBaixar livros de MeteorologiaBaixar Monografias e TCCBaixar livros MultidisciplinarBaixar livros de MúsicaBaixar livros de PsicologiaBaixar livros de QuímicaBaixar livros de Saúde ColetivaBaixar livros de Serviço SocialBaixar livros de SociologiaBaixar livros de TeologiaBaixar livros de TrabalhoBaixar livros de Turismo