durante o desenvolvimento deste trabalho o autor recebeu auxílio … · 2018. 5. 7. · programa:...

118

Upload: others

Post on 19-Jan-2021

1 views

Category:

Documents


0 download

TRANSCRIPT

Condições de otimalidade, qualicação e métodos tipo Lagrangiano

Aumentado para Problemas de Equilíbrio de Nash Generalizados

Frank Navarro Rojas

Tese apresentadaao

Instituto de Matemática e Estatísticada

Universidade de São Paulopara

obtenção do títulode

Doutor em Ciências

Programa: Matemática Aplicada

Orientador: Prof. Dr. Gabriel Heaser

Coorientador: Prof. Dr. Luís Felipe Bueno

Durante o desenvolvimento deste trabalho o autor recebeu auxílio nanceiro da CAPES/CNPq

São Paulo,14 de Março de 2018

Condições de otimalidade, qualicação e métodos tipo Lagrangiano

Aumentado para Problemas de Equilíbrio de Nash Generalizados

Esta versão da tese contém as correções e alterações sugeridas

pela Comissão Julgadora durante a defesa da versão original do trabalho,

realizada em 14/03/2018. Uma cópia da versão original está disponível no

Instituto de Matemática e Estatística da Universidade de São Paulo.

Comissão Julgadora:

• Prof. Dr. Gabriel Haeser (orientador) - IME-USP

• Prof. Dr. Ernesto G. Birgin - IME-USP

• Prof. Dr. Antoine Laurain - IME-USP

• Prof. Dr. José Mario Martínez - Unicamp

• Prof. Dr. Jeerson D. G. Melo - UFG

Agradecimentos

Toda mi gratitud a mi familia que siempre me apoyo en este projecto, especialmente a mi madre

Victoria, mi tia katy, mi tio Henry, mi tia Mary, Joseph, Alison a mis primos y a parte de mi familia

que esta Huancayo. Toda mi educación es fruto del apoyo de mi familia, todo mi reconocimiento y

respeto a ellos.

Também quero agradecer a meus amigos Alexander, Marlon, Mario, Helder , Melba, Mery, a

Fabiana , a meu orientador da licenciatura o professor Efrain carbajal, a meu orientador do mestrado

o professor Tomas Nuñez e a professora Roxana Lopez.

Agradeço a meu orientador o professor Gabriel pela conança de poder me deixar escolher e

desenvolver o tema que chamou minha curiosidade, por sua dispocição para discutir os temas da

pesquisa, pelo incentivo para participar dos seminários de otimização, minha admiração por ser um

brilhante matemático, a meu coorientador Felipe, pelos seus conselhos e pela a sua disposição de

tempo para discutir minhas ideias por sua amabilidade e gentileza em todo momento.

Minha gratidão aos amigos da UNMSM desde os tempos de estudante da graduação em mate-

mática e do mestrado em matemática aplicada.

Agradeço ao programa de pós-graduação em Matemática Aplicada do IME-USP, por ter me

oferecido a oportunidade de realizar este doutorado. Agradeço também à CNPQ e CAPES pelo

auxílio nanceiro.

Muito obrigado Brasil !

i

ii

Resumo

Navarro, F. Condições de otimalidade, qualicação e métodos tipo Lagrangiano Aumen-

tado para Problemas de Equilíbrio de Nash Generalizados . 2017. 120 f. Tese (Doutorado)

- Instituto de Matemática e Estatística, Universidade de São Paulo, São Paulo, 2017.

Esta tese é um estudo acerca do Problema de Equilíbrio de Nash Generalizado (GNEP). Na primeira

parte, faremos um resumo dos principais conceitos sobre GNEPs, a relação com outros problemas já

conhecidos e comentaremos brevemente os principais métodos já feitos até esta data para resolver

numericamente este tipo de problema. Na segunda parte, estudamos condições de otimalidade e

condições de qualicação (CQ) para GNEPs, fazendo uma analogia como em otimização. Estende-

mos os conceitos de cone tangente, normal, gerado pelas restrições ativas, linearizado e polar para

a estrutura dos GNEPs. Cada CQ de otimização gera dois tipos de CQ para GNEPs, sendo que a

denotada por CQ-GNEP é mais forte e útil para a análise de algoritmos para GNEPs. Mostramos

que as condições de qualicação para GNEPs deste tipo em alguns casos não guardam a mesma

relação que em otimização. Estendemos também o conceito de Aproximadamente Karush-Kuhn-

Tucker (AKKT) de otimização para GNEPs, o AKKT-GNEP. É bem conhecido que AKKT é uma

genuína condição de otimalidade em otimização, mas para o caso dos GNEPs mostramos que isto

não ocorre em geral. Por outro lado, AKKT-GNEP é satisfeito, por exemplo, em qualquer solução

de um GNEP conjuntamente convexo, desde que seja um equilíbrio b−variacional.Com isso em mente, denimos um método do tipo Lagrangiano Aumentado para o GNEP usando

penalidades quadráticas e exponenciais e estudamos as propriedades de otimalidade e viabilidade

dos pontos limites de sequências geradas pelo algoritmo. Finalmente alguns critérios para resolver

os subproblemas e resultados numéricos são apresentados.

Palavras-chave: Condições de otimalidade, Condições de qualicação, Método Lagrangiano Au-

mentado, Problemas de Equilíbrio de Nash Generalizados.

iii

iv

Abstract

Navarro, F. Optimality conditions, constraint qualications and Augmented Lagrangian-

type methods for Generalized Nash Equilibrium Problems . 2017. 120 f. Thesis (Ph.D) -

Instituto de Matemática e Estatística, Universidade de São Paulo, São Paulo, 2017.

This thesis is a study about the generalized Nash equilibrium problem (GNEP). In the rst part

we will summarize the main concepts about GNEPs, the relationship with other known problems

and we will briey comment on the main methods already done in order to solve these problems

numerically. In the second part we study optimality conditions and constraint qualication (CQ)

for GNEPs making an analogy with the optimization case. We extend the concepts of the tangent,

normal and generated by the active cones, linear and polar cone to the structure of the GNEPs.

Each optimization CQ generates two types of CQs for GNEPs, with the one called CQ-GNEP

being the strongest and most useful for analyzing the algorithms for GNEPs. We show that the

qualication conditions for GNEPs of this type in some cases do not have the same relation as

in optimization. We also extend the Approximate Karush- Kuhn-Tucker (AKKT) concept used in

optimization for GNEPs to AKKT-GNEP. It is well known that AKKT is a genuine optimality

condition in optimization but for GNEPs we show that this does not occur in general. On the other

hand, AKKT-GNEP is satised, for example, in any solution of a jointly convex GNEP, provided

that it is a b-variational equilibrium.

With this in mind, we dene Augmented Lagrangian methods for the GNEP, using the qua-

dratic and the exponential penalties, and we study the optimality and feasibility properties of the

sequence of points generated by the algorithms. Finally some criteria to solve the subproblems and

numerical results are presented.

Keywords: Optimality conditions, Constraint qualications, Augmented Lagrangian methods, Ge-

neralized Nash Equilibrium Problem.

v

vi

Sumário

Lista de Abreviaturas ix

Lista de Símbolos xi

Lista de Figuras xiii

Lista de Tabelas xv

1 Introdução 1

1.1 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.2 Contribuições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.3 Organização do Trabalho . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2 Preliminares sobre problemas de otimização 5

2.1 Problema de otimização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.1.1 Condições de otimalidade de primeira ordem . . . . . . . . . . . . . . . . . . 6

2.1.2 Condições de qualicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.1.3 Condições sequênciais de primeira ordem e CQs associadas . . . . . . . . . . 10

2.2 Métodos de Penalidades e Lagrangiano Aumentado para problemas de otimização . . 12

2.2.1 Métodos de penalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2.2.2 Método de Lagrangiano Aumentado . . . . . . . . . . . . . . . . . . . . . . . 14

3 Problemas de Equilíbrio de Nash Generalizados 19

3.1 Jogos de Estratégia e Equilíbrio de Nash . . . . . . . . . . . . . . . . . . . . . . . . . 19

3.2 Equilíbrio de Nash Generalizado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3.2.1 Reformulações de GNEPs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3.2.2 Sistema KKT para GNEPs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3.2.3 Algumas aplicações do GNEP . . . . . . . . . . . . . . . . . . . . . . . . . . 38

4 Condições de otimalidade e condições de qualicação para GNEPs 41

4.1 Condições de otimalidade de primeira ordem . . . . . . . . . . . . . . . . . . . . . . . 41

4.2 Condições de qualicação para GNEPs . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4.3 Condições sequenciais para GNEPs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

5 Métodos tipo Lagrangiano aumentado para resolver GNEPs 59

5.1 Método de Lagrangiano aumentado com solução global para NEPs . . . . . . . . . . 59

5.2 Método de Lagrangiano aumentado para GNEPs . . . . . . . . . . . . . . . . . . . . 62

vii

viii SUMÁRIO

5.3 Lagrangiano aumentado usando penalidade exponencial. . . . . . . . . . . . . . . . . 73

6 Resolvendo os subproblemas e Testes numéricos 77

6.1 Resolvendo os subproblemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

6.1.1 Penalização total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

6.1.2 Penalização parcial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

6.1.3 Testes numéricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

7 Conclusões 93

7.1 Sugestões para Pesquisas Futuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

Referências Bibliográcas 95

Lista de Abreviaturas

AKKT Condição aproximadamente KKT (Approximate KKT )

AKKT-GNEP Condição aproximadamente KKT para GNEPs (Approximate KKT for GNEP)

CCP Propriedade da Continuidade do Cone (Cone-Continuity Property)

CCP-GNEP Propriedade da Continuidade do Cone para GNEP

(Cone-Continuity Property for GNEP)

CPLD Condição de Dependência Linear Positiva Constante (Constant positive linear dependence)

CPLD-GNEP Condição de Dependência Linear Positiva Constante para GNEP

(Constant positive linear dependence for GNEP)

CQ Condições de Qualicação (Constraint Qualication)

CQ-GNEP Condições de Qualicação para GNEP (Constraint Qualication for GNEP)

GNEP Problema de equilíbrio de Nash Generalizado (Generalized Nash Equilibrium Problem)

MFCQ Condição de qualicação de Mangasarian-Fromovitz

NEP Problema de equilíbrio de Nash (Nash Equilibrium Problem)

QVI Desigualdade Quase-Variacional (Quasi-Variational Inequality)

VI Desigualdade Variacional (Variational Inequality)

ix

x LISTA DE ABREVIATURAS

Lista de Símbolos

Rn Espaço euclidiano de dimensão n.

Rn+ Subconjunto de Rn formado pelos vetores cujos componentes são números não negativos.

Rn++ Subconjunto de Rn formado pelos vetores cujos componentes são números são positivos.

B(x, δ) Bola fechada de centro x e raio δ.

〈x, y〉 Produto interno dos vetores x, y ∈ Rn .

‖x‖ Norma euclidiana sobre Rn, ‖x‖ :=√〈x, x〉.

P (C) Cone polar associado ao conjunto C ⊆ Rn.lim supx→x F (x) Limite exterior da multifunção F em x .

maxx, y O máximo entre x e y, componente a componente.

TX(x) Cone tangente de X em x.

NX(x) Cone normal de X em x.

LX(x) Cone tangente linearizado de X em x.

KX(x) Cone gerado pelos gradientes das restrições ativas em x .

α(x) Subconjunto de índices das restrições ativas de desigualdades em x .

xi

xii LISTA DE SÍMBOLOS

Lista de Figuras

xiii

xiv LISTA DE FIGURAS

Lista de Tabelas

6.1 Penalidade quadrática. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

6.2 Penalidade exponencial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

6.3 Penalidade quadrática. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

6.4 Penalidade exponencial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

6.5 Penalidade exponencial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

6.6 Penalidade quadrática. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

6.7 Penalidade quadrática. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

6.8 Penalidade exponencial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

6.9 Penalidade quadrática. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

6.10 Penalidade exponencial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

xv

xvi LISTA DE TABELAS

Capítulo 1

Introdução

John Forbes Nash (1928-2015) ampliou a teoria de Von Neumann e Morgenstern, desenvolvidano clássico Teoria dos Jogos e o Comportamento Econômico em 1944 [VNM07]. Nash provou aexistência de um equilíbrio de estratégias mistas para jogos não-cooperativos denominado Equilíbriode Nash e sugeriu uma abordagem de estudo de jogos cooperativos, a partir de sua redução para aforma não cooperativa [N+50]. Desde o começo, os problemas de Equilíbrio de Nash (NEP) foramamplamente usados para modelar situações e fenômenos que podem ser observados quando dois oumais agentes de decisão (jogadores) interagem entre si buscando otimizar seus ganhos.

O conceito de Equilíbrio de Nash como solução de um NEP foi provado ser eciente, aplicável erico de consequências teóricas e práticas. A teoria do Equilíbrio de Nash foi generalizada por Debreue formalmente abordada em seu trabalho Um teorema de existência social de equilíbrio, em 1952,quando foi introduzido o termo equilíbrio social [Deb52]. Esta generalização leva à interação dosjogadores, não só nas funções objetivas, mas também aos conjuntos viáveis de cada jogador. Essetrabalho serviu de base matemática para Arrow e Debreu escreverem o artigo, Existência de umEquilíbrio para Economia Competitiva, em 1954 [AD54], onde se estabelece a existência de umequilíbrio geral em uma economia competitiva.

Após o trabalho de Arrow e Debreu, pesquisadores em diferentes áreas usaram o equilíbrio so-cial para modelar diferentes situações, principalmente em economia. Durante esses anos posterioreso equilíbrio social também recebeu os nomes de pseudo-jogos, programa de equilíbrio, economiaabstrata e problemas de equilíbrio com restrições acopladas. Atualmente, todos esses nomes foramunicados em: Problemas de Equilíbrio de Nash Generalizados (GNEP). A partir da década de 90,o GNEP passou a ser aplicado fora do âmbito econômico, como em ciências da computação, pes-quisa operacional, engenharia das telecomunicações, problemas de transporte, análise de mercados,geração de eletricidade e em cenários de poluição entre outros. Desta forma, surgiu a necessidadede desenvolvimento de algoritmos para o cálculo de pontos de equilíbrio. Em [FK10a] e [FHS14],muitas referências de aplicações dos GNEPs podem ser encontradas, assim como um resumo dosprincipais algoritmos até o ano de 2013 para os GNEPs.

Neste trabalho, primeiramente denimos e estudamos condições de otimalidade e de qualicaçãopara GNEPs fazendo uma analogia com problemas de otimização. Conceitos como cone tangente,normal e linearizado são denidos e relações similares com otimização são apresentadas. Uma con-dição tipo Guignard é apresentada e provamos que esta é a condição mínima que garante a validadedas condições Karush-Kuhn-Tucker para GNEPs (KKT-GNEP) em um ponto de equilíbrio.

Condições de qualicação (CQ) em otimização são condições que, satisfeitas em uma solução,garantem KKT. Aqui estendemos algumas CQ importantes considerando a natureza dos GNEPe discutimos a relação entres estas. O conceito de Aproximadamente KKT (AKKT) dado paraproblemas de otimização será estendido para GENPs e provamos que neste caso, em geral, não éuma condição de otimalidade. Denimos a noção de Propriedade Contínua do Cone (CCP) paraGNEPs e estabelecemos sua relação com AKKT para GNEPs.

Por m, apresentamos um algoritmo tipo Lagrangiano Aumentado (LAM-GNEP) para acharum ponto KKT de um GNEP. Este algoritmo foi motivado por um algoritmo tipo penalidade para

1

2 INTRODUÇÃO 1.3

desigualdades quase variacionais (QVI) estudado em [Kan16]. Nós desenvolvemos o método usandofunções de penalidade quadrática e exponencial e provamos convergência global a um ponto KKTdo GNEP usando a condição de qualicação CCP para o GNEP. Semelhante ao caso de otimização,o algoritmo resolve GNEPs nos subproblemas que são, em geral, mais fáceis de resolver que o GNEPoriginal. Um algoritmo similar usando a função de penalidade quadrática, mas com resultados deconvergência usando CQs mais fortes, foram desenvolvidos independentemente em [KS16].

1.1 Objetivos

O objetivo da tese é o estudo acerca do Problema de Equilíbrio de Nash Generalizado.Principalmente dois aspectos são abordados. O primeiro é de tipo qualitativo, na qual estudamos

condições de otimalidade e qualicação para GNEPs fazendo uma analogia com o caso de otimização.O segundo é de tipo algorítmico, onde denimos métodos tipo Lagrangiano Aumentado usandotanto uma função de penalidade quadrática quanto de exponencial para achar um ponto KKTde um GNEP. Vantagens e desvantagens são analisadas e a implementação numérica de algunsexemplos da literatura são usados para fazer uma breve comparação do método em ambos os casos.

1.2 Contribuições

As principais contribuições deste trabalho são as seguintes:

• Fornecemos um resumo dos principais métodos desenvolvidos até agora para resolver nume-ricamente um GNEP. Analisamos a relação dos GNEPs com outros tipos de problemas bemconhecidos de otimização que podem ser úteis para estudos futuros de propriedades qualita-tivas, assim como para o desenvolvimento de novos tipos de algoritmos para GNEPs,

• Apresentamos um estudo sobre condições de otimalidade para GNEPs análogas as em otimi-zação. Conceitos como AKKT são estendidos para GNEPs e mostramos que esta condiçãoé uma condição de otimalidade para alguns tipo de GNEPs, mas não no geral, ao contráriodo que ocorre em otimização. Condições de qualicação para GNEPs são denidas no mesmosentido que em otimização e pode-se dizer que, quando satisfeitas em uma solução, garantemAKKT para GNEP. Nós vimos que para o caso dos GNEPs, para cada CQ xada de otimi-zação, duas condições de qualicação para GNEPs podem ser denidas, mas só uma delas éusada para poder ter resultados análogos como em otimização e podem ser usadas para provarconvergência de algoritmos.

• Apresentamos o método Lagrangiano Aumentado usando tanto uma função quadrática comouma função exponencial. Estudamos resultados de otimalidade e viabilidade do algoritmo,assim como apresentamos critérios úteis para poder resolver os subproblemas que o algoritmogera em cada iteração.

1.3 Organização do Trabalho

No Capítulo 2 faremos uma revisão das condições de otimalidade, das principais condiçõesde qualicação, assim como também de condições sequenciais de otimalidade de primeira ordempara otimização encontradas na literatura como, por exemplo, AKKT. Finalmente, lembramos dosmétodos de penalidade externa e interna, assim como do método de Lagrangiano Aumentado paraotimização.

No Capítulo 3 faremos uma revisão sobre os conceitos mais importantes para GNEPs, dosprincipais algoritmos para a resolução numérica desses tipos de problema, assim como a sua conexãocom outros problemas em otimização e nalmente damos algumas aplicações de GNEPs.

1.3 ORGANIZAÇÃO DO TRABALHO 3

No Capítulo 4 estudaremos condições de otimalidade, condições de qualicação e estendemos oconceito de AKKT para GNEPs. Mostraremos que AKKT, diferente do que acontece em otimiza-ção, não resulta ser uma condição sequencial de otimalidade para um GNEP em geral. Este fatonos permite tirar algumas conclusões sobre o desempenho do método de Lagrangiano Aumentadoaplicado ao GNEP.

No Capítulo 5 apresentaremos o método do Lagrangiano Aumentado para GNEPs como umaextensão do clássico e importante método de Lagrangiano aumentado em otimização. Usamos pri-meiro uma penalidade de tipo quadrático e no segundo caso uma função de penalidade exponencial.Estudaremos propriedades de otimalidade e viabilidade dos pontos limites de sequências geradaspelo algoritmo e analisaremos a aplicação do método em alguns casos importantes, mostramos queassim como acontece em otimização o método também gera sequencias AKKT, mas como AKKTpara GNEPs não é uma condição de otimalidade, o método aplicado para um GNEP geral, resultater certas diferenças com o caso de otimização.

No Capítulo 6 daremos alguns critérios para a resolução dos subproblemas, principalmente dis-cutimos os subproblemas quando é feita uma penalização total nos subproblemas do método, i.e,quando temos nos subproblemas NEPs irrestritas. Analisamos a aplicação do método de Newtonsemi diferenciável, e suavizamos por meio de uma aproximação cúbica o sistema KKT não dife-renciavel dos subproblemas. Também damos alguns critérios quando os subproblemas são NEPsirrestritas ou GNEPs simples . Por último, implementaremos o método em Matlab e testaremosalguns exemplos conhecidos da literatura de GNEPs.

Finalmente, no Capítulo 7 discutiremos algumas conclusões obtidas neste trabalho. Analisamosas vantagens e desvantagens do método proposto e propomos novos temas de pesquisa para trabalhosfuturos.

4 INTRODUÇÃO 1.3

Capítulo 2

Preliminares sobre problemas de

otimização

Este capítulo está dedicado a apresentar um resumo sobre alguns conceitos fundamentais e atu-ais da teoria de otimização. Conceitos como condições de otimalidade, condições de qualicação econdições sequenciais de otimalidade são apresentados. Estes conceitos são relevantes porque alémde proporcionar uma base teórica com respeito às propriedades de soluções e pontos estacionáriosdo problema de otimização (2.1.1), também podem ser aplicados com sucesso no estudo da conver-gência de algoritmos iterativos em otimização. Alguns destes conceitos já foram estendidos a outrasáreas de otimização como desigualdades variacionais, desigualdades quase variacionais, problemascomplementários, problemas de otimização com restrições de cardinalidade e outros. No Capítulo3 nós estendemos os conceitos mais importantes desde capítulo para a estrutura de um GNEP.

2.1 Problema de otimização

Consideremos o problema de otimização não linear

minxf(x) sujeito a gi(x) ≤ 0 ∀i = 1, . . . ,m, (2.1.1)

onde f , gi : Rn → R são funções continuamente diferenciáveis, f é chamada função objetivo eas gi são as funções de restrição. Por simplicidade não consideraremos restrições de igualdade,mas todos os resultados dados aqui são estabelecidos também quando restrições de igualdade sãoconsideradas. O problema (2.1.1) fornece um modelo matemático usado em diversas áreas da ciênciase da engenharia para modelar diversos fenômenos nessas áreas. Uma ampla teoria já foi desenvolvidatanto do ponto de vista analítico quanto algorítmico e constantes trabalhos são apresentados a cadaano que contribuem para enriquecer a teoria já feita.

Alguns casos particulares importantes de (2.1.1) ja foram estudados em detalhe, como os pro-blemas de programação linear, onde a função objetivo assim com as funções restrição são lineares,assim como os problemas de programação convexa onde a função objetivo assim como as restriçõessão funções convexas.

O conjunto viável para o problema (2.1.1) é o conjunto formado por todos os pontos que satis-fazem as restrições de desigualdade e é dado por

W = x ∈ Rn : gi(x) ≤ 0, i = 1, . . . ,m .

Se x ∈ W , dizemos que x é um ponto viável para o problema (2.1.1). Seja x um ponto viável,denotamos e denimos por α(x) = i ∈ 1, . . . ,m : gi(x) = 0 o conjunto de índices das restriçõesativas em x. Uns dos objetivos principais da teoria de otimização é achar e caracterizar as soluçõesdo problema (2.1.1). A seguir denimos as noções de solução para este problema.

Denição 2.1.1. (Mínimo local e mínimo global) Seja x∗ ∈W ,

5

6 PRELIMINARES SOBRE PROBLEMAS DE OTIMIZAÇÃO 2.1

• x∗ é chamado um ponto de mínimo local de (2.1.1) se existe ε > 0 tal que

f(x∗) ≤ f(x), ∀x ∈W ∩B(x∗, ε)

• x∗ é chamado de mínimo global se:

f(x∗) ≤ f(x), ∀x ∈W

• x∗ é chamado um ponto de mínimo local estrito se

f(x∗) < f(x), ∀x 6= x∗, x ∈W ∩B(x∗, ε).

Analogamente para um mínimo global estrito.

2.1.1 Condições de otimalidade de primeira ordem

Condição de otimalidade é qualquer condição satisfeita por todas soluções do problema (2.1.1).Por exemplo, a viabilidade e a otimalidade local são condições de otimalidade. Entretanto, a primeiraé muito fraca e a segunda de difícil vericação, e então, pouco auxiliam na busca de candidatos à so-luções. Apresentamos condições de otimalidade razoavelmente fortes para mínimos locais. Algumasdessas condições de otimalidade podem ser usadas para desenvolver algoritmos cujos pontos limitessatisfazem tal condição, e também como critérios de parada aceitáveis em um processo iterativo.

Uma condição de otimalidade importante no desenvolvimento de condições de qualicação parao problema (2.1.1) é a condição geométrica. Para poder estabelecer esta condição, dene-se o conetangente que considera-se os vetores que tangenciam ou penetram em W .

Denição 2.1.2. (Cone tangente)Seja x ∈W , o cone tangente a W em x é denotado por TW (x) e denido por:

TW (x) :=

d ∈ Rn : ∃

xk⊆ X, tk ↓ 0 : xk → x e lim

k→∞

xk − xtk

= d

.

O cone tangente é um cone fechado não-vazio, não necessariamente convexo. O cone tangentepermite estabelecer uma condição de otimalidade de primeira ordem dada no seguinte lema:

Lema 2.1.1. Seja x∗ ∈W um minimizador local do problema (2.1.1), então

∇f(x∗)Td ≥ 0, ∀d ∈ TW (x∗)

.

Demonstração. Ver [Ber99].

Denição 2.1.3. Seja C ⊆ Rn, o cone polar de C é denido e denotado por:

P (C) :=v ∈ Rn|vTd ≤ 0, ∀d ∈ C

.

Da denição de cone polar e do lema anterior temos que se x∗ é uma solução então −∇f(x∗) ∈P (TW (x∗)). Este resultado tem um interesse teórico, pois é usado para provar o teorema sobre ascondições denominadas KKT. Do ponto de vista prático, a vericação da condição geométrica édifícil, pela estrutura complexa do cone tangente. Pela denição, o cone tangente depende mais doconjunto viável do que das restrições que a denem. É claro que um conjunto W pode ter váriasrepresentações analíticas.

Do ponto de vista prático, condições que dependem explicitamente das restrições que denemo conjunto viável são mais úteis e de mais fácil vericação. Uma condição de otimalidade do tipoanalítico que usa as restrições que denem o conjunto viável é a condição de Fritz John.

2.1 PROBLEMA DE OTIMIZAÇÃO 7

Teorema 2.1.1. (Condição de Fritz John) Seja x∗ ∈ W um minimizador local de (2.1.1), entãoexistem λ0 ≥ 0 e multiplicadores λ ∈ Rm+ com (λ0, λ) 6= 0 tais que:

λ0∇f(x∗) +m∑i=1

λi∇gi(x∗) = 0, λigi(x∗) = 0, ∀i = 1, . . . ,m. (2.1.2)

Os vetores λ0, λ são chamados os multiplicadores de Fritz-John. As condições λigi(x∗) = 0,∀i = 1, . . . ,m são chamadas restrições de complementariedade. Da denição, o escalar λ0 poderiaser 0, nesse caso a condição de Fritz Jonh não dependeria da função objetivo. Isso tornaria oresultado pouco útil pois a condição não levaria informação de todo o problema. Com a nalidadede estudar a otimalidade do ponto viável, Kuhn e Tucker estudaram condições sobre as funçõesque denem o conjunto viável sob a qual a condição de Fritz John é satisfeita com λ0 6= 0. Essascondições são chamadas condições de qualicação. Quando λ0 6= 0 a condição de Fritz John échamada condição de Karush-Kuhn-Tucker (KKT).

Como foi mencionado, a condição KKT não é puramente uma condição de otimalidade. Umexemplo clássico para ver isto é minx sujeito a x2 = 0. O ponto x∗ = 0 é uma solução que não éum ponto KKT. Embora a condição KKT não seja uma condição de otimalidade, ela é usada comoum condição a ser satisfeita por pontos de acumulação da maioria de algoritmos iterativos desen-volvidos para o problema (2.1.1). Além disso, esta condição também já foi estendida para muitosoutros problemas como desigualdades variacionais, desigualdades quase variacionais, problemas deotimização multiobjetivo, problemas de equilíbrio de Nash generalizado, entre outros.

Como foi dito, uma condição de qualicação é uma condição que ao ser satisfeita em umasolução, faz que o ponto seja KKT. Vamos agora estabelecer uma condição deste tipo que terá apropriedade de ser a condição mais fraca possível à garantir KKT. Para isto, vamos denir um coneque usa aproximações de primeira ordem das restrições e captura a informação até de primeiraordem contida no cone tangente. Uma vantagem desse conjunto com respeito ao cone tangente, é ofato de seu polar ser fácil de computar.

Denição 2.1.4. (Cone linearizado) Seja x ∈ W , o cone linearizado de W em x é denotado edenido por:

LW (x) :=d ∈ Rn : ∇gi(x)Td ≤ 0, i ∈ α(x)

.

O cone linearizado é um cone convexo, fechado e não vazio. A seguinte proposição estabelece arelação entre os cones tangente e linearizado.

Proposição 2.1.1. Se x ∈W , então TW (x) ⊆ LW (x).

Demonstração. Ver [BSS13].

Em geral, a inclusão TW (x) ⊆ LW (x) pode ser estrita. Da denição do cone polar temos queP (LW (x)) ⊆ P (TW (x)), e nesse caso também a inclusão pode ser estrita

Uma condição que estabelece que toda solução local de (2.1.1) é um ponto KKT, é a chamadacondição de Guignard, que é P (TW (x∗)) = P (LW (x∗)). Esse resultado é uma consequência dacondição geométrica e do cálculo do P (LX(x∗)) por meio do lema de Farkas. Para formalizar estasideias dene-se o seguinte cone.

Denição 2.1.5. (Cone gerado pelos gradientes das restrições ativas) Seja x ∈ W o cone geradopelos gradientes das restrições ativas de W em x é denotado e denido por:

KW (x) :=

d ∈ Rn : d =∑i∈α(x)

λi∇gi(x), 0 ≤ λi, i ∈ α(x)

.

Usando o Lema de Farkas prova-se que P (LW (x)) = KW (x). Esses conceitos permitem estabe-lecer o seguinte fundamental resultado.

8 PRELIMINARES SOBRE PROBLEMAS DE OTIMIZAÇÃO 2.1

Teorema 2.1.2. (Karush-Kuhn-Tucker) Seja x∗ uma solução de (2.1.1) e suponha que a condiçãode Guignard é satisfeita, isto é, P (TW (x∗)) = P (LW (x∗)), então existem multiplicadores λ ∈ Rm+com λi = 0 para i /∈ α(x∗) tal que

∇f(x∗) +∑

i∈α(x∗)

λi∇gi(x∗) = 0. (2.1.3)

Demonstração. Ver [Gui69].

Quando um ponto viável de (2.1.1) satisfaz (2.1.3), o ponto é chamado um ponto estacionárioou ponto KKT. Como foi já mencionado, a condição KKT é amplamente usada por ser facilmentevericada e implementada em algoritmos.

A condição de Guignard P (LW (x)) = KW (x) foi introduzida por Guignard [Gui69] para dimen-são innita e reformulada para o caso nito por Gould e Tolle [GT71], onde se estabelece que alémde suciente, também é necessária para que tenhamos as condições KKT, como mostraremos maisadiante no Corolário 2.1.1.

2.1.2 Condições de qualicação

Sob a condição de Guignard, toda solução local (mínimo ou máximo) satisfaz KKT. Muitosalgoritmos em otimização geram uma sequência que converge a um ponto KKT. Uma hipótesepara que isso aconteça é que no ponto limite da sequência gerada seja satisfeita uma condição dequalicação. Como já foi mencionado, a condição de Guignard é uma condição de qualicação, masnão existem algoritmos que a usem para garantir que um ponto de acumulação de um processoiterativo seja um ponto KKT. Isso ocorre, em parte, pela falta de regularidade e a difícil vericaçãoda condição de Guignard na prática. Por essa razão, a construção de condições de qualicação maisfortes que as de Guignard e associadas a condição KKT, de fácil vericação, e que possam ajudar aguiar um algoritmo iterativo para achar pontos KKT, são importantes. Salientamos que se não forvericada nenhuma hipótese à respeito das restrições, podemos ter minimizadores que não cumpremKKT dicultando assim a caracterização de tais pontos. Formalmente denimos:

Denição 2.1.6. (Condições de qualicação) Uma condição de qualicação (CQ) é uma propo-sição sobre as funções que descrevem o conjunto viável de (2.1.1) que quando satisfeitas em umminimizador local fazem que o ponto seja um ponto KKT.

A condição de qualicação de Guignard tem a interessante propriedade de ser a CQ mais fracaassociada com KKT no sentido que, para qualquer função objetivo f que tem um minimizador localem x∗ ∈ W que satisfaz KKT, então satisfaz a condição de Guignard. Para mostar este resultadodenimos o cone normal.

Denição 2.1.7. (Cone normal) Seja x ∈ W , denotamos e denimos o cone normal de W em xpor

NW (x) = w ∈ Rn : 〈w, x− x〉 ≤ o(‖x− x‖) ∀x ∈W .

Em [RW09], Teorema 6.11, se prova que NW (x) = P (TW (x)).O seguinte teorema fornece uma outra caraterização dos vetores normais.

Teorema 2.1.3. Temos que v ∈ NW (x) se, e somente se, existe uma função f diferenciável em xcom ∇f(x) = −v e que alcança seu mínimo local em x sobre o conjunto W . Mais ainda, f pode sertomada diferenciável em Rn e tal que o mínimo global sobre o conjunto W é alcançado em x.

Demonstração. Ver [RW09].

Deste teorema obtem-se o seguinte importante resultado.

2.1 PROBLEMA DE OTIMIZAÇÃO 9

Corolário 2.1.1. Seja x∗ ∈W . P (LX(x∗)) = P (TX(x∗)) é equivalente ao fato de que para qualquerfunção objetivo diferenciável f : Rn → R tal que o problema (2.1.1) possui em x∗ um mínimo local,então x∗ é um ponto KKT.

Demonstração. É uma consequência dos resultados anteriores.

A igualdade dos cones LW (x∗) = TW (x∗) é chamada condição de Abadie e é claro que estacondição implica a condição de Guignard, portanto, a condição de Abadie é também uma condiçãode qualicação.

Embora Abadie seja mais restritiva que Guignard, esta condição tampouco é usada em algorit-mos para provar convergência global. Brevemente apresentamos algumas condições de qualicaçãomais restritivas que Abadie, mas que são usadas para provar convergência global de algoritmos parao problema (2.1.1). Daremos mais ênfase nas condições clássicas e nas condições de qualicação maisrecentes, que serão estendidas para GNEPs.

Denição 2.1.8. (Condição de independência linear) Seja x ∈ W , a condição de independêncialinear (LICQ) ocorre em x se o conjunto ∇gi(x) : i ∈ α(x) é linearmente independente.

Sob LICQ, se x ∈ W e (x, λ) é um ponto KKT então λ é único. Da denição, é claro que seo gradiente de duas restrições ativas em x são iguais, então LICQ não é satisfeito. LICQ pode serenfraquecido por meio das condições MFCQ [MF67] e CRCQ [Jan84], as quais são independentes.

Denição 2.1.9. Seja x ∈ W , a condição de Posto Constante (CRCQ) ocorre em x se para cadaI ⊆ α(x) o conjunto

∇gi(x) : i ∈ I

tem posto constante para todo x em uma vizinhança de x.

Denição 2.1.10. Seja x ∈ W , a condição de Mangasarian Fromovits (MFCQ) ocorre em x se oconjunto

∇gi(x) : i ∈ α(x)

é positivo-linearmente independente, isto é, se:∑i∈α(x)

λi∇gi(x) = 0, λi ≥ 0

implica que λi = 0 para i ∈ α(x).

Da mesma forma como MFCQ enfraquece LICQ olhando o sinal dos multiplicadores, no mesmosentido a condição de dependência linear positiva constante CPLD enfraquece CRCQ, além detambém enfraquecer MFCQ. Essa condição foi introduzida por Qi e Wei [QW00] para provar aconvergência de um método de programação quadrática sequencial. Os autores em [AMS05b] pro-varam que a condição de dependência linear positiva constante, é uma condição de qualicação eem [BM14] os autores usaram a CPLD para provar a convergência global do método LagrangianoAumentado.

Denição 2.1.11. Seja x ∈W , a condição de dependência linear positiva constante CPLD ocorreem x se existe uma vizinhança aberta B de x tal que para todo I ⊆ α(x) tal que ∇gi(x) : i ∈ I épositivo-linearmente dependente, então ∇gi(y) : i ∈ I é positivo-linearmente dependente ∀y ∈ B

As condições Relaxed-CRCQ (RCRCQ, [MS11]) e Relaxed-CPLD (RCPLD, [AHSS12a]) enfra-quecem CRCQ e CPLD respectivamente, sendo RCPLD mais fraca que RCRCQ. A condição CRSC(Constant Rank of the Subspace Component,[AHSS12b]) é outra condição mais fraca que LICQ,MFCQ, CRCQ, CPLD, (R)CRCQ e (R)CPLD. Outra condição mais fraca que CPLD é a condiçãode qualicação de quase normalidade [Ber99].

10 PRELIMINARES SOBRE PROBLEMAS DE OTIMIZAÇÃO 2.1

Denição 2.1.12. Seja x ∈ W , a condição de quase normalidade ocorre em x se sempre que∑i∈α(x) λi∇gi(x) = 0 com λi ≥ 0, então não existe sequência xk → x tal que para todo k ∈ N temos

que gi(xk) > 0 sempre que λi > 0.

Todas as condições até aqui apresentadas, satisfazem a condição de error bound [Sol10], que éuma condição que estima a distância de um ponto dado em uma vizinhança de um ponto viável x,ao conjunto viável em termos de quantidades computáveis que medem a violação das restrições.

Denição 2.1.13. (Error bound) Seja x ∈ W . Dizemos que a condição de error bound ocorre emx, se existe uma vizinhança B de x e γ > 0 tal que para todo y ∈ B

minz∈W

‖ z − y ‖≤ γmaxmax0, gi(y), i = 1, . . . ,m.

Em [Sol10], prova-se que a condição de error bound, é uma condição de qualicação.Uma propriedade importante da condição de error bound é que é a condição mais fraca que

garante que toda solução do problema (2.1.1) com função objetivo da forma f = fs + fc com fssucientemente diferenciável e fc convexa (não necessariamente diferenciável) é um ponto KKT[Hae16].

A condição Geradores Positivos Constantes (CPG, [AHSS12b]) é uma condição de qualicaçãoestritamente mais fraca que CRSC, mais forte que Abadie, que não implica a condição de errorbound.

Uma recente condição de qualicação é a Propriedade da Continuidade do Cone (CCP, [AMRS16])que é estritamente mais fraca que CPG, mas que implica Abadie.

Denição 2.1.14. Seja x ∈W , dizemos que ocorre a Propriedade da Continuidade do Cone (CCP)em x se a multifunção K : Rn ⇒ Rn é semicontínua exteriormente em x, isto é lim supx→xK(x) ⊆K(x), onde

K(x) =

w ∈ Rn : w =∑i∈α(x)

λi∇gi(x), λi ≥ 0

e

lim supx→x

K(x) =w ∈ Rn : ∃xk → x,∃wk → w,wk ∈ K(xk)

.

2.1.3 Condições sequênciais de primeira ordem e CQs associadas

Em alguns algoritmos importantes desenvolvidos para problemas de otimização, o algoritmogera sequências que no limite devem satisfazer uma CQ a m de que o ponto seja KKT.

Na prática o algoritmo efetua só uma quantidade nita de passos, que é determinada pelocumprimento de uma condição de parada, que em geral depende de alguma tolerância ε > 0. Oalgoritmo dá como saída um ponto xk próximo a x∗, mas para se aceitar xk como um bom candidato,xk deveria satisfazer aproximadamente as condições KKT. Condições sequenciais de otimalidadefornecem a ferramenta teórica para justicar essa prática.

As condições sequenciais mais conhecidas são AKKT [AHM11] e AGP [MS03]. Dessas duas, amais usada é AKKT, sendo AGP estritamente mais forte que AKKT. Aqui denimos e enunciamosas propriedades de AKKT sua conexão com CCP e com critérios de paradas de algoritmos. Umestudo detalhado de AGP pode ser encontrado em [MS03].

Denição 2.1.15. (AKKT) Dizemos que x ∈W satisfaz AKKT se existem sequênciasxk⊆ Rn,

λk⊆ Rm+ , tais que limk→∞ x

k = x,

limk→∞

∥∥∥∥∥∇f(xk) +m∑i=1

λki∇gi(xk)

∥∥∥∥∥ = 0,

elimk→∞

minλki ,−gi(xk)

= 0 para todo i = 1, . . . ,m.

2.1 PROBLEMA DE OTIMIZAÇÃO 11

Neste caso dizemos quexké uma sequência AKKT.

O seguinte teorema prova que AKKT é uma condição de otimalidade e satisfeita independentedo cumprimento de uma condição de qualicação.

Teorema 2.1.4. Se x∗ é uma solução local de (2.1.1), então x∗ é um ponto AKKT.

Demonstração. Ver [AHM11].

Uma forma equivalente para AKKT é:

Denição 2.1.16. O ponto x ∈W satisfaz AKKT se, e somente se, existe uma sequência xk talque limk→∞ x

k = x e multiplicadores λk ⊆ Rr+ onde r = |α(x)| tais que

limk→∞

∥∥∥∥∥∥∇f(xk) +∑i∈α(x)

λki∇gi(xk)

∥∥∥∥∥∥ = 0. (2.1.4)

O seguinte teorema justica o uso de AKKT como um critério de parada.

Teorema 2.1.5. O ponto x ∈W satisfaz AKKT se, e só se, existem sequências xk, λk ⊆ Rm+e εk ⊆ R+ tais que limk→∞ x

k = x, εk → 0 e

∥∥∥∥∥∇f(xk) +

m∑i=1

λki∇gi(xk)

∥∥∥∥∥ ≤ εk‖(max0, gi(xk))mi=1‖ ≤ εk

se gi(xk) < −εk então λki = 0, ∀i = 1, . . . ,m.

Demonstração. Ver [Hae16].

Observação 2.1.1. Se um algoritmo gera sequências AKKT que tem como ponto de acumulaçãox∗ que é viável, então o teorema anterior pode ser usado para denir um critério de parada. Comoé comum um ε > 0 controla a tolerância de aceitação da aproximação, como εk → 0, então oalgoritmo para quando achamos um k tal que εk ≤ ε. Esta aproximação xk tem a chance de ser umponto próximo a uma solução do problema e ao mesmo tempo satisfaz as condições KKT de formaaproximada, então xk pode ser considerada como uma aproximação razoável.

Pode-se provar a condição de Fritz John a partir da condição AKKT. Condições de qualicaçãomais fracas geram condições de otimalidade fortes da forma KKT ou não CQ, que são mais úteisna prática. De todas as condições mencionadas anteriormente, a CCP é uma das mais fracas.As condições de qualicação mencionadas que estão relacionadas a convergência de algoritmossatisfazem a propriedade P , tal que

AKKT + P ⇒ KKT.

Em geral, como AKKT é uma condição de otimalidade, qualquer condição P que satisfaz apropriedade anterior é uma condição de qualicação. Como foi dito, a AKKT é uma propriedadecom implicações algorítmicas e existem alguns algoritmos clássicos que geram sequências cujospontos limites são pontos AKKT. Se esses pontos satisfazem a propriedade P , então estes pontosserão estacionários. Assim, CQs que satisfaçam essa propriedade são importantes do ponto de vistaprático.

O seguinte resultado estabelece a relação de AKKT com a condição CCP. No Corolário 2.1.1observamos que a condição de Guignard é a condição mais fraca que garante que todo minimizadorlocal de (2.1.1) é um ponto KKT. O seguinte teorema estabelece que a condição CCP é a condiçãomais fraca que garante que todo ponto AKKT é um ponto KKT.

12 PRELIMINARES SOBRE PROBLEMAS DE OTIMIZAÇÃO 2.2

Teorema 2.1.6. Seja x ∈W , x satisfaz CCP se, e somente se, para qualquer função objetivo f talque x é AKKT para o problema (2.1.1), então x é KKT.

Demonstração. Ver [AMRS16].

Das observações anteriores, o teorema anterior permite provar diretamente que CCP é umacondição de qualicação.

Uma consequência importante do Teorema 2.1.6 é que a condição de otimalidade KKT ou não-CCPfornece a maior medida de força da condiçao AKKT, em comparação com KKT ou não-CQ parauma CQ mais forte que CCP.

2.2 Métodos de Penalidades e Lagrangiano Aumentado para pro-

blemas de otimização

Os métodos de penalidade e Lagrangiano Aumentado seguem uma ideia clássica usada emvárias áreas da matemática que consiste em resolver um problema difícil, através da resoluçãode subproblemas mais simples. Aplicar esta ideia no problema de programação não linear (2.1.1)consiste, por exemplo, em ter subproblemas onde a minimização seja feita de forma irrestrita, emcaixas ou em politopos. Embora os métodos de penalidade na forma pura não sejam muito usados,pela diculdade para lidar com a resolução dos subproblemas, eles servem de ajuda para provarresultados fortes de otimalidade. Em geral os métodos de penalidades utilizados para resolver oproblema (2.1.1) são métodos iterativos onde em cada iteração transformam o problema originalem outro que supomos ser de mais fácil resolução.

2.2.1 Métodos de penalidades

Apresentamos brevemente os métodos de penalidade interna (conhecidos também como métodosde barreira) e métodos de penalidade externa (as vezes simplesmente chamados de penalidade).

O método de barreira é usado para a resolução de problemas com restrições de desigualdadecom interior não vazio. Em cada iteração se resolve um problema irrestrito onde a função objetivoé a função objetivo do problema original agregando um termo que depende das restrições e deum parâmetro de penalidade que em geral decresce em cada iteração e que tentam impedir aaproximação de um ponto viável à fronteira do conjunto viável.

Os métodos de barreira também podem ser aplicados a problemas com restrições gerais deigualdade, no entanto, é necessária uma transformação apropriada do problema. Em um métodode barreira, presumimos que recebemos um ponto x0 no interior do conjunto viável e impomosum custo muito grande em pontos viáveis cada vez mais próximos da fronteira do conjunto viável,criando assim uma barreira para sair da região viável.

A função de penalidade em relação ao problema (2.1.1) é denida como:

B(x, ρ) = f(x) + ρb(x)

onde b é chamada de função de barreira, onde é qualquer função contínua denida no interior doconjunto viável, e tal que b(x)→∞ quando maxgi(x) : i = 1, . . . ,m → 0−.

Os dois tipos mais usados de funções barreiras são:

b(x) = −m∑i=1

log(−gi(x)) e b(x) = −m∑i=1

1

gi(x),

a barreira logarítmica e a barreira inversa, respectivamente.O algoritmo de barreira básico para o problema (2.1.1) é:

Algoritmo 2.2.1. Algoritmo de Barreira.P0) Escolher ρ0 > 0 e x0 ∈ int(W ), fazer k = 0

2.2MÉTODOS DE PENALIDADES E LAGRANGIANO AUMENTADO PARA PROBLEMAS DE OTIMIZAÇÃO

13

P1) Se xk satisfaz algum critério de parada, parar.P2) Achar uma solução xk+1 do problema P (ρk) dado por:

min B(x, ρk) (2.2.1)

sujeito a gi(x) < 0, i = 1, . . . ,m.

P3) Escolher ρk+1 > ρk(por exemplo ρk+1 =1

2ρk)e ir ao passo 1.

O seguinte teorema é sobre a convergência do método.

Teorema 2.2.1. Suponha que f , gi e b(x) são contínuas. Suponha também que o problema P (ρ)possui solução para qualquer ρ > 0 e que a sequência ρk satisfaz ρk+1 → 0. Se o problema temuma solução x∗ tal que B(x∗, δ) ∩ x : g(x) < 0 6= ∅ para todo δ > 0 então qualquer ponto limitede xk é solução de (2.1.1).

Demonstração. Ver [IS14a].

A penalização externa pode ser usada, em geral, quando o conjunto de restrições de (2.1.1) éda forma

W = x ∈ Rn : h(x) = 0, g(x) ≤ 0.

Nesse caso usamos uma função de penalidade b : Rn → R+ contínua cujo objetivo será penalizar aviolação das restrições do conjunto viável, i.e, tal que:

b(x) =

= 0 ∀x ∈W> 0 ∀x ∈ Rn −W

Uma escolha bastante comum para b pode-se fazer da seguinte maneira, dena a função ψ :Rn → Rl × Rm denida por:

ψ(x) = (h(x),max0, g1(x), . . . ,max0, gm(x))

e seja b(x) = ‖ψ(x)‖p onde p > 0. Além da norma euclidiana, outras normas como a norma domáximo ‖‖∞ e a norma ‖‖p para p > 0 podem ser usadas (embora para p ∈ (0, 1) não seja umanorma). Assim obtemos respectivamente:

b(x) = (max‖h(x)‖∞, 0, g1(x), . . . , gm(x))p (2.2.2)

e

b(x) = ‖h(x)‖pp +

m∑i=1

(max0, gi(x))p. (2.2.3)

Propriedades de diferenciabilidade do penalizador b são importantes no estudo dos algoritmos.Por exemplo, quando h e g são diferenciáveis, então b denida em (2.2.3) é diferenciável sempreque p > 1 e não diferenciável para 0 < p ≤ 1. Entretanto, b denida em (2.2.2) é não diferenciávelainda com h e g diferenciáveis. Denindo B(x, ρ) = f(x) + ρb(x), em cada iteração o método depenalidade externa resolve um problema da forma:

min B(x, ρ) (2.2.4)

sujeito a x ∈ Rn.

A ideia é que na medida em que o valor de ρ aumenta a violação das restrições torna-se cada vezmais cara. As soluções desses problemas penalizados estão geralmente fora do conjunto viável mas

14 PRELIMINARES SOBRE PROBLEMAS DE OTIMIZAÇÃO 2.2

se aproximam dele, quando o parâmetro de penalidade aumenta, e assim podemos esperar que seuspontos de acumulação resolvam o problema original. O algoritmo de penalização externa básicopara o problema (2.1.1) é:

Algoritmo 2.2.2. Algoritmo de penalização externa.P0) Escolher x0 ∈ Rn e ρ0 > 0, fazer k = 0.P1) Se xk satisfaz algum critério de parada, parar.P2) Achar uma solução xk+1 do problema P (ρk):

min B(x, ρk) (2.2.5)

sujeito a x ∈ Rn

P3) Escolher ρk < ρk+1, fazer k = k + 1 e ir ao passo 1.

O seguinte teorema estabelece a convergência do método.

Teorema 2.2.2. Seja xk uma sequência gerada pelo algoritmo. Se ρk → ∞, então todo pontode acumulação de xk é uma solução global de (2.1.1). Além disso, xk ∈ W para algum k se, esomente se, xk é solução global do problema (2.1.1).

Demonstração. Ver [Ber99].

Um dos pontos negativos dos métodos de penalidades é que os subproblemas gerados em cadaiteração tornam-se mal condicionados ao uso de valores extremos (muito grandes ou muito pequenos)do parâmetro penalizador. Ver exemplos em [MS95] e [IS14a]. Resultados sobre taxa de convergênciae variantes do método de penalidade externa, assim como o estudo de penalidade externa exatapodem ser achado em [IS14a].

2.2.2 Método de Lagrangiano Aumentado

Os métodos de Lagrangiano Aumentado, também conhecidos como método de multiplicadores,foram inicialmente propostos em [Pow67] e [Hes69] para problemas de otimização com restrições deigualdade e mais tarde foram generalizados para problemas com restrições mistas por Rockafellar[Roc74]. Embora os métodos tipo Lagrangiano Aumentado herdem propriedades parecidas dosmétodos de penalidades, uma diferença substancial é a introdução dos multiplicadores de Lagrange(variáveis duais) que evitam o mal condicionamento dos subprobemas que surgem em cada iteração.Por exemplo, no caso só com restrições de desigualdade o método gera duas sequências, uma primalxk, que não necessariamente tem termos viáveis, e uma sequência dual λk com λk ≥ 0.

Nesse trabalho, comentaremos brevemente o método de Lagrangiano Aumentado, assim comoos resultados de convergências recentes. O algoritmo de Lagrangiano Aumentado considerado nestaparte do trabalho usa a função de Powell-Hestenes-Rockafellar [Roc74].

Vamos considerar o método de Lagrangiano Aumentado em sua forma mais geral, isto é, usandouma penalização parcial. Para isso consideremos o problema:

min f(x) (2.2.6)

sujeito a gi(x) ≤ 0 , i = 1, . . . ,m.

hj(x) ≤ 0 , j = 1, . . . , l.

Onde g : Rn → R são as restrições de nivel superior e h : Rn → R as restrições de nivel inferior ,essa forma de apresentar em duas partes as restrições foi desenvolvida em [ABMS07]. As funções ge h são tratadas de forma diferente, g descreve o conjunto de funções que serão penalizadas, entantoh é uma restrição(opcional) que será as restrições dos problemas penalizados, e que é escolhida detal forma que os subproblemas possam ter solução ou tenham uma estrutura mais simples e possam

2.2MÉTODOS DE PENALIDADES E LAGRANGIANO AUMENTADO PARA PROBLEMAS DE OTIMIZAÇÃO

15

ser resolvidos com facilidade, por exemplo se h dene um conjunto compacto ou se são restriçõeslineares, ver [ABMS07].

A função Lagrangiana é denida como:

`(x, λ) = f(x) +

m∑i=1

λigi(x)

para x ∈ Ω = x : hj(x) ≤ 0, j = 1, . . . , l e λ ∈ Rm+ . Já a função Lagrangiano Aumentado édenida por:

L(x, u, ρ) = f(x) +ρ

2

m∑i=1

[max

0, gi(x) +

uiρ

]2

para ρ > 0, x ∈ Rn e u ∈ Rm+ .O método básico do Lagrangiano Aumentado é denido da seguinte maneira:

Algoritmo 2.2.3. (Lagrangiano Aumentado)Passo 0. Seja umax ∈ Rm+ , γ > 1 e 0 < τ < 1, u0 ∈ [0, umax] e ρ0 > 0. Fazer k = 0.Passo 1. Achar xk solução aproximada do problema P k:

min L(x, uk, ρk) (2.2.7)

sujeito a x ∈ Ω

Passo 2. Denimos novas aproximações para os multiplicadores de Lagrange

λk = max0, uk + ρkg(xk).

Passo 3. Denir

V k = min−g(xk), λk. (2.2.8)

Se k = 1 ou‖V k‖ ≤ τ‖V k−1‖

escolher ρk+1 = ρk caso contrario ρk+1 = γρk.

Passo 4. Escolher uk ∈ [0, umax]. Fazer k = k + 1 ir ao Passo 1.

Em alguns artigos que tratam com o método Lagrangiano costumam se usar no Passo 3 a

seguinte escolha: V k = min−g(xk),uk

ρk. Em qualquer caso, os resultados sobre convergência se

mantêm. Nós usamos (2.2.8), pois permite ver uma melhor conexão do algoritmo como o conceitode AKKT.

Na sequência comentamos as principais características do método e os resultados de convergên-cia.

O método Lagrangiano Aumentado, tem a exibilidade de poder ser usado tanto para poderachar soluções globais como também pontos KKT do problema (2.2.6), mudando o Passo 2 doalgoritmo. Primeiro usaremos o algoritmo para encontrar um mínimo global de (2.2.6). Para isso,no Passo 2 calculamos um mínimo global aproximado do problema P k.

Hipótese 2.2.1. Para cada k ∈ N, podemos obter um ponto xk ∈ Ω tal que:

L(xk, uk, ρk) ≤ L(x, uk, ρk) + εk, ∀x ∈ Ω

e a sequência de tolerância εk é limitada.

16 PRELIMINARES SOBRE PROBLEMAS DE OTIMIZAÇÃO 2.2

O seguinte resultado trata sobre a viabilidade do ponto limite da sequência gerada pelo algoritmosob a Hipótese 2.2.1.

Teorema 2.2.3. Seja x∗ um ponto limite da sequência gerada pelo algoritmo 2.2.3 com a Hipó-tese 2.2.1. Então, x∗ é solução de:

min ‖g+(x)‖2 (2.2.9)

sujeito a x ∈ Ω

Demonstração. Ver [BM14].

Imediatamente podemos ver, do teorema anterior que se o conjunto viável de (2.2.6) não é vazio,então todo ponto limite do algoritmo é viável.

Para provar um resultado da otimalidade do ponto limite, nós assumiremos na hipótese 2.2.1que a sequência εk converge a zero.

Teorema 2.2.4. Seja x∗ um ponto limite da sequência gerada pelo algoritmo 2.2.3 com a Hipó-tese 2.2.1 e com limk→∞ εk = 0. Então, se o problema (2.2.6) é viável, então x∗ é solução global.

Demonstração. Ver [BM14].

Entretanto, calcular soluções globais nos subproblemas (ou mesmo aproximadas com uma tole-rância muito pequena) é na prática muito difícil. Assim, implementar algoritmos para obter conver-gência a um minimizador global resulta em uma tarefa muito ambiciosa. Podemos, então, ser menosexigentes e nos contentar calculando pontos estacionários do problema (2.2.6). O algoritmo 2.2.3também pode ser usado para esta tarefa trocando o cálculo de soluções globais aproximadas porpontos estacionários aproximados.

No Passo 2 do algoritmo assumiremos a seguinte hipótese.

Hipótese 2.2.2. É possível achar xk ∈ Rn, wk ∈ Rm+ tal que

‖∇L(xk, uk, ρk) +∇h(x)wk‖ ≤ εk (2.2.10)

‖min−h(xk), wk‖ ≤ ε′k (2.2.11)

onde a sequência εk é limitada e ε′k tende a zero.

O seguinte teorema estabelece que se a sequência gerada pelo algoritmo tem um ponto deacumulação viável, então este ponto é um ponto AKKT para o problema (2.2.6).

Teorema 2.2.5. Seja x∗ um ponto de acumulação viável da sequência gerada pelo algoritmo, su-ponha que a Hipótese 2.2.2 é satisfeita com εk convergindo a zero, então x∗ é um ponto AKKTpara o problema (2.2.6).

Demonstração. Ver [BM14].

Corolário 2.2.1. Suponha que as hipóteses do teorema anterior são satisfeitas. Se x∗ satisfaz CCP,então x∗ é um ponto KKT do problema (2.2.6).

O seguinte teorema prova que o ponto limite da sequência gerado pelo algoritmo é um pontoAKKT das somas de quadrados das inviabilidades das restrições de nível superior.

Teorema 2.2.6. Seja x∗ um ponto de acumulação da sequência gerada pelo algoritmo sob a Hipó-tese 2.2.2, então x∗ é um ponto AKKT do problema:

min ‖g+(x)‖2 (2.2.12)

sujeito a h(x) ≤ 0

2.2MÉTODOS DE PENALIDADES E LAGRANGIANO AUMENTADO PARA PROBLEMAS DE OTIMIZAÇÃO

17

Demonstração. Ver [BM14].

Corolário 2.2.2. Seja x∗ um ponto de acumulação da sequência gerada pelo algoritmo sob a hi-pótese 2.2.2. Se x∗ satisfaz CCP com respeito ao conjunto Ω, então x∗ é um ponto AKKT doproblema (2.2.12).

18 PRELIMINARES SOBRE PROBLEMAS DE OTIMIZAÇÃO 2.2

Capítulo 3

Problemas de Equilíbrio de Nash

Generalizados

Nesta seção, apresentaremos o Problema de Equilíbrio de Nash Generalizado. Comentaremos arelação deste tipo de problema com outros problemas na área de otimização e faremos um breveresumo sobre os métodos que já foram desenvolvidos para resolver numericamente este tipo deproblema. Finalmente apresentamos algumas aplicações deste tipo de problema.

Problemas de otimização modelam situações onde se desejam determinar a melhor escolha de umconjunto de opções ou alternativas. Nesses tipos de problemas, o decisor, ao escolher a alternativacerta, inuencia unicamente o resultado e a satisfação que ele ou ela recebe. Em outras situaçõesisto não é sempre verdade, em muitos casos, o bem-estar de um indivíduo depende não apenasdo que ele ou ela faz, mas também do resultado das escolhas de outros indivíduos. Em algunscasos, esse elemento de interdependência mútua é tão grande que deve ser explicitamente levado emconsideração, ao descrever ou modelar a situação. Começaremos denindo um jogo de estratégias eo equilíbrio clássico de Nash para descrever estas situações.

3.1 Jogos de Estratégia e Equilíbrio de Nash

Denição 3.1.1. Jogos de estratégia.

Um jogo de estratégia é um modelo para jogos estáticos que consiste de N -jogadores N ≥ 2denotados por v = 1, . . . , N tal que cada jogador v têm:

1. Um conjunto de estratégias (puras) Xv (também conhecido como o conjunto de alternativas),onde os elementos desse conjunto são as estratégias do jogador v.

2. Uma função objetivo fv : X = X1 × · · · ×XN → R.

Um jogo com essas características é denotado como uma 2N -duplaG = (X1, . . . , XN , f1, . . . , fN ).

Jogando um jogo de estratégia não cooperativo.

Nesta situação todos os jogadores escolhem simultaneamente e independente dos outros jogado-res uma estratégia de seu conjunto de estratégias, assim, se o jogador v escolhe a estratégia xv ∈ Xv,então ele recebe o pagamento fv(x1, . . . , xv, . . . , xN ) e o jogo acaba.

Assumindo que todos os jogadores são racionais, cada jogador tentará escolher a estratégia, quelhe proporcione o melhor retorno possível. Note-se que esse retorno está sujeito também às escolhasdos outros jogadores, portanto, gera-se uma interdependência entre os jogadores.

O objetivo em um jogo de estratégia não cooperativo é encontrar uma "solução", uma estratégiaconjunta (x1, . . . , xv, . . . , xN ) ∈ X, que dê uma satisfação (em algum sentido) a todos os jogadores,em ausência de cooperação entre eles.

19

20 PROBLEMAS DE EQUILÍBRIO DE NASH GENERALIZADOS 3.1

A natureza dos conjuntos de estratégias Xv na prática é muito variada. Neste trabalho consi-deramos Xv ⊆ Rnv , assim, cada jogador v ∈ 1, . . . , N controla a variável xv ∈ Xv ⊆ Rnv .

Seja n = n1 + · · ·+nN o número total de variáveis, um vetor x = (x1, . . . , xN ) ∈ Rn em notaçãoda teoria de jogos pode ser representado por x = (xv, x−v), onde x−v = (xi)Ni=1,i 6=v para qualquerv ∈ 1, . . . , N.

Um tipo de solução para jogos de estratégia não cooperativos foi dado por John Nash [N+50] e[Nas51].

Denição 3.1.2. (Equilíbrio de Nash em estratégias puras)Seja G = (X1, . . . , XN , f1, . . . , fN ) um jogo de estratégia. Um Equilíbrio de Nash (EN) é um

tipo de estratégia x∗ = (x∗,1, . . . , x∗,N ) ∈ X tal que para cada jogador v temos:

fv(x∗,v, x∗,−v) ≤ fv(xv, x∗,−v), ∀xv ∈ Xv.

Equivalentemente, para cada v = 1, . . . , N o bloco x∗,v resolve o problema de otimização

minxv∈Xv

fv(xv, x∗,−v). (3.1.1)

Um jogo de estratégia como na Denição 3.1.1 onde se deseja calcular um EN é chamado umProblema de Equilíbrio de Nash (NEP).

Além de ser denido como a solução de um conjunto de problemas de otimização paramétrica, umEN também pode ser formulado como a solução de um problema de ponto xo, esta reformulaçãoé útil não só na construção de algoritmos para resolver o NEP, como também para poder obterresultados de existência de soluções.

Seja X = X1× · · · ×XN e denimos a multifunção da melhor resposta para o jogo B : X ⇒ Xcomo:

B(x) =N∏v=1

Bv(x−v), (3.1.2)

onde

Bv(x−v) =

yv ∈ Xv : yv ∈ argmin

zv∈Xvfv(zv, x−v)

.

Aqui, Bv(x−v) é o conjunto de melhor resposta do jogador v quando os demais jogadores escolhema estratégia x−v, então a Denição 3.1.2 é equivalente a:

Denição 3.1.3. Um NEP é o problema de encontrar x∗ = (x∗,1, . . . , x∗,N ) ∈ X (ponto de Equilí-brio de Nash) tal que:

x∗ ∈ B(x∗),

isto é, x∗ é um ponto xo da função B : X ⇒ X.

Observação 3.1.1. O Equilíbrio de Nash como uma solução para jogos não cooperativos tem sidoaceitado amplamente e é considerado como uma "boa solução", sendo aplicado com sucesso emdiversas áreas do saber humano. Este conceito pode ser considerado como uma boa solução mais emum sentido coletivo do que em um sentido individual.

Uma caraterística importante da denição do EN é que se todos os jogadores jogam seu Equilíbriode Nash nenhum jogador vai desejar mudar de estratégia quando o resto de jogadores mantém suaestratégia (dada pelo Equilíbrio de Nash), pois, caso faça isso ele vai ter um pagamento maior ouigual (no caso de minimização) que o dado pelo Equilíbrio de Nash.

Nash introduziu este conceito em seus artigos [N+50] e [Nas51]. Por suas contribuições à teoriados jogos, John Nash, John Harsanyi e Reinhard Selten receberam o prêmio Nobel de economia em1994.

3.1 JOGOS DE ESTRATÉGIA E EQUILÍBRIO DE NASH 21

Consideremos o seguinte jogo com estratégias nitas maximizando em cada problema de cadajogador.

Exemplo 3.1.1. Suponha que duas linhas aéreas A e B estão pensando em xar o preço para arota São Paulo-Rio de Janeiro. Se ambas linhas aéreas cobram um preço de 800 dólares cada, autilidade de A será de 60 milhões e a de B será de 90 milhões. Se A irá cobrar 800 e B irá cobrar500, então A teria uma perda de 30 milhões e B uma utilidade de 150 milhões. Se, porém, A cobrar500 dólares e B cobrar 800 dólares, então, a utilidade de A seria de 90 milhões e B perderia 30milhões e, se ambas cobraram 500 dólares, então ambos teriam perdidos 20 milhões.

Bpreços 800 500

A 800 60, 90 -30,150500 90,-30 -20,-20

Para este exemplo, (500, 500) é o único Equilíbrio de Nash do jogo.

O exemplo mostra que a solução dada pelo Equilíbrio de Nash pode não ser a melhor soluçãodo ponto de vista individual, mas é um boa solução do ponto de vista coletivo em jogos onde nãoexiste cooperação entre os jogadores. Em um jogo em geral, podem não existir equilíbrios, podemexistir innitos ou só uma quantidade nita.

Exemplo 3.1.2. As seguintes situações ilustram os casos de quantidades diferentes de soluções emum NEP.

• Seja o seguinte jogo com 2 jogadores com conjuntos de estratégias X1 = X2 = R e funçõesobjetivo: f1(x, y) = −xy2 + x2 e f2(x, y) = −8y + xy2, este problema tem um único ponto deEquilíbrio de Nash x∗ = (2, 2).

• O jogo de estratégias de 3 jogadores com conjuntos de estratégias dados por X1 = X2 =X3 = [0, 1] e funções objetivos dados por f1(x, y, z) = −x − y + z, f2(x, y, z) = −x + yz ef3(x, y, z) = −xy+ z, tem os pontos (1, α, 0), 0 ≤ α ≤ 1, como os únicos pontos de Equilíbriode Nash do jogo.

• O jogo com 2 jogadores com conjunto de estratégias X1 = X2 = (−∞, 0) e funções objetivosf1(x, y) = ex + y e f2(x, y) = ey + x, não tem pontos de Equilíbrio de Nash.

O seguinte teorema é um resultado de existência de EN em jogos não cooperativos e é umaversão mais geral para jogos em estratégias puras do que aquele dado pelo Teorema de Nash paraexistência de equilíbrios em jogos nitos (os conjuntos de estratégias nitos) com estratégias mistas[Nas51].

Teorema 3.1.1. (Debreu,Glicksber, Fan) Considere um jogo de estratégias G = (X1, . . . , XN , f1, . . . , fN )tal que para cada v = 1, . . . , N :

1. Xv é compacto, convexo e não-vazio,

2. fv(xv, x−v) é contínua em x−v,

3. fv(xv, x−v) é contínua e convexa em xv para cada x−v xado (quase-convexidade é suciente).

Então existe um Equilíbrio de Nash do jogo.

Demonstração. Seja X = X1×· · ·×XN , das hipóteses temos que X é convexo e compacto. Vamosprovar que a multifunção da melhor resposta B : X ⇒ X satisfaz as condições do teorema do pontoxo de Kakutani [Gli52].

i) B(x) não é vazio. De fato, como a função zv → fv(zv, x−v) é contínua sobre o compacto Xv,então Bv(x−v) não é vazio para cada v = 1, . . . , N , então B(x) não é vazio.

22 PROBLEMAS DE EQUILÍBRIO DE NASH GENERALIZADOS 3.2

ii) B(x) é convexo; para isso será suciente provar que Bv(x−v) é convexo para cada v =1, . . . , N . Seja yv, wv ∈ Bv(x−v) e t ∈ [0, 1] temos que:

fv(yv, x−v) ≤ fv(zv, x−v), ∀zv ∈ Xv

fv(wv, x−v) ≤ fv(zv, x−v), ∀zv ∈ Xv,

então usando a convexidade de fv(·, x−v) obtemos:

fv(tyv + (1− t)wv, x−v) ≤ tfv(yv, x−v) + (1− t)fv(wv, x−v) ≤ fv(zv, x−v), ∀zv ∈ Xv,

então tyv + (1− t)wv ∈ Bv(x−v), assim B(x) é convexo. Facilmente podemos ver que B(x) tambémé fechado.

iii) Vamos agora provar que B é semi-contínua superiormente. Suponha por contradição que istonão ocorre, então existe uma sequência (xn, yn) → (x, y) com yn ∈ B(xn), xn → x e yn → y, masy /∈ B(x). Desta forma existe um v ∈ 1, . . . , N tal que yv /∈ Bv(x−v), portanto existe zv ∈ Xv eε > 0 tal que:

fv(zv, x−v) + 2ε < fv(yv, x−v).

Como xn,−v → x−v, então por continuidade e para n sucientemente grande,

fv(zv, xn,−v) < fv(zv, x−v) + ε.

Dessas últimas duas desigualdades e usando outra vez a continuidade para n sucientemente grande,temos que:

fv(zv, xn,−v) < fv(yv, x−v)− ε ≤ fv(yn,v, xn,−v).

Entretanto isso é uma contradição com yn ∈ B(xn). Logo, pelo teorema de Kakutani [Gli52], existeem x∗ ∈ X tal que x∗ ∈ B(x∗), então x∗ é um Equilíbrio de Nash.

Salientamos que a hipótese de convexidade para as funções objetivos não pode ser tirada noresultado anterior.

Exemplo 3.1.3. Consideremos o NEP com dois jogadores, onde cada jogador controla uma únicavariável, n1 = n2 = 1 :

Jogador 1 minx1

−(x1 − x2)2 s.t x1 ∈ [0, 1] ,

Jogador 2 minx2

(x1 − x2)2 s.t x2 ∈ [0, 1] .

O conjunto solução deste NEP é vazio.

O exemplo mostra que um teorema tipo o teorema de Weierstrass não ocorre para NEPs e,portanto, para GNEPs. Assim, por exemplo, adaptar as provas sobre condições de otimalidadesequencial de otimização para GNEPs baseadas em métodos de penalidade torna-se geralmentedifícil.

3.2 Equilíbrio de Nash Generalizado

Consideremos o jogo de estratégias 3.1.1 com N jogadores com conjuntos de estratégias Kv ⊆Rnv para cada v = 1, . . . , N e seja K =

∏Nv=1K

v e K−v =∏Ni=1,i 6=vK

i.Em um jogo de estratégias generalizado, adicionalmente cada jogador tem uma função ponto

conjunto Xv : K−v ⇒ Kv que representa a inuência de todos os jogadores i 6= v sobre o conjuntode estratégias do jogador v, assim Xv(z) ⊆ Kv para todo z ∈ K−v e para todo v = 1, . . . , N .

3.2 EQUILÍBRIO DE NASH GENERALIZADO 23

O objetivo de cada jogador v, dadas as estratégias x−v dos demais jogadores, é resolver oproblema de minimização (ou maximização de acordo com a aplicação):

P v(x−v) : min fv(xv, x−v) sujeito xv ∈ Xv(x−v). (3.2.1)

Assim, como acontece em um jogo de estratégias puras, as escolhas de cada jogador devem serde forma simultânea e independentes, portanto, é preciso de um conceito de solução em um jogo deestratégia generalizado. Para isso, denamos a multifunção X : K ⇒ K tal que para todo x ∈ K:

X(x) =N∏v=1

Xv(x−v) =y ∈ Rn : yv ∈ Xv(x−v), ∀v = 1, . . . , N

. (3.2.2)

Denição 3.2.1. Um problema de Equilíbrio de Nash generalizado (GNEP) é o problema de en-contrar x∗ = (x∗,1, . . . , x∗,N ) ∈ X(x∗) tal que para cada v = 1, . . . , N o bloco x∗,v seja solução doproblema.

P v(x∗,−v) : min fv(xv, x∗,−v) sujeito xv ∈ Xv(x∗,−v). (3.2.3)

O ponto x∗ é chamado de Equilíbrio de Nash generalizado (ENG).

Podemos denir também um ENG como a solução de um problema de ponto xo, como o casode um NEP. Para isso, consideramos o conjunto de melhor resposta para cada jogador v = 1, . . . , N :

Bv(x−v) =xv ∈ Rnv : fv(xv, x−v) ≤ fv(yv, x−v), ∀yv ∈ Xv(x−v)

e denimos B : K ⇒ K como:

B(x) =N∏v=1

Bv(x−v). (3.2.4)

Denição 3.2.2. O GNEP é o problema de encontrar x∗ = (x∗,1, . . . , x∗,N ) ∈ X(x∗) (ENG) talque

x∗ ∈ B(x∗).

Note que nessa denição está também implícito o fato que x∗ seja um ponto xo da multifunçãoX : K ⇒ K.

Em um NEP para todo v = 1, . . . , N tem-se que Xv(x−v) = Kv para toda x−v ∈ K−v, isto é,o conjunto de estratégias do jogador v não está inuenciado pelas escolhas dos outros jogadores.Assim, os GNEPs generalizam os NEPs no sentido que o conjunto de estratégias do jogador v, Xv,depende das escolhas dos outros jogadores x−v, desta forma, o conjunto de estratégias do jogadorv é representado por Xv(x−v).

Exemplo 3.2.1. Considere o GNEP dado pelo exemplo 3.1.1 e as funções ponto conjunto Xv :500, 800⇒ 500, 800 para v = 1, 2 denidas por X1(500) = 500, X1(800) = 800, X2(800) =800 e X2(500) = 500, 800. Neste caso, os pontos (500, 500) e (800, 800) são os únicos ENG dojogo.

A maioria dos artigos sobre GNEPs consideram Kv = Rnv e

Xv(x−v) =xv ∈ Rnv : gv(xv, x−v) ≤ 0

, (3.2.5)

24 PROBLEMAS DE EQUILÍBRIO DE NASH GENERALIZADOS 3.2

onde gv : Rn → Rmv , assim o GNEP é determinado com os problemas para o jogador v dados por:

P v(x−v) : minxv

fv(xv, x−v) (3.2.6)

gvi (x) ≤ 0 i = 1, . . . ,mv.

Em alguns casos, Kv é tomado como Kv = xv ∈ Rnv : hv(xv) ≤ 0, onde hv : Rnv → Rlv .Nesse caso, o problema para o jogador v é dado por:

P v(x−v) : minxv

fv(xv, x−v) (3.2.7)

gvi (x) ≤ 0 i = 1, . . . ,mv

hvi (xv) ≤ 0 j = 1, . . . , lv.

Note que em (3.2.7) as restrições hv podem ser consideradas como parte de gv, e então (3.2.7) sereduz a (3.2.6). A representação (3.2.7) é usada geralmente quando se estuda métodos de penalidadespara GNEP.

Classes de GNEPs

Nesta parte apresentaremos os tipos de GNEPs mais comuns na literatura e que servem comomodelos em muitas aplicações. A classe de GNEPs de jogadores convexos é a classe de GNEPs quetem sido mais estudada.

GNEPs de jogadores convexos

Um GNEP se diz GNEP de jogadores convexos se, para cada v e x−v, os conjuntos Xv(x−v)são convexos e fechados e as funções fv(·, x−v) são convexas. Quando Xv(x−v) é denida comoem (3.2.5), a convexidade de Xv(x−v) é equivalente a convexidade de gv(·, x−v) para cada x−v

xado.

GNEPs Lineares

Uma subclasse importante de GNEPs de jogadores convexos são os Problemas de Equilíbrio deNash Generalizados Lineares (LGNEP), isto é, GNEPs em que as funções objetivo e as restriçõesde cada jogador são lineares da seguinte forma:

P v(x−v) : minxv〈cv, xv〉

Avxv +Bvx−v ≤ bv,

onde Av ∈ Rmv×nv , Bv ∈ Rmv×(n−nv), cv ∈ Rnv e bv ∈ Rmv .Esta classe de problemas modela, por exemplo, problemas de transporte e alguns problemas

de mercado simples. Ademais alguns métodos desenvolvidos para GNEPs exigem como hipóteses anão singularidade de algumas segundas derivadas e, portanto, não são aplicáveis para os LGNEPs.Por outro lado, aproveitando a estrutura de um LGNEP, podem se obter resultados mais fortes emalguns algoritmos já feitos para um GNEP geral. Os LGNEPs foram estudados, por exemplo, em[DSM16], [SSM16] e [Dre17].

GNEPs com restrições conjuntas

Um GNEP se diz GNEP com restrições conjuntas se para algum conjunto C ⊆ Rn tem-se:

3.2 EQUILÍBRIO DE NASH GENERALIZADO 25

Xv(x−v) =xv : (xv, x−v) ∈ C

, (3.2.8)

para cada v = 1, . . . , N e cada x−v.Uma classe importante desse tipo de GNEP são os GNEPs conjuntamente convexos que são

também GNEPs de jogadores convexos, onde para cada v = 1, . . . , N ocorre (3.2.8) com um conjuntonão vazio, convexo e fechado C ⊆ Rn.

É comum na literatura de GNEPs que o conjunto C tenha a forma:

C = x ∈ Rn : G(x) ≤ 0 , (3.2.9)

onde G : Rn → Rm é contínua e tem componentes convexas. Nesse caso, (3.2.8) pode-se expressarcomo:

Xv(x−v) =xv ∈ Rnv : G(xv, x−v) ≤ 0

, (3.2.10)

que são conjuntos fechados e convexos. Note-se que um GNEP conjuntamente convexo é um GNEPde jogadores convexos com G = g1 = · · · = gN .

GNEP: Jogos potenciais generalizados

Um GNEP é chamado de jogo potencial generalizado se é um GNEP com restrições conjuntastal que:

1. Os conjuntos viáveis de cada jogador Xv(x−v) é dado por (3.2.8) com um conjunto não vazioe fechado C ⊆ Rn.

2. Existe uma função contínua Q : Rn → R tal que, para cada x−v e zv, yv ∈ Xv(x−v) se

fv(yv, x−v)− fv(zv, x−v) > 0

implicaQ(yv, x−v)−Q(zv, x−v) ≥ σ(fv(yv, x−v)− f(zv, x−v))

para alguma função de força σ : R+ → R+.

Uma função σ : R+ → R+ é chamada função de força se limk→∞ σ(tk) = 0 implica limk→∞ tk = 0.Entre os GNEPs potencias temos, por exemplo, GNEPs onde para cada v = 1, . . . , N as funções

objetivo de cada jogador fv dependem unicamente da variável xv e também os GNEPs onde fv(x) =c(x)+dv(xv), em que a função c é a mesma para todo jogador. Estes tipos de GNEPs foram estudadosem [FPS11], onde algoritmos de decomposição para a resolução deste tipo de problemas para o casoconvexo e não convexo, são propostos.

Para o caso dos GNEPs com restrições conjuntas, uma relação útil existe entre os conjuntos Ce X(x).

Proposição 3.2.1. Para qualquer GNEP com restrições conjuntas dado por (3.2.8), ocorre que:

x ∈ X(x)⇔ xv ∈ Xv(x−v), ∀v = 1, . . . , N ⇔ x ∈ C.

Demonstração. É imediato da denição 3.2.8.

Este simples resultado permite que certas soluções de um GNEP conjuntamente convexo possamser calculadas por meio de um problema de otimização como veremos mais adiante.

26 PROBLEMAS DE EQUILÍBRIO DE NASH GENERALIZADOS 3.2

Assim, os pontos xos da multifunção x → X(x) coincidem com os elementos do conjunto C.Em geral, não ocorre que C ⊆ X(x) ou que X(x) ⊆ C.

Exemplo 3.2.2. Considere um GNEP com dois jogadores e C = (x1, x2) : x1 + x2 ≤ 1,−x1 ≤

0,−x2 ≤ 0, para o ponto x = (12 , 0) ∈ C temos que X(x) = X1(0)×X2

(1

2

)= [0, 1]×

[0,

1

2

].

Para um GNEP qualquer, denimos o conjunto viável para o GNEP como:

W =x ∈ Rn : xv ∈ Xv(x−v), ∀v = 1, . . . , N

. (3.2.11)

No caso de um GNEP com restrições compartilhadas tem-se W = C.Se este conjunto W coincide com o conjunto de pontos xos de x → X(x), temos o seguinte

resultado.

Proposição 3.2.2. Para qualquer GNEP com W denido em (3.2.11), temos que:

x ∈ X(x)⇔ xv ∈ Xv(x−v), v = 1, . . . , N ⇔ x ∈W.

Demonstração. É imediato de (3.2.11).

Normalmente, para GNEPs onde os jogadores compartilham pelo menos uma restrição em co-mum, não existe um único ENG e as soluções não são isoladas. Ainda para GNEPs bem comportadascomo GNEPs lineares, o conjunto de ENG não possui propriedades topológicas especícas comoconexão ou convexidade.

Exemplo 3.2.3. Considere o seguinte GNEP linear com dois jogadores (N = 2).

Jogador 1 minx1−x1 s.t

x1

2− x2 ≤ 0;x2 − 2x1 ≤ 0, x1 + x2 − 1 ≤ 0.

Jogador 2 minx2−x2 s.t

x1

2− x2 ≤ 0;x2 − 2x1 ≤ 0, x1 + x2 − 1 ≤ 0.

O conjunto solução deste GNEP é SOL(GNEP ) = (t, 1 − t) :1

3≤ t ≤ 2

3 ∪ (0, 0) que não é

conexo, portanto, não convexo.

Outros exemplos onde o conjunto solução é conexo mas não convexo, podem ser construídos deforma análoga. O GNEP do Exemplo 3.2.4 descrito mais adiante, tem como conjunto solução umconjunto convexo, portanto, conexo.

3.2.1 Reformulações de GNEPs

Alguns GNEPs podem ser reformuladas em outros bem conhecidos tipos de problemas. Aqui éimportante salientar que podemos ter dois tipos de reformulações: totais e parciais. Geralmente parapoder ter reformulações totais e, portanto, equivalências nas soluções, hipóteses de convexidade so-bre o GNEP são necessárias. Um GNEP pode ser reformulado (total ou parcialmente), por exemplo,como um sistema de equações, um problema de desigualdade variacional, problemas de desigualdadequase-variacional, um problema de otimização, um problema de equilíbrio, problema de ponto xoe como problema de quase-equilíbrio entre as mais conhecidas. Conhecer estas reformulações sãoúteis, pois permitem estudar propriedades das soluções, assim como permitem construir algoritmospara calcular pontos de equilíbrio.

3.2 EQUILÍBRIO DE NASH GENERALIZADO 27

Reformulações Variacionais

Existe uma conexão entre algumas soluções de GNEPs conjuntamente convexos e desigualda-des variacionais e também existe relação entre as soluções de GNEPs de jogadores convexos e dedesigualdades quase variacionais. Aqui apresentamos estas conexões.

Desigualdades quase variacionais

Denição 3.2.3. Seja F : Rn → Rn uma função contínua e K : Rn ⇒ Rn uma multifunção ondeK(x) é convexo e fechado para todo x ∈ Rn. O problema de achar um x = x∗ que satisfaz

x ∈ K(x), F (x)T (y − x) ≥ 0, ∀y ∈ K(x),

é chamado um problema de desigualdade quase variacional e denotado por QV I(K,F ). Se, paraalgum subconjunto convexo e fechado K ⊆ Rn ocorre que K(x) = K para todo x ∈ Rn, então aQV I(K,F ) é chamado de desigualdade variacional e denotado por V I(K,F ).

Para mostrar a conexão entre GNEPs e QVIs consideremos o GNEP onde o problema para ov−ésimo jogador é dado por (3.2.6) e denamos F : Rn → Rn dada por:

F (x) =

∇x1f1(x)...

∇xN fN (x)

, (3.2.12)

onde as funções f1, . . . , fN são C1. Se a multifunção X : Rn ⇒ Rn denida em (3.2.2) é fechada econvexa, então a QV I(X,F ) é bem denida.

O teorema seguinte mostra a relação entre o GNEP (3.2.6) e o QV I(X,F ).

Teorema 3.2.1. Se as funções f1, . . . , fN são C1 e o GNEP (3.2.6) é de jogadores convexos, entãoqualquer solução x∗ do GNEP é solução do QV I(X,F ) e vice-versa.

Demonstração. De fato, x∗ é uma solução do GNEP se, e somente se, para cada v = 1, . . . , N tem-seque x∗,v é solução do problema:

minxv

fv(xv, x∗,−v) sujeito xv ∈ Xv(x∗,−v).

Pelas hipóteses de convexidade, isto é, equivalente a para todo v = 1, . . . , N , x∗,v seja solução doproblema:

xv ∈ Xv(x∗,−v) e ∇xvfv(xv, x∗,−v)(yv − xv) ≥ 0. ∀yv ∈ Xv(x∗,−v), (3.2.13)

Isso implica que:

x∗ ∈ X(x∗), F (x∗)T (y − x∗) ≥ 0, ∀y ∈ X(x∗), (3.2.14)

e portanto, x∗ é solução do QV I(X,F ).Por outro lado, seja v = 1, . . . , N , xo e arbitrário, seja xv ∈ Xv(x∗,−v) e consideremos o vetor

y = (xv, x∗,−v), então y ∈ X(x∗). Usando (3.2.14) temos que x∗,v satisfaz (3.2.13), então x∗ ésolução do GNEP.

Salientamos que se unicamente assumimos convexidade para os conjuntos Xv(x−v), então so-mente a inclusão SOL(GNEP ) ⊆ SOL(QV I(X,F )) é verdade.

No caso de um NEP, i.e, para cada v = 1, . . . , N , Xv(x−v) = Xv para qualquer x−v comXv ⊆ Rnv xo, com as hipóteses do teorema anterior tem-se que: x∗ é solução do NEP se, esomente se, é solução da desigualdade variacional V I(

∏Ni=1X

i, F ).

28 PROBLEMAS DE EQUILÍBRIO DE NASH GENERALIZADOS 3.2

Para o caso de um GNEP conjuntamente convexo temos uma reformulação parcial usando umaVI.

Teorema 3.2.2. Se as funções f1, . . . , fN são C1 e o GNEP é conjuntamente convexo, entãoSOL(V I(C,F )) ⊆ SOL(GNEP ).

Demonstração. De fato, seja x∗ uma solução do V I(C,F ), desejamos provar que para cada v =1, . . . , N , x∗,v é solução do problema:

minxv

fv(xv, x∗,−v) sujeito xv ∈ Xv(x∗,−v). (3.2.15)

Seja xv ∈ Xv(x∗,−v) xo e arbitrário, seja y = (xv, x∗,−v), então y ∈ C, como x∗ é solução daV I(C,F ), então

0 ≤ F (x∗)T (y − x∗) = ∇xvfv(x∗)T (xv − x∗,v),

pelas hipóteses de convexidade, isto implica que x∗,v seja solução de (3.2.15) para cada v = 1, . . . , N ,então x∗ é solução do GNEP.

Temos a seguinte denição.

Denição 3.2.4. Qualquer solução de V I(C,F ) é chamado um equilíbrio variacional ou equilíbrionormalizado de Nash (ENN) do GNEP.

O resultado anterior não garante a existência de soluções do V I(C,F ). Uma hipóteses adicionalseria, por exemplo, exigir a compacidade de C. No teorema anterior, pseudo-convexidade é sucientepara obter o mesmo resultado. Por outra parte, a inclusão no teorema anterior pode ser estrita,consideremos o seguinte exemplo de [FFP07].

Exemplo 3.2.4. Seja o GNEP conjuntamente convexo dado por:

Jogador 1 minx1

(x1 − 1)2 s.t x1 + x2 ≤ 1.

Jogador 2 minx2

(x2 − 1

2)2 s.t x1 + x2 ≤ 1.

O conjunto viável é C =

(x1, x2) : x1 + x2 ≤ 1, o conjunto solução deste GNEP é

SOL(GNEP ) =

(α, 1− α) : α ∈

[1

2, 1

]

e F (x1, x2) =

(2(x1 − 1)2x2 − 1

)é um operador fortemente convexo. Desta forma a V I(X,F ) possui

uma única solução. Temos que SOL(V I(X,F )) =

(34 ,

14)pode ser computado facilmente usando

a denição de VI, assim (34 ,

14) é o único equilíbrio variacional do GNEP.

Trabalhos sobre GNEPs usando estas reformulações variacionais podem ser achados por exemploem [HZQX12] e [HWW12]. Em geral, algoritmos para QVIs ou VIs podem ser usados para calcularsoluções de GNEPs de jogadores convexos e conjuntamente convexos, respectivamente.

Reformulações como Problemas de Equilíbrio

Seja C um conjunto convexo, fechado e não vazio e f : C × C −→ R uma bi função comf(x, x) = 0. O problema de equilíbrio associado a f e C é denotado por PE(f, C) e denido como:

PE(f, C) =

Encontrar x∗ ∈ C tal que

f(x∗, y) ≥ 0, para todo, y ∈ C

.

3.2 EQUILÍBRIO DE NASH GENERALIZADO 29

É bem conhecido que uma VI pode ser reformulada como um problema de equilíbrio. Portanto,podemos calcular os equilíbrios normalizados de um GNEP conjuntamente convexo com conjunto derestrições conjuntas C, através de um problema de equilíbrio. Basta tomar f(x, y) = F (x)T (y−x),então temos SOL(PE(f, C)) ⊆ SOL(GNEP ). Em [MSY12] e [Kon16] algoritmos para GNEPsconjuntamente convexas são denidos usando este enfoque.

Uma reformulação total para um GNEP geral pode ser obtida usando problemas de quase-equilíbrio.

Reformulações como problemas de quase equilíbrio

Seja C : Rn ⇒ Rn uma multifunção e f : C × C −→ R uma bi função com f(x, x) = 0. Oproblema quase equilíbrio (QEP), associado a f e C e denotado por QEP (f, C) é denido como:

QEP (f, C) =

Encontrar x∗ ∈ C(x∗) tal que

f(x∗, y) ≥ 0 para todo y ∈ C(x∗)

.

É conhecido que um problema de quase equilíbrio tem como caso particular uma QVI, portanto,toda GNEP de jogadores convexos pode ser reformulado como um QEP. Mais ainda, qualquerGNEP pode ser reformulada como um QEP. Portanto, de todos os diferentes tipos de problemas quereformulam um GNEP, a única que reformula um GNEP geral totalmente é um QEP. Consideramoso GNEP (3.2.6) e denimos a função de Nikaido-Isoda [NI55].

Denição 3.2.5. (Função de Nikaido-Isoda)

Ψ(x, y) =N∑v=1

[fv(xv, x−v)− fv(yv, x−v)

](3.2.16)

Essa função representa a soma dos melhoramentos unilaterais entre as ações x e y.Usando a função de Nikaido Isoda e tomando C : Rn ⇒ Rn como C(x) = X(x), onde X : Rn ⇒

Rn foi denido em (3.2.2), denimos o QEP (f,X) com f = −Ψ. Para este QEP temos o seguinteresultado.

Teorema 3.2.3. Consideremos o GNEP (3.2.6) e o problema de quase-equilíbrio QEP (f,X), entãoSOL(GNEP ) = SOL(QEP (f,X)).

Demonstração. Seja x∗ uma solução do GNEP (3.2.6), então para cada v = 1, . . . , N temos que

fv(x∗) ≤ fv(yv, x∗,−v), ∀yv ∈ Xv(x∗,−v),

entãox∗ ∈ X(x∗), f(x∗, y) ≥ 0, ∀y ∈ X(x∗).

Reciprocamente, suponha que x∗ é uma solução do QEP (f,X), então x∗ ∈ X(x∗) e

f(x∗, y) ≥ 0, ∀y ∈ X(x∗).

Seja yv ∈ Xv(x∗,−v), então y = (yv, x∗,−v) ∈ X(x∗), então

fv(yv, x∗,−v)− fv(x∗) = f(x∗, y) ≥ 0, ∀yv ∈ X(x∗,−v),

portanto, x∗ é um ponto de Equilíbrio de Nash Generalizado.

Algoritmos para resolver numericamente QEPs são escassos. Segundo nosso conhecimento, os se-guintes trabalhos foram desenvolvidos para este tipo de problemas [SVN+13], [BP16] e recentemente[VSNV17].

30 PROBLEMAS DE EQUILÍBRIO DE NASH GENERALIZADOS 3.2

Reformulação como um problema de otimização

Um GNEP conjuntamente convexo pode ser reformulado parcialmente como um problema deotimização restrito e irrestrito. Essa reformulação permite obter os equilíbrios normalizados de umGNEP conjuntamente convexo. Para ver isto, para cada x ∈ X(x) denimos:

V (x) = maxy∈X(x)

Ψ(x, y) (3.2.17)

e

Y (x) = y ∈ X(x) : V (x) = Ψ(x, y) . (3.2.18)

Supondo que em (3.2.17) o máximo esteja bem denido, pode-se mostrar que V (x) é não negativapara todo x ∈ X(x) e que x é uma solução do GNEP se, e somente se, x ∈ X(x) e V (x) = 0. Tambémtemos que x é solução do GNEP se, e somente se, x é um ponto xo da multifunção x→ Y (x).

Em geral, em (3.2.17) o máximo pode não existir. Além disso, ainda que V esteja bem denidaesta pode não ser diferenciável, mesmo que as funções fv possam ser suaves (ver exemplo em[vHK09]).

Em [vHK09], dene-se uma versão regularizada da função de Nikaido-Isoda que mantém aspropriedades da função de Nikaido-Isoda original, mas que garantem a boa denição de V sobhipóteses de convexidade.

Denição 3.2.6. (Função regularizada de Nikaido-Isoda) Para α ≥ 0 (parâmetro de regularização)denimos

Ψα(x, y) =

N∑v=1

[fv(xv, x−v)− fv(yv, x−v)

]− α

2‖x− y‖2 (3.2.19)

e dene-se:

Vα(x) = maxy∈X(x)

Ψα(x, y) (3.2.20)

e

Yα(x) = y ∈ X(x) : Vα(x) = Ψα(x, y) . (3.2.21)

As funções anteriores tem as seguintes propriedades:

Teorema 3.2.4. Para o caso de um GNEP de jogadores convexos e para α ≥ 0, a função regulari-zadora Vα tem as seguintes propriedades:

1. Vα(x) ≥ 0 para todo x ∈ X(x),

2. x∗ é um ENG se, e somente se, Vα(x∗) = 0 e x∗ ∈ X(x∗),

3. x∗ é um ENG se, e somente se, x∗ é um ponto xo da multifunção x→ Yα(x),

4. Se α > 0, então para cada x ∈ X(x) existe um único vetor yα(x) = (y1α(x), . . . , yNα (x)) ∈ X(x)

tal que Yα(x) = yα(x) e para cada v = 1, . . . , N

yvα(x) = argminyv∈Xv(x−v)

fv(yv, x−v) +

α

2‖xv − yv‖2

.

Demonstração. Ver [vHK09].

Note-se que as partes 1-3 ocorrem para α = 0 sem hipóteses de convexidade. Pelas partes 1 e 2temos que x∗ é um Equilíbrio de Nash se, e somente se, é solução de:

3.2 EQUILÍBRIO DE NASH GENERALIZADO 31

minx∈X(x)

Vα(x). (3.2.22)

Quando temos um GNEP de jogadores convexos, pela parte 4 do teorema anterior, temosque (3.2.22) está bem denido se α > 0. Assim, obtemos um problema de quase-otimização. Otermo quase é pelo fato que o conjunto viável X(x) depende de x. Entretanto, não existe (até hoje)um algoritmo que permita resolver este tipo de problemas para um conjunto de restrições, em ge-ral, X(x). Pelo teorema anterior, reformulações para GNEP como problemas de quase-otimizaçãoe pontos xos podem ser construídos, mas, em geral, não são diferenciáveis e difíceis de se resolver.

Para um GNEP com restrições conjuntas, pela Proposição 3.2.1, o problema de quase-otimizaçãovira um problema clássico de otimização da forma

minx∈C

Vα(x). (3.2.23)

Mas, ainda neste caso, a função Vα(x) pode permanecer não diferenciável. Para poder obter re-formulações diferenciáveis vamos considerar o caso de um GNEP conjuntamente convexo e vamosmodicar o conjunto viável na denição de Vα.

Substituindo na denição dada por (3.2.20) o conjunto C por X(x), obtemos:

Vα(x) = maxy∈C

Ψα(x, y) (3.2.24)

eYα(x) =

y ∈ C : Vα(x) = Ψα(x, y)

.

O teorema seguinte estabelece as conexões entre os ENN e as funções denidas.

Teorema 3.2.5. Para um GNEP conjuntamente convexo e α ≥ 0, a função regularizadora Vα temas seguintes propriedades:

1. Vα(x) ≥ 0, para todo x ∈ C,

2. x∗ é um ENN se, e somente se, x∗ ∈ C e Vα(x∗) = 0,

3. x∗ é um ENN se, e somente se, x∗ é um ponto xo da função x→ Yα(x),

4. Se α > 0, então para cada x ∈ C existe um único maximizador yα(x) ∈ C tal que

yα(x) = argmaxy∈C

Ψα(x, y)

e yα(x) é contínua em x,

5. Se α > 0 e f1, . . . , fN são C1, então Vα é C1.

Demonstração. Ver [vHK09].

Em particular, x∗ é um equilíbrio normalizado de Nash se, e somente se, Vα(x∗) = 0 e x∗ é umasolução de:

minx∈C

Vα(x). (3.2.25)

Note-se que da parte 4, x∗ é um ENN se, e somente se, é solução da equação x = yα(x). Assim,o teorema anterior permite obter reformulações parcias de GNEPs conjuntamente convexos (paracalcular só ENN) tanto como um problema de otimização com restrições e como de um sistema deequações. Estes resultados tem servido para adaptar diversos métodos de otimização para o cálculode ENN resolvendo o Problema 3.2.25.

O seguinte teorema permite obter a expressão para ∇Vα(x).

32 PROBLEMAS DE EQUILÍBRIO DE NASH GENERALIZADOS 3.2

Teorema 3.2.6. Suponha que a condição 4 do teorema anterior é satisfeita, então, a função regu-larizadora Vα é continuamente diferenciável para toda x ∈ C e seu gradiente é dado por:

∇Vα(x) =N∑i=1

[∇fv(x)−∇fv(yα(x), x−v)

]+(∇x1f1(y1

α(x), x−1), . . . ,∇xN fN (yNα (x), x−N ))

−α(x− yα(x)),

onde yα(x) denota o único maximizador da parte 4 do Teorema 3.2.5.

Demonstração. Ver [vHK09].

Usando a função Vα, podemos reformular parcialmente um GNEP conjuntamente convexo comoum problema de otimização sem restrições para encontrar pontos ENN. Para isso, dene-se para0 < α < β e todo x ∈ Rn

Vβα(x) = Vβ(x)− Vα(x).

O seguinte teorema estabelece a conexão entre os ENN e a função Vβα.

Teorema 3.2.7. Para um GNEP de jogadores convexos, as seguintes propriedades para a funçãoVβα ocorrem:

1. Vβα(x) ≥ 0 para todo x ∈ Rn,

2. x∗ é um ENN do GNEP se, e somente se, x∗ é o mínimo global de Vβα com Vβα(x∗) = 0,

3. Se as funções f1, . . . , fN são C1, então Vβα é C1.

Demonstração. Ver [vHK09].

Do teorema anterior, o conjunto de pontos de ENN de um GNEP conjuntamente convexocoincide com o conjunto de minimizadores globais do problema:

minx∈Rn

Vβα(x). (3.2.26)

Usando a reformulação (3.2.26), alguns outros trabalhos usando técnicas de otimização foram de-senvolvidos para calcular equilíbrios normalizados. Ver, por exemplo, [QLZ07], [QZ13] e [DvHKF13].

Em [Dre12], estende-se as ideias anteriores para a classe de GNEP de jogadores convexos re-formulando o GNEP tanto como um problema de otimização restrito e como um problema deotimização irrestrito cujos conjuntos soluções coincidem com o conjunto de ENG do GNEP.

Métodos de penalidade

Como foi visto na seção anterior, os métodos tipo penalidade para problemas de otimizaçãoencontram uma solução como limite de uma sequência de soluções de problemas penalizados que naprática são mais fáceis de resolver que o problema original. Essa ideia foi aplicada para GNEPs nosartigos, [PF05], [FP06], [FK10b], [FL11], [Fuk11] e [YZZ11]. Estes tipos de métodos foram aplicadospara GNEPs da forma (3.2.7) e (3.2.6).

Em todos esses artigos, para cada problema de cada jogador, se penalizam as restrições compar-tilhadas, mantendo as restrições individuais (caso houvessem), assim em cada iteração os métodos depenalidade para GNEPs resolvem NEPs (que na prática parecem ser mais simples que os GNEPs).

Em [KF10], se estuda um método tipo barreira para o GNEP com restrições compartilhadas deigualdade lineares e restrições de desigualdade individuais. Diferentemente dos outros artigos, osautores penalizam as restrições individuais mantendo xas as restrições compartilhadas, assim emcada iteração, um GNEP é resolvido.

Nesta seção vamos comentar brevemente os resultados dados nestes artigos. Salientamos que emtodos esses casos se consideram GNEPs de jogadores convexos.

3.2 EQUILÍBRIO DE NASH GENERALIZADO 33

Em [FP06], o método de penalidade exata de otimização é adaptado para resolver um GNEPda forma (3.2.7). Mediante este enfoque, é possível reduzir a solução de um GNEP resolvendo umúnico NEP com a desvantagem de que as funções objetivos do NEP, em geral, não são diferenciáveis.

Em [YZZ11], se adapta o algoritmo de penalidade interna (2.2.1) para um GNEP de jogadoresconvexos da forma (3.2.7). Em cada iteração do algoritmo se resolve um NEP com restrições que seobtém penalizando as funções objetivo de cada jogador, usando uma função de barreira logarítmica.

Para a convergência do método, a condição de qualicação EMFCQ-GNEP (que será apresen-tada mais adiante na Denição 4.2.3) é usada. Condições sucientes para convergência super linearde um método de Newton semi-diferenciável usado para resolver os sistemas KKT dos NEPs emcada iteração são dados.

Em [PF05], o clássico método do Lagrangiano Aumentado é adaptado em sua forma básica,isto é, com os parâmetros de penalidade convergindo ao innito, para resolver um QVI. A hipóteseprincipal para provar convergência é a condição estendida de Mangasarian-Fromovitz (EMFCQ-GNEP), que também apresentaremos mais adiante. O algoritmo é particularizado para resolver umGNEP de jogadores convexos da forma (3.2.7).

Em [Fuk11], se apresenta um método de penalidade incremental para resolver o GNEP (3.2.7)penalizando as restrições compartilhadas. Desta forma, em cada iteração se resolve um NEP comrestrições. Dene-se os ENG restritos, que generalizam os equilíbrios variacionais, e se dene umalgoritmo que calcula esses pontos tendo o algoritmo de penalidade incremental como um sub-procedimento.

Em [FK10b], se usa uma penalidade externa para resolver o GNEP (3.2.6) de jogadores convexos,onde a função penalizadora é diferente das clássicas dadas em otimização e onde os parâmetros depenalidade ρv são atualizados de uma forma particular. Nesse caso, os subproblemas são NEPsirrestritos, onde o problema para o v-ésimo jogador é:

NEPρ : Qv(x−v) : minxv fv(xv, x−v) + ρv‖gv+(x)‖γ , (3.2.27)

onde ρ = (ρv)Nv=1 > 0 é o termo penalizador para o v-ésimo jogador. Denimos Ψ(x) = ‖gv+(x)‖γpara γ > 1.

Das hipóteses de convexidade, a NEPρ é um NEP de jogadores convexos não diferenciável.Note-se que o termo penalizador é diferenciável em qualquer ponto não viável, esta caraterística éusada fortemente na prova de convergência do algoritmo. Para tratar com a não diferenciabilidadeda função penalizada, denimos para x ∈ Rn o conjunto das restrições não viáveis em x:

P (x) = v ∈ 1, . . . , N : ∃i ∈ 1, . . . ,mv : gvi (x) > 0.

O seguinte algoritmo é denido em [FK10b].

Algoritmo 3.2.1. Algoritmo de Penalidade para GNEPs

P0) Escolhemos x0 ∈ Rn, γ > 1; ρ0 ∈ RN+ e cv ∈ (0, 1). Fazer k = 0.

P1) Se xk é solução do GNEP, parar.

P2) Para cada v = 1, . . . , N , se v ∈ P (xk) e

‖∇xvfv(xk)‖ > cvρk,v‖∇xv(‖gv(xk)+‖γ)‖,

fazer ρk+1,v = 2ρk,v, caso contrário ρk+1,v = ρk,v.

P3) Achar xk+1 = A(xk). Fazer k = k + 1 e ir ao passo P1.

Alguns comentários à respeito do algoritmo são necessários. A ideia para atualizar os parâmetrosde penalidade ρv é que se xk é uma solução do NEPρ, então para cada v ∈ P (xk) a função objetivo

34 PROBLEMAS DE EQUILÍBRIO DE NASH GENERALIZADOS 3.2

de Qv(x−v): P v(x, ρv) é diferenciável em xk, então ∇xvP v(xk, ρv) = 0. Logo o passo P2 é satisfeito.Assim, P2 é usado para forçar a viabilidade para as restrições v ∈ P (xk).

No passo P3, A é um algoritmo com a propriedade que dado um ponto inicial x0 e um parâmetroρ > 0, gera uma sequência xk cujos pontos de acumulação são soluções do NEPρ. É interessantenotar que em cada iteração do algoritmo principal só se calcula uma iteração do algoritmo A e nãouma solução do NEPρ.

Teorema 3.2.8. Seja xk, ρk,1, . . . , ρk,N uma sequência innita gerada pelo Algoritmo 3.2.1 e seja

I∞ = v ∈ 1, . . . , N : ρk,v →∞, k →∞.

Se I∞ = ∅, então qualquer ponto de acumulação x∗ de xk é uma solução do GNEP.Se I∞ 6= ∅ e se a sequência xk é limitada, então para cada v ∈ I∞ existe um ponto de

acumulação x∗ de xk tal que uma das seguintes armações é verdadeira:a) ‖gv(x∗,v, x∗,−v)+‖γ = minxv ‖gv(xv, x∗,−v)+‖γ > 0;b) x∗,v é um ponto de Fritz John do problema P v(x∗,−v), mas não é um minimizador global;c) x∗,v é um minimizador global de P v(x∗,−v).

Demonstração. Ver [FK10b].

É fácil ver que se um ponto xk é solução do NEPρ e xk é viável, então xk é solução do GNEP.O seguinte teorema dá condições sucientes para que os parâmetros de penalidade sejam limi-

tados e, portanto, todo ponto de acumulação da sequência gerada pelo algoritmo seja uma soluçãodo GNEP.

Teorema 3.2.9. Suponha que a sequência gerada pelo algoritmo 3.2.1 é limitada. Considere asseguintes asserções.

a) A EMFCQ-GNEP (Denição 4.2.3) ocorre em um ponto de acumulação x.b) A CQγ (ver [FK10b]) ocorre em x.c) Os parâmetros de penalidade são atualizados em um número nito de passos, i.e, I∞ = ∅.Então ocorre que:

a⇒ b⇒ c.

Demonstração. Ver [FK10b].

No mesmo artigo, o algoritmo é aplicado também ao caso de GNEPs conjuntamente convexosobtendo resultados mais fortes. Além disso, os autores tratam também da resolução dos NEPρ nossubproblemas que não são diferenciáveis.

Finalmente em [FL11], se faz um estudo do Algoritmo 3.2.1 para um GNEP tipo (3.2.7), ondeunicamente as restrições compartilhadas são penalizadas, assim, em cada iteração se resolve umNEPρ com restrições.

3.2.2 Sistema KKT para GNEPs

Uma forma de reformular parcialmente um GNEP de jogadores convexos é através de um sistemade equações que está associado com seu sistema KKT, que denimos a seguir. Note que, em geral,como veremos depois, assim como em otimização, pontos KKT para GNEPs podem não ser soluções.

Condições de Karush-Kunh-Tucker

Consideremos o GNEP (3.2.6) e assumamos que fv e gv são C1 para cada v = 1, . . . , N . Se x∗

é uma solução do GNEP, então cada bloco x∗,v ∈ Rnv é uma solução do problema de otimizaçãoP v(x∗,−v). Então, se uma condição de qualicação é satisfeita em x∗,v com respeito ao conjuntoXv(x∗,−v), existem vetores λ∗,v ∈ Rmv tal que (x∗,v, λ∗,v) satisfaz as clássicas condições de Karush-Kunh-Tucker para o v−ésimo jogador:

3.2 EQUILÍBRIO DE NASH GENERALIZADO 35

KKTv : ∇xvLv(xv, x∗,−v, λv) = 0 (3.2.28)

λvi ≥ 0, gvi (xv, x∗,−v) ≤ 0, λvi gvi (xv, x∗,−v) = 0, ∀i = 1, . . . ,mv,

onde Lv : Rnv × Rmv → R é o Lagrangiano do problema P v(x∗,−v) denido como:

Lv(xv, x∗,−v, λv) = fv(xv, x∗,−v) +

mv∑i=1

λvi gvi (xv, x∗,−v).

Para poder estabelecer uma condição tipo de primeira ordem para GNEPs, como as condiçõesKKT em otimização, concatenamos estes N sistemas KKTv.

Denição 3.2.7. (KKT-GNEP) O sistema KKT para uma GNEP obtém-se concatenado os Nsistemas KKTv para cada v = 1, . . . , N , assim obtemos:

F (x, λ) = 0, λ ≥ 0, g(x) ≤ 0, λT g(x) = 0, (3.2.29)

onde F (x, λ) = (∇xvLv(x, λv))Nv=1 e g(x) = (gv(x))Nv=1 ∈ Rm, λ = (λv)Nv=1 ∈ Rm.

De maneira recíproca em um GNEP de jogadores convexos, se x∗ e λ∗ = (λ∗,1, . . . , λ∗,N ) são taisque (x∗, λ∗) satisfaz as condições KKT −GNEP de (3.2.29), então x∗ é uma solução do GNEP.

Assim, parece ser natural para um GNEP de jogadores convexos achar uma solução resolvendoseu sistema KKT-GNEP. Das observações anteriores, obtemos o seguinte resultado.

Teorema 3.2.10. Consideremos o GNEP (3.2.6) com gv : Rn → Rmv e fv : Rn → R funções C1

para todo v = 1, . . . , N , então as seguintes armações são verdadeiras:

1. Se x∗ é solução do GNEP e, para cada v = 1, . . . , N , uma certa condição de qualicaçãoocorre em x∗,v com respeito ao conjunto Xv(x∗,−v), então existe λ∗ ∈ Rm tal que (x∗, λ∗)resolve o sistema KKT-GNEP (3.2.29),

2. Se o GNEP é de jogadores convexos e se (x∗, λ∗) resolve o sistema KKT-GNEP, então x∗ éuma solução do GNEP.

Demonstração. É uma consequência das observações anteriores e de resultados análogos em otimi-zação.

De forma análoga ao caso de otimização, a parte 1 do teorema anterior, mostra que o sistemaKKT-GNEP pode ser considerado como uma condição necessária de primeira ordem para umasolução de um GNEP desde que alguma CQ ocorra para cada jogador. Note que a CQ pode serdiferente para cada jogador.

Consideremos agora um GNEP conjuntamente convexo comm = m1 = · · · = mN e os conjuntosde restrições dados por Xv(x−v) = xv ∈ Rnv : G(xv, x−v) ≤ 0 para cada v = 1, . . . , N e G :Rn → Rm. Pelo Teorema 3.2.2, toda solução da desigualdade variacional V I(X,F ) é uma soluçãodo GNEP.

Lembremos que um ponto (x,Λ) com Λ ∈ Rm é um ponto KKT para o problema de desigualdadevariacional V I(X,F ) com X = x ∈ Rn : G(x) ≤ 0 se satisfaz:

F (x) + JG(x)TΛ = 0

0 ≤ Λ⊥−G(x) ≥ 0 (3.2.30)

A relação entre as soluções de um GNEP conjuntamente convexo com seu sistema KKT-GNEP (3.2.29) associado, com a desigualdade variacional V I(X,F ) associada ao GNEP e comsistema KKT (3.2.30) são dados no seguinte teorema.

36 PROBLEMAS DE EQUILÍBRIO DE NASH GENERALIZADOS 3.2

Teorema 3.2.11. Seja o GNEP conjuntamente convexo com f1, . . . , fN funções C1, as seguintesasserções ocorrem.

• Seja x∗ uma solução do V I(X,F ) e Λ∗ ∈ Rm tal que (x∗,Λ∗) resolve as condições deKKT (3.2.30), então x∗ é uma solução do GNEP e (x∗, λ∗) é uma solução de (3.2.29) comλ∗,1 = · · · = λ∗,N = Λ∗,

• Seja x∗ uma solução do GNEP tal que as condições KKT-GNEP são satisfeitas com λ∗,1 =· · · = λ∗,N , então x∗ é uma solução da V I(X,F ) e (x∗,Λ∗) satisfaz o sistema KKT (3.2.30)com Λ∗ = λ∗,1.

Demonstração. A prova pode ser deduzida facilmente dos resultados anteriores.

Aqui comentaremos brevemente os trabalhos [DFKS11], [DFFH14], [FFP09] e [IS14b] que usamo sistema KKT-GNEP (3.2.29) para resolver um GNEP. Recentemente em [Dre16a] obteve-se novosresultados que melhoram o algoritmo proposto em [DFFH14]. Outros trabalhos que usam esteenfoque podem ser encontrados nas referências desses artigos.

Em [DFKS11], se considera um GNEP de jogadores convexos da forma (3.2.3). Esse trabalhosegue a mesma ideia que em otimização, formulando o sistema KKT como um sistema de equaçõesatravés do uso de uma função complementária. Lembremos que uma função complementária é umafunção φ : R2 −→ R tal que φ(a, b) = 0 se, e somente se, a ≥ 0, b ≥ 0 e ab = 0. Assim, o sistemaKKT-GNEP (3.2.29) pode ser reescrito como:

F (x, λ) = 0, Φ(x, λ) = 0, (3.2.31)

onde

Φ(x, λ) =

φ(λ11,−g1

1(x))...

φ(λ1m1,−g1

m1(x))

φ(λ21,−g2

1(x))...

φ(λNmN ,−g1mN

(x))

m×1

. (3.2.32)

Nesse artigo, se usa a função complementária de Fischer Burmeister denida como φ(a, b) =√a2 + b2−(a+b). Esta função permite que a função de mérito natural de (3.2.31) seja continuamente

diferenciável. A função de mérito natural vem dado por:

Θ(x, λ) =1

2

∥∥∥∥( F (x, λ)Φ(x, λ)

)∥∥∥∥2

. (3.2.33)

Assim, podemos achar um ENG minimizando globalmente a função Θ. Os autores calculama expressão para o gradiente de (3.2.33) e dão condições para que todo ponto estacionário dessafunção seja uma solução, assim como condições para que esta função seja coerciva. Também sãodenidos e provados resultados de convergência para um algoritmo de pontos interiores aplicadopara o sistema (3.2.31).

Em [FFP09] se aplica métodos tipo Newton para resolver o sistema (3.2.31) usando a funçãocomplementária φ(a, b) = min a, b. Nesse caso, o sistema gerado é, em geral, não diferenciável.Condições sucientes para a convergência local dos métodos tipo Newton são estudados. Essascondições, em geral, são diferentes daquelas dadas para otimização e desigualdades variacionais.Por exemplo, em GNEPs bem simples e bem comportadas, unicidade local das soluções pode nãoser encontrada. Portanto, condições e técnicas clássicas do método de Newton aplicadas em outros

3.2 EQUILÍBRIO DE NASH GENERALIZADO 37

problemas são substituídas por outras que vão de acordo com a estrutura do mesmo problema e deseu conjunto solução.

Em [DFFH14], sobre hipóteses de diferenciabilidade das funções objetivo e das restrições, osistema KKT-GNEP (3.2.29) é reformulado como um sistema de equações denidas por funçõesdiferenciáveis com restrições. Introduzindo variáveis articiais w ∈ Rm obtemos:

Ψ(z) = Ψ(x, λ,w) =

F (x, λ)g(x) + wλ w

= 0, sujeito z = (x, λ,w) ∈ Ω = Rn × Rm+ × Rm+ , (3.2.34)

onde λ w = (λiwi)mi=1. Então, (x, λ) é solução de (3.2.29) se, e somente se, (x, λ,−g(x)) é solução

de (3.2.34).O algoritmo proposto em [DFFH14] é um algoritmo híbrido que combina a robustez do algoritmo

de redução de potencial para GNEPs proposto em [DFKS11] com a convergência local quadráticado método LP-Newton [FFH14].

Como é conhecido, uma hipótese para a convergência do método LP-Newton é a de cumprimentode um error bound local. Para o sistema (3.2.34) em [DFFH14], se dá uma condição para que umerror bound seja satisfeito. Seja S o conjunto solução de (3.2.34), então dizemos que ocorre um errorbound em z ∈ S se existem δ, c > 0 tal que:

dist [z, S] ≤ c ‖Θ(z)‖ , ∀z ∈ B(z, δ). (3.2.35)

Um error bound deste tipo também foi apresentado para o sistema (3.2.31) usando a funçãocomplementária φ(a, b) = mina, b, mas para o cumprimento desta condição a hipótese de com-plementaridade estrita é necessária, o que restringe muito a classe de GNEPs que satisfazem estacondição. Ver [FFP09].

Um error bound para (3.2.34) que não precisa de complementariedade estrita foi proposto em[DFFH14]. Para enunciar esse resultado, denimos os seguintes conjuntos. Seja I = 1, . . . ,m,para x ∈W = x ∈ Rn : g(x) ≤ 0 e sejam

I=(x) = i ∈ I : gi(x) = 0 e I<(x) = i ∈ I : gi(x) < 0 (3.2.36)

os conjuntos de restrições ativas e inativas respectivamente. Seja Q(x) ≤ m o número máximo derestrições ativas diferentes, isto é:

Q(x) = max |α| : α ⊆ I=(x), gi 6= gj para todo i, j ∈ α, i 6= j .

Assim, pode-se denir o conjunto dos subconjuntos de I=(x) com o maior número de restri-ções ativas diferentes, I=(x) = α ⊆ I=(x) : |α| = Q(x), gi 6= gj para todo i, j ∈ α, i 6= j, e oconjunto de multiplicadores positivos associados a x por Λ+ = i ∈ I : λi > 0.

Teorema 3.2.12. Seja z∗ = (x∗, λ∗) uma solução de (3.2.34) e suponhamos que para algum α ∈I=(x), λ∗i > 0 para todo i ∈ α e a matriz(

JxF (x∗, λ∗) Eα(x∗)Jgα(x∗) 0

)∈ R(n+|Λ+|)×(n+|α|)

é não singular, então existem δ > 0 e c > 0 tais que:

dist [z, Z ∩ Ω] ≤ c ‖Ψ(z)‖ ∀z ∈ B(z∗, δ) ∩ Ω,

onde E(x∗) = blockdiag(∇x1g1(x∗), . . . ,∇xN gN (x∗)) e Eα(x∗) contém todas as colunas de E(x∗)com os índices que pertencem a α.

Em [IS14b], de forma paralela obtém-se um error bound para uma reformulação não diferenciável

38 PROBLEMAS DE EQUILÍBRIO DE NASH GENERALIZADOS 3.2

com restrições de (3.2.29) dada por:

Ψ(z) = Ψ(x, λ,w) =

F (x, λ)g(x) + w

minw, λ

= 0 sujeito z = (x, λ,w) ∈ Ω = Rn × Rm+ × Rm+ . (3.2.37)

Um dos resultados principais do trabalho é:

Teorema 3.2.13. Seja z∗ = (x∗, λ∗) uma solução de (3.2.37) e assumamos que para algum α ∈I=(x) a matriz (

JxF (x∗, λ∗) EΛ+(x∗)Jgα(x∗) 0

)∈ R(n+|Λ+|)×(n+|α|)

tem posto completo, então existem δ > 0 e c > 0 tal que:

dist [z, Z] ≤ c ‖Ψ(z)‖ , ∀z ∈ B(z∗, δ).

Finalmente, o trabalho discute a aplicabilidade deste error bound para métodos tipo Newton.Por m, mencionamos que resultados de existência para GNEPs podem ser encontrados em

[Par15], [Dut13], [Dre16b] e suas referências. Geralmente, resultados de existência para GNEPspodem ser obtidos de duas formas: através de forma direta usando os teorema de pontos xos comoo de Kakutani [K+41] e Begle [Beg50] ou através de uma reformulação como uma QVI. Geralmentehipóteses de convexidade e compacidade sobre os conjuntos Kv e de convexidade sobre as funçõesobjetivos fv são necessárias, assim como a semi continuidade superior e inferior das funções pontoconjunto Xv : Rn−nv ⇒ Rnv e outras que, na prática, até em um GNEP bem simples podem nãoser satisfeitas.

3.2.3 Algumas aplicações do GNEP

Finalizamos este capítulo mostrando alguns casos econômicos e políticos-econômicos simplesque podem ser modelados por GNEPs.

Aplicações de GNEPs em outras áreas podem ser encontrados em [FFP07], [FPS11], [LL13],[DSM16], [SM16] e nas referências de [FHS14]. Recentemente em [NFS16] se modela por meio deum GNEP o apoio humanitário dado por organizações não governamentais (ONGs) para regiõesque são afetadas após um desastre natural. As ONGs competem para receber as doações que serãodistribuídas para as zonas afetadas. Um estudo teórico do caso do furacão Katrina é apresentado. Em[DG17], modela-se cenários de tráfego com veículos autônomos usando GNEPs, equações diferenciasordinárias e controle ótimo.

Um simples mercado econômico

O seguinte exemplo foi tomado de [SM16] e consiste em um mercado econômico simples quepode ser modelado por um LGNEP.

Assumamos que temos N rmas oferecendo o mesmo produto em um mercado comum. A rmav ∈ 1, . . . , N produz Cv produtos no total para a venda, que estão divididos em K diferentescategorias, cada categoria com um preço dado xado, ρv1, . . . , ρ

vK . Para cada categoria do produto

j = 1, . . . ,K existe uma demanda totalDj ≥ 0 e o problema da rma v é poder achar as quantidadesxvj para j = 1, . . . ,K de venda de cada categoria a m de maximizar sua utilidade. Assim, oproblema para a v-ésima rma é:

maxxv∈RK

〈ρv, xv〉 , sujeito a xv ≥ 0,K∑j=1

xvj ≤ Cv,N∑v=1

xvj ≤ Dj , ∀j = 1, . . . ,K.

3.2 EQUILÍBRIO DE NASH GENERALIZADO 39

A primeira restrição, é claro, o fato que as quantidades à vender não são negativas. A segundagarante que as quantidades totais ofertadas de cada categoria não superem a respectiva capacidadede produção. Essas são restrições individuais para o jogador v. As últimasK restrições correspondemàs restrições compartilhadas que garantem que a quantidade total de cada categoria produzidapor todas as rmas no mercado não exceda a demanda de tal categoria. Podemos sem perdergeneralidade, colocar em cada jogador v as restrições individuas dos jogadores restantes, assimtemos um GNEP de jogadores convexos.

O conjunto viável para o GNEP é dado por:

W = x ∈ RNK : Ax ≤ b, 0 ≤ x,

onde

A =

e 0 · · · 0

0 e. . .

......

. . . . . . 00 · · · 0 eIK · · · · · · IK

, b =

C1

...CN

D1...

DK

,

e e = (1, 1, . . . , 1) ∈ RK é um vetor la e IK é a matriz identidade de ordem K.Esse modelo pode ser usado, por exemplo, para modelar a venda de passagens em cruzeiros por

N agências de viagens. É conhecido que os preços das passagens variam de acordo com o confortooferecido.

Controle da poluição e o Protocolo de Quioto

O próximo exemplo é tomado de [FHS14]. O Protocolo de Quioto é um tratado internacionalsobre as alterações climáticas. Seu principal objetivo é estabilizar a emissão de gases de efeito estufa(GEE) na atmosfera e assim frear o aquecimento global e seus possíveis impactos. Ao todo, 184países raticaram o tratado até o momento.

Os países signatários foram divididos em dois grupos de acordo com seu nível de industriali-zação. Cada grupo tem obrigações distintas em relação ao Protocolo. O Anexo I reúne os paísesdesenvolvidos enquanto o grupo formado pelos países em desenvolvimento, entre eles o Brasil, édenotado por Não Anexo I.

A ideia do acordo é que os países desenvolvidos são os principais culpados pelos altos níveis deemissões de GEE na atmosfera. O acordo coloca uma carga mais pesada em nações desenvolvidas,mas com responsabilidades diferenciadas. Países em franco desenvolvimento (como Brasil, México,Argentina e Índia) não receberam metas de redução, pelo menos momentaneamente, mas devemauxiliar na redução de emissão desses gases por meio de ações nacionais.

O Protocolo de Quioto foi adotado em Quioto, Japão, em 11 de Dezembro de 1997 e entrou emvigor em 16 de Fevereiro de 2005. As partes incluídas no Anexo I deveriam, individualmente ou emconjunto, assegurar que as suas emissões de dióxido de carbono sejam reduzidas, pelo menos, em 5por cento abaixo dos níveis de 1990 no período de compromisso de 2008 a 2012. Para alcançar essesobjetivos, vários mecanismos foram propostos. Entre eles o mecanismo de Implementação Conjunta,que diz:

Com a nalidade de cumprir os compromissos assumidos, qualquer parte incluída no Anexo Ipode transferir para, ou adquirir de, quaisquer outras unidades de redução de emissões resultantesde projetos destinados a reduzir as emissões antrópicas por fontes ou a aumentar as remoçõesantrópicas por sumidouros de gases de efeito estufa em qualquer setor da economia ...

Em outras palavras, os países estão autorizados a investir em projetos no estrangeiro a m dereceber unidades de redução de emissões (UREs). O mecanismo de Implementação Conjunta deve,portanto, (ou se espera pelo menos) impulsionar o desenvolvimento de tecnologias que suportam asustentabilidade ambiental, apoiando estados envolvidos para investir em tais projetos no exterior.

40 PROBLEMAS DE EQUILÍBRIO DE NASH GENERALIZADOS 3.2

Por exemplo, ao investir em países que são menos desenvolvidos, assim, tais subsídios irão ajudá-losno progresso econômico.

A situação descrita com as propriedades especícas pode ser modelada por meio de um GNEP.A abordagem apresentada foi abreviada do modelo de M. Breton [BZZ06] que é mais detalhado. Omecanismo de Implementação Conjunta consiste em N jogadores (países). Cada jogador v tem suaprópria produção industrial, o que causa alguma saída de emissões denotado como ev. A produçãoindustrial mencionada gera os ingressos Rv. Suponhamos que estas emissões sejam proporcionais àprodução industrial do país, isto permite expressar Rv como uma função de ev. O total de emissõesdo jogador v poderia ser reduzido, investindo em desenvolver projetos que ajudariam ao meioambiente, tanto no mesmo pais, como no exterior (por exemplo, para construir estações de águasresiduais, para reduzir e reciclar lixeiras existentes, etc).

Tais investimentos ambientais são indicados por Ivj , que será entendida como o investimento dejogador v no país j, o que será assumido proporcionalmente ao investimento, ou seja, γvjIvj . Aoinvestir, o jogador está ganhando as unidades de redução de emissões. É importante mencionar queo coeciente γv,j depende tanto do jogador v e j, dado o fato de que a quantidade de investimentodo jogador v é regulado pelo país j (por exemplo: oportunidades sucientes para investir no país j,leis do país j que restringem os investimentos especícos, etc.)

A saída de emissões líquidas no país v será ev −∑N

j=1 γjvIjv . Logicamente podemos supor que,

esta quantidade não é negativa. Para denotar a saída de emissões contabilizadas para jogador v, aordem dos índices da fórmula deve ser invertida, i.e, ev−

∑Nj=1 γvjI

vj . A fórmula expressa as próprias

emissões de jogador v menos as unidades de redução de emissões adquiridas através do investimentoem países j = 1, . . . , N . Essa quantidade de emissão deve ser menor do que uma quantidade impostaEv, dada pelo Protocolo de Quioto.

Há uma última condição no modelo apresentado, com base no fato de que, muitos tipos depoluição são compartilhados entre os países, devido a atmosfera comum e o mesmo meio ambiente(chuvas fortes, poluição do solo nas fronteiras, a poluição dos rios e lagos que são compartilhadospor mais países, etc). Portanto, alguma saída de emissão líquida é de alguma forma compartilhadaentre todos os países, que deve ser considerada na denição nal. Vamos apresentar isso com afunção:

Dv

e1 −N∑j=1

γj1Ij1 , . . . , e

N −N∑j=1

γjNIjN

.

Finalmente é possivel construir o GNEP, com problema para o jogador v dado por:

maxev ,Iv1 ,...,I

vN

Rv(ev)−N∑j=1

Ivj −Dv

e1 −N∑j=1

γj1Ij1 , . . . , eN −

N∑j=1

γjNIjN

sujeito a

ev, Iv1 , . . . , IvN ≥ 0

ev −N∑j=1

γvjIvj ≤ Ev

ev −N∑j=1

γjvIjv ≥ 0, v = 1, . . . , N.

As restrições estão levando em conta as variáveis de todos os N jogadores e as restrições sãosemelhantes para cada jogador, assim, o GNEP está seguindo a ideia desejada nesse mecanismo deImplementação Conjunta para o qual foi destinado.

Capítulo 4

Condições de otimalidade e condições de

qualicação para GNEPs

Assim como em otimização, uma condição de otimalidade para GNEPs é qualquer condiçãosatisfeita por uma solução. Condições muito simples como a mera viabilidade ou de difícil vericaçãocomo a própria otimalidade são condições de otimalidade, mas estas condições pouco auxiliam natarefa de encontrar pontos de equilíbrio.

Tal como ocorre em otimização, as condições KKT para GNEPs (KKT-GNEP) tampouco sãocondições de otimalidade. A importância das condições KKT no desenvolvimento de algoritmos emotimização motiva estudar condições sobre as quais todo ponto de equilíbrio é um ponto KKT-GNEP, essas condições serão chamadas condições de qualicação para GNEPs. Veremos que paraa estrutura dos GNEPs, CQs podem ser denidas de duas formas (o que chamamos de CQ-Parciale CQ-GNEP) e estudamos as relações dessas CQs em cada caso.

4.1 Condições de otimalidade de primeira ordem

Começamos estabelecendo alguns resultados análogos à otimização que servirão para mostrarum teorema tipo KKT para GNEPs, para isto denimos os seguintes cones.

Denição 4.1.1. Dados x ∈W denimos:O cone N-tangente do GNEP em x é denido por:

TN (x) :=N∏v=1

TXv(x−v)(xv).

O cone N-linearizado do GNEP em x é denido por:

LN (x) :=N∏v=1

LXv(x−v)(xv).

O cone gerado pelas restrições ativas dos jogadores em x é denido por:

KN (x) :=

N∏v=1

Kv(xv),

onde Kv(xv) = KXv(x−v)(xv).

O cone N-normal do GNEP em x é denido por:

NN (x) :=

N∏v=1

NXv(x−v)(xv).

41

42 CONDIÇÕES DE OTIMALIDADE E CONDIÇÕES DE QUALIFICAÇÃO PARA GNEPS 4.1

Da denição anterior, é claro que os cones TN (x), LN (x), KN (x) e NN (x) herdam as mesmaspropriedades de seus análogos em otimização.

A seguinte denição é uma extensão do cone polar.

Denição 4.1.2. (Cone N-polar) Seja C ⊆ Rn não vazio. Denotemos por PN (C) o cone N-polarde C denido por:

PN (C) = w ∈ Rn : wvdv ≤ 0, v = 1, . . . , N, ∀d ∈ C .

Da denição, é claro que PN (C) é de fato um cone. Temos que PN (C) ⊆ P (C) e que se A ⊆ B,então PN (B) ⊆ PN (A), onde P (C) é o cone polar de C.

Uma relação de igualdade útil entre o cone N-polar e o cone polar pode ser obtida da seguinteforma:

Seja Cv = projRnv (C) = xv ∈ Rnv : ∃x−v ∈ Rn−nv tal que (xv, x−v) ∈ C a projeção de Csobre Rnv , então pode se ver facilmente que:

PN (C) =N∏v=1

P (Cv). (4.1.1)

Como para cada v = 1, . . . , N os conjuntos P (Cv) são cones fechados e convexos, o mesmoocorre para PN (C).

No seguinte teorema resumimos algumas propriedades dos cones denidos anteriormente.

Teorema 4.1.1. Seja x ∈W , entãoa) TN (x) ⊆ LN (x).b) PN (KN (x)) = LN (x),KN (x) = PN (LN (x)) e PN (TN (x)) = NN (x).

Demonstração. A parte a é consequência das denições dos cones TN (x), LN (x) e da proposi-ção 2.1.1.

De resultados análogos de otimização e da denição 4.1.1, temos:

PN (KN (x)) =

N∏v=1

P (Kv(xv)) =N∏v=1

LXv(x−v)(xv) = LN (x).

Por outro lado,

PN (LN (x)) =

N∏v=1

P (LXv(x−v)(xv)) =

N∏v=1

Kv(xv) = KN (x)

e por último

PN (TN (x)) =N∏v=1

P (TXv(x−v)(xv)) =

N∏v=1

NXv(x−v)(xv) = NN (x).

Seja F (x) := (∇xvfv(x))Nv=1 o vetor formado pelos gradientes parciais das funções objetivo decada jogador, um resultado análogo à condição de otimalidade geométrica para otimização pode serdado para GNEPs.

Teorema 4.1.2. (Condição de otimalidade geométrica) Seja x∗ uma solução do GNEP, então:

−F (x∗) ∈ PN (TN (x∗)).

4.1 CONDIÇÕES DE OTIMALIDADE DE PRIMEIRA ORDEM 43

Demonstração. De 4.1.1 e da denição 4.1.1, temos que:

PN (TN (x∗)) =N∏v=1

P (TXv(x∗,−v)(x∗,v)).

Portanto, é suciente provar que −∇xvfv(x∗) ∈ P (TXv(x∗,−v)(x∗,v)) para cada v = 1, . . . , N .

Como x∗ é uma solução do GNEP, então para cada v = 1, . . . , N o bloco x∗,v é solução do problemaP v(x∗,−v), então, pela condição geométrica 2.1.1, temos que −∇xvfv(x∗) ∈ P (TXv(x∗,−v)(x

∗,v)) paracada v = 1, . . . , N . Portanto −F (x∗) ∈ PN (TN (x∗)).

Note-se que também −F (x∗) ∈ P (TN (x)).O seguinte resultado dá uma condição suciente para que em uma solução, KKT-GNEP seja

satisfeita.

Teorema 4.1.3. (KKT-GNEP) Seja x∗ ∈W uma solução do GNEP e suponha que PN (TN (x∗)) =PN (LN (x∗)), então existem para cada v = 1, . . . , N vetores λv ∈ Rmv com λvi = 0 para i /∈ αv(x∗),tal que:

−∇xvfv(x∗) =

mv∑i=1

λvi∇xvgvi (x∗), λvi ≥ 0.

Demonstração. Como x∗ é solução, pelo Teorema 4.1.2 temos que −F (x∗) ∈ PN (TN (x∗)), pelahipótese e pelo Teorema 4.1.1 temos que −F (x∗) ∈ PN (LN (x∗)) = KN (x∗), então para cadav = 1, . . . , N existe λv ∈ Rmv+ com λvi = 0 para i /∈ αv(x∗), tal que:

−∇xvfv(x∗) =

mv∑i=1

λvi∇xvgvi (x∗).

Assim, KKT-GNEP é satisfeito.

A condição PN (TN (x∗)) = PN (LN (x∗)) é chamada condição de Guignard-GNEP. Iremos provarque essa condição tipo Guignard é a condição mais fraca possível que garante KKT-GNEP em umasolução. Esse resultado será uma consequência do seguinte teorema.

Teorema 4.1.4. Sejam x∗ ∈W e gv : Rn → Rmv funções diferenciáveis para todo v = 1, . . . , N .w ∈ NN (x∗) se, e somente se, existem funções fv : Rn → R diferenciáveis tais que ∇xvfv(x∗) =

−wv, para todo v = 1, . . . , N e x∗ é solução do GNEP com problema para o v−ésimo jogador dadopor:

P v(x−v) : min fv(xv, x−v) (4.1.2)

gvi (x) ≤ 0 i = 1, . . . ,mv

Demonstração. (Necessidade) Como x∗ é solução, então pelos Teoremas 4.1.2 e 4.1.1 tem-se que−F (x∗) = w ∈ PN (TN (x∗)) = NN (x∗).

(Suficincia) Seja w ∈ NN (x∗), então para cada v = 1, . . . , N temos que wv ∈ NX−v(x∗,−v)(x∗,v)

e pelo Teorema 6.11 em [RW09], existe uma função fv : Rnv → R diferenciável tal que∇xv fv(x∗,v) =−wv e o mínimo de fv no conjunto Xv(x∗,−v) é atingido em x∗,v, para todo v = 1, . . . , N . Paracada v = 1, . . . , N podemos denir fv(x) = fv(xv). Seja xv ∈ Xv(x∗,v), temos que:

fv(x∗) = fv(x∗,v) ≤ fv(xv) = fv(xv, x∗.−v).

Assim, x∗ é solução do GNEP 4.1.2.

Corolário 4.1.1. Seja x∗ ∈ W , então PN (TN (x∗)) = PN (LN (x∗)) é equivalente ao fato que paraquaisquer funções objetivo fv : Rn → R tal que o GNEP com problema para o v-ésimo jogador dadopor 4.1.2 que possui em x∗ um ponto de equilíbrio é tal que x∗ é um ponto KKT-GNEP.

44 CONDIÇÕES DE OTIMALIDADE E CONDIÇÕES DE QUALIFICAÇÃO PARA GNEPS 4.2

Demonstração. Suciência: o fato de que a condição de Guinard-GNEP em uma solução implicaKKT-GNEP foi provado no Teorema 4.1.3.

Necessidade: pelo Teorema 4.1.1 é suciente provar que PN (TN (x∗)) ⊆ PN (LN (x∗)). Seja w ∈PN (TN (x∗)) = NN (x∗), então pelo teorema anterior, existem para cada v = 1, . . . , N funçõesdiferenciáveis fv : Rn → R tal que ∇xvfv(x∗) = −wv e x∗ é solução do GNEP com problema parao v-ésimo jogador dado por 4.1.2. Então, pela hipótese x∗ é um ponto KKT-GNEP, portanto paracada v = 1, . . . , N existem λv ∈ Rmv+ com λvi = 0 para i /∈ αv(x∗) tal que:

wv = −∇xvfv(x∗) =

mv∑i=1

λvi∇xvgvi (x∗),

então w ∈ KN (x∗) = PN (LN (x∗)). Isso acaba a demonstração.

Como foi mencionado no Capítulo 2, a condição de Fritz John é uma condição de otimalidadeem um problema de otimização. De forma análoga, pode-se denir a condição de Fritz-John-GNEPe ver que também é uma condição de otimalidade.

Denição 4.1.3. (Fritz-John-GNEP) Consideremos o GNEP 3.2.6, dizemos que x ∈ W é umponto Fritz John-GNEP se existem para cada v = 1, . . . , N vetores (λv0, λ

v) ∈ R+ × Rmv+ não nulostal que:

λv0∇xvfv(x) +

mv∑i=1

λvi∇xvgvi (x) = 0, λvi gvi (x) = 0, ∀i = 1, . . . ,mv.

Em [DJS13], um método tipo Newton foi desenvolvido para o cálculo de pontos Fritz-John-GNEP que podem ser obtidos resolvendo um sistema de equações não diferenciáveis. Assim comono caso de otimização, temos que a condição Fritz-John-GNEP é uma condição de otimalidade paraGNEPs.

Teorema 4.1.5. Seja x∗ uma solução do GNEP, então x∗ é um ponto Fritz-John-GNEP.

Demonstração. É imediato da denição anterior, da denição de solução para um GNEP e doTeorema 2.1.1.

Como foi dito no Capítulo 2, em otimização, condições de qualicação são hipóteses feitas sobreas funções que denem o conjunto viável, que quando satisfeitas por um minimizador local de umproblema de otimização fazem que ele seja um ponto estacionário.

4.2 Condições de qualicação para GNEPs

Assim como ocorre em otimização, a condição KKT puramente não é uma condição de otima-lidade e para o caso dos GNEPs isso também ocorre, considere, por exemplo, o GNEP seguinte.

Exemplo 4.2.1. Consideremos o GNEP com 2 jogadores:

jogador 1 : minx1

x1 s.t. (x1)2 ≤ 0,

jogador 2 : minx2

(x2)2 s.t. x2 ∈ R.

O único ENG do jogo é (0, 0). O sistema KKT para o primeiro jogador é:

KKT1 : 1+λ12x1 = 0

λ1 ≥ 0,(x1)2 ≤ 0, λ1

(x1)2

= 0,

4.2 CONDIÇÕES DE QUALIFICAÇÃO PARA GNEPS 45

e (0, 0) não é um ponto KKT para o primeiro jogador, então não é um ponto KKT para o GNEP.Portanto, de forma análoga como ocorre em otimização, uma condição adicional em uma solução

é necessária para que as condições KKT-GNEP sejam satisfeitas. Estas condições serão chamadastambém condições de qualicação para GNEPs.

Como ocorre em otimização, uma propriedade P será uma condição de qualicação para GNEPsquando a seguinte implicação é vericada:

SOLUÇÃO + P⇒ KKT-GNEP.

Uma primeira forma natural de denir condições de qualicação para GNEPs seria:

Denição 4.2.1. (CQ-Parcial) Seja CQ uma condição de qualicação qualquer (de otimização),seja x ∈W um ponto viável, dizemos que x satisfaz a CQ-Parcial se:

xvsatisfaz CQ no conjunto Xv(x−v), ∀v = 1, . . . , N.

Então, é fácil ver a partir da denição de solução para o GNEP que se x∗ é uma solução esatisfaz CQ-Parcial (para qualquer CQ), então é um ponto KKT-GNEP. Portanto, CQ-Parcial é defato, uma condição de qualicação para GNEPs.

Da denição de CQ-Parcial, pode-se ver facilmente que a condição Guignard-GNEP é na verdadeGuignard-Parcial e, portanto, é uma condição de qualicação para GNEPs.

Note-se que a m de garantir que toda solução satisfaz a condição KKT-GNEP não é necessárioque se satisfaça a mesma condição de qualicação CQ para cada jogador.

Mostramos alguns exemplos de CQ-Parcias.

Denição 4.2.2. Um ponto x ∈W satisfaz MFCQ-Parcial se, para cada v = 1, . . . , N , o conjunto

∇xvgvi (x)i∈αv(x)

é positivamente linearmente independente em Rnv , onde αv(x) = i : gvi (x) = 0 ⊆ 1, . . . ,mv,i.e, se ∑

i∈αv(x)

λvi∇xvgvi (x) = 0, λvi ≥ 0, implica λvi = 0, i ∈ αv(x).

Uma condição relacionada com MFCQ-Parcial, a EMFCQ-Parcial, foi primeiramente introdu-zida para QVIs em [PF05] para provar convergência de um método de multiplicadores para QVIsque tinha como um caso particular os GNEP (de jogadores convexos). Essa condição também foiusada em [Fuk11], [FK10b], [Kan16] e [KS16] para provar convergência de métodos de penalidadepara GNEPs.

Denição 4.2.3. Consideremos o GNEP 3.2.7. Um ponto x ∈W satisfaz EMFCQ-Parcial se, paracada v = 1, . . . , N , o conjunto:

∇xvgvi (x)i∈αv(x) ∪∇xvhvj (x)

j∈γv(x)

é positivamente linearmente independente, onde αv(x) = i : gvi (x) ≥ 0 ⊆ 1, . . . ,mv e γv(x) =j : hvj (x) = 0

⊆ 1, . . . , lv, i.e, se∑

i∈αv(x)

λvi∇xvgvi (x) +∑

i∈γv(x)

µvj∇xvhvj (x) = 0, λvi , µvj ≥ 0

implica:λvi = 0, i ∈ αv(x)µvj = 0, j ∈ γv(x)

.

46 CONDIÇÕES DE OTIMALIDADE E CONDIÇÕES DE QUALIFICAÇÃO PARA GNEPS 4.2

Exemplo 4.2.2. Consideremos um GNEP com 2 jogadores da seguinte forma:

Jogador 1: f1(x1, x2) s.t x1 + x2 ≤ 1

Jogador 2: f2(x1, x2) s.t − x1 − x2 ≤ 1.

O conjunto viável para o GNEP é dado por W = x ∈ R2 : x1 + x2 ≤ 1,−x1 − x2 ≤ 1, entãoMFCQ-Parcial ocorre em todo ponto de W e a condição EMFCQ-Parcial ocorre em todo R2.

Analogamene podemos denir CPLD-Parcial e CCP-Parcial.

Denição 4.2.4. (CPLD-Parcial) Dizemos que ocorre CPLD-Parcial em um ponto x ∈ W seCPLD ocorre em xv com respeito ao conjunto Xv(xv), para todo v = 1, . . . , N ., i.e., se existeuma vizinhança Uv ⊆ Rnv de xv tal que para todo Iv ⊆ αv(x) se ∇xvgvi (x)i∈Iv é positivamentelinearmente dependente, então ∇xvgvi (xv, x−v)i∈Iv é positivamente linearmente dependente paratodo xv ∈ Uv,

e CCP-Parcial da seguinte forma:

Denição 4.2.5. (CCP-Parcial) Dizemos que ocorre CCP-Parcial em um ponto x ∈ W quando,para cada v = 1, . . . , N , a multifunçãoKv

x(y) é semicontínua exteriormente em xv, isto é, lim supy→xv Kvx(y) ⊂

Kvx(xv), onde

Kvx(y) =

v ∈ Rnv : v =∑

i∈αv(x)

λvi∇xvgvi (y, x−v), λvi ≥ 0

e

lim supy→xv

Kvx(y) =

w ∈ Rnv : ∃yk → xv, ∃wk → w,wk ∈ Kv

x(yk).

Da denição de CQ-Parcial, segue que se CQ1 é mais fraca que CQ2, então CQ1-Parcial é maisfraca que CQ2-Parcial.

Por último, de forma análoga pode se denir CQ-Parcial para outras CQs de otimização e asrelações que existe entre elas se mantem. Veja, por exemplo, [Hae16].

No método de Lagrangiano aumentado para problemas de otimização, uma condição de quali-cação é necessária a satisfazer-se no ponto limite a m de poder obter convergência a um pontoKKT.

No seguinte Capítulo, apresentamos o método de Lagrangiano aumentado para GNEPs a mde poder manter a analogia com o caso de otimização, condições de qualicação mais fortes que asmencionadas anteriormente e mais parecidas com as clássicas CQ de otimização são denidas, alémde que essas condições preservam melhor a estrutura conjunta dos GNEPs. Usando estas condições,podemos provar a convergência global do método de Lagrangiano para GNEPs no próximo Capítulo.

Deniremos para cada CQ de otimização, uma análoga CQ-GNEP (mais forte, em geral, do quea denição de CQ-Parcial). Faremos a denição caso a caso. Para o caso do MFCQ, a MFCQ-GNEPe a MFCQ-Parcial coincidem. Aqui vamos considerar a extensão das CQ: CPLD, CCP, QN e errorbound, denições análogas podem ser feitas para outras CQs.

Denição 4.2.6. (CPLD-GNEP) Dizemos que ocorre CPLD-GNEP em um ponto x ∈ W , seexiste uma vizinhança U ⊆ Rn de x tal que, para todo v = 1, . . . , N , se para Iv ⊆ αv(x) tem-seque ∇xvgvi (x)i∈Iv é positivamente linearmente dependente, então ∇xvgvi (x)i∈Iv é positivamentelinearmente dependente, para todo x ∈ U .

Denição 4.2.7. (QN-GNEP) Dizemos que ocorre QN-GNEP no ponto x ∈W , quando, para cadav = 1, . . . , N , se

∑i∈αv(x) λ

vi∇xvgvi (x) = 0, λvi ≥ 0, então @, xk → x tal que, para todo k ∈ N,

gvi (xk) > 0 se λvi > 0.

Denição 4.2.8. (error bound-GNEP) Dizemos que ocorre error bound-GNEP no ponto x ∈ Wquando existe uma vizinhança U de x e C > 0 tal que, para todo v = 1, . . . , N , temos que:

4.2 CONDIÇÕES DE QUALIFICAÇÃO PARA GNEPS 47

• ∀y ∈ U temos que Xv(y−v) 6= ∅,

• dist(yv, Xv(y−v)) ≤ C‖gv+(y)‖, para todo y ∈ U .

Note-se que essa denição é substancialmente diferente da denição de error bound para oti-mização. A Condição 1 estabelece que primeiro o conjunto onde se mede a distância não deve servazio numa vizinhança do ponto viável.

E para o caso de CCP temos.

Denição 4.2.9. (CCP-GNEP) Dizemos que ocorre CCP-GNEP no ponto x ∈ W , quando, paracada v = 1, . . . , N , a multifunçãoKv(.) é semicontínua exteriormente em x, isto é, lim supy→xK

v(y) ⊆Kv(x), onde

Kv(y) =

v ∈ Rnv : v =∑

i∈αv(x)

λvi∇xvgvi (y), λvi ≥ 0

e

lim supy→x

Kv(y) =w ∈ Rnv : ∃yk → x,∃wk → w,wk ∈ Kv(yk)

.

Note que dizemos que ocorre CQ-GNEP em x ∈ W se, para todo v = 1, . . . , N , x satisfaz CQno conjunto W v com respeito a xv (i.e., todas as derivadas são calculadas unicamente com respeitoa xv ∈ Rnv).

Uma forma equivalente para CCP-GNEP e mais parecida ao caso de otimização é dada noseguinte teorema.

Teorema 4.2.1. CCP-GNEP ocorre em x ∈W se e somente se a multifunção K(.) é semicontínuaexterior em x, isto é:

lim supx→x

K(x) ⊆ K(x)

onde

K(x) =

w ∈ Rn : wv =∑

i∈Av(x)

λvi∇xvgvi (x), λvi ≥ 0, v = 1, . . . , N

=N∏v=1

Kv(x) (4.2.1)

elim supx→x

K(x) =w ∈ Rn : ∃xk → x, wk → w e wk ∈ K(xk)

Demonstração. O resultado é uma consequência direta das seguintes inclusões:

0−u × lim supx→x

Ku(x) ⊆ lim supx→x

K(x) ⊆N∏v=1

lim supx→x

Kv(x), para qualquer u = 1, . . . , N.

Para provar a primeira inclusão, seja u ∈ 1, . . . , N xo e arbitrário e w ∈ 0−u×lim supx→xKu(x) =

(0−u, wu) ∈ Rn : wu ∈ lim supx→xKu(x), então w−u = 0 e existem sequências xk → x, wk,u → wu

com wk,u ∈ Ku(xk), seja wk = (0−u, wk,u), então wk → w e wk ∈ K(xk), portanto, w ∈lim supx→xK(x).

Para provar a segunda inclusão, seja w ∈ lim supx→xK(x), então existem sequências xk → x,wk → w com wk ∈ K(xk). Para cada v ∈ 1, . . . , N xo e arbitrário, temos wk,v → wv e wk,v ∈Kv(xk), então wv ∈ lim supx→xK

v(x), para cada v = 1, . . . , N , portanto, w ∈∏Nv=1 lim supx→xK

v(x).Suponhamos primeiro que CCP-GNEP ocorre em x, então

∏Nv=1 lim supx→xK

v(x) ⊆∏Nv=1K

v(x) =K(x) e o resultado é obtido da segunda inclusão.

Para provar a condição necessária, seja v ∈ 1, . . . , N xo e arbitrário, seja wv ∈ lim supx→xKv(x),

então (0−v, wv) ∈ 0−v × lim supx→xKv(x). Usando a primeira inclusão e as hipóteses (0−v, wv) ∈

lim supx→xK(x) ⊆ K(x), portanto, wv ∈ Kv(x), para qualquer v = 1, . . . , N , então CCP-GNEPocorre.

48 CONDIÇÕES DE OTIMALIDADE E CONDIÇÕES DE QUALIFICAÇÃO PARA GNEPS 4.2

Para todas as condições de qualicação (CQ) usadas neste trabalho, CQ-GNEP é mais forte queCQ-Parcial, isso prova que as CQ-GNEP são também condições de qualicação para GNEPs. Porsimplicidade provaremos esse resultado unicamente para CPLD e CCP, para outras CQs, a prova éanáloga.

Teorema 4.2.2. CPLD-Parcial é mais fraco que CPLD-GNEP e CCP-Parcial é mais fraco queCCP-GNEP.

Demonstração. Suponha que CPLD-GNEP ocorre em x ∈ W , então existe um conjunto abertoU ⊆ Rn com x ∈ U tal que, para cada v = 1, . . . , N , se Iv ⊆ Av(x) é tal que ∇xvgvi (x)i∈Ivé positivo linearmente dependente, então ∇xvgvi (x)i∈Iv é positivo linearmente dependente paratodo x ∈ U . Como U é aberto, existe ε > 0 tal que B(x, ε) ⊆ U . Armamos que, para todoxv ∈ B(xv, ε), nós temos (xv, x−v) ∈ U . De fato, temos que ‖(xv, x−v)− x‖ = ‖xv − xv‖ < ε,portanto, existe um conjunto aberto Uv = B(xv, ε) na vizinhança de xv tal que, para todo xv ∈ Uv,temos (xv, x−v) ∈ U . O resultado segue da denição de CPLD-Parcial.

Suponha agora que CCP-GNEP ocorre em x ∈W . Vamos provar que, para cada v = 1, . . . , N ,

lim supx→xv

Kvx(x) ⊆ lim sup

x→xKv(x).

Seja v ∈ 1, . . . , N xo e arbitrário e seja wv ∈ lim supx→xv Kvx(x), então existe xk,v → xv e

wk,v → wv com wk,v ∈ Kvx(xk,v) =

w ∈ Rnv : w =

∑i∈Av(x) λ

vi∇xvgvi (xk,v, x−v), λvi ≥ 0

. Seja

xk = (xk,v, x−v), então xk → x e wk,v ∈ Kv(xk), então wv ∈ lim supx→xKv(x). Portanto, da

hipótese wv ∈ Kv(x) = Kvx(xv), então CCP-Parcial é satisfeito. Isso acaba a demostração.

Diferentemente do que acontece com as CQ-Parciais que guardam as mesmas relações que suasanálogas CQs de otimização, para as CQ-GNEPs, isto não ocorre sempre. Por exemplo, em [KS16]prova-se que MFCQ-GNEP implica CPLD-GNEP, mas à diferença do que acontece em otimização,CPLD-GNEP não implica o error bound-GNEP. Vamos provar que CCP-GNEP e CPLD-GNEPguardam a mesma relação que de seus análogos de otimização.

Teorema 4.2.3. CCP-GNEP é mais fraco que CPLD-GNEP.

Demonstração. Suponha que CPLD-GNEP ocorre e xemos v ∈ 1, . . . , N. Seja w ∈ lim supy→xKv(y),

então existem sequências xk e wk tal que xk → x, wk → w e wk ∈ Kv(xk), então wk =∑i∈αv(x) λ

k,vi ∇xvgvi (xk) com λk,vi ≥ 0. Pelo Lema de Carathéodory, existe um conjunto Jkv ⊆ αv(x)

e escalares λk,vi ≥ 0 com i ∈ Jkv tal que wk =∑

i∈Jkv λk,vi ∇xvgvi (xk) e ∇xvgvi (xk)i∈Jkv é l.i. Como

αv(x) é nito, podemos assumir que Jkv = Jv, então

wk =∑i∈Jv

λk,vi ∇xvgvi (xk). (4.2.2)

Agora suponha que a sequência λk,vi i∈Jv é ilimitada, então sem perda de generalidade podemos

assumir que λk,v

‖λk,v‖ → λ∗,v ∈ R|Jv |, dividendo em 4.2.2 por∥∥∥λk,v∥∥∥ e tomando limite temos que 0 =∑

i∈Jv λ∗,vi ∇xvgvi (x), então ∇xvgvi (x)i∈Jv é positivamente linearmente dependente. Como xk → x,

então para k sucientemente grande, temos que da condição CPLD-GNEP que ∇xvgvi (xk)i∈Jvé positivamente linearmente dependente, e isso é uma contradição, então λk,vi i∈Jv é limitada.Assim tomando limite em 4.2.2 obtemos que w =

∑i∈Jv λ

∗,vi ∇xvgvi (x) ∈ Kv(x), então temos que

lim supy→xKv(y) ⊆ Kv(x) e como v é arbitrário temos que CCP-GNEP ocorre.

Exemplo 4.2.3. (CPLD-Parcial não implica CPLD-GNEP e CCP-Parcial não implica CCP-

4.2 CONDIÇÕES DE QUALIFICAÇÃO PARA GNEPS 49

GNEP) Consideremos o seguinte GNEP com 2 jogadores.

Player 1 : minx1

f1(x1, x2) s.t. x1x2 ≤ 0.

Player 2 : minx2

f2(x1, x2) s.t. x2 − 1 ≤ 0.

O conjunto viável é W =

(x1, x2) : x1x2 ≤ 0, x2 − 1 ≤ 0e consideremos x = (1, 0) ∈

W . É claro que 1 satisfaz CPLD sobre o conjunto X1(0) = R e que 0 satisfaz CPLD sobre oconjunto X2(1) =

x2 ∈ R : x2 − 1 ≤ 0

, portanto, (1, 0) satisfaz CPLD-Parcial, então satisfaz

também CCP-Parcial.Vamos provar que CCP-GNEP não é satisfeito. Temos que K1(x) = 0, por outra parte temos

que lim supx→xK1(x) = R de fato seja w ∈ R. Consideremos a sequência xk = (1,

w

k), então

xk → x e wk = w, então wk → w e wk = w = k.wk ∈ K1(xk), então w ∈ lim supx→xK1(x),

portanto, CCP-GNEP não é satisfeito. Pelo Teorema 4.2.3, CPLD-GNEP tampouco ocorre.

Observação 4.2.1. Exemplos de otimização sobre relações entre CQs podem ser usados comoexemplos de relações para CQ-GNEPs. Considere, por exemplo, o problema de otimização

minxf(x) s.t. g(x) ≤ 0,

então, por exemplo, ocorre CQ no ponto viável x se, e somente se, ocorre CQ-GNEP no ponto (x, 0),com respeito ao GNEP:

Player 1 : minxf(x) s.t. g(x) ≤ 0,

Player 2 : miny

0 s.t. y ∈ R.

Assim, por exemplo, CCP-GNEP não implica CPLD-GNEP, CCP-GNEP não implica QN-GNEP, QN-GNEP não implica CCP-GNEP e QN-GNEP não implica CPLD-GNEP, entre outros.

À diferença do que acontece em otimização onde CPLD implica QN, ver [AMS05a], o seguinteexemplo mostra que CPLD-GNEP não implica QN-GNEP.

Exemplo 4.2.4. Consideremos o GNEP com N = 2 jogadores, cada jogador controlando umaúnica variável.

Player 1: minx1

f1(x) s.t. x1 ≤ 0, −x1 + x2 ≤ 0

Player 2: minx2

f2(x) s.t. x2 ∈ R

Para g11(x) = x1 e g1

2 = −x1 + x2 temos que ∇x1g12(x) = 1 e ∇x1g1

2(x) = −1, portanto, CPLD-GNEP ocorre em todo ponto viável.

Consideremos agora λ11 = λ1

2 = 1 > 0 e o ponto viável x = (0, 0), então temos que λ11∇x1g1

2(x)+

λ12∇x1g1

2(x) = 0, mas existe xk = (1

k,

2

k) que converge a x com g1

1(xk) = g12(xk) = 1

k > 0, portanto,

QN-GNEP não ocorre.

Em [KS16], mostra-se que não existe relação de inclusão entre MFCQ e CPLD em W e MFCQ-GNEP e CPLD-GNEP, respetivamente. Os seguintes exemplos mostram que não existe tampoucorelação de inclusão entre CCP em W , CCP-GNEP e CCP-Parcial. Acreditamos que para outrasCQ resultados análogos podem ser encontrados.

Exemplo 4.2.5. (CCP em W não implica CCP-Parcial) Consideremos um jogo com N = 2 joga-dores:

50 CONDIÇÕES DE OTIMALIDADE E CONDIÇÕES DE QUALIFICAÇÃO PARA GNEPS 4.2

Player 1: minx1

f1(x) s.t. (x1)3 ≤ 0,

Player 2: minx2

f2(x) s.t. x1exp(x2) ≤ 0.

O conjunto viável é W =x ∈ R2 : (x1)3 ≤ 0, x1exp(x2) ≤ 0

e consideremos o ponto x =

(0, 0) ∈W , em [AMRS16], mostra-se que CCP ocorre em x ∈W .Vamos provar que CCP-Parcial não ocorre. Para o primeiro jogador temos que X1(0) = x1 :

(x1)3 ≤ 0, K1x(0) = 0 vamos provar que se w > 0, então w ∈ lim supx→0K

1x(x) de fato seja

xk =

√w

3ke wk = w, então xk → 0, wk → w e wk = k∇x1g1(xk) ∈ K1

x(xk), então CCP-Parcial

não ocorre.

Exemplo 4.2.6. (CCP-GNEP não implica CCP em W ) Consideremos um jogo com N = 2 joga-dores:

Player 1: minx1

f1(x) s.t. 2x1 − (x2)2 − 1 ≤ 0,

Player 2: minx2

f2(x) s.t. 2x2 − (x1)2 − 1 ≤ 0.

O conjunto viável é W =x ∈ R2 : 2x1 − (x2)2 − 1 ≤ 0, 2x2 − (x1)2 − 1 ≤ 0

e consideremos

o ponto x = (1, 1) ∈ W no Exemplo 2.3 em [KS16], mostra-se que MFCQ-GNEP ocorre em x,então CCP-GNEP é satisfeito.

Vamos provar que CCP não ocorre em x ∈ W . Temos que α(x) = 1, 2 e K(x) = w =(a,−a), a ∈ R. Vamos provar que o ponto w = (0,−2) ∈ lim supx→xK(x) de fato seja xk =(1, k+1

k ) e wk = (0,−2), então xk → x, wk → w e wk = k∇g1(xk) + k∇g2(xk) ∈ K(xk), entãoCCP em x ∈W não ocorre.

Para o caso de um NEP, em [KS16] foi provado que MFCQ-GNEP e CPLD-GNEP são equivalen-tes a MFCQ e CPLD, com respeito ao conjunto viável W = x ∈ Rn : gv(xv) ≤ 0 v = 1, . . . , N.

Em geral para um NEP, se CQ é uma condição de qualicação e x ∈W é viável, então CQ ocorreem x, CQ-GNEP ocorre em x e CQ-Parcial ocorre em x, coincidem. Vamos provar, em particularpara CCP, para outra CQ podemos obter um resultado análogo. Uma observação importante paraa prova esta baseada no fato de que se g(x) = (g1(x1), . . . , gN (xN )), então

∇g(x) =

∇x1g1(x1) 0 . . . 0

0 ∇x2g2(x2) · · ·...

... . . .. . .

...0 . . . 0 ∇xN gN (xN )

n×m

, ∇xvgv(x) ∈ Rnv×mv (4.2.3)

e que α(x∗) = ∪Nv=1αv(x∗,v).

Teorema 4.2.4. Consideremos um NEP e seja x ∈W as seguintes armações são equivalentes:a) CCP-GNEP ocorre x ∈W .b) CCP ocorre em x ∈W .c) CPP-Parcial ocorre em x ∈W .

Demonstração. Vamos provar primeiro que a↔ b. Seja g(x) = (g1(x1), . . . , gN (xN )), então usandoa representação de ∇g(x) em 4.2.3, temos que:

K(x) = w ∈ Rn : wv =∑

i∈αv(x)

λvi∇xvgvi (xv), λvi ≥ 0, v = 1, . . . , N =

N∏v=1

Kv(x)

4.3 CONDIÇÕES SEQUENCIAIS PARA GNEPS 51

e essa expressão coincide com a denida em 4.2.1, então usando o Teorema 4.2.1 obtém-se a↔ b.Basta provar que c → a. Seja v ∈ 1, . . . , N xo e arbitrário e seja wv ∈ lim supx→xK

v(x),então existem sequências xk e wk tal que xk → x, wk → wv e wk ∈ Kv(xk), então wk =∑

i∈αv(x) λv,ki ∇xvgvi (xk,v) ∈ Rnv . Seja xk = xk,v, então xk → xv e como gv é independente de x−v

temos que wk ∈ Kvx(xk), então wv ∈ lim supx→xv K

vx(x) e comoKv

x(xv) = Kv(x), então CCP-GNEPocorre.

4.3 Condições sequenciais para GNEPs

Denimos agora o conceito de AKKT-GNEP como uma extensão da Denição 2.1.4 e estudamosas propriedades e consequências deste conceito.

Denição 4.3.1. (AKKT-GNEP) Dizemos que x ∈ W satisfaz AKKT-GNEP se existe umasequência

xk⊂ Rn e

λk,v

⊂ Rmv+ , para cada v = 1, . . . , N , tal que limk→∞ x

k = x,

limk→∞

∥∥∥∥∥∇xvfv(xk) +

mv∑i=1

λk,vi ∇xvgvi (xk)

∥∥∥∥∥ = 0 (4.3.1)

elimk→∞

minλk,vi ,−gvi (xk)

= 0, (4.3.2)

para todo i = 1, . . . ,mv, v = 1, . . . , N.

Usando argumentos de continuidade, a denição anterior é equivalente a: x ∈ W satisfaz acondição AKKT-GNEP se existe uma sequência xk tal que limk→∞ x

k = x e, para cada v =1, . . . , N , existem multiplicadores

λk,v

⊆ Rrv+ tal que

limk→∞

∥∥∥∥∥∥∇xvfv(xk) +∑

i∈αv(x)

λk,vi ∇xvgvi (xk)

∥∥∥∥∥∥ = 0

λk,vi ≥ 0(i ∈ αv(x)).

Para um problema de otimização, pelo Teorema 2.1.4, AKKT é uma genuína condição de oti-malidade no sentido que ela é satisfeita em uma solução independente do cumprimento de algumacondição de qualicação.

O seguinte exemplo mostra que AKKT-GNEP não é uma condição de otimalidade para GNEPs.E que tal condição não poderia ser satisfeita em qualquer ponto do conjunto solução.

Exemplo 4.3.1. (AKKT-GNEP não é uma condição de otimalidade) Considere o GNEP conjun-tamente convexo:

Player 1: minx1

x1 s.t.(x1)2

2− x1x2 +

(x2)2

2≤ 0,

Player 2: minx2

x2 s.t.(x1)2

2− x1x2 +

(x2)2

2≤ 0.

O conjunto solução deste GNEP é sol(GNEP ) =

(x1, x2) ∈ R2 : x1 = x2. Seja x∗ ∈ sol(GNEP )

vamos provar que AKKT-GNEP não ocorre em x∗. Por contradição, suponha que AKKT-GNEPocorre em x∗, então existem sequências

xk⊆ R2 com xk = (xk1, x

k2)→ x∗ e

lk⊆ R2

+ tal que∣∣∣1 + lk1(xk1 − xk2)∣∣∣→ 0,∣∣∣1 + lk2(xk2 − xk1)∣∣∣→ 0.

52 CONDIÇÕES DE OTIMALIDADE E CONDIÇÕES DE QUALIFICAÇÃO PARA GNEPS 4.3

Seja zk = xk1 − xk2, então zk → 0 e lk1zk → −1, lk2z

k → 1, para k sucientemente grande temoslk1z

k

lk2zk → −1, então lk1

lk2→ −1 e isto é uma contradição. Portanto, x∗ não satisfaz AKKT-GNEP.

Assim como denimos CQ-Parcial para um GNEP, podemos denir também AKKT-Parcial daseguinte maneira.

Denição 4.3.2. (AKKT-Parcial) Dizemos que x ∈ W satisfaz AKKT-Parcial se existe umasequência xk tal que

limk→∞

xk = x (4.3.3)

e, para cada v = 1, . . . , N , existem multiplicadores(λk,v

)⊆ Rmv+ tais que

limk→∞

∥∥∥∥∥∇xvfv(xk,v, x−v) +

mv∑i=1

λk,vi ∇xvgvi (xk,v, x−v)

∥∥∥∥∥ = 0

limk→∞

min−gvi (xk,v, x−v), λk,vi

= 0 i = 1, . . . ,mv.

Observação 4.3.1. Da denição de AKKT-Parcial, da denição de solução de um GNEP e doTeorema 2.1.4, é fácil mostrar que AKKT-Parcial é uma condição de otimalidade para GNEPs.É claro também que, do exemplo 4.3.1 e da observação anterior, a AKKT-Parcial não implicaAKKT-GNEP.

À diferença do que acontece com as CQs, onde CQ-GNEP implica CQ-Parcial, AKKT-GNEP,como mostra o seguinte exemplo, não implica AKKT-Parcial.

Exemplo 4.3.2. Consideremos o GNEP com N = 2 jogadores:

Jogador 1 : minx1

(x1)2

2s.t. x1x2 ≤ 0,

Jogador 2 : minx2

(x2)2

2s.t. x2 ∈ R.

A única solução deste GNEP é (0, 0). Consideremos o ponto viável x := (−1, 0) e sejaxk⊂ R2

tal que xk → (−1, 0) eλk,1

⊂ R+. Para k sucientemente grande, temos que xk,1 + λk,10→ −1,

portanto, AKKT-Parcial não pode ocorrer em x.Para ver que AKKT-GNEP ocorre, consideremos as sequências xk = (−1, 1

k ) e λk,1 = k, entãoé claro que: ∣∣∣xk,1 + λk,1xk,2

∣∣∣→ 0 e∣∣∣xk,2∣∣∣→ 0,

portanto, AKKT-GNEP é satisfeito em x.

Nosso interesse principal ao estudar AKKT-GNEP é motivado pelo fato de que o algoritmo deLagrangiano aumentado apresentado no seguinte Capítulo gera pontos limites que cumprem estacondição e também porque este conceito leva em conta a natureza conjunta dos GNEPs. Assimcomo existem alguns algoritmos em otimização que geram sequências AKKT, acreditamos que aextensão desses algoritmos para GNEPs gerarão também sequencias AKKT-GNEP.

Para o caso de um NEP temos uma resposta armativa, a condição AKKT-GNEP é umacondição de otimalidade.

Teorema 4.3.1. Seja x∗ uma solução da NEP, então x∗ é um ponto AKKT-GNEP.

Demonstração. Para cada v = 1, . . . , N , x∗,v é uma solução do problema P v(x∗,−v):

4.3 CONDIÇÕES SEQUENCIAIS PARA GNEPS 53

minfv(xv, x∗,−v) (4.3.4)

gvi (xv) ≤ 0, i = 1, . . . ,mv.

Pelo Teorema 2.1.4, existem sequências xk,v ⊆ Rnv e λk,v ⊆ Rrv+ tal que xk,v → x∗,v e

limk→∞

∥∥∥∥∥∥∇xvfv(xk,v, x∗,−v) +∑

i∈αv(x∗)

λk,vi ∇xvgvi (xk,v)

∥∥∥∥∥∥ = 0. (4.3.5)

Denamos xk = (xk,v)Nv=1, então xk → x∗ e, para cada v = 1, . . . , N , usando a desigualdade

triangular temos que:∥∥∥∥∥∥∇xvfv(xk,v, xk,−v) +∑

i∈αv(x∗)

λk,vi ∇xvgvi (xk,v)

∥∥∥∥∥∥ ≤∥∥∥∇xvfv(xk,v, xk,−v)−∇xvfv(xk,v, x∗,−v)∥∥∥+

∥∥∥∥∥∥∇xvfv(xk,v, x∗,−v) +∑

i∈αv(x∗)

λk,vi ∇xvgvi (xk,v)

∥∥∥∥∥∥por continuidade e de 4.3.5 temos que o lado direito converge a zero, então x∗ satisfaz AKKT-GNEP.

O exemplo 2.1.4 mostrou que, em geral, AKKT-GNEP não é uma condição de otimalidade paraum GNEP geral. Vamos provar que AKKT-GNEP é satisfeito para uma ampla classe de soluçõesde GNEPs conjuntamente convexos que contem, como caso particular, os equilíbrios variacionais.Consideremos o GNEP conjuntamente convexo:

minxvfv(xv, x−v) (4.3.6)

gi(x) ≤ 0, i = 1, . . . ,m.

Observação 4.3.2. Os resultados seguintes podem ser facilmente adaptados para o GNEP:

minxvfv(xv, x−v)

gi(x) ≤ 0, i = 1, . . . ,m,

hvj (xv) ≤ 0, j = 1, . . . , lv.

Já que este GNEP é equivalente a:

minxvfv(xv, x−v)

gi(x) ≤ 0, i = 1, . . . ,m

hvj (xv) ≤ 0, j = 1, . . . , lv

hu(xu) ≤ 0, u 6= v, u ∈ 1, . . . , N,

que é da forma 4.3.8.

Consideremos b = (b1, . . . , bN ) ∈ RN++ e a função Fb(x) = (b1∇x1f1(x), . . . , bN∇xN fN (x) econsideremos a desigualdade variacional V I(C,Fb), onde C = x ∈ Rn : g(x) ≤ 0.

Teorema 4.3.2. Consideremos o GNEP conjuntamente convexo 4.3.6, se as funções objetivosf1, . . . , fN são C1, então SOL(V I(C,Fb)) ⊆ sol(GNEP ), para qualquer b = (b1, . . . , bN ) ∈ RN++.

54 CONDIÇÕES DE OTIMALIDADE E CONDIÇÕES DE QUALIFICAÇÃO PARA GNEPS 4.3

Demonstração. A prova é análoga ao Teorema 3.2.2.

Denição 4.3.3. Qualquer solução de V I(C,Fb) é chamada um b−equilíbrio variacional do GNEP.

Se b1 = · · · = bN , então as soluções de V I(C,Fb) são os equilíbrios variacionais do GNEP.

Exemplo 4.3.3. Consideremos o GNEP do exemplo 3.2.4. O único equilíbrio variacional deste

GNEP é (3

4,1

4). Seja b = (b1, b2) ∈ R2

++ e Fb(x1, x2) = (2b1(x1 − 1), b2(2x2 − 1)), o problema

V I(C,Fb) tem única solução, para cada b, pois Fb é fortemente monótona. Pode-se calcular pela

denição que SOL(V I(C,Fb)) = ( 2b1 + b2

2b1 + 2b2,

b2

2b1 + 2b2). Neste caso, para ser mais exato temos:

SOL(GNEP ) = tb∈R2++SOL(V I(C,Fb)) ∪ (

1

2,1

2), (1, 0).

Teorema 4.3.3. Qualquer b-equilíbrio variacional de um GNEP conjuntamente convexo é um pontoAKKT-GNEP.

Demonstração. Seja x∗ uma solução de V I(C,Fb) se, e somente se, x∗ é uma solução do problemade programação não linear:

min 〈Fb(x∗), x〉 s.t. x ∈ C,

então pelo Teorema 2.1.4, existem sequências xk → x∗ eλk⊂ R|α(x∗)| tal que

Fb(x∗) +

∑i∈α(x∗)

λki∇gi(xk)→ 0, (4.3.7)

onde α(x∗) = i ∈ 1, . . . ,m : gi(x∗) = 0. É bom notar que α(x∗) = αv(x∗), para todo v =

1, . . . , N . De (4.3.7), obtemos que, para cada v = 1, . . . , N ,

bv∇xvfv(x∗) +∑

i∈αv(x∗)

λki∇xvgi(xk)→ 0.

Como, para cada v = 1, . . . , N , temos que ∇xvfv(xk)→ ∇xvfv(x∗), concluímos que

∇xvfv(xk) +∑

i∈αv(x∗)

λkibv∇xvgi(xk)→ 0,

portanto, x∗ é um ponto AKKT-GNEP.

No exemplo 4.3.3, as soluções (1, 0) e (1

2,1

2) não são b-equilíbrios, mas também são pontos

AKKT-GNEP.No seguinte resultado, provamos que AKKT-GNEP ocorre para a classe de GNEPs, onde as

restrições para cada jogador são da forma gvi (xv, x−v) = gv,1i (xv)gv,2i (x−v) + gv,3i (x−v), para cadav = 1, . . . , N .

Essa classe de GNEPs contém como caso particular GNEPs com restrições separáveis, que aomesmo tempo contém os GNEPs com restrições lineares e os NEPs, portanto, o seguinte resultadogeneraliza o Teorema 4.3.1.

Teorema 4.3.4. Consideremos um GNEP da forma:

minxv

fv(xv, x−v), (4.3.8)

gv,1i (xv)gv,2i (x−v) + gv,3i (x−v) ≤ 0, i = 1, . . . ,mv,

se x∗ é uma solução do GNEP, então x∗ é um ponto AKKT-GNEP.

4.3 CONDIÇÕES SEQUENCIAIS PARA GNEPS 55

Demonstração. Seja x∗ uma solução do GNEP, por denição, para cada v = 1, . . . , N , x∗,v resolveo problema de otimização:

P v(x∗,−v) : minxv

fv(xv, x∗,−v) s.t. gv,1i (xv)gv,2i (x∗,−v) + gv,3i (x∗,−v) ≤ 0, i = 1, . . . ,mv.

Pelo Teorema 2.1.4, existem xk,v ⊂ Rnv e λk,v ⊂ R|αv(x∗)|

+ tal que xk,v → x∗,v e

‖∇xvfv(xk,v, x∗,−v) +∑

i∈αv(x∗)

λk,vi gv,2i (x∗,−v)∇xvgv,1i (xk,v)‖ → 0. (4.3.9)

Seja xk := (xk,v)Nv=1 e denamos

λk,vi :=

0, se gv,2i (x∗,−v)gv,2i (xk,−v) = 0

λk,vigv,2i (x∗,−v)

gv,2i (xk,−v), outro caso.

Como xk → x∗, então para k sucientemente grande λk,vi e λk,vi tem o mesmo sinal. Temos que

∇xvgvi (x) = gv,2i (x−v)∇xvgv,1i (xv)

e da denição de λk,vi , temos que:

λk,vi ∇xvgvi (xk) = λk,vi gv,2i (x∗,−v)∇xvgv,1i (xk,v).

Portanto, pela equação (4.3.9) e usando a desigualdade triangular, temos que:

‖∇xvfv(xk) +∑

i∈αv(x∗)

λk,vi ∇xvgvi (xk)‖ ≤ ‖∇xvfv(xk)−∇xvfv(xk,v, x∗,−v)‖+ .

‖∇xvfv(xk,v, x∗,−v) +∑

i∈αv(x∗)

λk,vi gv,2i (x∗,−v)∇xvgv,1i (xk,v)‖ → 0,

portanto, x∗ é um ponto AKKT-GNEP .

Outro caso onde podemos garantir que AKKT-GNEP é uma condição de otimalidade, é paraum GNEP com restrições dadas por:

(x−v)TAvi xv ≤ γvi , i = 1, . . . ,mv (4.3.10)

onde Avi ∈ Rn−v×nv .

Teorema 4.3.5. Consideremos um GNEP com as restrições dadas anteriormente, se x∗ é umasolução do GNEP e os γvi 6= 0 tem o mesmo sinal para todo i ∈ αv(x∗) então x∗ é um pontoAKKT-GNEP.

Demonstração. Consideremos o caso γvi > 0 para i ∈ αv(x∗). Para cada v ∈ 1, . . . , N temos quex∗,v é solução do problema:

P (x∗,−v) : minxv

fv(xv, x∗,−v) s.t. (x∗,−v)TQvi xv ≤ γvi , i = 1, . . . ,mv.

por o Teorema 2.1.4, existem xk ⊂ Rn e λk,v ⊂ R|αv(x∗)|

+ para cada v = 1, . . . , N , tal quexk → x∗ e

‖∇xvfv(xk,v, x∗,−v) +∑

i∈αv(x∗)

λk,vi (x∗,−v)TQvi ‖ → 0. (4.3.11)

56 CONDIÇÕES DE OTIMALIDADE E CONDIÇÕES DE QUALIFICAÇÃO PARA GNEPS 4.3

multiplicando por x∗,v, e como i ∈ αv(x∗) temos que:

‖∇xvfv(xk,v, x∗,−v)x∗,v +∑

i∈αv(x∗)

λk,vi γvi ‖ → 0. (4.3.12)

de onde podemos deduzir que λk,vi é limitada para cada i ∈ αv(x∗), e usando a desigualdadetriangular temos:

‖∇xvfv(xk) +∑

i∈αv(x∗)

λk,vi (xk,−v)TQvi ‖ ≤ ‖∇xvfv(xk)−∇xvfv(xk,v, x∗,−v)‖

+ ‖∇xvfv(xk,v, x∗,−v) +∑

i∈αv(x∗)

λk,vi (x∗,−v)TQvi ‖+ ‖∑

i∈αv(x∗)

λk,vi (xk,−v − x∗,−v)TQvi ‖ (4.3.13)

como para algumM > 0 temos ‖λk,vi ‖ ≤M para cada i ∈ αv(x∗), então o lado direito de 4.3.13converge a zero, e portanto a condição AKKT-GNEP ocorre em x∗.

Finalmente, para ver um caso a mais onde AKKT-GNEP ocorre, estendemos a denição deponto viável não degenerado de otimização para GENPs.

Denição 4.3.4. Seja x ∈ W um ponto viável. Dizemos que x é um ponto não degenerado doGNEP se, para cada v = 1, . . . , N , temos que:

i ∈ αv(x)⇒ ∇xvgvi (x) 6= 0. (4.3.14)

Para um GNEP onde cada jogador controla uma única variável, xv ∈ R, temos o seguinteresultado:

Teorema 4.3.6. Consideremos o GNEP 3.2.6, onde cada jogador controla uma única variável,xv ∈ R, se x∗ é uma solução não degenerada, então é um ponto AKKT-GNEP.

Demonstração. Seja x∗ uma solução não degenerada do GNEP, para cada v = 1, . . . , N , por de-nição x∗,v resolve o problema de otimização:

P v(x∗,−v) : minxv

fv(xv, x∗,−v) s.t. gvi (xv, x∗,−v) ≤ 0, i = 1, . . . ,mv.

Pelo Teorema 2.1.4, existem xk,v ⊂ R e λk,v ⊂ R|αv(x∗)|

+ tal que xk,v → x∗,v e

‖∇xvfv(xk,v, x∗,−v) +∑

i∈αv(x∗)

λk,vi ∇xvgvi (xk,v, x∗,−v)‖ → 0. (4.3.15)

Seja xk := (xk,v)Nv=1 e denimos para k sucientemente grande

λk,vi := λk,vi∇xvgvi (xk,v, x∗,−v)

∇xvgvi (xk).

Como x∗ é não degenerado, então λk,vi está bem denida e λk,vi e λk,vi tem o mesmo sinal, temosque:

λk,vi ∇xvgvi (xk) = λk,vi ∇xvg

vi (xk,v, x∗,−v).

Portanto, por (4.3.15) e usando a desigualdade triangular, temos que:

‖∇xvfv(xk) +∑

i∈αv(x∗)

λk,vi ∇xvgvi (xk)‖ ≤ ‖∇xvfv(xk)−∇xvfv(xk,v, x∗,−v)‖+

4.3 CONDIÇÕES SEQUENCIAIS PARA GNEPS 57

‖∇xvfv(xk,v, x∗,−v) +∑

i∈αv(x∗)

λk,vi ∇xvgvi (xk,v, x∗,−v)‖ → 0,

portanto, x∗ é um ponto AKKT-GNEP.

Exemplo 4.3.4. Considere o seguinte GNEP de jogadores convexos:

Jogador 1: minx1

x1 s.t. (x1)2 − x1x2 ≤ 0,

Jogador 2: minx2

x2 s.t. (x2)2 − x1x2 ≤ 0.

Note-se que este GNEP não é conjuntamente convexo e nem é da forma do Teorema 4.3.4. Oconjunto solução deste GNEP é sol(GNEP ) =

(a, a) ∈ R2 : a ≤ 0

. Para cada x∗ ∈ sol(GNEP ),

temos que α1(x∗) = 1 e α2(x∗) = 1 para x∗ 6= 0, temos que ∇x1g1(x∗) 6= 0 e ∇x2g2(x∗) 6= 0,portanto, pelo Teorema anterior, x∗ é AKKT-GNEP. A solução x∗ = 0 é degenerada, mas aindaassim é também um ponto AKKT-GNEP.

O seguinte resultado mostra a relação entre CCP-GNEP e AKKT-GNEP. Este resultado esta-belece que CCP-GNEP é a condição mais fraca que garante que todo ponto AKKT-GNEP é umponto KKT-GNEP.

Teorema 4.3.7. Consideremos o GNEP 3.2.6. x ∈W satisfaz CCP-GNEP se, e somente se, paraquaisquer funções objetivo f1, . . . , fN tal que x é um ponto AKKT-GNEP, então x é KKT-GNEP.

Demonstração. Seja x ∈ W tal que vale CCP-GNEP, como vale AKKT-GNEP em x, então, paracada v = 1, . . . , N , existem sequências xk ⊆ Rn com xk → x e λk,v ⊆ Rrv+ tal que:∥∥∥∥∥∥∇xvfv(xk) +

∑i∈αv(x)

λk,vi ∇xvgvi (xk)

∥∥∥∥∥∥→ 0.

Seja wk,v =∑

i∈αv(x) λk,vi ∇xvgvi (xk) ∈ Kv(xk) e wk =

(wk,v

)Nv=1

, então wk ∈ K(xk) temos que

wk,v → −∇xvfv(x), então wk → −F (x). Assim, −F (x) ∈ lim supx→xK(x), da condição CCP-GNEP, temos que −F (x) ∈ K(x), então x é KKT-GNEP.

Reciprocamente, seja w ∈ lim supx→xK(x), vamos provar que w ∈ K(x). Assim, existem sequên-cias xk → x e wk → w com wk ∈ K(xk). Denimos, para cada jogador v = 1, . . . , N , a funçãoobjetivo fv(x) = −〈xv, wv〉, então ∇xvfv(x) = −wv ∈ Rnv . Como wk ∈ K(xk), existem, para cadav = 1, . . . , N , λk,v ⊆ Rrv+ tal que:

wk,v =∑

i∈αv(x)

λk,vi ∇xvgvi (xk),

como ∇xvfv(xk)→ −wv e wk → w, então wk,v → wv e assim

∇xvfv(xk) +∑

i∈αv(x∗)

λk,vi ∇xvgvi (xk)→ 0.

Como isso ocorre para cada v = 1, . . . , N , então x é um ponto AKKT-GNEP e então x éKKT-GNEP, ou seja, −F (x) = w ∈ K(x) e então x satisfaz CCP-GNEP.

Observação 4.3.3. Usando o Teorema 4.3.7, podemos mostrar de forma análoga ao Teoremaanterior, que CCP-Parcial é a condição mais fraca que garante que AKKT-Parcial e implica KKT-GNEP.

58 CONDIÇÕES DE OTIMALIDADE E CONDIÇÕES DE QUALIFICAÇÃO PARA GNEPS 4.3

Capítulo 5

Métodos tipo Lagrangiano aumentado

para resolver GNEPs

Neste Capítulo apresentamos o método de Lagrangiano aumentado para resolver GNEPs. Parao termo penalizador usamos tanto a função máximo ao quadrado quanto uma função exponencial.Propriedades de convergência são estudados em cada caso, mas principalmente iremos enfatizar nocaso quadrático já que foi testado na prática a ter um melhor desempenho em otimização em relaçãoa outras funções de penalização e porque tem maiores resultados de convergência e de viabilidade.

O método Lagrangiano aumentado para otimização pode ser usado tanto para achar soluçõesglobais como para achar pontos KKT. No primeiro caso, nos subproblemas soluções aproximadassão necessárias, no entanto, no segundo caso pontos, KKT aproximados são necessários. Para o casodos NEPs podemos adaptar ambos os casos.

5.1 Método de Lagrangiano aumentado com solução global para

NEPs

Nesta seção, desenvolvemos o método tipo Lagrangiano aumentado para o NEP com restriçõesde nível inferior.

P v(x−v) : minxvfv(xv, x−v)

s.t gvi (xv) ≤ 0, i = 1, . . . ,mv,hvj (x

v) ≤ 0, j = 1, . . . , lv,(5.1.1)

onde fv : Rn → R, gv : Rnv → Rmv e hv : Rnv → Rlv são funções contínuas. Não assumiremosnenhuma hipótese de convexidade sobre as funções que denem o problema.

De forma análoga como em otimização, para o v-ésimo jogador, denimos a função Lagrangianoaumentado penalizando as restrições de nível superior gv e mantendo as restrições de nível inferiorhv:

Lvρv(x, uv) = fv(x) +

1

mv∑i=1

max0, uv + ρvgv(xv)2.

Para ρ = (ρv)Nv=1 > 0, u = (uv)Nv=1 ∈ Rm+ e x ∈ W para W =∏Nv=1W

v, onde W v = xv :hv(xv) ≤ 0, para cada v = 1, . . . , N . Estas funções Lagrangiano aumentado, para cada jogadorv = 1, . . . , N , denem um novo NEP denotado por NEP (u, ρ), onde o problema para o v-ésimojogador é:

59

60 MÉTODOS TIPO LAGRANGIANO AUMENTADO PARA RESOLVER GNEPS 5.1

minxv

Lvρv(x, uv), (5.1.2)

hvj (xv) ≤ 0, j = 1, . . . , lv.

No seguinte algoritmo apresentamos o método Lagrangiano aumentado para NEPs com con-vergência para uma solução global. Em cada iteração, o método resolve aproximadamente umNEP (u, ρ). Para ser mais exato, acharemos um ε-equilíbrio do NEP (u, ρ) segundo a seguintedenição.

Denição 5.1.1. (ε−equilíbrio) Seja ε ≥ 0 e consideremos o NEP dado por:

P v(x−v) : minxvfv(xv, x−v),

s.t xv ∈ Xv.(5.1.3)

Um ponto viável x ∈∏Nv=1X

v é um ε-equilíbrio se, para cada v = 1, . . . , N ,

fv(x) ≤ fv(xv, x−v) + ε ∀xv ∈ Xv.

É claro que todo ponto de equilíbrio é um ε−equilíbrio, para todo ε ≥ 0. O seguinte algoritmoé uma adaptação para NEPs do método de Lagrangiano aumentado de otimização para calcularpontos de equilíbrio.

Algoritmo 5.1.1. (LAM-NEP) P0) Seja umax ∈ Rm+ , τ ∈ (0, 1), γ > 1. Escolhemos (x0, λ0) ∈Rn×Rm, u0 ∈ [0, umax], ρ0 ∈ RN++, ε0 > 0 e fazemos k = 0. P1) Se (xk, λk) satisfaz algum critériode parada, parar. P2) Calcular um ponto xk+1, εk−equilíbrio do NEP (uk, ρk), i.e., um ponto talque para cada v = 1, . . . , N .

Lvρk,v(xk+1, uk,v) ≤ Lvρk,v((x

v, xk+1,−v), uk,v) + εk, ∀xv ∈W v. (5.1.4)

P3) Denimos para cada v = 1, . . . , N : λk+1,v = max

0, uk,v + ρk,vgv(xk+1,v). P4) Para cada

v = 1, . . . , N , se ∥∥∥maxgv(xk+1,v),−λk+1,v∥∥∥ ≤ τ ∥∥∥maxgv(xk,v),−λk,v∥∥∥ ,

então fazemos ρk+1,v = ρk,v, caso contrário, ρk+1,v = γρk,v. P5) Escolhemos uk+1 = minλk+1, umax

.

Fazer k → k + 1. Ir ao Paaso P1.

Os parâmetros τ e γ podem ser escolhidos de forma diferente para cada jogador, mas isso nãoaltera os resultados de convergência. Dividimos o análise da convergência estudando a viabilidadee a otimalidado do ponto limite da sequência gerada pelo algoritmo. Para o estudo da viabilidade,denimos um novo NEP onde o problema para cada jogador v = 1, . . . , N é:

Qv : minxv ‖ gv(xv)+ ‖2, s.t. xv ∈W v. (5.1.5)

Como as funções objetivos de cada jogador são independentes das variáveis dos outros jogadores,temos N problemas de otimização independentes.

O seguinte teorema prova que se x∗ é um ponto de acumulação da sequência gerada pelo algo-ritmo, então, para cada v = 1, . . . , N , x∗,v é solução do problema Qv.

Teorema 5.1.1. Seja x∗ um ponto limite da sequência gerada pelo algoritmo e suponha que asequência εk é limitada, então x∗,v é solução do problema Qv para cada v = 1, . . . , N .

Demonstração. Seja v ∈ 1, . . . , N xo e arbitrário. Seja K ⊆ N tal que limk∈K xk = x∗. Como W

é fechado e xk ∈W , então x∗ ∈W . Consideremos dois casos ρk,v limitado e ρk,v →∞. Se ρk,vé limitado, então existe k0(v) tal que ρk,v = ρk0,v, para todo k ≥ k0, então pelo Passo P4 temos

5.1 MÉTODO DE LAGRANGIANO AUMENTADO COM SOLUÇÃO GLOBAL PARA NEPS 61

que maxgv(xk,v),−λk,v → 0. Do fato que λk,v ≥ 0, obtemos que gv(x∗,v) ≤ 0, portanto, x∗,v ésolução de Qv.

Consideremos agora o caso que ρk,v →∞. Suponha que existe um xv ∈W v tal que:

‖ gv(x∗,v)+ ‖2>‖ gv(xv)+ ‖2 .

Pela continuidade de gv, a limitação de uk,v e o fato que ρk,v →∞, existe cv > 0 e k0(v) tal que,para todo k ≥ k0, temos que:

‖ (gv(xk,v) +uk,v

ρk,v)+ ‖2>‖ (gv(xv) +

uk,v

ρk,v)+ ‖2 +cv,

portanto, para todo k ∈ K e k ≥ k0 temos

fv(xk)+ρk,v

2‖ (gv(xk,v)+

uk,v

ρk,v)+ ‖2> fv(xv, xk,−v)+

ρk,v

2‖ (gv(xv)+

uk,v

ρk,v)+ ‖2 +

ρk,v

2cv+fv(xk)−fv(xv, xk,−v).

Como εk é limitada, existe k1(v) > k0 tal que, para k ∈ K e k ≥ k1,

ρk,v

2cv + fv(xk)− fv(xv, xk,−v) > εk.

Portanto,

fv(xk) +ρk,v

2‖ (gv(xk,v) +

uk,v

ρk,v)+ ‖2> fv(xv, xk,−v) +

ρk,v

2‖ (gv(xv) +

uk,v

ρk,v)+ ‖2 +εk,

para k ∈ K e k ≥ k1. E isso contradiz a denição de xk.

Do Teorema anterior, pode-se concluir que se o NEP é viável, então x∗ é viável. A respeito daviabilidade, o próximo Teorema mostra que no caso de εk → 0 o algoritmo acha no limite um pontode equilíbrio.

Teorema 5.1.2. Seja x∗ um ponto limite da sequência gerada pelo algoritmo, suponha que a sequên-cia εk converge a 0 e que o NEP é viável, então x∗ é um ponto de equilíbrio.

Demonstração. Seja K ⊆ N tal que limk∈K xk = x∗. Como o NEP é viável, então pelo Teorema

anterior x∗ viável. Consideremos dois casos ρk,v limitado e ρk,v → ∞. Suponha primeiro queρk,v →∞. Pela denição de xk, temos que para todo xv ∈W v.

fv(xk) +ρk,v

2‖ (gv(xk,v) +

uk,v

ρk,v)+ ‖2≤ fv(xv, xk,−v) +

ρk,v

2‖ (gv(xv) +

uk,v

ρk,v)+ ‖2 +εk. (5.1.6)

Seja agora xv ∈W v, então:

‖ (gv(xv) +uk,v

ρk,v)+ ‖2≤‖

uk,v

ρk,v‖2,

portanto, de (5.1.6) temos:

fv(xk) ≤ fv(xk) +ρk,v

2‖ (gv(xk,v) +

uk,v

ρk,v)+ ‖2≤ fv(xv, xk,−v) +

‖uk,v‖2

2ρk,v+ εk,

tomando limite para k ∈ K e da limitação de uk,v, concluímos que fv(x∗) ≤ fv(xv, x∗.−v), paratodo xv ∈W v, como v é arbitrário, então x∗ é um ponto de equilíbrio.

Suponha agora que ρk,v é limitado, então existe k0(v) tal que ρk,v = ρk0,v, para todo k ≥ k0,da denição de xk obtemos, para todo xv ∈W v.

62 MÉTODOS TIPO LAGRANGIANO AUMENTADO PARA RESOLVER GNEPS 5.2

fv(xk) +ρk0,v

2‖ (gv(xk,v) +

uk,v

ρk0,v)+ ‖2≤ fv(xv, xk,−v) +

ρk0,v

2‖ (gv(xv) +

uk,v

ρk0,v)+ ‖2 +εk. (5.1.7)

Seja agora xv ∈W v, então:

‖ (gv(xv) +uk,v

ρk0,v)+ ‖2≤‖

uk,v

ρk0,v‖2,

portanto, de (5.1.7) obtemos:

fv(xk) +ρk0,v

2‖ (gv(xk,v) +

uk,v

ρk0,v)+ ‖2≤ fv(xv, xk,−v) +

‖uk,v‖2

2ρk0,v+ εk.

Seja K1 ⊆ K tal que limk∈K1 uk,v = u∗,v. Tomando limite para k ∈ K1, temos

fv(x∗) +ρk0,v

2‖ (gv(x∗,v) +

u∗,v

ρk0,v)+ ‖2≤ fv(xv, x∗,−v) +

‖u∗,v‖2

2ρk0,v,

que é equivalente a:

fv(x∗) +ρk0,v

2

mv∑i=1

(gvi (x∗,v) +u∗,viρk0,v

)2+ ≤ fv(xv, x∗,−v) +

ρk0,v

2

mv∑i=1

(u∗,viρk0,v

)2. (5.1.8)

Se i ∈ αv(x∗), então gvi (x∗,v) = 0 e como u∗,viρk0,v

≥ 0, temos que (gvi (x∗,v) +u∗,viρk0,v

)+ =u∗,viρk0,v

e,portanto, de (5.1.8), obtemos:

fv(x∗) +ρk0,v

2

∑gvi (x∗,v)<0

(gvi (x∗,v) +u∗,viρk0,v

)2+ ≤ fv(xv, x∗,−v) +

ρk0,v

2

∑gvi (x∗,v)<0

(u∗,viρk0,v

)2. (5.1.9)

Pelo Passo P4, temos que limk→∞maxgv(xk,v),−λk,v = 0 e da escolha uk+1 = minλk+1, umax

temos que se gvi (x∗,v) < 0, então u∗,vi = 0, então de (5.1.9), obtemos que fv(x∗) ≤ fv(xv, x∗.−v),para todo xv ∈W v, como v é arbitrário, então x∗ é um ponto de equilíbrio.

5.2 Método de Lagrangiano aumentado para GNEPs

A extensão da convergência global do método Lagrangiano para um GNEP geral tem certasdiculdades. Essas diculdades estão associadas ao fato que os conjuntos viáveis de cada jogadornão são xos.

Para o caso de um GNEP geral, usaremos o método de Lagrangiano aumentado para calcularpontos KKT-GNEP. Assumiremos durante todo o Capítulo (a menos que se mencione outra coisa)que o problema para o v−ésimo jogador é dado por:

Pv(x−v) :minxvf

v(xv, x−v) (5.2.1)

s.t gvi (xv, x−v) ≤ 0, i = 1, . . . ,mv,

hvj (xv, x−v) ≤ 0, j = 1, . . . , lv,

onde, para cada v = 1, . . . , N , as restrições gv são chamadas de restrições de nível superior e hv

as restrições de nível inferior. Essas restrições são escolhidas cuidadosamente de acordo com algunscritérios que geralmente estão associados com a facilidade para poder resolver os subproblemas.

5.2 MÉTODO DE LAGRANGIANO AUMENTADO PARA GNEPS 63

Adaptamos o algoritmo de Lagrangiano aumentado de [BM14] usado para encontrar pontosKKT de um problema de programação não linear para o cálculo de pontos KKT-GNEP de GNEPscom restrições de nível inferior da forma (5.2.1).

À diferença do algoritmo apresentado em [KS16], nós estendemos as prova de convergênciausando condições de qualicação mais fracas como QN-GNEP e CCP-GNEP e associamos estaspropriedades de convergência com o conceito de AKKT-GNEP no caso de CCP-GNEP.

Analogamente ao método de Lagrangiano aumentado para problemas de otimização, penaliza-mos as restrições de nível superior (aquelas de estrutura mais complexa) e mantemos as restriçõesde nível inferior xas. Neste trabalho consideraremos duas funções para a penalização, primeiro usa-remos a clássica função de Lagrangiano aumentado de Powell-Hestenes-Rockafellar e no segundocaso uma função de penalidade exponencial.

Começamos considerando o primeiro caso. Temos que a função Lagrangiano para o v−ésimojogador é dado por:

Lv(x, uv) = fv(xv, x−v) +

mv∑i=1

uvi gvi (xv, x−v), (5.2.2)

para x ∈W v e uv ∈ Rmv . E a função Lagrangiano aumentado como:

Lvρv(x, uv) = fv(xv, x−v) +

1

2ρv

mv∑i=1

max

0, uvi + ρvgvi (xv, x−v)2. (5.2.3)

Para x ∈W v, uv ∈ Rmv+ e ρv > 0.Note que as funções Lvρv(x, u

v) são continuamente diferenciáveis (mas, em geral, não duas vezesdiferenciáveis) com respeito à x e o gradiente parcial com respeito a xv é dado por:

∇xvLvρv(x, uv) = ∇xvfv(xv, x−v) +

mv∑i=1

max

0, uk,vi + ρk,vgvi (xv, x−v)∇xvgvi (xv, x−v).

Estas funções Lagrangiano aumentado Lvρv(x, uv) denem junto com as restrições hv um novo

GNEP, que denotaremos por GNEP (u, ρ), onde o problema para o v−ésimo jogador é dado por:

minxvLvρv(x, u

v), (5.2.4)

hvj (xv, x−v) ≤ 0, j = 1, . . . , lv,

onde u = (uv)Nv=1, ρ = (ρv)Nv=1 e, para cada v = 1, . . . , N , ρv > 0 é um adequado parâmetro depenalidade e uv denota a estimativa para o multiplicador λv associado à restrição gv.

Nosso objetivo é achar um ponto KKT-GNEP do GNEP (5.2.1), i.e., achar (x∗, λ∗, µ∗) ∈ Rn ×Rm × Rl tal que, para cada v = 1, . . . , N , satisfaz:

KKTv : ∇xvfv(xv, x−v) +

mv∑i=1

λvi∇xvgvi (xv, x−v) +

lv∑j=1

µvj∇xvhvj (xv, x−v) = 0, (5.2.5)

λvi ≥ 0, gvi (xv, x−v) ≤ 0, λvi gvi (xv, x−v) = 0, ∀i = 1, . . . ,mv,

µvj ≥ 0, hvj (xv, x−v) ≤ 0, µvjh

vj (x

v, x−v) = 0,∀j = 1, . . . , lv.

Do ponto de vista computacional, atingir um ponto KKT exato poderia ser difícil de alcançarem um determinado tempo nito, assim poderíamos dar como sucesso o término do algoritmo, seatingimos um ponto KKT-GNEP ε− inexato para algum ε ≥ 0 dado.

Abaixo apresentamos uma extensão das clássicas denições de ponto KKT ε−inexato de otimi-zação.

Denição 5.2.1. Consideremos o GNEP (5.2.1) e seja ε1, ε2 ∈ R+. Um ponto (x, λ, µ) ∈ Rn ×Rm × Rl é um ponto KKT-GNEP ε1, ε2−inexato se as seguintes desigualdades ocorrem, para cada

64 MÉTODOS TIPO LAGRANGIANO AUMENTADO PARA RESOLVER GNEPS 5.2

v = 1, . . . , N :∥∥∥∥∥∥∇xvfv(xv, x−v) +

mv∑i=1

λvi∇xvgvi (xv, x−v) +

lv∑j=1

µvj∇xvhvj (xv, x−v)

∥∥∥∥∥∥ ≤ ε1,∥∥maxgvi (xv, x−v),−λvi

∥∥ ≤ ε2, i = 1, . . . ,mv,∥∥maxhvj (x

v, x−v),−µvj∥∥ ≤ ε2, j = 1, . . . , lv.

Quando ε1 = ε2 = ε simplesmente dizemos: um ponto KKT-GNEP ε− inexato.Note que para ε1 = ε2 = 0, um ponto KKT-GNEP ε1, ε2− inexato é um ponto KKT-GNEP.Um ponto KKT-GNEP ε, ε-inexato será achado através do cálculo de pontos KKT-GNEP ε1, ε2−

inexatos de GNEPs da forma GNEP (u, ρ).O seguinte algoritmo é uma extensão direta do Algoritmo 4.1 de [BM14] e também foi motivado

pelo Algoritmo 3.1 de [Kan16].

Algoritmo 5.2.1. (Algoritmo de Lagrangiano aumentado para GNEPs) P0) Seja umax ∈ Rm+ ,τ ∈ 〈0, 1〉, γ > 1 escolhemos (x0, λ0, µ0) ∈ Rn × Rm × Rl, u0 ∈ [0, umax], ρ0 ∈ RN++ e ε ≥ 0. Fazerk = 0.

P1) Se (xk, λk, µk) é um ponto KKT-GNEP ε-inexato, parar.P2) Calcular um ponto (xk+1, µk+1) KKT-GNEP aproximado do GNEP (uk, ρk).P3) Denir λk+1,v = max

0, uk,v + ρk,vgv(xk+1)

, para v = 1, . . . , N .

P4) Para v = 1, . . . , N , se∥∥∥maxgv(xk+1),−λk+1,v∥∥∥ ≤ τ ∥∥∥maxgv(xk),−λk,v∥∥∥ ,

então ρk+1,v = ρk,v. Em outro caso, ρk+1,v = γρk,v.P5) Escolher uk+1 ∈ [0, umax]. Fazer k → k + 1 ir ao Passo 1.

As quantidades ρk,v são chamadas parâmetros de penalidade, esses parâmetros são atualizadosem cada iteração do algoritmo no Passo 4, para cada jogador. Os mesmos parâmetros de penalidadepodem ser usados na seguinte iteração se um progresso suciente é obtido, em termos de melhorasda viabilidade e complementariedade. No entanto, o parâmetro será aumentado se não existir umprogresso suciente.

Por construção, a sequênciauknão é negativa e limitada. Uma escolha importante é uk+1 :=

minλk+1, umax

, esta escolha faz com que uk permaneça limitada e permite obter algumas pro-

priedades do ponto limite.Pode-se considerar diferentes parâmetros γv, τv para cada jogador, mas por simplicidade consi-

deraremos γ, τ para cada jogador. É claro que o Passo 2 é o passo fundamental do algoritmo, em cadaiteração do algoritmo, temos que achar um ponto KKT-GNEP aproximado de um GNEP (u, ρ).

Para poder estudar as propriedades de convergência do algoritmo, precisamos denir formal-mente o cálculo dos pontos KKT-GNEP aproximados no Passo 2 do algoritmo. A seguinte hipóteseé uma extensão direta das hipóteses 6.1 de [BM14]. Veremos depois que esta hipótese está conectadacom o conceito de AKKT-GNEP.

Hipótese 5.2.1. No Passo 2 do algoritmo, é possível achar, para cada v = 1, . . . , N , um ponto(xk+1, µk+1) ∈ Rn × Rl, ponto KKT-GNEP εk, εk−inexato do GNEP (uk, ρk), i.e., um ponto talque: ∥∥∥∥∥∥∇xvLρk,v(x, uk,v) +

lv∑j=1

µk,vj ∇xvhvj (x

v, x−v)

∥∥∥∥∥∥ ≤ εk,∥∥maxhvj (x

v, x−v),−µvj∥∥ ≤ εk, j = 1, . . . , lv,

onde a sequência εk é limitada e a sequência εk tende a zero.

5.2 MÉTODO DE LAGRANGIANO AUMENTADO PARA GNEPS 65

A hipótese 5.2.1 diz que em cada iteração do algoritmo, podemos calcular um ponto (xk+1, µk+1) ∈Rn × Rl, ponto KKT-GNEP εk, εk−inexato do GNEP (uk, ρk) de acordo com a denição 5.2.1. Oseguinte resultado mostra o comportamento dos multiplicadores associados as restrições gv no li-mite.

Teorema 5.2.1. Seja x∗ um ponto limite da sequência gerada pelo algoritmo com limk∈K xk = x∗,

então para cada v = 1 . . . , N temos que:

λk+1,vi → 0 para todo i /∈ αv(x∗).

Demonstração. Do Passo 3 do algoritmo temos que λk+1,v ∈ Rmv+ , para todo k ∈ N. Suponha quegvi (x∗) < 0, seja k1(v) e c > 0 tal que

gvi (xk) < c < 0 para todo k ∈ K, k ≥ k1.

Se ρk,v tende ao innito, como uk,v é limitada, então existe k2 ≥ k1 tal que para todo k ∈ Kcom k ≥ k2,

uk,v + ρk,vgvi (xk) < 0.

Da denição de λv,k+1i temos que λv,k+1

i = 0, para todo k ∈ K, com k ≥ k2. Suponha agora queρk,v é limitada, então temos que

limk→∞

maxgv(xk),−λk,v

= 0,

como gvi (xk) < c < 0, para todo k ∈ K, k ≥ k1, então λk,vi −→ 0.

Dividimos o estudo da convergência do algoritmo 5.2.1 em duas partes. Primeiro vamos estudaras propriedades de otimalidade do ponto limite.

O seguinte teorema garante que todo ponto de acumulação viável da sequência gerada peloalgoritmo é um ponto AKKT-GNEP de 5.2.1.

Teorema 5.2.2. Seja x∗ um ponto de acumulação viável da sequência xk gerada pelo algo-ritmo 5.2.1 e suponha que a hipótese 5.2.1 é satisfeita com limk→∞ εk = 0, então x∗ é um pontoAKKT-GNEP para o GNEP (5.2.1).

Demonstração. Vamos provar que existem sequênciasxk⊆ Rn,

λk,v

⊆ Rmv+ e

µk,v

⊆ Rlv+,

para cada v = 1, . . . , N , tal que limk→∞ xk = x,

limk→∞

∥∥∥∥∥∥∇xvfv(xk) +

mv∑i=1

λk,vi ∇xvgvi (xk) +

lv∑j=1

µk,vj ∇xvhvj (x

k)

∥∥∥∥∥∥ = 0 (5.2.6)

e

limk→∞

minλk,vi ,−gvi (xk)

= 0, (5.2.7)

limk→∞

minµk,vj ,−hvj (xk)

= 0, (5.2.8)

para todo i = 1, . . . ,mv, j = 1, . . . , lv, v = 1, . . . , N.Da hipótese e do Passo 2 do algoritmo, temos que (5.2.6) e (5.2.8) ocorrem, portanto, será

suciente provar (5.2.7).Seja v ∈ 1, . . . , N xo e arbitrário. Se i /∈ αv(x∗), então pelo teorema anterior temos

que limk∈K λk,vi = 0, portanto, limk→∞min

λk,vi ,−gvi (xk)

= 0. Agora, seja i ∈ αv(x∗), então

66 MÉTODOS TIPO LAGRANGIANO AUMENTADO PARA RESOLVER GNEPS 5.2

limk∈K gvi (xk) = 0, portanto, limk→∞min

λk,vi ,−gvi (xk)

= 0, então ocorre (5.2.7) e x∗ é um

ponto AKKT-GNEP.

Corolário 5.2.1. Sob as hipóteses do Teorema anterior, se x∗ satisfaz CCP-GNEP, então x∗ é umponto KKT-GNEP do GNEP (5.2.1).

Demonstração. É uma consequência do teorema anterior e do Teorema 4.3.7.

O corolário anterior generaliza o resultado dado em [KS16] que usa a EMFCQ-GNEP e CPLD-GNEP.

Analogamente ao caso de otimização, damos alguns resultados referentes à viabilidade do pontolimite. Para o caso dos GNEPs, o estudo da viabilidade depende de outro GNEP, chamado o jogodas inviabilidades.

Denição 5.2.2. (Jogo das inviabilidades) Referente ao GNEP 5.2.1, denimos o seguinte GNEP,onde o problema para o v−ésimo jogador é:

Iv(x−v) : minxv‖gv+(x)‖2, (5.2.9)

hv(x) ≤ 0.

O sistema KKT-GNEP deste GNEP será útil para vericar casos onde o ponto limite da sequên-cia gerada é viável. O sistema KKT do jogo das inviabilidades para o v−ésimo jogador é:

2∇xvgv(x)gv+(x) +

lv∑j=1

µvj∇xvhv(x) = 0, µvj ≥ 0, hvj (x) ≤ 0, µvjhvj (x) = 0, j = 1, . . . , lv.

Vamos provar que sob a hipótese 5.2.1, o ponto limite da sequência gerada pelo algoritmo 5.2.1é um ponto AKKT-GNEP do jogo das inviabilidades.

Teorema 5.2.3. Seja x∗ um ponto de acumulação da sequência gerada pelo algoritmo 5.2.1 sob ahipótese 5.2.1, então x∗ é um ponto AKKT-GNEP do jogo das inviabilidades.

Demonstração. Seja K ⊆∞

N tal que limk∈K xk = x∗. Pela hipótese 5.2.1, temos que, para todo

v = 1, . . . , N , hv(x∗) ≤ 0, então x∗ é viável para o GNEP (5.2.9).Consideremos primeiro o caso em que ρk,v é limitada. Neste caso temos que limk→∞min−gv(xk), λk,v →

0, portanto, temos que gv(x∗) ≤ 0, então o sistema KKT para o jogo de inviabilidades é satisfeitotomando µvj = 0, para todo j = 1, . . . , lv, e x∗ é um ponto AKKT-GNEP para (5.2.9).

Consideremos agora o caso quando ρk,v tende ao innito. Denimos

δk,v = ∇xvfv(xk) +

mv∑i=1

λk,vi ∇xvgvi (xk) +

lv∑j=1

µk,vj ∇xvhvj (x

k),

pela hipótese 5.2.1, δk,v é limitada, então dividindo por ρk,v temos que:

δk,v

ρk,v=∇xvfv(xk)

ρk,v+

mv∑i=1

max0,uk,viρk,v

+ gvi (xk)∇xvgvi (xk) +

lv∑j=1

µk+1,vj

ρk,v∇xvhvj (xk)→ 0.

Seja i tal que gi(x∗) < 0, como uk,v é limitada, então max0,uk,viρk,v

+ gvi (xk) = 0, para todo

5.2 MÉTODO DE LAGRANGIANO AUMENTADO PARA GNEPS 67

k ∈ K, sucientemente grande, então:

∑gvi (x∗)≥0

max0,uk,viρk,v

+ gvi (xk)∇xvgvi (xk) +

lv∑j=1

µk+1,vj

ρk,v∇xvhvj (xk)→ 0.

Se i ∈ αv(x∗), então pela limitação de uk,v e ∇xvgv(xk) e como para i tal que gvi (x∗) > 0

temos que max0,uk,viρk,v

+ gvi (xk) =uk,viρk,v

+ gvi (xk), para k ∈ K sucientemente grande, obtemos:

∑gvi (x∗)>0

(uk,viρk,v

+ gvi (xk)

)∇xvgvi (xk) +

lv∑j=1

µk+1,vj

ρk,v∇xvhvj (xk)→ 0

e comouk,viρk,v

→ 0, então temos:

∑gvi (x∗)>0

(gvi (xk)

)∇xvgvi (xk) +

lv∑j=1

µk+1,vj

ρk,v∇xvhvj (xk)→ 0.

Facilmente podemos ver que isto é equivalente a:

∑gvi (x∗)≥0

(gvi (xk)+

)∇xvgvi (xk) +

lv∑j=1

µk+1,vj

ρk,v∇xvhvj (xk)→ 0. (5.2.10)

Por outro lado, usando a hipótese 5.2.1 pode-se vericar que:

limk−→∞

‖min−hv(xk), µk,v

ρk‖ → 0 (5.2.11)

e para k ∈ K sucientemente grande, temos que:

∇xv‖gv(xk)+‖2 = 2∑

gvi (x∗)≥0

gvi (xk)+∇xvgvi (xk).

Assim, de (5.2.10) e (5.2.11) temos que x∗ é um ponto AKKT-GNEP para o jogo das inviabili-dades.

Corolário 5.2.2. Sob as condições do teorema anterior, se x∗ é um ponto de acumulação da sequên-cia gerada pelo algoritmo e satisfaz CCP-GNEP para (5.2.2) (i.e., com respeito as hv restrições),então é um ponto KKT-GNEP do jogo das inviabilidades.

Demonstração. É uma consequência do teorema anterior e do Teorema 4.3.7.

À diferença de como acontece em otimização e NEPs (Teorema 5.1.1), no caso do algoritmoLagrangiano aumentado para convergência a solução global é suciente que o conjunto viável nãoseja vazio para garantir que o ponto limite de uma sequência gerada pelo algoritmo seja viável. Parao caso do método de Lagrangiano aumentado para o cálculo de pontos KKT, o Corolário 5.2.2 sófala que o ponto limite é um ponto KKT-GNEP do jogo das inviabilidades, desde que CCP-GNEP(ou outra mais forte) ocorra referente as hv restrições, mas ainda nesse caso o ponto limite podeser inviável para o GNEP original e, portanto, na prática seria pouco útil que o método encontretais pontos.

É claro que atingir viabilidade do ponto limite é fundamental em todo algoritmo. Logo, pergun-tamos sob que condições ou em que casos um ponto KKT-GNEP do jogo de inviabilidades é um

68 MÉTODOS TIPO LAGRANGIANO AUMENTADO PARA RESOLVER GNEPS 5.2

ponto viável para o GNEP original, isto é, sob que condições para gv e/ou hv nós temos que:

KKT-GNEP do jogo das inviabilidades ⇒ viabilidade para o GNEP.

Dois resultados que garantem viabilidade para o ponto limite foram apresentados em [KS16],aqui apresentamos esses resultados adaptados ligeiramente para nosso algoritmo.

Teorema 5.2.4. Seja x um ponto limite da sequência gerada pelo algoritmo e suponha que x satisfazEMFCQ-GNEP referente ao GNEP (5.2.1), então gv(x) ≤ 0, para todo v = 1, . . . , N , i.e., x é viávelpara o GNEP.

Demonstração. Como x satisfaz EMFCQ-GNEP referente as restrições (g, h), então x satisfazMFCQ-GNEP referente as restrições h, então pelo Corolário 5.2.2, x é um ponto KKT-GNEPde (5.2.2) e o resultado segue do Teorema 4.3 em [KS16].

Outro caso importante onde o GNEP das inviabilidades pode garantir que todo ponto AKKT-GNEP é viável para o GNEP original é dada quando o GNEP é da forma:

minxv

fv(x) s.t g(x) ≤ 0, hv(xv) ≤ 0, (5.2.12)

onde g : Rn → Rm e hv : Rnv → Rlv são convexas, note-se que este GNEP cobre o conjunto dosGNEPs conjuntamente convexos.

Teorema 5.2.5. Consideremos o GNEP (5.2.12) com g e hv convexas e assumamos que o conjuntoviável do GNEP não é vazio. Se x é um ponto limite da sequência gerada pelo algoritmo 5.2.1 e xsatisfaz CCP-GNEP referente as restrições h, então x é viável para o GNEP.

Demonstração. Pelo Teorema 5.2.2, x é um ponto KKT-GNEP de 5.2.2 e o resultado segue doTeorema 4.4 em [KS16].

Apresentamos agora alguns exemplos importantes dos resultados anteriores e outros novos casosque ampliam o conjunto de GNEPs que tem a propriedade que pontos KKT-GNEPs do jogo dasinviabilidades levam a pontos viáveis para o GNEP original.

Consideremos agora o caso de um GNEP da seguinte forma:

minxv

fv(x) s.t qv(xv − cv(x−v)) ≤ 0, sv(xv − cv(x−v)) ≤ 0, (5.2.13)

onde, para cada v = 1, . . . , N , qv : Rnv → Rmv e sv : Rnv → Rlv são convexas e diferenciáveis e cv :Rn−v → Rnv é diferenciável. E sejam Qv = xv ∈ Rnv : qv(xv) ≤ 0 e Sv = xv ∈ Rnv : sv(xv) ≤ 0.

O seguinte teorema prova que para este tipo de GNEPs é possível atingir viabilidade do pontolimite.

Teorema 5.2.6. Consideremos o GNEP (5.2.13) e suponha que, para cada v = 1, . . . , N , Qv∩Sv 6=∅ (viabilidade). Se x é um ponto limite da sequência gerada pelo algoritmo 5.2.1 que satisfaz CCP-GNEP referente as restrições h com hv(x) = sv(xv − cv(x−v)), então x é viável para o GNEP.

Demonstração. Pelas hipóteses temos que x é um ponto KKT do jogo das inviabilidades, entãopara cada v = 1, . . . , N existem multiplicadores wv ∈ Rlv tal que

∇qv(xv − cv(x−v))qv+(xv − cv(x−v)) +∇sv(xv − cv(x−v))wv = 0 e min−hv(x), wv = 0,

então xv − cv(x−v) é um ponto KKT do problema de otimização

‖qv+(xv)‖2 s.t sv(xv) ≤ 0.

Como temos um problema de otimização convexo, então o ponto KKT: xv− cv(x−v) é uma soluçãoglobal e como o GNEP é viável, então se segue que x é viável para o GNEP.

5.2 MÉTODO DE LAGRANGIANO AUMENTADO PARA GNEPS 69

Esse tipo de GENPs pode ser chamado GNEP com restrições em movimento em analogia comas QVIs com restrições em movimento, já que o conjunto viável para o v−ésimo jogador Xv(x−v)é dado por Xv(x−v) = cv(x−v) + (Qv ∩ Sv).

Corolário 5.2.3. Consideremos o GNEP 5.2.13. Se x é um ponto limite gerado pelo algoritmo 5.2.1e satisfaz CCP-GNEP, então x é um ponto KKT-GNEP.

Demonstração. Pela hipótese, x é um ponto KKT-GNEP do jogo das inviabilidades, então peloteorema anterior x é viável. Usando o Teorema 4.3.7 obtemos o resultado.

Note-se que a importância do teorema anterior é que não pedimos que o ponto limite seja viável.Consideremos o caso de um NEP que cobre os NEPs com restrições convexas da seguinte forma:

minxv

fv(x) s.t gv(xv) ≤ 0, hv(xv) ≤ 0, (5.2.14)

onde gv : Rnv → Rmv e hv : Rnv → Rlv são convexas para cada v = 1, . . . , N .Temos o seguinte resultado:

Corolário 5.2.4. Consideremos o NEP (5.2.14) com gv e hv convexas e assumamos que o conjuntoviável do NEP não é vazio. Se x é um ponto limite da sequência gerada pelo algoritmo 5.2.1 e xsatisfaz CCP referente as restrições h, então x é viável para o NEP.

Demonstração. O NEP (5.2.14) é um caso particular de (5.2.13) com c−v = 0.

Consideremos agora o caso de um GNEP com restrições lineares com lado direito variável daseguinte forma:

minxv

fv(x) s.t Avxv − bv − cv(x−v) ≤ 0, (5.2.15)

onde para cada v = 1, . . . , N , Av ∈ Rmv×nv , bv ∈ Rmv×1 e cv : Rn−v → Rmv são diferenciáveis. Porsimplicidade omitimos hv.

O seguinte é um Corolário do Teorema 5.2.4.

Corolário 5.2.5. Consideremos o GNEP (5.2.15) com cv diferenciável, para cada v = 1, . . . , N ,e assumamos que, para cada v = 1, . . . , N , temos posto(Av) = mv. Se x é um ponto limite dasequência gerada pelo algoritmo 5.2.1, então x é viável para o GNEP.

Demonstração. Como não estamos considerando restrições de nível inferior, temos que x é um pontoKKT de (5.2.9), isto é, x satisfaz:

∇xv‖gv+(x)‖2 = 2(Av)T gv+(x) = 0.

Para cada v = 1, . . . , N , as las de Av são linearmente independentes, em particular EMFCQ-GNEP ocorre em x. Pelo Teorema 5.2.4, x é viável para o GNEP 5.2.15.

Consideremos agora um GNEP com restrições de caixas que generaliza em certo sentido o casode otimização.

minxv

fv(x) s.t lv(x−v) ≤ xv ≤ uv(x−v), (5.2.16)

onde, para cada v = 1, . . . , N , as funções lv, uv : Rn−v → Rnv são contínuas, neste caso temos que

gv(x) =

(−xv + lv(x−v)xv − uv(x−v)

).

70 MÉTODOS TIPO LAGRANGIANO AUMENTADO PARA RESOLVER GNEPS 5.2

Por simplicidade omitimos hv. Este GNEP é um caso particular do GNEP (5.2.15), com efeito bastaconsiderar bv = 0, a matriz Av e a função cv dadas como:

Av =

[I−I

]2nv×nv

, I ∈ Rnv×nv e cv(x−v) =

(lv(x−v)−uv(x−v)

).

Note-se que para este caso posto(Av) = nv 6= 2nv, então as condições do corolário anterior nãosão satisfeitas. O seguinte resultado mostra que ainda podemos obter um resultado de viabilidadepara este tipo de GNEPs.

Teorema 5.2.7. Consideremos o GNEP (5.2.16) com lv(x−v) ≤ uv(x−v), para cada v = 1, . . . , N .Se x é um ponto limite da sequência gerada pelo algoritmo 5.2.1, então x é viável para o GNEP.

Demonstração. Temos que x é um ponto KKT-GNEP do jogo das inviabilidades, então, para cadav = 1, . . . , N temos:

∇xv‖gv+(x)‖2 = 2[I −I

]( (−xv + lv(x−v))+

(xv − uv(x−v))+

)= 2(−xv + lv(x−v))+ − 2(xv − uv(x−v))+ = 0.

Usando esta última igualdade e da hipótese, temos que lv(x−v) ≤ uv(x−v), para cada v = 1, . . . , N ,o que implica que lv(x−v) ≤ xv ≤ uv(x−v) e, então x é viável para o GNEP (5.2.16).

Finalmente podemos obter um resultado de otimalidade usando QN-GNEP. Para o caso da provade otimalidade usando CCP-GNEP, a prova estava baseada principalmente na conexão com AKKT-GNEP, para o caso de QN-GNEP a prova é diferente já que não existe relação com CCP-GNEPnem com AKKT-GNEP.

Sob QN-GNEP, provamos que a sequência de multiplicadores λk,v associada com as restriçõespenalizadas são limitadas. Para provar convergência global sob a QN-GNEP assumiremos que asequência de multiplicadores do Passo 2 µk,v é limitada e que ocorre, por exemplo, se não con-sideramos restrições de nível inferior. Em geral, pode-se escolher de forma adequada (geralmentecom uma estrutura simples) as restrições de nível inferior hv, para que esta hipótese ocorra. Estetipo de hipótese também foi apresentada em alguns artigos de otimização, como por exemplo em[AMS10].

Teorema 5.2.8. Suponha quexké uma sequência gerada pelo algoritmo 5.2.1 e K ⊂ N é tal

que limk∈K xk = x com x viável. Suponha, ademais, que existe µ ≥ 0 tal que ‖µk‖ ≤ µ, para

todo k ∈ K, e que limk∈K εk = 0. Então, se x satisfaz QN-GNEP com respeito ao GNEP (5.2.1),então x é um ponto KKT-GNEP, a sequência dual λk é limitada em K e seus pontos limites sãomultiplicadores associados com x.

Demonstração. Do Passo 2 do algoritmo temos, para cada v = 1, . . . , N :∥∥∥∥∥∇xvfv(xk) +

mv∑i=1

λk,vi ∇xvgvi (xk) +

lv∑i=1

µk,vi ∇xvhvi (x

k)

∥∥∥∥∥ ≤ εk, (5.2.17)

onde λk,vi = max

0, uk−1,vi + ρk−1,vgvi (xk)

. Seja

δk,v :=

√√√√1 +

mv∑i=1

(λk,vi

)2+

lv∑i=1

(µk,vi

)2,

vamos provar que a sequência λk,v é limitada. Suponha por contradição que esta sequência é

ilimitada, então existe K1 ⊂ K tal que δk,v → +∞ para k ∈ K1. Como∥∥∥( 1

δk,v, λ

k,v

δk,v, µ

k,v

δk,v

)∥∥∥ = 1

5.2 MÉTODO DE LAGRANGIANO AUMENTADO PARA GNEPS 71

para cada k, existe K2 ⊂ K1 tal que

limk∈K2

(1

δk,v,λk,v

δk,v,µk,v

δk,v

)=(νv, λv, µv

)6= 0

com νv = 0 e µvj = 0, para cada j = 1, . . . , lv, no entanto λvi ≥ 0, para todo i = 1, . . . ,mv, comλv 6= 0.

Dividindo (5.2.17) por δk,v e tomando limite sobre K2 temos que:

mv∑i=1

λvi∇xvgvi (x) = 0. (5.2.18)

Como o ponto limite x satisfaz AKKT-GNEP com os multiplicadores λk,vi e λk,vi → 0 se gvi (x) <0, então (5.2.18) fornece uma combinação linear não negativa e não trivial das restrições ativas degv(x) ≤ 0 em x.

Se λvi > 0, então existe a > 0 e k0 tal que:

max0, uk−1,vi + ρk−1,vgvi (xk)

δk,v≥ a, ∀k ≥ k0, k ∈ K2.

Como uk−1,v é limitado e x é viável, temos que ρk−1,vgvi (xk) converge ao innito e, portanto,gvi (xk) > 0 para k ∈ K2 sucientemente grande. Mas isso é uma contradição com QN-GNEP,portanto, λk,vk∈K é limitada, assim tomando limite em (5.2.17) e da viabilidade de x, obtemosque x é um ponto KKT-GNEP.

Observação 5.2.1. Note-se da prova do teorema anterior que só é necessário que o ponto viável xsatisfaça QN-GNEP com respeito as restrições denidas por gv.

Calculando equilíbrios b-variacionais

Vamos agora considerar o algoritmo 5.2.1 para o cálculo de equilíbrios b−variacionais comb ∈ RN++ de GNEPs conjuntamente convexos.

Consideremos o seguinte GNEP conjuntamente convexo:

P v(x−v) : minxvfv(xv, x−v)

s.t gi(x) ≤ 0, i = 1, . . . ,mhj(x) ≤ 0, j = 1, . . . , l,

(5.2.19)

onde fv : Rn → R é convexa para cada x−v xado, g : Rnv → Rm e h : Rnv → Rl são funçõesconvexas.

O Teorema 4.3.2 diz que para qualquer b ∈ RN++, temos que SOL(X,Fb) ⊆ SOL(GNEPb) =SOL(GNEP ). Da primeira inclusão temos que toda solução de SOL(X,Fb) é um equilíbrio variaci-onal de SOL(GNEPb) e a condição para que uma solução do GNEP seja um equilíbrio variacional éque os multiplicadores associados a cada jogador sejam iguais. Esta importante observação permiteadaptar o algoritmo 5.2.1 para o cálculo de b−equilíbrios. Neste caso, vamos calcular equilíbriosvariacionais do GNEPb, onde o problema para cada jogador é:

P v(x−v) : minxvbvfv(xv, x−v)

s.t gi(x) ≤ 0, i = 1, . . . ,mhj(x) ≤ 0, j = 1, . . . , l,

(5.2.20)

isto é, um ponto (x∗, λ, µ) ∈ Rn × Rm × Rl tal que, para cada v = 1, . . . , N satisfaz:

72 MÉTODOS TIPO LAGRANGIANO AUMENTADO PARA RESOLVER GNEPS 5.2

KKTv : bv∇xvfv(xv, x−v) +

mv∑i=1

λi∇xvgvi (xv, x−v) +

lv∑j=1

µj∇xvhvj (xv, x−v) = 0, (5.2.21)

λi ≥ 0, gvi (xv, x−v) ≤ 0, λigvi (xv, x−v) = 0,∀i = 1, . . . ,m

µj ≥ 0, hvj (xv, x−v) ≤ 0, µjh

vj (x

v, x−v) = 0,∀j = 1, . . . , l.

Para isso, nos subproblemas calcularemos equilíbrios normalizados aproximados de GNEPs daforma: GNEPb(u, ρ) que são denidas como em 5.2.4, que neste caso também são conjuntamenteconvexos.

Algoritmo 5.2.2. (Lagrangiano aumentado para o cálculo de b−equilíbrios variacionais) P0) Sejab ∈ RN++, u

max ∈ Rm+ , τ ∈ (0, 1), γ > 1 escolhemos (x0, λ0, µ0) ∈ Rn × Rm × Rl, u0 ∈ [0, umax],ρ0 ∈ R++ e ε > 0. Fazer k = 0.

P1) Se (xk, λk, µk) é um equilíbrio variacional ε-inexato do GNEPb(uk, ρk) (i.e., satisfaz apro-ximadamente o sistema (5.2.21)), parar.

P2) Calcular um equilíbrio variacional aproximado: (xk+1, µk+1), do GNEPb(uk, ρk).P3) Denir λk+1 = max

0, uk + ρkg(xk+1)

.

P4) Se ∥∥∥maxg(xk+1),−λk+1∥∥∥ ≤ τ ∥∥∥maxg(xk),−λk

∥∥∥ ,então ρk+1 = ρk. Em outro caso, ρk+1 = γρk.

P5) Escolher uk+1 ∈ [0, umax]. Fazer k → k + 1. Ir ao Passo 1.

Como antes, o Passo 2 é o passo fundamental do algoritmo. No Passo 2 assumiremos que épossível achar um equilíbrio variacional inexato do GNEPb(uk, ρk).

Hipótese 5.2.2. No Passo 2 do algoritmo, é possível achar um equilíbrio variacional εk, εk− apro-ximado: (xk+1, µk+1) ∈ Rn × Rl do GNEPb(uk, ρk), i.e., um ponto que satisfaz:∥∥∥∥∥∥bv∇xvf(xk+1) +

m∑i=1

max0, uk + ρkg(xk+1)∇xvgi(xk+1) +l∑

j=1

µk+1j ∇xvhj(xk+1)

∥∥∥∥∥∥ ≤ εk,(5.2.22)∥∥∥max

hj(x

k+1),−µk+1j

∥∥∥ ≤ εk, j = 1, . . . , l,

onde a sequência εk é limitada e a sequência εk tende a zero.

Todos os resultados na seção anterior podem ser adaptados para o algoritmo 5.2.2. Mas aestrutura mais simples e as hipóteses de convexidade permitem mostrar resultados mais fortes emviabilidade e otimalidade usando as clássicas CQ de otimização.

Teorema 5.2.9. Seja xk uma sequência gerada pelo algoritmo 5.2.2, sob a hipótese 5.2.22, se xé um ponto limite de xk que satisfaz CCP com respeito as h restrições, então x é uma soluçãoglobal de:

min ‖g+(x)‖2 s.t h(x) ≤ 0. (5.2.23)

Em particular, se o GNEP é viável, então x é viável.

Demonstração. Como g e h são convexas, será suciente mostrar que x é um ponto KKT do pro-blema de programação convexa (5.2.23). Usando os mesmos argumentos que no Teorema 5.2.3, po-demos achar uma sequência de multiplicadores µk não negativos tal que, para cada v = 1, . . . , N ,temos:

∇xv‖g+(xk)‖2 +∇xvh(xk)µk → 0 min−h(xk), µk → 0, (5.2.24)

5.3 LAGRANGIANO AUMENTADO USANDO PENALIDADE EXPONENCIAL. 73

isto implica que:

∇‖g+(xk)‖2 +∇h(xk)µk → 0 min−h(xk), µk → 0. (5.2.25)

Portanto, ocorre AKKT em x com respeito ao problema (5.2.23). Pela hipóteses e pelo Teo-rema 4.3.7, obtemos o resultado.

Note-se que no caso de não considerar as h restrições todo ponto limite da sequência geradapelo algoritmo 5.2.2 é viável desde que o GNEP seja viável.

O seguinte resultado é referente a otimalidade do ponto limite.

Teorema 5.2.10. Seja xk uma sequência gerada pelo algoritmo 5.2.2 sob a hipótese 5.2.22,suponha que o GNEP é viável e seja x um ponto limite de xk que satisfaz CCP em W , então xé viável e é um b−equilíbrio variacional.

Demonstração. Da hipótese, é claro que x satisfaz CCP referente as h restrições, portanto, peloteorema anterior x é viável, pelo Teorema 5.2.2 a condição AKKT-GNEP é:

bv∇xvfv(xk) +∇xvg(xk)λk +∇xvh(xk)µk → 0 (5.2.26)

min−g(xk), λk → 0, min−h(xk), µk → 0, (5.2.27)

que é equivalente a:

∇Fb(xk) +∇g(xk)λk +∇h(xk)µk → 0, (5.2.28)

min−g(xk), λk → 0, min−h(xk), µk → 0.

Esse último são as condições AKKT para o V I(Fb,W ) em x e como CCP ocorre em x, então xé um ponto KKT de V I(Fb,W ), portanto, um b−equilíbrio variacional.

5.3 Lagrangiano aumentado usando penalidade exponencial.

Consideremos o GNEP onde o problema para cada jogador é dado por (5.2.1), analogamente aométodo de Lagrangiano aumentado usando a função máximo ao quadrado, penalizamos as restriçõesdifíceis gv usando uma função de penalidade exponencial e mantemos as restrições de nível inferiorhv, assim obtemos em cada iteração um GNEP onde o problema para cada jogador é:

Qv(x−v, uv, pv) : minLvρ(x, uv), (5.3.1)

hvj (xv, x−v) ≤ 0, j = 1, . . . , lv,

onde Lvρ(x, uv) = fv(xv, x−v) + 1

ρv∑mv

i=1 uvi

(eρvgvi (xv ,x−v) − 1

).

Denotamos a este GNEP por: GNEP (u, ρ), onde u = (uv)Nv=1 ∈ Rm+ e ρ = (ρv)Nv=1 ∈ RN++.Adaptamos o Algoritmo 2.1 de [ESS16] para o caso dos GNEPs com restrições de nível inferior.

Algoritmo 5.3.1. (LAMe-GNEP) P0) Escolhemos (x0, λ0, µ0) ∈ Rn×Rm×Rl, umax ∈ Rm+ , γ > 1,

u0 ∈ [0, umax], ρ0 ∈ RN++, τ ∈ (0, 1) e ε > 0. Denir σ0,v =λ0,v − u0,v

ρ0,v∈ Rmv para v = 1, . . . , N .

Fazer k = 0.P1) Se (xk, λk, µk) é um ponto KKT-GNEP ε−aproximado do GNEP, parar.P2) Calcular um ponto (xk+1, µk+1) KKT-GNEP εk, εk− aproximado do GNEP (uk, ρk).P3) Para cada v = 1, . . . , N , denir:

λk+1,vi = uk,vi exp(ρk,vgvi (xk+1)), i = 1, . . . ,mv (5.3.2)

74 MÉTODOS TIPO LAGRANGIANO AUMENTADO PARA RESOLVER GNEPS 5.3

e

σk+1,v =λk+1,v − uk,v

ρk,v∈ Rmv . (5.3.3)

P4) Para v = 1, . . . , N , se ∥∥∥σk+1,v∥∥∥ ≤ τ ∥∥∥σk,v∥∥∥ ,

fazer ρk+1,v = ρk,v. Em outro caso, ρk+1,v = γρk,v.P5) Escolher uk+1 = min

umax, λk+1

. Fazer k ← k + 1. Ir ao Passo 1.

No Passo 2 do algoritmo anterior, assumiremos a seguinte condição, análoga como no algo-ritmo 5.2.1.

Hipótese 5.3.1. No Passo 2 do algoritmo 5.3.1, podemos obter (xk+1, µk+1) ∈ Rn × Rl+, quesatisfaz para cada v = 1, . . . , N ,∥∥∥∥∥∥∇xvLρv(x, uv) +

lv∑j=1

µvj∇xvhvj (xv, x−v)

∥∥∥∥∥∥ ≤ εk, (5.3.4)

‖maxhvj (x),−µvj‖ ≤ εk, j = 1, . . . , lv,

onde a sequência εk é limitada e a sequência εk tende a zero.

O seguinte resultado é análogo ao Teorema 5.2.1.

Proposição 5.3.1. Seja xk uma sequência gerada pelo algoritmo 5.3.1. Assumamos que x é umponto limite viável de xk e K ⊆ N tal que limk∈K x

k = x, então, para cada v = 1, . . . , N , ei /∈ αv(x∗) temos que limk∈K λ

k+1,vi = 0.

Demonstração. Seja v ∈ 1, . . . , N xo e arbitrário. E seja i /∈ αv(x), consideraremos dois casos:Se ρk,v é limitada, então pelo Passo 3 do algoritmo temos que limk∈K σ

k+1,vi = 0, como para

i /∈ αv(x) temos que gvi (x) < 0, então

limk∈K

eρk,vgvi (xk+1) − 1

ρk,v6= 0

e como

σk+1,vi = uk,vi

eρk,vgvi (xk+1) − 1

ρk,v→ 0,

então temos uk,vi → 0 e do Passo 5 temos λk+1,vi → 0, ∀i /∈ αv(x).

Agora, se ρk,v é ilimitada para i /∈ αv(x) tem-se gvi (x) < 0, então limk∈K exp(pk,vgvi (xk+1)) = 0

e como uk,vi é limitada, então λk+1,vi = uk,vi exp(pk,vgvi (xk+1))→ 0.

Usando a penalidade exponencial, o algoritmo 5.3.1 gera também pontos AKKT-GNEPs. Assim,obtemos o seguinte resultado análogo ao Teorema 5.2.2.

Teorema 5.3.1. Seja xk uma sequência gerada pelo algoritmo 5.3.1 sob a hipótese 5.3.1 comεk → 0, seja x um ponto de acumulação viável de xk, então x é um ponto AKKT-GNEP doGNEP (5.2.1).

Demonstração. Usando a Proposição 5.3.1, a prova é análoga ao Teorema 5.2.2.

Corolário 5.3.1. Sob as hipóteses do Teorema 5.3.1, se x satisfaz CCP-GNEP, então x é um pontoKKT-GNEP do GNEP.

Demonstração. É uma consequência do teorema anterior e do Teorema 4.3.7.

5.3 LAGRANGIANO AUMENTADO USANDO PENALIDADE EXPONENCIAL. 75

Sob CCP-GNEP pode acontecer que a sequência de multiplicadores (λk,v, µk,v) não seja limi-tada, mas sobre uma condição mais forte como MFCQ-GNEP isto ocorre.

Teorema 5.3.2. Seja xk uma sequência gerada pelo algoritmo 5.3.1 com εk → 0, seja x um pontode acumulação viável de xk tal que a condição MFCQ-GNEP ocorre em x, então a sequência(λk,v, µk,v) é limitada e todo ponto limite (λ∗, µ∗) ∈ Rm+ × Rl+ é tal que (x, λ∗, µ∗) é um pontoKKT do GNEP.

Demonstração. Seja v ∈ 1, . . . , N xo e arbitrário. Pela Proposição 5.3.1, temos que para i talque gvi (x) < 0, que limk∈K λ

k+1,vi = λ∗,vi = 0. Pela hipótese 5.3.1, temos que se j /∈ γv(x), então

limk∈K µk+1,vj = µ∗,vj = 0. Armamos que o resto de multiplicadores

((λk+1,vi )i∈αv(x), (µ

k+1,vj )j∈γv(x))

k∈K

é limitado. Suponha o contrário, isto é:∥∥∥((λk+1,vi )i∈αv(x), (µ

k+1,vj )j∈γv(x))

∥∥∥→K ∞,

então sem perda de generalidade podemos assumir que a sequência normalizada converge.

((λk+1,vi )i∈αv(x), (µ

k+1,vj )j∈γv(x))∥∥∥((λk+1,v

i )i∈αv(x), (µk+1,vj )j∈γv(x))

∥∥∥ →K ((λvi )i∈αv(x), (µ

vj )j∈γv(x))

como λk,vi ≥ 0 e µk,vj ≥ 0, ((λvi )i∈αv(x), (µ

vj )j∈γv(x)) tem componentes não negativos, então dividindo

em (5.3.4) por:∥∥∥((λk+1,v

i )i∈αv(x), (µk+1,vj )j∈γv(x))

∥∥∥ usando a denição de λk,vi e tomando limite

quando k →K ∞, obtém-se:∑i∈αv(x)

λvi∇xvgvi (x) +

∑j∈γv(x)

µvj∇xvhvj (x) = 0.

Como λvi ≥ 0 (i ∈ αv(x)) e µvj ≥ 0, (j ∈ γv(x)) usando a hipótese de MFCQ-GNEP em x, obtém-se

λvi = 0, (i ∈ αv(x)) e µvj = 0 (j ∈ γv(x)). E isto é uma contradição com

∥∥∥((λvi )i∈αv(x), (µ

vj )j∈γv(x))

∥∥∥ =

1, então as sequências (λk+1,vi )i∈αv(x) e (µk+1,v

j )j∈γv(x) são limitadas. Sem perda de generalidadepode-se assumir que:

λk+1,vi →K λ∗,vi (i ∈ αv(x)), µk+1,v

j →K µ∗,vj (j ∈ γv(x)).

Assim, tomando limite em (5.3.4), quando k →K ∞ obtém-se:

∇xvfv(x) +

mv∑i=1

λ∗,vi ∇xvgvi (x) +

lv∑j=1

µ∗,vj ∇xvhvj (x) = 0.

Da hipótese 5.3.1 e da viabilidade de x obtemos:

µ∗,vj ≥ 0, hvj (x) ≤ 0, µ∗,vj hvj (x) = 0, ∀j = 1, . . . , lv,

λ∗,vi ≥ 0, gvi (x) ≤ 0, λ∗,vi gvi (x) = 0, ∀i = 1, . . . ,mv.

Assim, (x∗, λ∗, µ∗) é um ponto KKT-GNEP.

Finalmente obtemos um resultado análogo ao Teorema 5.2.8, que resulta ser novo, ainda parao caso de otimização.

76 MÉTODOS TIPO LAGRANGIANO AUMENTADO PARA RESOLVER GNEPS 5.3

Teorema 5.3.3. Suponha quexké uma sequência gerada pelo algoritmo 5.3.1 e K ⊂ N é tal que

limk∈K xk = x com x viável. Suponha ademais que existe µ ≥ 0 tal que ‖µk‖ ≤ µ, para todo k ∈ K e

que limk∈K εk = 0. Então, se x satisfaz QN-GNEP referente ao GNEP (5.2.1), então x é um pontoKKT-GNEP, a sequência dual λk é limitada em K e seus pontos limites são multiplicadoresassociados com x.

Demonstração. Usando a denição λk,vi = uk,vi exp(ρk,vgvi (xk+1)), a prova segue de forma análogaao Teorema 5.2.8.

Observação 5.3.1. Note-se novamente que da prova do teorema anterior só é necessário que oponto viável x satisfaça QN-GNEP referente às restrições denidas por gv. Por outro lado, emboraexista certa vantagem usando uma função exponencial referente à resolução dos subproblemas queresultam ser sistemas diferenciáveis, usar a função quadrática proporciona maior análise teórica,como, por exemplo, enfraquecer o Teorema 5.3.2 usando a EMFCQ-GNEP e obter um resultado deviabilidade tipo o Teorema 5.2.3. E ainda para otimização estes resultados não foram estabelecidos.

Capítulo 6

Resolvendo os subproblemas e Testes

numéricos

6.1 Resolvendo os subproblemas

Em cada iteração, o método de Lagrangiano aumentado resolve um sistema KKT-GNEP aproxi-mado de um GNEP. Na prática, sistemas KKT-GNEP exatos são resolvidos usando tanto a funçãode penalidade quadrática como a penalidade exponencial; em geral, obtemos sistemas não diferen-ciáveis. Na literatura, existem alguns artigos que resolvem diretamente o sistema KKT-GNEP, masexigem que as funções objetivo, assim como as restrições de cada jogador, sejam em geral de classeC2; hipóteses que até GNEPs de uma estrutura bem simples podem não satisfazer.

Na prática, um fato fundamental ao usar o método Lagrangiano aumentado para resolver osistema KKT-GNEP de um GNEP radica em que os sistemas KKT-GNEP nos subproblemas sejammais fáceis de serem resolvidos que o sistema KKT-GNEP do GNEP original.

O Teorema 4.3.4 fornece um critério para escolher as restrições h, já que se em cada iteraçãodo algoritmo podemos garantir, por exemplo, que o GNEP (u, ρ) tenha solução, então pelo Teo-rema 4.3.4, essa solução é um ponto AKKT-GNEP e, portanto, o Passo 2 do algoritmo está bemdenido.

Baseado nessas observações, nesta seção apresentamos alguns critérios para resolver os sub-problemas. Consideramos principalmente o caso quando uma penalização total é feita, nesse caso,sistemas KKT-GNEP de NEPs irrestritas são resolvidas em cada iteração; na prática, esse tipo depenalização parece ser a mais usada.

Do ponto de vista prático, resolver os subproblemas usando uma penalização total é mais fácilpara implementar, entretanto a busca de um ponto KKT-GNEP demora mais tempo. Isto pareceacontecer pelo fato que o método demora em satisfazer as condições de complementariedade doGNEP.

No entanto, a implementação com uma penalidade parcial pode resultar em algo trabalhoso,neste caso, o tempo para encontrar um ponto KKT-GNEP é menor, isto parece acontecer porqueo método já tem certa complementariedade em cada iteração.

6.1.1 Penalização total

Usando a função de penalidade quadrática

Consideremos o algoritmo 5.2.1 quando todas as restrições são penalizadas. Na prática, emcada iteração o método calcula um ponto KKT-GNEP x ∈ Rn do NEP (u, ρ), isto é, um ponto quesatisfaz:

77

78 RESOLVENDO OS SUBPROBLEMAS E TESTES NUMÉRICOS 6.1

Θ(x) =

∇x1L1ρ1(x, u1),...

∇xNLNρN (x, uN ),

n×1

= 0. (6.1.1)

Essa equação corresponde ao sistema KKT-GNEP doNEP (u, ρ) que tem como funções objetivo:

Lvρv(x, uv) = fv(xv, x−v) +

1

2ρv

mv∑i=1

max

0, uvi + ρvgvi (xv, x−v)2. (6.1.2)

Que são funções de classe C1, mas em geral não de classe C2; então os métodos conhecidos pararesolver diretamente o sistema KKT-GNEP 6.1.1 são, em geral, não aplicáveis.

Note-se que cada bloco do sistema 6.1.1 não é diferenciável, então, em geral, Θ(x) não é dife-renciável. Em geral, os métodos que resolvem um sistema de equações não diferenciável precisamdo cálculo do jacobiano generalizado em cada ponto de seu domínio. No formato do sistema 6.1.1,calcular o jacobiano generalizado em um ponto arbitrário x tem resultado pouco claro.

Portanto, apresentar o sistema 6.1.1 em um formato diferente, na qual permita calcular o jaco-biano generalizado ou usar algum outro tipo de abordagem, assim como estudar as propriedades dosistema, é importante.

Primeiramente temos que:

Θ(x) = F (x) + L(x) =

∇x1f1(x)...

∇xN fN (x)

n×1

+

∑m1

i=1 max

0, u1i + ρ1g1

i (x)∇x1g1

i (x)...∑mN

i=1 max

0, uNi + ρNgNi (x)∇xN gNi (x)

n×1

.

(6.1.3)

O objetivo é agora expressar de forma mais compacta o termo L(x).

L(x) =

m1∑i=1

max

0, u1i + ρ1g1

i (x)∇x1g1

i (x)0...0

n×1

+· · ·+mN∑i=1

max

0, uNi + ρNgNi (x)

0...0

∇xN gNi (x)

n×1

.

Agora denimos a função G : Rn × Rn → Rm dada por:

G(x, y) =(g1(y1, x−1), . . . , gN (yN , x−N )

)∈ Rm,

então

∇yG(x, x) =

∇x1g1(x) 0 . . . 0

0 ∇x2g2(x) · · ·...

... . . .. . .

...0 . . . 0 ∇xN gN (x)

n×m

, (6.1.4)

fazendo u = (u1, . . . , uN ) ∈ Rm e ρ = (ρ1, . . . ρ1, . . . , ρN , . . . , ρN ) ∈ Rm tem-se:

L(x) =

m∑i=1

max 0, ui + ρiGi(x, x)∇yGi(x, x), (6.1.5)

onde ∇yGi(x, x) é a i−ésima coluna de ∇yG(x, x).

6.1 RESOLVENDO OS SUBPROBLEMAS 79

Assim, o sistema 6.1.5 é análogo ao sistema 24 de [Kan16], pela presença do termo max, Lé não diferenciável, mas é Lipschitz contínua. Em [Kan16], foi calculado o jacobiano generalizadono sentido de Clarke (sobre-estimação) para um operador da forma 6.1.5 com uma função geral,G : Rn × Rn → Rm. Assim, usando as regras da análise não diferenciável, pelo Proposição 4.2 de[Kan16], temos:

∂L(x) ⊆m∑i=1

max 0, ui + ρiGi(x, x)[∇2yyGi(x, x) +∇2

yxGi(x, x)]

+ (6.1.6)

m∑i=1

ρisi∇yGi(x, x) [∇yGi(x, x) +∇xGi(x, x)]T ,

onde

si =

1 ui + ρiGi(x, x) > 0

∈ [0, 1] ui + ρiGi(x, x) = 00 ui + ρiGi(x, x) < 0

.

Como Θ é localmente Lipschitz, métodos de Newton semi-diferenciáveis podem ser usados pararesolver 6.1.1. Por exemplo, podemos implementar o seguinte algoritmo que é globalmente conver-

gente, que calcula um ponto estacionário da função Ψ(x) =1

2‖Θ(x)‖2.

Algoritmo 6.1.1. (Método de Newton amortecido semi-diferenciável) Passo 0) Escolher x0 ∈ Rn,β > 0, p > 2, ρ, σ ∈

(0, 1

2

). Fazer k = 0.

Passo 1) Se ∇Ψ(xk) = 0, parar.Passo 2) Escolher um V k ∈ ∂BΘ(xk) e resolver:

Θ(xk) + V kd = 0.

Seja dk a solução (caso exista). Se não tem solução ou se a condição

∇Ψ(xk)Tdk ≤ −β∥∥∥dk∥∥∥p

não é satisfeita, fazer dk = −∇Ψ(xk).Passo 3) Seja mk o menor inteiro não negativo m tal que

Ψ(xk + ρmdk)−Ψ(xk) ≤ 2σρm∇Ψ(xk)dk,

seja tk = ρmk e xk+1 = xk + tkdk.Passo 4) Substituir k por k + 1. Ir ao Passo 1.

Observação 6.1.1. É conhecido que se Ψ é continuamente diferenciável, Θ é semi-diferenciável,então todo ponto de acumulação x∗ gerado pelo algoritmo é um ponto estacionário de Ψ e se Θ(x∗) =0 com todos os elementos do ∂BΘ(x∗) não singulares, então toda a sequência xk converge a x∗

super linearmente e quadraticamente se Θ é fortemente semi-diferenciável em x∗.Se usamos o método de Newton generalizado para resolver Θ(x) = 0 com a hipótese que os

elementos do ∂BΨ(x∗) sejam não singulares e Θ é semi-diferenciável em x∗, temos convergênciaQ-super linear localmente.

Como toda matriz denida positiva é não singular, usando o resultado do Teorema 4.3 de [Kan16]dado para provar a monotonicidade de um operador tipo Θ, obtemos assim uma condição sucientepara ter os jacobianos de ∂BΘ(x) não singulares.

Seja hi(x) = Gi(x, x), i = 1, . . . ,m, então Jhi(x) = (∇yGi(x, x) +∇xGi(x, x))T e por outraparte temos que Jx(∇yGi(x, x)) = ∇2

yyGi(x, x) +∇2yxGi(x, x).

Assim, uma condição suciente para que os elementos de ∂Θ(x) sejam não singulares é dado noseguinte resultado que esta baseado em 6.1.6.

80 RESOLVENDO OS SUBPROBLEMAS E TESTES NUMÉRICOS 6.1

Teorema 6.1.1. Suponha que JF (x) é denido positivo e que as matrizes

∇yGi(x, x)Jhi(x), ∀i tal que ui + ρiGi(x, x) ≥ 0, (6.1.7)

Jx(∇yGi(x, x)), ∀i tal que ui + ρiGi(x, x) > 0, (6.1.8)

sejam semi-denidas positivas, então os elementos de ∂Θ(x) são denidas positivas.

Demonstração. A prova é análoga ao Teorema 4.3 de [Kan16].

Uma questão interessante para uma futura pesquisa é achar classes de GNEPs tal que os ele-mentos de ∂Θ(x) sejam denidos positivos.

Consideremos agora o algoritmo 5.3.1 para o cálculo de equilíbrios b-variacionais. Usando umapenalização total e a notação anterior, temos que o algoritmo resolve em cada iteração um sistemaKKT-GNEP da forma:

Θb(x) = Fb(x) +

m∑i=1

max 0, ui + ρig(x)∇gi(x). (6.1.9)

Em [Kan16] foi provado que um operador tipo L(x) =∑m

i=1 max 0, ui + ρig(x)∇gi(x) é mo-nótono, portanto, seus jacobianos generalizados são semi-denidos positivos, temos o seguinte re-sultado.

Teorema 6.1.2. Suponha que JFb(x) é denido positivo, então os elementos de ∂Θ(x) são nãosingulares.

Demonstração. A prova é uma consequência do Proposição 4.4 de [Kan16].

No Passo 2 do algoritmo 6.1.1, um elemento arbitrário V ∈ ∂BΘ(x) é escolhido. Sem nenhumtipo de critério para uma escolha adequada para V o algoritmo pode se tornar lento em geral.

Outro tipo de abordagem para resolver o sistema 6.1.1 é suavizar os termos não diferenciá-veis, assim obter um novo sistema diferenciável Θt(x) = 0 que, por meio do parâmetro t > 0, aaproximação de Θt(x) a Θ(x) possa ser controlada. Assim, com um sistema diferenciável podemosdispor de métodos mais ecientes para resolver os subproblemas. Uma ideia desse tipo foi usadaem [NMFDS16] para implementar um algoritmo tipo Lagrangiano aumentado para problemas deequilíbrio, onde em cada iteração um sistema de equações não diferenciável tem que ser resolvido.Esses sistemas são não diferenciáveis também, pela presença do termo max. A ideia principal doenfoque em [NMFDS16] é de aproximar a função:

φ(x) = max 0, x =

0 se x ≤ 0s se x ≥ 0

(6.1.10)

por uma função diferenciável, que é próxima a φ em R, onde a aproximação é controlada por umparâmetro t > 0. É claro que esta função φ é não diferenciável unicamente na origem. A funçãoaproximação em [NMFDS16] é construída tomando um t > 0 e denindo uma função quadráticap(s) no intervalo [−t, t] e fora do intervalo é igual a φ, assim a função considerada é:

ϕ(s) =

0 se s < −t14ts

2 + 12s+ t

4 se −t ≤ s ≤ ts se s > t

. (6.1.11)

Esta função de aproximação não passa pelo origem para qualquer t > 0. A m de ter um melhorcomportamento da função de aproximação, aqui nós construímos uma função que aproxima φ, masque leve em conta a origem, que é onde a função φ não tem um comportamento suave. Para isto,consideremos um intervalo da forma [0, t] para t pequeno e denimos uma função de aproximação

6.1 RESOLVENDO OS SUBPROBLEMAS 81

φt(s), que coincida com φ(s) fora do intervalo e no intervalo [0, t] aproxime a φ(s) por meio de umafunção cúbica da forma p(s) = as3 + bs2 + cs+ d, assim φt(s) será da forma:

φt(s) =

0 se s ≤ 0p(s) se 0 ≤ s ≤ ts se t ≤ s

(6.1.12)

e a derivada é dada por:

φt′(s) =

0 se s ≤ 0p′(s) se 0 ≤ s ≤ t1 se t ≤ s

. (6.1.13)

Para que esta função φt(s) seja de fato diferenciável, deve-se satisfazer as seguintes condições:

p(0) = 0, p(t) = t, p′(0) = 0, p′(t) = 1.

Pode-se ver facilmente que, para todo t > 0, o sistema de equações gerado pelas condições

anteriores tem solução única que é: a = − 1

t2e b =

2

t, c = d = 0. Desta forma tem-se que p(s) e

p′(s) são dadas, respectivamente, por:

p(s) = −s3

t2+

2s2

t, p′(s) = −3s2

t2+

4s

t.

A seguinte proposição mostra que realmente a função φt(s) aproxima a φ(s) para t pequeno e aparte (b) é uma propriedade que será útil para poder garantir a não singularidade dos jacobianos,sob algumas hipóteses.

Proposição 6.1.1. Considere as funções φt(s) e φ(s) denidas anteriormente, então:a) limt→0+ φt(s) = φ(s),

b) φt(s) ≥ 0 e φt′(s) ≥ 0, para todo s ∈ R.

Demonstração. Pela denição de φt(s) e φ(s), será suciente provar que limt→0+ φt(s) = φ(s), paras ∈ [0, t].

Como s ≤ t, então −2 ≤ −s2

t2+

2s

t− 1 ≤ 1, portanto:

limt→0+

φt(s)− s = limt→0+

−s3

t2+

2s2

t− s = lim

t→0+s

(−s

2

t2+

2s

t− 1

)= 0.

Para a parte b, temos que φt(s) ≥ 0 é equivalente a (−st2

+2

t) ≥ 0, que ao mesmo tempo é equivalente

a s ≤ 2t. Analogamente φt′(s) ≥ 0.

Com a notação anterior de hi(x) = Gi(x, x), em cada termo de 6.1.5 podemos substituir afunção max 0, ui + ρihi(x) pela função qt,i(x) = φt(ui + ρihi(x)) dada por:

qt,i(x) =

0 se ui + ρihi(x) ≤ 0

− 1

t2(ui + ρihi(, x))3 +

2

t(ui + ρihi(x))2 se 0 ≤ ui + ρihi(x) ≤ t

ui + ρihi(x) se t ≤ ui + ρihi(x)

, (6.1.14)

82 RESOLVENDO OS SUBPROBLEMAS E TESTES NUMÉRICOS 6.1

que é uma função diferenciável e seu gradiente vem dado por:

∇qt,i(x) =

0 se ui + ρihi(x) ≤ 0[− 3

t2(ui + ρihi(x))2 +

4

t(ui + ρihi(x))

]ρiJhi(x) se 0 ≤ ui + ρihi(x) ≤ t

ρiJhi(x) se t ≤ ui + ρihi(x)

.

(6.1.15)

Assim, na prática, no Passo 2 do algoritmo podemos resolver o sistema diferenciável.

Θt(x) = F (x) +m∑i=1

qt,i(x)∇yGi(x, x) (6.1.16)

e os zeros de Θt(x) serão próximos aos zeros de Θ(x), para t sucientemente pequeno. Como Θt édiferenciável, podemos calcular seu jacobiano.

Lema 6.1.1. Suponha que as funções fv e gv são C2, para cada v = 1, . . . , N , então o jacobianode Θt(x) é dado por:

JΘt(x) = JF (x) +m∑i=1

∇qt,i(x)∇TyGi(x, x) +m∑i=1

qt,i(x)Jx(∇TyGi(x, x)

), (6.1.17)

com Jx(∇TyGi(x, x)

)=(∇2yyGi(x, x) +∇2

yxGi(x, x)).

Demonstração. A demostração é elementar.

Em [FFH14], o método LP-Newton foi desenvolvido para poder resolver sistemas de equaçõesnão necessariamente diferenciáveis com possíveis soluções não isoladas, assim, este tipo de métodoresulta ser mais apropriado para resolver sistemas KKT-GNEP. Lembremos brevemente o métodoLP-Newton com convergência global de [FHIS16]. Consideremos o problema:

H(z) = 0, z ∈ Ω,

onde H : Rn → Rm é contínua e Ω é um conjunto não vazio e fechado.No caso do método LP-Newton global [FHIS16], o método calcula um ponto estacionário do

problema:

minz∈Ω

f(z), (6.1.18)

onde f(z) = ‖H(z)‖, no entanto o método LP-newton original [FFH14] é um método iterativo talque se a iteração atual é z ∈ Ω, então a seguinte iteração é z + ς, onde ς é umas das partes dasolução do seguinte problema de otimização:

minς,γ

γ (6.1.19)

‖H(z) +G(z)ς‖ ≤ γ ‖H(z)‖2

‖ς‖ ≤ γ ‖H(z)‖z + ς ∈ Ω,

onde G(z) é uma matriz substituta (no caso não diferenciável) do jacobiano de H em z. No casoque Ω é um poliedro e a norma ‖‖∞ é usada, então 6.1.19 é um problema de programação linear.

Denamos ∆(z) = −f(z)(1 − γ(z)f(z)), o seguinte algoritmo pode ser usado para resolver osistema 6.1.16.

6.1 RESOLVENDO OS SUBPROBLEMAS 83

Algoritmo 6.1.2. Algoritmo LP-Newton global, para H diferenciável

Passo 0) Escolher um ponto z0 ∈ Ω, σ ∈ (0, 1) e θ ∈ (0, 1). Fazer k = 0.Passo 1) Se H(zk) = 0 parar.Passo 2) Calcular um ponto (ςk, γk) solução de 6.1.19, com z = zk e com G(z) = H ′(z). Se

∆(zk) = 0, parar.Passo 3) Seja α = 1, se a desigualdade

f(zk + αςk) ≤ f(zk) + σα∆(zk)

é satisfeita, fazer αk = α. Caso contrário, trocar α por αθ e ver se a desigualdade é satisfeita.Continuar assim até que a desigualdade seja verdadeira.

Passo 4) Fazer zk+1 = zk + αkςk, k = k + 1. Ir ao Passo 1.

Para propriedades de convergência do algoritmo, ver [FHIS16].Um resultado análogo ao Teorema 6.1.1 pode ser mostrado para Θt. O seguinte teorema mostra

que sob condições análogas às condições do Teorema 6.1.1 o jacobiano JΘt(x) é não singular, issopermite poder-se usar um método tipo Newton diferenciável para resolver os subproblemas.

Teorema 6.1.3. Suponha que JF (x) é denido positivo e que as matrizes

∇yGi(x, x)Jhi(x), ∀i tal que ui + ρiGi(x, x) ≥ 0, (6.1.20)

Jx(∇yGi(x, x)), ∀i tal que ui + ρiGi(x, x) > 0 (6.1.21)

sejam semi-denidas positivas, então JΘt é denida positivo.

Demonstração. Será suciente provar que:

m∑i=1

∇qt,i(x)∇TyGi(x, x) +m∑i=1

qt,i(x)Jx(∇TyGi(x, x)

)(6.1.22)

é semi-denida positiva. Pela proposição 6.1.1, temos que qt,i(x) ≥ 0 e pela hipótese, temos queo segundo termo de 6.1.22 é semi-denido positivo. Pela expressão para o ∇qt,i(x) e do fato queφt′(s) ≥ 0, então o primeiro termo de 6.1.22 é semi-denido positivo, portanto, JΘt(x) é denido

positivo.

Uma vantagem da função ϕ usada em [NMFDS16] é que ela é convexa, no entanto, nossafunção φt não é. Usando a função ϕ vamos provar o seguinte resultado para o cálculo de equilíbriosb-variacionais.

Consideremos agora o Algoritmo 5.2.1 para o cálculo de equilíbrios b-variacionais usando umapenalização total. Usando a função ϕ para suavizar os termos não diferenciáveis, temos que oalgoritmo resolve em cada iteração um sistema KKT-GNEP da forma:

Θbt(x) = Fb(x) +

m∑i=1

ϕt,i(x)∇gi(x), (6.1.23)

onde ϕt,i(x) = ϕ(ui + ρig(x)).Temos o seguinte resultado.

Teorema 6.1.4. Suponha que JFb(x) é denida positiva, então JΘbt(x) é denida positiva.

Demonstração. Usando a proposição 2.3 de [JQ95] será suciente provar que:

Lt(x) =m∑i=1

ϕt,i(x)∇gi(x) (6.1.24)

84 RESOLVENDO OS SUBPROBLEMAS E TESTES NUMÉRICOS 6.1

é monótona. Sejam y, z ∈ Rn temos:

(Lt(y)− Lt(z))T (y − z) =

(m∑i=1

ϕt,i(y)∇gi(y)−m∑i=1

ϕt,i(z)∇gi(z)

)T(y − z),

m∑i=1

(ϕt,i(y)∇gi(y)− ϕt,i(z)∇gi(z))T (y − z) ≥ 0. (6.1.25)

A última desigualdade é pelo fato de que como ϕ é convexa não negativa e gi é convexa, para cada

i = 1, . . . ,m, então a função1

2ρiϕt,i(x)2 é convexa e diferenciável, então o gradiente desta função é

um operador monótono, mas o gradiente é dado por:

∇ 1

2ρiϕt,i(x)2 = ϕt,i(x)∇gi(x), (6.1.26)

portanto, JΘbt(x) é denida positiva.

Usando penalidade exponencial

Consideremos agora o algoritmo 5.3.1 com penalização total nos subproblemas. Os subproblemasa resolver em cada iteração do algoritmo 5.3.1 são sistemas KKT-GNEPs de NEPs, usando a notaçãodo caso quadrático fazemos u = (u1, . . . , uN ) ∈ Rm e ρ = (ρ1 . . . , ρ1, . . . , ρN . . . ρN ) ∈ Rm, assim ossubproblemas a resolver em cada iteração são da forma:

Θ(x) = F (x) +

m∑i=1

uieρiGi(x,x)∇yGi(x, x). (6.1.27)

Neste caso, Θ(x) é uma função diferenciável. Resultados análogos ao caso quadrático são dadosno seguinte lema.

Lema 6.1.2. Suponha que as funções fv e gv são de classe C2, para cada v = 1, . . . , N , então ojacobiano de Θ(x) é dado por

JΘ(x) = JF (x) +

m∑i=1

uieρiGi(x,x)ρi∇xGi(x, x)∇TyGi(x, x) +

m∑i=1

uieρiGi(x,x)Jx

(∇TyGi(x, x)

)com Jx

(∇TyGi(x, x)

)=(∇2yyGi(x, x) +∇2

yxGi(x, x)).

Se JF (x) é denido positivo e as matrizes ρi∇xGi(x, x)∇TyGi(x, x)+Jx(∇TyGi(x, x)

)são semi-

denidas positivas, para cada i = 1, . . . ,m, então JΘ(x) é denido positivo.

Demonstração. A prova é elementar.

Consideremos agora o algoritmo 5.3.1 para o cálculo de equilíbrios b-variacionais usando pena-lização total. Temos que o algoritmo resolve em cada iteração um sistema KKT-GNEP da forma:

Θb(x) = Fb(x) +

m∑i=1

uieρigi(x)∇gi(x). (6.1.28)

Temos o seguinte resultado.

Teorema 6.1.5. Suponha que JFb(x) é denida positiva, então JΘb(x) é denida positiva.

Demonstração. Usando a proposição 2.3 de [JQ95] será suciente provar que:

L(x) =

m∑i=1

uieρigi(x)∇gi(x) (6.1.29)

6.1 RESOLVENDO OS SUBPROBLEMAS 85

é monótona. Sejam y, z ∈ Rn temos:

(L(y)− L(z))T (y − z) =

(m∑i=1

uieρigi(y)∇gi(y)−

m∑i=1

uieρigi(z)∇gi(z)

)T(y − z) =

m∑i=1

ui

(eρigi(y)∇gi(y)− eρigi(z)∇gi(z)

)T(y − z) ≥ 0. (6.1.30)

A última desigualdade é pelo fato que a função1

ρiuie

ρigi(x) é convexa e diferenciável, portanto, o

gradiente desta função é um operador monótono, mas o gradiente é dado por:

∇ 1

ρiuie

ρigi(x) = uieρigi(x)∇gi(x), (6.1.31)

portanto, JΘb(x) é denida positiva.

6.1.2 Penalização parcial

Para o caso de penalidade parcial, os métodos para resolver o sistema KKT-GNEP mencionadosno Capítulo 3 podem ser usados. Esses métodos podem ser usados tanto se considerarmos umafunção de penalidade exponencial ou se considerarmos a função de penalidade quadrática suavizada,já que esses métodos exigem que as funções objetivo e as restrições sejam de classe C2. Aqui,comentamos mais uma alternativa de resolução quando os subproblemas são NEPs com restrições.Observamos que no caso de ter NEPs com restrições nos subproblemas, seus sistemas KKT-GNEPtem a mesma forma dos sistemas KKT de VIs, então usando os resultados dados em [FFK98] paraVIs, podemos aplicá-los para resolver os subproblemas.

Consideremos por simplicidade o caso da penalidade exponencial, o caso quadrático pode serconsiderado, mas antes precisa ser suavizado.

Para cada v = 1, . . . , N , os subproblemas a resolver em cada iteração são da forma:

∇xvfv(xv, x−v) +

mv∑i=1

uvi exp(ρvgvi (xv, x−v))∇xvgvi (xv, x−v) +

lv∑j=1

µvj∇hvj (xv) = 0, (6.1.32)

µvj ≥ 0, hvj (xv) ≤ 0, µvjh

vj (x

v) = 0, j = 1, . . . , lv.

Como antes, seja Lv(x, µv) = fv(xv, x−v) + 1ρv∑mv

i=1 uvi [exp(ρvgvi (xv, x−v))− 1] e

F v(x, µv) = fv(xv, x−v) +1

ρv

mv∑i=1

uvi[exp(ρvgvi (xv, x−v))− 1

]+

lv∑j=1

µvjhvj (x

v),

então o sistema anterior é equivalente a:

∇xvF v(x, µv) = 0, (6.1.33)

0 ≤ µv⊥hv(xv) ≤ 0.

Fazendo F (x, µ) = (∇xvF v(x, µv))Nv=1, µ = (µv)Nv=1 e h(x) = (hv(xv))Nv=1 e usando a função deFischer-Burmeister, φ : R2 → R dada por φ(a, b) =

√a+ b − (a + b), os sistemas KKT-GNEP em

cada iteração do algoritmo podem ser reformulados como:

86 RESOLVENDO OS SUBPROBLEMAS E TESTES NUMÉRICOS 6.1

Θ(z) = Θ(x, µ) =

(F (x, µ)

ϕ(µ,−h(x))

)= 0, (6.1.34)

onde ϕ(µ,−h(x)) = (φ(µ1,−h1(x)), . . . , φ(µl,−hl(x))).Assim, o sistema anterior não é diferenciável, mas é Lipschitz contínua. Em [FFK98], os autores

formulam o sistema KKT de um problema de desigualdade variacional como um sistema de equaçõesnão diferenciável análogo a 6.1.34. Usando essa analogia, usamos um resultado dado em [FFK98]para poder obter a estrutura do jacobiano generalizado de ∂Θ.

Lema 6.1.3. Suponha que as funções fv, hv e gv são funções C2, para cada v = 1, . . . , N , entãocada elemento W ∈ ∂Θ(z) é da forma:

W =

[∇xF (x, µ) −∇h(x)Da(z),∇h(x)T Db(z)

]∈ R(n+l)×(n+l), (6.1.35)

onde Da(z) = diag(a1(z), . . . , al(z)), Db(z) = diag(b1(z), . . . , bl(z)) ∈ Rl×l são matrizes diagonaiscom elementos na diagonal dados por:

ai(z) =−hi(x)√hi(x)2 + µ2

i

− 1, bi(z) =µi√

hi(x)2 + µ2i

− 1,

se (hi(x), µi) 6= 0 e porai(z) = ξi − 1, bi(z) = ρi − 1,

para algum (ξi, νi) com ‖(ξi, νi)‖ ≤ 1, se (hi(x), µi) = 0.

Demonstração. Ver [FFK98].

Um resultado mais geral do Lema 6.1.3 para GNEPs pode ser encontrado em [Dre12]. Nossointeresse neste caso é porque sob hipóteses aceitáveis, podemos usar um método de Newton semi-diferenciável.

Esta ideia também foi usada em [YZZ11] para resolver os subproblemas de um método de bar-reira para GNEPs. Seja (x∗, µ∗) uma solução de 6.1.34, Iv(x∗,v) = i ∈ 1, . . . , lv : hvi (x

∗,v) = 0,Iv+(x∗, µ∗,v) =

i ∈ Iv(x∗) : µ∗,0i > 0

e Iv0 (x∗, µ∗,v) =

i ∈ Iv(x∗) : µ∗,0i = 0

.

O cone crítico para o v−ésimo jogador em x∗ é denotado e denido por:

Cv(x∗) = dv ∈ Rnv : ∇xvLv(x∗, µ∗,v)dv = 0,∇xvhvi (x∗,v)dv ≤ 0, i ∈ Iv(x∗,v) , (6.1.36)

como (x∗, µ∗) é uma solução de 6.1.34, temos

Cv(x∗) =dv ∈ Rnv : ∇xvhvi (x∗)dv = 0, i ∈ Iv+(x∗, µ∗,v),∇xvhvi (x∗)dv ≤ 0, i ∈ Iv0 (x∗, µ∗,v)

e seja aff(Cv(x∗)) o fecho am de Cv(x∗).

Por outro lado, temos que:

∇xF (z) =

∇2x1x1F

1(x, µ1) ∇2x1x2F

1(x, µ1) · · · ∇2x1xN

F 1(x, µ1)∇2x2x1F

2(x, µ2) ∇2x2x2F

2(x, µ2) · · · ∇2x2xN

F 2(x, µ2)...

......

...∇2xNx1

FN (x, µN ) ∇2xNx2

FN (x, µN ) · · · ∇2xNxN

FN (x, µN )

.Denição 6.1.1. Seja z∗ = (x∗, µ∗) uma solução de 6.1.34, dizemos que a condição suciente fortede segunda ordem ocorre em (x∗, µ∗) se, para todo d = (dv)Nv=1 ∈

∏Nv=1 aff(Cv(x∗)), temos

dT∇xF (z∗)d > 0, d 6= 0.

6.1 RESOLVENDO OS SUBPROBLEMAS 87

O seguinte resultado é uma adaptação do Teorema 3.4 de [FFK98] dado para VIs.

Teorema 6.1.6. Seja z∗ = (x∗, µ∗) ∈ Rn × Rl uma solução de 6.1.34 e assumamos que:

• x∗ satisfaz LICQ-GNEP (referente as h restrições),

• A condição suciente forte de segunda ordem ocorre em (x∗, µ∗),

então todos os elementos de ∂Φ(z∗) são não singulares.

Demonstração. Ver Teorema 4.3 de [YZZ11].

Finalmente usando este resultado, podemos usar, por exemplo, o algoritmo 6.1.1 para resolveros subproblemas.

6.1.3 Testes numéricos

Para nalizar o trabalho, usando MATLAB implementamos o método de Lagrangiano aumen-tado usando tanto a penalidade quadrática como a exponencial para alguns GNEPs simples. Oobjetivo principal dos exemplos numéricos é mostrar que: nossa aproximação cubica é eciente, queusando a penalidade quadrática em geral se tem convergência mais rápida que usando a penalidadeexponencial e que fazendo uma penalização total pode levar a ter mais iterações no algoritmo quefazendo uma penalização parcial, salientamos que estas armações são dadas de forma empírica.

Exemplo 6.1.1. Consideremos o GNEP 3.2.4.

Jogador 1: minx1

(x1 − 1)2 s.t x1 + x2 ≤ 1

Jogador 2: minx2

(x2 − 1

2)2 s.t x1 + x2 ≤ 1

O conjunto solução do sistema KKT-GNEP é: CS =

(α, 1− α, 2− 2α, 2α− 1) : α ∈

[1

2, 1

]Para o cálculo de equilíbrios arbitrários, usamos os parâmetros inicias umax = u0 = (8, 9),

ρ0 = (9, 10), γ = 10, τ = 0.7 e uma tolerância de ε = 0.01.a.q signica que foi usada uma aproximação quadrática para suavizar os termos não diferencia-

veis, a.c quando é usada uma aproximação cúbica e k representa o número de iterações do algoritmoprincipal.

x0 Penalidade quadrática com a.q Penalidade quadrática com a.ct k x∗ t k x∗

(1,1,2,2) 0.05 3 ( 0.7894, 0.2105 , 0.4211, 0.5791) 0.05 3 ( 0.7894, 0.2105,0.4211,0.5791)(1,1,2,2) 0.025 3 (0.7894, 0.2105, 0.4211, 0.5791) 0.025 3 ( 0.7894, 0.2105,0.4211,0.5791)(5,5,5,5) 0.05 3 ( 0.7862 ,0.2069,0.4276, 0.5862) 0.05 3 (0.7862, 0.2069,0.4276, 0.5862)(5,5,5,5) 0.025 3 (0.7862,0.2069,0.4276,0.5862) 0.025 3 ( 0.7862,0.2069,0.4276, 0.5862)(-2,1,-2,1) 0.05 3 (0.4996, 0.4997, 1.0008, 0) 0.05 3 ( 0.4993,0.5000,1.0014,0)(-2,1,-2,1) 0.025 3 (0.4994, 0.5000, 1.0013, 0) 0.025 3 (0.4994,0.5000 , 1.0013, 0)

Tabela 6.1: Penalidade quadrática.

88 RESOLVENDO OS SUBPROBLEMAS E TESTES NUMÉRICOS 6.1

x0 Penalidade exponencialk x∗

(1,1,2,2) 2 (0.7250, 0.2703,0.5500, 0.4595)(5,5,5,5) 2 (0.7250, 0.2703, 0.5500, 0.4595)(-2,1,-2,1) 2 (0.7250, 0.2703, 0.5500,0.4595)

Tabela 6.2: Penalidade exponencial.

Para o cálculo de equilíbrios variacionais, tomamos os parâmetros inicias umax = u0 = 9,ρ0 = 10, γ = 10, τ = 0.7 e uma tolerância de ε = 0.001.

x0 Penalidade quadrática com a.q Penalidade quadrática com a.ct k x∗ t k x∗

(1,1,2,2) 0.025 3 ( 0.7500, 0.2500, 0.5001,0.5001) 0.025 3 ( 0.7500, 0.2500,0.5001, 0.5001)(1,1,2,2) 0.0125 3 (0.7500, 0.2500, 0.5001, 0.5001) 0.0125 3 ( 0.7500, 0.2500,0.5001, 0.5001)(5,5,5,5) 0.025 4 (0.7497,0.2497,0.5006, 0.5006 ) 0.025 4 (0.7497,0.2497, 0.5006 ,0.5006)(5,5,5,5) 0.0125 4 ( 0.7497,0.2497,0.5006, 0.5006) 0.0125 4 (0.7497,0.2497, 0.5006 ,0.5006)

(-2,1,-1,-1) 0.025 3 ( 0.7500,0.2500,0.5001,0.5001) 0.025 3 (0.7500,0.2500,0.5001, 0.5001)(-2,1,-1,-1) 0.0125 3 (0.7500 0.2500 0.5001 0.5001) 0.0125 3 (0.7500,0.2500,0.5001, 0.5001)

Tabela 6.3: Penalidade quadrática.

x0 Penalidade exponencialk x∗

(1,1,2,2) 3 (0.7500, 0.2500, 0.5001, 0.5001)(5,5,5,5) 3 (0.7500, 0.2500, 0.5001, 0.5001)

(-2,1,-1,-1) 3 (0.7500, 0.2500, 0.5001, 0.5001)

Tabela 6.4: Penalidade exponencial.

Exemplo 6.1.2. Consideremos o GNEP com N = 2 jogadores, e cada jogador controla uma únicavariável xv.

Jogador 1: minx1

(x1)2 − x1x2 − x1 s.t x1 ≥ 0, x1 + x2 ≤ 1

Jogador 2: minx2

(x2)2 − (1/2)x1x2 − 2x2 s.t x2 ≥ 0, x1 + x2 ≤ 1

O conjunto solução é CS =

(α, 1− α) : α ∈[0, 2

3

]. Para o cálculo de pontos de equilíbrio,

usamos os parâmetros inicias umax = u0 = (10, 10, 10, 10), ρ0 = (1, 1), γ = 10, τ = 0.5 e umatolerância de ε = 0.001.

6.1 RESOLVENDO OS SUBPROBLEMAS 89

x0 Penalidade exponencialk x∗

(0,0,0,0,0,0) 60 ( 0.0009,0.9988,0.8294,2.8264, 0, 0.0028)(5,5,5,5,5,5) 60 (0.0009,0.9988, 0.8294, 2.8264, 0, 0.0028)

(-10,10,0,0,0,0) 60 (0.0009, 0.9988, 0.8294, 2.8264, 0, 0.002)

Tabela 6.5: Penalidade exponencial.

Consideremos os seguintes pontos iniciais, x01 = (0, 0, 0, 0, 0, 0), x0

2 = (5, 5, 5, 5, 5, 5) e x03 =

(−10, 10, 0, 0, 0, 0)

x0 Penalidade quadrática com a.q Penalidade quadrática com a.ct k x∗ k x∗

x01 10−4 4 (0.3634,0.6362, 0, 0.9093, 0, 0.9093) 4 ( 0.3634, 0.6362, 0,0.9093,0, 0.9093)x01 10−5 4 (0.3634,0.6362, 0, 0.9093, 0, 0.9093) 4 (0.3634,0.6362, 0,0.9093 , 0 , 0.9093)x02 10−4 5 (0.3634,0.6362, 0, 0.9093, 0, 0.9093 ) 5 (0.3634,0.6362, 0 , 0.9093, 0,0.9093)x02 10−5 5 ( 0.3634,0.6362, 0, 0.9093, 0, 0.9093) 5 (0.3634,0.6362, 0 , 0.9093, 0,0.9093)x03 10−4 7 ( 0.0007,0.9993,7.0023,9.0002, 0 ,0.0018) 7 ( 0.0007,0.9993,7.0023, 9.0002, 0, 0.0018)x03 10−5 7 (0.0007,0.9993,7.0023,9.0002,0,0.0018) 7 (0.0007,0.9993, 7.0023, 9.0002,0, 0.0018)

Tabela 6.6: Penalidade quadrática.

Exemplo 6.1.3. Considere o seguinte GNEP de jogadores convexos, onde cada jogador controlauma única variável xv ∈ R

Jogador 1 : minx1

(x1 − 2)2 s.t x1 + x2 ≤ 1

Jogador 2: minx2

(x2 − 2)2 s.t x1 + x2 ≤ 1, x2 − x1 ≤ 0

O conjunto solução é CS = (α, 1− α) : α ∈[

1

2, 2

]. Para o cálculo de equilíbrios arbitrários,

usamos os parâmetros inicias u0 = (10, 10, 10), ρ0 = (1, 1), γ = 10, τ = 0.5 e uma tolerância deε = 0.0001.

x0 Penalidade quadrática com a.q Penalidade quadrática com a.ct k x∗ k x∗

(0,0,0,0,0) 10−5 8 ( 0.5,0.5,3,3, 0) 8 ( 0.5, 0.5, 3, 3, 0)(10,10,10,10,10) 10−5 8 (0.5235, 0.4765, 2.9529,3.0471, 0) 8 ( 0.5235,0.4765,2.9529, 3.0471, 0)(10,-10,0,0,0) 10−5 8 ( 0.5,0.5,3,3, 0) 8 ( 0.5,0.5,3,3, 0)(-20,-20,1,1,1) 10−5 8 ( 0.5,0.5,3,3, 0) 3 ( 0.5, 0.5, 3, 3, 0)

Tabela 6.7: Penalidade quadrática.

90 RESOLVENDO OS SUBPROBLEMAS E TESTES NUMÉRICOS 6.1

x0 Penalidade exponencialk x∗

(0,0,0,0,0) 5 ( 0.6188, 0.3812, 2.7624, 3.2375, 0.0000)(10,10,10,10,10) 5 (0.6188, 0.3812, 2.7624 ,3.2375, 0.0000)(10,-10,0,0,0) 5 (0.6188, 0.3812, 2.7624 ,3.2375, 0.0000)(-20,-20,1,1,1) 3 (0.6188, 0.3812, 2.7624 ,3.2375, 0.0000)

Tabela 6.8: Penalidade exponencial.

Exemplo 6.1.4. Consideremos o GNEP com 2 jogadores:

Jogador 1 : minx1,x2

(x1)2 + x1x2 + (x2)2 + (x1 + x2)x3 − 25x1 − 38x2

s.t x1 ≥ 0;x2 ≥ 0;x1 + 2x2 − x3 ≤ 14; 3x1 + 2x2 + x3 ≤ 30

Jogador 2 : minx3

(x3)2 + (x1 + x2)x3 − 25x3

s.t x3 ≥ 0;x1 + 2x2 − x3 ≤ 14; 3x1 + 2x2 + x3 ≤ 30

O conjunto solução é CS(GNEP ) = (α, 11− α, 8− α) : α ∈ [0, 2]

Para o cálculo de ENG, usamos os parâmetros inicias u0 = (10, 10, 10, 10, 10, 10, 10), ρ0 = (1, 1),γ = 10, τ = 0.5, tolerância de ε = 0.001 e t = 0.0001.

E consideremos os seguintes pontos iniciais, x01 = (0, 0, 0, 0, 0, 0, 0, 0, 0, 0),

x02 = (10, 10, 10, 10, 10, 10, 10, 10, 10, 10) e x0

3 = (−2,−3,−4, 0, 0, 0, 0, 0, 0, 0).

x0 Penalidade quadrática com a.ct k x∗

x01 10−4 8 (0.0007, 10.9993,7.9991,0.0030, 0, 2.9995, 1.0012,0, 2.9995, 1.0012 )x02 10−4 7 (1.2815, 9.7185, 6.7185,0,0,4.9222 ,0.3593,0 ,2.5329,3.0960 )x03 10−4 8 ( 0.0007, 10.9993,7.9991,0.0030,0,2.9995, 1.0012, 0, 2.9995, 1.0012 )

Tabela 6.9: Penalidade quadrática.

x0 Penalidade exponencialt k x∗

x01 10−4 112 (0.0008,10.9992, 7.9992, 0.0027 , 0, 2.9995, 1.0013, 0, 2.9995, 1.0013 )x02 10−4 112 (0.0008,10.9992, 7.9992, 0.0027 , 0, 2.9995, 1.0013, 0, 2.9995, 1.0013 )x03 10−4 112 (0.0008,10.9992, 7.9992, 0.0027 , 0, 2.9995, 1.0013, 0, 2.9995, 1.0013 )

Tabela 6.10: Penalidade exponencial.

Exemplo 6.1.5. Consideremos o GNEP com 2 jogadores:

Jogador 1 : minx1

(x1 − 10)2 s.t x1 + x2 ≤ 1; x1 ≤ 8,

Jogador 2 : minx2

(x2)2 s.t x2 + x1 ≤ 10;x2 ≤ 1.

6.1 RESOLVENDO OS SUBPROBLEMAS 91

O sistema KKT é:

2(x1 − 10) + l1 + µ1 = 0

2x2 + l2 + µ2 = 0

λ1 ≥ 0, x1 + x2 − 1 ≤ 0, λ1(x1 + x2 − 1) = 0

λ2 ≥ 0, x1 + x2 − 10 ≤ 0, λ2(x1 + x2 − 10) = 0

µ1 ≥ 0, x1 − 8 ≤ 0, µ1(x1 − 8) = 0

µ2 ≥ 0, x2 − 1 ≤ 0, µ2(x2 − 1) = 0

o cojunto solução é CS = (1, 0, 18, 0, 0, 0).

Para este exemplo vamos a considerar três tipos de penalização, usando a função de penalidadequadratica e com uma aproximação cúbica para resolver os subproblemas.

1. Penalizando todas as restrições

Os NEPs em cada iteração são:Jogador 1:

minx1

(x1 − 10)2 +1

2ρ1

(u1

1 + ρ1(x1 + x2 − 1))

++

1

2ρ1

(u1

2 + ρ1(x1 − 8))

+

Jogador 2:

minx2

(x2)2 +1

2ρ2

(u2

1 + ρ2(x1 + x2 − 10)

)+ +

1

2ρ2

(u2

2 + ρ2(x2 − 1) )+

o sistema KKT para resolver em cada iteração é:

2(x1 − 10) +(u1

1 + ρ1(x(1) + x(2)− 1))

++(u1

2 + ρ1(x(1)− 8))

+= 0

2x2 +(u2

1 + ρ2(x(1) + x(2)− 10))

++(u2

2 + ρ1(x(2)− 1))

+= 0

Para os parâmetros seguientes u0 = (1, 2, 1, 2), ρ0 = (50, 60) γ = 9 e τ = 0.6 temos:ε t x0 x∗ Iterações0.01 0.1 (0 , 0, 1, 3, 0, 0) ( 1.0014,0 ,17.9971,0 ,0,0 ) 20.001 0.01 (0, 0 , 1 , 3 ,0 ,0) ( 1,0, 18,0,0,0 ) 40.01 0.1 (2, 1, 1, 1 ,1, 1) ( 1.0014, 0,17.9971,0,0,0 ) 20.001 0.01 (2, 1, 1, 1 ,1, 1) ( 1,0, 18,0,0,0 ) 4

2. Penalizando as restrições compartilhadas

Os NEPs em cada iteração são:

Jogador 1 minx1

(x1 − 10)2 +1

2ρ1max

0, u1

1 + ρ1(x1 + x2 − 1)2

x1 ≤ 8

Jogador 2 minx2

(x2)2 +1

2ρ2max

0, u2

1 + ρ2(x1 + x2 − 10)2

x2 ≤ 1

o sistema KKT é:

92 RESOLVENDO OS SUBPROBLEMAS E TESTES NUMÉRICOS 6.1

2(x1 − 10) + max

0, u1 + ρ1(x(1) + x(2)− 1)

+ µ1 = 0

2x2 + max

0, u2 + ρ2(x(1) + x(2)− 10)

+ µ2 = 0√(x1 − 8)2 + (µ1)2 − (8− x1 + µ1) = 0√(x2 − 1)2 + (µ2)2 − (1− x2 + µ2) = 0

Para os parâmetros seguientes u0 = (1, 2), ρ0 = (50, 60) γ = 9 e τ = 0.6 temos:

ε t x0 x∗ iterações0.01 0.1 (0 , 0, 1, 3, 0, 0) ( 1.0005,0 ,17.9971,0 ,0,0 ) 30.001 0.01 (0, 0 , 1 , 3 ,0 ,0) ( 1.0005,0, 17.9991,0,0,0 ) 30.01 0.1 (2, 1, 1, 1 ,1, 1) ( 1.0005, 0,17.9971,0,0,0 ) 30.001 0.01 (2, 1, 1, 1 ,1, 1) ( 1.0005,0, 17.9991,0,0,0 ) 3

3.Penalizando as restrições individuais e mantendo as restrições compartilhadas

Os GNEPs em cada iteração são:

Jogador 1 minx1

(x1 − 10)2 +1

2ρ1max

0, u1

1 + ρ1(x1 − 8)2

x1 + x2 ≤ 1

Jogador 2 minx2

(x2)2 +1

2ρ2max

0, u2

1 + ρ2(x2 − 1)2

x1 + x2 ≤ 10

o sistema KKT para o GNEP é :

2(x1 − 10) + max

0, u1 + ρ1(x(1)− 8)

+ µ1 = 0

2x2 + max

0, u2 + ρ2(x(2)− 1)

+ µ2 = 0√(x1 + x2 − 1)2 + (µ1)2 − (1− x1 − x2 + µ1) = 0√

(x1 + x2 − 10)2 + (µ2)2 − (10− x2 − x1 + µ2) = 0

Para os parâmetros seguientes u0 = (1, 2), ρ0 = (50, 60) γ = 9 e τ = 0.6 temos:

ε t x0 x∗ iterações0.01 0.1 (0 , 0, 1, 3, 0, 0) ( 1,0 ,18,0 ,0,0 ) 10.001 0.01 (0, 0 , 1 , 3 ,0 ,0) ( 1,0, 18,0,0,0 ) 10.01 0.1 (2, 1, 1, 1 ,1, 1) ( 1, 0,18,0,0,0 ) 10.001 0.01 (2, 1, 1, 1 ,1, 1) ( 1,0, 18,0,0,0 ) 1

Capítulo 7

Conclusões

Nesta tese apresentamos uma análise de condições de qualicação, otimalidade e de um algoritmodo tipo Lagrangiano Aumentado para GNEPs.

Os GNEPs possuem uma estrutura complexa que está associada geralmente com o fato dosconjuntos viáveis dos jogadores não serem xos. Assim, algumas extensões de otimização tem sériasdiculdades. Para outros tipos de problemas como NEPs, desigualdades variacionais, problemascomplementários, problemas de equilíbrio, problemas multiobjetivos, entre outros, as extensões dealgoritmos e de resultados de tipo teórico de otimização parecem ter maior sucesso, já que em todosestes problemas os conjuntos viáveis são xos.

Propriedades qualitativas para GNEPs como condições de qualicação ou condições de otima-lidade são escassos. Geralmente os resultados de tipo qualitativo estão mais focados em provarexistência de soluções. Estudar este tipo de propriedades qualitativas será importante para poderdenir algoritmos mais ecientes para GNEPs no futuro.

Nesta tese apresentamos dois tipos de CQ para GNEPs: as CQ-parcial que tem pouco interesseprático, mas guardam as mesmas relações que suas análogas de otimização; e as CQ-GNEPs quesão mais fortes que as CQ-Parcial, representam melhor a estrutura conjunta dos GNEPs e estãoassociados com a convergência de algoritmos. No entanto as CQ-GNEPs não guardam as mesmasrelações de seus análogos de otimização, em geral, como foi mostrado na tese e também houveramalguns casos que ainda não foram esclarecidos e serão matéria de estudo em futuros trabalhos.

O fato de que AKKT-GNEP não é uma condição de otimalidade para GNEPs faz, entre outrascoisas, que o método Lagrangiano Aumentado para GNEPs possa ter o comportamento de evitarsoluções de um GNEP. Isso é diferente do caso de otimização.

Um preliminar estudo computacional foi também considerado para analisar a performance dométodo, tirando algumas conclusões dos testes numéricos, podemos perceber que nosssa aproxima-ção cúbica para suavizar os subproblemas é eciente, que a penalidade quadrática parece ser maisrapida que a penalidade exponencial, e que fazendo uma penalidade total pode tornar o algoritmomais lento que se consideramos uma penalidade parcial.

7.1 Sugestões para Pesquisas Futuras

Durante o desenvolvimento da tese, várias perguntas e sugestões de pesquisa surgiram relaci-onados tanto com GNEPs como também com outros tipos de problemas relacionados. Entre asprincipais que merecem investigação temos as seguintes.

1. Esclarecer por completo as relações entre as CQ-GNEPs de forma análoga como em oti-mização. Alguns resultados deste trabalho mostram que para GNEPs algumas implicaçõespara CQs de otimização não são satisfeitas. Estabelecer quais destas relações se mantém, porexemplo, ver se QN-GNEP implica error bound-GNEP, é uma boa opção de pesquisa.

2. Procurar condições sequenciais para uma ampla classe de GNEPs seria importante tanto paraum estudo teórico como para construir novos algoritmos.

93

94 CONCLUSÕES

3. Direções de descida em otimização é um conceito útil e importante no desenvolvimento dealguns algoritmos, mas esse conceito não foi ainda estudado para NEPs em geral, poder encon-trar algum tipo de direção de descida para NEPs poderia ser útil para poder desenvolver novosalgoritmos e ao mesmo tempo possam auxiliar na globalização do métodos com convergêncialocal, além que pode proporcionar ideias para sua extensão para GNEPs.

4. Estender os resultados estudados para uma classe mais ampla de problemas como os Problemasde quase-equilíbrio, que nos últimos anos tem sido bastante estudados, tanto do ponto de vistade existência de soluções como de algoritmos para sua resolução.

Referências Bibliográcas

[ABMS07] Roberto Andreani, Ernesto G Birgin, José Mario Martínez e María Laura Schuverdt.On augmented lagrangian methods with general lower-level constraints. SIAM Journalon Optimization, 18(4):12861309, 2007. 14, 15

[AD54] Kenneth J Arrow e Gerard Debreu. Existence of an equilibrium for a competitiveeconomy. Econometrica: Journal of the Econometric Society, páginas 265290, 1954.1

[AHM11] Roberto Andreani, Gabriel Haeser e José Mario Martínez. On sequential optimalityconditions for smooth constrained optimization. Optimization, 60(5):627641, 2011.10, 11

[AHSS12a] Roberto Andreani, Gabriel Haeser, María Laura Schuverdt e Paulo JS Silva. A re-laxed constant positive linear dependence constraint qualication and applications.Mathematical Programming, páginas 119, 2012. 9

[AHSS12b] Roberto Andreani, Gabriel Haeser, María Laura Schuverdt e Paulo JS Silva. Twonew weak constraint qualications and applications. SIAM Journal on Optimization,22(3):11091135, 2012. 9, 10

[AMRS16] Roberto Andreani, José Mario Martínez, Alberto Ramos e Paulo JS Silva. A cone-continuity constraint qualication and algorithmic consequences. SIAM Journal onOptimization, 26(1):96110, 2016. 10, 12, 50

[AMS05a] R Andreani, JM Martínez e ML Schuverdt. The cpld condition of qi and wei impliesthe quasinormality qualication. J. Optim. Theory Appl, 125:473485, 2005. 49

[AMS05b] R Andreani, JM Martínez e ML Schuverdt. On the relation between constant positivelinear dependence condition and quasinormality constraint qualication. Journal ofOptimization Theory and Applications, 125(2):473483, 2005. 9

[AMS10] Roberto Andreani, José Mario Martínez e Benar Fux Svaiter. A new sequential op-timality condition for constrained optimization and algorithmic consequences. SIAMJournal on Optimization, 20(6):35333554, 2010. 70

[Beg50] Edward G Begle. A xed point theorem. Annals of Mathematics, páginas 544550,1950. 38

[Ber99] Dimitri P Bertsekas. Nonlinear programming. Athena scientic Belmont, 1999. 6, 9,14

[BM14] Ernesto G Birgin e José Mario Martínez. Practical augmented Lagrangian methods forconstrained optimization. SIAM, 2014. 9, 16, 17, 63, 64

[BP16] Giancarlo Bigi e Mauro Passacantando. Gap functions for quasi-equilibria. Journal ofGlobal Optimization, 66(4):791810, 2016. 29

95

96 REFERÊNCIAS BIBLIOGRÁFICAS

[BSS13] Mokhtar S Bazaraa, Hanif D Sherali e Chitharanjan M Shetty. Nonlinear programming:theory and algorithms. John Wiley & Sons, 2013. 7

[BZZ06] Michele Breton, Georges Zaccour e Mehdi Zahaf. A game-theoretic formulation of jointimplementation of environmental projects. European Journal of Operational Research,168(1):221239, 2006. 40

[Deb52] Gerard Debreu. A social equilibrium existence theorem. Proceedings of the NationalAcademy of Sciences, 38(10):886893, 1952. 1

[DFFH14] Axel Dreves, Francisco Facchinei, Andreas Fischer e Markus Herrich. A new errorbound result for generalized nash equilibrium problems and its algorithmic application.Computational Optimization and Applications, 59(1-2):6384, 2014. 36, 37

[DFKS11] Axel Dreves, Francisco Facchinei, Christian Kanzow e Simone Sagratella. On thesolution of the kkt conditions of generalized nash equilibrium problems. SIAM Journalon Optimization, 21(3):10821108, 2011. 36, 37

[DG17] Axel Dreves e Matthias Gerdts. A generalized nash equilibrium approach for optimalcontrol problems of autonomous cars. 07 2017. 38

[DJS13] Dominik Dorsch, H Th Jongen e Vladimir Shikhman. On structure and computationof generalized nash equilibria. SIAM Journal on Optimization, 23(1):452474, 2013.44

[Dre12] Axel Dreves. Globally convergent algorithms for the solution of generalized nashequilibrium problems. 2012. 32, 86

[Dre16a] Axel Dreves. Improved error bound and a hybrid method for generalized nash equili-brium problems. Computational Optimization and Applications, 65(2):431448, 2016.36

[Dre16b] Axel Dreves. Uniqueness for quasi-variational inequalities. Set-Valued and VariationalAnalysis, 24(2):285297, 2016. 38

[Dre17] Axel Dreves. Computing all solutions of linear generalized nash equilibrium problems.Mathematical Methods of Operations Research, 85(2):207221, 2017. 24

[DSM16] Axel Dreves e Nathan Sudermann-Merx. Solving linear generalized nash equilibriumproblems numerically. Optimization Methods and Software, 31(5):10361063, 2016. 24,38

[Dut13] Christophe Dutang. Existence theorems for generalized nash equilibrium problems: ananalysis of assumptions. 2013. 38

[DvHKF13] Axel Dreves, Anna von Heusinger, Christian Kanzow e Masao Fukushima. A globalizednewton method for the computation of normalized nash equilibria. Journal of GlobalOptimization, páginas 114, 2013. 32

[ESS16] Nélida Echebest, María Daniela Sánchez e María Laura Schuverdt. Convergence resultsof an augmented lagrangian method using the exponential penalty function. Journalof Optimization Theory and Applications, 168(1):92108, 2016. 73

[FFH14] Francisco Facchinei, Andreas Fischer e Markus Herrich. An lp-newton method: nons-mooth equations, kkt systems, and nonisolated solutions. Mathematical Programming,146(1-2):136, 2014. 37, 82

REFERÊNCIAS BIBLIOGRÁFICAS 97

[FFK98] Francisco Facchinei, Andreas Fischer e Christian Kanzow. Regularity properties of asemismooth reformulation of variational inequalities. SIAM Journal on Optimization,8(3):850869, 1998. 85, 86, 87

[FFP07] Francisco Facchinei, Andreas Fischer e Veronica Piccialli. On generalized nash gamesand variational inequalities. Operations Research Letters, 35(2):159164, 2007. 28, 38

[FFP09] Francisco Facchinei, Andreas Fischer e Veronica Piccialli. Generalized nash equilibriumproblems and newton methods. Mathematical Programming, 117(1):163194, 2009. 36,37

[FHIS16] Andreas Fischer, Markus Herrich, Alexey F Izmailov e Mikhail V Solodov. A globallyconvergent lp-newton method. SIAM Journal on Optimization, 26(4):20122033, 2016.82, 83

[FHS14] Andreas Fischer, Markus Herrich e Klaus Schönefeld. Generalized nash equilibriumproblems-recent advances and challenges. Pesquisa Operacional, 34(3):521558, 2014.1, 38, 39

[FK10a] Francisco Facchinei e Christian Kanzow. Generalized nash equilibrium problems. An-nals of Operations Research, 175(1):177211, 2010. 1

[FK10b] Francisco Facchinei e Christian Kanzow. Penalty methods for the solution of gene-ralized nash equilibrium problems. SIAM Journal on Optimization, 20(5):22282253,2010. 32, 33, 34, 45

[FL11] Francisco Facchinei e Lorenzo Lampariello. Partial penalization for the solution ofgeneralized nash equilibrium problems. Journal of Global Optimization, 50(1):3957,2011. 32, 34

[FP06] Francisco Facchinei e Jong-Shi Pang. Exact penalty functions for generalized nashproblems. Em Large-scale nonlinear optimization, páginas 115126. Springer, 2006.32, 33

[FPS11] Francisco Facchinei, Veronica Piccialli e Marco Sciandrone. Decomposition algo-rithms for generalized potential games. Computational Optimization and Applications,50(2):237262, 2011. 25, 38

[Fuk11] Masao Fukushima. Restricted generalized nash equilibria and controlled penalty algo-rithm. Computational Management Science, 8(3):201218, 2011. 32, 33, 45

[Gli52] Irving L Glicksberg. A further generalization of the kakutani xed theorem, withapplication to nash equilibrium points. Proceedings of the American MathematicalSociety, 3(1):170174, 1952. 21, 22

[GT71] FJ Gould e Jon W Tolle. A necessary and sucient qualication for constrainedoptimization. SIAM Journal on Applied Mathematics, 20(2):164172, 1971. 8

[Gui69] Monique Guignard. Generalized kuhntucker conditions for mathematical program-ming problems in a banach space. SIAM Journal on Control, 7(2):232241, 1969.8

[Hae16] Gabriel Haeser. Condições de otimalidade de primeira e segunda ordem em otimizaçãonão linear. SBMAC, 2016. 10, 11, 46

[Hes69] Magnus R Hestenes. Multiplier and gradient methods. Journal of optimization theoryand applications, 4(5):303320, 1969. 14

98 REFERÊNCIAS BIBLIOGRÁFICAS

[HWW12] Jian Hou, Zong-Chuan Wen e Zhu Wen. A variational inequality method for computinga normalized equilibrium in the generalized nash game. Journal of Inequalities andApplications, 2012(1):60, 2012. 28

[HZQX12] Deren Han, Hongchao Zhang, Gang Qian e Lingling Xu. An improved two-step methodfor solving generalized nash equilibrium problems. European Journal of OperationalResearch, 216(3):613623, 2012. 28

[IS14a] A IZMAILOV e M SOLODOV. Otimização vol. 2: Condições de otimzalidade, métodoscomputacionais, 2014. 13, 14

[IS14b] Alexey F Izmailov e Mikhail V Solodov. On error bounds and newton-type methods forgeneralized nash equilibrium problems. Computational Optimization and Applications,59(1-2):201218, 2014. 36, 37

[Jan84] Robert Janin. Directional derivative of the marginal function in nonlinear program-ming. Sensitivity, Stability and Parametric Analysis, páginas 110126, 1984. 9

[JQ95] HY Jiang e LQ Qi. Local uniqueness and convergence of iterative methods for nons-mooth variational inequalities. Journal of Mathematical Analysis and Applications,196(1):314331, 1995. 83, 84

[K+41] Shizuo Kakutani et al. A generalization of brouwer's xed point theorem. 1941. 38

[Kan16] Christian Kanzow. On the multiplier-penalty-approach for quasi-variational inequali-ties. Mathematical Programming, 160(1-2):3363, 2016. 2, 45, 64, 79, 80

[KF10] Katsunori Kubota e Masao Fukushima. Gap function approach to the generalized nashequilibrium problem. Journal of optimization theory and applications, 144(3):511531,2010. 32

[Kon16] IV Konnov. Shares allocation methods for generalized game problems with joint cons-traints. Set-Valued and Variational Analysis, 24(3):499516, 2016. 29

[KS16] Christian Kanzow e Daniel Steck. Augmented lagrangian methods for the solution ofgeneralized nash equilibrium problems. SIAM Journal on Optimization, 26(4):20342058, 2016. 2, 45, 48, 49, 50, 63, 66, 68

[LL13] Peiyu Li e Guihua Lin. Solving a class of generalized nash equilibrium problems. J.Math. Res. Appl, 33(3):372378, 2013. 38

[MF67] Olvi L Mangasarian e Stanley Fromovitz. The fritz john necessary optimality condi-tions in the presence of equality and inequality constraints. Journal of MathematicalAnalysis and applications, 17(1):3747, 1967. 9

[MS95] José Mario Martnez e Sandra Augusta Santos. Métodos computacionais de otimização.Colóquio Brasileiro de Matemática, Apostilas, 20, 1995. 14

[MS03] Joseé Mario Martínez e Benar Fux Svaiter. A practical optimality condition withoutconstraint qualications for nonlinear programming. Journal of Optimization Theoryand Applications, 118(1):117133, 2003. 10

[MS11] Leonid Minchenko e Sergey Stakhovski. On relaxed constant rank regularity conditionin mathematical programming. Optimization, 60(4):429440, 2011. 9

[MSY12] Luiz Carlos Matioli, Wilfredo Sosa e Jinyun Yuan. A numerical algorithm for ndingsolutions of a generalized nash equilibrium problem. Computational Optimization andApplications, 52(1):281, 2012. 29

REFERÊNCIAS BIBLIOGRÁFICAS 99

[N+50] John F Nash et al. Equilibrium points in n-person games. Proceedings of the nationalacademy of sciences, 36(1):4849, 1950. 1, 20

[Nas51] John Nash. Non-cooperative games. Annals of mathematics, páginas 286295, 1951.20, 21

[NFS16] Anna Nagurney, Emilio Alvarez Flores e Ceren Soylu. A generalized nash equilibriumnetwork model for post-disaster humanitarian relief. Transportation research part E:logistics and transportation review, 95:118, 2016. 38

[NI55] Hukukane Nikaidô e Kazuo Isoda. Note on non-cooperative convex game. PacicJournal of Mathematics, 5(5):807815, 1955. 29

[NMFDS16] Mostafa Nasri, Luiz Carlos Matioli, Euda Mara Da Silva Ferreira e Adilson Da Silveira.Implementation of augmented lagrangian methods for equilibrium problems. Journalof Optimization Theory and Applications, 168(3):971991, 2016. 80, 83

[Par15] Sehie Park. Existence theorems for generalized nash equilibrium problems. BangmodInt. J. Math. Comp. Sci. l (l). http://bangmod-jmcs. kmutt. ac. th, 2015. 38

[PF05] Jong-Shi Pang e Masao Fukushima. Quasi-variational inequalities, generalized nashequilibria, and multi-leader-follower games. Computational Management Science,2(1):2156, 2005. 32, 33, 45

[Pow67] Michael JD Powell. "A method for non-linear constraints in minimization problems".UKAEA, 1967. 14

[QLZ07] Biao Qu, Jing Li e Zhifeng Zhao. A hybrid method for the generalized nash equilibria.International Journal of Nonlinear Science, 4(2):135140, 2007. 32

[QW00] Liqun Qi e Zengxin Wei. On the constant positive linear dependence condition and itsapplication to sqp methods. SIAM Journal on Optimization, 10(4):963981, 2000. 9

[QZ13] Biao Qu e Jing Zhao. Methods for solving generalized nash equilibrium. Journal ofApplied Mathematics, 2013, 2013. 32

[Roc74] R Tyrrell Rockafellar. Augmented lagrange multiplier functions and duality in non-convex programming. SIAM Journal on Control, 12(2):268285, 1974. 14

[RW09] R Tyrrell Rockafellar e Roger J-B Wets. Variational analysis, volume 317. SpringerScience & Business Media, 2009. 8, 43

[SM16] Nathan Georg Sudermann-Merx. Linear generalized nash equilibrium problems. 2016.38

[Sol10] Mikhail V Solodov. Constraint qualications. Wiley Encyclopedia of Operations Re-search and Management Science, 2010. 10

[SSM16] Oliver Stein e Nathan Sudermann-Merx. The cone condition and nonsmoothnessin linear generalized nash games. Journal of Optimization Theory and Applications,170(2):687709, 2016. 24

[SVN+13] Jean Jacques Strodiot, Thi Thu Van Nguyen et al. A new class of hybrid extragradientalgorithms for solving quasi-equilibrium problems. Journal of Global Optimization,56(2):373397, 2013. 29

[vHK09] Anna von Heusinger e Christian Kanzow. Optimization reformulations of the gene-ralized nash equilibrium problem using nikaido-isoda-type functions. ComputationalOptimization and Applications, 43(3):353377, 2009. 30, 31, 32

100 REFERÊNCIAS BIBLIOGRÁFICAS

[VNM07] John Von Neumann e Oskar Morgenstern. Theory of games and economic behavior.Princeton university press, 2007. 1

[VSNV17] NTT Van, JJ Strodiot, VH Nguyen e PT Vuong. An extragradient-type method forsolving nonmonotone quasi-equilibrium problems. Optimization, páginas 114, 2017.29

[YZZ11] Yanhong Yuan, Hongwei Zhang e L.W. Zhang. A penalty method for generalized nashequilibrium problems. 8:5165, 02 2011. 32, 33, 86, 87