aproximação da norma de corte via eric ossami endocpg/teses/dissertacaoericossamiendo.pdf · que,...

65

Upload: truonganh

Post on 01-Dec-2018

217 views

Category:

Documents


0 download

TRANSCRIPT

Aproximação da Norma de Corte via

Desigualdade de Grothendieck

Eric Ossami Endo

Dissertação apresentadaao

Instituto de Matemática e Estatísticada

Universidade de São Paulopara

obtenção do títulode

Mestre em Ciências

Programa: Matemática

Orientador: Prof. Dr. Yoshiharu Kohayakawa

Durante o desenvolvimento deste trabalho o autor recebeu auxílio nanceiro da CNPq

São Paulo, abril de 2014

ii

Aproximação da Norma de Corte via

Desigualdade de Grothendieck

Esta é a versão original da dissertação elaborada pelo

candidato Eric Ossami Endo, tal como

submetida à Comissão Julgadora.

iv

Agradecimentos

Agradeço primeiro ao Prof. Dr. Yoshiharu Kohayakawa, pela orientação desde a iniciação cien-

tíca, sempre me mostrando quão interessante e bela é a matemática e a combinatória.

Agradeço fortemente a todos os professores que tive desde a minha infância até hoje, pois eles

que me deram a base para a formação prossional e educacional do meu futuro.

Deixo um grande agradecimento aos meus amigos, Guilherme de Oliveira Mota, Luis Fernando

Ragognette e Max Reinhold Jahnke, por terem tempo e paciência para me ajudar nesta dissertação

e terem me concedido dicas valiosas.

Não deixo de agradecer a todos os meus amigos que estiveram presentes durante a minha vida

de graduação e mestrado.

Agradeço ao Vinícius Morelli Cortes por ser um grande companheiro desde o primeiro dia de

aula da graduação, enfrentando juntos diversos desaos acadêmicos ao longo dos semestres.

Ao André Ottenbreit Maschio Rodrigues por sempre me indicar diversos animes e mangás, e

sempre me convidar para o karaokê para divertir e tirar o estresse.

Aos membros do Laboratório de Otimização, Combinatória e Algoritmos do CCSL, por sempre

me convidar para estudar artigos cientícos e para assistir diversas palestras.

Aos membros do NUMEC, por terem equipamentos, computadores e um lugar aconchegante

para estudar e pesquisar.

Aos membros do grupo Grafões, que sempre tem novidades para obtermos novos conhecimentos

tanto em teoria dos Grafos quanto em LaTeX.

Agradeço aos meus pais, Julio Kojiro Endo e Maria Angélica Kinoshita Endo, que sempre cuidam

de mim com muito amor, me guiando para o caminho do sucesso; e à minha irmã, Lucy Yuko Endo,

que, apesar de ser mais nova, me serve de exemplo.

A Júlia Kyomi Yabiku, agradeço por sempre cuidar de mim, e sempre estar ao meu lado durante

os momentos difíceis de cada etapa do meu mestrado.

Agradeço também ao CNPq pelo nanciamento, que me permitiu dedicação integral ao estudo

da Matemática.

i

ii

Resumo

ENDO, E. O. Aproximação da Norma de Corte via Desigualdade de Grothendieck. 2014.

120 f. Dissertação (Mestrado) - Instituto de Matemática e Estatística, Universidade de São Paulo,

São Paulo, 2014.

Neste trabalho, objetivamos apresentar o Teorema de Alon a Naor o qual arma que existe um

algoritmo de aproximação para a norma de corte de uma matriz qualquer, sendo que a garantia de

desempenho desse algoritmo é a inversa da constante de Grothendieck.

Introduzimos a norma de corte de uma matriz e exibimos algumas de suas propriedades. Uma

delas é que a norma de corte é equivalente à uma outra norma, o qual é valor ótimo de um programa

inteiro quadrático que pode ser relaxado por um programa semidenido.

Além do Teorema de Alon e Naor, construímos mais dois algoritmos de aproximação para a

norma de corte. Ambas possuem garantia de desempenho inferior que a do Teorema de Alon e

Naor, porém as técnicas que foram utilizadas para obter tais algoritmos são interessantes.

Enunciamos a Desigualdade e Grothendieck reformulada por Lindenstrauss e Peªcýnski e mos-

tramos uma cota superior para a constante de Grothendieck que se baseia no Argumento de Krivine.

Finalmente, apresentamos três aplicações do Teorema de Alon e Naor: em corte máximo de

um grafo; na versão algorítmica do Lema da Regularidade de Szemerédi; e no Teorema de Frieze e

Kannan.

Palavras-chave: Norma de Corte, Desigualdade de Grothendieck, Algoritmos de Aproximação,

programa semidenido.

iii

iv

Abstract

ENDO, E. O. Approximation of the cut-norm via Grothendieck's Inequality. 2014. 120 f.

Dissertação (Mestrado) - Instituto de Matemática e Estatística, Universidade de São Paulo, São

Paulo, 2014.

In this work, our objective is to present Alon and Naor's Theorem, which states that exist an

approximation algorithm for cut-norm of any matrix, and that the aproximation guarantee of this

algorithm is the inverse of the Grothendieck's constant.

We introduce the cut-norm of a matrix and we show some of its properties. One is that the

cut-norm is equivalent of some other norm which is optimum value of quadratic integer program

which can be relaxed for a semidenite program.

Beyond Alon and Naor's Theorem, we construct two more approximation algorithm for cut-

norm. The approximation guarantee of both is inferior than the Alon and Naor's Theorem, but the

techniques for obtain such algorithms is interesting.

We show Grothendieck's Inequality reformulated by Lindenstrauss e Peªcýnski and we show an

upper bound for the Grothendieck's constant which is based on Krivine's Argument.

Furthermore, we show three applications of Alon and Naor's Theorem: Maximum cut of a graph,

algorithmic version of Szemerédi Regularity Lemma, and Frieze and Kannan's Theorem.

Keywords: Cut-norm, Grothendieck's Inequality, Approximation Algorithm, Semidenite Pro-

gram.

v

vi

Sumário

Lista de Símbolos ix

1 Introdução 1

1.1 Outras aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.2 Apresentação deste trabalho . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2 Conceitos Básicos 3

2.1 Matriz Positiva Semidenida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2.2 Método da Eliminação Gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2.3 Programação Semidenida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.4 Método do elipsóide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.5 Grafos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.6 Complexidade Computacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.7 Algoritmo de Aproximação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.8 Corte de grafo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3 Norma de Corte 19

3.1 A norma de corte e suas propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3.2 Aproximação determinística da norma de corte . . . . . . . . . . . . . . . . . . . . . 23

3.3 Melhorando a garantia de desempenho . . . . . . . . . . . . . . . . . . . . . . . . . . 28

4 Desigualdade de Grothendieck 31

4.1 Argumento de Krivine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

4.2 Aproximação da norma de corte via Desigualdade de Grothendieck . . . . . . . . . . 35

5 Aplicações da Norma de Corte 39

5.1 Relação entre norma de corte e corte de grafo . . . . . . . . . . . . . . . . . . . . . . 39

5.2 Lema da Regularidade de Szemerédi . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

5.3 Decomposição Matricial de Frieze e Kannan . . . . . . . . . . . . . . . . . . . . . . . 44

Referências Bibliográcas 47

vii

viii SUMÁRIO

Lista de Símbolos

[n] = 1, . . . , n

Q : Conjunto dos números racionais

R : Conjunto dos números reais

R≥0 : Conjunto dos números reais não-negativos

Sn : Esfera de raio unitário em Rn com centro na origem

ix

x LISTA DE SÍMBOLOS

Capítulo 1

Introdução

A norma de corte de uma matriz real A = (aij) do tipo m× n, denotada por ‖A‖cut, é o maiorvalor de |

∑i∈I,j∈J aij | sobre todo I ⊆ [m] e J ⊆ [n].

Em 2006, Alon e Naor [AN06] mostraram que o problema de aproximar a norma de corte de umamatriz é MAX SNP-difícil, mostrando que para todo grafo G existe uma matriz A tal que a normade corte de A é igual ao corte máximo de G. Ademais, forneceram um algoritmo de aproximaçãoem tempo polinomial para a norma de corte. Esse algoritmo encontra, para toda matriz A = (aij)do tipo m× n, dois subconjuntos S0 ⊂ [m] e T0 ⊂ [n] tais que∣∣∣∣∣∣∣∣

∑i∈S0j∈T0

aij

∣∣∣∣∣∣∣∣ ≥ ρ‖A‖cut,onde ρ > 0.56 é uma constante que não depende da matriz A.

Frieze e Kannan em [FK96a] introduziram a norma de corte para obter uma versão mais fracado Lema de Regularidade de Szemerédi [Sze78]. Eles estavam interessados em procurar tal versãodesse lema pelo fato de Gowers ter provado [Gow97] que, em alguns casos, o número de partes dapartição obtida no Lema da Regularidade de Szemerédi cresce na ordem de uma torre de expoentesde tamanho polinomial. Portanto, se fez necessário desenvolver versões mais fracas do lema de formaque um computador possa obter as constantes, que não podem ser muito grandes.

Recordemos que o Lema da Regularidade de Szemerédi é um lema fundamental na teoria dosgrafos. Foi enunciado e provado por Szemerédi com o objetivo de provar uma Conjectura de Erd®se Turán [ET36] que arma que existem progressões aritméticas de comprimento arbitrariamentegrande em subconjuntos sucientemente densos dos inteiros. O Lema da Regularidade de Szemerédiarma que, de modo geral, o conjunto dos vértices de qualquer grafo pode ser particionado emsubconjuntos de vértices V1, . . . , Vk tais que quase todos seus grafos bipartidos induzidos (Vi, Vj) secomportam como grafos aleatórios (veja Seção 5.2).

O algoritmo de aproximação de Alon e Naor se baseia na Desigualdade de Grothendieck. Essadesigualdade, provada por Grothendieck em [Gro53], é uma poderosa ferramenta de análise funcionalque possui diversas aplicações em várias áreas, como em C∗-álgebra [Pis86], mecânica quântica[Tsi85], teoria da informação quântica [PGWP+08] e ciência da computação [AN06]. Podemosdescrever informalmente que a Desigualdade de Grothendieck é uma relação não-trivial entre espaçosde Hilbert e dois espaços de Banach fundamentais L∞, L1. O algoritmo de aproximação de Alone Naor possui inúmeras aplicações. Uma delas é a melhoria do algoritmo de Frieze e Kannan.Enquanto o algoritmo de Frieze e Kannan é relevante somente para instâncias densas, o algoritmode Alon e Naor pode ser aplicado para qualquer matriz.

1

2 INTRODUÇÃO 1.2

1.1 Outras aplicações

Veremos na Seção 3.1 que a norma de corte é equivalente à norma

‖A‖∞→1 = maxεi,δj∈−1,1

m∑i=1

n∑j=1

aijεiδj ,

que possui um signicado em mecânica estatística. Podemos utilizá-la para encontrar um estado debaixa energia1 do modelo de Ising, um modelo ferromagnético da mecânica estatística. O trabalhonessa direção pode ser encontrado em [WS11].

Uma outra aplicação do Teorema de Alon e Naor aparece na Biologia Computacional Molecular.Ao tentar identicar grupo de genes com comportamento correlacionado estatisticamente signica-tivo em diversos experimentos, deseja-se resolver um certo problema de biclustering. Veja [TSKS04]e [TSS02] para mais informações. O problema computacional aqui é encontrar ecientemente, dadauma matriz cujas entradas são logaritmos de certas probabilidades, uma submatriz com maior valor(aproximadamente) da soma total das entradas.

Há diversas outras aplicações da Desigualdade de Grothendieck na teoria da computação,como em otimização [Nes98] [NRT99] [Meg01], machine learning [KN09] [KN13], teoria de siste-mas [BTN02], complexidade de comunicação [LS07], teoria da informação quântica [Tsi85] [RT10],e complexidade computacional [KO09] [KN08] [RS09].

1.2 Apresentação deste trabalho

O objetivo deste trabalho é apresentar o Teorema de Alon e Naor e expor algumas de suasaplicações.

No Capítulo 2 introduzimos as notações e os conceitos básicos que serão utilizados ao longodo trabalho. Faremos um breve resumo sobre matrizes positivas semidenidas, noções básicas deprogramação linear, de algoritmos de aproximação e de grafos.

No Capítulo 3 denimos a norma de corte e apresentaremos algumas de suas propriedades.Apresentaremos três resultados de otimização convexa, dois resultados são de Grötschel, Lovásze Schrijver [GLS81] e ou outro de Yudin e Nemirovskii [YN76]. Aplicamos um dos resultados emprogramas semidenidos para obter um algoritmo em tempo polinomial que calcula aproximada-mente o valor ótimo do programa semidenido. Apresentamos dois algoritmos de aproximação emtempo polinomial que produzem, para toda matriz A = (aij) do tipo m×n, inteiros εi, δj ∈ −1, 1com 1 ≤ i ≤ m e 1 ≤ j ≤ n tais que

∑mi=1

∑nj=1 aijεiδj ≥ ρ‖A‖∞→1. Na Seção 3.2 apresentamos o

algoritmo com ρ = 0.03, e na Seção 3.3, o algoritmo com ρ = 0.27.No Capítulo 4 apresentamos o objetivo principal: provar o Teorema de Alon e Naor [AN06]

que arma que existe um algoritmo em tempo polinomial tal que, para toda matriz A = (aij) dotipo m × n, encontra subconjuntos S0 ⊆ [m] e T0 ⊆ [n] tais que |

∑i∈S0,j∈T0 aij | ≥ K−1

G ‖A‖cut,onde KG é a constante de Grothendieck. Apresentamos também a Desigualdade de Grothendieck esua a prova feita em [AN06].

No Capítulo 5, apresentamos aplicações do Teorema de Alon e Naor. Serão três aplicações:problema de corte máximo de um grafo; Lema da Regularidade de Szemerédi; e Teorema de Friezee Kannan. Na Seção 5.1 demonstramos que o problema de calcular a norma de corte de um grafoarbitrário é MAX SNP-difícil. As principais fontes para esses capítulos foram os artigos [KRT03],[ADL+94], [FK96a], [KN12], [DKM+12].

1O termo baixa energia é usualmente denominado ground state na literatura acadêmica.

Capítulo 2

Conceitos Básicos

O objetivo deste capítulo é revisar alguns conceitos básicos e xar notações. Vários dos conceitosapresentados em cada seção serão introdutórios, sem se preocupar com formalismos.

Na Seção 2.1 recordamos propriedades de matrizes positivas semidenidas, e mostramos algu-mas de suas equivalências. Na Seção 2.2 recordamos brevemente o método da eliminação Gaussiana,e obtemos um algoritmo em tempo polinomial que decide se uma matriz é positiva semidenidaa partir do método. Na Seção 2.3 introduzimos programação semidenida e apresentamos algunsexemplos. Na Seção 2.4 apresentamos três resultados de otimização convexa que arma que, demodo geral, existe um método em tempo polinomial que calcula, com precisão arbitrariamente boa,o maior valor de um funcional linear sobre um conjunto convexo. Aplicaremos um dos resultadospara obter tal algoritmo em programas semidenidos. Na Seção 2.5 deniremos o conceito de grafo,grafo orientado e algumas notações. Na Seção 2.6 introduzimos o conceito de complexidade com-putacional, e apresentamos exemplos para cada classe de complexidade exibida na seção. Na Seção2.7 denimos algoritmo de aproximação, o esquema de aproximação em tempo polinomial e a classede complexidade MAX SNP-difícil. Na Seção 2.8 apresentamos problemas de corte de um grafo ealguns de seus resultados.

2.1 Matriz Positiva Semidenida

Trabalhamos apenas com matrizes reais. Os elementos de Rn são vetores-coluna, e assumimosque todas as matrizes quadradas são do tipo n×n, salvo algumas exceções, e nesse caso o tipo seráexibido. Denotemos por M(m,n) o conjunto das matrizes do tipo m× n.

Seja A uma matriz quadrada. A inversa de A é uma matriz denotada por A−1 tal que A−1A =AA−1 = I, onde I é a matriz identidade. Um autovetor de A é um vetor v em Rn tal que Av éparalelo ao vetor v, em outras palavras, existe um real λ tal que Av = λv. O número λ é chamado deautovalor de A associado ao autovetor v. Claramente λ é autovalor se, e somente se, a matriz A−λIé não-singular, isto é, não possui inversa, ou equivalentemente, satisfaz det(A−λI) = 0. Note que odeterminante de A−λI é um polinômio de grau n, logo a matriz A possui no máximo n autovalores,incluindo as multiplicidades.

O traço da matriz quadrada A = (aij) é denido por

tr(A) =

n∑i=1

aii.

O produto interno usual de duas matrizes quadradas A = (aij), B = (bij) é denido por

〈A,B〉 = tr(AtB) =n∑i=1

n∑j=1

aijbij

onde At é a transposta da matriz A. A norma ‖A‖F =√〈A,A〉 é chamada de norma de Frobenius.

3

4 CONCEITOS BÁSICOS 2.1

Uma matriz A é dita ortogonal se os vetores-colunas formam uma base ortonormal de Rn, eé dita simétrica se A = At. Claramente, toda matriz simétrica é quadrada. Denotemos por Sn oconjunto de todas as matrizes simétricas do tipo n×n. Uma matriz A = (aij) é diagonal se aij = 0para todo i 6= j.

Se a matriz A é simétrica, então existem n autovalores de A, contando com as multiplicida-des. Um dos principais resultados sobre autovalores e autovetores é conhecido por Teorema daDecomposição Espectral.

Teorema 1. Toda matriz simétrica A pode ser decomposta como

A =n∑i=1

λivivti ,

onde λ1, . . . , λn ∈ R são os autovalores de A, e v1, . . . , vn ∈ Rn são os autovetores de A correspon-dentes que formam uma base ortonormal em Rn. Em termo matricial, toda matriz simétrica A podeser escrita como W tDW , onde W é uma matriz ortogonal cujas colunas são autovetores de A e Dé uma matriz diagonal cujas entradas da diagonal são autovalores de A.

Podemos ver a prova do Teorema 1 em [HK71].Um menor simétrico de uma matriz simétrica A é uma matriz B obtida da seguinte forma:

Considere [n] o conjunto dos índices das linhas e das colunas de A. Existe R ⊆ [n] tais que B =(blk) = (ailjk), onde ij , jk ∈ R. Um menor simétrico é dito menor principal se R = 1, . . . , t paraalgum 1 ≤ t ≤ n. Uma matriz simétrica A é dita positiva semidenida se todo autovalor de A énão-negativo. Essa propriedade será denotada por A 0. Denotemos por Sn0 o conjunto de todasas matrizes positivas semidenidas do tipo n× n.

A proposição abaixo apresenta caracterizações das matrizes positivas semidenidas.

Proposição 2. Seja A uma matriz simétrica. São equivalentes:

(i) A matriz A é positiva semidenida;

(ii) Existe uma matriz quadrada U tal que A = U tU ;

(iii) Para todo x ∈ Rn, o valor xtAx é não-negativo;

(iv) O determinante de todo menor simétrico da matriz A é não-negativo.

Demonstração. Mostremos que (i) implica (ii). Sejam W uma matriz ortogonal cujas colunas sãoautovetores de A e D a matriz diagonal cujas entradas da diagonal são autovalores de A. Temosque A = W tDW . Como as entradas da diagonal de D são os autovalores de A e são não-negativos,existe uma matriz diagonal C tal que D = C2. Claramente C é simétrica. Assim

A = W tDW = W tCCW = (CW )t(CW ),

como queríamos.Mostremos que (ii) implica (iii). Sejam x ∈ Rn um vetor qualquer e U uma matriz satisfa-

zendo A = U tU . TemosxtAx = xt(U tU)x = (Ux)t(Ux) ≥ 0,

como queríamos.Mostremos que (iii) implica (i). Sejam λ um autovalor de A e v um autovetor de A associado

ao autovalor λ. Temos0 ≤ vtAv = v(λv) = λvtv.

Como vtv ≥ 0, concluímos que λ ≥ 0.

2.1 MATRIZ POSITIVA SEMIDEFINIDA 5

Mostremos que (ii) implica (iv). Sejam R ⊆ [n] e B o menor simétrico de A do tipo R × R.Sejam U uma matriz de A tal que A = U tU , e V a matriz obtida de U tomando somente as colunasem R. Temos

det(B) = det(V tV ) = det(V )2 ≥ 0.

Mostremos que (iv) implica (i) pela contrapositiva. Suponhamos que existe um autovetor v de Atal que o autovalor associado é λ < 0.

Se A possui somente um autovalor negativo, então det(A) = det(W tDW ) = det(D) < 0,onde W é a matriz ortogonal cujas colunas são autovetores de A e D é a matriz diagonal cujasentradas da diagonal são autovalores de A. Neste caso não há nada para fazer. Suponha que existeum autovetor w linearmente independente de v tal que o autovetor associado é µ < 0. Considereum real s ∈ R tal que o vetor u = v + sw se anula em alguma componente, digamos, na i-ésima.Seja A′ a matriz obtida de A removendo a i-ésima linha e a i-ésima coluna de A, e seja u′ o vetorobtido de u removendo a i-ésima componente. Temos

(u′)tA′u′ = utAu = (v + sw)tA(v + sw) = (vt + swt)(λv + sµw) = λ+ s2µ < 0.

Como o item (i) é equivalente ao item (iii), temos que A′ não é positiva semidenida. Aplicandoo procedimento acima indutivamente, obtemos uma matriz com somente um autovalor negativo, elogo seu determinante é negativo, contradizendo o item (iv).

Um conjunto K de Rn é dito cone convexo se é fechado por combinações lineares não-negativas:Para todo α, β reais positivos e para todo x, y ∈ K, temos αx + βy ∈ K. O cone convexo geradopelo conjunto de vetores A em Rn é dado pelo menor cone convexo que contém A, denotado porcone(A). Ademais,

cone(A) =

N∑i=1

αixi : N ∈ N, x1, . . . , xN ∈ A,α1, . . . , αN ∈ R≥0

.

Note que a soma de matrizes positivas semidenidas, e o produto de um escalar positivo comuma matriz positiva semidenida, é uma matriz positiva semidenida. Portanto o conjunto dasmatrizes positivas semidenidas é um cone convexo.

Pela Propriedade (iii) da Proposição 2, temos que para todo x ∈ Rn a matriz xxt é positivasemidenida. De fato, para todo vetor y ∈ Rn, temos

ytxxty = (xty)t(xty) ≥ 0.

Note que, pelo Teorema 1, o conjunto Sn0 pode ser escrito como

Sn0 = conexxt : x ∈ Rn,

isto é, Sn0 é um cone convexo gerado pelas matrizes de posto um.Matrizes que estão contidas no interior de Sn0 são chamadas de matrizes positivas denidas. O

seguinte resultado apresenta diversas caracterizações de matrizes positivas denidas.

Proposição 3. Seja A uma matriz simétrica. São equivalentes:

(i) A matriz A é positiva denida;

(ii) Existe uma matriz quadrada U de posto cheio tal que A = U tU ;

(iii) Para todo x ∈ Rn \ 0, o valor xtAx é positivo;

(iv) O determinante de todo menor simétrico da matriz A é positivo;

(v) Todos os autovalores de A são positivos.

6 CONCEITOS BÁSICOS 2.2

Podemos ver a prova da Proposição 3 em [HJ13].Para mais informações sobre teoria das matrizes e álgebra linear, recomendamos os livros [HK71],

[Lan87] e [HJ13].

2.2 Método da Eliminação Gaussiana

Dada uma matriz simétrica, uma questão interessante de levantar é se podemos obter um algo-ritmo em tempo polinomial que decide se tal matriz é ou não positiva semidenida, e que produzum certicado se a matriz não for positiva semidenida, isto é, produz um vetor x tal que xtAx < 0.Existem diversos algoritmos que resolvem essa questão, e podemos vê-los em [GvL13]. Apresenta-mos aqui o algoritmo que se baseia no método da eliminação Gaussiana, um método que escalonasistemas lineares.

Uma matriz A = (aij) é dita triangular inferior se aij = 0 para todo i < j; e é dita triangularsuperior se aij = 0 para todo i > j. Uma matriz é dita unitária se a diagonal principal tem todasas entradas iguais a um.

Denição 4. Uma operação elementar é uma função de M(n, n) em M(n, n) que, aplicada emuma matriz quadrada, satisfaz somente uma das seguintes operações:

(1) troca duas linhas da matriz;

(2) multiplica uma linha por um número diferente de zero;

(3) substitui uma linha pela sua soma com outra linha da matriz multiplicada por um número.

Uma matriz quadrada é dita elementar se é obtida da matriz identidade aplicando uma das operaçõeselementares. Uma matriz elementar é do tipo (i) se é obtida da matriz identidade aplicando aoperação (i).

O método da eliminação Gaussiana é um método que, usando somente a operação elementar (3),encontra uma solução para um sistema linear Ax = b, ou conclui que A é singular. O algoritmodesse método, no k-ésimo passo, transforma a matriz A em uma matriz da forma

B =

B11 B12

0 B22

, (2.1)

onde B11 é uma matriz triangular inferior unitária do tipo (k − 1) × (k − 1). A transformação émultiplicar à esquerda as matrizes elementares do tipo (3) com a matriz A.

O seguinte resultado arma que podemos decompor uma matriz como produto de duas matrizesespecícas.

Teorema 5 (Teorema da LU -Decomposição). Seja A uma matriz quadrada cujos menores princi-pais são todos não-singulares. Então A pode ser decomposta unicamente como

A = LU,

onde L é uma matriz unitária triangular inferior, e U é uma matriz triangular superior.

O algoritmo do método da eliminação Gaussiana produz as matrizes L e U da decomposiçãoda matriz A da seguinte forma: A matriz U é a matriz A triangularizada e L−1 é o produto dasmatrizes elementares usadas durante o método. Logo, processo para obter as matrizes L e U é emtempo polinomial. Podemos ver a prova do Teorema 5 em [GvL13].

Segundo [GvL13], podemos usar o Teorema 5 para resolver um sistema linear da seguinte forma:Seja Ax = b um sistema linear. Para resolvê-lo, reduzimos na forma Ux = y, onde U é uma matriz

2.2 MÉTODO DA ELIMINAÇÃO GAUSSIANA 7

triangular superior, e y é uma solução do sistema Ly = b, onde L é uma matriz unitária triangularinferior. Assim LUx = b, e portanto A = LU .

Porém, estamos interessados no método da eliminação Gaussiana com pivô que, usando asoperações elementares (1) e (3), encontra uma solução para um sistema linear Ax = b, ou concluique A é singular.

O algoritmo do método da eliminação Gaussiana com pivô é basicamente da seguinte forma:Suponhamos que no k-ésimo passo, a matriz A se transformou na matriz B dada em (2.1). Se oprimeiro elemento da diagonal de B22, digamos b11, não é zero, então procedemos o algoritmo comono método da eliminação Gaussiana. Caso contrário, aplicamos a operação elementar (1) com umalinha de B que tem elemento não-nulo na mesma posição que b11, e as primeiras k−1 componentesdo vetor-linha dessa linha é igual a zero. Procedemos o algoritmo como no método da eliminaçãoGaussiana.

Uma matriz de permutação é uma matriz quadrada que tem exatamente uma entrada igual aum em cada linha e cada coluna, e as entradas restantes são iguais a zero. Note que toda matrizde permutação é produto de matrizes elementares do tipo (1). Não é difícil ver que toda matriz depermutação é ortogonal.

O seguinte resultado arma que podemos decompor uma matriz como produto de três matrizesespecícas.

Teorema 6. Dada uma matriz quadrada A, a eliminação Gaussiana com pivô produz uma matrizunitária triangular inferior L, uma matriz triangular superior U , e uma matriz de permutação Ptais que

A = P tLU.

Podemos ver a prova do Teorema 6 em [GvL13]. O processo para obter as matrizes L, U e Pconsome tempo polinomial e usa o método da eliminação Gaussiana com pivô. Note que P e L sãonão-singulares.

Considere o problema de resolver Ax = b quando A é uma matriz simétrica. Para preservara simetria, quando trocamos as linhas de A temos que trocar também as colunas de A. Ademais,quando substituímos uma linha pela sua soma com outra linha da matriz multiplicada por umnúmero, devemos fazer o mesmo para a coluna. Isso mostra que a eliminação Gaussiana com pivôé da forma

A = P tLULtP. (2.2)

O intuito de decompor a matriz A preservando a simetria é para garantir um resultado que carac-teriza quando A é positiva semidenida.

Proposição 7. Seja A uma matriz simétrica decomposta como em (2.2). Então A é positiva semi-denida se e somente se U é positiva semidenida.

Demonstração. Suponhamos que A é positiva semidenida. Como P e L são não-singulares, temosque LtP é não-singular. Logo para todo x ∈ Rn existe y ∈ Rn tal que x = LtPy. Portanto

xtUx = (LtPy)tU(LtPy) = yt(P tLULtP )y = ytAy ≥ 0

para todo x ∈ Rn.Agora suponhamos que U é positiva semidenida. Seja x ∈ Rn um vetor qualquer. Temos

xtAx = xt(P tLULtP )x = (LtPx)tU(LtPx) ≥ 0,

como queríamos.

Infelizmente, por estarmos operando simultaneamente com as linhas e as colunas para decomporuma matriz simétrica A, nem sempre podemos aplicar o algoritmo do Teorema 6 até o m, mesmo

8 CONCEITOS BÁSICOS 2.3

no caso não-singular. Por exemplo, considere a matriz

A =

0 1

1 0

.

Temos que para toda matriz de permutação P , temos P tAP = A. Logo nunca conseguimos trans-formar a matriz A de forma que tenha um elemento na diagonal não-nula. Mas mesmo com esseproblema, podemos aproveitar o algoritmo do Teorema 6 para decidir se uma matriz A é ou nãopositiva semidenida, e se não for, podemos encontrar uma vetor x tal que xtAx < 0.

Seja A uma matriz simétrica. Pelo Teorema 6 e pela observação acima, podemos aplicar o algo-ritmo do método da eliminação Gaussiana com pivô. Suponhamos que no k-ésimo passo decompomosa matriz A da forma A = P tLULtP .

Se, no (k + 1)-ésimo passo, obtemos uma entrada da diagonal negativa, temos que a matriz Unão é positiva semidenida, e pela Proposição 7, temos que A não é positiva semidenida. Seja i alinha que contém a entrada da diagonal negativa e x = (LtP )−1ei, onde ei é o vetor com entradaigual a um na i-ésima componente, e igual a zero na restante. Temos xtAx < 0.

Suponhamos agora que, no (k+1)-ésimo passo, obtemos uma entrada da diagonal nula e a linhaque a contém possui um elemento não-nulo, então a matriz U não é positiva semidenida. De fato,escrevendo U = (uij), seja i a linha que contém a entrada da diagonal zero, isto é, uii = 0, e j acoluna tal que uij 6= 0. Seja B o menor simétrico da matriz U dado por

B =

uii uij

uij ujj

.

Temos que o determinante de B é igual a det(B) = −u2ij < 0. Pelo item (iv) da Proposição 2,

concluímos que U não é positiva semidenida. Portanto A não é positiva semidenida. Se ujj 6= 0,tome x = (LtP )−1(ujjei − uijej), assim xtAx = −u2

ijujj ≤ 0. Se ujj = 0, tome x = (LtP )−1(ei +

uijej), assim xtAx = −2u2ij ≤ 0.

Se terminarmos o processo da eliminação Gaussiana com pivô, concluímos que a matriz A épositiva semidenida. Obtemos então o seguinte resultado.

Teorema 8. Seja A uma matriz simétrica com entradas racionais. Existe um algoritmo em tempopolinomial que decide se A é positiva semidenida ou não. Caso seja, produz uma matriz unitáriatriangular inferior L, uma matriz triangular superior U , e uma matriz de permutação P tais que

A = P tLULtP.

Caso A não seja positiva semidenida, produz um vetor x ∈ Qn tal que xtAx < 0.

2.3 Programação Semidenida

Programação semidenida (PSD ou SDP1) é uma subárea de otimização convexa que se inte-ressa calcular o máximo ou o mínimo de uma função linear sobre a interseção do cone das matrizespositivas semidenidas com um espaço am. Uma característica interessante dos programas semi-denidos é que todos os problemas de programação linear podem ser expressos como um problemade programação semidenida.

A programação semidenida possui várias aplicações interessantes em diversas áreas, como emteoria de controle [Bal96], teoria da informação [Lov79] e problemas de satisfabilidade [GW95],

1Semidenite Programming

2.3 PROGRAMAÇÃO SEMIDEFINIDA 9

[dKVMW00]. Uma boa referência que apresenta aplicações de programação semidenida em pro-blemas de otimização combinatória é [Lov03].

Goemans e Williamson [GW95] foram os primeiros a estimar o corte máximo de grafos usandoprogramação semidenida. Essa nova abordagem e seus resultados tiveram um impacto na área deotimização combinatória. De fato, essa nova técnica impulsionou uma série de pesquisas para obteraproximações ótimas para vários problemas.

Sejam A1 . . . , An, C matrizes simétricas do tipo m × m para algum m inteiro positivo e b =(bj)j∈[n] um vetor em Rn. Considere o subespaço am de Sn dado por

W = X ∈ Sn : 〈A1, X〉 = b1, . . . , 〈An, X〉 = bn.

Um programa semidenido é um problema de otimização da seguinte forma:

sup 〈C,X〉s.a.〈A1, X〉 = b1;

...

〈An, X〉 = bn;

X 0,

(2.3)

ou seja, um programa semidenido maximiza a função objetivo 〈C,X〉 sobre a região viável

F = Sn0 ∩W.

As matrizes que pertencem a F são chamadas de soluções viáveis, e as que atingem o supremo doprograma (2.3) são chamadas de soluções ótimas. Uma solução viável X ∈ F é dita estritamenteviável se X é uma matriz positiva denida. O programa (2.3) é dito estritamente viável se admitepelo menos uma solução estritamente viável.

O valor ótimo de um programa semidenido é dado por

vprimal = supX∈F〈C,X〉.

Note que vprimal ∈ R∪±∞, e vprimal = −∞ se o problema (2.3) não é viável, isto é, o conjunto Fé vazio; e vprimal = +∞ se para todo X ∈ F existe uma matriz Y ∈ F tal que 〈C, Y 〉 > 〈C,X〉.Note também que denimos os programas semidenidos (2.3) como supremo, e não máximo, poisexistem problemas que o supremo não é atingido sempre, como podemos ver no Exemplo 10 adiante.

Podemos trabalhar também com problemas de minimização. Nesse caso, o programa semide-nido será da forma

inf 〈C,X〉s.a.〈A1, X〉 = b1;

...

〈An, X〉 = bn;

X 0.

(2.4)

Note que podemos transformar o programa (2.4) em um programa (2.3) usando que inf〈C,X〉 =− sup〈−C,X〉.

Exemplo 9. Seja o problema PSDminx

s.a

x 1

1 0

0,

10 CONCEITOS BÁSICOS 2.4

onde x ∈ R. Note que

X =

x y

y z

, C =

1 0

0 0

, A1 =

0 1

0 0

, A2 =

0 0

0 1

.

Também,〈C,X〉 = x, b = (1, 0).

Como det

x 1

1 0

= −1 para todo x ∈ R e pelo item (iv) da Proposição 2, temos

F =

x ∈ Rn :

x 1

1 0

0

= ∅.

Portanto, vprimal = −∞.

Exemplo 10. Seja o problema PSD

minx1

s.a

x1 1

1 x2

0.

onde x1, x2 ∈ R. Note que

X =

x1 y

y x2

, C =

1 0

0 0

, A1 =

0 1

0 0

.

Também,〈C,X〉 = x1, b = (1).

Calculando os determinantes dos menores simétricos, temos x1 ≥ 0, x2 ≥ 0 e x1x2 ≥ 1. Logo, osvalores possíveis da função objetivo são todos os números reais positivos. Assim vprimal = 0. Mas oínmo não é atingido. De fato, tomando x1 = 0 a desigualdade x1x2 ≥ 1 não é satisfeita. Portanto,a solução ótima nem sempre satisfaz as restrições do programa.

Para mais informações sobre programação semidenida, recomendamos o livro [GM12] e osartigos [Lov03] e [LV12].

2.4 Método do elipsóide

Considere um programa sobre um conjunto convexo K denido por

max ctx

s.a. x ∈ K.(2.5)

2.4 MÉTODO DO ELIPSÓIDE 11

Se o programa (2.5) for um programa linear, então um resultado fundamental de programaçãolinear arma que o programa (2.5) tem uma solução ótima com entradas racionais. Porém paraprogramas convexos em geral nem sempre é verdade. Temos que o valor ótimo do seguinte programasemidenido

max x

s.a.

1 x

x 2

0.(2.6)

é x =√

2. Como√

2 é um número irracional, não há um algoritmo computacional que calculaexatamente a solução do programa (2.6). Logo é natural querermos obter um algoritmo em tempopolinomial que calcula aproximadamente o valor ótimo do programa (2.5). Uma solução para esseproblema é o método do elipsóide.

O método do elipsóide é um algoritmo de otimização sobre um conjunto convexo com interiornão-vazio introduzido por Shor, Yudin e Nemirovskii (veja o capítulo 13 de Schrijver [Sch86]). In-felizmente, o método do elipsóide não é eciente em geral na prática (veja a Seção 13.5 de Schijver[Sch86]). Porém, um resultado de Grötschel, Lovász e Schrijver [GLS81] tornou-se uma ferramentaessencial em otimização usando o método do elipsóide, usado para provar a solubilidade de diver-sas classes de problemas de otimização, em particular em problemas de otimização combinatória.Recomendamos o livro [GLS93] para mais detalhes sobre o método do elipsóide.

Vamos enunciar o resultado de Grötschel, Lovász e Schrijver [GLS81] e usá-lo para produzir umalgoritmo em tempo polinomial que produz uma solução aproximada de programas semidenidos.Apresentamos também o resultado de Yudin e Nemirovskii [YN76] sobre otimização em programasconvexos.

Denição 11. Dado K um conjunto convexo e ε > 0 um real, denimos

K+ε = y ∈ Qn : ‖y − x‖2 ≤ ε para algum x ∈ K;K−ε = x ∈ Qn : B(x, ε) ⊆ K,

onde ‖x‖2 =√∑n

i=1 x2i quando x = (x1, . . . , xn) ∈ Rn.

Note que K−ε ⊆ K ⊆ K+ε. Ademais, se K tem interior vazio, então K−ε é vazio.

Denição 12. Sejam c ∈ Qn e K um conjunto convexo qualquer. Uma otimização fraca do pro-grama

max ctx

s.a. x ∈ K

é, se dado ε ∈ Q, então

1. devolve que K−ε é vazio; ou

2. encontra y ∈ K+ε tal que ctx ≤ cty + ε para todo x ∈ K−ε.

Recordemos que, se x = (x1, . . . , xn), então

‖x‖∞ = max|xi| : 1 ≤ i ≤ n.

Denição 13. Um oráculo de separação fraco para K, quando dado como entrada um vetor s ∈ Qn

e δ ∈ Q positivo, arma que s ∈ K+δ ou produz um vetor a ∈ Qn com ‖a‖+∞ = 1 tal que atx ≤ats+ δ para todo x ∈ K−δ.

Necessitamos da restrição ‖a‖+∞ = 1 pois poderíamos tomar a = 0, satisfazendo sempre adesigualdade atx ≤ as + δ. Note que o oráculo de separação fraco ou certica que o vetor é quase

12 CONCEITOS BÁSICOS 2.4

viável, ou seja, possui distância pequena com o conjunto convexo, ou encontra um hiperplano quequase separa o vetor com o conjunto convexo.

Denição 14. Dados z ∈ Rn e r ∈ R positivo, denimos B(z, r) = x ∈ Rn : ‖x− z‖2 ≤ r.

O resultado de Grötschel, Lovász e Schrijver [GLS81] abaixo arma que podemos construirum algoritmo em tempo polinomial para obter aproximadamente o valor ótimo de um programaconvexo se existe um oráculo de pertinência fraco para o conjunto convexo.

Teorema 15. Dado um oráculo de separação fraco para o conjunto convexo K ⊆ B(0, R) paraalgum R > 0, podemos otimizar fracamente sobre K em tempo polinomial em n,〈R〉 e 〈ε〉, onde 〈·〉é o tamanho da representação binária.

Dada uma matriz positiva denida A e um vetor a ∈ Rn, denimos o elipsóide por

E(A, a) = x ∈ Rn : (x− a)tA−1(x− a) ≤ 1.

O volume de E(A, a) é dado por vol(E(A, a)) =√

det(A)Vn, onde Vn é o volume da bola unitá-ria B(0, 1).

Há um outro resultado de Grötschel, Lovász e Schrijver [GLS81] que obtém uma outra versãode otimização fraca a partir de um oráculo de pertinência fraco para o conjunto convexo.

Teorema 16. Existe um algoritmo em tempo polinomial que resolve o seguinte problema: A entradasão um número racional ε > 0, um convexo K ⊆ B(0, R) para algum R > 0, e um oráculo deseparação fraco para K. O algoritmo produz uma das seguintes armações:

(a) um vetor a ∈ K+ε;

(b) uma matriz positiva denida A com entradas racionais e um vetor a ∈ Qn tais que K ⊆E(A, a) e vol(E(A, a)) ≤ ε.

Vamos ver agora o resultado de Yudin e Nemirovskii [YN76], o qual arma quais são as condi-ções para que seja suciente otimizar fracamente sobre um conjunto convexo. Ao invés de supor aexistência de um oráculo de separação fraco para o conjunto convexo K, vamos supor que K possuio chamado oráculo de pertinência fraco.

Denição 17. Dados s ∈ Qn, δ ∈ Q positivo e K um conjunto convexo qualquer, um oráculo depertinência fraco para K decide se s ∈ K+δ ou s /∈ K−δ.

Note que K+δ \K−δ 6= ∅, logo para alguns vetores s ambas as respostas são válidas.

Teorema 18 (YudinNemirovskii, 1976). Sejam K um conjunto convexo, R, r ∈ Q e s0 ∈ Qn taisque B(s0, r) ⊆ K ⊆ B(s0, R) e um oráculo de pertinência fraco para K. Existe uma otimizaçãofraca sobre K em tempo polinomial em n, 〈R〉, 〈r〉, 〈ε〉, 〈s0〉.

Apresentamos agora um algoritmo em tempo polinomial que produz uma solução aproximadapara programas semidenidos. Denimos

vdeep = sup〈C,X〉 : X ∈ K−ε

O conjunto convexo que trabalhamos é o conjunto das soluções viáveis F do programa semide-nido (2.3). Porém tal conjunto possui interior vazio, pois está contido no conjunto W. Mas isso nãoé um problema pois podemos restringir F para o espaço W, e assim o nosso conjunto convexo teráinterior não-vazio. Note que o método da eliminação Gaussiana é o oráculo de separação fraco paraF , pois podemos decidir, em tempo polinomial, se uma matriz A é positiva semidenida. Ademais,caso não for, encontramos um vetor x tal que xtAx < 0. Note que xtAx = 〈xxt, A〉, logo obtemosum hiperplano separador que separa a matriz A com o conjunto F . Segundo [Lov03], necessitamosdo erro ε do oráculo de separação fraco por problemas numéricos ao utilizar o método da eliminaçãoGaussiana.

A partir do Teorema 16, obtemos o seguinte resultado para programas semidenidos.

2.6 GRAFOS 13

Teorema 19. Assumimos que o programa semidenido (2.3) tem coecientes racionais. Seja R umreal positivo tal que ‖X‖F ≤ R para toda solução viável de (2.3), e seja ε > 0 um número racional.Existe um algoritmo em tempo polinomial que produz uma das seguintes saídas.

(a) Uma matriz X∗ ∈ L tal que X∗ ∈ K+ε e 〈C,X∗〉 ≥ vdeep − ε;

(b) Uma matriz positiva denida A com entradas racionais e um vetor a ∈ Qn tais que K ⊆E(A, a) ⊆ L e vol(E(A, a)) ≤ ε.

Podemos obter também um algoritmo em tempo polinomial que produz uma solução aproxi-mada para programas semidenidos usando o Teorema 18. Em [KN12] pode-se ver em detalhes talalgoritmo.

2.5 Grafos

Um grafo é um par de conjuntos (V,E) tal que E ⊆ V (2) = U ⊆ V : |U | = 2, isto é, oselementos de E são subconjuntos de V de cardinalidade dois. Os elementos de V são chamados devértices, e os elementos de E, arestas. A cardinalidade do conjunto de vértices de G é dita ordemde G. Trabalharemos somente com grafos de ordem nita.

Uma aresta u, v é denotada por uv ou por vu. Dizemos que u e v são pontas de uv e dizemosque u e v são vizinhos ou adjacentes.

Se u ∈ X e v ∈ Y , o qual X e Y são subconjuntos de V , então a aresta uv é uma X −Y aresta.O conjunto de todas as X − Y arestas é um subconjunto de E denotado por E(X,Y ). Denotemospor e(X,Y ) a cardinalidade de E(X,Y ).

Figura 2.1: Exemplo de um grafo

Um caminho é um grafo não-vazio P = (V,E) da forma

V = x0, x1 . . . , xk, E = x0x1, x1x2, . . . , xk−1xk,

onde os xi são todos distintos. Um passeio em um grafo G é um sequência alternada não-vaziav0e0v1e1 . . . ek−1vk de vértices e arestas de G tais que ei = vivi+1 para todo i < k. Note que todopasseio entre dois vértices contém um caminho entre esses vértices.

Um grafo orientado D é um par de conjuntos disjuntos (V, ~E) tal que ~E ⊆ V × V , e paratodo u, v ∈ V , se (u, v) ∈ E, então (v, u) /∈ E.

Figura 2.2: Exemplo de um grafo orientado

Seja G = (V,E) um grafo. Para cada aresta e ∈ E associaremos um valor real w(e) chamado depeso. Então G, juntamente com cada peso das arestas, é chamado de grafo com pesos, e denotaremospor GW . Aqui, o peso é um número não-negativo. A matriz de pesos W associado ao grafo compesos GW é uma matriz quadrada do tipo V × V tal que cada entrada wij é igual a w(e) se e = ij,e wij = 0 caso contrário.

Para mais informações sobre a teoria dos grafos, recomendamos os livros [Bol79], [Bol98], [BM08]e [Die10].

14 CONCEITOS BÁSICOS 2.6

2.6 Complexidade Computacional

A complexidade computacional é um ramo da matemática que estuda a eciência dos algoritmos.Medimos a eciência dos algoritmos usando um tempo teórico que o programa leva para encontraruma resposta em função dos dados de entrada.

Os conceitos apresentados nesta seção serão vistos de maneira mais intuitivo, sem muito forma-lismo. Para mais informações sobre complexidade computacional, onde encontrar denições rigoro-sas, recomendamos os livros [Pap94], [AB09] e [KS95].

Um problema de decisão é um problema cuja resposta é SIM ou NÃO.Um algoritmo é dito determinístico se dada uma determinada entrada (instância do problema),

o algoritmo apresenta sempre a mesma saída e o mesmo tempo de execução. Um algoritmo édito não-determinístico se, além dos comandos determinísticos usuais, o algoritmo pode usar ocomando Escolha(S) que retorna um elemento do conjunto S.

Um algoritmo que resolve um dado problema é dito polinomial se o seu consumo de tempo nopior caso é limitado por uma função polinomial no tamanho da instância do problema.

A classe P é formada por todos os problemas de decisão que podem ser resolvidos determinis-ticamente em tempo polinomial.

Exemplo 20 (Conectividade de um grafo). Dado um grafo G e dois vértices s, t ∈ G, determinarse existe um caminho de s para t. Esse problema pertence a classe P. De fato, podemos construirum algoritmo que começa explorando as arestas do grafo o qual uma das ponta é s, e explora todasas arestas não visitadas que são adjacentes às arestas previamente visitadas. Após no máximo

(n2

)passos, ou uma das pontas das arestas exploradas é t, ou nenhuma delas tem ponta t.

A classe NP é formada por todos os problemas de decisão o qual podemos vericar, em tempopolinomial, se uma possível solução é correta.

Exemplo 21 (Soma do Subconjunto). Dado um número N e um subconjunto dos naturais X com nelementos, decidir se existe um subconjunto de X cuja soma de seus elementos é igual a N .

Esse problema pertence à classe NP pois se dermos um subconjunto particular de X, podemosfacilmente vericar se a soma dos seus elementos é igual a N .

Claramente P ⊆ NP, porém não se sabe se P = NP, e vários pesquisadores do assunto acreditamque essa relação seja falsa. O Instituto Clay de Matemática oferece um prêmio de um milhão dedólares pela solução da questão P = NP?. Note que se P 6= NP então existe um algoritmo naclasse NP e uma entrada para o qual esse algoritmo levará um tempo superpolinomial para terminaro processo.

Dizemos que um problema P é redutível a um problema Q se pudermos reformular as instânciasde P em instâncias de Q, cujas soluções de P fornecem solução para Q.

A classe NP-completa é denida da seguinte forma: um problema P pertence à classe NP-completo se todos os problemas em NP são redutíveis para P em tempo polinomial.

Exemplo 22 (Caixeiro Viajante). Dado um conjunto nito C = c1, c2, . . . , cm de cidades, umadistância d(ci, cj) ∈ N para cada par de cidades ci, cj ∈ C, e um inteiro positivo L, decidir seexiste um passeio de Caixeiro Viajante, isto é, um passeio que visite todas as cidades e retorne àcidade de origem, de comprimento no máximo L.

Devemos ressaltar que a distância d(ci, cj) não é necessariamente igual a d(cj , ci), e não satisfaza desigualdade triangular: d(ci, cj) ≤ d(ci, ck) + d(ck, cj) para todo i, j, k.

O problema acima é NP-completo, porém está fora dos nossos estudos prová-lo. Podemos ver aprova em [Kar72].

Vale ressaltar aqui que o Problema da Soma do Subconjunto também é NP-completo, podemosver a prova em [Kar72].

A classe NP-difícil é denida da seguinte forma: um problema P pertence à classe NP-difícil setodos os problemas em NP são redutíveis para P em tempo polinomial.

Note que um problema é NP-completo se pertence a NP e é NP-difícil.

2.6 COMPLEXIDADE COMPUTACIONAL 15

Exemplo 23. Podemos reformular o Problema do Caixeiro Viajante da seguinte forma: dado umconjunto nito C = c1, c2, . . . , cm de cidades e uma distância d(ci, cj) ∈ N para cada par decidades ci, cj ∈ C, encontrar um passeio de menor rota possível que visite todas as cidades e retorneà cidade de origem. Esse problema é NP-difícil, e podemos encontrar a prova em [Kar72].

Fixe um conjunto nito Σ, chamado de alfabeto. O conjunto de todas as sequências nitas deelementos de Σ, chamadas de palavras, é denotado por Σ∗. Uma linguagem L sobre o alfabeto Σ équalquer subconjunto L ⊆ Σ∗.

O teorema a seguir relaciona o problema P = NP? com as classes dos problemas NP-difícil eNP-completa.

Teorema 24. Valem as seguintes asserções:

1. Se a linguagem L é NP-difícil e L ∈ P , então P = NP ;

2. Se a linguagem L é NP -completa, então L ∈ P se e somente se P = NP .

Podemos ver a prova do Teorema 24 no livro [AB09].O complemento de um problema de decisão é um problema de decisão trocando o papel da

resposta SIM pela resposta NÃO.A classe coNP é formada por todos os problemas de decisão para o qual seu complemento

pertence a NP. Mais formalmente, a classe coNP é denida por

coNP = Σ∗ \ L : L ⊆ Σ∗ e L ∈ NP.

Exemplo 25 (Complementar da Soma do Subconjunto). Dado um número N e um subconjuntodos naturais X com n elementos, decidir se a soma dos elementos de cada um dos subconjuntosde X não é igual a N.

Esse problema pertence à classe coNP pois se dermos um subconjunto particular de X, podemosfacilmente vericar se a soma dos seus elementos é diferente de N . Note que esse problema é ocomplementar do Problema da Soma do Subconjunto.

Sabe-se que P ⊆ NP∩ coNP, porém a igualdade ainda é um problema em aberto. Sabe-setambém que se NP 6= coNP então P 6= NP, e não se sabe ainda se a recíproca é verdadeira.Recomendamos o livro [Pap94] para ver a prova dessas relações.

A classe coNP-completa é denida da seguinte forma: um problema Q pertence à classe coNP-completo se Q pertence a coNP todos os problemas em coNP são redutíveis para Q em tempopolinomial.

Existe uma relação entre a classe NP-completa e a classe coNP-completa.

Proposição 26. Se um problema é NP-completo, então seu complemento é coNP-completo.

Podemos ver a prova da proposição 26 o livro [Pap94]Além dos algoritmo determinísticos, existem os chamados algoritmos aleatorizados, que são al-

goritmos que fazem escolhas aleatórias durante sua execução. Um exemplo simples de um algoritmoaleatorizado é o quicksort aleatorizado.

Exemplo 27 (Quicksort aleatorizado). Considere o problema de ordenar um conjunto C de núme-ros reais, o quicksort aleatorizado RandomQS(C) executa os seguintes passos:

(1) Se C é vazio, retorne a lista vazia. Se C possui somente um elemento, retorne a lista comesse elemento. Suponhamos que C tem mais de um elemento.

(2) Seja x ∈ C escolhido uniformemente ao acaso. Compare todos os elementos restantes de Ccom x, obtendo dois conjunto C1 = y ∈ C : y < x e C2 = y ∈ C : y > x.

(3) Retorne a lista resultante de RandomQS(C1) concatenada com a lista y concatenada coma lista resultante de RandomQS(C2).

16 CONCEITOS BÁSICOS 2.7

O quicksort aleatorizado é de fato um algoritmo aleatorizado pois temos uma escolha uniforme paratratar no passo (2).

Outros exemplos de algoritmos aleatorizados são o algoritmo de Goemans e Wiliamson [GW95]sobre corte máximo de um grafo, e o algoritmo de Alon e Naor [AN06] sobre o problema da normade corte de uma matriz.

2.7 Algoritmo de Aproximação

Sabemos que a maioria do problemas importantes de otimização combinatória são NP-difíceis,e sabemos que, a menos que P = NP , não existe um algoritmo em tempo polinomial que encontrauma solução ótima para qualquer instância de um problema NP-difícil. Assim, para que haja umavanço nesses tipos de problemas, é interessante trabalhar com algoritmos em tempo polinomialque encontram soluções aproximadas desses problemas.

Dado um real ρ > 0 diferente de 1, um algoritmo de ρ-aproximação para um problema de oti-mização é um algoritmo em tempo polinomial tal que para toda instância do problema, o algoritmoencontra uma solução cujo valor está limitado a um fator de ρ do valor da solução ótima. Maisformalmente:

Denição 28. Sejam ρ > 0 um real diferente de 1 e X um problema de maximização (resp.minimização). Um algoritmo A é dito um algoritmo de ρ-aproximação para o problema X se paratoda instância I de X o algoritmo A produz uma solução viável de uma função objetivo A(I) emtempo polinomial tal que

OPT(I) ≤ A(I) ≤ ρOPT(I), se ρ > 1;

ρOPT(I) ≤ A(I) ≤ OPT(I), se ρ < 1.

Dizemos que ρ é a garantia de desempenho do algoritmo de ρ-aproximação.

Para problemas de maximização, convencionamos restringir ρ < 1; e para problemas de mini-mização, ρ > 1.

Note que, para problemas de maximização, quanto mais a garantia de desempenho for próximade 1, teremos uma aproximação mais próxima do valor da solução ótima. Mas em geral, comoestamos trabalhando com todas as instâncias, pode ser que tenha um conjunto I

′de instâncias que

faça a garantia de desempenho ρ ser menor que um certo ρ0 < 1, enquanto se trabalhássemos comas instâncias I \ I ′ , a garantia de desempenho seria ρ > ρ0. Mas mesmo assim, existem aquelesalgoritmos que não tem esse problema, como denimos a seguir.

Denição 29. Um esquema de aproximação em tempo polinomial (Polynomial-time approximationscheme - PTAS) é uma família de algoritmos Aε, o qual existe um algoritmo Aε para cada 0 <ε < 1 tais que Aε é um algoritmo de (1 + ε)-aproximação para problemas de minimização, ou umalgoritmo de (1− ε)-aproximação para problemas de maximização.

Existem vários problemas que possuem PTAS, como por exemplo, o Problema da Mochila.

Exemplo 30 (Problema da Mochila). Sejam X = x1, . . . , xn um conjunto de n itens tais quecada uma delas tem um peso positivo peso(xi) e um lucro positivo lucro(xi). Ademais, possuímosuma mochila que pode carregar os itens até totalizar peso W . Para um subconjunto S ⊆ X, de-nimos peso(S) =

∑x∈S peso(x) e lucro(S) =

∑x∈S lucro(x). O problema consiste em carregar na

mochila uma quantidade de itens que maximiza o lucro de forma que o peso não passe de W .A prova que o problema da mochila é PTAS pode ser vista em [Sah75].

Por outro lado, existe a classe dos problemas MAX SNP-difícil, introduzida por Papadimitrioue Yannakakis [PY91]. Seja MAX-r-FUNCTION-SAT o problema onde a entrada consiste de mfunções Booleanas f1, f2, . . . , fm em n variáveis, e cada fi depende somente de r variáveis, paraalgum r xo. O objetivo é atribuir valores verdade para as n variáveis, de modo que satisfaça o

2.8 CORTE DE GRAFO 17

maior número de fi possível. Sabe-se em [PY91] que o problema MAX SNP pode ser visto comoum problema MAX-r-FUNCTION-SAT para um r xo.

Temos o seguinte teorema de MAX SNP-difícil, provado em [PY91].

Teorema 31. Para todo problema MAX SNP-difícil, não existe um esquema de aproximação emtempo polinomial, a menos que P = NP .

Um exemplo de um problema MAX SNP-difícil é o Problema do Corte Máximo: Dado um grafo,encontrar um subconjunto S dos vértices tal que maximiza o número de arestas que tem uma pontaem S e outra em V \ S. Veja Seção 2.8 para mais detalhes. No Capítulo 5 mostraremos que oproblema de calcular a norma de corte para matrizes arbitrárias é MAX SNP-difícil.

Graham foi o primeiro que trabalhou com algoritmos de aproximação em tempo polinomial[Gra66], que trata de um sistema de multiprocessamento composto de várias unidades de processa-dores idênticos operando em paralelo. Porém o conceito formal de algoritmo de aproximação foi dadopor Garey, Graham e Ullman [GGU72]. O termo esquema de aproximação em tempo polinomialfoi devido a Garey e Johnson [GJ78].

Para mais informações sobre algoritmos de aproximação, recomendamos os livros [Vaz01] e[Gon07].

2.8 Corte de grafo

Dado um grafo G = (V,E) e X ⊆ V , o corte de X é a cardinalidade do conjunto das X −Xc

arestas. Denimos o corte máximo e corte mínimo de G, respectivamente, por

MAXCUT(G) = maxe(X,Xc) : X ⊆ V ,MINCUT(G) = mine(X,Xc) : X ⊆ V .

O corte máximo e mínimo de um grafo com peso GW = (V,E) é denido da seguinte forma:Particionando o conjunto V em duas partes V − e V +, o peso de corte de (V −, V +) é denido como

w(V −, V +) =∑

(u,v)∈V −×V +

wuv.

O corte máximo de GW é o maior valor de w(V −, V +) sobre toda partição (V −, V +) de V , edenotamos por MAXCUT(W ). Analogamente, denimos MINCUT(W ), o corte mínimo de D, comoo menor valor de w(V −, V +) sobre toda partição (V −, V +) de V .

Note que tomando wuv = 1 se uv ∈ E, então MAXCUT(W ) = MAXCUT(G) e MINCUT(W ) =MINCUT(G), onde G é o grafo obtido do grafo orientado D removendo as orientações.

Podemos escrever o peso de corte de uma partição (V −, V +) de V de uma outra forma. Paratodo vértice u ∈ V , associamos xu ∈ −1, 1 satisfazendo

xu =

−1, se u ∈ V −;

1, se u ∈ V +.

Claramente, para quaisquer dois vértices u, v ∈ V temos 1 − xuxv ∈ 0, 2, e é igual a zero se osvértices u e v pertencem à mesma parte, e é igual a dois se u e v pertencem às partes distintas.Dessa forma, podemos expressar o peso de corte como

w(V −, V +) =1

2

1

2

∑u,v∈V

wuv(1− xuxv)

.

Logo, podemos formular o Problema do Corte Máximo com Peso e o Problema do Corte Mínimo

18 CONCEITOS BÁSICOS 2.8

com Peso como calcular o valor exato das funções dadas por

MAXCUT(W ) = max

1

4

∑u,v∈V

wuv(1− xuxv) : x2u = 1, u ∈ V

MINCUT(W ) = min

1

4

∑u,v∈V

wuv(1− xuxv) : x2u = 1, u ∈ V

.

O Problema do Corte Mínimo com peso de um grafo é um problema que pode ser resolvidoem tempo polinomial. Isso se deve ao Teorema do uxo máximo-corte mínimo, o qual arma queem um uxo de rede, o valor máximo do uxo passando de uma origem até um destino é igual àsua capacidade mínima de um corte da rede. Podemos ver com mais detalhes no Capítulo 3 e noCapítulo 6 de Diestel [Die10].

Por outro lado, o Problema do Corte Máximo com Peso é um dos problemas NP-completo deKarp [Kar72]. Sabe-se também que o caso sem peso é também NP-completo [GJS76]. O problemado corte máximo é solúvel em tempo polinomial em algumas classes de grafos, como por exemplopara grafos planares [OD72] [Had75].

Como não se sabe se existe um algoritmo eciente que calcule o corte máximo de um grafo (ecaso existir vai implicar que P=NP), um outro meio de trabalhar com o problema é encontrar umalgoritmo de ρ-aproximação.

Há vários resultados de algoritmo de ρ-aproximação para o Problema do Corte Máximo ao longodo tempo.

12 Gonzales e Shani, 1976 [SG76]

12 + 1

2m Vitányi, 1981 [Vit81]

12 + n−1

4m Poljak e Turzík, 1982 [PT82]

12 + 1

2n Haglin e Venkatesan, 1991 [HV91]

12 + 1

2∆ Hofmeister e Lefmann, 1996 [HL96]

Valores de ρ

onde n = |V |, m = |E| e ∆ é o grau máximo.Em 1995, Goemans e Williamson apresentaram em [GW95] um algoritmo de (α−ε)-aproximação

para o Problema o Corte Máximo, onde

α = min0≤θ≤π

2

π· θ

1− cos θ∼= 0.87856

e ε é um escalar positivo qualquer. Essa garantia de desempenho é a melhor até então.Håstad provou que se P 6= NP então não existe um algoritmo de aproximação em tempo

polinomial para o Problema do Corte Máximo com garantia de desempenho excedendo 16/17 ∼=0.941.

Capítulo 3

Norma de Corte

A norma de corte foi introduzida por Frieze e Kannan em [FK99] como ferramenta para obterum método de decomposição matricial (veja Seção 5.3 para mais detalhes). A Decomposição Ma-tricial de Frieze e Kannan possui várias aplicações, entre elas, uma versão construtiva do Lema daRegularidade de Szemerédi, aproximação do corte máximo de um grafo, Problema da Condutânciade um Grafo e Problema do Subgrafo Máximo Acíclico.

Na Seção 3.1 estudaremos as propriedades da norma de corte. Mostraremos que ela é equivalenteà norma o qual é valor ótimo de um certo programa inteiro quadrático. Apresentaremos tambémum programa semidenido que será útil ao longo deste trabalho. Na Seção 3.2 apresentaremosum algoritmo de aproximação da norma de corte que se baseia na prova original do Teorema deGrothendieck. Na Seção 3.3 exibiremos um outro algoritmo de aproximação para a norma de corte,porém com a garantia de desempenho melhor que a da Seção 3.2. Esse algoritmo se baseia na provade Rietz do Teorema de Grothendieck.

3.1 A norma de corte e suas propriedades

Denição 32. Seja A = (aij) uma matriz do tipo m× n. A norma de corte de A é denida por

‖A‖cut = maxS⊂[m],T⊂[n]

∣∣∣∣∣∣∣∣∑i∈Sj∈T

aij

∣∣∣∣∣∣∣∣ . (3.1)

Deniremos a seguinte norma que será importante para o nosso estudo daqui para frente. Dadauma matriz real A = (aij) do tipo m× n, denimos a norma

‖A‖∞→1 = max

∑ij

aijεiδj : εimi=1, δjnj=1 ⊆ −1, 1

, (3.2)

onde∑

ij é igual a∑m

i=1

∑nj=1, e ·mi=1 e ·nj=1 são multiconjuntos, isto é, pode ter repetição de

elementos. Observe que o máximo é não-negativo, pois para todo εi, δj podemos tomar εi = −εipara todo i. Assim ∑

ij

aij εiδj = −∑ij

aijεiδj .

Note que a norma ‖A‖∞→1 é o valor ótimo do seguinte programa inteiro quadrático:

max∑ij

aijxiyj

s.a xi, yj ∈ −1, 1 para todo i, j.(3.3)

19

20 NORMA DE CORTE 3.1

A seguir, enunciemos um lema que será um auxílio para descrever uma caracterização danorma ‖·‖∞→1.

Lema 33. Seja n um inteiro positivo. Considere a bola Bln∞ = x ∈ Rn : ‖x‖∞ ≤ 1 e, paratodo S ⊆ [n], dena χS = (χSi )ni=1 o vetor em Rn dado por

χSi =

1, se i ∈ S;

−1, caso contrário.

Considere o conjunto C = convχS : S ⊆ [n] o fecho convexo do conjunto dos vetores χS sobretodos os S ⊆ [n]. Temos C = Bln∞ .

Demonstração. Como Bln∞ é convexo e contém os vetores χS para todo S ⊆ [n], temos C ⊆ Bln∞ .Seja x ∈ Bln∞ . Existem (αS)S⊆[n] ∈ R não-negativos tais que

∑S⊆[n] αS = 1 e

∑S⊆[n] αSχ

S = x.

Como C contém os vetores χS para todo S ⊆ [n] e é convexo, concluímos que∑

S⊆[n] αSχS ∈ C.

Portanto C = Bln∞ .

Vamos ver agora que a norma ‖A‖∞→1 pode ser vista como a norma de A onde A é um operadorlinear de lm∞ para ln1 , onde l

m∞ é o espaço dos vetores em Rm munido da norma ‖·‖∞, e ln1 é o espaço

dos vetores em Rn munido da norma ‖·‖1. Lembremos que, se x = (x1, . . . , xn), então

‖x‖1 =n∑i=1

|xi|.

Proposição 34. Seja A uma matriz do tipo m× n. Temos

maxx∈Bln∞

‖Ax‖1 = ‖A‖∞→1.

Demonstração. Como o máximo de ‖Ax‖1 sobre o conjunto C descrito no Lema 33 é atingido emalgum vetor x = (xj)

nj=1 = (χSj )nj=1, com S ⊆ [n], basta mostrar que ‖Ax‖1 = ‖A‖∞→1.

Para cada i ∈ [m], existe εi ∈ −1, 1 tal que∣∣∣∣∣∣n∑j=1

aij xj

∣∣∣∣∣∣ =n∑j=1

aijεixj .

Portanto,

‖Ax‖1 =

m∑i=1

∣∣∣∣∣∣n∑j=1

aij xj

∣∣∣∣∣∣ =∑ij

aijεixj ≤ ‖A‖∞→1.

Sejam εimi=1, δjnj=1 ⊆ −1, 1 tais que

‖A‖∞→1 =∑ij

aijεiδj .

Assim, ∑ij

aijεiδj =

m∑i=1

εi

n∑j=1

aijδj ≤m∑i=1

∣∣∣∣∣∣n∑j=1

aijδj

∣∣∣∣∣∣ ≤ ‖Ax‖1,como queríamos

Mostremos que a norma de corte e a norma ‖·‖∞→1 são equivalentes. Uma consequência do lemaa seguir é que o problema de aproximar ‖A‖cut em tempo polinomial é equivalente ao problema deaproximar ‖A‖∞→1 em tempo polinomial.

3.1 A NORMA DE CORTE E SUAS PROPRIEDADES 21

Lema 35. Seja A = (aij) uma matriz do tipo m× n. Temos

‖A‖cut ≤ ‖A‖∞→1 ≤ 4‖A‖cut.

Demonstração. Para cada conjunto εimi=1 ⊆ −1, 1 e δjnj=1 ⊆ −1, 1, denimos os conjun-tos S+, S− ⊆ [m] e T+, T− ⊆ [n] como S± = i ∈ [m] : εi = ±1 e T± = j ∈ [n] : δj = ±1.Pela desigualdade triangular,

∣∣∣∣∣∣∑ij

aijεiδj

∣∣∣∣∣∣ =

∣∣∣∣∣∣∣∣∑i∈S+

j∈T+

aij +∑i∈S−j∈T−

aij −∑i∈S+

j∈T−

aij −∑i∈S−j∈T+

aij

∣∣∣∣∣∣∣∣ ≤ 4‖A‖cut.

Tomando εimi=1 e δjnj=1 que maximiza∑

ij aijεiδj , obtemos a desigualdade da direita.Suponhamos agora que ‖A‖cut = |

∑i∈S0,j∈T0 aij |. Denimos xi = 1 se i ∈ S0 e xi = −1 caso

contrário, e analogamente, yj = 1 se j ∈ T0 e yj = −1 caso contrário. Temos∣∣∣∣∣∣∣∣∑i∈S0j∈T0

aij

∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∑ij

aijxi + 1

2

yj + 1

2

∣∣∣∣∣∣ =

∣∣∣∣∣∣14∑ij

aij +1

4

∑ij

aijxi +1

4

∑ij

aijyj +1

4

∑ij

aijxiyj

∣∣∣∣∣∣ .O valor absoluto de cada um dos quatro termos do lado direito da igualdade é no máximo ‖A‖∞→1/4.Portanto ‖A‖cut ≤ ‖A‖∞→1.

Como a norma de corte e a norma ‖·‖∞→1 são equivalentes, obtemos o seguinte resultado: Dadauma matriz A = (aij) do tipom×n, se existe um algoritmo polinomial que encontra εi, δj ∈ −1, 1tais que ∑

ij

aijεiδj ≥ ρ‖A‖∞→1,

tomando os conjuntos S+, S− ⊆ [m] e T+, T− ⊆ [n] como S± = i ∈ [m] : εi = ±1 e T± = j ∈[n] : δj = ±1, obtemos

∑ij

aijεiδj ≤ 4 max

∣∣∣∣∣∣∣∣∑i∈Sj∈T

aij

∣∣∣∣∣∣∣∣ : S ∈ S+, S−, T ∈ T+, T−

.

Logo, sendo S0 e T0 os conjuntos que maximizam o lado direito da desigualdade acima, e sabendoque ‖A‖∞→1 ≥ ‖A‖cut temos ∣∣∣∣∣∣∣∣

∑i∈S0j∈T0

aij

∣∣∣∣∣∣∣∣ ≥ρ

4‖A‖cut.

Portanto, existe um algoritmo de aproximação com garantia de desempenho ρ/4 para a norma decorte.

Seja H um espaço de Hilbert. Denotemos por BH o conjunto dos vetores em H de normaunitária. Dada uma matriz A = (aij) do tipo m× n, denimos

SDP(A) = max

∑ij

aij〈ui, vj〉 : uimi=1, vjnj=1 ⊆ BH

. (3.4)

Como m + n vetores em H gera um subespaço vetorial de dimensão no máximo m + n o qualé isométrico ao espaço vetorial Rm+n munido da norma usual, podemos assumir sem perda de

22 NORMA DE CORTE 3.1

generalidade que o conjunto de vetores uimi=1 vjnj=1 está contido em Sm+n−1.É claro que SDP(A) ≥ ‖A‖∞→1, pois o conjunto das soluções viáveis de (3.4) contém o con-

junto das soluções viáveis de (3.2), isto é, existe uma função injetiva dada por f(ε) = (ε, 0, . . . , 0) ∈Sm+n−1 onde ε ∈ −1, 1. Assim∑

ij

aijεiδj =∑ij

aij〈f(εi), f(δj)〉.

Note também que o valor SDP(A) é valor ótimo do programa:

max∑ij

aij〈ui, vj〉

s.a. ‖ui‖2 = ‖vj‖2 = 1 para todo i, j.(3.5)

Note que (3.5) é um relaxamento do programa inteiro quadrático (3.3).Vamos mostrar que o programa (3.5) pode ser expresso como um de programa semidenido.

Proposição 36. Para toda matriz A do tipo m×n, temos que SDP(A) é valor ótimo do programasemidenido abaixo:

max1

2

⟨ 0 A

At 0

, X

s.a. diag(X) = 1;

X 0;

X ∈ R(m+n)×(m+n),

(3.6)

onde 1 = (1, . . . , 1) ∈ Rm+n e diag(X) é a diagonal principal de X.

Demonstração. Sejam u1, . . . , um, v1, . . . , vn ∈ Sm+n−1 vetores unitários tais que

SDP(A) =∑ij

aij〈ui, vj〉.

Denotemos por vj = um+j para cada j ∈ [n] e seja xi,j = 〈ui, uj〉 com i, j ∈ [m + n]. Temos quea matriz X = (xi,j)1≤i,j≤m+n é positiva semidenida pelo item (iii) da Proposição 2. Como xi,i =‖ui‖22 = 1, temos diag(X) = 1.

3.2 APROXIMAÇÃO DETERMINÍSTICA DA NORMA DE CORTE 23

Seja A = 2−1

0 A

At 0

, temos

⟨A,X

⟩=

1

2

∑ij

aijxi,m+j +∑ij

aijxm+j,i

=∑ij

aij

(xi,m+j + xm+j,i

2

)

=∑ij

aij

(〈ui, um+j〉+ 〈um+j , ui〉

2

)=∑ij

aij〈ui, um+j〉

=∑ij

aij〈ui, vj〉

= SDP(A).

Portanto, vprimal ≥ SDP(A).Reciprocamente, seja X = (xi,j) uma solução ótima para o problema (3.6). Temos que X é uma

matriz positiva semidenida. Logo, pelo item (iii) da Proposição 2, existem vetores u1, . . . , um+n ∈Rm+n tais que xi,j = 〈ui, uj〉. Ademais, como diag(X) = 1, temos 1 = xi,i = ‖ui‖2. Tomando vj =um+j com 1 ≤ j ≤ n, os vetores u1, . . . , um, v1, . . . , vn satisfazem

∑ij

aij〈ui, vj〉 =1

2

⟨ 0 A

At 0

, X

⟩= vprimal.

Portanto, vprimal ≤ SDP(A).

3.2 Aproximação determinística da norma de corte

Apresentaremos aqui um algoritmo de ρ-aproximação determinístico em tempo polinomial parao Problema da norma de corte com ρ = 0.03. A prova do teorema se baseia na prova da Desigualdadede Grothendieck em [Gro53]. Apesar da garantia de desempenho ser pequena, os métodos que foramusados na prova são interessantes.

Teorema 37 (AlonNaor, 2006). Existe um algoritmo em tempo polinomial que produz, para todamatriz A = (aij) do tipo m× n, inteiros εimi=1, δjnj=1 ⊆ −1, 1 tais que∑

ij

aijεiδj ≥ 0.03 SDP(A).

Sabendo que SDP(A) ≥ ‖A‖∞→1, o Teorema 37 garante que existe um algoritmo em tempopolinomial que produz inteiros εimi=1, δjnj=1 ⊆ −1, 1 tais que∑

ij

aijεiδj ≥ 0.03‖A‖∞→1.

Sejam p = m + n e V um conjunto de t = O(p2) vetores ε = (ε1, . . . , εp) ∈ −1, 1p parao qual os valores εj são quatro a quatro independentes e cada um são iguais a −1 ou 1 com a

24 NORMA DE CORTE 3.2

mesma probabilidade. Lembremos que um conjunto de variáveis aleatórias são k a k independentesse qualquer k variáveis aleatórias do conjunto são independentes. Podemos interpretar o espaço Vda seguinte maneira: para cada quatro coordenadas distintas 1 ≤ i1 < i2 < i3 < i4 ≤ p e cadaescolha de δ1, . . . , δ4 ∈ −1, 1, exatamente t/16 vetores em V tem εik = δk, com 1 ≤ k ≤ 4. Oconjunto V é chamado de Orthogonal Array of Strenght 4, e o método para construir esse conjuntopode ser visto em [ABI86] e [AS08].

Considere V como um espaço amostral para o qual os elementos estão distribuídos uniforme-mente. Para cada vetor unitário q = (q1, . . . , qp) ∈ Rp, denimos H(q) a variável aleatória denidasobre o espaço V dada por

[H(q)](ε) =

p∑j=1

εjqj .

Proposição 38. Dados q, q′ ∈ Rp dois vetores unitários, o valor esperado de H(q)H(q′) é igual aoproduto interno 〈q, q′〉.

Demonstração. Sejam q = (q1, . . . , qp) e q′ = (q′1, . . . , q′p) dois vetores unitários. Como V é um

espaço amostral tal que os elementos são distribuídos uniformemente, segue que

E[H(q)H(q′)] =1

t

∑ε∈V

H(q)(ε)H(q′)(ε)

=1

t

p∑i,j=1

qiq′j

(∑ε∈V

εiεj

)

=1

t

p∑i=1

qiq′i

(∑ε∈V

ε2i

)+

1

t

p∑i,j=1i 6=j

qiq′j

(∑ε∈V

εiεj

)

Note que∑

ε∈V ε2i = t. Como εj são quatro a quatro independentes, temos que εj são dois a

dois independentes. Logo, para toda duas coordenadas distintas i1, i2 e cada δ1, δ2 ∈ −1, 1,exatamente t/4 vetores em V tem εik = δk com k = 1, 2. Assim,∑

ε∈Vεiεj = 2

t

4+ (−1)2

t

4= 0.

Portanto E[H(q)H(q′)] = 〈q, q′〉, como queríamos.

Em particular, o valor esperado de [H(q)]2 é igual a 1. Agora vamos calcular uma cota superiorpara o valor esperado de [H(q)]4.

Proposição 39. Dado q ∈ Rp um vetor unitário, o valor esperado de [H(q)]4 é no máximo 3.

Demonstração. Seja q = (q1, . . . , qp) ∈ Rp um vetor unitário. Como V é um espaço amostral talque os elementos são distribuídos uniformemente, segue que o valor esperado de [H(q)]4 é igual a

E([H(q)]4) =1

t

∑ε∈V

[H(q)(ε)]4

=1

t

p∑i,j,k,l=1

qiqjqkql

(∑ε∈V

εiεjεkεl

)

=1

t

p∑i=1

q4i

(∑ε∈V

ε4i

)+

1

2t

(4

2

) p∑∗

i,j=1

q2i q

2j

(∑ε∈V

ε2i ε

2j

)

+1

2t

4!

2!

p∑∗

i,j,k=1

qiqjq2k

(∑ε∈V

εiεjε2k

)+

1

t

p∑∗

i,j,k,l=1

qiqjqkql

(∑ε∈V

εiεjεkεl

),

3.2 APROXIMAÇÃO DETERMINÍSTICA DA NORMA DE CORTE 25

onde∑∗ é a soma sobre todas as coordenadas duas a duas distintas.

Sabemos que, para cada par de coordenadas i e j distintas,(∑ε∈V

ε4i

)=

(∑ε∈V

ε2i ε

2j

)= t,

e, pela prova da Proposição 38, como os εj são dois a dois independentes, para cada coorde-nada i, j, k duas a duas distintas, temos(∑

ε∈Vεiεjε

2k

)=

(∑ε∈V

εiεj

)= 0.

Como εj são quatro a quatro independentes, para cada coordenada i1, i2, i3, i4 duas a duas distintase cada δ1, δ2, δ3, δ4 ∈ −1, 1, exatamente t/16 vetores em V tem εik = δk com k = 1, 2, 3, 4. Assim,(∑

ε∈Vεiεjεkεl

)=

[(4

0

)+

(4

2

)+

(4

4

)]t

16+ (−1)

[(4

1

)+

(4

3

)]t

16= 0.

Sabendo que p∑j=1

q2j

2

=

p∑j=1

q4j

+ 2

∑1≤i<j≤p

q2i q

2j

,

temos

E([H(q)]4) =

p∑j=1

q4j + 6

∑1≤i<j≤p

q2i q

2j ≤ 3

p∑j=1

q2j

2

≤ 3,

como queríamos.

O M -truncamento de H(q), denotado por HM (q), é uma variável aleatória de V nos reaisdenida como

HM (q)(ε) =

−M, se [H(q)](ε) < −M ;

[H(q)](ε), se |[H(q)](ε)| ≤M ;

M, se [H(q)](ε) > M.

Proposição 40. Dado um vetor unitário q ∈ Rp, o valor esperado de [HM (q)]2 é no máximo 1.

Demonstração. Note que o evento [|HM (q)| ≥ m] é igual ao evento [|H(q)| ≥ m] quando 0 ≤ m ≤M . Assim

E([HM (q)]2) =

∫ ∞0

P[|HM (q)| ≥√x] dx ≤

∫ ∞0

P[|H(q)| ≥√x] dx = E([H(q)]2) = 1,

como queríamos

Queremos saber em média quanto H(q) e HM (q) se diferem. Para isso, recordemos da Desigual-dade de Markov.

Teorema 41 (Desigualdade de Markov). Seja X uma variável aleatória. Para todo real t > 0,temos

P[|X| ≥ λ] ≤E[|X|t

]λt

para todo real λ > 0.

26 NORMA DE CORTE 3.2

Pela Desigualdade de Markov, para todo real m > 0,

P[|H(q)| ≥ m] ≤ E([H(q)]4)

m4≤ 3

m4. (3.7)

A desigualdade (3.7) será útil para o lema abaixo.

Lema 42. O valor esperado de |H(q)−HM (q)|2 satisfaz

E[|H(q)−HM (q)|2] ≤ 1

M2.

Demonstração. Note que

H(q)(ε)−HM (q)(ε) =

H(q)(ε) +M se H(q)(ε) < −M ;

0 se |H(q)(ε)| ≤M ;

H(q)(ε)−M se H(q)(ε) > M.

Logo,

|H(q)(ε)−HM (q)(ε)| =

0 se |H(q)(ε)| ≤M ;

|H(q)(ε)| −M se |H(q)(ε)| > M.

Assim, o evento [|H(q) − HM (q)| ≥√m] é igual ao evento [|H(q)| ≥ M +

√m]. Portanto, pela

desigualdade (3.7), temos que

E[|H(q)−HM (q)|2] =

∫ +∞

0P[|H(q)−HM (q)| ≥

√m] dm

=

∫ +∞

0P[|H(q)| ≥M +

√m] dm

≤∫ +∞

0

3

M +√m

dm

=1

M2,

como queríamos.

Cada variável aleatória H(q) pode ser associada a um vetor h(q) em Rt denido por [h(q)](ε) =[H(q)(ε)]/

√t. O M -truncamento hM (q) = HM (q)/

√t é denido analogamente como em HM (q).

Lema 43. Para cada vetor unitário q ∈ Rp, o vetor h(q) ∈ Rt é unitário. A norma de hM (q) é nomáximo 1, e a norma de h(q) − hM (q) é no máximo 1/M . Se q′ ∈ Rp é um outro vetor unitário,então 〈h(q), h(q′)〉 = 〈q, q′〉.

Demonstração. Seja q um vetor unitário em Rp. O vetor h(q) é unitário pois

‖h(q)‖22 =∑ε∈V

h(q)(ε)2 =1

t

∑ε∈V

H(q)(ε)2 = E[H(q)2] = 1.

Seja M > 0 um real qualquer. A norma do vetor hM (q) é no máximo um pois

‖hM (q)‖22 =∑ε∈V

hM (q)(ε)2 =1

t

∑ε∈V

HM (q)(ε)2 = E[HM (q)2] ≤ 1.

3.2 APROXIMAÇÃO DETERMINÍSTICA DA NORMA DE CORTE 27

A norma de h(q)− hM (q) é no máximo 1/M pois

‖h(q)− hM (q)‖22 =∑ε∈V|h(q)(ε)− hM (q)(ε)|2 =

1

t

∑ε∈V|H(q)(ε)−HM (q))(ε)|2

= E[|H(q)−HM (q)|2] ≤ 1

M2.

Seja q′ um vetor unitário em Rp. Temos

〈h(q), h(q′)〉 =∑ε∈V

h(q)(ε)h(q′)(ε) =1

t

∑ε∈V

H(q)(ε)H(q′)(ε)

= E[H(q)H(q′)]

= 〈q, q′〉,

como queríamos.

Mostremos o Teorema 37. Enunciaremos o teorema novamente abaixo.

Teorema 44. Existe um algoritmo em tempo polinomial que produz, para toda matriz A = (aij) dotipo m× n, inteiros εimi=1, δjnj=1 ⊆ −1, 1 tais que∑

ij

aijεiδj ≥ 0.03 SDP(A).

Demonstração. Sejam A uma matriz do tipom×n e δ > 0 um real qualquer. Sejam uimi=1, vjnj=1

uma solução do programa semidenido SDP(A) satisfazendo∑ij

aij〈ui, vj〉 ≥ SDP(A)− δ.

Como 〈h(q), h(q′)〉 = 〈q, q′〉 para todo vetor unitário q, q′, segue que

SDP(A)− δ ≤∑ij

aij〈ui, vj〉

=∑ij

aij〈h(ui), h(vj)〉

=∑ij

aij〈hM (ui), hM (vj)〉+

∑ij

aij〈h(ui)− hM (ui), hM (vj)〉+∑

ij

aij〈h(ui), h(vj)− hM (vj)〉.

Pela convexidade do programa, e como a norma dos vetores hM (vj) e h(ui) é no máximo 1, e anorma de cada vetor h(ui)− hM (ui) e de cada vetor h(vj)− hM (vj) é no máximo 1/M , temos∑

ij

aij〈h(ui)− hM (ui), hM (vj)〉+

∑ij

aij〈h(ui), h(vj)− hM (vj)〉

=1

M

∑ij

aij〈M(h(ui)− hM (ui)), hM (vj)〉+

1

M

∑ij

aij〈h(ui),M(h(vj)− hM (vj))〉

≤ 2

MSDP(A).

28 NORMA DE CORTE 3.3

Portanto,

SDP(A)

(1− 2

M

)− δ ≤

∑ij

aij〈hM (ui), hM (vj)〉

=∑ij

aij∑ε∈V

hM (ui)(ε)hM (vj)(ε)

=∑ε∈V

∑ij

aijhM (ui)(ε)h

M (vj)(ε).

Logo, existe ε ∈ V tal que∑ij

aijhM (ui)(ε)h

M (vj)(ε) ≥1

t

[SDP(A)

(1− 2

M

)− δ].

Assim, ∑ij

aijHM (ui)(ε)H

M (vj)(ε) ≥ SDP(A)

(1− 2

M

)− δ.

Tomando M = 3, e denindo εi = HM (ui)(ε)/M e δj = HM (vj)(ε)/M , temos que εi e δj são reaissatisfazendo ∑

ij

aijεiδj ≥ SDP(A)

(M − 2

M3

)− δ

M2=

SDP(A)

27− δ

9. (3.8)

Fixando todo os εi, δj menos, digamos ε1, temos que o lado esquerdo da desigualdade (3.8) éuma função linear em ε1, e logo podemos transladar ε1 a −1 ou 1, sem diminuir o valor da soma.Procedendo para cada outra variável, obtemos εi, δj ∈ −1, 1 satisfazendo a desigualdade (3.8).Como 1/27 ≥ 0.03 e tomando δ arbitrariamente pequeno, obtemos a desigualdade desejada.

3.3 Melhorando a garantia de desempenho

Na Seção 3.2, obtivemos uma aproximação da norma do corte com garantia de desempenho iguala ρ = 0.03. Vamos melhorar essa garantia de desempenho para ρ = 0.27 construindo um algoritmoque se baseia na prova do Teorema de Grothendieck por Rietz [Rie74].

Denimos a função sinal sign : R→ −1, 0, 1 por

sign(x) =

−1, se x < 0;

0, se x = 0;

1, se x > 0.

Sejam p = m + n e g1, . . . , gp variáveis aleatórias normais independentes, e considere o vetoraleatório normal G = (g1, . . . , gp). Vamos precisar do seguinte lema.

Lema 45. Seja G = (g1, . . . , gp) um vetor aleatório normal, e sejam b, c vetores unitários em Rp.Temos a seguinte identidade:

π

2E[sign〈b,G〉 sign〈c,G〉] = 〈b, c〉+E

[〈b,G〉 −

√π

2sign〈b,G〉

] [〈c,G〉 −

√π

2sign〈c,G〉

]. (3.9)

Demonstração. Mostremos primeiramente que

E[〈b,G〉〈c,G〉] = 〈b, c〉.

3.3 MELHORANDO A GARANTIA DE DESEMPENHO 29

Sabendo que E[gigj ] = δij , e escrevendo b = (b1, . . . , bp) e c = (c1, . . . , cp), temos

E[〈b,G〉〈c,G〉] = E

p∑i=1

bigi

p∑j=1

cjgj

=

p∑i,j=1

bicjE[gigj ] =

p∑i=1

bici = 〈b, c〉.

Para calcular E[〈b,G〉 sign〈c,G〉] podemos assumir, por invariância rotacional, que c = (1, 0, . . . , 0)e b = (b1, b2, 0, . . . , 0). Assim

E[〈b,G〉 sign〈c,G〉] = E[(b1g1 + b2g2) sign(g1)]

= E[b1g1 sign(g1)] + E[b2g2]E[sign(g1)]

= E[b1g1 sign(g1)]

= 2b1

∫ ∞0

1√2πxe−x

2/2 dx

=

√2

πb1

=

√2

π〈b, c〉,

onde na segunda igualdade usamos que as variáveis aleatórias g2 e sign(g1) são independentese E[sign(g1)] = 0, e na quarta e na quinta igualdade usamos que

E[g1 sign(g1)] =

∫ +∞

−∞

|x|√2πe−x

2/2 dx = 2

∫ +∞

0

x√2πe−x

2/2 dx =2√2π

∫ +∞

0xe−x

2/2 dx =2√2π.

Portanto,

E[〈b,G〉 −

√π

2sign〈b,G〉

] [〈c,G〉 −

√π

2sign〈c,G〉

]= E [〈b,G〉〈c,G〉]−

√π

2E [〈b,G〉 sign〈c,G〉]−

√π

2E [〈c,G〉 sign〈b,G〉] +

π

2E[sign〈b,G〉 sign〈c,G〉]

= −〈b, c〉+π

2E[sign〈b,G〉 sign〈c,G〉],

como queríamos.

O Lema 45 é essencial para melhorar a garantia de desempenho para a aproximação da soluçãodo programa (3.5).

Teorema 46 (AlonNaor, 2006). Existe um algoritmo em tempo polinomial que produz, para todamatriz A = (aij) do tipo m× n, inteiros εimi=1, δjnj=1 ⊆ −1, 1 tais que

∑ij

aijεiδj ≥(

4

π− 1

)‖A‖∞→1.

Demonstração. Sejam uimi=1, vjnj=1 ⊆ Sm+n−1 soluções ótimas do programa (3.5). Substituin-do ui e vj na identidade (3.9) do Lema 45, multiplicando por aij e somando todos os termos, temos

π

2E

∑ij

aij sign〈ui, G〉 sign〈vj , G〉

= SDP(A) +

∑ij

aijE[〈b,G〉 −

√π

2sign〈b,G〉

] [〈c,G〉 −

√π

2sign〈c,G〉

].

(3.10)

30 NORMA DE CORTE 3.3

Para cada vetor unitário b, seja z(b,G) = 〈b,G〉−√π/2 sign〈b,G〉. Note que z(b,G) é uma variável

aleatória para todo vetor unitário b.Para cada duas variáveis aleatórias X,Y , a operação 〈X,Y 〉 = E[XY ] dene um produto interno

de um espaço de variáveis aleatórias. Assim, para todo vetor unitário b,

〈z(b,G), z(b,G)〉 = E

[〈b,G〉 −

√π

2sign〈b,G〉

]2

2E[(sign〈b,G〉)2]− ‖b‖22

2− 1.

Como temos um produto interno em um espaço de Hilbert (o espaço de variáveis aleatórias) e oprograma (3.5) foi denido sobre qualquer espaço de Hilbert, temos que para toda variável aleató-ria X,Y com norma

√π/2− 1, temos∑

ij

aij〈X,Y 〉 ≤(π

2− 1)SDP(A).

Em particular, tomando X = −z(ui, G) e Y = z(vj , G),∑ij

aij〈−z(ui, G), z(vj , G)〉 ≤(π

2− 1)SDP(A).

Multiplicando ambos os lados por −1, e pela denição do produto interno,∑ij

aijE[z(ui, G)z(vj , G)] ≥(

1− π

2

)SDP(A).

Substituindo agora a identidade (3.10), obtemos

π

2E

∑ij

sign〈ui, G〉 sign〈vj , G〉

≥ (2− π

2

)SDP(A).

Sabendo que SDP(A) ≥ ‖A‖∞→1 e tomando εi = sign〈ui, G〉 e δj = sign〈vj , G〉, o resultadosegue.

Capítulo 4

Desigualdade de Grothendieck

A Desigualdade de Grothendieck é uma importante desigualdade da teoria dos espaços de Ba-nach. Foi provado por Alexander Grothendieck em 1956 e publicado no artigo Résumé de la théoriemétrique des produits tensoriels topologiques [Gro53].

Como o artigo [Gro53] foi escrito em francês e foi publicado em uma revista brasileira de poucacirculação, foi praticamente ignorado pelos pesquisadores na época, apesar de o artigo ser revisadoem Math Reviews por Dvoretzky.

Em 1968, Lindenstrauss e Peªczýnski, em [LP68], descobriram vários resultados utilizando aDesigualdade de Grothendieck, solucionando até problemas em aberto que foram questionados apósa publicação do artigo de Grothendieck.

A Desigualdade de Grothendieck possui várias aplicações, tanto na teoria dos espaços de Banachquanto em outras áreas, como em C∗-álgebra [Pis86], mecânica quântica [Tsi85], teoria da informa-ção quântica [PGWP+08] e ciência da computação [AN06]. Uma boa referência sobre o assunto éa recente pesquisa de Pisier [Pis12]. A pesquisa de Khot e Naor [KN12] dedica nas aplicações daDesigualdade de Grothendieck exclusivamente na ciência da computação.

4.1 Argumento de Krivine

Enunciemos a versão elementar do resultado de Grothendieck reformulado por Lindenstrauss ePeªczýnski.

Teorema 47 (Grothendieck, 1953). Seja (aij) uma matriz do tipo m × n tal que para todo intei-ros εimi=1, δjnj=1 em −1, 1 temos ∣∣∣∣∣∣

∑ij

aijεiδj

∣∣∣∣∣∣ ≤M, (4.1)

para algum M real positivo. Então para todo espaço de Hilbert H existe um real positivo K quenão depende da matriz e nem de m e n tal que para todos vetores unitários uimi=1, vjnj=1 em H,temos ∣∣∣∣∣∣

∑ij

aij〈ui, vj〉

∣∣∣∣∣∣ ≤ KM. (4.2)

O ínmo da constante K sobre todo espaço de Hilbert e m,n inteiros positivos é denotadopor KG, chamado de constante de Grothendieck.

A seguir, veremos que podemos obter uma relação entre SDP(A) e ‖A‖∞→1 a partir do Teo-rema 47.

Corolário 48 (Desigualdade de Grothendieck). Para toda matriz A do tipo m× n, temos

SDP(A) ≤ KG‖A‖∞→1. (4.3)

31

32 DESIGUALDADE DE GROTHENDIECK 4.1

Demonstração. Basta tomar M = ‖A‖∞→1 na desigualdade (4.1), tomar H = Rm+n e calcular omáximo de |

∑ij aij〈ui, vj〉| sobre todos os vetores unitários uimi=1, vjnj=1 em Rm+n na desigual-

dade (4.2).

A desigualdade (4.3) é conhecida por Desigualdade de Grothendieck. Sabendo que ‖A‖∞→1 ≤SDP(A), e pelo Corolário 48, temos

‖A‖∞→1 ≤ SDP(A) ≤ KG‖A‖∞→1.

Calcular o valor exato da constante de Grothendieck é ainda um problema em aberto. Em[Gro53] Grothendieck apresentou a seguinte cota:

1, 570 . . . =π

2≤ KG ≤ senh

(π2

)= 2.301 . . .

Após algum progresso obtido por Rietz [Rie74], Krivine [Kri77] mostrou que

KG ≤π

2 log(1 +√

2)= 1.782 . . . (4.4)

e conjecturou que esse é o valor exato. Sua conjectura foi desprovada por Braverman, Makarychev,Makarychev e Naor [BMMN11] e provaram que a cota superior de Krivine não é ótima. A cota deKrivine é a melhor até então.

A melhor cota inferior para KG foi apresentada por Reeds em um artigo não publicado [Ree91],provando que

KG ≥π

2eη

20 = 1.676 . . . (4.5)

onde η0 = 2.25573 . . . é a solução única da equação

1− 2

√2

π

∫ η

0e−z

2/2dz =2

πe−η

2.

Alon e Naor apresentaram em [AN06] uma aplicação da Desigualdade de Grothendieck na teoriados grafos. Eles encontraram um algoritmo de aproximação em tempo polinomial para a norma docorte. Ademais, provaram que o problema de aproximar a norma do corte de uma matriz real é MAXSNP-difícil. O algoritmo encontra dois subconjuntos S0 ⊆ [m] e T0 ⊆ [n] tais que |

∑i∈S0,j∈T0 aij | ≥

K−1G ‖A‖cut.O Teorema de Raghavendra e Steurer [RS09] arma que existe uma relação entre a constante

de Grothendieck KG e o problema P = NP , a saber

Teorema 49 (RaghavendraSteurer, 2009). Assumindo a Conjectura do Jogo Único, para todo 0 <K < KG e A uma matriz do tipo m × n, é NP -difícil calcular um real positivo q tal que K−1q ≤‖A‖∞→1.

Recordemos que a Conjectura do Jogo Único arma que um certo problema computacional co-nhecido como Jogo Único é inaproximável. Recomendamos o artigo [Kho02] para mais informações.

Em 1977, Krivine mostrou [Kri77] que a constante de Grothendieck é no máximo π/(2 log(1 +√2). A prova cou conhecida como Argumento de Krivine. Ademais, Krivine conjecturou que esse é

o valor exato da constante. Essa conjectura foi reformulada repetidamente em diversas publicaçõesposteriores; veja por exemplo [Pis78], [Kön01] e [CPTW04].

Vamos apresentar uma prova da Desigualdade de Grothendieck devido ao Alon e Naor, que éuma versão simplicada do Argumento de Krivine.

Para provar a Desigualdade de Grothendieck será necessário o lema a seguir, conhecido comoIdentidade de Grothendieck.

Lema 50 (Grothendieck, 1953). Sejam x, y vetores unitários em Rn e r um vetor unitário escolhidouniformemente ao acaso de acordo com a distribuição de probabilidade invariante por rotação sobre

4.1 ARGUMENTO DE KRIVINE 33

a esfera unitária. Temos

E[sign〈x, r〉 sign〈y, r〉] =2

πarcsen〈x, y〉.

Demonstração. Por denição, a esperança pode ser calculada como

E[sign〈x, r〉 sign〈y, r〉] = P[sign〈x, r〉 = sign〈y, r〉]− P[sign〈x, r〉 6= sign〈y, r〉].

ComoP[sign〈x, r〉 = sign〈y, r〉] = 1− P[sign〈x, r〉 6= sign〈y, r〉],

basta calcular a probabilidade dos sinais de 〈x, r〉 e 〈y, r〉 serem diferentes.Por simetria, temos P[sign〈x, r〉 6= sign〈y, r〉] = 2P[sign〈x, r〉 ≥ 0 e sign〈y, r〉 < 0]. O con-

junto r ∈ Sn−1 : sign〈x, r〉 ≥ 0 e sign〈y, r〉 < 0 corresponde à interseção de dois semi-espaçoscujo ângulo diedral é θ = arccos〈x, y〉, e por simetria da esfera, o conjunto tem medida igual a θ/2πvezes a medida da esfera unitária. Logo

P[sign〈x, r〉 ≥ 0 e sign〈y, r〉 < 0] =arccos〈x, y〉

2π.

PortantoE[sign〈x, r〉 sign〈y, r〉] = 1− 2P[sign〈x, r〉 6= sign〈y, r〉]

= 1− 2

(2

arccos〈x, y〉2π

)= 1− 2

πarccos〈x, y〉

=2

πarcsen〈x, y〉.

Usamos a identidadearcsen t+ arccos t =

π

2

para obter a igualdade desejada.

Sejam v = (v1, . . . , vm) ∈ Rm e w = (w1, . . . , wn) ∈ Rn. O produto tensorial é o vetor em Rmndenido como segue,

v ⊗ w = (v1w1, . . . , v1wn, v2w1, . . . , vmwn).

Note que〈u1 ⊗ v1, u2 ⊗ v2〉 = 〈u1, u2〉〈v1, v2〉 (4.6)

para todo u1, u2 ∈ Rm e v1, v2 ∈ Rn. De fato, sejam ui = (u1i , . . . , u

mi ) e vi = (v1

i , . . . , vni ) com i =

1, 2.

〈u1 ⊗ v1, u2 ⊗ v2〉 =∑ij

ui1vj1ui2vj2 =

(m∑i=1

ui1ui2

) n∑j=1

vj1vj2

= 〈u1, u2〉〈v1, v2〉.

Lema 51. Sejam u1, . . . , um e v1, . . . , vn vetores unitários em Rm+n. Existem vetores unitári-os u′imi=1 e v′jnj=1 em Rm+n tais que

π

2E[sign〈u′i, r〉 sign〈v′j , r〉] = c〈ui, vj〉 (4.7)

para todo 1 ≤ i ≤ m e 1 ≤ j ≤ n, onde c = log(1 +√

2) = senh−1(1).

Demonstração. Sejam u, v ∈ Rm+n. Por Expansão de Taylor,

sen(c〈u, v〉) =

∞∑k=0

(−1)kc2k+1

(2k + 1)!〈u, v〉2k+1.

34 DESIGUALDADE DE GROTHENDIECK 4.1

Para todo vetor w e inteiro positivo j, denotemos por w⊗j a j-ésima potência tensorial w⊗ . . .⊗w.Pela identidade (4.6), temos 〈u, v〉n = 〈u⊗n, v⊗n〉. Dessa forma,

sen(c〈u, v〉) =∞∑k=0

(−1)kc2k+1

(2k + 1)!〈u⊗(2k+1), v⊗(2k+1)〉. (4.8)

Seja o espaço de Hilbert H =⊕∞

k=0(Rm+n)⊗(2k+1) munido do produto interno dado por

〈f, g〉 =

∞∑k=0

〈fk, gk〉,

onde fk, gk ∈ (Rm+n)⊗(2k+1).Considere os seguintes vetores no espaço H cujas k-ésimas coordenadas são dadas por

T (u)k = (−1)k

√c2k+1

(2k + 1)!u⊗(2k+1)

S(v)k =

√c2k+1

(2k + 1)!v⊗(2k+1).

A equação (4.8) pode ser expressa como sen(c〈u, v〉) = 〈T (u), S(v)〉, que implica

c〈u, v〉 = arcsen〈T (u), S(v)〉.

Note que

‖T (u)‖2 = 〈T (u), T (u)〉 =∞∑k=0

c2k+1

(2k + 1)!(‖u‖2)2k+1 = senh(c‖u‖2)

‖S(v)‖2 = 〈S(v), S(v)〉 =∞∑k=0

c2k+1

(2k + 1)!(‖v‖2)2k+1 = senh(c‖v‖2).

Dados uimi=1 e vjnj=1 vetores unitários, denimos u′i = T (ui) e v′j = S(vj). Note que tais vetoressão unitários, já que c = senh−1(1).

Seja r um vetor aleatório escolhido uniformemente ao acaso sobre a esfera unitária. Pelo lema(50),

π

2E[sign〈T (ui), r〉 sign〈S(vj), r〉] = arcsen〈T (ui), S(vj)〉 = c〈ui, vj〉,

como queríamos.

Teorema 52 (Krivine, 1977). Para toda matriz A do tipo m× n, temos

SDP(A) ≤ π

2 log(1 +√

2)‖A‖∞→1.

Demonstração. Seja A uma matriz do tipom×n e δ > 0. Existem vetores unitários uimi=1, vjnj=1

tais que ∑ij

aij〈ui, vj〉 ≥ SDP(A)− δ.

Pelo Lema 51, existem vetores unitários u′1, . . . , u′m, v

′1, . . . , v

′n satisfazendo a identidade (4.7).

Escolha um vetor aleatório r ∈ Sm+n−1 de acordo com a distribuição de probabilidade invariante

4.2 APROXIMAÇÃO DA NORMA DE CORTE VIA DESIGUALDADE DE GROTHENDIECK 35

por rotação sobre a esfera unitária. Sejam εi = sign〈u′i, r〉 e δj = sign〈v′j , r〉. Temos

‖A‖∞→1 ≥ E

∑ij

aijεiδj

=∑ij

aijE[sign〈u′i, r〉 sign〈v′j , r〉]

=∑ij

aij2

πc〈ui, vj〉

=2

πc(SDP(A)− δ).

Fazendo δ → 0, obtemos SDP(A) ≤ π2 log(1+

√2)‖A‖∞→1, como queríamos.

4.2 Aproximação da norma de corte via Desigualdade de Grothen-

dieck

O Problema da Norma de Corte é o problema que consiste em calcular a norma de corte de qual-quer matriz. Em [AN06], Alon e Naor encontraram um algoritmo de aproximação para o Problemada Norma de Corte baseando na prova de Krivine. Ademais, esse algoritmo de aproximação possuia garantia de desempenho igual a K−1

G . Apresentaremos nesta seção a construção desse algoritmo.Pelo Lema 35, temos que para toda matriz A do tipo m× n, vale ‖A‖∞→1 ≤ 4‖A‖cut. Veremos

agora qual é a condição necessária para que ocorra a igualdade.

Lema 53. Seja A uma matriz do tipo m× n. Se a soma de cada linha e de cada coluna é igual azero, então

‖A‖cut =1

4‖A‖∞→1.

Demonstração. Pelo Lema 35, vale que ‖A‖cut ≥ ‖A‖∞→1/4.Mostremos o outro lado da desigualdade. Sejam dois conjuntos quaisquer S ⊆ [m] e T ⊆ [n] e

dena, para cada i ∈ [m] e j ∈ [n],

εi =

1, se i ∈ S;

−1, se i /∈ S,e δj =

1, se j ∈ T ;

−1, se j /∈ T.

Usando o fato que a soma de cada linha e de cada coluna de A é igual a zero, obtemos

∑i∈Sj∈T

aij =

m∑i=1

n∑j=1

aij1 + εi

2.1 + δj

2=

1

4

m∑i=1

n∑j=1

aijεiδj ≤1

4‖A‖∞→1,

como queríamos.

Dada uma matriz A do tipo m×n, denimos a matriz B = (bij) do tipo (m+ 1)× (n+ 1) como

B =

a11 a12 · · · a1n −∑n

j=1 a1j

a21 a22 · · · a2n −∑n

j=1 a2j

......

. . ....

...

am1 am2 · · · amn −∑n

j=1 amj

−∑m

i=1 ai1 −∑m

i=1 ai2 · · · −∑m

i=1 ain∑m

i=1

∑nj=1 aij

. (4.9)

36 DESIGUALDADE DE GROTHENDIECK 4.2

Note que a soma de cada linha e de cada coluna da matriz B é igual a zero. Logo ela satisfaz oLema 53. Porém a matriz B possui uma propriedade a mais, que será mostrada no lema a seguir.

Lema 54. Seja A uma matriz do tipo m × n e considere a matriz B denida em (4.9). Te-mos ‖A‖cut = ‖B‖cut.

Demonstração. Sejam S ⊆ [m+ 1] e T ⊆ [n+ 1], e denimos S∗ ⊆ [m] e T ∗ ⊆ [n] como

S∗ =

S, se m+ 1 /∈ S;

[m] \ S, se m+ 1 ∈ S.e T ∗ =

T, se n+ 1 /∈ T ;

[n] \ T, se n+ 1 ∈ T.

Mostremos que ∣∣∣∣∣∣∣∣∑i∈Sj∈T

bij

∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∣∣∑i∈S∗j∈T ∗

aij

∣∣∣∣∣∣∣∣ (4.10)

para todo S ⊆ [m+ 1] e T ⊆ [n+ 1]. Temos os seguintes casos:Caso 1. Se m+ 1 /∈ S e n+ 1 /∈ T , então S∗ = S e T ∗ = T . Portanto bij = aij para todo i ∈ S

e j ∈ T , satisfazendo (4.10).Caso 2. Se m+ 1 ∈ S e n+ 1 /∈ T , então∣∣∣∣∣∣∣∣

∑i∈Sj∈T

bij

∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∣∣∑

i∈S\m+1j∈T

bij +∑j∈T

b(m+1)j

∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∣∣∑

i∈S\m+1j∈T

aij +∑j∈T

(−

m∑i=1

aij

)∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣∑

i∈S\m+1j∈T

aij −∑i∈[m]j∈T

aij

∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∣∣∑

i∈[m]\Sj∈T

aij

∣∣∣∣∣∣∣∣ .Note que o caso m+ 1 /∈ S e n+ 1 ∈ T é análogo.

Caso 3. Se m+ 1 ∈ S e n+ 1 ∈ T , então∣∣∣∣∣∣∣∣∑i∈Sj∈T

bij

∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∣∣∑

i∈S\m+1j∈T\n+1

bij +∑

i∈S\m+1

bi(n+1) +∑

j∈T\n+1

b(m+1)j + b(m+1)(n+1)

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣∑

i∈S\m+1j∈T\n+1

aij −∑

i∈S\m+1

n∑j=1

aij −∑

j∈T\n+1

m∑i=1

aij +m∑i=1

n∑j=1

aij

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣∑

i∈S\m+1j∈T\n+1

aij −∑

i∈S\m+1j∈[n]

aij −∑i∈[m]

j∈T\n+1

aij +∑i∈[m]j∈[n]

aij

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣−∑

i∈S\m+1j∈[n]\T

aij +∑i∈[m]j∈[n]\T

aij

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣∑

i∈[m]\Sj∈[n]\T

aij

∣∣∣∣∣∣∣∣ .

4.2 APROXIMAÇÃO DA NORMA DE CORTE VIA DESIGUALDADE DE GROTHENDIECK 37

Portanto

‖B‖cut = maxS⊆[m+1]T⊆[n+1]

∣∣∣∣∣∣∣∣∑i∈Sj∈T

bij

∣∣∣∣∣∣∣∣ = maxS⊆[m+1]T⊆[n+1]

∣∣∣∣∣∣∣∣∑i∈S∗j∈T ∗

aij

∣∣∣∣∣∣∣∣ = maxX⊆[m]Y⊆[n]

∣∣∣∣∣∣∣∣∑i∈Xj∈Y

aij

∣∣∣∣∣∣∣∣ = ‖A‖cut,

como queríamos.

Vamos mostrar uma relação entre a norma do corte e a Desigualdade de Grothendieck.

Proposição 55. Existe um algoritmo em tempo polinomial que produz, para toda matriz real A dotipo m× n, um real α > 0 tal que

‖A‖cut ≤ α ≤ KG‖A‖cut.

Demonstração. Fixe uma matriz A do tipom×n qualquer e considere a matriz B denida em (4.9).Pela Desigualdade de Grothendieck (47),

‖B‖∞→1 ≤ SDP(B) ≤ KG‖B‖∞→1.

Dividindo tudo por quatro e aplicando o Lema 53, obtemos

‖A‖cut ≤SDP(B)

4≤ KG‖A‖cut,

como queríamos.

A seguir, apresentaremos o Teorema de Alon e Naor, que é o teorema principal do nosso estudo.

Teorema 56 (AlonNaor, 2006). Existe um algoritmo em tempo polinomial que produz, para todamatriz real A do tipo m× n, dois subconjuntos S0 ⊆ [m] e T0 ⊆ [n] tais que∣∣∣∣∣∣∣∣

∑i∈S0j∈T0

aij

∣∣∣∣∣∣∣∣ ≥ K−1G ‖A‖cut.

Demonstração. Fixe A uma matriz do tipo m × n e considere a matriz B denida em (4.9). Se-jam uim+1

i=1 e vjn+1j=1 vetores unitários em R(m+1)+(n+1) que atingem o máximo de

∑ij aij〈ui, vj〉.

Pelo Lema 51 e pela Proposição 55, existem vetores unitários u′im+1i=1 e v′j

n+1j=1 em R(m+1)+(n+1)

tais que

E

∑i∈[m+1]j∈[n+1]

bij sign〈u′i, r〉 sign〈v′j , r〉

=2

πc∑

i∈[m+1]j∈[n+1]

〈ui, vj〉

=2

πc SDP(B)

≥ 4K−1G ‖A‖cut.

(4.11)

Escolha um vetor aleatório r uniformemente ao acaso sobre a esfera unitária tal que

∑i∈[m+1]j∈[n+1]

bij sign〈u′i, r〉 sign〈v′j , r〉 ≥ E

∑i∈[m+1]j∈[n+1]

bij sign〈u′i, r〉 sign〈v′j , r〉

.

38 DESIGUALDADE DE GROTHENDIECK 4.2

Sejam εi = sign〈u′i, r〉 e δj = sign〈v′j , r〉 e considere os conjuntos

S = i ∈ [m+ 1] : εi = 1 e T = j ∈ [n+ 1] : δj = 1.

Temos ∑i∈Sj∈T

bij =∑

i∈[m+1]j∈[n+1]

bijεi + 1

2· δj + 1

2=

1

4

∑i∈[m+1]j∈[n+1]

bijεiδj .

Logo, pela desigualdade (4.11), ∣∣∣∣∣∣∣∣∑i∈Sj∈T

bij

∣∣∣∣∣∣∣∣ ≥ K−1G ‖A‖cut.

Pelo argumento do Lema 54, tomando S∗ = S0 e T ∗ = T0, obtemos∣∣∣∣∣∣∣∣∑i∈S0j∈T0

aij

∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣∣∣∑i∈Sj∈T

bij

∣∣∣∣∣∣∣∣ ≥ K−1G ‖A‖cut,

como queríamos.

Capítulo 5

Aplicações da Norma de Corte

Alon e Naor, em [AN06], mostraram um algoritmo de aproximação em tempo polinomial queproduz, para toda matriz A = (aij) do tipo m× n, dois subconjuntos S0 ⊆ [m] e T0 ⊆ [n] tais que∣∣∣∣∣∣∣∣

∑i∈S0j∈T0

aij

∣∣∣∣∣∣∣∣ ≥ K−1G ‖A‖cut.

A prova pode ser vista no Capítulo 4, Teorema 56.O objetivo deste capítulo é apresentar aplicações o Teorema 56. Todas as aplicações expostas

aqui são devido a Alon e Naor em [AN06].Serão três aplicações: corte de grafo; Lema da Regularidade de Szemerédi; e Teorema da De-

composição Matricial de Frieze e Kannan.

5.1 Relação entre norma de corte e corte de grafo

Seja GW = (V,E) um grafo com peso qualquer com |V | = n e |E| = m e com matriz depeso W . Seja D um grafo orientado qualquer de G. Denimos a matriz A(D, e1, . . . , em) = (aij)do tipo 2m× n satisfazendo as seguintes condições: (1) Se a aresta ei está orientada de vj para vk,então

a2i−1,j = a2i,k = wjk;

a2i−1,k = a2i,j = −wjk.

(2) As entradas restantes de A(D, e1, . . . , em) são iguais a zero.

Exemplo 57. Seja G = C4 o circuito de ordem quatro com vértices V = v1, v2, v3, v4 compesos w(v1v2) = 1, w(v2v3) = 5, w(v3v4) = 2 e w(v1v4) = 10, e oriente as arestas da forma~v1v2, ~v2v3, ~v4v3 e ~v4v1, seja ~C4 o grafo orientado obtido.Vamos encontrar a matriz A( ~C4, ~v1v2, ~v2v3, ~v4v3, ~v4v1).

v1 v2

v3v4

1

5

2

10

Figura 5.1: Um grafo orientado ~C4

39

40 APLICAÇÕES DA NORMA DE CORTE 5.1

Para cada aresta ~v1v2, ~v2v3, ~v4v3 e ~v4v1 obtemos, respectivamente, as seguintes equações.

(1)

a11 = a22 = 1;

a12 = a21 = −1.(2)

a32 = a43 = 5;

a33 = a42 = −5.

(3)

a54 = a63 = 2;

a53 = a64 = −2.(4)

a74 = a81 = 10;

a71 = a84 = −10.

A matriz A( ~C4, ~v1v2, ~v2v3, ~v4v3, ~v4v1) é igual a

A( ~C4, ~v1v2, ~v2v3, ~v4v3, ~v4v1) =

1 −1 0 0

−1 1 0 0

0 5 −5 0

0 −5 5 0

0 0 −2 2

0 0 2 −2

−10 0 0 10

10 0 0 −10

.

Proposição 58. Para todo grafo com peso GW = (V,E), |V | = n e |E| = m existe uma matriz Ado tipo 2m× n tal que

MAXCUT(W ) = ‖A‖cut.

Demonstração. Mostremos para grafos sem peso, o caso com peso é análogo. Seja G = (V,E) umgrafo qualquer e oriente as arestas arbitrariamente, formando um grafo orientado D. Sejam V =v1, . . . , vn e A = A(D, e1, . . . , em) = (aij) a matriz do tipo 2m×n como denido acima. Mostremosque MAXCUT(G) = ‖A‖cut.

Fixe T ⊆ [n] qualquer. Seja S ⊆ [2m] satisfazendo a seguinte condição: Para cada i ∈ Sexiste j ∈ T tal que aij = 1, e se i /∈ S então para todo j ∈ T temos aij = −1 ou aij = 0 (?).

Tomando X = vj : j ∈ T, vale que∑i∈Sj∈T

aij = e(X,Xc).

Logo, existem S′ ⊆ [2m] e T ′ ⊆ [n] tais que

MAXCUT(G) = maxe(X,Xc) : X ⊆ V =∑i∈S′j∈T ′

aij ≤ ‖A‖cut.

Seja A′ = (aij)i∈S′,j∈T ′ . Mostremos que para todo I ⊆ [2m] e J ⊆ [n], vale que∑i∈Ij∈J

aij ≤∑i∈S′j∈T ′

aij . (5.1)

Claramente a desigualdade (5.1) implica que ‖A‖cut ≤ MAXCUT(G).

5.1 RELAÇÃO ENTRE NORMA DE CORTE E CORTE DE GRAFO 41

Sejam I ⊆ [2m] e J ⊆ [n] conjuntos quaisquer e considere C = (aij)i∈I,j∈J uma submatriz de A.Se I satisfaz (?), então a desigualdade (5.1) é satisfeita. Suponhamos que I não satisfaz (?). Temosdois casos (não-exclusivos):

1. Existem k /∈ I e l ∈ J tais que akl = 1; e

2. Existe k ∈ I tal que para todo l ∈ J , temos akl = −1 ou akl = 0.

SejamI1 = k /∈ I : existe l ∈ J tal que akl = 1,I2 = k ∈ I : para todo l ∈ J , akl = −1 ou akl = 0.

Assim, o conjunto (I \ I2) ∪ I1 ⊆ [2m] satisfaz a condição (?). De fato, para todo i ∈ (I \ I2) ∪ I1

existe j ∈ J tal que aij = 1, e para todo i /∈ (I\I2)∪I1, temos i ∈ ((I\I2)∪I1)c = (I∩I1)c∪(I2∩Ic1),logo para todo j ∈ J temos aij = −1 ou aij = 0. Tomando X = vj : j ∈ J, temos∑

i∈(I\I2)∪I1j∈J

aij = e(X,Xc).

Como I1 contribui com termos não-negativos para a soma, e I2 contribui com termos não-positivospara a soma, temos ∑

i∈Ij∈J

aij ≤∑

i∈(I\I2)∪I1j∈J

aij .

Portanto a desigualdade (5.1) vale para todo I ⊆ [2m] e J ⊆ [n].

A partir do Teorema 56 e do Teorema 58, obtemos um algoritmo de ρ-aproximação para o cortemáximo de um grafo, apesar de a garantia de desempenho não é tão boa quanto a garantia dedesempenho ρ = 0.87856 de Goemans e Williamson [GW95].

Corolário 59. Seja G = (V,E) um grafo com |V | = n e |E| = m. Existe um algoritmo em tempopolinomial que produz uma matriz A do tipo 2m× n e subconjuntos S0 ⊆ [2m] e T0 ⊂ [n] tais que∣∣∣∣∣∣∣∣

∑i∈S0j∈T0

aij

∣∣∣∣∣∣∣∣ ≥ K−1G MAXCUT(G).

Demonstração. Fixe um grafo G = (V,E) com |V | = n e |E| = m qualquer. Pela Proposição 58,existe uma matriz A do tipo 2m× n tal que

MAXCUT(G) = ‖A‖cut.

Pelo Teorema 56, existe um algoritmo em tempo polinomial que produz S0 ⊆ [2m] e T0 ⊆ [n] taisque

‖A‖cut ≤ KG

∣∣∣∣∣∣∣∣∑i∈S0j∈T0

aij

∣∣∣∣∣∣∣∣ .Portanto

MAXCUT(G) ≤ KG

∣∣∣∣∣∣∣∣∑i∈S0j∈T0

aij

∣∣∣∣∣∣∣∣ ,como queríamos.

42 APLICAÇÕES DA NORMA DE CORTE 5.2

Sabendo que o Problema do Corte Máximo é SNP-difícil, temos o seguinte corolário da Propo-sição 58.

Corolário 60. O Problema da Norma de Corte é SNP-difícil.

Ademais, pelo Lema 53, concluímos também que determinar o valor exato da norma ‖·‖∞→1 deuma matriz é SNP-difícil.

5.2 Lema da Regularidade de Szemerédi

O Lema da Regularidade de Szemerédi é um lema fundamental na teoria dos grafos. Foi primei-ramente utilizado na prova da Conjectura de Erd®s e Turán [ET36] sobre progressões aritméticasem subconjuntos sucientemente densos de inteiros. Nesta seção apresentaremos o Lema da Regula-ridade de Szemerédi e a sua versão algorítmica. Há uma excelente pesquisa de Komlós e Simonovits[KS96] sobre o lema.

Sejam G = (V,E) um grafo e X,Y ⊆ V subconjuntos disjuntos dos vértices de G. Denotemospor

d(X,Y ) =e(X,Y )

|X||Y |a densidade do par (X,Y ). Note que, para todo par (X,Y ), vale 0 ≤ d(X,Y ) ≤ 1. Dados ε > 0e A,B ⊆ V dois subconjuntos disjuntos, o par (A,B) é dito ε- regular se para todo X ⊆ A e Y ⊆ Btais que

|X| ≥ ε|A| e |Y | ≥ ε|B|

então| d(X,Y )− d(A,B)| ≤ ε.

Uma partição V0, V1, . . . , Vk de V é dita ε-regular de G se satisfaz as seguintes condições:

1. |V0| ≤ ε|V |;

2. |V1| = . . . = |Vk|;

3. todos os pares (Vi, Vj) com i 6= j são ε-regulares, a menos de no máximo εk2 de tais pares.

Dizemos que uma partição é ε-irregular se não é ε-regular.O Lema da Regularidade de Szemerédi pode ser enunciado como segue.

Teorema 61 (Szemerédi, 1978). Para todo ε > 0 e para todo inteiro m > 0 existe um inteiroM > 0tal que todo grafo de ordem pelo menos m admite uma partição ε-regular V0, V1, . . . , Vk paraalgum m ≤ k ≤M .

Alon, Duke, Lefmann, Rödl e Yuster [ADL+94] provaram a seguinte versão algorítmica doTeorema 61. Denotemos por M(n) o tempo necessário para que um algoritmo multiplique duasmatrizes quadradas com entradas em 0, 1.

Teorema 62 (AlonDukeLefmannRödlYuster, 1994). Existe um algoritmo determinístico A0

que, dado ε > 0, k0 ≥ 1, e um grafo G, produz uma partição ε-regular para G em k partes paraalgum k satisfazendo k0 ≤ k ≤ K ′0, onde K

′0 = K ′0(ε, k0) depende somente de ε e k0. Ademais, o

algoritmo A0 executa em tempo O(M(n)) = O(n2.376) se G tem n vértices.

Considere agora o seguinte problema de decisão.

Problema 63. Dado um grafo G, um par de subconjuntos de vértices (U,W ) em G não-vazios edisjuntos, e um positivo ε, decidir se (U,W ) é ε-regular com respeito a G.

O problema acima é coNP-completo, e a prova pode ser vista em [ADL+94]. Porém, como sepode ver em [ADL+94], para provar o Teorema 62, é suciente resolver uma versão aproximada doproblema de decisão acima. Por exemplo, o seguinte resultado [DLR95] é suciente.

5.2 LEMA DA REGULARIDADE DE SZEMERÉDI 43

Teorema 64 (DukeLefmannRödl, 1995). Existe um algoritmo A1 para o qual a seguinte ar-mação é válida. Quando A1 recebe como entrada um ε > 0 e um grafo bipartido G = (A,B;E)com |A| = |B| = m ≥ (2/ε)5, o algoritmo arma ou que G é ε-regular, ou produz uma teste-munha para a ε′-irregularidade de G, onde ε′ = ε′A1

(ε) = ε5/16. O tempo de execução de A1

é O(M(n)) = O(n2,376).

Kohayakawa, Rödl e Thoma [KRT03] encontraram um resultado que melhora o tempo de exe-cução do Teorema 64:

Teorema 65 (Kohayakawa, Rödl e Thoma, 2003). Existe um algoritmo A para o qual a seguintearmação é válida. Quando A recebe como entrada um ε > 0 e um grafo bipartido G = (A,B;E)com |A| = |B| = m ≥ m0(ε), o algoritmo arma ou que G é ε-regular, ou produz uma testemunhapara a ε′-irregularidade de G, onde ε′ = ε′A(ε) = ε20/1024. O tempo de execução de A é O(m2).

A partir desse Teorema, em [KRT03] obtiveram um algoritmo para o Lema da Regularidade.

Corolário 66. Existe um algoritmo determinístico A′0 que, dado ε > 0, k0 ≥ 1, e um grafo G, produzuma partição ε-regular para G em k partes para algum k satisfazendo k0 ≤ k ≤ K

′′0 , onde K

′′0 =

K′′0 (ε, k0) depende somente de ε e k0. Ademais, o algoritmo A′0 executa em tempo O(n2) se G tem n

vértices.

Usando o Teorema 56, desenvolvemos um algoritmo que, dado um grafo G = (V,E) e um parde conjuntos disjuntos ε-irregular, produz um par de conjuntos disjuntos ε3/2-irregular.

Lema 67. Sejam G = (V,E) um grafo e X,Y ⊆ V subconjuntos disjuntos de V com |X| = |Y | = n.Se o par (X,Y ) é ε-irregular, então existe um algoritmo em tempo polinomial que produz doisconjuntos S ⊆ X e T ⊆ Y tais que

|S| ≥ 1

2ε3n, |T | ≥ 1

2ε3n e | d(S, T )− d(X,Y )| ≥ 1

2ε3.

Demonstração. Sejam G = (V,E) um grafo, e X,Y ⊆ V subconjuntos disjuntos. Considere amatriz A = (axy)(x,y)∈X×Y dada por

axy =

1− d(X,Y ), se x, y ∈ E,− d(X,Y ), se x, y /∈ E.

(5.2)

Pela denição da matriz A, se S ⊆ X e T ⊆ Y , então∑(x,y)∈S×T

axy =∑xy∈E

(x,y)∈S×T

(1− d(X,Y )) +∑xy/∈E

(x,y)∈S×T

(− d(X,Y ))

= e(S, T )−∑

(x,y)∈S×T

d(X,Y )

= e(S, T )− |S||T | d(X,Y )

= |S||T | (d(S, T )− d(X,Y )) .

Logo, ∣∣∣∣∣∣∑

(x,y)∈S×T

axy

∣∣∣∣∣∣ = |S| · |T | · | d(S, T )− d(X,Y )|. (5.3)

Como o par (X,Y ) é ε-irregular, existem S ⊆ X e T ⊆ Y tais que |S| ≥ εn, |T | ≥ εn e | d(S, T )−d(X,Y )| ≥ ε. Juntamente com a equação (5.3),∣∣∣∣∣∣

∑(x,y)∈S×T

axy

∣∣∣∣∣∣ ≥ ε3n2.

44 APLICAÇÕES DA NORMA DE CORTE 5.3

Logo‖A‖cut ≥ ε3n2. (5.4)

Mostremos que, para todo S ⊆ X e T ⊆ Y ,

minn|S|, n|T |, n2| d(S, T )− d(X,Y )|

∣∣∣∣∣∣∑

(x,y)∈S×T

axy

∣∣∣∣∣∣ . (5.5)

Como |S| ≤ n e |T | ≤ n, vale

n2| d(S, T )− d(X,Y )| ≥ |S| · |T | · | d(S, T )− d(X,Y )| =

∣∣∣∣∣∣∑

(x,y)∈S×T

axy

∣∣∣∣∣∣ .Como |axy| ≤ 1 para todo (x, y) ∈ X × Y , pela desigualdade triangular,∣∣∣∣∣∣

∑(x,y)∈S×T

axy

∣∣∣∣∣∣ ≤∑

(x,y)∈S×T

|axy| ≤ |S| · |T |.

Portanto,

n|S| ≥

∣∣∣∣∣∣∑

(x,y)∈S×T

axy

∣∣∣∣∣∣ e n|T | ≥∣∣∣∣∣∣∑

(x,y)∈S×T

axy

∣∣∣∣∣∣ ,provando a desigualdade (5.5).

Pelo Teorema 56, podemos encontrar, em tempo polinomial, dois subconjuntos S0 ⊆ X e T0 ⊆ Ytais que ∣∣∣∣∣∣

∑(x,y)∈S0×T0

axy

∣∣∣∣∣∣ ≥ K−1G ‖A‖cut. (5.6)

Assim, pelas desigualdades (5.4), (5.5) e (5.6), e usando que KG ≤ 2, obtemos

minn|S0|, n|T0|, n2| d(S0, T0)− d(X,Y )|

≥ 1

2ε3n2,

como queríamos.

5.3 Decomposição Matricial de Frieze e Kannan

Uma matriz D = (dij) do tipom×n é dita matriz de corte se existem dois subconjuntos S ⊆ [m]e T ⊆ [n] e um real d tais que para todo (i, j) ∈ [m]× [n],

dij =

d se (i, j) ∈ S × T ;

0 se (i, j) /∈ S × T.

Denotemos a matriz D por CUT (S, T, d). Frieze e Kannan [FK99] mostraram que para todo ε > 0existe um inteiro s = O(1/ε2) tal que para toda matriz A do tipo m× n com cada entrada menorou igual a 1 em valor absoluto, existem matrizes de corte D1, . . . , Ds tais que∥∥∥∥∥A−

s∑k=1

Dk

∥∥∥∥∥cut

≤ εmn.

Ademais, as matrizes de corte D1, . . . , Ds podem ser encontradas em tempo C(ε)(mn)O(1).

5.3 DECOMPOSIÇÃO MATRICIAL DE FRIEZE E KANNAN 45

Frieze e Kannan, em [FK96a], aplicaram o algoritmo de decomposição matricial em dois ramosde pesquisa. A primeira aplicação foi obter uma versão mais fraca do Lema da Regularidade (veja[FK96a], [FK96b] e [DKM+12] para mais detalhes), e a segunda foi estudar alguns problemas degrafos, principalmente o Problema do Corte Máximo com Peso.

Alon e Naor [AN06] obtiveram o Teorema de Frieze e Kannan a partir do Teorema 56.

Teorema 68 (FriezeKannan, 1996). Para todo ε > 0 existe um inteiro s = O(1/ε2) tal quepara toda matriz A = (aij) do tipo m × n tal que |aij | ≤ 1 para todo i, j, existem matrizes decorte D1, . . . , Ds satisfazendo ∥∥∥∥∥A−

s∑k=1

Dk

∥∥∥∥∥cut

≤ εmn.

Essas matrizes de corte D1, . . . , Ds podem ser encontradas em tempo C(ε)(mn)O(1).

Demonstração. Denotemos A0 = A e assumimos que as matrizes de corte D1, . . . , Dr já estãodenidas. Denimos

Ar = (aij(r)) = A−r∑

k=1

Dk. (5.7)

Queremos r tal que ‖Ar‖cut ≤ εmn. Assumimos que ‖Ar‖cut > εmn. Pelo Teorema 56, podemosencontrar, em tempo polinomial, dois subconjuntos S ⊆ [m] e T ⊆ [n] tais que∣∣∣∣∣∣∣∣

∑i∈Sj∈T

aij(r)

∣∣∣∣∣∣∣∣ ≥ K−1G ‖Ar‖cut > K−1

G εmn. (5.8)

Seja

d =1

|S||T |∑i∈Sj∈T

aij(r).

Denimos Dr+1 = CUT (S, T, d). Por denição, Ar+1 = (aij(r + 1)) = Ar −Dr+1. Assim

aij(r + 1) =

aij(r), se i /∈ S ou j /∈ T ;

aij(r)− d, se i ∈ S e j ∈ T .

Somando todos os aij(r + 1)2, obtemos∑ij

aij(r + 1)2 =∑i∈Sj∈T

aij(r + 1)2 +∑i/∈Sj∈T

aij(r + 1)2 +∑i∈Sj /∈T

aij(r + 1)2

=∑i∈Sj∈T

(aij(r)− d)2 +∑i/∈Sj∈T

aij(r)2 +

∑i∈Sj /∈T

aij(r)2.

(5.9)

Como ∑i∈Sj∈T

(aij(r)− d)2 =∑i∈Sj∈T

aij(r)2 − 2d

∑i∈Sj∈T

aij(r) + |S||T |d2

=∑i∈Sj∈T

aij(r)2 − 1

|S||T |

∑i∈Sj∈T

aij(r)

2

,

46 APLICAÇÕES DA NORMA DE CORTE

e sabendo que ∑ij

aij(r)2 =

∑i∈Sj∈T

aij(r)2 +

∑i/∈Sj∈T

aij(r)2 +

∑i∈Sj /∈T

aij(r)2,

concluímos que a soma (5.9) é igual a

∑ij

aij(r + 1)2 =∑ij

aij(r)2 − 1

|S||T |

∑i∈Si∈T

aij(r)

2

. (5.10)

Aplicando a desigualdade (5.8) em (5.10), obtemos∑ij

aij(r + 1)2 ≤∑ij

aij(r)2 −K−2

G ε2mn. (5.11)

Aplicando a desigualdade (5.11) r vezes,

0 ≤∑ij

aij(r)2 ≤

∑ij

a2ij − rK−2

G ε2mn ≤ mn− rK−2G ε2mn,

onde a última igualdade vale pois |aij | ≤ 1 para todo i ∈ [m] e j ∈ [n]. Logo o processo acima deveterminar após r = dK2

Gε−2e = O(ε−2) passos. Portanto, para esse r, temos

‖Ar‖cut ≤ εmn,

como queríamos.

O passo principal da demonstração é produzir conjuntos S, T em tempo polinomial satisfazendoa desigualdade (5.8). Note que obtemos uma aproximação multiplicativa. O algoritmo de Frieze eKannan [FK99] garante uma aproximação aditiva, isto é, o algoritmo recebe uma matriz A = (aij)

do tipo m × n e ε > 0 e produz, em tempo 21/εO(1)(mn)O(1), subconjuntos S ⊆ [m] e T ⊆ [n]

satisfazendo ∣∣∣∣∣∣∣∣∑i∈Sj∈T

aij

∣∣∣∣∣∣∣∣ ≥ ‖A‖cut − εmn. (5.12)

Note que o tempo de execução do algoritmo em [FK99] não é polinomial se, digamos, ε = nΩ(1).Logo o algoritmo de Frieze e Kannan é relevante somente para instâncias densas. Ademais, oalgoritmo que obtivemos no Teorema 68 vale para qualquer valor de ‖A‖cut, o que permite tomarqualquer ε > 0.

Referências Bibliográcas

[AB09] S. Arora e B. Barak. Computational complexity. Cambridge University Press, Cam-bridge, 2009. A modern approach. 14, 15

[ABI86] N. Alon, L. Babai e A. Itai. A fast and simple randomized parallel algorithm for themaximal independent set problem. J. Algorithms, 7(4):567583, 1986. 24

[ADL+94] N. Alon, R. A. Duke, H. Lefmann, V. Rödl e R. Yuster. The algorithmic aspects ofthe regularity lemma. J. Algorithms, 16(1):80109, 1994. 2, 42

[AN06] N. Alon e A. Naor. Approximating the cut-norm via Grothendieck's inequality. SIAMJ. Comput., 35(4):787803 (electronic), 2006. 1, 2, 16, 31, 32, 35, 39, 45

[AS08] N. Alon e J. H. Spencer. The probabilistic method. Wiley-Interscience Series inDiscrete Mathematics and Optimization. John Wiley & Sons, Inc., Hoboken, NJ,third edição, 2008. With an appendix on the life and work of Paul Erd®s. 24

[Bal96] V. Balakrishnan, editor. Linear matrix inequalities in control theory and applications.John Wiley & Sons, Ltd., Chichester, 1996. Internat. J. Robust Nonlinear Control 6(1996), no. 9-10. 8

[BM08] J. A. Bondy e U. S. R. Murty. Graph theory, volume 244 of Graduate Texts inMathematics. Springer, New York, 2008. 13

[BMMN11] M. Braverman, K. Makarychev, Y. Makarychev e A. Naor. The Grothendieck constantis strictly smaller than Krivine's bound. Em 2011 IEEE 52nd Annual Symposium onFoundations of Computer ScienceFOCS 2011, páginas 453462. IEEE ComputerSoc., Los Alamitos, CA, 2011. 32

[Bol79] B. Bollobás. Graph theory, volume 63 of Graduate Texts in Mathematics. Springer-Verlag, New York, 1979. An introductory course. 13

[Bol98] B. Bollobás. Modern graph theory, volume 184 of Graduate Texts in Mathematics.Springer-Verlag, New York, 1998. 13

[BTN02] A. Ben-Tal e A. Nemirovski. On tractable approximations of uncertain linear matrixinequalities aected by interval uncertainty. SIAM J. Optim., 12(3):811833 (electro-nic), 2002. 2

[CPTW04] R. Cleve, Høyer. P., B. Toner e J. Watrous. Consequences and limits of nonlocal stra-tegies. Em In Proceedings of the 19th IEEE Conference on Computational Complexity,páginas 236249, 2004. 32

[Die10] R. Diestel. Graph theory, volume 173 of Graduate Texts in Mathematics. Springer,Heidelberg, fourth edição, 2010. 13, 18

[DKM+12] D. Dellamonica, S. Kalyanasundaram, D. Martin, V. Rödl e A. Shapira. A determi-nistic algorithm for the Frieze-Kannan regularity lemma. SIAM J. Discrete Math.,26(1):1529, 2012. 2, 45

47

48 REFERÊNCIAS BIBLIOGRÁFICAS

[dKVMW00] E. de Klerk, H. Van Maaren e J. P. Warners. Relaxations of the satisability problemusing semidenite programming. J. Automat. Reason., 24(1-2):3765, 2000. 9

[DLR95] R. A. Duke, H. Lefmann e V. Rödl. A fast approximation algorithm for computing thefrequencies of subgraphs in a given graph. SIAM J. Comput., 24(3):598620, 1995.42

[ET36] P. Erd®s e P. Turán. On Some Sequences of Integers. J. London Math. Soc., S1-11(4):261, 1936. 1, 42

[FK96a] A. Frieze e R. Kannan. The regularity lemma and approximation schemes for denseproblems. Em 37th Annual Symposium on Foundations of Computer Science (Bur-lington, VT, 1996), páginas 1220. IEEE Comput. Soc. Press, Los Alamitos, CA,1996. 1, 2, 45

[FK96b] A. Frieze e R. Kannan. The regularity lemma and approximation schemes for denseproblems. Em 37th Annual Symposium on Foundations of Computer Science (Bur-lington, VT, 1996), páginas 1220. IEEE Comput. Soc. Press, Los Alamitos, CA,1996. 45

[FK99] A. Frieze e R. Kannan. Quick approximation to matrices and applications. Combi-natorica, 19(2):175220, 1999. 19, 44, 46

[GGU72] M. R. Garey, R. L. Graham e J. D. Ullman. Worst-case analysis of memory allocationalgorithms. Em Proceedings of the Fourth Annual ACM Symposium on Theory ofComputing, STOC '72, páginas 143150, New York, NY, USA, 1972. ACM. 17

[GJ78] M. R. Garey e D. S. Johnson. Strong NP-completeness results: motivation, exam-ples, and implications. J. Assoc. Comput. Mach., 25(3):499508, 1978. 17

[GJS76] M. R. Garey, D. S. Johnson e L. Stockmeyer. Some simplied NP-complete graphproblems. Theoret. Comput. Sci., 1(3):237267, 1976. 18

[GLS81] M. Grötschel, L. Lovász e A. Schrijver. The ellipsoid method and its consequences incombinatorial optimization. Combinatorica, 1(2):169197, 1981. 2, 11, 12

[GLS93] M. Grötschel, L. Lovász e A. Schrijver. Geometric algorithms and combinatorialoptimization, volume 2 of Algorithms and Combinatorics. Springer-Verlag, Berlin,second edição, 1993. 11

[GM12] B. Gärtner e J. Matou²ek. Approximation algorithms and semidenite programming.Springer, Heidelberg, 2012. 10

[Gon07] T. F. Gonzalez, editor. Handbook of approximation algorithms and metaheuristics.Chapman & Hall/CRC Computer and Information Science Series. Chapman & Hall/-CRC, Boca Raton, FL, 2007. 17

[Gow97] W. T. Gowers. Lower bounds of tower type for Szemerédi's uniformity lemma. Geom.Funct. Anal., 7(2):322337, 1997. 1

[Gra66] R. L. Graham. Bounds for certain multiprocessing anomalies. Bell System TechnicalJournal, 45:15631581, 1966. 17

[Gro53] A. Grothendieck. Résumé de la théorie métrique des produits tensoriels topologiques.Bol. Soc. Mat. São Paulo, 8:179, 1953. 1, 23, 31, 32

[GvL13] G. H. Golub e C. F. van Loan. Matrix computations. Johns Hopkins Studies inthe Mathematical Sciences. Johns Hopkins University Press, Baltimore, MD, fourthedição, 2013. 6, 7

REFERÊNCIAS BIBLIOGRÁFICAS 49

[GW95] M. X. Goemans e D. P. Williamson. Improved approximation algorithms for maximumcut and satisability problems using semidenite programming. J. Assoc. Comput.Mach., 42(6):11151145, 1995. 8, 9, 16, 18, 41

[Had75] F. Hadlock. Finding a maximum cut of a planar graph in polynomial time. SIAM J.Comput., 4(3):221225, 1975. 18

[HJ13] R. A. Horn e C. R. Johnson. Matrix analysis. Cambridge University Press, Cambridge,second edição, 2013. 6

[HK71] K. Homan e R. Kunze. Linear algebra. Second edition. Prentice-Hall, Inc., En-glewood Clis, N.J., 1971. 4, 6

[HL96] T. Hofmeister e H. Lefmann. A combinatorial design approach to MAXCUT. EmProceedings of the Seventh International Conference on Random Structures and Al-gorithms (Atlanta, GA, 1995), volume 9, páginas 163175, 1996. 18

[HV91] D. J. Haglin e S. M. Venkatesan. Approximation and intractability results for themaximum cut problem and its variants. IEEE Trans. Comput., 40(1):110113, 1991.18

[Kar72] R. M. Karp. Reducibility among combinatorial problems. Em Complexity of com-puter computations (Proc. Sympos., IBM Thomas J. Watson Res. Center, YorktownHeights, N.Y., 1972), páginas 85103. Plenum, New York, 1972. 14, 15, 18

[Kho02] S. Khot. On the power of unique 2-prover 1-round games. Em Proceedings of theThirty-Fourth Annual ACM Symposium on Theory of Computing, páginas 767775.ACM, New York, 2002. 32

[KN08] S. Khot e A. Naor. Linear equations modulo 2 and the L1 diameter of convex bodies.SIAM J. Comput., 38(4):14481463, 2008. 2

[KN09] S. Khot e A. Naor. Approximate kernel clustering. Mathematika, 55(1-2):129165,2009. 2

[KN12] S. Khot e A. Naor. Grothendieck-type inequalities in combinatorial optimization.Comm. Pure Appl. Math., 65(7):9921035, 2012. 2, 13, 31

[KN13] S. Khot e A. Naor. Sharp kernel clustering algorithms and their associated Grothen-dieck inequalities. Random Structures Algorithms, 42(3):269300, 2013. 2

[KO09] S. Khot e R. O'Donnell. SDP gaps and UGC-hardness for max-cut-gain. TheoryComput., 5:83117, 2009. 2

[Kön01] H. König. On an extremal problem originating in questions of unconditional con-vergence. Em Recent progress in multivariate approximation (Witten-Bommerholz,2000), volume 137 of Internat. Ser. Numer. Math., páginas 185192. Birkhäuser, Ba-sel, 2001. 32

[Kri77] J.-L. Krivine. Sur la constante de Grothendieck. C. R. Acad. Sci. Paris Sér. A-B,284(8):A445A446, 1977. 32

[KRT03] Y. Kohayakawa, V. Rödl e L. Thoma. An optimal algorithm for checking regularity.SIAM J. Comput., 32(5):12101235, 2003. 2, 43

[KS95] Y. Kohayakawa e J.A. Soares. Demonstrações Transparentes e a Impossibilidade deAproximações. XX Colóquio Brasileiro de Matemática, IMPA, 1995. 14

50 REFERÊNCIAS BIBLIOGRÁFICAS

[KS96] J. Komlós e M. Simonovits. Szemerédi's regularity lemma and its applications ingraph theory. Em Combinatorics, Paul Erd®s is eighty, Vol. 2 (Keszthely, 1993),volume 2 of Bolyai Soc. Math. Stud., páginas 295352. János Bolyai Math. Soc.,Budapest, 1996. 42

[Lan87] S. Lang. Linear algebra. Undergraduate Texts in Mathematics. Springer-Verlag, NewYork, third edição, 1987. 6

[Lov79] L. Lovász. On the Shannon capacity of a graph. IEEE Trans. Inform. Theory,25(1):17, 1979. 8

[Lov03] L. Lovász. Semidenite programs and combinatorial optimization. Em Recent ad-vances in algorithms and combinatorics, volume 11 of CMS Books Math./OuvragesMath. SMC, páginas 137194. Springer, New York, 2003. 9, 10, 12

[LP68] J. Lindenstrauss e A. Peªczy«ski. Absolutely summing operators in Lp-spaces andtheir applications. Studia Math., 29:275326, 1968. 31

[LS07] N. Linial e A. Shraibman. Lower bounds in communication complexity based onfactorization norms. Em STOC'07Proceedings of the 39th Annual ACM Symposiumon Theory of Computing, páginas 699708. ACM, New York, 2007. 2

[LV12] M. Laurent e F. Vallentin. Semidenite optimization. Lecture Notes, available athttp://page.mi.fu-berlin.de/fmario/sdp/laurentv.pdf, 2012. 10

[Meg01] A. Megretski. Relaxations of quadratic programs in operator theory and systemanalysis. Em Systems, approximation, singular integral operators, and related topics(Bordeaux, 2000), volume 129 of Oper. Theory Adv. Appl., páginas 365392. Birkhäu-ser, Basel, 2001. 2

[Nes98] Yu. Nesterov. Semidenite relaxation and nonconvex quadratic optimization. Optim.Methods Softw., 9(1-3):141160, 1998. 2

[NRT99] A. Nemirovski, C. Roos e T. Terlaky. On maximization of quadratic form over in-tersection of ellipsoids with common center. Math. Program., 86(3, Ser. A):463473,1999. 2

[OD72] G. I. Orlova e Ya. G. Dorfman. Finding the maximum cut in a graph. Izv. Akad.Nauk SSSR Tehn. Kibernet., (3):155159, 1972. 18

[Pap94] C. H. Papadimitriou. Computational complexity. Addison-Wesley Publishing Com-pany, Reading, MA, 1994. 14, 15

[PGWP+08] D. Pérez-García, M. M. Wolf, C. Palazuelos, I. Villanueva e M. Junge. Unboundedviolation of tripartite Bell inequalities. Comm. Math. Phys., 279(2):455486, 2008. 1,31

[Pis78] G. Pisier. Grothendieck's theorem for noncommutative C∗-algebras, with an appendixon Grothendieck's constants. J. Funct. Anal., 29(3):397415, 1978. 32

[Pis86] G. Pisier. Factorization of linear operators and geometry of Banach spaces, volume 60of CBMS Regional Conference Series in Mathematics. Published for the ConferenceBoard of the Mathematical Sciences, Washington, DC; by the American MathematicalSociety, Providence, RI, 1986. 1, 31

[Pis12] G. Pisier. Grothendieck's theorem, past and present. Bull. Amer. Math. Soc. (N.S.),49(2):237323, 2012. 31

REFERÊNCIAS BIBLIOGRÁFICAS 51

[PT82] S. Poljak e D. Turzík. A polynomial algorithm for constructing a large bipartitesubgraph, with an application to a satisability problem. Canad. J. Math., 34(3):519524, 1982. 18

[PY91] C. H. Papadimitriou e M. Yannakakis. Optimization, approximation, and complexityclasses. J. Comput. System Sci., 43(3):425440, 1991. 16, 17

[Ree91] J.A. Reeds. A new lower bound on the real grothendieck constant. Unpublishedmanuscript, available at http://www.dtc.umn.edu/reedsj/bound2.dvi, 1991. 32

[Rie74] R. E. Rietz. A proof of the Grothendieck inequality. Israel J. Math., 19:271276,1974. 28, 32

[RS09] P. Raghavendra e D. Steurer. Towards computing the Grothendieck constant. EmProceedings of the Twentieth Annual ACM-SIAM Symposium on Discrete Algorithms,páginas 525534, Philadelphia, PA, 2009. SIAM. 2, 32

[RT10] O. Regev e B. Toner. Simulating quantum correlations with nite communication.SIAM J. Comput., 39(4):15621580, 2009/10. 2

[Sah75] S. Sahni. Approximate algorithms for the 0/1 knapsack problem. J. Assoc. Comput.Mach., 22:115124, 1975. 16

[Sch86] Alexander Schrijver. Theory of linear and integer programming. Wiley-InterscienceSeries in Discrete Mathematics. John Wiley & Sons, Ltd., Chichester, 1986. A Wiley-Interscience Publication. 11

[SG76] S. Sahni e T. Gonzalez. P -complete approximation problems. J. Assoc. Comput.Mach., 23(3):555565, 1976. 18

[Sze78] E. Szemerédi. Regular partitions of graphs. Em Problèmes combinatoires et théorie desgraphes (Colloq. Internat. CNRS, Univ. Orsay, Orsay, 1976), volume 260 of Colloq.Internat. CNRS, páginas 399401. CNRS, Paris, 1978. 1

[Tsi85] B. S. Tsirelson. Quantum analogues of Bell's inequalities. The case of two spatiallydivided domains. Zap. Nauchn. Sem. Leningrad. Otdel. Mat. Inst. Steklov. (LOMI),142:174194, 200, 1985. Problems of the theory of probability distributions, IX. 1, 2,31

[TSKS04] A. Tanay, R. Sharan, M. Kupiec e R. Shamir. Revealing modularity and organiza-tion in the yeast molecular network by integrated analysis of highly heterogeneousgenomewide data. PNAS, 101(9):29812986, 2004. 2

[TSS02] A. Tanay, R. Sharan e R. Shamir. Discovering statistically signicant biclusters ingene expression data. Bioinformatics, 18(90001):S136144, 2002. 2

[Vaz01] V. V. Vazirani. Approximation algorithms. Springer-Verlag, Berlin, 2001. 17

[Vit81] P. M. B. Vitányi. How well can a graph be n-colored? Discrete Math., 34(1):6980,1981. 18

[WS11] D. P. Williamson e D. B. Shmoys. The design of approximation algorithms. CambridgeUniversity Press, Cambridge, 2011. 2

[YN76] D. B. Yudin e A. S. Nemirovski. Informational complexity and eective methods forthe solution of convex extremal problems. Èkonom. i Mat. Metody, 12(2):357369,1976. 2, 11, 12