grupo01(1)

25
SOLUÇÃO DE UM PROBLEMA DE OTIMIZAÇÃO IRRESTRITA UTILIZANDO MÉTODOS DE BUSCA, DE OTIMIZAÇÃO E MODELOS DE OTIMIZAÇÃO Daphne Schwanz Juliana Klas

Upload: marcaumgg

Post on 19-Dec-2015

5 views

Category:

Documents


2 download

DESCRIPTION

optimization

TRANSCRIPT

Page 1: Grupo01(1)

SOLUÇÃO DE UM PROBLEMA DE OTIMIZAÇÃO IRRESTRITA UTILIZANDO MÉTODOS DE BUSCA, DE OTIMIZAÇÃO E

MODELOS DE OTIMIZAÇÃO

Daphne Schwanz

Juliana Klas

Page 2: Grupo01(1)

Agenda

Page 3: Grupo01(1)

Introdução

Otimização Para Luenberger, aborda-se um problema complexo, focando-se em um

objetivo projetado para quantificar o desempenho e medir a qualidade

da decisão.

Tem-se como exemplo, o conjunto de equações (1)

Ω∈x..

)x(

as

fMin

Page 4: Grupo01(1)

Otimização

Problemas Lineares

Problemas Não-Lineares Problemas Restritos

Problemas Irrestritos

Formulação simples e direta

Obtido a partir de problemas com restrições com substituição de

variáveis que leva a uma equação que não possui restrições

Page 5: Grupo01(1)

Métodos de Descida

Métodos que não Utilizam Derivada Busca Uniforme Os pontos onde será realizada a avaliação da função são

determinados antecipadamente e o intervalo [a,b] é dividido

sucessivamente e a função é recalculada sempre que isso acontece.

Busca Dicotômica A redução do intervalo é realizada com 2 avaliações da função

objetivo. Assim, inicia-se o processo de busca determinando os

parâmetros e durante o processo são realizadas comparações entre

os valores das funções e para encontrar o ponto mínimo.

Segmento Áureo

Page 6: Grupo01(1)

Métodos de Descida - Trabalho

Métodos que Utilizam Derivada Método da Bissecção

Busca pelo Método de Newton A minimização da função é obtida a partir da minimização da

sua aproximação quadrática. Deste modo,

2Cg ∈

)(min)(min~

αα gg →

22~

)()(

2

1)(

)()()( k

kk

kk

gggg αα

αααα

αααα −

∂∂

+−∂

∂+=

Page 7: Grupo01(1)

Métodos de Otimização

Método de Newton Minimiza uma função aproximando-a localmente por uma

função quadrática que é minimizada de forma exata.

Método do Gradiente Conjugado É o método da direção conjugada obtida selecionando

sucessivos vetores de direção como uma versão conjugada dos gradientes obtidos ao longo do processo.

Método do Gradiente Conjugado (Fletcher-Reeves)

Método Quase-Newton

Page 8: Grupo01(1)

O Problema

Problema de Otimização Irrestrito

Ω∈−+++=

11

1122122

21

x,x

)5.0(10222)x( xsenxxxxxxfMin

Page 9: Grupo01(1)

Analise do Problema

Page 10: Grupo01(1)

Métodos de Descida

Características Básicas

Analogia de Lieberman (2001)

Que direção seguir?

Siga na direção até achar mínimo

melhor/ideal

no caminho.

Assuma um ponto local.

• Uniforme

• Dicotômica

• Newtron

Page 11: Grupo01(1)

Busca Uniforme

Algoritmo Subdivide passo de busca e

retorna toda vez que encontra função com valor superior ao ponto anterior, conforme Araújo.

Page 12: Grupo01(1)

Busca Dicotômica

Algoritmo Subdivide passo de busca através de fórmula e

varia faixa de acordo com comparação dos valores de f

Converge com 44<it<56 para pontos randômicos (função randi [-10,10] do Matlab).

Page 13: Grupo01(1)

Algoritmo Não utiliza valores da função para escolha do escalar ∝

Leva à calculos de ∝ que maximizam a função, mínimo local encontrado pode ser distante do global

Busca pelo Método de Newton

Page 14: Grupo01(1)

Otimização por Newton

Page 15: Grupo01(1)

Otimização por método do gradiente conjugado

Mais rápido que métodos de descida Sem as desvantagens de cálculo da inversa da hessiana do

método de Newton

Direção -> combinação linear dos vetores direção já utilizados.

Page 16: Grupo01(1)

Comparação dos Métodos UtilizadosMétodo

To

lerân

cia

ad

ota

da

N. It

eraçõ

es Robustez frente a diferentes

inicializações

Entradas randômicas [-10;10]

Repetibilidade Número de

iterações

Bu

sca

Uniforme Redução da tol. para 1e-4

reduz iterações em 21%

131 - MG 3-ML (-16.4067)

3 - MG

117<It<136

Dicotomica Redução da tol. para 1e-4

reduz iterações em 16%

56 – ML

(-16.4067)

4-ML (-16.4067)

2 - MG

43<It<56

Newton Redução da tol. para 1e-4

reduz iterações em 19%

42 – ML

(-16.4067)

1-ML (52,5143)

5 – MG

13<It<60

Oti

miz

ação

Newton Redução da tol. para 1e-3

reduz iterações em 20%

5 – ML

(-16.4067)

2-ML (-0.7492)

1-ML (-16.4067)

3 - MG

4<It<6

Gradiente Conjugado Redução da tol. para 1e-3

reduz iterações em 29%

5 – ML

(-16.4067)

1-ML (178.448)

1 – ML (52.514)

1 – ML (220.87)

1 – ML (1.0348)

1 - MG

5<It<13

Page 17: Grupo01(1)

Analise dos métodos através dos resultados

Método de busca uniforme - > mais robustos frente a variações de ponto de entrada grandes valores;

Método de busca com derivada -> pior resultado em relação à repetibilidade;

Otimização de Newton e Gradiente -> mais rápidos -> minimos locais distantes do mínimo global.

Page 18: Grupo01(1)

Funções Pré-estabelecidas do Matlab (1)

Função “fminunc”

É utilizada em problemas irrestritos e tem como objetivo encontrar o mínimo de uma função escalar de diversas variáveis , a partir de uma estimativa inicial.

Sintaxe Padrão x = fminunc(fun,x0)

Validação do Método Foram utilizados dois tipos de condições iniciais:

=[-5,5]

Valores iniciais randômicos

0x

Page 19: Grupo01(1)

Tabela 2: Comparação entre os resultados da função “fminunc” e os dos métodos de busca e de otimização

Método/

Ferramenta

Iter. X1 X2 Valor da Função

Função “fminunc” 10 -3.3057 2.3057 -16.4067

Uniforme 68

(M.G.)

-3.3057

(M.G.)

2.3057

(M.G.)

-16.4067

(M.G.)Dicotomica 56 -3.3057 2.3057 -16.4067Busca pelo

Método de Newton42 -3.3057 2.3057 -16.4067

Newton 5 -3.3057 2.3057 -16.4067Gradiente Conjugado

5 -3.3057 2.3057 -16.4067

Page 20: Grupo01(1)

GAMS - General Algebric Modelling System

É projetado especificamente para modelar problemas lineares e não lineares e problemas de otimização mista.

Modelagem NLP Funções insuaves podem ser resolvidas.

Solver CONOPT e MINOS

DNLP Resolve problemas não-lineares envolvendo apenas funções suaves,

mas não variáveis discretas.

Solver CONOPT e MINOS

Page 21: Grupo01(1)

CONOPT

É adequado para modelos com muitas restrições não-lineares, podendo ser utilizado para grandes modelos, ou seja, com muitas váriáveis.

Possui um método rápido para encontrar uma solução viável que é particularmente bem adequado para modelos com poucos graus de liberdade.

Page 22: Grupo01(1)

Tabela 3 – Comparação dos Modelos NLP e DNLP utilizando o solver CONOPT

Tabela 3 – Comparação dos Modelos NLP e DNLP utiliza ndo o solver CONOPT

Modelo Iter. Tempo[s]

Espaço na

Memória [Mb]

X1 ótimo X2 ótimo

Valor da Função

NLP 8 0.02 3 -3.306 2.306 -16.407

DNLP 8 0.01 3 -3.306 2.306 -16.407

Page 23: Grupo01(1)

MINOS

É muito utilizado em programação não-linear.

Ele é indicado para encontrar soluções que encontrem o ponto mínimo local ótimo, assim como o solver CONOPT.

Entretanto possui algumas características: as derivadas primeiras das funções não-lineares devem existir, as funções precisam ser separadas e as restrições de inteiros não podem ser aplicadas diretamente.

Page 24: Grupo01(1)

Tabela 4 – Comparação dos Modelos NLP e DNLP utilizando o solver MINOS

Tabela 4 – Comparação dos Modelos NLP e DNLP utiliza ndo o solver MINOS

Modelo Iter. Tempo[s]

Espaço na

Memória [Mb]

X1 ótimo X2 ótimo

Valor da Função

NLP 6 0.0 3 -3.306 2.306 -16.407

DNLP 6 0.0 3 -3.306 2.306 -16.407

Page 25: Grupo01(1)

Referências

Araújo, Fábio M. U. (2004), Controle Inteligente. Departamento

de Engenharia de Computação e Automação. – UFRN

GAMS – General Algebric Modeling System –Versão 23.7.

Haffner, Sérgio Luis. (2012) Otimização Irrestrita. Disciplina

Introdução á Otimização Matemática. PPGEE – UFRGS.

Hillier, Frederick S. e Lieberman, Gerald J. (2002). Introduction

to Operations Research, Holden-Day, Inc., Oakland, California.

Luenberger, David G. e Ye, Yinyu (2008) Introduction to linear

and nonlinear programming. Addison –Wesley Publising

Company Inc.

MATLAB, The Linguage of Technical Computing. Versão

7.10.0.499 (R2010a).