grupo01(1)

Post on 19-Dec-2015

5 Views

Category:

Documents

2 Downloads

Preview:

Click to see full reader

DESCRIPTION

optimization

TRANSCRIPT

SOLUÇÃO DE UM PROBLEMA DE OTIMIZAÇÃO IRRESTRITA UTILIZANDO MÉTODOS DE BUSCA, DE OTIMIZAÇÃO E

MODELOS DE OTIMIZAÇÃO

Daphne Schwanz

Juliana Klas

Agenda

Introdução

Otimização Para Luenberger, aborda-se um problema complexo, focando-se em um

objetivo projetado para quantificar o desempenho e medir a qualidade

da decisão.

Tem-se como exemplo, o conjunto de equações (1)

Ω∈x..

)x(

as

fMin

Otimização

Problemas Lineares

Problemas Não-Lineares Problemas Restritos

Problemas Irrestritos

Formulação simples e direta

Obtido a partir de problemas com restrições com substituição de

variáveis que leva a uma equação que não possui restrições

Métodos de Descida

Métodos que não Utilizam Derivada Busca Uniforme Os pontos onde será realizada a avaliação da função são

determinados antecipadamente e o intervalo [a,b] é dividido

sucessivamente e a função é recalculada sempre que isso acontece.

Busca Dicotômica A redução do intervalo é realizada com 2 avaliações da função

objetivo. Assim, inicia-se o processo de busca determinando os

parâmetros e durante o processo são realizadas comparações entre

os valores das funções e para encontrar o ponto mínimo.

Segmento Áureo

Métodos de Descida - Trabalho

Métodos que Utilizam Derivada Método da Bissecção

Busca pelo Método de Newton A minimização da função é obtida a partir da minimização da

sua aproximação quadrática. Deste modo,

2Cg ∈

)(min)(min~

αα gg →

22~

)()(

2

1)(

)()()( k

kk

kk

gggg αα

αααα

αααα −

∂∂

+−∂

∂+=

Métodos de Otimização

Método de Newton Minimiza uma função aproximando-a localmente por uma

função quadrática que é minimizada de forma exata.

Método do Gradiente Conjugado É o método da direção conjugada obtida selecionando

sucessivos vetores de direção como uma versão conjugada dos gradientes obtidos ao longo do processo.

Método do Gradiente Conjugado (Fletcher-Reeves)

Método Quase-Newton

O Problema

Problema de Otimização Irrestrito

Ω∈−+++=

11

1122122

21

x,x

)5.0(10222)x( xsenxxxxxxfMin

Analise do Problema

Métodos de Descida

Características Básicas

Analogia de Lieberman (2001)

Que direção seguir?

Siga na direção até achar mínimo

melhor/ideal

no caminho.

Assuma um ponto local.

• Uniforme

• Dicotômica

• Newtron

Busca Uniforme

Algoritmo Subdivide passo de busca e

retorna toda vez que encontra função com valor superior ao ponto anterior, conforme Araújo.

Busca Dicotômica

Algoritmo Subdivide passo de busca através de fórmula e

varia faixa de acordo com comparação dos valores de f

Converge com 44<it<56 para pontos randômicos (função randi [-10,10] do Matlab).

Algoritmo Não utiliza valores da função para escolha do escalar ∝

Leva à calculos de ∝ que maximizam a função, mínimo local encontrado pode ser distante do global

Busca pelo Método de Newton

Otimização por Newton

Otimização por método do gradiente conjugado

Mais rápido que métodos de descida Sem as desvantagens de cálculo da inversa da hessiana do

método de Newton

Direção -> combinação linear dos vetores direção já utilizados.

Comparação dos Métodos UtilizadosMétodo

To

lerân

cia

ad

ota

da

N. It

eraçõ

es Robustez frente a diferentes

inicializações

Entradas randômicas [-10;10]

Repetibilidade Número de

iterações

Bu

sca

Uniforme Redução da tol. para 1e-4

reduz iterações em 21%

131 - MG 3-ML (-16.4067)

3 - MG

117<It<136

Dicotomica Redução da tol. para 1e-4

reduz iterações em 16%

56 – ML

(-16.4067)

4-ML (-16.4067)

2 - MG

43<It<56

Newton Redução da tol. para 1e-4

reduz iterações em 19%

42 – ML

(-16.4067)

1-ML (52,5143)

5 – MG

13<It<60

Oti

miz

ação

Newton Redução da tol. para 1e-3

reduz iterações em 20%

5 – ML

(-16.4067)

2-ML (-0.7492)

1-ML (-16.4067)

3 - MG

4<It<6

Gradiente Conjugado Redução da tol. para 1e-3

reduz iterações em 29%

5 – ML

(-16.4067)

1-ML (178.448)

1 – ML (52.514)

1 – ML (220.87)

1 – ML (1.0348)

1 - MG

5<It<13

Analise dos métodos através dos resultados

Método de busca uniforme - > mais robustos frente a variações de ponto de entrada grandes valores;

Método de busca com derivada -> pior resultado em relação à repetibilidade;

Otimização de Newton e Gradiente -> mais rápidos -> minimos locais distantes do mínimo global.

Funções Pré-estabelecidas do Matlab (1)

Função “fminunc”

É utilizada em problemas irrestritos e tem como objetivo encontrar o mínimo de uma função escalar de diversas variáveis , a partir de uma estimativa inicial.

Sintaxe Padrão x = fminunc(fun,x0)

Validação do Método Foram utilizados dois tipos de condições iniciais:

=[-5,5]

Valores iniciais randômicos

0x

Tabela 2: Comparação entre os resultados da função “fminunc” e os dos métodos de busca e de otimização

Método/

Ferramenta

Iter. X1 X2 Valor da Função

Função “fminunc” 10 -3.3057 2.3057 -16.4067

Uniforme 68

(M.G.)

-3.3057

(M.G.)

2.3057

(M.G.)

-16.4067

(M.G.)Dicotomica 56 -3.3057 2.3057 -16.4067Busca pelo

Método de Newton42 -3.3057 2.3057 -16.4067

Newton 5 -3.3057 2.3057 -16.4067Gradiente Conjugado

5 -3.3057 2.3057 -16.4067

GAMS - General Algebric Modelling System

É projetado especificamente para modelar problemas lineares e não lineares e problemas de otimização mista.

Modelagem NLP Funções insuaves podem ser resolvidas.

Solver CONOPT e MINOS

DNLP Resolve problemas não-lineares envolvendo apenas funções suaves,

mas não variáveis discretas.

Solver CONOPT e MINOS

CONOPT

É adequado para modelos com muitas restrições não-lineares, podendo ser utilizado para grandes modelos, ou seja, com muitas váriáveis.

Possui um método rápido para encontrar uma solução viável que é particularmente bem adequado para modelos com poucos graus de liberdade.

Tabela 3 – Comparação dos Modelos NLP e DNLP utilizando o solver CONOPT

Tabela 3 – Comparação dos Modelos NLP e DNLP utiliza ndo o solver CONOPT

Modelo Iter. Tempo[s]

Espaço na

Memória [Mb]

X1 ótimo X2 ótimo

Valor da Função

NLP 8 0.02 3 -3.306 2.306 -16.407

DNLP 8 0.01 3 -3.306 2.306 -16.407

MINOS

É muito utilizado em programação não-linear.

Ele é indicado para encontrar soluções que encontrem o ponto mínimo local ótimo, assim como o solver CONOPT.

Entretanto possui algumas características: as derivadas primeiras das funções não-lineares devem existir, as funções precisam ser separadas e as restrições de inteiros não podem ser aplicadas diretamente.

Tabela 4 – Comparação dos Modelos NLP e DNLP utilizando o solver MINOS

Tabela 4 – Comparação dos Modelos NLP e DNLP utiliza ndo o solver MINOS

Modelo Iter. Tempo[s]

Espaço na

Memória [Mb]

X1 ótimo X2 ótimo

Valor da Função

NLP 6 0.0 3 -3.306 2.306 -16.407

DNLP 6 0.0 3 -3.306 2.306 -16.407

Referências

Araújo, Fábio M. U. (2004), Controle Inteligente. Departamento

de Engenharia de Computação e Automação. – UFRN

GAMS – General Algebric Modeling System –Versão 23.7.

Haffner, Sérgio Luis. (2012) Otimização Irrestrita. Disciplina

Introdução á Otimização Matemática. PPGEE – UFRGS.

Hillier, Frederick S. e Lieberman, Gerald J. (2002). Introduction

to Operations Research, Holden-Day, Inc., Oakland, California.

Luenberger, David G. e Ye, Yinyu (2008) Introduction to linear

and nonlinear programming. Addison –Wesley Publising

Company Inc.

MATLAB, The Linguage of Technical Computing. Versão

7.10.0.499 (R2010a).

top related