grupo01(1)
DESCRIPTION
optimizationTRANSCRIPT
SOLUÇÃO DE UM PROBLEMA DE OTIMIZAÇÃO IRRESTRITA UTILIZANDO MÉTODOS DE BUSCA, DE OTIMIZAÇÃO E
MODELOS DE OTIMIZAÇÃO
Daphne Schwanz
Juliana Klas
Agenda
Introdução
Otimização Para Luenberger, aborda-se um problema complexo, focando-se em um
objetivo projetado para quantificar o desempenho e medir a qualidade
da decisão.
Tem-se como exemplo, o conjunto de equações (1)
Ω∈x..
)x(
as
fMin
Otimização
Problemas Lineares
Problemas Não-Lineares Problemas Restritos
Problemas Irrestritos
Formulação simples e direta
Obtido a partir de problemas com restrições com substituição de
variáveis que leva a uma equação que não possui restrições
Métodos de Descida
Métodos que não Utilizam Derivada Busca Uniforme Os pontos onde será realizada a avaliação da função são
determinados antecipadamente e o intervalo [a,b] é dividido
sucessivamente e a função é recalculada sempre que isso acontece.
Busca Dicotômica A redução do intervalo é realizada com 2 avaliações da função
objetivo. Assim, inicia-se o processo de busca determinando os
parâmetros e durante o processo são realizadas comparações entre
os valores das funções e para encontrar o ponto mínimo.
Segmento Áureo
Métodos de Descida - Trabalho
Métodos que Utilizam Derivada Método da Bissecção
Busca pelo Método de Newton A minimização da função é obtida a partir da minimização da
sua aproximação quadrática. Deste modo,
2Cg ∈
)(min)(min~
αα gg →
22~
)()(
2
1)(
)()()( k
kk
kk
gggg αα
αααα
αααα −
∂∂
+−∂
∂+=
Métodos de Otimização
Método de Newton Minimiza uma função aproximando-a localmente por uma
função quadrática que é minimizada de forma exata.
Método do Gradiente Conjugado É o método da direção conjugada obtida selecionando
sucessivos vetores de direção como uma versão conjugada dos gradientes obtidos ao longo do processo.
Método do Gradiente Conjugado (Fletcher-Reeves)
Método Quase-Newton
O Problema
Problema de Otimização Irrestrito
Ω∈−+++=
11
1122122
21
x,x
)5.0(10222)x( xsenxxxxxxfMin
Analise do Problema
Métodos de Descida
Características Básicas
Analogia de Lieberman (2001)
Que direção seguir?
Siga na direção até achar mínimo
melhor/ideal
no caminho.
Assuma um ponto local.
• Uniforme
• Dicotômica
• Newtron
Busca Uniforme
Algoritmo Subdivide passo de busca e
retorna toda vez que encontra função com valor superior ao ponto anterior, conforme Araújo.
Busca Dicotômica
Algoritmo Subdivide passo de busca através de fórmula e
varia faixa de acordo com comparação dos valores de f
Converge com 44<it<56 para pontos randômicos (função randi [-10,10] do Matlab).
Algoritmo Não utiliza valores da função para escolha do escalar ∝
Leva à calculos de ∝ que maximizam a função, mínimo local encontrado pode ser distante do global
Busca pelo Método de Newton
Otimização por Newton
Otimização por método do gradiente conjugado
Mais rápido que métodos de descida Sem as desvantagens de cálculo da inversa da hessiana do
método de Newton
Direção -> combinação linear dos vetores direção já utilizados.
Comparação dos Métodos UtilizadosMétodo
To
lerân
cia
ad
ota
da
N. It
eraçõ
es Robustez frente a diferentes
inicializações
Entradas randômicas [-10;10]
Repetibilidade Número de
iterações
Bu
sca
Uniforme Redução da tol. para 1e-4
reduz iterações em 21%
131 - MG 3-ML (-16.4067)
3 - MG
117<It<136
Dicotomica Redução da tol. para 1e-4
reduz iterações em 16%
56 – ML
(-16.4067)
4-ML (-16.4067)
2 - MG
43<It<56
Newton Redução da tol. para 1e-4
reduz iterações em 19%
42 – ML
(-16.4067)
1-ML (52,5143)
5 – MG
13<It<60
Oti
miz
ação
Newton Redução da tol. para 1e-3
reduz iterações em 20%
5 – ML
(-16.4067)
2-ML (-0.7492)
1-ML (-16.4067)
3 - MG
4<It<6
Gradiente Conjugado Redução da tol. para 1e-3
reduz iterações em 29%
5 – ML
(-16.4067)
1-ML (178.448)
1 – ML (52.514)
1 – ML (220.87)
1 – ML (1.0348)
1 - MG
5<It<13
Analise dos métodos através dos resultados
Método de busca uniforme - > mais robustos frente a variações de ponto de entrada grandes valores;
Método de busca com derivada -> pior resultado em relação à repetibilidade;
Otimização de Newton e Gradiente -> mais rápidos -> minimos locais distantes do mínimo global.
Funções Pré-estabelecidas do Matlab (1)
Função “fminunc”
É utilizada em problemas irrestritos e tem como objetivo encontrar o mínimo de uma função escalar de diversas variáveis , a partir de uma estimativa inicial.
Sintaxe Padrão x = fminunc(fun,x0)
Validação do Método Foram utilizados dois tipos de condições iniciais:
=[-5,5]
Valores iniciais randômicos
0x
Tabela 2: Comparação entre os resultados da função “fminunc” e os dos métodos de busca e de otimização
Método/
Ferramenta
Iter. X1 X2 Valor da Função
Função “fminunc” 10 -3.3057 2.3057 -16.4067
Uniforme 68
(M.G.)
-3.3057
(M.G.)
2.3057
(M.G.)
-16.4067
(M.G.)Dicotomica 56 -3.3057 2.3057 -16.4067Busca pelo
Método de Newton42 -3.3057 2.3057 -16.4067
Newton 5 -3.3057 2.3057 -16.4067Gradiente Conjugado
5 -3.3057 2.3057 -16.4067
GAMS - General Algebric Modelling System
É projetado especificamente para modelar problemas lineares e não lineares e problemas de otimização mista.
Modelagem NLP Funções insuaves podem ser resolvidas.
Solver CONOPT e MINOS
DNLP Resolve problemas não-lineares envolvendo apenas funções suaves,
mas não variáveis discretas.
Solver CONOPT e MINOS
CONOPT
É adequado para modelos com muitas restrições não-lineares, podendo ser utilizado para grandes modelos, ou seja, com muitas váriáveis.
Possui um método rápido para encontrar uma solução viável que é particularmente bem adequado para modelos com poucos graus de liberdade.
Tabela 3 – Comparação dos Modelos NLP e DNLP utilizando o solver CONOPT
Tabela 3 – Comparação dos Modelos NLP e DNLP utiliza ndo o solver CONOPT
Modelo Iter. Tempo[s]
Espaço na
Memória [Mb]
X1 ótimo X2 ótimo
Valor da Função
NLP 8 0.02 3 -3.306 2.306 -16.407
DNLP 8 0.01 3 -3.306 2.306 -16.407
MINOS
É muito utilizado em programação não-linear.
Ele é indicado para encontrar soluções que encontrem o ponto mínimo local ótimo, assim como o solver CONOPT.
Entretanto possui algumas características: as derivadas primeiras das funções não-lineares devem existir, as funções precisam ser separadas e as restrições de inteiros não podem ser aplicadas diretamente.
Tabela 4 – Comparação dos Modelos NLP e DNLP utilizando o solver MINOS
Tabela 4 – Comparação dos Modelos NLP e DNLP utiliza ndo o solver MINOS
Modelo Iter. Tempo[s]
Espaço na
Memória [Mb]
X1 ótimo X2 ótimo
Valor da Função
NLP 6 0.0 3 -3.306 2.306 -16.407
DNLP 6 0.0 3 -3.306 2.306 -16.407
Referências
Araújo, Fábio M. U. (2004), Controle Inteligente. Departamento
de Engenharia de Computação e Automação. – UFRN
GAMS – General Algebric Modeling System –Versão 23.7.
Haffner, Sérgio Luis. (2012) Otimização Irrestrita. Disciplina
Introdução á Otimização Matemática. PPGEE – UFRGS.
Hillier, Frederick S. e Lieberman, Gerald J. (2002). Introduction
to Operations Research, Holden-Day, Inc., Oakland, California.
Luenberger, David G. e Ye, Yinyu (2008) Introduction to linear
and nonlinear programming. Addison –Wesley Publising
Company Inc.
MATLAB, The Linguage of Technical Computing. Versão
7.10.0.499 (R2010a).