Download - Grupo01(1)
![Page 1: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/1.jpg)
SOLUÇÃO DE UM PROBLEMA DE OTIMIZAÇÃO IRRESTRITA UTILIZANDO MÉTODOS DE BUSCA, DE OTIMIZAÇÃO E
MODELOS DE OTIMIZAÇÃO
Daphne Schwanz
Juliana Klas
![Page 2: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/2.jpg)
Agenda
![Page 3: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/3.jpg)
Introdução
Otimização Para Luenberger, aborda-se um problema complexo, focando-se em um
objetivo projetado para quantificar o desempenho e medir a qualidade
da decisão.
Tem-se como exemplo, o conjunto de equações (1)
Ω∈x..
)x(
as
fMin
![Page 4: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/4.jpg)
Otimização
Problemas Lineares
Problemas Não-Lineares Problemas Restritos
Problemas Irrestritos
Formulação simples e direta
Obtido a partir de problemas com restrições com substituição de
variáveis que leva a uma equação que não possui restrições
![Page 5: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/5.jpg)
Métodos de Descida
Métodos que não Utilizam Derivada Busca Uniforme Os pontos onde será realizada a avaliação da função são
determinados antecipadamente e o intervalo [a,b] é dividido
sucessivamente e a função é recalculada sempre que isso acontece.
Busca Dicotômica A redução do intervalo é realizada com 2 avaliações da função
objetivo. Assim, inicia-se o processo de busca determinando os
parâmetros e durante o processo são realizadas comparações entre
os valores das funções e para encontrar o ponto mínimo.
Segmento Áureo
![Page 6: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/6.jpg)
Métodos de Descida - Trabalho
Métodos que Utilizam Derivada Método da Bissecção
Busca pelo Método de Newton A minimização da função é obtida a partir da minimização da
sua aproximação quadrática. Deste modo,
2Cg ∈
)(min)(min~
αα gg →
22~
)()(
2
1)(
)()()( k
kk
kk
gggg αα
αααα
αααα −
∂∂
+−∂
∂+=
![Page 7: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/7.jpg)
Métodos de Otimização
Método de Newton Minimiza uma função aproximando-a localmente por uma
função quadrática que é minimizada de forma exata.
Método do Gradiente Conjugado É o método da direção conjugada obtida selecionando
sucessivos vetores de direção como uma versão conjugada dos gradientes obtidos ao longo do processo.
Método do Gradiente Conjugado (Fletcher-Reeves)
Método Quase-Newton
![Page 8: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/8.jpg)
O Problema
Problema de Otimização Irrestrito
Ω∈−+++=
11
1122122
21
x,x
)5.0(10222)x( xsenxxxxxxfMin
![Page 9: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/9.jpg)
Analise do Problema
![Page 10: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/10.jpg)
Métodos de Descida
Características Básicas
Analogia de Lieberman (2001)
Que direção seguir?
Siga na direção até achar mínimo
melhor/ideal
no caminho.
Assuma um ponto local.
• Uniforme
• Dicotômica
• Newtron
![Page 11: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/11.jpg)
Busca Uniforme
Algoritmo Subdivide passo de busca e
retorna toda vez que encontra função com valor superior ao ponto anterior, conforme Araújo.
![Page 12: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/12.jpg)
Busca Dicotômica
Algoritmo Subdivide passo de busca através de fórmula e
varia faixa de acordo com comparação dos valores de f
Converge com 44<it<56 para pontos randômicos (função randi [-10,10] do Matlab).
![Page 13: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/13.jpg)
Algoritmo Não utiliza valores da função para escolha do escalar ∝
Leva à calculos de ∝ que maximizam a função, mínimo local encontrado pode ser distante do global
Busca pelo Método de Newton
![Page 14: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/14.jpg)
Otimização por Newton
![Page 15: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/15.jpg)
Otimização por método do gradiente conjugado
Mais rápido que métodos de descida Sem as desvantagens de cálculo da inversa da hessiana do
método de Newton
Direção -> combinação linear dos vetores direção já utilizados.
![Page 16: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/16.jpg)
Comparação dos Métodos UtilizadosMétodo
To
lerân
cia
ad
ota
da
N. It
eraçõ
es Robustez frente a diferentes
inicializações
Entradas randômicas [-10;10]
Repetibilidade Número de
iterações
Bu
sca
Uniforme Redução da tol. para 1e-4
reduz iterações em 21%
131 - MG 3-ML (-16.4067)
3 - MG
117<It<136
Dicotomica Redução da tol. para 1e-4
reduz iterações em 16%
56 – ML
(-16.4067)
4-ML (-16.4067)
2 - MG
43<It<56
Newton Redução da tol. para 1e-4
reduz iterações em 19%
42 – ML
(-16.4067)
1-ML (52,5143)
5 – MG
13<It<60
Oti
miz
ação
Newton Redução da tol. para 1e-3
reduz iterações em 20%
5 – ML
(-16.4067)
2-ML (-0.7492)
1-ML (-16.4067)
3 - MG
4<It<6
Gradiente Conjugado Redução da tol. para 1e-3
reduz iterações em 29%
5 – ML
(-16.4067)
1-ML (178.448)
1 – ML (52.514)
1 – ML (220.87)
1 – ML (1.0348)
1 - MG
5<It<13
![Page 17: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/17.jpg)
Analise dos métodos através dos resultados
Método de busca uniforme - > mais robustos frente a variações de ponto de entrada grandes valores;
Método de busca com derivada -> pior resultado em relação à repetibilidade;
Otimização de Newton e Gradiente -> mais rápidos -> minimos locais distantes do mínimo global.
![Page 18: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/18.jpg)
Funções Pré-estabelecidas do Matlab (1)
Função “fminunc”
É utilizada em problemas irrestritos e tem como objetivo encontrar o mínimo de uma função escalar de diversas variáveis , a partir de uma estimativa inicial.
Sintaxe Padrão x = fminunc(fun,x0)
Validação do Método Foram utilizados dois tipos de condições iniciais:
=[-5,5]
Valores iniciais randômicos
0x
![Page 19: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/19.jpg)
Tabela 2: Comparação entre os resultados da função “fminunc” e os dos métodos de busca e de otimização
Método/
Ferramenta
Iter. X1 X2 Valor da Função
Função “fminunc” 10 -3.3057 2.3057 -16.4067
Uniforme 68
(M.G.)
-3.3057
(M.G.)
2.3057
(M.G.)
-16.4067
(M.G.)Dicotomica 56 -3.3057 2.3057 -16.4067Busca pelo
Método de Newton42 -3.3057 2.3057 -16.4067
Newton 5 -3.3057 2.3057 -16.4067Gradiente Conjugado
5 -3.3057 2.3057 -16.4067
![Page 20: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/20.jpg)
GAMS - General Algebric Modelling System
É projetado especificamente para modelar problemas lineares e não lineares e problemas de otimização mista.
Modelagem NLP Funções insuaves podem ser resolvidas.
Solver CONOPT e MINOS
DNLP Resolve problemas não-lineares envolvendo apenas funções suaves,
mas não variáveis discretas.
Solver CONOPT e MINOS
![Page 21: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/21.jpg)
CONOPT
É adequado para modelos com muitas restrições não-lineares, podendo ser utilizado para grandes modelos, ou seja, com muitas váriáveis.
Possui um método rápido para encontrar uma solução viável que é particularmente bem adequado para modelos com poucos graus de liberdade.
![Page 22: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/22.jpg)
Tabela 3 – Comparação dos Modelos NLP e DNLP utilizando o solver CONOPT
Tabela 3 – Comparação dos Modelos NLP e DNLP utiliza ndo o solver CONOPT
Modelo Iter. Tempo[s]
Espaço na
Memória [Mb]
X1 ótimo X2 ótimo
Valor da Função
NLP 8 0.02 3 -3.306 2.306 -16.407
DNLP 8 0.01 3 -3.306 2.306 -16.407
![Page 23: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/23.jpg)
MINOS
É muito utilizado em programação não-linear.
Ele é indicado para encontrar soluções que encontrem o ponto mínimo local ótimo, assim como o solver CONOPT.
Entretanto possui algumas características: as derivadas primeiras das funções não-lineares devem existir, as funções precisam ser separadas e as restrições de inteiros não podem ser aplicadas diretamente.
![Page 24: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/24.jpg)
Tabela 4 – Comparação dos Modelos NLP e DNLP utilizando o solver MINOS
Tabela 4 – Comparação dos Modelos NLP e DNLP utiliza ndo o solver MINOS
Modelo Iter. Tempo[s]
Espaço na
Memória [Mb]
X1 ótimo X2 ótimo
Valor da Função
NLP 6 0.0 3 -3.306 2.306 -16.407
DNLP 6 0.0 3 -3.306 2.306 -16.407
![Page 25: Grupo01(1)](https://reader033.vdocuments.com.br/reader033/viewer/2022042821/55cf8f02550346703b98013e/html5/thumbnails/25.jpg)
Referências
Araújo, Fábio M. U. (2004), Controle Inteligente. Departamento
de Engenharia de Computação e Automação. – UFRN
GAMS – General Algebric Modeling System –Versão 23.7.
Haffner, Sérgio Luis. (2012) Otimização Irrestrita. Disciplina
Introdução á Otimização Matemática. PPGEE – UFRGS.
Hillier, Frederick S. e Lieberman, Gerald J. (2002). Introduction
to Operations Research, Holden-Day, Inc., Oakland, California.
Luenberger, David G. e Ye, Yinyu (2008) Introduction to linear
and nonlinear programming. Addison –Wesley Publising
Company Inc.
MATLAB, The Linguage of Technical Computing. Versão
7.10.0.499 (R2010a).