otimização de pesos e arquitetura de redes neurais utilizando group search optimizer danielle...

24
Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália [email protected] 1 Danielle Nathália Plano de Dissertação

Upload: internet

Post on 22-Apr-2015

107 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer

Danielle Nathá[email protected]

1Danielle Nathália

Plano de Dissertação

Page 2: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 2

Índice

Introdução Motivação Objetivo Justificativa

Group Search Optimizer (GSO) Metodologia Proposta

Esquema da Metodologia Proposta Cronograma Referências

Page 3: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 3

Introdução

Motivação – O que influenciou na escolha do tema, ou seja, porque estudar e propor técnicas para otimizar o treinamento de Redes Neurais.

Objetivo – Qual o objetivo do trabalho.

Justificativa – Justificar as escolhas das técnicas que serão usadas para resolver o problema.

Page 4: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 4

Motivação

A eficiência das Redes Neurais Artificiais(RNAs), que têm sido aplicadas com sucesso em uma diversidade de problemas do mundo real, depende do seu bom desenvolvimento que envolve a definição de vários parâmetros, como, por exemplo, o tipo de rede, a arquitetura, o algoritmo de treinamento utilizado, os parâmetros de treinamento, os critérios de parada, dentre outros.

Em geral, o treinamento das RNAs é realizado através de repetidas tentativas com diferentes topologias de rede, até serem obtidos resultados satisfatórios para o problema.

Consome tempo e exige experiência no treinamento de RNAs, além do fato de poder obter redes com conexões e unidades de processamento desnecessárias.

Quanto maior a topologia da rede mais complexo é o ajuste do valor destas conexões.

Page 5: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 5

Motivação

A Inicialização de pesos, arquitetura, entre outros parâmetros, de uma rede neural Multilayer Perceptron (MLP) pode ser formulado como um problema de otimização, onde cada solução representa os pesos iniciais, por exemplo, e a medida de custo pode ser em função do erro de treinamento.

Métodos de otimização global podem ser combinados baseado na técnica do gradiente (por exemplo, o algoritmo backpropagation), formado em uma abordagem híbrida, que tenta juntar, no mesmo sistema, a eficiência global dos métodos de otimização com o ajuste fino das técnicas baseada no gradiente. Esta combinação de métodos de otimização global, com técnicas de busca local, que é chamado de "formação híbrida“.

Assim, otimização simultânea de arquiteturas e pesos de RNA é uma abordagem interessante para a geração de redes eficientes com topologia pequenas.

Page 6: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 6

Objetivo

O objetivo deste trabalho é a proposição, implementação e análise de um método de otimização simultânea de pesos e arquiteturas que possa levar a uma solução de baixa complexidade e boa generalização;

Será considerada uma solução ideal aquela cuja os erros médios dos conjuntos de treinamento, validação e teste sejam equivalentes ou melhor aos dos métodos atuais.

Ou seja, o objetivo é minimizar o principal problema do algoritmo de backpropagation que é a convergência local, realizando a otimização simultânea dos pesos e arquiteturas da rede Multilayer Perceptron (MLP);

Page 7: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 7

Justificativa

Porque hibridizar técnicas de otimização global com técnicas de otimização local Técnicas de otimização global são relativamente ineficientes para o

ajuste fino em buscas locais, por isso será adicionado ao método proposto à heurística da técnica de busca local Backpropagation.

Porque usar GSO Tem sido recentemente utilizado para resolver problemas de alta

dimensionalidade e vem obtendo resultados promissores comparados com os de outras técnicas.

É uma técnica que explora o espaço de soluções de uma forma diferente das outras técnicas comumente usadas.

Page 8: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 8

Justificativa

Comparação entre o GSO e duas técnicas de otimização mais semelhante.

Características GSO PSO (Exame de Partículas) ACO (Colônia de Formigas)

Inspiração Conceitual Comportamento social de busca dos animais

Comportamento de enxame dos animais

Comportamento de seguir o caminho da formiga

Estratégia de Busca Produzindo, Buscando e Localizando

Concentrar-se Seguindo rastro de feromônio

Memória Produtor lembrar-se do seu ângulo de “cabeça anterior”.

Lembra a melhor posição Feromônio age como memória

Compartilhamento de Informação

Dada pelo produtor Dado pela melhor partícula Dada pelo feromônio

Problemas Adequados Contínuo, de grande dimensão, multimodal

Contínuo, multimodal Discreto

Page 9: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 9

O modelo GSO, descrito em [18], assume a existência de um produtor em cada geração e os membros restantes são scroungers (pedintes) e membros dispersos;

Foi inspirado em comportamento do animal, especialmente no comportamento de busca de animais;

Mecanismo de Busca: Visão. Outros mecanismos: contato físico, químico ou auditivos.

Group Search Optimizer

Page 10: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 10

Estratégia: Produdor: Pesquisar (produzir) alimentos, recursos; Scroungers: Juntar (arrecadar) recursos descoberto por outros.

Metodologia do Scrounger: Copiando Área: Movendo através do espaço em volta da área do

produtor. Ex: Tubarão e a Rêmora

Group Search Optimizer

Page 11: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 11

Group Search Optimizer

Membros Dispersos: Representam na natureza os membros que possuem forma de busca e

habilidades competitivas diferentes dos outros membros do grupo.

Eles geralmente são subordinados e possuem menor eficiência no seu método de busca por recursos do que os membros dominantes.

Page 12: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 12

Group Search Optimizer

Cada indivíduo possui uma posição, altura máxima que ele pode ir, ângulo máximo que sua cabeça pode girar para procurar recursos e distância máxima que pode atingir.

Inspirado no peixe branco

Page 13: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 13

Group Search Optimizer

“Percurso típico”

Nesta figura, o produtor foi artificialmente colocado no mínimo global, portanto, todos os pedintes "copiam área" e realizam corrida em direção ao produtor e finalmente convergiram para o mínimo global.

Page 14: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 14

Group Search Optimizer

Parâmetros: θmax = ângulo máximo que ele pode perseguir; max = ângulo máximo que ele pode girar a cabeça; l max = distância máxima que ele pode alcançar; 0 = Varia a inicialização dos ângulos;

Θmax = (4*pi) / (a^2), onde a = round(√n + 1); max = Θmax/2 l max = n

i=1 (Ui - Li)2 , onde U e L são menor e maior limites da dimensão.

Page 15: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 15

Group Search OptimizerTABELA I

PSEUDOCÓDIGO PARA O ALGORITMO GSO

Fixe k := 0;Inicializar aleatoriamente a posição Xi e o angulo i de todos os membros;Calcule o valor do fitness inicial dos membros: f (Xi );Enquanto (as condições não são atendidas)

Para (cada membros i do grupo)Escolha produtor: Encontre o produtor Xp do grupo;Executar produção:

1) O produtor vai varrer (varredura visual) a zero grau e depois varrer lateralmente por amostragem aleatória de trêspontos no campo de varredura usando (2) a (4). 2) Procurar o melhor ponto com os melhores recursos (valor de fitness). Se o melhor ponto tem um melhor recurso do que a sua atual posição, então ele vai voar para este ponto. Caso contrário, irá permanecer em sua posição atual e virar a cabeça para um novo ângulo usando (5). 3) Se o produtor não pode achar um melhor área após a iterações, este irá transformar o angulo para voltar ao grau zero usando (6);Executar scrounging: selecionar aleatoriamente 80% dos membros de descanso para realizar scrounging;Executar dispersão: Para os membros restantes, serão dispersos de sua posição atual para executar determine: 1). Gerar um ângulo aleatório usando (5) e 2). Escolher uma distância aleatória li a partir da distribuição de Gauss usando (8) e passar para o novo ponto usando (9);

Calcular fitness: Calcule o valor do fitness do membro atual: f (Xi);Fim do ParaAjuste k := k + 1;

Fim do Enquanto

Page 16: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 16

Metodologia Proposta GSO

Estratégia de busca igual do GSO; Escolher 10% dos melhores para serem os produtores e não apenas 1;

Escolher 20% dos piores para serem os membros dispersos e não 20% do grupo, pois podem ir membros com aptidão alta para este grupo;

Tabu Search – como método de memória Estratégia de armazenar nas lista tabu as n soluções visitadas; Avalia

um conjunto de soluções, enquanto o GSO avalia apenas uma solução; As soluções serão mantidas em um histórico para evitar a geração de

soluções repetidas. A solução só é aceita se não estiver na lista. Porém pode ser inserida uma solução com um custo maior do que o

custo da solução atual. Para resolver isso pode-se usar outro critério de aceitação da nova solução, como por exemplo, só aceitar a nova solução de for menor que a atual.

Page 17: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 17

Metodologia PropostaTabu Search: Idéia básica:

Escolhe aleatoriamente uma solução inicial. Guarda a solução em melhor solução e na lista tabu. Enquanto critérios de parada não forem satisfeitos,

Gera um conjunto de N soluções vizinhas a partir da atual. Escolhe o vizinho de menor custo que não esteja na lista tabu. Atualiza melhor solução e lista tabu.

Retorna melhor solução.

Usar Tabu Search aumenta o custo computacional; O tamanho da lista é um fator de grande influência no processo, pois feita

à opção por uma lista de tamanho pequeno, o processo ficará reduzido a pequenas regiões de busca.

Page 18: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 18

Metodologia Proposta

Geração: é selecionado 10% dos melhores indivíduos para ser o produtor, dos que sobrarem 20% dos piores membros serão os membros dispersos e 80% serão scrounger .

Fitness: O valor de aptidão de cada indivíduo é dado pelo erro da rede neural utilizando os dados separados para treino.

Condição de parada: Crescimento do valor do aptidão, número máximo de gerações e alcançar valor mínimo de aptidão 0.

Bases de Dados: 10 bases divididas entre problemas de classificação e previsão; Tentar usar base real do programa de pesquisa Xiscanoé.

Page 19: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 19

Esquema da Metodologia Proposta

1º Divisão do conjunto de treinamento e conjunto de treinamento, validação e teste.

Para os K folds

Inicia o GSO+”X”

1º Recebe o conjunto de treinamento e validação2º Avalia usando o erro de uma RNA

Pega o melhor resultado do SIH e avalia o desempenho da rede usando o conjunto de teste

SHI

Page 20: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 20

Cronograma

Atividades1. Aquisição dos Dados2. Pesquisar Sobre a

Metodologia Proposta

3. Implementar o Método Proposto

4. Avaliar o Método Implementado

5. Escrever Artigo6. Escrever Dissertação7. Defender Dissertação

Mês

Atividade

Abril

Maio

Junho

Julho

Agosto

Setembro

Outubro

Novembro

Dezembro

Janeiro

1.

2.

3.

4.

5.

6.

7.

Page 21: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 21

Referências

[1] Haykin, S. (1994). Neural Networks. Macmillan College Publishing Company. Ontario. Canada.

[2] D. B. Fogel, “The advantages of evolutionary computation,” in Proc.Bio-Computing Emergent Comput., Singapore: World Scientific Press,1997, pp. 1–11.

[3] C. J. Barnard and R. M. Sibly, “Producers and scroungers: A generalmodel and its application to captive flocks of house sparrows,” Animal Behavior, vol. 29, pp. 543–550, 1981

[4] X. Yao. Evolving artificial neural networks. Proceedings of the IEEE, 87(9):1423–1447, September 1999.

[5] R.S. Sexton, B. Alidaee, R.E. Dorsey, and J.D. Johnson, “Global optimization for artificial neural networks: A tabu search application,” Eur. J. Oper. Res., vol. 106, no. 2-3, pp. 570-584, 1998.

Page 22: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 22

Referências

[6] R.S. Sexton, R.E. Dorsey, and J.D. Johnson, “Optimization of neural networks: A comparative analysis of the genetic algorithm and simulated anneling.” Eur. J. Oper. Res., vol. 114, pp. 589-601, 1999.

[7] J.Tsai, J. Chou, and T. Liu, “Turning the structure and parameters of a neural network by using hybrid Taguchi-genetic algorithm,” IEEE Trans. Neural Netw., vol 17, no. 1, pp. 69-80, Jan. 2006.

[8] T.B. Ludermir, A. Yamazaki, and C. Zanchettin. An optimization methodology for neural network weights and architectures. IEEE Transactions on Neural Networks, 17(6):1452–1459, 2006.

[9] L.M. Almeida and T.B. Ludermir. A hybrid method for searching near-optimal artificial neural networks. In Hybrid Intelligent Systems, 2006. HIS ’06. Sixth International Conference on, pages 36–36, Dec. 2006.

[10] A. P. S. Lins, T. B. Ludermir, "Hybrid Optimization Algorithm for the Definition of MLP Neural Network Architectures and Weights," his, pp.149-154, Fifth International Conference on Hybrid Intelligent Systems (HIS'05), 2005.

Page 23: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 23

Referências

[11] A. Yamazaki, “Neural Network Training with Global Optimization Techniques”, (In Portuguese) Ph.D. Thesis, Center of Informatics, Federal University of Pernambuco, Brazil, 2004.

[12] VESTERSTROEM, J.; THOMSEN, R. A comparative study of differential evolution, particle swarm optimization, and evolutionary algorithms on numerical benchmark problems. Proc. Congr. Evol. Comput., vol. 2, 2004. p. 1980–1987.

[13] Jarmo Ilonen, Joni-Kristian Kamarainen, and Jouni Lampinen. Differential evolution training algorithm for feed-forward neural networks. Neural Processing Letters, 17(1):93–105, 2003.

[14] E. Bonabeau, M. Dorigo, and G. Theraulza, “Inspiration for optimization from social insect Behavior,” Nature, vol. 406, pp. 39–42, Jul. 2000.

[15] J. Kennedy, R. C. Eberhart, and Y. H. Shi, Swarm Intelligence. San Mateo, CA: Morgan Kaufmann, 2001.

Page 24: Otimização de Pesos e Arquitetura de Redes Neurais Utilizando Group Search Optimizer Danielle Nathália dngs@cin.ufpe.br 1Danielle Nathália Plano de Dissertação

Danielle Nathália 24

Referências

[16] C. W. Clark and M. Mangel, “Foraging and flocking strategies: Information in an uncertain environment,” Amer. Naturalist, vol. 123, pp. 626–641, 1984.

[17] C. J. Barnard and R. M. Sibly, “Producers and scroungers: A general model and its application to captive flocks of house sparrows,” Animal Behavior, vol. 29, pp. 543–550, 1981.

[18] S. He, Member, H. Wu, and J. R. Saunders, Group Search Optimizer: An Optimization Algorithm Inspired by Animal Searching Behavior. IEEE Transaction on Evolutionary Computation, Vol. 13, pp. 973-990, 2009.

[19] C. L. Higgins and R. E. Strauss, “Discrimination and classification of foraging paths produced by search-tactic models,” Behavioral Ecology, vol. 15, no. 2, pp. 248–254, 2003.