m´etodos num´ericos computacionais
TRANSCRIPT
METODOSMETODOS
NUMERICOSNUMERICOS
COMPUTACIONAISCOMPUTACIONAIS
Periodico do Simposio de MetodosNumericos Computacionais
2015
V Simposio de Metodos Numericos Computacionais
Marco Andre ArgentaMarina Vargas R. P. Goncalves
METODOS NUMERICOSCOMPUTACIONAIS
O periodico Metodos Numericos Computacionais contem todos os artigos completos enviados, aceitos e apresentados
durante o V Simposio de Metodos Numericos Computacionais da UFPR 2015.
Universidade Federal do Parana (UFPR)2014
V Simposio de Metodos Numericos Computacionais
Informacoes Basicas
A proposta do Simposio de Metodos Numericos Computacionais da UFPR e disseminar a pesquisa emmetodos numericos em engenharia e viabilizar um local para a discussao das pesquisas e trabalhos desenvolvidosna area. O periodico contem todos os artigos completos enviados e apresentados durante o evento.
Copyright
Os conceitos contidos em artigos sao de exclusiva responsabilidade de seus autores, nao refletindo, necessariamente,a opiniao dos editores. Nao se permite a reproducao total ou parcial dos trabalhos, apenas utilizar comofonte de dados desde que seja indicada, na forma de citacao, explicitamente a sua fonte.
CORPO EDITORIAL
Editora ResponsavelEditora da UFPR
Coordenacao EditorialMarco Andre ArgentaMarina Vargas Reis de Paula Goncalves
OrganizacaoGustavo Valentim Loch
Comite CientıficoAbel SiqueiraAda ScudelariAdriano DelfinoAdriano VictorAna Paula OeningAndre FabianiAndre Jacomel ToriiAndre MalheirosArinei Carlos Lindbeck da SilvaCesar Augusto TaconeliCesar TaconeliCleverson AndreoliCosmo Damiao SantiagoCristovao FernandesDaniel Estevao KaviskiDebora Cintia MarcilioDeise CostaDiana CancelliDiane Rizzotto RossettoEduardo FerreiraEduardo LopesElias KrainskiElvidio GavassoniEmılio MercuriErica CastilhoEricson DilayEuda FerreiraFabiane OliveiraFelıcio Bruzzi BarrosFernando Mayer
Francisco Chagas Lima JuniorGeovani GrapigliaGislaine PericaroGustavo Valentim LochHsu Yang ShangHugo LaraIdemauro LaraIsabella Andreczevski ChavesJoao Elias Abdalla FilhoJose CarrerJose Eduardo Pecora JuniorJose Ruidival Soares dos Santos FilhoJucelio TomasJuliano Fabiano da MotaLeandro MagataoLuciane GrossiLuciano Kiyoshi ArakiLuiz Albino Teixeira JuniorLuiz AlkiminMael SachineMarcelo BessaMarcelo CostaMarco Andre ArgentaMarcos ArndtMarcos PratesMaria Teresinha Arns SteinerNeida maria Patias VolpiNelson DiasOdacir GraciolliPaulo ConejoPaulo SiqueiraRafael SouzaRamiro CardenasRaphael ScuciatoRenata StramandinoliRicardo AlmeidaRicardo BertinRoberta BoszczowskiRoberta SueroRoberto Dalledone MachadoRodrigo Eustaquio
I
V Simposio de Metodos Numericos Computacionais
Rogerio CarrazedoRudinei BogoSilvana Heidemann RochaSilvia ShimakuraSimone MilocaSimone Tomazzoni GoncalvesSiovani Cintra FelipussiSolange Regina dos SantosSonia Isoldi MullerTerezinha GuedesThais FonsecaThiago Andre GuimaraesTIago Martinuzzi BuriolVanderly JaneiroWagner BonatWalmes ZevianiWalmor Cardoso GodoiWellington Mazer
Concepcao do projeto graficoMarco Andre Argenta
Web designMarco Andre Argenta
II
V Simposio de Metodos Numericos Computacionais
Sumario
Informacoes Basicas I
Copyright I
CORPO EDITORIAL I
Apresentacao V
Artigos Completos 1Analise Em Larga Escala Das Vazoes De Rios No Brasil . . . . . . . . . . . . . . . . . . . . . . . . 2Esquema Explıcito Com Erro De Truncamento Local Nulo Para A Equacao Da Onda 1d . . . . . . 9Um Algoritmo Genetico Hıbrido Para O Pcv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15Um Estudo Sobre A Metaheurıstica Colonia De Formigas . . . . . . . . . . . . . . . . . . . . . . . 22Modelo Para Previsao De Evaporacao Em Reservatorios De Agua . . . . . . . . . . . . . . . . . . . 29Previsao De Demanda Para Pecas De Reposicao De Alto Giro . . . . . . . . . . . . . . . . . . . . . 36Aprimoramento Do Precondicionador Separador Para Sistemas Lineares Oriundos Dos Metodos
De Pontos Interiores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43Extracao E Parsing De Dados 4d De Landmarks Em Superfıcies Geometricas Dinamicas. . . . . . 50Distribuicao Do Carregamentos De Paredes Estruturais Sobre Vigas Considerando O Efeito Arco
Atraves Da Modelagem Em Elementos Finitos . . . . . . . . . . . . . . . . . . . . . . . . . . 56Analise Da Variabilidade Espaco-Temporal Das Subpressoes Ao Longo Da Brecha D Na Usina
Hidreletrica De Itaipu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63Metodo Preditivo Wavelet Arima Neural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70Acesso A Informacoes De Fissuras Em Estruturas De Concreto Em Campo Utilizando Realidade
Aumentada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76Abordagem Neuro/Fuzzy/Bayesiana Aplicada Na Gestao De Seguranca De Barragens . . . . . . . 82Analise Da Remodelacao Ossea Utilizando H-Adaptatividade Em Um Modelo Bidimensional De
Um Femur Humano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89The Modeling Of Tilting Pad Journal Bearings Of Large Hydro Generators For Structural Health
Monitoring Purposes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96Dimensionamento E Sequenciamento De Lotes: Um Modelo Com Dois Estagios E Estoque Intermediario
Com Tempo Mınimo De Permanencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103Metodos De Otimizacao Aplicados Em Uma Equacao Diferencial Com Multiplos Pontos De Fornteira110Metodos De Homogeneizacao Para Obtencao Das Propriedades Efetivas Do Concreto . . . . . . . . 117Metodologia Hıbrida Wavelet Na Previsao Da Serie Temporal Do Pendulo Direto Do Bloco F-13
Da Barragem Principal Da Usina Hidreletrica De Itaipu . . . . . . . . . . . . . . . . . . . . . 123Uma Discussao Sobre H-Adaptatividade No Metodo Dos Elementos Finitos Aplicado Ao Problema
De Viga De Euler-Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131Resolucao Do Problema Do Caixeiro Viajante Atraves De Uma Maquina De Boltzmann Modificada138Transiente Hidraulico Em Condutos Forcados: Solucao Do Fenomeno Pela Integracao Discreta
Das Equacoes Governantes Pelo Metodo De Runge-Kutta Aplicado Nas Turbinas Da UsinaHidreletrica De Itaipu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
Simulacao Numerica Do Escoamento De Poiseuille Utilizando O Metodo Do Reticulado De Boltzmann153Avaliacao Da Remodelacao Ossea Tridimensional Em Torno De Proteses Femorais Utilizando Os
Modelos Isotropico E Anisotropico De Stanford . . . . . . . . . . . . . . . . . . . . . . . . . . 160Aplicacao De Caos Em Mapas Auto-Organizaveis Para Resolver Problemas Como O Caixeiro
Viajante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167Uma Resolucao Do Problema Do Caixeiro Viajante Por Mapa Auto-Organizavel De Kohonen . . . 174Analise De Estabilidade E Convergencia De Um Metodo Espectral Totalmente Discreto Para
Sistemas De Boussinesq. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180Previsao De Radiacao Solar De Curto Prazo Usando Combinacao Wavelet-Redes Neurais . . . . . 187Analysis Of A Fuzzy Controller Of A Manipulator With Flexible Joints . . . . . . . . . . . . . . . 194Otimizacao Na Localizacao De Centros Publicos De Educacao Infantil Em Curitiba-Pr . . . . . . . 201Analise Tridimensional Do Comportamento Mecanico De Viga Mista Aco-Concreto Pelo Metodo
Dos Elementos Finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
III
V Simposio de Metodos Numericos Computacionais
Estudo De Metodos Numericos Para A Solucao De Problemas Nao Lineares De Trelicas Planas . . 213Novo Parametro De Correcao De Falhas Na Diagonal Da Fatoracao Controlada De Cholesky No
Metodo De Pontos Interiores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220Robust Unit Commitment With Wind Power Forecasting Uncertainty . . . . . . . . . . . . . . . . 227Estudo De Trincas Utilizando O Metodo Do Elemento De Contorno Com A Funcao De Green
Numerica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235Implementation And Accuracy Aspects For Nurbs Based Isogeometric Analysis Of Free Vibration
Of Trusses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241Aplicacao Da Analise Multivariada Na Determinacao Dos Indicadores Dos Municıpios Paranaenses 247Visualizacao De Dados Multidimensionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254Selecao Otimizada De Parametros Do Support Vector Classification (SVC) Por Meio Da Tecnica
Grid-Quadtree . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261Insercao De Novos Pedidos Atraves De Simulacao Durante O Sequenciamento Em Uma Unica
Maquina Para Minimizar O Makespan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268Previsao De Series Financeiras: Um Estudo Baseado Na Analise De Dados Em Painel . . . . . . . 275Uma Proposta De Estabilizacao Do Mefg Com Enriquecimento Trigonometrico Para Analise Modal285Controle Ativo De Vibracoes Utilizando Logica Fuzzy Em Um Rotor Flexıvel Com Atuadores
Eletromagneticos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292Ampliando A Interacao Para Aumentar A Compreensao Na Visualizacao De Dados De Radares
Meteorologicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298Utilizacao Da Evolucao Diferencial Em Problemas Inversos Para A Identificacao De Parametros . . 307Exploracao Das Bases Teoricas De Design De Jogos Em Aplicacoes Voltadas Ao Aprendizado . . . 313Estudo De Problemas De Elasticidade Linear Bidimensional Usando Analise Isogeometrica . . . . 318Um Estudo Sobre A Influencia Do Tamanho Da Amostra Na Analise Fatorial De Dados Dicotomicos325Projecao Da Serie Temporal Canadian Lynx Pelo Metodo Hıbrido Svr-Lssvr Wavelet . . . . . . . . 332Aplicacao De Metodos Numericos Simples Para A Resolucao De Problema De Valor No Contorno
Associado A Otimizacao De Bioprocessos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340An Optimization Model Applied To A Two-Stage Production Environment . . . . . . . . . . . . . 347Analise Global Do Remodelamento Osseo Considerando Movimentacao Ortodontica Idealizada . . 354Influencia Das Condicoes Ambientais Nos Deslocamentos De Uma Barragem De Concreto . . . . . 360Utilizacao Do Modelo De Regressao De Cox Para Explicar O Tempo Ate A Germinacao De
Sementes De Peroba-Rosa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367Modelo De Regressao Multivariado Para Deslocamentos Em Barragem De Concreto . . . . . . . . 374Modelagem Termica De Um Bloco De Contrafortes Atraves De Dados De Termometros E O Metodo
Dos Elementos Finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382Metodo De Analise De Estabilidade Probabilıstica De Barragens De Terra . . . . . . . . . . . . . . 389Matheurıstica Tsrad Para Otimizacao No Planejamento De Radioterapia . . . . . . . . . . . . . . 396Condicionamento Do Problema De Autovalores Obtido Do Metodo De Elementos Finitos Generalizados
Na Analise Dinamica De Vigas De Euler-Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . 402Determinacao Da Forca Crıtica De Flambagem De Arcos Com Forma Parabolica . . . . . . . . . . 408Analise Espaco-Temporal Dos Casos Novos De Hansenıase . . . . . . . . . . . . . . . . . . . . . . . 415Solucao De Equacoes Diferenciais Por Algoritmos De Diferenciacao Automatica E Programacao
Genetica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421Analise Numerica De Um Modelo De Cordas Elasticas Com Fronteira Movel . . . . . . . . . . . . 428
Indice por Autor 437
IV
V Simposio de Metodos Numericos Computacionais
Apresentacao
O Programa de Pos-Graduacao em Metodos Numericos em Engenharia (PPGMNE), da Universidade Federaldo Parana, criado pelo Departamento de Construcao Civil (Setor de Tecnologia) e pelo Departamento deMatematica (Setor de Ciencias Exatas), tem por objetivo congregar as areas de concentracao de MecanicaComputacional e de Programacao Matematica num unico curso, por perceber a inter-relacao entre as mesmase por acreditar que, num trabalho conjunto, multi e interdisciplinar, e possıvel o desenvolvimento e aplicacaodos metodos numerico-computacionais na busca de novas formas de solucao dos problemas de Engenharia ede problemas reais de uma forma geral. O PPGMNE iniciou atividades em 1994 com o curso de mestradoe em 2003 passou a oferecer tambem o curso de doutorado. O Programa nao tem a pretensao de cobrirtodo o conhecimento das areas mencionadas, mas considera-se apto a desenvolver trabalhos em algumasdas areas mais importantes, conforme a natureza de seu corpo docente, que envolve professores de diversosdepartamentos: Construcao Civil, Engenharia Mecanica, Engenharia Eletrica, Engenharia de Producao,Engenharia Hidraulica, Matematica, Estatıstica, Informatica e Expressao Grafica.
A proposta do simposio e disseminar a pesquisa em metodos numericos em engenharia e viabilizar umlocal para a discussao das pesquisas e trabalhos desenvolvidos na area.
O evento proporcionara:
• divulgar a producao cientıfica desenvolvida pela comunidade academica do Curso de Pos-Graduacaode Metodos Numericos em Engenharia, e demais instituicoes de ensino participantes;
• promover o intercambio entre pesquisadores, alunos e professores, visando a troca de informacoescientıficas;
• realizar a integracao das pesquisas concluıdas e/ou em andamento possibilitando uma complementacaodos resultados e direcionamento das propostas;
• construir um ambiente de discussao dos desafios enfrentados pelo desenvolvimento da pesquisa sob oponto de vista empresarial e academico.
V
V Simposio de Metodos Numericos Computacionais
Artigos CompletosArtigos CompletosArtigos Completos aceitos e apresentados durante o evento
1
V Simposio de Metodos Numericos Computacionais
ANÁLISE EM LARGA ESCALA DAS VAZÕES DE RIOS NOBRASIL
Resumo: Este artigo apresenta uma caracterização em larga escala das vazões em 141 estações diferentes (nasproximidades de usinas hidrelétricas) de 53 rios brasileiros via séries temporais diárias obtidas ao longo do períodode 1931-2012. Foi feito um estudo usando os seguintes métodos da física estatística: Detrended Fluctuation Analy-sis (DFA), Entropia e Complexidade de Permutação, visando ilustrar seus usos e também como são os estudostípicos de sistemas complexos. Entre outros resultados, mostrou-se como o uso do espectro de permutação per-mite encontrar o período associado a sazonalidade natural da vazão dos rios, que após normalizadas, as vazõessão aproximadamente descritas por uma mesma distribuição, e que essas séries temporais são correlacionadas delongo alcance. Os resultados obtidos são comparados com os resultados encontrados na literatura.
Palavras-Chave: Sistemas Complexos, Séries Temporais, Física Estatística, Correlações de LongoAlcance, Entropia e Complexidade de Permutação.
1 INTRODUÇÃO
O estudo de sistemas relacionados à Terra é um tema importante que tem sido abordado por físicose engenheiros por meio de métodos da física estatística. Terremotos (Mendes et al., 2010), atividadesgeomagnéticas (Turner et al., 2012), clima (Boettle et al., 2013) e relacionados com o clima (Rybskiet al., 2011; Ribeiro et al., 2013) são apenas alguns exemplos de sistemas que os pesquisadores temabordado com esses métodos. No caso de sistemas relacionados ao clima, sistemas importantes são osrios e suas vazões, as quais têm grande impacto sobre as atividades humanas e que também podem sofrergrande influência dessas atividades. A vazão dos rios resulta de interações complexas entre os sistemasclimáticos (como precipitação, temperatura e evaporação), relevo (como a área da bacia e alívio de terra)e atividades humanas (como poluição e geração de energia). Esses muitos processos tornam as vazõesdos rios (descargas fluviais) um processo bastante complexo que tem atraído a atenção de estudiosos aolongo das últimas seis décadas. Por exemplo, o trabalho de referência de Hurst sobre a dependência delonga duração de registros de escoamento de vários rios (Hurst, 1951) promoveu várias discussões sobreas propriedades fractais/multifractais da evolução temporal das vazões dos rios (Tessier et al., 1996;Porporato and Ridolfi, 1997; Jánosi and Gallas, 1999; Bordignon and Lisi, 2000; Kantelhardt et al.,2001; Bramwell et al., 2002; Livina et al., 2003; Kantelhardt et al., 2003; Dahlstedt and Jensen, 2005;Movahed and Hermanis, 2008; Dolgonosov et al., 2008; Zhang et al., 2009b,a; Hajian and Movahed,2010; De Domenico and Latora, 2011; Bigachev and Bunde, 2012; Yu et al., 2014; Mihailovic et al.,2014; Rabassa and Beck, 2015). Apesar dessa atenção considerável para a investigação das vazões dosrios, a maioria desses trabalhos são baseadas em dados de pequenos conjuntos de rios e ainda existeuma falta de caracterização em larga escala de séries temporais relacionada as vazões dos rios. Neste
Adriana Camila Braga, Ademir Alves Ribeiro, ManoelMessias Alvino de Jesus, Haroldo Valentin Ribeiro
2
contexto, o Brasil tem a maior bacia hidrográfica (Amazonas) e um dos sistemas de rios mais complexose extensos do mundo. Apesar disso, para o melhor de nosso conhecimento, uma investigação em largaescala sobre os rios brasileiros não foi relatada ainda. Aqui, pretende-se preencher ainda mais estalacuna.
2 APRESENTAÇÃO E ANÁLISE DOS DADOS
Os dados analisados consistem em séries temporais diárias das vazões naturais dos rios (descargasfluviais) medidas em 141 estações diferentes nas proximidades das usinas hidrelétricas. Estes dadosabrangem 53 rios brasileiros e o período de 1931 à 2012. Além disso, esses dados são disponibilizadosgratuitamente pelo Operador Nacional do Sistema Elétrico - ONS - (um órgão federal que controla osistema de energia no Brasil) no endereço eletrônico: http://www.ons.org.br/operacao/vazoes_naturais.aspx. Por questão de conveniência, vamos designar a vazão por x(t), onde t = 1, 2, . . . , 365 são os diasdo ano. Em nossa análise, removeu-se o último ponto dos dados de todas as séries temporais de anobissexto, garantindo que todas as séries temporais tenham o mesmo comprimento. A vazão x(t) é dadaem m3/s e a Figura (1) mostra exemplos da evolução temporal de três estações diferentes em quatroanos.
Vazã
o x(
t) (
m3 /s
× 1
04 )
Itaipu (Rio Paraná) 4
3 1931
Tucuruí (RioTocantins) 4
3 1970
Ilha Solteira (Rio Paraná) 4
3 1931
2 2 2
1 1 1
0 0 50 100 150 200 250 30 0 350
4
3 1958
0 0 50 100 150 200 250 30 0 350
4
3 1984
0 0 50 100 150 200 250 30 0 350
4
3 1958
2 2 2
1 1 1
0 0 50 100 150 200 250 30 0 350
4
3 1985
0 0 50 100 150 200 250 30 0 350
4
3 1998
0 0 50 100 150 200 250 30 0 350
4
3 1985
2 2 2
1 1 1
0 0 50 100 150 200 250 30 0 350
4
3 2012
0 0 50 100 150 200 250 30 0 350
4
3 2012
0 0 50 100 150 200 250 30 0 350
4
3 2012
2 2 2
1 1 1
0 0 50 100 150 200 250 30 0 350
0 0 50 100 150 200 250 30 0 350
Tempo, t (dias)
0 0 50 100 150 200 250 30 0 350
Figura 1: Exemplo de séries temporais das vazões naturais em rios brasileiros.
Uma das característica mais marcante apresentada na Figura (1) é a sazonalidade natural da evoluçãode x(t), o que reflete a associação das descargas fluviais com o sistema climático. É evidente a partirdessas figuras que grandes descargas ocorrem durante os primeiros e últimos meses do ano (verão) eque as baixas descargas aparecem durante o inverno (em torno do meio do ano). Nesse contexto, umapergunta natural é como se pode definir o período T associado a estas séries temporais e se T temalgum aspecto evolutivo ao longo dos anos. Aqui, concentrar-se-á na técnica chamada de espectro depermutação, que consiste em avaliar a entropia H e complexidade C como função do embedding delayτ em um intervalo particular, por termos boas estatísticas, escolheu-se o valor máximo de τ , em tornode 20% do comprimento N da série temporal. Este espectro de permutação provou ser bem sucedido naidentificação de fenômenos de delay e mecanismos de “feedback” em séries temporais (Zunino et al.,2010; Kulp and Zunino, 2014). Em geral, as relações H em função de τ e C em função de τ exibempicos ou vales que correspondem a harmônicas e sub-harmônicas associadas à série temporal. A fim de
V Simposio de Metodos Numericos Computacionais
3
identificar os períodos T associados às descargas fluviais, agrupou-se a série temporal x(t) em intervalosde tempo de 20 anos e, para cada conjunto, calculou-se o espectro de permutação para H e C.
Figura (2A) mostra um exemplo do espectro de permutação das descargas do rio Paraná na estaçãode Itaipu, tanto para H (painel superior) e C (painel do meio). Observou-se que a entropia H apresentapicos, enquanto a complexidade C tem vales, espaçados em cerca de 365 dias. Para estimar o períodoT associado à série temporal, analisou-se a diferença entre H e C como mostrado no painel inferior daFigura (2A). Isso garante mais informações sobre a série temporal e pode ajudar a aumentar a precisãono valor estimado de T . Nessa relação entre (H−C) e τ , identificou-se numericamente a localização dospicos, isto é, os valores de τ = τ ∗i onde os picos ocorrem, mediante a imposição de que um pico deve sero maior valor em torno de 180 valores menores à esquerda e à direita. A performance deste procedimentosimples foi verificada manualmente sendo que, não foram encontrados erros de identificação. O períodoT associado a um intervalo de tempo particular de uma série temporal é, assim, definido como o valormédio da diferença entre dois picos consecutivos τ ∗i . O painel inferior da Figura (2A) mostra os picosidentificados na relação de H − C em função de τ e também ilustra a definição de T .
1.0
0.7
0.6
0.5 0 300 600 900 1200
B
H −
C
Com
ple
xid
ad
e,
C
En
trop
ia,
H
p-v
alo
res q
ue
te
sta
m
testa
m t
estin
g
Pe
ríod
o E
stim
ad
o,T
a
sig
nif
icân
cia
de β
A
1.0
Itaipu (1931-1950)
Itaipu 440
0.9
400
T = A + β n
0.8
0.3
0.2
0.1
0.0
0.9
0.8
0 300 600 900 1200
0 300 600 900 1200
T T
Tempo d o delay, τ
360
320
280
C 1.0
0.8
0.6
0.4
0.2
0.0
Intervalo de tempo usado
1940 1960 1980 2000
Centro do intervalo de tempo, n
Itaipu
(Rio Paraná)
0.01
0 20 40 60 80 índice
Figura 2: Obtendo o período das séries temporais através da entropia de permutação e complexidadeestatística.
Estimou-se o valor de T associado a cada intervalo de tempo de 20 anos para todas as séries temporais.Figura(2B) mostra os valores estimados de T de quatro intervalos de tempo para as descargas do rioParaná na estação de Itaipu. Notamos que o T estimado é de cerca de 365 dias, mas que também exibepequenas flutuações. Em particular, a partir do exemplo da Figura (2B), pode-se imaginar que T temsido cada vez maior. Para ter acesso, de forma sistemática, se T apresenta algum aspecto evolutivo,ajustamos o modelo linear
T = A+ β n (1)
aos valores estimados de T para todas as séries temporais com comprimento mínimo de 80 anos. AquiA e β são constantes e n representa o centro do intervalo de tempo usado para estimar T . Verificamos asignificância estatística de β através dos seus p-valores. O p-valor indica a probabilidade do parâmetro βser diferente de zero, sendo que p-valores menores do que 0.01 indicam que existe apenas 1% de chance
V Simposio de Metodos Numericos Computacionais
4
de β não ser diferente de zero. A Figura (2C) mostra todos os p-valores, onde é evidente que β nãotem significado estatístico e, por isso, T não apresenta uma tendência linear crescente ou decrescente.Naturalmente, este resultado não exclui outras possibilidades de evolução para T , como um comporta-mento oscilatório ou dependência temporais não complicadas. No entanto, quatro valores para T nãosão suficientes para responder essas perguntas de forma objetiva. Além disso, outra questão importante(provavelmente uma das mais importantes) é em relação às flutuações de T , por exemplo, são essasflutuações crescentes? Esta hipótese é muito mais difícil de testar, porque as flutuações de τi não temqualquer razão para ser diretamente associadas às flutuações em T . Agora vamos focar nossa atençãona versão normalizada z(t) da série temporal x(t). A Figura (3) ilustra essa definição e mostra que esseprocedimento remove a principal sazonalidade presente em x(t).
Desvio
-padrã
o
Média
da v
azão, µ
(t)
(m3/s
× 1
04)
da v
azã
o,σ
(t)
Va
zão N
om
aliz
ada
, z(t
)
1
A 2.0
1.5
C 3
Itaipu 2
0
−1
−2
Itaipu
1931
1.0
0.5
0.0
B
0 50 100 150 200 250 300 350
Tempo, t (dias)
0 50 100 150 200 250 300 350
3
2 1958 1 0
−1
−2 0 50 100 150 200 250 300 350
3
2 1985
6.0
5.0
4.0
3.0
2.0
Itaipu
0 50 100 150 200 250 300 350
Tempo, t (dias)
1 0
−1
−2 0 50 100 150 200 250 300 350
3 2 2012 1
0
−1
−2 0 50 100 150 200 250 300 350
Tempo, t (dias)
Figura 3: Definição da série temporal normalizada.
Uma questão importante a respeito de z(t) está relacionada à sua distribuição de probabilidade. Di-versos trabalhos tem apontado que uma distribuição universal pode descrever a distribuição empírica dez(t), independentemente das particularidades do rio (Bramwell et al., 2002; Dahlstedt and Jensen, 2005;De Domenico and Latora, 2011). O grande número de séries temporais em nosso conjunto de dadospode fornecer uma resposta definitiva para esta questão. Para isso, avaliou-se a distribuição agregadade z(t) para todas as séries temporais. A Figura (4) mostra essa distribuição em que é observado umbom colapso, corroborando ainda mais para a hipótese de que a distribuição empírica de z(t) é universalentre diferentes rios. Outra pergunta é se esta distribuição empírica universal pode ser descrita por al-guma forma funcional. Neste contexto, o modelo Bramwell-Holdsworth-Pinto (BHP) (Bramwell et al.,1998), que descreve as flutuações magnéticas no modelo-XY clássico perto da criticalidade, bem como,a distribuição de valor extremo de primeira ordem (ou a distribuição de Gumbel (Gumbel, 1958)),
P (z) =1
θeλ−zθ
−eλ−zθ , (2)
onde θ e λ são parâmetros de ajuste, foram utilizados para ajustar estas distribuições empíricas. NaFigura (4), comparamos as distribuições empíricas com a forma de Gumbel e uma boa concordância é,de fato, observada (concordância semelhante é obtida para o modelo BHP). A distribuição de Gumbel
V Simposio de Metodos Numericos Computacionais
5
está relacionada ao máximo do conjunto de n → ∞ números aleatórios extraídos de uma distribuiçãoque assintoticamente decai mais rapidamente do que qualquer lei de potência. A concordância com essadistribuição sugere, assim, que as flutuações normalizadas z(t) podem ser também modeladas como umprocesso de valor extremo.
Dis
trib
uiçõ
es d
as
utua
ções
no
rmal
izad
as z(t)
100
10−1
10−2
10−3
10−4
com e
−4 −2 0 2 4 6 8
Flutuações Normalizadas z(t)
Figura 4: Comportamento universal das distribuições de probabilidades das vazões normalizadas.
Como nossa última análise, estudou-se se há ou não memória de longo alcance na série temporaldas descargas dos rios. Para investigar essa hipótese, considerou-se as séries temporais normalizadasz(t) agrupadas por ano e empregou-se o Detrended Fluctuation Analysis (DFA) (Peng et al., 1994;Kantelhardt et al., 2001). Se z(t) é auto-similar, a função de flutuação F (m) apresenta uma dependênciatipo lei de potência sobre o tempo de escala m, ou seja, F (m) ∼ mh, onde h é o expoente de Hurst.Para h > 0.5 ou h < 0.5 a série é correlacionada de longo alcance, enquanto que para h = 0.5 é do tiponão correlacionada ou apresenta correlação de curto alcance (tipo exponencial). O valor de h tambémdeve ser de cerca de 0.5 para versões embaralhadas de z(t), caso contrário, o DFA pode levar a falsascorrelações associadas com uma possível natureza livre de escada da distribuição de z(t) (o que nãoacontece no nosso caso).
Figura 5: Correlações de longo alcance nas vazões normalizadas.
A Figura (5A) mostra um exemplo prático de DFA para as flutuações normalizadas z(t) do rio Paraná,
V Simposio de Metodos Numericos Computacionais
6
na estação de Itaipu no ano de 1937. Nota-se que o gráfico log-log lineariza o relacionamento entreF (m) e m, de modo que a inclinação dessa curva é o valor de h. Assim, estimou-se o valor de hpor meio de regressão linear sobre a relação log-log e, para este caso, h = 1.3 para a série original eh = 0.5 para versão embaralhada. Empregando o mesmo procedimento, estimou-se h para todas asséries agrupadas por ano e a Figura (5B) mostra a distribuição de probabilidade de h. Verificamos queh é normalmente distribuído em torno de 1.16 com desvio-padrão de 0.19. Observou-se ainda que, asversões embaralhadas de z(t) exibem h com valores distribuídos em torno de 0.5 e desvio-padrão de0.05. Assim, os resultados obtidos estão em acordo com trabalhos anteriores (Dolgonosov et al., 2008;Tessier et al., 1996; Kantelhardt et al., 2001; Movahed and Hermanis, 2008; Zhang et al., 2009a; Hajianand Movahed, 2010; Yu et al., 2014; Zhang et al., 2009b) sobre a existência de correlações de longoalcance na série temporal normalizada relacionadas às descargas fluviais. No entanto, os valores de hmostram flutuações importantes, que podem ser úteis para uma classificação de rios e também podemlevar a outras investigações relacionando h com particularidades do rio e/ou do ano em análise.
3 CONCLUSÕES
Estudou-se um grande conjunto de séries temporais de descargas fluviais que cobrem 53 rios brasileiros,abrangendo mais de 80 anos. Ao utilizar a entropia e complexidade de permutação, mostrou-se que épossível associar um período T à sazonalidade natural destas séries temporais. Investigou-se a possi-bilidade de T apresentar tendências evolutivas, estimando seu valor dentro de diferentes intervalos detempo da série temporal. Uma regressão linear mostrou que T não apresenta uma tendência linear deaumento ou diminuição para todas as séries temporais. Estudou-se, também, versões normalizadas dasérie temporal e uma distribuição universal foi encontrada, apesar de toda complexidade e diferenças dosrios em análise. Argumentou-se que a distribuição de Gumbel pode ser ajustada aos dados empíricos, oque, de alguma forma, pode conectar as flutuações normalizadas com processos de valor extremo. Porfim, analisou-se a memória de longo alcance presente nessas séries temporais via DFA. Mostrou-se queo expoente de Hurst realmente confirma a existência de correlações de longo alcance, mas que o seuvalor exibe uma faixa de variação, dependendo do rio e/ou do ano em análise. Este último achado podeser, eventualmente, usado para promover uma classificação dos rios e outras questões sobre possíveisrelações entre h e particularidades do rio e/ou do ano em análise. Essas descobertas, assim, contribuempara os resultados anteriores (em relação às distribuições das flutuações normalizadas (Bramwell et al.,2002; Dahlstedt and Jensen, 2005; De Domenico and Latora, 2011) e às correlações de longo alcance(Dolgonosov et al., 2008; Tessier et al., 1996; Kantelhardt et al., 2001; Movahed and Hermanis, 2008;Zhang et al., 2009b,a; Hajian and Movahed, 2010; Yu et al., 2014)) e também lançam novas possibili-dades para investigar essas séries que podem encontrar implicações para modelagem e previsão da vazãode rios.
REFERÊNCIAS
Bigachev M.I. and Bunde A. Universality in the precipitation and river runoff. EPL, 97:48011, 2012.Boettle M., Rybski D., and Kropp J.P. How changing sea level extremes and protection measures alter
coastal flood damages. Water Resources Research, 49:1199–1210, 2013.Bordignon S. and Lisi F. Nonlinear analysis and prediction of river flow time series. Environmetrics,
11:463–477, 2000.Bramwell S., Holdsworth P., and Pinton J.F. Universality of rare fluctuations in turbulence and critical
phenomena. Nature, 396:552–554, 1998.Bramwell S.T., Holdsworth P.C.W., and Portelli B. Universal fluctuations of the danube water level: A
link with turbulence, criticality and company growth. EPL, 57:310–314, 2002.Dahlstedt K. and Jensen H.J. Fluctuation spectrum and size scaling of river flow and level. Physica A,
348:596–610, 2005.De Domenico M. and Latora V. Scaling and universality in river flow dynamics. EPL, 94:58002, 2011.Dolgonosov B.M., Korchagin K.A., and Kirpichnikova N.V. Modeling of annual oscillations and 1/f-
noise of daily river discharges. Journal of Hydrology, 357:174–187, 2008.
V Simposio de Metodos Numericos Computacionais
7
Gumbel E.J. Statistics of Extremes. Columbia University Press, New York, NY, 1958.Hajian S. and Movahed M.S. Multifractal detrended cross-correlation analysis of sunspot numbers and
river flow fluctuations. Physica A, 389:4942–4957, 2010.Hurst H.E. Long-term storage capacity of reservoirs, volume 116. Transactions of the American Society
of Civil Engineers, 1951.Jánosi I.M. and Gallas J.A.C. Growth of companies and water-level fluctuations of the river danube.
Physica A, 271:448–457, 1999.Kantelhardt J.W., Koscielny-Bunde E., Rego H.H.A., Havlin S., and Bunde A. Detecting long-range
correlations with detrended fluctuation analysis. Physica A, 295:441–454, 2001.Kantelhardt J.W., Rybski D., Zschiegner S.A., Braun P., Koscielny-Bunde E., Livina V., Havlin S., and
Bunde A. Multifractality of river runo and precipitation: comparison of fluctuation analysis andwavelet methods. Physica A, 330:240–245, 2003.
Kulp C.W. and Zunino L. Discriminating chaotic and stochastic dynamics through the permutationspectrum test. Chaos, 24:033116, 2014.
Livina V., Ashkenazy Y., Kizner Z., Strygin V., Bunde A., and Havlin S. A stochastic model of riverdischarge fluctuations. Physica A, 330:283–290, 2003.
Mendes R.S., Malacarne L.C., Santos R.P.B., Ribeiro H.V., and Picoli S. Earthquake-like patterns ofacoustic emission in crumpled plastic sheets. EPL, 92:29001, 2010.
Mihailovic D.T., Nikolic-Doric E., Dreskovic N., and Mimic G. Complexity analysis of the turbulentenvironmental fluid flow time series. Physica A, 395:96–104, 2014.
Movahed M.S. and Hermanis E. Fractal analysis of river flow fluctuations. Physica A, 387:915–932,2008.
Peng C.K., Buldyrev S.V., Havlin S., Simons M., and Stanley H.E. Mosaic organization of dna nu-cleotides. Physical Review E, 49:1685–1689, 1994.
Porporato A. and Ridolfi L. Nonlinear analysis of river flow time sequences. Water Resources Research,33:1353–1367, 1997.
Rabassa P. and Beck C. Superstatistical analysis of sea-level fluctuations. Physica A, 417:18–28, 2015.Ribeiro H.V., Antonio F.J., Alves L.G.A., Lenzi E.K., and Mendes R.S. Long-range spatial correlations
and fluctuation statistics of lightning activity rates in Brazil. EPL, 104:69001, 2013.Rybski D., Holsten A., and Kropp J.P. Towards a unified characterization of phenological phases: fluc-
tuations an correlations with temperature. Physica A, 390:680–688, 2011.Tessier Y., Lovejoy S.and Hubert P., and Schertzer D.and Pecknold S. Multifractal analysis and modeling
of rainfall and river flows and scaling, causal transfer functions. Journal of Geophysical Research,101:26427–26440, 1996.
Turner D.L., Shprits Y., Hartinger M., and Angelopoulos V. Explaining sudden losses of outer radiationbelt electrons during geomagnetic storms. Nature Physics, 8:208–212, 2012.
Yu Z.G., Leung Y., Chen Y.D., Zhang Q., Anh V., and Zhou Y. Multifractal analyses of daily rainfalltime series in Pearl River basin of China. Physica A, 405:193–202, 2014.
Zhang Q., Xu C.Y., and Yang T. Scaling properties of the runoff variations in the arid and semi-aridregions of China: a case study of the Yellow River basin. Stoch Environ Res Risk Assess, 23:1103–1111, 2009a.
Zhang Q., Xu C.Y., Yu Z., Liu C.L., and Chen Y.D. Multifractal analysis of streamflow records of theEast River basin (Pearl River), China. Physica A, 388:927–934, 2009b.
Zunino L., Soriano M.C., Fischer I., Rosso O.A., and Mirasso C.R. Permutation-information-theoryapproach to unveil delay dynamics from time-series analysis. Physical Review E, 82:046212, 2010.
V Simposio de Metodos Numericos Computacionais
8
V Simposio de Metodos Numericos Computacionais
ESQUEMA EXPLÍCITO COM ERRO DE TRUNCAMENTO LOCALNULO PARA A EQUAÇÃO DA ONDA 1D
Resumo:É conhecido que o esquema de diferenças finitas centrais, aplicado à equação da onda linear homogêneaunidimensional, possui erro de truncamento local nulo caso a relação entre os incrementos espacial e temporal sejac∆t/∆x = 1. Em outras palavras, toda função de classeC∞ que satisfaz a equação contínua irá satisfazer tambéma equação discreta. Este trabalho tem por objetivo mostrar que, sob a hipótese deu ∈ C2 e c∆t/∆x = 1, então oesquema explícito produzido também possui erro de truncamento local nulo e, por tanto, toda função que satisfazem sentido clássico a equação da onda linear homogênea 1D, irá satisfazer também a equação de diferenças, casoa relação anterior seja considerada.
Palavras-Chave: Erro de Truncamento, Diferenças Finitas, Razão de Ouro, Equação da Onda
1 INTRODUÇÃO
Seja o problema descrito pela equação:
∂2u
∂t2− c2∇2u = f (1)
em quec > 0 é a velocidade de propagação da onda; o termo fontef representa uma fonte externa;∇2
é o operador laplaciano que, em coordenadas cartesianas, emR é dado por∇2u =∂2u
∂x2e emR2 por
∇2u =∂2u
∂x2+∂2u
∂y2; x ey são as direções espaciais et o tempo; a variávelu pode representar um campo
de pressão ou um campo de deslocamento. Esta equação é conhecida como equação da onda e ocorreprimariamente em três campos (Whitham, 1974, p. 209): acústica, elasticidade e eletromagnetismo.
Em acústica, o campo acústico bidimensional é descrito porP (x, y, t) eu(x, y, t), ondeP representa ocampo de pressão e é dado pela equação (1), u é o deslocamento das partículas no meio (Fernandes et al.,2009). A relação entreP eu é dada pela Lei de HookeP = −k∇u, em quek é a incompressibilidadedo meio e∇ o operador gradiente (Santos, 2012, p. 16). Sob esta perspectiva, é utilizada em modelagemsísmica, técnica utilizada por exemplo na exploração petrolífera e que busca descrever o fenômeno depropagação de ondas que vão desde a fonte, passando pelas camadas do meio geofísico, até o retornoaos receptores (Di Bortolo, 2010).
Em elasticidade, a equação (1) pode ser obtida no tratamento elementar de vibrações transversais emcordas e membranas ou em ondas torcionais e longitudinais aolongo de barras (Rodrigues, 2012).
Em eletromagnetismo, as equações de Maxwell para um meio nãocondutor com permeabilidadeµe constante dielétricaǫ relacionam o campo elétricoE e a indução magnéticaB. Pode ser verificado
Adriano Rodrigues de Melo, Liliana Madalena Gramani, Eloy Kaviski
9
que todas as componentes deE e B satisfazem a equação da onda (1), com a velocidade de propagaçãoc = (ǫµ)−1/2 ef = 0 (Whitham, 1974, p. 214).
O método das diferenças finitas é um dos vários métodos que podem ser utilizados para aproximar asolução deste problema. Entretanto, o mesmo é condicionalmente estável e, portanto, condicionalmenteconvergente. Para o caso homogêneo unidimensional, é conhecido que a condição de estabilidade para oesquema de diferenças centrais é|c∆t/∆x| ≤ 1 (Iserles, 1996). A razãoc∆t/∆x = 1 é conhecida comorazão de ouro, pois proporciona um erro de truncamento localigual a zero e, por isso, espera-se umaacurácia perfeita para soluções de classeC∞ (Strang, 1986). Este trabalho tem por objetivo mostrar queo esquema de diferenças finitas centrais aplicado ao problema (1) homogêneo unidimensional, tambémpossuem erro de truncamento local nulo ao considerar-se soluções de classeC2 e a razão (de ouro)c∆t/∆x = 1.
Nas próximas seções serão apresentados os desenvolvimentos das ideias. Na seção2 são elenca-dos alguns resultados que norteiam os argumentos utilizados nas deduções. Em seguida, na seção3,enunciada-se e prova-se um teorema e um corolário. Na seção4 são apresentadas as conclusões e con-siderações.
2 FUNDAMENTAÇÃO TEÓRICA
Esta seção trata de alguns resultados importantes para o desenvolvimento das ideias. Os primeirosconceitos a serem tratados dizem respeito a erros de discretização, erros de truncamento local e con-sistência, enunciados conformeFerziger and Peric (2002):
Definição 2.1(Erro de Discretização Global). Sejamu euΨ os vetores solução das equações contínuae discretizada sobre uma malhaΨ, respectivamente. O erro de discretização global é definidopor:
εΨ = u− uΨ (2)
Definição 2.2(Erro de Truncamento Local). Dada uma equação diferencialP(u) = f e uma equaçãode diferenças finitasPΨ(u) = f . O erro de truncamento local pode ser formalmente definido como adiferença entre as equações contínua e discreta, ou seja:
TΨ = P(u)− PΨ(u) (3)
isto é, é o erro cometido em uma iteração do método numérico, supondo que a solução exata é conhecidano(s) passo(s) anterior(es).
Definição 2.3(Consistência). Diz-se que um esquema de diferenças finitas é consistente coma equaçãodiferencial parcial se, para toda função suaveu,
TΨ −→ 0 quando ∆t,∆x −→ 0, (4)
com convergência pontual para cada(x, t).
A seguir, dois importantes teoremas são transcritos a partir deLima (2011):
Teorema 2.1(Teorema de Schwarz). Sejaf : U −→ R duas vezes diferenciável no pontoc ∈ U ⊂ Rn.Para quaisquer1 ≤ i, j ≤ n, tem-se
∂2f
∂xi∂xj(c) =
∂2f
∂xj∂xi(c) (5)
Teorema 2.2(Teorema de Green). SejaM ⊂ R2 um compacto cujo bordo é uma curva∂M . Sea, b :M −→ R são funções de classeC1 então vale a igualdade:
∫ ∫
M
(∂b
∂x− ∂a
∂y
)dxdy =
∫
∂M
adx+ bdy (6)
O teorema de Schwarz, evidentemente, se aplica para derivadas repetidas de ordem superior à segunda(Lima, 2011).
V Simposio de Metodos Numericos Computacionais
10
3 RESULTADOS
SejaΩ = (a, b)× R∗+ ⊂ R2 eΓ o seu contorno. Considere o seguinte problema de valor inicial:
∂2u
∂t2− c2
∂2u
∂x2= 0, emΩ
u = φ, emt = 0∂u
∂t= ψ, emt = 0
(7)
com condições de contorno adequadas. A discretização da equação anterior pelo método de diferençasfinitas centrais no tempo e no espaço é:
uj+1i − 2uji + uj−1
i
∆t2=
c2
∆x2(uji+1 − 2uji + uji−1
)(8)
em queuji é a notação indicial parau(xi, tj), comxi = a + i∆x, 0 ≤ i ≤ n, tj = j∆t, 0 ≤ j ≤ q,2 ≤ n, q ∈ N e∆x = (b − a)/n, sendon + 1 o número de nós da malha eq o número de avanços notempo. Tal método é de ordemO(h2), no tempo e no espaço, com estabilidade condicionada à restrição(Strikwerda, 1947):
∣∣∣∣c∆t
∆x
∣∣∣∣ ≤ 1 (9)
Substituindo a soluçãou(x, t) verdadeira em (8), supondo queu ∈ C∞ e usando série de Taylor,obtém-se:
(∂2u
∂t2+
∆t2
12
∂4u
∂t4+
∆t4
360
∂6u
∂t6+ · · ·
)∣∣∣∣xi,tj
= c2(∂2u
∂x2+
∆x2
12
∂4u
∂x4+
∆x4
360
∂6u
∂x6+ · · ·
)∣∣∣∣xi,tj
(10)
Mas, comou satisfaz (7) e na hipótese de queu ∈ C∞, então pelo teorema2.1:
∂4u
∂t4= c2
∂4u
∂x2∂t2= c2
∂4u
∂t2∂x2= c4
∂4u
∂x4
∂6u
∂t6= c2
∂6u
∂x2∂t4= c2
∂6u
∂t4∂x2= c6
∂6u
∂x6(11)
......
Segue-se que os dois lados de (10) diferem por:
TΨ(xi, tj) =1
12(∆t2c4 −∆x2c2)
∂4u
∂x4
∣∣∣∣xi,tj
+1
360(∆t2c6 −∆x4c2)
∂6u
∂x6
∣∣∣∣xi,tj
+ · · · (12)
Assim, sec∆t = ∆x, então a equação (12) que descreve o erro de truncamento local será nula, isto é,TΨ(xi, tj) = 0. Em outras palavras, seu ∈ C∞ for uma solução do problema (7), entãou também serásolução de (8), quandoc∆t = ∆x. Por este motivo, esta relação é chamada de razão de ouro (Strang,1986), e espera-se uma acurácia perfeita, visto que o esquema é perfeitamente consistente.
Será provado, a seguir, queu não precisa ser necessariamente de classeC∞ para que o erro local sejanulo.
Teorema 3.1.Seu ∈ C2 é solução de (7), entãou é também solução de (8) quandoc∆t = ∆x.
Demonstração:É conhecido que a equação (7) possui duas retas características:x−ct = ξ ex+ct = η,em queξ eη são duas constantes. Considere uma malha comn+1 pontos de discretização (n elementos)
V Simposio de Metodos Numericos Computacionais
11
x0 x1 x2 x3 · · · xn−1 xn
t1
t2
...
tm
∆x
∆t
X
Tx− ct = x2x + ct = xn−1
t0
Figura 1: Discretização do domínioΩ por meio das características
no espaço, tal que o incremento espacial seja dependente do incremento temporal. A relação utilizada éaquela fornecida pelas retas características, isto é,∆x = c∆t, conforme figura1.
Seja o volume de controle espaço/tempo quadrilátero com contornoL =⋃4
i=1 Li representado nafigura2. Integrando a equação (7) ao longo deste volume de controle e aplicando o teorema de Green,conforme2.2, obtém-se:
(xi, tj)(xi+1, tj)(xi−1, tj)
(xi, tj−1)
(xi, tj+1)
L1
L2L3
L4
Figura 2:(i, j)-ésimo volume de controleV Ci,j centrado em(xi, tj)
0 =
∫
V Ci,j
(utt − c2uxx)dxdt =
∮
L
−c2uxdt− utdx =4∑
i=1
∫
Li
−c2uxdt− utdx (13)
Então:
• SobreL1 eL3, tem-se quedx = cdt, de modo que:∫
L1
−c2uxdt− utdx = −c∫
L1
uxdx+ utdt = −c[u(xi+1, tj)− u(xi, tj−1)] (14)∫
L3
−c2uxdt− utdx = −c∫
L3
uxdx+ utdt = −c[u(xi−1, tj)− u(xi, tj+1)] (15)
V Simposio de Metodos Numericos Computacionais
12
• Sobre os ladosL2 eL4, a relação dada édx = −cdt, e com isso:∫
L2
−c2uxdt− utdx = c
∫
L2
uxdx+ utdt = c[u(xi, tj+1)− u(xi+1, tj)] (16)∫
L4
−c2uxdt− utdx = c
∫
L4
uxdx+ utdt = c[u(xi, tj−1)− u(xi−1, tj)] (17)
Substituindo as equações (14-17) em (13) e, após simplificações, será obtido:
u(xi, tj+1) = u(xi−1, tj) + u(xi+1, tj)− u(xi, tj−1), para1 ≤ i ≤ n− 1, j ≥ 1 (18)
Em notação indicial:
uj+1i = uji−1 + uji+1 − uj−1
i , para1 ≤ i ≤ n− 1, j ≥ 1 (19)
Em outras palavras, uma funçãou ∈ C2 que satisfaz a equação contínuau(x, t)tt − c2u(x, t)xx = 0satisfaz também a equação discreta (8), desde que a relação entre os incrementos da malha sejac∆t =∆x.
Corolário 3.2. Seu ∈ C2 e c∆t = ∆x, então o esquema (8) possui erro de truncamento local nulo.
Demonstração:Sejau ∈ C2 uma solução em sentido clássico para a equação (7). Pelo teorema3.1, utambém é solução da equação (8). Sendo assim:
TΨ =[utt − c2uxx
]− [u(xi, tj+1)− u(xi−1, tj)− u(xi+1, tj) + u(xi, tj−1)] = 0− 0 = 0 (20)
4 CONCLUSÕES
Este trabalho teve por objetivo mostrar que um esquema de diferenças finitas centrais, aplicado àequação da onda linear homogênea unidimensional, possui erro de truncamento local nulo mesmo parasoluções em sentido clássico, isto é, soluções de classeC2. Na seção3 foi apresentada a demonstraçãoda referida afirmativa. Para isso, foram utilizadas as curvas característicasx − ct = ξ e x + ct = η daequação (7), para a construção de um volume de controle espaço-tempo. Aequação foi integrada sobreo referido volume e, com o auxílio do teorema de Green, obteve-se o resultado procurado.
Saliente-se que foram consideradas apenas duas hipóteses:u ser de classeC2 e c∆t/∆x = 1. Sendoassim, o resultado suporta malhas grosseiras, isto é, desdeque∆x = c∆t malhas com largos espaça-mentos continuam produzindo erro localTΨ nulo. Por outro lado, o esquema em (19) é de passo múltiplode modo que para obter a solução emtj+1 é necessário conhecer a variável nos tempostj e tj−1. Emoutras palavras, erro de truncamento localTΨ nulo não implica em erro globalεΨ nulo, tendo em vistaque o cálculo local pressupõe que a variável seja conhecida nos tempos anteriores.
REFERÊNCIAS
Di Bortolo L. Modelagem Sísmica Anisotrópica Através do Método das Diferenças Finitas UtilizandoSistemas de Equações em Segunda Ordem. Ph.D. thesis, UFRJ, Rio de Janeiro, 2010.
Fernandes L.L., Cruz J.a.C.R., Blanco C.J.C., and Barp A.R.B. Modelagem Sísmica via Métodos dasDiferenças Finitas: Caso da Bacia do Amazonas.Acta Amazonica, 39:155 – 163, 2009. ISSN 0044-5967.
Ferziger J.H. and Peric. Computational Methods for Fluid Dynamics. Springer, Berlin; Heidelberg; NewYork, 2002.
Iserles A. A First Course in the Numerical Analysis of Differential Equations. Cambridge UniversityPress, New York, 1996.
V Simposio de Metodos Numericos Computacionais
13
Lima E.L. Curso de Análise vol. 2. IMPA, Rio de Janeiro, 2011.Rodrigues V.L.C. Propagação de Ondas Unidimensionais por Meio da FormulaçãoDependente do
Tempo do Método dos Elementos de Contorno. Master’s Thesis, UFPR, Curitiba, 2012.Santos J.L.R.Modelagem da Equação da Onda Acústica Aplicada ao Imageamento de Estruturas Ge-
ológicas. Ph.D. thesis, COPPE - UFRJ, Rio de Janeiro, 2012.Strang G.Introduction to Applied Mathematics. Wellesley-Cambridge Press, 1986.Strikwerda J.C.Finite Difference Schemes and Partial Differential Equations. Siam, Phildelphia, 1947.Whitham G.B.Linear and Nonlinear Waves. Wiley Interscience, New York, 1974.
V Simposio de Metodos Numericos Computacionais
14
V Simposio de Metodos Numericos Computacionais
Um Algoritmo Genético Híbrido para o PCV
Resumo: No presente trabalho relata-se a implementação de um Algoritmo Genético Híbrido (AGH) para o Pro-blema do Caixeiro Viajante (PCV). Para tanto, foi proposto um novo operador de cruzamento denominado MáximaPreservação Heurística (MPH) que requer a heurística 3-Opt em um de seus passos de execução, o que confereao AG o caráter híbrido. Na sequência realizou-se testes com instâncias da biblioteca de problemas disponívelna internet e conhecida como Traveling Salesman Problem Library(TSPLIB). Os resultados demonstraram que oAGH apresentou bom desempenho para instâncias com até 300 cidades.
Palavras-Chave: Problema do Caixeiro Viajante, Heurísticas Híbridas, Algoritmo Genético, NovoOperador de Cruzamento.
1 INTRODUÇÃO
Diversos autores mencionam alguns aspectos motivadores para o estudo do PCV, entre eles estão afacilidade com que o problema é descrito, a dificuldade em resolvê-lo por ser NP-Completo e sua vastaaplicabilidade Karp (1975).
Para definir matematicamente o PCV devemos considerar um GrafoG(N,E) em queN = 1, 2, . . . , né o conjunto de nós ou vértices, E = 1, 2, . . . ,m é o conjunto de arestas de G e uma matriz C = [cij]tal que cij representa o custo associado a aresta que liga os vértices i e j. O problema consiste em deter-minar o menor ciclo hamiltoniano do Grafo G, sendo que o tamanho do ciclo é dado pelo somatório doscustos das arestas que o compõem Prestes (2006).
Se usarmos os termos “cidades” ao invés de vértices e “estradas” ao invés de arestas o problema podeser reescrito como: determinar o trajeto mais curto que um viajante deveria percorrer em uma sequênciade visitas partindo de uma das cidades, deslocando-se pelas estradas disponíveis a fim de visitar todasas outras cidades uma única vez e, ao final, retornando ao ponto de partida. Em Bodin et al. (1983) são
Adriano Vitor, Luzia Vidal de Souza,Paulo Henrique Siqueira, Dirceu Scaldelai
15
apresentadas algumas formulações matemáticas para o PCV, dentre elas está a formulação dada a seguir:
MinN∑
i=1
N∑
j=1
cij × xij (1)
s.a :N∑
i=1
xij = 1 (j = 1, . . . , N) (2)
N∑
j=1
xij = 1 (i = 1, . . . , N) (3)
xij ∈ 0, 1 (i, j = 1, . . . , N) (4)X = xij ∈ S (i, j = 1, . . . , N) (5)
Onde cij e xij são, respectivamente, os custos e as variáveis de decisão associados com a tarefa dedeslocar-se da cidade i para j. Quando xij = 1, prolonga-se a rota com o arco (i, j) que liga as cidadesi e j.
A função objetivo (1) representa o custo total a ser minimizado. O conjunto de restrições (2) e (3)asseguram que cada cidade i será designada a exatamente uma cidade j. O conjunto (4) garantem que asvariáveis xij assumirão os valores 0 ou 1, e podem ser substituídas por:
xij ≥ 0 (i, j = 1, . . . , N) (6)
O conjunto S, em (5) é qualquer grupo de restrições que impeçam a formação de subrotas, ou seja,garantem que a solução final forma um ciclo hamiltoniano. Em Bodin et al. (1983) são apresentadasalgumas possibilidades para o conjunto S.
A obtenção da solução ótima, utilizando um método exato de resolução do modelo descrito anterior-mente, fica comprometida em termos de tempo de execução à medida que o número de cidades (vértices)envolvidas aumenta. Desta forma, diversas metodologias aproximadas tem sido propostas com muitosucesso ao longo dos anos.
Apesar de existirem outras metodologias aproximadas (heurísticas) com bom desempenho para aresolução do PCV, as propostas de AGs híbridos presentes na literatura mais recente sugerem que seuuso é muito promissor, provavelmente pelos argumentos a seguir:
• A possibilidade de aproveitar o potencial de heurísticas consagradas na literatura em suas rotinasinternas, seja para gerar a população inicial ou auxílio aos operadores genéticos.
• O fato dos AGs possuírem estrutura propícia a execução em paralelo, ação que está em alta devidoaos recentes avanços no campo da informática.
• Possuir a propriedade de explorar simultaneamente múltiplos pontos do espaço de soluções de umproblema.
• As modificações em um AG para modelar variações do problema original são muito fáceis deimplementar, diferentemente de outras heurísticas.
• Não requer muitas premissas, tais como: linearidade, convexidade e diferenciabilidade, entre out-ras.
Em 2013, Honda et al. (2013) apresentaram um AG com processamento em paralelo, encontrandoas melhores soluções da literatura para problemas com até 180.000 cidades. Os autores concluem queo processamento em paralelo foi capaz de reduzir o tempo de execução em até 20 vezes mantendo aqualidade das soluções encontradas. Os autores conseguiram melhorar os menores trajetos já encontra-dos na literatura para as instâncias vangogh120K e courbet180K contendo 120.000 e 180.000 cidades,respectivamente.
V Simposio de Metodos Numericos Computacionais
16
Estas instâncias fazem parte de uma coleção presente em Cook (2014) e conhecida como PCVs Artís-ticos por ter sido construída sobre quadros de artistas mundiais famosos, tais como a obra Monalisa deDa Vinci. Nas observações finais do artigo, é mencionado que serão realizados trabalhos futuros natentativa de obter os melhores trajetos da literatura para outras instâncias ainda não testadas.
Ghorpade and Kamalapur (2014) propõe um AG com processamento em paralelo, contudo com umafilosofia diferente da apresentada por Honda et al. (2013). Neste trabalho, os autores realizam o pro-cessamento em paralelo utilizando os núcleos de processamento da placa de vídeo do computador, ouseja, utilizam a Graphics Processing Unit (GPU) em vez de usar a Central Processing Unit (CPU) comorealizado por Honda et al. (2013). Esta modificação pode acelerar ainda mais o AG, uma vez que a GPUpossui centenas de processadores enquanto que a CPU somente cerca de uma dezena deles, de acordocom os recursos tecnológicos disponíveis atualmente.
Tsai et al. (2014) apresenta um AG de alto desempenho em termos de tempo de execução, tanto parao AG quanto para suas variações, o que implica em melhorar os tempos de AGs híbridos. Para isso aestratégia foi construir uma rotina que avalia e guarda trechos de cromossomo comuns a toda populaçãoao longo das gerações, usando essas informações para evitar indivíduos não promissores. Nos testesforam usadas instâncias da biblioteca TSPLIB.
2 DETALHES DA IMPLEMENTAÇÃO DO AGH
A implementação do AGH descrito neste trabalho foi realizada em MatLab R2013b segundo os passosdo fluxograma da Figura 1.
Gerar Populacao Inicial
Calcular o Fitness da Populacao
Realizar Mutacao
Determinar Sobreviventes entre Casal e Filhos
Gerar Lista de Selecao para Cruzamento
Criterio de ParadaSim
Nao
Apresentar Solucao
Aplicar MPH em Casal da Lista
Existe Proximo Casalna Lista de Cruzamento?
Sim
Nao
Realizar Elitismo
Figura 1: Passos do AGH
A população inicial de soluções foi gerada com a heurística do Vizinho Mais Próximo. O cálculo dofítness de cada indivíduo da população foi obtido pelo somatório das distâncias ao percorrer o trajetoindicado pelo referido indivíduo. Adotou-se como critério de parada a ocorrência de 1000 geraçõesou a obtenção da solução ótima. Para gerar a lista de seleção para cruzamentos utilizou-se o método doTorneio. Foram implementados os operadores de mutação por inversão e por troca, conforme descrito emFogel (1988) e Banzhaf (1990), respectivamente. A rotina de elitismo, presente no fluxograma, garanteque o melhor indivíduo da geração t deverá estar presente na geração t + 1. Para melhor entendimento
V Simposio de Metodos Numericos Computacionais
17
do AGH, apresenta-se seu pseudocódigo a seguir:
Pseudocódigo: AGHDados de Entrada: Matriz de Distâncias e os Parâmetros do AGH .
Gerar a População InicialEnquanto Iteração for menor que CritérioParada ou a População não contiver a Solução Ótima. Faça
Avaliar Fitness da PopulaçãoDeterminar Lista de Indivíduos para CruzamentoEnquanto percorre a Lista de Cruzamentos. Faça
Realizar o Cruzamento em um Casal da Lista com o operador MPHRealizar Mutação sobre o mesmo Casal da ListaDeterminar 2 sobreviventes: entre pai, mãe e filho
FimRealizar Elitismo
FimDados de Saída:Vetor contendo a melhor solução encontrada
Neste pseudocódigo, os termos em negrito dizem respeito à variáveis ou parâmetros de inicializaçãodo algoritmo, cuja descrição é dada na Tabela 1.
Tabela 1: Parâmetros para o AGH Proposto
Parâmetro Valor ou Intervalo DescriçãoTamanho [17,300] Tamanho dos problemas testadosTamPop 15 Tamanho da populaçãoPercMutação 10% Percentual de mutação a cada geraçãoPercCruzamento 90% Percentual de Cruzamentos a cada geraçãoElitismo 1 Indivíduos preservados pelo elitismoCritérioParada 1000 Quantidade de gerações permitidasParâmetroE 40% Percentual de genes de cada indivíduo a sofrer mutaçãoFaixa 10 Profundidade da heurística 3-Opt
2.1 Operador MPHEste operador gera um único filho ao ser aplicado, para tal, seleciona-se todos os trechos contendo
duas ou mais arestas comuns aos pais para serem transferidas para o filho. No pseudocódigo descreve-seo operador MPH.
Pseudocódigo: MPHDados de Entrada: População, Lista de indivíduos para CruzamentoEnquanto Lista de Indivíduos não estiver vazia. Faça
Passo 1: a) Selecionar dois pais da Listab) Reservar os trechos contendo duas ou mais arestas comuns entre os pais.
Passo 2: Construir subproblema e obter uma solução inicial para ele.Passo 3: Aplicar heurística 3-Opt sobre a solução inicial do subproblema.Passo 4: a) Reconstruir problema Original.
b) Comparar filho com os pais e substituir se houve ganho.c) Excluir pais atuais da Lista.
FimDados de Saída: População
Para auxiliar no entendimento, o operador MPH será aplicado em um exemplo fictício com 25 cidades.As duas soluções pais e os trechos do filho, determinados no Passo 1 do pseudocódigo do MPH, sãoapresentados na Figura 2.
V Simposio de Metodos Numericos Computacionais
18
(a) Pai 1 (b)Pai 2
(c) Trechos do Filho 1
11
1517
3
6
5
12
13
23
18
24
25
22
720
21
19
4
16
2
1
10
98
14
11
1517
3
6
5
12
13
23
18
24
25
22
720
21
19
4
16
2
1
10
98
14
11
1517
3
6
5
12
13
23
18
24
25
22
720
21
19
4
16
2
1
10
98
14
Figura 2: Resultado do Passo 1 do Operador MPH
Para construir o subproblema da Figura 3(b), de que trata o Passo 2 do pseudocódigo do MPH,exclui-se todas as cidades do problema original, interiores aos trechos que serão transferidos para ofilho (cidades em vermelho na Figura 3(a)). Após as exclusões, um subproblema com menos cidades ecom a obrigatoriedade de ligação entre as cidades extremidades dos segmentos transferidos para o filhoé obtido e está ilustrado na Figura 3(b).
11
15
3
12
13
18
24
25
22
7
212
1
14
16 20
b) Subproblema Gerado Apos Exclusoes
a) Cidades do problema original e trechos a serem transferidos para o filho
11
15 17
3
6
5
12
13
23
18
24
25
22
720
21
19
4
16
2
1
10
98
14
Figura 3: Subproblema do Passo 2 do Operador MPH
Na sequência, executa-se o Passo 3, sendo gerada uma solução inicial para o subproblema e aplicado,sobre ela, a heurística 3-Opt para obter a solução apresentada na Figura 4.
11
15
3
12
13
18
24
25
22
7
212
1
14
16 20
Figura 4: Solução Para o Subproblema
Por fim, no Passo 4 faz-se a reinserção das cidades excluídas de forma apropriada entre as cidadesextremidades dos segmentos da Figura 2(a) e tem-se uma solução filho (Figura 5) para o problemaoriginal.
V Simposio de Metodos Numericos Computacionais
19
11
15 17
3
6
5
12
13
23
18
24
25
22
720
21
19
4
16
2
1
10
98
14
Figura 5: Filho Gerado pelo Operador MPH
3 RESULTADOS
O MPH foi aplicado sobre as instâncias com menos de 300 cidades, presentes na TSPLIB. Realizou-se100 execuções para cada instâncias e os resultados estão presentes na Tabela 2 a seguir.
Tabela 2: Resultados Após 100 execuções do AGH para Instâncias com até 300 cidades
Nome Estruturas Cidades Ótimo Sucesso (%) Proximidade (%) Tempo (seg)MenEx MedEx MaxEx Pré Mín. Média
gr17 Matriz 17 2085 100 0,000 0,000 0,000 3,0 0,2 1,1gr21 Matriz 21 2707 100 0,000 0,000 0,000 1,0 0,3 0,5gr24 Matriz 24 1272 100 0,000 0,000 0,000 2,5 0,3 2,0fri26 Matriz 26 937 100 0,000 0,000 0,000 1,1 0,3 1,9
bayg29 Matriz/Geo 29 1610 100 0,000 0,000 0,000 2,4 0,4 2,1bays29 Matriz/Geo 29 2020 100 0,000 0,000 0,000 2,5 0,3 1,7
dantzig42 Euc 2d 42 688 100 0,000 0,000 0,000 2,1 0,3 1,1swiss42 Matriz 42 1273 100 0,000 0,000 0,000 3,2 0,4 1,7att48a Euc 2d 48 33524 100 0,000 0,000 0,000 2,4 0,4 2,3gr48b Matriz 48 5046 100 0,000 0,000 0,000 2,5 0,6 4,0hk48 Matriz 48 11461 100 0,000 0,000 0,000 1,7 0,7 2,4eil51 Euc 2d 51 429 100 0,000 0,000 0,000 1,4 0,6 2,2
Berlin52 Euc 2d 52 7544 100 0,000 0,000 0,000 2,1 0,6 1,5Brasil58 Matriz 58 25395 100 0,000 0,000 0,000 1,2 0,5 1,7
st70 Euc 2d 70 677 100 0,000 0,000 0,000 2,7 1,0 4,4eil76a Euc 2d 76 545 100 0,000 0,000 0,000 2,0 1,1 7,4pr76b Euc 2d 76 108159 100 0,000 0,000 0,000 2,2 1,2 4,9gr96 GEO 96 54688 64 0,000 0,005 0,140 2,0 4,0 596,3rat99 Euc 2d 99 1219 100 0,000 0,000 0,000 1,7 1,3 8,4
kroE100 Euc 2d 100 22069 27 0,000 0,145 0,231 2,9 7,8 926,3rd100 Euc 2d 100 7910 100 0,000 0,000 0,000 2,4 1,2 9,4
kroC100 Euc 2d 100 20751 100 0,000 0,000 0,000 5,1 0,7 4,0kroA100 Euc 2d 100 21285 100 0,000 0,000 0,000 3,7 0,6 1,5kroD100 Euc 2d 100 21294 100 0,000 0,000 0,000 2,9 2,5 17,1kroB100 Euc 2d 100 22139 88 0,000 0,031 0,263 4,5 0,7 299,1
eil101 Euc 2d 101 641 100 0,000 0,000 0,000 2,2 1,5 30,5lin105 Euc 2d 105 14383 100 0,000 0,000 0,000 2,5 2,2 3,4pr107 Euc 2d 107 44302 100 0,000 0,000 0,000 2,3 2,2 40,6gr120 Euc 2d 120 1610 100 0,000 0,000 0,000 1,0 6,9 53,5pr124 Euc 2d 124 59031 100 0,000 0,000 0,000 1,9 2,7 19,5
bier127 Euc 2d 127 118294 100 0,000 0,000 0,000 1,2 8,1 127,6ch130 Euc 2d 130 6111 100 0,000 0,000 0,000 1,6 13,4 80,9pr136 Euc 2d 136 96771 100 0,000 0,000 0,000 1,8 56,7 167,0gr137 GEO 137 69853 100 0,000 0,000 0,000 1,6 6,3 19,6pr144 Euc 2d 144 58535 100 0,000 0,000 0,000 1,4 3,3 26,3
kroB150 Euc 2d 150 26127 99 0,000 0,000 0,001 3,1 3,3 54,7ch150 Euc 2d 150 6532 96 0,000 0,000 0,306 2,6 3,4 155,1
kroA150 Euc 2d 150 26525 100 0,000 0,000 0,000 2,0 3,5 35,5pr152 Euc 2d 152 73684 100 0,000 0,000 0,000 1,5 3,8 13,8u159 Euc 2d 159 42076 100 0,000 0,000 0,000 1,6 3,3 5,8
continua na próxima página
V Simposio de Metodos Numericos Computacionais
20
continuação da página anterior
Nome Estruturas Cidades Ótimo Sucesso (%) Proximidade (%) Tempo (seg)MenEx MedEx MaxEx Pré Mín. Média
si175 Matriz 175 21407 36 0,000 0,000 0,000 2,0 16,5 2091,2rat195 Euc 2d 195 2334 0 0,113 0,136 0,141 1,3 2250,2 2982,9d198 Euc 2d 198 15810 97 0,000 0,000 0,081 1,3 19,3 167,6
kroA200 Euc 2d 200 29369 97 0,000 0,000 0,225 2,1 13,0 227,1kroB200 Euc 2d 200 29440 91 0,000 0,027 0,300 2,6 42,7 415,5
gr202 GEO 202 40160 97 0,000 0,001 0,004 1,7 101,4 940,4tsp225 Euc 2d 225 3859 100 0,000 0,000 0,000 5,4 34,4 122,7ts225 Euc 2d 225 126646 100 0,000 0,000 0,000 3,0 19,7 121,0pr226 Euc 2d 226 80370 100 0,000 0,000 0,000 1,4 100,7 225,2gr229 GEO 229 134516 25 0,000 0,069 0,159 2,6 122,3 4352,2gil262 Euc 2d 262 2386 95 0,000 0,000 0,203 5,3 70,2 455,5pr264 Euc 2d 264 49135 100 0,000 0,000 0,000 1,8 46,5 112,4a280 Euc 2d 280 2588 100 0,000 0,000 0,000 1,9 50,9 119,3
pr299 Euc 2d 299 48195 94 0,000 0,000 0,000 3,6 87,3 653,8
Na Tabela 2, as colunas Nome, Estruturas, Cidades e Ótimo descrevem as instâncias resolvidas e ovalor ótimo da função objetivo. A coluna “Sucesso” representa a porcentagem em que o AGH obteve asolução ótima para execuções realizadas. As colunas MenEx, MedEx e MaxEx indicam os percentuaismínimos, médios e máximos de excesso sobre os valores ótimos apresentados, respectivamente, paracada instância. A coluna Pré indica o tempo necessário para realizar os cálculos prévios, tais como amatriz de distâncias. As colunas Mín. e Média apresentam o menor tempo e o tempo médio requeridospara se resolver as instâncias, considerando as 100 execuções.
4 CONCLUSÕES
Em resumo, o AGH apresentou resultados satisfatórios, encontrando a solução ótima para quase todasas instâncias testadas, com exceção da instância rat195. Para 14 instâncias (em negrito na Tabela 2), asolução ótima não foi encontrada em 100% das execuçoes, o que onerou o tempo de processamento dasmesmas. O operador MPH mostrou-se eficiente em termos de tempo de processamento para as outras 29instâncias onde houve efetividade de 100% há um tempo de processamento reduzido se comparado comas 14 instâncias.
REFERÊNCIAS
Banzhaf W. The ’molecular’ traveling salesman. Biological Cybernetics, 64(1):7–14, 1990.Bodin L., Golden B., Assad A., and Ball M. Routing and scheduling of vehicles and crews. The state of
the art. Computers and Operations Research, 10(2):63–211, 1983.Cook W. Aplications of the TSP. 2014.Fogel D.B. An evolutionary approach to the traveling salesman problem. Biological Cybernetics,
60:139–144, 1988.Ghorpade S. and Kamalapur S. Solution Level Parallelization of Local Search Metaheuristic Algorithm
on GPU. Iinternational Journal of Computer Science and Mobile Computing, 3(7):268–274, 2014.Honda K., Nagata Y., and Ono I. A parallel genetic algorithm with edge assembly crossover for 100,000-
city scale TSPs. In 2013 IEEE Congress on Evolutionary Computation, CEC 2013, pages 1278–1285.2013.
Karp H.D.R.M. On the computational complexity. Networks, 5:45–68, 1975.Prestes A.N. Uma Análise Experimental de Abordagens Heurísticas Aplicadas ao Problema do Caixeiro
Viajante. Ph.D. thesis, Universidade Federal do Rio Grande do Norte, 2006.Tsai C.w., Tseng S.p., Chiang M.c., Yang C.s., and Hong T.p. A High-Performance Genetic Algorithm
: Using Traveling Salesman Problem as a Case. Hindawi Publishing Corporation, 2014:1–15, 2014.Wang Y. The hybrid genetic algorithm with two local optimization strategies for traveling salesman
problem. Computers & Industrial Engineering, 70:124–133, 2014.
V Simposio de Metodos Numericos Computacionais
21
V Simposio de Metodos Numericos Computacionais
UM ESTUDO SOBRE A METAHEURÍSTICA
COLÔNIA DE FORMIGAS
Resumo: Algoritmos inspirados na natureza são comuns, a otimização colônia de formigas
(ACO) surgiu a partir de observações e experimentos com formigas reais. Este trabalho é um
estudo sobre a criação da metaheurística colônia de formigas. Apresenta-se o comportamento
de formigas reais, os experimentos que motivaram a criação desta técnica de otimização, a
relação/diferenças entre formigas reais e artificiais, o funcionamento dessa metaheurística,
seu algoritmo base e uma aplicação em um problema de produção.
Palavras-Chave: Metaheurística Colônia de Formigas, Otimização Colônia de Formigas,
Comportamento de formigas, Programação da Produção, Flow Shop.
Aline Kieskoski, Neida Maria Patias Volpi
22
1 INTRODUÇÃO
Inteligência coletiva ou de enxames (swarm intelligence) é um campo de pesquisa que estuda
algoritmos inspirados no comportamento de enxames (swarm) que são compostos por
indivíduos autônomos simples que cooperam com uma auto-organização, ou seja, os
indivíduos são independentes, não seguem comando de um líder, eles controlam suas ações
de modo que o enxame atinja seus objetivos. Os algoritmos de otimização colônia de
formigas fazem parte deste campo de estudo.
Os algoritmos de otimização colônia de formigas surgiram a partir da observação de
experimentos feitos com formigas reais. Colônias de formigas reais trabalham em conjunto
para encontrarem alimentos e, se comunicam através do depósito no chão de uma substância
chamada feromônio. Assim, podemos ter colônias de formigas artificiais que trabalham em
conjunto para resolverem problemas de otimização e podem se comunicar indiretamente,
simulando feromônios artificiais.
Este trabalho tem por objetivo fazer um levantamento teórico e histórico de como surgiu a
técnica de otimização colônia de formigas e como foi proposta a metaheurística colônia de
formigas. Na seção 2 comenta-se sobre o comportamento de formigas reais e os principais
experimentos que contribuíram para a criação da metaheurística colônia de formigas. Na
seção 3 apresenta-se a metaheurística colônia de formigas e na seção 4 uma aplicação dessa
metaheurística para um problema de produção.
2 COMPORTAMENTO DE FORMIGAS REAIS
Um dos primeiros pesquisadores a investigar o comportamento social dos insetos foi o
entomologista francês Pierre-Paul Grassé que descobriu que alguns insetos são capazes de
reagir a sinais que ativam uma reação, essas reações podem atuar como novos estímulos tanto
para o inseto como para outros insetos da colônia, Grassé usou o termo estigmergia
(stigmergy) para descrever esse tipo particular de comunicação (DORIGO e SOCHA, 2006).
Um exemplo de estigmergia é o movimento das formigas, enquanto elas caminham para
chegar a uma fonte de alimento depositam no chão uma substância chamada feromônio, as
outras formigas são capazes de sentir o cheiro deste feromônio e tendem a seguir caminhos
com mais feromônio.
Deneubourg et al. (1990) estudaram o comportamento, analisaram o padrão exploratório
coletivo e realizaram experimentos com formigas argentinas Iridomyrmex humilis. Em um
dos experimentos o formigueiro era ligado a uma arena de 80x80cm coberta com areia
branca, ainda não explorada e sem presença de fonte de alimento, por uma ponte binária
simples, conforme Figura 1. Inicialmente a ponte não tinha feromônio, ao caminhar as
formigas escolhiam aleatoriamente o caminho a seguir e depositavam feromônio, ao longo do
tempo uma das pontes ficava com mais feromônio até que toda a colônia convergia para
aquela ponte.
Figura1: Ponte binária. Fonte Deneubourg et al. (1990).
Goss et al. (1989) fizeram experimento com formigas argentinas Iridomyrmex humilis
ligando o ninho a uma fonte de alimento utilizando pontes com caminhos de tamanhos
diferentes. Utilizou-se dois módulos da ponte mostrada na Figura 2-a, conforme mostrado na
V Simposio de Metodos Numericos Computacionais
23
Figura 2-b, cada módulo tem dois ramos de comprimentos diferentes e cada ramo faz um
ângulo de 30º em relação ao eixo da ponte central. Cinco a 10 minutos após a colocação da
ponte as formigas descobriram a comida e o tráfego na ponte aumentou utilizando-se os dois
ramos, alguns minutos mais tarde, tornou-se visível a utilização do caminho mais curto.
Figura 2: Ponte com caminhos de tamanhos diferentes. Fonte: Goss et al. (1989).
Goss et al. (1989) sabendo que as formigas argentinas Iridomyrmex humilis depositam
feromônios durante a saída e a volta para o ninho modelaram seu comportamento ao
atravessarem a ponte considerando o depósito de uma unidade de feromônio por segundo. As
primeiras formigas escolhem aleatoriamente o caminho a seguir, aquelas que escolhem o
caminho curto chegam antes das que escolheram o caminho mais longo e consequentemente
retornam mais rápido para o ninho. Assim, enquanto o caminho mais longo é marcado apenas
pelas formigas que estão indo o caminho mais curto é marcado por formigas em ambos os
sentidos, indo e voltando. Assim o caminho mais curto acumula uma vantagem e rapidamente
torna-se o preferido, portanto quanto maior a diferença de comprimento entre os caminhos
mais rapidamente as formigas convergiram para o mais curto.
O modelo probabilístico que descreve o fenômeno descrito, proposto por Goss et al. (1989), é
apresentado na Equação 1, onde após formigas terem cruzado a ponte, é o número de
formigas que utilizaram o ramo mais curto e o número de formigas que utilizaram o ramo
mais longo, com , assim é a probabilidade da formiga escolher
o ramo , ignorando a evaporação do feromônio, que tem tempo de vida médio de 30
minutos, considerando , com os parâmetros e que nos permitem ajustar o
modelo aos dados.
(1)
Consideramos que as formigas que escolhem o ramo mais curto, chegam ao ponto oposto
aproximadamente após unidades de tempo, e as formigas que escolherem o ramo mais
longo, chegam ao ponto oposto após unidades de tempo, onde é a razão entre o
comprimento do ramo longo para o ramo curto. Goss et al. (1989) utilizaram os seguintes
valores de parâmetros: e .
O comportamento de formigas reais pode ser utilizado como inspiração para projetar
formigas artificiais, assim, surgiu a ideia dos algoritmos de otimização colônia formigas que
inspiraram a criação da metaheurística colônia de formigas.
3 METAHEURÍSTICA COLÔNIA DE FORMIGAS
A otimização colônia de formigas (ACO) surgiu inspirada no comportamento biológico de
formigas reais. Há muitas semelhanças entre colônias de formigas reais e artificiais, ambas
são compostas por indivíduos que trabalham juntos para atingir um determinado objetivo. No
V Simposio de Metodos Numericos Computacionais
24
caso de formigas reais, o problema consiste em encontrar o alimento enquanto que, no caso
de formigas artificiais, o problema é encontrar uma solução para um problema de otimização.
Nas formigas reais, a comunicação acontece através do depósito de feromônio no chão, as
formigas artificiais podem simular o feromônio modificando valores de feromônios artificiais
enquanto constroem soluções para o seu problema. Uma formiga sozinha (real ou artificial) é
capaz de encontrar uma boa solução para o seu problema, mas apenas a cooperação entre os
vários indivíduos permite encontrar boas soluções.
Dorigo e Socha (2006) enfatizaram a existência de algumas diferenças importantes entre
formigas reais e artificiais: formigas artificiais vivem em um mundo discreto e se movem
sequencialmente através de um conjunto finito de estados de problema, a atualização dos
feromônios não é realizada da mesma maneira e também existem algumas implementações de
formigas artificiais, que utilizam mecanismos adicionais que não existem no caso das
formigas reais, como por exemplo, uma busca local.
Dorigo e Di Caro (1999) formalizam a ideia de como uma colônia de formigas artificiais
poderá encontrar boas soluções para problemas de otimização, representando o problema em
um grafo, onde a tarefa principal das formigas artificiais será encontrar o caminho mais curto
entre um par de nós do grafo. A Figura 3 nos mostra um exemplo de um grafo onde o
caminho traçado em linha sólida representa o caminho mais curto, as formigas que
escolherem esse caminho vão chegar mais rápido ao destino, portanto, serão as primeiras a
retornarem ao nó de origem.
Figura 3: Construção de soluções das formigas a partir de um nó fonte para um nó destino.
Dorigo, Maniezzo e Colorni (1991) observaram a presença de efeitos sinérgicos (synergetic)
na iteração das formigas, de fato, a qualidade da solução obtida aumenta quando o número de
formigas que trabalham no problema aumenta. Eles também apresentaram a viabilidade de
processos autocatalíticos (autocatalytic) como uma metodologia de otimização de
aprendizagem, a iteração de muitos processos autocatalíticos pode levar a uma rápida
convergência para um subespaço do espaço de solução que contém soluções muito boas, em
outras palavras, todas as formigas não convergem para uma única solução, mas para um
subespaço de soluções, depois disso vão em busca de melhorar as soluções encontradas.
Dorigo, Di Caro e Gambardella (1999) ressaltam que ao usar autocatálise devemos tomar
cuidado para evitar a convergência prematura (estagnação), isto é, quando temos um ótimo
local, ou por conta de condições iniciais que fazem com que um indivíduo não muito bom,
seja melhor que todos, impedindo assim uma maior exploração do espaço de busca.
Em algoritmos de otimização colônia de formigas (ACO) um número finito de formigas
artificiais procura soluções de boa qualidade para o problema de otimização a ser resolvido.
Cada formiga constrói uma solução, partindo de um estado inicial, selecionado de acordo
com alguns critérios dependentes do problema. De acordo com a noção atribuída de
vizinhança (dependente do problema), cada formiga constrói uma solução movendo através
de uma sequência finita de estados vizinhos. Os movimentos são selecionados através da
aplicação de uma regra que pode conter informações privadas da formiga (memória) ou pelas
V Simposio de Metodos Numericos Computacionais
25
trilhas de feromônios.
Segundo Dorigo, Di Caro e Gambardella (1999) a formiga pode carregar na memória
informações para calcular o valor da solução gerada e ou a contribuição de cada movimento
executado, em alguns problemas, por exemplo, alguns movimentos podem levar a formiga a
soluções inviáveis, isso pode ser evitado através da exploração da memória da formiga.
Formigas, portanto, pode construir soluções viáveis usando só o conhecimento sobre o estado
local e sobre os efeitos de ações que podem ser executadas no estado local. A informação
pública local pode ser uma informação heurística de um problema específico ou informação
codificada nas trilhas de feromônio, acumulada por todas as formigas desde o início do
processo de pesquisa. As formigas podem liberar feromônios durante a construção de uma
solução, ou depois da solução construída, movendo-se de volta por todos os pontos visitados,
a decisão de como o feromônio será depositado depende das características do problema. Em
geral a quantidade de feromônio depositada é feita proporcionalmente de acordo com a
solução que a formiga construiu (ou está construindo), se a solução é de alta qualidade o
depósito de feromônio pode ser maior.
A solução de um problema de otimização é expressa como um custo mínimo (ou menor
caminho) de acordo com as restrições do problema. Soluções de alta qualidade são
encontradas somente como o resultado da cooperação global entre todos os agentes da
colônia simultaneamente construindo diferentes soluções.
A primeira abordagem da ACO foi proposta por Dorigo, Maniezzo, Colorni (1991) chamada
de Ant System (AS) e Dorigo, Maniezzo, Colorni (1996) aplicaram o Ant System (AS) no
clássico problema do caixeiro viajante e sugeriram a aplicação em outros problemas de
otimização como: problema do caixeiro viajante assimétrico e problemas de programação job
shop. Posteriormente, Dorigo e Gambardella (1997) propuseram um sistema colônia de
formigas, Ant Colony System (ACS), que também foi aplicado no clássico Problema do
Caixeiro Viajante.
Dorigo, Di Caro e Gambardella (1999) apresentaram a metaheurística colônia de formigas, o
algoritmo da metaheurística otimização colônia de formigas é mostrado no Algoritmo 1,
trata-se de uma etapa de inicialização e um laço composto por três componentes algorítmicos,
onde uma única iteração do ciclo consiste na construção de soluções por todas as formigas.
Conjunto de parâmetros.
Inicialize as trilhas de feromônios.
While não atender as condições de parada do
Formigas constroem soluções
Aplica uma regra de busca local opcional
Atualização dos feromônios
end while
Algoritmo 1: Algoritmo da metaheurística ACO. Fonte: Dorigo e Socha (2006).
Na atualização dos feromônios precisamos de um equilíbrio entre a exploração de novos
pontos e a exploração do conhecimento já acumulado. Também podemos analisar a
viabilidade da decisão de escolha do caminho enriquecendo com componentes específicos do
problema que queremos resolver, podemos também, por exemplo, excluir a formiga do
sistema assim que realizou sua missão de construir uma solução e depositar feromônio. Além
das atualizações locais citadas, a metaheurística ACO pode observar todas as formigas e
recolher informações globais, de todas as soluções, que podem ser utilizadas, por exemplo,
para depositar feromônio em alguns locais específicos que produzem soluções melhores
(DORIGO, DI CARO E GAMBARDELLA, 1999).
Diversas variantes da metaheurística otimização colônia de formigas foram propostas na
V Simposio de Metodos Numericos Computacionais
26
literatura, Dorigo e Socha (2006) julgam que as três mais bem sucedidas são: Ant System
(AS) (primeira implementação de um algoritmo ACO), Ant System ( AS) e
Ant Colony System (ACS).
4 APLICAÇÃO EM UM FLOW SHOP
A primeira aplicação da abordagem ACO foi feita por Dorigo, Maniezzo, Colorni (1996) que
aplicaram o algoritmo Ant System (AS) no clássico problema do caixeiro viajante e sugeriram
a aplicação em outros problemas de otimização. Dorigo e Socha (2006) ressaltaram a
possibilidade de aplicar algoritmos ACO em outros problemas de otimização como:
otimização dinâmica, otimização multiobjetivo, problemas estocásticos e otimização
contínua. Nesta seção iremos apresentar a abordagem de um algoritmo de ACO para um
problema de flow shop.
Os problemas de flow shop vêm sendo estudados a décadas e são considerados NP-hard. Em
um problema de flow shop tem-se m estágios onde em cada estágio pode-se ter uma ou mais
máquinas e tem-se n tarefas (ou trabalhos) que devem ser processadas nas máquinas
ordenadamente, isto é, cada tarefa deve ser processada primeiro no estágio 1, depois no 2 e
assim sucessivamente. Tempos de processamento para cada tarefa em cada máquina podem
ser diferentes. A representação apresentada neste trabalho é para o caso em que temos uma
máquina em cada estágio, porém, esta pode ser facilmente adaptada para o caso de mais
máquinas como também, para outros problemas como job shop.
Figura 4: Representação de um problema de flow shop. Fonte: Ying e Liao (2004).
Podemos representar um problema de flow shop por um grafo disjuntivo G = (O, C, D), onde
O é o conjunto de nós correspondente a todas as operações de processamento, onde é o
processamento da tarefa na máquina . C é o conjunto de arcos direcionados e D é o
conjunto de arcos não direcionados, temos também um ninho N e uma fonte de alimento F
que são representados por nós artificiais.
A Figura 4 representa um problema de flow shop com 3 tarefas e 4 máquinas. Os arcos
pontilhados representam os arcos por máquinas, o sentido destes arcos depende da ordem
estabelecida para as tarefas.
As formigas são colocadas no ninho N e movem-se pelos nós com base em uma regra de
transição que utiliza-se de informações das trilhas de feromônios. A formiga completa uma
solução quando passa por todos os nós. As arestas do grafo carregam consigo informações do
problema, como tempo de processamento das tarefas, tempo de setup entre as tarefas e
informações dos feromônios. Os valores dessas trilhas de feromônios são atualizados de
acordo com regras pré estabelecidas que são aplicadas após cada formiga completar uma
solução (regra de atualização local) e também após todas as formigas terem completado suas
soluções (regra de atualização global).
V Simposio de Metodos Numericos Computacionais
27
5 CONCLUSÕES
Observar o comportamento biológico dos animais pode ser uma inspiração para criação de
técnicas de resolução de problemas, assim, a partir de observações de colônias de formigas
surgiu a metaheurística colônia de formigas. Entendemos que a seleção do caminho mais
curto por formigas reais, não é resultado da comparação de comprimentos dos caminhos, e
sim, um processo coletivo de auto-organização e comunicação por estímulos (stigmergy), no
caso das formigas, por feromônios. A ideia da representação de problemas em grafos faz-nos
perceber, como é grande a gama de problemas, que podem ser resolvidos utilizando esta
técnica, fazendo com que formigas artificiais encontrem o menor caminho entre dois nós do
grafo.
Este trabalho é uma ferramenta introdutória para quem pretende resolver problemas de
otimização utilizando esta metaheurística. O Algoritmo 1, é um algoritmo base para resolver
problemas de otimização, a aplicação apresentada pode ser adaptada para diferentes tipos de
problemas. Para entender um pouco mais sobre as variantes desse algoritmo e sobre algumas
aplicações sugiro a leitura de Dorigo e Socha (2006).
REFERÊNCIAS
DENEUBOURG, J. L.; ARON, S.; GOSS, S.; PASTEELS, J. M.; The self-organizing
exploratory pattern of the argentine ant. Journal of insect behavior, v.3, n.2, p.159-168, 1990.
DORIGO, M.; MANIEZZO, V.; COLORNI, A.; Positive feedback as a search strategy.
Technical Report 91-016. Milan, Italy: Politecnico di Milano, Dipartimento di Elettronica,
1991.
DORIGO, M.; MANIEZZO, V.; COLORNI, A.; Ant system: optimization by a colony of
cooperating agents. IEEE Transactions on Systems, Man, and Cybernetics, Part B:
Cybernetics, v. 26, n. 1, p. 29-41, 1996.
DORIGO, M.; GAMBARDELLA, L. M.; Ant colony system: a cooperative learning
approach to the traveling salesman problem. IEEE Transactions on Evolutionary
Computation, v. 1, n. 1, p. 53-66, 1997.
DORIGO, M.; DI CARO, G.; The Ant Colony Optimization Meta-Heuristic. In: CORNE, D.;
DORIGO, M.; GLOVER, F. (Eds). New Ideas in Optimization, New York, McGraw-Hill,
1999. p. 11-32.
DORIGO, M.; DI CARO, G. GAMBARDELLA, L.M.; Ant Algorithms for Discrete
Optimization. Artificial Life, v.5, p.137-172, 1999.
DORIGO, M.; SOCHA, K.; An introduction to ant colony optimization. Technical Report
2006-010. Bruxelles, Belgium: IRIDIA – Institut de Recherches Interdisciplinaires et de
Développements en Intelligence Artificielle, Université Libre de Bruxelles, 2006.
GOSS, S.; ARON, S.; DENEUBOURG, J. L.; PASTEELS, J. M.; Self-organized shortcuts in
the Argentine ant, Naturwissenschaften, v.76, p. 579-581, 1989.
YING, K-C.; LIAO, C-J; An ant colony system for permutation flow-shop sequencing.
Computers & Operations Research, v.31, p. 791-801, 2004.
V Simposio de Metodos Numericos Computacionais
28
V Simposio de Metodos Numericos Computacionais
MODELO PARA PREVISÃO DE EVAPORAÇÃO EM
RESERVATÓRIOS DE ÁGUA
Resumo: O trabalho apresenta uma aplicação do método Least Square Support Vector
Machine (LSSVM) na sua variante de regressão, para calcular previsões de evaporações
líquidas de reservatórios. No estudo, devido a problemas burocráticos, não se pode utilizar
dados nacionais, portanto foram utilizadas 48 amostras de um reservatório de água indiano,
composto das médias semanais dos seguintes parâmetros: temperatura (º C), velocidade
média do vento (m/s), horas de sol (h/dia) e umidade relativa do ar (%), para estimar valores
da evaporação em milímetros por dia. Foram utilizados 30 amostras para o treinamento e as
18 restantes para a etapa de teste, obtendo valores para a raiz do erro quadrático médio
(RMSE) próximas a 0,5534, menor que o obtido no artigo onde se referenciam os dados.
Palavras-Chave: Previsões, Least Squares Support Vector Machine, Evaporação.
1 INTRODUÇÃO
Catástrofes climáticas ocorrem com frequência e, algumas vezes, com maior intensidade ao
redor do mundo. O prejuízo pela destruição de prédios nas cidades e em vidas humanas é de
vulto. A ação da natureza, algumas vezes, castiga o nosso planeta, tanto em destruição,
provocadas por tornados, terremotos, chuvas intensas e também na seca. É possível citar o
exemplo do estado de São Paulo, que passa por dificuldades devido ao baixo nível de chuvas
atingindo a região dos reservatórios de abastecimento de água. E devido a isso, o poder de
prever tais fenômenos naturais, vem se tornando, a cada dia, mais importante para a
sociedade. Os benefícios das previsões são grandes, pois pode ajudar um produtor a melhorar,
ou aumentar, a sua produção agrícola, evitar tragédias e salvar vidas, como por exemplo, as
tragédias causadas devido às fortes chuvas torrenciais de 2011, na cidade de Nova Friburgo,
Rio de Janeiro, onde se sabe historicamente que a cidade é atingida sazonalmente nos meses
de verão, por fortes chuvas. A análise das séries temporais histórica dos níveis do volume de
chuva poderia ser utilizada para poder efetuar obras nas encostas para evitar maiores
problemas, e diminuir ou evitar que vidas fossem perdidas.
A ideia de previsão, como é conhecida, trata desde previsões diárias do clima, nível de
chuvas, chegadas de voos ou de ônibus em certo aeroporto ou terminal até o crescimento do
PIB ou da taxa de inflação mensal de um país. Assim, este tema é muito útil e usado no dia a
dia. Um exemplo muito importante referencia-se a previsão de vazão de rios que deságuam
em um lago represado de uma usina hidrelétrica. O conhecimento da quantidade de água é
Andre Luiz Emidio de Abreu, Anselmo Chaves Neto
29
muito importante no dimensionamento da usina.
Além da previsão, em si, existe a questão da construção de modelos para os fenômenos
investigados, indicando suas possíveis peculiaridades, tendência, ou até mesmo, os principais
aspectos que mais influenciam tais fenómenos.
Assim diversas técnicas foram desenvolvidas e produziram modelos de previsões para muitos
fenômenos. Uma importante área da Estatística que estuda a construção de tais modelos de
previsão é a da Análise de Séries Temporais, onde a partir de séries temporais conhecidas ou
sequências de valores que variam no tempo, se estudam e criam modelos estocásticos para
prever valores ou uma sequência de valores, a partir dos dados iniciais, à frente no tempo.
Ao longo do tempo diversas técnicas foram sendo desenvolvidas para o estudo de tais
previsões, podendo-se citar: os métodos automáticos ou caixa preta (década de 60), modelos
Box & Jenkins (1970) e para a era pós Box & Jenkins, os modelos do filtro adaptativo,
método Forsys, método Ararma, combinações de previsões, métodos ARCH e GARCH,
técnicas de Redes Neurais e algoritmos genéticos (CHAVES NETO, 2009).
As buscas por métodos melhores não cessam, foram criadas diversas variações para o a
modelagem do método SVM (Support Vector Machine – Máquinas de Vetores Suporte),
sendo ideais em certas condições e sobre certos conjuntos de dados, por exemplo, número
elevado de pontos. Neste trabalho utilizou-se a variante para problemas de regressão,
chamado de Support Vector Regression - SVR (Vetores suporte para regressão).
Porém, devido à alta complexidade do modelo, solução de problemas de programação não
linear, foi utilizado uma aplicação do método dos mínimos quadrados ao problema de
programação não linear, gerando o método Least Square Support Vector Machine – LSSVM,
que possui solução de fácil implementação, e em casos gerais, possui resultados equivalentes
aos obtidos pelo método clássico SVM (XIONG, YE, 2007).
2 SUPPORT VECTOR MACHINE – SVM
O SVM é uma metodologia que classifica os padrões em dois conjuntos. E, pode ser
ampliado para classificações em múltiplas classes. Devido a utilização, de margens de
separação para os conjuntos, as quais são deslocamentos com distância igual a um, tem-se o
conjunto de classe –1 e outro de classe +1.
2.1 Support Vector Regression – SVR
Para problemas de regressão, foi criada uma adaptação, ou extensão, do método SVM. Tal
extensão se dá pela introdução de uma função de perda, denominada em inglês loss function.
A formulação do Support Vector Regression (SVR) utiliza os mesmos princípios do
algoritmo de classificação (SVM), com exceção de alguns detalhes (PARRELLA, 2007).
Ao contrario do SVM, o SVR propõe determinar um hiperplano f (x), ótimo em que, as
amostras de treinamento estejam o mais próximas possível, não importando qual dos lados da
superfície os pontos se localizam, e sim que a distância para a superfície seja a mínima
possível, [yi – ε, yi + ε], onde, desvios são permitidos desde que não ultrapassem a margem
especificada. Porém, mesmo com propósitos opostos, ambos buscam estabelecer uma função
com máxima capacidade de generalização (LIMA, 2004).
A Figura 1 apresenta uma situação hipotética referente a aplicação do método SVR a um
conjunto de dados, mostrando a função de regressão e as margens para o problema.
V Simposio de Metodos Numericos Computacionais
30
Figura 1: Exemplo de aplicação do SVR a um conjunto de dados.
2.2 Modelagem Matemática – SVR
O modelo matemático para o SVR trata-se de um problema de programação não linear, dado
pela sua formulação dual na equação (1) (WANG E HU, 2005):
liC
as
yxx
ii
l
i
ii
l
i
iii
l
i
iiji
l
i
l
j
jjii
,,1],,0[,
0)(.
)()())((2
1min
*
1
*
1
*
1
*
1 1
**
(1)
onde *, ii são os multiplicadores de Lagrange, e C é uma constante regularizadora.
2.3 Least Square Support Vector Machine – LSSVR
Proposto por Suykens e Vandewalle (1999), LS-SVM é uma variante do método SVM
clássico. Least Squares Support Vector Machine (máquina de vetores suporte a mínimos
quadrados) mantém as mesmas características básicas e a mesma qualidade na solução
encontrada que a sua predecessora. Ao contrário do SVM, o LS-SVM considera restrições de
igualdade no lugar das desigualdades, com isso, resulta um algoritmo que reduz os problemas
ao se aplicar a um conjunto extenso de dados (SANTOS, 2013).
Uma das maiores diferenças, é que, ao contrário do SVM que utiliza a programação
quadrática para calcular seus vetores suporte, que demanda um grande tempo computacional
e possuem complexidade matemática considerável, o LS-SVM usa um sistema de equações
lineares e a função de custo por mínimos quadrados (BORIN, 2007; SHAH, 2005).
Assim, o modelo primal para o problema é dado pela Equação (2) a seguir (TRAFALIS,
SANTOSA, RICHMAN, 2005):
ni
ebxwyas
eC
ww
iit
i
n
i
it
...,,2,1
.
22
1min
1
2
(2)
onde w é o vetor de pesos, C é o parâmetro que penaliza erros altos e é otimizado pelo
usuário, ei são os erros mínimos em relação a reta de regressão, conforme pode-se verificar
no exemplo da Figura 2 dada a seguir.
V Simposio de Metodos Numericos Computacionais
31
Figura 2: Exemplo de erros mínimos em relação a função de regressão.
Assim, tem-se o seguinte sistema de equações, originadas da aplicação do método dos
mínimos quadrados (TRAFALIS, SANTOSA, RICHMAN, 2005):
Y
b
CInn
tn
0
1
10
(3)
com tnyyyY )...,,,( 21 , t
n )1...,,1,1(1 , tn )...,,,( 21 e Ω é uma matriz dada pelos
elementos
),()()( jijiij xxKxx (4)
com i, j = 1, ..., n, sendo que K(xi, xj) é o Kernel utilizado, neste caso, o foi utilizado a função
RBF para suas abordagens, dada por:
22exp),(
iii
xxxxxxK (5)
E a função de regressão é dada por:
n
iii bxxKxfy
1
),()( (6)
3 MEDIDAS DE AVALIAÇÃO
3.1 Cálculo do Erro
O desempenho do método foi medido a partir do calculo da raiz do erro quadrático médio
(RMSE – Root Mean Squared Error) (REN, DU, 2013):
n
i
pii yy
nRMSE
1
2)(1 (7)
onde, )( p
iy é o valor previsto para um certo padrão e iy é o valor real para tal padrão do
grupo de teste.
3.2 Coeficiente de Correlação R
O coeficiente de correlação (R) para o treinamento foi determinado usando a equação a
seguir:
V Simposio de Metodos Numericos Computacionais
32
n
i
ppi
n
i
i
n
i
ppii
yyyy
yyyy
R
1
)()(
1
1
)()(
(8)
onde, )( p
iy é o valor previsto para um certo padrão e iy é o valor real para tal padrão do
grupo de teste e )( py e y são as médias do valor previsto e real, respectivamente.
4 DADOS UTILIZADOS
Devido à dificuldade em se obter dados nacionais foram utilizados dados da literatura. Esses
dados correspondem a reserva de água de Manasgaon, reservatório situado em Anand Sagar,
Shegaon, Índia (DESWAL, PAL, 2008). Para as previsões utilizou-se um conjunto de dados
composto de 48 observações do nível de evaporação referentes à média semanal da reserva de
Manasgaon, sendo os padrões de entrada separados em quatro características independentes:
média da temperatura (º C), velocidade média do vento (m/s), horas de sol (h/dia) e média da
umidade relativa do ar (%), e o padrão dependente: evaporação, por milímetros por semana.
Para o treinamento, foram utilizados 30 amostras do total de 48 conhecidas, deixando assim,
as demais 18 médias para o teste do modelo.
5 SOFTWARES E LINGUAGEM DE PROGRAMAÇÃO UTILIZADOS
Para o desenvolvimento da análise, foi elaborado um programa em linguagem Fortran,
responsável por fornecer as previsões, bem como o treinamento do modelo e o Software
MATLAB 2012 para a elaboração dos gráficos.
6 RESULTADOS
Além da análise da raiz do erro quadrático médio (RMSE), tem-se os resultados obtidos em
valores absolutos, que são as previsões para os padrões. Assim, tem-se diretamente a
distância das previsões aos valores reais.
A Figura 3 apresenta a comparação entre os valores reais e as previsões para os 30 padrões de
treinamento utilizados. Para esta etapa, obteve-se o valor R = 0,9998 e RMSE = 0,1254, já a
Figura 4 apresenta a comparação entre os valores reais e os valores previstos para 18 semanas
à frente, ou seja, a média da semana 31 até a média da semana 48. O valor obtido para o
RMSE ficou igual a 0,5534, ficando abaixo do menor valor obtido no artigo de referência dos
dados utilizados, 0,865 (DESWAL, PAL, 2008).
V Simposio de Metodos Numericos Computacionais
33
Figura 3 Verificação da previsão dentro do conjunto de treinamento.
Figura 4: Previsões para os dados de teste, referente às 18 semanas.
7 CONCLUSÃO
O trabalho apresenta uma aplicação do método LSSVM na geração de um modelo para o
cálculo das previsões de evaporação liquida. A aplicação usou dados de um reservatório de
água na Índia, com base em quatro variáveis independentes, onde tais dados foram obtidas na
literatura.
Considerou-se que os valores obtidos são satisfatórios, tanto para o treinamento quanto para
fase de teste, uma vez que o erro calculado ficou abaixo do menor erro calculado pelo artigo
onde se baseou os dados (DESWAL, PAL, 2008), demonstrando assim, uma boa
generalização do modelo.
Pretende-se aplicar este método a dados de reservatórios nacionais, a fim de verificar se a
perda por evaporação pode causar perigo aos atuais níveis dos reservatórios nacionais, e
assim alertar os responsáveis para mais este problema a ser tratado, evitando assim futuros
problemas maiores.
V Simposio de Metodos Numericos Computacionais
34
REFERÊNCIAS
BORIN, A. Aplicações de máquinas de vetores suporte por mínimos quadrados (LS-SVM) na
quantificação de parâmetros de qualidade de matrizes lácteas. (Tese de doutorado em
Química). Universidade Estadual de Campinas, 2007.
CHAVES NETO, A. Análise de séries temporais (notas de aula). Departamento de
Estatística, Universidade Federal do Paraná, Curitiba, 2009.
DESWAL, S.; PAL, M. Artificial Neural Network based Modeling of Evaporation Losses in
Reservoirs. World Academy of Science, Engineering and Technology. Vol:2. International
Science Index Vol:2, No:3, 2008.
LIMA, C. A. de M. Comitê de máquinas: uma abordagem unificada empregando maquinas
de vetores-suporte (Tese de doutorado em Engenharia Elétrica). Faculdade de Engenharia
Elétrica e de Computação, Universidade Estadual de Campinas, Campinas, 2004.
PARRELLA, F. Online Support Vector Regression (Master Science Thesis). Department of
Information Science, University of Genoa, Italy, 2007.
REN, P. DU, Z. Information Science and Management Engineering (Set). WIT Transactions
on Information and Communication Technologies. Sichuan University, China, 2013.
SANTOS, L. T. Abordagem da máquina de vetor suporte otimizada por evolução diferencial
aplicada à previsão de ventos (Dissertação de Mestrado em Engenharia Elétrica).
Universidade Federal do Paraná, 2013.
SHAH, R. S. Least Squares Support Vector Machine. 2005.
SUYKENS, J.; VANDEWALLE, J. Least squares support vector machine classifiers. Neural
Processing Letters, Springer Netherlands, v. 9, p.293 - 300, 1999. ISSN 1370-4621.
TRAFALIS, T. B.; SANTOSA, B.; RICHMAN, M. B. Learning networks in rainfall
estimation. Computational Management Science. July 2005, Volume 2, Issue 3, pp 229-251.
XIONG, T.; YE, J. SVM versus Least Squares SVM. JMLR Workshop and Conference
Proceedings Volume 2: AISTATS 2007.
WANG, H.; HU, D. Comparison of SVM and LS-SVM for Regression. Neural Networks and
Brain, ICNN&B '05. International Conference on , vol.1, no., pp.279,283, 13-15 Oct. 2005.
V Simposio de Metodos Numericos Computacionais
35
V Simposio de Metodos Numericos Computacionais
PREVISÃO DE DEMANDA PARA PEÇAS DE REPOSIÇÃO DE ALTO GIRO
Resumo: O panorama atual da economia globalizada mostra que o ambiente organizacional está muito
competitivo e dinâmico. Os mecanismos e os aspectos de como as organizações desenvolvem,
planejam e implementam uma estratégia organizacional podem representar ganhos ou perdas
significativas. No gerenciamento de estoques, principalmente em organizações que trabalham com
peças de reposição, a previsão de demanda se faz obrigatória, pois a acuracidade nas predições
auxiliam no desenvolvimento de estratégias, identificação de prioridades e alocação de recursos, além
de permitir, pela operacionalização eficiente da produção e serviços, que as organizações ofereçam
elevados níveis de serviço aos clientes, planejem expansões de capacidade e evitem perdas nas vendas
e estoques. Modelos comuns de previsão de demanda e gestão de estoques não podem ser aplicados
para peças de reposição devido a sua demanda intermitente e sazonal. Assim, o objetivo deste trabalho
é comparar, para o estoque estratégico de peças de reposição de alto giro, o modelo de previsão de
demanda atualmente utilizado por empresas de máquinas agrícolas e de construção e o modelo
estatístico desenvolvido por Box e Jenkins. Para a construção da metodologia proposta neste trabalho
e para o levantamento dos dados e das informações necessárias, foram utilizadas as metodologias de
estudo de caso. Os resultados encontrados demonstram que é importante a utilização de uma
metodologia baseada em técnicas estatísticas no gerenciamento do inventário e que o modelo proposto
no estudo se adequou melhor para o controle do estoque de alto giro.
Palavras-chave: Estoque de alto giro, Peças de Reposição, Previsão de Demanda, Modelos Box &
Jenkins.
Caue Barros Guimaraes, Jair Mendes Marques, Ubirata Tortato
36
1 INTRODUÇÃO
A gestão de inventário para peças de reposição de alto giro é comumente tratada com a utilização de
sistemas de informações considerados muitas vezes como “commodities”, ou seja, ao alcance da
maioria das empresas. Estes sistemas, apesar de se utilizarem de ferramentais estatísticos, não obtêm
resultados satisfatórios nas projeções de médio e longo prazo, conseguindo apenas resultados medianos
nas projeções de curto prazo. Isto ocorre porque os sistemas são implantados nos mesmos moldes e
conceitos para diferentes organizações dos mais variados setores. Além do mais, a metodologia
estatística disponível nestes sistemas é simples, não sendo possível trabalhar com técnicas mais
elaboradas e robustas.
Em seu estudo sobre a lacuna entre a teoria de gestão de estoques e a prática empresarial na reposição
de peças em concessionárias de automóveis, REGO (2006, p.69) afirma que: “o desconhecimento de
modelos acadêmicos de previsão questionados também foi evidente em todos os gestores. As técnicas
de suavização exponencial, regressão linear e Box-Jenkins não eram do conhecimento de nenhum dos
entrevistados...”.
Para corroborar o levantamento anterior, CASTRO (2005), em seu estudo sobre o planejamento e
controle da produção e estoques da cadeia automobilística brasileira, mostra que apenas 2% das
empresas utilizam a metodologia Box-Jenkins, nenhuma utiliza regressão linear, 22% utilizam
suavização exponencial e 34% média móvel. O consenso de especialistas ou a não utilização de
métodos quantitativos corresponde a 42% do total. Estes números salientam o baixo grau de
sofisticação dos métodos usados.
2 REFERÊNCIAL TEÓRICO
2.1 Gestão de Estoques
A administração de materiais na empresa é um conjunto de atividades com a finalidade de assegurar o
suprimento de materiais necessários ao funcionamento da organização, no tempo correto, na
quantidade necessária, na qualidade requerida e pelo melhor preço. Antes do tempo correto, ocasiona
estoques altos, acima da necessidade da empresa. Após o tempo correto, ocasiona falta de material
para o atendimento das necessidades. Além da quantidade necessária, representa imobilizações em
estoque ocioso. Aquém da quantidade necessária, pode levar à insuficiência de estoque. No meio
empresarial, se por um lado o excesso de estoques representa custos operacionais e de oportunidade
do capital empatado, por outro lado, níveis baixos de estoque podem originar perdas de economias e
custos elevados devidos à falta de produtos (GARCIA et al., 2006). O ideal seria a perfeita
sincronização entre a oferta e a demanda, de maneira a tornar a manutenção de estoques desnecessária.
Todavia, como é impossível conhecer exatamente a demanda futura e como nem sempre os
suprimentos estão disponíveis a qualquer momento, deve-se acumular estoque para assegurar a
disponibilidade de mercadorias e minimizar os custos totais de produção e distribuição.
A administração de estoques é de importância significativa na maioria das empresas, tanto em função
do próprio valor dos itens mantidos em estoque, quanto em associação direta com o ciclo operacional
da empresa. Os níveis de estoques dependem em grande parte do nível de vendas (ALMEIDA;
LUCENA, 2006). A necessidade de prever as vendas antes de estabelecer os níveis desejados de
estoques torna sua administração uma tarefa difícil. Deve-se observar também que os erros na fixação
dos níveis de estoque podem levar à perda das vendas (caso tenham sido subdimensionados) ou a
custos de estocagem excessivos (caso tenham sido superdimensionados), residindo, por conseguinte,
na correta determinação dos níveis de estoques, a importância do seu gerenciamento. Seu objetivo é
garantir que os estoques necessários estejam disponíveis quando necessários para manutenção do ritmo
de produção, ao mesmo tempo em que os custos de encomenda e manutenção de estoques sejam
minimizados (ALMEIDA; LUCENA, 2006). O excesso de estoque é frequentemente a maior ameaça
à liquidez do caixa. Para uma empresa ter sucesso e sobreviver, destinar de maneira errada os recursos
leva a riscos desnecessários e desperdiça as oportunidades produtivas.
2.2 Métodos de Previsão
Os métodos quantitativos univariados utilizam dados históricos da variável sobre a qual se pretende
efetuar as previsões para determinar seu padrão evolutivo e utilizam-no para efetuar extrapolações
V Simposio de Metodos Numericos Computacionais
37
sobre seu comportamento futuro. Assim, usam padrões internos dos dados históricos para prever o
futuro, ou melhor, modelam os padrões da série histórica e os projetam no futuro. Quanto aos métodos
quantitativos, são abordados, portanto, a Suavização Exponencial e a metodologia Box-Jenkins.
O método de Suavização Exponencial Simples (SES), dado pela equação (1), é um método
popularmente utilizado devido à sua simplicidade e eficiência dos resultados. É similar ao método da
média móvel, com as diferenças básicas de que a suavização exponencial todos os dados históricos são
utilizados e os valores passados são ponderados exponencialmente de acordo com seu período, ou seja,
os dados mais recentes têm um peso maior na previsão.
123
12
11 111 yyyySES tttt )(...)()( (1)
Já os modelos de Box-Jenkins foram desenvolvidos para uma série temporal que tem os dados
coletados sequencialmente ao longo do tempo, e espera-se que ela apresente correlação seriada no
tempo. Os modelos de Box-Jenkins, genericamente conhecidos por Auto Regressive Integrated Moving
Averages (ARIMA) e na literatura em português por Autorregressivos Integrados de Médias Móveis,
são modelos matemáticos que visam a captar o comportamento da correlação seriada ou auto
correlação entre os valores da série temporal, e com base nesse comportamento realizar previsões
futuras. Se essa estrutura de correlação for bem modelada, fornecerá boas previsões (WERNER;
RIBEIRO, 2003). Segundo FAVA (2000), os modelos ARIMA resultam da combinação de três
componentes denominados “filtros”: o componente autorregressivo (AR), o filtro de integração (I) e o
componente de médias móveis (MA). Uma série pode ser modelada pelos três filtros ou apenas por
um subconjunto deles, resultando em vários modelos abordados a seguir.
Modelos estacionários são aqueles que assumem que o processo está em “equilíbrio”. Um processo é
considerado fracamente estacionário se suas média e variância se mantêm constantes ao longo do
tempo, e a função de auto covariância depende apenas da defasagem entre os instantes de tempo. Um
processo é fortemente estacionário se todos os momentos conjuntos são invariantes a translações no
tempo (WERNER; RIBEIRO, 2003).
Os modelos autorregressivos de médias móveis (ARMA), expresso pela equação (2), em alguns casos,
pode ser necessário utilizar um grande número de parâmetros em modelos puramente AR ou
puramente MA. Nesses casos, é vantajoso misturar os componentes de um modelo AR como os
componentes de um modelo MA, gerando, assim, um modelo ARMA. O modelo ARMA (p,q) exigirá
um número menor de termos.
qtqttptptt eeexxx ...... 1111 (2)
Quando uma série temporal apresenta média e variância dependentes do tempo, é porque ela não é
estacionária. A não-estacionariedade de uma série implica que: a) há inclinação nos dados e eles não
permanecem ao redor de uma linha horizontal ao longo do tempo e/ou b) a variação dos dados não
permanece essencialmente constante sobre o tempo, isto é, as flutuações aumentam ou diminuem com
o passar do tempo, indicando que a variância está se alterando (WERNER; RIBEIRO, 2003).
Para detectar a não-estacionariedade de uma série, o comportamento temporal pode ser analisado
graficamente buscando padrões (a) e (b) ou, então, aplicando os testes estatísticos de raiz unitária. O
teste de raiz unitária mais usado é o de Dickey-Fuller.
Como a maioria dos procedimentos de análise estatística de séries temporais supõe que estas sejam
estacionárias, será necessário transformá-las, caso ainda não sejam. Segundo MORETTIN E TOLOI
(2006), a transformação mais comum consiste em tomar diferenças sucessivas da série original até
obter uma série estacionária. A primeira diferença de Zt é definida pela equação (3):
1 ttt ZZZ (3)
já segunda é dada pela equação (4):
2122 tttt ZZZZD (4)
V Simposio de Metodos Numericos Computacionais
38
Em situações normais, ainda segundo os autores citados, será suficiente tomar uma ou duas diferenças
para que a série se torne estacionária. O número d de diferenças necessárias para tornar a série
estacionária é denominado ordem de integração. A inclusão do termo de ordem de integração permite
que sejam utilizados os modelos ARIMA (p,d,q), denotado pelas equações (5) e (6) (WERNER;
RIBEIRO, 2003).
qtqtttptpttt eeeewwww ...... 22112211 (5)
em que:
td
t Zw (6)
Os modelos ARIMA exploram a auto correlação entre os valores da série em instantes sucessivos, mas
quando os dados são observados em períodos inferiores a um ano, a série também pode apresentar auto
correlação para uma estação de sazonalidades. Os modelos que contemplam as séries que apresentam
auto correlação sazonal são conhecidos como Seasonal Auto Regressive Integrated Moving Averages
(SARIMA). Os modelos SARIMA, dado pela equação (7), contêm uma parte não sazonal, com
parâmetros (p,d,q), e uma sazonal, com parâmetros (P,D,Q)s (WERNER; RIBEIRO, 2003).
t
DsdPsP
spp ZLLLLLL 1111 11 ...... (7)
3 METODOLOGIA
O estudo tem por finalidade delinear um modelo de previsão de demanda para peças de reposição de
alto giro de máquinas agrícolas e de construção a partir da metodologia Box-Jenkins, proporcionando,
assim, estimar com maior acurácia a demanda de peças de reposição para um período um ano,
conforme necessidade da empresa estudada.
Por questões sigilosas, o nome da empresa e modelo de máquinas foram alterados para este estudo de
caso. Para a empresa, foi considerado o nome “ALFA”. Esta organização é uma empresa multinacional
fabricante de máquinas agrícolas e equipamentos para construção. O estudo será feito especificamente
no negócio de peças de reposição. Seus produtos comercializados são peças de reposição, e seus
clientes são os concessionários de máquinas agrícolas e de construção. Os concessionários vendem
estas peças de reposição para os clientes finais, ou seja, agricultores, construção civil etc. Um dos
custos mais importantes no balanço patrimonial da empresa estudada é referente ao inventário de peças
de reposição nos centros de distribuição. Este estoque está dividido em peças novas e peças de alto,
médio, baixo e baixíssimo giro.
No plano deste trabalho, foi estudada apenas a perspectiva de peças de reposição de alto giro de classe
“A” dentro da organização Alfa, por se tratar de um inventário com 4.000 itens que correspondem a
45 milhões de reais e tem mais de 20 milhões de peças. Estas peças, por serem de alto giro,
normalmente com custo baixo e pequeno volume físico não recebem prioridade de tratamento e
análise, ficando alocadas no estoque.
A modelagem dos dados foi realizada com o auxílio de técnicas estatísticas de previsão, mais
especificamente, com análise de séries temporais a partir dos modelos ARIMA. Como os modelos
apresentaram sazonalidade dos dados, foi utilizado o modelo SARIMA, que é um modelo ARIMA
sazonal. Segundo MORETTIN E TOLOI (2006), o modelo SARIMA é utilizado quando existe auto
correlação significativa em defasagens de períodos de tempo (lags) sazonais, isto significa que há
necessidade de se considerar uma sazonalidade estocástica.
Para a modelagem, foram utilizados dados mensais referentes ao período de quatro anos e meio das
variáveis selecionadas. Foi extraída uma amostra aleatória de 30 peças de reposição do inventário,
escolhidas seguindo dois critérios básicos: somente as peças de alto giro e classe “A” (no mínimo 64
vendas em um ano) e as peças que tiveram pelo menos uma demanda em cada período. Com relação
às 54 observações (dados mensais de quatro anos e meio, sendo o primeiro referente ao mês de janeiro
de 2005 e o último relativo a junho de 2009), são uma imposição da metodologia Box & Jenkins devido
a ela ser baseada em alguns resultados fortemente assintóticos. Segundo os autores, é necessário um
mínimo de 50 observações para que seja possível criar os modelos e efetuar previsões com acuidade.
V Simposio de Metodos Numericos Computacionais
39
Os 4 períodos restantes serão utilizados para validar as previsões. Para cada uma das peças de
reposição, foi feita a modelagem dos dados, utilizando-se somente de sua série histórica de demanda,
possibilitando verificar as medidas de erro associadas e os modelos Box-Jenkins. Na análise da
adequação dos modelos, foi considerada a sazonalidade anual, conforme havia sido informado pelos
colaboradores da organização na fase de entrevistas. Para cada peça, foi feita uma análise de tendência
da série que confirmou a presença de sazonalidade anual.
Após a criação dos modelos de previsão de demanda, foram realizadas a previsão de quatro meses e
sua validação. A avaliação dos modelos ocorreu de duas formas: na primeira, testando os parâmetros
dos modelos e verificando se são significativos ou não; na segunda, foi confrontando o valor previsto
com o valor observado, gerando uma medida de erro. A partir desta medida, pode-se concluir sobre e
eficiência da previsão de demanda do estudo.
4 ANÁLISE DOS RESULTADOS
O estudo foi conduzido utilizando 52 observações da série histórica de demanda bem como suas
projeções para estoque de segurança. As 48 observações iniciais foram utilizadas para elaboração e
desenvolvimento dos modelos. O cálculo das medidas de erro, as estimativas dos parâmetros e os testes
de significância aconteceram sobre esta série de dados. Os dados das 4 observações restantes da série
histórica serviram para medir a efetividade dos modelos e comparar com as projeções obtidas pelo
software utilizado pela empresa Alfa. Em resumo, têm-se as seguintes informações para cada um dos
quatros períodos: a demanda projetada pela empresa Alfa, a demanda projetada pela proposta deste
estudo, a demanda real e somente para o quarto período, o estoque real. Esta limitação sobre a
informação somente do último mês de estoque se deu por conta de o sistema utilizado pela empresa
Alfa não possuir uma funcionalidade para registro deste tipo de informação, desta forma não gerando
uma base histórica.
4.1 Comparação entre as Demandas Projetadas e a Demanda Real
A fim de facilitar a visualização dos resultados das tabelas anteriores, concatenaram-se as
informações sobre demanda na Tabela 1. Tabela 1: Demanda real e demandas projetadas
O erro absoluto, assim chamado na Tabela 1, é calculado pela diferença entre o valor de demanda real
e o valor de demanda projetado. Após este cálculo, aplicou-se o módulo no resultado obtido para que
fosse possível a mensuração da informação de forma absoluta.
Conforme se pode notar na Tabela 1, a metodologia do estudo proposto errou em média na demanda
em 10%. O método utilizado pela empresa Alfa obteve um erro absoluto médio de 26%.
Um ponto importante a destacar é que, para o quarto período, o acerto médio foi maior em ambas as
projeções se comparado com os períodos anteriores. Isto não deveria ocorrer em um ambiente normal,
entretanto, como o trabalho foi desenvolvido com modelos sazonais, é possivelmente plausível esta
situação.
Uma medida interessante de comparação dos resultados é a diferença entre o estoque projetado e a
demanda observada. A partir desta mensuração, tem-se um índice de disponibilidade em relação ao
estoque. O estoque projetado por este estudo se deu considerando o valor máximo do intervalo de 95%
de confiança da projeção de cada peça em cada um dos quatro períodos. Já no caso da empresa Alfa,
a projeção de estoque de segurança se deu de acordo com o uso de seu software que é baseado na
técnica de suavização exponencial, contudo não discrimina qual o critério estabelecido para definir a
armazenagem mínima. Para este cálculo foi utilizada a Tabela 2 que considera o valor unitário de cada
V Simposio de Metodos Numericos Computacionais
40
peça armazenada no estoque pelos diferentes critérios, ou seja, demanda real, projeção do estudo e
projeção do aplicativo da empresa estudada.
Tabela 2: Demanda real e estoques projetados
Na Tabela 2, o erro é calculado pela subtração do estoque projetado da demanda real. Se o estoque
projetado for maior que a demanda, utiliza-se o valor padrão de zero para o cálculo desta diferença.
Caso contrário, é possível mensurar a quantidade de peças de reposição que faltaram no estoque para
que o atendimento ao cliente tivesse sido satisfatório. Esta Tabela mostra os valores financeiros que
as quantidades representam. Estes números são importantes para mensurar quanto a empresa Alfa
deixou de faturar por não ter as peças no estoque. Analisando a Tabela 2, sob o aspecto financeiro, a
empresa Alfa, para esta amostra, se ela estivesse utilizando o método atual, deixaria de faturar o
equivalente a R$200.000,00 nos quatro meses de estudo. Com os modelos sugeridos nesta pesquisa,
ela deixaria de faturar R$27.000,00. Neste item de comparação entre os métodos, salienta-se que a
empresa Alfa não aplica na prática todas as projeções efetuadas pelo seu software.
5 CONCLUSÕES FINAIS E RECOMENDAÇÔES
Os resultados observados mostraram-se satisfatórios nas duas alternativas de modelagens utilizadas –
metodologia Box-Jenkins (proposto) e Suavização Exponencial (empresa Alfa). O modelo
implementado na organização Alfa apresenta características positivas relacionadas com a facilidade
de formulação em qualquer sistema, além de ser facilmente compreendido. Não foi possível ter
subsídios mais aprofundados para discorrer sobre o software utilizado na empresa Alfa, pois as análises
foram realizadas somente sobre os resultados, ou seja, sobre as previsões de demanda efetuadas e sobre
o estoque gerado.
No caso do modelo proposto, foram realizados diversos testes para avaliar a viabilidade de implantação
da solução. Primeiramente foi realizado teste para avaliar a sazonalidade. Neste teste, foi constatada a
suposição de sazonalidade anual informada na fase de entrevistas com os colaboradores da
organização.
Em um segundo momento, foram testados diversos modelos para cada peça a fim de encontrar um que
melhor satisfizesse os pressupostos. Após esta fase, passou-se para a fase de análise das estimativas
dos parâmetros, buscando modelos com estimativas que possuíssem p-valor inferior a 5%. A grande
maioria das estimativas dos parâmetros se enquadrou nesta suposição.
Com os modelos já criados e as previsões já efetuadas, a análise que se seguiu foi referente às medidas
de erro resultantes. Praticamente todas as peças apresentaram baixos erros, indicando que os modelos
se encaixaram de forma satisfatória e com um grande poder de acurácia nas previsões.
Após todas as análises de pressupostos, sazonalidade, ajuste de modelo, estimativa de parâmetros e
avaliação dos erros, foram comparados os resultados obtidos com os dados obtidos do software da
empresa Alfa e com a demanda real. Pela confrontação dos resultados, constatou-se que o modelo
proposto apresentou um índice médio de 10% de erro absoluto em relação à demanda real. No entanto,
para o quarto período, este índice foi de 7%. O software da empresa Alfa obteve, nesta mesma
avaliação, um erro médio absoluto de 26%, sendo que no primeiro período este erro chegou a ser de
37%. A partir desta medida, já é possível notar diferenças entre resultados obtidos pelos dois métodos.
O índice de acurácia da demanda, por este critério, é mais forte para a modelagem proposta no estudo.
V Simposio de Metodos Numericos Computacionais
41
Uma segunda análise comparativa importante foi referente ao estoque proposto e à demanda real. O
estoque de segurança proposto neste trabalho é calculado pelo intervalo de confiança da estimativa da
previsão de demanda com 95% de significância. Os resultados deste índice também favoreceram a
metodologia Box-Jenkins, pois em média 1,4% das solicitações não seriam atendidas por falta de
estoque, enquanto a metodologia utilizada pelo software apresentou em média 9,6% de falta de
estoque. O melhor resultado advindo do software é para o primeiro período e mesmo assim 5,2% das
solicitações não seriam atendidas. Em contrapartida, o melhor resultado do método proposto acontece
no terceiro período e somente 0,3% dos pedidos não seriam cumpridos. Ainda comparando os métodos
segundo a temática do estoque e da demanda, para os quatro meses de previsão, a empresa Alfa
deixaria de faturar R$ 200.000,00, caso utilizasse literalmente as previsões de seu software. Por outro
lado, utilizando as previsões pelo modelo sugerido nesta pesquisa, o faturamento que deixaria de
registrar seria de R$ 25.000,00 nos quatro períodos.
Uma das grandes preocupações da empresa Alfa diz respeito à qualidade de seu atendimento e
disponibilidade de produtos aos seus clientes. Ao analisar os resultados de uma forma única e
consolidada, é possível verificar que ambas as técnicas apresentam resultados melhores do que a não
utilização de métodos numéricos cientificamente estudados. Contudo, o modelo proposto no estudo
desenvolveu melhores resultados do que o software utilizado pela empresa Alfa. Esta afirmação é
plausível de ser assegurada ao verificar os objetivos e preocupações da empresa Alfa. No caso deste
estudo, foi comprovado que a técnica Box-Jenkins apresentou índices de acurácia mais elevados tanto
para a demanda quanto para o estoque de segurança quando verificados com a demanda real. Supondo
que estes resultados obtidos pela amostra de 30 peças pudessem ser extrapolados para a população
total de peças de alto giro de classe “A” e que este total de peças apresentasse as mesmas proporções
da amostra referente a custos e quantidades, a utilização correta da metodologia proposta resultaria em
uma redução de 15 milhões de peças nos estoques, o que representaria uma redução de 32 milhões de
reais.
O trabalho tem algumas limitações. A série histórica utilizada foi curta, baseando-se no mínimo
necessário para que fosse possível a aplicação da técnica empregada no estudo caso não houvesse
sazonalidade. Devido à complexidade do método, foi utilizada somente uma técnica de previsão de
demanda. A partir deste estudo, recomenda-se para futuros trabalhos a utilização de uma série histórica
longa de dados, preferencialmente com mais de cem observações, para que as estimativas dos
parâmetros sejam mais precisas. Por fim, recomenda-se trabalhar com outras classes de peças que
sejam importantes financeiramente para a empresa.
REFERÊNCIAS
ALMEIDA, D.; LUCENA, M., Gestão estoques na cadeia de suprimentos. Revista ECCO, v. 1, p. 1,
2006.
CASTRO, R. L. Planejamento e controle da produção e estoques: um survey com fornecedores da
cadeia automobilística brasileira. Dissertação de Mestrado. Mestrado em Engenharia. EPUSP, 2005.
FAVA, V. L. Manual de econometria. In: VASCONCELOS, M. A. S.; ALVES, D. São Paulo: Editora
Atlas, 2000.
GARCIA, E. S.; REIS, L. M. T. V.; MACHADO, L. R.; FERREIRA, V. J. M. – Gestão de estoques:
otimizando a logística e a cadeia de suprimentos [Em linha]. Rio de Janeiro: E-papers Servicos
Editoriais Ltda., 2006. Disponível em:
<http://books.google.com/books?id=AvfRM51NLcQC&dq=pt-PT>. Acesso em: 21 dez. 2010.
MORETTIN, P. A.; TOLOI, C. M. C. Análise de Séries Temporais. São Paulo: Blucher, 2006.
WERNER, L. ; RIBEIRO, J. L. D. . Uma aplicação dos modelos Box-Jenkins na área de assistência
técnica de computadores pessoais. Gestão e Produção (UFSCar), São Carlos, v. 10, n. 1, p. 47-67,
2003.
REGO, J. R. A lacuna entre a teoria de gestão de estoques e a prática empresarial na reposição de peças
em concessionárias de automóveis. Dissertação de Mestrado. Mestrado em Administração. USP, 2006.
V Simposio de Metodos Numericos Computacionais
42
V Simposio de Metodos Numericos Computacionais
APRIMORAMENTO DO PRECONDICIONADOR SEPARADORPARA OS SISTEMAS LINEARES ORIUNDOS DOS MÉTODOS DE
PONTOS INTERIORES
Resumo: O precondicionador Separador (PS) proposto por OLIVEIRA AND SORENSEN (2005) foidesenvolvido especialmente para reduzir o mau condicionamento dos sistemas lineares oriundos das últimasiterações dos métodos de pontos interiores (MPI). Ele precisa de uma base que é uma submatriz não singularda matriz de restrições do problema, esta base depende fortemente da iteração corrente do algoritmo do MPI,pois induz uma ordenação das colunas da matriz de restrições que pode ser aproveitada para reduzir o númerode condição do sistema precondicionado. Portanto, a eficiência deste precondicionador depende de uma escolhaadequada desta base. Propõe-se um novo critério para a escolha da base do PS amparada em dois resultadosteóricos; o primeiro deles visa reduzir o número de condição da matriz precondicionada, e o segundo resultadomostra que este número de condição é uniformemente limitado por uma quantidade que independe da iteraçãodo MPI. Com a redução do número de condição espera-se um melhor desempenho do método dos gradientesconjugados precondicionado (GCP) e, portanto, uma redução do tempo computacional na resolução de problemas.Uma implementação desta abordagen e uma comparação com a versão atualmente utilizada, veja VELAZCO etal. (2011), mostrou resultados competitivos.
Palavras-Chave: Método de pontos interiores, Precondicionador Separador, Método dos gradientesconjugados.
Cecilia Orellana Castro, Aurelio Ribeiro Leite Oliveira
43
1 INTRODUÇÃO
Os MPIs do tipo primal-dual tornaram-se uma importante ferramenta para resolver problemas deprogramação linear (PL) de grande porte devido a seu moderado número de iterações. Apesar disso,as iterações tornam-se computacionalmente caras à medida que se aproximam da solução ótima. Istoacontece porque a direção de busca é obtida de sistemas lineares cujo número de condição é da ordemO(µ−2), onde µ denota o gap de dualidade do problema de PL, veja GONDZIO (2012). Assim, o estudode implementações eficientes que acelerem as últimas iterações dos MPIs é uma interessante linha depesquisa.Neste trabalho, abordam-se problemas de PL de grande porte usando o método preditor-corretor deMehrotra (PCM) que é uma das variantes mais eficientes do método primal-dual dos pontos interioresWRIGTH (1997). Para encontrar a direção de busca, dois sistemas lineares com a mesma matriz decoeficientes são resolvidos usando o método dos GCP. O precondicionamento é feito em duas fases:na primeira fase, usa-se o precondicionador Fatoração Controlada de Cholesky (FCC) proposto porCAMPOS (1995); na segunda fase, o PS. O objetivo deste trabalho é aprimorar as últimas iteraçõesdo MPI fazendo um estudo do número de condição da matriz precondicionada pelo PS.Os autores do PS e, posteriormente os seus colaboradores VELAZCO et al. (2011) fizeram ordenaçõesbaseadas em heurísticas, algumas delas bem sucedidas, porém ainda existem problemas não resolvidos eoutros cuja solução demanda muito tempo computacional, isto acontece principalmente por duas razões:a escolha da base passa por uma fatoração LU cara e a base escolhida não fornece um precondicionadorque diminua consideravelmente o número de condicão do sistema precondicionado.Os resultados teóricos dos autores apresentados nas proposições 1 e 2 são a base da nova proposta,esta fornece um novo critério de escolha do PS esperando um melhor desempenho do método dos GCPque acelere as últimas iterações dos MPIs. Foi feita uma implementação desta nova abordagem e umacomparação com a versão atualmente utilizada, VELAZCO et al. (2011).
2 MÉTODO PRIMAL-DUAL DE PONTOS INTERIORES
Considere o par primal-dual do problema de PL canalizado.
(P)
min cTx s. a Ax = b, x+ s = u x, s ≥ 0
(D)
max bTy − uTw s. a ATy − w ≤ c , w ≥ 0, y ∈ Rm
Onde x, s, w ∈ Rn e A uma matriz de tamanho m× n que será considerada de posto completo.Aplicando a penalidade barreira logarítmica nas restrições de não negatividade de (P ), tem-se:
(P′)
min cTx− µ
n∑
i=1
log xi − µn∑
i=1
log si s. a Ax = b, x+ s = u x, s > 0
Pela convexidade do problema (P ′) as condições de otimalidade de primeira ordem são suficientes enecessárias. Para encontrar a direção de busca numa iteração dos MPIs, aplica-se o método de Newtonnessas condições de otimalidade obtendo o seguinte sistema linear:
A 0 0 0 0In In 0 0 00 0 AT −In InZ 0 0 X 00 W 0 0 S
∆x∆s∆y∆w∆z
=
rbrurcr1r2
, (1)
onde rb = b − Ax, ru = u − x − s, rc = c + w − z − ATy, r1 = µe − XZe, r2 = µe − SWeX = diag(x1, . . . , xn), Z = diag(z1, . . . , zn), S = diag(s1, . . . , sn), W = diag(w1, . . . , wn) eeT = (1, . . . , 1) ∈ Rn.Entre as variantes dos MPIs, destacam-se os métodos seguidores de caminho, entre eles, o PCM por seruma aproximação de segunda ordem das condições de otimalidade de (P ′), veja WRIGTH (1997).
V Simposio de Metodos Numericos Computacionais
44
O sistema (1) é reduzido a duas formulações muito usadas. A primeira delas conhecida como SistemaAumentado, é um sistema de equações com matriz simétrica e indefinida de tamanho n+m.
(−D−1 AT
A 0
)(∆x∆y
)=
(rh
), (2)
onde D−1 = X−1Z + S−1W , r = rc −X−1(σµe−XZe) + S−1(σµe− SWe)− S−1Wru e h = rb.A segunda formulação é chamada Sistema de Equações Normais com matriz simétrica e positiva definidade tamanho m.
ADAT∆y = h+ ADr. (3)
Quando se abordam problemas de grande porte, mesmo problemas esparsos, uma resolução diretados sistemas (2) ou (3) demanda muita memória pois a matriz ADAT geralmente é cheia tornando aabordagem direta pouco eficiente. Para superar essa dificuldade são usados métodos iterativos que usamprodutos matriz-vetor. Além disso, um bom precondicionamento dos sistemas (2) ou (3) acelerará aconvergência dos métodos iterativos.
3 PRECONDICIONADOR SEPARADOR
O PS foi desenvolvido tanto para o sistema (2) quanto para o sistema (3). Neste trabalho usa-se ométodo GCP para encontrar a direção de busca; logo, a escolha do sistema (3) é natural por ser umamatriz simétrica e positiva definida.A construção do PS está baseada na condição de complementariedade de um problema de PL, neste caso,estas condições para um problema de PL canalizado são: xizi = 0 e siwi = 0 para todo i = 1, . . . , n.Pela definição da matriz diagonal D−1 dada acima, tem-se que di =
(zix−1i + wis
−1i
)−1, isto implicaque em cada iteração dos MPIs a matriz D se altera, particularmente, quando o MPI esteja próximo àsolução ótima, pela não negatividade das variáveis, existirão índices j ∈ 1, . . . n tais que dj → 0 oudj → ∞. Esta característica é a motivação da construção do PS e a justificativa do sucesso dele nasúltimas iterações dos MPIs como será explicado mais adiante.Em cada iteração dos MPIs considere uma ordenação: dσ(1) ≥ dσ(2) ≥ . . . ≥ dσ(m) ≥ . . . ≥ dσ(n) ondeσ é uma permutação de 1, . . . n. Esta ordem se altera de iteração a iteração, por exemplo na primeiraiteração do MPI, di = 1/2 para i = 1, . . . n pois o ponto inicial do MPI tem todas as suas componentesiguais; já nas últimas iterações, aparecem diferenças abruptas nestes valores, este é um bom indicadorde troca de fase, ou seja o PS está pronto para apresentar um bom desempenho.Suponha que as colunas das matrizes A e D sejam reordenadas de acordo com a permutação σ e queas primeiras m colunas de A sejam linearmente independentes; além disso, considere os conjuntos deíndices B = σ(1), . . . , σ(m) e N = σ(m+ 1), . . . , σ(n), então a matriz do sistema (3) fica:
ADAT = ABDBATB + ANDNA
TN . (4)
Lembrando que os conjuntos B eN contêm os índices que correspondem aos maiores e menores valoresdj respectivamente, o PS para as Equações Normais é dado por:
P = D−1/2B A−1B . (5)
Logo, a matriz (4) precondicionada por (5) é:
P (ADAT )P T = Im +WW T (6)
com W = D−1/2B A−1B AND
1/2N . A situação ideal acontece quando D−1/2B → 0 e D1/2
N → 0 implicandoque W → 0 e, portanto, P (ADAT )P T ≈ Im. Mas isto quase nunca acontece pelas seguintes razões:
1. Nada garante que AB tenha colunas linearmente independentes.2. Mesmo supondo que AB seja não singular, nem todo dj com j ∈ B é um valor grande. De fato,
perto da solução ótima existem pelo menos n −m valores próximos de zero, isto implica que nomáximo existirão m valores não pequenos.
V Simposio de Metodos Numericos Computacionais
45
Levando em conta estas considerações, define-se hj = d1/2j ‖Aj‖2 para cada j = 1, . . . , n. Usando o fato
de que a matriz A foi considerada de posto completo, propõe-se o seguinte algoritmo.Algorithm 1: Algoritmo para encontrar o conjunto de índices básicos B e não básicos N
Entrada: A matriz de restrições A ∈ Rm×n de posto m e a matriz diagonal D.Obter a permutação σ do conjunto 1, . . . , n tal que: hσ(1) ≥ hσ(2) ≥ . . . ≥ hσ(n);Defina B = ∅, i = 1, k = 0;enquanto |B| < m faça
se Aσ(i) é linearmente independente a Aj : j ∈ B entãoB = B ∪ σ(i) ; k = k + 1; bk = σ(i);
Faça i = i+ 1
retorna Os conjuntos de índices básicos B = b1, . . . bm e não básicos N = 1, . . . , n\BApós obter o conjunto de índices básicos B e não básicos N , a submatriz AB será chamada de base edenotada por B = AB; além disso, denota-se N = AN .A matriz B é obtida usando a fatoração LU da matriz A, um pivô não nulo e não muito pequeno indicaráque a respectiva coluna é linearmente independente às colunas já obtidas. Uma cuidadosa implementaçãodeve ser feita, pois dado que o conjunto de colunas linearmente independentes é desconhecido antesda fatoração LU esta pode gerar muito preenchimento. A técnica usada pelos autores para tratar esteproblema é interromper a fatoração para reordenar as colunas linearmente independentes já encontradasdas mais esparsas às menos esparsas e, dessa maneira, reiniciar a fatoração.O Algoritmo 1 é baseado num resultado que será apresentado na próxima seção.
4 ANÁLISE ESPECTRAL DA MATRIZ PRECONDICIONADA PELO PS
Na seção anterior foi visto que em cada iteração do MPI, após o cálculo dos valores hi, o Algoritmo 1fornece os conjuntos de índices B eN para construir P = D
−1/2B B−1. Além disso, a matriz de Equações
Normais precondicionada por P é dada em (6).Suponha que (λ, v) seja um autopar de I +WW T , isto é, v +WW Tv = λv. Multiplicando por vT :
|λ| = 1 +‖W Tv‖2‖v‖2 ≥ 1. (7)
Por outro lado, ‖W Tv‖ ≤ ‖W T‖‖v‖ implica que |λ| ≤ 1 + ‖W T‖2 . Portanto:
κ(P (ADAT )P T ) =λmax
λmin
≤ 1 + ‖W T‖2. (8)
A desigualdade (8) sugere uma ordenação de colunas de A minimizando a norma ‖W‖.Proposição 1. Considere os valores hi = d
1/2i ‖Ai‖2. Se os conjuntos de índices B eN são obtidos pelo
Algoritmo 1, então o PS dado por P = D−1/2B B−1 é tal que ‖W‖F é minimizada.
ProvaDa desigualdade ‖W‖F ≤ ‖D−1/2B B−1‖F‖ND1/2
N ‖F , observa-se que minimizar ‖D−1/2B B−1‖F e‖ND1/2
N ‖F implicará a minimização de ‖W‖F .De ‖BD1/2
B ‖ ≥ 1
‖D−1/2B B−1‖
, pode-se concluir que maximizar ‖BD1/2B ‖F implicará a maximização de
1
‖D−1/2B B−1‖F
, além disso maximizar 1
‖D−1/2B B−1‖F
é equivalente a minimizar ‖D−1/2B B−1‖F . Ou seja,
maximizar ‖BD1/2B ‖F implica minimizar ‖D−1/2B B−1‖F . De acordo com a seguinte equação:
‖AD1/2‖2F =‖BD1/2B ‖2F + ‖ND1/2
N ‖2F
=
∑
σ(i)∈Bd1/2σ(i)‖Aσ(i)‖2︸ ︷︷ ︸
hσ(i)
2
+
∑
σ(i)∈Nd1/2σ(i)‖Aσ(i)‖2︸ ︷︷ ︸
hσ(i)
2
(9)
V Simposio de Metodos Numericos Computacionais
46
para maximizar ‖BD1/2B ‖F , os índices σ(i) ∈ B devem corresponder aos maiores valores de hσ(i); assim,
esta escolha minimizará a norma ‖D−1/2B B−1‖F . Por outro lado, para minimizar ‖ND1/2N ‖F , a partir de
(9) é imediato que os índices σ(i) ∈ N devem corresponder aos menores valores de hσ(i). Para simplificar notação, considera-se σ = id, onde id é a permutação identidade. O seguinte resultadoé baseado no artigo de MONTEIRO et al. (2004). Na proposição 2 demonstra-se que se o conjunto deíndices básicos B é dado pelo Algoritmo 1 então o número de condição do sistema precondicionadopelo PS é uniformemente limitado por uma quantidade que independe da iteração do MPI.Proposição 2. Suponha que B seja uma base obtida pelo Algoritmo 1 e que a matriz A foi escalada detal forma que cada coluna tenha norma euclidiana limitada por
√m. Então:
• d12j ‖D
− 12B B−1Aj‖ = 1 para j ∈ B;
• d12j ‖D
− 12B B−1Aj‖ ≤
√m‖B−1‖ para j ∈ 1, . . . , n\B
Além disso, se C = max1,√m‖B−1‖, então: κ(PADATP T ) ≤ nC2.Prova Consideram-se duas situações:Caso 1. Se j ∈ B, então B−1Aj = ej onde ej é o j−ésimo vetor canónico de Rm; logo,
d12j ‖D
− 12B B−1Aj‖ = d
12j ‖D
− 12
B ej‖ = d12j ‖d
− 12
j ej‖ = 1.Caso 2. Se j /∈ B são considerados dois casos:Caso 2.1. A coluna Aj não foi considerada para entrar na base de acordo ao Algoritmo 1. Neste casoj > bi para todo índice básico B = b1, . . . bm; assim, hbi ≥ hj para todo bi ∈ B.Seja d
120 = mind
12bi
: bi ∈ B, então se h0 = d120 ‖A0‖ tem-se que h0 ≥ hbm ≥ hj; logo,
d12j ‖D
− 12B B−1Aj‖ ≤
d12j ‖Aj‖‖B−1‖
mind12bi
: bi ∈ B=hj‖A0‖‖B−1‖
h0, (10)
dado que ‖A0‖ ≤√m, tem-se que d
12j ‖D
− 12B B−1Aj‖ ≤
√m‖B−1‖.
Caso 2.2. A coluna Aj foi candidata para ser r−ésima coluna de B, porém Aj resultou ser linearmentedependente às colunas Ab1 , Ab2 , . . . , Abr−1; isto é, Aj = B[u, 0]T , para u ∈ Rr−1.Observe que hbi ≥ hj
para i = 1, . . . , r − 1, além disso ‖u‖ = ‖B−1Aj‖. Suponha que d120 = mind
12b1, . . . , d
12br−1, então se
h0 = d120 ‖A0‖ tem-se que h0 ≥ hbr−1 ≥ hj , logo;
d12j ‖D
− 12B B−1Aj‖ = d
12j
(r−1∑
i=1
d−1bi u2i
) 12
≤d
12j ‖Aj‖‖A0‖d
120 ‖A0‖
‖B−1‖
≤ √m‖B−1‖.
(11)
Logo, ‖D−12B B−1AD
12‖2F =
n∑
i=1
di‖D−12B B−1Aj‖22 ≤ nC2. Dado que P = D
− 12B B−1, tem-se:
‖PAD 12‖2 ≤ ‖PAD
12‖F ≤
√nC, portanto: λmax
(PADATP T
)= ‖PAD 1
2‖22 ≤ nC2. Por outrolado, λmin
(PADATP T
)≥ 1 e, por conseguinte, κ(PADATP T ) ≤ nC2.
A tarefa de determinar uma boa base é muito importante, pois o PS tem a propriedade de utilizar a matrizB em algumas iterações além da iteração na que foi calculada, em consequência o precondicionador ébarato para se calcular em algumas iterações do MPI. A mudança da base B é determinada pelo númerode iterações do método GCP usadas para resolver o sistema linear precondicionado.
5 EXPERIMENTOS NUMÉRICOS
Os experimentos numéricos foram realizados utilizando o PCx, veja CZYZYK (1996), o método diretousado para a solução dos sistemas lineares foi substituido pelo método GCP com precondicionamento
V Simposio de Metodos Numericos Computacionais
47
híbrido proposto por BOCANEGRA et al. (2007) e troca de fase proposta por VELAZCO et al. (2011).A base B do PS muda quando 8 ∗ ng ≥ m, onde ng denota o número de iterações do método GCP numaiteração do MPI. Os testes realizados comparam os resultados das abordagens PCxm e PCxc, sendoPCxm a abordagem com ordenação da base B proposta pela heurística de VELAZCO et al. (2011) ePCxc a abordagem com a ordenação da base B usando o Algoritmo 1 apresentado neste trabalho.
Tabela 1: Total de iteracões do IPM, Tempo de resolução do problema e número de iterações do PCG
Iterações MPI Tempo Iterações GCP TamanhoProb PCxm PCxc PCxm PCxc PCxm PCxc Linhas Colunas
25fv47 29 26 1, 80 1,35 5122 2951 825 1571bnl1 40 40 0, 75 0, 76 2814 2634 1175 1586chr22b 29 29 19, 33 17,94 938 909 5587 5335chr25a 29 29 42, 94 40,03 2785 2964 8149 7825cre-a 27 27 7, 67 7, 65 176 187 3516 4067cre-b 43 43 43, 40 42,29 108 166 9648 72447cre-c 27 27 5, 83 5, 02 151 155 3068 3678cre-d 42 42 28, 41 27,33 79 133 8926 69980els19 31 31 44, 24 35,49 3243 3212 4350 9937ex01 28 28 0, 41 0,34 1448 1036 246 1379ex02 46 37 0, 95 0,67 6431 3717 238 1378ex05 39 39 5, 82 4,92 2332 2290 833 6980ex09 45 52 52,14 54, 95 11862 15541 1846 16422ganges 18 18 0, 63 0, 63 326 383 1309 1681ken13 29 29 93, 80 92,35 33 34 28632 42659ken18 41 41 1040, 20 1011,89 409 504 105127 154699maros 40 25 2, 31 1,10 13813 5086 840 1443nesm 31 31 1, 57 1,28 4943 3729 662 2923rou20 24 24 757, 49 420,04 1470 1889 7359 33840scr15 24 24 7, 66 6,61 2013 1768 2234 4635scr20 21 21 60, 08 55,45 1534 2369 5079 12180ste36a 37 37 14078, 34 5523,68 14128 13793 27686 109653stocfor2 21 21 1, 13 1, 17 467 477 2157 2031stocfor3 32 32 87, 90 87, 51 5110 5154 16675 22541
Os testes foram realizados em um processador Intel i7 com 16 Gb de memória, em ambiente Linuxusando os compiladores gcc e gfortran. Os problemas são de domínio público extraídos das bibliotecasNETLIB e QAP.
0
0.2
0.4
0.6
0.8
1
0 0.2 0.4 0.6 0.8 1 1.2 1.4
π (
τ)
log (τ)
Tempo de Procesamento (PCxc × PCxm)
PCxmPCxc
Figura 1: Perfil de desempenho do tempo.Para avaliar a eficiência da ordenação proposta comparamos o número total de iterações do MPI, otempo em que cada problema é resolvido e o número total de iterações do método GCP em todas as
V Simposio de Metodos Numericos Computacionais
48
iterações do MPI correspondentes ao PS. Observa-se na Tabela 1 que as abordagens comparadas secomportam de forma parecida nas colunas correspondentes ao número de iterações do MPI pois o nossoobjetivo foi acelerar o tempo do cálculo da direção de busca em cada iteração do MPI. Apesar dissoocorrem melhoras em três problemas, 25fv47, ex02 e maros. O problema ex09 incrementou o númerode iterações do MPI.Com respeito ao tempo, o desempenho do PCxc foi melhor na maior parte dos problemas testados,as reduções de tempo consideráveis foram marcadas em negrito. Um perfil de desempenho do tempoé apresentado na Figura 1. Destacamos os problemas els19, ken18, rou20 e ste36a. Esta melhoraaconteceu porque a base B com reordenação PCxc exige menos iterações do método GCP em algumasiterações do MPI o que implica uma melhora do precondicionamento que o PS oferece ao sistema(3). Outra razão muito importante é que no total de iterações do MPI correspondentes ao PS foramnecessários menos cálculos da matriz B quando comparados com o critério de reordenação de PCxm.A propriedade de manter a base B da iteração k nas seguintes iterações é uma estratégia barata, observeque se Pk = D
−1/2B B−1 então Pk+1 = D
−1/2B B−1 , porém a matriz precondicionada I+WW T da iteração
k + 1 não tem mais o melhor conjunto de colunas e, portanto, seu desempenho não é tão bom quandocomparado com iteração k.
6 CONCLUSÕES
O desempenho do PS obtido pelo Algoritmo 1 obteve resultados superiores à abordagem baseada naheurística de reordenação proposta por VELAZCO et al. (2011), particularmente nos problemas degrande porte há diferenças notáveis.Ressaltamos que reduzir tempo em não criar uma nova matriz B implica mais iterações no métodoPCG, por esta razão existem problemas tais como ken18 com mais iterações no método PCG, porémresolvido em menos tempo.Novas estratégias de ordenamento que aproveitem a esparsidade da matriz A estão sendo investigadas,assim também, um critério de troca de base junto com técnicas que permitam a reutilização da base Bde maneira mais eficiente.
AGRADECIMENTOS
Este trabalho contou com o apoio financeiro da FAPESP - Fundação de Amparo à Pesquisa do Estadode São Paulo e pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq).
REFERÊNCIAS
BOCANEGRA S., CAMPOS F.F., and OLIVEIRA A.R.L. Using a hybrid preconditioner for solvinglarge-scale linear systems arising from interior point methods. computational optimization andapplications. Computational Optimization and Applications, pages 149–164, 2007.
CAMPOS F. Analysis of conjugate Gradients - type methods for solving linear equations. Ph.D. thesis,Oxford University Computing Laboratory, Oxford, 1995.
CZYZYK J., MEHROTRA S., and J. W.S. Pcx user guide. Technical Report OTC 96/01, 1996.GONDZIO J. Matrix-free interior point method. Computacional Optimization and Applications,
51:457–480, 2012.MONTEIRO R.D.C., NEAL J.W., and TSUCHIYA T. Uniform boundedness of a preconditioned normal
matrix used in interior-point methods. SIAM J. Optim., 15:96–100, 2004.OLIVEIRA A.L. and SORENSEN D. A new class of preconditioners for large-scale linear systems from
interior point methods for linear programming. Linear Algebra and Its Applications, 394:1–24, 2005.VELAZCO M., OLIVEIRA A., and CAMPOS F. Heuristics for implementation of a hybrid
preconditioner for interior-point methods. Pesquisa Operacional, 31:2223–2241, 2011.WRIGHT S. Primal-dual Interior-Point Methods:. SIAM e-books. Society for Industrial and Applied
Mathematics (SIAM), 1997. ISBN 9781611971453.
V Simposio de Metodos Numericos Computacionais
49
V Simposio de Metodos Numericos Computacionais
EXTRAÇÃO E PARSING DE DADOS 4D DE LANDMARKS EM SUPERFÍCIES GEOMÉTRICAS DINÂMICAS
Resumo: Sistemas capazes de identificar informações temporais em um espaço conhecido são cada vez mais necessários em áreas como a saúde, mapeamento em imagens e objetos 3D ou na classificação de tráfego de pedestres ou veículos. Esta pesquisa apresenta um sistema de extração, análise sintática e classificação de informações 4D em superfícies faciais geométricas de forma parametrizada. Palavras-Chave: 4D, modelos espaço-temporal, parser de dados, malha geométrica.
1 INTRODUÇÃO
Reconhecimento de padrões e análise de malhas 3D é cenário para estudos em diferentes abordagens, normalmente utilizando entradas 2D para extração de volumes tridimensionais (também chamados de voxels), ou analisando as landmarks (pontos de interesse dentro de um contexto específico) objetivando sintetizar uma saída em ambiente virtual (Yi and LIJUN 2008; TIM et al. 2014). Dentro deste escopo, sistemas como os de reconhecimento facial ou os que utilizam intérpretes virtuais se tornam necessários tanto em sistemas de segurança como em sistemas instrucionais ou simuladores. Neste sentido, pesquisas focadas no processamento de dados coletados de imagens sintetizadas oferecem grande potencial no desenvolvimento de novas tecnologias (Schmidt 2015). Esta pesquisa tem como objetivo propor e implementar um sistema de extração de informações 4D de uma malha geométrica, observando trabalhos atuais em duas áreas principais: avatares 3D com foco na face onde classificação de características ou processos de síntese são apresentados (Cao et al. 2014) (Sandbach et al. 2011), além de dados 4D para informações de coordenadas de movimentos ou reconhecimento de ações (Youngmo 2015; Pingkun et al. 2008; Hong et al. 2015) e pesos de landmarks ou em alguns casos superfícies e representação geométrica de quatro dimensões (Chu et al. 2009). Nas seções seguintes é apresentada a implementação de um algoritmo para extração de informações espaço-temporais e o processo de parser, ou leitura e reconhecimento sintático e semântico das informações, seguido por um teste de classificação e reconhecimento de pontos dinâmicos na malha geométrica.
Diego Addan Goncalves, Eduardo Todt
50
2 PONTOS DE INTERESSE 4D
Um modelo matemático para se calcular pontos espaço temporais utiliza decomposição de
valores singulares (Serban et al. 2014), como segue:
, t
(1)
Onde n são os pontos no espaço e T o número de observações no tempo, U é a matriz ortogonal com pontos de interesse no espaço, D é a matriz nxT. Finalmente V é a matriz TxT e U e V são os pontos médios entre as arestas. Ainda, uma maneira de modelar os pontos de interesse é calcular as arestas (ou a distância entre os pontos s-t) em um tempo (ti-tj) sendo validados por uma função de covariância em um espaço positivo, como segue:
, , , (2)
Seguindo extensões destas modelagens, alguns trabalhos apresentam métodos de conversão
de movimentos humanos de entradas 2D em saídas através de objetos tridimensionais. O
objetivo principal destes trabalhos é estimar a posição e cada ponto de articulação e
movimento do objeto (Youngmo 2015; Pingkun et al. 2008). Após identificar o movimento utilizando técnicas de processamento de imagens em canal de
profundidade, existem duas formas de se extrair o objeto 3D. A primeira é criar uma curva
média e estender uma malha poligonal simplificada, uma vez que a curva, vista como um
esqueleto para o objeto, já possuí os pontos de articulação. O outro processo utiliza o canal de
profundidade para fazer uma extrusão de uma malha poligonal irregular e simplificar com um
objeto com poucos polígonos baseado na dimensão de profundidade do objeto inicial (Yi and
LIJUN 2008; TIM et al. 2014). Com estas técnicas é possível ainda associar um objeto dinâmico de uma sequência de imagens com um objeto 3D, rastreando pontos específicos da entrada e criando um paralelo com vértices do objeto em ambiente virtual. Uma das técnicas conhecidas que utiliza este recurso é o reconhecimento de expressões faciais (REF) em sequências de imagens ou objetos 3D (Sandbach et al. 2011), onde expressões de sentimentos como raiva ou alegria, ou mesmo alterações em pontos específicos como cantos das bocas são identificados por comparação temporal de deslocamento de suas posições. Estas técnicas podem utilizar algoritmos como FFD (Free Form Deformation) onde dois frames são comparados e o movimento de cada vértice é interpolado com landmarks sequenciais (utilizando modelagem temporal).Ainda, existem trabalhos onde quatro dimensões não são tratados como informação temporal,
mas sim como representação de superfície geométrica, propondo uma arquitetura para
visualização de objetos 3D 3-manifolds (onde a malha não é fechada por polígonos de um
lado e arestas não são formadas apenas por duas faces). Esta técnica também é chamada de
Hyper Volume Voxel, onde o objeto tem a superfície representada por tetraedros (Chu et al.
2009).
V Simposio de Metodos Numericos Computacionais
51
3 MÉTODO PROPOSTO
Esta seção apresenta uma implementação para extração de informação 4D de um objeto geométrico e o processo utilizado para o reconhecimento estrutural dos dados. O método utilizado para reconhecer informações temporais neste trabalho utiliza os pontos de interesse da superficie do objeto observados em uma linha temporal, comparando os valores de sua posição em todas as coordenadas espaciais. A arquitetura do sistema proposto consiste nos seguintes blocos: Identificação de um objeto dinâmico em um ambiente virtual, desenvolvimento de um algoritmo que identifica e exporta dados da superfície do objeto 3D em um modelo parametrizado para o processo de parser (análise sintática) em um motor gráfico e o reconhecimento, ou classificação dos pontos 4D na malha importada. 3.1 Identificação de Landmarks Em um objeto 3D, qualquer superfície pode ser construída obtendo informações das faces poligonais e suas coordenadas, valores base para a análise de suas características. A implementação apresentada a seguir utilizou as bibliotecas de uso livre OpenGL (para uso em gráficos 3D) e OpenCV (para processamento de imagens) e a linguagem de programação Python. Inicialmente foram capturadas sequências de imagens com movimentos da cabeça onde foram construídos landmarks em pontos específicos da face como sobrancelhas, cantos das bocas, pequenos pontos no contorno da face, testa e nariz. Estas características foram adaptadas do modelo apresentado em (Cao et al. 2014). Para o rastreamento foram apontados landmarks utilizando o algoritmo Harris Corner estendido a um método que utiliza um filtro Threshold, posicionados em pequenos pontos e comparados a cada imagem da sequência utilizando sua posição e seus pixels, em escala de cinza, de determinada região (ver Figura 1: Aquisição de landmarks dinâmicos. ).
Figura 1: Aquisição de landmarks dinâmicos.
Com a sequência de pontos monitorada, um objeto 3D foi associado ao ambiente onde os testes e experimentos foram desenvolvidos. Foi utilizado um objeto com poucas faces e seus movimentos de rotação e translação (ver Figura 2: Malha 3D com os landmarks associados.). Então foi implementado um algoritmo para extrair as informações da superfície referente as coordenadas da estrutura poligonal.
V Simposio de Metodos Numericos Computacionais
52
Figura 2: Malha 3D com os landmarks associados.
3.2 Extração de dados 4D Para a função de extração foi utilizada a linguagem de programação C++ onde foram calculados o delta-time e as coordenadas do ambiente (apresentado na fórmula abaixo), necessárias para padronizar o ambiente uma vez que os processos e testes seguintes requerem o uso do motor gráfico Irrlicht com seu próprio ambiente virtual:
∆T obj .."w ∗ lp ' fwt ∆ (3)
Onde obj representa o conjunto de coordenadas do vértice, w representa a matriz do ambiente e lp o ponto local. Como modelo utilizado para exportar a malha, foram assumidas as coordenadas dos vértices e suas faces (uma vez que as arestas são definidas pela posição dos vértices correspondentes), normais dos polígonos para obter a direção da superfície difusa e os índices para cada ponto da sequência de movimentos (ver Figura 3: Pseudo-Código para extração de características 4D).
Figura 3: Pseudo-Código para extração de características 4D.
Extraídos os dados da malha geométrica então foi desenvolvido um sistema de parser no
V Simposio de Metodos Numericos Computacionais
53
motor gráfico, com o intuito inicial de reconhecer os elementos localmente para que se possam ser trabalhados na classificação de informação para influir no processo de animação de expressões do avatar 3D. 3.3 Sistema de Parser e Validação Para o sistema de parser foi utilizada a biblioteca de uso livre libTree, que adiciona métodos e funções para se trabalhar com extensão XML na linguagem C. Foi então criado um registro onde os dados de leitura do arquivo são armazenados, e então um teste de reconhecimento de pontos. Os testes a seguir foram executados em um servidor equipado com um acelerador de GPU Tesla K40 da Nvidia. O método, seguindo os parâmetros definidos no processo de exportação das informações 4D, objetivou ler e registrar, para cada momento temporal, as coordenadas dos vértices e identificar movimento e em qual coordenada ocorrem. Para isso foi criada uma função em que os dados exportados de dois momentos sequenciais da malha eram analisados. Com estas informações é possível identificar a diferença de determinado vértice nas coordenadas X, Y, e Z, e ainda ter a relação daquele ponto aos vértices vizinhos. Observando uma sequência de momentos é possível, então, identificar quais pontos tem a posição alterada e com qual intensidade isto ocorre, prevendo de forma clara os pontos em que a ação temporal é mais influente. Um teste para representação de pontos dinâmicos baseados no canal de profundidade pode apresentar pontos com movimento mais expressivo (ver Figura 4: Pontos 4D em uma fatia da malha geométrica) onde os pontos em vermelho representam vértices de uma fatia da malha onde a comparação de movimento do método anterior foi menos perceptível do que os vértices representados em azul (calculados por alterações mais expressivas na coordenada de profundidade). Os testes demonstram a extração de informações da malha 3D e a classificação de landmarks temporais.
Figura 4: Pontos 4D em uma fatia da malha geométrica.
Este exemplo demonstra a aplicação do método de extração e reconhecimento de landmarks da superfície baseados em parâmetros espaciais (posição na malha 3D) e temporais
V Simposio de Metodos Numericos Computacionais
54
(informações referentes a um momento específico e definido de um evento sequêncial em um ambiente virtual).
4 CONCLUSÃO
Esta pesquisa é parte do projeto iniciado em (Gonçalves et al. 2015), que teve como objetivo específico criar um sistema de extração e classificação de informações 4D para no futuro integrar a um método de simplificação e síntese de animação de expressões faciais baseado em ações para simulação com avatares 3D. A principal contribuição parcial deste trabalho está no algoritmo de extração e parser dos dados 4D da malha geométrica. Como resultado o algoritmo apresentado extrai dados 4D de uma malha geométrica de maneira organizada e parametrizada, criando uma saída que pode ser utilizada em trabalhos futuros em contextos como análise temporal de objetos 3D, otimização de malha ou edição de animação em ambientes virtuais.
REFERÊNCIAS
Yi S., LIJUN Y., Facial expression recognition based on 3d dynamic range model sequences. Proceedings of the 10th European Conference on Computer Vision: Part II, ECCV '08, páginas 58-71, Berlin, Heidelberg, 2008. Springer-Verlag. TIM S.C.W., RMBAUT M., PELLERIN D., Dictionary of gray-level 3d patches for action recognition. Machine Learning for Signal Processing (MLSP), 2014 IEEE International Workshop on, pages 16, Sept of 2014. SCHIMIDT, A. Following or leading?: The hci community and new interaction technologies, Iinteraction 22(1):7477, january of 2015. YOUNGMO H. 2d-to-3d visual human motion converting system for home optical motion capture tool and 3-d smart tv. Systems Journal, IEEE, 9(1):131140, March of 2015. PINGKUN, Y., KHAN, S.M., SHAH, M., Learning 4d action feature models for arbitrary view action recognition. Computer Vision and Pattern Recognition, 2008. CVPR 2008. IEEE Conference on, 7 June of 2008. SANDBACH, G., ZAFEIRIOU, S., PANTIC, M., e RUECKERT, D., A dynamic approach to the recognition of 3d facial expressions and their temporal models. Automatic Face Gesture Recognition and Workshops (FG 2011), 2011 IEEE International Conference, March of 2011 CAO, C., WENG, W., ZHOU, S., TONG, Y., ZHOU,K., Facewarehouse: A 3d facial expression database for visual computing.Visualization and Computer Graphics, IEEE Transactions on, 20(3):413 425, March of 2014. HONG, R., YAN, S., ZHANG, Z., Visual understanding with rgb-d sensors: An introduction to the special issue. ACM Trans. Intell. Syst. Technol., 6(2):11:111:3, March de 2015. CHU, A., CHI-WING F., HANSON, A. J., PHENG-ANN H., Gl4d: A gpu-based architecture for interactive 4d visualization. Visualization and Computer Graphics, IEEE Transactions on, 15(6):1587 1594, Nov of 2009 GONÇALVES, D. A., TODT, E., GARCIA, L. S., 3D Avatar for automatic synthesis of signs for the sign languages.. In: WSCG International Conferences in Central Europe on Computer Graphics, Visualization and Computer Vision, 2015, Plzen. WSCG 2015, 2015..
V Simposio de Metodos Numericos Computacionais
55
V Simposio de Metodos Numericos Computacionais
DISTRIBUIÇÃO DO CARREGAMENTO DE PAREDES ESTRUTURAIS SOBRE VIGAS CONSIDERANDO O EFEITO
ARCO ATRAVÉS DE MODELAGEM EM ELEMENTOS FINITOS
Resumo: Paredes estruturais, quando apoiadas em vigas sobre apoios discretos, devido à diferença de rigidez entre os elementos, tem seu carregamento vertical sobre a viga concentrado próximo aos apoios, esse fenômeno é conhecido como efeito arco. Este trabalho apresenta a modelagem, em elementos finitos, de um sistema para verificar o carregamento da parede sobre a viga, variando-se a rigidez da viga suporte, acrescentando cargas horizontais e considerando ou não a interação entre as paredes adjacentes. Palavras-Chave: Alvenaria estrutural, Efeito arco, Elementos finitos. 1 INTRODUÇÃO Em edifícios que empregam o sistema construtivo de alvenaria estrutural, em que as paredes não continuam até a fundação, a exemplo edifícios com pilotis ou subsolos, existe a necessidade de um pavimento de transição, usualmente com estrutura em concreto armado. Nesta transição, devido à diferença de rigidez entre os elementos suportes, ocorre uma concentração de tensões em algumas regiões da alvenaria e um alívio nos esforços solicitantes das vigas. Tal comportamento também ocorre na fundação de alvenarias apoiadas sobre vigas com estacas espaçadas. Este efeito usualmente é desconsiderado no dimensionamento de estruturas e não há normatização específica sobre o assunto. A interação entre a parede de alvenaria e sua estrutura suporte tem comportamento relacionado a um arco atirantado. Segundo Riddington e Smith (1978), o arco comprimido forma-se na parede e a viga suporte funciona como tirante. Parte da carga vertical se direciona para as regiões de apoio da estrutura suporte. 2 REVISÃO BIBLIOGRÁFICA Quando uma parede de alvenaria encontra-se sobre vigas com apoios discretos, as tensões verticais na base da parede tendem a se concentrar nas proximidades dos apoios, fenômeno conhecido como efeito arco. Segundo Wood (1952) apud Holanda Junior (2002) para que este efeito de arco se forme completamente, a altura da parede deve ser igual ou superior a 60% do vão entre os apoios.
Diego Felipe Capraro, Marco Andre Argenta
56
Riddington e Smith (1978) propõem o parâmetro K, que define a rigidez relativa do sistema em função principalmente do vão da viga. Quanto maior esta rigidez maior a tendência do aparecimento deste arco.
= ∗ ∗∗ (1)
Em que , , são o modulo de elasticidade, a espessura e o comprimento da parede, e , o modulo de elasticidade e o momento de inercia da viga, respectivamente. Papia (1988) confirma que quanto menor a rigidez da viga em relação à parede, maior a tendência de uma região de descolamento no contato. Ainda, próximo aos apoios, ocorre a concentração de tensões em formato de arco. Fazendo uso da modelagem com o método dos Elementos de Contorno (MEC) o pesquisador encontrou resultados bem satisfatórios, próximos do modelado em elementos finitos e do resultado experimental. Barbosa (2000), através de modelagem computacional, encontrou resultados que explicitam o alivio no esforço fletor da viga suporte, quando a consideração do sistema viga-parede funcionando como um arco. Barbosa também encontrou redução significativa da flecha máxima da viga, devido à ocorrência do fenômeno. Este alívio estudado acarreta em uma possível redução na seção da viga ou da taxa de aço utilizado, ambos proporcionando vantagem econômica. Segundo Paes (2008) a consideração do efeito arco pode causar redução do momento fletor das vigas suportes. Porém, a consideração das ações horizontais no sistema, altera a distribuição do carregamento e conduz a maiores esforços, em pelo menos 71% das vigas por ele analisadas. Seus modelos revelaram que o dimensionamento usual pode estar contra a segurança, pela desconsideração da carga horizontal no comportamento do sistema. No âmbito de ensaios experimentais que avaliaram o fenômeno, destaca-se o trabalho de Rosenhaupt (1962) apud Barbosa (2000) que ensaiou 12 paredes de alvenaria estrutural sobre vigas de concreto armado até atingir a ruptura, podendo verificar a ocorrência do efeito. Tanto a NBR 15812-1 (2010), para blocos cerâmicos, quanto a NBR 15961-1 (2011), para blocos de concreto, nos itens 9.4 e 9.6 respectivamente, descrevem: “São proibidas reduções nos valores a serem adotados como carregamento para estruturas de apoio, baseadas na consideração do efeito arco, sem que sejam considerados todos os aspectos envolvidos nesse fenômeno, inclusive a concentração de tensões que se verifica na alvenaria”. Paes (2008) e Nascimento Neto (2003), confirmaram através da modelagem numérica, que a interação entre as paredes é de vital importância na capacidade resistente do sistema, bem como na distribuição de tensões nos apoio. Carvalho (2007) realizou ensaios experimentais, com modelos reduzidos de painéis com flanges e isolados, com intuito de avaliar esta interação na geração do efeito arco. 3 MODELOS REALIZADOS Nas ultimas décadas têm-se estudado diversas técnicas para a modelagem da alvenaria estrutural, isto é, a representação dos painéis com aproximações compatíveis e que permitam a modelagem com um baixo custo computacional. Visto que o sistema possui elevada complexidade na geometria e nas propriedades dos materiais, surgem diversos estudos para tal modelagem. Uma das propostas é a consideração da alvenaria como um único material, sem discretizar de forma separada a unidade e a argamassa, conhecida como macromodelagem. Neste tipo de análise destaca-se o trabalho de Lourenço (2002).
V Simposio de Metodos Numericos Computacionais
57
Para o presente trabalho foi modelado em elementos finitos, através do Software ABAQUS, um sistema viga-parede. Este representa um painel com carregamento compatível a um prédio de oito pavimentos, sobre uma viga de concreto armado com vão de 4,5 metros. Pela bibliografia já citada o efeito arco se formará em uma altura próxima a 3 metros, aproximadamente 60% do vão, valor próximo do pé-direito usual. Dessa forma, foi realizada a modelagem de apenas um pavimento, com uma carga distribuída no topo de 400 kN/m, correspondente aos demais pavimentos. Para verificação da influência da rigidez da viga suporte na geração do efeito e consequentemente na distribuição do carregamento, foi modelado o exemplo com cinco seções diferentes para as vigas, na Tabela 1 a seguir têm-se as propriedades dos materiais adotados e suas características geométricas.
Tabela 1. Propriedades consideradas nos modelos. Propriedades dos Materiais
E(GPa)-Módulo de
Elasticidade -Coeficiente de Poisson
Concreto 30,7 0,2 Alvenaria 4,7 0,2
Propriedades Geométricas Largura (cm) Altura (cm) Inercia ( ) Viga 1 15 50 15,6 Viga 2 15 80 64,0 Viga 3 30 80 128,0 Viga 4 15 120 216,0 Viga 5 30 120 432,0
A análise realizada foi elástica linear e utilizou-se da macromodelagem da alvenaria, isto é, não foi discretizado de forma separada a unidade e a argamassa. Os modelos consideraram a alvenaria não armada e sem pontos de grauteamento. E ainda, não foi realizada a discretização da armadura da viga. Logo, não se levou em conta a fissuração do concreto, escorregamento da unidade sobre a argamassa e a plastificação da armadura. Estas simplificações são válidas quando se analisa o efeito global do sistema em situação normal de carregamento, isto é, com baixos níveis de tensões. Para análise de carga última, este modelo pode não ser o mais adequado. No contato entre a viga suporte foi considerado que não haverá descolamento da interface viga-parede. Esta simplificação elimina a não linearidade causada pelo possível descolamento no meio do vão. Segundo Barbosa (2000) isso não acarreta variação significativa na distribuição do carregamento em termos práticos. Na Figura 1, apresentada na sequencia, está representada a malha utilizada para o exemplo da Viga 1, com a discretização da alvenaria e da viga em elementos bidimensionais. Foram utilizados elementos quadrangulares, com distribuição quadrática definidas em um estado plano de tensões para os elementos da alvenaria. Já para a viga foram empregados elementos triangulares com distribuição quadrática. Foi considerado para apoio pilares com dimensões de 50 cm, altura da parede de 3m e o vão da viga de 4,50m.
V Simposio de Metodos Numericos Computacionais
58
Figura 1. Malha utilizada para o exemplo da Viga 1. Foram realizados, tomando o exemplo da Viga 2, modelos para avaliar a influencia da atuação da carga horizontal e da presença de paredes adjacentes na distribuição do carregamento. Foi aplicado uma carga horizontal de 80 kN, valor proporcional ao prédio de oito pavimentos proposto e as laterais foram modeladas, como livres, com restrições horizontais, e com restrições horizontais e verticais. Na última análise variou-se também o tipo de modelagem. A viga foi representada com o modelo unidimensional de viga de Bernoulli, mesclando elementos bidimensionais com graus de liberdade nas duas direções, com elementos de viga, dois graus de liberdade, translação vertical e rotação, cujos polinômios interpoladores são diferentes. Tal modelagem confere ao problema uma não conformidade, visto que não há compatibilidade de deformações no intervalo interno aos nós, porém é muito utilizada na literatura. 4 RESULTADOS E DISCUSSÕES Na Figura 2 a seguir, é possível observar a distribuição de tensões do sistema. É verificado um comportamento semelhante ao de uma viga parede, e ainda, é visualizado notoriamente o arco de tensões gerado na alvenaria. Na imagem observa-se que a partir de uma altura as tensões na alvenaria continuam uniformes, assim sendo, confirma-se a não necessidade da modelagem de toda a parede, e sim de apenas uma parcela proporcional ao vão da viga. Com as direções das tensões principais geradas no exemplo da Viga 1, viga de menor rigidez, pode-se observar o carregamento horizontal de tração gerado na viga, devido a tendência do arco abrir. Dessa forma, as vigas deveriam ser dimensionadas a flexo-tração.
Figura 2. Direção das tensões principais (Viga 1).
V Simposio de Metodos Numericos Computacionais
59
A Figura 3 mostra a distribuição das tensões principais de Von Misses, nela são observadas as regiões com concentração de tensões, principalmente na alvenaria. Houve acréscimos de tensões nas alvenarias, chegando até três vezes o valor de quando foi feita a consideração de distribuição uniforme. Sendo assim, a alvenaria deveria possuir, nesta região, resistência suficiente, que sem a tal, não levaria a formação do efeito arco, pelo início da fissuração. Porém para uma análise mais precisa das tensões máximas geradas é recomendado outro tipo de modelagem, na qual se discretize o contato entre bloco e argamassa, possível ponto de ruptura. Como na maioria dos prédios a resistência dos prismas é dimensionada levando em conta a distribuição uniforme, o simples grauteamento pode não ser suficiente para resistir a este esforço.
Figura 3. Tensões principais de Von Misses (Viga 1). Na Figura 4 é apresentada a distribuição do carregamento vertical ao longo das vigas. Esta foi obtida através da tensão vertical ao longo do contato. Pode-se observar claramente que com o acréscimo da rigidez da viga suporte a distribuição tende a ser uniformizar no valor de 400 kN/m, carregamento aplicado no topo da alvenaria. No gráfico também é possível verificar carregamentos próximos à zero no meio do vão das vigas mais flexíveis, isto confirma que a consideração do descolamento na interface no meio do vão não alteraria muito o diagrama. As distribuições encontradas tem formato semelhante ao da bibliografia citada.
Figura 4. Gráfico comparativo da distribuição do carregamento.
0200400600800
1.0001.200
0 100 200 300 400 500 600
Carre
gament
o (kN/m
)
Comprimento da Viga (cm)
Viga 1Viga 2Viga 3Viga 4Viga 5
V Simposio de Metodos Numericos Computacionais
60
Para avaliar a influência dos enrijecedores laterais, devido à existência de paredes adjacentes no efeito arco, foi modelado restringindo deslocamentos nas faces laterais. Na Figura 5 é possível observar a variação no carregamento considerando estas restrições e a ação da carga horizontal. A carga horizontal alterou significativamente a distribuição do carregamento, devido ao momento gerado. O lado oposto ao carregamento fica mais comprimido e no lado aplicado tem-se um alívio no carregamento. O gráfico da Figura 5 mostra a pouca influencia do confinamento na distribuição do carregamento e mostra a grande redução no carregamento total quando considerado restrições laterais nas duas direções, porém de fato para isto ocorrer a parede adjacente deve ser rígida suficiente e estar sobre uma base indeformável. Este último modelo também desconsidera o acréscimo de carregamento proveniente das paredes adjacentes. Logo o modelo com restrições nas faces não é recomendado para análise do efeito arco.
Figura 5. Comparação do carregamento levado em conta demais variáveis. Na modelagem em que se variou o tipo de elemento de viga, encontrou-se
diferentes configurações de carregamento, visto que, a biela formada pelo efeito de viga parede se formou somente na parede, logo, mobilizou uma região maior da parede e encontrou até tensões de tração no meio do vão na interface parede-viga, neste caso haveria o descolamento da parede. Tal modelagem se verificou ineficiente na determinação da distribuição do carregamento, visto que o problema tem influencia da altura da seção da viga na formação e posicionamento do arco.
Figura 6. Comparação do carregamento alterando-se o tipo de modelagem.
0200400600800
1.0001.2001.4001.600
0 100 200 300 400 500 600Carre
gament
o (kN/m
)
Comprimento da Viga (cm)
Viga 2ConfinadoC/ CargaHorizontalC/ InteraçãoParedes
0200400600800
1.0001.2001.4001.600
0 100 200 300 400 500 600
Carre
gament
o (kN/m
)
Comprimento da Viga (cm)
Viga 2DViga 1D
V Simposio de Metodos Numericos Computacionais
61
5 CONCLUSÕES Pela bibliografia e pelos modelos realizados é possível verificar o real acontecimento do efeito arco em sistemas vigas-parede, ocasionado pela diferença de rigidez entre os elementos. Neste efeito o carregamento da parede sobre a viga tende a se concentrar próximos aos apoios, solução esta, diferente do empregado nos principais métodos de dimensionamento. Este alívio no carregamento das vigas acarreta em uma possível redução na seção da viga ou da taxa de aço utilizada, ambas podem gerar grande vantagem econômica. Foi verificada também a importância das demais variáveis envolvidas no sistema, como por exemplo, a interação entre as paredes vizinhas e a presença de cargas horizontais, bem como características geométricas do sistema, presença de aberturas e continuidade da viga suporte. Confirmou-se a influência da rigidez da viga suporte na distribuição do carregamento e o expressivo acréscimo de tensões na alvenaria próximo aos apoios. Cabe ainda ressaltar que a parede é usualmente dimensionada para resistir aos esforços de compressão, considerando uma distribuição uniforme de tensões, sendo assim é nítida a importância desta análise quando considerado a atuação do efeito arco. 6 REFERÊNCIAS BIBLIOGRÁFICAS ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 15812/2010 – Alvenaria estrutural – blocos cerâmicos – Parte 2: Projetos. Rio de Janeiro. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 15961/2011 – Alvenaria estrutural – blocos de concreto – Parte 1: Projetos. Rio de Janeiro. BARBOSA, P. Estudo da interação de paredes de alvenaria estrutural com vigas de concreto armado. 2000. 108 f. Dissertação (Mestrado em Engenharia de Estruturas). Universidade de São Paulo, São Carlos, 2000. CARVALHO, J. D. N. A Contribuição de Enrijecedores Laterais para o Efeito Arco na Alvenaria Estrutural. Tese (Doutorado em Engenharia Civil). Universidade Federal de Santa Catarina, Florianópolis, 2007. NASCIMENTO NETO, J.A. Estudos de Painéis de Alvenaria constituídos por alvenaria estrutural de blocos. 2003. Tese (Doutorado em Engenharia de Estruturas). Universidade de São Paulo, São Carlos, 2003. PAES, M. Interação entre edifício de alvenaria estrutural e pavimento em concreto armado considerando‐se o efeito arco com a atuação de cargas verticais e ações horizontais. 2008. 163f. Dissertação (Mestrado em Engenharia de Estruturas). Universidade de São Paulo, São Carlos, 2008. PAPIA, M. An alternative analysis model for composite wall-beam systems. Computers & Structures Vol. 32. No. I. pp. 149-155. 1988. RIDDINGTON, J.R; STAFFORD SMITH, B. Composite method of design for heavily loaded wall-beam structures. In: Institutional of Civil Engineers Proceedings. Part 1, v.64, p.137-151, Febraury, 1978. LOURENÇO, P. B.; ZUCCHINI, A. A micro-mechanical model for the homogenisation of masonry. International Journal of Solids and Structures. Vol 39. 2002. 3233-3255.
V Simposio de Metodos Numericos Computacionais
62
V Simposio de Metodos Numericos Computacionais
ANÁLISE DA VARIABILIDADE ESPAÇO-TEMPORAL DAS SUBPRESSÕES AO LONGO DA BRECHA D NA USINA
HIDRELÉTRICA DE ITAIPU
Resumo: As subpressões nas fundações, causadas pelo fluxo de água, são uns dos maiores problemas em relação as obras hidráulicas, estas subpressões são mostradas pelos piezômetros, que estão instalados ao longo da barragem. Devido a localização dos instrumentos, optou-se por métodos alternativos, por meio de gráficos, para visualizar estas variações, buscando estabelecer padrões tanto espaciais, quanto temporais. Usou-se gráficos de barra nos espaço bi e tridimensional, para estabelecer a variação espaço-temporal, bem como boxplot das cotas piezométricas com a cota de instalação dos piezômetros. Os resultados foram satisfatórios e mostraram que a região com maior subpressões situa-se no trecho D, nesta mesma região houve locais com pouca subpressão, porém com maior variação. Ainda foi possível observar que o trecho E possui pouca subpressão e pouca variação. Os métodos utilizados foram eficientes para detectar a variabilidade espaço temporal da subpressão. Palavras-Chave: Subpressão, variação espaço-temporal, piezômetros.
Dione Ines Christ Milani, Neida Maria Patias Volpi, RosangelaAparecida Botinha Assumpcao, Jorge Kazuo Yamamoto, Josiele Patias
63
1 INTRODUÇÃO
A Usina Hidrelétrica de Itaipu, construída na década de 70, possui uma capacidade de 14.000 MW, distribuída em 20 unidades geradoras e é a maior usina hidrelétrica em operação no mundo. A Itaipu é responsável por cerca de 20% da energia consumida no Brasil e de 95% da energia consumida no Paraguai. Possui localização central em relação as maiores áreas industriais e urbanas do Brasil e do Paraguai, no Rio Paraná e tem coordenadas geográficas aproximadas 25º24’29”S, 54 º35’21”O (ITAIPU BINACIONAL, 2009). A preocupação com sua segurança é objeto de frequentes estudos, desde a análise de sua viabilidade, concepção e execução dos projetos, até os dias atuais. Para isso, fez-se um minucioso estudo sobre a geologia local e instalou-se vários instrumentos nas barragens e nas fundações, a fim de monitorar diversos parâmetros importantes. Tudo isso gera um grande volume de dados armazenados, que precisam ser estudados, a fim de entender e prever qualquer alteração. Entre estes instrumentos do monitoramento de fundação e estrutura, tem-se mais de 650 piezômetros que estão instalados ao longo da barragem, de acordo com sua necessidade, dada pelo projeto de instrumentação da barragem (ITAIPU BINACIONAL, 2008). Entre as feições da geologia mais instrumentadas, está a brecha D, localizada entre os derrames C e D e com espessura entre 8 e 9 metros (PATIAS, 2010). Nela estão instalados mais de 60 piezômetros de leitura manual os quais são lidos a cada 15 dias, aproximadamente, sua instalação, também leva em conta a localização quanto a cortina de injeção e drenagem, estão instalados a montante (MI), entre as cortinas de injeção e drenagem (D/I), e a jusante da cortina de drenagem (JD).
2 PIEZÔMETROS
Dentre os esforços atuantes em uma barragem, a determinação das pressões nas fundações causadas pelo fluxo de água consiste em um dos maiores problemas no que diz respeito a obras hidráulicas (VILWOCK, 2009). Os piezômetros são instrumentos que fornecem a carga hidráulica de pressão no ponto em que são instalados. Existem vários tipos de piezômetros. Os instalados na Usina Hidrelétrica de Itaipu, são do tipo Standpipe, cuja leitura fornece a cota piezométrica a qual equivale à carga hidráulica total no ponto da instalação, dada pela soma da cota de instalação com a subpressão. Os valores das cotas piezométricas são monitorados desde o início de enchimento do reservatório, gerando assim, séries temporais. 2.1 Cota piezométrica A cota piezométrica está ligada a cota de instalação, isso faz com que sua variação espaço-temporal seja pequena, sendo ela um objeto de estudo que ajudará a entender este fenômeno, porém, sem ser o ponto principal. 2.2 Subpressão A subpressão é dada em coluna de água – metros sobre o nível do mar (msnm) – e é calculada pela diferença entre a cota piezométrica e a cota de instalação. É a força exercida no sentido ascendente em função da percolação de água.
3 MATERIAL E MÉTODOS
Optou-se por estudar os piezômetros instalados nos blocos A, D e E, representados pelas estruturas 8, 7 e 3, respectivamente, da Figura (1-b). Do total de 60 instrumentos instalados na Brecha D, 40 estão localizados dentro da cortina de injeção, 11 a jusante e 9 a montante da cortina de injeção. A Figura (1-a) mostra a localização dos piezômetros em estudo, em função da cortina de injeção.
V Simposio de Metodos Numericos Computacionais
64
a) b)
Figura 1: a) Localização dos piezômetros quanto a cortina de injeção e drenagem.
b) Localização dos trechos A (8), D (7) e E (3).
4 RESULTADOS E DISCUSSÃO
4.1 Análise descritiva A Tabela (1) nos mostra o comportamento geral de todas as cotas piezométricas e subpressões na Brecha D.
Tabela 1: Estatística descritiva da cota piezométrica e da subpressão na Brecha D. Cota Piezométrica Subpressão
N 16020 16020 Média 158,009 6,816 Mediana 163,368 4,933 Variância 312,801 50,642 Desvio padrão 17,686 7,116 Coef. de variação 11,193% 104,406% Mínimo 133,550 -1,545 Máximo 186,565 23,368 Quartil 1 137,927 0,335 Quartil 3 173,409 12,202 Amplitude 53,015 24,913 Destaca-se na Tabela (1), a diferença entre o coeficiente de variação da cota piezométrica e da subpressão. Isso mostra que a subpressão é muito mais sensível as mudanças. O mínimo da subpressão de -1.545 refere-se ao instrumento instalado onde não há água, portanto a leitura está abaixo do ponto médio do bulbo, que é considerado a cota de instalação. A amplitude, também mostra que a variação da cota de instalação é de 29 msnm, enquanto que a amplitude da subpressão é de 23 msnm, ou seja, a cota de instalação é a maior responsável pela variabilidade da cota piezométrica. 4.2 Analise bidimensional Para a análise bidimensional das subpressões e da cota piezométrica, colocou-se os piezômetros em ordem de distância, estipulando-se como o primeiro piezômetro, localizado no ponto mais à esquerda da usina, como ponto inicial, e classificou-se em ordem os demais. Nas Figura (2) e (3) o eixo-x refere-se a estes piezômetros ordenados pela distância, enquanto
V Simposio de Metodos Numericos Computacionais
65
que o eixo-y é a variação temporal normalizada de cada piezômetro, começando em janeiro de 1995 até o máximo em dezembro de 2005. Para descrever a variação temporal, classificou-se o ponto mínimo de cada piezômetro, como valor 0 e marcados pela cor azul, e o ponto máximo da cada piezômetro como 1, marcado pela cor vermelha.
Figura 2: Distribuição espaço-temporal das subpressões normalizadas de 0 à 1 de 1995 à 2005.
MI D/I JD Figura 3: Distribuição espaço-temporal das subpressões normalizadas de 0 à 1 de 1995 à 2005, separados pela
sua localização.
Nas Figuras (2) e (3), percebe-se regiões com que variam suas subpressões de valores maiores para valores menores, como os piezômetros D-80 ao D-110 e o A-2 ao A-17. Também os piezômetros D-62 ao D-74 tiveram comportamento semelhante, tendo um pico máximo em 1997 e depois novamente aumentando a partir de 2003. Ainda podemos destacar instrumentos que não tiveram oscilações, como E-14, E-25, e E-6, todos localizado a jusante da cortina de injeção. Da mesma forma, houve piezômetros que tiveram oscilação constante, como A-25, D-13, D-8, D-44, D-117 e D-149, entre outros. 4.3 Analise tridimensional Para uma melhor visualização das analises acima, fez-se os gráficos tridimensionais, onde o
V Simposio de Metodos Numericos Computacionais
66
eixo-z é o tempo e os eixos-x e y são as localizações no plano. A Figura (4) mostra as cotas piezométricas, os maiores valores estão a esquerda, localizados próximos ao vertedouro, enquanto que os menores valores estão localizados no bloco E, a direita do grafico. Não percebe-se nenhuma variação ao lonto do tempo, parecendo que todos estão estáveis, isso se deve a dimensão da cota piezometrica, comparando-a com a variaçao da subpressão. Portanto estudar apenas as cotas piezométricas faz com que a oscilação seja mascarada.
Figura 4: Variabilidade espaço-temporal da cota piezométrica.
Para entender melhor se existe ou não variação espaço-temporal, estudou-se a Figura (5), que mostra a variação da subpressão. Nela, percebe-se que a região central, localizada no trecho D, tem maiores subpressões, enquanto os extremos que são os trechos A e E possuem menores subpressões, porém ainda não sendo possível ver a variação ao longo do tempo.
Figura 5: Variabilidade espaço-temporal da subpressão.
Assim, a mesma Figura (2) foi levada ao plano tridimensional, trocando o eixo-x da distância por sua localização espacial (x,y) e é mostrada na Figura (6), nela, pode-se perceber a localização dos piezômetros estudados nas Figuras (2) e (3).
V Simposio de Metodos Numericos Computacionais
67
Figura 6: Variabilidade espaço-temporal da subpressão normalizada.
4.4 Cota de localização e subpressões. A fim de entender melhor qual a localização de maiores subpressões e a variabilidade das mesmas, fez-se o gráfico abaixo, mostrado na Figura (7), onde o ponto em vermelho é a cota de instalação e o boxplot acima refere-se a cota piezométrica. A ordem do eixo-x é a mesma mostrada na figura (2). A distância entre a cota de instalação e o boxplot é a subpressão, portanto, caixas mais longe dos pontos significa piezômetros com maiores subpressões e boxplot maiores significam maior variação temporal das subpressões. Nesta figura percebe-se um aumento das subpressões entre os piezômetros nas localizações 15 a 33, que são: D-13, D-15, D-17, D-34, D-37, D-41, D-45, D-49, D-62, D-65, D-68, D-71, D-74, D-77, D-80, D-83, D-88, D-90 , e D-92, nessa ordem. Os piezômetros : D-13 e D-88 estão a montante da cortina de injeção, o restante destes estão durante a cortina de injeção. Também os piezômetros 34 ao 39 que referem-se aos instrumentos D-95, D-98, D-101, D-104, D-107 e D-110 possuem pouca subpressão, porém bastante variabilidade.
Figura 7: Cota de instalação e boxplot da cota piezométrica.
5 CONCLUSÕES
Este estudo buscou formas alternativas para o estudo da variabilidade espaço temporal, buscando relações entre a localização e os valores das subpressões, bem como com a variabilidade temporal. Os gráficos estudados foram eficientes no para mostrar o
V Simposio de Metodos Numericos Computacionais
68
comportamento da subpressão ao longo da Brecha D. Neles pode-se identificar as regiões com valores elevados de subpressão e regiões onde a subpressão é muito baixa, o mesmo ocorrendo com a variação temporal, podendo ser encontrada as regiões onde houve maior ou menor variação da subpressão. As Figuras (3) e (6) mostraram a em que momento ocorreu os picos de máximo e mínimo, bem como mostraram se a oscilação foi intensa ou ocorreu de maneira mais lenta.
REFERÊNCIAS
GUTIÉRREZ, J. L. C. Monitoramento da Instumentação da Barragem de Corumbá-I por Redes Neurais e Modelos de Box & Jenkins.2003. Dissertação de mestrado: Programa de Pós Graduação em Engenharia Civil da PUC-RIO., Rio de Janeiro, 2003. INTERNACIONAL ENGNEERING COMPANY, (IECO); ENERCONSUL ENGENHARIA LTDA, (ELC). Aproveitamento Hidrelétrico de Itaipu: Poço de grande diametro da
barragem lateral direita - Mapeamento geológico. n SAT 2021.50.1503-P. [S.l.], p. 10. 1977. ITAIPU BINACIONAL. Usina Hidrelétrica de Itaipu - Aspectos Técnicos de Estruturas
Civis. Foz o Iguaçu: Superintendência de Engenharia - Diretoria Técnica, 2008. 133 p. ITAIPU BINACIONAL. Itaipu: usina hidreletrica - projeto: aspectos de engenharia. Foz do Iguaçu, Paraná: [s.n.], 2009. 748 p. PATIAS, J. Zoneamento geotecnico com base em krigagem ordinario e equaçoes
multiquadricas: Barragem de Itaipu. Tese (Doutorado em Ciências) do Programa de Pós Graduação em Geotecnia, São Carlos, p. 319, 2010. SILVEIRA, J. F. A. Instrumentação e Comportamento de Fundação de Barragens de
Concreto. São Paulo: Oficina de Textos, 2003. VILWOCK, R. Técnicas de Agrupamento e de Hierarquização no Contexto de KDD -
Aplicação a Dados Temporais de Instrumentaçao Geotécnica-Estrutural da Usina
Hidrelétrica de Itaipu. Tese de Doutorado apresentada ao Programa de Pós Graduação de Métodos Numéricos em Engenharia - PPGMNE - UFPR, Curitiba, 2009.
V Simposio de Metodos Numericos Computacionais
69
V Simposio de Metodos Numericos Computacionais
MÉTODO PREDITIVO WAVELET ARIMA NEURAL
Resumo: O estudo tem por motivação a área de aplicação em monitoramento e segurança em barragens, busca-se fazer a previsão de séries temporais, para auxiliar na tomada de decisão da equipe responsável deste setor. Embora a auscultação de uma barragem seja realizada por diversos instrumentos, apenas o instrumento chamado piezômetro será utilizado. A metodologia híbrida proposta para a previsão da série temporal é composta pela Decomposição Wavelet (DW), empregada para o pré-processamento dos dados, método Autorregressivo Integrado Médias Móveis (ARIMA), aplicada para o ajuste de cada DW e Rede Neural Artificial Multilayer Perceptron (RNA-MLP), encarregada de ajustar os resíduos dos modelos ARIMA. É realizada a combinação linear tanto dos ajustes ARIMA quanto dos erros, os pesos da combinação são definidos a partir da resolução de um problema de programação não-linear. A metodologia apresentada possui uma configuração inovadora, por utilizar a DW no pré-processamento dos dados no modelo híbrido e também pela composição da combinação entre métodos de previsão. Palavras-Chave: Modelo Híbrido, Previsão de Séries Temporais, Piezômetro. 1 INTRODUÇÃO
Para assegurar integridade estrutural da Usina Hidrelétrica de Itaipu Binacional, foi realizado um grande projeto de monitoramento de toda a barragem e fundação. Os diferentes equipamentos instalados podem captar informações desde a cada minuto, hora, semana ou mês de acordo com o interesse. Essa característica periódica da coleta dos dados, faz com que sejam tratados como séries temporais, sendo assim pode-se realizar previsões. Existem vários métodos de previsão de séries temporais, tais como: Autoregressive Integrated Moving Average (ARIMA), que é robusta e capaz de modelar dados que possuem correlação de dependência linear e estacionárias; Redes Neurais Artificiais (RNA), que são capazes de modelar dados cujas relações são complexas não lineares (BOX; JENKINS; REINSEL, 2008). A Decomposição Wavelet (DW) é uma metodologia que aprimora os resultados obtidos, das ferramentas de previsão citadas acima. Este mecanismo decompõe a série em partes, possibilitando a análise dos dados em vários domínios. Isto é realizado hierarquicamente descrevendo-a de uma forma grosseira e outra detalhada, diferenciando características menos sutis e mais refinadas, efetuando um pré-processamento da série (RAVIKUMAR; TAMILSELVAN, 2014). Modelos híbridos ou combinações de vários modelos, tem se tornado um artifício comum (KHASHEI; BIJARI, 2011). O propósito destes é ultrapassar as limitações das componentes dos modelos usuais de previsão e aumentar a precisão das previsões. Isso se deve a sua capacidade de modelar dados com características lineares e não lineares (ZHU; WANG; FAN, 2014, JIURIAN;
Eliete Nascimento Pereira, Cassius TadeuScarpin, Luiz Albino Teixeira Junior
70
BINGFENG, 2013, KIA et al., 2012, VALENZUELAUm modelo híbrido composto por DW, ARIMAneste trabalho. Este tem comestacionárias, que possuem relaçõesresultados que os métodos aplicados isoladamente.O método ARIMA apreenderá as características contida nos resíduos da modelagem ARIMA(JIURIAN; BINGFENG, 2013)modelos será realizado por meio da combinação linear de pesos adaptativos, que serão definidos pela resolução de um problema de programação não linear, ao invés de uma simples soma de previsõesPara aplicação da metodologia foi selecionado o instrumento chamado piezômetrodados desta série irá auxiliar na tbarragem de Itaipu, em relação aindesejadas e recorrentes.
2 FUNDAMENTAÇÃO TEÓRIC
Nas subseções a seguir são apresentadasmetodologia proposta. 2.1 Modelo AutorregressivoO método ARIMA é um dos mais consagrados modelos lineares para previsão de séries temporais. Este método é largamente adotado em modelos híbridos, com o objetivo de elevar a capacidade de predição (BABU; REDDY, 2014; PEKTmodelo ARIMA faz a diferenciação da série temporal antes de modelátorná-la estacionária, viabilizando assim a aplicação do método Box e JenkinsREINSEL, 2008). O processo que gera a série temporal com média
t 0 1 t 1 2 t 2 p t p t 1 t 1 2 t 2 q t qy y y y
sendo d o número de diferenciações, pda parte de médias móveis do modeloindependentes e identicamente distribuídos com média zero e variância constante modelo por ARIMA (p,d,q) (MORETTIN; TOLOI2.2 Rede Neural Artificial Multilayer PerceptronA MLP é uma das RNAs utilizada na modelagem e previsão de séries temporais. listam os benefícios da RNA comocontinua com uma precisão arbitrária; imposição de poucas suposições para a sua aplicação; capacidade de generalização mesmo sendo aplicados em meios não estacionários e por fim utilizade menos parâmetros se comparado a outros métodos 2006; ZHANG, 2003). A MLP de três camadas produz bons ajustes para séries temporais constituída por: uma camada composta dos padrões de entrada, representados pelo conjunto de dados yt (t=1,...,T), a camada oculta de neurôniossinápticos e a camada de saída, que fornece a resposta da rede. Os pesos sinápticos fazem a ponderação do conjunto, mensurando sua importância em relação aneurônio da camada oculta. A soma das ponderações é utilizada na função de ativação Equação (2), para ativar as informações fornecidas à rede gerando então a saída da RNA 2001).
., 2012, VALENZUELA et al., 2008 e ZHANG, 2003)m modelo híbrido composto por DW, ARIMA e RNA Multilayer Perceptron (MLP)
tem como intuito ser aplicado a séries tanto estacionárias como não relações lineares ou não entre seus dados. Ademais
que os métodos aplicados isoladamente. método ARIMA apreenderá as características lineares da série, a RNA-MLP
contida nos resíduos da modelagem ARIMA. Essas duas previsões também são utilizadas por (JIURIAN; BINGFENG, 2013), a fim de melhorar a previsão obtida por ele, a associação dos modelos será realizado por meio da combinação linear de pesos adaptativos, que serão definidos pela resolução de um problema de programação não linear, ao invés de uma simples soma de previsões
o da metodologia foi selecionado o instrumento chamado piezômetrosérie irá auxiliar na tomada de decisão pelos especialistas em monitoramento de
em relação a ações preventivas ou investigações caso seja
FUNDAMENTAÇÃO TEÓRICA
resentadas sínteses dos métodos preditivos e da DW
Autorregressivo Integrado Médias Móveis O método ARIMA é um dos mais consagrados modelos lineares para previsão de séries temporais. Este método é largamente adotado em modelos híbridos, com o objetivo de elevar a capacidade de
BABU; REDDY, 2014; PEKTAŞ; CIGIZOGLU, 2013; WEDDING; CIOS, 1996)modelo ARIMA faz a diferenciação da série temporal antes de modelá-la, esta ação é necessária para
la estacionária, viabilizando assim a aplicação do método Box e Jenkins
O processo que gera a série temporal com média µ é apresentado na Equação (1)
t 0 1 t 1 2 t 2 p t p t 1 t 1 2 t 2 q t qy y y y
sendo d o número de diferenciações, p a ordem da parte autoregressiva do modeloda parte de médias móveis do modelo ()e t o erro aleatório. Os erros aleatórios são assumidos independentes e identicamente distribuídos com média zero e variância constante
MORETTIN; TOLOI, 2006). Rede Neural Artificial Multilayer Perceptron
A MLP é uma das RNAs utilizada na modelagem e previsão de séries temporais. como sendo: capacidade de aproximar qualquer função mensurável
continua com uma precisão arbitrária; imposição de poucas suposições para a sua aplicação; capacidade de generalização mesmo sendo aplicados em meios não estacionários e por fim utiliza
se comparado a outros métodos (COELHO; SANTOS, 2011; TURE; KURT,
A MLP de três camadas produz bons ajustes para séries temporais (HAYKINconstituída por: uma camada composta dos padrões de entrada, representados pelo conjunto de dados
a camada oculta de neurônios, que faz o processamento da informação a partir de pesos sinápticos e a camada de saída, que fornece a resposta da rede. Os pesos sinápticos fazem a ponderação do conjunto, mensurando sua importância em relação aneurônio da camada oculta. A soma das ponderações é utilizada na função de ativação
), para ativar as informações fornecidas à rede gerando então a saída da RNA
., 2008 e ZHANG, 2003). Multilayer Perceptron (MLP) é apresentado
aplicado a séries tanto estacionárias como não Ademais apresentar melhores
MLP a parte não linear . Essas duas previsões também são utilizadas por
rar a previsão obtida por ele, a associação dos modelos será realizado por meio da combinação linear de pesos adaptativos, que serão definidos pela resolução de um problema de programação não linear, ao invés de uma simples soma de previsões.
o da metodologia foi selecionado o instrumento chamado piezômetro, a previsão dos omada de decisão pelos especialistas em monitoramento de
caso seja previstas leituras
preditivos e da DW que compõem a
O método ARIMA é um dos mais consagrados modelos lineares para previsão de séries temporais. Este método é largamente adotado em modelos híbridos, com o objetivo de elevar a capacidade de
AŞ; CIGIZOGLU, 2013; WEDDING; CIOS, 1996). O la, esta ação é necessária para
la estacionária, viabilizando assim a aplicação do método Box e Jenkins (BOX; JENKINS;
é apresentado na Equação (1):
t 0 1 t 1 2 t 2 p t p t 1 t 1 2 t 2 q t q (1)
a ordem da parte autoregressiva do modelo ∅(), q a ordem rros aleatórios são assumidos
independentes e identicamente distribuídos com média zero e variância constante 2. Denota-se o
A MLP é uma das RNAs utilizada na modelagem e previsão de séries temporais. Alguns autores : capacidade de aproximar qualquer função mensurável
continua com uma precisão arbitrária; imposição de poucas suposições para a sua aplicação; capacidade de generalização mesmo sendo aplicados em meios não estacionários e por fim utilização
(COELHO; SANTOS, 2011; TURE; KURT,
HAYKIN, 2001). Ela é constituída por: uma camada composta dos padrões de entrada, representados pelo conjunto de dados
que faz o processamento da informação a partir de pesos
Os pesos sinápticos fazem a ponderação do conjunto, mensurando sua importância em relação a cada neurônio da camada oculta. A soma das ponderações é utilizada na função de ativação g conforme a
), para ativar as informações fornecidas à rede gerando então a saída da RNA (HAYKIN,
V Simposio de Metodos Numericos Computacionais
71
t 0 j 0 j i, j t iy w w g w w y
onde w0 e w0j são as bias da rede neural, wentrada, p é o números de neurônios da camada oculta.2.3 Decomposição Wavelet O termo wavelets, do inglês teve origem na palavra pequenas ondas, essas podem conter características assimétricas diferentemente das funções seno e cosseno, utilizadas na transformada de Fourier.De acordo com Kubrusly e Levan (2009), a(t=1,...,T) é dada pela Equação (3)
0 0t m ,n m ,n m,n m,n
n m m n
y a t d t
onde: a, são os coeficientes de aproximação e
função wavelet escala de níveis mque m é o parâmetro de aproximação e n parâmetro de detalhe.As componentes tanto de aproximação quanto de detalhe são calculadas pelo produto interno da função escala wavelet e a função
3 MATERIAIS E MÉTODOS
A série temporal adotada neste estudo é a deste instrumento datam de janeiro de 1986 a outubro de 2014podem ser apresentadas em metros de coluna d'água (mca) ou em(msnm). Por indicação dos engenheiros especialistas em monitoramento de barragensutilizada é mca. A série é não estacionária, suas características se alteram ao longo do tempoARIMA é utilizado. Entretanto a rede neural comportamento. A previsão um passo a frente é realizada para o instrumento citadoleituras indesejáveis ou normalidade na região onde o instrumento essas são de grande valia para a tomada de decisão no monitoramento de barragens.Uma série temporal real que não possui atributos puramente lineares ou não lineares dificulta modelagem através dos métodos citados antermodelos híbridos, cujo objetivo é a sua aplicação em qualquer tipo de série; além de visar a superação das limitações de aplicação do método ARIMA que é indicado à séries lineares e RNA séries não lineares (KHASHEI; BIJARI, 2011; ZHANG, 2003)Os modelos híbridos combinam métodos de previsão estatísticos e de inteligência artificial, podecitar como exemplo a utilização do método ARIMA e a RNA, cujo o propósito é atuar em características lineares e não linearesA metodologia proposta neste artigo é modelagem ARIMA e RNA-MLPpiezômetro, o tipo de waveletaproximação A e duas componentes de detalhe Daproximação A mantém basicamente o formato da série original e é representada na mesma faixa de valores, o que não ocorre com as componentes de detalhe.
q p
t 0 j 0 j i, j t ij 1 i 1
y w w g w w y
da rede neural, wj e wi,j são os pesos sinápticos; q é o número de nós de entrada, p é o números de neurônios da camada oculta.
, do inglês teve origem na palavra ondelette (onduletas), por serem formadas de
pequenas ondas, essas podem conter características assimétricas diferentemente das funções seno e cosseno, utilizadas na transformada de Fourier.
Kubrusly e Levan (2009), a decomposição wavelet de um estado da série temporal y(t=1,...,T) é dada pela Equação (3):
0 0
0
t m ,n m ,n m,n m,nn m m n
y a t d t
são os coeficientes de aproximação e d, os coeficientes de detalhe; a
escala de níveis m0 e n; ω,(t) representa a função wavelet de nívelque m é o parâmetro de aproximação e n parâmetro de detalhe. As componentes tanto de aproximação quanto de detalhe são calculadas pelo produto interno da
e a função wavelet pelos dados yt.
ATERIAIS E MÉTODOS
A série temporal adotada neste estudo é a série mensal do piezômetro PS-F-72 datam de janeiro de 1986 a outubro de 2014, representadas na
podem ser apresentadas em metros de coluna d'água (mca) ou em metros sobre o nível do mar (msnm). Por indicação dos engenheiros especialistas em monitoramento de barragens
, suas características se alteram ao longo do tempo, por esta razão o modelo ado. Entretanto a rede neural artificial também é capaz de lidar com este
é realizada para o instrumento citado. Esta poderá indicarindesejáveis ou normalidade na região onde o instrumento está instalado
essas são de grande valia para a tomada de decisão no monitoramento de barragens.não possui atributos puramente lineares ou não lineares dificulta
métodos citados anteriormente. Este fato estimulou o desenvolvimento de modelos híbridos, cujo objetivo é a sua aplicação em qualquer tipo de série; além de visar a superação das limitações de aplicação do método ARIMA que é indicado à séries lineares e RNA
(KHASHEI; BIJARI, 2011; ZHANG, 2003). ombinam métodos de previsão estatísticos e de inteligência artificial, pode
citar como exemplo a utilização do método ARIMA e a RNA, cujo o propósito é atuar em lineares da série.
A metodologia proposta neste artigo é híbrida, composta por decomposição waveletMLP. Primeiramente foi realizada a DW de nível
wavelet empregada foi a Haar. Obteve-se então uma componente de componentes de detalhe D1 e D2. Observa-se que na Figura
aproximação A mantém basicamente o formato da série original e é representada na mesma faixa de , o que não ocorre com as componentes de detalhe.
(2)
são os pesos sinápticos; q é o número de nós de
(onduletas), por serem formadas de pequenas ondas, essas podem conter características assimétricas diferentemente das funções seno e
um estado da série temporal yt
(3)
os coeficientes de detalhe; a ϕ,(t) é a
de nível m e n, sendo
As componentes tanto de aproximação quanto de detalhe são calculadas pelo produto interno da
de Itaipu. As leituras , representadas na Figura 1. Essas
metros sobre o nível do mar (msnm). Por indicação dos engenheiros especialistas em monitoramento de barragens a métrica
por esta razão o modelo também é capaz de lidar com este
Esta poderá indicar possíveis está instalado, informações como
essas são de grande valia para a tomada de decisão no monitoramento de barragens. não possui atributos puramente lineares ou não lineares dificulta sua
iormente. Este fato estimulou o desenvolvimento de modelos híbridos, cujo objetivo é a sua aplicação em qualquer tipo de série; além de visar a superação das limitações de aplicação do método ARIMA que é indicado à séries lineares e RNA à
ombinam métodos de previsão estatísticos e de inteligência artificial, pode-se citar como exemplo a utilização do método ARIMA e a RNA, cujo o propósito é atuar em
wavelet da série inicial, de nível = 2 da série do
então uma componente de ura 1 a componente de
aproximação A mantém basicamente o formato da série original e é representada na mesma faixa de
V Simposio de Metodos Numericos Computacionais
72
Figura 1 - Série temporal PS
Nesta fase houve a separação da amostra de treino e teste, sendo 80% dos dados utilizados para treino e 20% para teste. Cada componente ARIMA utilizando o software E-Após a modelagem ARIMA, a combinação linear dos ajustes de treino de cada componente, é realizada através de pesos adaptativos, como mostra a calculados a partir de um problema de programação não linear, cuja função objetivo é minimizar o MSE, sujeita a variáveis irrestritas
é o ajuste da Combinação partir do momento em que os pesos
2 1 2 2 1 2A D D RA RD Rsa
Função Objetivo : min MSE
: ; ; ; ; ; ; irrestrita
A fase seguinte da metodologia melhorar a qualidade do ajuste da série. Para tanto os resíduos são decompostos e cada componente da DW, serão os padrões de entrada da RNAEsta etapa foi realizada com o software Matlabfoi empregada, logo tem-se novamente, uma componente de aproximação e duas de detalhede tempo da rede é de tamanho cinco, padrão de entrada de tamanho quinze, cacomposta por seis neurônios, camada de saída com um neurônio. de treino da rede neural, denotado por O ajuste final de treinamento é composto, pela combinação linear do ajuste da
resíduos, por meio da RNA-MLP
(CWAN), na Equação (6). Novaproblema de programação linear
-5
15
35
55
75
95
1
15
29
43
57
71
85
Leit
ura
s (m
ca)
Série temporal PS-F-72 e sua decomposição wavelet Haar
Nesta fase houve a separação da amostra de treino e teste, sendo 80% dos dados utilizados para Cada componente wavelet de treinamento foi modelada at
-views. Após a modelagem ARIMA, a combinação linear dos ajustes de treino de cada componente, é realizada através de pesos adaptativos, como mostra a Equação (4). Os pesos desta fase são
um problema de programação não linear, cuja função objetivo é minimizar o MSE, sujeita a variáveis irrestritas Equação (5).
1 2, 1, 1, 2,
ˆ ˆ ˆˆCWA t A t D t D ty A D D
ombinação Wavelet ARIMA (CWA). O ajuste do treino pode ser determinadoos pesos da Equação (4) são definidos. pela Equação
2 1 2 2 1 2A D D RA RD R
m2
t 1,tt 1
D
1ˆFunção Objetivo : min MSE
: ; ; ; ; ; ; irrestrita
y ym
s
utiliza os resíduos do ajuste de treinamento. A partir demelhorar a qualidade do ajuste da série. Para tanto os resíduos são decompostos e cada componente da DW, serão os padrões de entrada da RNA-MLP.
software Matlab 2010. A DW Daubyechies 45 de nível p igual a dois se novamente, uma componente de aproximação e duas de detalhe
de tempo da rede é de tamanho cinco, padrão de entrada de tamanho quinze, cacomposta por seis neurônios, camada de saída com um neurônio. Gerou-se entãode treino da rede neural, denotado por e,.
composto, pela combinação linear do ajuste da
MLP, representado por y,, Combinação Wavelet
Novamente os pesos desta combinação são determinados pelo problema de programação linear semelhante a Equação (5).
, , ,ˆ ˆ ˆ
CWAN t CWA t N ty y e
85
99
113
127
141
155
169
183
197
211
225
239
253
267
281
295
309
323
337
Meses
Nesta fase houve a separação da amostra de treino e teste, sendo 80% dos dados utilizados para foi modelada através do modelo
Após a modelagem ARIMA, a combinação linear dos ajustes de treino de cada componente, é . Os pesos desta fase são
um problema de programação não linear, cuja função objetivo é minimizar o
(4)
ajuste do treino pode ser determinado a (5).
(5)
os resíduos do ajuste de treinamento. A partir deles deseja-se melhorar a qualidade do ajuste da série. Para tanto os resíduos são decompostos e cada componente
de nível p igual a dois se novamente, uma componente de aproximação e duas de detalhe. A janela
de tempo da rede é de tamanho cinco, padrão de entrada de tamanho quinze, camada escondida se então o resíduo do ajuste
composto, pela combinação linear do ajuste da CWA e o ajuste dos
Wavelet ARIMA Neural
são determinados pelo
(6)
PS-F-72
A
D1
D2
V Simposio de Metodos Numericos Computacionais
73
4 RESULTADOS OBTIDOS
Os dados da série temporal do PSanterior. Primeiramente foram ajustados o conjunto de treinamenutilizados no conjunto de teste. O ajuste dos dados de teste podem ser observados Nota-se que apenas a combinação das previsões das componentes melhorar o ajuste de teste. Lembrando que nesta fase é aplicada apenas a previsão através do ARIMA. Entretanto ao utilizar o ajseu resultado obtém uma precisão considerável até mesmo em comparação com o modelo ARIMA puro.
Figura
A Tabela 1 apresenta alguns métodos de comparação, entre modelos no caso o MAE. A verificação do ajuste de teste com a série inicial é feita pelo MSE.
Tabela
Ajustes ARIMA CWA
CWAN
Nota-se que a previsão CWAN obteve melhores resultados, comparandotabela. Este fato indica que o resíduo incluí-lo no ajuste da série, ocasiona
5 CONCLUSÕES
ARIMA e RNA-MLP são ferramentasgeralmente dependem das características específicas danecessário que algumas condições sejam satisfeitassendo ela linear ou não, é uma informação importante para a decisão de Esse aspecto da série não é facilmente identificado, sendo assim pode acarretar resultados não satisfatórios. A fim de contornar dificuldadevêm sendo propostos e aplicados, O modelo híbrido apresentado, além de ser composto por métodos tradicionais na área de previsão de séries temporais, também utiliza decomposição combinação linear das técnicas através de um problema de programação não linear.
58
60
62
64
66
68
70
72
74
1 3 5
Leit
ura
s (m
ca)
RESULTADOS OBTIDOS
Os dados da série temporal do PS-F-72, foram ajustados conforme o que foi descrito na seção anterior. Primeiramente foram ajustados o conjunto de treinamento e os pesos obtidos nesta etapa
O ajuste dos dados de teste podem ser observados se que apenas a combinação das previsões das componentes wavelet, não é o suficiente para
Lembrando que nesta fase é aplicada apenas a previsão através do ARIMA. Entretanto ao utilizar o ajuste dos resíduos por intermédio da RNA-MLP na combinaçãoseu resultado obtém uma precisão considerável até mesmo em comparação com o modelo ARIMA
gura 2 - Ajuste do conjunto de teste do PS-F-72
apresenta alguns métodos de comparação, entre modelos no caso o MAE. A verificação do ajuste de teste com a série inicial é feita pelo MSE.
Tabela 1- Comparação dos métodos de previsão
MAE MSE 0,729403 0,935273 0,553601 0,857801 0,377861 0,206208
se que a previsão CWAN obteve melhores resultados, comparando-se aos demais modelos da resíduo da série ainda possuem características a serem modeladas
ocasiona melhora do ajuste final da série.
MLP são ferramentas utilizadas na previsão de séries tempors características específicas das séries. Para a aplicação desses métodos é
necessário que algumas condições sejam satisfeitas, o tipo de correlação entre os dados da série, é uma informação importante para a decisão de qual modelagem utilizar.
Esse aspecto da série não é facilmente identificado, sendo assim pode acarretar resultados não satisfatórios. A fim de contornar dificuldades e limitações dos métodos citados,
sendo propostos e aplicados, seus resultados mostram-se promissores. O modelo híbrido apresentado, além de ser composto por métodos tradicionais na área de previsão de
também utiliza decomposição wavelet da série e a definição dos pesos daatravés de um problema de programação não linear.
7 9 11 13 15 17 19 21 23 25 27 29 31 33 35
Meses
PS-F-
CWA
CWAN
ARIMA
72, foram ajustados conforme o que foi descrito na seção os obtidos nesta etapa
O ajuste dos dados de teste podem ser observados na Figura 2. , não é o suficiente para
Lembrando que nesta fase é aplicada apenas a previsão através do método MLP na combinação,
seu resultado obtém uma precisão considerável até mesmo em comparação com o modelo ARIMA
apresenta alguns métodos de comparação, entre modelos no caso o MAE. A verificação
se aos demais modelos da da série ainda possuem características a serem modeladas e ao
as na previsão de séries temporais, seus resultados . Para a aplicação desses métodos é
relação entre os dados da série, qual modelagem utilizar.
Esse aspecto da série não é facilmente identificado, sendo assim pode acarretar resultados não e limitações dos métodos citados, os modelos híbridos
O modelo híbrido apresentado, além de ser composto por métodos tradicionais na área de previsão de definição dos pesos da
através de um problema de programação não linear.
-72
CWA
CWAN
ARIMA
V Simposio de Metodos Numericos Computacionais
74
O resultado obtido pela metodologia propostamodelagem ARIMA das componentes puro. Entretanto ao incluir a previsão da resultado foi aprimorado. Embora não tenha sido realizada uma investigação mais aprofundada em relação ao tipo de waveletse utilizar, os resultados obtidos serem ainda melhores em função da
AGRADECIMENTOS
A Capes e Fundação Araucária, pela bolsa de doutorado concedida a aluna Eliete Nascimento Pereira. Agradecimento também ao C(CEASB) e a Universidade Estadual o doutorado fora de cede do Programa de Pós
REFERÊNCIAS
BABU, C. N.; REDDY, B. E. A movingforecasting time series data. Applied Soft ComputingBOX, G. E. P.; JENKINS, G. M.; REINSEL, G. C. 2008. COELHO, L. D. S.; SANTOS, A. A. P. A RBF neural network model with GARCH errors: Application to electricity price forecasting. jan. 2011. HAYKIN, S. Redes Neurais - Principios E PráticaJIURIAN, H.; BINGFENG, S. The application of ARIMAforecast. 2nd International Conference oAnais...2013 KHASHEI, M.; BIJARI, M. A novel hybridization of artificial neural networks and ARIMA models for time series forecasting. Applied Soft ComputingKIA, A. N.; FATHIAN, M.; GHOLAMIAN, M. R. Using MLP and RBF Neural Networks to Improve the Prediction of Exchange Rate Time Series with ARIMA. Information and Electronics EngineeringMORETTIN, P. A.; TOLOI, C. M. 2006. PEKTAŞ, A. O.; CIGIZOGLU, H. K. ANN hybrid model versus ARIMA and ARIMAX models of runoff coefficient. Journal of HydrologyRAVIKUMAR, K.; TAMILSELVAN, Sprediction. Applied Mathematical SciencesTURE, M.; KURT, I. Comparison of four different time series methods to forecast hepatitis A virus infection. Expert Systems with ApplicationsVALENZUELA, O. et al. Hybridization of intelligent techniques and ARIMA models for time series prediction. Fuzzy Sets and SystemsWEDDING, D. K.; CIOS, K. J. Tifactors, and the Box-Jenkins model. ZHANG, G. P. Time series forecasting using a hybrid ARIMA and neural network model. Neurocomputing, v. 50, p. 159–175, jan. 2003. ZHU, L.; WANG, Y.; FAN, Q. MODWTMathematical Modelling, v. 38, n. 5
O resultado obtido pela metodologia proposta mostra-se promissora. Apenas a combinação da modelagem ARIMA das componentes wavelet não atingiu resultados melhores do que o ARIMA
Entretanto ao incluir a previsão da DW dos resíduos obtidos por meio da
realizada uma investigação mais aprofundada em relação ao tipo de wavelet são considerados satisfatórios. Existe a possibilidade dos resultados
es em função da wavelet adotada.
A Capes e Fundação Araucária, pela bolsa de doutorado concedida a aluna Eliete Nascimento Pereira. Agradecimento também ao Centro de Estudos Avançados de Segurança de Barragens (CEASB) e a Universidade Estadual do Oeste do Paraná Campus Foz do Iguaçu,o doutorado fora de cede do Programa de Pós-Graduação em Métodos Numéricos em Engenharia.
BABU, C. N.; REDDY, B. E. A moving-average filter based hybrid ARIMAApplied Soft Computing, v. 23, p. 27–38, out. 2014.
BOX, G. E. P.; JENKINS, G. M.; REINSEL, G. C. Time Series Analysis. 4. ed. New Jersey: Wiley,
COELHO, L. D. S.; SANTOS, A. A. P. A RBF neural network model with GARCH errors: Application to electricity price forecasting. Electric Power Systems Research, v. 81, n. 1, p. 74
Principios E Prática. 2. ed. Porto Alegre: Bookman, 2001. The application of ARIMA-RBF model in urban rail traffic volume
2nd International Conference on Computer Science and Electronics Engineering.
KHASHEI, M.; BIJARI, M. A novel hybridization of artificial neural networks and ARIMA models Applied Soft Computing, v. 11, n. 2, p. 2664–2675, mar. 2011.
; FATHIAN, M.; GHOLAMIAN, M. R. Using MLP and RBF Neural Networks to Improve the Prediction of Exchange Rate Time Series with ARIMA. International Journal of Information and Electronics Engineering, v. 2, n. 4, p. 2–5, 2012. MORETTIN, P. A.; TOLOI, C. M. C. Análise de Séries Temporais. 2. ed. São Paulo: Egard Blucher,
PEKTAŞ, A. O.; CIGIZOGLU, H. K. ANN hybrid model versus ARIMA and ARIMAX models of Journal of Hydrology, v. 500, p. 21–36, set. 2013.
RAVIKUMAR, K.; TAMILSELVAN, S. On the use of the wavelet decomposition for time series Applied Mathematical Sciences, v. 8, n. 58, p. 2874 2858, 2014.
TURE, M.; KURT, I. Comparison of four different time series methods to forecast hepatitis A virus ms with Applications, v. 31, n. 1, p. 41–46, jul. 2006.
VALENZUELA, O. et al. Hybridization of intelligent techniques and ARIMA models for time series Fuzzy Sets and Systems, v. 159, n. 7, p. 821–845, abr. 2008.
WEDDING, D. K.; CIOS, K. J. Time series forecasting by combining RBF networks, certainty Jenkins model. Neurocomputing, v. 10, n. 2, p. 149–168, mar. 1996.
ZHANG, G. P. Time series forecasting using a hybrid ARIMA and neural network model. 175, jan. 2003.
ZHU, L.; WANG, Y.; FAN, Q. MODWT-ARMA model for time series prediction. , v. 38, n. 5-6, p. 1859–1865, 2014.
promissora. Apenas a combinação da não atingiu resultados melhores do que o ARIMA
os resíduos obtidos por meio da RNA-MLP, o
realizada uma investigação mais aprofundada em relação ao tipo de wavelet a . Existe a possibilidade dos resultados
A Capes e Fundação Araucária, pela bolsa de doutorado concedida a aluna Eliete Nascimento entro de Estudos Avançados de Segurança de Barragens
do Paraná Campus Foz do Iguaçu, por tornar possível Graduação em Métodos Numéricos em Engenharia.
average filter based hybrid ARIMA–ANN model for 38, out. 2014.
. 4. ed. New Jersey: Wiley,
COELHO, L. D. S.; SANTOS, A. A. P. A RBF neural network model with GARCH errors: , v. 81, n. 1, p. 74–83,
. 2. ed. Porto Alegre: Bookman, 2001. RBF model in urban rail traffic volume
n Computer Science and Electronics Engineering.
KHASHEI, M.; BIJARI, M. A novel hybridization of artificial neural networks and ARIMA models 2675, mar. 2011.
; FATHIAN, M.; GHOLAMIAN, M. R. Using MLP and RBF Neural Networks to International Journal of
. 2. ed. São Paulo: Egard Blucher,
PEKTAŞ, A. O.; CIGIZOGLU, H. K. ANN hybrid model versus ARIMA and ARIMAX models of
. On the use of the wavelet decomposition for time series
TURE, M.; KURT, I. Comparison of four different time series methods to forecast hepatitis A virus
VALENZUELA, O. et al. Hybridization of intelligent techniques and ARIMA models for time series
me series forecasting by combining RBF networks, certainty 168, mar. 1996.
ZHANG, G. P. Time series forecasting using a hybrid ARIMA and neural network model.
ARMA model for time series prediction. Applied
V Simposio de Metodos Numericos Computacionais
75
V Simposio de Metodos Numericos Computacionais
ACESSO À INFORMAÇÕES DE FISSURAS EM ESTRUTURAS DECONCRETO EM CAMPO UTILIZANDO REALIDADE
AUMENTADA
Resumo: A tecnologia de realidade aumentada tem se tornado um recurso com grande potencial na área da en-genharia. Durante as fases iniciais do ciclo de vida das construções como projeto e concepção das construções, elavem sendo amplamente utilizada para visualização do projeto em campo, acompanhamento de cronograma, exe-cução de tarefas relacionadas com a construção, entre outras. Porém na fase de operação e manutenção, ainda setem muito a fazer. Estruturas de concreto exigem que sejam realizadas periodicamente inspeções para avaliação doestado de conservação das mesmas. Quando apresentam fissuras, devem ser monitoradas, visto que sua evoluçãopode ser indícios do comprometimento da estrutura, necessidade de manutenções ou intervenções. Neste contextoo artigo tem por objetivo apresentar um protótipo para acesso a informações de fissuras em estruturas de concretoem campo através do uso da realidade aumentada.
Palavras-Chave: realidade aumentada, fissuras, estruturas de concreto
1 INTRODUÇÃO
O setor da engenharia civil não pára e a cada dia surgem novas estruturas de concreto. É muitoimportante que seja garantida a segurança e o bom funcionamento destas estruturas com o mínimo demanutenções durante seu tempo de vida útil. Para tal é relevante que periodicamente sejam realizadasinspeções visuais com intuito de detectar indícios de patologias, como fissuras. Fissuras são importantesde serem detectadas, mapeadas e medidas e ainda é substancial que sua evolução seja acompanhadaValença et al. (2010).
Nos últimos anos, tem-se buscado meios de inovar a forma como são realizadas as inspeções, tirandoproveito das tecnologias atuais. Diversos métodos têm sido propostos para detecção, mapeamento emedições de fissuras utilizando, por exemplo, processamento de imagens e veículos não tripulados paraaquisição das imagens. Estes métodos geram inspeções ricas em informações e ainda obtém-se umgrande volume de dados históricos, fornecendo informações preciosas a respeito da evolução das fissurasnas estruturas. Acessar estas informações de forma adequada e em campo é muito importante, podendotornar o processo de avaliação e tomada de decisões mais eficiente. Neste contexto a realidade aumentadaé uma tecnologia vantajosa, já que mistura à realidade, informações virtuais, permitindo que dados eimagens coletadas ao longo do tempo e outras informações geradas a respeito de uma fissura coexistamno ambiente real, enriquecendo-o.
A realidade aumentada vem sendo amplamente utilizada nas mais diversas áreas, inclusive na área deArquitetura, Engenharia e Construção (AEC).
Fabiana Frata Furlan Peres, Sergio Scheer, Etore Funchal de Faria
76
Neste artigo é apresentado um protótipo de realidade aumentada para acesso à informações de fissurasem estrutura de concreto em campo, demonstrando mais uma aplicação desta tecnologia na área de AECe reforçando que é um recurso que viabiliza o bom aproveitamento do volume de dados extraído daedificação durante todo seu ciclo de vida, inclusive na fase de operação e manutenção.
2 REALIDADE AUMENTADA NA ENGENHARIA CIVIL
São infinitas as áreas potenciais para desenvolvimento de aplicações de realidade aumentada. Na áreade AEC onde são produzidos projetos, grandes volumes de dados e informações, o uso da realidade au-mentada pode trazer benefícios principalmente para a visualização/simulação, comunicação/colaboração,recuperação da informação e interação Rankohi and Waugh (2013) e Dong and Kamat (2013). Algu-mas aplicações desenvolvidas nesta área, para comunicação/colaboração são apresentadas em Shin andDuston (2009), Kwon et al. (2014) e Park et al. (2013). Em Kwon et al. (2014) e Park et al. (2013) sãodescritas aplicações de realidade aumentada voltadas também para a visualização de projetos e em Mezaet al. (2014) para o auxílio na execução de tarefas in situ, acompanhamento e atualização de cronogramase custos. Há ainda trabalhos como o de Wang et al. (2013) apresentando propostas para integrar a mo-delagem da informação da construção, do inglês, Building Information Modeling (BIM) com realidadeaumentada.
BIM tem por objetivo gerar um padrão preciso de modelagem da informação da construção de formadigital e integrada, idealizando a união das informações de uma edificação numa base de dados únicae compartilhada durante todo o ciclo de vida da edificação. Desta forma são muitos os benefícios emintegrar BIM e realidade aumentada, visto que BIM busca melhorar a qualidade da documentação que éproduzida a respeito da edificação, porém não trata de como esta documentação pode ser integrada emtempo real no local da construção, sendo que a realidade aumentada supre esta necessidade.
Apesar de haver muitos trabalhos buscando integrar realidade aumentada com AEC e BIM, eles nãoabrangem todas as fases do seu ciclo de vida, concentrando-se principalmente nas atividades relacionadascom as fases iniciais como de projetos e construções de edificações.
3 FISSURAS EM ESTRUTURAS DE CONCRETO
Fissuras podem ser os primeiros sinais da existência de uma possível falha estrutural, mas nem semprerepresentam anomalias graves Valença et al. (2010). Porém é muito importante detectá-las, mapeá-lase quantificá-las quanto a sua evolução ao longo do tempo. A seguir é apresentado o método tradicionalutilizado para caracterizar fissuras e outros métodos alternativos para tal.3.1 Métodos para Caracterização de Fissuras
O método tradicional utilizado para caracterização de fissuras consiste em fazer o esboço da fissura,com base em inspeção visual e registros fotográficos da mesma. A largura da fissura é avaliada com o usode uma lupa de aumento graduada ou então utilizando uma régua contendo espessuras padrão Valençaet al. (2010).
Com o desenvolvimento e popularização de diversas tecnologias computacionais, outros métodosalternativos ao tradicional têm sido propostos, como o CONCRACK que detecta, mapeia e mede auto-maticamente fissuras, permitindo ainda que seja monitorado a sua evolução Valença et al. (2010). Outroexemplo é o SurfCrete que além de caracterizar as fissuras, avalia outros tipos de danos em superficiesde concreto utilizando análise multiespectral Valença et al. (2012). Outros trabalhos similares propostossão descritos em Arena et al. (2014), Adhikari et al. (2014), Martins et al. (2013) e Yang et al. (2015).
Fazendo uso de algoritmos e métodos para análise de imagens, estes trabalhos que apresentam méto-dos alternativos, buscam automatizar partes ou todo o processo, apresentando vantagens em termos derapidez, eficiência, volume de informação obtida e até confiabilidade, já que os dados são processadosautomaticamente e não ficam sujeitos à erros do operador.
Um fator importante, não abordado nos trabalhos citados, refere-se a como fazer o acesso a estesdados no ambiente real onde ocorrem as inspeções.
A seguir é apresentado um protótipo (objeto deste artigo), que propõe utilizar realidade aumentadaem dispositivo móvel para disponibilizar o acesso aos dados das fissuras em tempo real, no ambiente
V Simposio de Metodos Numericos Computacionais
77
real misturando à realidade informações virtuais.
4 REALIDADE AUMENTADA X FISSURAS
A busca por métodos computacionais mais eficientes e automáticos de detecção, mapeamento emedições de fissuras, geram uma documentação muito mais rica em detalhes, completa e organizada.Porém é importante acessar estas informações no momento adequado, in situ durante as inspeções, pro-porcionando um aumento da realidade e permitindo a realização de uma inspeção mais eficaz e eficiente.A tecnologia que tem se apresentado adequada para este propósito é a realidade aumentada para dispo-sitivos móveis.
O protótipo apresentado neste artigo visa experimentar a tecnologia de realidade aumentada paradispositivo móvel no âmbito de fissuras em estruturas de concreto. Para isso tem sido utilizado no desen-volvimento deste protótipo, o framework Cordova e o plug in da Wikitude para Cordova. O frameworkCordova oferece APIs que permitem o desenvolvimento de aplicações para diversas plataformas móveisutilizando tecnologias HTML5, CSS e JavaScript. Sua principal vantagem é permitir o desenvolvimentode aplicações utilizando recursos nativos da plataforma, sem a necessidade de conhecer as especifici-dades destes recursos nativos, o que dificultaria o desenvolvimento multiplataformas. Desta forma aaplicação é codificada utilizando JavaScript, HTML5 e CSS.
Para disponibilizar o acesso aos dados e informações das fissuras no campo, através da realidadeaumentada, o protótipo utiliza a coordenada geográfica de cada fissura para definir o local do mundo realonde marcações (representada neste protótipo por alfinetes) devem ser inseridas (Figura 1), desta forma,para seu funcionamento é necessário o uso do GPS.
Foram atribuídas três cores distintas (verde, amarela e vermelha) para as marcações. Estas cores re-presentam o grau de atenção necessária a cada fissura. O grau de atenção é determinado pelo intervalo detempo passado desde a ultima inspeção, sua evolução e comprimento/abertura da fissura. As marcaçõesem vermelho destacam as fissuras que merecem maior atenção no momento, já as amarelas, aquelas emestado intermediário e as verdes, as fissuras cuja inspeção, evolução e características encontra-se sobcontrole. A Figura 1 apresenta uma tela do protótipo contendo marcações sob duas fissuras com grausde atenção diferentes. É possível ainda observar na mesma Figura, um radar no canto superior esquerdoindicando as fissuras contidas nas estruturas próximas a posição do observador.
Figura 1: Tela do protótipo de realidade aumentada contendo fissuras mapeadas e identificadas poralfinetes coloridos.
Alterando o valor definido no atalho ’Alcance’, conforme mostrado na Figura 2, é possível determinara distância máxima entre o observador e as fissuras que se deseja visualizar, excluindo assim informaçõesde fissuras que estejam muito distantes do observador. Outro recurso disponibilizado pelo protótipo é apossibilidade de aquisição de novas imagens da fissura através do atalho ’Captura de Imagem’.
V Simposio de Metodos Numericos Computacionais
78
Figura 2: Tela do protótipo de realidade aumentada apresentada quando deseja-se ajustar do raio dealcance máximo entre o observador e as fissuras visualizadas.
Quando uma fissura é selecionada pelo observador, na tela do dispositivo móvel, são mostradosmaiores detalhes sobre a mesma, como uma descrição geral, datas das inspeções com links para asrespectivas imagens obtidas no dia da inspeção, dados da abertura e comprimento da fissura. A Figura 3mostra um exemplo de tela apresentada quando é feita a seleção de uma fissura.
Figura 3: Tela do protótipo para apresentação de detalhes sobre a fissura selecionada.
Um outro recurso de grande utilidade e almejado pelo protótipo é o de poder visualizar a evoluçãoda fissura ao longo do tempo, com base nas informações coletadas até a data, sob a própria fissura domundo real. A Figura 4 mostra, em cores diferentes (preto e vermelho), o esqueleto da fissura nas duasultimas inspeções.
V Simposio de Metodos Numericos Computacionais
79
Figura 4: Tela do protótipo para visualização do esqueleto de uma fissura e sua evolução ao longo dotempo.
Este recurso apresentado na Figura 4, enriquece a visão do observador, dando a informação do realestado evolutivo de uma determinada fissura.
Com relação as dados e informações das fissuras utilizadas neste protótipo, vale ressaltar que sãofictícios e encontram-se armazenadas em um arquivo local no dispositivo móvel, para realização dostestes.
5 CONCLUSÕES
As inovações nos métodos da engenharia, introduzindo recursos computacionais, geram um grandevolume de dados histórico que somente faz sentido e é bem aproveitado se há exploração deste arcabolçode forma consistente e no momento necessário. A realidade aumentada tem se popularizado graçasaos avanços tecnológicos e vem sendo amplamente utilizada para acesso aos dados no contexto real.Este acesso aos dados no contexto real de fissuras viabiliza o bom aproveitamento do volume de dadosextraídos das estruturas de concreto, permitindo que haja maior eficiência e eficácia nas atividades deinspeção e até de possíveis manutenções.
REFERÊNCIAS
Adhikari R.S., Moselhi O., and Bagchi A. Image-based retrieval of concrete properties for bridge inpec-tion. Automation in Construction, 39:180–194, 2014.
Arena A., Piane C.D., and Saraout J. A new computational approach to cracks quantification from 2dimage analisys: Application to micro-cracks description in rocks. Computers & Geociencies, 66:106–120, 2014.
Dong S. and Kamat V.R. Smart: Scalable and modular augmented reality template for rapid developmentof engineering visualization applications. Visualization in Engineering, 2013.
Kwon O.S., Park C.S., and Lim C.R. A defect management system for reinforced concrete work utilizingbim, image-matching and augmented reality. Automation in Construction, 46:74–81, 2014.
Martins A.P., P. J.J.C., and Belini V.L. Image-based method for monitoring of crack opening on masonryand concrete using mobile platform. Ibracon Structures and Marerials Journal, 6:414–435, 2013.
Meza S., Turk Z., and Dolenc M. Component based engineering of a mobile bim - based augmentedreality system. Automation in Construction, 42:1–12, 2014.
Park C.S., Lee D.Y., Kwon O., and WANG X. A framework for proactive construction management usingbim, augmented reality and ontology-based data collection template. Automation in Construction,33:61–71, 2013.
V Simposio de Metodos Numericos Computacionais
80
Rankohi S. and Waugh L. Review and analysis of augmented reality literature for construction industry.Visualization in Engineering, 2013.
Shin D.H. and Duston P.S. Evaluation of augmented reality in steelcolumn inspection. Automation inConstruction, 18:118–129, 2009.
Valença J., Dias-da Costa D., Júlio E., and Araújo H. Desenvolvimento de um método inovador dedetecção e medição de fissuras em estruturas de betão. Encontro Nacional Betão Estrutural, 2010.
Valença J., Gonçauves L., and Júlio E. Avaliação automática de superfícies de betão com análise multi-espectral de imagem. Encontro Nacional Betão Estrutural, 2012.
Wang X., Love P.E.D., Kim M.J., Park C.S., Sing C.P., and Hou L. A conceptual framework for integrat-ing building information modeling with augmented reality. Automation in Construction, 34:37–44,2013.
Yang Y.S., Yang C.M., and Huang C.W. Thin crack observation in a reinforced concrete bridge pier testusing image processing and analisys. Advances in Engineering Software, 83:99–108, 2015.
V Simposio de Metodos Numericos Computacionais
81
V Simposio de Metodos Numericos Computacionais
ABORDAGEM NEURO/FUZZY/BAYESIANA APLICADA NA GESTÃO
DE SEGURANÇA DE BARRAGENS
Resumo: Este artigo tem como objetivo apresentar um método de detecção automática de
pontos de mudança em séries temporais geradas por instrumentos de monitoramento
envolvidos na gestão da segurança de barragens. A técnica de detecção utilizada é baseada
em uma formulação neuro/fuzzy/bayesiana dividida em três partes. A primeira etapa consiste
em uma clusterização dos pontos da série temporal a partir do desenvolvimento de um mapa
auto-organizável de Kohonen. Em seguida, é feita a construção de um conjunto fuzzy que
transforma a série temporal inicial, com distribuição arbitrária, em uma nova série cuja
distribuição de probabilidade pode ser aproximada por uma distribuição beta. Por fim, os
pontos de mudanças são detectados através de uma simulação de Monte Carlo via cadeias de
Markov. Esta metodologia é aplicada à séries temporais geradas por instrumentos de
monitoramento das estruturas de barramento da Usina Hidrelétrica de Itaipu, os quais
apresentaram pequenas mudanças no comportamento das medidas após a ocorrência do sismo
do dia 27 de fevereiro de 2010 com epicentro localizado no Chile, possibilitando a
identificação automática dos locais da barragem que necessitam de um monitoramento mais
específico.
Palavras-Chave: Segurança de Barragem, Redes Neurais, Conjuntos Fuzzy, Simulação
Monte Carlo.
1 INTRODUÇÃO
A construção de uma usina hidrelétrica é de grande importância para o desenvolvimento
de um país e demonstra grande capacidade da engenharia onde são envolvidos profissionais
de alta capacidade. No entanto, este é um tipo de obra que requer muita vigilância, a
possibilidade de ocorrer um comportamento que saia fora do esperado ou das previsões do
projeto pode resultar em consequências indesejáveis a níveis econômicos, ambientais e na
segurança de pessoas (SANTOS, 2006). No mundo todo a segurança de barragens é um
assunto muito debatido, e o Brasil mostra-se preocupado com a “saúde” de suas barragens.
Um fenômeno que merece atenção dos responsáveis pela segurança de uma barragem,
são os tremores de terras, gerados por sismos de grande ou pequena magnitude. A ocorrência
de um abalo sísmico, mesmo em um local distante da barragem pode gerar mudanças no
comportamento da sua estrutura. Com isso, um método para identificar de forma rápida quais
os pontos da barragem que sofreram influência do sismo é de grande valia para o
Fernando Mucio Bando, Jair Mendes Marques,Josiele Patias, Luiz Albino Teixeira Junior
82
gerenciamento da segurança da barragem.
A identificação da mudança de comportamento gerada por um sismo pode ser feita a
partir de análises visuais das séries temporais geradas pelos instrumentos de monitoramento
distribuídos conforme critérios de projeto ao longo das estruturas e suas fundações. Porém
uma quantidade elevada de instrumentos pode aumentar consideravelmente o tempo de
análise para ser feita de forma manual, portanto, este trabalho visa detectar de forma
automática quais as séries temporais apresentaram mudanças de comportamento após a
ocorrência do sismo, acelerando a identificação dos locais que mais requerem atenção de
monitoramento.
Muitas técnicas para a detecção de pontos de mudanças em séries temporais são
atualmente apresentadas em artigos científicos (HINKEY, 1971), (BARRY; HARTIGAN,
1993) e (LOSCHI; CRUZ, 2005). Porém, em geral as técnicas dependem de algum
conhecimento a priori do comportamento da série temporal, como modelos determinísticos
ou estatísticos. Entre estas técnicas podemos destacar: observador de Luenberger; filtro de
Kalman; redes neurais artificiais; e redes neuro-fuzzy.
Em algumas séries temporais, não é possível obter o conhecimento a priori necessário
para a aplicação das técnicas citadas. Um estudo atual que busca contornar esta situação é
apresentado no trabalho D’ANGELO et al. (2011a), onde é proposta uma formulação
neuro/fuzzy/bayesiana para a detecção de ponto de mudança em séries temporais sem
necessidade de se conhecer o comportamento a priori da série temporal.
Portanto, este artigo apresenta uma adaptação da formulação neuro/fuzzy/bayesiana de
detecção automática de ponto de mudança em séries temporais aplicada na identificação de
mudança de comportamento em dados gerados por instrumentos de monitoramento de
barragem. Como referência para a validação do método, foi aplicado em uma série temporal
que registrou mudança de comportamento após o abalo sísmico ocorrido em 27 de fevereiro
de 2010 no Chile.
2 SEGURANÇA DE BARRAGENS
O conceito de “Segurança de Barragens” envolve diversos aspectos, entre eles:
estruturais, hidráulicos, geotécnicos e operacionais. Estas características devem ser
consideradas no projeto e por toda a vida útil da barragem. Uma maneira de avaliar o
comportamento e a integridade de uma barragem é através de um sistema de instrumentação
capaz de monitorar o estado geotécnico e estrutural (SILVEIRA, 2003).
De acordo com SILVEIRA (2003), o principal objetivo de um plano de instrumentação é
garantir um nível de segurança adequado para uma barragem, ou seja, se as premissas
estabelecidas em projeto se mantém sob controle. O monitoramento através de instrumentos
possibilita a obtenção de dados quantitativos que permitem acessar informações
extremamente importantes, como pressão piezométrica, deformação, tensão e nível de água.
Porém, muitas vezes é necessária uma análise adequada dos valores gerados para detectar
uma condição crítica.
3 METODOLOGIA
Existem várias estratégias para tratar os problemas de detecção de mudança em séries
temporais, porém a maioria das técnicas apresentadas, necessita de um conhecimento a priori
do comportamento dos dados que descrevem a série temporal (ISERMANN, 1997).
Uma técnica que não se utiliza do conhecimento a priori da série temporal foi descrita
nos trabalhos D’ANGELO et al. (2011a), SOUZA et al. (2012) e D’ANGELO et al. (2014).
Essa metodologia se baseia na teoria dos conjuntos fuzzy associada com a estatística
bayesiana, e tem como principal contribuição uma abordagem que permite a detecção de
pontos de mudança em uma série temporal sem a necessidade de conhecer previamente os
V Simposio de Metodos Numericos Computacionais
83
modelos determinísticos ou probabilísticos que descrevam a coleção de dados.
O método é dividido em três passos:
1. Clusterização dos dados da série temporal através de um mapa auto-organizável de
Kohonen;
2. Construção de uma nova série temporal por meio de uma fuzzificação da série
temporal inicial;
3. Aplicação de uma simulação Monte Carlo via algoritmo Metropois-Hastings para a
determinação do ponto de mudança.
3.1 Clusterização via Rede de Kohonen
A metodologia escolhida para a clusterização dos dados é baseada em uma rede neural
auto-organizada de Kohonen (KOHONEN, 1990). A principal justificativa para a escolha da
clusterização dos dados via Rede de Kohonen, é dada pelo fato de que este método permite
um agrupamento adaptativo, isto é, que determina, além dos centros, uma quantidade
adequada de grupos, eliminando grupos desnecessários.
Como neste estudo, tem-se interesse em apenas séries temporais de uma única dimensão,
utiliza-se para a rede somente uma entrada. O número de neurônios é definido no início do
processo, e diminui no decorrer das iterações, através de um processo de eliminação por
critério de baixo desempenho, definido pelo número de associações com os elementos.
Também, no início do processo, é definido o número máximo de iterações e a taxa de
aprendizagem para a primeira etapa do método. Os pesos dos neurônios são igualmente
espaçados entre os valores máximo e mínimo da série temporal, e no final do processo, os
pesos dos neurônios que sobraram são definidos como sendo os centros dos clusters.
O treinamento da rede neural é não supervisionado e competitivo (KOHONEN, 1990).
Somente o peso do neurônio vencedor é ajustado, com isso o raio de vizinhança é
considerado sempre igual a 1. A taxa de aprendizagem é atualizada a cada iteração
variando de 0,1 até 0,01 de forma linear. Ao final do treinamento, os neurônios que tiveram
um baixo índice de desempenho, isto é, que venceram poucas vezes, são desconsiderados.
Este processo é repetido até que os neurônios que restaram, tenham todos desempenho
considerável. Após o processamento de todas as iterações, os neurônios que sobram são
definidos como os centros dos clusters para o próximo passo.
3.2 Fuzzificação da Série Temporal
Os métodos clássicos de agrupamentos separam os dados em categorias, entretanto em
muitos casos, alguns elementos não podem pertencer a uma categoria específica, pois
pertencem a duas ou mais categorias simultaneamente. A utilização dos métodos de
agrupamentos fuzzy é uma boa alternativa de resolver tal problema, pois assim, um elemento
pode pertencer a mais de uma categoria simultaneamente (PEDRYCZ, 1985).
Para o estudo aqui apresentado utilizou-se o método de agrupamento fuzzy para gerar
uma nova série temporal baseada nos centros de clusters definidos pela rede de Kohonen.
D’ANGELO et al. (2011b) mostraram de forma empírica, que mesmo sem ter qualquer
conhecimento a priori da série temporal original, a nova série gerada por agrupamento fuzzy
pode ser adequadamente aproximada por uma série com distribuição beta.
Desta maneira, dada uma série temporal e, considerando um inteiro positivo k, o
agrupamento fuzzy, consiste em definir um conjunto
que resolve o problema de minimização,
V Simposio de Metodos Numericos Computacionais
84
(1)
onde,
(2)
é o grau de pertinência fuzzy de em relação a cada centro .
O conjunto , que minimiza a expressão (1), é chamado conjunto
de centros da série temporal e neste artigo é definido através da clusterização via rede de
Kohonen apresentada anteriormente.
Como este trabalho busca encontrar apenas um ponto de mudança por vez (SOUZA et
al., 2012), então, apenas dois centros são encontrados a cada aplicação do método, e assim,
duas funções de pertinências são definidas, e . Para a próxima etapa do método,
precisa-se de apenas uma das funções de pertinência, neste artigo, utiliza-se a função .
Através de testes estatísticos conclui-se que a função pode ser aproximada por uma
função de distribuição beta com diferentes parâmetros de entrada, ou seja, uma distribuição
para e uma distribuição para . Onde o ponto é o ponto
de mudança da série temporal.
3.3 Algoritmo Metropolis-Hastings
Uma vez que as etapas anteriores transformam a série original, em uma nova série
temporal com uma função de distribuição de probabilidade beta, então, o novo modelo
estatístico fixado pode ser considerado em uma formulação bayesiana para estimar os
parâmetros da distribuição beta que se aproxima da nova série temporal, e com isso, estima-
se o parâmetro que é o próprio ponto mudança da série temporal (D’ANGELO et al.,
2011b). Nesta etapa, o algoritmo de Metropolis-Hastings, é utilizado para efetuar a simulação
Monte Carlo via cadeia de Markov com o fim de estimar os parâmetros.
Define-se uma cadeia de Markov da seguinte forma: Dado um vetor aleatório
, é escolhido um valor candidato de uma
distribuição com densidade . A função é conhecida como núcleo de
transição da cadeia e é uma função que depende de duas variáveis, do estado atual da cadeia
e do valor candidato .
O valor do candidato é aceito ou rejeitado dependendo do valor da probabilidade de
aceite dada por
(3)
Se o valor candidato é aceito, então , caso contrário . Deste modo, se o
valor candidato é rejeitado, a cadeia de Markov tem uma repetição na sequência. Assim, a
sequência forma uma cadeia de Markov com distribuição de equilíbrio .
Em termos práticos, o algoritmo Metropolis-Hastings é especificado sobre o fato de que
nas etapas anteriores a série temporal transformada segue a seguinte distribuição
para e
para .
V Simposio de Metodos Numericos Computacionais
85
Os parâmetros estimados pelo algoritmo são e o ponto de mudança . Para este
caso, a escolha dos valores iniciais é feita usando distribuições pouco informativas, no nosso
estudo:
.
Para a função de equilíbrio é utilizada a função densidade da distribuição
no cálculo dos parâmetros e :
(4)
e para o cálculo do parâmetro :
(5)
A função de verossimilhança de em relação aos parâmetros e é dada por
(6)
sendo a função gama.
Por fim, o valor estimado do parâmetro é considerado como sendo o ponto de
mudança da série temporal.
4 APLICAÇÃO: GESTÃO DE SEGURANÇA DE BARRAGEM
Itaipu é considerado um dos maiores projetos hidrelétricos do mundo, é resultado dos
esforços e empenho de dois países vizinhos, Brasil e Paraguai. Encontra-se localizado no rio
Paraná, onde os dois países fazem fronteira, 14 km a montante da ponte internacional que liga a
cidade de Foz do Iguaçu, no Brasil, à Ciudad del Este, no Paraguai (ITAIPU: USINA
HIDRELÁTRICA, 2009).
Entre 2006 e 2010, a rede sismográfica de Itaipu registrou sete telessismos (eventos
localizados a uma distância epicentral acima de 1500 km da estação de registro) importantes.
Dentre estes, os terremotos de Pisco-Peru e Maule-Chile merecem destaques. Além de ambos
serem detectados pela rede sismográfica, eles também foram acusados por alguns
instrumentos do sistema de auscultação de Itaipu. Na ocasião, verificou-se que alguns
instrumentos do sistema de monitoramento das barragens de Itaipu registraram mudanças em
seu comportamento padrão que podem estar relacionadas com estes eventos (BARROS et al.,
2010).
Para a aplicação da metodologia, é utilizado neste trabalho os dados do piezômetro
denotado por PS-D-21. O conjunto de dados gerado pelo piezômetro produz uma série
temporal com 48 pontos referentes às medidas realizadas de trinta em trinta minutos no dia da
ocorrência do sismo do Chile (Figura 1).
Para mostrar que a abordagem neuro/fuzzy/bayesiana proposta neste trabalho detecta de
forma automática os pontos de mudança em séries temporais, foi implementado um algoritmo
no software MATLAB R2011 baseado na metodologia descrita anteriormente e aplicado na série
temporal gerada pelo piezômetros PS-D-21. O algoritmo foi programado para ser executado
em cinco etapas, gerando resultados numéricos e gráficos a cada uma delas.
Os resultados gráficos estão ilustrados na Figura 2 e possuem a seguinte interpretação: O
V Simposio de Metodos Numericos Computacionais
86
gráfico (a) apresenta os resultados da clusterização via redes de Kohonen (Seção 3.1), onde
são definindos os centros, C1 e C2, que são utilizados na segunda etapa do método. Os gráfico
(b) representa as funções de pertinências, e , obtidas após o processo de fuzzificação da
série temporal (Seção 3.2). De acordo com a teoria descrita, as novas séries temporais, e
, podem ser descritas por uma distribuição beta de parâmetros (a,b,c,d,m), que podem ser
estimados através da simulação Monte Carlo.
Figura 1: Leituras automáticas do piezômetro PS-D-21 (contato concreto-rocha) – sismo Chile (27/02/2010).
O gráfico (c) mostra o resultado de 1000 estimativas do parâmetro m definidas pelo
algoritmo Metropolis-Hasting (Seção 3.3), determinando uma Cadeia de Markov, assim, tem-
se que o valor estimado que ocorre com maior frequência é a melhor estimativa para o
parâmetro m. Em seguida, o histograma (d) apresentam a distribuição de frequência dos
valores estimados pelo algoritmo Metropolis-Hasting, indicando a melhor estimativa para o
m. Por fim, como foi descrito na seção 3.3, o valor estimado para é considerado como
sendo o instante de mudança da série temporal, objetivo final da metodologia e, é plotado
(ponto vermelho) junto ao gráfico da série temporal (gráfico (e)).
Figura 2: Resultados gráficos da aplicação da metodologia proposta.
Assim, tem-se que a metodologia detectou que a séries temporal PS-D-21 sofreu
mudança de comportamento após a oitava medida do dia 27/02/2010, que é relativo a medida
registrada no instrumento às 03:30 horas. Como é fato de que o sismo no Chile ocorreu por
V Simposio de Metodos Numericos Computacionais
87
volta das 03:34:08, tem-se a confirmação de que a metodologia identificou a mudança no
comportamento gerada pelo sismo.
5 CONCLUSÕES
Neste artigo, foi proposto um método de detecção de pontos de mudança em séries
temporais aplicado a dados gerados por instrumentos de monitoramento usados no
gerenciamento da segurança de uma barragem. A associação de conceitos de redes neurais
artificiais, conjuntos fuzzy e inferência bayesiana, apresentada no método, mostrou-se
eficiente, permitindo a identificação de mudanças em séries temporais, sem a necessidade de
conhecimento a priori do conjunto de dados, além de possibilitar a detecção de mudanças
incipientes.
A aplicação do método em dados reais envolvidos no monitoramento da segurança de
barragens, confirma a importância de uma ferramenta para avaliar de forma automática as
mudanças em conjuntos de dados. No caso de Itaipu, em que cada novo evento sísmico, esta
empresa necessita revisar manualmente a mudança de comportamento em um número muito
grande de instrumentos, a utilização da metodologia é de enorme interesse, pois aceleraria as
decisões a serem tomadas em relação ao gerenciamento da segurança de sua barragem.
REFERÊNCIAS
BARROS, L. V.; PATIAS, J.; CAIXETA, D. F. Effects of Large Andean Earthquakes in the
Itaipu Binational Dam. Foz do Iguaçu, Brasil: American Geophysical Union, 2010.
BARRY, D.; HARTIGAN, J. A. A Bayesiana Analysis for Chance Point Problems. Jornal of
the American Statistical Assossiation, v. 88(421), p. 309–319, 1993.
D’ANGELO, M. F. S. V et al. Fault detection in dynamic systems by a Fuzzy/Bayesian
network formulation. Applied Soft Computing Journal, v. 21, p. 647–653, 2014.
D’ANGELO, M. F. S. V. et al. Fuzzy/Bayesian change point detection approach to incipient
fault detection. [s.l.] IET Control Theory and Applications, v. 5, p. 539, 2011. v. 5
D’ANGELO, M. F. S. V. et al. Incipient fault detection in induction machine stator-winding
using a fuzzy-Bayesian change point detection approach. Applied Soft Computing, v. 11, p.
179–192, 2011.
HINKEY, D. V. Inference About the Change From Cumulative Sum Test. Biometria, v. 26,
p. 279–284, 1971.
ISERMANN, R.; BALLE, P. Trends in the Application of Model-Based Fault Detection and
Diagnosis of Technical Processes. Control Engineering Practice, v. 5 (5), p. 707–719, 1997.
ITAIPU: USINA HIDRELÉTRICA. Projeto: Aspectos de Engenharia. Foz do Iguaçu - PR:
[s.n.].
KOHONEN, T. The self-organizing map. [s.l.] Proceedings of the IEEE, v. 78, n. 9, p. 1464-
1480, 1990. v. 78
LOSCHI, R. H.; CRUZ, F. R. B. Extension to the Product Partition Model: Computing the
Probability of a Change. Computational Statistics and Data Analysis, v. 42(2), p. 255–268,
2005.
PEDRYCZ, W. Fuzzy Clustering with Partial Supervision. Pattern Recongnition Letters, v. 3
(1), p. 13–20, 1985.
SANTOS, R. N. C. DOS. Enquadramento das Análises de Riscos em Geotecnia. . 2006, p.
281.
SILVEIRA, J. F. A. Instrumentação e Comportamento de Fundações de Barragens de
Concreto. São Paulo - SP: Oficina de Textos, 2003.
SOUZA, R. et al. Atualização de Distribuições de Probabilidade e Taxas de Confiabilidade
Utilizando Técnicas de Detecção de Falhas, Anais…XIX Congresso Brasileiro de
Automática, CBA. Campina Grande: 2012.
V Simposio de Metodos Numericos Computacionais
88
V Simposio de Metodos Numericos Computacionais
ANÁLISE DA REMODELAÇÃO ÓSSEA UTILIZANDO H-
ADAPTATIVIDADE EM UM MODELO BIDIMENSIONAL DE UM
FÊMUR HUMANO
Resumo: Vários são os modelos desenvolvidos com o intuito de simular o tecido ósseo, visto
que este possui um comportamento complexo e que é capaz de alterar suas propriedades ao
longo do tempo, através de um processo denominado remodelação óssea. Como ferramenta
para simulação de tal processo, utiliza-se o Método dos Elementos Finitos, o qual devido sua
natureza numérica, apresenta erros de aproximação. Diferentes estimadores de erro são
desenvolvidos com o objetivo de avaliar o erro localmente na malha, possibilitando assim, a
utilização de uma estratégia h-adaptativa. Dessa forma, para uma melhor caracterização da
distribuição de densidades de um fêmur humano, estimam-se os erros locais no campo de
tensões e aplica-se uma estratégia h-adaptativa para geração de uma nova malha que busque
um erro limitado para cada elemento. A distribuição convergente de densidades mostra que
com a utilização dessas ferramentas, é possível obter uma caracterização próxima a de um
fêmur humano.
Palavras-Chave: Remodelação óssea, Estimativa de erro a posteriori, H-adaptatividade,
Método dos Elementos Finitos.
1 INTRODUÇÃO
O tecido ósseo é um material vivo de alta complexidade, capaz de modificar sua estrutura
interna e se adaptar a diferentes esforços a que está submetido (LEMAIRE et al., 2004). O
processo de modificação das propriedades da estrutura interna é denominado remodelação
óssea. Vários modelos matemáticos são desenvolvidos e implementados utilizando o Método
dos Elementos Finitos (MEF) com o intuito de simular o processo de remodelação do tecido
ósseo (JACOBS et al., 1995; DOBLARÉ e GARCÍA, 2001; MCNAMARA e
PRENDERGAST, 2007; SOUZA, 2009).
O MEF tem como função a obtenção do campo de tensões, ou seja, do estímulo mecânico
responsável pela modificação das propriedades ao longo do fêmur. Frisa-se a importância do
cálculo de um campo de tensões preciso, uma vez que este influencia diretamente na variável
primária do processo de remodelação óssea. Dessa maneira, devido à natureza do processo
numérico, a presença de erros é inevitável e questões fundamentais são: Quais são os erros
relativos ao MEF? Como o erro pode ser medido, controlado e efetivamente minimizado?
São várias as fontes de erros presentes no MEF, entre as quais é possível citar erros de
Jederson da Silva, Jose Eduardo Gubaua, GabrielaWessling Oening Dicati, Jucelio Tomas Pereira
89
aproximação de domínio, de aritmética finita e quadratura e erros de aproximação (REDDY,
2006). O presente trabalho trata da estimativa de erros de aproximação, as quais podem ser
divididas, em geral, em duas categorias principais: estimativas de erro a priori e a posteriori
(AINSWORTH e ODEN, 2000). Um dos tipos de estimadores de erro a posteriori baseia-se
em utilizar a própria solução numérica para obter uma solução recuperada e, a partir desta,
realizar a estimativa dos erros (ZIENKIEWICZ e ZHU, 1987). Estes são denominados
estimadores de erro baseados em recuperação, os quais são empregados para obtenção do erro
local. Desta maneira, esta categoria pode ser utilizada para desenvolver estratégias
adaptativas (PRUDHOMME et al., 2003), as quais podem ser divididas basicamente em
refino p, refino r e refino h, sendo que este implica na modificação dos tamanhos
elementares, de modo a obter a precisão desejada em todo o domínio (ZHU e
ZIENKIEWICZ, 1988).
Dessa maneira, objetiva-se controlar e mitigar os erros ao longo de um processo de
remodelação óssea de um modelo bidimensional de um fêmur humano, através da aplicação
de um estimador de erro baseado em recuperação (Estimador fundamentado na Média Nodal
Simples (MNS)), em conjunto com uma estratégia h-adaptativa. A modificação das
propriedades do tecido ósseo é realizada utilizando o modelo de remodelação isotrópico de
Stanford (JACOBS et al., 1995) e para discretização do modelo, utiliza-se elementos
triangulares lineares (CST).
2 REVISÃO TEÓRICA
Nesta seção é apresentada uma breve descrição em relação ao modelo de remodelação
óssea, ao processo de estimativa de erro baseado no estimador MNS e a estratégia adaptativa
adotada para o controle e minimização do erro ao longo do domínio.
2.1 Modelo Isotrópico de Stanford
O modelo isotrópico de Stanford (JACOBS et al., 1995) foi desenvolvido com base no
trabalho de BEAUPRÉ et al. (1990), e utiliza a densidade de energia de deformação como
estímulo mecânico. Este é determinado a partir das tensões e avaliado perante um valor de
referência. Quando o estímulo for maior, existirá uma formação de tecido e quando for
menor, existirá reabsorção óssea. O modelo incorpora a zona morta proposta por Wolff e
definida por CARTER (1984), a qual é um intervalo onde o estímulo não gera modificações
nas propriedades do material.
2.2 Estimativa do erro baseado na norma em energia
Em uma análise numérica de um problema de engenharia pode-se definir o erro como a
diferença entre a solução exata (u ) e a solução aproximada obtida pelo MEF ( u ). Assim, no
caso de elasticidade, a função erro medida em deslocamentos ue é dada por
(ZIENKIEWICZ e TAYLOR, 2000)
ˆ . u
e u u (1)
Diversas normas representando uma quantidade escalar do erro são introduzidas para que o
erro seja medido de uma forma adequada. Utilizar-se-á neste trabalho a norma do erro em
energia para quantificar o erro em cada região. Este conceito foi inicialmente introduzido por
ZIENKIEWICZ e ZHU (1987) e, para problemas da elasticidade, pode ser obtida como
12
T
-1ˆ ˆe D d ,
(2)
onde e é o erro medido em energia, o campo de tensões aproximado pelo MEF e D o
tensor constitutivo. Ressalta-se que, para o corrente problema, além da variação proveniente
entre o campo de tensões recuperado e o original, busca-se computar a variação relativa a
V Simposio de Metodos Numericos Computacionais
90
oscilação das propriedades. Para isso, o tensor constitutivo D é calculado separadamente
para cada elemento, sendo expresso por
γ
0ρD D , (3)
onde é a densidade elementar, 0D é o tensor constitutivo linear e é um expoente
característico do material (neste caso, =3).
Para descrever o comportamento de problemas de análises de tensões é conveniente definir
uma medida percentual do erro medido pela norma da energia, conhecido como erro relativo
percentual em energia , na forma
100% e
,u
(4)
onde u representa uma medida da energia total acumulada no sistema.
Porém, como a solução exata u não é conhecida e, consequentemente, as tensões, pode-se
utilizar uma solução recuperada , que possua uma taxa de convergência superior à solução
obtida diretamente pelo MEF, . Deste modo, a norma do erro em energia, obtida em relação
à solução recuperada, pode ser escrita como
1
2T
-1
ˆ ˆe D d .
(5)
2.3 Estimador baseado na Média Nodal Simples (MNS)
Este estimador consiste inicialmente na obtenção do gradiente da solução, por exemplo, o
campo de tensões em cada elemento. Considerando que cada nó é compartilhado por um
número Nel de elementos, pode-se estimar o vetor de médias nodais das tensões recuperadas
( *
m ) para o nó como (COOK et al., 2001)
Nel
*
m i jj 1
1ˆ ,
Nel
(6)
onde i j é o vetor de tensões obtidos via MEF para o i-ésimo nó do j-ésimo elemento do
conjunto.
Após a obtenção de todos os vetores de médias nodais das tensões, um campo
suavizado e contínuo entre os elementos pode ser construído através da utilização das
mesmas funções de forma elementares ( ) empregadas para interpolar o campo de
deslocamentos. Com isso, a parcela de um campo de tensões suavizadas sobre um elemento
pode ser escrita como
* *, (7)
onde * é a função vetorial das tensões suavizadas no elemento e * é o vetor nodal das
tensões recuperadas para o elemento em questão. Logo, aplicando o conceito de norma em
energia (Eq. (5)) a nível elementar, é possível computar os erros localmente. Ressalta-se que
este estimador possui desempenho satisfatório quando utilizado elementos lineares em um
problema de elasticidade plana, além de sua simplicidade de sua implementação (SILVA,
2015).
2.4 Critério de equidistribuição do erro elementar
Neste caso, espera-se que o erro relativo percentual em energia para uma malha m seja
menor ou igual a um valor admissível . Ou seja, dada uma malha m , onde
m , (8)
busca-se uma malha m 1 tal que
V Simposio de Metodos Numericos Computacionais
91
m 1 . (9)
Como critério de malha ótima, este trabalho emprega a condição de equidistribuição do erro
em energia (ZIENKIEWICZ e ZHU, 1987). Para uma estimativa a posteriori do erro, um
limite superior para o mesmo pode ser posto como
min(p,λ)Ch ,e (10)
onde e representa a norma em energia, C é uma constante, h representa o tamanho de um
elemento finito, p é a ordem polinomial do elemento e é um parâmetro que define o tipo
de singularidade. Considerando que esta equação de projeção para o erro é válida para a
malha corrente m e para a próxima malha m 1 , obtém-se uma estimativa para o novo
tamanho do elemento newh na forma
el,oldold
new 1p
el,new
hh onde ,
e
e (11)
sendo el,old
e o erro para um elemento el na malha corrente com o tamanho de elemento
oldh , el,new
e o erro para um elemento el na malha m 1 . Neste caso, é um parâmetro de
refino que indica se a malha será (para 1 ) ou não (para 1 ) refinada. Considerando a
condição de equidistribuição, o erro máximo admissível para cada elemento pode ser
calculado como
11 2 222 2 *
el,new
ˆ,
Nel Nel
u eue (12)
onde *e é o erro total na norma em energia calculado por
Nel
2 2* *
elel 1
e e (13)
e u é a medida da energia total acumulada. Supondo que a solução analítica não é
conhecida, utiliza-se para o cálculo de u o conceito de que o erro é ortogonal a solução
aproximada (CIARLET, 2002). Nesse caso,
22 2 *ˆ , u u e (14)
sendo 2
u calculado por
2 Tˆ ˆ ˆ d .
u σ Dσ (15)
3 IMPLEMENTAÇÃO COMPUTACIONAL
A formulação isotrópica para remodelação óssea é implementada em um conjunto de rotinas
no software Matlab, através de um modelo bidimensional de um fêmur humano, o qual é
discretizado inicialmente em 1052 elementos do tipo CST resultando em 618 nós. As
condições de contorno de Dirichlet, as constantes do processo de remodelação e o
carregamento são os mesmos utilizadas por JACOBS et al. (1995). Neste, as magnitudes das
forças na articulação do quadril e musculares para os diferentes casos de carga são: 1, 2317 N
e -702 N; 2, 1158 N e -351 N; 3, 1548 N e -468 N. E suas respectivas direções em relação ao
eixo vertical são: 1, 24° e 28°; 2, 15° e 8°; 3, 56° e 35°. Estas forças simulam um passo de
uma caminhada (momento do contato do pé a superfície, adução e abdução) e são divididas
V Simposio de Metodos Numericos Computacionais
92
conforme o número de elementos existente no segmento referente à cabeça femoral ou ao
trocanter maior, e aplicadas de forma constante sobre os mesmos. O processo de remodelação
é incremental no tempo e utiliza o algoritmo de Euler e resume-se, a:
(i) solução do problema pelo MEF obtendo o campo de deslocamentos;
(ii) Obtêm-se as tensões e os estímulos mecânicos para cada ponto de integração;
(iii) aplicação do processo de remodelação;
(iv) verificação do critério de convergência relativo a oscilação do campo de densidades (se
satisfeito prossegue para o passo (v), caso contrário, retorna ao passo (i));
(v) estimativa dos erros para cada carregamento que compõe o ciclo de carga;
(vi) verificação do critério de convergência relativo ao erro admissível global (se satisfeito,
encerra o processo e salva os resultados, caso contrário, prossegue para o passo (vii));
(vii) aplicação do processo h-adaptativo e geração da nova malha;
(viii) recuperação do campo de densidades e retorna ao passo (i);
Devido ao alto custo computacional, o erro admissível é limitado em 20%. Além disso, são
adotados limites para o campo de densidades, sendo o valor máximo de 2,0 g/cm³ e o mínimo
de 0,2 g/cm³ referentes ao tecido cortical e trabecular respectivamente.
Considera-se que uma solução satisfaz o critério de convergência relativo a oscilação do
campo de densidades quando a norma da diferença entre dois campos consecutivos é menor
ou igual a uma tolerância. Neste caso, esta é uma medida do tamanho do problema
(densidade cortical multiplicada pela raiz do número de elementos que compõe a malha)
multiplicado por 510 . Limita-se o processo de remodelação a aplicação de 500 ciclos de
carga. Outro critério é quando há convergência relativa ao erro admissível, o qual é satisfeito
caso o máximo erro relativo percentual for menor ou igual ao erro admissível.
4 EXEMPLO NUMÉRICO E DISCUSSÕES
Uma das dificuldades encontradas durante a aplicação da análise de erro e estratégia h-
adaptativa ao processo de remodelação óssea, está associada a aplicação do ciclo de carga.
Deste modo, para cada carregamento, estimam-se os erros elementares (os quais fornecem
uma medida percentual global do erro ()) e o novo tamanho de cada elemento. Assim, dada
uma malha fixa e uma configuração convergente de densidades, obtêm-se três medidas
globais distintas para o erro e consequentemente, três medidas do novo tamanho de cada
elemento. Neste caso, considera-se o tamanho elementar mínimo estimado para geração da
nova malha, restringindo-o em aumentar ou diminuir em até três vezes o seu tamanho atual.
A Figura 1 expõe as medidas percentuais globais do erro ao fim de cada aplicação do
processo de remodelação e também, o erro estimado para a nova malha logo após a
recuperação do campo de densidades. Estas medidas fazem referência as três cargas
aplicadas, sendo definidas como: um erro relativo percentual global mínimo ( mín ), máximo
( máx ) e médio ( méd ).
Outra dificuldade, refere-se à modificação das propriedades do tecido ósseo. Neste caso, após
a convergência do critério relativo a oscilação do campo de densidades para a malha inicial,
os novos tamanhos elementares são estimados considerando a distribuição corrente. Na
sequência, obtém-se um campo de densidades recuperado para a nova malha e então, um
novo processo de remodelação é iniciado. Ao final, o campo de densidades convergente
apresenta diferentes propriedades do inicial, caracterizando uma forte dependência da solução
em relação à malha utilizada (Figura 2a).
Assim, a convergência do critério relativo ao erro admissível global é dificilmente alcançada.
Desta forma, opta-se por limitar o número de iterações adaptativas a duas.
A Figura 2a apresenta as malhas inicial e duas seguintes resultantes do processo h-adaptativo
V Simposio de Metodos Numericos Computacionais
93
e seus respectivos campos de densidade. Além disso, são apresentados os erros elementares
referente a estes campos para os três diferentes tipos de carregamento aplicados a cada ciclo
de carga (Figura 2b, 2c e 2d).
Figura 1. Erro relativo percentual global em função do número de elementos.
Figura 2. Resultados do processo adaptativo aplicado à remodelação óssea. (a) Campos de densidade resultantes.
Distribuição dos erros para: (b) o primeiro, (c) segundo e (d) terceiro campos de densidades obtidos.
5 CONCLUSÕES
O presente trabalho teve como objetivo a aplicação de um estimador de erro baseado em
recuperação (MNS) em conjunto com um processo h-adaptativo, em uma análise de
remodelação óssea bidimensional. Deste modo, um processo automático para obtenção de
uma malha que possibilite uma melhor caracterização do fêmur humano é inicializado,
V Simposio de Metodos Numericos Computacionais
94
obtendo assim, um campo convergente de densidades, para uma malha que busque um erro
limitado em cada elemento. Quanto a questão morfológica do fêmur, pode-se notar (Figura
2a) que, conforme o refino da malha nas regiões com um maior gradiente de densidades, uma
melhor caracterização do fêmur humano é obtida. Isso ocorre devido o estado de tensões
(responsável principal pelo processo de remodelação) estar sendo melhor calculado.
Os resultados obtidos neste estudo inicial podem servir como base para o desenvolvimento de
metodologias que aliem o processo de remodelação óssea a adaptatividade da malha, visto
que tais áreas, em separado, são amplamente desenvolvidas.
REFERÊNCIAS
AINSWORTH, M., ODEN, J. T., A Posteriori Error Estimation in Finite Element Analysis.
1. ed. John Wiley and Sons, 2000.
BEAUPRÉ, G. S., ORR, T.E., CARTER, D.R., An approach for time-dependent bone
modeling and remodeling – theorical development. Journal Orthopedic Research, 8:651-661,
1990.
CARTER, D. R., Mechanical loading histories and cortical bone remodeling. Calcified Tissue
International, 36:S19-S24, 1984.
CIARLET, P. G., The Finite Element Method for Elliptic Problems. Elsevier, 2002.
COOK, R. D., MALKUS, D. S., PLESHA, M. E., WITT, R. J., Concepts and Applications of
Finite Element Analysis. John Wiley and Sons, 2001.
DOBLARÉ, M.; GARCÍA, J. M., Application of an anisotropic bone-remodeling model
based on a damage-repair theory to the analysis of the proximal femur before and after total
hip re-placement. Journal of Biomechanics, 34:1157-1170, 2001.
JACOBS, C. R., LEVENSTON, M. E., BEAUPRÉ, G. S., SIMO, J. C., CARTER, D. R.,
Numerical instabilities in bone remodeling simulations: the advantages of a node-based finite
element approach. Journal Biomechanics, 28:449-459, 1995.
LEMAIRE V., TOBIN, F. L., GRELLER L. D., CHO C. R., SUVA L. J., Modeling the
interactions between osteoblast and osteoclast activities. Journal of Theoretical Biology, 229:
293-309, 2004.
MCNAMARA, M. L.; PRENDERGAST, P. J., Bone remodeling algorithms incorporating
both strain and microdamage stimuli. Journal of Biomechanics, 40:1381-1391, 2007.
PRUDHOMME, S., ODEN, J. T., WESTERMANN, T., BASS, J., BOTKIN, M. E., Practical
methods for a posteriori error estimation in engineering applications. International Journal
for Numerical Methods in Engineering, 56:1193-1224, 2003.
REDDY, J. N., An Introduction to the Finite Element Method. 3. ed. McGraw Hill, 2006.
SILVA, J., Análise de estimadores de erro a posteriori aplicados ao método dos elementos
finitos utilizando refino h-adaptativo. Dissertação (Mestrado em Engenharia Mecânica) –
Setor de Ciência e Tecnologia, Universidade Federal do Paraná, 2015.
SOUZA, L. A. F., Moelo numérico anisotrópico de remodelação óssea interna fundamentado
na mecânica do dano contínuo. Tese (Doutorado em Métodos Numéricos) – Setor de Ciência
e Tecnologia, Universidade Federal do Paraná, Curitiba, 2009.
ZHU, J. Z., ZIENKIEWICZ, O. C., Adaptive techniques in the finite element method.
Communications in Applied Numerical Methods, 4:197-204, 1988.
ZIENKIEWICZ, O. C., TAYLOR, R. L., The Finite Element Method - Volume 1: The Basis,
5ª ed. Butterworth Heinemann, 2000.
ZIENKIEWICZ, O. C., ZHU, J. Z., A simple error estimator and adaptive procedure for
practical engineering analysis. International Journal for Numerical Methods in Engineering,
24:333-357, 1987.
V Simposio de Metodos Numericos Computacionais
95
V Simposio de Metodos Numericos Computacionais
THE MODELING OF TILTING PAD JOURNAL BEARINGS OF
LARGE HYDRO GENERATORS FOR STRUCTURAL HEALTH
MONITORING PURPOSES
Abstract: This paper describes part of a research involving tribology, rotordynamics and time
series analysis applied in the assessment of the condition of large hydro generators, based on
the monitoring of vibrations and temperatures. This part of the research has focus on the
dynamic analysis of the journal bearings, particularly on the oil film stiffness. This type of
analysis was extensively applied to horizontal rotating machines in the past; however, it still is
necessary to review some important aspects for vertical machines such as large hydro
generators. Based on the analysis of vibration and temperature data measured in commissioning
tests of large hydro generators, it was verified that several parameters like the generator
electromagnetic field or the seasonal variations of cooling water temperature, have significant
impact in the oil film thickness and viscosity. Consequently, these parameters may have more
influence in the determination of the oil film dynamic coefficients than the type of model
(hydrodynamic, thermo-hydrodynamic or thermo-elasto-hydrodynamic model) used to
represent the bearing. Based in numerical simulations with a proposed model, this paper shows
that the relationship between the oil film restoring force and the journal displacement is
nonlinear, comparable to a hardening stiffness with cubic characteristics and depending on the
bearing clearance. Cross-coupling effects are not present during normal operating conditions,
but they may take place due to uneven distribution of the pads clearances originated by bearing
deformations caused by the generator electromagnetic field. In this case, the oil film may also
show negative cross-coupling stiffnesses. Finally, this paper indicates that oil film stiffness is
susceptible to most of the damages that usually occurs in tilting pad journal bearings. Thus, the
monitoring of this parameter is important for the application of structural health monitoring
processes to hydro generators.
Keywords: Damage detection, tilting pad journal bearings, oil film stiffness, hydro generators.
1 INTRODUCTION
Hydroelectricity plays an important role in Brazil, as it represents more than three quarters of
the electricity consumed in the country. The Brazilian electrical grid has hundreds of medium
and large size hydro generators, which are in operation during the past thirty to fifty years.
Despite of being resistant and reliable machines, due to their strategic importance and advanced
age, the using of structural health monitoring (SHM) process is a mandatory requirement.
Geraldo Carvalho Brito Junior, RobertoDalledone Machado, Anselmo Chaves Neto
96
Large hydro generators (LHG) are usually equipped with tilting pad journal bearings (TPJB),
components that have significant influence in their vibratory behavior. In fact, the correct
understanding of the bearing dynamics is critical to assess adequately the condition of these
machines. TPJB and their dynamic characteristics are objects of extensive analyses since a long
time. However, these studies have mostly been carried out for horizontal machines of high
speed, with shafts of relatively small diameter and bearings with a low number of pads. Hydro
generators, on the contrary, commonly are rotating machines of low speed and of vertical
assembly, with large diameter shafts, using bearings with a high number of pads. In addition,
bearings of horizontal machines are preloaded with the machine weight, whereas vertical
machines have not a defined static load acting in the journal bearings. Such antagonist features
originate particular conditions in the determination of stiffness and damping coefficients of the
journal bearings used hydro generators. This paper presents these particularities based on the
analyses of vibration signals and temperature data collected in commissioning tests of several
LHG, as well as based on numerical simulations with a proposed model.
2 LITERATURE REVIEW
(DIMOND, SHETH, et al., 2009) and (TIWARI, LEES e FRISWELL, 2004) presented a
detailed review about tilting pad bearing theory and identification of bearing dynamic
parameters. This section gives complementary information on these subjects, specifically
regarding to the TPJB used in LHG.
The using of mathematical modeling to support the condition assessment of hydro generators
began in the 1980’s, due to cases of chronic dynamic problems or due to the expressive increase
of the size of these machines. The most complete reference for damage detection in hydro
generators at that time (VLADISLAVLEV, 1979) dedicates only a few paragraphs to describe
the dynamic behavior of journal bearings.
It was usual to neglect the oil film dynamic effects in the first models, disregarding the damping
and attributing very high values to the stiffness. (DO NASCIMENTO, 1987) and (SPERBER
e WEBER, 1991) modeled a 160 MW hydro generator of Ilha Solteira Power Plant (Brazil).
Based on experimental tests, they estimated the oil film stiffness as 220 GN/m, much higher
value than the bearing brackets stiffnesses (3 to 20 GN/m). A few years later (CARDINALI,
1992) modeled the same hydro generator, but in this case, the oil film and the bearing brackets
stiffnesses were in the same range magnitude (2.5 to 3.6 GN/m).
The manufacturer used a computer program developed for plain journal bearings to estimate
the oil film stiffnesses used in the modeling of the 700 MW hydro generators of Itaipu Power
Plant (Brazil and Paraguay) (ITAIPU, 2009). Also in this model, the stiffnesses of the brackets
and of the oil film also have the same order of magnitude, from 3 to 7 GN/m.
Many contributions on hydro generator modeling has been developed in China, due to the
increase of hydroelectricity in this country. The majority of them were included in a book
entirely dedicated to this subject, probably the most complete reference nowadays (WU, LI, et
al., 2013). This reference brings some numerical examples with bearing global stiffness, albeit
without explicit values for the oil film stiffness.
In the past decade occurred an increase in the research involving mathematical modeling of
hydro generators in Sweden, as result of a common effort of universities, of the energy agency
and manufacturers. (GUSTAVSSON, 2008) focused the research in the analysis of the dynamic
behavior of hydro generators under the action of electromagnetic forces. This research includes
the identification of oil film stiffness and damping coefficients based on the measurements of
shaft displacements and the bearing loads. The identified oil film stiffness varied between 0.40
to 0.80 GN/m, much lower values than those obtained in the previous references.
(NÄSSELQVIST, 2011) centered the research in the analysis of bearings influence in the
V Simposio de Metodos Numericos Computacionais
97
dynamics of vertical machines, with emphasis in hydro generators. Most of the work was
developed using a test rig composed by a Jeffcott rotor with two 4-pad TPJB, designed to
operate on both vertical and horizontal position. This part of the research comprised the
proposal of a methodology for condition assessment based on the bearing load and considering
the hydro generators mechanical properties. It also contains a case study of resonance in a 42
MW vertical hydro generator, where the oil film stiffness of the turbine bearing was determined
for several clearances under the action of a prescribed static load, using a software “developed
for bearing calculations in steam and gas turbines”. The oil film stiffness varied in the range of
0.15 to 0.88 GN/m, again much lower values than the bearing bracket stiffness (2.5 GN/m).
As the oil film stiffness is much lower or has the same order of magnitude than bearing bracket
stiffness, it has an important influence in the dynamic behavior of hydro generators and the
comprehension of this influencing mechanism is essential for monitoring purposes.
3 THE MODELING OF TPJB OF LHG FOR SHM PURPOSES
3.1 Review on this research
The experimental and theoretical aspects of this research are related to the 700 MW hydro
generators of Itaipu Power Plant, which main characteristics are described in (ITAIPU, 2009).
A brief review in the hydrodynamic bearing theory applied to the TPJB used in LHG is
presented in (BRITO, MACHADO e CHAVES NETO, 2014). This reference also describes
the main uncertainties in modelling the guide bearings of LHG and shows a satisfactory
agreement between calculated and measured pressures of the oil film of TPJB used in LHG,
indicating that the simplified model is valid. The first results of the experimental identification
of the oil film stiffness are shown in (BRITO, MACHADO e CHAVES NETO, 2013). An
analysis showed the identified values were much lower than the theoretical ones, indicating
possible errors in the identification process. However, the results presented following indicates
that the results of the identification process are feasible.
3.2 Estimating oil film stiffness
This section describes the estimation of the oil film stiffness of the upper guide bearing of
Itaipu Power Plant generating units. The option by the oil film stiffness is because this is the
most suitable parameter for structural health monitoring applications, as it is the easiest to
estimate and to monitor. Besides that, changes in the oil film stiffness will indirectly indicate
variations in the oil film damping, as both parameters have common dependence in the bearing
features.
Figure 1 shows the relationship between the components of the resultant force in 𝑋 (𝐹𝑋) and 𝑌
(𝐹𝑌) directions of the bearing, with a shaft displacement in 𝑋 direction, from -100 µm to +100
µm, in 5 µm steps. For reference, this calculation used nominal viscosity (𝜂 = 0.047 Pa.s) and
nominal clearance (𝑐 = 200 m). Due to the bearing symmetry, the results were the same for
equal displacements in 𝑌 direction, demonstrating that 𝑘𝑋𝑋 = 𝑘𝑌𝑌. Figure 1 also indicates that
there are no cross-coupling effects between the force in one direction and the displacement in
the orthogonal direction, then 𝑘𝑋𝑌 = 𝑘𝑌𝑋 = 0. It also indicates that force-displacement
relationship is nonlinear, with a portion of the force varying cubically with the displacement,
as indicated by equation (1).
V Simposio de Metodos Numericos Computacionais
98
𝐹𝑋 = 𝑘𝑋𝑋 ∙ (𝑋 + 𝛼𝑋𝑋𝑋3) , 𝐹𝑌 = 𝑘𝑌𝑌 ∙ (𝑌 + 𝛼𝑌𝑌𝑌3) (1)
Figure 1. Force components (𝑭𝑿 and 𝑭𝒀) versus shaft displacement 𝑿 for 𝜼 = 0.047 Pa.s and 𝒄 = 200 m
A polynomial curve fitting for the relationship of Figure 1 indicated 𝐹𝑋 = 9.15 ∙ 109(𝑋 +5.93 ∙ 107𝑋3), with coefficient of determination 𝑅2 = 0.9999. As 𝜕𝐹𝑋 𝜕𝑋 =⁄ 𝑘𝑋𝑋 ∙ (1 +3 𝛼𝑋𝑋𝑋2), the linearized oil film stiffness varies with the square of shaft position 𝑋. Figure 2
shows that this stiffness varies almost parabolically with the bearing static load, that
is, 𝜕𝐹𝑋 𝜕𝑋 =⁄ 9.36 ∙ 109 + 2006 ∙ 𝐹𝑋 + 7.26 ∙ 10−3 ∙ 𝐹𝑋2, with 𝑅2 = 0.9994.
Figure 2. Relation between oil film stiffness (𝝏𝑭𝑿 𝝏𝑿⁄ ) and the static load (𝑭𝑿) for 𝜼 = 0.047 Pa.s and 𝒄 = 200
m
Figure 4 shows the force components (𝐹𝑋 and 𝐹𝑌) for shaft displacements in 𝑋 (two upper
diagrams) and 𝑌 directions (two lower diagrams), with the same viscosity (𝜂 = 0.047 Pa.s) but
when the distribution of the minimum oil film thickness has the elliptical form showed in
Figure 3 (no load in the generator, blue curve). Equation (2) shows stiffness matrix for this
condition, obtained by linearizing the curves of Figure 4. It is possible to verify that not only
the direct stiffnesses decreased to approximately 15% of their nominal value and that the TPJB
shows cross-coupling effects (𝜕𝐹𝑌 𝜕𝑋 ≠⁄ 0 and 𝜕𝐹𝑋 𝜕𝑌 ≠⁄ 0). It is also possible to see that the
V Simposio de Metodos Numericos Computacionais
99
stiffness matrix is asymmetric (𝑘𝑋𝑌 = −𝑘𝑌𝑋).
𝐊 = [ 1.31 ∙ 109 0.31 ∙ 109
−0.31 ∙ 109 1.64 ∙ 109] N/m (2)
Figure 3. Distribution of the minimum oil film thickness [m] in the UGB: a) at 0 MW (blue); b) at 700
MW (red)
Figure 4. Force components (𝑭𝑿 and 𝑭𝒀) versus shaft displacements in 𝑿 (two upper diagrams) and 𝒀 (two
lower diagrams) directions, for 𝜼 = 0.047 Pa.s and with the distribution minimum oil film thickness shown in
Figure 3 for 0 MW (blue curve)
V Simposio de Metodos Numericos Computacionais
100
4 USING MODEL TO SUPPORT DAMAGE DETECTION AND DIAGNOSTICS
Vibration condition monitoring is the most frequent technique applied for damage detection in
rotating machines. The vibrations of a hydro generator depend on many factors, among which
are the stiffnesses of the journal bearings. The oil film stiffness is the parcel with more
influence in the total stiffness of the journal bearing, as it is the portion most susceptible to
changes in the bearing operating conditions or to damages.
The usual damages in bearings (e.g. reduction of the cooling system efficiency, deterioration
of the lubricant, clearances excessively large or small, etc.) have impact either in the
distribution of the oil film thickness or in the oil film viscosity. Table 1 shows that this type of
damage may originate expressive changes in the oil film stiffness, which may be reduced to a
fraction of its nominal value due to feasible variations in clearance and viscosity. From Table
1 it is possible to verify that:
a. For a given viscosity, the linear portion of the oil film stiffness (𝑘𝜉𝜉) decreases cubically
with the clearance increasing. On the other hand, for a certain clearance, this portion
increases proportionally with the viscosity.
b. The nonlinear cubic portion of the oil film stiffness (𝛼𝜉𝜉) does not depend on the
lubricant viscosity. It depends only in the bearing geometry, even for the cases where
clearance distribution is not uniform.
Table 1. Oil film stiffness for several bearing conditions
Bearing clearance Clearance
𝑐 [m]
Viscosity
𝜂 [mPa.s]
𝐹𝑋 = 𝑘𝜉𝜉 ∙ (𝜉 + 𝛼𝜉𝜉𝜉3)
𝑘𝜉𝜉 [N/m] 𝛼𝜉𝜉[m-2]
Nominal clearance 200 47.0 9.15 ∙ 109 5.93 ∙ 107
35.3 6.86 ∙ 109 5.93 ∙ 107
23.5 4.58 ∙ 109 5.93 ∙ 107
Increased in 50% 300 47.0 2.83 ∙ 109 1.99 ∙ 107
35.3 2.12 ∙ 109 1.99 ∙ 107
23.5 1.41 ∙ 109 1.99 ∙ 107
Increased in 100% 400 47.0 1.20 ∙ 109 1.03 ∙ 107
35.3 0.90 ∙ 109 1.03 ∙ 107
23.5 0.60 ∙ 109 1.03 ∙ 107
As Figure 3 - 700 MW n.a. 47.0 0.39 ∙ 109 0.52 ∙ 107
(𝑋 direction or 0°) 35.3 0.29 ∙ 109 0.52 ∙ 107
23.5 0.19 ∙ 109 0.52 ∙ 107
As Figure 3 - 700 MW n.a. 47.0 0.89 ∙ 109 1.17 ∙ 107
(𝑌 direction or 90°) 35.3 0.67 ∙ 109 1.17 ∙ 107
23.5 0.45 ∙ 109 1.17 ∙ 107
The support of a reliable model to explain changes in bearing total stiffness together with the
bearing temperatures will increase the effectiveness of damage detection and diagnostics based
on vibration condition monitoring.
5 CONCLUDING REMARKS
Founded on the results of commissioning tests of LHG, this research verified that several
phenomena have significant changes in the distribution of the oil film thickness, in the oil film
viscosity and, consequently, in the dynamic characteristic of the TPJB used in these machines.
As it impossible or unpractical to determine these parameters accurately for each bearing pad,
the research proposed a simplified hydrodynamic model to determine the oil film stiffness of
these journal bearings, as well as to support damage detection and diagnostics in the mentioned
V Simposio de Metodos Numericos Computacionais
101
machines. Despite of requiring further efforts in this field, the satisfactory agreement between
measured and calculated values preliminarily validated the model. Simulations with the model
indicated that oil film stiffness of the TPJB of LHG is nonlinear, with a portion of the restoring
force varying cubically with shaft displacement in the bearing. These simulations also indicated
that the oil film stiffness varies parabolically with the bearing static load and that the cubic
portion of this stiffness depends on the bearing clearance, but not in the oil film viscosity. Such
mathematical expressions for oil film forces and stiffness could be useful in the hydro
generators dynamic modeling. In addition, these simulations indicated that oil film stiffness
strongly depends on three parameters, the bearing load, the oil film thickness and the oil
viscosity. As several of the damages that usually occur in a hydro generator affect these
parameters, the monitoring of the oil film stiffness may be useful for damage detection. A
simplified and reliable model is valuable in damage detection and diagnostics tasks, for
minimizing false positive and false negative diagnosis, as well as for identifying overdiagnosis.
REFERENCES
BRITO, G. C. J. R.; MACHADO, R. D.; CHAVES NETO, A. Modelling the dynamic
behaviour of large hydro generating units guide bearings. IV Simpósio de Métodos
Numéricos Computacionais da Universidade Federal do Paraná. Curitiba: [s.n.]. 2014. p. 42-
48.
BRITO, G. C. J. R.; MACHADO, R. D.; CHAVES NETO, A. E. A. Using autoregressive
models for damage identification in guide bearings of hydro generating units. XXXIV
Iberian Latin American Congress on Computational Methods in Engineering. Pirenópolis,
Brasil: [s.n.]. 2013.
CARDINALI, R. Modelagem e aplicações em diagnose de máquinas rotativas verticais.
Campinas State University. Campinas, p. 106. 1992.
DIMOND, T. W. et al. Identification methods and test results for tilting pad and fixed geometry
journal bearing dynamic coefficients - a review. Shock and Vibration, 16, 2009. 13-43.
DO NASCIMENTO, L. P. Estudos das forças excitadoras e da modelagem matemática de
máquinas hidroelétricas. Campinas State University. Campinas, p. 129. 1987.
GUSTAVSSON, R. Rotor dynamical modelling and analysis of hydropower units. Lulea
University of Technology. Lulea, Sweden, p. 57. 2008.
ITAIPU. Projeto hidrelétrico de Itaipu: características de engenharia. Porto Alegre: Tab
Marketing Editorial, 2009.
NÄSSELQVIST, M. Simulation and characterization of rotordynamic properties for
vertical machines. Lulea University of Technology. Lulea, p. 68. 2011.
SPERBER, A.; WEBER, H. I. Dynamic Models in Hydroelectric Machinery. Journal of the
Brazilian Society of Mechanical Sciences, v. XIII, p. 29-59, 1991.
TIWARI, R.; LEES, A. W.; FRISWELL, M. I. Identification of dynamic bearing parameters -
a review. The Shock and Vibration Digest, 36, n. 2, March 2004. 99-124.
VLADISLAVLEV, L. A. Vibration of hydro units in hydroelectric power plants. [S.l.]:
Amerind Publishing Company, 1979.
WU, Y. et al. Vibration of hydraulic machinery. Dordrecht: Springer, 2013.
V Simposio de Metodos Numericos Computacionais
102
V Simposio de Metodos Numericos Computacionais
DIMENSIONAMENTO E SEQUENCIAMENTO DE LOTES: UM MODELO COM DOIS ESTÁGIOS E ESTOQUE INTERMEDIÁRIO COM
TEMPO MÍNIMO DE PERMANÊNCIA
Resumo: Neste trabalho são apresentadas formulações matemáticas para programação da produção envolvendo dois estágios, ambos compostos por máquinas paralelas, interligados por um estoque intermediário onde os lotes necessitam permanecer por um tempo mínimo que varia conforme o tipo de item produzido. O objetivo do modelo matemático é minimizar custos de produção e a utilização de horas-extra de trabalho baseando-se no melhor arranjo possível dos lotes de itens a serem produzidos. Após ser apresentado o modelo matemático, 3 problemas teste foram resolvidos, onde foi possível verificar que o modelo está corretamente formulado e pode ser aplicado em diversas situações industriais. Devido à complexidade do modelo, não foi possível obter uma solução ótima, sendo assim, testes foram realizados com tempo computacional limitado. Palavras-Chave: Programação da produção, máquinas paralelas, dois estágios. 1 INTRODUÇÃO
Um grande desafio presente nas indústrias consiste em planejar o ambiente de produção, de modo a atender às demandas previstas através da utilização de recursos muitas vezes escassos. Diversos estudos têm sido realizados nas últimas décadas no sentido de propor modelos matemáticos voltados a auxiliar nas decisões envolvendo o planejamento e controle da produção Meyr (2002). Alguns arranjos do ambiente de produção nas industrias são organizados em diferentes estágios produtivos, o que torna as formulações matemáticas complexas (Toledo, 2013), e difíceis de serem computacionalmente resolvidas (Ferreira et al, 2009). Um modelo importante modelo matemático foi proposto por Drexl e Kimms (2013), denominado modelo Multi-level PLSP, o qual “abrange múltiplos estágios produtivos, considerando que a produção de um item final requer a produção de itens intermediários, os quais são produzidos em estágios anteriores”. Vários trabalhos que consideram múltiplos estágios produtivos têm sido publicados nos últimos anos (Drexl e Kimms, 1997). Ferreira et al (2009) propõe uma aplicação na produção de refrigerantes considerando dois estágios produtivos. Mohammadi et al (2009), consideram uma produção flowshop multi-nível onde todas as máquinas são dispostas em série. Transchel et al (2011) apresentou um modelo de programação com 2 estágios, aplicado ao processo de produção em um caso específico numa indústria. Ferreira et al (2013) propuseram formulações matemáticas monoestágio a um problema multi-estágio de modo a reduzir o esforço computacional para a
Gerson Ulbricht, Neida Maria Patias Volpi
103
resolução. Seeanner e Meyr (2013)General Lot-Sizing and Scheduling múltiplos estágios com possibilidade de haNeste trabalho é apresentado um modelo matemático contendo diferenças em relação aos encontrados até então na literatura, o intermediário com restrição de tempo de permanência dos lotes.
. 2 APRESENTAÇÃO DO PROBLEMA Este trabalho foi elaborado a partir deeletrônicas, a qual conta com 2 estágios de produção:Devices), máquinas paralelas distintas placas. Em um segundo estágio (PTH distintas, são fixados componentes maioresestágios SMD e PTH se dá por meio de um estoque intermediário onde os lotes devem aguardar por um tempo mínimo (conforme o tipo de itsecagem de uma cola protetora de componentes antes a qual protege alguns excessivo do processo de soldagem de itens maiores. funcionamento destes 2 estágios.
Figura
2.1 Formulação Matemática Neste tópico é apresentado o modelo matemático desenvolvido, o qual é do tipo multimulti-períodos, multi-itens, e composto por 2 estágios com estoques intermediários com capacidade de estocagem limitada e necessidade de cumprimento de tempo mínimo de espera dos lotes. quadro 1 são apresentados os índices, variáveis
Quadro 1: Índices, variáveis e parâmetros do modelo 2 estágios.
Índices: : (= I, II) estágios produtivos; , : (= 1, . . . , ) itens; : (= 1, . . . , ) máquinas pertencentes ao estágio θ; : (= 1, . . . , ) períodos; : (= 1, . . . , ) subperíodos. Variáveis:
Máquina 1
Máquina 2
Máquina K I
⁞
Estágio I
Pla
no d
e P
rodu
ção
Restrição de Tempo mínimo de permanência do lote,
Seeanner e Meyr (2013) apresentaram um modelo matemático chamado de GLSPMS Sizing and Scheduling Problem for Multiple production Stages
com possibilidade de haver linhas de produção paralela. Neste trabalho é apresentado um modelo matemático contendo diferenças em relação aos encontrados até então na literatura, o qual aborda dois estágios interligados por um estoque intermediário com restrição de tempo de permanência dos lotes.
2 APRESENTAÇÃO DO PROBLEMA
elaborado a partir de estudos realizados em uma indústria produtora de a qual conta com 2 estágios de produção: No primeiro estágio (SMD
distintas fazem a inserção de micro componentes sobre a superfície das . Em um segundo estágio (PTH - Pin Through Hole) também formado por máquinas paralelas
, são fixados componentes maiores nos furos pré-existentes nas placas. A conexão entre os estágios SMD e PTH se dá por meio de um estoque intermediário onde os lotes devem aguardar por um tempo mínimo (conforme o tipo de item). Esse tempo de espera dos lotes é necessário para secagem de uma cola protetora de componentes antes a qual protege alguns componentes
do processo de soldagem de itens maiores. A Figura 1 mostra um resumo do tágios.
Figura 1: Representação do Ambiente de Produção
Neste tópico é apresentado o modelo matemático desenvolvido, o qual é do tipo multie composto por 2 estágios com estoques intermediários com capacidade
de estocagem limitada e necessidade de cumprimento de tempo mínimo de espera dos lotes. são apresentados os índices, variáveis e parâmetros do modelo.
1: Índices, variáveis e parâmetros do modelo 2 estágios.
) máquinas pertencentes
Parâmetros: N: número de itens; T: número de períodos no horizonte de planejamento; W: número total de subperíodos em todo o horizonte de
planejamento; : conjunto de subperíodos contidos no período : número de máquinas pertencentes ao estágio : conjunto de itens que podem ser produzidos na
Estágio II
Máquina 1
Máquina 2
Máquina K II
⁞ Est
oqu
e In
term
ediá
rio
Dem
anda
do
clie
nte
de permanência do lote, conforme o tipo de item produzido
o matemático chamado de GLSPMS - Problem for Multiple production Stages, o qual considera
Neste trabalho é apresentado um modelo matemático contendo diferenças em relação aos qual aborda dois estágios interligados por um estoque
uma indústria produtora de placas No primeiro estágio (SMD - Surface Mounting
sobre a superfície das por máquinas paralelas . A conexão entre os
estágios SMD e PTH se dá por meio de um estoque intermediário onde os lotes devem aguardar por em). Esse tempo de espera dos lotes é necessário para
componentes do calor A Figura 1 mostra um resumo do
Neste tópico é apresentado o modelo matemático desenvolvido, o qual é do tipo multi-máquinas, e composto por 2 estágios com estoques intermediários com capacidade
de estocagem limitada e necessidade de cumprimento de tempo mínimo de espera dos lotes. No
número de períodos no horizonte de planejamento; número total de subperíodos em todo o horizonte de
conjunto de subperíodos contidos no período t; número de máquinas pertencentes ao estágio θ;
conjunto de itens que podem ser produzidos na
produzido
V Simposio de Metodos Numericos Computacionais
104
: quantidade do item i produzido na
máquina k ∈ θ, no subperíodo estágio θ; : quantidade do item i enviada ao estoque intermediário no período
: é igual a 1, se a máquina está preparada para produzir o item subperíodo , no estágio θ; 0, caso contrário;
: é igual a 1, quando o item produzido na máquina k ∈subperíodo , no estágio θ; 0, caso contrário; : é igual a 1, quando o item produzido no estágio I, no período alguma das máquinas k ∈ θ; contrário;
: é igual a 1, se há setup
para o item j na máquina k subperíodo s, no estágio θ; 0, caso contrário; ℎ
: Instante de término do lote do item i em cada período t em cada máquina k ∈ θ, no estágio θ; ℎ
: instante de término do lote do item i em cada período t em todas as máquinas (estágio I); ℎ
: instante de término do lote do item i em cada período t (estágio I), somado ao tempo mínimo em que o lote deve permanecer em estoque intermediário; ℎ
: instante em que o item processamento no estágio II, na máquina ∈ θ, no período t ;
: quantidade em minutos extra para produção na máquina k ∈ θ, no período no estágio θ;
: quantidade do item i, armazenada no
estoque intermediário no final do período t;
: quantidade do item
demanda não atendida no final do períodot, no Estágio II.
produzido na
no subperíodo , no
enviada ao estoque intermediário no período t;
a 1, se a máquina k ∈ θ, está preparada para produzir o item i no
; 0, caso
é igual a 1, quando o item i é ∈ θ, no ; 0, caso
é igual a 1, quando o item i é produzido no estágio I, no período t em
0, caso
do item i
∈ θ no ; 0, caso
Instante de término do lote do em cada máquina
instante de término do lote do item em todas as máquinas
instante de término do lote do (estágio I),
somado ao tempo mínimo em que o lote deve permanecer em estoque
instante em que o item i inicia o processamento no estágio II, na máquina k
quantidade em minutos extra para , no período t,
, armazenada no estoque intermediário no final do período
quantidade do item i, com demanda não atendida no final do período
máquina k, no estágio θ;
: capacidade de produção disponível máquina k, no período t;
: custo de produção para produzir o item máquina k ∈ θ, no estágio θ;
: custo em minutos extra do funcionamento de cada
máquina k, no estágio θ;
: custo de setup para produzir o item
imediatamente após o item i na máquina θ;
: tempo de setup para produção do item
imediatamente após o item i na máquina θ;
: tempo de setup para produzir o item máquina k ∈ θ, no estágio θ, no início do horizonte de planejamento;
: tempo consumido para produção de uma unidade do item i na máquina k ∈ θ, no estágio
: lote mínimo do item i que poderá ser produzido na máquina k ∈ θ, no estágio θ
: igual a 1, se a máquina k ∈ preparada para produzir o item i, no início do horizonte de planejamento; 0, caso contrário;
: quantidade máxima permitida em minutos extra, para produção na máquina k ∈ θ, no período θ;
,: quantidade do item i, com demanda não atendida no
estágio II, no início do horizonte de planejamento;
: quantidade do item i, existente no estoque
intermediário no início do horizonte de planejamento;
: quantidade máxima permitida de estoque
intermediário, do item i, no período
: quantidade máxima permitida de demanda não
atendida no estágio II, do item i, no período : demanda do item i no período t; : tempo mínimo de permanência em estoque
intermediário, de um lote do item I; : custo por período, para manter uma unidade do item
i, no estoque intermediário; : custo por período, do atraso de entrega da produção
do item i, no estágio II; M: número suficientemente grande.
capacidade de produção disponível estágio θ, na
custo de produção para produzir o item i na
custo em minutos extra do funcionamento de cada
para produzir o item j
na máquina k ∈ θ, no estágio
para produção do item j
na máquina k ∈ θ, no estágio
para produzir o item i na , no início do horizonte de
tempo consumido para produção de uma unidade , no estágio θ;
que poderá ser produzido
θ, do estágio θ, está , no início do horizonte
quantidade máxima permitida em minutos extra,
, no período t, no estágio
demanda não atendida no estágio II, no início do horizonte de planejamento;
, existente no estoque intermediário no início do horizonte de planejamento;
quantidade máxima permitida de estoque no período t;
quantidade máxima permitida de demanda não , no período t;
t; tempo mínimo de permanência em estoque
custo por período, para manter uma unidade do item
custo por período, do atraso de entrega da produção
V Simposio de Metodos Numericos Computacionais
105
min =
∈
∈
+
Modelo Matemático:
Sujeito a:
Conjuntos de restrições comuns aos estágios I e II:
.
≥
.
∈
≥
.
≤
∈
(
∈
ℎ ≥ ℎ
+ .
∈
ℎ
ℎ = ℎ
≥ ℎ
≤
Conjuntos de Restrições: Estoque intermediário, demanda e sincronia entre estágios:
ℎ
=
≤
∈
ℎ = ℎ
.
+
∈
.
.
+ . , + .
Conjuntos de restrições comuns aos estágios I e II:
≤ .
= I, II ;
∈
=
. −
, = I, II ;
∈ ; ∈
= 1 = I, II;
=
, + − 1
= I, II;
= 1, … ,
≤
.
= I, II; = 1, … ,
≤ 1 = I, II;
= 1, … ,
) ≥
∈
= I, II; ∈
+
+ .
∈
− = I, II; , = 1, …
= 1
≥
= I, II =
+ .
∈
= I, II; = 1, … ,
−
= 1, … ,
∈
≤
= = 1, … ,
Conjuntos de Restrições: Estoque intermediário, demanda e sincronia entre estágios:
≥ ℎ
= = 1, … ,
∈
∈
=
∈
≤ . = 1, … ,
+ . = 1, … ,
(1)
= 1, … ,
; ∈
1, … ,
(2)
= 1, … , ∈
(3)
= 1, … , = 1, … ,
(4)
, = 1, … ,
; = 1, … , (5)
= 1, … , ; = 1, … ,
(6)
= 1, … ,
; = 1, … , (7)
= 1, … , / = 1, … ,
(8)
= 1, … , … , ( ≠ ) 1, … ,
(9)
= 1, … , = 1, … ,
(10)
= 1, … , ; = 1, … ,
(11)
; = 1, … ,
; = I, II (12)
= I, II ; = 1, … ,
(13)
Conjuntos de Restrições: Estoque intermediário, demanda e sincronia entre estágios:
1, … , ; = 1, … ,
(14)
∈
1, … , (15)
= 1, … (16)
; = 1, … , (17)
V Simposio de Metodos Numericos Computacionais
106
2.1.1 Função objetivo
A função objetivo (1) representa a minimização dos custos de horas extras nos dois estágios produtivos, bem como o custo do não (backorder) em cada período do estágio I e de estoques intermediários existentes entre períodos. 2.1.2 Conjuntos de restrições comuns aos estágios produtivos I e II (
O conjunto de restrições apresentado em (subperíodo s se a máquina k, estiver preparada para a produção do respectivo item (conjunto de restrições (3) impõe uma condição de lote mínimo de produção para cada tipo de item em um subperíodo, a qual somente é ativada, quando ocorre a preparação de máquina para um novo item. O conjunto de restrições (4) determina que cada máquina esteja preparada para produzir somente um tipo de item em cada subperíodo do item i para o item j na máquina O conjunto de restrições (6) impõe a condição de que quando o item subperíodo do no estágio θ, a variável conjunto de restrições (7) impõe que o lote de um item do estágio subperíodo do respectivo período ao qual este pertencecontrole do tempo de processamento e término dentro de um determinadO conjunto de restrições (8) ordena a produção em subperíodos consecutivos dentro de cada período do estágio θ, sendo que no caso de haverem masubperíodos ociosos ficam concentrados no final de cada período.responsável pelo cálculo dos instantes de início da produção de cada lote, em cada máquina e em cada período, em cada estágio θ, de modo a garantir que o instante de início de um lote do item maior ou igual ao instante de início de um lote do item de setup, quando houver. O conjunto de restrições (10) indica que o instante de início da produção de um item estágio θ, deve ser maior ou igual ao tempo necessário para preparação, no início do horizonte de planejamento. O conjunto de restrições (tipo de item em cada período t do horizonte de planejamento, em cada máquina pertencente ao estágio θ. O conjunto de restrições (12) calcula a quantidade de horas
∈
=
∈
−
ℎ
Conjuntos de Restrições: Domínio das Variáveis
,
,
, ℎ
, ,
1) representa a minimização dos custos de setup, de produção e da utilização de horas extras nos dois estágios produtivos, bem como o custo do não cumprimento da demanda
) em cada período do estágio I e de estoques intermediários existentes entre períodos.
.1.2 Conjuntos de restrições comuns aos estágios produtivos I e II ( = ,
de restrições apresentado em (2), indica que somente haverá produção do item , estiver preparada para a produção do respectivo item (
3) impõe uma condição de lote mínimo de produção para cada tipo de item em eríodo, a qual somente é ativada, quando ocorre a preparação de máquina para um novo item.
4) determina que cada máquina esteja preparada para produzir somente um tipo de item em cada subperíodo s. O conjunto de restrições (5) indica se houve mudança de produção
na máquina k entre os subperíodos. 6) impõe a condição de que quando o item i é produzido na máquina
, a variável assume o valor 1. Caso contrário,
7) impõe que o lote de um item do estágio θ, seja produzido dentro de um único o período ao qual este pertence. A existência desta restrição
controle do tempo de processamento e término dentro de um determinado período do estágio produtivo.8) ordena a produção em subperíodos consecutivos dentro de cada período
, sendo que no caso de haverem mais subperíodos do que itens em determinado período, os subperíodos ociosos ficam concentrados no final de cada período. O conjunto de restrições (responsável pelo cálculo dos instantes de início da produção de cada lote, em cada máquina e em cada
, de modo a garantir que o instante de início de um lote do item maior ou igual ao instante de início de um lote do item i adicionado ao seu tempo de processamento e
dica que o instante de início da produção de um item , deve ser maior ou igual ao tempo necessário para preparação, no início do horizonte de
O conjunto de restrições (11) calcula o instante de término de cada lotedo horizonte de planejamento, em cada máquina pertencente ao estágio
12) calcula a quantidade de horas-extras necessárias em cada máquina
= + , −
= 1, … ,
≤ = 1, … ,
− , +
= = 1, … ,
≤ = 1, … ,
≥ ℎ
= 1, … , =
Conjuntos de Restrições: Domínio das Variáveis
,
∈ ∀ , ∈ , , ,
, ∈ 0,1 ∀ , ∈ , , ,
, , ℎ
, ℎ, ℎ
≥ 0 ∀ , ∈ , , ,
, de produção e da utilização de cumprimento da demanda
) em cada período do estágio I e de estoques intermediários existentes entre períodos.
)
2), indica que somente haverá produção do item i no , estiver preparada para a produção do respectivo item ( = 1). O
3) impõe uma condição de lote mínimo de produção para cada tipo de item em eríodo, a qual somente é ativada, quando ocorre a preparação de máquina para um novo item.
4) determina que cada máquina esteja preparada para produzir somente um dica se houve mudança de produção
é produzido na máquina k no r 1. Caso contrário,
= 0. O , seja produzido dentro de um único
. A existência desta restrição busca facilitar o o período do estágio produtivo.
8) ordena a produção em subperíodos consecutivos dentro de cada período is subperíodos do que itens em determinado período, os
O conjunto de restrições (9) é responsável pelo cálculo dos instantes de início da produção de cada lote, em cada máquina e em cada
, de modo a garantir que o instante de início de um lote do item j deve ser adicionado ao seu tempo de processamento e
dica que o instante de início da produção de um item i na máquina k, no , deve ser maior ou igual ao tempo necessário para preparação, no início do horizonte de
11) calcula o instante de término de cada lote de determinado do horizonte de planejamento, em cada máquina pertencente ao estágio
extras necessárias em cada máquina k
; = 1, … , (18)
; = 1, … , (19)
; = 1, … , (20)
; = 1, … , (21)
; = 1, … , ; 1, … ,
(22)
,
(23)
V Simposio de Metodos Numericos Computacionais
107
pertencente ao estágio θ, de modo a conco valor máximo permitido para a utilização de tempo extra na máquina 2.1.3 Estoques intermediários, demanda e sincronia entre estágios produtivos O conjunto de restrições (14) calcula o instante de término de cada lote, em cada período do estágio I, de modo que se um mesmo item for produzido em diferentes máquinas, havendo assim diferentes instantes de término (ℎ
) conforme calculaddesigualdade presente no conjunto de restrições (que os instantes de término de todas as máquinas. Devido ao fato de que se busca minimizar os instantes de término no segundo estágio, por meio da atribuição de custos de tempo extra, consequentemente o valor de ℎ
O conjunto de restrições (15) determina que os itens produzidos em todas as máquinas durante os subperíodos s pertencentes ao período existente entre os dois estágios produtivos.encaminhado ao estoque intermediário, a variável O conjunto de restrições (17) calcula o instante de término de processamento no estágio I, adicionado do tempo em que o lote do item estoque intermediário (), somente será adiquando = 1. Assim, se um lote que deverá ser enviado ao segundo estágio é proveniente da fabricação no período anterior e esteve armazenado no estoque intermediário, não é necessário aguardar o tempo mínimo. O conjunto de restrições (18) é responsável pelo balanceamento entre as quantidades produzidas no primeiro e segundo estágio, de modo que as quantidades a serem produzidas no estágio II em determinado período podem ser compostas pque foram enviados ao estoque intermediário (períodos anteriores e que permaneceram armazenados (quantidade máxima permitida de estoque intermediário, do item O conjunto de restrições (20) é responsável pelo balanceamento entre a demanda (
para cada período t, bem como possíveis atrasos (quais possuem custos que são minimizados pela função objetivo. a quantidade máxima permitida de demanda não atendida no estágio II, do item O conjunto de restrições (22) indica que o em cada máquina, no segundo estágio, deve ser maior ou igual ao instante de término da permanência do lote no estoque intermediário.No momento em que é iniciada a produção (2) a (13) onde θ = 2. O conjunto de restrições ( 3 RESOLUÇÃO DO MODELO
Para realização de alguns testes, foram criados 3 problemas de tamanhos distintos, ondeconsideram um horizonte de planejamento composto de 5 períodos, onde cada período foi dividido em subperíodos igual à quantidade de itens a serem produzidos, de modo a possibilitar a produção de todos os itens concomitantemente.Os problemas foram resolvidos utilizando o pacote computacional IBM ILOG CPLEX Studio 12.6 com interface OPL. Foi utilizado um computador com processador e 16Gb de memória RAM, onde soluções limitado em 60 minutos.
, de modo a concluir a produção dos itens. O conjunto de restrições (o valor máximo permitido para a utilização de tempo extra na máquina k, no período
.1.3 Estoques intermediários, demanda e sincronia entre estágios produtivos
restrições (14) calcula o instante de término de cada lote, em cada período do estágio I, de modo que se um mesmo item for produzido em diferentes máquinas, havendo assim diferentes
) conforme calculado pelo conjunto de restrições (te no conjunto de restrições (14), busca atribuir à variável ℎ
que os instantes de término de todas as máquinas. Devido ao fato de que se busca minimizar os egundo estágio, por meio da atribuição de custos de tempo extra,
é minimizado pela função objetivo.
15) determina que os itens produzidos em todas as máquinas durante os pertencentes ao período t, no estágio I, sejam enviados a um estoque intermediário
existente entre os dois estágios produtivos. O conjunto de restrições (16) impõe que quando o item encaminhado ao estoque intermediário, a variável , assume o valor 1.
17) calcula o instante de término de processamento no estágio I, adicionado do tempo em que o lote do item i permanece em estoque intermediário. Observa
), somente será adicionado ao instante de término do lote no estágio I (. Assim, se um lote que deverá ser enviado ao segundo estágio é proveniente da
fabricação no período anterior e esteve armazenado no estoque intermediário, não é necessário
18) é responsável pelo balanceamento entre as quantidades produzidas no primeiro e segundo estágio, de modo que as quantidades a serem produzidas no estágio II em determinado período podem ser compostas pelos itens produzidos neste mesmo período no estágio I, e que foram enviados ao estoque intermediário (), bem como por itens que foram produzidos em períodos anteriores e que permaneceram armazenados (,
). O conjunto de restrições (quantidade máxima permitida de estoque intermediário, do item i, no período t.
20) é responsável pelo balanceamento entre a demanda (
, bem como possíveis atrasos ( ), no atendimento desta demanda no período
quais possuem custos que são minimizados pela função objetivo. O conjunto de restrições (a quantidade máxima permitida de demanda não atendida no estágio II, do item i
22) indica que o instante em que será iniciada a produção dos lotes dos itens, em cada máquina, no segundo estágio, deve ser maior ou igual ao instante de término da permanência do lote no estoque intermediário. No momento em que é iniciada a produção no segundo estágio, passam a atuar o conjunto de restrições
O conjunto de restrições (23) indica o domínio das variáveis.
3 RESOLUÇÃO DO MODELO
testes, foram criados 3 problemas de tamanhos distintos, ondeconsideram um horizonte de planejamento composto de 5 períodos, onde cada período foi dividido em subperíodos igual à quantidade de itens a serem produzidos, de modo a possibilitar a produção de todos os itens concomitantemente. A Tabela 1 mostra a dimensão dos problemas gerados.Os problemas foram resolvidos utilizando o pacote computacional IBM ILOG CPLEX
12.6 com interface OPL. Foi utilizado um computador com processador de soluções inteiras factíveis foram encontradas em tempo de execução
O conjunto de restrições (13) define , no período t, no estágio θ.
.1.3 Estoques intermediários, demanda e sincronia entre estágios produtivos
restrições (14) calcula o instante de término de cada lote, em cada período do estágio I, de modo que se um mesmo item for produzido em diferentes máquinas, havendo assim diferentes
restrições (11) quando θ = 1, a ℎ
, um valor maior que os instantes de término de todas as máquinas. Devido ao fato de que se busca minimizar os
egundo estágio, por meio da atribuição de custos de tempo extra,
15) determina que os itens produzidos em todas as máquinas durante os , no estágio I, sejam enviados a um estoque intermediário
16) impõe que quando o item i for
17) calcula o instante de término de processamento no estágio I, adicionado Observa-se que o tempo em
cionado ao instante de término do lote no estágio I (ℎ),
. Assim, se um lote que deverá ser enviado ao segundo estágio é proveniente da fabricação no período anterior e esteve armazenado no estoque intermediário, não é necessário
18) é responsável pelo balanceamento entre as quantidades produzidas no primeiro e segundo estágio, de modo que as quantidades a serem produzidas no estágio II em
elos itens produzidos neste mesmo período no estágio I, e ), bem como por itens que foram produzidos em
O conjunto de restrições (19) impõe a
20) é responsável pelo balanceamento entre a demanda () de cada item i
dimento desta demanda no período t, os O conjunto de restrições (21) impõe
i, no período t. produção dos lotes dos itens,
em cada máquina, no segundo estágio, deve ser maior ou igual ao instante de término da permanência
uar o conjunto de restrições indica o domínio das variáveis.
testes, foram criados 3 problemas de tamanhos distintos, onde todos consideram um horizonte de planejamento composto de 5 períodos, onde cada período foi dividido em subperíodos igual à quantidade de itens a serem produzidos, de modo a possibilitar a produção de
dimensão dos problemas gerados. Os problemas foram resolvidos utilizando o pacote computacional IBM ILOG CPLEX Optimization
12.6 com interface OPL. Foi utilizado um computador com processador Intel Xeon (3,7GHz) factíveis foram encontradas em tempo de execução
V Simposio de Metodos Numericos Computacionais
108
Tabela 1:
Descrição Número de Itens (
Número de máquinas –Número de máquinas –
Restrições Total de variáveisVariáveis bináriasVariáveis inteiras
Variáveis reais (não inteiras)Coeficientes diferentes de zero
Os parâmetros utilizados para resolução dos problemas foram gerados conforme Taillard (1993), o qual consiste na atribuição de valores aleatórios, dentro de um intervalo pré-definido. Foram geradas 3 instâncias aleatórias para cada um dos 3 problemas (A, B e C) onde o gap médio obtido (diferença percentual entre o melhor considerando todas as instâncias testadas 4 CONCLUSÕES
O principal objetivo deste trabalho foi desenvolver um modelo matemático além de atender a um caso específico, também Nos testes realizados até o momento, percebegeneralizado para uma ampla gama de aplicações.Espera-se que com as formulações propostas neste trabalho,industrial de modo a oportunizar uma ferramenta aplicada à gestão que utilização dos recursos disponíveis. REFERÊNCIAS DREXL, A. KIMMS, A.,
European J. O. Research, 221-235
FERREIRA D, MORABITO R, RANGEL S
production lot sizing and scheduling problem,
FERREIRA, D.; ALAMADA
problema da produção dois estágios com sincronia,
MEYR, H., Simultaneous lotsizes, MOHAMMADI M. et al, Development of heuristics for multiproduct multilotsizing problem with sequence-SEEANNER, F., MEYER, H., production. OR Spectrum 35: 33-TAILLARD, E. Benchmarks for basic scheduling problems. 278-285, 1993. TOLEDO, C.F.M. et al., Glass container production scheduling through hybrid-population based evolutionary algorithm,TRANSCHEL S. et al, A hybrid general lotprocess with a two-stage product structure,
Tabela 1: Dimensão dos problemas gerados
Problema A Problema B ProblemNúmero de Itens (N) 4 7
– Estágio I 2 2 – Estágio II 2 3 2820 4280
Total de variáveis 2541 3851 Variáveis binárias 1940 2920 Variáveis inteiras 340 520
Variáveis reais (não inteiras) 261 411 Coeficientes diferentes de zero 11608 17478
Os parâmetros utilizados para resolução dos problemas foram gerados conforme Taillard (1993), o qual consiste na atribuição de valores aleatórios, dentro de um intervalo
Foram geradas 3 instâncias aleatórias para cada um dos 3 problemas (A, B e C) onde o (diferença percentual entre o melhor bound e a melhor solução inteira encontrada)
tâncias testadas foi de 20,6%.
O principal objetivo deste trabalho foi desenvolver um modelo matemático com 2 e atender a um caso específico, também possa ser utilizado em outras situações na indústria.
Nos testes realizados até o momento, percebe-se que o modelo está bem formulado e devidamente generalizado para uma ampla gama de aplicações.
que com as formulações propostas neste trabalho, seja possível contribuir no segmento industrial de modo a oportunizar uma ferramenta aplicada à gestão que possibutilização dos recursos disponíveis.
Lot sizing and scheduling - Survey and extensions.
235, 1997.
FERREIRA D, MORABITO R, RANGEL S., Solution approaches for the soft drink integrated
sizing and scheduling problem, European J. O. Research 196(2):
AMADA-LOBO, B., RANGEL, S., Formulações Monoestágio para o
dois estágios com sincronia, Produção, v. 23, n. 1, p. 107
., Simultaneous lotsizes, European J. O. Research, n. 139: 277–292, 2002, Development of heuristics for multiproduct multi
-dependent setups, J Appl Sci 9(2): 296–303, 2009 Muti-stage simultaneous lot-sizing and scheduling for flow line -73, 2013.
TAILLARD, E. Benchmarks for basic scheduling problems. European J. O
Glass container production scheduling through hybridbased evolutionary algorithm, Applied Soft Computing 1352–1364
, A hybrid general lot-sizing and scheduling formulation for astage product structure, Int J Prod Res 49(9): 2463–2480, 2011.
Problema C 10 3 3
7760 6976 5340 940 696
31999
Os parâmetros utilizados para resolução dos problemas foram gerados conforme método proposto por Taillard (1993), o qual consiste na atribuição de valores aleatórios, dentro de um intervalo
Foram geradas 3 instâncias aleatórias para cada um dos 3 problemas (A, B e C) onde o solução inteira encontrada)
com 2 estágios, para que possa ser utilizado em outras situações na indústria.
lo está bem formulado e devidamente
seja possível contribuir no segmento possibilitando uma melhor
Survey and extensions.
soft drink integrated
: 697–706, 2009.
Formulações Monoestágio para o
, n. 1, p. 107-119, 2013.
, 2002. , Development of heuristics for multiproduct multi-level capacitated
, 2009. sizing and scheduling for flow line
O. Research, 64, p.
Glass container production scheduling through hybrid multi 1364, 2013.
sizing and scheduling formulation for a production , 2011.
V Simposio de Metodos Numericos Computacionais
109
V Simposio de Metodos Numericos Computacionais
MÉTODOS DE OTIMIZAÇÃO APLICADOS EM UMA EQUAÇÃODIFERENCIAL COM MÚLTIPLOS PONTOS DE FRONTEIRA
Resumo: Neste trabalho exploramos o estudo de métodos de otimização não linear na determinação de soluçãonumérica para uma equação diferencial de segunda ordem com múltiplos pontos de fronteira, em geral este prob-lema é solucionado utilizando métodos baseados no teorema de ponto fixo de Banach ver AGRAWAL AND MEE-HAN AND O’REGAN, (2001). O uso de métodos de otimização não linear mostrou-se vantajoso por permitiruma análise qualitativa dos problemas, além de não depender de que o operador integral seja uma contração navizinhança da solução. Deste modo apresentamos duas abordagens baseadas em métodos de otimização não linearpara o problema: na primeira analisamos uma estratégia baseada no método de Gauss-Newton com a equaçãodiscretizada ; na segunda além da equação discretizada utilizamos como nos métodos baseados no teorema deBanach a equação integral associada a equação diferencial e aplicamos um método de otimização não linear comrestrições.
Palavras-Chave: equações diferenciais, otimização não linear.
Andre Luıs Machado Martinez, EmersonV. Castelani , Gizelli Renata Mendes
110
1 INTRODUÇÃO
Neste artigo analisamos algumas perspectivas na determinação de solução numérica para uma equaçãodiferencial de segunda ordem com múltiplos pontos de fronteira definida como:
u′′ + q(t)f(t, u, u′) = 0,
u(0) = 0 u(1) = g(u(η1), u(η2), ..., u(ηm−2))(1)
onde g : Rm−2 → R , f : [0, 1] × R × R → R e q : R+ → R são contínuas e, possivelmente, nãolineares, η1, ..., ηm−2 ∈ (0, 1).
Este problema é conhecido na literatura como problema de segunda ordem com múltiplos pontos defronteira, ou simplesmente, m-pontos. Os primeiros resultados de existência de solução foram apre-sentados por II’IN AND MOISEEV (1987). Segundo LIN AND CUI (2011) variações deste problemasurgem no contexto de modelos de fluxo elástico e viscoelástico, aplicações relacionadas com designede pontes são apresentadas por ZOU AND ZHANG (2007).
Devido à importância dessa classe de problemas em diversas aplicações, muitos autores têm de-senvolvido estudos considerando variações e generalizações. A maior parte desses estudos são rela-cionados à existência de solução, recomendamos as referências (GUPTA, 1992; AND GUPTA ANDTROFIMCHUK, 1997; MA, 1997; WONG AND AGARWAL, 1995). Diversos trabalhos despontaramtratando da obtenção de solução numérica, recomendamos (CASTELANI AND MA, 2007; LIN ANDCUI, 2011; MARTINEZ AND MARTINEZ AND CASTELANI AND PINTO, 2012), os resultadosnuméricos geralmente não caminham como a existência de soluções e na sua maioria consideram ape-nas métodos baseados no teorema de ponto fixo de Banach, uma exceção é o trabalho de CASTELANIAND MARTINEZ (2014), no qual os autores exploram o uso de métodos de otimização na determi-nação de solução numérica, neste trabalho a equação diferencial de (1) é discretizada e esta da origemao conjunto de restrições para o problema de programação não linear e utiliza-se como função objetivouma variação da condição u(1) = g(u(η1), u(η2), ..., u(ηm−2)), este artigo motivou nosso trabalho noqual exploramos alternativas que podem ser aplicadas a outras equações, trabalhamos com a equaçãodiscretizada e aplicamos o método de Gauss-Newton também utilizamos o fato de que esta classe deproblemas pode ser representada por uma equação integral para utilizar um método de programação nãolinear com restrições.
2 MÉTODOS NUMÉRICOS
Nesta seção apresentamos duas alternativas para determinação de solução numérica para o problema(1), a primeira alternativa se baseia na resolução do sistema não linear obtido com a discretização doproblema, na segunda alternativa a equação discretizada forma o conjunto de restrições e utilizamos umafunção objetivo baseada na representação integral do problema.2.1 Algoritmo 1
Em nossa primeira alternativa, basicamente utilizamos o método de Gauss-Newton recomendamosKELLEY (1999), combinando com interpolação spline. Vamos considerar tj, j = 0, 1, ..., n umapartição de [0, 1], com tj+1 − tj = h = 1
npara todo j = 0, 1, ..., n − 1, denotaremos por uj uma
aproximação para u(tj). Utilizando diferenças finitas obtemos uma discretização para a equação u′′ =f(t, u, u′). Definimos a seguir o sistema não linear r(u) = 0:
r(u) =
uj+1 − 2uj + uj−1h2
+ f
(tj, uj,
uj+1 − uj−12h
)= 0
u1 − g(u(η1), u(η2), ..., u(ηm−2)) = 0(2)
Um algoritmo para resolver o problema (1) é apresentado a seguir.ALGORITMO 1
Passo 1 Definir uniformemente a malha espaçada tj, j = 1, ..., n;
V Simposio de Metodos Numericos Computacionais
111
Passo 2 Escolher a aproximação inicial u0j = u0(tj);
Passo 3 Discretizar o problema (1) por diferença finita, e computar para j = 2, ..., n− 1
u′′k(tj) =
uk(tj+1)− 2uk(tj) + uk(tj−1)
h2, u
′k(tj) =uk(tj+1)− uk(tj−1)
2h
Calcular uk(η), η = (η1, ..., ηm−2) usando interpolação por Spline Cúbica.
Passo 4 Para k = 1, 2, 3, ...(Gauss-Newton para o sistema r(u) = 0, r foi definida em (2)).
a) Compute rk = (r1, r2, ..., rn)T e Ak = (aij)n×n, ri = ri(u
k), aij = ∇ri(uk)
b) Encontre dk tal que (ATkAk)dk = −AT
k rk
c) Determine αk tal que a condição de Armijo seja satisfeita
d) Compute uk+1 = uk + αkdk
Passo 5 Teste a convergência.
2.2 Algoritmo 2Na segunda alternativa, basicamente utilizamos um método de programação não linear para problemas
com restrições. Assim como no algoritmo 1 consideramos tj, j = 0, 1, ..., n uma partição de [0, 1],com tj+1 − tj = h = 1
npara todo j = 0, 1, ..., n − 1, denotaremos por uj uma aproximação para
u(tj). Consideremos como no algoritmo 1 o sistema não linear r(u) = 0 para compor o conjunto dasrestrições do problema. Definimos uma função objetivo que explora algumas propriedades do problema(1) utilizado nos métodos numéricos baseados em ponto fixo.
O problema definido em (1) pode ser modelado como uma equação integral, para isto basta observarque as soluções do problema (1) são pontos fixos do operador
(Tu)(x) =
∫ 1
0
G(x, t)f(t, u(t), u′(t))dt+ g(u(η1), . . . , u(ηm−2))x (3)
onde G é uma função de Green dada por
G(x, t) =
t(1− x), t ≤ xx(1− t), x ≤ t
(4)
Métodos numéricos baseados em ponto fixo, definem uma aproximação inicial para a solução dis-cretizada de (1), u0, então a sequência do método fica determinada como uk+1 = Tuk, a convergênciadesta classe de métodos se baseia no Teorema de Ponto Fixo de Banach, ou seja, converge se T é umacontração em uma vizinhança da solução.
Observe que determinar u que satisfaz T (u) = u é equivalente a determinar u que minimiza ‖T (u)−u‖22, deste modo uma solução de (1) é uma solução do problema de programação não linear abaixo:
min ‖T (u)− u‖22
sujeito a
uj+1 − 2uj + uj−1h2
+ f
(tj, uj,
uj+1 − uj−12h
)= 0
u1 − g(u(η1), u(η2), ..., u(ηm−2)) = 0 (5)Q(u) = 0
onde a restrição Q(u) = 0 representa a possibilidade de inclusão de análise qualitativa do problema,ou seja, esta restrição permite a inclusão de restrições com relação a norma, positividade, concavidadeda solução a ser determinada, caso tenhamos esta informação. Definimos como ALGORITMO 2 a res-olução do problema de programação não linear (5) pela função fmincon do MatLab (www.mathworks.com).
ALGORITMO 2
V Simposio de Metodos Numericos Computacionais
112
Passo 1 Definir uniformemente a malha espaçada tj, j = 1, ..., n;
Passo 2 Escolher a aproximação inicial u0j = u0(tj);
Passo 3 Discretizar o problema (1) por diferença finita, e computar para j = 2, ..., n− 1
u′′k(tj) =
uk(tj+1)− 2uk(tj) + uk(tj−1)
h2, u
′k(tj) =uk(tj+1)− uk(tj−1)
2h
Calcular uk(η), η = (η1, ..., ηm−2) usando interpolação por Spline Cúbica.
Passo 4 Aplique a função fmincon para o problema,
min ‖T (u)− u‖22
sujeito a
uj+1 − 2uj + uj−1h2
+ f
(tj, uj,
uj+1 − uj−12h
)= 0
u1 − g(u(η1), u(η2), ..., u(ηm−2)) = 0Q(u) = 0
calcule as integrais do operador T com o método dos trapézios e uk(η) utilizando Spline Cúbica.
Passo 5 Teste a convergência.
Uma motivação para definirmos os Algoritmo 1 e 2 consiste no fato de que métodos numéricos basea-dos em ponto fixo não permitem a inclusão de análise qualitativa da solução, além disso estes métodosapresentam forte tendência de convergir para a solução de menor norma, quando o problema possuimúltiplas soluções, mesmo utilizando variedade de aproximações iniciais.
3 TESTES NUMÉRICOS
Nesta seção apresentamos os resultados após realizar testes com onze problemas utilizando os algo-ritmos 1 e 2. Primeiramente detalharemos o exemplo 1, no qual as funções componentes do problema(1) são apresentadas a seguir:
f(t, u, v) =
t+ 24
27u3 + ( v
80)2, 0 ≤ u ≤ 3
t+ 24 + u− 3 + ( v80)2, 3 ≤ u
e
g(y) =1
3+
1
4k
k∑
i=1
yi.
η =
(1
10,1
5,2
3,3
4
)
Pode-se mostrar utilizando o teorema de Avery-Peterson, recomendamos AVERY AND PETERSON(2001), que o problema acima possui no mínimo três soluções no espaço de Banach E = C1[0, 1] dasfunções continuamente diferenciáveis em [0, 1] com norma
‖u‖E = max‖u‖∞, ‖u′‖∞.
Segundo o teorema podemos ainda caracterizar as soluções como concavas, positivas e com ‖u‖E ≤ 80.Deste modo podemos incluir no Algoritmo 2 função Q afim de explorar estas características qualitativasdo problema, deste modo obtemos as seguintes restrições adicionais
−uj ≤ 0,∀j = 1, ..., n
uj ≤ 80,∀j = 1, ..., n
V Simposio de Metodos Numericos Computacionais
113
Aplicamos os Algoritmos 1 e 2, utilizamos dez aproximações iniciais diferentes, definidas pela equação
u0(x) = x(nr + 1− x),
onde nr é um número randômico no intervalo [0, 10].Naturalmente, este processo pode retornar múltiplas respostas. Assim precisamos estabelecer um
critério afim de comparar soluções para estabelecer quais seriam distintas. Note que a amplitude dassoluções podem ser diferentes. Neste sentido dizemos que soluções u∗ e u∗∗ são equivalentes se
‖u∗ − u∗∗‖ ≤ max10−8, 10−6min‖u∗‖, ‖u∗∗‖.
Os resultados obtidos pelos algoritmos 1 e 2 foram equivalentes, utilizando o critério acima para com-parar as soluções obtidas, concluímos que pelo menos cinco soluções são diferentes (ver Figura 1).
Figura 1: Soluções numéricas obtidas.
Podemos observar que as solução encontradas são possivelmente concavas, positivas e com ‖u‖E ≤80, como era esperado.
Para este problema também aplicamos o Algoritmo 2 do artigo MARTINEZ AND MARTINEZ ANDCASTELANI AND PINTO, 2012, baseado no teorema de Ponto Fixo de Banach, aplicamos as mesmascondições anteriores utilizando 10 aproximações iniciais diferentes. O método convergiu apenas parauma solução distinta, possivelmente a de menor norma (ver Figura 1).
Com intuito de comparar os Algoritmo 1 e 2, realizamos testes nos quais não incluímos a restriçõesqualitativas no Algoritmo 2. O problemas testados foram retirados dos artigos MARTINEZ ANDCASTELANI, 2008; MARTINEZ AND MARTINEZ AND CASTELANI AND PINTO, 2012; MAR-TINEZ AND MARTINEZ AND CASTELANI AND PINTO, 2013. Utilizamos a função fmincom doMatLab (www.mathworks.com) para aplicar tanto o Algoritmo 1 quanto o Algoritmo 2, especificamenteno caso do Algoritmo 1 consideremos uma função constante como função objetivo na função fmincone implementamos r(u) = 0 como restrição de igualdade, deste modo consideramos o tempo gasto porcada algoritmo nos problemas como um parâmetro de comparação. Na tabela 1 podemos comparar otempo de convergência entre o algoritmo 1 e algoritmo 2.
V Simposio de Metodos Numericos Computacionais
114
t Algoritmo 1 t Algoritmo 2 Aproximação Inicialex1 1.28 s 2.34 s identidadeex2 1.66 s 2.76 s identidadeex4 2.15 s 1.67 s nuloex5 2.44 s 1.95 s nuloex6 2.22 s 2.06 s nuloex7 1.79 s 1.9 s identidadeex8 2.59 s 2.33 s identidadeex9 2.18 s 1.62 s nulo
ex10 2.42 s 1.79 s nuloex11 1.69 s 2.11 s identidade
Tabela 1: Testes com os Algoritmos 1 e 2
4 CONCLUSÃO
Ambos os algoritmos aprsentaram bom desempenho pois convergiram nos onze problemas testados.Observe que esperávamos que o Algoritmo 2 fosse consideravelmente mais lento, pois o custo do calculode ‖Tu − u‖22 deveria implicar em um número maior de operações, porém o tempo gasto entre osalgoritmos foi equilibrado como podemos observar na Tabela 1, isto se deve principalmente ao fato deque o Algoritmo 2 consumiu um número menor de iterações internas.
Pretendemos explorar a eficiência destes algoritmos com outras equações diferenciais que permitemrepresentação através de uma equação integral, bem como explorar as possíveis vantagens de se consid-erar o Algoritmo 2 realizando mais testes. Podemos ressaltar que quando comparamos os Algoritmos1 e 2 com métodos numéricos baseados em ponto fixo, uma grande vantagem é que em problemascom múltiplas soluções podemos determinar todas as soluções e não ficamos necessariamente restritos asolução de menor norma como ocorreu no exemplo 1.
REFERÊNCIAS
Agarwal R., Meehan M., and O’Regan D. Fixed Point Theory and Applications. Cambridge UniversityPress, 2001.
Avery R.I. and Peterson A.C. Three positive fixed points of nonlinear operators in ordered banach spaces.Computers and Mathematics with Applications, 42:313–322, 2001.
Castelani E.V. and Ma T.F. Numerical solutions for a three-point boundary value problem. Communica-tions in Applied Analysis, 11:87–96, 2007.
Castelani E.V. and Martinez A.L.M. Resolvendo uma equação de múltiplos pontos utilizando métodosde otimização. XXXV CNMAC, 2014.
Gupta C.P. Solvability of a three-point nonlinear boundary value problem for a second order ordinarydifferential equation. J. Math. Anal. Appl, 2:540–551, 1992.
Gupta C.P. and Trofimchuk S.I. A sharper condition for the solvability of a three-point second orderboundary value problem. J. Math. Anal. Appl, 2:586–597, 1997.
Il’in V.A. and Moiseev E.I. A nonlocal boundary value problem for the sturm-liouville operator in thedifferential and. Sov. Math. Dokl, 34:507–511, 1987a.
Il’in V.A. and Moiseev E.I. Nonlocal boundary-value problem of the secod kind for a sturm-liouvilleoperator. Differential Equations, 23:979–987, 1987b.
Kalley C.T. Iterative methods for optimization. SIAM, 1999.Lin Y. and Cui M. A numerical solution to nonlinear multi-point boundary value problems in the repro-
ducing kernel space. Mathematical Methods in the Applied Sciences, 34:44–47, 2011a.Lin Y. and Cui M. A numerical solutionto nonlinear multi-point boundary value problems in the repro-
ducing kernel space. Mathematical Methods in the Applied Sciences, 34:545–555, 2011b.
V Simposio de Metodos Numericos Computacionais
115
Ma R. Existence theorems for a second order m-point boundary value problem. J. Math. Anal. Appl,211:545–555, 1997a.
Ma R. Existence theorems for a second order three point boundary value problem. J. Math. Anal. Appl,212:430–442, 1997b.
Martinez A.L.M., Martinez C.P.A., Castelani E.V., and Pinto T.S. Remarks on positive solutions for anm-point boundary value problem. Int. Journal of Appl. Math., 25:281–297, 2012.
Wong P.J.Y. and Agarwal R.P. Existence and uniqueness of solutions for three-point boundary valueproblems for second order difference equations. Proceedings of Dynamic Systems and Applications,1995.
Zou Y., Hu Q., and Zhang R. On numerical studies of multi-point boundary value problem and its foldbifurcation. App. Math. and Comp., 185:527–537, 2007.
V Simposio de Metodos Numericos Computacionais
116
V Simposio de Metodos Numericos Computacionais
MÉTODOS DE HOMOGENEIZAÇÃO PARA OBTENÇÃO DAS
PROPRIEDADES EFETIVAS DO CONCRETO
Resumo: Este artigo apresenta um exemplo de aplicação das técnicas atuais de
homogeneização para modelar o concreto. As técnicas de homogeneização são aquelas que
buscam obter as propriedades efetivas do material a partir das propriedades conhecidas dos
componentes que o formam. Entre as técnicas de homogeneização, discutem-se o limite
superior de Voigt, o limite inferior de Reuss, o método auto-consistente e o método de Mori-
Tanaka. Essas técnicas foram aplicadas para aproximar o valor do módulo de elasticidade do
concreto a partir das propriedades dos agregados graúdos e da argamassa que formam o
concreto. O objetivo ao apresentar este exemplo é divulgar como realizar a aplicação das
técnicas de homogeneização e como proceder ao realizar a análise dos resultados.
Palavras-Chave: Concreto, Técnicas de homogeneização, Método auto-consistente, Método
de Mori-Tanaka, Limite superior de Voigt, Limite inferior de Reuss.
1 INTRODUÇÃO
Analisar as propriedades de materiais heterogêneos é um desafio que tem sido contornado com
a utilização de técnicas de homogeneização, as quais buscam descrever as relações existentes
entre as propriedades conhecidas em escalas menores daquelas que ocorrem em escalas
maiores (WRIGGERS e MOFTAH, 2006).
Como aponta LI e WANG (2008), na natureza praticamente não existem materiais
perfeitamente homogêneos. Entretanto, de maneira geral, mesmo possuindo microestruturas
complexas, o comportamento estatístico destas estruturas pode determinar as respostas médias
que surgem na macroescala.
Para o uso e o entendimento dos métodos de homogeneização é necessário observar que os
materiais compósitos analisados são tratados como modelos contínuos com dois níveis de
análise: a estrutura microscópica e a macroscópica. Geralmente, as propriedades do material
na microescala são conhecidas, enquanto busca-se, através delas, determinar o comportamento
do material na macroescala.
Os métodos de homogeneização, os quais representam a teoria das propriedades
efetivas, partem do princípio de que as relações constitutivas na escala macroscópica podem
ser adquiridas através do comportamento médio dos constituintes na microescala, os quais, por
sua vez, são governados pelas leis físicas apropriadas para cada nível de estudo. Por exemplo,
ao modelar materiais próprios da nano mecânica através de técnicas de homogeneização, deve-
Guilherme Augusto Pianezzer, Fabio Andre NegriBalbo, Liliana Madalena Gramani, Eloy Kaviski
117
se simular as propriedades dos constituintes através das leis físicas próprias desta camada, que
são, no caso, as leis da Mecânica Quântica. Mas, ao tratar de materiais próprios da
micromecânica, os constituintes são simulados a partir das leis da Mecânica do Contínuo ou da
Mecânica Clássica.
Assim, os métodos de homogeneização não evitam a modelagem física do material.
Entretanto, como visto, o fazem de outra maneira: A abordagem se trata de representar uma
estrutura heterogênea por uma estrutura homogênea equivalente. Para facilitar e unificar a
linguagem utilizada por aqueles que lidam com a teoria, determinou-se que a escolha do termo
micro ou macro escala é uma escolha matemática, de maneira que não está associada a nenhum
comprimento de escala específico (LI e WANG, 2008).
As primeiras propostas de simulação foram feitas por Voigt em 1887 e Reuss em 1929.
Seus modelos teóricos são simplificados, mas, além de permitirem ampliar o entendimento dos
fundamentos envolvidos nos métodos de homogeneização, hoje eles são consagrados como
limite superior e inferior, respectivamente, para o verdadeiro valor das propriedades efetivas.
Entre as técnicas atuais serão discutidos o método auto consistente e o método de Mori-
Tanaka, os quais ambos utilizam o tensor de Eshelby (ESHELBY, 1957) para determinar as
propriedades efetivas.
Para aplicação das técnicas o concreto será considerado como um material compósito
composto de duas fases. Como exemplo será utilizado o concreto na mesoescala formado por
argamassa (matriz) e agregados graúdos (inclusões).
2 PROPRIEDADES DOS CONSTITUINTES
O concreto na mesoescala pode ser visto como um material composto de duas fases: argamassa
e agregados graúdos. A ideia básica das técnicas de homogeneização é que não se conhece
informações confiáveis sobre as propriedades do material final, no caso o concreto. Assim,
utilizam-se informações dos constituintes que são obtidas da seguinte maneira.
2.1 Agregado graúdo (Inclusão)
Para determinar as propriedades da inclusão, assumiu-se da literatura [4], que o mesmo possui
módulo de elasticidade de 5.104𝑀𝑃𝑎 e coeficiente de Poison de 1.3𝑥10−1. Além disso,
considerou-se que as inclusões se comportam como isotrópicas. Isso significa que o tensor de
flexibilidade, definido por:
𝑺 =
[ 1/𝐸 −𝑣/𝐸 1/𝐸−𝑣/𝐸 1/𝐸 −𝑣/𝐸−𝑣/𝐸 −𝑣/𝐸 1/𝐸
0 0 00 0 00 0 0
0 0 00 0 00 0 0
1/𝐺 0 00 1/𝐺 00 0 1/𝐺]
. (1)
No qual E representa o módulo de elasticidade e 𝑣 o coeficiente de Poison. Para os
valores obtidos, foi possível determinar o tensor de flexibilidade para a inclusão, 𝑺𝒂𝒈 e ao
inverter este tensor obteve-se o tensor de elasticidade, 𝑪𝒂𝒈.
2.2 Argamassa (Matriz)
De maneira equivalente, obteve-se o modulo de elasticidade e o coeficiente de Poisson para a
argamassa a partir da literatura [4]. Neste caso, os valores de referência foram 3.00𝑥104𝑀𝑃𝑎
V Simposio de Metodos Numericos Computacionais
118
para 𝐸 e 3.00𝑥10−1 para 𝑣. Com estas propriedades, utilizou-se a Equação 1 para determinar 𝑺𝒂𝒓 e inverteu-se o
tensor obtido para determinar 𝑪𝒂𝒈. Neste caso, também foi considerada a isotropia do material.
Tanto no caso da argamassa quanto nos agregados graúdos, a isotropia é uma
aproximação que se mostrou adequada de acordo com os resultados. Entretanto, no interesse
de refinar os métodos de homogeneização deve-se realizar uma modelagem dos constituintes
que mais se adequa ao caso estudado.
3 TÉCNICAS DE HOMOGENEIZAÇÃO
Essa seção apresenta as técnicas de homogeneização utilizadas para calcular as propriedades
efetivas do concreto.
3.1 Método de Voigt
O método de Voigt é um dos mais simples esquemas de homogeneização de material
compósito. A utilidade deste modelo reside no fato de que hoje ele representa um limite
superior (Limite superior de Voigt) para o valor do módulo de elasticidade de um material
compósito, de maneira que representa valores superestimados para esta informação.
Conhecendo informações extraídas da inclusão e da matriz, o modelo de Voigt encontra
o tensor homogeneizado através da seguinte expressão dada pela Equação 2.
= 𝑓𝑎𝑔𝑪𝒂𝒈 + 𝑓𝑎𝑟𝑪𝒂𝒓 (2)
Nesta equação 𝑪𝒂𝒈 e 𝑪𝒂𝒓 representam as propriedades da inclusão e da matriz como
indicados pela seção anterior. O parâmetro 𝑓 diz respeito a fração volumétrica de compósito,
sendo 𝑓𝑎𝑔 a fração volumétrica da agregados graúdos indicando a porcentagem de agregados
presentes no volume do concreto. Como o material é formado apenas pelas duas fases, sabe-se
que:
𝑓𝑎𝑔 + 𝑓𝑎𝑟 = 1 (3)
Calculando-se , pode-se inverter o tensor para calcular e a partir da Equação 1
determinar as propriedades do material. Pelo método de Voigt, o módulo de elasticidade obtido
é de 3.35𝑥104𝑀𝑃𝑎 e o coeficiente de Poison de 2,7𝑥10−1.
3.2 Método de Reuss
O método de Reuss representa um limite inferior para o valor do tensor de elasticidade efetivo
do material compósito. Conhecendo as informações extraídas da inclusão e da matriz, o modelo
de Reuss encontra o tensor homogeneizado através da Equação 4:
= [𝑓𝑎𝑔𝑪𝒂𝒈−1 + 𝑓𝑎𝑟𝑪𝒂𝒓
−𝟏]−1
(4)
Da mesma forma, a partir do tensor de flexibilidade homogeneizado e da Equação 1
chega-se que o modulo de elasticidade e o coeficiente de Poisson são 3,19𝑥104𝑀𝑃𝑎 e
2,84𝑥10−1, respectivamente.
3.3 Método auto consistente
O método auto-consistente utiliza o tensor de Eshelby (ESHELBY, 1957) para o cálculo das
propriedades efetivas. Esse tensor já foi calculado para diversos formatos de inclusão e no
exemplo apresentado aqui os agregados graúdos foram aproximados como circulares (LI e
WANG, 2008). O tensor de Eshelby para inclusões circulares é dado de maneira explícita
através da Equação 5.
V Simposio de Metodos Numericos Computacionais
119
𝐸𝑖𝑗𝑘𝑙 =5𝑣 − 1
15(1 − 𝑣)𝛿𝑖𝑗𝛿𝑘𝑙 +
4 − 5𝑣
15(1 − 𝑣)(𝛿𝑖𝑘𝛿𝑗𝑙 + 𝛿𝑖𝑙𝛿𝑗𝑘) (5)
Onde 𝛿𝑖𝑗 representa o Delta de Kronicker que retorna 1 no caso em que os índices são
iguais e 0 caso contrário. Além disso, o método depende do cálculo de 𝐴𝑎𝑔 dado pela Equação
6:
𝐴𝑎𝑔 = (𝑪𝒂𝒓 − 𝑪𝒂𝒈)−1
: 𝑪𝒂𝒓 (6)
E do cálculo do tensor de concentração dado pela Equação 7.
𝛾 = 𝐴𝑎𝑔: (𝐴𝑎𝑔 − 𝑬)−1
(7)
Assim, o tensor de elasticidade homogeneizado pelo método é dado pela Equação 8.
= 𝑪𝒂𝒓 + 𝑓𝑎𝑔(𝑪𝒂𝒈 − 𝑪𝒂𝒓): 𝛾 (8)
Com o mesmo procedimento de inverter o tensor e comparar com a Equação 1, obteve-
se como módulo de elasticidade 3.23𝑥104𝑀𝑃𝑎 e coeficiente de Poison de 2.79𝑥10−1.
3.4 Método de Mori-Tanaka
O esquema de homogeneização pelo método de Mori-Tanaka apresenta a seguinte estimativa
para o tensor de elasticidade:
= [(𝑓𝑎𝑟𝑪𝒂𝒓 + 𝑓𝑎𝑔𝑪𝒂𝒈: 𝛾): (𝑓𝑎𝑟𝑰 + 𝑓𝑎𝑔𝛾)]−𝟏
(9)
No qual, 𝑰 representa a matriz identidade e os outros parâmetros são os mesmos do
método anterior. Ao aplicar o método, os resultados encontrados para o módulo de elasticidade
e para o coeficiente de Poison foram de 3,24𝑥104𝑀𝑃𝑎 e 2,78𝑥10−1.
4 RESULTADOS ENCONTRADOS
Essas técnicas foram utilizadas na seção anterior para o cálculo das propriedades efetivas no
caso em que a fração volumétrica de agregados graúdos era de 15%. Para este exemplo,
também foram executados casos em que as concentrações de agregados no volume do concreto
eram diferentes.
Foram realizados testes com concentrações de 5% a 45%, intervalo de valores comuns
encontrados nos problemas reais. Os resultados obtidos foram distribuídos em um gráfico como
mostra o Gráfico 1.
V Simposio de Metodos Numericos Computacionais
120
Gráfico 1: Módulo de elasticidade para diferentes concentrações (O autor, 2015)
Neste Gráfico 1, pode-se notar o comportamento que o método proposto por Voigt e
por Reuss possuem em relação a serem um limite superior e inferior, respectivamente. Estes
dois métodos já são comprovados na literatura como bons indicativos deste fenômeno. Para o
caso dado, então, o método auto-consistente e o método de Mori-Tanaka obtiveram resultados
adequados em relação aos dois métodos padrões.
5 CONSIDERAÇÕES FINAIS
Este exemplo permitiu verificar como realizar a aplicação das técnicas de homogeneização em
um problema simplificado. Este resultado faz parte do desenvolvimento da tese desenvolvida
junto ao programa de pós-graduação em métodos numéricos em engenharia que busca
encontrar o real estado de conservação das principais barragens das usinas hidrelétricas do país.
As técnicas de homogeneização têm sido uma aliada para determinar as reais
propriedades efetivas, como pode ser observado pelos trabalhos especializados que o grupo de
pesquisa têm desenvolvido nos últimos anos (BALBO et al, 2015; PIANEZZER et al, 2013;
PIANEZZER et al, 2014)
REFERÊNCIAS
BALBO, F. A. N., PIANEZZER, G. A., GRAMANI, L. M., KAVISKI, E., RASSY, M. T., An
application to the diffusion equation in a model for the damage in concrete due to alkali-silica
reaction, Applied Mathematical Sciences (Ruse), vol 9, pp. 4135-4147, 2015.
ESHELBY, J. D., The determination of the elastic field of an ellipsoidal inclusion and related
problems, Proc. of Roy. Soc., vol 241, pp. 376-396, 1957.
LI, S., WANG, G., Introduction to Micromechanics and Nanomechanics, World Scientific,
2008.
V Simposio de Metodos Numericos Computacionais
121
PIANEZZER, G. A., BALBO, F. A. N., GRAMANI, L. M., KAVISKI, E., RASSY, M. T, Um
algoritmo para geração do elemento representativo do concreto com agregados graúdos em
formato elíptico, Revista SODEBRAS, vol 8, pp. 11-15, 2013.
PIANEZZER, G. A., BALBO, F. A. N., GRAMANI, L. M., KAVISKI, E., RASSY, M. T,
Simulação computacional do teste de carregamento axial, CNMAC2014 – Congresso Nacional
de Matemática Aplicada e Computacional, Natal – RN, 2014.
RASSY, M. T., Uma contribuição para a modelagem da heterogeneidade do concreto com o
método de Galerkin Livre de Elementos., Tese, USP, 2012.
WRIGGERS, P., MOFTAH, S. Mesoscale models for concrete: Homogeneization and damage
behaviour. Finite Element in Analysis and Design, vol. 42, pp. 623-636, 2006.
good friend. Journal of Numerical Methods, 32:2223–2241, 1995a.
V Simposio de Metodos Numericos Computacionais
122
V Simposio de Metodos Numericos Computacionais
METODOLOGIA HÍBRIDA WAVELET NA PREVISÃO DA SÉRIE TEMPORAL DO PÊNDULO DIRETO DO BLOCO F-13 DA BARRAGEM
PRINCIPAL DA USINA HIDRELÉTRICA DE ITAIPU
Resumo: Este artigo propõe um método híbrido wavelet chamado de ArimaX-Garch Wavelet (AXGW) para predições de dados temporais de deslocamento de um bloco da barragem principal da usina hidrelétrica de Itaipu, localizada em Foz do Iguaçu, Paraná, Brasil. Os resultados obtidos com este método pode auxiliar a equipe técnica na execução de atividades preventivas, corretivas e até mesmo para monitoramento da estrutura. A fim de se produzir suas previsões, o previsor AXGW considera informações sobre as estruturas de autodependência linear e não-linear (incluindo, a volatilidade) exibidas pelos dados. Para ilustrar o método proposto em um caso aplicado real, um estudo de caso utilizando uma série temporal diária da usina de Itaipu foi efetuado. Todas as análises numéricas mostraram maior acurácia com o uso da metodologia AXGW em relação à tradicional abordagem Arima-Garch.
Palavras-chave: Decomposição Wavelet, ArimaX-Garch, Segurança de Barragens.
Jairo Marlon Correa, Anselmo Chaves Neto, LuizAlbino Teixeira Junior, Edgar Manuel Carreno Franco
123
1 INTRODUÇÃO
A Itaipu binacional é um dos maiores projetos hidrelétricos do mundo, considerando-se a produção anual. Localiza-se no rio Paraná a 14 km à montante da ponte internacional que liga a cidade de Foz do Iguaçu, no Brasil, à Ciudad del Este no Paraguai. O projeto da barragem da Itaipu foi bastante criterioso tanto em termos de investigação da rocha de fundação quanto dos materiais utilizados na construção das barragens, seguindo um minucioso controle de qualidade, além disso foram instalados aproximadamente 2400 instrumentos, cujas leituras são feitas desde a época da construção com uma periodicidade que varia de semanal até semestral, conforme o tipo de instrumento. Em 2005, como parte de modernização da usina, foi implantado um sistema de aquisição automática dos dados, chamado Automatic Data Acquisition System (ADAS) (ITAIPU, 2015), onde 10% dos instrumentos mais importantes foram automatizados, passando a ter leituras a cada 30 minutos, além da leitura manual já existente. A barragem principal da usina de Itaipu é de concreto, do tipo gravidade aliviada. É composta por 18 blocos, onde estão as tomadas d´água de 16 unidades geradoras (ITAIPU, 2014). A água do reservatório exerce uma pressão na face montante da barragem e também exerce, nas partes inferiores dos blocos, uma subpressão ou empuxo hidrostático que cria um efeito contrário ao que a sua própria massa exerce sobre a fundação. Devido a essas duas forças, a barragem tem uma tendência a apresentar pequenos deslocamentos horizontais, principalmente no sentido montante-jusante. Em contrapartida, as forças estabilizantes ou a favor da segurança são o peso próprio da estrutura e o atrito entre a barragem e a rocha de fundação. De acordo com (ITAIPU, 2009) foram instalados dois tipos de pêndulos em trechos da Usina Hidrelétrica de Itaipu: o pêndulo direto e o invertido. O pêndulo direto é responsável em monitorar os deslocamentos horizontais de pontos dos blocos instrumentados da barragem em determinadas cotas, em relação à fundação da estrutura. Já o pêndulo invertido monitora os deslocamentos da fundação da barragem em relação ao contato concreto/rocha ou a alguma cota determinada no bloco de concreto. Neste estudo, avalia-se a implementação de um modelo de previsão do deslocamento de um bloco da barragem principal da Usina Hidrelétrica de Itaipu por meio do qual seja possível realizar a análise do comportamento da estrutura em torno deste bloco. Tais informações permitirão medidas corretivas em planos de execução e/ou tomada de decisões já adotadas por engenheiros e técnicos especialistas. Assim sendo, é proposta uma metodologia preditiva não-linear híbrida chamada de ArimaX-Garch Wavelet (AXGW) cujo objetivo é gerar previsões para uma série temporal de deslocamento de um bloco da Usina Hidrelétrica de Itaipu, localizada em Foz do Iguaçu, Paraná, Brasil.
2 REVISÃO DA LITERATURA
2.1 Decomposição Wavelet Seja y t 1, … , T uma série temporal de tamanho igual a T, onde T 1. Segundo (TEIXEIRA JUNIOR et al., 2015), uma decomposição wavelet de cada estado y é dada, genericamente, em (1)
y y y
∞
1
Onde: (i) y : ∑ a , ϕ , t∈ e y : ∑ d , ω , t∈ são, respectivamente, as
componentes wavelet (CW) de aproximação de nível m e de detalhe de nível m do estado y ; (ii) a , e d , são, respectivamente, os coeficientes wavelet de aproximação (de níveis m e n)
e de detalhe (de níveis m e n), os quais são, respectivamente, definidos pelo produto interno usual entre y t 1, … , T e ϕ , . t 1, … , T - isto é, a , : ∑ f t ϕ , t ) - e entre y t 1, … , T e ω , t t 1, … , T - isto é, d , : ∑ f t ω , t -, onde m ,m, n ∈ ; e
V Simposio de Metodos Numericos Computacionais
124
(iii) ϕ , t : 2 ϕ 2 t n consiste em uma função escala gerada por superposições de
uma função escala original ϕ . , onde n,m ∈ ; e ω , . : 2 ω 2 . n , onde m, n ∈ , consiste em uma função wavelet gerada por superposições de uma função wavelet original ω . (MALLAT, 2009; TEIXEIRA JUNIOR et al., 2015). Em termos práticos, para decompor séries temporais, é usual se utilizar uma decomposição wavelet de nível r, a qual consiste, basicamente, na decomposição wavelet descrita em (1), com um truncamento na r-ésima componente de detalhe - onde é usual que m é assumido ser igual a r (Teixeira Jr et al., 2012). Com efeito, em uma decomposição wavelet de nível 2 (isto é, r = 2), onde o truncamento, em (1), ocorre na segunda componente de detalhe, adota-se m 2, de modo que o estado y é expandido tal como: y y y y +ε , em que ε é o erro de aproximação em t.
2.2 Modelo ArimaX-Garch Seja y t 1, … , T uma série temporal que exibe estrutura de autodependência linear. Baseado em BOX & TIAO (1975), cada estado y pode ser representado por um modelo ArimaX (p, d, q), conforme em (2).
y ∑ y ∑ θ e ∑ ∑ α x , e (2)
onde: B é o operador de atraso, definido por B y ≔ y , onde k pertence a ; ≔ 1 B é o
operador diferença, onde d é a ordem da diferenciação; e θ são listas ordenadas de
parâmetros complexos, com 0 e θ 0, e α é o parâmetro complexo associado à componente
exógena x , ; e é uma inovação no tempo t que consiste em uma realização de uma variável aleatória ε , onde ε t 1, … , T é um processo estacionário em média zero e covariância constante; e p e q são, respectivamente, as ordens da parte autoregressiva ∑ y (notação: AR(p)) e da parte de
médias móveis ∑ θ e (notação: (MA(q)); e L é a ordem máxima do lag em ∑ α x , da
variável exógena x , , onde i 1, … , r 1 . Note que o termo do erro e , em t, é a realização de uma variável randômica ε , com média zero e variância constante, isto é, σ σ . Em alguns casos a heteroscedasticidade pode depender dos valores observados do passado da série temporal ou de valores passados da sua variância, de tal modo que um modelo AR, bem como suas extensões, pode ser adaptado para projetar a variação temporal. Desta forma, incondicionalmente, a variância é constante, mas condicionada a esses valores passados, poderá mudar temporalmente. Um modelo vastamente utilizado em sua modelagem é o chamado o Heteroscedasticidade Condicional Autoregressiva (GARCH). Segundo BOLLERSLEV (1990), o modelo geral GARCH (P,Q) para a variância condicional σ de inovações ε é dado em (3).
σ γ ∑ γ σ +∑ δ e , (3)
Em (3), as seguintes restrições tem de ser atendidas: ∑ γ +∑ δ 1; γ 0; e γ 0 (j=1,…,P)
e δ 0 (i=1,…,Q) (HAMILTON, 1994). Um modelo composto por (2) e (3) é chamado modelo ArimaX-Garch. Assim, para se obter o melhor modelo ArimaX-Garch, três passos básicos devem ser executados: no passo 1, testar os valores plausíveis para os parâmetros p, d, q, I, L , em (2), e os parâmetros P e Q, em (3), baseado na meio da análise do gráfica das funções de autocorrelação simples e parcial dos erros de previsão padronizados ordinários, z t 1, … , T , e quadráticos, zt
2 t 1, … ,T (BOLLERSLEV, 1990; ENGLE, 1982); no passo 2, definir o método de estimação dos parâmetros do modelo ArimaX-Garch (o método mais comum é o de Máxima Verossimilhança (Hamilton, 1994)); e, no passo 3, analisar os testes de diagnósticos para validar (ou não) o modelo ArimaX-Garch estimado.
V Simposio de Metodos Numericos Computacionais
125
3 METODOLOGIA PROPOSTA
Seja y t 1, … , T uma série temporal com estrutura de autodependência linear e não-linear a ser projetada. A representação por meio de fluxograma do método AXGW é dado na Figura 1.
série temporal
(amostra de treino)
decomposição wavelet de nível r
componente wavelet de detalhe
de nível m0
componente wavelet de
aproximação de nível m0
componente de detalhe de nível
m0+(r‐1)
Arima‐Garch1
previsão fora da amostra
Arima‐Garch2
previsão fora da amostra
Arima‐Garchr+1
previsão fora da amostra
variável exógena
wavelet VEW1
variável exógena wavelet VEW2
variável exógena wavelet VEWr+1
modelo ArimaX‐Garch
Wavelet
previsões ArimaX‐Garch
Wavelet
...
...
...
Figura 1 - Fluxograma do método AXGWN.
Mais detalhadamente, o método AXGW consiste na execução dos seis passos a seguir. (1) realiza-se uma decomposição wavelet de nível r de y t 1, … , T , produzindo r+1, representadas pela lista
x , , … , x , ; (2) cada CW produzida no passo (1) é modelada, individualmente, por
meio de um modelo Arima-Garch, a fim de se gerar previsões fora da amostra; (3) As CWs do passo 1 são completadas pelas respectivas previsões geradas no passo 2, obtendo-se as Variáveis Exógenas Wavelet (VEWs), dotadas de informações da frequência espectral (MALLAT, 2009) associadas a y t 1, … , T ); (4) é feita a projeção da série temporal subjacente através de um modelo ArimaX-Garch utilizando as VEWs produzidas no passo (3); e (5) as previsões oriundas dos passos 4 são realizadas, para cada instante t, gerando as predições híbridas de y t 1, … , T .
V Simposio de Metodos Numericos Computacionais
126
4 RESULTADOS NUMÉRICOS
Nesta seção, os principais resultados numéricos de uma aplicação do modelo Arima-Garch tradicional (benchmark) e do método AXGWN (proposto) a uma série temporal de aferições diárias do deslocamento de um bloco da barragem da usina de Itaipu são mostrados. 4.1 Série temporal de deslocamento Uma série temporal de deslocamento físico de um bloco da barragem que abastece a usina hidrelétrica de Itaipu é modelada devido às suas propriedades estatísticas e à sua relevância. Na figura 2, o seu gráfico mostra o comportamento temporal das 2.023 observações, em intervalos diários, os quais foram coletados do sistema automatizado ADAS.
12
13
14
15
16
17
18
250 500 750 1000 1250 1500 1750 2000
Desloca
mento
(mm)
Figura 2 - Série temporal diária de deslocamento físico de um bloco da barragem da usina de Itaipu.
Foram utilizadas as 1658 primeiras observações, que compuseram a amostra de treino, para obtenção dos parâmetros ótimos dos dois métodos preditivos envolvidos, enquanto as observações subsequentes, com três horizontes de previsão distintos, formaram a amostra de teste (h=30, h=182 e h=365). Considerando o teste de raiz unitária de Augmented Dickey-Fuller (ADF) (Hamilton, 1994), não se rejeitou a hipótese nula de não estacionariedade de primeira ordem da série temporal em questão, ao nível de 1% de significância. Por outro lado, ao considerar a série transformada com a aplicação do logaritmo, seguida da diferenciação, rejeitou-se fortemente a hipótese nula, ao nível de 1% de significância. As funções de autocorrelação simples e parcial (Box et al., 2008), referidas aqui como FAC e FACP, respectivamente, de sua versão transformada, bem como de sua versão quadrática exibiu valores de autocorrelações simples e parciais significativas, ao nível de 1%, cuja volatilidade é capturada com o uso do modelo Arima-Garch. Uma vez que não havia variáveis exógenas adequadas disponíveis para serem usadas pelo modelo ArimaX-Garch, foi adotado o modelo Arima-Garch como benchmark. É importante salientar ainda que foram produzidas, pelos modelos Arima-Garch (benchmark) e AXGW (o qual é proposto aqui) somente previsões 1 passo à frente, para um horizonte de previsão iguais a 30, 182 e 365 passos à frente. Para os diagnósticos dos resíduos, na etapa de modelagem, foram utilizados os seguintes critérios: teste de Ljung-Box (para verificação de existência de autocorrelação significativa até o lag 36); estatística de Durbin-Watson (para analisar a evidência empírica de autocorrelação de lag 1); análises gráficas da FAC e da FACP (para visualizar, respectivamente, a presença de autodependência linear simples e parcial significativas, até o lag 36); teste ARCH (para verificação de evidência de heteroscedasticidade condicional significativa, até o lag 36) (HAMILTON, 1994). Todos os modelos Arima-Garch, bem como as suas análises residuais, foram executadas no software EViews 8 (www.eviews.com/). 4.2 Modelo Arima-Garch tradicional O modelo Arima-Garch com maior aderência à série temporal de deslocamento considerada foi o Arima-Garch (4,1,4) (1,1), com transformação logarítmica seguida por dupla diferenciação. Todas as estimativas de máxima verossimilhança seus parâmetros, tanto da equação da média condicional e
V Simposio de Metodos Numericos Computacionais
127
quanto da variância condicional, foram estatisticamente significativas, ao nível de 1% e satisfaziam às condições de estacionariedade e invertibilidade. Em todos os testes residuais, aceitou-se a hipótese de inexistência de autocorrelação nos resíduos padronizados ordinários e quadráticos, a 1% de significância - o que significa que o modelo Arima-Garch capturou uma estrutura de autodependência plausível. Em particular, a estatística Durbin-Watson, calculada a partir dos resíduos ordinários padronizados, obteve valor igual a 2.065517, que sugere a inexistência de autocorrelação de lag 1 (por ser muito próxima ao valor referência 2). Salienta-se ainda que, dentre todos os modelos Arima-Garch plausíveis identificados, foram adotadas, como critério de seleção, as seguintes estatísticas de aderência, na amostra de treinamento: Absolute Percentage Error (APE), Mean Absolute Percentage Error (MAPE), Mean Absolute Error (MAE) e explanation coefficient (R2) (HAMILTON, 1994). 4.3 Método AXGW Para a implementação do método AXGW, foi utilizado o software MATLAB versão 2013a (www.mathworks.com/) e o software EViews 8 (www.eviews.com/). Primeiramente, foi realizada, no MATLAB, uma decomposição wavelet de nível 2 da amostra de treino da série temporal t 1, … ,1658 de deslocamento em questão, de maneira a gerar: uma CW de aproximação de
nível 2, a qual é denotada por A2,t t 1, … ,1658 ; duas CWs de detalhes de níveis 2 e 3, as quais são denotadas, respectivamente, por D2,t t 1, … ,1658 e D ,t t 1, … ,1658 . Para tal, foram utilizadas as funções originais escala ϕ . e wavelet ω . da família de Daubechies com momento nulo igual a 40 (Mallat, 2008). O critério de escolha da família wavelet foi baseado na minimização de ∑ ε , onde: A2,t 2,t ,t ε , para todo t=1,...,1658. Foram testadas as famílias de Daubechies de momento nulo igual a 1 até 40 (ou seja, 40 diferentes famílias). No passo 2 do método AXGW, cada uma das três componentes wavelet , , , e , t 1, … ,1658 foi modelada usando um modelo Arima-Garch (descrita na seção 2.2), a fim de se
produzir as seguintes sequências de previsões para cada um dos horizontes de previsão: y , , y , e y , t 1658,… , h (para h=30, h=182 e h=365). No passo 3, as três componentes wavelet do passo 1 são completadas pelas h previsões geradas no passo 2, gerando as três componentes wavelet completadas (denotadas por y , , , y , , e y , , ou, equivalentemente, por x , x e x ). Estas são interpretadas como se fossem, de fato, variáveis exógenas convencionais. No passo 4, por sua vez, tais variáveis exógenas artificiais wavelet são utilizadas em um modelo Arima-Garch. A sua componente ArimaX é dada por: y 0,118616x , 0,160258x , 0,160258x , 0,015052x ,
0,076524x , 0,295753y 0,413187y 0,367060y 0,303136y0,0746118e 0,041489e 0,094745e 2,285675σ . 4 Note, em (4), que todas as três variáveis exógenas artificiais wavelet obtidas no passo 2 foram utilizadas, porém na sua forma defasada. Além disso, a previsão da variância σt
2, gerada no modelo (5), fornece um efeito redes neurais artificiais para a construção da previsão da média condicional yt. Por sua vez, a sua componente Garch é dada pelo modelo Garch (1,1), com distribuição GED (Hamilton, 1994) para os resíduos padronizados, a qual é dada em (5).
σt2 0,00000154 0.252298 et 1
2 0.612211σt 12 . (5)
O método da Máxima Verossimilhança (veja MILLAR, 2011) foi usado para se obter as estimativas do modelo Arima-Garch, em (4) e (5). Todas as estimativas foram estatisticamente significantes, ao nível de 1%, e satisfaziam às condições de estacionariedade e invertibilidade. Foram analisadas as funções FAC e a FACP (até o lag 36) dos resíduos padronizados ordinários e quadráticos. Em todos os lags até 36, os valores de autocorrelação simples e parcial permaneceram dentro dos intervalos de confiança, com 99% de credibilidade, o que sugere autocorrelações não diferentes de zero, a 1% de significância. Baseado na estatística de Ljung-Box sobre os resíduos padronizados ordinários, na amostra de treino, verificou-se que não havia evidência de
V Simposio de Metodos Numericos Computacionais
128
autodependência linear e quadrática significativas, ao nível de 1%, até a defasagem 36. O teste Arch confirmou inexistência de evidência empírica, ao nível de 1% de significância, de heteroscedasticidade nos resíduos padronizados ordinários de treino, até o lag 36. Por fim, a estatística Durbin-Watson foi 2.035487 sugere, empiricamente, a inexistência de autocorrelação de lag 1, nos resíduos padronizados, na amostra de treino. 4.4 Comparativos de Desempenho A Tabela 1 fornece os valores obtidos pelas estatísticas de aderência MAPE e MAE, nas amostras de treinamento e de teste.
Tabela 1 - Performance de previsões dos Arima-Garch e AXGWN.
MÉTODO MAPE MAE
Dentro da Amostra
Fora da Amostra
Dentro da Amostra
Fora da Amostra
Arima-Garch (h=30) 0,78% 3,64% 0,020 0,096 AXGW (h=30) 0,71% 1,27% 0,018 0,033
Arima-Garch (h=182) 0,32% 5,39% 0,048 0,779 AXGW (h=182) 0,20% 0,24% 0,030 0,035
Arima-Garch (h=365) 0,32% 12,06% 0,048 1,798 AXGW (h=365) 0,19% 2,53% 0,029 0,040
Note, na Tabela 1, que o método AXGW obteve melhor desempenho preditivo em relação ao modelo Arima-Garch, tanto dentro da amostra (amostra de treino) e quanto fora da amostra (amostra de teste). É desejável que as previsões sejam as mais acuradas possíveis para que os processos decisórios operacionais e financeiros, que por sinal são grandes, sejam executados no momento correto. Salienta-se que a execução de ações operacionais de reparos na barragem ou de investimentos desnecessários ou em períodos inoportunos, pode acarretar, dentre outras coisas, em altas perdas financeiras. A Figura 3 mostra o gráfico dos Erros Percentuais Absolutos (APEs) calculados para h=365 previsões fora da amostra, para ambos os modelos. Note que o modelo AXGWN mostra que os APEs foram baixos do que o modelo Arima-Garch na maioria dos 365 pontos; além de apresentar maior estabilidade (isto é, menores “picos”) na flutuação dos erros. Por fim, o APE máximo do modelo Arima-Garch foi aproximadamente igual a 27,62%, enquanto que o APE máximo do AXGWN foi 5,79%. Em termos do coeficiente R2 (que mede a variabilidade explicada pelos modelos, na amostra de treinamento), o modelo Arima-Garch obteve R 0,131408 e o AXGWN, de R 0,548725.
Figura 3 – Comparação da evolução temporal do APE, na amostra de teste, dos métodos Arima-Garch e AXGW.
0,00%
5,00%
10,00%
15,00%
20,00%
25,00%
30,00%
1
12
23
34
45
56
67
78
89
100
111
122
133
144
155
166
177
188
199
210
221
232
243
254
265
276
287
298
309
320
331
342
353
364
APE
Horizonte de Previsão
AXGW Arima‐Garch
V Simposio de Metodos Numericos Computacionais
129
5 CONCLUSÕES
Neste artigo, é proposto um novo método preditivo híbrido, designado por ArimaX-Garch Wavelet, para a previsão de séries temporais de deslocamento de blocos de barragem que utiliza variáveis exógenas wavelet (obtida a partir da decomposição wavelet da série subjacente), como se fossem, de fato, variáveis exógenas. Este método foi utilizado para a modelagem da série temporal diária, oriunda das aferições do pêndulo em um dos blocos da barragem principal da Usina de Itaipu, que possibilitou inserir informações (decodificadas no domínio do tempo) da frequência espectral (Souza et al., 2015) presente nos dados na modelagem para a construção das previsões. De fato, as previsões agregaram informações provenientes das estruturas lineares (por meio do modelo Arima), não-lineares (via modelo Garch) e da frequência espectral (por meio da utilização das CWs como variáveis exógenas) exibidas pela série temporal subjacente. Com efeito, o método proposto foi mais preciso que o tradicional modelo Arima-Garch. A utilização das componentes wavelet se tornou viável uma vez que as de detalhe são sempre um processo estacionário de segunda ordem (o que é requerido para as variáveis exógenas da modelagem ArimaX). Além disso, a de aproximação pode ser modelada por um Arima-Garch sempre que a série de tempo original também for capaz de sê-lo. Ainda, as componentes wavelet, bem como as suas versões defasadas, tendem a apresentar autocorrelação com a série temporal original, uma vez que são obtidas a partir desta. Por fim, salienta-se também que o método proposto pode ser operacionalizado de uma forma relativamente simples, com a utilização dos software mencionados no texto.
REFERÊNCIAS
BOLLERSLEV, T., 1990. Generalized Autoregressive Conditional Heteroscedasticity. Journal of Econometrics, 31, pp.307–327. BOX, G.E.P., Jenkins, G.M. and Reinsel, G.C., 2008. Time Series Analysis: Forecasting and Control. 4th ed. ed. Hoboken, NJ: Wiley. BOX, G.E.P. and TIAO, G.C., 1975. Intervention Analysis with Applications to Economic and Environmental problems. Journal of American Statistical Association, 70(349), pp.70–79. ENGLE, R.F., 1982. Autoregressive Conditional Heteroscedasticity with Estimates of the Variance of United Kingdom Inflation. Econometrica, vol. 50(No. 4), pp.987–1007. HAMILTON, J., 1994. Time Series Analysis. Princeton University Press. ITAIPU, 2009. Usina Hidrelétrica de Itaipu: Aspectos de Engenharia. Foz do Iguaçu: TAB Marketing Editurial. ITAIPU, 2014. Energia hidráulica. [online] Available at: <https://www.itaipu.gov.br/energia/energia-hidraulica> [Accessed 8 May 2014]. ITAIPU, 2015. Nada escapa ao setor que ‘respira’ segurança de barragem. [online] Available at: <http://jie.itaipu.gov.br/print_node.php?secao=turbinadas1&nid=11685> [Accessed 3 May 2015]. MALLAT, S., 2008. A Wavelet Tour of Signal Processing: The Sparse Way. Third Edit ed. MILLAR, R.B., 2011. Maximum Likelihood Estimation and Inference: With Examples in R, SAS and ADMB. Wiley. SOUZA, A.C.C. de, RODRIGUES, A.L. and PACHECO, D.A. de J., 2015. Métodos quantitativos de previsão de demanda aplicados em orçamento de despesas. Revista ESPACIOS, 36(10). TEIXEIRA JÚNIOR, L.A., MENEZES, M.L. de, CASSIANO, K.M., PESSANHA, J.F.M. and SOUZA, R.C., 2012. Modelagem Box e Jenkins, decomposição wavelet e programação matemática na geração de previsões. XV Simpósio de Pesquisa Operacional e Logística da Marinha. TEIXEIRA JÚNIOR, L.A., SOUZA, R.M., MENEZES, L.M., CASSIANO, K.M., PESSANHA, J.F.M. and SOUZA, R.C., 2015. Artificial Neural Network and Wavelet decomposition in the Forecast of Global Horizontal Solar Radiation. Sobrapo, 35(1), pp.1–16.
V Simposio de Metodos Numericos Computacionais
130
V Simposio de Metodos Numericos Computacionais
UMA DISCUSSÃO SOBRE H-ADAPTATIVIDADE NO MÉTODO DOS
ELEMENTOS FINITOS APLICADO AO PROBLEMA DE VIGA DE EULER-
BERNOULLI
Resumo: O corrente trabalho discute a análise de erros de aproximação, suas estimativas e a
adaptatividade da malha quando da aplicação do Método dos Elementos Finitos. Para tanto, utiliza o
problema de viga de Euler-Bernoulli. A estimativa dos erros baseia-se na recuperação das derivadas
de ordem superior. São empregados os seguintes estimadores: estimador fundamentado na Média
Nodal Simples e estimador Superconvergent Patch Recovery. A solução do problema unidimensional
de flexão de vigas finas é obtida utilizando elemento de 2 nós e 2 graus de liberdade por nó. Com o
cálculo do erro, utiliza-se um processo h-adaptativo para gerar malhas com vistas a satisfazer o
critério de malha ótima de erro uniforme e não superior ao erro admissível. Através de exemplos
numéricos é realizada uma análise comparativa entre os diferentes estimadores no contexto de um
processo h-adaptativo.
Palavras-Chave: Método dos Elementos Finitos, H-adaptatividade, Estimadores de erro a posteriori.
1 INTRODUÇÃO
Muitos métodos numéricos são empregados atualmente, entre eles, o Método das Diferenças Finitas,
Método de Elementos de Contorno, Método de Elementos Finitos (MEF) etc.. No presente trabalho,
é utilizado o MEF, no qual a presença de erros numéricos é inevitável e as questões fundamentais
são: Quais são os erros relativos ao MEF? Como o erro pode ser medido, controlado e efetivamente
minimizado?
Os erros introduzidos na solução do MEF de uma dada equação diferencial podem ser atribuídos a
três razões principais (REDDY, 2006): Erro de aproximação de domínio, erros de aritmética finita e
quadratura e erros de aproximação.
As estimativas de erros de aproximação podem ser divididas, em geral, em duas categorias
principais: estimativas de erro a priori e estimativas de erro a posteriori (AINSWORTH e ODEN,
2000). Esta estimativa permite o cálculo dos erros locais, possibilitando o emprego de estratégias
adaptativas que conduzam a um erro limitado ao longo do domínio.
Neste contexto, o corrente trabalho trata da análise de erros de aproximação, suas estimativas e a h-
adaptatividade da malha, utilizando o MEF para resolver um problema de viga fina segundo a teoria
de Euler-Bernoulli, no qual a seguinte discussão é posta: Matematicamente sabe-se que os erros
dominantes ocorrem na derivada superior de uma dada equação diferencial, nesse caso, na terceira
derivada da solução. Por outro lado, fisicamente, o corrente problema é caracterizado por possuir a
grande maioria de sua energia de deformação ocasionada por tensões de flexão, a qual é proporcional
ao momento fletor, ou seja, proporcional à segunda derivada da solução a menos de uma constante.
Dessa maneira, propõem-se duas formas de análise. A primeira refere-se a avaliar dois estimadores
Jederson da Silva, Francielly Elizabeth de Castro Silva,Jucelio Tomas Pereira, Joao do Carmo Lopes Goncalves
131
de erros (estimador fundamentado na Média Nodal Simples (MNS) e estimador Superconvergent
Patch Recovery (SPR)) aplicados para guiar um processo h-adaptativo baseado na seminorma de
ordem três do erro elementar. A segunda busca conduzir o processo h-adaptativo com base na
seminorma de ordem dois do erro elementar.
2 FUNDAMENTAÇÃO TEÓRICA
Nesta seção é apresentada uma breve fundamentação teórica referente aos estimadores de erro, ao
processo h-adaptativo e ao critério de malha ótima.
2.1 Problema de Viga de Euler-Bernoulli
O corrente problema trata da flexão de viga fina elástica e linear segundo a teoria de Euler-Bernoulli.
O objetivo é encontrar a função deflexão da viga w(x) que satisfaça um problema de valor de
contorno (PVC), posto como (REDDY, 2006):
2 2
1
2 2
o L o L
x 0 x L
d d wEI f , para x Ω 0, L R
dx dx
dw dww(0) w , w(L) w , r e r ,
dx dx
(1)
onde, L é o comprimento total da viga, I é o momento de inércia da seção transversal, E é o módulo
de elasticidade longitudinal do material, 0 Lr e r são rotações prescritas nas extremidades da viga, ow
e Lw são deflexões prescritas nas extremidades da viga e f f x é uma função carregamento
transversal à viga definido na forma de força por unidade de comprimento.
Uma maneira alternativa de apresentar o PVC posto anteriormente, é através de sua forma
variacional equivalente:
2
2 22
02 2
(x) H
d w d
Encon
vEI d f vd , v H .
dx d
trar w que satis z
x
fa
(2)
onde o termo a esquerda e a direita da Eq. (2) representam, respectivamente, a forma bilinear
contínua associada ao problema definida em 2 2H x H e um funcional contínuo e linear. Além disso,
v é uma função de variação cinematicamente admissível e 2H é o espaço de funções de Hilbert de
segunda ordem com suporte compacto em Ω .
2.2 Estimador de Erro
Por simplicidade, toda a formulação aqui apresentada faz referência a terceira derivada das
deflexões, sendo aplicada posteriormente também considerando a segunda derivada da solução.
Assim, a derivada de terceira ordem das deflexões elementares obtidas via MEF ( V ) é dada por
ˆ ˆ ,V Dw (3)
onde D representa a matriz da terceira derivada das funções de forma e w é o vetor de deflexões
elementares.
O erro de aproximação pode ser calculado através da diferença entre a solução analítica ( w ) e a
solução aproximada ( w ) obtida pelo MEF, sendo, expresso por (ZIENKIEWICZ e TAYLOR, 2000)
ˆe w w. (4)
Para se obter uma medida escalar do erro, adota-se a seminorma de ordem três do erro elementar:
V Simposio de Metodos Numericos Computacionais
132
T2
.ˆ ˆe d
V V V V (5)
A variável supracitada ( V ) é a função de terceira derivada das deflexões obtida analiticamente.
Uma maneira de quantificar o erro medido pela seminorma é o erro relativo percentual, , dado por
e
100,u
(6)
onde a energia total acumulada u é obtida como
2 T .u d
V V (7)
Como as soluções analíticas não são conhecidas, busca-se empregar uma solução com uma taxa de
convergência superior à solução gerada diretamente pelo MEF, a qual é denominada de solução
recuperada e representada por *V . Assim, o estimador de erro torna-se
T2
* * *ˆ ˆe d
V VV V . (8)
A qualidade dos estimadores de erro, geralmente, é medida pelo índice de efetividade ( ), dado pela
razão entre o erro estimado e o erro verdadeiro.
2.3 Método das Médias Nodais Simples (MNS)
Considerando que cada nó é conectado a um total de noNel elementos, pode-se estimar o vetor de médias
nodais da terceira derivada das deflexões recuperadas (*
nV ) como (ZIENKIEWICZ e ZHU, 1987)
no
*
n
Nel
ii 1no
.1 ˆ
Nel
V V (9)
Um campo suavizado que é contínuo entre os elementos pode ser construído através das mesmas
funções de interpolação utilizadas para interpolar as deflexões. Dessa forma, o campo suavizado
sobre um elemento qualquer pode ser posto como
* *n .V V (10)
onde *V é o vetor da terceira derivada da deflexão recuperada no elemento.
2.4 Método Superconvergent Patch Recovery (SPR)
A ideia básica deste método, introduzido por ZIENKIEWICZ e ZHU (1992a, 1992b), é idêntica à
empregada pelo estimador MNS, ou seja, estima o erro através de um campo suavizado e contínuo ao
longo de todo o domínio, obtido através da Eq. (10).
O SPR obtém um polinômio que aproxima, neste caso, a terceira derivada da deflexão e define os
valores recuperados nos nós utilizando um ajuste por mínimos quadrados de soluções obtidas nos
pontos superconvergentes. No desenvolvimento do SPR é necessário utilizar o conceito de padrões,
os quais são definidos pelos elementos que estão conectados a um mesmo nó.
De acordo com ZIENKIEWICZ e ZHU (1992a, 1992b), a solução recuperada da terceira derivada da
deflexão, pode ser escrita como
*n 1, x V pa a , (11)
sendo os coeficientes do polinômio p dados por
V Simposio de Metodos Numericos Computacionais
133
T
1 2a , a a . (12)
Estes coeficientes são obtidos pela minimização da distância quadrática entre este polinômio e os
valores da terceira derivada da deflexão nos pontos de Gauss dos elementos que compõe o padrão
para o nó. Tendo determinados os coeficientes do polinômio, substituem-se as coordenadas do nó
central do padrão na Eq. (11) para calcular os valores nodais da terceira derivada da deflexão *
nV .
Com isso, emprega-se a Eq. (10) para obter a distribuição da terceira derivada da deflexão ao longo
de todo o conjunto de elementos.
2.5 Malha h-adaptativa
Através dos estimadores de erro descritos, um processo h-adaptativo é iniciado. Neste, espera-se que
o erro relativo percentual para uma malha k , seja menor ou igual a um valor admissível .
Assim, tomando uma malha k , onde k , busca-se uma nova malha k 1 tal que k 1
.
Como critério de malha ótima, este trabalho emprega equidistribuição do erro elementar, do qual o
novo tamanho de cada elemento pode ser posto como (ZIENKIEWICZ e ZHU, 1987):
1
p
oldnew hh , sendo el,old el,new
e e . (13)
onde oldh e
el,olde são respectivamente, o tamanho e o erro do elemento corrente e
el,newe é o
erro para um elemento el na malha k 1 . Neste caso, é um parâmetro de erro local elementar que
indica se a malha será refinada 1 ou não 1 . O erro admissível para cada elemento é
calculado como
11222 22*
el,new,
u e ue
Nel Nel
(14)
onde *e é o erro total na seminorma e dado por
Nel2 2
* *
elel 1
e e ,
(15)
e u é a medida da energia total acumulada (obtida via MEF).
Com o objetivo de controlar uma possível grande oscilação no tamanho dos elementos (FANCELLO
e FEIJÓO, 1992), o parâmetro de refinamento é atualizado como posto abaixo:
ie
ie ie ie
ie
ie ie ie
1, para 1.
21
, para 1.4
(16)
3 EXEMPLOS NUMÉRICOS
Neste exemplo, a solução aproximada do PVC dado pela Eq. (1) é definida em função dos seguintes
parâmetros escalares: 6 4I = 50.10 m , E 200 GPa e L 2 m . As condições de contorno
caracterizam uma viga biengastada ( o Lr r 0 e o Lw w 0 ). O carregamento externo distribuído,
f , é definido tal que a solução analítica w seja dada por uma modificação da solução analítica
proposta por ZIENKIEWICZ e TAYLOR (2000). Nesse caso,
V Simposio de Metodos Numericos Computacionais
134
1w x x 2 x tan x 1 , onde = 3 . (17)
A estrutura computacional foi programada utilizando o software Matlab. Em geral, considera-se que
uma solução é convergente caso satisfaça dois critérios, um critério global ( k 1 ) e outro local
( 1 ). Aqui é considerado um único critério de parada como definido por OÑATE e BUGEDA
(1993) que procura atender ambos os critérios simultaneamente. Neste caso, espera-se que o
parâmetro de refinamento elementar, o qual é definido pela multiplicação do parâmetro de erro
global pelo parâmetro de erro local elementar, esteja abaixo da unidade (no corrente estudo,
considera-se 1,2 como o máximo valor admissível).
A avaliação da eficiência dos vários estimadores aplicados ao processo adaptativo é conseguida
através de uma comparação entre variáveis que caracterizam o processo como: número de graus de
liberdade ( NGL ), erro relativo global percentual em terceira e segunda derivada ( 3 e 2 ), índice de
efetividade global ( ), desvio do índice de efetividade ( D ) e máximo parâmetro de refinamento
elementar ( ie,máx ). Entende-se por desvio de índice de efetividade, uma medida escalar que
considera todos os índices de efetividades elementares, expressa por:
el
2N
ie
ie 1
D 1 N,
(18)
onde ieθ é o índice de efetividade elementar (para uma estimativa ideal D = 0).
São empregados os parâmetros iniciais: recuperação do erro na terceira derivada da solução, malha
uniforme com oito elementos e = 1%. As soluções iniciais e convergentes (vista ampliada na
região de maior oscilação da solução, ou seja, no centro da viga) podem ser visualizadas na Figura 1
e 2. Os resultados das iterações do processo adaptativo são fornecidos na Tabela 1.
Tabela 1 - Resultados para recuperação da terceira derivada da solução.
Estimador Malha 1 Malha 2 Malha 3 Malha 4 Malha 5
Média Nodal Simples
(MNS)
*
3 46,76% 10,98% 2,93% 1,40% 0,74%
0,7161 1,0456 1,0047 1,0018 1,0009
NGL 18 62 150 282 502
ie,máx 67,95 22,20 4,50 2,30 0,87
D 3,92 1,34 0,80 0,20 0,31
2 7,7973% 0,2603% 0,0286% 0,0094% 0,0032%
Superconvergent
Patch Recovery (SPR)
*
3 46,76% 10,98% 2,94% 1,40% 0,75%
0,7161 1,0463 1,0115 1,0090 1,0029
NGL 18 62 150 282 498
ie,máx 67,95 22,20 4,62 2,38 0,90
D 3,92 1,33 0,84 0,22 0,48
2 7,7973% 0,2603% 0,0280% 0,0092% 0,0033%
Além da eficiência de ambos os estimadores percebe-se que o erro relativo percentual global em
terceira derivada obtido pelos respectivos estimadores (*
3 ) é maior do que o erro relativo percentual
global analítico em segunda derivada ( 2 ).
V Simposio de Metodos Numericos Computacionais
135
(a) (b)
Figura 1 –Resultados para função terceira derivada e estimador MNS. Malha: (a) Inicial. (b) Após convergência.
(a) (b)
Figura 2 –Resultados para função terceira derivada e estimador SPR. Malha: (a) Inicial. (b) Após convergência.
Por fim, os seguintes parâmetros são utilizados: recuperação na segunda derivada da solução, malha
uniforme com oito elementos e = 1%. A solução inicial e convergente (vista ampliada com centro
em 0,775 metros) pode ser visualizada na Figura 3. Os resultados das iterações do processo
adaptativo são demonstrados por meio da Tabela 2.
(a) (b)
Figura 3 –Resultados para função segunda derivada e estimador SPR. Malha: (a) Inicial. (b)Após convergência.
Neste caso, o estimador MNS não é aplicado para a abordagem baseada na segunda derivada da
solução, pois este estimador não apresenta bons índices de efetividade quando a recuperação de uma
V Simposio de Metodos Numericos Computacionais
136
solução quadrática é necessária (SILVA, 2015).
Tabela 2 – Resultados para recuperação da segunda derivada da solução.
Estimador Malha 1 Malha 2 Malha 3
Superconvergent
Patch Recovery
(SPR)
*
2 9,79% 0,90% 0,49%
1,2574 1,0138 1,0065
NGL 18 30 38
ie,máx 18,65 1,43 0,67
D 5,43 0,34 0,21
3 59,45% 18,62% 13,09%
4 CONCLUSÕES
O presente trabalho mostra que, caso o erro em terceira derivada, ou seja, o erro medido no esforço
cortante a menos de uma constante, seja desprezado, a utilização da adaptatividade na segunda
derivada da solução pode tornar-se interessante, uma vez que para o mesmo erro admissível, a malha
adaptada possui uma redução do número de graus de liberdade. Para isso deve-se utilizar um
estimador baseado em padrões, como o SPR. Por outro lado, em casos onde o esforço cortante gera
uma parcela representativa da energia total do sistema (embora, do ponto de vista físico, essa energia
tenha sido desprezada quando da aplicação do modelo de Euler-Bernoulli), matematicamente a
recuperação da terceira derivada da solução pode ser utilizada, pois garante um erro menor do que o
admissível, além deste ser várias ordens de grandeza abaixo do erro obtido pela segunda derivada da
solução. Nesse caso, qualquer um dos estimadores aqui discutidos mostra-se apto a guiar o processo
h-adaptativo. Os resultados obtidos deste estudo inicial aplicado ao problema de flexão de viga de
Euler-Bernoulli podem servir como base para que esta abordagem de h-adaptatividade seja estendida
a problemas de placas, cuja aplicação no campo da engenharia é também relevante.
REFERÊNCIAS
AINSWORTH, M., ODEN, J. T., A Posteriori Error Estimation in Finite Element Analysis. 1. ed.
John Wiley and Sons, 2000.
FANCELLO, E. A., FEIJÓO, R. A., Adapte: estimador de erro para problemas planos em
elasticidade linear. Mecânica Computacional, 13, Bariloche, Argentina, 1992.
ONÃTE, E., BUGEDA, G., A study of mesh optimality criteria in adaptive finite element analysis.
Engineering Computations, 10:307–321, 1993.
REDDY, J. N., An Introduction to the Finite Element Method. 3. ed. McGraw Hill, 2006.
SILVA, J., Análise de estimadores de erro a posteriori aplicados ao método dos elementos finitos
utilizando refino h-adaptativo. Dissertação (Mestrado em Engenharia Mecânica) – Setor de Ciência e
Tecnologia, Universidade Federal do Paraná, 2015.
ZIENKIEWICZ, O. C., TAYLOR, R. L., The Finite Element Method - Volume 1: The Basis, 5ª ed.
Butterworth Heinemann, 2000.
ZIENKIEWICZ, O. C., ZHU, J. Z., A simple error estimator and adaptive procedure for practical
engineering analysis. International Journal for Numerical Methods in Engineering, 24:333-357,
1987.
ZIENKIEWICZ, O. C., ZHU, J. Z., The superconvergent patch recovery and a posteriori error
estimates, Part 1: The recovery technique. International Journal for Numerical Methods in
Engineering, 33:1331-1364, 1992a.
ZIENKIEWICZ, O. C., ZHU, J. Z., The superconvergent patch recovery and a posteriori error
estimates. Part 2: Error estimates and adaptivity. International Journal for Numerical Methods in
Engineering, 33:1365–1382, 1992b.
V Simposio de Metodos Numericos Computacionais
137
V Simposio de Metodos Numericos Computacionais
Resolução do problema do Caixeiro Viajante através de uma máquinade Boltzmann modificada
Resumo: A resolução do problema do caixeiro viajante através da máquina de Boltzmann é altamente paraleli-zável e, consequentemente, pode ser executada rapidamente. No entanto, a abordagem tradicional para modelaro problema através dos neurônios e suas conexões na rede neural apresenta algumas dificuldades na convergênciaapós um ciclo válido ter sido encontrado. Uma segunda etapa de treinamento é proposta e implementada nestetrabalho e é constatado que, utilizando esta modificação, a rede neural é mais consistente e produz melhores resul-tados.
Palavras-Chave: Redes neurais artificiais, Máquina de Boltzmann, Caixeiro Viajante
1 INTRODUÇÃO
O problema do caixeiro viajante, por ser de difícil resolução e possuir uma alta aplicabilidade, é umdos problemas mais estudados da logística e da ciência da computação. O caixeiro viajante é um pro-blema combinatório de otimização e pertence a classe NP-difícil, ou seja, acredita-se, segundo maiorparte dos pesquisadores da área, que não exista uma solução computacional genérica e exata que custetempo computacional polinomialmente dependente do tamanho da especificação (instância) deste pro-blema (BARTAL, et al. 2012).
Diversos métodos de aproximação foram desenvolvidos para o problema do caixeiro viajante. Taismétodos têm a característica de serem mais rápidos do que as técnicas de solução exata, porém nãogarantem a otimalidade da solução. Para o problema do caixeiro viajante métrico, um dos esquemas deaproximações mais antigo, foi desenvolvido por CHRISTOPHIDES (1976), onde a resposta do métodose possui uma distância de no máximo 50% da solução ótima.
O uso de redes neurais artificiais (RNAs) para resolver problemas difíceis, particularmente da classeNP-difícil, pode ser abordado de diversas maneiras. BRUCK E GOODMAN (1990) utilizaram umarede neural em que cada nó realiza uma operação lógica (e, ou e negação). No entanto a existência deuma rede de tamanho polinomial no tamanho da instância do problema, ao contrario do que a maioriadas pesquisas indica, implicaria que existe uma solução de custo polinomial para todos os problemas daclasse NP .
A abordagem por uma rede neural probabilística e altamente paralelizável, como a máquina de Boltz-mann, possibilita uma implementação da rede em um tamanho fixo, geralmente quadrática em relaçãoao tamanho da instância. A máquina de Boltzmann foi utilizada em diversas áreas, desde representaçãode conhecimento até reconhecimento de padrões e otimização combinatória (AARST E KORST, 1987;AARST E KORST, 1989).
Joao Furtado Resende, Michael Mannich
138
O objetivo desta pesquisa é resolver o problema do caixeiro viajante através da máquina de Boltz-mann através uma modificação no treinamento da rede neural que auxilia na busca por melhores ciclos.Também foi analisada a capacidade da RNA, com e sem a modificação, de achar ciclos próximos ouiguais ao ótimo para instâncias geradas pseudoaleatóriamente.
2 METODOLOGIA
2.1 Caixeiro ViajanteO problema do caixeiro viajante consiste em uma busca por uma rota com o menor custo que passe
por todos os pontos (cidades) de um conjunto e volte para o ponto de partida. Quando o custo associadoa transição de um ponto para o outro obedece a desigualdade triangular, como é o caso quando o custo érepresentado pela distância euclidiana, o problema é dito caixeiro viajante métrico.
No problema do caixeiro viajante métrico euclidiano, todas as cidades são conectadas entre si e asdistâncias entre as cidades i e j, que é, por definição, igual a distância de j para i, são denotadas por dij .A resposta ao problema consiste em um ciclo (i1, i2, . . . , iN , i1), onde ik 6= il, para todo k e l, tal que asoma
∑n−1k=1 dikik+1
+ diN i1 é mínima.2.2 Máquina de Boltzmann
A máquina de Boltzmann utiliza unidades de estado com valores binários e transições probabilísticasentre estados. A configuração k da máquina é dada pelos valores das N unidades binárias Xi. O valorde uma unidade Xi em uma dada configuração k é denotado por xi.
Nesta aplicação da rede, os pesos wij não variam e representam o impacto, negativo ou positivo,de que ambas as unidades Xi e Xj estejam ligadas. As conexões são representadas de maneira nãodirecional, ou em outras palavras, wij = wji, para todo 1 ≤ i, j ≤ N . Ligações de uma unidade com elamesma também são permitidas, ou seja, wii podem ser não nulas.
O consenso C, ou função objetivo, da rede, dado pela Equação 1, representa a desejabilidade geral,ou qualidade, da rede.
C =n∑
i=1
n∑
j=i
wijxixj (1)
A máquina de Boltzmann busca, através da mudança entre estados, a maximização deste consensoC. O ganho ou perda ∆Ci de qualidade pela mudança no estado de uma dada unidade Xi é dado pelaEquação 2.
∆Ci = (1− 2xi)
(wii +
N∑
j=1,j 6=i
wijxixj
)(2)
A probabilidade de que uma dada unidade Xi troque de estado é dada pelo ganho (ou perda) deconsenso ∆Ci e pela temperatura da rede T . A temperatura da rede é alterada segundo a técnica detêmpera simulada, do inglês simulated annealing, que é analoga ao processo utilizado na produção demetais fortes, onde o metal é gradualmente resfriado para evitar imperfeições na estrutura cristalina dometal devido ao congelamento (AARST E KORST, 1989).
Tal redução na temperatura da rede é feita de diversas maneiras, sendo as principais delas as reduçõeslogarítmica e a exponencial (Equação 3).
Te = αeT0 (3)
onde e ∈ N indica a época de treinamento da rede, T0 indica a temperatura inicial arbitrária e α ∈ (0, 1).A probabilidade Ae
i ∈ [0, 1] de troca de estado para uma dada unidade Xi na época e é dada pelaEquação 4. Após calculada esta probabilidade, um número pseudoaleatório unifermemente distribuidor ∈ [0, 1] é selecionado e caso r ≤ Ae
i , a unidade Xi troca de estado.
Aei =
[1 + exp
(−∆Ci
Te
)]−1(4)
V Simposio de Metodos Numericos Computacionais
139
Como, no decorrer do treinamento, a temperatura da rede diminui, o cálculo da probabilidade de trocade estado se reduz para 0 nos casos em que a mudança no consenso total é negativa e 1 para os casosem que a mudança é positiva. Portanto, com o decorrer do treinamento, a rede gera menos transições deestados que representam riscos (∆Ci < 0), se assemelhando a um algorítmo de busca gulosa, na qual atroca de estados só é feita quando há um ganho no consenso, possibilitando que a busca permaneça emmáximos locais.2.3 Aplicação da Máquina de Boltzmann ao Problema do Caixeiro Viajante2.3.1 Estrutura Básica
Para resolver o problema do caixeiro viajante através da rede neural probabilística de Boltzmann éadotada uma distribuição matricial dos neurônios da rede, na qual as linhas representam as diferentescidades e as colunas representam a ordem de visita às cidades. Como busca-se visitar todas as cidades, amatriz de neurônios possui dimensão N ×N , onde N é o número de cidades. Tal estrutura foi adaptadade FAUSETT (1994).
Dado que o objetivo é que apenas uma cidade seja percorrida em um dado passo de tempo, é necessá-rio que apenas um neurônio esteja ligado em cada coluna da matriz de neurônios. Analogamente, comocada cidade deve ser percorrida apenas uma vez, é preciso que apenas um neurônio esteja ligado em cadalinha.
Tais características são tratadas na máquina de Boltzmann através de pesos negativos entre todos osneurônios da mesma coluna e, analogamente, da mesma linha. No entanto, é necessário incentivar a ati-vação dos neurônios, do caso contrario a rede apenas manteria todos os neurônios desligados para evitaras punições mencionadas. Tal incentivo é implementado através de conexões positivas dos neurônioscom si mesmos. Essas conexões são mostradas na Figura 1, onde p e b ∈ R+ representam seus pesos.
V t−11
V t−1i
V t−1N
V t1
V ti
V tN
V t+11
V t+1i
V t+1N
b
b
b
b
b
b
b
b
b
−p
−p
−p
−p
−p
−p
−p
−p
−p
−p
−p
−p
−p
−p
−p
−p
−p
−p
Figura 1: Representação genérica das conexões reponsáveis pela formação do ciclo
Dado que a busca é pela rota mínima que percorra todas as cidades, as distâncias entre as cidadessão inseridas como conexões negativas entre colunas adjacentes da matriz de neurônios. Tal estrutura éexemplificada na Figura 2, onde dij ∈ R+ representa a distância euclidiana entre as cidades i e j.
V Simposio de Metodos Numericos Computacionais
140
V t−11
V t−1i
V t−1N
V t1
V ti
V tN
V t+11
V t+1i
V t+1N
−d1i
−d1N−di1
−diN−dN1
−dNi
−d1i
−d1N−di1
−diN−dN1
−dNi
Figura 2: Representação genérica das conexões responsáveis pela minimização da distância total
Para evitar que a rede ative múltiplos neurônios na mesma linha ou na mesma coluna, é necessá-rio que o peso das conexões negativas na linha ou coluna seja maior, em módulo, do que o incentivo(autoconexão) de ativação dos neurônios, ou seja, p > b.
Como a ativação de um neurônio, cuja respectiva linha e coluna estejam desligadas, deve ser incenti-vada, é necessário que o peso b da autoconexão seja maior do que a soma das distâncias aos neurôniosativados das duas colunas adjacentes. Uma maneira de garantir isto é fazer com que b > 2dmax, ondedmax é a maior distâncias entre duas cidades na instância do problema.
2.3.2 Modificação na Máquina de Boltzmann
Como apontado por FAUSETT (1994), a máquina de Boltzmann tem grandes dificuldades em mudarde estados após um ciclo válido ter sido encontrado. Para mitigar esta característica, uma segunda épocade treinamento foi especialmente desenvolvida neste trabalho para a resolução do problema do caixeiroviajante.
A segunda etapa de treinamento começa após a primeira etapa ter convergido para um ciclo válido.Em cada época desta segunda etapa, duas colunas diferentes J1 e J2, da matriz de neurônios, são sorte-adas aleatoriamente e as linhas I1 e I2 são selecionadas de tal forma que os neurônios (I1,J1) e (I2,J2)estejam ativos.
Após isso, os neurônios selecionados são desligados e a Equação 5 é utilizada para avaliar o ganho ouperda de consenso pela troca da ativação dos neurônios (I1,J1) e (I2,J2) pelos neurônios (I1,J2) (I2,J1).
∆C =(∆C(I1,J1) + ∆C(I2,J2) + w(I1,J1),(I2,J2) + w(I2,J2),(I1,J1)
)−(
∆C(I1,J2) + ∆C(I2,J1) + w(I1,J2),(I2,J1) + w(I2,J1),(I1,J2)
) (5)
onde as funções ∆C(i,j) são calculadas da maneira usual (Equação 2).Após calculada o ganho ou perda de consenso, a probabilidade de mudança de estado é calculada
segundo a Equação 4. Como a temperatura da rede, por não ser alterada após o final da primeira etapade treinamento, é relativamente baixa, a troca na ativação dos neurônios na segunda etapa ocorre quaseque exclusivamente para os casos em que há um ganho no consenso global.
3 RESULTADOS E DISCUSSÃO
A implementação da máquina de Boltzmann para a resolução do problema do caixeiro viajante foifeita na linguagem de programação C. A têmpera simulada foi implementada com o decaimento expo-
V Simposio de Metodos Numericos Computacionais
141
nencial (Equação 3), com a temperatura inicial T0 = 20, o decaimento α = 0, 98, temperatura mínimade 0, 1.
O peso das autoconexões, ou bias, foi implementado como b = 2, 5dmax e a punição para ligação demúltiplos neurônios em uma linha ou coluna foi usado como p = 3b. O critério de parada para a primeiraetapa de treinamento foi encontrar um ciclo válido e 250 épocas de treinamento.
A máquina foi executada para instâncias de 10 e 30 cidades e, para eliminar os possíveis efeitos daaleatoriedade dos estados iniciais, foram feitas 100 simulações utilizando sementes diferentes. Para ana-lizar o impacto da implementação da modificação da rede, as mesmas instâncias e as mesmas sementesaleatórias foram executadas com e sem a segunda etapa de treinamento.
O resultado das 100 execuções da máquina de Boltzmann sem modificação para a instância com 10cidades é representado na Figura 3 e Tabela 1. Na Figura 3, o melhor ciclo é referente ao menor cicloresultante das 100 diferentes simulações.
Figura 3: Popularidade dos caminhos resultantes para 10 cidades da rede usual. Linhas pontilhadasverdes e linhas tracejadas vermelhas indicam caminhos que foram utilizados entre 1 e 33 vezes e 34 e 66vezes, respectivamente
O fato dos diferentes estados iniciais da rede terem resultado em diferentes ciclos de saída é reflexoda dificuldade da máquina de Boltzmann em trocar de estado após um ciclo válido ter sido alcançado.O desempenho da rede referente a distância dos caminhos gerado é bastante baixo e similar ao que seriagerado por um algoritmo completamente aleatório de permutação das cidades, onde todos os caminhosteriam a mesma popularidade.
A modificação na rede neural (Seção 2.3.2) obteve um grande ganho de qualidade nas soluções pro-duzidas, como é evidenciado pela Figura 4 e Tabela 1. O fato da rede ter convergido para o mesmocaminho, que coincide com a solução exata do problema do caixeiro viajante para esta instância, namaioria das execuções indica que a modificação na rede de fato aumenta a eficiência da mesma.
Um sumário dos resultados para a instância com 10 cidades é dado na Tabela 1, onde D denota asoma de todas as distâncias percorridas em um ciclo resultante de uma execução da rede e Dmedio e σDindicam a média e o desvio padrão para as 100 diferentes execuções. A melhor distância conhecida D∗
para as instâncias de 10 e 30 cidades foi obtida através da biblioteca de otimização global do Matlab2010a.
Como o espaço de busca do problema do caixeiro viajante cresce conforme o fatorial do número decidades, a dificuldade de se encontrar soluções boas aumenta drasticamente entre instâncias com 10 e 30cidades. Tal característica foi refletida na convergência da RNA para caminhos diferentes e, em algunscasos, de baixa qualidade.
V Simposio de Metodos Numericos Computacionais
142
Figura 4: Popularidade dos caminhos resultantes para 10 cidades da rede modificada. Linhas pontilha-das verdes e linhas azuis indicam caminhos que foram utilizados entre 1 e 33 vezes e 67 e 100 vezes,respectivamente
10 Cidades 30 CidadesRNA Usual Modificada Usual ModificadaD∗ 28,9 28,9 43,6 43,6Dmin 37,0 28,9 106,3 45,0Dmedio 47,7 29,0 136,9 53,7Dmax 61,4 32,3 171,2 67,0σD 5,3 0,5 12,6 4,0
Tabela 1: Parâmetros estatísticos para os resultados das 100 simulações
Os ciclos finais para as execuções da máquina de Boltzmann modificada, para a instância com 30cidades, são ilustrados na Figura 5, na qual é possível verificar que todos os caminhos mais populares(acima de 66% de uso) estão de fato presentes também no melhor ciclo encontrado, indicando uma certaconvergência da rede independente do estado inicial utilizado. No entanto, algumas das arestas compopularidade 34 e 66% não estão presentes no melhor ciclo encontrado, o que pode ser devido ao fatode conectarem cidades relativamente próximas que não são adjacentes em tal ciclo.
4 CONCLUSÕES
Devido a grande complexidade intrínseca ao problema do caixeiro viajante, a implementação usualda máquina de Boltzmann não foi capaz de resolvê-lo devidamente. Tal fato pode ser explicado peladificuldade encontrada pela rede em mudar os estados dos neurônios após um caminho válido ter sidoencontrado.
No entanto, a inserção da segunda etapa de treinamento para a máquina de Boltzmann resultou, paraas instâncias com 10 e 30 cidades, em um grande ganho de desempenho na resolução do problema eobteve soluções relativamente próximas à solução ótima, sem um aumento significativo no tempo decomputação utilizado.
A modificação no treinamento da máquina de Boltzmann para a resolução do problema do caixeiroviajante de 10 e 30 cidades resultou em melhorias de 40% e 60%, respectivamente, na distância médiados ciclos para as 100 simulações. No entanto, a técnica utilizada pode apresentar problemas referentesa execução paralela da máquina, uma vez que quatro unidades são selecionadas por vez na segunda etapa
V Simposio de Metodos Numericos Computacionais
143
Figura 5: Popularidade dos caminhos resultantes para 30 cidades da rede modificada. Linhas pontilhadasverdes, linhas tracejadas vermelhas e linhas azuis indicam caminhos que foram utilizados entre 1 e 33vezes, 34 e 66 vezes e 67 e 100 vezes, respectivamente
de treinamento, criando a necessidade de uma etapa extra de comunicação entre elas.
REFERÊNCIAS
Aarts E.H. e Korst J.H. Boltzmann machines and their applications. Em J. de Bakker, A. Nijman, eP. Treleaven, editores, PARLE Parallel Architectures and Languages Europe, volume 258, páginas34–50. 1987. ISBN 978-3-540-17943-6. doi:10.1007/3-540-17943-7_119.
Aarts E.H. e Korst J.H. Boltzmann machines for travelling salesman problems. European Journalof Operational Research, 39(1):79 – 95, 1989. ISSN 0377-2217. doi:http://dx.doi.org/10.1016/0377-2217(89)90355-X.
Bartal Y., Gottlieb L.A., e Krauthgamer R. The traveling salesman problem: Low-dimensionality im-plies a polynomial time approximation scheme. Em Proceedings of the Forty-fourth Annual ACMSymposium on Theory of Computing, STOC ’12, páginas 663–672. ACM, New York, NY, USA, 2012.ISBN 978-1-4503-1245-5. doi:10.1145/2213977.2214038.
Bruck J. e Goodman J.W. On the power of neural networks for solving hard problems. Journal ofComplexity, 6(2):129 – 135, 1990. ISSN 0885-064X. doi:http://dx.doi.org/10.1016/0885-064X(90)90001-T.
Christophides N. Worst-case analysis of a new heuristic for the travelling salesman problem. RelatórioTécnico 388, Graduate School of Industrial Administration, Carnegie Mellon University, 1976.
Fausett L. Fundamentals of Neural Networks: Architectures, Algorithms, and Applications. Prentice-Hall, Inc., Upper Saddle River, NJ, USA, 1994. ISBN 0-13-334186-0.
V Simposio de Metodos Numericos Computacionais
144
V Simposio de Metodos Numericos Computacionais
TRANSIENTE HIDRÁULICO EM CONDUTOS FORÇADOS: SIMULAÇÃO DO ESCOAMENTO NAS TURBINAS DA UHE ITAIPU
POR MEIO DE ANALOGIA COM CIRCUITOS ELÉTRICOS
Resumo: O presente trabalho apresenta uma aplicação do uso da analogia elétrica na
modelagem de circuitos hidráulicos associada ao método de Runge-Kutta na solução
numérica das equações governantes para a determinação do comportamento da pressão no
sistema hidráulico de uma turbina Francis durante transientes do golpe de aríete,
tradicionalmente resolvido pelo método das características. A validação dos resultados é feita
com base nos dados disponíveis dos transientes registrados durante ensaios de rejeições de
carga nas turbinas da Usina de Itaipu (UHI). Como uma aplicação deste estudo se analisa a
possibilidade de alteração da curva de fechamento do distribuidor destas turbinas de modo a
se obter uma lei de fechamento que proporcione valores mais favoráveis de sobrepressão
devido ao golpe de aríete e de sobrevelocidade na unidade geradora nas rejeições de carga.
Palavras-Chave: Golpe de Aríete, Conduto Forçado, Turbina, Transiente Hidráulico,
Simulação Numérica.
1 INTRODUÇÃO
A regularização de um sistema elétrico interligado é um processo complexo e requer ação
instantânea e permanente para equilibrar as oscilações normais e as variações bruscas da
carga com a geração, na qual também por sua vez ocorrem oscilações e variações bruscas,
seja por falha nos equipamentos de geração ou perda da disponibilidade energética
temporária de alguma fonte como, por exemplo, as fontes renováveis eólicas e solares, que
cada vez mais se fazem presentes na matriz energética brasileira e mundial.
Neste contexto, as usinas hidrelétricas são versáteis no atendimento das variações da carga
e da geração do sistema elétrico interligado, devido à rapidez na resposta de potência
decorrente de uma relação favorável de inércia rotatória e resposta hidráulica. Contudo, no
atendimento destas variações muitas vezes estas usinas operam fora de suas melhores
condições hidráulicas, inclusive devido à variação sazonal na hidraulicidade ou por crises
hidráulicas, cada vez mais frequentes pelo aquecimento global. Neste cenário, as máquinas
Francis, responsáveis por expressiva contribuição na geração hidroelétrica no Brasil e no
mundo e também por 60% do potencial hidráulico mundial a instalar, são normalmente mais
sensíveis por suas características intrínsecas, principalmente quanto à eficiência e
perturbações no escoamento.
Joao Maria Marra, Liliana MadalenaGramani, Christian Wendt, Eloy Kaviski
145
O conhecimento do comportamento da pressão no sistema hidráulico de uma turbina
hidráulica durante transientes no escoamento é fundamental na etapa de projeto do conduto
forçado e da unidade geradora e a correta estimativa deste representa desafios devido à
complexidade da instalação real de uma usina hidrelétrica. Embora as variações de pressão
provocadas pelo golpe de aríete em uma variação brusca da carga possam ser quantificadas
com acurácia por meio do método das Características, para fenômenos de ressonância e
instabilidade hidráulicas durante operação normal da turbina a representação do sistema
hidráulico por circuitos elétricos equivalentes solucionados pela integração numérica de
Runge-Kutta apresenta algumas vantagens na modelagem matemática do sistema hidráulico.
O presente trabalho apresenta um estudo realizado com os dados das turbinas da Usina de
Itaipu utilizando o método de Runge-Kutta na simulação numérica do comportamento da
pressão após uma rejeição de carga, realiza comparação com medições disponíveis para esta
situação e analisa a possibilidade de alteração da curva de fechamento do distribuidor das
turbinas, de modo a se obter uma lei de fechamento que proporcione valores mais favoráveis
de sobrepressão devido ao golpe de aríete e de sobrevelocidade na unidade geradora.
2. EQUAÇÕES GOVERNANTES E ANALOGIA ELÉTRICA O circuito hidráulico de usinas hidrelétricas se caracteriza por ter as dimensões
longitudinais muito maiores que as dimensões transversais, conforme ilustração da Figura 1.
Em função desta configuração típica, o escoamento do fluido de trabalho tem características
predominantes na direção longitudinal e variação de temperatura desprezível, possibilitando
uma modelagem matemática unidimensional do escoamento representativa de seu
comportamento dinâmico com base nas leis de conservação da massa e do momento.
Figura 1: Esquema do sistema hidráulico típico de uma usina hidroelétrica (Adaptado de IEC 60193)
De acordo com CHAUDRY (2014), a aplicação da segunda lei de Newton sobre o
diagrama de corpo livre das forças em um elemento elástico de comprimento dx da tubulação
e da equação da continuidade sobre o mesmo elemento sujeito a uma linha piezométrica
hidráulica resulta no seguinte sistema de equações governantes para o escoamento
unidimensional transiente no elemento da tubulação, onde a é a celeridade das ondas de
pressão, H é a altura piezométrica, Q é a vazão, D é o diâmetro do conduto, A é área de sua
seção transversal, f é o coeficiente de atrito de Darcy e g é a aceleração da gravidade.
2
10
2
∂ ∂+ + =
∂ ∂
fQ QH Q
x gA t gDA (1)
2
0∂ ∂
+ =∂ ∂
H a Q
t gA x (2)
V Simposio de Metodos Numericos Computacionais
146
No sistema de equações governantes, a Eq. (1) se refere à equação do movimento e a Eq.
(2) a uma equação de transporte dada pela conservação da massa. O sistema de equações
formado é um sistema não linear de equações diferenciais parciais de primeira ordem do tipo
hiperbólico, para os quais o método das características, baseado em diferenças finitas, é
tradicionalmente utilizado em sua solução numérica para dadas condições inicial e de
contorno.
Conforme STREETER E WYLIE (1978), o tal sistema de equações é análogo ao de
propagação de ondas elétricas em condutores elétricos, sendo que a vazão Q corresponde à
corrente elétrica e a altura piezométrica H (ou pressão) corresponde à tensão elétrica. Com
base na analogia destes dois sistemas, os parâmetros correspondentes do sistema hidráulico
são qualificados com as tradicionais denominações dos parâmetros R (Resistência),
L(Indutância) e C (Capacitância) para um sistema elétrico, como indicado a seguir:
( ) 0∂ ∂
+ + =∂ ∂
H QL' R' Q Q
x t (3)
1
0∂ ∂
+ =∂ ∂
H Q
t C' x (4)
No sistema hidráulico o parâmetro R representa a perda de energia por efeitos dissipativos,
L e C representam, respectivamente, os efeitos de inércia e armazenamento em volume. O
parâmetro C é também denominado de compliância, pois o efeito de armazenamento se deve
à compressibilidade do fluido e à elasticidade da tubulação. Devido à dependência da
resistência R com a vazão R(Q), o sistema de EDP é não linear. O sinal de apóstrofo indica
que os valores dos parâmetros nas equações estão por unidade de comprimento do elemento
de tubo considerado:
[ ] 2 3 2
2 2
1
2 = = =
f Q gAR' s m L' s m C' m
gAgDA c (5)
O circuito do sistema hidráulico equivalente ao circuito elétrico RLC encontra-se indicado
na Figura 2, onde o índice i e i+1 representam o valor das variáveis de estado (H, Q ) nas
extremidades opostas do elemento considerado. O circuito elétrico da Figura2 é também
representativo de dois trechos de comprimento dx/2 de uma linha transmissão com diferença
de potencial elétrico fase-terra respectivamente de i
U e 1iU + e capacitância C entre a linha e o
referencial de terra.
Figura 2: Esquema do sistema circuito elétrico equivalente do elemento de tubo elástico
Em função da analogia entre os circuitos hidráulico e elétrico, as equações governantes do
circuito hidráulico podem ser obtidas por aplicação das leis de Kirchoff e das leis relativas à
queda de tensão elétrica (ou de pressão hidráulica) nos elementos do circuito, sendo a vazão
Q equivalente à corrente I e a pressão hidráulica H equivalente à tensão elétrica U.
3. DISCRETIZAÇÃO ESPACIAL DO SISTEMA HIDRÁULICO E MODELAGEM
DA TUBULAÇÃO Nesta simulação, todos os trechos de tubulação do sistema hidráulico são modelados como
elementos de tubos elásticos em aço, independente de estarem estes instalados em aço
aparente, embutido, ou somente em concreto.
V Simposio de Metodos Numericos Computacionais
147
Para um tubo de comprimento l genérico, aplicando-se uma discretização baseada em um
esquema central, pode-se quantificar a variação espacial da altura manométrica H e da vazão
Q no nó 1 2i + e o valor médio da vazão, conforme, respectivamente, expressões indicadas
nas Eq. (6) seguinte:
1 1 11 2
1 2 1 2 2
+ + ++
+ +
− − +∂ ∂= = =
∂ ∂i i i i i i
i
i i
H H Q Q Q QH Q; ; Q
x dx x dx (6)
A Figura 3 ilustra a discretização espacial de esquema central utilizada para a
tubulação de comprimento l :
Figura 3: Discretização espacial unidimensional da tubulação (Adaptado de Nicolet 2007)
Para o tubo elástico considerado, o esquema do circuito elétrico equivalente à
discretização adotada, fica conforme ilustrado na Figura 4.
Figura 4: Circuito elétrico equivalente do tubo elástico (Adaptado de Nicolet 2007)
Substituindo as expressões da Eq. (6) nas Eq. (3) e Eq. (4) e fazendo
R' dx R, L' dx L e C' dx C= = = obtém-se um sistema de EDOs para um elemento de tubo
elástico de comprimento dx, que expresso em forma matricial resulta no sistema da Eq. (7):
1 2 1 2
1 1 1
0 0 0 1 1 0
0 2 0 1 2 0
0 0 2 1 0 2
+ +
+ + +
−
⋅ + = − −
i / i /
i i i
i i i
h hCd
L / Q R / Q Hdt
L / R /Q Q H
(7)
Em forma matricial compacta, o sistema de equações (7) reduz-se à Eq. (8), onde
( )1 2 1i / i ix H , Q , Q+ +=
é o vetor das variáveis de estado do sistema discretizado e A e B são
matrizes 3x3:
[ ] [ ]⋅ + ⋅ =
dxA B x C
dt (8)
Onde,
[ ]
( )
( )
( )
[ ]
( )
( )
( )
1 12 1 2 1
1 1
0 0
1 1
1 1
2 21
1 1
0
1 1
2 1 2 2 1 1 2
− + +
−
− − = =
−
−
+ + −
C n n
C
C
Cn nA B
L / R /
L R
L R
n L / n R /
(9)
V Simposio de Metodos Numericos Computacionais
148
Para o tubo elástico de comprimento l discretizado conforme indicado na Figura 3, as
matrizes [ ] [ ]A e B da Eq. (9), têm ordem 2 1n + e os vetores de estado x (Eq. 10) e de
condições de contorno C
(Eq. 11) têm dimensão 2 1 1( n , )+ :
( )1 1 2 2 1 2 1 2 1 1 1+ + + +=
T
/ / n / nx H H H Q Q Q (10)
( )1 10 0 0 0 +=
T
nC H H (11)
4. MODELAGEM DO SISTEMA HIDRÁULICO Esta seção aborda com foi realizada a modelagem geométrica da variação do diâmetro da
tubulação ao longo do sistema hidráulico, desde a tomada de água até o final da caixa espiral, e também a modelagem funcional dos elementos considerados como concentrados (lumped), quais sejam, duto de ventilação do conduto e distribuidor da turbina. 4.1 Tubulação
A variação do diâmetro da tubulação no trecho de entrada, curva superior, trecho trecho, curva inferior e caixa espiral do sistema hidráulico das turbinas de ITAIPU está indicada na Figura 5.b.
Figura 5: a) Sistema hidráulico; b) Modelagem geométrica
O coeficiente de atrito nas superfícies hidráulicas foi obtido a partir de dados da perda de
carga no sistema hidráulico disponíveis em Itaipu (2008) e da equação de Darcy-Weisbach,
resultando em um valor médio de 0,025.
4.2 Chaminé de equilíbrio O duto para purga do ar atmosférico no enchimento da turbina e do conduto forçado e
os nichos da comporta e stop-log existentes no trecho de entrada do sistema hidráulico
funcionam como uma pequena chaminé de equilíbrio (surge shaft) durante transientes da
operação normal ou rejeição de carga. O modelo matemático adotado para este elemento no
foi conforme indicado na Figura 6.
Figura 6: Modelo matemático para a chaminé de equilíbrio (Fonte: Nicolet 2007)
V Simposio de Metodos Numericos Computacionais
149
Resolvendo o circuito elétrico da Figura 6.a, se obtém a Eq. (15) compatível com a
discretização e vetor de estado adotado na aplicação por Runge-Kutta para este elemento do
sistema hidráulico:
( )( )
( )
( )( )1 1 1
0 0 0 1 1 0
0 1
0 1+ + +
−
+ − + − + − = − + −− +
ss c c
ss ss i d d i ss
ss ss i i id d
C h hd
L L L . Q R R R . Q Hdt
L L L Q Q hR R R
(12)
Para o caso do método das características, a modelagem utilizada para o duto de ventilação
foi baseada somente na equação da continuidade, resultando na expressão indicada na
ilustração da Figura 6.b. 4.3 Distribuidor
A curva de vazão em função da área livre do distribuidor WA da turbina, sob condição
estática, foi modelada com base na determinação do coeficiente de descarga DC a partir de
dados de medição de vazão e queda líquida nH disponíveis em ITAIPU (2006.a) e Itaipu
(2008.a), utilizando a relação da Eq. (16):
2DW nWQ C .A g.H= (13)
Para condição dinâmica, a curva de vazão no distribuidor durante um fechamento abrupto
foi modelada com base na lei temporal de fechamento do distribuidor, onde b é altura da
palheta e S a abertura, conforme a relação da Eq. (17):
( )2 24 2D n Dt t nQ C .A g.H C . b S g.H= = ⋅ ⋅ (14)
As curvas para o coeficiente de descarga, lei de fechamento e curva de vazão no
distribuidor estão indicadas na Figura 7:
Figure 8: a) Coeficiente de descarga; b) Lei de fechamento; c) Curva de vazão
De forma a facilitar a análise da influência da variação da lei de fechamento na
sobrepressão e na sobrevelocidade, esta foi modelada considerando a possibilidade de
alteração do tempo total de fechamento por meio de alteração da abertura em 1t nos e abertura
e tempo em 2t para uma dada abertura inicial do distribuidor em ot . O trecho inicial da curva
7.b foi modelado por um polinômio, o trecho intermediário como uma reta e o trecho final
por uma exponencial. A curva de vazão da Figura 7.c se refere ao caso estudado com vazão
inicial de 745 m3/s, considerada a máxima possível (100%) de acordo com a curva de colina
das turbinas de ITAIPU.
4.4 Conjunto girante
A rejeição abrupta da carga de uma unidade geradora por desacoplamento desta com o
V Simposio de Metodos Numericos Computacionais
150
sistema elétrico proporciona um desbalanceamento de torque entre a turbina e o gerador e
consequente aumento da velocidade de rotação. Em função disto, o regulador de velocidade
da turbina comandará o fechamento do distribuidor da turbina, o que por sua vez causa um
transiente na pressão hidráulica no conduto forçado, conhecido como golpe de aríete. Nesta
condição, assumindo que o torque magnético no entreferro do gerador se anula
instantaneamente, a velocidade de rotação N do conjunto girante passa a ser dominada pelo
torque mecânico mecT e pela inércia rotatória J, conforme Eq. (18):
60
2πmec mag
dNT T J
dt
− =
(15)
A Equação (18) pode ser integrada por separação de variáveis, cuja aproximação discreta
da solução dada pela Eq. (19) permite obter a evolução da rotação durante o transiente a
partir da potência rejeitada na turbina na rotação nominal. Durante o transiente, a potência no
eixo da turbina foi avaliada pela expressão t nP Q Hγ η= . O momento de inércia J foi obtido
por medições existentes do parâmetro GD2 em ITAIPU (1992), cujo valor considerado foi de
363950 tm2, equivalendo a um momento de inércia de 9,275E6 kg m
2.
( )( )2
21 1
60
2πbtt t t
tN N P P P
J+ +
∆ = + + −
(16)
A potência frenante bP foi obtida assumindo a permanência das perdas no gerador
dependentes da tensão (2,1 MW) e a variação das perdas por atrito (2,1 MW) nos mancais e
na ventilação proporcionais ao cubo da variação da rotação. 5. RESULTADOS OBTIDOS
A validação dos resultados da modelagem e solução numérica pelo método de Runge-
Kutta realizadas neste trabalho foi baseada na confrontação com medições disponíveis em
ITAIPU (2006.b) relativas a uma rejeição de carga de 785 MW, com plena abertura do
distribuidor e queda bruta de 120,2 mca. Considerando as perdas no gerador, conforme
ITAIPU (2008.b), a potência rejeitada no eixo da turbina foi estimada em 794 MW,
correspondendo a vazão de 745 m3/s e queda líquida de 118,4 mca pela curva de colina da
turbina. O intervalo de tempo mínimo nas iterações computacionais respeitou o critério de
Courant-Friedrich-Levy, o qual estabelece que o número Courant Cr a t x a n t l= ⋅ ∆ ∆ = ⋅ ⋅ ∆
deve ser menor ou igual à unidade. Na Tabela 1 estão indicados os parâmetros da simulação e
a diferença percentual dos valores máximos da sobrepressão e da sobrevelocidade com
relação aos valores medidos:
Tabela 1 – Parâmetros da simulação e resultados
Método l [m] n a [m/s] t [s] Cr f Tempo
Simulado[s]
Duração da
Simulação [h]
∆P
[%] ∆N
[%]
Runge-Kutta 252 200 1115 5.83e-5 0.05 0.025 40 12,33 0,41 0,84
A evolução temporal da pressão na entradaa caixa espiral está indicada na Figura 9.a. Os
valores máximos obtidos para a sobrepressão P∆ e a sobrevelocidade N∆ com a lei de
fechamento existente são aderentes aos valores medidos. A modelagem espacial com a
respectiva solução numérica captaram a redução da pressão logo após o início do transiente e
também a sobreposição das ondas positiva e negativa na pressão, marcada pelo período
4T L a= = 0,735 s e correspondente frequência de 1,36 Hz. A discreta redução da pressão
antes de sua elevação pode ser atribuída à inércia da vazão, proporcionando um aumento da
parcela da energia de velocidade no iníciol do fechamento do distribuidor.
V Simposio de Metodos Numericos Computacionais
151
Figura 9: a) Pressão caixa espiral; b) Tempo de fechamento x sobrepressão e sobrevelocidade máximas
Os resultados das simulações com variação da lei de fechamento estão indicados na Figura
9.b, na qual se evidencia a possibilidade de reduzir aproximadamente 7% na sobrevelocidade,
mantendo-se o limite nominal de 30% na sobrepressão.
6. CONCLUSÃO
A sobrepressão e a sobrevelocidade para uma dada rejeição é diretamente afetada pela lei
de fechamento do distribuidor e a simulação computacional destes fenômenos nos transientes
hidráulicos permite avaliar na fase de projeto a lei de fechamento e inércia rotatória
necessárias para o atendimento dos valores contratados para os mesmos.
A aplicação da simulação computacional do transiente hidráulico e sobrevelocidade em
unidades geradoras existentes permiter reavaliar a possibilidade de alteração da lei de
fechamento visando obter uma lei de fechamento mais vantajosa e evitando realizar tal estudo
de forma experimental.
A solução do transiente pelo método de Runge-Kutta apresentou boa aderência de
resultados para a sobrepressão e a sobrevelocidadee e não apresentou instabilidade numérica
para qualquer discretização espacial considerada na simulação.
7 REFERÊNCIAS
CHAUDRY, M. H., 2014. Applied Hydraulic Transients. Springer, 3rd edition.
IEC 60193, 1999 - International Eletrotechnical Commision (Ed.) Hydraulic turbines storage
pumps and pump-turbines – Model acceptance tests. Genebra, Suíca.
ITAIPU, 1992, Technical Report, Acceptance tests in an explanatory way – Itaipu
Binacional, Brazil.
ITAIPU , 2006.a. Technical Report, Hydraulic stability test – Comissioning of the U9A.
Itaipu Binacional, Brazil.
ITAIPU , 2006.b. Technical Report, Load rejection test – Comissioning of the U9A. Itaipu
Binacional, Brazil.
ITAIPU , 2008.a. Technical Report, Determination of the efficiency of the turbine U18A.
Itaipu Binacional, Brazil.
ITAIPU, 2008.b. Technical Report, Determination of the efficiency of the generator U18A.
Itaipu Binacional, Brazil.
NICOLET, C.,2007. Hydroacoustic Modelling And Numerical Simulation Of Unsteady
Operation Of Hydroelectric Systems. 334 p. Tese (Doutorado) - Escola Politécnica Federal
de Lausana, Lausana, Suíca.
STREETER, V.; WYLIE, E., 1978 Fluid Transients. McGraw-Hill Inc.
V Simposio de Metodos Numericos Computacionais
152
V Simposio de Metodos Numericos Computacionais
SIMULAÇÃO NUMÉRICA DO ESCOAMENTO DE POISEUILLEUTILIZANDO O MÉTODO DO RETICULADO DE BOLTZMANN
Resumo: Nas últimas décadas, métodos computacionais baseados em autômatos celulares, foram propostos parasimular escoamentos. Dentre estes métodos, pode-se citar o método do reticulado de Boltzmann (LBM). O LBMpode ser obtido por dois caminhos. Um deles é a derivação a partir do autômato celular do tipo gás de rede e aoutra forma é a derivação a partir da equação de Boltzmann. Originário historicamente do esquema baseado noautômato celular do tipo gás de rede, o método considera uma dinâmica molecular de partículas fictícias em queo espaço, o tempo e as velocidade são discretas. No que se refere aos módulos de velocidades, eles assumemvalores contínuos. Por outro lado, o método do reticulado de Boltzmann pode ser visto como uma forma dis-cretizada da equação cinética de Boltzmann, em que somente são mantidos os detalhes moleculares essenciaispara se recuperar o comportamento macroscópico correto. É possível mostrar que, sob certas condições, o LBMrecupera as equações de Saint-Venant e Navier-Stokes. Além disso, o interesse em utilizar o método do reticuladode Boltzmann se ratifica, principalmente, quando ele aparece como uma alternativa potencial para simular umagrande variedade de fluxos de fluidos, sem utilizar discretizações nas equações de Navier-Stokes. O objetivo destetrabalho é utilizar o método do reticulado de Boltzmann para simular o escoamento de Poiseuille. Far-se-á a com-paração entre solução numérica e analítica, permitindo a validação do método.
Palavras-Chave: Método do Reticulado de Boltzmann, Escoamento de Poiseuille, Simulação Numérica
1 INTRODUÇÃO
O autômato celular foi originalmente proposto por John Von Neumann nos anos 40. O objetivo princi-pal de Neumann era criar um modelo que através de regras simples pudesse reproduzir fenômenos natu-rais e artificiais. Uma característica importante desse modelo é ser capaz de simular sistemas complexosque evoluem ao longo do tempo, partindo de regras simples. Mais adiante, em 1968, o matemático JohnConway, desenvolve o Jogo da Vida, que consiste de autômatos celulares que tem por objetivo represen-tar através de regras matemáticas, sistemas complexos da evolução da vida, popularizando os autômatoscelulares e provocando o interesse de pesquisadores de diversas áreas (Dewdney, 1989). Desde então,o modelo proposto foi bem desenvolvido e tornou-se uma ferramenta muito poderosa na simulação devários problemas científicos (Chopard et al., 2002).
Os autômatos celulares do tipo gás de rede (LGCA) são uma classe particular dos autômatos celulares.A dinâmica das partículas no LGCA é desenvolvida como um modelo microscópico simples, totalmentediscreto para um fluído a base de partículas fictícias localizadas nos nós de um reticulado uniforme.Tais partículas movem-se uma unidade do reticulado nas direções de suas velocidades. Duas ou mais
Jocelaine Cargnelutti, Vanderlei Galina, Eloy Kaviski,Liliana Madalena Gramani, Adilandri Mercio Lobeiro
153
partículas que chegam ao mesmo nó podem colidir. A característica importante dos autômatos gás derede é que a massa e quantidade de movimento são explicitamente conservados o que diferem de umautômato celular. Este é um recurso muito desejável na simulação de problemas físicos reais (Zhou,2004).
Salienta-se que a proposta dos LGCAs é modelar fluidos via autômatos celulares, utilizando regrassimples. De acordo com Judice (2009), duas características essenciais consideradas são as leis de con-servação da quantidade de movimento e conservação da massa (número de partículas).
Foi proposto por Hardy et al. (1976) o primeiro modelo discreto para simulação de escoamentos defluidos, chamado HPP, baseado em uma rede quadrada com quatro possibilidade de movimento. OsLGCAs se tornaram populares na década de 70, para simular escoamentos de fluidos e outros problemasfísicos, no entanto, o primeiro modelo, o HPP, não recupera as equações de Navier-Stokes. Isto ajudouno desestímulo da utilização do LGCA. Porém, alguns anos depois, em 1983, o pesquisador StephenWolfram reavivou o interesse neste método (Wolf-Gladrow, 2005). Além do fato de que o HPP nãorecupera as equações de Navier-Stokes, devido à sua anisotropia, o modelo HPP não representa de formaprecisa o comportamento de um gás, como sua difusão. Ratificando a importância dos modelos baseadosno LGCA e pensando em resolver os problemas do modelo HPP, dez anos depois Frisch et al. (1986)descobriram as simetrias que permitem recuperar corretamente as equações de Navier-Stokes. Com baseem uma estrutura hexagonal de seis velocidades, o novo modelo proposto é chamado de FHP.
A simetria hexagonal, a estabilidade numérica e a recuperação assintótica das equações de Navier-Stokes ainda não tornavam o FHP um método numérico eficiente, pois ruídos estatísticos estavam pre-sentes nas simulações. De acordo com (Wolf-Gladrow, 2005), os primeiros pesquisadores que con-seguiram eliminar o ruído foram McNamara and Zanetti (1988) e foram também os primeiros que uti-lizaram funções contínuas de distribuição de partículas ao invés das funções booleanas usadas no LGCA.Nascia, o método do reticulado de Boltzmann. Embora os pesquisadores Wolfram (1986) e Frisch et al.(1987) já haviam usado a equação do reticulado de Boltzmann como ferramenta analítica para calcu-lar os coeficientes de viscosidade do LGCA, os primeiros pesquisadores que utilizaram a equação doreticulado de Boltzmann (LBE) como método numérico foram McNamara and Zanetti (1988).
Ressalta-se que, originalmente o método do reticulado de Boltzmann surgiu em resposta aos proble-mas dos métodos baseados no LGCA (McNamara and Alder, 1993), e foi derivado do LGCA. Inicial-mente o LBM possuía o mesmo operador de colisão do LGCA e toda sua teoria dependia da teoria doLGCA. Porém o operador de colisão do LGCA não era simples e nem eficiente. De acordo com Sur-mas (2010), quando pesquisadores conseguiram estabelecer uma conexão entre a equação de Boltzmanne a equação do reticulado de Boltzmann, pôde-se utilizar as ferramentas da teoria cinética, como porexemplo, operador de colisão BGK.
O interesse em utilizar o LBM se ratifica, principalmente, pelo fato de que ele aparece como umaalternativa potencial para simular uma grande variedade de fluxos de fluidos, sem utilizar discretizaçõesnas equações de Navier-Stokes. ((Chen and Doolen, 1998); (Chopard and Masselot, 1999); (Succi,2001); (Bao and Meskas, 2011)).
De acordo com Golbert (2013), a ideia principal deste método é elaborar modelos cinéticos simplifi-cados que incorporem a física essencial de processos microscópicos, ou mesoscópicos, de forma que ascaracterísticas na escala macroscópica sejam fiéis às equações desejadas, não sendo necessário fazer adiscretização das equações que governam a dinâmica do fluido.
Outro ponto fundamental do LBM está relacionado com a recuperação das equações de Navier-Stokesa partir dele. Isto ocorre aplicando-se uma expansão assintótica multiescala de Chapman-Enskog na LBEe assumindo que o número de Mach é pequeno. De acordo com He and Luo (1997), na prática usa-seMa < 0, 15. Com uma distribuição de equilíbrio adequadamente escolhida, os pesquisadores Qianet al. (1992), obtiveram resultados ótimos nas simulações, as equações de Navier-Stokes foram obtidasa partir da equação cinética BGK com aproximação de segunda ordem. A recuperação das equações deNavier-Stokes pode ser vista em Wolf-Gladrow (2005).
Além disso, Benzi et al. (1992) concluem que melhorias adicionais na solução numérica de problemasmodelados pelas equações de Navier-Stokes através do esquema baseado na equação do reticulado de
V Simposio de Metodos Numericos Computacionais
154
Boltzmann, podem ser obtidas através de uma melhor interpretação e incorporação das característicasfísicas do problema, em vez do desenvolvimento de receitas numéricas.
Os pesquisadores Chen and Doolen (1998) e Zhao et al. (2013) mostraram que o LBM é uma técnicapoderosa para simular uma grande variedade de problemas complexos em dinâmica de fluidos. Nosúltimos anos, o LBM provou ser uma alternativa viável aos métodos numéricos tradicionais, com basena solução de equações de Navier-Stokes. Entre as razões de sua crescente popularidade são a suasimplicidade, facilidade de implementação e paralelismo de seu algoritmo.
2 MÉTODO DO RETICULADO DE BOLTZMANN
2.1 Equação do método do reticulado de BoltzmannPara iniciar este estudo, toma-se o caminho da teoria cinética. Dela, pode-se obter uma versão da
equação simplificada de Boltzmann (Abe, 1997):
∂g
∂t+−→c .∇g = Ω (1)
onde g é a função distribuição de partículas, ~c é o vetor velocidade das micropartículas e Ω é o operadorde colisão.
Quando se olha para a equação (1), observa-se que seu lado direito possui um termo chamado op-erador de colisão. Os pesquisadores Higuera and Jiménez (1989) assumiram que a distribuição estápróxima do equilíbrio local e com isto linearizaram o operador de colisão. Isto representa uma impor-tante simplificação do LBM. A aproximação BGK, simplificação muito utilizada do operador de colisão,utiliza um termo de relaxamento em direção ao equilíbrio local. No operador de colisão, a distribuiçãode equilíbrio local foi escolhida de forma que se possam recuperar as equações de Navier-Stokes ass-intoticamente. O uso do método do reticulado de Boltzmann com a simplificação BGK do operadorde colisão permite cálculos computacionais mais eficientes e evita-se ter que resolver equações cinéti-cas complexas como a equação de Boltzmann na sua forma mais complexa (Chen and Doolen, 1998).Pode-se reescrever (1) da seguinte forma:
∂g
∂t+−→c .∇g = $
(gM − g
)(2)
onde gM é a função de distribuição de equilíbrio de Maxwell-Boltzmann e $ é o coeficiente chamadode frequência de colisão. A função distribuição de equilíbrio de Maxwell-Boltzmann é dada por:
gM =ρ
(2π/3)D/2e[−
32(−→c −−→v ).(−→c −−→v )] (3)
onde D é a dimensão do espaço, ρ é o valor macroscópico da massa específica, ~c é o vetor velocidadedas micropartículas e ~v é a velocidade hidrodinâmica (velocidade do fluido).
Em um primeiro momento far-se-á a substituição da função distribuição de Maxwell-Boltzmann, poruma aproximação polinomial. É possível fazer uma simplificação na função distribuição de Maxwell-Boltzmann (3), assumindo que o número de Mach M = |−→v |/cs é pequeno. É feita uma aproximaçãopolinomial que substitui a função distribuição de Maxwell-Boltzmann, onde os termos até segunda or-dem são mantidos. Este esquema pode ser usado em reticulados regulares arbitrários (Koelman, 1991).O próximo passo é estabelecer a equação do reticulado de Boltzmann a partir de (2). Para isso, procede-se com três discretizações necessárias: no espaço de velocidades, e nos domínios espacial e temporal. Aequação do LBM descreve a colisão e a propagação de partículas. Obtém-se:
fi (−→x +−→ei∆x, t+ ∆t)− fi (−→x , t) =
1
τ[f eqi (−→x , t)− fi (−→x , t)] , i = 1, ..., M (4)
V Simposio de Metodos Numericos Computacionais
155
com
f eqi = ωiρ
[1 +
3 (~c.~v)
c2+
9
2
(~c.~v)2
c4− 3
2
(~v.~v)
c2
], ωi =
4/9, se i = 01/9, se i = 1, 2, 3, 41/36, se i = 5, 6, 7, 8
(5)
em que fi é a função distribuição de partículas, f eqi é a função distribuição de equilíbrio e wi são pesosassociados a cada uma das direções do reticulado. Os pesos na equação (5) são referentes ao modeloD2Q9, onde i = 0 é o centro do reticulado, i = 1, 2, 3, 4 são as direções cardeais e i = 5, 6, 7, 8 são asdireções colaterais (arestas diagonais do reticulado) conforme figura 1.
A densidade e a velocidade do fluido são recuperadas a partir das distribuições de partículas:
ρ(~x, t) =∑
i
fi(~x, t), ρ(~x, t) ~u(~x, t) =∑
i
fi(~x, t)c~ei (6)
2.2 Reticulado D2Q9O reticulado utilizado neste trabalho é o D2Q9, pois representa bem a dinâmica de problemas envol-
vendo escoamentos de fluidos em canais. ((Zhou et al., 2010); (Xiong and Zhang, 2011) e (Krivovichev,2014)).
Figura 1: Direções de movimento de umapartícula no reticulado D2Q9.
Fonte: Bao and Meskas (2011)
É um reticulado bidimensional que possui oito direçõesnão nulas de movimento, (ver figura 1). Este reticulado équadrado e é necessário introduzir duas velocidade (cardeaise colaterais) para as partículas, de acordo com a distância aser percorrida em um passo de tempo. Uma partícula toma adireção de uma das 9 possibilidades de direções, de acordocom as velocidades estabelecidas, sendo que uma delas épermanecer no mesmo local (Bao and Meskas, 2011).
Com relação às duas velocidades, pode-se perceber queas direções cardeais são mais lentas e terão módulo c =∆x/∆t. As direções colaterais são mais rápidas, pois pre-cisam percorrer maior distância utilizando o mesmo tempodas direções cardeais e terão módulo
√2c.
As direções do movimento das partículas são dadas por:
−→ei =
(0, 0) i = 0(1, 0) , (0, 1) , (−1, 0) , (0,−1) i = 1, 2, 3, 4(1, 1) , (−1, 1) , (−1,−1) , (1,−1) i = 5, 6, 7, 8
(7)
2.3 Condições iniciais e de contornoIndependente do problema que será simulado, quanto melhor for a representação das características do
problema pelas condições de contorno, melhor será o desempenho da simulação. Além disso, condiçõesde contorno impróprias podem levar a resultados sem coerência física. Essas conclusões podem servistas no trabalho de (Hou et al., 1995).
O LBM faz atualizações sucessivas em toda a malha, a cada passo de tempo. Condições iniciais ede contorno devem ser estabelecidas. Comumente os valores das funções distribuições de partículas sãoconfigurados para os valores da função distribuição de equilíbrio utilizando uma determinada velocidademacroscópica. Com relação a densidade macroscópica, usualmente utiliza-se uma valor constante. Paraas condições de contorno, é comum a utilização de uma distribuição de equilíbrio ajustada com os dadosde densidade, velocidade e temperatura, como condição inicial de um domínio de simulação no métododo reticulado de Boltzmann. Ou seja, no primeiro passo de tempo, a função distribuição de equilíbrioé calculada de acordo com os valores de entrada, densidade e velocidade macroscópicas. Em seguida,atribui-se o valor de f eq a função distribuição de partículas f (Zhou, 2004).
Como se trata, neste trabalho, da simulação de um escoamento que acorre por diferença de pressão,é interessante utilizar a condição de contorno de Zou e He. Estas condições de contorno serão aplicadas
V Simposio de Metodos Numericos Computacionais
156
na entrada e na saída do escoamento. Como relação as paredes superior e inferior, é interessante utilizarBounce back para representar a velocidade nula nas paredes.
3 ESTUDO DE CASO
3.1 Escoamento de PoseiuilleEscoamentos laminares de fluidos viscosos que ocorrem em dutos produzidos por um gradiente de
pressão são chamados de Poiseuille. Isso inclui os escoamentos similares, em canais entre placas fixas,etc. Portanto, um escoamento em regime estacionário de um fluido incompressível ao longo de umcanal retangular, com paredes impermeáveis e não-escorregadias, devido à diferença de pressão entre osextremos do canal é um escoamento de Poiseuille (Fox and McDonald, 1998).
Figura 2: Escoamento de Poiseuille aolongo de um canal retangular. Fonte: Au-tor
O escoamento ocorre devido a uma diferença de pressão,com pressão maior na entrada (pent) e menor na saída (psai),conforme está representado na figura 2.
As equações governantes deste problema são as equaçõesde Navier-Stokes com simplificações, como por exemplo,com pressão hidrostática. A solução analítica pode serobtida, pois é um caso simplificado de escoamento laminar.
As soluções para as velocidades nas direções x, y são,respectivamente (Fox and McDonald, 1998):
ux (x, y) = − 1
2µ
∂p
∂x
(Lyy − y2
), uy (x, y) = 0 (8)
onde, p é a pressão, ∂p∂x
é a variação da pressão, µ é a viscosidade dinâmica que é dada por µ = ρν,com densidade ρ e viscosidade cinemática ν, ux componente horizontal da velocidade, ux componentevertical da velocidade e Ly tamanho da entrada do canal.3.2 Algoritmo do método do reticulado de Boltzmann
De posse de todas essas informações, pode-se estabelecer um algoritmo que fornece a evolução dofluido para cada nó no reticulado D2Q9.
A inicialização (t = 0) contém os seguintes passos: i) Inicializa-se o valor da densidade macroscópicaρ (−→x , 0); ii) Inicializa-se o valor da velocidade macroscópica −→v (−→x , 0); iii) Calcular f eqi (ρ,−→v ); iv)Inicializar fi (−→x , 0) utilizando f eqi (ρ,−→u ).
O loop principal (t = 1 até tmax): i) Cálculo da colisão usando−fi (−→x , t) = fi (
−→x , t) + 1τ
[f eqi (−→x , t)− fi (−→x , t)] , i = 1, ..., M ; ii) Cálculo da propagação usando
fi (−→x +−→ei∆x, t+ ∆t) =
−fi (−→x , t) , i = 1, ..., M ; iii) Informar quais condições de contorno vai
usar e incorporar no código; iv) Atualizar densidade ρ(−→x , t) =∑i
fi(−→x , t) e a velocidades ρ−→u (−→x , t) =
∑i
fi(−→x , t)c−→ei ; v) Calcular a f eqi com os valores atualizados.
4 RESULTADOS E DISCUSSÕES
Pelo algoritmo da LBM é necessário inicializar a função distribuição de partículas f . Esta ini-cialização é feita atribuindo a função distribuição de equilíbrio f eq a f , ou seja, f = f eq. Porém,olhando para f eq em (5), pode-se notar que precisa-se de valores iniciais de velocidade e densidade.Deste modo, atribui-se um valor inicial para a densidade (ρ = 1 kg m−3) e para a velocidade atribui-se(umax = 0.2m/s). Além disso, considera-se nesta simulação o LBM simplificado, onde ∆x = ∆t = 1.Os parâmetros e características da malha utilizadas nesta simulação: Tamanho do domínio 300m× 50m,ou seja, Lx = 300m e Ly = 50m; passo no tempo ∆t = 1; passo no espaço ∆x = ∆y = 1; número deReynolds Re = 1000; viscosidade ν = umaxLx/Re e parâmetro de relaxação τ = 3ν + 1/2.
Na figura 3(a), pode-se ver a solução analítica do escoamento de Poseiuille. Pode-se ver também nafigura 3(b) a solução numérica com condição de contorno bounce back nas paredes inferior e superior.
V Simposio de Metodos Numericos Computacionais
157
Condição de contorno de Zhou e He na entrada e saída do escoamento. A Condição de contorno deZhou e He é indicada para escoamentos que ocorrem por diferença de pressão. De acordo com ascaracterísticas da malha, o parâmetro de relaxação assume o valor τ = 0, 68. Observa-se que o valor doparâmetro de relaxamento não pode ser inferior a 0,5, pois a viscosidade se tornaria negativa.
Observe que esta simulação é realizada com um fluido hipotético, pois optou-se por utilizar ∆x =∆t = 1.
(a) Solução analítica (b) Solução numérica
Figura 3: Solução analítica e numérica para o escoamento Poiseuille.
Observa-se na figura 4 que a simulação representa bem o escoamento do problema proposto. O erroabsoluto máximo na simulação é de 2, 06× 10−2.
Figura 4: Comparação entre solução analítica e numérica. Corte feito no meio da canal.
5 CONCLUSÃO
O presente trabalho pressupõe que escoamento de um fluido pode ser descrito numericamente pelométodo do reticulado de Boltzmann. Mostrou-se que, mesmo utilizando o LBM simplificado, a soluçãonumérica do escoamento de Poiseuille está bem próxima da solução analítica. Pontos importantes comoa simplicidade de implementação computacional e o fato de que o LBM não utiliza discretizações nasequações que governam a dinâmica dos fluidos, tornam o método atraente. O próximo passo para esteproblema, é refazer a simulação refinando a malha. Com isso, espera-se resultados mais acurados.
REFERÊNCIAS
Abe. Derivation of the lattice boltzmann method by means of the discrete ordinate method for theboltzmann equation. Journal of Computational Physics, 131(241 - 246), 1997.
Bao Y.B. and Meskas J. Lattice boltzmann method for fluid simulations. 2011.Benzi R., Succi S., and Vergassola M. The lattice boltzmann equation: Theory and applications.
PHYSICS REPORTS, 222(3):145 – 197, 1992.Chen S. and Doolen G.D. Lattice boltzmann method for fluid flows. Annual Review of Fluid Mechanics,
30(1):329–364, 1998.Chopard B., Dupuis A., Masselot A., and Luthi P. Cellular automata and lattice boltzmann techniques:
An approach to model and simulate complex systems. World Scientific Publishing Company, 5(2):103– 246, 2002.
V Simposio de Metodos Numericos Computacionais
158
Chopard B. and Masselot A. Cellular automata and lattice boltzmann methods: a new approach tocomputational fluid dynamics and particle transport. Future Generation Computer Systems, 16:249 –257, 1999.
Dewdney A.K. A cellular universe of debris, droplets, defects and demons. Scientific American,261:2:102 – 105, 1989.
Fox R.W. and McDonald A.T. Introduction to Fluid Mechanics. John Wiley e Sons, 1998.Frisch U., d’Humières D., Hasslacher B., Lallemand P.and Pomeau Y., and Rivet J.P. Lattice gas hydro-
dynamics in two and three dimensions. Complex Systems, 1:649 – 707, 1987.Frisch U., Hasslacher B., and Pomeau Y. Lattice gas cellular automata for the navier-stokes equations.
Physical Review Letters, 56(14):1505 –1508, 1986.Golbert D.R. Método de lattice Boltzmann em hemodinâmica computacional: interações fluido-
estrutura e modelos acoplados 1D-3D. Ph.D. thesis, Laboratório Nacional de Computação Científica,Petrópolis, RJ - Brasil, 2013.
Hardy J., Pazzis O.d., and Pomeau. Molecular dynamics of a classical lattice gas: transport propertiesand time correlation functions. Physical Review A, 13:1949 – 1961, 1976.
He X. and Luo L.S. A priori derivation of the lattice boltzmann equation. Physical Review E, 55(6):6333– 6336, 1997.
Higuera F.J. and Jiménez J. Boltzmann approach to lattice gas simulations. EPL (Europhysics Letters),9(7):663 – 668, 1989.
Hou S., Zou Q., Chen S., Doolen G., and Cogley A.C. Simulation of cavity flow by the lattice boltzmannmethod. J. Comput. Phys., 118:329 – 347, 1995.
Judice S.F.P.P. Animação de fluido via modelos do tipo lattice gás e lattice Boltzmann. Master’s Thesis,Laboratório Naciaonal de Computação Científica, Petrópolos, RJ, 2009.
Koelman J.M.V.A. A simple lattice boltzmann scheme for navier-stokes fluid flow. Europhys, 15(6):603– 607, 1991.
Krivovichev G.V. On the parametrical lattice boltzmann equations. Applied Mathematical Sciences,8(101):5003 – 5014, 2014.
McNamara G. and Alder B. Analysis of the lattice boltzmann treatment of hydrodynamics. Physica A,194:218 – 228, 1993.
McNamara G.R. and Zanetti G. Use of the boltzmann equation to simulate lattice-gas automata. PhysicalReview Letters, 61(20):2332 – 2335, 1988.
Qian Y.H., D‘Humières D., and Lallemand P. Lattice bgk models for navier-stokes equation. EurophysicsLetters, 17(6):479 – 484, 1992.
Succi S. The Lattice Boltzmann Equation for Dynamics and Beyond. Oxford University Press Inc., NewYork, 2001.
Surmas R. Simulação de fenômenos termo-fluidodinâmicos pelo emprego dos mmétodo de diferençasfinitas à solução da equação de BoltzBolt. Ph.D. thesis, Universidade Federal de Santa Catarina,Florianópolis, SC., 2010.
Wolf-Gladrow D.A. Lattice-Gas Cellular Automata and Lattice Boltzmann Models - An Introduction.Berlin, 2005.
Wolfram S. Cellular automaton fluids 1 - basic theory. J. Stat. Phys.,, 45(3 e 4):471 – 526, 1986.Xiong W. and Zhang J. A two-dimensional lattice boltzmann model for uniform channel flows. Com-
puters and Mathematics with Applications, 61:3453 – 3460, 2011.Zhao Z., Huang P., Li Y., and Li J. A lattice boltzmann method for viscous free surface waves in two
dimensions. International Journal for Numerical Methods in Fluids, 71:223 – 248, 2013.Zhou J.G. Lattice Boltzmann MMethod for Shallow Water Flows. Springer, New York, 2004.Zhou J.G., Liu H., Shafiai S., Peng Y., and Burrows R. Lattice boltzmann method for open-channel
flows. Engineering and Computational Mechanics, 163:243 – 249, 2010.
V Simposio de Metodos Numericos Computacionais
159
V Simposio de Metodos Numericos Computacionais
ANÁLISE DA REMODELAÇÃO ÓSSEA TRIDIMENSIONAL EM
TORNO DE PRÓTESES FEMORAIS UTILIZANDO OS MODELOS
ISOTRÓPICO E ANISOTRÓPICO DE STANFORD
Resumo: O tecido ósseo possui a capacidade de alteração de suas propriedades ao longo da
vida e de se adaptar conforme o esforço a que está submetido. Quando se instala uma prótese,
a condução e transmissão dos esforços ao tecido ósseo são governadas totalmente pelo
material da mesma, a qual possui uma rigidez maior que a do osso. Objetiva-se avaliar e
comparar a adaptação óssea em torno de uma prótese ortopédica para o fêmur humano,
utilizando os modelos isotrópico e anisotrópico de remodelação óssea de Stanford. Aplica-se
o Método dos Elementos Finitos através do software Abaqus, customizando-o com uma sub-
rotina desenvolvida em linguagem Fortran. Os resultados apresentam uma perda gradativa de
densidade óssea para ambos os modelos, porém, gerando um ganho desta no trocanter maior
quando se aplica o modelo isotrópico de remodelação, o qual, não acontece clinicamente.
Palavras-Chave: Remodelação óssea, Prótese femoral, Método dos Elementos Finitos,
Modelos Isotrópico e Anisotrópico de Stanford, Abaqus.
1 INTRODUÇÃO
Embora muitos materiais possuam um comportamento extremamente complexo, os materiais
biológicos têm um grau de complexidade ainda maior por possuírem características
peculiares. Por exemplo, o tecido ósseo, além de ser poroso, heterogêneo e anisotrópico, é
capaz de alterar sua estrutura interna e se adaptar aos esforços a que está submetido
(GARCÍA et al. 2002). Este processo de modificação das propriedades e adaptação é
denominado remodelação óssea e ocorre ao longo de toda a vida, removendo o tecido antigo
e substituindo-o por novo (LEMAIRE et al., 2004).
Uma importante linha de pesquisa que leva em consideração a modificação e a adaptação do
tecido ósseo é o desenvolvimento de próteses. Quando um componente é inserido junto ao
osso, uma adaptação funcional é estimulada e devido ao contato do novo material com este
tecido, as distribuições de tensões e deformações são alteradas. Isso acontece como
consequência do material da prótese ter interferência direta na condução das forças internas,
podendo conduzir a perda significativa de densidade óssea ou até mesmo, a fratura do osso.
Para correção de uma articulação coxo-femoral danificada, realiza-se o procedimento
cirúrgico denominado Artroplastia Total de Quadril (ATQ), onde a articulação não saudável é
substituída por uma artificial que possibilite a melhoria de qualidade de vida do paciente. A
Jose Eduardo Gubaua, Gabriela WesslingOening Dicati, Jucelio Tomas Pereira
160
prótese é dividida em dois componentes. O primeiro é inserido junto ao acetábulo. O segundo
é o femoral, o qual é dividido em duas partes, sendo a primeira uma haste que é instalada no
fêmur e a segunda, uma cabeça esférica que junto com o componente acetabular, forma o par
tribológico, possibilitando a movimentação da articulação artificial.
As próteses femorais podem ser fixadas de duas maneiras. A primeira delas é a cimentada, a
qual utiliza um cimento acrílico de secagem rápida nas cavidades, nas quais a haste femoral e
o componente acetabular são implantados. Um segundo modo de fixação é o não cimentado,
onde a fixação ocorre através da osseointegração. Neste processo, o tecido ósseo cresce e
adere sobre o material da prótese, fazendo a fixação de forma biológica.
Para a confecção das próteses, utilizam-se materiais que sejam compatíveis com o corpo
humano e que são denominados biomateriais. Estes podem ser formados por uma única
substância ou combinação de substâncias, naturais ou não, que não sejam drogas ou
fármacos, utilizadas em aplicações biomédicas e que interagem com sistemas biológicos, que
tratam, aumentam ou substituem quaisquer tecidos, órgãos ou funções do corpo (OLIVEIRA
et al., 2010). Os biomateriais mais frequentemente utilizados em reconstruções
osteoarticulares podem ser agrupados em: metálicos, poliméricos, cerâmicos e compósitos.
Dentre os metálicos, se destacam as ligas de cromo-cobalto e o titânio e suas ligas.
O corrente estudo tem como objetivo avaliar o processo de remodelação óssea, em um
modelo tridimensional do fêmur humano considerando os modelos isotrópico e anisotrópico
de Stanford (JACOBS et al., 1995; JACOBS et al., 1997), após a instalação de uma prótese.
A análise é realizada através do Método dos Elementos Finitos (MEF). Para a modificação
das propriedades do tecido ósseo, os modelos de remodelação são implementados em sub-
rotinas UMAT (User Material), as quais customizam o software Abaqus. Adota-se a premissa
de que ocorre uma adesão total na interface osso/prótese (osseointegração completa).
2 MÉTODOS
Nessa seção são apresentados de maneira sucinta, os modelos de remodelação óssea
isotrópico e anisotrópico de Stanford (JACOBS et al., 1995; JACOBS et al., 1997) e o
método de avaliação da distribuição de densidades de Gruen (GRUEN et al., 1979).
2.1 Modelo Isotrópico de Stanford
O modelo isotrópico de remodelação óssea de Stanford (JACOBS et al., 1995) utiliza a
densidade de energia de deformação (DED) como estímulo mecânico. Este é determinado a
partir das tensões correntes e avaliado perante um valor de referência. Os autores incorporam
o conceito de zona morta proposto por Wolff e definido por CARTER (1984), a qual é um
intervalo onde o estímulo não gera modificações nas propriedades do material. Quando o
estímulo for maior que o valor de referência, existirá uma formação de tecido ósseo. Já
quando o estímulo for menor, existirá reabsorção óssea.
2.2 Modelo Anisotrópico de Stanford
Uma extensão do modelo isotrópico é o modelo anisotrópico de Stanford, onde as
propriedades do tecido variam de acordo com a direção (JACOBS et al., 1997). Quando um
modelo isotrópico é adotado, as constantes de rigidez do material (Módulo de Young e o
coeficiente de Poisson) podem ser obtidas diretamente e somente com o valor da densidade
aparente. Por outro lado, não é possível determinar todos os termos da matriz de rigidez
anisotrópica somente em termos da densidade aparente, embora esta tenha uma influência
significativa sobre essa matriz. Portanto, no modelo anisotrópico de Stanford é considerado
que a densidade e a matriz de rigidez são independentes, porém, acopladas. Com isso, a
densidade exerce uma influência na taxa de mudança da rigidez, que por sua vez atua na taxa
de mudança de densidade. Assim como no caso isotrópico, uma zona-morta é incorporada ao
modelo e a DED é utilizada como estímulo mecânico.
V Simposio de Metodos Numericos Computacionais
161
2.3 Método de Avaliação do fêmur
Neste método, a avaliação da remodelação óssea em torno da haste femoral é realizada
utilizando as sete zonas de Gruen (GRUEN et al., 1979), as quais são demarcadas na vista
antero-posterior do modelo do fêmur (Figura 1). No corrente estudo, aplica-se este método
para avaliação do percentual de ganho/perda de massa óssea ao longo da análise para cada
área demarcada na Figura. Para quantificar a variação de massa óssea no trocanter maior e
crista e linha intertrocantérica, a região 1 de Gruen é estendida até o ponto de inserção
muscular.
Figura 1: Zonas de Gruen (TEN BROEKE et al., 2014).
3 IMPLEMENTAÇÃO COMPUTACIONAL
Para avaliação da remodelação óssea em torno da prótese femoral são realizadas duas
análises. A primeira, com o fêmur antes da ATQ, para determinação do campo de densidades
de equilíbrio, o qual é recuperado e utilizado como passo inicial da segunda análise, realizada
após o procedimento cirúrgico.
Para a primeira análise, utiliza-se um modelo sólido e tridimensional de um fêmur humano
(GRABCAD, 2014), apresentado na Figura 2a. O modelo é simulado no software Abaqus
6.12-1 e discretizado em 190.985 elementos do tipo tetraédrico linear denominado C3D4,
resultando em 36.480 nós (Figura 2b). A aplicação do carregamento segue o mesmo
procedimento de DICATI (2015) onde as forças apresentadas por JACOBS et al. (1995) são
divididas em 30 regiões, sendo 15 sobre a cabeça e 15 sobre o trocanter maior. As forças são
aplicadas aos pares ao longo da análise.
Figura 2: (a) modelo tridimensional utilizado e (b) malha de elementos finitos.
Para realizar a análise de um material em que a densidade varia ao longo do tempo, e é
dependente dos campos de tensões e deformações, customiza-se o software Abaqus com uma
V Simposio de Metodos Numericos Computacionais
162
sub-rotina em linguagem Fortran. Nesse caso, emprega-se a UMAT (User Material).
Para verificação do processo de remodelação óssea após o procedimento da ATQ, utiliza-se o
modelo apresentado na Figura 3a. A cabeça e parte do colo femoral (Figura 3b) são
removidas utilizando o software de CAD Solidworks. O modelo da prótese de Chanrley
(GRABCAD, 2014) é apresentado na Figura 3c, sendo considerada confeccionada com a liga
de Cromo-Cobalto-Molibdênio F90 que possui módulo de elasticidade de 210.000 MPa e
coeficiente de Poisson de 0,3 (Yan et al., 2011). Nesta simulação são aplicadas as mesmas
condições de contorno utilizadas para a análise do fêmur antes da realização do procedimento
da ATQ, com a diferença de que as cargas de compressão passam a ser aplicadas sobre a
cabeça femoral da prótese. Um sólido com comportamento elástico e linear é posicionado e
perfeitamente unido na diáfise femoral com o objetivo de evitar a formação de regiões de
concentrações de tensões. Neste, são aplicadas condições de contorno de Dirichlet
homogêneas.
A osseointegração é um processo realizado na interface osso/prótese. Este envolve uma série
de eventos biológicos que culminam na formação de osso novo. A osseointegração é formada
por duas fases. A primeira é realizada durante a ATQ, onde é obtida a fixação primária
(mecânica) através da inserção da prótese no osso. Esta influencia a segunda fase, a qual
corresponde a fixação biológica, através da formação de tecido imaturo (woven tissue) na
região que sob condições de solicitação mecânica favoráveis, remodela-se para o osso
lamelar. Cerca de três meses após a inserção é possível visualizar uma textura mista de tecido
imaturo e lamelar que caracteriza este tipo de fixação (MAGROGENIS et al., 2009). No
corrente trabalho, o período de osseointegração não é considerado. A interface entre o osso e
a prótese é adotada como sendo totalmente colada (após o período de fixação biológica).
A malha utilizada no modelo (Figura 3d) é composta de 223.422 elementos (123.127 para o
fêmur operado, 25.640 para a prótese e 10.876 elementos para o sólido inserido na diáfise
femoral) e 43.833 nós (24.168 para o fêmur, 5.470 para a prótese e 2.271 nós para o sólido).
A densidade inicial desta análise é recuperada a partir do campo de densidades de equilíbrio
do fêmur antes da ATQ, através de uma série de rotinas desenvolvidas no software Matlab.
Tomando as coordenadas de um nó qualquer na malha nova em relação a antiga, é definida
uma esfera centrada nesse nó e com raio arbitrado. A densidade nodal nova é obtida através
de uma média ponderada das densidades de todos os nós antigos internos a esta esfera.
Figura 3: (a) Modelo após a ATQ, (b) cavidade femoral, (c) prótese de Chanrley instalada e (d) malha de
elementos finitos aplicada ao problema.
V Simposio de Metodos Numericos Computacionais
163
São impostos à análise limites superior e inferior de densidades no valor de 6100,2 kg/mm³ e 6102,0 kg/mm³, referentes aos tecidos cortical e trabecular
respectivamente.
4 RESULTADOS E DISCUSSÕES
A Figura 4 apresenta os campos de densidades antes da realização da ATQ para o modelo
isotrópico (Figura 4a) e anisotrópico (Figura 4c). Para ambos os modelos, os principais
aspectos morfológicos encontrados em um fêmur humano saudável são encontrados. Regiões
com valores de densidade máxima são visualizados na fossa intertrocantérica e em torno da
diáfise femoral, resultando na formação dos córtices lateral e medial. Regiões de densidade
intermediária são encontradas no interior da diáfise do fêmur, sendo valores maiores para o
modelo anisotrópico quando comparado ao isotrópico, na região da crista intertrocantérica,
no pescoço e nas áreas de aplicação de carregamento. Há também, a formação do triângulo de
Ward, a formação do canal femoral e a distribuição característica de osso trabecular na região
do trocanter maior e na cabeça femoral, onde ocorre deposição preferencial de massa óssea
ao longo do caminho da carga compressiva. Também são apresentados os campos de
densidade recuperados para os modelos isotrópico (Figura 4b) e anisotrópico (Figura 4d).
(a) (b) (c) (d) Figura 4: Distribuição de densidades (a) inicial e (b) recuperada para o modelo isotrópico. Distribuição de
densidades (c) inicial e (d) recuperada para o modelo anisotrópico.
A Figura 5 apresenta o campo de densidade após 5 anos da realização do procedimento de
ATQ e a variação de ganho/perda de massa óssea ao longo da análise para as sete regiões de
Gruen, considerando o modelo isotrópico de remodelação óssea. O campo resultante
apresenta a ocorrência da reabsorção óssea adaptativa nas regiões 2 (córtex lateral), 6 (córtex
medial) e 7 (atrofia do calcar) de Gruen, sendo essas de maior intensidade na zona 2
(30,564%). Ocorre perda de densidade ao longo da interface osso/prótese caracterizando o
efeito clinicamente conhecido como Stress Shielding (GARCÍA et al., 2002). Este é um efeito
causado devido à redução de transmissão de esforços. Porém, na região 1 de Gruen, existe um
ganho de densidade óssea ao longo do trocanter maior, resultando em um ganho de massa de
8,07%, sendo este um fenômeno não encontrado quando comparado à uma radiografia
(Figura 6). Um aumento de massa óssea no canal medular (zona 4) pode ser visualizado,
sendo esta, uma tendência a formação de um pedestal ósseo na região distal da haste.
A Figura 7 apresenta o campo de densidades após 5 anos da realização do procedimento da
ATQ e a variação da perda/ganho de massa óssea para as sete regiões de Gruen, considerando
o modelo anisotrópico de remodelação. O campo resultante apresenta a ocorrência da
reabsorção óssea adaptativa nas regiões 1 e 2 (córtex lateral), 6 (córtex medial) e 7 (atrofia do
calcar) de Gruen, sendo essas de maior intensidade nas zonas 1 e 7 (42,528 e 39,332%). A
perda de densidade ao redor da haste femoral (regiões 1 e 2 de Gruen) caracteriza o efeito
V Simposio de Metodos Numericos Computacionais
164
clinicamente conhecido como Stress Shielding. Ao contrário do modelo isotrópico, não há a
formação de densidade óssea no trocanter maior. Um aumento de massa óssea no canal
medular (zona 4) pode ser visualizado, sendo esta, uma tendência a formação de um pedestal
ósseo na região distal da haste.
Figura 5: Campo de densidades para o modelo isotrópico de remodelação e variação das zonas de Gruen.
Figura 6: Acompanhamento clínico de pacientes após o procedimento da ATQ (BOCHIN e ALENCAR., 2007),
sendo (a) distribuição de densidades sem a ocorrência do stress shielding, com stress shielding (b) leve, (c)
moderado e (d) grave.
Figura 7: Campo de densidades para o modelo anisotrópico de remodelação e variação das zonas de Gruen.
V Simposio de Metodos Numericos Computacionais
165
5 CONCLUSÕES
O corrente trabalho teve como objetivo a avaliação do processo de remodelação óssea, em
um modelo tridimensional do fêmur humano, após a instalação de uma prótese femoral. Para
um fêmur intacto, o carregamento aplicado sobre o mesmo é transmitido ao longo de toda a
sua seção transversal. Devido ao material do componente inserido na articulação do quadril,
há alterações na condução e transmissão de esforços ao tecido ósseo. São utilizados os
modelos de remodelação isotrópico e anisotrópico de Stanford. Ambos os modelos
apresentam características que são encontradas em análise de radiografias de um fêmur
operado. Porém, o modelo de remodelação isotrópico apresenta um ganho de densidade ao
longo do trocanter maior (região onde estão conectadas as forças de reação musculares) que
não acontece clinicamente. O campo de densidades resultante para o modelo anisotrópico
apresenta a ocorrência do fenômeno de stress shielding ao longo da interface osso/prótese e
perda acentuada nos córtices medial e lateral podendo assim, ser classificado como um efeito
grave (Figura 6d), onde são encontradas várias regiões de perda de massa óssea ao longo da
diáfise femoral.
REFERÊNCIAS
BOCHIN, L. C., ALENCAR, P. G. C. “Stress shielding”: avaliação radiográfica após
seguimento a longo prazo. Revista Brasileira de Ortopedia, 41:290-296, 2007.
CARTER, D. R., Mechanical loading histories and cortical bone remodeling. Calcified Tissue
International, 36:S19-S24, 1984.
DICATI, G. W. O. Análise comparativa entre os modelos de Stanford isotrópico e
anisotrópico para remodelação óssea utilizando o método dos elementos finitos 2D e 3D.
Dissertação (Mestrado em Engenharia Mecânica) – Setor de Ciência e Tecnologia,
Universidade Federal do Paraná, Curitiba, 2015.
GARCÍA, J. M., DOBLARÉ, M., CEGOÑINO, J. Bone remodeling simulation: a tool for
implant design. Computational Materials Science, 25:100-114, 2002.
GRADCAB, 2014. Disponível em: http://www.grabcad.com. Acessado em: 20/04/2014
GRUEN, T. A., MCNEICE, G.M., AMSTUTZ, H.C., 1979. Models of failure of cemented
stem-type femoral components – a radiographic analysis of loosening. Clinical Orthopedics
and Relate Research, 141, 1979.
JACOBS, C. R., LEVENSTON, M. E., BEAUPRÉ, G. S., SIMO, J. C., CARTER, D. R.,
Numerical instabilities in bone remodeling simulations: the advantages of a node-based finite
element approach. Journal Biomechanics, 28:449-459, 1995.
JACOBS, C. R.; SIMO, J. C.; BEAUPRÉ, G. S.; CARTER, D. R. Adaptative bone
remodeling incorporating simultaneous density and anisotropy considerations. Journal of
Biomechanics, 30:603-613, 1997.
LEMAIRE V., TOBIN, F. L., GRELLER L. D., CHO C. R., SUVA L. J., Modeling the
interactions between osteoblast and osteoclast activities. Journal of Theoretical Biology, 229:
293-309, 2004.
MAGROGENIS, A. F., DIMITROU, R., PARVIZI, J., BABIS, G. C. Biology of implant
osseointegration. Journal of Musculoskeletal and Neuronal Interactions, 9:61-71, 2009.
OLIVEIRA, L. S. A. F., OLIVEIRA, C. S., MACHADO, A. P. L. M., ROSA, F. P.
Biomateriais com aplicação na regeneração óssea – método de análise e perspectivas futuras.
Revista de Ciências Médicas e Biológicas, 9:37-44, 2010.
YAN, W., BERTHE, J., WEN, C. Numerical investigation of the effect of porous titanium
femoral prosthesis on bone remodeling. Materials and Design, 32:1776-1782, 2011.
V Simposio de Metodos Numericos Computacionais
166
V Simposio de Metodos Numericos Computacionais
APLICAÇÃO DE CAOS EM REDES NEURAISAUTO-ORGANIZÁVEIS PARA RESOLVER PROBLEMAS COMO
O CAIXEIRO VIAJANTE
Resumo: Este trabalho apresenta uma proposta de melhoria para a solução do clássico Problema do CaixeiroViajante (PCV), para tanto utilizou-se a meta-heurística clássica Redes de Kohonen, que foi adaptada para resolvereste problema. Além dessa adaptação foi implementada a característica caótica nesse algoritmo com o objetivode testá-la e comprovar sua eficiência. São apresentados os primeiros resultados e discutida a possibilidade deaplicação dessa metodologia em outros problemas de otimização.
Palavras-Chave: Redes Neurais, Teoria do Caos, Problema do Caixeiro Viajante, Meta-heurísticas
1 INTRODUÇÃO
As redes neurais tem sido amplamente aplicadas nos mais diferentes campos científicos para a soluçãodos mais variados problemas, bem como as mais variadas meta-heurísticas baseadas em algum com-portamento biológico. Essas técnicas, em geral, tem alcançado um ótimo desempenho na solução deproblemas de alta complexidade computacional, em especial nos problemas da pesquisa operacional.
Admitindo heurísticas baseadas no modelo de aprendizado do cérebro humano e que a formação dessaexperiência se dá de maneira aleatória, os modelos heurísticos clássicos se mostram rígidos (DINGLE etal., 1993) e um tanto quanto limitados se comparados com a capacidade de aprendizado dos organismosbiológicos (HAYKIN, 2001). A melhor maneira de simular e/ou explicar o paradigma do aprendizadopara aproximar os algoritmos heurísticos da capacidade cognitiva das estruturas biológicas é a utilizaçãode caos nas redes neurais de qualquer natureza (DINGLE et al., 1993).
O Problema do Caixeiro Viajante é utilizado neste estudo, porque serve como plataforma de testespara investigar as diversas propostas heurísticas, além de ser um problema de alta aplicabilidade nomundo real, de fácil compreensão e descrição. Entretanto de difícil solução, pois pertence à classe deproblemas NP-hard e que demanda um tempo computacional que pode ser exponencial dependendo dainstância a ser solucionada. Assim, vários métodos como, por exemplo, apresentado por SIQUEIRA(2005) tem sido desenvolvidos com o propósito de resolver instâncias cada vez maiores desse problemaem um tempo computacional menor.
Os mapas auto-organizáveis são conhecidos por sua capacidade de agrupar padrões de entrada devidoao modelo de sua função de densidade de probabilidade gerar uma ordem espacial. O trabalho de DIN-GLE et all. (1993) apresenta simulações que ilustram a capacidade que o mapa auto-organizável caóticotem para executar cada uma destas tarefas. O caos é usado para escolher o neurônio vencedor de formaprobabilística mas, o efeito não é examinado em relação aos problemas difíceis como por exemplo naresolução do PCV.
Josue Ervin Musial, Paulo Henrique Siqueira
167
Este trabalho apresenta uma proposta de melhoria para a solução do clássico problema do CaixeiroViajante, para tanto utilizou-se a meta-heurística clássica Redes de Kohonen, que foi adaptada pararesolver este problema. Além dessa adaptação foi implementada a característica caótica nesse algoritmocom o objetivo de testá-la e comprovar sua eficiência. No final deste artigo apresentamos os primeirosresultados obtidos.
2 CAOS
Caos Determinístico ou simplesmente Caos é o fenômeno pelo qual um comportamento imprevisível,aparentemente aleatório é produzido por um sistema completamente determinístico. Tal atividade é sen-sivelmente dependente das condições iniciais e, por consequência, imprevisível. Deste modo, pequenasdiferenças nas condições iniciais podem gerar grandes diferenças nas saídas dentro de um tempo finito(OTT, 2002).
Um dos sistemas clássicos mais simples, capazes de produzir caos determinístico é a equação logís-tica:
y(n+ 1) = 4µ y(n) [1− y(n)] (1)
O comportamento dessa equação de diferença de primeira ordem muda drasticamente quando oparâmetro de bifurcação µ é alterado, conforme mostra a Figura 1. Para 2 < µ < 2, 9 a saída con-verge para um único valor diferente de zero. Quando µ > 2, 9 a saída começa a oscilar primeiro entre 2valores, depois 4 valores, em seguida, 8 valores e assim por diante, até que para µ > 3, 6 a saída se tornacaótica.
Figura 1: Diagrama de Bifurcação para o mapa logístico.
Num regime caótico um sistema apresenta sensibilidade às condições iniciais, ou seja, mesmo seas condições iniciais são próximas o resultado das iterações pode divergir exponencialmente, com odecorrer do tempo. Uma maneira de medir essa divergência é através do expoente de Lyapunov λ (OTT,2002).
O expoente de Lyapunov λ(x0) é definido na equação (2).
λ(x0) = limN→∞
1
N
N−1∑
n−1ln | f ′(xn) | (2)
onde N é o número de iterações, x1 = f(x0), x2 = f(x1) . . .. Assim se λ(x0) > 0 o sistema apresentaregime caótico e se λ(x0) ≤ 0 o sistema apresenta regime regular (OTT, 2002).
Outro conceito utilizado neste estudo é a unidade neural caótica fundamentada na equação logísticainvertida, na qual a entrada convencional da unidade neural é dada por:
net =∑
i
wixi (3)
onde xi são as entradas da rede neural e wi são os pesos associados. A próxima saída y(n+1) da unidadeneural depende da entrada da saída anterior como segue:
y(n+ 1) = 1− 4 [1− net] y(n) [1− y(n)] (4)
V Simposio de Metodos Numericos Computacionais
168
O comportamento desta unidade neural depende da sua entrada, se net < 0, 11 a unidade exibe ativi-dade caótica neural, pois satisfaz as mesmas condições da equação (1) que apresenta atividade caóticapara µ > 0, 89. Para 0, 11 < net < 0, 25 produz atividade periódica, enquanto que para net > 0, 25produz um único valor que cresce com o aumento do valor net e é igual a unidade para net > 0, 75.
Um dos pioneiros na utilização de caos em redes neurais foi AIHARA et all. (1990). Em seu tra-balho é proposto o modelo com um único neurônio com dinâmica caótica, considerando as seguintespropriedades dos neurônios biológicos: memória, refratariedade e soma espaço-temporal das entradas(AIHARA et all., 1990). O modelo contempla os modelos convencionais de um neurônio como um dosseus casos especiais; ou seja, a dinâmica caótica é apresentada como uma extensão natural dos modelosde neurônios não-caóticos. Em resumo o trabalho mostra a viabilidade da utilização de caos determinís-tico em redes neurais.
3 PROBLEMA DO CAIXEIRO VIAJANTE
O PCV é um típico problema de otimização combinatória, ele pode ser entendido como uma buscapelo menor caminho fechado que visita cada cidade uma vez e apenas uma vez. A forma de problema dedecisão do PCV é um NP-completo, por isso o grande interesse em heurísticas eficientes para resolvê-lo.Utilizado amplamente nos experimentos dos mais diversos métodos de otimização o PCV, pois trata-se de um problema de fácil descrição e compreensão. Entretanto apresenta uma grande dificuldadena obtenção da solução por que é um problema NP-Difícil (KARP, 1975), apesar disso apresenta umaaplicabilidade ampla.
Existem muitas das heurísticas que utilizam o paradigma da computação neural ou noções rela-cionadas recentemente. A primeira abordagem para o PCV via redes neurais foi no trabalho de Hopfielde Tank (1985), que foi baseado na minimização de uma função de energia, e os mínimos locais devemcorresponder a uma boa solução de uma instância do PCV. No entanto, esta abordagem não garante aviabilidade, ou seja, nem todos os pontos de mínimos da função energia representam solução viável parao PCV.
Outras técnicas clássicas são utilizadas para resolver o PCV, por exemplo, o método Simplex e osmétodos exatos como a inserção mais económica e a inserção do nó mais distante. Além das técnicasexistem outras maneiras para resolver o PCV, destacando-se os Algoritmos Genéticos (GOLDBERG,1986) e as Redes Neurais Artificiais (FAUSETT, 1994).
Uma técnica para a solução do PCV apresentada em SIQUEIRA (2005), utiliza a resolução clássicado problema da Designação como uma fase preliminar da resolução do PCV, na qual considera-se asolução ótima para a matriz de custos do problema da Designação como uma solução inicial para o PCV.Se a solução inicial determina uma rota viável então esta já é a solução ótima do PCV, caso contrário,um método “Winner Takes All” com rede recorrente é aplicado para viabilizar a solução.
4 REDES NEURAIS AUTO-ORGANIZÁVEIS
A rede de Kohonen, mais conhecida como rede Self-Organizing Map (SOM) ou ainda, rede de mapasauto-organizáveis, foi desenvolvida pelo finlandês Teuvo Kohonen na década de 80. Seu algoritmo temcomo princípio a auto-organização, um processo muito semelhante ao que ocorre no interior do cérebrohumano (KOHONEN, 2001). O modelo de Kohonen pertence a uma classe de algoritmos de codificaçãovetorial e, gera um mapeamento topológico dos vetores de entrada.
A rede SOM emprega uma mistura dinâmica de competição e cooperação para permitir a formaçãoemergente de um isomorfismo entre um espaço de característica e uma matriz de neurônios (HAYKIN,2001). Ela simplesmente inspeciona os dados de entrada, buscando regularidades e padrões e organiza-os de tal maneira a formar uma ordenada descrição dos dados de entrada. Esta descrição pode levar auma solução do problema em questão (LUEUG, 2004).4.1 Algoritmo SOM para Resolver o PCV
O algoritmo SOM para ser aplicado na resolução do PCV deve sofrer uma adaptação para que seobtenha como resposta, após o final do processo, uma sequência de cidades a serem visitadas, ou seja,uma rota solução para o PCV.
V Simposio de Metodos Numericos Computacionais
169
Para simplificar a implementação os dados de entrada bem como a camada de pesos, estes foramconvertidos em uma escala que varia no intervalo [0, 1] utilizando a equação (5)
xescala =(x− xmin)
(x− xmax)(5)
onde x é o valor da entrada a ser convertida e xmin e xmax são respectivamente os valores de mínimo emáximo das entradas antes da conversão para a escala (BAI et all., 2006).
A arquitetura SOM consiste além das entradas bidimensionais das coordenadas espaciais das cidadese de um anel sobre a qual os neurônios estão espacialmente distribuídos como pode ser observado naFigura 2. Dispor os neurônios em forma de anel é a maneira mais citada na literatura de adaptar oalgoritmo SOM para resolver o PCV.
Figura 2: Distribuição dos neurônios.
Os pesos dos neurônios definem a posição do neurônio no espaço. Os dados de entrada (um conjuntode n cidades) são apresentados ao SOM em uma ordem aleatória e uma competição baseada em distânciaeuclidiana é realizada entre os neurônios no anel. O neurônio vencedor é o neurônio i∗ que possui adistância mínima para a cidade apresentada.
Assim, o neurônio vencedor i∗, bem como os neurônios vizinhos movem-se na direção desse neurônio,usando a função de vizinhança:
f(σ, d) = exp
−d2σ2
. (6)
Os neurônios são atualizados segundo a seguinte função de atualização:
ynovoj = yatualj + α · f(σ, d) · (xi − yatualj ) (7)
onde α e σ são a taxa de aprendizagem e o parâmetro de vizinhança respectivamente. A distância cardinald = min ‖j − J‖,m− ‖j − J‖ é calculada ao longo dos neurônios j e J onde ‖ · ‖ representa o valorabsoluto. Taxa de aprendizagem tem característica dinâmica e diminui gradualmente durante o processode aprendizado, assumindo valores no intervalo (0; 1). Do mesmo modo, a função de vizinhança f(σ, d)assume um valor muito grande no início do treinamento, e diminui lentamente, em abrangência, com oprogresso do treinamento. Depois de muitas iterações os neurônios tendem a se aproximar das entradase finalmente convergem para elas. Uma vez que todos neurônios convergiram para os valores de entrada,basta ler as coordenadas na ordem em que aparecem. O resultando dessa sequência constitui uma soluçãopara o PCV em questão. A Figura 3 ilustra a evolução do algoritmo a partir do estado inicial do anel, (a)atingindo uma fase intermédia, após algumas iterações (b) e estabilizando no estado final (c).
O número de neurônios deve ser maior do que o número de cidades para evitar a oscilação de umneurônio e seus diferentes vizinhos. Uma boa alternativa é definir o número de neurônios m como sendoo dobro do número de vértices, ou seja, m = 2n.
V Simposio de Metodos Numericos Computacionais
170
Figura 3: Exemplo.
4.2 Caos em Redes de KohonenA aplicação de caos determinístico em redes de Kohonen foi feita pela primeira vez por DINGLE
AND JONES (1993). Os mapas auto-organizáveis convencionais utilizam unidades lineares:
ypj = netpj =M∑
i=1
wjixpi = wj e xp = ‖wj‖‖xp‖ cosφpj (8)
onde φpj é o ângulo entre o padrão de entrada xp e o vetor de peso wj . O vetor de peso da unidade neuralvencedora e os seus vizinhos são modificados de acordo com a seguinte regra, que gira no sentido wj opadrão de entrada xp:
wj =watual
j + λxp
‖watualj + λxp‖
(9)
A taxa de aprendizado λ, geralmente, diminui de forma linear ao longo da sessão de treinamento deum valor inicial λ(0) para um valor finalλmin.
O caos pode ser introduzido no mapa auto-organizével por substituição dos neurônios lineares da redeconvencional por neurônios caóticos (4).
5 METODOLOGIA
Uma adaptação ao algoritmo SOM para a solução do TSP, proposta por CASTRO et all. (2009),adapta o algoritmo clássico para obtenção dos coeficientes de aprendizagem e raio de vizinhança pelasseguintes equações:
αn =13√n
(10)
σn = σn−1 × (1− 0.01× n) (11)
em que σ0 =l
4× c , l é o número de neurônios e c é uma constante, neste trabalho foram adotados os
seguintes valores: c = 8 ou c = 10.O algoritmo modificado segue os seguintes passos:
1. Inicialização: as entradas do algoritmo são formadas pelas coordenadas cartesianas das cidades,juntamente com o número de neurônios escolhidos para os cálculos. O número de neurôniosdevem ser maiores que o número de cidades e inicialmente são dispostos em um retângulo queenvolve a posição geométrica das cidades.
2. Parâmetros de adaptação: αn e σn calculados de acordo com as equações (10) e (11).
V Simposio de Metodos Numericos Computacionais
171
3. Avaliação da vizinhança: que é obtida pela avaliação dos parâmetros de vizinhança e aprendizagematravés de sua atualização.
4. Competição: Cálculo do neurônio vencedor
5. Cooperação O neurônio vencedor tem sua vizinhança adaptada de acordo com a evolução do raioe coeficiente cognitivo descritos no passo 3 e acrescido da soma de um termo com característicacaótica.
6. Adaptação: Retorne ao passo 2 enquanto αn > αmin.
6 RESULTADO E DISCUSSÕES
O algoritmo SOM possui dois parâmetros adaptativos, o coeficiente de aprendizagem αn e a funçãode vizinhança (normalmente a função gaussiana é adotada) e o coeficiente de variância σn propostos porKohonen apresentam um decréscimo exponencial.
Para o teste inicial foram escolhidas algumas instâncias do PCV, descritas brevemente na Tabela 1.
Instâncias Número de Cidades Tamanho da rota ótimaulisses22 22 70.13
Eil51 51 426Eil76 76 538eil101 101 629gr96 96 55209st70 70 675
Tabela 1: Instâncias utilizadas nos experimentos computacionais.
Os primeiros resultados foram obtidos utilizando o algoritmo SOM e o algoritmo SOM modificadocom característica caótica SOM/Caos. O método foi aplicado 5 vezes para cada instância e resultou emuma solução média. Os resultados são apresentados na Tabela 2.
Instâncias SOM SOM/Caos Erro em (%)ulisses22 80.12 76.53 9
Eil51 464.28 455.14 6.8Eil76 581.64 571.52 6.2eil101 661.68 656.54 4.3gr96 55391.3 55384.56 3.2st70 712.47 709.23 5.0
Tabela 2: Instâncias utilizadas nos experimentos computacionais.
Inicialmente os neurônios são dispostos em uma malha com formato parabólico, envolvendo ascidades e o algoritmo SOM/Caos modela essa malha ajustando a rota solução do PCV apresentada peloalgoritmo. A Figura 4 apresenta o resultado do algoritmo SOM/Caos, aplicado na instância “Eil51”,após a inclusão das cidades que ficaram fora da rota e aplicação do refinamento, caso tenha ocorridocruzamento de arcos6.1 Considerações Finais
Neste trabalho é feita uma proposta acrescentando a característica caótica ao algoritmo heurísticoclássico de mapas auto-organizáveis, na tentativa de tornar essa busca mais semelhante aos processosnaturais biológicos.
O foco inicial deste trabalho é a solução do PCV devido a pelo menos três características, que são:sua grande aplicação prática, uma enorme relação com outros modelos LAPORTE et al, (2000) e sua
V Simposio de Metodos Numericos Computacionais
172
Figura 4: Resultado final do algoritmo SOM/Caos para a instância Eil51.
grande dificuldade de solução exata. Dessa forma, a importância do modelo é indiscutível, tanto sob oaspecto prático, como o teórico.
A implementação inicial dos algoritmos foi programada na linguagem computacional Microsoft Vi-sual Basic, versão 2010 e posteriormente transcritos para a linguagem C++. Foi desenvolvido umsoftware utilizado como uma ferramenta capaz de testar as instâncias do PCV extraídos da bibliotecaTSPLIB95 e, resolvidos pelos algoritmos clássicos de mapas auto-organizáveis e mapas auto-organizáveiscom introdução de caos.
Tal resultado mostra que o algoritmo converge para a solução, e os neurônios inicialmente dispostosem um retângulo (ou anel) envolvendo as cidades se aproximam de uma solução. O algoritmo tem umbom potencial e possibilidade de melhoria substituindo a função com característica caótica ou fazer umacombinação com heurísticas de refinamento 2-opt ou 3-opt.
REFERÊNCIAS
Aihara K.; Toyoda, M. Chaotic neural networks. Physics Letters A, v. 144, p. 333 - 340, 1990.Bai Y.; Zhang, W. J. Z. An new self-organizing maps strategy for solving the traveling salesman problem.
Chaos, Solutions and Fractals, v. 28, p. 1082 - 1089, 2006.Castro L. N. de ; Masutti, T. A. S. A self-organizing neural network using ideas from the immune system
to solve the traveling salesman problem. Information Sciences, v. 179, p. 1454 - 1468, 2009.Dantzig G.B.; Rasmer, J. The truck dispatching problem. Management Science, v. 6, n. 1, p. 80 - 91,
1959.Dingle A. A. ; Andreae, J. H. J. R. D. The chaotic self-organizing map. Proc. of First New Zealand
International Two-Stream Conference on Artificial Neural Networks and Expert Systems, p. 15 - 18,1993.
Fausett, L. Fundamentals of Neural Networks. New Jersey: Prentice Hall, 1994.Goldberg, D. Genetic Algorithms in Search, Optimization and Machine Learning. New Jersey: Menlo
Park, Addison-Wesley, CA, 1986.Haykin, S. S. Redes Neurais: Princípios e Prática. Canada: Pearson Education Inc., 2001.Karp, R. On the computational complexity of combinatorial problems. Networks, v. 5, p. 45 - 68, 1975.Kohonen, T. The self-organizing map. Proceedings of the IEEE, v. 78, p. 1464 - 1480, 1990.Kohonen, T. Self-Organizing Maps. New York: Springer, 2001.Laporte G.; Gendreaub, M. P. J. S. F. Classical and modern heuristics for the vehicle routing problem.
International Transactions in Operational Research, v. 7, p. 285 - 300, 2000.Murty, K. Linear and combinatorial programming. Florida: Springer, 1985.Ott, E. Chaos in Dynamical Systems. Maryland: Cambridge University Press, 2002.Siqueira, P. Uma Nova Abordagem na Resolução do Problema do Caixeiro Viajante. Tese (Doutorado) -
Universidade Federal do Paraná, 2005.
V Simposio de Metodos Numericos Computacionais
173
V Simposio de Metodos Numericos Computacionais
UMA RESOLUÇÃO DO PROBLEMA DO CAIXEIRO VIAJANTE POR
MAPA AUTO-ORGANIZÁVEL DE KOHONEN
Resumo: Este artigo apresenta um método para solucionar o problema do caixeiro viajante baseado
no mapa auto-organizável de Kohonen, com possibilidade de inserção e eliminação de neurônios.
Será apresentado o modelo matemático para o problema do caixeiro viajante, o mapa
auto-organizável de Kohonen. E para testar o funcionamento do algoritmo são usadas instâncias do
banco de dados TSPLIB. As soluções obtidas pelo mapa auto-organizável de Kohonen serão
confrontadas com as melhores soluções encontradas de cada instância.
Palavras-chave: Caixeiro viajante, mapa auto-organizável de Kohonen
Joyce Rodrigues da Silva
174
1 INTRODUÇÃO
O caixeiro-viajante pode ser exemplificado como um vendedor que precisa visitar diversos clientes,
somente uma vez. O objetivo é realizar este trabalho percorrendo o menor caminho possível. O
problema é de fácil compreensão, porém segundo LAPORTE (1992), o problema do caixeiro
viajante é um dos mais desafiadores, por isso é tão estudado.
O problema do caixeiro-viajante atrai pesquisadores de diversas áreas, devido a sua grande
aplicabilidade. Muitos problemas encontrados em situações reais podem ser modelados de forma
similar ao problema do caixeiro viajante ou suas variantes. Apesar de que sua formulação
matemática seja simples, nesse problema é possível encontrar várias questões estudadas em
otimização combinatória, por isso, ele tem sido utilizado como referência para avaliação de novos
algoritmos e heurísticas, como busca tabu, algoritmos genéticos, simulated annealing e redes neurais
artificiais, segundo CUNHA (2014).
Neste trabalho, utilizou-se um mapa auto-organizável de Kohonen para a resolução do problema do
caixeiro viajante. Em CALADO e LADEIRA (2001), pode ser encontrado um estudo comparativo
entre mapa auto-organizável e outras técnicas de inteligência artificial para a solucionar o problema
do caixeiro viajante.
2 O PROBLEMA DO CAIXEIRO VIAJANTE
É considerado G = (M,E) um grafo completo e não orientado em que M é o conjunto que representa
os m clientes e E é o conjunto que representa as ligações entre os clientes, e para qualquer par de
clientes, i,j M com i ≠ j, existe uma aresta (i,j) correspondente.
A seguir, será aprensentado o caso simétrico, baseado no modelo apresentado por ARENALES et al.
(2007, p. 186-187).
Definindo cij como a distância entre a cliente i e o cliente j, se cij = cji o problema é chamado
simétrico.
Seja a variável de decisão:
Então o modelo pode ser descrito como:
∑∑
(1)
∑
∑
(2)
∑∑
∑∑
⌊
⌋ (3)
(4)
Como o objetivo é a rota de menor distância, usa-se a função minimizar em (1). São somadas às
distâncias de todos os caminhos possíveis. Nota-se que j>i, pois as distâncias são iguais, ou seja,
cij = cji .
As restrições em (2) impõem que cada cliente i tenha somente um cliente anterior e um cliente
posterior na sua rota, criando assim o ciclo que o caixeiro percorrerá.
Supondo S uma sub-rota, com cardinalidade de no mínimo 3, e no máximo ⌊
⌋ nós, e considerando
|S|=k, a restrição (3), garante que são eliminados os ciclos com k nós e também os ciclos com n-k
nós. Por exemplo na Figura 1, supor um conjunto M com cardinalidade 9 e um subconjunto S com
cardinalidade 3, a sub-rota é a linha pontilhada e para que não haja sub-rota é necessário que pelo
V Simposio de Metodos Numericos Computacionais
175
menos dois arcos liguem o subconjunto S com o resto dos nós como é demostrado pelas linhas
tracejadas.
Figura 1: exemplo de sub-rota da restrição (3)
A restrição (4) é utilizada para indicar que as variáveis de decisão são binárias.
3 MAPA AUTO-ORGANIZÁVEL DE KOHONEN
O mapa auto-organizável de KOHONEN (1982) pertencem a uma classe de redes neurais artificiais
baseadas em aprendizado competitivo, em que os neurônios tendem a aprender a distribuição
estatística dos dados de entrada. A Figura 2 exibe uma arquitetura típica do mapa auto-organizável,
na qual todas as unidades de entrada encontram-se conectadas a todas as unidades de saída
(neurônios) através de conexões sinápticas.
Figura 2: Arquitetura de uma rede neural auto-organizável.
De acordo com HAYKIN (1998), a aprendizagem competitiva consiste na competição entre si dos
neurônios da camada de saída da rede neural. Sendo assim, somente um único neurônio está ativo em
um determinado instante. Essa característica torna a aprendizagem competitiva adequada para
descobrir características estatisticamente salientes que podem ser utilizadas para classificar um
conjunto de padrões de entrada. Os neurônios, além de conectados a camada de entrada, eles podem
incluir conexões de realimentação entre os neurônios, conforme mostrado na Figura 3.
Figura 3: Arquitetura de uma rede com aprendizagem competitiva, adaptado do HAYKIN (1998).
O algoritmo que forma o mapa auto-organizável envolve 4 etapas principais, resumidas a seguir:
Inicialização do mapa: definir os pesos sinápticos iniciais, atribuindo-lhes valores pequenos
e aleatórios.
V Simposio de Metodos Numericos Computacionais
176
Processo competitivo: ao apresentar um padrão de entrada, os neurônios competem entre si
através de seus níveis de ativação, sendo que apenas um neurônio será o vencedor.
Processo cooperativo: é inspirado em um mecanismo neurobiológico, no qual o neurônio
vencedor do processo competitivo tende a influenciar o estado dos neurônios vizinhos.
Adaptação sináptica: nesta fase, os pesos sinápticos do neurônio vencedor e seus vizinhos
são atualizados de modo a se aproximarem espacialmente do padrão de entrada.
3.1 Estrutura da rede neural aplicada ao problema e o algoritmo proposto
A arquitetura da rede adotada é parecida com a que foi exibida na Figura 2, com a relação de
vizinhança unidimensional. A primeira camada é composta pelos padrões de entrada, que para o caso
do caixeiro viajante é as coordenadas dos clientes e a segunda camada é formada pelos neurônios de
saída. No final do algoritmo a ordem em que os neurônios são apresentados pela rede, indica a
sequência que o caixeiro viajante deverá percorrer.
O algoritmo proposto segue as 4 etapas principais descritas anteriormente e durante a execução é
adotado a politica de remoção e inserção de neurônios. O pseudo-código a seguir ilustra de forma
simplificada o procedimento realizado para encontrar uma solução do problema do caixeiro viajante.
Algoritmo 1: treinamento de um mapa auto-organizável.
Entrada: coordenadas dos clientes, número máximo de iterações, taxa de aprendizado, raio de
vizinhança.
Saída: pesos para rede neural de Kohonen treinada.
1 Inicialização do mapa;
2 Enquanto não satisfizer o critério de parada faça:
3 Para todas as entradas faça:
4 Encontre o neurônio vencedor que apresentar maior correlação com a entrada selecionada;
5 Encontre os neurônios vizinhos do neurônio vencedor;
6 Atualiza os pesos sinápticos, do vencedor e seus vizinhos;
7 Reduza a taxa de aprendizado;
8 Reduza o valor da vizinhança;
9 fim-para;
11 Insere ou apaga os neurônios;
12 fim-enquanto;
13 retorna rede neural de Kohonen treinada.
ANGÉNIOL et al. (1988) descreve que a inicialização do mapa deve ser um anel em torno da região
onde se deseja criar a rota. Como a distribuição inicial dos neurônios tem influencia direta sobre a
configuração final do mapa, esse ponto é crucial para um bom desempenho do algoritmo.
Quando a coordenada de um cliente é apresentada a rede, é selecionado um neurônio vencedor de
acordo com o critério de similaridade. Para o problema do caixeiro viajante, o critério de
similaridade é a menor distância euclidiana entre a coordenada do cliente e o neurônio.
O processo cooperativo é inspirado em um mecanismo neurobiológico, no qual um neurônio que se
encontra no estado ativo tende a influenciar o estado dos neurônios vizinhos. A vizinhança
considerada nesse algoritmo proposto é unidimensional, limitada ao anel onde se encontra o neurônio
vencedor. A variável que representa a vizinhança decresce conforme o número de épocas
transcorridas. Para a vizinhança unidimensional, a função de ativação da vizinhança é definida de
acordo com a equação (5).
(
)
(5)
O índice i(x) é o índice do neurônio vencedor para o cliente x, j é o índice de um neurônio vizinho,
dj,i representa a distância lateral entre o neurônio vencedor i e o neurônio vizinho j e σ é o desvio
padrão. No caso da vizinhança unidimensional, a distância lateral dj,i é dada pelo grau de vizinhança.
V Simposio de Metodos Numericos Computacionais
177
O raio de vizinhança afetado pelo neurônio vencedor decai com o número de iterações. O
decaimento é controlado pelo desvio padrão associado à função de vizinhança gaussiana e é
calculado pela equação (6).
(
)
(6)
O valor inicial de σ é representado por σ0, é uma constante de tempo que define o fator de
redutibilidade da vizinhança e n é o número da época.
A adaptação dos pesos sinápticos para o neurônio vencedor e sua vizinhança na época n+1 é feita de
acordo com a equação (7).
(7)
A taxa de aprendizado é µ, x representa as coordenadas do consumidor em questão e wj é o vetor de
pesos referente ao neurônio j.
A taxa de aprendizagem µ assume inicialmente o valor de 0.6 e decai com o número de épocas de
acordo com a equação (8).
(
)
(8)
O processo de inserção e remoção de neurônios durante o treinamento da rede foi introduzido por
ANGÉNIOL et al. (1988). Um neurônio é duplicado se ele for escolhido como vencedor por dois
clientes diferentes na mesma época de treinamento. O neurônio duplicado é inserido no anel como
um vizinho de grau 1 do vencedor e com as mesmas coordenadas. Na próxima época de treinamento
os neurônios duplicados serão separados pela atualização dos seus vizinhos. Garantindo assim que
cada cliente tenha um neurônio associado. Um neurônio é deletado se após 3 épocas de treinamento
não tenha sido escolhido como vencedor para nenhum cliente. ANGÉNIOL et al. (1988) garante
experimentalmente que isso ajuda a encontrar soluções quase ótimas.
4 RESULTADOS COMPUTACIONAIS
O algoritmo proposto foi desenvolvido para ser executado no aplicativo Matlab. O computador usado
nos testes possui um processador Pentium Dual-Core T4500 2,30 GHz com 4,00 GB de memoria
ram e sistema operacional Windows 7 Home Basic (64 bits). A versão do aplicativo do Matlab é a
R2013a.
Para todas as instâncias testadas foram usadas os mesmos parâmetros para realização dos testes. A
taxa de aprendizagem foi usada com o valor de 0.6, o número máximo de épocas foi estipulado como
3000 e o raio de vizinhança de grau 3. As instâncias utilizadas foram obtidas na base de dados
TSPLIB e o número ao final do nome da instância se refere à quantidade de dados. Foi executado a
implementação do mapa auto-organizável 10 vezes para cada instância e os menores valores obtidos
estão na Tabela 1. Usou-se 3 critérios de parada, o primeiro é o numero de iterações menor que 3000,
o segundo é taxa de aprendizagem diferente que 0.01 e o terceiro é a distância entre o neurônio
vencedor e cada cliente referente a esse neurônio seja menor que 0.01. A ordem em que os neurônios
são apresentados ao final do treinamento representa a rota que o vendedor deverá fazer para
minimizar a distância percorrida.
É possível observar que o número de iterações até ser obtida a solução é no máximo 1154 e o tempo
de processamento é relativamente pequeno para as 5 primeiras instâncias da Tabela 1.
Ao comparar a melhor solução encontrada até o momento com a solução obtida, nas instâncias
EIL51, EIL101 e TPS225, é verificado que o valor obtido é próximo do valor conhecido. Porém não
é encontrado o mesmo valor.
V Simposio de Metodos Numericos Computacionais
178
Instância Melhor solução conhecida
(distância)
Solução obtida
(distância) Tempo(s) Nº iterações
EIL51 426 428 14 953
EIL101 629 649 27 952
TPS225 3916 4018 70 963
PCB442 50778 54163 153 1154
PR1002 259045 271937 363 1007
PR2392 378037 409339 1142 1151 Tabela 1: Resultados computacionais obtidos para o problema do caixeiro viajante, comparados com as melhores
soluções conhecidas disponíveis em: < http://www.iwr.uni-heidelberg.de/groups/comopt/software/TSPLIB95/tsp/>.
5 CONCLUSÕES
O algoritmo proposto mostrou-se eficiente, pois conseguiu solucionar o problema do caixeiro
viajante. O método para obtenção da solução é simples e pode ser implementado em qualquer
linguagem. Por mais que não foi possível encontrar as mesmas soluções que as melhores conhecidas,
ressalta-se que nenhum dos parâmetros foram alterados durante os testes e mesmo assim foram
encontradas boas soluções para instâncias com poucas quantidades. Já para grandes quantidades as
soluções obtidas não foram tão boas, mas foi possível encontrar uma solução.
O mapa auto-organizável de Kohonen para solucionar o problema do caixeiro viajante pode ser uma
boa opção para encontrar soluções iniciais para ser usado em meta-heuristicas, já que o custo
computacional é pequeno. Existem duas grandes vantagens em usar a abordagem proposta, a
primeira é a ausência da necessidade de ajuste de parâmetros de acordo com as peculiaridades de
cada instância do problema e a segunda é a possibilidade de aplicação a problemas de grande porte
sem que haja a explosão do custo computacional.
6 REFERÊNCIAS
ANGÉNIOL, B., VAUBOIS, C. & LE TEXIER, J., Y., “Self-organizing feature maps and the
travelling salesman problem”, Neural Networks,1, 289-293, 1988.
ARENALES, M.; ARMENTANO, V.; MORABITO, R.; YANASSE, H.. Pesquisa operacional. Rio
de Janeiro, Elsevier, p.186-187, 2007.
CALADO, F. M.; LADEIRA, A. P. Problema do caixeiro viajante: Um estudo comparativo de
técnicas deinteligência artificial. e-Xacta, v. 4, p. 5–16, 2001.
CUNHA, C. B.; BONASSER, U. O.; ABRAHÃO, F. T. M. Experimentos computacionais com
heurísticas de melhorias para o problema do caixeiro viajante. Anais do XVI Congresso da Anpet –
Associação Nacional de Pesquisa e Ensino em Transportes. Natal, RN: ANPET. v. 2, p. 105–117,
2002.
HAYKIN, S. Neural Networks: A Comprehensive Foundation. 2nd. ed. Upper Saddle River, NJ:
Prentice Hall, 1998.
KOHONEN, T. Self-organized formation of topologically correct feature maps. Biological
Cybernetics, Springer-Verlag, v. 43, n. 1, p. 59–69, 1982.
LAPORTE, G. The traveling salesman problem: An overview of exact and approximate algorithms.
European Journal of Operational Research, v. 59, n. 2, p. 231 – 247, 1992.
V Simposio de Metodos Numericos Computacionais
179
V Simposio de Metodos Numericos Computacionais
ANÁLISE DE ESTABILIDADE E CONVERGÊNCIA DE UMMÉTODO ESPECTRAL TOTALMENTE DISCRETO PARA
SISTEMAS DE BOUSSINESQ
Resumo: Na primeira parte deste trabalho, apresentamos a análise de estabilidade da família linear de sistemasde Boussinesq com o objetivo de determinar a influência de seus parâmetros (a, b, c, d) na eficiência e precisãodo método espectral de colocação de Fourier aplicado na variável espacial, juntamente com o método de RungeKutta de quarta ordem aplicado na variável temporal. São identificadas quais regiões de parâmetros são as maisadequadas para a obtenção de uma solução numérica consistente. Na segunda parte é apresentada a análise deconvergência da família não linear de sistemas de Boussinesq nos casos em que a condição de estabilidade linearé dada por ∆t ≤ C∆x. Experimentos numéricos são fornecidos com o objetivo de verificar a estabilidade dassoluções do problema linear nas regiões de parâmetros que apresentam resolução numérica com baixo custo com-putacional.
Palavras-Chave: Sistemas de Boussinesq, Método Espectral de Colocação de Fourier, Método deRunge-Kutta, Simulações Numéricas
1 INTRODUÇÃO
Em 1870, Boussinesq obteve em Boussinesq (1872) os primeiros modelos de equações de evolução,que foram utilizados inicialmente para descrever a propagação de ondas bidimensionias, e se apresen-tavam sob a forma de uma perturbação da equação da onda unidimensional. Além disso, decorriamdiretamente da formulação Euleriana do problema da onda de água, e utilizavam, dentre outras hipóte-ses, a propagação unidirecional da onda. Como consequência disto, os modelos obtidos por Boussinesqsão formalmente comparados com o conhecido modelo obtido por Korteweg e de-Vries alguns anos maistarde em Korteweg and Vries (1895), chamado de equação de KdV.
O objetivo deste trabalho é desenvolver a análise de estabilidade e convergência da família de sistemasde Boussinesq da forma
ηt + ux + (uη)x + auxxx − bηxxt = 0,ut + ηx + uux + cηxxx − duxxt = 0,
(1)
que foi obtida e analisada em Bona et al. (2002), como um modelo assintótico obtido a partir dasequações de Euler para ondas de pequena amplitude e grande comprimento de onda. Os parâmetrosa, b, c, d são tais que,
a =1
2
(θ2 − 1
3
)λ, b =
1
2
(θ2 − 1
3
)(1− λ), c =
1
2
(1− θ2
)µ, d =
1
2
(1− θ2
)(1− µ), (2)
Juliana Castanon Xavier, Mauro Antonio Rincon,Daniel Gregorio Alfaro Vigo, David Amundsen
180
com λ, µ ∈ R e 0 ≤ θ ≤ 1.O sistema (1) descreve a propagação não linear de ondas de pequena amplitude em um canal. As
variáveis dependentes η = η(t, x) e u = u(t, x) representam, respectivamente, a altura da superfícielivre do fluido em relação a superfície de repouso e a velocidade horizontal do fluido em algum pontoacima do fundo do canal. Até onde sabemos, a maior parte dos resultados numéricos para esses sistemassão concentrados em escolhas específicas dos parâmentros (a, b, c, d), como por exemplo em Dougaliset al. (2010).
Embora esses resultados respondam a uma importante pergunta levantada em Bona et al. (2002),sobre a construção de métodos numéricos eficientes e precisos para a obtenção de soluções aproximadasde problemas de valor inicial e de contorno (PVICs) relacionados com esses sistemas, seria útil explorarde maneira mais abrangente e consistente a escolha desses parâmetros na construção destes esquemasnuméricos.
Nosso objetivo é analisar a influência de diferentes escolhas dos parâmetros a, b, c, d na eficiênciae precisão de um esquema numérico. Para isto, aplicamos conjuntamente o método espectral de colo-cação de Fourier para a discretização espacial e o método de Runge-Kutta (RK) de quarta ordem para adiscretização temporal.
A análise de convergência relacionada com a discretização espacial do problema, indica qual a ordemde precisão no espaço que podemos obter soluções aproximadas. Essa ordem de precisão está fortementerelacionada com a regularidade das soluções do sistema (1). Por outro lado, a análise da discretizaçãotemporal indica a eficiência e precisão nas aproximações temporais da solução. Essa informação não estádiretamente relacionada com a regularidade espacial da solução, mas sim com propriedades dispersivase de estabilidade das equações totalmente discretizadas.
Portanto, após toda a análise numérica, identificamos quais escolhas particulares dos parâmetrosa, b, c, d geram os mais precisos e eficientes esquemas numéricos. Na seção 2 é feita a análise de es-tabilidade da versão linear do sistema (1) através da análise de von Neumann, e na seção 3 são dadosos resultados da análise de convergência do problema não linear para os casos com condição de estabi-lidade linear numérica mais interessantes, isto é, aquelas do tipo ∆t ≤ C e ∆t ≤ C∆x. Na seção 4 sãoapresentados alguns experimentos numéricos com o objetivo de verificar a estabilidade das soluções doproblema linear em algumas regiões especiais de parâmetros.
2 ANÁLISE DE VON NEUMANN DO SISTEMA LINEAR DISCRETIZADO
Analisamos os sistemas de Boussinesq dados por (1) num domínio Ω = [−L,L] com condições decontorno periódicas em Ω. Aplicamos o método de colocação de Fourier na variável espacial do sistema(1) sem os termos (ηu)x e uux, que é a versão linear do sistema original. Obtemos então, o seguintesistema de equações diferenciais ordinárias:
ηt = −ikw1(k)u,ut = −ikw2(k)η,
(3)
válido para cada k = πL
−N2
+ 1, . . . , N2
, com w1(k) =
1− ak2
1 + bk2e w2(k) =
1− ck2
1 + dk2. Aplicando a
análise de estabilidade de Von Neumann no sistema (3), obtemos o seguinte resultado:
Teorema 2.1. O sistema (3) é estável se ∆t ≤ CN−` para alguma constante positivaC e ` ∈ 0, 1, 2, 3,onde ∆t é o tamanho do passo de tempo e N é o número de pontos considerados na discretizaçãoespacial. O valor de ` irá depender da região à qual pertencem os parâmentos (a, b, c, d), como podeser observado na Tabela 1.Prova. Para aplicar a análise de von Neumann ao sistema (3) precisamos discretizar a variável temporalt. Para isso, vamos aplicar o método de RK de quarta ordem, partindo das expansões de Taylor de η e uem uma vizinhança de (t −∆t). Avaliando essas expansões no ponto t = tn+1 = tn + ∆t, chegamos aum sistema linear, representado na sua forma matricial por
[ηn+1k
un+1k
]= Gk
[ηnkunk
], (4)
V Simposio de Metodos Numericos Computacionais
181
onde a matriz Gk =
[A(k) B(k)C(k) A(k)
]é tal que
A(k) = 1− k2w1(k)w2(k)∆t2
2!+ k4w2
1(k)w22(k)∆t4
4!,
B(k) = −ikw1(k)∆t+ ik3w21(k)w2(k)∆t3
3!,
C(k) = −ikw2(k)∆t+ ik3w1(k)w22(k)∆t3
3!.
(5)
Estamos interessados em soluções do tipo[ηnkunk
]= gnk
[akbk
], com ak, bk 6= 0. Para determinar
o fator de amplificação gk, substituímos o tipo de soluções que temos interesse em (4), e levando emconsideração a definição da matriz Gk, obtemos que
g±k = A(k)±√α(k), (6)
em que
α(k) = −k2w1(k)w2(k)∆t2 +k4
3w2
1(k)w22(k)∆t4 − k6
36w3
1(k)w32(k)∆t6, (7)
para cada k = πL
−N2
+ 1, . . . , N2
.
De acordo com a análise de von Neumann, para que a solução de (4) seja estável, é suficiente queo fator de amplificação gk seja tal que |gk| ≤ 1 para todo k. De (6) e (7), notamos que isso equivale adeterminar os valores de y que satisfazem
|g±k | − 1 =y3
576(y − 8) , em que y = k2w1(k)w2(k)∆t2. (8)
Assim, levando em conta que quando k = 0 não há nenhuma restrição para ∆t, concluímos que parak = π
L
−N2
+ 1, . . . , N2
, com k 6= 0, temos que |g±k | ≤ 1 se, e somente se,
0 ≤ k2w1(k)w2(k)∆t2 ≤ 8 ⇔ 0 ≤ ∆t ≤√
8 (|ω(k)|)−1 , (9)
em que ω(k) = kσ(k) = k√w1(k)w2(k).
A conclusão do Teorema 2.1, isto é, a condição de estabilidade do sistema (4) do tipo ∆t ≤ CN−`
para alguma constante positiva C e ` ∈ 0, 1, 2, 3, segue da análise do comportamento assintótico deω(k) quando k se aproxima do infinito. Esse comportamento varia de acordo com a região de parâmetrosconsideradas (aquelas com resultados sobre boa colocação do problema linear - ver Bona et al. (2002)),como pode ser observado na Tabela 1.
3 ANÁLISE DE CONVERGÊNCIA DO SISTEMA NÃO LINEAR DISCRETIZADO
Para o problema não linear, realizamos a análise de convergência do sistema (1) totalmente dis-cretizado pelos métodos de colocação de Fourier na variável espacial e o método de RK de quarta ordemna variável temporal. Essa análise de convergência está direcionada, inicialmente, para algumas regiõesespecíficas de parâmentros (a, b, c, d); a saber, aquelas que fornecem condição de estabilidade para oproblema linear do tipo ∆t ≤ CN−1. Esses casos, juntamente com aqueles em que a condição de esta-bilidade do problema linear é dada por ∆t ≤ C, compõem os casos de maior interesse numérico devidoao baixo custo computacional na sua implementação.
A seguir, enunciamos o resultado global para esses casos, mas o demonstramos para a região a <0, b > 0, c < 0, d > 0. A demonstração para as outras sete regiões com ` = 1 na Tabela 1 seguem demaneira análoga, com algumas pequenas modificações.
Teorema 3.1. Sejam s ≥ 4 e (η, u) ∈ C(0, T ;Hs(Ω) × Hs+2(Ω)) solução do sistema (1) para umadeterminada região de parâmetros (a, b, c, d) e para algum 0 < T < ∞, com dado inicial (η0, u0) ∈Hs(Ω)×Hs+2(Ω). Suponha que exista uma constante M tal que maxt∈[0,T ] (‖∂5
t η(t)‖1 + ‖∂5t u(t)‖1) ≤
V Simposio de Metodos Numericos Computacionais
182
` = 0 ` = 1a < 0, b > 0, c = 0, d > 0 a < 0, b > 0, c < 0, d > 0a = 0, b > 0, c < 0, d > 0 a < 0, b > 0, c = 0, d = 0a = 0, b > 0, c = 0, d = 0 a = 0, b > 0, c < 0, d = 0a = 0, b > 0, c = 0, d > 0 a < 0, b = 0, c = 0, d > 0a = 0, b = 0, c = 0, d > 0 a = 0, b = 0, c < 0, d > 0
a = 0, b = 0, c = 0, d = 0a = c > 0, b > 0, d > 0a = c > 0, b = d < 0
` = 2 ` = 3a < 0, b > 0, c < 0, d = 0 a < 0, b = 0, c < 0, d = 0a < 0, b = 0, c < 0, d > 0 a = c > 0, b = 0, d = 0a < 0, b = 0, c = 0, d = 0a = 0, b = 0, c < 0, d = 0a = c > 0, b = 0, d > 0a = c > 0, b > 0, d = 0
Tabela 1: Variação de ` nas regiões de parâmetros.
M . Seja (Hn, Un) solução do problema totalmente discreto associado. Então, para N suficientementegrande e ∆t suficientemente pequeno tais que ∆t ≤ cN−1 para alguma constante C > 0, existe umaoutra constante, também denotada por C, independente de N , tal que:
max0≤n≤M
(‖η(tn)−Hn‖1 + ‖u(tn)− Un‖1) ≤ C(∆t4 +N1−s) (10)
Notação. Dado um inteiro positivo N , definimos o espaço SN = spane−ikx,−N ≤ k ≤ N
. Além
disso, consideramos PN o operador de projeção ortogonal de L2 em SN tal que (PNw, v) = (w, v) paratodo v ∈ SN .Prova. Sejam aB e aD duas projeções elípticas em SN definidas através de PN por aB(PNv, ξ) = aB(v, ξ)e aD(PNw, ξ) = aD(w, ξ) para todo ξ ∈ SN , em que aB, aD : H1×H1 → R são duas formas bilinearesdefinidas por aB(u, v) := (u, v)+b(ux, vx) e aD(u, v) := (u, v)+d(ux, vx). É fácil ver que para b, d > 0essas duas formas bilineares são coercivas.
A aproximação semi-discreta do problema (1) pelo método espectral de colocação de Fourier, deno-tada por (ηN , uN), é uma aplicação de [0,∞) em SN ×SN tal que, para todo (ϕ, ψ) ∈ SN ×SN vale que
(ηNt , ϕ)(t) + (uNx , ϕ)(t) + ((ηNuN)x, ϕ)(t) + a(uNxxx , ϕ)(t)− b(ηNxxt , ϕ)(t) = 0,(uNt , ψ)(t) + (ηNx , ψ)(t) + (uNuNx , ψ)(t) + c(ηNxxx , ψ)(t)− d(uNxxt , ψ)(t) = 0,
(11)
para t ≥ 0 com condições iniciais ηN(x, 0) = PNη0(x) e uN(x, 0) = PNu0(x).Para o problema de valor inicial formado por (11), vale a seguinte estimativa semi-discreta
max0≤t≤T
(‖η(t)− ηN(t)‖1 + ‖u(t)− uN(t)‖1) ≤ CN1−s. (12)
Sejam f , g : L2 → SN definidas, respectivamente, por aB(f(v), χ) = (v, χ′) e aD(g(w), χ) = (w, χ
′)
para todo χ ∈ SN . Portanto, do sistema (11) obtemos que
ηNt = f(ηN , uN),uNt = g(ηN , uN),
(13)
válida para todo t ∈ [0, T ]. As funcões f : H1 × H2 → SN e g : H2 × H1 → SN são dadas porf(v, w) = f(w) + f(vw) + af(w
′′) e g(v, w) = g(v) + 1
2g(w2) + cg(v
′′), de modo que h′ denota a
derivada de uma função h com respeito a variável espacial.O método de RK de quarta ordem aplicado no sistema de equações diferenciais (11) pode ser descrito
através do seguintes algoritmo:
V Simposio de Metodos Numericos Computacionais
183
1. Defina η0N = PNη0 e u0
N = PNu0
2. Para n = 0, 1, . . . ,M − 1 faça
2.1 ηn,1N = ηnN e un,1N = unN
2.2 Para i = 2, 3, 4 faça
2.2.1 ηn,iN = ηnN + ∆tαif(ηn,i−1N , un,i−1
N ) e un,iN = un + ∆tαig(ηn,i−1N , un,i−1
N )
2.3 ηn+1N = ηnN + ∆t
∑4j=1 βjf(ηn,jN , un,jN ) e un+1
N = unN + ∆t∑4
j=1 βjg(ηn,jN , un,jN )
com α2 = α3 = 12, α4 = 1, β1 = β4 = 1
6e β2 = β3 = 1
3. É importante observar que no passo 2.3 do
algoritmo acima, essa igualdade é na realidade uma aproximação para os valores de ηN(t) e uN(t) notempo t = tn+1, tendo portanto um erro de aproximação associado.
A primeira parte da demonstração consiste em mostrar que esses erros, denominados de erros locaisdo método de RK, definidos por
δn1 := ηn+1N − ηnN −∆t
4∑
j=1
βjf(ηn,jN , un,jN ), δn2 := un+1N − unN −∆t
4∑
j=1
βjg(ηn,jN , un,jN ), (14)
satisfazem max0≤n≤N−1
(‖δn1 ‖1 + ‖δn2 ‖1) ≤ C∆t5.
Esta limitação dos erros locais pode ser obtida a partir do algoritmo descrito acima, através do cál-culo explícito de cada passo intermediário do método de RK, (ηn,jN , un,jN ), juntamente com os valoresde f(ηn,jN , un,jN ) e g(ηn,jN , un,jN ), que podem ser descritos em função das derivadas temporais de ηN e uNavaliadas em t = tn.
Assim, obtemos que
δn1 = ηn+1N −
4∑
j=0
∆tj
j!∂jt ηN + ∆t5Γn1 , δn2 = un+1
N −4∑
j=0
∆tj
j!∂jtuN + ∆t5Γn2 , (15)
com Γn1 = −148
(γn1 + γn3 ) e Γn2 = −148
(12γn2 + γn4
). A primeira parte da prova segue então da limitação por
constantes de ‖Γn1‖ e ‖Γn2‖, que é garantida pelos seguintes lemas que podem ser facilmente verificados.
Lema 3.1. Se s ≥ 3 é tal que (η, u) ∈ C(0, T ;Hs(Ω))2 e (∂tη, ∂tu) ∈ C(0, T ;Hs−1(Ω))2, então
max0≤t≤T
(‖∂jt ηN(t)‖1 + ‖∂jtuN(t)‖1
)≤ Cj, para j = 1, 2, 3, 4. (16)
Lema 3.2. Existe uma constante C independente de N tal que ‖f(v)‖1 ≤ C‖v‖ se v ∈ L2per
e ‖f(v)‖2 ou 3 ≤ C‖v‖1 se v ∈ H1per. As mesmas estimativas valem para g.
Na sequência, apresentamos a parte de estabilidade da prova. Sejam εn,j := ηn,jN − Hn,j een,j := un,jN −Un,j os erros entre a solução do sistema (11) avaliada em t = tn e a aproximação totalmentediscreta (Hn, Un) em SN de η(., tn) de u(., tn), solução no sentido clássico de (1), para 0 ≤ n ≤M − 1e j = 1, 2, 3, 4.
Observe que, para j = 1 temos εn := εn,1 = ηnN −Hn e en := en,1 = unN − Un. Por outro lado, paraj = 2, 3, 4 temos
εn,j = εn + ∆tαi
[f(ηn,j−1
N , en,j−1) + f(εn,j−1un,j−1N ) + f(εn,j−1en,j−1)
],
en,j = en + ∆tαi[g(εn,j−1, en,j−1)− g(en,j−1en,j−1) + g(en,j−1un,j−1
N )].
(17)
Sejam M uma constante suficientemente grande tal que, maxt∈[0,T ] (‖∂itηN(t)‖1 + ‖∂ituN(t)‖1) ≤2M para i = 0, 1, ..., 5, e n∗ < M o maior inteiro tal que ‖Hn‖1 + ‖Un‖1 ≤ 3M quando 0 ≤ n ≤ n∗.
V Simposio de Metodos Numericos Computacionais
184
Assim, para 0 ≤ n ≤ n∗ temos que ‖εn‖1 + ‖en‖1 ≤ 5M e ‖εn,j‖1 + ‖en,j‖1 ≤ (‖εn‖1 + ‖en‖1) +C(M, |a|, |c|)∆t (‖εn,j−1‖1 + ‖en,j−1‖1), para j = 2, 3, 4.
Além disso, usando as definições de ε e e e o algoritmo do método de RK descrito anteriormenre,concluímos que
εn+1 = εn + ∆t∑4
j=1 βj[f(ηn,jN , un,jN )− f(Hn,j, Un,j)
]+ δn1 ,
en+1 = en + ∆t∑4
j=1 βj[g(ηn,jN , un,jN )− g(Hn,j, Un,j)
]+ δn2 .
(18)
Definindo An := ‖εn‖1 + ‖en‖1 e An,j := ‖εn,j‖1 + ‖en,j‖1, de (18) temos que
An+1 ≤ An + ∆t4∑
j=1
An,j + (‖δn1 ‖1 + ‖δn2 ‖1) , (19)
que, em consequência da primeira parte, é equivalente a An+1 ≤ (1 + C∆t)An + C∆t5, com A0 = 0.Observe que, de (19) temos que An+1 ≤ C(n∗)∆t4, sendo ∆t suficientemente pequeno. Finalmente,
concluímos através das definições de ε e e que ‖Hn+1‖1 +‖Un+1‖1 ≤ 2M +An+1 ≤ 3M , independentede n∗, o que contradiz a propriedade maximal de n∗. Portanto, ‖Hn‖1 + ‖Un‖1 ≤ C para todo 0 ≤ n ≤M e portanto max0≤n≤M (‖εn‖1 + ‖en‖1) ≤ C∆t4, que juntamente com (12), conclui a demonstração.
Observação. A prova para as outras regiões de parâmetros da Tabela 1 com ` = 0, 1 segue de maneirabastante similar a demonstração do Teorema 3.1 com algumas pequenas modificações, como nas funçõesf e g, além das normas nos espaços Hs que contém as soluções clássicas dos problemas (ver Bona et al.(2002) para mais detalhes sobre esses espaços).
4 EXPERIMENTOS NUMÉRICOS
Nessa seção, mostramos os resultados de alguns experimentos numéricos que fizemos com o propósitode confirmar a condição de estabilidade do problema linear obtida na seção 2. Nossos experimentos es-tão concentrados nos casos de resolução numérica com menor custo computacional, isto é, aqueles comcondição de estabilidade do tipo ∆t ≤ C e ∆t ≤ CN−1.
Nas tabelas a seguir, mostramos a verificação numérica da condição de estabildiade obtida na seção2, para os casos em que ` = 0 e ` = 1, de acordo com a Tabela 1. Todas as simulações foram executadascom L = 150, T = 70 e o número de elementos da malha espacial, N , múltiplo de 2. Como condiçõesiniciais foram utilizadas duas gaussianas, η0 = e−5x2 e u0 = −e−5x2 em [−L,L].
a, c < 0 b, d > 0 a = b = c = d = 0N ∆t Constante de estabilidade C ∆t Constante de estabilidade C29 0,8060 1,37 0,5313 0,90211 0,2102 1,43 0,1328 0,90213 0,0523 1,42 0,0330 0,90215 0,0130 1,41 0,0082 0,89
Tabela 2: Estabilidade numérica para ` = 1.
Nas Tabelas 2 e 3, as segunda e quarta colunas indicam o último ∆t tal que a solução aproximadagerada foi estável. As terceira e quinta colunas indicam a constante de estabilidade numérica C. Para aTabela 2, essa constante é determinada por C ' ∆t
∆x, com ∆x = 2L/N . Já para a Tabela 3, a constante
de estabilidade C é exatamente o valor de ∆t em cada caso.Podemos observar que para essas duas regiões de parâmetros, que de acordo com a Tabela 1, apre-
sentam condição de estabilidade do tipo ∆t ≤ C e ∆t ≤ CN−1, foram obtidos numericamente o queera esperado após a análise de von Neumann, isto é, para a Tabela 2 a dependência linear entre ∆t e ∆xe para a Tabela 3 a não dependência de ∆t da variação de ∆x.
V Simposio de Metodos Numericos Computacionais
185
a < 0 b > 0 c = 0 d > 0 a = 0 b > 0 c = 0 d = 0N ∆t Constante de estabilidade C ∆t Constante de estabilidade C29 1,8 1,8 1,7 1,7211 1,8 1,8 1,6 1,6213 1,8 1,8 1,6 1,6215 1,8 1,8 1,6 1,6
Tabela 3: Estabilidade numérica para ` = 0.
O critério utilizado para determinar a estabilidade da solução aproximada, de η por exemplo, é aseguinte: calculamos a norma L2(−L,L) do dado inicial, ‖η0‖L2 , e comparamos com a mesma normada última aproximação obtida pelo método numérico, ‖η‖L2 . Se p =
‖η‖L2
‖η0‖L2< C1, em que C1 é uma
constante maior que um mas não grande, consideramos a solução numérica obtida estável. O mesmocritério pode ser utilizado para verificar a estabilidade da função u.
Observação. Com o objetivo de validar nosso código, simulamos soluções de onda “cnoidal” parasistemas de Bona-Smith, que são obtidos a partir de (1), com a = 0, c = (2−3θ2)/3, b = d = (3θ2−1)/6,para 2/3 ≤ θ2 ≤ 1. Um teste similar foi feito em Antonopoulos et al. (2010) com o objetivo detestar a precisão do método de Galerkin que foi utilizado. Nosso código implementado em MATLAB,utilizando a rotina FFT (Fast Fourier Transform), gerou resultado semelhante ao encontrado na Figura 2de Antonopoulos et al. (2010).
5 CONCLUSÕES E TRABALHOS FUTUROS
Neste trabalho, através da análise de estabilidade do problema linear, identificamos as regiões deparâmetros (a, b, c, d) da família de sistemas de Boussinesq (1), capazes de gerar soluções numéricasestáveis de maneira eficiente. Eficientes no sentido de que podemos escolher um tamanho de passomaior na discretização temporal, sem perder a estabilidade da solução aproximada obtida.
Também foi mostrado o estudo de convergência do problema não linear totalmente discretizado pelosmétodos de colocação de Fourier e método de RK de quarta ordem, nas variáveis espacial e temporal,respectivamente. Essa análise foi feita para regiões específicas de parâmetros, que apresentam resoluçãonumérica com baixo custo computacional. Essa segunda parte nos permite relacionar a precisão e efi-ciência dos métodos numéricos utilizados.
Embora os resultados desse artigo já estejam finalizados, este trabalho ainda está em andamento, e ospróximos passos estarão concentrados nas simulações numéricas do problema não linear, com o objetivode comprovar as estimativas de precisão obtidas durante a análise de convergência, mostrada na seção 3.
REFERÊNCIAS
Antonopoulos D., Dougalis V., and Mitsotakis D. Galerkin approximations of periodic solutions ofBoussinesq systems. Bulletin of the Greek Mathematical Society, 57:13–30, 2010.
Bona J., Chen M., and Saut J.C. Boussinesq equations abd other systems for smalle-amplitude longwaves in nonlinear dispersive media: I. Derivation and linear theory. J. Nonlinear Sci., 12:283–318,2002.
Boussinesq J. Théorie des ondes et des remous qui se propagent le long d’un canal rectangularie hor-izontal, en communiquant au liquide contenu dans ce canal des vitesses sensiblement parailles de lasurface au found. Journal de Mathématiques Pures et Appliquées, 17:55–108, 1872.
Dougalis V., Mitsotakis D., and Saut J.C. Boussinesq Systems of Bona-Smith Type on Plane Domains:Theory and Numerical Analysis. Journal of Scientific Computing, 44:109–135, 2010.
Korteweg D. and Vries G. On the change of form of long waves advanc- ing in a rectangular canal, andoon a new type of long stationary wavestile. Philosophical Magazine, 39:1443–1461, 1895.
V Simposio de Metodos Numericos Computacionais
186
V Simposio de Metodos Numericos Computacionais
PREVISÃO DE RADIAÇÃO SOLAR DE CURTO PRAZO USANDO COMBINAÇÃO WAVELET-REDES NEURAIS
Resumo: Previsões acuradas de séries temporais de radiação solar são essenciais para um gerenciamento adequado da produção de energia elétrica realizada por usinas fotovoltaicas. Entretanto, por se tratar de dados altamente não estacionários, é difícil se produzir previsões acuradas. Este artigo propõe um método preditivo automático que combina decomposição wavelet e Redes Neurais Artificiais (RNAs) para a previsão de curto prazo de radiação solar. Basicamente, o método proposto pode ser executado em quatro passos: no passo 1, é realizada uma decomposição de nível r, usando uma base wavelet, de uma dada série temporal de radiação solar, gerando r+1 Componentes Wavelet (CWs); no passo 2, as r+1 CWs são modeladas por k diferentes RNAs, em que k > 5, e as 5 melhores previsões são combinadas por outras RNAs, produzindo predições para cada CW, das quais a melhor é selecionada; no passo 3, as previsões de todas as CWs são simplesmente somadas de forma a gerar a previsão da série temporal de radiação solar. Os passos 1, 2 e 3 são repetidos em um processo interativo de ajuste detalhado na Seção 3. Para a sua avaliação, foram modeladas 10 séries temporais de radiação solar brasileiras e os resultados alcançados são notavelmente superiores aos de uma RNA convencional e uma RNA wavelet proposta em Teixeira Jr et al (2015). Palavras-Chave: séries temporais de radiação solar, decomposição wavelet, redes neurais artificiais, previsões.
1. INTRODUÇÃO
Uma das fontes de energia limpa e renovável mais promissora atualmente é a energia solar, convertida em energia elétrica a partir de placas fotovoltaicas, desde instalações domésticas até grandes usinas. Um problema com a energia solar é sua descontinuidade durante a noite e sua variação em função das condições climáticas, sendo a geração de eletricidade afetada pela passagem de nuvens ou períodos de chuva. Essas descontinuidades e variações precisam ser compensadas pelas outras fontes de geração de energia acopladas ao sistema elétrico. Assim, a integração econômica segura dessa fonte de energia na operação do sistema elétrico depende de previsões acuradas da geração de energia de modo que os operadores possam tomar decisões sobre o uso de outras unidades para abastecer o sistema como um todo. Este artigo apresenta uma Combinação Wavelet Redes Neurais Artificiais (CWRNA) iterativa para produzir previsões de curto prazo para radiação solar. O método CWRNA pode
Julio Cesar Royer, Volmir Eugenio Wilhelm, LuizAlbino Teixeira Junior, Edgar Manuel Carreno Franco
187
ser descrito em quatro passos gerais: 1) é realizada uma decomposição de nível , usando uma determinada base wavelet , de uma série temporal de radiação solar, gerando 1Componentes Wavelet (CW); 2) essas 1 CWs são modeladas individualmente por diferentes RNAs, onde 5, e os 5 melhores modelos são combinados por outras RNAs, e o melhor resultado é selecionado como previsão da CW; 3) as previsões das 1CWs são somadas compondo uma previsão de radiação solar para a base wavelet e o nível de decomposição ; e 4) os passos 1, 2 e 3 são repetidos para todas as combinações de bases wavelet aplicáveis e níveis de decomposição de 1 a 3 e a melhor previsão de radiação solar é selecionada. Nos experimentos computacionais foram usadas séries temporais da média horária da radiação solar global horizontal (W/m2) obtidas das estações Solarimétricas do Projeto Sonda INPE/CPTEC1 (Pereira et al., 2006), para 10 localidades diferentes: Brasília, Caicó, Campo Grande, Cuiabá, Florianópolis, Joinville, Natal, Palmas, Petrolina e São Martinho. Somente para Cuiabá o relatório é apresentado com detalhamento maior. Todas as séries temporais cobrem exatamente o período de um ano, mas um ano diferente para cada localidade. O restante deste artigo está assim organizado: na sessão 2 são introduzidos aspectos teóricos da Teoria Wavelet e das Redes Neurais Artificiais; O método CWRNA é detalhado na sessão 3; os experimentos computacionais e seus resultados são apresentados na sessão 4, seguida das conclusões na sessão 5.
2. REVISÃO DA LITERATURA
2.1 Decomposição Wavelet De acordo com Teixeira Jr et al. (2015), um estado de uma série temporal 1, … , pode ser ortogonalmente expandido como em (1).
, ,′
(1)
Onde: , ∑ ⟨ , , ⟩ ,∈ é uma CW de aproximação de nível ′ do estado , sendo , um valor de imagem em t de uma função wavelet escala , . e ⟨ , , ⟩:=∑ , ; e , é uma CW de aproximação de nível do estado
, sendo , um valor de imagem em t de uma função wavelet escala , . e ⟨ , , ⟩ ≔ ∑ , .
A expansão em (1) é usualmente chamada de “decomposição wavelet” de . De acordo com Teixeira Jr et al. (2015), qualquer série temporal infinita, denotada por 1,… , , pode ser decomposta como em (2).
, ,
′
′ (2)
A expansão em (2) é usualmente chamada de decomposição wavelet de nível de .
2.2 Redes Neurais Artificiais De acordo com Haykin (2001), uma Rede Neural Artificial (RNA) feedforward com uma, e somente uma, camada escondida se caracteriza por ter três camadas (a saber, uma de entrada, escondida e de saída), como na Figura 1 - as quais são constituídas de unidades de processamento simples numericamente interconectadas por ligações acíclicas. A relação entre a saída no instante t, denotada por , e as entradas defasadas em p instantes, 1Essas séries temporais podem ser encontradas em <http://sonda.ccst.inpe.br/infos/index.html>
V Simposio de Metodos Numericos Computacionais
188
1,… , é mostrada em (3).
∑ ∑ (3)
Onde 0, 1, … , e 0,1, , … , ; 0, 1, … , são os parâmetros de RNA, os quais são muitas vezes chamados os pesos sinápticos; é o número de nós de entrada; é o número de nós escondidos; é o erro de aproximação no tempo t; e . é aqui chamado de função logística, apesar de ser possível adoptar uma outra função de transferência (Haykin, 2001).
Figura 1: Rede Neural Artifical Multilayer Perceptron.
A previsão de séries temporais usando RNAs inicia com a composição dos padrões de
treinamento (pares de entrada e saída) que dependem da escolha da janela de tempo de tamanho L (para os valores passados da série e para as variáveis explicativas) e do horizonte de previsão h. Em um processo autorregressivo (linear ou não linear), por exemplo, o padrão de entrada é formado somente pelos valores passados da própria série, ao passo que o padrão de saída desejável é o valor observado da série temporal no horizonte de previsão. Na figura 2 é ilustrado como é geralmente construído o padrão de treinamento baseado nos 4 valores anteriores informados. Observe que a construção dos padrões de treinamento da rede consiste em mover janelas de entrada e saída ao longo de toda a série. Assim, cada par de janelas (entrada / saída) serve como um padrão de treinamento e deve ser apresentado repetidamente até o algoritmo de aprendizagem convergir.
Figura 2: Composição dos conjuntos de treinamento.
3. METODOLOGIA PROPOSTA
A metodologia proposta combina a decomposição wavelet com redes neurais artificiais (RNAs) do tipo multilayer perceptron seguindo um algoritmo iterativo que busca identificar os melhores parâmetros (base ortonormal e nível de decomposição) para a decomposição wavelet e a melhor estrutura (tamanho da janela, número de neurônios na camada escondida e número de iterações de treinamento) das RNAs. O algoritmo pode ser descrito de modo sucinto em 4 passos:
V Simposio de Metodos Numericos Computacionais
189
Passo 1: Realizar k decomposições wavelet de nível , definidas em termos de uma base ortogonal (das famílias Haar, Daubechies, Symlet ou Battle-Lemarie (Daubechies, 1992), Fejer-Korovkin (Olhede & Walden, 2004) ou Minimum Bandwidth (Morris & Peravali, 1999)) de uma série temporal de radiação solar, denotada por 1, … , , resultando em 1 CW de aproximação de nível ′, denotada por 1,… , , onde ′ ∈ e CW de detalhe de níveis ′, 1, …, 1 , representadas por 1,… , , onde ∈ ;
Passo 2: as CWs do passo 1 são individualmente modelados por n RNAs com diferentes configurações, onde 5. Desta forma, cada RNA captura informações distintas presentes em cada CW da série temporal de radiação solar;
Passo 3: as 5 melhores previsões da CW são combinadas por outras p RNAs, com diferentes configurações, produzindo previsões combinadas. A melhor delas é selecionada como a previsão da CW; e
Passo 4: as previsões de todas as CWs são somadas para formar a k-ésima e rk-ésima previsão de radiação solar. A melhor entre todas as k e rkprevisões é selecionada. A figura 3(a) apresenta o fluxograma da decomposição wavelet, incluindo os laços para a
busca dos melhores parâmetros de decomposição (filtro e nível de decomposição) e a chamada à rotina que faz a previsão das CWs através de RNAs. As variáveis usadas são RS (série temporal de Radiação Solar), ji e jf (janela inicial e janela final, limites da faixa de tamanho de janela), ni e nf (número inicial e final de neurônios na camada escondida), ii e if (número máximo de iterações inicial e final), numFiltros é o número total de filtros (bases ortogonais wavelet) testados, previsãoRS[f,r] é uma matriz com todas as previsões testadas, para escolher a melhor previsão, f e r são índices para indicar o filtro e o nível da decomposição. Apr é uma CW de aproximação e Det é uma CW de detalhe, e RNA é a chamada ao procedimento de previsão por RNA, descrito na figura 3(b). Para essa figura, ainda são usadas as variáveis j, n e i, como índices das faixas de janelas, neurônios e iterações, série, com a CW a ser modelada, prTr, prVal e prTst, com as previsões de Treinamento, Validação e Teste, cbTr, cbVal, cbTst, para as previsões combinadas de Treino, Validação e Teste, mlp é a chamada a uma rede neural MultilayerPerceptron, rmse é a rotina que calcula a Raiz do Erro Quadrático Médio, usado como parâmetro de avaliação da acurácia da previsão.
4. EXPERIMENTO COMPUTACIONAL
Para o experimento computacional foram consideradas as mesmas séries de Teixeira Júnior et al. (2015), com dez séries temporais de radiação solar de localidades diferentes, todas com intervalo de uma hora e período de um ano (8760 observações), embora de anos diferentes. A modelagem das séries também seguiu o mesmo padrão para permitir a comparação de resultados, sendo a amostra de treinamento com 7008 observações, as próximas 876 observações compõe a validação e as últimas 876 servem de amostra de teste. O algoritmo proposto foi implementado em R (R Core Team, 2015), usando os pacotes Waveslim (Whitcher, 2015) para decomposição wavelet e RSNNS (Bergmeir&Benitez, 2012) para a rede neural. Na decomposição wavelet foram testados os filtros wavelet disponíveis no pacote Waveslim (Haar, Daubechies (db2, db4 e db8), Minimum Bandwidth (mb4, mb8, mb16 e mb24), Fejér-Korovkin (fk4, fk6, fk8, fk14 e fk22), LeastAssymetric (=Symlet) (la8, la16 e la20) e Battle-Lemarie (bl14 e bl20)). Também foram testados os níveis de decomposição de 1 a 3. Nas redes neurais, foi escolhido o modelo feedforward Multilayer Perceptron, com uma camada escondida, função de ativação tangente hiperbólica na camada escondida e linear na camada
V Simposio de Metodos Numericos Computacionais
190
de saída, com algoritmo de aprendizado gradiente conjugado escalonado (SCG), que simula o algoritmo Levenberg-Marquardt, atualização de parâmetros em ordem topológica, deixando os demais parâmetros padrões do pacote. Em todas as simulações os padrões de entrada foram linearmente transformados para ficarem na faixa [-1,1].
Figura 3: Fluxograma da Decomposição Wavelet (a) e da Rede Neural Artificial (b).
V Simposio de Metodos Numericos Computacionais
191
Para a série de Cuiabá foi testada uma faixa de variação do tamanho das janelas de 10 a 25, de 15 a 25 neurônios na camada escondida, número máximo de iterações de 25 a 30. Com o objetivo de diminuir o tempo de processamento, para as demais localidades, as faixas foram reduzidas para 10 a 16, 18 a 25 e 27 a 30, respectivamente. O algoritmo implementado seleciona a melhor configuração de filtro wavelet, nível de decomposição, tamanho da janela RNA, número de neurônios na camada escondida e número máximo de iterações para cada CW, e para a previsão combinada. 4.1 Resultados obtidos A tabela 1 apresenta os resultados obtidos na amostra de teste, comparado aos resultados obtidos por Teixeira Júnior et al. (2015). Observe que os resultados obtidos pelo método proposto são significativamente melhores.
Tabela 1: Resultados na amostra de teste por Teixeira Júnior et al. (2015) (*) e pelo método proposto (**).
Local Resultado Filtro
Wavelet Tamanho da
janela
Neurônios na camada
escondida
Número máximo de iterações
RMSE Wm-2
R2
Brasília * db32 15 8 91.29 0.9074
** db8 10 to 15 18 to 25 27 a 30 17.05 0.9968
Caicó * db20 15 8 37.61 0.9888
** db8 10 to 15 18 to 25 27 a 30 11.79 0.9989
Campo Grande * db20 12 8 76.06 0.9458
** fk8 10 to 16 18 to 25 27 a 30 19.89 0.9964
Cuiabá * db38 10 12 26.1382 0.9934
** la20 10 to 25 15 to 25 25 a 30 16.49 0.9974
Florianópolis * db40 8 15 50.12 0.9783
** la16 10 to 15 18 to 25 27 a 30 19.22 0.9969
Joinville * db32 12 10 84.3426 0.885
** la16 10 to 16 18 to 25 27 a 30 15.44 0.9963
Natal * db20 15 13 75.9577 0.9577
** bl20 10 to 16 18 to 25 27 a 30 8,68 0.9995
Palmas * db40 10 13 60.3 0.9553
** db8 10 to 15 18 to 25 27 a 30 16.72 0.9966
Petrolina * db15 9 20 82.5086 0.9303
** bl14 10 to 16 18 to 25 27 a 30 11.87 0.9986
São Martinho * db13 20 14 19.6784 0.9973
** la20 10 to 15 18 to 25 27 a 30 17.11 0.9982
CONCLUSÕES
Neste artigo é proposto um método (denotado por CW-RNA) que propõe uma abordagem iterativa para encontrar os melhores parâmetros estruturais de combinação entre decomposição wavelet e redes neurais, acrescentando ainda uma combinação das melhores previsões por outra rede neural, obtendo uma previsão ainda mais aproximada. O método proposto foi comparado com o método WD-ANN proposto por Teixeira Júnior et al. (2015), aplicado ao mesmo conjunto de séries temporais de radiação solar. Pode-se observar que as previsões pelo método CW-RNA proposto apresentaram um ganho preditivo significativo em relação ao WD-ANN, na amostra de testes, apresentando valores menores para o RMSE, e valores mais altos de R2, indicando maior correlação entre as previsões e as observações em todas as séries analisadas.
V Simposio de Metodos Numericos Computacionais
192
REFERÊNCIAS
BERGMEIR, C., BENITEZ, J.M., Neural Networks in R Using the Stuttgart Neural Network Simulator: RSNNS. Journal of Statistical Software, 46(7): 1-26, 2012.
DAUBECHIES, I., Ten Lectures on Wavelets. CBMS-NSF Regional Conference Series In Applied Mathematics (SIAM), 1992.
HAYKIN, S.S., Redes Neurais: Princípios e Aplicações. 2ª edição, Pearson, Porto Alegre, 2001.
MORRIS, J.M., PERAVALI, R. Minimum-bandwidth discrete-time wavelets. Signal Processing. 76(2): 181-193, 1999.
OLHEDE, S., WALDEN, A.T. The Hilbert spectrum via wavelet projections. Proceedings of The Royal Society A, 460(2044), 2004.
PEREIRA, E.B., MARTINS F.R., ABREU, S.L., RUTHER, R. Atlas Brasileiro de Energia Solar. São José dos Campos: INPE, 2006.
R CORE TEAM, R: A language and environment for statistical computing. R Foundation for Statistical Computing, Vienna, Austria. URL <http://www.R-project.org/>, 2015.
TEIXEIRA JUNIOR, L.A., SOUZA, R.M., MENEZES, M.L., CASSIANO, K.M., PESSANHA, J.F.M., SOUZA, R.C., Artificial Neural Network and Wavelet Decomposition in the Forecast of Global Horizontal Dolar Radiation. Pesquisa Operacional, Rio de Janeiro, 35(1), p. 73-90, Apr. 2015.
WITCHER, B. waveslim: Basic wavelet routines for one-, two- and three-dimentional signal processing. R package version 1.7.5. <http://CRAN.R-project.org/package=waveslim>, 2015.
V Simposio de Metodos Numericos Computacionais
193
V Simposio de Metodos Numericos Computacionais
ANALYSIS OF A FUZZY CONTROLLER OF A MANIPULATORWITH FLEXIBLE JOINTS
Resumo: This paper aims at analyzing a regulation control of a two-link planar manipulator with flexible joints.The regulation control is applied to attenuate the vibration on the joints for a desired closed-loop balance at a spe-cific configuration. The dynamic model of the flexible manipulator with rigid links and flexible joints is derivedusing the Lagrange-Euler principle. The control strategy is based on the Fuzzy Takagi-Sugeno model as well asthe Parallel Distributed Compensation. Simulation results show that the proposed control strategy regulates theposition of the robot over a desired position within the workspace.
Palavras-Chave: Flexible Manipulator, Takagi-Sugeno Fuzzy Model, Robot Control.
1 INTRODUCTION
The robot manipulators traditionally used in industry uses stiff joints, heavy and rigid structures,powerful actuators and works, generally in slow speed with high torques. With the development of robotmanipulators made with light structures, that work in higher speed than the ones mentioned before, andthe use of reductions or transmissions with flexible elements provide flexibility to these systems and cannot be neglected in their study.
The flexible joints provide compliance between the robotic manipulator and objects of the environ-ment, thus enhancing the performance in eventual collisions (Ramirez et al., 2009). The main sources offlexible joints are compliant transmission elements (harmonic drives, shaft windup, bearing deformation,and compressibility of the hydraulic fluid in hydraulic robots and so on) (Chang and Yen, 2011).
The reasons why considering the flexibility of the manipulators in the control projects is importantare: the dynamics of these robots produce low frequency oscillations when increasing the speed ofoperation and undesirable oscillations during the robot motion. These conditions can also harm thedynamic response and accuracy (Karkoub and Tamma, 2011; Readman, 1994).
According to Lara-Molina et al.(2014) , some works has developed control algorithms for flexiblerobots as if they were rigid. This assumption became valid just for cases of slow motion and smallinteracting forces. Considering that the kinematics, dynamics, and control design of robotic manipulatorwith rigid elements are well defined is highlited the importance of develop specific control algorithms inorder to improve the dynamic performance of flexible robots.
Benosman and Vey (2014) present four main aspects related with the control of a flexible roboticmanipulator: i) end-effector position regulation, ii) rest to rest end-effector motion in fixed time, iii)trajectory tracking in the joint space (tracking of a desired angular trajectory) and iv) trajectory trackingin the operational space (tracking of a desired end-effector trajectory). A number of control techniques
Karina Assolari Takano, Fabian AndresLara-Molina, Edson Hideki Koroishi
194
have been used in robotic manipulators with flexible joints in order to achieve these objectives. Never-theless input/output linearization approach, based on computed torques methods, has been widely usedin the literature to control robotic manipulators with flexible joints Benosman and Vey (2004). In this pa-per a alternative fuzzy controller to the computed torque methods is tested. This control strategy allowsworking properly in a system with reduced set of state feedback, which involve the most of the caseswith flexible manipulators. It occurs due to the physical difficulty of installing the necessary amount ofsensors Chen (2006).
This papers aims at designing a set-point regulation control of a two-link planar manipulator withflexible joints considering the joint variables control of the motors based on. The nonlinear dynamics ofthe robotic flexible manipulator is approximated with a Takagi-Sugeno fuzzy model. The control strategyis based on the Fuzzy Takagi-Sugeno model as well as the Parallel Distributed Compensation. Section2 presents the complete and simplified dynamic model of the two-link planar manipulator with flexiblejoints. Section 3 introduces the control strategy which is based on parallel distribution compensation andTakagi-Sugeno fuzzy model. In section 4 are presented the results of numerical simulations. Finally,some conclusions are remarked in section 5.
2 MODELING OF THE ROBOT MANIPULATOR WITH FLEXIBLE JOINTS
This section describes the dynamic model of a two-link robotic manipulator with flexible joints.The flexible transmission of the motor to the joint is modeled by a torsional spring stiffness ki. Fig-
ure 1(a) shows the model of a flexible joint. With τ =τ1 . . . τn
T ∈ Rn×1 the torque applied bythe motor after the reduction, θ =
θ1 . . . θn
T ∈ Rn×1 the angular position of the motor after thereduction and q =
q1 . . . qn
T ∈ Rn×1 the angular position of the link.
(a) Flexible joint. (b) Planar robot with flexible joints
Figura 1: Two-link robot with flexible joints.
Considering that the angular velocity of the motor’s rotors is produced only by their own spinning DeLuca and Book (2008), the reduced dynamic model of a n-link robot manipulator with flexible joint iswritten as follows:
ML(q)q+VL(q, q) +K(q− θ) + τ fq = 0 (1)
Bθ +K(θ − q) + τ θ = τ (2)
where the vectors q =q1 . . . qn
T ∈ Rn×1 and q =q1 . . . qn
T ∈ Rn×1 are the angular veloc-ity and acceleration of the links; ML(q) ∈ Rn×n is the inertia matrix of the rigid links; VL(q, q) ∈ Rn×1
is the vector that contains the Coriolis and centrifugal torques; B ∈ Rn×n is the matrix of inertia of themotor’s rotors; θ =
θ1 . . . θn
T ∈ Rn×1 is the angular acceleration of the motor after the reduction;K = diag(k1, . . . , kn) is the diagonal matrix of the joint stiffness. The link and motor equations (eqs. (1)and (2)) are dynamically coupled by the elastic torque K(θ − q). The direction of the acceleration of
V Simposio de Metodos Numericos Computacionais
195
gravity is assumed to be oriented along the −z axis, therefore its effects are ignored in the dynamicmodel of eq (3). Fig.. 1(b) shows specifically a two-link robot with flexible joints where n=2.
The rigid model of the manipulator considers an infinite stiffness (K → ∞), thus θ → q, for thiscase the model can be stated as follows:
ML(q) +VL(q, q) +GL(q) + τ fq = τ (3)
2.1 Simplified modelThe dynamic model of eqs. (1) and (2) is simplified in order to obtain a model to design the controller.
Two assumption are considered: the manipulator is considered at a constant configuration, thereforeVL(q, q) = 0; and additionally, the worst case in which the manipulator is not damped is considered,thus τ θ = τ fq = 0. The total dynamic equation can be express by using the matricial notation:
MT (q)z+KTz = τ (4)
where, z =q θ
T , MT (q) =
[ML(q) 02,202,2 B
]and KT =
k1 0 −k1 00 k2 0 −k2−k1 0 k1 00 −k2 0 k2
. The state-space
representation of the system considering the states x1 = z and x2 = x1 is state as follows:x1
x2
=
[04,4 I4,4
−MT (q)−1K 04,4
]x1
x2
+
[04,4
MT (q)−1
]01,2τ
y1y2
=
[0 0 1 0 0 0 0 00 0 0 1 0 0 0 0
]x1
x2
(5)It is wort to mention that the total inertia matrix of MT (q) depends on the position of the rigid link q2,thus the expression of eq. (5) is equivalent to the state-space-representation:
x = A(q2)x+B(q2)u y = Cx+Du (6)
where u =01,2 τ
T . The transfer matrix G can be obtained for specific values of q2. Considering thetorque of the actuators τ as the input and the position of the motor θ as the output, the matrix functionis obtained based on the state-space representation of eq. (5), thus:
θ1(s)θ2(s)
=[G(q)
]τ1(s)τ2(s)
(7)
Where, [G(q)] =
[G11(s) G12(s)G21(s) G22(s)
]and s is the variable of Laplace. The first pair of imaginary zeros
of G11(s) and G11(s) transfer functions occurs at the so-called locked frequency defined as ω1 and ω2
for each joint respectively. The locked frequency is used to tune the controller of motion.
3 CONTROL STRATEGY
This section presents the strategy to regulate the position of robot in a constant configuration basedon on the Takagi-Sugeno fuzzy model together with Parallel Distributed Compensation.3.1 Regulation Control
The main objective is controlling the motion of the manipulator with joint elasticity in a constantconfiguration based on De Luca and Book (2008). This controll strategy should provide asymptoticstabilization of a desired closed-loop steady state. The control law is based on the motor variablesposition and velocity feedback, thus a constant reference θd (with θd ≡ 0) should be defined.
τ = KP (θd − θ)−KDθd (8)
Where KP = diag(kp1 , . . . , kpn) and KD = diag(kd1 , . . . , kdn) are positive-definite and diagonal pro-portional and derivative n-by-n gain matrices, respectively.
V Simposio de Metodos Numericos Computacionais
196
In order to obtain sufficient damping in the closed-loop system, the PD gains are select to limit thebandwidth to one third of the locked frequency of each joint.
Considering the simplified dynamic model of the robot (eq. (5)) in order to access the gains of the PDcontroller of eq. (8), the state-space-representation of control system is presented in eq. (9).
x = [A(q)−BF]x+BFu y = Cx (9)
Nevertheless, it is observed that the dynamic matrix A(q) depends on the configuration of the ma-nipulator defined by joint position of the links q, specifically q2, therefore the locked frequencies of thejoints are dependent of the configuration of the robot. This nonlinearity is considered by the controlsystem by using Takagi-Sugeno fuzzy model together with Parallel Distributed Compensation.3.2 Parallel Distributed Compensation
In this paper, the so-colled Takagi-Sugeno fuzzy model is used to approximate a nonlinear systemmodel (Takagi and Sugeno, 1985). This fuzzy model is described by fuzzy IF-THEN rules which repre-sent local models of the system, thus the fuzzy model is represented as follows:
Rule i : IF x1(t) is M1i . . . and xn is Mni
THEN x = Aix+Biu (10)
where i = 1, 2, . . . , r; r is the number of IF-THEN rules; x is the state vector; x is the output from thei-th IF-THEN rule; u is the input control vector; For a given pair [x,u] the resulting output fuzzy systemis inferred as follows:
x =
r∑i=1
wi(Aix+Biu)
r∑i=1
wi
(11)
Each Aix is denominated a local subsystem. Additionally, wi is the activation level from application iand is given by:
wi =n∏
j=1
Mij(xj) (12)
with Mij(xj) is the grade of membership of the state xj in Mij; and Mijthe j-th fuzzy set of the i-th rule.As an example, the membership functions M1 and M2 for the them correspondent rules are shown inFig. 2.
Figura 2: Membership functions of the fuzzy system Mij
The parallel distributed compensation (CPD) is used to design fuzzy controllers to control fuzzysystems. A controller for each fuzzy system is designed, hence the fuzzy controller shares the samefuzzy set with the fuzzy system. For each rule, a linear control design technique is used, thus:
Rule i : IF x1 is M1i . . . and xn is Mni
THEN u = −Fix (13)
V Simposio de Metodos Numericos Computacionais
197
where i = 1, 2, . . . , r and r is the number of IF-THEN rules. Considering the regulation control ofeq. (8), the fuzzy and nonlinear controller is:
u =
−r∑i=1
wiFix
r∑i=1
wi
(14)
4 SIMULATION RESULTS
The parameters of the planar manipulator with flexible joints of figure 1(b) are presented in Table 1.
Tabela 1: Parameters of Flexible Manipulator.
Parameter of motor/link Symbol ValueMass of the link m2,m1 (Kg) 0.5
Elasticity of the joint K2, k1 (N/m) 10×103
Length of the link l2, l1 (m) 0.25Mass of the motor mr2,mr1(kg) 0.5
Reduction ratio n2, n1 100Rotor Inertia of the motor Ir2zz , Ir1zz (kg m2) 14×10−6
According to Lara-Molina et al. (2015) the specific configuration of the manipulator introduces anon-linearity in the simplified model of the flexible robot with flexible joints. Therefore, the variation ofthe locked frequencies should be taken into account in the design of the control system.4.1 Application of PDC
In order to apply the PDC technique, a fuzzy model that represents the dynamics of the nonlinearsystem should be defined. The nonlinear system of eq. (6) is approximated by a Takagi-Sugeno fuzzymodel. Few rules are used to minimize the complexity of the model, the system model is approximatedby the 2-rule fuzzy model of eqs. (15) and (16):
Rule 1 : IF q2 is about 0o
THEN x = A(0)x+B(0)u (15)Rule 2 : IF q2 is about ± 180o
THEN x = A(180o)x+B(180o)u (16)
The fuzzy rules are illustrated in fig. 3
Figura 3: Membership functions of the robot fuzzy model of the robot.
The regulation controller of eq. (9) was tuned, considering the correspondent locked frequencies, foreach local model of the fuzzy model of the robot in eqs. (15) and (16), thus the local and linear controllerswith gain matrices F1 and F2 were obtained. The gains of these linear controllers are: kp11 = 3500,kp21 = 3500, kd11 = 60, kd21 = 42; and kp12 = 4000, kp22 = 4000, kd12 = 50, kd22 = 35, respectively.These local controllers are used in the nonlinear fuzzy controller of eq. (14).
V Simposio de Metodos Numericos Computacionais
198
The poles of the uncontrolled and controlled robot are shown in Figs. 4(a) and 4(b). It is observedthat the the poles of the uncontrolled system, presented in Fig. 4(a), have been pushed to the left (seeFig. 4(b)). Therefore the PDC controller damps the robot over all the range of the considered values ofq2.
Pole−Zero Map
Real Axis
Ima
gin
ary
Axis
−200 −150 −100 −50 0 50−1500
−1000
−500
0
500
1000
1500
Controlled
Uncontrolled
(a) q2=0o
Pole−Zero Map
Real Axis
Ima
gin
ary
Axis
−140 −120 −100 −80 −60 −40 −20 0 20−800
−600
−400
−200
0
200
400
600
800
Controlled
Uncontrolled
(b) q2=180o.
Figura 4: Pole and zero map of the control and uncontrolled robot.
The step position response of the controlled system is evaluated considering a step input of amplitude5.7×10−2 o at first and second joint. The closed-loop step position response of the joints θ1 and θ2 (inFig. 5(a) and 5(b)) is evaluated for: q2 = 0o and q2 = 180. The results show that the step responseovershoot is less than 10% and the settling time is 0.08s. Hence, the controller damps and stabilizes thesystem response adequately.
0 0.02 0.04 0.06 0.08 0.10
0.5
1
1.5x 10
−3
θ 1[rad]
Time [sec]
θ1Set-point
0 0.02 0.04 0.06 0.08 0.10
0.5
1
1.5x 10
−3
θ 2[rad]
Time [sec]
θ2Set-point
(a) q2=0o.
0 0.02 0.04 0.06 0.08 0.10
0.5
1
1.5x 10
−3
θ 1[rad]
Time [sec]
θ1Set-point
0 0.02 0.04 0.06 0.08 0.10
0.5
1
1.5x 10
−3
θ 2[rad]
Time [sec]
θ2Set-point
(b) q2=180o.
Figura 5: System output with a step input.
Finally, the torque applied to the motors τ =[τ1 τ2
]T is also evaluated for same values of q2 = 0o
and q2 = 180o that were evaluated in the previous cases. As seen in Figs. 6(a) and 6(b). The maximumtorque applied to the motor is 4Nm, according as the system reach the steady state the torque goes tozero.
5 CONCLUSIONS
This paper presented the analysis of a regulation control of a two-planar robot with flexible joints ina constant configuration. The nonlinear model of the robot is approximated with a Takagi-Sugeno fuzzy
V Simposio de Metodos Numericos Computacionais
199
0 0.02 0.04 0.06 0.08 0.1−1.5
−1
−0.5
0
0.5
1
1.5
2
2.5
3
3.5τ c[N
]
Time [sec]
τ1τ2
(a) q2=0o.
0 0.02 0.04 0.06 0.08 0.1−2
−1
0
1
2
3
4
τ c[N
]
Time [sec]
τ1τ2
(b) q2=180o.
Figura 6: Control: torque of the motors.
model which combines the linear local models. The control strategy is based on the Takagi-Sugeno fuzzymodel together with Parallel Distributed Compensation, the resulting controller is a fuzzy combinationof the linear PD controllers designed for each local linear model of the robots.
The time domain and the frequency response function were used to access the dynamic performanceof the robot controlled with the proposed fuzzy controller. The dynamic response of the robot exhibits anadequate behavior in terms of the motion performance. Therefore, the proposed fuzzy controller showsits effectiveness to regulate the position of the robot over a desired position.
REFERENCES
Benosman M. and Vey G.L. Control of flexible manipulators: A survey. Robotica, 22:533–545, 2004.Chang Y.C. and Yen H.M. Design of a robust position feedback tracking controller for flexible-joint
robots. Control Theory and Applications, 5:351–363, 2011.Chen C.W. Stability conditions of fuzzy systems and its application to structural and mechanical systems.
Advances in Engineering Software, 37(9):624–629, 2006.De Luca A. and Book W. Robots with Flexible Elements. Springer Handbook of Robotics, Heidelberg,
2008.Karkoub M. and Tamma K.K. Modeling and µ-synthesis control of flexible manipulators. Computers
and Structures, 79:543–551, 2011.Lara-Molina F.A., Koroishi E.H., and Steffen V. Uncertainty analysis of a two-link robot manipulator
under fuzzy parameters. In Robotics: SBR-LARS Robotics Symposium and Robocontrol (SBR LARSRobocontrol), 2014 Joint Conference on. 2014a.
Lara-Molina F.A., Rosario J.M., Dumur D., and Wenger P. Robust generalized predictive control of theorthoglide robot. Industrial Robot: An International Journal, 41(3):275–285, 2014b.
Lara-Molina F.A., Takano K.A., and Koroishi E.H. Set-point regulation of a robot manipulator withflexible joints using fuzzy control. In 12th Latin American Robotics Symposium and 2015 ThirdBrazilian Symposium on Robotics (LARS-SBR 2015). 2015.
Melhem K. and Wang W. Global output tracking control of flexible joint robots via factorization of themanipulator mass matrix. TRANSACTIONS ON ROBOTICS, 25:428–437, 2009.
Ramirez A.R.G., Pieri E.R.D., Guenther R., and Golin J.F. Experimental evaluation of a cascade controltechnique with friction compensation for a flexible joint robot. Controle & Automação, 20:490–501,2009.
Readman M. Flexible Joint Robots. CRC Press, Florida, 1994.Takagi T. and Sugeno M. Fuzzy identification of systems and its applications to modeling and control.
IEEE Trans Syst, SMC-15:116–132, 1985.
V Simposio de Metodos Numericos Computacionais
200
V Simposio de Metodos Numericos Computacionais
OTIMIZAÇÃO NA LOCALIZAÇÃO DE CENTROS PÚBLICOS DE
EDUCAÇÃO INFANTIL EM CURITIBA-PR
Resumo: Este artigo visa estudar a distribuição espacial de centros públicos de educação
infantil em Curitiba-PR. Para tanto, primeiramente, avalia-se a atual localização dos centros
existentes, identificando-se regiões com excesso ou escassez de vagas. Em seguida, apresenta-
se uma proposta de localização ideal de novas instalações, resultante da aplicação do modelo
das p-medianas. Para resolver o modelo de programação linear inteira binária, fez-se uso da
linguagem de modelagem VB.NET© e o solver CPLEX©. Para a representação dos resultados,
utilizou-se o software ArcGis® 10.1, facilitando a interpretação dos mesmos.
Palavras-Chave: Problema de Localização de Facilidades, Unidades de Educação Infantil, p-
medianas.
1 INTRODUÇÃO
O tema da pesquisa, de modo mais amplo, incide na localização de instalações, que tem sido
uma área de pesquisa solidamente constituída dentro da área de Pesquisa Operacional (MELO;
NICKEL; SALDANHA-DA-GAMA, 2009). Inúmeros artigos e livros são testemunhas deste
fato (ver, por exemplo: (DREZNER; HAMACHER, 2002) e (NICKEL; PUERTO, 2006).
A importância desse tema se deve ao fato de que o estudo de localização de facilidades é um
aspecto crítico dentro do planejamento estratégico aplicado tanto a ambientes públicos como
privados (ARENALES et al., 2007). Decisões tomadas nesse âmbito são complexas, pois
definem o sucesso do negócio, envolvem grandes investimentos e caso as escolhas sejam mal
feitas, pode ser bastante difícil ou impossível reverter a situação (MARETH; PIZZOLATO,
2014).
A problemática da localização de instalações, de modo específico das unidades de Educação
Infantil consiste num problema de natureza abrangente, diante da imposição de oferecer
educação a todas as crianças. Particularmente, no Brasil, o problema exibe grande atualidade,
pois o direito ao acesso à Educação Infantil tem sido colocado como uma das metas de destaque
estabelecidas pela administração pública, segundo o Plano Nacional da Educação (PNE).
O objetivo geral do trabalho é analisar a atual situação da distribuição de creches no município
de Curitiba-PR e otimizar a localização de novas creches de acordo com a demanda existente
no referido município. Para a aplicação prática reportada, foram utilizadas informações do
IPPUC (Instituto de Pesquisa e Planejamento Urbano de Curitiba) referentes aos 75 bairros,
em relação a população de 0 a 5 anos. Além disso, informações sobre a quantidade, capacidade
Kellen Dayelle Endler, Maria TeresinhaArns Steiner, Cassius Tadeu Scarpin
201
e localização de escolas foram adquiridas junto à Secretaria Municipal da Educação.
O presente artigo encontra-se estruturado da seguinte forma: a seção 2, apresenta a descrição
da metodologia utilizada ao longo do trabalho; a seção 3 traz os resultados obtidos, e a seção 4
as conclusões em relação as análises realizadas.
2 METODOLOGIA
O modelo das p-medianas supõe que tanto as crianças como as creches estão localizadas nos
vértices dos bairros e que as crianças preferem a escola mais próxima de suas residências.
Dessa forma, se um vértice contém uma creche, ela atende todas as crianças que moram naquele
bairro, o qual, de acordo com a simplificação adotada, percorrerá uma distância nula. Caso o
vértice não contenha uma creche, assume-se que a criança vai preferir o vértice mais próximo
com uma creche e todos os alunos percorrerão a distância separando esses dois vértices.
Essa simplificação é considerada razoável, pois as distâncias entre vértices aproximam a
distância média para o conjunto de crianças dispersas em um setor censitário, caminhando para
o geocentro de um setor vizinho. A metodologia adotada neste artigo é constituída por cinco
passos:
PASSO 1: Determinação dos Vértices da Rede
Marcou-se os geocentros, ou pontos centrais de cada bairro. Considerou-se que cada vértice
definido, para efeitos do estudo, contêm toda a população de 0 a 5 anos deste bairro.
PASSO 2: Determinação dos Arcos da Rede e Matriz de Distâncias
Criou-se um grafo G=(N, A) com N=1,...,n vértices, representando os geocentros dos bairros
analisados, determinando-se a matriz de distâncias euclidianas entre vértices.
PASSO 3: Localização Atual
No caso do estudo de avaliação da situação atual, identificou-se quais bairros possuem
atualmente creches, supondo que estas estejam localizadas em seus respectivos geocentros.
PASSO 4: Localização Proposta
Esta é a fase de análise da localização ideal ou ótima. É obtida pela solução do modelo da p-
mediana. O problema das p-medianas pode ser formulado de acordo com o seguinte modelo de
programação linear binária (PIZZOLATO et al., 2004):
Onde, 𝑑𝑖𝑗 é a matriz de distâncias euclidianas entre i e j; [𝑥𝑖𝑗]𝑛𝑥𝑛 é uma matriz de alocação,
com 𝑥𝑖𝑗 = 1 se o vértice 𝑖 está alocado à mediana 𝑗, e 𝑥𝑖𝑗 = 0, caso contrário; 𝑥𝑗𝑗 = 1 se o
vértice 𝑗 é uma mediana e 𝑥𝑗𝑗 = 0, caso contrário. O conjunto 𝑁 é particionado em 𝑝
agrupamentos de pontos.
A função objetivo (1) consiste em minimizar a soma das distancias ponderadas de cada vértice
à mediana mais próxima. As restrições (2) e (4) impõem que cada vértice i seja alocado a um
único vértice j, o qual deve ser uma mediana. A restrição (3) determina o número exato de p-
𝑷𝑷𝑴 𝑴𝒊𝒏 ∑ ∑ 𝒅𝒊𝒋𝒙𝒊𝒋
𝒋∈𝑵𝒊∈𝑵
(1)
𝑠. 𝑎. ∑ 𝑥𝑖𝑗
𝑗∈𝑁
= 1, ∀𝑖 ∈ 𝑁 (2)
∑ 𝑥𝑗𝑗
𝑗∈𝑁
= 𝑝 (3)
𝑥𝑖𝑗 ≤ 𝑥𝑗𝑗 ∀𝑖, 𝑗 ∈ 𝑁 (4)
𝑥𝑖𝑗 ∈ 0,1, ∀𝑖, 𝑗 ∈ 𝑁 (5)
V Simposio de Metodos Numericos Computacionais
202
medianas a serem localizadas e (5) indica as condições de integralidade.
PASSO 5: Interpretação e Validação dos Resultados
A interpretação dos resultados é realizada através da representação geográfica dos mesmos,
utilizando para tal, o ArcGis® 10.1. Compara-se a demanda resultante com a capacidade da
escola correspondente. A implementação das medidas sugeridas pelo estudo passa antes pela
validação dos dados e das conclusões alcançadas.
3 RESULTADOS E DISCUSSÃO
Analisando-se a localização atual das unidades de Educação Infantil, distribuídas nos 75 bairros
de Curitiba-PR, foram identificados os bairros contendo creches ou pré-escolas, e os devidos
número de vagas faltantes ou em excesso de cada bairro. A Figura 1 sugere uma importante
conclusão para o gerenciamento do sistema no curto prazo, a de que os maiores desequilíbrios
estão nos bairros Cidade Industrial, Sítio Cercado e Cajuru, que apesar de apresentarem escolas
ativas, apresentam escassez de mais de 5000 vagas. Portanto, qualquer nova construção ou
expansão deve priorizar esta região.
Figura 1: Mapa de Curitiba: Representação do resultado da análise da localização atual de creches e pré-escolas
Fonte: autora (2015)
V Simposio de Metodos Numericos Computacionais
203
Para a análise da nova proposta de localização, foi aplicado o modelo das p-medianas para
determinar a localização ideal para os 75 bairros do município. A distância total percorrida
pelas crianças de acordo com a configuração atual é de 35.875 metros, em relação a distância
de 32.947 metros da localização ótima.
Nesta etapa, determinou-se a localização ideal das 52 escolas existentes. Com a resposta obtida,
o grafo foi então dividido em 52 árvores, que correspondem a 52 microrregiões. O resultado
da proposta tende a criar micro regiões mais uniformes e balanceadas ao longo do município.
Os resultados encontram-se na Figura 2.
Figura 2: Mapa de Curitiba: Representação do resultado da Análise da localização proposta de creches e pré-
escolas.
Fonte: autora (2015)
V Simposio de Metodos Numericos Computacionais
204
4 CONCLUSÕES
Pode-se observar que há escassez de vagas em grande parte das regiões. O somatório da
demanda é de 129.857, enquanto que o somatório da oferta de vagas é de 39.736. Assim, há
uma falta global estimada na região de 90.121 vagas. Essa falta de vagas é decorrente de um
cálculo aritmético simples da diferença da capacidade total de cada bairro e de sua população
apontada pelo IBGE.
Entretanto, há fatores que afetam seu cálculo, como por exemplo, a participação da escola
privada, que absorve parte da demanda (estimou-se 54,6% para 2014, segundo o Ministério da
Educação); o fato de não ser obrigatório para crianças de 0 a 3 anos; a atração de alunos de
municípios vizinhos, bem como para outros municípios.
Esta última consideração é importante, visto que a Região Metropolitana de Curitiba reúne 29
municípios do estado do Paraná em relativo processo de conurbação. Muitas famílias que têm
suas residências nos municípios vizinhos, por algum tipo de conveniência ou pela melhor
qualidade da escola, preferem ter seus filhos estudando na capital, sendo que o movimento
oposto também ocorre.
Dentre as premissas assumidas pelo modelo das p-medianas, talvez a mais significativa seja
referente a heterogeneidade das instalações. Assumir que os pais levam as crianças para a
escola mais próxima de suas residências não pode ser considerada uma hipótese verdadeira no
momento em que as creches em confronto possuem aspectos distintivos tais como tradição,
qualidade das instalações e do ensino oferecido, oportunidades de acesso a séries superiores,
alternativas diferenciadas de ensino, contradições culturais ou sócio econômicas.
Os resultados deste artigo constituem em conclusões preliminares de um estudo em andamento.
O que se espera alcançar ao final do estudo, inicialmente, obter uma perspectiva mais detalhada
sobre possíveis desigualdades entre oferta e demanda por vagas em centros de Educação
Infantil de Curitiba-PR. Para tanto, serão considerados para a análise, os 2.395 setores
censitários do município (ao invés dos 75 bairros), valendo-se heurísticas e meta-heurísticas.
REFERÊNCIAS
ARENALES, M. N. et al. Pesquisa operacional: para cursos de engenharia. Rio de
JaneiroElsevier, 2007.
DREZNER, Z.; HAMACHER, H. W. Facility location: applications and theory. Nova
YorkSpringer Science & Business Media, 2002.
MARETH, T.; PIZZOLATO, N. D. Mapeamento da utilização dos métodos/algoritmos
aplicados na resolução de problemas de localização. Revista Eletrônica Operacional para o
Desenvolvimento, v. 6, n. 1, p. 154–182, 2014.
MELO, M. T.; NICKEL, S.; SALDANHA-DA-GAMA, F. Facility location and supply chain
management - A review. European Journal of Operational Research, v. 196, n. 2, p. 401–
412, 2009.
NICKEL, S.; PUERTO, J. Location theory: a unified approach. Springer Science &
Business Media, 2006.
PIZZOLATO, N. D. et al. Localização de escolas públicas: Síntese de algumas linhas de
experiências no Brasil. Pesquisa Operacional, v. 24, n. 1, p. 111–131, 2004.
V Simposio de Metodos Numericos Computacionais
205
V Simposio de Metodos Numericos Computacionais
ANÁLISE QUANTITATIVA CONCEITUAL DO COMPORTAMENTO
MECÂNICO DE VIGA MISTA AÇO-CONCRETO PELO MÉTODO
DOS ELEMENTOS FINITOS
Resumo: O estudo realizado tem por objetivo avaliar conceitualmente os resultados
mecânicos de um modelo numérico simplificado tridimensional para uma viga mista aço
concreto. A principal simplificação é a adoção do comportamento linear elástico para os
materiais envolvidos. Os resultados obtidos pelo modelo são comparados com outros
resultados numéricos e experimentais presentes na literatura. Têm-se aqui uma avaliação
básica, focada nos deslocamentos verticais, nos deslizamentos relativos da interface aço-
concreto e nas tensões longitudinais que ocorrem nos componentes da viga.
Palavras-Chave: viga mista aço-concreto, modelagem numérica, interface aço-concreto.
1 INTRODUÇÃO
No Brasil, a aplicação de elementos mistos aço-concreto passou a figurar, mais recentemente,
como uma boa opção estrutural para edifícios de múltiplos pavimentos, sejam estes
comerciais, residenciais, hospitais, shopping centers ou escolas (QUEIROZ et al., 2012).
Logo o entendimento detalhado do comportamento destes elementos passou a ser necessário
e bastante útil na otimização do seu uso. Isso tem sido buscado pelos pesquisadores por duas
vertentes principais: a modelagem experimental e a modelagem numérica. Nas análises
numéricas, quando devidamente validadas, é possível estudar vários parâmetros ao mesmo
tempo, algo que se torna muito difícil no caso experimental. Embora existam variados tipos
de métodos numéricos passíveis de uso na análise estrutural, o Método dos Elementos Finitos
vem se consolidando como uma alternativa extremamente viável e funcional. Todavia a
aplicação do Método dos Elementos Finitos na análise de vigas mistas pode acontecer de
variados modos, e em diferentes níveis de complexidade e detalhamento. ARIZUMI et al.
(1981) e GATTESCO (1999), por exemplo, utilizam modelos simplificados com elementos
de comportamento unidimensional, enquanto FU, LAM e YE (2007) e KATAOKA e EL
DEBS (2015) desenvolvem seus estudos baseados em modelos tridimensionais .
Este trabalho tem por objetivo desenvolver, de maneira inicial, um modelo numérico com
elementos sólidos, elásticos e lineares para uma viga mista já modelada experimentalmente
por CHAPMAN e BALAKHRISHNAN (1964) e numericamente por GATTESCO (1999),
assim como comparar as respostas mecânicas com os resultados de modelos mais elaborados,
apresentados pelos autores citados.
Lucas Peres de Souza, Marco Andre Argenta
206
2 REVISÃO BIBLIOGRÁFICA
De forma a simular o comportamento integrado dos elementos que compõem uma viga mista,
pode-se recorrer a modelos que tornem a análise unidimensional. Tais análises são possíveis
através de algumas hipóteses simplificadoras e equacionamentos que relacionem o
comportamento da estrutura em todas as dimensões com a direção principal tomada como
referência.
Um modelo representativo para o tratamento unidimensional de uma viga mista pelo MEF é
desenvolvido por GATTESCO (1999). Neste modelo é incorporada uma análise não linear,
no que se refere aos comportamentos do concreto, do aço e dos conectores de cisalhamento.
GATTESCO (1999) propõe a divisão da viga mista em elementos de viga que, por sua vez,
são subdivididos em dois tipos: a parte de concreto e a parte metálica, ligados na interface por
duas molas horizontais. Os elementos em questão (Figura 1) possuem 4 pontos nodais, com 3
graus de liberdade em cada nó (translações vertical e horizontal e rotação no plano x-y).
Figura 1: Elemento de viga mista unidimensional
Fonte: GATTESCO (1999)
O autor opta em negligenciar o fenômeno de separação vertical entre o perfil e a laje (uplift),
bem como por tornar iguais as rotações no perfil e na laje. Estas hipóteses acabam reduzindo
o número de graus de liberdade de doze para oito. Para vigas simplesmente apoiadas,
GATTESCO (1999) compara os resultados processados em suas análises com resultados
experimentais de CHAPMAN E BALAKHRISHNAN (1964). As comparações principais
realizadas pelo autor são em relação à deflexão da viga no meio do vão e ao deslizamento
relativo entre laje e perfil. A Figura 2 traz os resultados colocados lado a lado, percebendo-se
uma boa correlação entre as curvas.
Deve-se lembrar que GATTESCO (1999) incorpora em seus modelos o comportamento não
linear do concreto, do aço, da conexão de cisalhamento e do atrito entre o perfil metálico e a
laje de concreto. Este comportamento não linear é inserido pela definição de leis constitutivas
previamente consolidadas experimentalmente. Sendo assim, o processo de convergência não
linear é feito pelo método de Newton-Raphson, com o uso da matriz de rigidez tangente do
elemento.
V Simposio de Metodos Numericos Computacionais
207
Figura 2- Comparação das deflexões no meio do vão e dos deslizamentos relativos obtidos por GATTESCO
(1999) e CHAPMAN e BALAKHRISNAN (1964).
Adaptado de GATTESCO (1999)
O aumento da capacidade de processamento dos computadores e o surgimento de softwares
com interface gráfica estimulou o uso da modelagem em três dimensões de vigas mistas. Um
modelo tridimensional foi criado por FU, LAM e YE (2007), com o uso do software
ABAQUS para conduzir análises paramétricas de vigas e ligações mistas. O modelo
numérico busca replicar as análises experimentais de FU e LAM (2006).
Os materiais dos componentes estruturais em aço (perfis das vigas e pilares, os conectores de
cisalhamento stud bolts e os parafusos) são definidos como elasto-plásticos, tanto sob tração
como sob compressão, com os mesmos valores limite de deformações.
De modo a simplificar a malha, os studs são modelados com seção retangular, de área
convertida a partir dos pinos utilizados nos testes experimentais. A cabeça dos pinos não é
modelada, bem como a solda entre os conectores e a viga metálica (FU, LAM e YE, 2007)
Como poderia causar problemas de convergência, também é negligenciado o atrito entre o
concreto e o perfil da viga. Portanto, nos modelos, o comportamento misto é proporcionado
somente pelos conectores de cisalhamento. Outro problema de convergência poderia ser
causado pela consideração da fissuração do concreto. No intuito de evitar este fenômeno, os
autores optaram por adotar um modelo simplificado elasto-plástico para o material da laje.
3 METODOLOGIA
O modelo numérico desenvolvido neste trabalho utiliza o software ABAQUS, como
ferramenta de análise, pelo Método dos Elementos Finitos. A viga biapoiada selecionada para
a comparação com o modelo de GATTESCO (1999) é aquela experimentada por CHAPMAN
e BALAKRISHNAN (1964), sendo estas formadas por um vão de 5490 mm, perfil metálico
de altura 305 mm e laje com espessura de 152 mm e largura efetiva de 1220 mm. Na Figura 3
é mostrada a geometria da viga E1.
V Simposio de Metodos Numericos Computacionais
208
Figura 3: Viga mista E1 ensaiada por CHAPMAN e BALAKHRISHNAN (1964) e modelada neste trabalho.
Todos os materiais envolvidos na modelagem realizada são tomados como isotrópicos e
elásticos lineares, de maneira simplificada. Já o carregamento considerado, é somente aquele
com valor igual a 448,5 kN, aplicado no meio do vão. A Tabela 1 engloba os valores que
serviram como entradas para o modelo.
Tabela 1: Geometria do modelo e dados dos materiais
Nome: Viga E1
Carregamento
P= 448500 N
A= 244000 mm²
vão= 5490 Mm p= 1,8381 N/mm²
Perfil Metálico Laje
d= 305 Mm bef= 1220 mm
bf= 152 Mm tc= 152 mm
tf= 18 Mm Conectores
hw= 269 Mm diâmetro= 12,7 mm
tw= 10 Mm altura do corpo= 88 mm
Materiais- Aço Perfis e Conectores Materiais- Concreto
E= 202160 N/mm² Ec= 29670 N/mm²
γs= 0,000077 N/mm³ γc= 0,000024 N/mm³
ν= 0,3 ν= 0,2
A entrada de geometria no software é realizada separando-se o modelo em duas partes: a laje
de concreto, e o conjunto formado pelo perfil metálico e pelos conectores de cisalhamento.
De modo a proporcionar a formação das superfícies de contato, é necessário que a geometria
da laje desconte o volume de concreto que não existe, devido à presença dos conectores.
Nesta modelagem ignora-se a cabeça dos conectores stud, considerando-se apenas seu corpo.
Realizada a inserção dos elementos geométricos, procede-se à definição dos contatos entre
superfícies. Sendo assim, são estabelecidos dois tipos de contato: entre o perfil metálico e a
laje de concreto, e entre a face lateral do conector e a laje. Para o primeiro tipo, adota-se um
contato de atrito livre na direção tangencial e de deslocamentos uniformizados na direção
normal da superfície. Já para a região de interface entre conectores e laje, assume-se uma
compatibilidade total de deslocamentos. Isso quer dizer que, somente a deformabilidade dos
conectores pode gerar o deslizamento parcial entre perfil e laje. As superfícies de contato
entre o topo dos conectores e a laje, são negligenciadas.
Para a geração da malha de elementos finitos, todos os componentes estruturais são
discretizados em elementos tetraédricos de interpolação linear, com 4 nós e 3 graus de
liberdade translacionais por nó. Busca-se otimizar a malha, com um instrumento de geração
V Simposio de Metodos Numericos Computacionais
209
automática de malhas disponível no software. Esta otimização envolve o refinamento da
região dos conectores, e a transição para elementos de dimensão maior nas outras regiões da
peça. A malha selecionada, para ser submetida ao processamento, é aquela que minimiza
tanto a distorção de forma dos elementos quanto o número de nós.
Com isso, a discretização final, ilustrada na Figura 4, resulta em 77727 elementos no
conjunto formado por perfis e conectores, e em 262812 elementos na laje de concreto. Em
razão da definição da malha, a seção dos conectores, geometricamente circular, é modelada
como retangular, com área correspondente à da seção circular. A ação da carga pontual de
448,5 kN, aplicada no meio do vão, é simulada pela inserção de uma pressão, na superfície da
laje, no valor de 1,8381 N/mm² , em uma área correspondente a 244000 mm². Os apoios
fixos são simulados pela restrição dos deslocamentos em x, y e z nos nós correspondentes.
Figura 4- Malha de elementos finitos gerada para o modelo tridimensional
4 RESULTADOS E DISCUSSÕES
A primeira observação sobre os resultados do modelo diz respeito aos deslocamentos
verticais da viga mista. Como é demonstrado na Figura 5, a flecha máxima, correspondente
ao carregamento de 448,5 kN, é de 7,20 mm, enquanto o modelo unidimensional de
GATTESCO (1999) chega à deflexão máxima de aproximadamente 16,62 mm e os
resultados experimentais remetem à valores próximos dos 20 mm.
Figura 5- Deslocamentos verticais
A definição do comportamento dos materiais, principalmente quanto ao desprezo da
fissuração do concreto e da plastificação do aço, pode ter levado a esta diferença de valores.
Os modelos de GATTESCO (1999) consideram a fissuração do concreto, assim como a
plastificação do aço, quando as tensões ultrapassam valores limite. Contudo, para uma análise
inicial, na busca da distribuição de deslocamentos entre os componentes da viga mista, é
V Simposio de Metodos Numericos Computacionais
210
válida a análise considerando o comportamento linear dos materiais. No que diz respeito ao
deslizamento relativo (Figura 6), na interface entre perfil e laje, há uma discrepância entre os
resultados experimentais e o que se observa na resposta do modelo aqui desenvolvido. As
prováveis simplificações que podem ter gerado tal diferença de resultados são a não
consideração do atrito entre as partes, bem como a manutenção do contato entre laje e
conector, em regiões que apresentam tensões de tração no concreto.
No entanto, é importante perceber as áreas em que se encontram os valores máximos para o
deslizamento relativo. Tanto nos modelos experimentais quanto na modelagem realizada, os
deslizamentos máximos ocorrem simetricamente a aproximadamente 40 % e 60% do vão
livre total. Segundo ARIZUMI et al. (1981), este comportamento se intensifica na interface, à
medida que se aproxima da carga última resistida pela estrutura Além desta região,
pertencente ao terço médio do vão, ocorrem também grandes deslizamentos nos pontos
próximos aos apoios. O deslizamento relativo máximo na interface aço concreto é de 0,05
mm no modelo.
Figura 6- Deslizamentos relativos entre laje de concreto e perfil metálico segundo a direção longitudinal
Pela Figura 7, que mostra a distribuição de tensões longitudinais ao longo da viga mista,
indica-se tensões máximas de tração próximas a 140 MPa, na extremidade da mesa inferior
do perfil metálico. Já a tensão máxima de compressão atinge aproximadamente 14 MPa, no
bordo superior da laje de concreto. Na seção crítica da viga, localizada no meio do vão, tem-
se que a linha neutra da seção metálica está localizada na alma do perfil, conforme mostrado
na Figura 8. A Figura 8 também demonstra que a laje está inteiramente comprimida,
indicando um bom aproveitamento de suas propriedades mecânicas.
Figura 7- Tensões longitudinais (σz) ao longo da viga
V Simposio de Metodos Numericos Computacionais
211
Figura 8- Tensões longitudinais na seção crítica da viga
5 CONCLUSÕES
Primeiramente, é necessário o entendimento de que a modelagem tridimensional simplificada
deve ser tomada apenas como um parâmetro inicial de análise. Percebe-se, pela comparação
com os resultados dos experimentos de CHAPMAN e BALAKHRISHNAN (1964), que os
valores de deflexões e deslizamentos relativos divergem. Torna-se necessário, então, levar em
conta principalmente as não linearidades de comportamento dos materiais envolvidos, para
que se simule o comportamento mecânico de maneira mais fiel. Além disso, a aplicação de
um espectro maior de valores de carregamento no modelo, poderia levar a melhores
comparações.
Contudo, o modelo desenvolvido é capaz de prever as regiões onde o deslizamento relativo e
a pressão de contato são mais intensos, bem como mostrar de maneira coerente a distribuição
de tensões ao longo da viga.
Como forma de incrementar o comportamento mecânico do modelo, estudos mais
aprofundados sobre a região de interface aço concreto são de extrema importancia, tendo em
vista esta servir como mecanismo de transferência de esforços. Além disso, a incorporação da
plastificação do aço e da fissuração do concreto poderão fazer com que o modelo represente,
de maneira mais fiel, o desempenho real da viga mista.
REFERÊNCIAS
ARIZUMI, Y.; HAMADA, S.; KAJITA, T. Elastic-plastic analysis of composite beams with
incomplete interaction by finite element method. Computers and Structures. v.14, p.453-462,
1981.
CHAPMAN, J. C.; BALAKRISHNAN, S. Experiments on Composite Beams. The Structural
Engineer. v.42, p.369-383, 1964.
FU, F.; LAM, D. Experimental study on semi-rigid composite joints with steel beams and
precast hollowcore slabs. Journal of Constructional Steel Research. v.62, p.771-782, 2006.
FU, F.; LAM, D.; YE,J. Parametric study of semi-rigid composite connections with 3-D finite
elemento approach. Journal of Constructional Steel Research, v.29, p.888-898, 2007.
GATTESCO, N. Analytical modeling of nonlinear behavior of composite beams with
deformable connection. Journal of Constructional Steel Research. v.52, p.195-218, 1999.
KATAOKA, M. N; EL DEBS, A. L. H. C. Parametric study of composite beam-column
connections using 3D finite elemento modelling. Journal of Constructional Steel Research,
v.102, p. 136-149, 2015.
QUEIROZ, G.; PIMENTA, R.J.; MARTINS, A. G. Estruturas Mistas. Instituto Aço Brasil/
Centro Brasileiro de Construção em Aço, v.1 2. ed., Rio de Janeiro, 2012.
V Simposio de Metodos Numericos Computacionais
212
V Simposio de Metodos Numericos Computacionais
ESTUDO DE MÉTODOS NUMÉRICOS PARA A SOLUÇÃO DE
PROBLEMAS NÃO LINEARES DE TRELIÇAS PLANAS
Resumo: Este artigo apresenta os resultados do código computacional desenvolvido para a
solução numérica de problemas de treliça plana considerando a não linearidade física, cujo
comportamento do material é descrito por um modelo constitutivo baseado na Mecânica do
Dano Contínuo. Para a solução do problema estrutural, são implementados os seguintes
métodos incrementais e iterativos com controle de força constante: Quase - Newton (BFGS e
Broyden); e de Newton - Raphson, sendo o sistema de equações solucionado a cada iteração
pelo Método do Gradiente Conjugado. Em adição, ao método de Newton - Raphson é
adicionada a técnica de continuação Controle de Deslocamento Generalizado. A ideia dos
métodos de continuação é tratar o parâmetro de força como uma variável, adicionando uma
condição de restrição ao sistema de equações que descreve o equilíbrio estrutural para a
determinação do mesmo. As estruturas são discretizadas por meio do Método dos Elementos
Finitos, sendo as simulações computacionais efetuadas com o software Matlab, com o intuito
de comprovar a eficiência do programa implementado mostrando, assim, a aplicabilidade de
cada solução às estruturas testadas.
Palavras-Chave: Métodos Quase - Newton, Método do Gradiente Conjugado, Mecânica do
Dano, Técnica de Continuação, Treliça Plana.
1 INTRODUÇÃO
As estruturas treliçadas têm grande aplicação na Engenharia Estrutural, sendo que os métodos
de análises lineares desses tipos de estruturas já estão bastante consolidados. Atualmente
sistemas em treliças de dimensões e complexidade cada vez maiores têm sido usados numa
grande variedade de aplicações práticas da engenharia. O advento do uso desses sistemas em
estruturas de grande complexidade, tais como, torres de linhas de transmissão, pontes e
mesmo estruturas aeroespaciais, tem exigido o uso intensivo de computadores e técnicas
apuradas de análise matricial (LEITE, 2000). Este artigo apresenta uma estudo comparativo
de métodos iterativos e incrementais para a solução numérica de problemas de treliças planas
considerando a não linearidade física. Para tal, um código computacional é desenvolvido, em
teoria de pequenos deslocamentos, para possibilitar a determinação da trajetória de equilíbrio
(deslocamento versus força). O comportamento do material é descrito por um modelo
constitutivo baseado na Mecânica do Dano Contínuo proposto por MANZOLI (1998).
Para a solução do problema estrutural num esquema incremental-iterativo e com controle de
Luiz Antonio Farani de Souza
213
força constante são utilizados os métodos: Quase - Newton (BFGS e Broyden); e de Newton -
Raphson com o método do Gradiente Conjugado para a solução do sistema de equações a
cada iteração. Na técnica de controle de força constante, o parâmetro de força é mantido
invariável durante o ciclo iterativo. Em adição, é implementada a técnica de continuação
Controle de Deslocamento Generalizado (GDCM) associada ao método de Newton -
Raphson. A ideia dos métodos de continuação é tratar o parâmetro de força como uma
variável, adicionando uma condição de restrição ao sistema de equações que descreve o
equilíbrio estrutural para a determinação do mesmo. Análises estruturais por meio do Método
dos Elementos Finitos de treliças planas são efetuadas com o programa Matlab. Os métodos
de solução são avaliados a partir dos parâmetros: número total de incrementos de força (Ntot),
número total de iterações (Itot), número médio de iterações por incremento de força (Iméd), e
deslocamento máximo (v).
2 MÉTODOS DE SOLUÇÃO
Seja o problema estrutural descrito pelo seguinte sistema de equações:
(1)
Sendo K a matriz de rigidez representativa do sistema estrutural, u o vetor de
deslocamentos, Fi o vetor de forças internas (avaliado em função do vetor de deslocamentos
totais u nos pontos nodais da estrutura), e o parâmetro de força responsável pelo
escalonamento do vetor Fr, sendo este um vetor de referência e de magnitude arbitrária. A
Eq. (1) deve ser obtida de forma incremental, ou seja, para uma sequência de incrementos do
parâmetro de força é determinada um sequência de incrementos de deslocamentos nodais. O
parâmetro de carga total e o vetor de deslocamentos totais u são obtidos pelas seguintes
equações no passo de força t + t e iteração k, respectivamente:
(2)
(3)
2.1 Método de Newton - Raphson com o Método do Gradiente Conjugado (NR -
MGC)
O método do Gradiente Conjugado gera uma sequência de soluções aproximadas uj e,
essencialmente, utiliza a matriz de rigidez do sistema K apenas em operações de
multiplicação de matriz por vetor. Adota-se a estratégia de sempre ir buscando direções
ortogonais p0, p1,... às direções já calculadas no passo anterior. Para cada uma dessas direções
encontra-se um vetor u. O algoritmo para a determinação do vetor de deslocamento total u
no passo de força t + t e iteração k é mostrado na Figura 1.
Figura 1: Algoritmo referente ao método de Newton - Raphson com o método do Gradiente Conjugado.
V Simposio de Metodos Numericos Computacionais
214
2.2 Métodos Quase - Newton
Nos métodos Quase - Newton, a sequência u(k)
é gerada por meio da expressão (CRISFIELD,
1991):
(4)
Sendo s(k)
a solução do sistema de equações dado por:
(5)
A matriz de rigidez K(k)
é atualizada a cada iteração, e é imposta a condição de que tal matriz
satisfaz a seguinte equação:
(6)
A escolha da estratégia na obtenção da matriz de rigidez define o método Quase - Newton ou
método Secante. Neste trabalho, foram implementados os métodos BFGS (Broyden, Fletcher,
Goldfarb e Shanno) e de Broyden. A matriz K(k)
no método BFGS é avaliada por:
(7)
Sendo . No método de Broyden, a matriz de rigidez K(k)
é
determinada pela equação:
(8)
Os sistemas dados em (5) e (6) são solucionados utilizando o operador "\" do Matlab. O
algoritmo para a determinação do vetor de deslocamento total u no passo de força t + t e
iteração k é mostrado na Figura 2.
Figura 2: Algoritmo referente aos métodos Quase - Newton (BFGS e Broyden).
3 ESTRATÉGIA DE ITERAÇÃO BASEADA NO DESLOCAMENTO
GENERALIZADO (GDCM)
A técnica GDCM foi apresentada por YANG e SHIEH (1990) e consiste na utilização de um
parâmetro geral de rigidez (GSP), que é definido pela seguinte equação:
(9)
Sendo 1 ur
(1) o vetor de deslocamentos da primeira iteração referente ao primeiro passo de
força. Os deslocamentos residuais são definidos como a soma de duas parcelas no passo t+t:
(10)
Sendo (k)
o parâmetro de força que deve ser avaliado ao longo do ciclo iterativo, e
V Simposio de Metodos Numericos Computacionais
215
ug(k)
e ur(k)
são obtidos por meio das expressões, respectivamente:
(11)
(12)
Os sistemas de equações lineares apresentados em (11) e (12) são solucionados com o
método de Gauss-Seidel. O parâmetro do incremento de força t+t
(k)
é calculado por:
(13)
O sinal do incremento inicial de força (t+t
(1)
) pode ser positivo ou negativo. A escolha do
sinal correto é de suma importância na definição de sequências de soluções que permitam o
avanço na resposta deslocamento - força. O parâmetro de rigidez generalizado (GSP)
depende exclusivamente dos vetores t ur
(1) (passo de força anterior) e
t+t ur
(1) (passo de
força corrente). A mudança de sinal do parâmetro GSP serve como um indicador para a
mudança do sentido de crescimento da força, uma vez que o mesmo torna-se negativo
somente nos incrementos da força imediatamente após a passagem por pontos limites. Há
possibilidade de que o deslocamento tangente tenda ao infinito em pontos próximos a um
ponto limite da trajetória de equilíbrio. Para evitar que isso ocorra, limitou-se esse
deslocamento a um valor máximo umáx, de forma que se || u|| > umáx, então (CRISFIELD,
1991):
(14)
Uma estratégia adaptativa que pode ser muito útil no emprego da técnica de controle de força
é a determinação automática da variação do parâmetro de força inicial (1
(1)) para a
definição do valor do parâmetro de força para a primeira iteração (t + Δt
(1)
), que consiste em,
ao final de cada passo da análise, monitorar o número de iterações requeridas para a
convergência (Ntoti) da técnica iterativa e comparar esse número com um valor ótimo (Notim).
Por meio desta monitoração, calcula-se t+Δt
(1)
para o passo de força seguinte por:
(15)
4 MODELO CONSTITUTIVO PARA O MATERIAL
Para descrever o comportamento do material, utiliza-se um modelo baseado na Mecânica do
Dano Contínuo proposto por MANZOLI (1998). Para o caso de um elemento unidimensional
submetido a uma força axial, a tensão efetiva é expressada por:
(16)
O limite de dano inicial r0 é uma propriedade do material e pode ser relacionado à tensão
limite de proporcionalidade f0 da seguinte forma:
(17)
Sendo B1 um parâmetro do modelo. Define-se a norma da tensão efetiva por:
V Simposio de Metodos Numericos Computacionais
216
(18)
A partir das relações de Kuhn - Tucker, o limite de dano é dado pelo máximo valor da
variável durante o processo de carregamento, tal que:
(19)
A partir das Eqs. (16) e (18), pode ser expresso em termos da deformação específica por:
(20)
A variável de dano d é escrita em função do módulo H e do limite de dano r por:
(21)
5 SIMULAÇÕES COMPUTACIONAIS
Nesta seção são apresentados os resultados numéricos de problemas de treliças planas
encontrados na literatura, levando-se em conta na análise estática por Elementos Finitos a não
linearidade física, com o intuito de comparar os métodos de solução. Em todas as análises
estruturais, considerou-se para a verificação da convergência a cada iteração k o critério de
parada , supondo a tolerância igual a 10-5
. Nas simulações com a técnica de iteração
GDCM, adotou-se o número de iterações desejadas (Notim) igual a 5, e o deslocamento
máximo ( umáx) igual a ||1 ur
(1)||. O peso próprio das estruturas é desconsiderado nas análises.
5.1 Simulação 1
Este exemplo, analisado por RODRIGUES (1997), é composto por uma treliça metálica
biapoiada de 13 barras com área da seção transversal A = 1,0 cm2, cujos banzos inferior e
superior são paralelos entre si, conforme ilustra a Figura 3. A estrutura é solicitada por uma
força concentrada P de intensidade 60 kN no nó 3 na direção vertical e sentido para baixo.
Figura 3: Treliça plana biapoiada com 13 barras.
O material das barras apresenta comportamento elastoplástico bilinear (encruamento linear ou
endurecimento). Para o modelo de dano, considerou-se os seguintes parâmetros: E = 21000,0
kN/cm2, f0 = 24 kN/cm
2, H = 0,3125 e B1 = 1,0. Nas simulações, considerou-se o incremento
de força P = 0,1 kN. Com relação à estratégia de iteração GDCM, adotou-se o incremento
inicial do parâmetro de força 1
(1) igual a 3,1. Na Tabela 1 são apresentados os resultados
numéricos das simulações efetuadas com os métodos BFGS, Broyden, Newton - Raphson
com o Gradiente Conjugado (NR - MGC) supondo o tamanho do passo de força constante
(controle de força constante), e com o método de Newton - Raphson (NR) associado à técnica
de continuação GDCM (NR - GDCM). Vê-se nessa tabela que os resultados ficaram bastante
próximos aos apresentados por RODRIGUES (1997). Em relação aos parâmetros da análise
estática não linear, o método BFGS apresentou o menor número de iterações até a
convergência (Itot = 5056), sendo que para o método NR - GDCM houve a necessidade de um
número menor de incrementos de força até o fim da simulação (Ntot = 381).
V Simposio de Metodos Numericos Computacionais
217
Tabela 1: Resultados numéricos.
Métodos numéricos Ntot Itot Iméd Desloc. vertical nó 3 (cm)
BFGS 600 5056 8,426666666666666 -6,611082061527813
Broyden 600 5159 8,598333333333333 -6,611082115929345
NR - MGC 600 9389 15,648333333333333 -6,611082119134057
NR - GDCM 381 6499 17,057742782152232 -6,609204991646640
RODRIGUES (1997) - - - -6,611
5.2 Simulação 2
Na Figura 4 é mostrada uma estrutura de treliça plana estaticamente indeterminada com duas
forças concentradas P aplicadas simetricamente. Esta estrutura foi analisada por
GUTIÉRREZ (2014). O material que constitui as barras apresenta comportamento elástico
idealmente plástico. Para o modelo de dano, considerou-se os seguintes parâmetros: E0A =
105 kN, f0 = 65 MPa (diagonais), f0 = 61,1 MPa (demais barras), H = 0,0 e B1 = 1,0. Nas
simulações, adotou-se o incremento de força P = 1,0 kN. Para a estratégia de iteração
GDCM, supôs-se o incremento inicial do parâmetro de força 1
(1) igual a 2,0.
Figura 4: Treliça plana hiperestática.
Os resultados numéricos das simulações efetuadas com o métodos numéricos são
apresentados na Tabela 2. Na Figura 5 são mostradas as trajetórias deslocamento máximo
versus força P com os métodos de solução associados à técnica de incremento de força
constante (BFGS, Broyden e NR - MGC), e a com controle de iteração e incremento de força
(NR - GDCM). Tabela 2: Resultados numéricos.
Métodos numéricos Ntot Itot Iméd Desloc. vertical nó 5 (cm)
BFGS 40 213 5,325000000000000 -0,039933071706962
Broyden 40 154 3,850000000000000 -0,039933071709044
NR - MGC 40 180 4,500000000000000 -0,039933071709090
NR - GDCM 59 1176 19,932203389830509 -0,199142248507156
Figura 5: Trajetórias de equilíbrio obtidas com métodos de solução: (a) com controle de força constante (BFGS,
Broyden e NR - MGC); e (b) associado à técnica de cotinuação (NR - GDCM).
V Simposio de Metodos Numericos Computacionais
218
Observa-se na Figura 5b que para a força P igual a 40,7333 kN, aproximadamente, há
aumento do deslocamento vertical no nó 5 sem acréscimo de força. As barras 1-2, 4-5, 5-6 e
8-9 atingem a tensão de escoamento em primeiro, apresentando comportamento plástico. Vê-
se a necessidade do uso de uma técnica de continuação, uma vez que as trajetórias de
equilíbrio obtidas com controle de força constante são conduzidas até P = 40 kN (Figura 5a);
para a próxima configuração de equilíbrio (ou seja, P = 41 kN) a convergência não é
alcançada no ciclo iterativo ( ) ocorrendo o término da simulação. Na Tabela 2,
comparando os métodos BFGS, Broyden e NR - MGC quanto aos parâmetros de análise, o
método de Broyden apresentou o menor número de iterações até o fim da simulação (Itot =
154).
6 CONCLUSÕES
A partir dos resultados obtidos, o tipo de lei constitutiva adotada para o material é uma das
causas da maior ou menor eficiência dos processos para a busca do equilíbrio. Uma lei
elastoplástica perfeita (simulação 2) pode conduzir a uma situação em que a estrutura
apresente grandes deformações antes de alcançar o equilíbrio. Estruturas pouco deformáveis
e/ou pouco esbeltas apresentam resposta próxima do comportamento elástico-linear, de modo
que os algoritmos implementados mostram eficiência no processo de resolução (os métodos
Quase - Newton alcançam o equilíbrio com um menor número de iterações em geral, em
comparação com o método de Newton - Raphson). Com relação ao MGC para a solução do
sistema de equações a cada iteração, um problema característico desse método é a sua
instabilidade numérica perante as diferentes propriedades do sistema de equações, mais
especificamente do condicionamento da matriz; para solucionar essa questão, pode-se utilizar
técnicas de pré-condicionadores que são otimizadores que diminuem essa instabilidade
inerente ao método e aceleram a convergência do sistema. Em adição, observa-se a
necessidade da utilização de um método de solução associado a uma técnica de iteração e
incremento de força para a solução de problemas com não linearidade física, quando se tem
ponto limite (ponto crítico) na trajetória de equilíbrio.
AGRADECIMENTOS
O autor agradece à UTFPR pelo apoio financeiro no desenvolvimento desta pesquisa.
REFERÊNCIAS
CRISFIELD, M. A. Non-Linear Finite Element Analysis of Solids and Structures. Vol. 1:
Essentials. New York: John Wiley & Sons, 1991.
GUTIÉRREZ, M. P. D. Análise elastoplástica de estruturas metálicas usando o conceito de
rótulas plásticas e o algoritmo de retorno radial. Brasília: UNB, 2014. Dissertação
(Mestrado) - Departamento de Engenharia Civil e Ambiental, Universidade de Brasília, 2014.
LEITE, F. N. Uma formulação teórica consistente para análise não linear de estruturas
treliçadas espaciais. Belo Horizonte: UFMG, 2000. Dissertação (Mestrado) - Departamento
de Engenharia de Estruturas, Universidade Federal de Minas Gerais, 2000.
MANZOLI, O. L. Um modelo analítico y numérico para la simulatión de discontinuidades
fuertes em la mecânica de sólidos. Barcelona: 1998. Tese (Doutorado) - Escola Técnica
Superior D’Enginyers de Camins, Canals i Ports, Universitat Politécnica de Catalunya,
Barcelona, 1998.
RODRIGUES, R. O. Análise Dinâmica Bidimensional Não linear Física e Geométrica de
Treliças de Aço e Pórticos de Concreto Armado. São Carlos: EESC-USP, 1997. Tese
(Doutorado) - Faculdade de Engenharia Civil, Escola de Engenharia de São Carlos, 1997.
YANG, Y. B.; SHIEH, M. S. Solution Method for Nonlinear Problems with Multiple Critical
Points. AIAA Journal, v. 28, n. 12, p. 2110-2116, 1990.
V Simposio de Metodos Numericos Computacionais
219
V Simposio de Metodos Numericos Computacionais
NOVO PARÂMETRO DE CORREÇÃO DE FALHAS NADIAGONAL DA FATORAÇÃO CONTROLADA DE CHOLESKY NO
MÉTODO DE PONTOS INTERIORES
Resumo: O objetivo deste estudo é modificar o cálculo do precondicionador Fatoração Controlada deCholesky (FCC) para reduzir o tempo computacional na resolução dos sistemas lineares oriundos do métodoprimal-dual de pontos interiores. Propõe-se esta modificação pois quando existe falha na diagonal a fatoraçãoé reiniciada, aumentando dessa forma o tempo de precondicionamento, quer seja devido a reconstrução doprecondicionador. quer seja a perda de qualidade do mesmo. O cálculo dos novos parâmetros é feito considerandoa relação que existe entre a FCC obtida antes e depois da falha na diagonal. A melhoria obtida usandoesta nova modificação reduziu o número de reinícios como será apresentado em experimentos numéricos comproblemas de grande porte. Estes resultados são competitivos e mostram que a nova proposta é eficiente e robusta.
Palavras-Chave:Métodos de pontos interiores, Precondicionadores, Fatoração Controlada de Cholesky.
Manolo Rodriguez Heredia, Aurelio Ribeiro Leite Oliveira
220
1 INTRODUCÇÃO
Os métodos de pontos interiores do tipo primal-dual são uma ótima ferramenta para resolver problemasde grande porte, pois apresentam um moderado número de iterações. No entanto, cada iteração poderesultar computacionalmente cara devido ao mau condicionamento dos sistemas lineares que precisamser resolvidos para encontrar a direção de busca.Para melhorar o condicionamento destes sistemas lineares e melhorar o tempo computacional em cadaiteração são usados os precondicionadores. Neste trabalho é usada uma abordagem híbrida proposta porBOCANEGRA et al. (2007). Esta abordagem tem duas fases, na primeira é usado o precondicionador(FCC) proposto por CAMPOS (1995) e na segunda fase, trabalha-se com o precondicionador Separador(PS) proposto por OLIVEIRA AND SORENSEN (2005).O precondicionador FCC é muito eficiente nas iterações iniciais do método de pontos interiores,porém durante o processo de fatoração é possível que existam falhas na diagonal do precondicionador,isto acarreta o reinício da fatoração LDLT . O número máximo de reinícios permitidos é 15. Istoé uma desvantagem, pois aumenta o tempo de precondicionamento da matriz do problema. Umalgoritmo que evita reinícios é apresentado em SILVA (2014), mas os resultados obtidos não sãocompetitivos com a construção original, porque o tempo computacional em alguns problemas éaumentado consideravelmente.Propõe-se uma modificação na Fatoração Controlada de Cholesky alterando a maneira do cálculo doparâmetro de correção das falhas que ocorrem na diagonal. O objetivo é reduzir o número de reiníciosda fatoração durante a construção do precondicionador FCC.
2 PROGRAMAÇÃO LINEAR
Considere o problema de programação linear primal-dual (P)
minimizar cTx s. a Ax = b e x ≥ 0
e (D)
maximizar yT b s. a ATy + z = c , z ≥ 0 e y ∈ Rm
na forma padrão, onde A ∈ Rm×n comm < n, é uma matriz m× n de posto completo, x, z e c ∈ Rn e b ∈ Rm.As condições de Karush-Kuhn-Tucker (KKT) para os problemas (P) e (D) são dadas por
Ax− bATy + z − c
XZe
= 0 (x, z) ≥ 0 , (1)
onde X e Z são matrizes diagonais com as componentes dos vetores x e z e o vetor e ∈ Rn tem todassuas componentes de uns.2.1 Método Preditor-Corretor de MehrotraO método preditor-corretor de Mehrotra é a variante mais eficiente dos métodos seguidores de caminho.A principal característica é que em cada iteração k a direção de busca é obtida pela resolução de doissistemas lineares com a mesma matriz. Primeiro, calcula-se a direção afim-escala (∆ax
k,∆ayk,∆az
k)A 0 00 AT IZk 0 Xk
∆axk
∆ayk
∆azk
=
rkprkdrka
, (2)
onde rkp = b−Axk, rkd = c−ATyk−zk e rka = −XZe. Logo, o lado direito do sistema (2) é modificadofazendo rkp = rkd = 0 e substituindo rka por rc, onde rkc = σkµke − ∆aX
k∆aZke, σk é o parâmetro
de centragem, µk é o gap de dualidade, ∆aXk = diag(∆ax
k) e ∆aZk = diag(∆az
k). Resolve-se estenovo sistema para obter a direção de centragem (∆cx
k,∆cyk,∆cz
k). Finalmente, a direção de busca(∆x,∆y,∆z) é obtida da soma das duas direções anteriores.A estrutura da matriz do sistema (2) permite reformulá-la de modo a obter um sistema linear com matrizsimétrica e definida positiva: Assim, se Θ = XZ−1:
AΘkAt∆yk = rkp + A(Θkrkd − (Zk)−1rka
). (3)
A equação (3) é chamada de equações normais. Dado que a matriz AΘkAT é mal condicionada, osucesso da implementação, usando métodos iterativos, depende da boa escolha de precondicionadores.
V Simposio de Metodos Numericos Computacionais
221
2.2 Precondicionadores para as Equações NormaisNas iterações iniciais será usada uma classe de precondicionador chamada de FCC, proposta porCAMPOS (1995) e nas iterações finais, quando as matrizes se tornam muito mal condicionadas, usa-se oPS proposto em OLIVEIRA AND SORENSEN (2005). A regra para mudança de um precondicionadorpara outro é determinada pela heurística proposta por VELAZCO et al. (2011).Esta abordagem híbrida utiliza o método dos gradientes conjugados e trabalha com o precondicionadorM para resolver o sistema de equações normais. O sistema precondicionado é:
M−1(AΘAT)M−Ty = M−1(rkp + A
(Θkrkd − (Zk)−1rka
)), (4)
onde y = MT∆y. Usa-se na primeira fase a FCC para construir a matriz M e depois da mudança defase o PS constrói a matriz M .2.3 Fatoração Controlada de CholeskyConsidere a fatoração de Cholesky e a Fatoração Incompleta de Cholesky (FIC) da matriz AΘAT :LLT = AΘAT = LLT + R, onde L é o fator obtido quando a fatoração é completa, L quando afatoração é incompleta e R é a matriz resíduo. Define-se a matriz E como a diferença E = L− L; logo,
L−1(AΘAT
)L−T = L−1(LLT )L−T = (L−1L)(L−1L)T
= (I + L−1E)(I + L−1E)T .(5)
Quando a matriz L se aproxima de L, E se aproxima da matriz nula; logo, L−1(AΘAT
)L−T se
aproxima da matriz identidade I . A FCC é baseada na minimização da norma de Frobenius da matrizE, pode-se considerar o problema de minimizar
∑nj=1 cj , onde cj denota o somatório
∑mi=1 |`ij − ˜
ij|2.Reescrevendo este problema, tem-se: minimizar
∑nj=1
(∑mj+ηk=1 |`ikj − ˜
ikj|2 +∑n
k=mj+η+1 |`ikj|2)
onde mj representa o número de componentes não nulas abaixo da diagonal da j-ésima coluna da matrizAΘAT e η representa o número de componentes extras permitidas por coluna.A FCC é um precondicionador construído com base na fatoração de Cholesky incompleta e, portanto,é possível encontrar falhas na diagonal. Manteuffel et al. (1980) mostraram que se uma matriz Vé simétrica definida positiva, existe uma constante α > 0 tal que uma fatoração incompleta deV +α diag(V ) existe. Na abordagem híbrida para o precondicionamento do método de pontos interioresas falhas que ocorrem durante a fatoração são corrigidas com um incremento exponencial. O valor doincremento é αt = 5 · 10−4 · 2t−1, onde t = 1, . . . , 15 representa o número de reinícios permitidos naFCC. No entanto, é possível evitar reinícios SILVA (2014), esta abordagem denotado por FCCβ estábaseada em BELLAVIA et. al. (2012).Na próxima seção são apresentados novos valores para o incremento na FCC.2.4 Uma Nova Proposta para o cálculo do incremento na Fatoração Controlada de CholeskyNesta seção é denotada por A a matriz AΘAT da equação (4); isto é, A é simétrica definida positiva deordem m; além disso, A é considerada escalada, para cada j = 1 . . . ,m, ajj = 1. Na FCC quando existeuma falha na diagonal; isto é, existe dj < tol, onde j = 1, . . . ,m e tol = 10−8, o valor do incrementona diagonal é denotado por αt, onde t = 1, . . . , 15. Propõe-se novos valores para αt, estes não evitam oreinício na FCC, mas o número de reinícios necessários para realizar a fatoração é reduzido.Como a atualização proposta está baseada na fatoração da matriz A + αI , denotada por A, deve-seconhecer o comportamento da mesma ao longo da Fatoração LDLT . Logo, efetuando o cálculo dadescomposição A = LDL
T, obtém-se:
dj = ajj + α−j−1∑
k=1
dk`2
jk ;
`ij =1
dj
(aij −
j−1∑
k=1
`ikdk`jk
).
(6)
V Simposio de Metodos Numericos Computacionais
222
para j = 1, . . .m e i = j + 1, . . . ,m. Usa-se a fatoração LDLT da matriz A para calcular as novascomponentes da matriz L e D; assim, pode-se obter:
dj = dj + α +
j−1∑
k=1
(dk`
2jk − dk`
2
jk
);
`ij = `ijdj
dj+
1
dj
j−1∑
k=1
(`ikdk`jk − `ikdk`jk
).
(7)
para j = 1, . . .m e i = j + 1, . . . ,m.As novas propostas para calcular αt estão baseadas na equação (7):
1. Denota-se a primeira proposta por FCC1. Quando dj < tol, usa-se a equação (7) para mostrar:para cada α > 0, dj > tol se, e somente se,
j−1∑
k=1
dk`2
jk ≤ ajj + α− tol . (8)
Procura-se α próximo de zero, pois A deve estar próximo de A. Desta maneira, deve-se resolver oproblema:
(Pα)
minα>0
α
s. a
j−1∑
k=1
dk`2
jk ≤ ajj + α− tol .(9)
No entanto, quando dj < tol, para k = 1, . . . , j − 1 não são conhecidos os valores dk nem `jk,pois ainda não foi feita a fatoração LDL
T. Para tanto, a seguinte Afirmação é útil na construção
da FCC1.AFIRMAÇÃO 2.1. Se existe falha na diagonal na FCC e para cada α > 0, dj > tol, então
j−1∑
k=1
dk`2
jk < α +
j−1∑
k=1
dk`2jk (10)
Prova. Consequência direta da hipótese e da equação (7).
Quando dj < tol, consideram-se a função f : R −→ R e g : R −→ R, dadas por
α 7→j−1∑
k=1
(dk`jk)2
dk + αe α 7→
j−1∑
k=1
α
dk + αdk`
2jk , (11)
respectivamente. Como limα→0+
g(α) = 0, usando a inequação (10) em vez de resolver o problema
(Pα) é procurada a solução do problema:
(Pα)
minα>0
α
s. a f(α) ≤ ajj − tol ,(12)
pois se α é solução de (Pα):
j−1∑
k=1
dk`2
jk < α +
j−1∑
k=1
dk`2jk = α + f(α) + g(α)
≈ α + f(α) < α + ajj − tol .
(13)
Como f é uma função decresciente α é solução de (Pα) se, e somente se, f(α) = ajj−tol. Usa-seo método de Newton para calcular numericamente este valor.
V Simposio de Metodos Numericos Computacionais
223
2. O novo valor de αt é calculado baseado na construção de uma parábola, denota-se esteprecondicionador por FCCp. Na equação (7), substitui-se a segunda na primeira igualdade:
dj = dj + α +
j−1∑
k=1
dk`2jk
(dk − dkdk
)+ d` (14)
onde d` = −∑j−1k=1
∑k−1t=1
1dk
( (2`jkdk + `jtdt`kt − `jtdt`kt
) (`jtdt`kt − `jtdt`kt
)). Logo, para dj
é obtida a aproximação dj: dj = dj +α+∑j−1
k=1 dk`2jk
((dk − dk)/dk
). Usando a equação (7), para
k = 1, . . . , j − 1, cumpre-se
(dk − dkdk
)=
α +∑k−1
s=1 ds`2ksds−dsds
dk + α +∑k−1
s=1 ds`2ksds−dsds
(15)
e denotando αk = α +∑k−1
s=1 ds`2ksds−dsds
, segue-se(dk−dkdk
)= αk
dk+αk. No entanto, para construir a
FCCp, considera-se a aproximação dj para dj:
dj = K + α− drdr + α
dr`2jt . (16)
onde r é o argumento de max1≤k≤j−1
`jk e K = ajj −∑j−1
k=1k 6=r
dk`2jk.
Observa-se que dj > dj . Logo, deve-se isolar α da equação (16) para obter:
αt =
(tol−K− dr +
√(tol−K + dr)2 + (2dr`jr)2
)/2 (17)
Na Figura 1, tem-se uma interpretação geométrica desta proposta.
tol
ℓjr dj√
Kdr
√K(dr+α)dr
y
x
Figura 1: Desloca-se(√
K/dr, 0)
e(0,K
)até(√
K(dr + α)/dr, 0)
e(0,K + α
), respectivamente para que
dj ≥ tol.
Testes numéricos para avaliar o desempenho destas propostas serão apresentados na próxima seção.
3 EXPERIMENTOS NUMÉRICOS
Os testes para avaliar o desempenho destas novas propostas foram realizados com a versão modificadado PCx que resolve os sistemas lineares utilizando uma abordagem híbrida no precondicionamento dométodo dos gradientes conjugados. O código da FCC foi modificado incorporando as novas propostas, asquais estão sendo chamadas de FCC1 e FCCp. Por outro lado, a modificação proposta por SILVA (2014)é chamada de FCCβ. Os testes computacionais foram realizados em ambiente Linux, em uma máquinaequipada com processador core i7 de 2.0 GHz e 8Gb de memória RAM.Os problemas utilizados para avaliar o desempenho das novas abordagens foram extraídos dasbibliotecas: NETLIB, QAP e KENNINGTON. Na Tabela 1 são apresentados o tempo de processamentopara avaliar a eficiência das novas propostas. O símbolo "−" significa que o problema não foi resolvido.Na Tabela 2, compara-se o total de reinícios em todas as iterações onde é calculada a FCC e o totalde iterações do método de pontos interiores. Os símbolos "∗" e "∗∗" significam que em uma iteração eem mais de uma iteração do método de pontos interiores o número total de reinícios foi maior que 15,respectivamente. O símbolo "−" significa que o problema não foi resolvido.
V Simposio de Metodos Numericos Computacionais
224
A eficiência das novas modificações FCC1 e FCCp é destacada na resolução dos problemas pds, poisnão foi necessária uma abordagem híbrida. Enquanto o desempenho da FFCβ foi discrepante em relaçãoa estes problemas, porque existiu a mudança de fase o que implica que o precondicionador Separadorincrementou o tempo computacional.Observa-se que as novas estratégias para o cálculo do parâmetro de correção αt melhoram o desempenhoda FCC, pois o tempo de processamento foi reduzido quando comparado com a proposta original FCC.Além disso, o número de reinícios para o cálculo do precondicionador FCC1 e FCCp em cada iteração émenor do que o FCC. Isto acontece porque o cálculo de αt tem justificacão algébrica e geométrica.
4 CONCLUSÕES
As modificações propostas chamadas de FCC1 e FFCp reduziram o número de reinícios da FCC atéconcluir a construção deste precondicionador. Os experimentos numéricos realizados com problemas deprogramação linear indicam que a FCCp é muito eficiente em problemas pequenos; no entanto, a FCC1é robusta, pois foi possível resolver problemas como o ste36a.A justificação da construção das propostas FCC1 e FCCp pode ser implementada para que o tempocomputacional também seja reduzido na abordagem FCCβ. Por esta razão novas formas de calcular aatualização da modificação FCCβ serão investigadas.A FCC é um precondicionador que pode ser aplicado a vários tipos de problemas. Assim, as abordagensapresentadas aqui podem ser testadas em outros contextos de precondicionamento, como por exemplo, aresolução numérica de certos tipos de equações diferenciais.
Tabela 1: Problemas Testes e o tempo computacional
Tamanho TempoProblema Linhas Colunas FCC FCC1 FCCp FCCβ
NL 6665 14680 32, 99 30, 36 45.36 75, 81stocfor3 15362 22228 87, 88 79, 91 102, 16 80, 67BL 5729 12462 18, 04 17, 59 17, 29 38, 61els19 4350 13186 43, 47 42, 74 46, 49 44, 92chr22b 5587 10417 19, 76 18, 37 18, 38 17, 15scr20 5079 15980 60, 98 64, 63 69, 78 54, 35rou20 7359 37640 755, 41 763, 01 863, 83 663, 19ste36a 27683 15980 10022, 89 9468.18 − −cre-b 5328 36382 43, 28 40, 54 39, 51 51, 98cre-d 4094 28601 27, 91 27, 40 27, 08 32, 85ex09 1821 18184 51, 01 42, 25 42, 01 59, 75ken11 9964 16740 10, 17 9, 39 10, 63 15, 34ken13 22365 36561 93, 64 86, 94 80, 20 141, 62ken18 78538 128434 1014.74 997, 45 1120, 57 1096, 73pds-06 9145 28472 8, 19 9, 58 13, 97 38, 98pds-10 16558 48763 18, 48 16, 18 21, 66 168, 17pds-20 32276 106180 214, 59 281, 38 229, 33 928, 28pds-40 34265 214385 395, 70 426, 51 508, 51 4521, 67pds-60 96503 332862 1076, 86 1146, 09 1713, 35 11160, 55pds-80 126109 430800 1509, 34 1587, 91 1874, 55 15848, 94pds-100 156243 514577 2573, 59 2660, 97 3137, 19 28371, 93
AGRADECIMENTO
Este trabalho contou com o apoio financeiro da Fundacão de Amparo à Pesquisa do Estado de São Paulo(FAPESP) e pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq).
V Simposio de Metodos Numericos Computacionais
225
Tabela 2: Número total de reínicios em cada iteração e total de iterações
Número de Reinícios IteraçõesProblema FCC FCC1 FCCp FCC FCC1 FCCp FCCβ
NL 284 79 51 41 42 45 47stocfor3 199 74 48∗ 32 32 32 32BL 261 94 63 38 38 38 38els19 78 32 22 31 31 31 31chr22b 79 30 18 29 29 29 29scr20 74 27 25 21 21 21 21rou20 81 28 20 24 24 24 24ste36a 125∗ 38 − 37 37 − −cre-b 288 95 37 43 43 43 43cre-d 281 150∗∗ 24 42 46 42 43ex09 319 82 45 45 44 45 51ken11 74 33 35 23 22 22 23ken13 73 33 33 29 29 30 29ken18 103 52 46 41 40 39 38pds-06 216 62 64 39 39 40 38pds-10 256 67 61 47 46 48 47pds-20 322 89 58 60 61 60 59pds-40 479 137 118 78 79 79 77pds-60 492 145 126 84 84 85 84pds-80 478 173 139 83 83 83 83pds-100 508 181 145 87 88 87 83
REFERÊNCIAS
BELLAVIA S., SIMONE V.D., DI SERAFINO D., and MORINI B. A preconditioning framework forsequences of diagonally modified linear systems arising in optimization. SIAM Journal on NumericalAnalysis, 50(6):3280–3302, 2012.
BOCANEGRA S., CAMPOS F.F., and OLIVEIRA A.R.L. Using a hybrid preconditioner for solvinglarge-scale linear systems arising from interior point methods. Computational Optimization andApplications, 36(2-3):149–164, 2007.
CAMPOS F.F. Analysis of conjugate gradients-type methods for solving linear equations. Ph.D. thesis,University of Oxford, 1995.
MAUNTEUFFEL T.A. An incomplete factorization technique for positive definite linear systems.Mathematics of computation, 34(150):473–497, 1980.
OLIVEIRA A.R.L. and SORENSEN D. A new class of preconditioners for large-scale linear systemsfrom interior point methods for linear programming. Linear Algebra and its applications, 394:1–24,2005.
SILVA L.M. Modificações na Fatoração Controlada de Cholesky para Acelerar o Precondicionamentode Sistemas Lineares no Contexto Pontos Interiores. Ph.D. thesis, Universidade Estadual de Campinas,2014.
VELAZCO M.I., OLIVEIRA A.R.L., and CAMPOS F.F. Heuristics for implementation of a hybridpreconditioner for interior-point methods. Pesquisa Operacional, 31(3):579–591, 2011.
WRIGHT S. Primal-dual Interior-Point Methods:. SIAM e-books. Society for Industrial and AppliedMathematics (SIAM), 1997. ISBN 9781611971453.
V Simposio de Metodos Numericos Computacionais
226
V Simposio de Metodos Numericos Computacionais
ROBUST UNIT COMMITMENT WITH WIND POWERFORECASTING UNCERTAINTY
Abstract: The integration of large-scale wind power adds a significant uncertainty to power system planning andoperating. The representation of wind power forecasting uncertainty in the unit commitment (UC) problem aimsto schedule the most cost-effective combination of generating units to meet forecasted load. There is no generalsolution technique for three-level optimization problems like UC. In this paper, a comparative study has been donefor an adaptive robust UC and an equivalent Linear Program (LP).
Key Words: Unit Commitment, Wind Power, Uncertainty, Adaptive Robust Optimization
1 INTRODUCTION
Robust Optimization (RO) is a methodology for addressing uncertainty in optimization problems thathas grown in popularity over the last decade (for a survey, see (Bertsimas, D., Brown, D. B., Caramanis,2011). The RO approach to uncertainty models the uncertain parameters in a problem as belongingto a an uncertainty set, instead of modeling them as being drawn from probability distributions. Wesolve an RO problem with respect to the worst-case realization of those uncertain parameters over theiruncertainty set, i.e.
minx∈X
f (x) (1)
subject to g (x, ξ) ≤ 0 ∀ξ ∈ Ξ
where x are the decision variables, ξ are the uncertain parameters drawn from the uncertainty setΞ, f : X → R is a function of x and g : X × Ξ → Rk is a vector valued function of both x and ξ.Note that constraints which are not affected by uncertainty are captured by the set X . As the uncertaintyset Ξ is typically not a finite set of scenarios, RO problems have an infinite set of constraints. This isusually addressed by either reformulation the RO problem using duality to obtain a robust counterpart, or by using a cutting-plane method that aims to add only the subset of constraints that are required atoptimality to enforce feasibility (Bertsimas, D., Dunning, I., Lubin, 2015).
As electricity generation from renewable resources, such as solar and wind generation increases,power system operators (SO) must increase reserve margins to account for the larger uncertainty onthe net load (Makarov, Y.V., Loutan, C., Jian Ma, and de Mello, 2009), (Ela, E., and O’Malley, 2012).Existing power systems have not been designed to effectively withstand these levels of uncertainty andmay therefore require sizable investments to make their generation fleet more flexible (Ma, J., Silva, V.,
Marcos Roberto Bombacini, Ademir Alves Ribeiro
227
Belhomme, R., Kirschen, D.S., and Ochoa, 2013). For a power system generate power for its customers,there are two phases: 1) Unit Commitment (UC), i.e., deciding which generator should be on-line togenerate power. 2) Economic Dispatch (ED), i.e., deciding the output for each on-line generator.
The contributions of this paper are twofold:
1. to implement two UC formulation in Julia language management the uncertainty associated towind power;
2. to compare the costs and the generators use in an illustrative example in a power system with ahigh penetration of wind power generation;
The rest of this paper is organized as follows. Section 2 describes the RO model. Section 3 shows theFourier Motzkin Elimination procedure from Robust UC to Linear Programming UC problem. Section4 illustrate a three bus example mirroring the interface between Western and Eastern Texas. Section5 provides some results from a realistic case study for RO and LP methods. Section 6 provides somerelevant conclusions and future work.
2 ROBUST UC
The robust optimization approach to UC (sometimes called adaptive robust optimization (Bertsimas,D., Litvinov, E., Sun, X. A., Zhao, Ji. and Zheng, 2013)) typically consists of two stages, where the costsfor (first-stage) commitment x decisions and the costs of the (second-stage) dispatch in the worst-casewind scenario are minimized over a planning horizon T of length T = |T | (Bertsimas, D., Litvinov,E., Sun, X. A., Zhao, Ji. and Zheng, 2013), (Zhao, C., and Guan, 2013), (Morales-Espana, G., Latorre,J.M., and Ramos, 2013). This worst-case scenario ξ is taken from a continuous interval of minimum andmaximum wind nodal injection for each time interval and each bus, called uncertainty set.
Definition 1. Given a vector with de lowest (w) and one with highest (w) possible wind powerinjection for each time interval t ∈ T and each node b ∈ BW , the uncertainty set Ξ is defined by acontinuous range between these extremes, i. e.,
Ξ (w,w) =ξ ∈ RBT : wbt ≤ ξbt ≤ wbt, ∀b ∈ BW , t ∈ T
(2)
where BW denotes the set of wind nodes, and BW the number of such nodes(BW =
∣∣BW∣∣).
This uncertainty set can be taken very large for very robust solutions, or relatively tight to get lessconservative solutions, allowing some control over conservatism (Guan, Y., and Wang, 2014).
Given such minimum and maximum possible wind power injection, the objective is to minimize thesum of the costs bTx for the unit’s commitment related decisions for each time interval (e.g., on/off andstartup/shutdown) and the worst-case dispatch cost max
ξ∈Ξmin
p(·),w(·)
(cTp (ξ) + dTw (ξ)
). The continuous
variable p is a vector of units’ dispatch decisions for each time interval. The continuous variable w is avector of each wind production dispatch decision for each bus with wind power injections, and for eachtime interval.
Through this paper wind is considered to be dispatchable; that is, wind curtailment is allowed. There-fore, the uncertain parameter is the maximum possible dispatchable wind (ξ) that can be produced (i.e.,available wind capacity) rather than the wind dispatch (w) itself, which is a decision variable.
Definition 2. The two-stage robust UC formulation S given minimum (w) and maximum (w) possiblewind power injection is the following:
S (w,w) = minx
(bTx+ max
ξ∈Ξ(w,w)min
p(·),w(·)
(cTp (ξ) + dTw (ξ)
))(3)
s.t. Fx ≤ f , x is binary (4)
Hp (ξ) + Jw (ξ) ≤ h (5)
V Simposio de Metodos Numericos Computacionais
228
Ax+ Bp (ξ) + Cw (ξ) ≤ g (6)
w (ξ) ≤ ξ (7)
p, w ≥ 0 (8)
where x,p and w are variables as discussed above.Constraint (4) involves only commitment-related constraints, e.g., minimum up/down times. Con-
straint (5) contains dispatch-related constraints, e.g., energy balance, transmission limit constraints, andramping constraints. Constraint (6) couples the commitment and dispatch decisions, e.g., minimum andmaximum generation capacity constraints. Finally, (7) guarantee that the wind dispatch cannot exceedthe available wind production.
Theorem 1. For each minimum (w) and maximum (w) possible wind power injection, the second
stage problem(
maxξ∈Ξ
minp,w
cTp + dTw
)can be formulated as an LP.
By applying the Fourier Motzkin elimination, we obtain the following equivalent formulation:
minp,w
cTp+ dTw (9)
s.t. Hp+ Jw ≤ h (10)
Bp+ Cw ≤ g (11)
w ≤ w (12)
p, w ≥ 0. (13)
In short, the second-stage max-min problem (3)-(8), which is non-convex (Bertsimas, D., Litvinov, E.,Sun, X. A., Zhao, Ji. and Zheng, 2013), (Zhao, C., and Guan, 2013), is equivalent to the LP formulation(9)-(13). Consequently, the complete two-stage UC formulation with wind dispatch is equivalent to thetwo-stage robust UC formulation RO given minimum possible wind power injection. (The step-by-stepFourier Motzkin procedure can be found in the technical report (Morales-España, G., Davidson, M.,Ramírez-Elizondo, L., de Weerdt, 2015).)
The main element of this proof is a generalization of a similar result on adaptive robust optimizationfor LP problems (Dantzig, G. B., Thapa, 2003), (Ben-Tal, A., Goryashko, A., Guslitzer, E., Nemirovski,2004). Since the uncertainty affecting every one of the constraints (4)-(8) is independent of each other,and the uncertainty set is defined as a continuous interval, the fully adaptive solution of the second-stageproblem is equivalent to the static (or non-adaptive) one, as proven in (Ben-Tal, A., Goryashko, A.,Guslitzer, E., Nemirovski, 2004) and further discussed in (Caramanis, 2006). That is, we can obtain thesolution of the second-stage Adaptive Robust Optimization (ARO) model (3)-(8) by solving its staticrobust reformulation, which result is (9)-(13).
3 FOURIER MOTZKIN ELIMINATION
The elimination of a variable xr, 1 ≤ r ≤ N , from a system of linear inequalities
V Simposio de Metodos Numericos Computacionais
229
Ax ≥ b,A =
aT1...aTM
= [aij] ; aTi = [ai1 · · · aiN ] ;
x =
x1...xN
; b =
b1...bN
;M,N ≥ 2 (14)
corresponds to the calculation of a new vector inequality with air = 0 for 1 ≤ i ≤ M . To this end,Fourier Motzkin Elimination (FME) exploits two properties of inequalities, i.e.,
s ≥ t ∧ y ≥ y ≥ z ⇒ s+ y ≥ t+ z (15)
s ≥ t ∧ y ≥ y ≥ 0⇒ s · y ≥ t · y. (16)
The elimination of a variable xr from (14) takes two steps:Sorting of Inequalities: The individual inequalities aTi x ≥ bi from (14) into three sets, i.e.,
I> =aTg x ≥ bg|agr > 0 ∧ g ∈ G
(17)
I< =aTl x ≥ bl|alr < 0 ∧ l ∈ L
(18)
I= =aTe x ≥ be|aer < 0 ∧ e ∈ E
(19)
withG ∩ L = G ∩ U = L ∩ E = ∧G ∪ L ∪ E = 1 . . .M . (20)
Elimination of xr by Linear Combination: The inequalities in I= are already independent of xr sinceaer = 0. They are included in the final set of inequalities without any further manipulation.
Geometrically, the elimination of a variable xr can be interpreted as a projection of the original poly-tope along the xr-axis. An inequality with aer = 0 describes a halfspace, the boundary hyperplane ofwhich is parallel to the xr-axis. When this hyperplane is intersected with the subspace that is supportedby the remaining parameters, then we obtain the (N − 1)-dimensional projection of this hyperplane.This is depicted in Fig. 1 for the 3-D case shaded plane is projected onto xa/xb plane.
Figure 1: Projection of a Parallel Boundary Plane
The set I= is then augmented by all pairwise linear combinations of inequalities from I> and I< suchthat the rth coefficient is zero:
I= ∪(agr · aTl − alr · aTg
)· x ≥ agrbl − alrgg|g ∈ G ∧ l ∈ L
. (21)
V Simposio de Metodos Numericos Computacionais
230
Fig. 2 shows how such a linear combination results in a zero coefficient of xr and hence yields aplane that is parallel to the xr and hence yields a plane that is parallel to the xr-axis. The final set ofinequalities in vector/matrix notation is
A\r · x ≥ b\r. (22)
The entries in the rth column of A\r are all zeros: Variable xr has been removed from the system ofinequalities (Stehr, G., Graeb, H. E., and Antreich, 2007).
Figure 2: Projection of a Linear Combination of Planes
4 ILLUSTRATIVE EXAMPLE
In the following notes for the sake of simplicity, we are going to use a three bus example mirroringthe interface between Western and Eastern Texas Fig. 3. This example is taken from (Baldick, 2012).
Figure 3: A Three Bus Example Mirroring the Interface Between Western and Eastern Texas
For this example, we set the following characteristics of generators (Table 1), transmission lines(Table 2), wind farms (Table 3) and demand (Table 4):
V Simposio de Metodos Numericos Computacionais
231
Generator 1 Generator 2gmin, MW 0 300gmax, MW 1000 1000cg, $/MWh 50 100cg0,$/MWh 1000 0
Table 1: Characteristics of Generators
Line 1 Line 2fmax, MW 100 1000x, p. u. 0.001 0.001
Table 2: Transmission Lines
Wind farm 1 Wind farm 2wf , MW 150 50cw, $/MWh 30 20
Table 3: Wind farm
Bus 1 Bus 2 Bus 3d, MW 0 0 1500
Table 4: Demand
5 NUMERICAL RESULTS
The Robust Optimization and Linear Programming methods are applied for solving the Unit Commit-ment problem for an illustrative example Fig. 3 separately, and the numerical results are given in (Table5).
Total Cost($)
Dispatch ofGenerator 1
(MW)
Dispatch ofGenerator 2
(MW)
Dispatch ofWind Farm 1
(MW)
Dispatch ofWind Farm 2
(MW)Robust Optimization 99.562,5 1000 493,75 6,25 0Linear Programming 80.000 800 300 200 200
Table 5: The Numerical Results for RO and LP methods.
It can be seen from (Table 5) that OR has the highest cost value, and LP performs much bettergenerators use. It is worth noting wind power forecast error usually has been assumed 10%.
6 CONCLUSIONS AND FUTURE WORK
Two different methods, RO and LP methods, are used for solving the UC problem known as animportant and hard-solving problem in power system engineering, and the results from the programscoded and implemented using Julia language and Gurobi Optimizer for these methods are compared toeach other according to cost and generators use. The numerical results show that the RO method whichis firstly used for solving the UC problem in literature gives the highest cost but permits uncertainty
V Simposio de Metodos Numericos Computacionais
232
set flexibility. It is seen that LP method yields the minimum cost and performs much better generatorsuse. Since an important factor in the solution of UC problems is how the representation of wind powerforecasting uncertainty in the unit commitment (UC) problem can be done.
Another straightforward application of the results in this paper would be to incorporate the worst-casesolution in a deterministic UC formulation based on reserves, thereby greatly improving its robustnesswithout significantly affecting its computational burden. We also believe that our formulation couldhelp in the design of new heuristics for the two-stage robust UC problem including dynamic sets ofuncertainty (Lorca, Á., and Sun, 2014).
REFERENCES
Baldick R. Wind and Energy Markets : A Case Study of Texas. IEEE Systems Journal, 6(1):27–34,2012.
Ben-Tal, A., Goryashko, A., Guslitzer, E., Nemirovski A. Adjustable Robust Solutions of UncertainLinear Programs. Mathematical Programming, 99(2):351–376, 2004.
Bertsimas, D., Brown, D. B., Caramanis C. Theory and Applications of Robust Optimization. SIAMReview, 53(3):464–501, 2011.
Bertsimas, D., Dunning, I., Lubin M. Reformulation Versus Cutting-Planes for Robust Optimization: AComputational Study. Optimization On-Line, 2015.
Bertsimas, D., Litvinov, E., Sun, X. A., Zhao, Ji. and Zheng T. Adaptive Robust Optimization for theSecurity Constrained Unit Commitment Problem. IEEE Transactions on Power Systems, 28(1):52–63,2013. ISSN 0885-8950. doi:10.1109/TPWRS.2012.2205021.
Caramanis C. Adaptable Optimization: Theory and Algorithms. Ph.D. thesis, Massachusetts Institute ofTechnology, 2006.
Dantzig, G. B., Thapa M.N. Linear Programming : 2 : Theory and Extensions. First edition, 2003.ISBN 0387948333.
Ela, E., and O’Malley M. Studying the Variability and Uncertainty Impacts of Variable Generation atMultiple Timescales. IEEE Transactions on Power Systems, 27(3):1324–1333, 2012.
Guan, Y., and Wang J. Uncertainty Sets for Robust Unit Commitment. IEEE Transactions on PowerSystems, 29(3):1439–1440, 2014.
Lorca, Á., and Sun X.A. Adaptive Robust Optimization With Dynamic Uncertainty Sets for Multi-PeriodEconomic Dispatch Under Significant Wind. IEEE Transactions on Power Systems, PP(99):1–12,2014.
Ma, J., Silva, V., Belhomme, R., Kirschen, D.S., and Ochoa L. Evaluating and Planning Flexibility inSustainable Power Systems. In IEEE Power and Energy Society General Meeting (PES), pages 1–11.2013. ISBN 9781479913039.
Makarov, Y.V., Loutan, C., Jian Ma, and de Mello P. Operational Impacts of Wind Generation onCalifornia Power Systems. IEEE Transactions on Power Systems, 24(2):1039–1050, 2009.
Morales-España, G., Davidson, M., Ramírez-Elizondo, L., de Weerdt M.M. Online Companion for Ro-bust Unit Commitment with Dispatchable Wind: An LP Reformulation of the Second-Stage. TechnicalReport, 2015.
Morales-Espana, G., Latorre, J.M., and Ramos A. Tight and Compact MILP Formulation for the ThermalUnit Commitment Problem. IEEE Transactions on Power Systems, 28(4):4897–4908, 2013.
Morales, J.M., Conejo, A.J., and Perez-Ruiz J. Economic Valuation of Reserves in Power Systems WithHigh Penetration of Wind Power. IEEE Transactions on Power Systems, 24(2):900–910, 2009.
Sahin, C., Shahidehpour, M., and Erkmen I. Allocation of Hourly Reserve Versus Demand Responsefor Security-Constrained Scheduling of Stochastic Wind Energy. IEEE Transactions on SuatainableEnergy, 4(1):219–228, 2013. doi:10.1109/TSTE.2012.2213849.
Stehr, G., Graeb, H. E., and Antreich K.J. Analog Performance Space Exploration by Normal-BoundaryIntersection and by Fourier âAS Motzkin Elimination. IEEE Transactions on Computer-Aided Designof Integrated Circuits and Systems, 26(10):1733–1748, 2007.
Wang R., Wang P., Wang R., Wang P., and Xiao G. A Robust Optimization Approach for Energy Gener-
V Simposio de Metodos Numericos Computacionais
233
ation Scheduling in Microgrids A Robust Optimization Approach for Energy Generation Schedulingin Microgrids. (AUGUST), 2015. doi:10.13140/RG.2.1.2270.1924.
Wei, W., Wang, J., and Mei S. Dispatchability Maximization for Co-Optimized Energy and ReserveDispatch With Explicit Reliability Guarantee. IEEE Transactions on Power Systems, PP(99):1–13,2015.
Zhao, C., and Guan Y. Unified Stochastic and Robust Unit Commitment. IEEE Transactions on PowerSystems, 28(3):3353–3361, 2013.
V Simposio de Metodos Numericos Computacionais
234
V Simposio de Metodos Numericos Computacionais
ESTUDO DE TRINCAS UTILIZANDO O MÉTODO DO ELEMENTO DE CONTORNO COM A FUNÇÃO DE GREEN NUMÉRICA
As trincas ocupam um lugar muito importante nas causas de falha dos componentes de máquinas ou na construção civil, praticamente, todo elemento fabricado apresenta alguma imperfeição que pode ser causada pela movimentação de materiais na confecção, por algum tratamento térmico ou ainda como consequência da ocorrência de vibração na área; tendo um estudo mais amplo, dinâmico, pode-se obter a carga máxima suportada e a propagação da trinca. A mecânica da fratura é a área da mecânica que estuda os processos mecânicos que levam à propagação de fendas, fissuras e outros "defeitos", que diminuem a resistência do material, provocando a fratura ou ruptura do mesmo. Ela utiliza métodos analíticos da mecânica dos sólidos para calcular a força motriz em uma trinca e métodos da mecânica dos sólidos experimental e computacional para caracterizar a resistência do material à fratura. A Metodologia abordada utiliza três ferramentas matemáticas: O Método dos Elementos de Contorno (MEC) que vem sendo aplicado com êxito a diversas propostas de resolução de problemas de engenharia, seja no caso estático ou no dinâmico, uma vez que seus resultados apresentam alta precisão, com a vantagem adicional da discretização somente do contorno do problema; a Função de Green como solução fundamental, que evita a discretização do contorno da trinca quando este está descarregado, uma vez que esta solução, para a força de superfície, seja nula nas faces da trinca; e, o Método da dupla Reciprocidade, que transforma integrais de domínio em integrais de contorno.Esse artigo pretende analisar o comportamento elastostático de uma trinca reta de bordo em uma barra homogênea ao receber um carregamento vertical positivo.
Palavras-chave: Função de Green Numérica, Método dos Elementos de Contorno, trinca.
Marlon Ferreira Corsi, Carlos Andres Reyna Vera-Tudela
235
METODOLOGIA 1. MÉTODO DOS ELEMENTOS DE CONTORNO (MEC) O MEC (BREBBIA, TELLES & WROBEL, 1984) se aplica à diferentes problemas em engenharia, tais como: mecânica da fratura, mecânica do contato, barreira acústica, proteção catódica (em casco de navios e torres de distribuição elétrica), e problemas de elasticidade. Contudo, singularidades fracas e fortes surgem nessas formulações matemáticas, as quais devem ser contornadas por técnicas e artifícios numéricos. O método possui uma boa precisão nos resultados,resolve problemas infinitos ou semi-infinitos, e envolve somente a discretização do contorno, diminuindo o custo computacional. A Figura 1 demonstra como é feita a discretização do contorno considerando a linearidade e a influência das forças em cada ponto fonte ( ) e ponto campo (x).
Figura 1: Representação gráfica do Domínio do Problema.
( ) = ( , ) ( ) ( ) − ( , ) ( ) ( ) (1)
Onde u (ξ, x) ep (ξ, x) são, respectivamente, o deslocamento e a força de superfície no ponto campo x na direção j pertencente ao contorno Γ, para uma carga unitária aplicada no ponto fonte (interno) ξ na direção i. 2. FUNÇÃO DE GREEN NUMÉRICA (FGN) A FGN(GUIMARÃES & TELLES, 1994), como mostra na Figura 2, descreve forças que se encontram em equilíbrio em termos de uma superposição da solução fundamental de Kelvin mais uma parte complementar,evitando a singularidade na superfície da trinca, pois a discretização para a força de superfície é nula nas faces da trinca, quando esta está descarregada.
V Simposio de Metodos Numericos Computacionais
236
Figura 2: Função de Green Numérica.
Solução de Kelvin e a Solução Complementar u (ξ, x) = u (ξ, x) + u (ξ, x) u (ξ, x) = u (ξ, x) + u (ξ, x) (2)
Substituindo na equação do MEC, utilizando o método da colocação para pontos conhecidos no contorno, a quadratura Gaussiana e aplicando as técnicas de Integração, temos:
u (ξ, x) = u ( , ) + | | ( , ) ( , )
( , ) = ( , ) + | | ( , ) ( , ) (3)
Onde é o jacobiano, são pontos de colocação, é a representação dos pesos de Gauss. 3. MÉTODO DA DUPLA RECIPROCIDADE (MDR) O MDR (PARTRIDGE, BREBBIA & WROBEL, 1992) permite resolver problemas transientes usando soluções fundamentais da estática, tem como objetivo transformar a integral de domínio do Termo existente em uma integral de contorno. Por exemplo: Equação de Navier:
μ u ′ + (λ + μ) u ′ = b (4) Adotando a solução fundamental para os deslocamentos e para as forças de superfície com os procedimentos clássicos do Método dos Elementos de Contorno gera a seguinte equação com integrais de contorno e uma integral de domínio:
+ ∗ ΓΓ
= ∗ ΓΓ
+ ∗ ΩΩ
(5)
Se representar a ação do domínio por um somatório de funções: ( ) = = + + … + (6)
Ao aplicar o método, essa equação pode ser reescrita como: + ∗ Γ
Γ− ∗ Γ
Γ= û + ∗ û Γ
Γ− ∗ Γ
Γ (7)
Usando os valores nodais com o mesmo grupo de funções de interpolação, obtêm-se os somatórios:
V Simposio de Metodos Numericos Computacionais
237
+ ℎ − = û + ℎ û − (8) Finalmente, aplicando a equação anterior para todos os nós do contorno e pontos internos, e incorporando a matriz C em h, forma-se o seguinte sistema de equações:
− = ( û − ) (9) Para = , onde é uma função auxiliar de interpolação, ( , )(1 + ). 4. APLICAÇÃO E ANÁLISE DOS DADOS Tendo uma chapa retangular com uma trinca de Bordo Reta com carregamento vertical positivo, considerando a proporção dos eixos e dois nós fixos no eixo w (KARAMI&KUHN, 1993; VERA-TUDELA, 2003), como é mostrado na Figura 3. Adotando um material linearmente elástico com as seguintes propriedades: módulo de Young igual a 1000; coeficiente de Poisson igual a 0,3, densidade igual à unidade e trinca de tamanho 7, com a/w = 0.7 e h/w = 4. A discretização tem 197 nós no contorno, 96 elementos quadráticos e 40 pontos internos.
Figura 3: Chapa com carregamento Reverso.
Ao implementar os dados no programa, observa-se após a carga reversa ser aplicada, uma variação no Fator de Intensidade de Tensão, Tabela 1, que também resultou em uma variação da trinca no eixo y, representado na Figura 4, os dados tabelados descrevem uma superfície similar ao obtido na Figura 5 (KARAMI & KUHN, 1992).
V Simposio de Metodos Numericos Computacionais
238
ABERTURA DA TRINCA
NO Cy 11 0,173309091 12 1,488407728 13 11,59123329 14 10,30515245 15 8,209602971 16 6,809388777 17 5,497799936 18 4,451916365 19 3,487847496 20 2,692714304 21 1,971155669 22 1,376407442 23 0,829984825 24 0,375531989
Figura 4: Dados da Trinca.
Tabela 1: Valores de K1/K0.
h/w a/w / √ / √ ( ) 4 0.7 1.44 1.22
Figura 5: Gráfico da abertura da Trinca
5. CONCLUSÃO Esse artigo demonstrou a aplicabilidade do MEC com a FGN e o MDR para a resolução de problemas da mecânica da fratura com trinca de bordo reta, através de uma implementação em FORTRAN 95 onde seus resultados foram comparados com os resultados do paper do Karami.
V Simposio de Metodos Numericos Computacionais
239
Pode-se observar que ao se discretizar a Figura 3 e rodar o programa, os resultados foram próximos como mostra a Tabela 1, e uma pequena similaridade na disposição da superfície da Trinca (Figuras 4 e 5). Estudos posteriores devem permitir comprar estes resultados comparando a carga de domínio com uma carga aplicada equivalente. Além disso, o interesse é ainda estudar o comportamento da trinca inclinada calculando os valores de K1/K0 e K2/K0 com os obtidos na literatura.
REFERÊNCIAS BREBBIA, C. A., TELLES, J. C. F. & WROBEL, L. C., 1984, Boundary Elements Techniques: Theory and Application. Berlin, Springer-Verlag. KARAMI, G and FENNER,R. T., Analysis of mixed mode fracture and crack closure using the boundary integral equation method. Int. J. Fracture 30, 15-31 (1986). GUIMARÃES, S. & TELLES, J. C. F., 1994, “On the hyper-singular boundary element formulation for fracture mechanics applications”, Engineering Analysis with Boundary Elements, v. 13, pp. 353-363. KARAMI,G., A Boundary Element Method for Two-Dimensional Elastic Contact Problems. Springer-Verlag, Berlin (1989). PARTRIDGE, P. W., BREBBIA, C. A. & WROBEL, L. C., 1992, The Dual Reciprocity Boundary Element Method. London, ComputationalMechanicsPublications. VERA-TUDELA, CARLOS ANDRÉS REYNA. Formulações Alternativas do MEC paraProblemas Elastodinâmicos de Mecânica da Fratura com o uso da Função de Green Numérica, Rio de Janeiro, 2003. COPPE/UFRJ, D.Sc.,Engenharia Civil, 2003. Tese – Universidade Federal do Rio deJaneiro, COPPE.
V Simposio de Metodos Numericos Computacionais
240
V Simposio de Metodos Numericos Computacionais
IMPLEMENTATION AND ACCURACY ASPECTS FOR NURBSBASED ISOGEOMETRIC ANALYSIS OF FREE VIBRATION OF
TRUSSES
Abstract: Isogeometric Analysis (IGA) is a numerical method to solve partial differential equations with someimplementation aspects similar to Finite Element Method (FEM). Its main difference is related with basis func-tions. IGA uses NURBS as shape functions to approximate the mathematical problem and also to interpolategeometry. The aim of this paper is to test NURBS shape functions as approach to the free vibration problem oftrusses. The main characteristics of IGA is presented. Some different treatments from FEM are developed to IGAtruss element and finally one test is performed aiming to test its accuracy, comparing with the classical FEM, theComposite Element Method (CEM) and the Generalized Finite Element Method (GFEM).
Keywords: Isogeometric Analysis, Trusses, Free Vibration, Finite Element Method
1 INTRODUCTION
Isogeometric Analysis had its introductory work published by Hughes et al. (2005). In ten years ofdevelopment, a high amount of works was produced by several researchers motivated by the initial ad-vantages, mostly related with mesh questions (Cottrell et al., 2007) and accuracy in dynamical problems(Cottrell et al., 2006), specially for rods and trusses.
Trusses are basically formed by a set of linked rods. As the results for free vibration problem of rodsin IGA was more accurate than classical FEM, based in a numerical test, this works test if the efficacyof the free vibration rod formulation can be extended for trusses.
2 ISOGEOMETRIC ANALYSIS
Isogeometric Analysis is a FEM-like numerical method that reformulates the treatment of object ge-ometry and mesh questions. Aiming to solve FEM mesh bottlenecks, which demands high computationalcosts, IGA works by means of NURBS (Non Uniform Rational B-Splines), which allow to connect CADenvironment with FEA, since those functions are the same.
IGA follows the opposite way of Isoparametric Concept. Since FEM turns to find a set of functionsto describe the mathematical problem, IGA aims to find a set of NURBS capable to describe objectgeometry perfectly (Cottrell et al., 2009).2.1 NURBS Functions
NURBS is a family of B-Splines functions. It follows the recursive scheme of construction of Coxand de-Boor (De-Boor, 1972; Cox, 1972). This formulation constructs a base of n B-Splines with orderp, where its behaviour depends on the called knot vector Ξ. The knot vector consists in a set of non
Mateus Rauen, Roberto Dalledone Machado, Marcos Arndt
241
decreasing coordinates, called knots. Given a polynomial degree p, a number of n shape functions and aknot vector Ξ = ξ1, ξ2, . . . , ξn+p+1, B-Splines basis functions are defined by:
Ni,0(ξ) =
1 if ξi ≤ ξ < ξi+1,0 otherwise, (1)
for p = 0 and
Ni,p(ξ) =ξ − ξiξi+p − ξi
Ni,p−1(ξ) +ξi+p+1 − ξξi+p+1 − ξi+1
Ni+1,p−1(ξ), (2)
for p ≥ 1.For IGA, a basic set of NURBS shape functions is defined by repeating the edge knots p + 1 times.
Some relevant NURBS properties are described in Hughes et al. (2005) and Piegl and Tiller (1997) whichextensively contribute to the performance and optimization of IGA implementations. Figure 1 shows anexample of NURBS shape functions with parameters p = 2, n = 6 and ξ = 0, 0, 0, 0.25, 0.5, 0.75, 1, 1, 1.
Figura 1: NURBS Shape Functions
2.2 IGA RefinementsIn the viewpoint of shape functions, IGA refinement could be seen as a set of modification in the
functions parameters. Basically the input parameters Ξ, n and p are modified and a new set of shapefunctions is created. Different kind of modifications describes the different kinds of refinements.
Isogeometric h refinement consists to change n and Ξ parameters only. With the increasing in thenumber of shape functions n there’s also a need to add knot in Ξ. This results in a increasing in thenumber of shape functions with the same order p. Considering frequency error spectra for the freevibration of rods and beams (Cottrell et al., 2006), it is proven that h refinements does not change thebehaviour of normalized spectrum curves.
Cottrell et al. (2007) define the Isogeometric p refinement as the order increasing with continuitymaintained. The number of shape functions n is also increased, but an important fact is related to knotvector: the multiplicity of the whole set of knots is also increased. Details of p refinement implemen-tation are given by Cottrell et al. (2007) and Cottrell et al. (2009). Some comparisons isogeometric prefinement and other refinements developed by Rauen et al. (2013).
NURBS shape functions allows to control their continuities with parameters p and the multiplicity ofknots. The concept of the k refinement is to increase polynomial degree without increase interior knotsmultiplicity. This gives a high continuity in element domain (Cottrell et al., 2007). Convergence rates ink refinement were proven higher than p refinement (Rauen et al., 2013; Rauen, 2014), due to inscreasecontinuity and shape functions smoothness with a lower number of shape functions.
V Simposio de Metodos Numericos Computacionais
242
3 TRUSS ELEMENT
3.1 Classical Rod FormulationPlane truss formulation is a generalization of bar element. First consider straight uniform bar, with
cross sectional area A, Young Modulus E, specific mass ρ, lenght L and axial displacement u, thedifferential equation for vibration of a straight bar can be written as:
ρA∂2u
∂t2− ∂
∂x
(EA
∂u
∂x
)= 0. (3)
Its classical variational formulation is given by the orthogonalization between the diferential equationand a weight function w:
ρA
∫ L
0
∂2u
∂t2wdx+ EA
∫ L
0
∂u
∂x
∂w
∂xdx− EA
[w∂u
∂x
]L
0
= 0. (4)
The last term of eq. (4) vanishes by applying boundary condition. The known eigenvalue problem arisewhen the classical solution of the differential equation, given by
u(x, t) = eiωtu(x) = ((cos(ωt) + i.sen(ωt)) u(x). (5)
is applied. The system turns into:B(u,w) = λF (u,w) (6)
where B(u,w) and F (u,w) are bilinear forms and λ is the eigenvalue related with the natural vibrationfrequencies. The matricial form for Eq.(6) is:
Kuh = λhMuh (7)
where uh are the approximate eigenvectors, related with the natural vibration modes and λh are theapproximate eigenvalue related with the natural vibration frequencies. K and M are, respectively, thestiffness and mass matrix. The isogeometric numerical expressions for an element of those matrix arewritten as:
Kij = EA
∫ L
0
∂Ni,p
∂x
∂Nj,p
∂xdx (8)
Mij = ρA
∫ L
0
Ni,p Nj,p dx (9)
3.2 Transformation MatrixTruss elements are global defined by a linear transformation from the original bar element. The global
stiffness and mass matrix are given by:
KG = TTKT (10)MG = TTMT (11)
where KG and MG are the global transformed matrix and T is the transformation matrix (Bathe, 1996).In the element domain, NURBS generates field degrees of freedom. Nodal degrees of freedom are
separated, aiming to facilitate boundary condition imposing. The transformation matrix can be expressedby:
T =
cos(γ) sen(γ) 0 0 0 0 . . . 00 0 0 0 1 0 . . . 00 0 0 0 0 1 . . . 0...
......
......
... . . . ...0 0 0 0 0 0 . . . 10 0 cos(γ) sen(γ) 0 0 . . . 0
(12)
V Simposio de Metodos Numericos Computacionais
243
where
cos(γ) =uj − uiLe
(13)
sen(γ) =vj − viLe
(14)
Le =√
(uj − ui)2 + (vj − vi)2 (15)
and ui, uj , vi and vj are the displacements in the global domain. Figure 2 shows the transformationscheme.
Figura 2: Truss Element Transformation
3.3 Seven Bar TrussThe seven bar truss free vibration problem was originally proposed by Zeng (1998a) (Figure 3). This
modelling uses the parameters: cross sectional area A = 0.001m2, specific mass ρ = 8000 kg/m3 andYoung Modulus E = 210GPa.
Figura 3: Seven Bar Truss (Zeng, 1998a)
3.3.1 FEM, GFEM and CEM Natural Vibration Frequencies
Table 1 shows the free vibration for the seven bar truss for approach using FEM, GFEM and CEMwith 5 enrichment functions (Arndt et al., 2010; Arndt, 2009). The results obtained from Zeng (1998a)for CEM with 1 and 2 enrichment functions are also shown in Table 1.
V Simposio de Metodos Numericos Computacionais
244
Tabela 1: Seven Bar Truss Natural Vibration Frequencies developed in FEM, GFEM and CEM (Arndtet al., 2010)
i FEM (7e) CEM (7e 1c) CEM (7e 2c) CEM (7e 5c) GFEM (7e) Adap. GFEM6 dgof 13 dgof 20 dgof 41 dgof 34 dgof 1× 6dgof + 2× 34dgof
ωi (rad/s) ωi (rad/s) ωi (rad/s) ωi (rad/s) ωi (rad/s) ωi (rad/s)1 1683.521413 1648.516148 1648.258910 1647.811939 1647.785439 1647.7844282 1776.278483 1741.661466 1741.319206 1740.868779 1740.840343 1740.8397973 3341.375203 3119.123132 3113.835167 3111.525066 3111.326191 3111.3227154 5174.353866 4600.595156 4567.688849 4562.562379 4561.819768 4561.8173075 5678.184561 4870.575795 4829.702095 4824.125665 4823.253509 4823.2486786 8315.400602 7380.832845 7379.960217 7379.515018 7379.482416 7379.4823227 8047.936309 7532.305498 7506.784243 7499.1440498 8272.611818 8047.936313 8047.936297 8047.9363129 11167.56472 9997.484917 9931.261415 9922.385851
In vibration problems, which leads to an eigenvalue problem, truncation errors occurs in upper bound(see proofs in Carey and Oden (1984) and Arndt (2009)). By this statement, the results in Table 1 showsthat adaptive GFEM presents the best approach for the free vibration truss problem, followed by GFEMand CEM with 5 enrichment functions.
3.3.2 IGA Natural Vibration Frequencies
Table 2 shows the results for IGA with polynomial degrees p = 2, 3 and 4. Routines uses non repeatedinterior knots, generating high continuity in interior, typical procedure from k refinement.
Tabela 2: Seven Bar Truss Natural Vibration Frequencies developed in IGA
IGA p = 2 IGA p = 3 IGA p = 4i 13 dgof 20 dgof 34 dgof
ωi (rad/s) ωi (rad/s) ωi (rad/s)1 1648.06320092 1647.78555214 1647.784440272 1741.21025463 1740.84082235 1740.839809453 3117.08579405 3111.40375945 3111.322747884 4597.86055319 4562.60137052 4561.817653045 4869.00145652 4825.08885595 4823.249436136 7430.30350284 7429.37528256 7379.541335697 8100.92593226 7502.19348783 7499.170331418 8273.78472987 8100.92593226 8047.995578869 11364.16244158 10086.2045829 9923.15407939
4 CONCLUSIONS
This work tested the efficacy of Isogeometric Analysis for the free vibration of trusses. The resultsshows high convergence for IGA and the most refined frequency set can reach adptive GFEM accuracyproposed by Arndt et al. (2010).
The same spectrum behaviour presented by Cottrell et al. (2006) cannot be generalized to trusses.The results shows that accuracy is lost when rods are linked. The same investigation to other trussesgeometry is suggested to extend this verification.
ACKNOWLEDGEMENTS
The authors acknowledge CNPQ (Conselho Nacional de Desenvolvimento Científico e Tecnológico)by the support in this research.
V Simposio de Metodos Numericos Computacionais
245
REFERENCES
Arndt M. O Método dos Elementos Finitos Generalizados Aplicado À Análise de Vibrações Livresde Estruturas Reticuladas. Ph.D. thesis, Programa de Pós-Graduação em Métodos Numéricos emEngenharia, Curitiba, 2009. Doutorado em Método Numéricos em Engenharia.
Arndt M., Machado R.D., and Scremin A. An adaptive generalized finite element method applied to freevibration analysis of straight bars and trusses. Journal of Sound and Vibration, 329:659–672, 2010.
Bathe K.J. Finite Element Procedures. Prentice Hall, New Jersey, 1996.Carey G.F. and Oden J.T. Finite Element, volume 2: A Second Course. Prentice Hall, New Jersey, 1984.Cottrell J.A., Bazilevs Y., and Hughes T.J.R. Isogeometric Analysis: Toward Integration of CAD and
FEA. John Wiley & Sons, USA, 1st edition edition, 2009.Cottrell J.A., Hughes A.T.J.R., and Reali A. Studies of refinement and continuity in isogeometric struc-
tural analysis. Computer Methods in Applied Mechanics and Engineering, 196:4160–4183, 2007.Cottrell J.A., Reali A., Bazilevs Y., and Hughes T.J.R. Isogeometric analysis of structural vibrations.
Computer Methods in Applied Mechanics and Engineering, 195:5257–5196, 2006.Cox M.G. The numerical evaluation of b-splines. IMA Journal of Applied Mathematics, 10(2):134–149,
1972.De-Boor C. On calculation of b-splines. Journal of Approximation Theory, 6:50–62, 1972.Hughes T.J.R., Cottrell J.A., and Bazilevs Y. Isogeometric analysis: Cad, finite elements, nurbs, exact ge-
ometry and mesh refinement. Computer Methods in Applied Mechanics and Engineering, 194:4135–4195, 2005.
Piegl L. and Tiller W. The NURBS Book (2Nd Ed.). Springer-Verlag New York, Inc., New York, NY,USA, 1997. ISBN 3-540-61545-8.
Rauen M. Análise Isogeométrica Aplicada ao Problema de Vibração Livre na Mecânica das Estruturas.Master’s Thesis, Universidade Federal do Paraná, 2014.
Rauen M., Machado R.D., and Arndt M. Comparison between the isogeometric analysis and the enrichedmethods to the problem of free vibration of bars. In Proceedings of the XXXIV Ibero-Latin AmericanCongress on Computational Methods in Engineering. XXXIV Ibero-Latin American Congress onComputational Methods in Engineering, Pirenópolis, Brazil, 2013.
Zeng P. Composite element method for vibration analysis of structures, part i: principle and c0 element(bar). Journal of Sound and Vibration, 218(4):619–658, 1998a.
V Simposio de Metodos Numericos Computacionais
246
V Simposio de Metodos Numericos Computacionais
APLICAÇÃO DA ANÁLISE MULTIVARIADA NA DETERMINAÇÃO
DOS INDICADORES DOS MUNICÍPIOS PARANAENSES
Resumo: O método estatístico de análise fatorial foi essencial para o desenvolvimento deste
trabalho. A partir de uma matriz de dados disponibilizada pelo Instituto Paranaense de
Desenvolvimento Econômico e Social (IPARDES) no último Anuário Estatístico do Estado do
Paraná de 2013, cujas 399 linhas representam os municípios paranaenses enquanto as 62
colunas trazem informações sobre economia e educação, urbanização e social, envelhecimento
populacional, infraestrutura e características demográficas, foram determinados fatores
sintéticos por meio da aplicação da análise fatorial em conjunto com a análise de componentes
principais, sendo possível traçar o perfil de cada município, permitindo estabelecer quais as
cidades que possuem alto ou baixo potencial de desenvolvimento em relação a cada fator
extraído. Os resultados encontrados com a aplicação dos métodos estatísticos foram preparados
através do software MATLAB, obtendo informações que podem facilitar a aplicação de
mecanismos e tomada de decisão para o planejamento governamental, gerando promoção e
alocação de investimentos nas cidades, afim de minimizar as distorções entre elas.
Palavras-Chave: Análise fatorial, análise de componentes principais, potencial de
desenvolvimento, municípios paranaenses.
1 INTRODUÇÃO
O Instituto Paranaense de Desenvolvimento Econômico e Social (IPARDES) traz em seu
último anuário, Anuário Estatístico do Estado do Paraná de 2013, informações das pesquisas
realizadas pelo Instituto Brasileiro de Geografia e Estatística (IBGE) e de outras fontes, tais
como COPEL, SANEPAR, SEED-PR, exibindo dados estatísticos sobre a realidade estadual,
os quais permitem conhecer e analisar o comportamento socioeconômico e ambiental de seus
399 municípios.
O presente trabalho é motivado pela proposta de aplicar técnicas de análise multivariada, tais
como método das componentes principais e análise fatorial (AF) afim de criar indicadores
sintéticos para os municípios paranaenses, realizar um estudo das determinações das dimensões
econômicas, saúde, educacional e social, além de determinar indicadores por dimensão,
indicadores globais e por fim, classificar os municípios de acordo com os indicadores obtidos,
permitindo estabelecer quem são aqueles com maior ou menor potencialidade de
desenvolvimento tanto industrial como comercial, educacional, de serviços e social. Este
estudo auxilia na construção do perfil de cada município, podendo facilitar a aplicação de
mecanismos e tomada de decisão para o planejamento governamental, gerando promoção e
Michely Castro dos Santos
247
alocação de investimentos nas cidades, afim de amenizar as distorções entre elas.
2 METODOLOGIA
2.1 Análise Fatorial
A análise estatística univariada, por melhor explorada que seja, pode não ser o suficiente diante
da necessidade do pesquisador que busca informações sobre os fenômenos que interagem no
processo em estudo. Logo, há a necessidade da aplicação das técnicas da estatística
multivariada, visto que a mesma estuda a relação (ou parte sistemática) que há entre todas as
variáveis simultaneamente e obtém informações sobre o todo de maneira sumarizada
(MINGOTI, 2005), isto é, a estatística multivariada permite o estudo de fenômenos complexos,
pois realiza o tratamento de diversas variáveis simultaneamente, mesmo quando não se conhece
o modelo teórico que as relaciona (JOHNSON& WICHERN, 2002).
A Análise Fatorial (AF) é uma das técnicas de estatística multivariada e será essencial no
desenvolvimento deste trabalho. Seu propósito essencial é descrever, se possível, as relações
de covariância entre muitas variáveis observáveis em termos de poucas variáveis aleatórias
não-observáveis, chamadas de fatores. Basicamente, cada fator define um grupo onde as
variáveis originais tenham correlação muito alta, mas que relativamente tenham baixa
correlação com variáveis de grupos diferentes definidos por outros fatores. Com este estudo é
possível saber quanto cada fator está associado a cada variável observável e ainda se permite a
explicação da variabilidade do conjunto de dados iniciais.
Conforme Marques (2015), seja 𝑋 ~ ∙ (𝜇 , ∑ ), com 𝑝 componentes, o modelo fatorial de 𝑋 é
linearmente dependente sobre as variáveis aleatórias(v.a) não observáveis 𝐹1, 𝐹2,..., 𝐹𝑚, com
𝑚 ≤ 𝑝, chamadas de fatores comuns e 𝑝 fontes de variação aditiva 𝜀1, 𝜀2,... , 𝜀𝑝, chamadas de
erros, o modelo de análise fatorial é dado por:
𝑋1 − 𝜇1 = 𝑙11𝐹1 + 𝑙12𝐹2 + ⋯ + 𝑙1𝑚𝐹𝑚 + 𝜀1
𝑋2 − 𝜇2 = 𝑙21𝐹1 + 𝑙22𝐹2 + ⋯ + 𝑙2𝑚𝐹𝑚 + 𝜀2
…
𝑋𝑝 − 𝜇𝑝 = 𝑙𝑝1𝐹1 + 𝑙𝑝2𝐹2 + ⋯ + 𝑙𝑝𝑚𝐹𝑚 + 𝜀𝑝
Onde 𝜇𝑖 representa a média da v.a 𝑋𝑖, ∀𝑖 ∈ [1, 𝑝] e 𝑙𝑖𝑗 o peso ou carregamento da v.a 𝑋𝑖 em
relação ao fator 𝐹𝑗, ∀(𝑖, 𝑗) ∈ [1, 𝑝] × [1, 𝑚]. Cada 𝑙𝑖𝑗 indica o grau de correspondência entre a
variável e o fator. Ou na forma matricial:
𝑋 − 𝜇 = 𝐿 𝐹 + 𝜀 (1) (𝑚 × 1) (𝑚 × 1) (𝑝 × 𝑚)(𝑚 × 1) (𝑝 × 1)
Repare que o número de fatores 𝑚 deve ser menor ou igual ao número de variáveis observáveis
𝑝, pois a análise fatorial se torna vantajosa apenas quando o número de fatores é muito menor
que o número de variáveis originais.
Entendido esta estrutura, aplicam-se dois testes. O de adequabilidade da amostra de Kaiser-
Meyer-Olkin (KMO), o qual fornece uma medida e caso seja um valor entre 0,5 a 1,0 indica
que a técnica de AF é apropriada. Já o teste de esfericidade de Bartlett verifica se as variáveis
são independentes, e caso sejam, a matriz de correlação R é a matriz identidade, portanto o
método de AF é inapropriado nesta situação.
Sendo provada a adequabilidade da AF, primeiramente se calcula a matriz de correlação R das
v.a. Assim, poderá ser observado quão relacionadas estão, afim de identificarmos grupos de
v.a com forte correlação entre si e baixa associação com as v.a dos demais grupos.
Em seguida, se calcula os autovalores da matriz R e pelo Critério de Kaiser são considerados
apenas aqueles maiores que um. Considerando do maior autovalor ao menor, cada um reflete
a importância de um fator, sendo que a variabilidade de cada fator é dada pela razão do
V Simposio de Metodos Numericos Computacionais
248
autovalor correspondente, pela soma de todos os autovalores. Porém, não se faz necessário
trabalhar com todos os autovalores, basta escolher aqueles que representam a maior
variabilidade total dos dados. De acordo com Mingoti (2005), o número de fatores a serem
considerados deve refletir pelo menos 70% da variabilidade original dos dados, contudo, esta
não é a única forma de tomada de decisão.
Através do método das componentes principais extraímos os fatores e seus respectivos pesos
fatoriais 𝑙𝑖𝑗, que no caso da análise fatorial ortogonal, é dada pela covariância entre cada v.a
𝑋𝑖 e fator 𝐹𝑗. Sendo assim, quanto maior o peso fatorial, maior a correlação da variável com
aquele fator.
A comunalidade é outro importante valor a ser calculado, sendo está uma porção da variância
da v.a 𝑋𝑖, dada pelas somas dos quadrados dos pesos correspondentes de cada fator 𝐹𝑗. Isto é:
ℎ𝑖2 = 𝑙𝑖1
2 + 𝑙𝑖22 + ⋯ + 𝑙𝑖𝑚
2 (2)
Sendo assim, quanto mais alto for este valor, melhor a chance de se estar trabalhando com um
modelo fatorial adequado.
O procedimento a ser tomado após a extração dos fatores é a interpretação dos dados, sendo
assim, deve estar claro qual a contribuição de cada v.a a um fator, porém quando existe mais
de um fator e os pesos referentes a cada um não são claros, pode ser adotado o método de
rotação Varimax, que tem por finalidade rotacionar os eixos coordenados, procurando dar aos
fatores maior clareza para interpretação, pois para cada v.a haverá um grande peso fatorial de
contribuição para apenas um fator e pequenas contribuições aos demais fatores.
Por fim, através da matriz de resíduos poderá se analisar o ajuste do modelo, pois ela traz
informações das diferenças entre as covariâncias originais e as covariâncias ajustadas, portanto
quanto menor o resíduo melhor o ajuste. Se a matriz residual é composta por zero em sua
diagonal principal e se os demais elementos forem também tão pequenos trata-se de um modelo
bem ajustado pelo método das componentes principais, caso contrário os erros podem causar
grandes falhas na interpretação.
3 RESULTADO
Para este estudo foi montada uma matriz de dados, onde as colunas representam 62 variáveis
observáveis, também chamadas de variáveis originais, escolhidas entre todos os dados
coletados pelo Anuário Estatístico do Estado do Paraná de 2013, de modo que 14 delas trazem
informações sobre características sociais da população, 14 sobre economia, 12 sobre educação,
9 em saúde, 8 em infraestrutura e 5 sobre características demográficas, referentes a todos os
399 municípios do estado.
Primeiramente, com o auxílio do software MATLAB, aplica-se o teste de KMO, obtendo o
valor 0,9010, o qual indica que a AF é apropriada por se tratar de um valor tão próximo de um.
Na realização de um segundo teste, Esfericidade de Bartlett, notou-se que é improvável a matriz
de correlação ser equivalente à matriz identidade e isto é representado pelo valor 117140, índice
alto estatisticamente significante, mostrando que correlações suficientes existem entre as
variáveis para se continuar a análise.
Na sequência, encontra-se a matriz de correlação R das variáveis observáveis e por meio do
método de componentes principais os fatores necessários para representá-las. A escolha da
quantidade de fatores foi determinada através do Critério de Kaiser (quantidade de autovalores
maiores que um). Como R possui 8 autovalores com esta característica, foram encontrados 8
fatores para explicar o sistema de dados. E com a aplicação da análise fatorial à matriz de
tratamento é possível considerar apenas os três primeiros fatores que juntos explicam pouco
mais de 82% da variância total, conforme representado na Tabela 1.
V Simposio de Metodos Numericos Computacionais
249
Tabela 1: Fatores, autovalores e percentual de variância acumulada.
Fatores F1 F2 F3 F4 F5 F6 F7 F8
Autovalor 42,47 5,57 2,85 2,45 1,95 1,50 1,15 1,10
Variância
Acumulada
(%)
68,51
77,49
82,09
86,03
89,18
91,60
93,45
95,23
Na Tabela 2 o critério Varimax também é apresentado com a finalidade de facilitar a
interpretação dos resultados. Tabela 2: Rotação Varimax - Fatores, autovalores e percentual de variância acumulada.
Fatores F1 F2 F3 F4 F5 F6 F7 F8
Autovalor 42,47 5,57 2,85 2,45 1,95 1,50 1,15 1,10
Variância
Acumulada
(%)
67,01
72,88
76,49
80,48
84,24
87,73
93,33
95,23
Pelas Tabelas 1 e 2 observa-se que os fatores 1, 2 e 3, sem rotação, são responsáveis por 82,09%
da explicação do sistema de dados originais ou 76,49% com rotação Varimax. Em ambos
métodos, verificou-se que as comunalidades estão acima de 0,70, portanto a variabilidade das
variáveis originais é explicada pelos fatores. Este resultado induz a pertinência do uso da AF
para a matriz de tratamento. E a matriz residual, com os elementos da diagonal principal sendo
nulos e os demais valores muito próximos de zero, confirma um bom ajuste do modelo.
Em relação ao critério de rotação Varimax, o fator 1 representa 67,01% da variabilidade total
explicada pelos dados e é composto por 43 variáveis originais, representando o indicador
econômico e educacional, por apresentarem maior número de variáveis com tais características.
O fator 2 explica 5,87% do sistema com 5 variáveis originais, caracterizado como indicador de
urbanização e social. Por fim, o fator 3, responsável por 3,61% da variabilidade total, composto
por duas variáveis originais, denominado indicador de envelhecimento populacional.
Através dos escores fatoriais foi possível ranquear os municípios paranaenses em relação aos
indicadores sintéticos: fator 1, fator 2 e fator 3. Por exemplo, em relação ao fator 1, cidades
como Curitiba, Londrina, Maringá, Foz do Iguaçu, Cascavel, Ponta Grossa, São José dos
Pinhais, Toledo, Guarapuava, Araucária e Colombo apresentaram os maiores valores para o
indicador econômico e educacional, enquanto as demais cidades se mantiveram equilibradas.
Para o fator 2, a capital paranaense manteve um bom escore, mas municípios do interior
apresentaram os escores mais elevados, tais como Mandirituba, Laranjal, Morretes,
representando bons indicadores de urbanização e social, enquanto Londrina, Maringá e Foz do
Iguaçu são exemplos que apresentaram escores negativos. O fator 3, caracterizado pelo
indicador de envelhecimento populacional, Curitiba novamente aponta alto valor de escore,
junto com algumas cidades do interior do estado, como Doutor Camargo, Esperança Nova,
Japurá e Lupionópolis, porém Colombo, Campo Magro, Araucária e Cambé apresentaram
escores negativos.
Ao calcular os escores finais ponderados é possível notar que Curitiba, Londrina, Maringá,
Ponta Grossa, Cascavel e São José dos Pinhais são os municípios com maior potencial de
desenvolvimento, enquanto Saudade do Iguaçu, Quatro Barras, Cafelândia, Douradina, Balsa
V Simposio de Metodos Numericos Computacionais
250
Nova atingiram os piores índices de desenvolvimento. Destaque para a capital paranaense, que
em todas as análises apresentou alto escore para os três fatores.
A Tabela 3 exibe dez municípios ranqueados, cada um com seu respectivo escore fatorial final
ponderado, referente ao desempenho geral nos três fatores estudados: educação e economia,
urbanização e social, envelhecimento populacional. De modo que os cinco primeiros
apresentaram o melhor desempenho, enquanto os cinco últimos, os piores em relação a todos
os municípios do estado. Tabela 3: Municípios ranqueados e escore fatorial final
MUNICÍPIO ESCORE
FATORIAL
Curitiba 12,7783
Londrina 2,8969
Maringá 2,1209
Ponta Grossa 1,3812
Cascavel 1,2245
Balsa Nova -0,4294
Douradina -0,4303
Cafelândia -0,4383
Quatro Barras -0,4705
Saudade do Iguaçu -0,4732
Para maior clareza e interpretação dos resultados da tabela acima, serão definidos indicadores
sintéticos finais. Sendo assim, tomando como base Curitiba e Saudade do Iguaçu, está por
apresentar o menor escore ponderado (-0,4732) e a capital paranaense pelo melhor desempenho
(12,7783), considera-se então o menor valor (-0,4732) igual a 0 (zero) e o maior escore
(12,7783) igual a 1 (um) e através da regra de três são determinados os demais indicadores
sintéticos, isto é:
Primeiramente, calcula-se 𝐸𝑇, a diferente entre os escores finais de Curitiba e Saudade do
Iguaçu.
𝐸𝑇 = Escore de Curitiba − Escore de Saudade do Iguaçu = 12,7783 − (−0,4732)
∴ 𝐸𝑇 = 13,2515. Em seguida, a diferença entre os escores finais de cada um dos demais municípios com
Saudade do Iguaçu. Por exemplo, para Londrina:
𝐸1 = Escore de Londrina − Escore de Saudade do Iguaçu = 2,8969 − (−0,4732)
∴ 𝐸1 = 3,3701.
Por meio de regra de três:
1
1TE
E x
13,2515 1
3,3701 x
3,3701
13,2515x 0,2543.x
Portanto, o valor 0,2543 é o indicador sintético referente ao município de Londrina.
Procedendo do mesmo modo para Maringá, Ponta Grossa, Cascavel, Balsa Nova, Douradina,
Cafelândia e Quatro Barras, obtém-se a Tabela 4.
V Simposio de Metodos Numericos Computacionais
251
Tabela 4: Municípios ranqueados e indicador sintético
MUNICÍPIO INDICADOR
SINTÉTICO
Curitiba 1
Londrina 0,2543
Maringá 0,1957
Ponta Grossa 0,1399
Cascavel 0,1281
Balsa Nova 0,003305
Douradina 0,003237
Cafelândia 0,002633
Quatro Barras 0,0002037
Saudade do Iguaçu 0,000000000
Esses valores permitem uma comparação entre eles. Quanto mais próximo de 1 estiver o
indicador sintético, maior o potencial de desenvolvimento do município. Note também a
diferença entre Londrina e Curitiba, mesmo aquele sendo considerado com segundo melhor
potencial nas áreas dos fatores estudados, há uma diferença bastante significativa ao se
considerar o indicador sintético final. Para os últimos cinco municípios, observa-se a
necessidade de criação de uma política social e econômica para elaboração de programas ou
investimentos que venham melhorar esse quadro.
4 CONCLUSÕES
Por meio da análise fatorial foram determinados três fatores sintéticos, os quais ajudam a traçar
os perfis dos municípios do estado do Paraná. E a partir da análise dos indicadores de
desenvolvimento econômico e educacional, urbanização e social e de envelhecimento
populacional, estabeleceu-se quais as cidades que possuem alto ou baixo potencial de
desenvolvimento nas áreas citadas. Este estudo pode facilitar aplicação de mecanismos e
tomada de decisão para o planejamento governamental, gerando promoção e alocação de
investimentos afim de melhorar o desenvolvimento dos 399 municípios paranaenses e amenizar
as distorções entre eles.
Foi possível notar a relevância das grandes cidades no escore final, caracterizadas pelo alto
potencial de desenvolvimento econômico e educacional. E a relevância dos pequenos
municípios na área social e de envelhecimento populacional. Destaque para a capital do estado,
pois alcançou o mais alto escore em relação aos fatores estudados.
REFERÊNCIAS
Instituto Paranaense de Desenvolvimento Econômico e Social - IPARDES. Anuário Estatístico
do Estado do Paraná 2013. Acesso em: 29 de março de 2015. Disponível em:
<http://www.ipardes.pr.gov.br/anuario_2013/index.html>.
HAIR JR. J.F, Análise Multivariada de dados, Porto Alegre: Bookman, 2009.
JOHNSON, R.A, WICHERN, D.W, Applied Multivariate Statistical Analysis, 5ª ed, Ney
Jersey: Prentice-Hall, 2002.
MARQUES, J.M, Notas de aula de análise multivariada aplicada à pesquisa, Curitiba: UFPR,
2015.
V Simposio de Metodos Numericos Computacionais
252
MINGOTI, S.A, Análise de dados através de métodos de estatística multivariada: uma
abordagem aplicada. Belo Horizonte: Editora UFMG, 2005.
MORRISON, D. F, Multivariate Statistical Methods, Tokyo: McGraw-Hill, 1976.
REZENDE, M.L, FERNANDES, L.P.S, SILVA, A.M.R, Utilização da Análise Fatorial para
determinar o potencial de crescimento econômico em uma região do sudeste do Brasil, Revista
Economia e Desenvolvimento, n 19, 2007.
SILVA, N.C.N, FERREIRA, W.L, CIRILLO, M.A, SCALON, J.D, O uso da análise fatorial
na descrição e identificação dos perfis característicos de municípios de Minas Gerais, Rev.
Bras. Biom, São Paulo, v.32, n2, p.201-2015, 2014.
V Simposio de Metodos Numericos Computacionais
253
V Simposio de Metodos Numericos Computacionais
DADOS MULTIDIMENSIONAIS: REDUÇÃO DE DIMENSÕES,QUALIDADE E VISUALIZAÇÃO
Resumo: No trabalho é realizado um estudo bibliográfico a respeito de método de redução dimensional e demedidas de qualidade para estes métodos com o objetivo de identificar um ou mais métodos viáveis para comporuma solução interativa de análise de dados através da geração de imagens tridimensionais.
Palavras-Chave: Redução Dimensional, Escala Multidimensional (MDS), Visualização Científica
1 INTRODUÇÃO
Uma grande parcela dos processos ou fenômenos reais que são estudados apresentam dados multi-dimensionais, ou seja, possuem um grande conjunto de características distintas. Para que os analistasconsigam compreender e tirar conclusões a partir destes dados, é necessário que sejam criadas represen-tações ou projeções dos mesmos em duas ou três dimensões. O ideal seria que estas projeções contassemcom o mínimo de dimensões, ou características, necessárias para representar o conjunto original, o quenem sempre é possível, pois os dispositivos utilizados normalmente representam apenas duas ou três di-mensões, além do que a compreensão de um conjunto maior de dimensões é bastante difícil (VAN DERMAATEN et al., 2009).
O presente trabalho visa estudar as características dos principais algoritmos de Redução Dimensional(RD), juntamente com os métodos de avaliação dos seus resultados, para de identificar um ou maismétodos viáveis para a projeção de um conjunto n-dimensional em um plano cartesiano de maneira queo mesmo possa compor uma solução interativa para análise de dados.
Este artigo está organizado da seguinte forma: na próxima seção são apresentados os conceitos edescrições a respeito dos métodos de RD, depois na seção 3 alguns dos estudos a respeito dos problemase da qualidade das projeções resultantes da RD são discutidos, na sequencia a seção 4 aborda métodosde geração de imagens para representar conjuntos de dados e por último são apresentadas consideraçõesa respeito dos métodos e algoritmos discutidos no trabalho.
2 REDUÇÃO DIMENSIONAL
Conjuntos multidimensionais são o resultado de processos em diferentes áreas, como os arquivos con-tendo sinais de áudio ou imagem digitais, os resultados de um escaneamento por ressonância magnética,sequencias de DNA, dentre muitas outras. A classificação, compreensão e visualização de conjuntosmultidimensionais são alguns dos processos facilitados pela aplicação dos métodos de RD (VAN DERMAATEN et al., 2009).
Miguel Diogenes Matrakas, Sergio Scheer
254
O procedimento de RD consiste em mapear os elementos de um conjunto com n dimensões para umarepresentação que mantenha, da melhor forma possível, as relações entre elementos e seus agrupamentosem um conjunto com m dimensões, com m << n (VAN DER MAATEN et al., 2009; ADHIANTO etal., 2013). Portanto, para um conjunto de h elementos Xn = xi ∈ Rn1≤i≤h, um algoritmo de RD podeser interpretado como uma função
f : Rn × T → Rm (1)
que mapeia cada um dos xi elementos em um novo elemento yi no espaço Rm (MARTINS et al., 2014)..
Um conjunto multidimensional após a realização da redução de dimensões deve manter as relaçõesde vizinhança entre os vetores, ou seja, um conjunto de pontos próximos no espaço n-dimensional devetambém formar um conjunto de vizinhos na projeção dos dados. Cada um dos métodos de RD apresen-tam uma peculiaridade com relação à disposição da vizinhança dos pontos projetados (MARTINS et al.,2014). .2.1 Métodos de Redução de dimensões
Existem dezenas de métodos utilizadas para realizar a RD apresentadas na literatura, classificadas deacordo com o método utilizado para calcular a função f , apresentada na equação 1. Alguns dos métodosmais utilizados são a Classical Scaling (MDS - Multidimensional Scaling), Análise de ComponentesPrincipais (PCA - Principal Components Analysis), Isomap, Maximum Variance Unfolding (MVU), Lo-cally Linear Embeding (LLE), Stochastic Neighbor Embedding (SNE), Stochastic Proximity Embedding(SPE) e Redes Neurais Artificiais. Esta lista não tem a pretensão de ser completa ou qualificar os méto-dos, mas sim apresentar um conjunto dos mais citados, de maneira a expor a diversidade de abordagensao problema de RD. Alguns destes métodos são brevemente descritos a seguir:
Classical Scaling (MDS) segundo BORG AND GROENEN (2005) , consiste em, a partir de umamatriz X de elementos no espaço n-dimensional, calcular uma matriz ∆2 com os quadrados dasdissimilaridades destes elementos, para em seguida aplicar a operação denominada centralizaçãodupla (double centering) que consiste em calcular a matriz B∆, dada por B∆ = −1/2 J ∆2 J sendoJ a matriz de centralização dada por: J = I − n−1 U , onde I é a matriz identidade, U é umamatriz cujos elementos são iguais a 1 e n é o número de dimensões do conjunto de elementos.
A matriz ∆2 deve ser decomposta em seus autovalores e autovetores, de modo que: B∆ = QΛQ′
de tal modo que QΛQ′ = (QΛ1/2)(QΛ1/2)′ = Y Y ′.
Após a decomposição, considera-se a matriz formada pelos primeiros m autovalores maiores quezero para compor a uma matriz Λ+ eQ+ a matriz formada pelas primeirasm colunas deQ, fazendocom que a matriz de coordenadas resultante seja: Y = Q+Λ
1/2+
Este método minimiza a função de perda dada por L(Y ) = ‖Y Y ′ −B∆‖2
SMACOF conforme descrito no trabalho de (BORG AND GROENEN (2005) resolve o Multidimen-sional Scaling por um processo iterativo, ou seja, é um algoritmo para minimizar o valor da funçãoStress, cujo acrônimo significa “Scaling by Mojorizing a Complicated Function”. Portanto, a par-tir de uma matriz X de elementos no espaço n-dimensional e da matriz ∆ que é formada pelasdissimilaridades destes elementos, a função Stress representa as diferenças entre as medidas dasdissimilaridades representadas na matriz ∆ e os valores de distância entre as projeções dos ele-mentos de X no espaço m-dimensional.
A função Stress é escrita como:
σr(Y ) =∑
i<j
wi j(δi j − di j(Y ))2 (2)
onde w é uma matriz de pesos, δi j são os elementos da matriz de dissimilaridades e di j são os ele-mentos da matriz de distância entre os componentes Y , que é a matriz de projeções dos elementosde X .
V Simposio de Metodos Numericos Computacionais
255
O algoritmo consiste em, a partir de uma projeção inicial Y , não aleatória, calcular as diferençasentre as distâncias utilizando a função Stress, e enquanto o seu valor for maior que um limitede precisão, ou um máximo de iterações não for atingido, atualizar a matriz Y utilizando Y u =n−1B(Y )Y no caso da matriz de pesos ter todos os elementos iguais a 1, ou Y u = V +B(Y )Ycaso contrário, sendo a matriz V + a inversa das somas ponderadas das distâncias entre elementosde Y , e B(Y ) a matriz formada pela razão ponderada entre as dissimilaridades dos elementos deX e Y .
Principal Components Analysis (PCA) é descrito por VAN DER MAATEN et al. (2009) como sendomatematicamente equivalente ao método Classical Scaling, pois em ambos os métodos o obje-tivo é minimizar a função de perda, ou seja, busca-se uma representação para os dados na qualas diferenças de valores para uma determinada medida de distância, aplicada entre os pares deelementos, seja a menor possível. Para o Classical Scaling utiliza-se a Distância Euclidiana e noPCA é utilizada a matriz de covariâncias dos elementos.
Da mesma forma que no MDS, o PCA resolve uma decomposição em autovalores da seguinteforma cov(X)M = λM na qual M representa a matriz que mapeia os elementos do espaço n-dimensional para o espaço m-dimensional, e λ é a matriz formada pelos autovalores de cov(X).
Isomap é um método propostos por TANENBAUM et al. (2000) de maneira a trabalhar com as dis-tância geodésicas e não com as distâncias Euclidiana entre os elementos do conjunto de pontos noespaço n-dimensional. O objetivo é capturar a geometria dos pontos no conjunto n-dimensional emante-la na projeção.
A redução dimensional é realizada utilizando-se o Classical Scaling, porém para trabalhar comas distâncias geodésicas, para cada elemento são calculados os seus k vizinhos mais próximos,formando assim um grafo conectado, e a partir deste, o menor caminho entre cada par de elementoscorresponde à sua distância, que pode ser calculada por algoritmos como o caminho mais curto deDjikstra ou Floyd (VAN DER MAATEN et al., 2009) .
Stochastic Proximity Embedding (SPE) está descrito no trabalho de NAJIM AND LIM (2014) comoum método não linear e iterativo, que consiste em atualizar as projeções de cada elemento con-siderando as suas distâncias aos demais componentes do conjunto que sejam menores que um raiorC .
A partir de uma projeção aleatória inicial, um ponto i é sorteado e utilizado para ajustar as coor-denadas de todos os demais elementos da projeção utilizando a seguinte regra:
yj = yj + λ(tk)S(δi j)δi j − di jdi j + ε
(yj − yi) (3)
S(δi j) =
1 se( (δi j ≤ rC) ∧ ( (δi j > rC) ∨ (di j < δi j) ) )
0 caso contrário(4)
onde xi e xj representam as coordenadas dos elementos i e j, λ(tk) é a taxa de aprendizado, ε éuma constante para evitar divisão por 0, δi j representa a distância entre os elementos no espaçon-dimensional e di j a distâncias de suas projeções no espaço m-dimensional.
3 QUALIDADE DOS MÉTODOS DE REDUÇÃO DIMENSIONAL
Levando em consideração que cada um dos métodos de RD está melhor adaptada a um determinadopadrão nos dados de origem, vários estudos foram realizados com o intuito de verificar o desempenhoe acurácia de cada algoritmo, além de métricas de avaliação, ou sistemas de verificação e comparaçãodos resultados (MARTINS et al., 2014; MOKBEL et al., 2013; VAN DER MAATEN et al., 2009;ISENBERG et al., 2013) .
O resultado de um método para realizar RD depende de como são consideradas as medidas de si-milaridade entre os elementos do conjunto. Os métodos lineares, como MDS e PCA utilizam relações
V Simposio de Metodos Numericos Computacionais
256
globais, já métodos como SPE e Isomap levam em consideração as distâncias locais, ou seja, consideramas características de relacionamento entre os elementos mais próximos uns dos outros. Estas abordagensgeram resultados com distintos graus de preservação das distâncias entre pares de elementos no espaçom-dimensional.
Os autores MARTINS et al. (2014) apresentam um sistema para avaliar diversos aspectos do pro-cesso de RD, no qual as relações entre as características dos conjuntos n e m-dimensionais podem serestudadas de acordo com as seguintes definições: Falsos vizinhos Considerando um ponto xi e sua pro-jeção yi, para que ocorra a preservação de sua vizinhança, todos os vizinhos de yi também devem estarpróximos de xi. Caso exista um ponto yj vizinho a yi, correspondente a um ponto xj que não pertenceà vizinhança de xi, então yj é considerado como um falso vizinho de yi; Vizinhos desaparecidos Casoexista um ponto xj vizinho a um poto xi, e cuja projeção yj não pertence à vizinhança de yi, então yj éconsiderado um vizinho desaparecido de yi; Grupos Os conceitos de falsos vizinhos e vizinhos desapare-cidos podem ser generalizados para grupos, considerando que grupos de elementos próximos no espaçon-dimensional devem formar também grupos de elementos no espaço m-dimensional. Assim pode-segeneralizar falsos vizinhos em falsos membros e vizinhos desaparecidos em membros desaparecidos.
No trabalho de MOKBEL et al. (2013) , cujo objetivo é aprimorar a avaliação baseada em matrizesde ordem, são apresentadas uma revisão e a taxonomia para critérios de avaliação de métodos de RD,levando em consideração que a formalização das avaliações podem ajudar na comparação entre diferen-tes métodos de RD ou obter informações qualitativas a respeito de uma determinada visualização obtidaa partir de RD.
4 VISUALIZAÇÃO CIENTÍFICA
WRIGHT (2007) define Visualização como um processo interativo para entender o que gerou, ouproduziu, os dados, e não apenas uma técnica de apresentação destes dados. Afirma também que oser humano compreende naturalmente três dimensões, consequentemente, a compreensão de espaçoscom maior número de dimensões, com exceção do caso especial do tempo, é limitada. Portanto, sefor necessário representar mais variáveis do que podem ser acomodadas com estas restrições, outrosrecursos devem ser utilizados, como cores, sons, animação, ou o que mais estiver disponível.
A redução dimensional, realizada por métodos como os discutidos na seção 2, também faz parte doconjunto de ferramentas disponíveis para a visualização e análise de dados nos quais o número de dimen-sões excede a capacidade de compreensão humana ou de representação em um determinado dispositivo.Para exemplificar esta situação na Figura 1 é apresentado um Bloco tridimensional artificialmente ge-rado, constituído por três campos escalares. Cada campo escalar representa uma variável presente noconjunto de dados, com escalas e taxas de variação distintas. Na Figura 1(a) percebe-se que os valoresvariam em apenas um dos eixos do bloco, pela variação de cores do amarelo até o vermelho, já na Figura1(b) a variação é em outro sentido e com uma amplitude de valores maior que o representado em 1(a).Na Figura 1(c) além da alteração da direção da variação, parte do bloco não está representado, indicandoque ali não ha valores para o escalar sendo visualizado.
Nesta linha, os autores PAO AND MENG (1998) abordam os problemas de se conseguir entender umconjunto de dados multidimensionais e multivariados, apresentando como principal ferramenta os méto-dos de RD, permitindo que os dados sejam visualizados em gráficos (projeções) 2D, o que possibilitaaos analistas entenderem mais facilmente as relações existentes nos dados. Segundo os autores existemtrês aspectos na compreensão de dados multidimensionais: Distribuição dos pontos n-dimensionaisConhecer como os pontos ocupam o espaço de dados respondendo questões como: A distribuição dosdados é uniforme? Ou em aglomerados? Segue a mesma distribuição por todo o espaço, ou é regular emuma região e irregular em outra? Relacionamento funcional Saber se existe uma correspondência entreos valores do campo vetorial do espaço de entrada e o espaço dos valores das propriedades. Formaçãode categorias Criação de aglomerados no espaço de propriedades. Como os pontos no espaço de da-dos se relacionam com as categorias? Elementos próximos no espaço de dados correspondem à mesmacategoria no espaço das propriedades? São estudadas as inconsistências.
DOS SANTOS AND BRONDLIE (2004) realizam a visualização de dados multidimensionais e mul-
V Simposio de Metodos Numericos Computacionais
257
(a) (b) (c)
Figura 1: Visualização de três campos escalares que formam um volume correspondente à representaçãode um bloco artificial de dados
tivariados utilizando filtros para selecionar o conjunto de dimensões a serem visualizadas, a ferramentadescrita apresenta bons resultados para a navegação em conjuntos extensos de dados, porem a visualiza-ção ocorre de forma separada, com um conjunto de dimensões sendo mostrado a cada instante, sendoestas escolhidas pelo usuário da ferramenta.
Os autores GUO et al. (2011) descrevem um método iterativo para definir a Função de Transferência(FT) utilizada na geração de imagens a partir de dados multidimensionais. A FT é criada com o auxílioda visualização dos dados em um diagrama de coordenadas paralelas e projeções dos clusters de dadosprojetados pelo método MDS.4.1 Visualização de volumes
Segundo ENGEL et al. (2006) a geração de representações gráficas de volumes necessita que o meioparticipante seja modelado juntamente com o mecanismo de transporte de energia luminosa, e tanto arepresentação de fenômenos gasosos quanto a visualização científica de dados volumétricos comparti-lham o mesmo mecanismo de propagação da energia luminosa.
No modelo utilizado para realizar a renderização de volumes, assume-se que a luz se propaga emlinhas retas caso não haja interação com o meio. Os três principais tipos de interação que podem ocorrerentre um raio de luz e o meio pelo qual o mesmo está se propagando são: a Emissão, caso no qualo material efetivamente emite luz, aumentando a quantidade de energia que se propaga no meio; aAbsorção que corre quando o material pelo qual o raio de luz está viajando consegue converter energiaradiativa em calor, efetivamente diminuindo a quantidade de energia luminosa; e a Dispersão que é asituação na qual a direção do raio luminoso é alterada pelo meio que o mesmo está atravessando (ENGELet al., 2006; GLASSNER, 1995) .
Ainda segundo ENGEL et al. (2006) a energia de um raio de luz pode ser descrita por sua radiância I ,que é definida pela quantidade de energia radiativaQ por unidade de áreaA, que é medida na projeção aolongo da direção de propagação do raio luminoso indicado por⊥, pelo ângulo do sólido Ω e por unidadede tempo t:
I =dQ
dA⊥ dΩ dt(5)
O modelo tradicional de visualização de dados provenientes de simulações é a geração de uma matrizcom os dados e em seguida realizar a visualização usando métodos tradicionais baseados em interpolaçãolinear. Os autores NELSON et al. (2014) propõem um método para realizar a visualização deste tipo dedados de forma precisa e interativa.
O problema reside em calcular ou obter uma aproximação do valor da integral de renderização devolume, que não possui solução analítica e portanto precisa ser resolvida por técnicas numéricas, que
V Simposio de Metodos Numericos Computacionais
258
introduzem erros na imagem resultante ou levam muito tempo para serem calculadas.O modelo ótico do método utilizado por NELSON et al. (2014) é o emissão-absorção (emission-
absorption), para o qual a irradiação ao longo de um segmento de raio é dada por:
I(a, b) =
∫ b
a
k (f(t)) τ (f(t)) e−∫ ta τ(f(u)) du dt (6)
onde a e b são os limites do segmento e k e τ são a cor e a função de transferência de densidade. f(t) éo campo escalar no ponto de descontinuidade t ao longo do segmento que representa o raio de luz.
Dada a função f , a sua composição com a função de transferência (convolução) resulta em umafunção contínua e derivável apenas em um conjunto finito de pontos de descontinuidade. O cálculoda integral de visualização requer o conhecimento destes pontos, apesar de ser uma solução possívele atraente, é computacionalmente proibitiva. A convergência de métodos de quadratura de alta ordemassume funções suaves (smooth - funções que possuem derivadas de todas as ordens), o que é violadopelos pontos de descontinuidade neste caso.
ENGEL et al. (2006) define a equação para visualização de volumes como:
I(D) = I0e−
D∫s0
k(t)dt
+
D∫
s0
q(s)e−
D∫sk(t)dt
ds . (7)
Na qual I0 representa a luz que entra no volume pelo ponto s = s0, I(D) representa a quantidade de luzque sai do volume pelo ponto s = D e chega até a câmera. O conjunto de operações para gerar uma ima-gem representativa de um volume de dados é composto por: Travessia dos dados Definição ou escolhados pontos no volume de dados, serve de base para a discretização da integral de visualização do volumecontínuo. Interpolação Normalmente os pontos de amostragem são diferentes da grade de dados, por-tanto, é necessário reconstruir o espaço contínuo a partir da grade para obter-se os valores das amostras.Cálculo do gradiente O gradiente de um campo escalar normalmente é utilizado na determinação dailuminação local. Classificação Realizada normalmente por funções de transferência, é utilizada paramapear propriedades dos dados em características óticas, geralmente como um conjunto de valores decor e opacidade. Iluminação e sombreamento O sombreamento do volume pode ser incorporado aoprocesso pela adição de um termo de iluminação na integral de visualização - Equação (7). ComposiçãoÉ o processo iterativo para determinar o valor da integral de visualização, que pode realizar o cálculotanto partindo do observador quanto chegando neste.
5 CONSIDERAÇÕES FINAIS
A visualização de dados multidimensionais envolve uma sequencia de procedimentos, sendo umaetapa fundamental a redução do número de dimensões dos dados, para viabilizar a compreensão dasinformações existentes no conjunto de dados.
Os distintos métodos de RD, conforme discutido, possuem características para resolver por diferentesabordagens a transformação ou projeção de espaços necessária para realizar a visualização de dadosmultidimensionais. Sendo que os métodos lineares normalmente enfatizam um determinado conjunto ougrupo de características dos dados originais, já os não lineares procuram manter um outro conjunto derelações, normalmente maior ou mais geral, existentes nos dados de entrada.
Uma consideração importante sobre os métodos de RD e visualização de dados multidimensionaisestudados é que na maioria das aplicações não há uma conservação das posições espaciais do conjuntode pontos de entrada, ou seja, dado um volume da dados, as coordenadas geométricas para um conjuntode características são também incluídas no processo de RD, sendo assim projetadas juntamente com asdemais dimensões na representação final a ser visualizada pelo usuário do sistema.
De acordo com o discutido nas referências apresentadas, não há um método geral para realizar a RD,mas sim métodos mais adequados a um determinado tipo de visualização ou melhor ajustado às carac-terísticas do conjunto de dados de entrada. Métodos mais gerais, como o Classical Scaling e o PCA,
V Simposio de Metodos Numericos Computacionais
259
são utilizados em diferentes abordagens ou aplicações, apesar de sofrerem com a restrição correspon-dente à sua linearidade. Outra característica favorável a estes métodos diz respeito à sua simplicidadee facilidade de implementação. Na maioria dos trabalhos envolvendo estudos ou a proposição de novasabordagens para RD, o Classical Scaling e/ou o PCA são utilizados também como base comparativa dedesempenho e qualidade das respostas, sendo portanto, escolhas aceitáveis para o teste de novas abor-dagens tanto do pré-processamento dos dados como na concepção de novos algoritmos de geração deimagens.
Como desenvolvimento futuro pretende-se utilizar estes métodos de RD para unificar a representaçãoe visualização das dimensões de conjuntos de dados como os apresentados na Figura 1, fornecendo aosespecialistas uma nova abordagem para o estudo de dados n-dimensionais.
REFERENCES
Adhianto L., Banerjee S., Fagan M., Krentel M., Marin G., Mellor-Crummey J., and Tallent N.R. HPC-TOOLKIT: Tools for performance analysis of optimized parallel programs. Concurrency ComputationPractice and Experience, pages 662–682, 2013. ISSN 15320626. doi:10.1002/cpe.
Borg I. and Groenen P.J.F. Modern Multidimensional Scaling. Springer, 2 edition, 2005. ISBN 978-0387-25150-9.
dos Santos S. and Brodlie K. Gaining understanding of multivariate and multidimensional data throughvisualization. Computers & Graphics, 28(3):311–325, 2004. ISSN 00978493. doi:10.1016/j.cag.2004.03.013.
Engel K., Hadwiger M., Kniss J.M., Lefohn A.E., Salama C.R., and Weiskopf D. Real-time volumegraphics. A K Peters, Ltd., Wellesley, Massachusetts, 2006. ISBN 978-1-56881-266-3.
Glassner A.S. Principles of Digital Image Synthesis. Morgan Kaufmann Publishers, INC., San Francisco,CA, 1995. ISBN 1-55860-276-3.
Guo H., Xiao H., and Yuan X. Multi-dimensional transfer function design based on flexible dimensionprojection embedded in parallel coordinates. In IEEE Pacific Visualization Symposium, pages 19–26.IEEE, 2011.
Isenberg T., Isenberg P., Chen J., Sedlmair M., and Moller T. A systematic review on the practice ofevaluating visualization. IEEE Transactions on Visualization and Computer Graphics, 19(12):2818–2827, 2013. ISSN 10772626. doi:10.1109/TVCG.2013.126.
Martins R.M., Coimbra D.B., Minghim R., and Telea a.C. Visual analysis of dimensionality reductionquality for parameterized projections. Computers and Graphics (Pergamon), 41(1):26–42, 2014. ISSN00978493. doi:10.1016/j.cag.2014.01.006.
Mokbel B., Lueks W., Gisbrecht A., and Hammer B. Visualizing the quality of dimensionality reduction.Neurocomputing, 112:109–123, 2013. ISSN 09252312. doi:10.1016/j.neucom.2012.11.046.
Najim S.a. and Lim I.S. Trustworthy dimension reduction for visualization different data sets. Informa-tion Sciences, 278:206–220, 2014. ISSN 00200255. doi:10.1016/j.ins.2014.03.048.
Nelson B., Kirby R.M., and Haimes R. GPU-based volume visualization from high-order finite elementfields. IEEE transactions on visualization and computer graphics, 20(1):70–83, 2014. ISSN 1941-0506. doi:10.1109/TVCG.2013.96.
Pao Y.H. and Meng Z. Visualization and the understanding of multidimensional data. EngineeringApplications of Artificial Intelligence, 11(5):659–667, 1998. ISSN 0952-1976. doi:http://dx.doi.org/10.1016/S0952-1976(98)00031-1.
Tenenbaum J.B., de Silva V., and Langford J.C. A global geometric framework for nonlinear dimen-sionality reduction. Science (New York, N.Y.), 290(5500):2319–23, 2000. ISSN 0036-8075. doi:10.1126/science.290.5500.2319.
Van Der Maaten L.J.P., Postma E.O., and Van Den Herik H.J. Dimensionality Reduction: A ComparativeReview. Journal of Machine Learning Research, 10:1–41, 2009. ISSN 0169328X. doi:10.1080/13506280444000102.
Wright H. Introduction to Scientific Visualization. UK: Springer, 2007.
V Simposio de Metodos Numericos Computacionais
260
V Simposio de Metodos Numericos Computacionais
SELEÇÃO OTIMIZADA DE PARÂMETROS DO SUPPORT VECTOR
CLASSIFICATION (SVC) POR MEIO DA TÉCNICA GRID-QUADTREE
Resumo: A eficiência do algoritmo Support Vector Classification (SVC) depende da escolha
de seus parâmetros. Dentre os métodos de seleção de parâmetros do SVC, a busca por grid é
a mais utilizada devido a sua simplicidade e bons resultados. Contudo, por avaliar todas as
combinações de parâmetros no seu espaço de busca, essa metodologia apresenta alto custo
computacional. Com o objetivo de reduzir o número de operações efetuadas pelo grid, este
trabalho propõe um método que combina o uso de duas quadtrees ao grid, uma executada em
malha grosseira e outra em refinada. Mostrou-se que executar duas vezes a quadtree é mais
vantajoso em termos de esforço computacional que rodar a técnica tradicional, apenas uma
vez, em malha grosseira. Os resultados evidenciaram que o método proposto é capaz de
fornecer parâmetros de qualidade igual ou superior ao da busca por grid, realizando muito
menos operações.
Palavras-Chave: Quadtree, Seleção de parâmetros, SVC, Redução de operações, Busca por
grid.
1 INTRODUÇÃO
O algoritmo Support Vector Classification (SVC), desenvolvido por Cortes e Vapnik (1995),
tem apresentado excelentes resultados no campo de reconhecimento de padrões. Todavia, a
qualidade de suas soluções depende significativamente da seleção de seus parâmetros:
constante de regularização C, tipo de kernel e parâmetros internos a essa função. A escolha
equivocada dessas variáveis pode levar a baixa performance do algoritmo e a fenômenos
indesejáveis como o overfitting e o underfitting.
Dentre os diversos métodos de seleção de parâmetros do SVC, recebe destaque a busca por
grid. Essa técnica se distingue das demais devido a sua facilidade de uso e ao fornecimento
de resultados exatos. Por esses motivos, muitos usuários a têm como principal opção quando
necessitam ajustar parâmetros no SVC. Contudo, por avaliar todas as combinações de
parâmetros no seu espaço de busca, a metodologia do grid apresenta alto custo
computacional. Desta forma, sua utilização para grandes conjuntos de dados torna-se bastante
demorada e, em muitos casos, impraticável. Assim, Hsu, Chang e Lin (2010) sugerem, por
economia de tempo, que se inicie a varredura de parâmetros em um grid grosseiro e, após se
deparar com uma região de possíveis soluções, execute nessa área um grid refinado para
encontrar o ótimo.
Monica Beltrami, Arinei Carlos Lindbeck da Silva
261
Beltrami e Silva (2015a, 2015b, 2015c), motivados em reduzir o número de operações
efetuadas pelo grid, estudaram a viabilidade de incorporar a esse método a técnica quadtree.
Os autores evidenciaram que a adoção da quadtree ao grid, além de propiciar a determinação
de boas soluções, poupou a execução de muitos cálculos em relação a técnica convencional.
Nas comparações por eles realizadas, utilizaram-se malhas (grids) de espaçamento similar a
resolução da quadtree.
Deste modo, baseando-se nos estudos de Beltrami e Silva (2015a, 2015b, 2015c) e nas
recomendações de Hsu, Chang e Lin (2010), este artigo tem por objetivo comparar a
quantidade de operações realizadas por um grid convencional, sem refinamento, com as de
uma “quadtree da quadtree”. Ou seja, deseja-se mostrar que aplicar uma quadtree de maior
resolução, em uma região de parâmetros já pesquisada por outra quadtree, é mais vantajoso,
em termos de rapidez, que executar o método convencional, somente uma vez, com malha
grosseira. Para validar a abordagem proposta, comparam-se os resultados alcançados por
ambas as técnicas confrontando a qualidade da solução e a quantidade de operações
computacionais necessárias para obtê-la.
2 SUPPORT VECTOR CLASSIFICATION (SVC)
O algoritmo SVC, cujo funcionamento baseia-se no aprendizado supervisionado, visa
encontrar um hiperplano separador de máxima margem resolvendo a formulação primal:
(1)
Onde: , são as incógnitas do problema e C é a constante de regularização.
Na função objetivo de (1), o primeiro termo tende a maximizar a margem do hiperplano e o
segundo a minimizar as variáveis de folga . Logo, a constante C, que deve ser positiva e
especificada pelo usuário, determina o quão sensível o modelo será a presença de pontos mal
classificados. O problema (1) é mais facilmente resolvido por meio de sua representação
dual. Essa formulação, além de facilitar a solução do SVC, permite, por meio de funções
kernel, projetar os dados de entrada para um espaço de características. Nesse último, torna-se
possível a classificação linear de dados não linearmente separáveis. Assim, o modelo dual é
do SVC é dado por:
,
(2)
Onde: são os multiplicadores de Lagrange.
As condições de Karush-Kuhn-Tucker (KKT), que se aplicam a (2), mostram que apenas os
vetores situados sobre as margens de classificação e os que possuem variável de folga
têm seu respectivo multiplicador de Lagrange . Em virtude de serem os únicos
a influenciar a construção do hiperplano separador, estes pontos são chamados de vetores
suporte (VS). Contudo, os VS associados a variável de folga, , são considerados erros
de classificação e denominados vetores suporte Bound (VSBound). Ambos são usados no
cálculo da função de decisão, definida por:
(3)
Onde: é um kernel definido pelo usuário.
V Simposio de Metodos Numericos Computacionais
262
Uma função pode ser considerada um kernel desde que ela atenda ao teorema de Mercer.
Entretanto, em virtude do amplo domínio de convergência da função gaussiana, equação (4),
e sua vasta aplicabilidade (PANG et al, 2011), os métodos de seleção de parâmetros do SVC
partem do princípio que essa será a função empregada no algoritmo.
(4)
Desta forma, para o bom funcionamento do SVC, devem ser adequadamente especificados: a
constante de regularização C e o parâmetro do kernel gaussiano , conforme mostra (4).
3 BUSCA POR GRID
A busca por grid é considerada referência na área de seleção de parâmetros do SVC, pois
novos métodos, ao serem propostos, validam seus resultados comparando-os com os do grid.
O objetivo desta busca é encontrar o par de parâmetros ótimo (C, ), em uma malha ou grade.
Para aprimorar a habilidade de generalização do SVC e prevenir o overfitting, a referida
técnica emprega a metodologia de validação cruzada (VC) do tipo k-fold. Segundo Akay
(2009), a busca por grid é descrita pelos passos do quadro 1.
Quadro 1: Pseudocódigo da busca por grid. Fonte: AKAY (2009).
1. Considere uma malha (grid) no espaço de coordenadas .
2. Para cada par de parâmetros (C, ) do espaço de busca, realize uma validação cruzada k-
fold no conjunto de treinamento.
3. Escolha o par (C, ) que resulte na maior taxa de acertos de validação cruzada.
4. Use estes parâmetros para criar o modelo SVC.
4 QUADTREE
A técnica quadtree é uma estrutura hierárquica de representação de dados, criada pela divisão
sucessiva do espaço em quadrantes de mesmo tamanho. O conceito fundamental da quadtree
é, ao fragmentar certa região, identificar pelas suas intersecções quais quadrantes estão
inteiramente contidos na área de interesse, parcialmente inseridos ou vazios. Aqueles que
estiverem parcialmente contidos, ou seja que possuírem dados internos e externos à região
considerada, são recursivamente divididos em novos quadrantes até que todos estes se tornem
homogêneos. Quando essa condição é atingida, encerra-se o processo de divisão.
Cada quadrante gerado representa um nó na árvore quadtree. Os quadrantes que contêm
somente dados internos à região são denominados PRETOS e os que possuem apenas dados
externos são BRANCOS. Os nós correspondentes a esses dois tipos de quadrantes tornam-se
folhas, significando que nenhuma divisão a mais será necessária. Já os quadrantes
heterogêneos, denominados CINZA, são nós internos e subdivididos até que todos os seus
filhos virem folhas. A figura 1 ilustra a região de interesse e as etapas correspondentes a
divisão do espaço, enquanto que a figura 2 apresenta a árvore gerada.
(a) (b) (c) (d)
Figura 1: Processo de divisão da quadtree. Fonte: Os autores.
V Simposio de Metodos Numericos Computacionais
263
Figura 2: Árvore quadtree. Fonte: Os autores.
Em uma quadtree, a sua resolução consiste no número de vezes que o processo de
decomposição é efetuado, podendo ser fixada a priori ou depender dos dados de entrada.
Assim, quanto maior a resolução da árvore, mais divisões serão executadas e menores serão
as laterais dos quadrantes gerados. Para garantir a convergência do problema envolvendo
quadtree, é desejável que a mesma esteja completamente balanceada. Detalhes sobre o
balanceamento encontram-se em Beltrami e Silva (2015b).
5 PROCEDIMENTOS METODOLÓGICOS
O método de determinação de parâmetros do SVC sugerido neste trabalho, que combina as
técnicas grid e quadtree, foi implementado por meio da linguagem VB.net. O mesmo foi
concebido com base em Keerthi e Lin (2003), que constataram a existência de uma curva que
separa o espaço de busca de parâmetros (C, ) em duas regiões: uma caracterizada pelo
underfitting e overfitting e outra denominada boa região. O objetivo da proposta é, por meio
de uma quadtree balanceada, desenhar o espaço evidenciado por Keerthi e Lin (2003) e, a
partir disso, encontrar o par ótimo (C, ). Assim, a ideia fundamental é reduzir operações do
grid, a medida que várias regiões do espaço de busca deixam de ser avaliadas. Por exemplo:
como as regiões de underfitting e overfitting não são interessantes para a busca de
parâmetros, elas são entendidas pela quadtree como nós BRANCOS e, consequentemente,
dispensam divisões e a varredura completa do grid. O mesmo ocorre com a avaliação de
quadrantes internos a boa região, por estarem completamente inseridos na zona de interesse,
são compreendidos como nós PRETOS e também não se dividem.
Seguindo esse princípio, o método proposto é executado em duas etapas. Na primeira, visa-se
identificar por meio da quadtree, de forma grosseira e com menor resolução, a região de
melhores parâmetros e determinar uma solução (C, ). Na segunda etapa, com o intuito de
refinar a malha e otimizar a resposta previamente encontrada, roda-se novamente a quadtree,
agora com maior resolução, somente na região propícia determinada na primeira fase.
Na metodologia sugerida, os quadrantes são avaliados com base em dois critérios: taxa de
validação cruzada (VC) e quantidade de vetores suporte (VS). O controle desse último é
importante já que um elevado número de VS indica a ocorrência de overfitting. Uma vez que
o comportamento dos parâmetros pertencentes ao espaço de busca é desconhecido, para
iniciar o processo de divisão da quadtree necessita-se estabelecer valores de referência. Em
outras palavras, define-se as características da região que se deseja encontrar. Neste trabalho,
adotaram-se como valores iniciais: taxa VC ≥ 70% e número de VS ≤ 50%. Assim, pares de
parâmetros que não atendam simultaneamente a esses dois critérios são considerados
externos a região de interesse. Ressalta-se que esses valores são válidos apenas na primeira
vez que se roda o método grid-quadtree, pois na segunda usa-se como referência o par (C, )
determinado como solução na fase anterior.
Os resultados do grid-quadtree foram comparados com os da tradicional busca por grid,
levando-se em conta a qualidade da resposta e o número de operações necessárias para obtê-
la. Nesta pesquisa, o número de operações é equivalente a quantidade de combinações de
V Simposio de Metodos Numericos Computacionais
264
parâmetros analisados por cada um dos métodos. Ressalta-se que todos os cálculos referentes
ao SVC foram efetuados por meio dos pacotes computacionais disponibilizados na
plataforma LIBSVM - Library for Support Vector Machines (CHANG; LIN, 2011). Logo, o
número de operações também é compreendido como a quantidade de vezes que o LIBSVM é
chamado para treinar o algoritmo SVC, pois para cada par (C, ) executa-se uma validação
cruzada k-fold conforme visto no quadro 1. Para ambos os métodos, adotou-se a validação
cruzada com k=5. Assim, o pseudocódigo do grid-quadtree é dado por:
Quadro 2: Pseudocódigo do método proposto grid-quadtree. Fonte: Os autores.
1. Faça RodaQuadtree = 1.
2. Entre com o valor da resolução da quadtree.
3. Iniciar a divisão da quadtree pelo nó pai, que corresponde a todo espaço de busca.
4. Para cada vértice (C, ) dos quadrantes gerados (nós filhos), treinar o SVC via LIBSVM
conduzindo uma VC 5-fold.
5. A partir dos resultados obtidos no passo 4, para cada vértice (C, ), se a sua taxa de VC
for maior ou igual a taxa de VC referência E se seu número de vetores suporte for menor
ou igual a quantidade de VS referência, então o sinal do vértice é positivo. Caso
contrário, negativo.
6. Para cada nó filho, se os sinais dos seus quatro vértices forem iguais então o nó é folha.
Caso contrário, o nó deve ser dividido.
7. Repetir os passos 4 a 6 até que todos os nós da árvore quadtree tornem-se folhas ou
atinja-se a resolução estipulada.
8. Dentre a região de melhores parâmetros, assuma o par (C, ) de maior taxa VC e menor
quantidade de VS como solução.
9. Faça RodaQuadtree = 2.
10. Entre com o valor da resolução, que deve superior (de maior precisão) à do passo 2.
11. Adote os valores da solução do passo 8 como referência para o processo de divisão.
12. Delimite o novo espaço de busca pelos os extremos da região encontrada no passo 8.
13. Inicie a divisão da nova quadtree tomando o par (C, ) do passo 8 como centro do nó
pai.
14. Repita os passos 4 a 8.
As bases de dados empregadas neste trabalho, descritas no quadro 3, são referência na área e
estão disponíveis no repositório LIBSVM. Todas elas referem-se ao conjunto de treinamento
e foram normalizadas no intervalo [-1, 1] ou [0, 1].
Quadro 3: Conjunto de dados estudados. Fonte: CHANG e LIN (2011).
Base de dados Nº de classes Nº de dados Nº de características Normalização
Svmguide1 2 3089 4 [-1, 1]
Splice 2 1000 60 [-1, 1]
DNA 3 2000 180 [0, 1]
Pendigits 10 7494 16 [0, 1]
Para o grid convencional e para a primeira execução do grid-quadtree, utilizou-se uma malha
de tamanho 17x17, com os eixos dos parâmetros C e variando no intervalo 2-8, 2-7,2-6,…, 26,
27, 28. Já para segunda aplicação do grid-quadtree, usou-se uma malha de divisão
(espaçamento) 0,5, com extremos definidos conforme passo 12 do quadro 2.
6 RESULTADOS
A busca por grid, por calcular todas as combinações de parâmetros no espaço de busca
17x17, efetuou para cada conjunto de dados 289 operações para encontrar o par ótimo (C, ).
V Simposio de Metodos Numericos Computacionais
265
Em relação a esse valor, avaliou-se qual foi o percentual necessário de operações para que a
técnica grid-quadtree, executando as suas duas etapas, resolvesse o mesmo problema. As
tabelas 1 e 2 apresentam, nessa ordem, os pares (C, ) determinados pela busca por grid (BG)
e pelo grid-quadtree (GQ). Já a tabela 3 evidencia o número de operações efetuadas por
ambos os métodos para encontrar os respectivos valores das tabelas 1 e 2.
Tabela 1: Parâmetros encontrados pelo método busca por grid. Fonte: Os autores.
Conjunto C Taxa VC (%) VS VS (%) VSBound
Svmguide1 2,00 4,00 96,92 316 10,23 0
Splice 16,00 0,008 87,80 423 42,30 0
DNA 4,00 0,008 95,45 696 34,80 0
Pendigits 8,00 2,00 99,72 1039 13,86 0
Tabela 2: Parâmetros encontrados pelo método grid- quadtree. Fonte: Os autores.
Conjunto Execução C Taxa VC (%) VS VS (%) VSBound
Svmguide1 1ª 1,00 4,00 96,86 364 11,78 0
2ª 1,41 4,97 96,96 346 11,20 0
Splice 1ª 8,00 0,015 87,70 479 47,90 0
2ª 8,00 0,013 87,80 457 45,70 0
DNA 1ª 4,00 0,016 95,40 838 41,90 0
2ª 4,00 0,008 95,45 696 34,80 0
Pendigits 1ª 8,00 2,00 99,72 1039 13,86 0
2ª 19,03 0,92 99,72 805 10,74 0
Tabela 3: Comparação entre o número de operações realizadas pelos métodos BG e GQ. Fonte: Os autores.
Busca por Grid Grid-quadtree (Total = 1ª + 2ª execução)
Conjunto Todos Svmguide1 Splice DNA Pendigits
Número de operações 289 273 93 114 230
Operações realizadas (%) 100 94,46 32,18 39,45 79,58
Redução de operações (%) - 5,54 67,82 60,55 20,42
Pelas tabelas 1 e 2, verifica-se que, para todos os conjuntos de dados, o grid-quadtree
encontrou ao final da segunda etapa, referente à otimização da solução, pares de parâmetros
com taxa VC maiores ou iguais a da busca por grid. Já para a base Pendigits, o GQ alcançou
a mesma solução que a BG, rodando apenas o quadtree grosseiro (1ª etapa). Assim, para esse
conjunto, a melhoria da solução, ocorrida na 2ª fase, consistiu apenas na redução de VS.
Pela tabela 3, que compara o número de operações efetuadas pela técnica convencional e pela
GQ (após as suas duas execuções), nota-se que o GQ encontrou a solução final, em todos os
casos, executando menos operações que a BG. Os melhores resultados se deram para os
conjuntos Splice e DNA. Para este último, tem-se que o GQ encontrou o mesmo par (C, )
que a BG, executando apenas 114 operações, o que implica em uma economia de 60,55% dos
cálculos efetuados pelo grid tradicional.
A figura 3, que compara as soluções gráficas do Svmguide1 fornecidas pela BG, a esquerda, e
GQ, a direita, explica o porquê a redução de operações do GQ para esse conjunto foi inferior
aos demais. Constata-se, pela figura 3, que a boa região determinada pelo grid e grid-
quadtree grosseiros (representados pela cor verde água) é extensa. Logo, o refinamento da
quadtree ocorreu numa área maior, resultando em mais operações. Contudo, vale lembrar que
se o refinamento do grid, conforme sugere a literatura, fosse realizado nessa mesma área,
milhares de operações seriam efetuadas pela BG. Desta forma, o resultado do GQ para o
Svmguide1 é tão significativo quanto os demais. Na figura 3 (a direita), as linhas pretas
representam a primeira execução do GQ e as vermelhas a segunda.
V Simposio de Metodos Numericos Computacionais
266
Figura 3: Solução gráfica do Svmguide1 pelos métodos BG e GQ. Fonte: Os autores.
7 CONCLUSÕES
O presente trabalho propôs um método que combina a técnica quadtree ao grid, com a
finalidade de reduzir os cálculos efetuados pela metodologia tradicional. Mostrou-se que
executar a quadtree duas vezes, uma para determinar a boa região de parâmetros e a outra
para otimizar a solução (C, ), é mais vantajoso em termos de esforço computacional que
rodar a busca por grid, com malha grosseira, apenas uma vez. Os resultados evidenciaram
que o GQ é capaz de fornecer pares de parâmetros de qualidade igual ou superior a BG, em
termos de taxa de validação cruzada e número de vetores suporte, realizando muito menos
operações. Para 50% dos conjuntos avaliados, a redução de operações foi superior a 60%.
Com isso, conclui-se que o método proposto é uma excelente alternativa ao grid
convencional, sendo capaz de fornecer excelente soluções em menor tempo.
AGRADECIMENTOS
Ao Instituto Federal do Paraná – IFPR e a Coordenação de Aperfeiçoamento de Pessoal de
Nível Superior – CAPES por apoiarem e financiarem esta pesquisa. Ao grupo de pesquisa
GTAO – Grupo de Tecnologia Aplicada à Otimização pelos recursos disponibilizados.
REFERÊNCIAS
AKAY, M. F., Support vector machines combined with feature selection for breast cancer
diagnosis. Expert Systems with Applications, 16: 3240 – 3247, 2009.
BELTRAMI, M., SILVA, A. C. L da., Grid-Quadtree Algorithm for Support Vector
Classification Parameters Selection. Applied Mathematical Sciences, 2: 75-82, 2015a.
BELTRAMI, M., SILVA, A. C. L da., O uso da técnica quadtree na otimização da busca por
grid – um método para selecionar parâmetros do Support Vector Classification. Anais do
XXII SIMPEP – Simpósio de Engenharia de Produção, 2015b.
BELTRAMI, M., SILVA, A. C. L da., Proposta de técnica grid-quadtree para seleção de
parâmetros do Support Vector Classification (SVC). Anais do XV SEPROSUL – Simpósio de
Engenharia de Produção Sul-Americano, 2015c.
CHANG, C. C., LIN, C. J., LIBSVM: A Library for Support Vector Machines. ACM
Transactions on Intelligent Systems and Technology, 2:27:1--27:27, 2011. Software available
at http://www.csie.ntu.edu.tw/~cjlin/libsvm.
CORTES, C., VAPNIK, V., Support-vector network. Machine Learning, 20: 273-297, 1995.
HSU, C.W., CHANG, C. C., LIN, C. J., A Practical Guide to Support Vector Classification.
Department of Computer Science, National Taiwan University, 2010.
KEERTHI, S. S., LIN, C. J., Asymptotic Behaviors of Support Vector Machines with
Gaussian Kernel. Neural Computation, 15: 1166- 1189, 2003.
PANG, H et al., Novel linear search for support vector machine parameter selection. Journal
of Zhejiang University – Science C (Computers & Electronics), 12: 885- 896, 2011.
V Simposio de Metodos Numericos Computacionais
267
V Simposio de Metodos Numericos Computacionais
INSERÇÃO DE NOVOS PEDIDOS ATRAVÉS DE SIMULAÇÃO
DURANTE O SEQUENCIAMENTO EM UMA ÚNICA MÁQUINA
PARA MINIMIZAR O MAKESPAN
Resumo: Este artigo estuda o problema de sequenciamento de produção em uma única
máquina com inserção de novos pedidos de clientes realizados por meio de uma simulação,
visando a minimização do makespan. Tal estudo foi realizado a partir de dados randômicos
com base no modelo exato do problema. Os novos sequenciamentos também fazem uso de
dados aleatórios, como quantas e quais tarefas são recém-chegadas e o tempo de chegada das
tarefas inseridas ao longo do processo. Os testes computacionais foram implementados em
Visual Basic Studio e otimizados pelo software CPLEX, acompanhado pela biblioteca
Concert. Os resultados obtidos pela inserção de 20 a 50 por cento da quantidade original de
tarefas a serem sequenciadas mostram uma análise da mudança do makespan inicial em
relação ao makespan atualizado a partir dos acréscimos realizados. Ao fim da análise dos
resultados, obtêm-se dados importantes, como a média e o desvio padrão, para avaliações
futuras, nas quais será averiguada a amplitude de cada nova inserção para diferentes
quantidades de tarefas inicialmente propostas para o sequenciamento, assim como aplicações
de heurísticas para comparação com a simulação efetiva.
Palavras-Chave: Re-sequenciamento, Uma única máquina, Inserção de novos pedidos,
Minimização do Makespan.
1 INTRODUÇÃO
O Planejamento e Controle de Produção (PCP) consiste em um procedimento utilizado para
gerenciamento das atividades realizadas em um processo de produção e, atualmente, possui
extrema importância no mercado produtivo dado que cada vez mais as empresas procuram
estabelecer metas de produtividade e qualidade que garantam bons resultados para o
estabelecimento e seus clientes.
Existem três pontos da literatura de PCP em uma única máquina que são de interesse para o
problema abordado neste trabalho. Em primeiro lugar, o sequenciamento realizado emprega o
tempo de preparação da máquina entre as tarefas, ou seja, o setup depende da sequência
realizada pelos trabalhos. Em segundo lugar, a programação tem por objetivo minimizar o
makespan da produção. Em terceiro lugar, o processo realiza uma simulação a partir da
inserção de novas ordens de tarefas ocorridas durante o sequenciamento.
Nathalia Cristina Ortiz da Silva, Cassius Tadeu Scarpin
268
Com a inserção de trabalhos no decorrer do procedimento é preciso executar um novo
sequenciamento a cada entrada de tarefas recém-encomendadas pelos clientes. O tempo de
chegada desses novos trabalhos é dado de forma aleatória. Deste modo, o problema abordado
possui grande nível de complexidade, por estar relacionado com ambientes estocásticos.
Esses ambientes proporcionam uma variabilidade no processo de produção, referentes ao
tempo de chegada dos pedidos dos clientes, a quantas e quais tarefas serão inseridas ao longo
do sequenciamento, ao tempo de preparação das máquinas, ao tempo de produção do item,
entre outros fatores relevantes ao sistema de fabricação do produto.
Durante a programação e o sequenciamento de um sistema de produção, podem-se notar as
diferenças existentes entre o planejamento desse sistema produtivo e o que acontece de fato
no mundo real. O presente trabalho reproduz um modelo que recebe monitoramento contínuo.
Quando aplicados nas empresas, os modelos propostos através da simulação ajudam de
maneira significativa no processo de ajuste do estado do sistema tradicional de PCP para o
estado de um sistema dinâmico desejado.
Cancelamentos ou adições de novas encomendas, mudanças na prioridade dos pedidos,
atrasos de processamento, falhas nas máquinas são exemplos de tais eventos, que, em
combinação com a natureza dinâmica dos sistemas de produção, pedem por mecanismos
eficazes de PCP em tempo real para identificar as mudanças nos planos de produção e para
fornecer medidas corretivas (Georgiadis e Michaloudis, 2011).
O objetivo deste trabalho é desenvolver uma simulação que, unida ao modelo matemático
referente ao problema abordado no estudo, avalie a reprogramação do sequenciamento de
produção a partir de novos eventos a serem inseridos com relação aos pedidos dos clientes
que ocorrem quando o sequenciamento já está em andamento. As diferenças apontadas em
tempo real entre as atividades planejadas e efetivas forneçam medidas de otimização.
O artigo está estruturado da seguinte maneira: a Seção 2 oferece uma visão geral de trabalhos
correlatos acerca dos conceitos fundamentais que pautam esse artigo; a Seção 3 abrange a
descrição do problema de pesquisa; a Seção 4 versa sobre a metodologia empregada no
estudo, na qual se apresenta uma descrição detalhada do problema por meio de uma
modelagem matemática e aponta o Algoritmo de Novas Chegadas realizado através de uma
simulação. Na Seção 5, faz-se a implementação, apresentação e análise dos resultados
computacionais. As observações finais, juntamente com as sugestões para trabalhos futuros,
são realizadas na Seção 6.
2 TRABALHOS CORRELATOS
Pesquisas recentes para os problemas de sequenciamento em uma máquina com setup
dependente da sequência são abordados por diversos autores. Allahverdi et al. (2014); Cheng
et al. (2014); Kopanoglu (2014); Keshavarz et al. (2015); González e Vela (2014); Jia e
Leung (2014); Khowala et al. (2014); Kononov et al. (2015); Li et al. (2015); Herr e Goel
(2016) são alguns pesquisadores que concentram seus trabalhos atuais no sequenciamento de
uma única máquina. A maioria dos objetivos destacados em suas pesquisas atua com a
finalidade de miminizar o makespan, minimizar o atraso e/ou o adiantamento das datas de
entrega, ou até mesmo problemas que lidam com multi critérios, ou seja, a minimização de
mais do que uma função objetivo.
O re-sequenciamento também tem atraído atenção de muitos autores: Vieira et al. (2003);
Aytug et al. (2005) e Ouelhadj e Petrovic (2009). O artigo apontado por Akkan (2015)
envolve a inserção de uma nova operação em um sequenciamento já existente. A intenção do
trabalho é manter o novo sequenciamento o mais estável possível para uma minimização do
atraso máximo. Para isto, são efetuadas várias heurísticas simples e um Branch & Bound
híbrido com um algoritmo de busca local.
V Simposio de Metodos Numericos Computacionais
269
As heurísticas aplicadas por Akkan (2015) em um re-sequenciamento serão de suma
importância para pesquisas futuras do nosso trabalho. Por hora, iremos descrever o problema
discutido neste artigo e avaliar os resultados encontrados através de uma simulação com
inserção de novas tarefas.
3 DESCRIÇÃO DO PROBLEMA
Este trabalho consiste em uma programação de produção com chegada de novos pedidos para
a confecção de tarefas com tempos de chegada estocásticos. O sequenciamento, que é
efetuado por meio de uma modelagem inteira mista (MIP), é iniciado com a quantidade de
tarefas a serem realizadas já definida e, durante o procedimento, novos pedidos chegam à
produção para serem inseridos no processo, gerando assim um re-sequenciamento a partir de
cada nova chegada.
Nas subseções seguintes, descrevem-se o modelo matemático do problema de minimização
do makespan e, em seguida, a simulação efetuada para a entrada de novos pedidos de tarefas
realizados pelos clientes.
4 METODOLOGIA
4.1 Modelo Exato
O problema abordado neste trabalho tem como objetivo minimizar o makespan, ou seja, o
instante de término de todas as tarefas processadas. Para o problema consideram-se as
seguintes hipóteses:
(a) Existem n trabalhos a serem processados por uma única máquina.
(b) Cada trabalho possui um tempo de processamento pi. Além disso, é necessário um tempo
de preparação da máquina para processar cada tarefa e o setup utilizado é dependente da
sequência, sendo assim, designa-se por sij o tempo de preparação da máquina para processar
a tarefa j imediatamente após a tarefa i.
(c) Para cada tarefa i, a variável Ci indica o instante de término de processamento da mesma.
Por sua vez, a variável binária xij define se a tarefa i precede imediatamente a tarefa j (xij =
1) ou não (xij = 0).
O problema é
min Cmax (1)
Sujeito a
Cmax ≥ Ci, i = 1, … , n (2)
∑ xij = 1, j = 0, … , n (3)
n
i=0,i≠j
∑ xij = 1, i = 0, … , n (4)
n
j=0,j≠i
Cj ≥ Ci − M + (sij + pj + M)xij, i = 0, … , n j = 1, … , n (5)
C0 = 0 (6)
𝐂 ∈ R+n, 𝐱 ∈ B(n+1)(n+1) (7)
Como citado anteriormente, a função objetivo (1) minimiza o makespan de todas as tarefas
do sequenciamento. As restrições (2) garantem que o instante do término do sequenciamento
completo seja maior ou igual ao instante de término de processamento de cada uma das
V Simposio de Metodos Numericos Computacionais
270
tarefas. As restrições (3) e (4) afirmam que cada tarefa tem apenas uma tarefa imediatamente
predecessora e uma tarefa imediatamente sucessora, respectivamente. Em (5), as restrições
implicam que o instante de término de processamento da tarefa j não ocorra antes da soma
entre o instante de término de processamento da tarefa i imediatamente anterior a j, o setup
entre as tarefas i e j e o tempo para a tarefa j ser processada. A restrição (6) afirma que o
instante de término de processamento da tarefa 0 é nulo. As restrições (7) indicam o tipo das
variáveis.
4.2 Simulação
A partir da formulação do modelo exato, dá-se início a construção da simulação com a
finalidade de reproduzir um sistema de produção real. Antes de iniciá-la, consideram-se as
seguintes informações para o problema de sequenciamento abordado no trabalho:
(a) Ao ocorrer o evento de chegada de uma nova ordem, uma vez que o processamento é
iniciado, não se interrompe o trabalho que está sendo executado até que o mesmo seja
concluído. Deste modo, o re-sequenciamento ocorre no momento em que esta tarefa é
finalizada, conforme exposto na Figura 1.
(b) A quantidade de chegadas de tarefas após o começo da programação foi gerada
aleatoriamente entre 20 e 50 por cento da totalidade dos trabalhos do sequenciamento inicial.
(c) O tempo de chegada de cada novo pedidos também é gerado de forma randômica, não
ultrapassando o maior tempo de processamento entre as tarefas existentes. A partir destes
dados, cria-se uma lista com a somatória dos tempos de chegada das novas encomendas,
juntamente com a informação de qual tarefa será inserida em cada posição durante o processo
de produção.
Figura 1: O novo sequenciamento é realizado conforme descrito no item (a).
Com os dados supracitados, a simulação é proposta como segue.
Algoritmo de Novas Chegadas (NC):
Passo 0: Com os tempos de processamento, os tempos de setup e a quantidade inicial de
tarefas para o processamento, calcula-se o sequenciamento inicial através da modelagem
matemática proposta para o problema.
Passo 1: Cria-se uma lista para organizar o sequenciamento final da simulação.
Passo 2: Verifica-se o instante de término de cada tarefa do sequenciamento anterior. Se este
possuir tempo inferior do que o próximo evento ocorrido, a tarefa é levada para a lista final.
Passo 3: Aquelas tarefas do sequenciamento anterior que não são enviadas para a lista final,
são re-sequenciadas juntamente com os novos pedidos que chegam à programação até o
instante de término da última tarefa que foi finalizada no processo anterior.
Passo 4: Volta-se ao Passo 2 enquanto existirem novas chegadas de trabalhos no processo.
V Simposio de Metodos Numericos Computacionais
271
5 RESULTADOS COMPUTACIONAIS
O modelo matemático foi codificado na linguagem Visual Basic Studio 2012 e implementado
no software de otimização CPLEX com o auxílio da biblioteca Concert. O modelo e a
simulação efetuada para tal tiveram seus testes computacionais realizados em um computador
com processador Intel® Core™ i3 3227 U 1.9 GHz, com 4 GB de RAM.
Para tal implementação foram consideradas 10 tarefas a serem sequenciadas inicialmente.
Como os testes de simulação gerados efetuam inserções numa quantidade de 20 a 50 por
cento das tarefas do começo da programação, analisaram-se novas entradas de 2, 3 4 e 5
tarefas, respectivamente. Cada um desses experimentos foi testado 30 vezes. A geração de
quais tarefas fazem parte do novo pedido dos clientes e em que momento esses trabalhos
chegam ao sequenciamento ocorre de forma estocástica.
O sequenciamento inicial possui o makespan igual a 801. Na Tabela 1, verificam-se a média
e o desvio padrão do aumento nos valores do makespan encontrados após 30 testes de cada
uma das inserções supracitadas bem como a porcentagem do limite inferior e superior do
acréscimo no tempo total de término das tarefas em cada nova chegada. Tabela 1: Média, desvio padrão e porcentagem dos limites inferior e superior do aumento do makespan em cada
inserção.
Em seguida, os gráficos observados nas Figuras 2, 3, 4 e 5 representam os 30 testes
realizados para as novas chegadas obtidas no sequenciamento. Em cada uma das inserções, os
pontos denotam o acréscimo do valor do makespan dos testes efetuados quando comparado
ao makespan do problema original. A linha representa o valor médio exposto na Tabela 1em
cada um dos casos.
Figura 2: Apresentação dos testes que representam o acréscimo do makespan com 2 tarefas inseridas no
sequenciamento e a média desses valores.
V Simposio de Metodos Numericos Computacionais
272
Figura 3: Apresentação dos testes que representam o acréscimo do makespan com 3 tarefas inseridas no
sequenciamento e a média desses valores.
Figura 4: Apresentação dos testes que representam o acréscimo do makespan com 4 tarefas inseridas no
sequenciamento e a média desses valores.
Figura 5: Apresentação dos testes que representam o acréscimo do makespan com 5 tarefas inseridas no
sequenciamento e a média desses valores.
6 CONSIDERAÇÕES FINAIS
Ao fim da análise dos resultados computacionais, muitas informações relevantes são
adquiridas para auxiliar pesquisas futuras: a média, o desvio padrão, e os limites inferior e
superior do acréscimo do makespan original são alguns dos dados que podem oferecer
resultados significativos.
Posteriormente, novos testes serão realizados com diferentes quantidades de tarefas no
sequenciamento, além de testes com variabilidade de inserções e desistências. A análise do
fator de impacto do tempo de setup entre as tarefas quando comparado ao tempo de
processamento das mesmas também pode retornar resultados positivos.
A avaliação dos dados já existentes, juntamente com os testes que serão realizados, fornece
uma comparação entre a simulação efetiva e aplicações de heurísticas simples para contrapor
os benefícios de cada uma dessas propostas.
V Simposio de Metodos Numericos Computacionais
273
REFERÊNCIAS
AKKAN C., Improving schedule stability in single-machine rescheduling for new operation
insertion. Computers & Operations Research, 64:198-209, 2015.
ALLAHVERDI L., AYDILEK H., AYDILEK A., Single machine scheduling problem with
interval processing times to minimize mean weighted completion time. Computers &
Operations Research, 51:200-207, 2014.
AYTUG H., LAWLEY M., MCKAY K., MOHAN S., UZSOY R., Executing production
schedules in the face of uncertainties: a review and some future directions. European Journal
of Operations Research, 161:86–110, 2005.
CHEN T.C.E., LIU C.Y., LEE W.C., JI M., Two-agent single-machine scheduling to
minimize the weighted sum of the agents’ objective functions. Computers & Industrial
Engineering, 78:66-73, 2014.
GEORGIADIS P., MICHALOUDIS C., Real-time production planning and control system
for job-shop manufacturing: A system dynamics analysis. European Journal of Operational
Research, 216:94-104, 2012.
GONZÁLEZ M.A., VELA C.R., An efficient memetic algorithm for total weighted tardiness
minimization in a single machine with setups. Applied Soft Computing, 37:506-518, 2014.
HERR O., GOEL A., Minimising total tardiness for a single machine scheduling problem
with family setups and resource constraints. European Journal of Operational Research,
248:123-135, 2016.
JIA Z.H., LEUNG J. Y.T., An improved meta-heuristic for makespan minimization of a
single batch machine with non-identical job sizes. Computers & Operations Research, 46:49-
58, 2014.
KAPLANOGLU V., Multi-agent based approach for single machine scheduling with
sequence-dependent setup times and machine maintenance. Applied Soft Computing, 23:165-
179, 2014.
KESHAVARZ T., SAVELSBERGH M., SALMASI N., A branch-and-bound algorithm for
the single machine sequence-dependent group scheduling problem with earliness and
tardiness penalties. Applied Mathematical Modelling, 2015.
KONONOV A.V., LIN B.M.T., FANG K.T., Single-machine scheduling with supporting
tasks. Discrete Optimization, 17:69-79, 2015.
KHOWALA K., FOWLER J., KEHA A., BALASUBRAMANIAN H., Single machine
scheduling with interfering job sets. Computers & Operations Research, 45:97-107, 2014.
LI Z., CHEN H., XU R., LI X., Earliness–tardiness minimization on scheduling a batch
processing machine with non-identical job sizes. Computers & Industrial Engineering,
87:590-599, 2015.
OUELHADJ D., PETROVIC S., A survey of dynamic scheduling in manufacturing systems.
Journal of Scheduling, 12:417–31, 2009.
VIEIRA G.E., Herrmann JW, Lin E. Rescheduling manufacturing systems: a framework of
strategies, policies, and methods. Journal of Scheduling, 6:39–62, 2003.
V Simposio de Metodos Numericos Computacionais
274
V Simposio de Metodos Numericos Computacionais
PREVISÃO DE SÉRIES FINANCEIRAS: UM ESTUDO BASEADO NA
ANÁLISE DE DADOS EM PAINEL
Resumo: Este estudo tem como objetivo prever o preço das ações da carteira teórica
composta pelas empresas integrantes do IBrX-50 utilizando o modelo de análise de dados em
painel. Para isso pesquisou-se a literatura relacionada ao método de previsão, bem como
aquela que tange o mercado acionário e seu mecanismo de funcionamento. Em relação aos
procedimentos metodológicos foram pesquisadas 23 empresas componentes do índice IBrX-
50 listadas na BM&FBovespa desde ao menos 2014. A variável utilizada em todas as análises
foi o preço de fechamento da ação do último dia de cada mês (portanto dados mensais) e o
período de análise corresponde aos anos de 2004 até 2014, sendo 10 anos (2004-2013) para
análise e 2014 para realizar as previsões. Com a realização do estudo percebeu-se que o
método multivariado de análise de dados em painel se mostrou eficiente para efetuar
previsões de séries financeiras.
Palavras-Chave: Análise de dados em painel, séries financeiras, preço de ações, IBrX-50.
1 INTRODUÇÃO
O desenvolvimento das sociedades está intimamente relacionado com o mercado financeiro,
visto que é por meio de seus componentes que a transferência de recursos é viabilizada. Os
mercados acionários constituem uma subdivisão importante do mercado de capitais, pois
executam tarefas vitais na economia, como por exemplo auxílio no processo de alocação de
recursos financeiros, oportunidades de investimentos para agentes superavitários, e
oportunidades de obtenção de capital para empresas que têm projeto de investimento com
valor presente líquido positivo (Bruni, 1998).
A forma de ação dos investidores, bem como o funcionamento do mercado acionário sempre
foram relevantes e constantes temas de pesquisa. Nesse sentido, a Teoria de Finanças sofreu
alterações profundas com o passar do último meio século. Nesse processo de evolução, a
teoria em questão incorporou técnicas e expressões exóticas, aparentemente incomum ao
mercado financeiro, como por exemplo: redes neurais, teoria do caos, fractais e algoritmos
genéticos. Sendo assim, observa-se que as ciências exatas, como a matemática e a física,
ligam-se cada vez mais aos estudos financeiros (Bruni, 1998).
No mercado de capitais, as ações proporcionam aos investidores participação proporcional no
fluxo de caixa da empresa, ou seja, a empresa se compromete a pagar, de forma periódica,
Nayane Thais Krespi Musial, Anselmo Chaves Neto
275
dividendos proporcionais ao seu portador. Este mercado é interessante para a empresa, visto
que a movimentação de ações no mercado (emissão e venda) permite que esta capte recursos
financeiros e aplique em investimentos produtivos (Antunes et al., 2002).
Logo, o objetivo deste artigo é prever o preço das ações da carteira teórica composta pelas
empresas integrantes do IBrX-50 utilizando análise de dados em painel.
2 CARTEIRA DE AÇÕES
O mercado financeiro tem grandes preocupações com a maneira como um investidor poderia
decidir da melhor forma possível sua composição de investimentos, analisando em relação
aos retornos esperados e aos riscos incorridos. O investidor sempre busca maximizar os
retornos e minimizar os riscos, o que torna essa a decisão ótima (Kritzman, 1992).
A forma de composição dos investimentos é realizada entre escolhas acerca do risco e do
retorno, ou seja, um investidor pode escolher entre vários conjuntos de diferentes ações,
denominado carteira de ações. Portanto, o investidor pode decidir como aplicar seus recursos,
distribuindo-os entre diferentes ativos de retornos e riscos desiguais. (BRUNI, 1998). Dessa
forma, Sharpe, Alexander, Bailey (1995) definem carteira de ações (ou carteira de mercado)
como um portfólio formado por todos os ativos no qual a proporção investida em cada ativo
corresponde ao seu valor relativo de mercado.
A partir deste momento, vale definir a teoria desenvolvida por Markowitz designada por
Moderna Teoria de Portfólios. Esta teoria, segundo o próprio Markowitz (1952), apresenta o
risco como fator inerente às decisões de investimento, de forma a contrariar o senso comum,
que é concentrar os recursos em um único ativo de maior retorno esperado. Define-se
portfólio como “uma carteira de títulos que contém ações, obrigações, mercadorias,
investimentos em imóveis, investimentos em títulos de liquidez imediata ou outros ativos de
um investidor pessoa física ou institucional.” (Downes et al., 1993, p. 385).
Ainda segundo Markowitz (1952), a principal conclusão que se obtém a partir de sua teoria é
que um investidor, ao analisar um ativo, não deve estar preocupado somente com o seu risco
individual, mas sim, na contribuição deste ao risco total do portfólio. Essa é a ideia de
diversificação, introduzida pelo autor, e até aquele momento, contestada por pensadores
influentes da época. Por volta de 20 anos depois da publicação de seu trabalho Markowitz
praticamente extinguiu as concepções ingênuas acerca da diversificação, mostrando que não
“bastava colocar os ovos em vários cestos diferentes e, quanto maior o número de cestos,
maior a segurança.” (Bruni, 1998, p. 44).
Conforme as ideias expostas por Markowitz (1952) uma diversificação feita de forma
apropriada e correta pode reduzir os riscos inerentes ao mercado acionário. Um exemplo
simples dessa ideia é, se aumentar o preço do petróleo prejudica os resultados de uma
empresa de aviação, o investidor poderia reduzir esse risco (exposto no preço da ação), por
meio da compra de ações de uma empresa petrolífera (a qual teria melhora nos seus
resultados pelo fato do preço do petróleo estar em alta).
3 ANÁLISE DE DADOS EM PAINEL
O modelo de dados em painel envolve, em sua análise, dados provenientes de várias cross-
sections ao longo do tempo. Em outras palavras, é um modelo capaz de analisar
simultaneamente diversas informações em vários períodos de tempo (Fávero et al., 2014). É
importante salientar que a principal vantagem da análise de dados em painel, apontada por
Marques (2000), é a possibilidade de controlar a heterogeneidade individual, que em outras
palavras quer dizer, a possibilidade de se medir separadamente os efeitos gerados por conta
V Simposio de Metodos Numericos Computacionais
276
de diferenças existentes em cada observação em cada cross-section.
A diversidade de modelos de dados em painel existentes atualmente é vasta. Todavia, a
divisão básica entre esses modelos se dá separando-os em dois grupos: i) modelos de efeitos
fixos; e ii) modelos de efeitos aleatórios. Apesar da nomenclatura, tanto os modelos de efeitos
fixos quanto os modelos de efeitos aleatórios possuem efeitos, no nível individual (empresas),
aleatórios (Greene, 2007).
O modelo geral que descreve os dados em painel é dado por:
onde: denota os diferentes indivíduos;
denota o período de tempo que está sendo analisado;
refere-se ao parâmetro de intercepto; e
refere-se ao coeficiente angular correspondente a k-ésima variável explicativa do
modelo.
A forma matricial do modelo é dada por:
onde: e são vetores de dimensão (T x 1) e contém, respectivamente, as T variáveis
dependentes e os T erros;
é uma matriz de dimensão (K x T|) com as variáveis explicativas do modelo;
é a matriz dos parâmetros a serem estimados.
É fácil verificar que, para este modelo, o intercepto e os parâmetros resposta diferem para
cada indivíduo e para cada período de tempo. Sendo assim, tem-se mais valores
desconhecidos do que observações, o que torna impossível estimar esses parâmetros. Para
tanto, faz-se necessário especificar suposições acerca do modelo geral, (01) ou (02), com o
intuito de torná-lo estimável operacionalmente (Duarte et al., 2008).
Ainda segundo os autores supra citados, existem três modelos que são os mais utilizados
quando se trata de mesclar dados de séries temporais e dados de corte transversal. São eles: i)
Modelo de Regressões Aparentemente Não-Relacionadas; ii) Modelos de Efeitos Fixos; e iii)
Modelos de Efeitos Aleatórios.
4 PROCEDIMENTOS METODOLÓGICOS
A população de pesquisa compreende todas as empresas que compunham o índice IBRX-50
V Simposio de Metodos Numericos Computacionais
277
da BM&FBovespa no 1º quadrimestre (janeiro – abril) de 2015, perfazendo um total de 50
empresas. Integram esse grupo empresas pertencentes aos diversos setores econômicos da
bolsa.
Conforme a própria definição do índice IBRX-50, 50 empresas compõem a população da
presente pesquisa. Por sua vez a amostra da pesquisa é composta por 23 empresas, as demais
empresas foram retiradas da amostra por falta de dados disponíveis para análise.
Os dados utilizados na presente pesquisa foram obtidos por meio da base de dados Thomson.
Para alguns esclarecimentos adicionais, foram também consultadas às demonstrações
contábeis disponibilizadas no endereço eletrônico da BM&FBovespa. Por fim, o período de
análise da variável de pesquisa é de 11 anos, iniciando em 2004 e findando em 2014. Dessa
forma, cada empresa analisada terá 132 dados coletados, sendo 12 de cada ano multiplicado
por 11 anos.
Além disso, para proceder a análise clássica de dados em painel, necessita-se de uma variável
dependente e ao menos uma variável independente. No caso do presente estudo, tem-se
apenas uma variável em análise, preço de ação. Para resolver esse impasse, recorreu-se ao
modelo de Koyck, cuja ideia é utilizar um dado passado na equação atual, em outras palavras,
no modelo original a variável dependente passa a ser uma variável independente no
momento que calcula-se .
Na adaptação proposta, a ideia é justamente considerar , que seria uma variável
dependente, como uma variável independente no modelo em que é a variável dependente.
Então, em outras palavras, tem-se o preço da ação no período anterior como variável
independente e o preço da ação no período atual como variável dependente. O software
STATA será utilizado no procedimento de análise de dados em painel. Da mesma forma que
nas etapas anteriores calcula-se o erro. E, por fim, será comparado os erros obtidos pelos três
métodos de previsão.
5 DISCUSSÃO DOS RESULTADOS
A Tabela 1 mostra os resultados obtidos na previsão do preço das ações do ano de 2014, mês
a mês para cada empresa integrante da amostra. Vale ressaltar que o método utilizado para
proceder essa análise foi análise de dados em painel.
Tabela 1: Resultados da previsão do preço das ações
BRADESCO BRADESPAR
Mês/2014 Preço
Observado
Preço
Previsto
Preço
Observado
Preço
Previsto
Janeiro 0,1286 0,12865 0,10927 0,10959
Fevereiro 0,1344 0,13433 0,10431 0,10470
Março 0,1538 0,15349 0,09614 0,09665
Abril 0,1639 0,16337 0,09424 0,09477
Maio 0,1539 0,15359 0,09073 0,09131
Junho 0,1581 0,15774 0,09900 0,09946
Julho 0,1710 0,17038 0,11278 0,11304
Agosto 0,2022 0,20115 0,10000 0,10045
Setembro 0,1721 0,17152 0,08732 0,08796
Outubro 0,1846 0,18376 0,08140 0,08213
Novembro 0,1958 0,19483 0,07308 0,07393
Dezembro 0,1732 0,17260 0,06917 0,07008
Erro quadrático médio 0,0000003718 - 0,0000003407
V Simposio de Metodos Numericos Computacionais
278
BRASIL BRASKEM
Mês/2014 Preço
Observado
Preço
Previsto
Preço
Observado
Preço
Previsto
Janeiro 0,10221 0,10262 0,06962 0,07052
Fevereiro 0,10125 0,10168 0,06251 0,06351
Março 0,11178 0,11206 0,06757 0,06850
Abril 0,11484 0,11507 0,05764 0,05872
Maio 0,11163 0,11191 0,05694 0,05803
Junho 0,12206 0,12218 0,05388 0,05501
Julho 0,13644 0,13635 0,05153 0,05269
Agosto 0,17288 0,17226 0,05464 0,05576
Setembro 0,12431 0,12440 0,05614 0,05724
Outubro 0,13649 0,13640 0,06401 0,06499
Novembro 0,14612 0,14588 0,06486 0,06583
Dezembro 0,11664 0,11685 0,05163 0,05279
Erro quadrático médio 0,0000000910 - 0,0000011125
BRF S/A CCR S/A
Mês/2014 Preço
Observado
Preço
Previsto
Preço
Observado
Preço
Previsto
Janeiro 0,21424 0,21300 0,07539 0,07620
Fevereiro 0,21263 0,21142 0,07810 0,07887
Março 0,22456 0,22317 0,08481 0,08549
Abril 0,25063 0,24886 0,08496 0,08563
Maio 0,23915 0,23755 0,08556 0,08623
Junho 0,26516 0,26318 0,08772 0,08835
Julho 0,27569 0,27355 0,08692 0,08756
Agosto 0,29774 0,29528 0,09905 0,09951
Setembro 0,28942 0,28708 0,08160 0,08233
Outubro 0,32075 0,31795 0,08997 0,09057
Novembro 0,33033 0,32738 0,08596 0,08662
Dezembro 0,31549 0,31276 0,07474 0,07556
Erro quadrático médio 0,0000045616 - 0,0000004681
CEMIG CIA HERING
Mês/2014 Preço
Observado
Preço
Previsto
Preço
Observado
Preço
Previsto
Janeiro 0,06732 0,06825 0,13183 0,13181
Fevereiro 0,06481 0,06578 0,12231 0,12243
Março 0,07393 0,07477 0,13474 0,13467
Abril 0,08266 0,08336 0,11559 0,11581
Maio 0,07559 0,07640 0,10652 0,10687
Junho 0,07840 0,07916 0,10897 0,10929
Julho 0,09008 0,09067 0,10336 0,10376
Agosto 0,09353 0,09408 0,13779 0,13769
Setembro 0,07263 0,07349 0,12181 0,12193
Outubro 0,06882 0,06973 0,12281 0,12292
Novembro 0,06807 0,06899 0,12005 0,12020
Dezembro 0,06336 0,06435 0,09900 0,09946
Erro quadrático médio 0,0000006907 - 0,0000000612
GERDAU ITAUSA
Mês/2014 Preço
Observado
Preço
Previsto
Preço
Observado
Preço
Previsto
Janeiro 0,08346 0,08415 0,13549 0,13542
Fevereiro 0,06987 0,07077 0,13980 0,13966
Março 0,07028 0,07116 0,15198 0,15166
Abril 0,06451 0,06548 0,16516 0,16465
Maio 0,06431 0,06529 0,15654 0,15616
V Simposio de Metodos Numericos Computacionais
279
Junho 0,06236 0,06336 0,15774 0,15734
Julho 0,06441 0,06539 0,17343 0,17280
Agosto 0,06246 0,06346 0,19980 0,19878
Setembro 0,05654 0,05763 0,16727 0,16673
Outubro 0,05308 0,05422 0,18170 0,18095
Novembro 0,05213 0,05329 0,19098 0,19009
Dezembro 0,04551 0,04677 0,17093 0,17033
Erro quadrático médio 0,0000010286 - 0,0000003463
ITAUUNIBANCO KLABIN S/A
Mês/2014 Preço
Observado
Preço
Previsto
Preço
Observado
Preço
Previsto
Janeiro 0,03584 0,03724 0,00987 0,01165
Fevereiro 0,03619 0,03758 0,00912 0,01091
Março 0,03965 0,04099 0,00917 0,01096
Abril 0,04216 0,04346 0,00902 0,01081
Maio 0,04030 0,04163 0,00847 0,01027
Junho 0,04105 0,04237 0,00847 0,01027
Julho 0,04506 0,04632 0,00877 0,01057
Agosto 0,05213 0,05329 0,00882 0,01062
Setembro 0,04396 0,04524 0,00937 0,01116
Outubro 0,04707 0,04830 0,00962 0,01141
Novembro 0,05003 0,05121 0,01098 0,01274
Dezembro 0,04456 0,04583 0,01193 0,01368
Erro quadrático médio 0,0000016647 - 0,0000031876
LOJAS AMERICANAS OI
Mês/2014 Preço
Observado
Preço
Previsto
Preço
Observado
Preço
Previsto
Janeiro 0,05644 0,05753 0,20652 0,20539
Fevereiro 0,05554 0,05664 0,17744 0,17675
Março 0,06456 0,06553 0,15389 0,15354
Abril 0,06521 0,06618 0,10476 0,10514
Maio 0,06411 0,06509 0,09474 0,09526
Junho 0,06817 0,06909 0,09524 0,09576
Julho 0,06992 0,07082 0,07118 0,07205
Agosto 0,07689 0,07768 0,07018 0,07107
Setembro 0,06712 0,06805 0,08471 0,08539
Outubro 0,07078 0,07166 0,06266 0,06366
Novembro 0,08231 0,08302 0,06667 0,06761
Dezembro 0,08391 0,08460 0,04065 0,04198
Erro quadrático médio 0,0000008456 - 0,0000006840
PETROBRAS SABESP
Mês/2014 Preço
Observado
Preço
Previsto
Preço
Observado
Preço
Previsto
Janeiro 0,06652 0,06746 0,05358 0,05472
Fevereiro 0,06261 0,06361 0,04877 0,04998
Março 0,07248 0,07334 0,04682 0,04805
Abril 0,07584 0,07665 0,04040 0,04173
Maio 0,07639 0,07719 0,04055 0,04188
Junho 0,07890 0,07966 0,04461 0,04588
Julho 0,08767 0,08830 0,05489 0,05600
Agosto 0,10847 0,10880 0,04672 0,04795
Setembro 0,08396 0,08465 0,04110 0,04242
Outubro 0,07093 0,07181 0,03885 0,04020
Novembro 0,05840 0,05946 0,02787 0,02938
Dezembro 0,04556 0,04682 0,02546 0,02701
Erro quadrático médio 0,0000007453 - 0,0000017024
V Simposio de Metodos Numericos Computacionais
280
SID NACIONAL SOUZA CRUZ
Mês/2014 Preço
Observado
Preço
Previsto
Preço
Observado
Preço
Previsto
Janeiro 0,10907 0,10939 0,10381 0,10381
Fevereiro 0,10526 0,10564 0,09991 0,09991
Março 0,10326 0,10366 0,10119 0,10119
Abril 0,10336 0,10376 0,09996 0,09996
Maio 0,10667 0,10702 0,11280 0,11280
Junho 0,11554 0,11576 0,11191 0,11191
Julho 0,09820 0,09867 0,10346 0,10346
Agosto 0,10471 0,10509 0,10297 0,10297
Setembro 0,09664 0,09714 0,09675 0,09675
Outubro 0,09469 0,09522 0,09833 0,09833
Novembro 0,09378 0,09433 0,10070 0,10070
Dezembro 0,08276 0,08346 0,09487 0,09487
Erro quadrático médio 0,0000002019 - 0,0000001854
SUZANO PAPEL TELEF BRASIL
Mês/2014 Preço
Observado
Preço
Previsto
Preço
Observado
Preço
Previsto
Janeiro 0,04521 0,04647 0,22742 0,22599
Fevereiro 0,04201 0,04331 0,21293 0,21172
Março 0,03950 0,04084 0,23825 0,23666
Abril 0,03393 0,03536 0,23228 0,23078
Maio 0,03794 0,03931 0,22181 0,22046
Junho 0,03955 0,04089 0,22306 0,22169
Julho 0,04160 0,04292 0,22607 0,22466
Agosto 0,04216 0,04346 0,23734 0,23577
Setembro 0,04682 0,04805 0,24010 0,23848
Outubro 0,04992 0,05111 0,25118 0,24940
Novembro 0,05203 0,05319 0,26070 0,25878
Dezembro 0,05388 0,05501 0,23233 0,23083
Erro quadrático médio 0,0000016462 - 0,0000023476
TIM PART S/A USIMINAS
Mês/2014 Preço
Observado
Preço
Previsto
Preço
Observado
Preço
Previsto
Janeiro 0,06085 0,06188 0,05714 0,05823
Fevereiro 0,05494 0,05605 0,04647 0,04771
Março 0,05689 0,05798 0,04877 0,04998
Abril 0,05815 0,05921 0,04120 0,04252
Maio 0,05845 0,05951 0,03704 0,03842
Junho 0,06226 0,06326 0,03549 0,03689
Julho 0,05774 0,05882 0,03784 0,03921
Agosto 0,06040 0,06144 0,03800 0,03936
Setembro 0,06211 0,06311 0,02942 0,03091
Outubro 0,06501 0,06598 0,02607 0,02761
Novembro 0,05995 0,06099 0,02356 0,02514
Dezembro 0,05654 0,05763 0,02281 0,02440
Erro quadrático médio 0,0000011005 - 0,0000000000
VALE
Mês/2014 Preço
Observado
Preço
Previsto
Janeiro 0,14787 0,14761
Fevereiro 0,14331 0,14312
Março 0,13960 0,13946
Abril 0,12993 0,12993
Maio 0,12602 0,12608
V Simposio de Metodos Numericos Computacionais
281
Junho 0,12957 0,12959
Julho 0,14351 0,14332
Agosto 0,12767 0,12771
Setembro 0,11669 0,11690
Outubro 0,10551 0,10588
Novembro 0,09774 0,09823
Dezembro 0,09388 0,09442
Erro quadrático médio 0,0000000721
Conforme evidenciado na Tabela 1, os erros quadráticos médios são pequenos de forma a
mostrar que o método de análise de dados em painel é eficiente para prever preço de ações.
Destaca-se que a melhor previsão ocorreu para a empresa USIMINAS que apresentou erro
quadrático médio de 0,0000000000.
Em contrapartida a previsão menos acurada, ou seja, aquela que apresentou maior erro
quadrático médio foi da empresa BRF S/A, sendo 0,0000045616. A Tabela 2 apresenta um
ranking dos erros quadráticos médios de cada uma das 23 empresas pesquisadas.
Tabela 2: Ranking dos erros quadráticos médios
Empresa Erro quadrático médio
Usiminas 0,0000000000
Cia Hering 0,0000000612
Vale 0,0000000721
Brasil 0,0000000910
Souza Cruz 0,0000001854
Sid Nacional 0,0000002019
Bradespar 0,0000003407
Itausa 0,0000003463
Bradesco 0,0000003718
CCR S/A 0,0000004681
OI 0,0000006840
CEMIG 0,0000006907
Petrobras 0,0000007453
Lojas Americanas 0,0000008456
Gerdau 0,0000010286
Tim Part S/A 0,0000011005
Braskem 0,0000011125
Suzano Papel 0,0000016462
ItauUnibanco 0,0000016647
SABESP 0,0000017024
Telef Brasil 0,0000023476
Klabin S/A 0,0000031876
BRF S/A 0,0000045616
A Tabela 3 apresenta o erro médio global obtido a partir do modelo utilizado para fazer as
previsões. Esse erro foi obtido fazendo a média aritmética entre os erros médios quadráticos
obtidos para cada empresa.
Tabela 3: Erro quadrático médio global
Método Erro quadrático médio
Dados em Painel 0,0000010198
V Simposio de Metodos Numericos Computacionais
282
Conforme evidenciado na Tabela 2, o modelo de dados em painel tem erro quadrático médio
com valor de 0,0000010198. Sendo assim, é fácil verificar que este é um modelo que pode
ser considerado preciso, mesmo sendo multivariado. O fato de o resultado obtido ser
considerado bom, corrobora com a ideia de diversificação de Markowitz (1952), pois parece
que o modelo multivariado é mais sensível a oscilações.
6 CONCLUSÕES
Este trabalho teve como objetivo geral prever o preço das ações da carteira teórica composta
pelas empresas integrantes do IBrX-50 utilizando análise de dados em painel.
Para tanto utilizou-se 23 empresas que compõem o índice IBRX-50 e que estavam listadas na
BM&FBovespa desde ao menos 2004. A variável analisada é o preço de fechamento da ação
do último dia útil de cada mês. E a tese do trabalho, está justamente em admitir que uma
previsão realizada de forma multivariada seria mais precisa do que as formas univariadas
tradicionais de fazer isso. Esta tese tem por base a Teoria de Markowitz (1952) que defende a
diversificação das carteiras de ações.
Por fim evidenciou-se que que o método de análise de dados em painel (multivariado)
apresentou um desempenho bastante satisfatório. Portanto, ao fim, confirma-se parcialmente
a tese da pesquisa, de que o modelo multivariado é também eficiente, ou até melhor que
modelos univariados, para prever o preço das ações da carteira teórica composta pelas
empresas integrantes do IBRX-50. E, ainda pode-se afirmar que a teoria de Markowitz (1952)
que sugere diversificação das carteiras foi comprovada por meio de pesquisa empírica.
REFERÊNCIAS
ANTUNES, M. A., PROCIANOY, J. L. Os efeitos das decisões de investimento das
empresas sobre os preços de suas ações no mercado de capitais. Revista de Administração, v.
38, n. 1, p. 5-14, 2002.
BRUNI, A. L. Risco e equilíbrio: uma análise do modelo de precificação de ativos
financeiros na avaliação de ações negociadas na Bovespa (1988-1996). 1998. 163 f.
Dissertação (mestrado) – Faculdade de Economia, Administração e Contabilidade,
Universidade de São Paulo, São Paulo, 1998.
DOWNES, J., GODMAN, J. E. Dicionário de termos financeiros e de investimento. São
Paulo: Nobel, 1993.
DUARTE, P. C., LAMOUNIER, W. M., COLAUTO, R. D. Modelos econométricos para
dados em painel: aspectos teóricos e exemplos de aplicação à pesquisa em contabilidade e
finanças. In: LOPES, J., RIBEIRO FILHO, J. F., PEDERNEHIRAS, M. (eds.), Educação
Contábil: Tópicos de Ensino e Pesquisa. São Paulo, Atlas, p. 256-274, 2008. Disponível em
<http://disciplinas.stoa.usp.br/pluginfile.php/176819/mod_resource/content/1/Artigo%20-
%20Modelos%20e m %20Painel.pdf>. Acesso em 26/01/15.
FÁVERO, L. P., BELFIORE, P., TAKAMATSU, R.T; SUZART, J. Métodos quantitativos
com Stata®. Rio de Janeiro: Elsevier, 2014.
GREENE, W. H. Econometric analysis. 6. ed Upper Saddle River: Prentice Hall, 2007.
KRITZMAN, M. What Practitioners Need To Know ... About Duration and Convexity.
Financial Analysts Journal, maio/junho, p. 17- 20, 1992.
MARKOWITZ, H. Portfolio selection. Journal of Finance, junho, pp. 77 – 91, 1952.
V Simposio de Metodos Numericos Computacionais
283
MARQUES, L. D. Modelos dinâmicos com dados em painel: revisão da literatura. Série
Working Papers do Centro de Estudos Macroeconômicos e Previsão (CEMPRE) da
Faculdade de Economia do Porto, Portugal, nº 100, 2000.
SHARPE, W. F., ALEXANDER, G. J., BAILEY, J. V. Investments. 5th ed. New Jersey:
Prentice-Hall, Englewood, 1995.
V Simposio de Metodos Numericos Computacionais
284
V Simposio de Metodos Numericos Computacionais
Uma proposta de estabilização do MEFG com enriquecimentotrigonométrico para Análise Modal
Resumo: No contexto da análise dinâmica de estruturas, uma das limitações do Método dos Elementos Finitos(MEF) é a dificuldade de aproximar as altas frequências. Essa falta de precisão se torna mais significativa a me-dida que os carregamentos excitem os modos com frequências mais altas. Visando abordar esse tipo de problemaé possível utilizar o Método dos Elementos Finitos Generalizados (MEFG) para enriquecer o espaço de aproxi-mação e representar melhor esses modos de alta frequência. Neste artigo será discutido o impacto da aplicaçãode enriquecimentos sucessivos na sensibilidade e na acurácia e será apresentada uma proposta de modificação dasfunções de enriquecimento para tratar problemas de sensibilidade.
Palavras-Chave: MEF, MEFG, Condicionamento, Análise Dinâmica
1 INTRODUÇÃO
O Método dos Elementos Finitos Generalizados (MEFG) é um método de Galerkin aplicado a sub-domínios. Nesse método são adicionadas funções de enriquecimento que refletem características parti-culares do problema que visam melhorar a qualidade da aproximação.
Com essa abordagem de enriquecimento, Arndt (2009) investigou a aplicação do MEFG na análisede vibrações livres de estruturas reticuladas. O estudo apresentou formulações variacionais para osproblemas de barra, vigas de Euler-Bernoulli e pórticos, bem como desenvolveu os respectivos elementosfinitos generalizados.
Os estudos de Arndt (2009) foram estendidos por Torii (2012) que aplicou o MEFG à análise modale transiente de barras, vigas de Euler-Bernoulli, pórticos, equação da onda bidimensional e estado planode tensões. Os exemplos apresentados demonstraram o potencial do MEFG para aplicações em análisedinâmica, principalmente para os casos em que os carregamentos excitam modos com frequências maiselevadas. É válido ressaltar que apesar dos resultados acurados e sucesso nas aplicações, foram relata-dos problemas no condicionamento dos problemas modelados pelo MEFG, sendo necessário o uso deprecisão numérica elevada (ARNDT, 2009) ou ajuste das funções de enriquecimento (TORII, 2012).
Baseando-se nesses trabalhos, Shang (2014) estende os estudos do MEFG a análise dinâmica elasto-plástica propondo soluções para as dificuldades numéricas presentes na abordagem por MEF. Os resulta-dos obtidos são bastante satisfatórios mas, no entanto, a problemática de sensibilidade numérica continuapresente.
Visando tratar os problemas de sensibilidade numérica que surgem na aplicação das propostas deenriquecimento, este artigo propõe uma sutil modificação nas funções utilizadas para análise unidimen-sional por Arndt (2009). Esta proposta se mostrou bastante eficaz, aumentando significativamente aestabilidade do método.
Paulo de Oliveira Weinhardt, MarcosArndt, Roberto Dalledone Machado
285
2 METODOLOGIA
O presente trabalho desenvolveu uma proposta de modificação visando a melhora da acurácia e daestabilidade da aplicação do MEFG com enriquecimentos trigonométricos em análise dinâmica, gerandomelhora nos resultados e aumento da aplicabilidade do método.2.1 Análise Dinâmica Modal
No contexto deste trabalho foi estudado um problema simples com solução analítica, possibilitandoassim a validação dos resultados, estudo de convergência de vibração uniaxial de barra e comparaçãodas abordagens adotadas.
Segundo Bathe (1996), a análise modal recai no seguinte problema de autovetores e autovalores ge-neralizado:
Kφ = ω2Mφ (1)
onde,
• K: matriz de rigidez;
• M : matriz de massa;
• ω: frequência natural;
• φ: vetor de modo de vibração natural.
As matrizes K e M estão associadas a discretização e aproximação por Elementos Finitos do Pro-blema Variacional de Valor de Contorno (PVVC) referente ao equilíbrio dinâmico do sistema. Ou seja,as matrizes K e M podem ser escritas como:
K = [kij] =
∫
Ω
Φi,xΦj ,xdΩ (2)
M = [mij] =
∫
Ω
ΦiΦjdΩ
sendo Φ as funções de interpolação,Φ,x, em notação indicial, sua primeira derivada e Ω o domínio globaldo problema.
2.1.1 Solução Analítica - Barra Bi-engastada
Com o intuito de avaliar a aproximação realizada, o presente trabalho se restringiu a aplicação em umproblema com solução analítica disponível. Para o caso unidimensional, o problema escolhido é expostoa seguir.
Considere-se uma barra engastada em ambas as extremidades, conforme ilustrado na Fig 1.
Figura 1: Barra bi-engastada.
V Simposio de Metodos Numericos Computacionais
286
O modelo resulta no seguinte problema elíptico de autovalores e autovetores, na forma forte:
d2u
dx2= −ω2 ρ
Eu(x) (3)
Sujeito às condições de contorno:
u(0) = 0 (4)u(L) = 0
A solução analítica é dada por:
ω =nπ
L
√ρ
E(5)
Esta solução é utilizada para normalizar as soluções aproximadas como:
ω =ωh
ω(6)
Considerando que o espectro de frequência independe das constantes, foram adotados: seção cons-tante unitária, parâmetros de material unitários e comprimento total unitário.
Analogamente, os graus de liberdade (n) são normalizados em função do número total de graus deliberdade (N ) como:
n =n
N(7)
Dessa forma, ao plotar ω × n, pode-se comparar os diferentes métodos com distintos números degraus de liberdade.2.2 Construção do Espaço de Aproximação do MEFG
O MEF pode ser visto como um caso particular do Método dos Elementos Finitos Partição da Unidade(MEFPU). Assim, as propriedades do MEF, e consequentemente do MEFG, são herdadas do MEFPU(MELENK, 1995). A seguir são estabelecidas as condições às quais a aproximação deve estar submetidapara que sejam válidas as propriedades da Partição da Unidade.
Partição da Unidade é um espaço topológico de funções φi subordinadas a uma cobertura Ωi ⊂IR que possuem as seguintes propriedades:
• suporteφi ⊂ −Ωi, ou seja φi tem suporte compacto em Ωi
• ∑iφi = 1 em Ω
Com a definição deste ente topológico pode-se estabelecer o conceito do espaço de aproximação doMEFPU.
Seja Ωi uma cobertura aberta de Ωi ⊂ IR e seja uma Partição da Unidade φi correspondente.Seja, ainda, um espaço Vi ⊂ H1(Ωi ∩ Ω). Então o espaço
VMEFPU =∑
i
φiVi (8)
é definido como espaço de aproximação do MEFPU.Com os conceitos pertinentes do MEFPU embasados, pode-se escrever que a solução aproximada do
MEFG é composta da soma de duas parcelas:
ueh = uMEF + uENR (9)
onde uMEF corresponde a parcela descrita pelas funções de aproximação clássicas do MEF e uENR
corresponde a aproximação feita pelas funções de enriquecimento que visam incorporar aspectos parti-culares do problema estudado.
V Simposio de Metodos Numericos Computacionais
287
2.3 Enriquecimento TrigonométricoPara o problema de vibração livre foi proposto por Arndt (2009) um conjunto de funções de enriqueci-
mento para o problema de análise dinâmica com o MEFG. Esse grupo de funções consiste na construçãode um par de nuvens, uma senoidal e uma cossenoidal, subordinadas a cobertura do nó enriquecido. Es-sas nuvens são escritas no domínio do elemento como dois pares de funções seno e cosseno. O domínioelementar é considerado para ξ ∈ (0,+1).
Nuvem senoidal:
γ1j = sen(βjLeξ) (10)γ2j = sen(βjLe(ξ − 1))
Nuvem cossenoidal:
ϕ1j = cos(βjLeξ)− 1 (11)ϕ2j = cos(βjLe(ξ − 1))− 1
Onde Le é o comprimento do elemento e βj = jπ é um parâmetro de enriquecimento hierárquicoproposto por Arndt (2009) para j níveis de funções.2.4 Pré condicionamento das funções de enriquecimento
O presente trabalho propõe uma alteração no grupo de funções de enriquecimento visando estabi-lizar sua aplicação sucessiva que visa evitar a construção de espaços de aproximação que tendem adependência linear. A modificação proposta, chamada de Modificação Heurística no escopo deste tra-balho, consiste basicamente na eliminação do parâmetro Le e um ajuste no parâmetro βj a cada novonível de enriquecimento de forma automática. A remoção de Le desvincula o formato das funções deenriquecimento do tamanho do elemento, facilitando o estudo da influência do parâmetro βj no condi-cionamento. Assim, as funções utilizadas na aplicações foram escritas no domínio de ξ ∈ (−1,+1) daseguinte forma:
Nuvem senoidal:
γ1j = sen(βj(ξ + 1)) (12)γ2j = sen(βj(ξ − 1))
Nuvem cossenoidal:
ϕ1j = cos(βj(ξ + 1))− 1 (13)ϕ2j = cos(βj(ξ − 1))− 1
Parâmetro βj
βj = (2j − 5
4)π (14)
3 RESULTADOS
O enriquecimento trigonométrico proposto por Arndt (2009) tem alta acurácia e garante independên-cia linear analítica entre cada nível de enriquecimento. No entanto, os testes apresentam uma dificuldadenumérica de avançar para níveis de enriquecimento mais altos sem utilizar uma precisão muito alta ecom grande dificuldade de integração numérica.
Baseando-se em diversos testes, resolveu-se tentar um processo de amortização do parâmetro βj aolongo de cada camada de enriquecimento. Esse processo consiste no descrito pela Eq.14.
Visando estudar as condições de sensibilidade das matrizes envolvidas no problema de autovalores eautovetores generalizado, foram medidos o números de condição da matriz de massa analítica e matrizde rigidez restritas referentes a aplicação de 10 níveis de enriquecimento em um elemento finito. O efeitoresultante desse processo de pré condicionamento é evidente, como pode ser visto na Fig.2 e na Fig.3.
V Simposio de Metodos Numericos Computacionais
288
Figura 2: Número de condição da Matriz de Massa para os dez primeiros níveis de enriquecimento -MEFG x Modificação Heurística
Figura 3: Número de condição da Matriz de Rigidez para os dez primeiros níveis de enriquecimento -MEFG x Modificação Heurística
Os resultados dos testes feitos até a 4a camada de enriquecimento em uma malha de 100 elementosfinitos são expostos nas Figs.4, 5 e 6. O 1o nível de enriquecimento foi omitido em razão das duasabordagens coincidirem para os parâmetros adotados. É possível notar que as diferenças de condiciona-mento das matrizes de massa e rigidez impactam na qualidade da aproximação do MEFG na análisemodal, comprometendo a acurácia em casos mal condicionados e podendo gerar modos espúrios.
V Simposio de Metodos Numericos Computacionais
289
Figura 4: Espectro normalizado de frequências - 2 níveis de enriquecimento - Modificação Heurística
Figura 5: Espectro normalizado de frequências - 3 níveis de enriquecimento - Modificação Heurística
Figura 6: Espectro normalizado de frequências - 4 níveis de enriquecimento - Modificação Heurística
Os testes apresentados até 4 níveis de enriquecimento em uma malha de 100 elementos finitos, atéonde a proposta não-modificada não apresenta modos espúrios, demonstram uma tendência de estabili-dade da alternativa. Com o intuito de testar a robustez da proposta, é apresentado na Fig. 7 o espectroreferente a aplicação de 50 níveis de enriquecimento com a utilização de precisão dupla. O erro obser-vado é bastante reduzido, mesmo para a última frequência (abaixo de 20%), e não foram encontradosmodos espúrios.
V Simposio de Metodos Numericos Computacionais
290
Figura 7: Espectro normalizado de frequências - 50 níveis de enriquecimento - Modificação Heurística
4 CONCLUSÕES
Neste trabalho foi apresentada uma proposta de modificação das funções de enriquecimento do MEFGaplicado a análise modal. As alterações, apesar de sutis, resultaram em ganho efetivo de condiciona-mento sem sacrificar a acurácia. A abordagem exige novos estudos para consolidação, principalmentecom uma adaptação da formulação, aplicação na análise transiente e extensão para domínios bidimen-sionais.
REFERÊNCIAS
Arndt M. O Método dos Elementos Finitos Generalizados Aplicado à Análise de Vibrações Livres deEstruturas Reticuladas. Tese de doutorado, Universidade Federal do Paraná, 2009.
Bathe K.J. Finite element procedures. Prentice-Hall, 1996.Melenk J.M. On generalized finite element methods. Ph.D. thesis, The University of Maryland, 1995.Shang Y.H. Análise dinâmica elastoplástica de problemas da mecânica de sólidos via métodos enrique-
cidos de elementos finitos. Tese de doutorado, Pontifícia Universidade Católica do Paraná, 2014.Torii A.J. Análise dinâmica de estruturas com o Método dos Elementos Finitos Generalizado. Tese de
doutorado, Universidade Federal do Paraná, 2012.
V Simposio de Metodos Numericos Computacionais
291
V Simposio de Metodos Numericos Computacionais
CONTROLE ATIVO DE VIBRAÇÕES UTILIZANDO LÓGICA FUZZY
EM UM ROTOR FLEXÍVEL COM ATUADORES
ELETROMAGNÉTICOS
Resumo: Nos últimos anos, novos métodos dedicados ao controle ativo de vibrações foram
desenvolvidos e propostos, com o objetivo de lidar com vários tipos de problemas da
dinâmica. Estas pesquisas são impulsionadas pela busca por um desempenho mais seguro e
eficiente nas operações dos sistemas mecânicos. Existem vários tipos de atuadores
disponíveis para o controle ativo de vibrações, mas o presente trabalho é dedicado ao Atuador
Eletromagnético. Este atuador utiliza forças eletromagnéticas para controlar o rotor sem o
contato mecânico. O atuador eletromagnético é representado por um modelo não-linear, o que
justifica o uso de controle utilizando Lógica Fuzzy. Neste trabalho é utilizado o modelo de
Takagi-Sugeno e o os controladores são obtidos utilizando o regulador linear quadrático.
Finalmente, os resultados da simulação demonstram a eficácia da metodologia.
Palavras-Chave: Controle Ativo de Vibrações, Atuador Eletromagnético, Lógica Fuzzy.
1 INTRODUÇÃO
Atualmente, observa-se um aumento de trabalhos de pesquisa em engenharia dedicada ao
desenvolvimento de técnicas de controle ativo de vibrações (AVC) (HURLEBAUS,
STÖBENER AND GAUL, 2008; RESTA, et al. 2010). No contexto da dinâmica do rotor,
SALDARRIAGA (2007) classifica as técnicas de AVC em duas categorias principais: o
controle ativo de vibrações, que consiste na aplicação de forças laterais que se oponha às
forças provocadas pela vibração e o equilíbrio ativo que consiste na redistribuição da massa
ao longo do rotor, com a participação de atuadores, de modo que o rotor possa ser
equilibrado.
Neste trabalho, o atuador eletromagnético (AEM) é usado para controlar o comportamento
dinâmico de um rotor flexível. Neste tipo de atuador a dificuldade tem a ver com a não
linearidade do atuador. Vários autores têm proposto alternativas diferentes para lidar com tal
situação. HAGOPIAN e MAHFOUD (2010) utilizaram o modelo inverso do atuador
eletromagnético para controlar um sistema de rotor e utilizaram a força de controle para
determinar a corrente elétrica que foi usada para acionar o AEM.
Além disso, CARDIM (2009) e GAINO (2009) utilizaram as desigualdades matriciais
lineares (LMIs) para montar reguladores fuzzy, considerando o modelo de Takagi-Sugeno
(TS), utilizaram a Lógica Fuzzy baseado em modelos locais para resolver sistemas não-
Daniel Almeida Colombo, Erik Taketa,Renan Franco Correa, Edson Hideki Koroishi
292
lineares. Esta metodologia é utilizada, na presente contribuição, para resolver o problema de
não-linearidade do AEM que é usado para controlar o sistema de rotor.
2 MODELO DO ROTOR
O modelo do rotor apresentado foi obtido utilizando 32 elementos de viga de Timoshenko,
sendo este modelo discretizado mostrado na Figura 1. Os discos D1 e D2 estão localizados
nos nós 13 e 22, os mancais M1 (Mancal Híbrido) e M2 nos nós 4 e 31 e considerados como
plano de medição o nó 8. Em (KOROISHI, et al. 2014) a equação do movimento de um rotor
flexível foi determinada utilizando o Método dos Elementos Finitos e é escrita na forma
matricial dada pela Equação 1:
[ ] [ ] [ ] )()()()()( tFtFtxKKtxCCtxM EMAuggb +=++++ (1)
onde x(t) é o vetor de deslocamentos generalizados; [M], [K], [Cb], [Cg] e [kg] são as
matrizes bem conhecidas de inércia, rigidez, amortecimento viscoso (que podem incluir
amortecimento proporcional), de Coriolis (com respeito à velocidade de rotação) e o efeito da
variação da velocidade de rotação; é a velocidade variável no tempo angular, e Fu (t) e
FEMA(t) são as forças devido ao desequilíbrio e ao AEM, respectivamente.
Figura 1: Esquema de Rotor, Adaptado de (KOROISHI, et al. 2014).
O mancal híbrido é composto de 4 atuadores eletromagnéticos, dois para cada direção de
controle (x e z). Os AEMs aplicam somente força de atração e cada atuador age
separadamente. A Figura 2a apresenta o modelo do mancal híbrido (mancal contendo os
quatro AEMs) e a Figura 2b apresenta o modelo esquemático de cada AEM.
Figura 2: (a) Mancal híbrido; (b) Circuito ferromagnético (KOROISHI, et al. 2014)
V Simposio de Metodos Numericos Computacionais
293
Tabela 1: Características físicas do sistema de rotor-rolamento, segundo KOROISHI, et al. (2014).
Rotor Mancal
Propriedade Valor Propriedade Valor
Massa do eixo (kg) 4,1481 kx1 (N/m) 7,73X105
Massa do disco D1 (kg) 2,6495 kz1 (N/m) 1,13X105
Massa do disco D2 (kg) 2,6495 kx2 (N/m) 5,51X108
Espessura do disco D1 (m) 0,1000 kz2 (N/m) 7,34X108
Espessura do disco D2 (m) 0,1000 Cx1 (N.s/m) 5,7876
Diâmetro do eixo (m) 0,0290 Cz1 (N.s/m) 12,6001
Módulo de Young (GN/m2) 205 Cx2 (N.s/m) 97,0231
Densidade (Kg/m3) 7850 Cz2 (N.s/m) 77,8510
Coeficiente de Poisson 0,3 - -
Os parâmetros que definem a geometria das bobinas (a, b, c, d e f) são mostrados na Figura
2(b); µ0 e µ é a permeabilidade magnética no vácuo e a permeabilidade relativa do material,
respectivamente. µr é determinado experimentalmente. A diferença é dada por e; δ é a
variação da folga devido à vibração do rotor na posição do AEM.
A Tabela 1 apresenta as propriedades físicas do rotor. Outras propriedades utilizadas para o
eixo são as seguintes: elásticas ou Módulo de Young (E) = 210 GN / m2, densidade = 7,800
kg / m3, e Coeficiente de Poisson = 0,3.
A força eletromagnética é dada pela Equação 2:
(2)
Parâmetros da bobina conforme KOROISHI et al. (2014): µ0=1.2566X10-6H/m,
µr=700H/m, N (número de espiras) = 250, a=9,5 mm, b=38,0 mm, c=28,5 mm, d= 9,5 mm, f
= 22,5 mm e=0,5 mm.
3 METODOLOGIA
A estratégia de controle é mostrada na Figura 3e a estrutura do controlador Fuzzy proposto é
mostrado na Figura 4.
Figura 2. Estratégia de controle utilizando Lógica Fuzzy
Os controladores locais Gis da Figura 4 são determinados por meio de modelos locais, os
quais são lineares. Vale destacar que estes controladores locais foram determinados
utilizando o regulador linear quadrático (LQR). Os modelos locais foram determinados
FEMA =N2I2μ0af
2 e ± δ +b + c + d− 2a
μr
2
V Simposio de Metodos Numericos Computacionais
294
considerando os valores máximos e mínimos de da Equação 2 tanto para a direção x
como para a direção z. Como o sistema apresenta duas não-linearidades (forças
eletromagnéticas nas direções x e z), a metodologia necessitou de 4 modelos locais.
Figura 3. Controlador Fuzzy utilizando o Modelo de TS (adaptado de R. CARDIM, 2009).
Os termos ijf~
e ijg~ são a funções não lineares no sistema, e no presente trabalho é,
respectivamente, a força eletromagnética nas direções x e z. 1ija , 2ija , 1ijb e 2ijb são os valores
de mínimos e máximos de ijf~
e ijg~ , respectivamente. Estes termos são utilizados para
determinar as seguintes funções auxiliares.
21
1
2
21
2
1
))((~
))((~
ijij
ijij
ij
ijij
ijij
ij
aa
txfa
aa
atxf
e
21
1
2
21
2
1
))((~
))((~
ijij
ijij
ij
ijij
ijij
ij
bb
txgb
bb
btxg
(3)
Finalmente, utilizando estas funções auxiliares, o αis é calculado:
gf ijpijpi
(4)
Com pf =1,2 e pg=1,2.
4 RESULTADOS
O sistema rotativo foi analisado considerando uma entrada impulsiva de 100N aplicada
no disco 1. Os controladores locais foram projetados utilizando o LQR, sendo o
controlador global determinado segundo a metodologia apresentada na seção3. A Figura
5 mostra o deslocamento para os sistemas analisados.
A resposta do sistema controlado mostra que o controlador satisfez as expectativas do
projeto, visto que a resposta do sistema foi atenuada. Em um instante de tempo de
aproximadamente 0,1s, a amplitude na direção x foi reduzida de 9,03x10-5
m para uma
amplitude de 1,56x10-5
m, o que representa uma redução de 82,7%, na direção z a
amplitude foi reduzida de 7,663x10-5
para 1,68x10-5
, representando 78,07% de redução.
Em seguida, a Figura 6 é apresentada a função resposta em frequência (FRF).
V Simposio de Metodos Numericos Computacionais
295
Figura 4. Reposta do Deslocamento do Sistema.
Figura 5. Função Resposta em Frequência (FRF).
Analisando a Figura 6 é possível observar a atenuação do deslocamento através dos picos da
FRF. Avaliando primeiramente na direção x, pode-se observar que houve uma redução na
amplitude de 9,39 dB no primeiro modo e de 10,6 dB no segundo modo. Na direção z houve
uma redução de 5,77 dB e 7,09 dB para o primeiro e segundo modo, respectivamente.
Figura 6. Força Eletromagnética.
A Figura 7 mostra a força eletromagnética que foi utilizada para o controle do sistema do
V Simposio de Metodos Numericos Computacionais
296
rotor. Observando-se a Figura 7, verifica-se que a maior aplicação de força de controle ocorre
nos ciclos mais próximos ao impulso, sendo que a máxima força aplicada ocorre durante o
segundo ciclo. Após 0,05 segundos do impulso, a ordem de grandeza da força de controle
reduz para aproximadamente 5% da força máxima de controle.
5 CONCLUSÕES
Os resultados apresentados demonstram a eficiência da utilização da Lógica Fuzzy para o
controle de sistemas rotativos. O modelo de Takagi-Sugeno, vinculado com a compensação
paralela, permitiu a solução de não-linearidade do AEM através da solução por meio de
modelos locais. O controlador LQR foi utilizando para solucionar esses modelos locais,
controlando assim, o sistema global. Diante disto, através de simulações computacionais, o
objetivo do trabalho em mostrar a eficiência da técnica de controle em um sistema rotativo
por meio de Lógica Fuzzy utilizando um AEM não-linear, foi alcançado.
REFERÊNCIAS
BRATLAND, M., HAUGEN, B., AND RØLVAG, T., Modal analysis of active flexible
multibody systems, Computers & Structures, vol. 89, 750-761, 2011.
CARDIM, R., Projeto de controladores baseados em LMIs: Realimentação derivativa e
sistemas chaveados utilizando estrutura variável, Tese de Doutorado, Universidade Estadual
Paulista, Ilha Solteira, 2009.
HAGOPIAN, J. D., MAHFOUD, J., Electromagnetic actuator design for the control of light
structures, Smart Structures and Systems, vol. 6, No. 1, 29-38, 2010.
HURLEBAUS, S., STÖBENER, U., AND GAUL, L., Vibration reduction of curved panels
by activemodal control, Computers&Structures, vol. 86, 251–257, 2008.
GAINO, R., Controle de movimentos de pacientes paraplégicos utilizando modelos Fuzzy T-
S, Tese de Doutorado, Universidade Estadual Paulista, Ilha Solteira, 2009.
KOROISHI, E. H., BORGES, A. S, CAVALINI JR, A. Ap., AND STEFFEN JR, V.,
Numerical and Experimental Modal Control of Flexible Rotor Using Electromagnetic
Actuator, Mathematical Problems in Engineering, 2014
LI, S., Active modal control simulation of vibro-acoustic response of a fluid-loaded plate,
Journal of Sound and Vibration, vol. 330, 5545–5557, 2011.
RESTA, F., RIPAMONTI, F., CAZZULANI, G. AND FERRARI, M., Independent modal
control for nonlinear flexible structures: An experimental test rig, Journal of Sound and
Vibration, vol. 329, 961–972, 2010.
SALDARRIAGA, M. V., Atenuação de Vibrações em Máquinas Rotativas Flexíveis usando
Materiais Viscoelásticos nos Suportes, Tese de Doutorado, Universidade Federal de
Uberlândia, Uberlândia, 2007.
TAKAGI, T., AND SUGENO,M., Fuzzy identification of systems and its applications to
modeling and control, IEEE Transactions on Systems, Man and Cybernetics, vol. 15, 116-
132, 1985.
V Simposio de Metodos Numericos Computacionais
297
V Simposio de Metodos Numericos Computacionais
AMPLIANDO A INTERAÇÃO PARA AUMENTAR ACOMPREENSÃO NA VISUALIZAÇÃO DE DADOS DE RADARES
METEOROLÓGICOS
Resumo: A visualização de dados de radares meteorológicos auxilia o analista a identificar a entrada de sistemasfrontais e eventos severos, dando importante suporte cognitivo à avaliação e à tomada de decisões. Mas, tradi-cionalmente, esses sistemas têm mantido alguns padrões de interface e funcionalidades que têm persistido pormuitos anos. Com a evolução da tecnologia a quantidade de informações geradas pelos radares aumentou, emmuitos casos, mais de cinco vezes, assim, também cresceu o interesse por soluções que permitam analisar e extrairmais rápida e facilmente informações relevantes a partir desses dados. Neste trabalho é apresentado o sistemaRADEX para visualização interativa de dados de radares meteorológicos. Sua interface é orientada ao usuário,projetada para ser simples e intuitiva. Provê ferramentas personalizadas, com controles gráficos para definição deparâmetros em algoritmos de visualização. Os produtos de visualização são gerados "sob demanda" e armazenadosde modo que possam ser acessados e alternados instantaneamente para comparação e análise visual.
Palavras-Chave: Palavras-chave: Visualização Científica Interativa, Python, Radar Meteorológico
1 INTRODUÇÃO
Atualmente, o Instituto Tecnológico SIMEPAR opera dois radares meteorológicos que funcionamcontinuamente, coletando informações de grande valor agregado na previsão meteorológica e monitora-mento de eventos severos e, também, no acompanhamento da entrada de sistemas frontais no Estado doParaná. Pelo menos a cada dez minutos é gerado um volume de dados que pode conter milhões de pontose até de vinte variáveis associadas a cada ponto da grade tridimensional. Assim, ferramentas interativasque permitam visualizar esses dados e extrair rapidamente informações relevantes a partir deles, são degrande importância (Telea, 2014; Hansen et al., 2014).
Dos radares operados pelo SIMEPAR, o mais antigo deles foi instalado no município de TeixeraSoares no estado do Paraná, em 1996. É um radar de polarização simples, ou seja, emite somente ondashorizontais. O mais novo, instalado em 2013 no município de Cascavel no estado do Paraná, é um radarde polarização dupla, ou seja, emite ondas verticais e horizontais (Islam and Rico-Ramirez, 2013; Caoet al., 2012; Silveira, 1998). Em ambos os radares, o alcance máximo cobre praticamente todo o estadodo Paraná e parte dos estados de Santa Catarina, Rio Grande do Sul, São Paulo e Mato Grosso do Sul e,ainda, parte dos países vizinhos Paraguai e Argentina.
A tecnologia de radares polarimétricos permite adquirir uma quantidade maior de dados aumentandoa sua capacidade de detectar particulas suspensas mas também agrega complexidade aos dados e à forma
Renan Henrique Luz Seluzniak, Tiago MartinuzziBuriol, Cesar Augustus Assis Beneti, Sergio Scheer
298
de processá-los. Assim, ferramentas computacionais que permitem interagir e explorar visualmente osdados de radares polarimétricos são recursos de grande valor para a análise e a compreensão dessesdados. Além disso, muitos aspectos, incluindo fatores humanos e computacionais, apresentam desafiosconsideráveis para o desenvolvimento de ferramentas de visualização eficientes que possam trazer ganhoefetivo ao analista (Tory and Möller, 2004).
Nesse sentido, a usabilidade de um sistema de visualização também é um aspecto relevante a serconsiderado, pois, ao inspecionar conjunto de dados é importante que o analista possa se concentrar naanálise e na compreensão dos dados e do fenômeno ao invés de preocupar-se em como utilizar o sis-tema. Isso significa não distrair-se procurando uma funcionalidade em menus e submenus ou realizandoinúmeros cliques com o mouse. Uma interface com usuário mais eficiente pode permitir ao analistaconcentrar-se na investigação dos dados para obter uma melhor compreensão do fenômeno e, assim,conseguir tomar decisões e chegar a conclusões mais rapidamente. Também se espera que o sistemaresponda rapidamente às solicitações do usuário, então, o desempenho dos algoritmos numéricos e devisualização deve ser aceitável.
Neste trabalho é apresentado um experimento sobre visualização interativa para análise de dados deradares meteorológicos. Um sistema foi desenvolvido em Python, utilizando um conjunto de módulos ebibliotecas especializadas, tais como NumPy, para processamento numérico, e Pygame para visualizaçãoe interação. O ideia principal é prover um meio fácil e rápido de explorar os dados de forma interativae intuitiva. O sistema foi projetado com orientação ao usuário buscando disponibilizar ferramentasbaseadas em controles gráficos e possibilitam gerar produtos de visualização "sob demanda", ou seja,os produtos são gerados a medida que o usuário interage com o sistema. Uma vez gerado, um produtode visualização (buffer de imagem) é armazenado pode ser acessado instantaneamente. Essa abordagemnão requer o pré processamento dos dados e permite mecanismos para comparação, altenando rapida-mente entre uma imagem e outra. Os mecanismos de processamento e visualização interativa dos dadosproporciona uma navegação espaço-temporal oferecendo suporte cognitivo ao analista.
2 DADOS E PRODUTOS DE RADARES METEOROLÓGICOS
Os radares operados pelo Instituto tecnologico SIMEPAR geram dados a partir da emissão de feixesde ondas eletromagnéticas a cada 1 grau (varredura azimutal), completando um giro de 360 graus paracada elevação da antena (inclinação vertical). O radar TXS, por exemplo, dispõe para cada ponto em seusdados, pelo menos três variáveis (chamadas de "momentos"): Refletividade (DBZH), Velocidade Radial(VELH) e Largura Espectral (WIDTHH). Já o radar CAS possui mais de vinte momentos associados acada ponto. Ao gerar imagens para visualização destes dados, transformações entre o sitema de coorde-nadas esférico para cartesiano são realizadas. Adicionalmente, uma série de rotinas envolvendo métodosnuméricos computacionais, tais como interpolação, seleção e mapeamento dos dados são processsados.Portanto, o desempenho computacional é um dos aspectos chave para proporcionar uma interação fluidaem um aplicativo para visualização interativa.
O volume de dados gerado ao final de um ciclo completo do radar TXS corresponde a uma sequênciade 360 varreduras azimutais com 14 diferentes elevações da antena, com 800 pontos (gates ou bins)igualmente espaçados ao longo de cada feixe de 200 km. Por fim, tem-se uma grade em coordenadaspolares com resolução de 360x14x800, completando 4.032.000 pontos. O radar CAS pode gerar até2500 gates por feixe. Cada um destes pontos podem conter dezenas de variáveis associadas a ele. Acada 10 minutos é gerado um volume de dados descrito em coordenadas esféricas, com três graus deliberdade (r, θ, φ) (Figura 1). O primeiro, r, é o range (distância do alvo até radar), θ é o azimute (ânguloem relação ao norte), e φ é a elevação da antena.
Dentre as dezenas de variáveis que um radar pode medir, destaca-se a refletividade (DBZH) que éum fator entre a irradiância emitida pelo radar e a recebida por ele depois de retroespalhadas peloshidrometeoros (gotas de chuva) presentes na atmosfera. A unidade utilizada é o dBZ, que é uma escalalogarítmica da refletividade. Os valores variam entre -24 dBZ e 72 dBZ, quanto maiores forem essesvalores, maiores serão os diâmetros das gotas presentes no volume medido, indicando maior intensidadede precipitação. Os diversos produtos gerados a partir dos dados são visualizados e analisados a fim
V Simposio de Metodos Numericos Computacionais
299
Figura 1: Esquema de varredura e a estrutura do volume de dados.
de se obter informações para previsões a curto prazo, como possibilidade de tempestades e tormentas.A figura ?? mostra um sistema 2D para visualização de dados do radar e, também, uma representaçãosimplificada da estrutura 3D dos dados como eles são originalmente adquiridos.
Neste trabalho foi desenvolvido um sistema para visualização interativa de dados de radar que munidode ferramentas projetadas para serem fáceis de usar, com resposta rápida e diferentes das abordagensconvencionais. A ideia é explorar a evolução dos hardwares gráficos e em novos paradigmas de interaçãopara criar ferramentas de visualização orientadas ao usuário, que possam oferecer um ganho no processode análise desses dados. Para isso, é necessário gerar os produtos de visualização a partir dos dadosoriginais, de forma que a estrutura inicial seja perdida. Com isso, os produtos devem ser obtidos apartir de solicitações que o usuário faz interagindo graficamente sobre uma representação dos dados. Aabordagem adotada é armazenar os produtos a medida que vão sendo gerados, para que o usuário possa?navegar? entre as imagens alternando rapidamente entre uma e outra a fim de analisar e comparar osprodutos.
3 DESCRIÇÃO DO SISTEMA DESENVOLVIDO
O sistema foi desenvolvido em Python (www.python.org), que é uma linguagem de programação con-hecida por ser versátil, possuir uma vasta biblioteca padrão, além de módulos de terceiros e, também,por ser de fácil aprendizagem. Outras de suas características incluem permitir o desenvolvimento rápidode programas (alta produtividade) (Wei-Bing L. J., 2012), possuir uma sintaxe limpa gerando códigoslegíveis e possibilitar a compilação de códigos em linguagem de máquina. Assim, buscando um equi-líbrio entre esforço demandado para o desenvolvimento e o desempenho final do aplicativo, optou-se porutilizar, além da linguagem Python, os pacotes Pygame (www.pygame.org) e Numpy (www.numpy.org).
Pygame é uma biblioteca multiplataforma para o desenvolvimento de jogos, que funciona em umacamada sobre a biblioteca SDL (Simple DirectMedia Layer). Esta última, é uma biblioteca multimídialivre e de código aberto, multiplataforma, escrita em C, que representa uma interface simples para acessodireto ao hardware gráfico, de áudio, e dispositivos de entrada de várias plataformas. Por ser destinadaao desenvolvimento de jogos, Pygame também é adequado para o desenvolvimento de sistemas de vi-sualização interativos, proporcionando um conjunto de funções convenientes para o desenvolvimento decontroles gráficos e mecanismos de interação (Jones, 2005; McGugan, 2007).
NumPy é o pacote básico para computação científica e processamento numérico em Python. Possuiestruturas de dados que permitem trabalhar com arranjos, vetores e matrizes de N dimensões de comconsiderável eficiência (Coelho, 2007) e conveniências. Provê funções e operações sofisticadas, real-izadas por códigos compilados escritos em C, o que garante um desempenho superior se comparado àsoperações com vetores originais do Python.
Numpy tornou-se o padrão para representação de dados numéricos em Python, pois possibilita aimplementação eficiente de algoritmos de processamento numérico em uma linguagem de alto nível. Oganho de desempenho é devido, em geral, ao uso de três técnicas: cálculos vetorizados, acesso aos dadosna memória sem a necessidade de copiar e a minimização do número de operações aritméticas (WaltS. et al., 2011). Em sua essência, no entanto, um array do Numpy é apenas uma forma conveniente
V Simposio de Metodos Numericos Computacionais
300
de descrever um ou mais blocos de memória do computador, de modo que os números representadospossam ser facilmente manipulados.
Este conjunto de bibliotecas proporcionou agilidade no desenvolvimento e na experimentação deferramentas e funcionalidades de visualização altamente interativas, focadas na facilidade de uso e navelocidade de resposta dos algoritmos às solicitações do usuário. Buscou-se com as funcionalidadesimplementadas proporcionar um meio efetivo de exploração e de análise visual dos dados, preservandoa sua estrutura original. No sistema desenvolvido, a interação ocorre de maneira gráfica e um PPI servecomo ponto de partida para a definição dos parâmetros usados nos algoritmos de visualização.
A estratégia adotada, chamada aqui de geração de produtos "sob demanda", consiste em manter umconjunto de dados na memória RAM da máquina e obter produtos diversos a partir destes dados, inter-agindo diretamente em uma representação visual, que serve como base (por exemplo, um PPI). Dessamaneira, é possível dar zoom ou obter cortes verticais do volume de dados criando novas imagens a par-tir dos dados originais, sem haver a necessidade de converter previamente a grade polar em uma gradecartesiana. Para descrever brevemente a utilização da ferramenta, supondo que o usuário queira ver umvorte vertical, basta para isso traçar uma linha sobre o PPI usando o com o mouse (clicar, arrastar esoltar). Ou então, para ampliar e transladar gradualmente a imagem, basta apontar o ponto de foco egirar a rodinha do mouse, assim que o movimento cessa, a imagem é atualizada (reprocessada) a partirdos dados originais.
Para conferir uma resposta rápida na geração do corte vertical, a abordagem utilizada foi calcular aposição espacial correspondente a cada pixel da imagem que representa o corte e, então, buscar nos dadoso valor da variável para aquela posição. Essa estratégia é conveniente para a utilização do pacote Numpy,pois as operações com matrizes podem ser escritas com poucas linhas de programação e o desempenhotem sido satisfatório para o propósito do trabalho. Não é objetivo deste trabalho apresentar testes develocidade de processamento, no entanto, é possível estimar que em um PC comum, um tempo menorque 1/5 de segundo, o que é aceitável.
4 VISUALIZAÇÃO INTERATIVA E PRODUTOS "SOB DEMANDA"
Visando proporcionar ao usuário uma experiência de análise de dados fluida, por meio de uma in-terface simples e mecanismos de interação eficazes, adotou-se a abordagem de geração de produtos devisualização "sob demanda". A ideia é realizar o processamento dos dados e a geração das imagens (pro-dutos de visualização) a medida que o usuário solicita ao sistema de forma interativa. Por exemplo, aoabrir um aquivo de dados, o usuário visualiza um PPI da variável refletividade e um corte vertical padrão.Ao selecionar outra variável, outro PPI e corte vertical são gerados e armazenados em um "banco de pro-dutos". Nesse momento o sistema possui dois PPIs armazenados, então, o usuário poder alternar entreum e outro, usando as teclas ou botões do aplicativo, e visualizar os PPIs instataneamente. Dessa forma,a medida que o usuário vai navegando e interagindo com os dados, o sistema vai armazenando produtosde visualização que passam a estar disponíveis instantaneamente. Ou seja, o tempo de processamento(cerca de 200 ms) não é mais necessário. Nas seções seguintes são apresentadas algumas ferramentasdisponíveis no sistema RADEX.4.1 Navegação espaço-temporal
Ao analisar dados de diferentes radares, contendo varreduras com horário diferentes, é desejável queo usuário possa avançar ou retroceder no tempo, para um mesmo radar (navegação temporal), ou alternarentre diferentes elevações de um mesmo volume de dados (navegação espacial). Para permitir esse tipode interação, evitando o reprocessamento de dados, foi desenvolvido um mecanismo de gerenciamentoda navegação utilizando a estrutura de dicionários do Python. A ideia é guardar informações chave sobreos dados processados e acessar seus produtos conforme o usuário solicitar. Por exemplo, se o usuárioabrir um conjunto de dados provenientes de diferentes radares com várias datas para cada radar. Então,ao pressionar as setas direita e esquerda, no teclado, o usuário visualiza os dados desse mesmo radar nadata e horário imediatamente posterior ou anterior, respectivamente. Ao pressionar um botão na tela,muda o radar. As setas "para cima" e "para baixo" alternam as elevações imediatamente superior ouinferior, respectivamente. Um dicionários Python para cada radar é usado para guardar vários tipos de
V Simposio de Metodos Numericos Computacionais
301
informações, incluindo sprites do Pygame e matrizes de dados. Antes de processar os cálculos para geraralgum produto é feita uma busca nos dicionários para verificar se tal operação já foi feita, caso já tenhasido feita, o produto já processado é mostrado.4.2 Integração com a biblioteca Py-ART
Py-ART é um módulo Python que contém uma coleção de algoritmos para dados de radar meteo-rológico e utilitários. Py-ART é usado pelo Atmospheric Radiation Measurement (ARM) Facilidade dePesquisa do Clima para trabalhar com dados a partir de um número de sua precipitação e de nuvemradares, mas foi projetado para que ele possa ser utilizado por outros no radar e comunidades atmos-féricas para examinar, processos e analisar dados de muitos tipos de radares meteorológicos. Com eleé possível ler vários formatos de radar meteorológico(Sigmet/IRIS, MDV, CF/Radial, UF, NEXRAD,NetCDF convertido para CF/Radial). A vantagem de usar o Py-ART em vez de vários módulos que leemsomente um formato é a padronização, enquanto tem que fazer várias condições para determinar qualmódulo usar para abrir o dado de radar e coletar as informações necessárias.4.3 Threshold
Para observar somente regiões que apresentam um grau de significado maior que outras regiões, foidesenvolvido a sua threshold interativa, onde podemos remover valores menos significativos da imagem,sem alterar o dado e sem tempo de espera. A execução desta função é simples, com o botão scroll domouse podemos definir o intervalo de cores de vai aparecer no RADEX, para isso, devemos estar como mouse em cima do colorbar e assim usar o scrool para determinar o intervalo, conforme é alterado ointervalo, no colorbar é mostrado uma barra que determina o intervalo em questão. Quando é realizadoo threshold, tanto o PPI quanto o corte vertical, são alterados pela novo intervalo pelo usuário.4.4 Corte vertical arbitrário
Sobre um PPI, o usuário pode traçar um segmento de reta arbitrário e rapidamente visualizar um cortevertical no volume de dados (figura ??). Isso permite que o analista explore o interior do volume dedados e possa obter informações sobre a forma de uma célula de tempestade, por exemplo, e com issoavaliar a situação para uma tomada de decisão. Adicionalmente, ao passar a seta do mouse sobre a linhado corte, é mostrada uma linha vertical (em vermelho na tela superior, à direita na figura ??) na imagemdo corte, o que permite ter uma percepção acurada da posição sobre o mapa da projeção da linha vertical.Também é mostrado dinamicamente, ao desenhar a linha do corte, o tamanho correspondente (em km)do corte sobre o mapa. Na figura 3 também é possível ver o resultado do zoom sobre o PPI.4.5 Gráfico de dispersão
Para visualizar correlações entre variáveis, foi adicionado uma ferramena para gerar o gráfico dadispersão. O gráfico da dispersão trata-se de comparar duas variáveis diferentes numa região determinadapelo usuário, mostrada na figura 2. Junto com o gráfico de dispersão, é realizado o perfil vertical dosdados, onde uma média dos valores da variável é plotada a em relação à altitude no volume de dados.4.6 A "função cortina"
Como alternativa à visualização lado a lado para comparação de duas variáveis (além de outras finali-dades) foi desenvolvida a "função cortina" (nome dado devido à semelhança com o abrir e fechar de umacortina). Basicamente, o efeito é obtido pela sobreposição de duas imagens, em que uma linha verticaldivide a visualização, à direita é mostrada a imagem de uma variável e à esquerda de outra. A linha podeser movimentada com o mouse lembrando o movimento de abrir e fechar uma cortina. Essa ferramentatem se mostrado muito útil para verificar a incidência de chuva em um região específia de interesse, porexemplo, verificar se uma célula de tempestade encontra-se sobre uma rodovia, visualizar a topograficasob os dados ou comparar duas variáveis diferentes (figura 3). A função é acionada segurando o botãodo mouse pressionado sobre o botão na tela correspondente à nova variável a ser visualizada e, então,movimentando o mouse.4.7 Filtros para controle de qualidade
De forma integrada ao sistema de visualização foram implementados filtros para o controle de qual-idade dos dados de modo que o analista possa ligar e desligar combinando com as outras formas devisualização disponíveis. Os dados adquiridos a partir de radares meteorológicos são comumente afe-tados por ?ruídos? indesejados, ocasionados pela presença de insetos, pássaros, partículas suspensas
V Simposio de Metodos Numericos Computacionais
302
Figura 2: Comparação feita sobre DBZH e ZDR
Figura 3: Usando cortina para comparar RHOHV e DBZH
no ar, propagações anômalas de sinal e acidentes de topografia. Essas interferências resultam em ecos(sinais) que não correspondem à precipitação, o que pode comprometer o uso destes dados para diver-sas aplicações. Assim, a partir de estudos sobre técnicas utilizadas para filtrar estes dados (Steiner andSmith, 2002; Dixon and Seed, 2014; Friedrich et al., 2006), foi desenvolvido um algoritmo a partir damodificação do algoritmo de Steiner M. e Smith J. (2002). A modificação foi no sentido de simplifi-cação para que o processamento ocorra mais rapidamente e possa atender às questões de interatividadee usabilidade. O resultado de uma aplicação do filtro é mostrado na figura 4.4.8 Cortes radiais
Outra funcionalidade disponível é a visualização interativa de cortes radiais, em que o usuário podevisualizar de forma dinâmica e interativa um conjunto de cortes radiais pré-processados. Basicamenteo usuário seleciona um setor circular no PPI e os cortes verticais na direção radial são gerados. Entãoo usuário pode passar o mouse e alternar a visualização dinamicamente e dessa forma, explorar o in-terior do volume de dados (Figura 5). A visualização funciona como uma animação, controlada pelo
V Simposio de Metodos Numericos Computacionais
303
Figura 4: Imagem original (esquerda) e imagem filtrada via algoritmo desenvolvido (direita).
movimento do mouse.
Figura 5: Seleção da área para realização do corte radial
4.9 Visualização 3D de um volume selecionadoPor fim, uma funcionalidade que ainda enconta-se em desenvolvimento é a seleção de uma região de
interesse e a visualização 3D do volume por meio de técnicas de visualização científica para campos es-calares. Dentre as técnicas que estão sendo implementadas estão a visualização volumétrica e a extraçãode isosuperfícies. Para a visualização 3D tem sido utilizado a biblioteca PyVTK a qual é permite o usode Python para acessar funções da biblioteca VTK (www.vtk.org).
5 CONSIDERAÇÕES FINAIS
Neste trabalho foi apresentado o desenvolvimento de um sistema para visualização de dados deradares meteorológicos, e suas principais funcionalidades. Muitas das ferramentas desenvolvidas ofer-ecem funcionalidades personalizadas, não disponíveis em outros programas, comerciais ou não. Os
V Simposio de Metodos Numericos Computacionais
304
Figura 6: visualização 3D de um volume selecionado.
parâmetros para algoritmos de visualização implementados são definidos por meio de interação diretacom uma representação dos dados. As estratégias adotadas para a geração das representações dos dados,implementadas fazendo uso intensivo de estruturas de dados baseados em vetores e matrizes, permitiuobter uma interação fluida, com desempenho satisfatório. A experiência do desenvolvimento da ferra-menta de visualização apresentada neste trabalho, mostrou que a linguagem Python pode ser uma boaescolha para desenvolvimento de sistemas gráficos que combinam processamento numérico e intera-tividade. Embora em computação científica linguagens como C/C++ e Fortran sejam mais utilizadas,linguagens como Python oferecem vantagens em termos de produtividade e alcançando desempenhosatisfatório para muitas aplicações. As facilidades e conveniências providas pelas bibliotecas e módulosdisponíveis em Python, permitem a criação de programas de forma mais rápida e com melhor perfor-mance.
REFERÊNCIAS
Cao Q., Yeary M., and Zhang G. Efficient ways to learn weather radar polarimetry. Education, IEEETransactions on, 55(1):58–68, 2012. ISSN 0018-9359. doi:10.1109/TE.2011.2118211.
Coelho F.C. Computação Cientifica com Python. Flavio Codeço Coelho, Petropolis, RJ, 1 edition,2007. ISBN 978-85-907346-0-4.
Dixon M. and Seed A. Developments in echo tracking - enhancing titan. 8th European Conference onRadar in Meteorology and Hydrology, pages 1–14, 2014.
Friedrich K., Hagen M., and Einfalt T. A quality control concept for radar reflectivity, polarimetricparameters, and doppler velocity. Journal of Atmospheric and Oceanic Technology, 23(7):865–887,2006.
Hansen C., Chen M., Johnson C., Kaufman A., and Hagen H. Scientific Visualization Uncertainty,Multifield, Biomedical, and Scalable Visualization. 23, 1 edition, 2014.
Idelsohn S. and Oñate E. Finite element and finite volumes. two good friends. International Journal forNumerical Methods in Engineering, 37:3323–3341, 1994.
Islam T. and Rico-Ramirez M.A. An overview of the remote sensing of precipitation with polarimetricradar. Progress in Physical Geography, page 0309133313514993, 2013.
Johnson C. Top scientific visualization research problems. IEEE Comput. Graph. Appl., 24(4):13–17,2004. ISSN 0272-1716. doi:10.1109/MCG.2004.20.
Jones R. Rapid game development in python. OpenSource Developers’ Conference, pages 84–90, 2005.
V Simposio de Metodos Numericos Computacionais
305
ISSN 0272-1716.Keefe D. and Isenberg T. Reimagining the scientific visualization interaction paradigm. Computer,
46(5):51–57, 2013. ISSN 0018-9162. doi:10.1109/MC.2013.178.Lin J.W. Why python is the next wave in earth sciences computing. Bulletin of the American Meteoro-
logical Society, 93(12):1823–1824, 2012.M. Heistermann S. Collis M.J.D.S.G.J.J.H.B.K.J.K.D.B.M.M.P.T.P. and Wolff D.B. The emergence of
open-source software for the weather radar community. Bulletin of the American MeteorologicalSociety, 96(1):117–128, 2015.
McGugan W. Beginning Game Development with Python and Pygame. 1 edition, 2007. ISBN 978-1-59059-872-6.
Meyer E., Morrison A., and Plummer C. Finite differences and finite volumes. two old friends. Journalof Numerical Methods, 32:1223–1241, 1995a.
Meyer E., Morrison A., and Plummer C. The finite element method: A good friend. Journal of NumericalMethods, 32:2223–2241, 1995b.
Qi W. 3D Interaction with Scientific Data: An experimental and perceptual approach. Ph.D. thesis,Technische Universiteit Eindhoven, 2008.
Rinehart R.E. Radar for Meteorologists. Rinehart Publications, Columbia, 4 edition, 2004. ISBN0965800210.
Silveira R. Recognition of clutter in weather radars using polarization diversity information and artifi-cial neural networks. Ph.D. thesis, University of Essex, 1998.
Steiner M. and Smith J.A. Use of three-dimensional reflectivity structure for automated detection andremoval of nonprecipitating echoes in radar data. J. Atmos. Oceanic Technol., (19):673–686, 2002.doi:http://dx.doi.org/10.1175/1520-0426(2002)019<0673:UOTDRS>2.0.CO;2.
Telea A.C. Data Visualization: Principles and Practice. CRC Press, 2 edition, 2014.Tory M. and Möller T. Human factors in visualization research. IEEE Transactions on Visualization and
Computer Graphics, 10(1):72–84, 2004. ISSN 1077-2626. doi:10.1109/TVCG.2004.1260759.van der Walt S., Colbert S., and Varoquaux G. The numpy array: A structure for efficient numerical
computation. Computing in Science Engineering, 13(2):22–30, 2011. ISSN 1521-9615. doi:10.1109/MCSE.2011.37.
Villarini G. and Krajewski W. Review of the different sources of uncertainty in single polarizationradar-based estimates of rainfall. Surveys in Geophysics, 31(1):107–129, 2010. ISSN 0169-3298.doi:10.1007/s10712-009-9079-x.
Zienkiewicz O. and Taylor R. The finite element method, volume II. McGraw Hill, 1991.
V Simposio de Metodos Numericos Computacionais
306
V Simposio de Metodos Numericos Computacionais
UTILIZAÇÃO DA EVOLUÇÃO DIFERENCIAL EM PROBLEMAS
INVERSOS PARA A IDENTIFICAÇÃO DE PARÂMETROS
Resumo: Com a grande evolução dos computadores nos últimos tempos, houve um aumento
na utilização de técnicas de otimização. Essas técnicas podem ser utilizadas em problemas
envolvendo identificação de parâmetros de máquinas rotativas visando melhorar seu
funcionamento. Desta forma, o presente trabalho teve como objetivo utilizar o método de
Evolução Diferencial aplicado em problemas inversos para identificação de parâmetros.
Foram realizadas comparações com os resultados obtidos por meio de alteração na população
inicial.
Palavras-Chave: Máquinas Rotativas, Identificação de Parâmetros, Evolução
Diferencial.
1 INTRODUÇÃO
Na área de engenharia mecânica, quando se trata de projetar algum novo equipamento, é
necessário que o projetista busque desenvolver equipamentos que, quando operando,
possuam uma baixa propagação de vibrações e níveis de ruídos, já que os mesmos são
indesejáveis e degradam a vida útil do equipamento gerando custos e até mesmo maiores
problemas que poderiam ser evitados caso tivesse sido feito um melhor estudo e
planejamento na fase de projeto, pois, hoje em dia, um produto deve apresentar algumas
características essenciais como durabilidade, segurança e, também, baixo custo na produção.
Num contexto mais estrito, mais precisamente na dinâmica de rotação, não é diferente, pois
há vários estudos em andamento visando melhorar os modelos matemáticos já existentes e
possibilitando levar em conta as características típicas e propriedades de materiais dos rotores
flexíveis com o intuito de atenuar às vibrações e melhorar seu rendimento. Pode-se encontrar
mais informações sobre o assunto na literatura. (GENTA, 2005; LALANNE AND
FERRARIS, 1998).
Para conseguir um modelo que represente um rotor é necessário considerar vários
subsistemas. Esses subsistemas são definidos por sua geometria (eixos, discos acoplamentos)
e também há os subsistemas que são de frequência ou estado dependente (mancais e efeito
Coriolis). E, fazendo o uso do problema inverso, os parâmetros do modelo são identificados.
A solução do problema inverso é obtida com o uso dos métodos de otimização, aqui, pode-se
citar vários métodos, tais como algoritmo genético, colônia de formigas, evolução diferencial
Rennan Otavio Kanashiro, Erik Taketa, FabianAndres Lara-Molina, Edson Hideki Koroishi
307
entre outros. No presente trabalho é utilizada a técnica de Evolução Diferencial (DE) e então
são realizadas análises por meio da variação do tamanho da população.
2 ROTOR FLEXÍVEL
Através do Princípio de Hamilton, pode-se modelar a resposta dinâmica do sistema mecânica
considerado. Para isso, deve-se calcular a energia de deformação do eixo e as energias
cinéticas do eixo e dos discos para serem utilizadas na modelagem. Com a utilização do
Princípio de Hamilton Estendido, é possível incluir os efeitos da energia de dissipação. Já os
parâmetros dos mancais são considerados no modelo do sistema pelo uso do princípio do
trabalho virtual. Para discretizar a estrutura, é utilizado o método dos elementos finitos, com
isso, as energias calculadas são concentradas nos pontos nodais. Para conectar os pontos
nodais são utilizadas as funções de formas. A rigidez do eixo é obtida por meio da teoria de
viga de Timoshenko e a área de seção transversal foi atualizada.
O modelo assim obtido é representado matematicamente por um conjunto de equações
diferenciais, de acordo com LALANNE AND FERRARIS (1998), como dada pela equação
(1):
(1)
Onde, x(t) é o vetor de deslocamento generalizado; [M], [Cb], [Cg], [K] e [Kg] são as
matrizes de massa do sistema, amortecimento viscoso do mancal (pode incluir amortecimento
proporcional), giroscópica (com respeito a velocidade de rotação), rigidez do sistema e
rigidez devido ao movimento transiente, respectivamente; é a velocidade angular que varia
no tempo, e Fu(t) é a força de desbalanceamento.
A Figura 1 apresenta o modelo discretizado do rotor analisado.
Figura 1: Modelo discretizado do rotor (KOROISHI et al., 2014).
Os nós 4 e 31 corresponde aos mancais, os nós 8 e 27 correspondem aos sensores e os nós 13
e 22 correspondem a posição dos discos. Outros detalhes sobre o rotor podem ser encontrados
em KOROISHI et al. (2014).
3 MÉTODOS HEURÍSTICOS DE OTIMIZACAO
Otimizar significa melhorar o que já existe, assim, a otimização busca a melhor configuração
para um sistema, embora possua limitações como, um aumento no tempo computacional
quando o número de variáveis de projeto cresce, o surgimento de funções descontinuas que
convergem lentamente ou até mesmo de funções com vários mínimos locais que dificulta o
processo de encontrar um mínimo global. Para se aplicar o algoritmo de otimização é preciso
V Simposio de Metodos Numericos Computacionais
308
levar em consideração a natureza da função objetivo, as restrições e o número de variáveis
dependentes e independentes.
A função objetivo define a característica do sistema que deseja melhorar. Esta característica é
representada por uma equação matemática dependente das variáveis de projeto. As variáveis
de projeto, também conhecidas como variáveis de decisão ou de busca, são um conjunto de
parâmetros que podem influenciar os valores da função objetivo. Se manipuladas
corretamente, elas promovem modificações no sentido de aumentar ou diminuir os valores da
função objetivos. As restrições limitam os valores da função objetivo a certas regiões do
espaço de projeto e são características que dependem matematicamente das variáveis de
projeto.
Os métodos de otimização heurística são baseados na evolução biológica e vem sendo
bastante utilizados devido ao grande avanço dos computadores nas últimas décadas. Quando
esses métodos são aplicados em máquinas rotativas é para obter as combinações entre as
variáveis de projeto e então obter o ponto ótimo de trabalho. (KESHTKAR et al., 2011)
4 EVOLUÇÃO DIFERENCIAL
Esse método foi proposto por Storn e Price em 1995. Seu funcionamento é baseado em
conceitos evolutivos para encontrar um ponto ótimo. Faz-se o uso de operações vetoriais para
obter novos potenciais candidatos a resolver o problema. Na Figura 2, pode-se observar um
esquema gráfico do método de busca do algoritmo DE.
Figura 2: Esquema gráfico do algoritmo de Evolução Diferencial (OLIVEIRA et al., 2014).
Primeiramente, têm-se três vetores (r1 r2 r3
x , x , x ), a partir disso, são selecionados dois vetores
aleatórios ( , r2 r3
x x ) e então é realizada a subtração desses vetores, com o vetor resultante
dessa subtração é feito uma multiplicação por um escalar F, assim, obtém-se o vetor
( )F r2 r3x x , que deve ser somado ao vetor 1rx . Como resultado desses processos, um novo
vetor é formado, iv , esse vetor é um novo individuo, já que o mesmo indica uma nova
posição no espaço. Para melhor entender o funcionamento do algoritmo, tem-se a Figura 3.
V Simposio de Metodos Numericos Computacionais
309
Figura 3: Fluxograma da Evolução Diferencial (OLIVEIRA et al., 2014).
5 SIMULAÇÃO COMPUTACIONAL
A Tabela 1 fornece os dados do modelo do rotor e dos mancais, e também os os intervalos de
busca para os parâmetros de rigidez e amortecimento.
A função objetivo utilizada, representada pela equação (2), teve como objetivo minimizar as
diferenças entre as Funções de Respostas em Frequência (FRFs) geradas por meio do modelo
de elementos finitos e aqueles obtidos a partir do modelo com parâmetros nominais. Tabela 1: Dados do modelo do rotor e dos mancais e intervalos dos parâmetros.
Características do Rotor Valor Mancal Propriedades Direção Limites
Massa do eixo (Kg) 41,481 - - - Inferior Superior
Massa do disco D1 (Kg) 26,495 1 K (N/m) x 500000 5000000
Massa do Disco D2 (Kg) 26,495 1 K (N/m) z 500000 1E+07
Espessura de D1 (m) 0,1 1 C (Ns/m) x 0 200
Espessura de D2 (m) 0,1 1 C (Ns/m) z 0 200
Diâmetro do Eixo (m) 0,029 2 K (N/m) x 5E+07 1E+09
Módulo de Young (GN/m²) 205 2 K (N/m) z 5E+07 1E+09
Densidade (Kg/m³) 7850 2 C (Ns/m) x 0 200
Coeficiente de Poisson 0,3 2 C (Ns/m) z 0 200
(2)
V Simposio de Metodos Numericos Computacionais
310
As variáveis de projeto são: rigidez e amortecimento dos mancais. Foram considerados seis
tamanhos populacionais iniciais: 50, 100, 150, 200, 250 e 300. Para cada tamanho
populacional, o otimizador foi executado dez vezes.
Os resultados da simulação computacional são apresentados nas Figuras 4, 5 e 6.
Figura 4: Dispersão dos dados otimizados para rigidez (K) dos mancais.
Os números no eixo x 1, 2, 3, 4, 5 e 6 representam os tamanhos populacionais, 50, 100, 150,
200, 250 e 300, respectivamente. Os retângulos azuis representam a variação dos dados
obtidos e a linha vermelha seria a mediana dos mesmos. Já os símbolos “+” em vermelho
mostram algum ponto que está muito fora da variação, que pode ser visto melhor na Figura 4-
d. A partir dos resultados apresentados pelos boxplots das Figuras 4 e 5, pode-se observar
que, de um modo geral a variação do tamanho da população não representou uma melhora no
processo de identificação dos parâmetros de rigidez e de amortecimento.
Figura 5: Dispersão dos dados otimizados para o amortecimento (C) dos mancais.
A Figura 6 apresenta a comparação da resposta do sistema real e identificado.
V Simposio de Metodos Numericos Computacionais
311
Figura 6: Resultado da otimização com população inicial de 150.
A partir do resultado da Figura 6, pode-se observar que o processo de identificação de
parâmetros utilizando a Evolução Diferencial foi eficiente, visto que a resposta do sistema
identificado se aproximou da resposta do sistema utilizado para realizar a identificação
baseado no problema inverso.
6 CONCLUSÕES
Os resultados encontrados foram satisfatórios, uma vez que os parâmetros desconhecidos
foram identificados com sucesso. Assim, pode-se concluir que o uso da técnica de otimização
DE é bastante útil quando aplicada na solução de problemas inversos com relação à
identificação de parâmetros de maquinas rotativa. E mesmo com uma população inicial baixa,
50, os resultados obtidos também são satisfatórios quando comparados com outras
populações iniciais maiores. Outro fator importante é que o uso de uma população inicial
menor implica em um menor tempo computacional necessário.
REFERÊNCIAS
OLIVEIRA, M.V.F de, ROCHA, L.A. de A. da, KOROISHI, E.H. e STEFFEN JR, V.,
Otimização de parâmetros aplicados no controle de vibrações de rotores flexíveis utilizando
técnicas heurísticas, CONEM, 2014.
GENTA, G., Dynamics of Rotating Systems, Springer Science+Business, 2005.
KESHTKAR, H., ALIMARDANI, A. and ABDI, B., Optimization of Rotor Speed Variations
in Microturbines, Energy Procedia, vol. 12, 789-798, 2011.
KOROISHI, E.H., BORGES, A. S., CAVALINI JR, A. Ap., and STEFFEN JR, V.,
Numerical and Experimental Modal Control of Flexible Rotor Using Electromagnetic
Actuator, Mathematical Problems in Engineering, vol. 2014 (2014), Article ID 361418.
LALANNE,M. and FERRARIS, G., Rotordynamics predictions in engineering, John Wiley
and Sons, Second Edition, 1998.
V Simposio de Metodos Numericos Computacionais
312
V Simposio de Metodos Numericos Computacionais
EXPLORAÇÃO DAS BASES TEÓRICAS DE DESIGN DE JOGOSEM APLICAÇÕES VOLTADAS AO APRENDIZADO
Resumo: A popularidade dos jogos de computador, aliada aos avanços de hardware, conceitos de design de jogose a familiaridade do público com as novas tecnologias formam uma base sólida para a utilização deste tipo de mí-dia no treinamento profissional e educação continuada. Da aplicação destes conceitos originalmente pensados compropósito lúdico a um ambiente profissional, foi criada a área de jogos sérios, ou serious games. Para o projetodesenvolvido, estes conceitos serão aplicados ao desenvolvimento de um sistema de treinamento para eletricistasque atuam em circunstâncias de alto risco. O sistema irá implementar estes conceitos para garantir a eficiência dotreinamento aplicado e para que os alunos se sintam motivados e desafiados pelos cenários criados. Os conceitosprecisam ser revisados antes de serem implementados, e é isto que este artigo irá fazer; rever os conceitos de gamedesign e alinhar aos conceitos de serious games a esse tema.
Palavras-Chave: Serious Games
1 INTRODUÇÃO
A idéia de criar aplicativos de software para ajudar na educação não é nova. Já desde o final da décadade 1980 este conceito é explorado por educadores e pesquisadores, um esforço que atingiu o ápice naprodução de Where in the World is Carmen Sandiego? Zichermann and Cunningham (2011).
Com o avanço da tecnologia e a popularização de jogos entre o grande público, este assunto foiretomado com o conceito de serious games, gamification e novos conceitos aplicados à área de jogoseducacionais (edutainment).
A ciência do design de jogos também se modificou, com a adoção de técnicas como prototipagemrápida e desenvolvimento iterativo, conceitos herdados da área de engenharia de software.
Este trabalho tem como objetivo realizar uma revisão dos conceitos principais do design de jogos emotivação para jogar; como fazer um jogo atraente para o público e como estes conceitos podem seraplicados à área de serious games.
2 LUDOLOGIA
Apesar de não se ter uma definição única de jogos, é possível enumerar as partes que compõemo sistema e como o usuário se relaciona com estes sistemas, composto de elementos formais e não-formais. Conforme exposto por Gibson (2015), estes elementos são vistos pelo jogador sob uma óticaúnica e que tem bases nos fatores culturais, sociais e tecnológicos a que o jogador está exposto.
Estes elementos interferem na forma como o jogador se relaciona com o jogo, como o jogo se rela-ciona com o jogador e como os jogadores se relacionam entre si após terem interagido com o jogo.
Ricardo Cesar Ribeiro dos Santos, Klaus de Geus
313
Figura 1: Exemplo de curva de interesse para um jogo. Schell (2008)
Estes elementos devem ser considerados sempre que um sistema deste tipo for desenvolvido. Destaforma, a eficácia de desenvolver os elementos não formais, como narrativa, conflito e motivação aumenta,criando uma melhor experiência para o jogador e aumentando a eficácia do sistema desenvolvido.
Em jogos que têm como único propósito a atividade lúdica, esta preocupação tem o propósito mer-cadológico, de criar um público que consuma o aplicativo de software e seus subprodutos. Em casos nãolúdicos, estes elementos que garantem o engajamento do usuário servem para garantir que a mensagemnecessária seja transmitida ao jogador.
Este processo se dá por meio da obtenção da atenção do jogador inicialmente, e por meio da retençãoda atenção do jogador. Este procedimento é mais importante que a imersão propriamente dita, umavez que os protagonistas dos jogos passam por situações que seriam desagradáveis para o jogador —ferimentos, stress, mágoas, situações de risco em geral. Gibson (2015)
Segundo Lemarchand (2012), para um jogo conseguir um aproveitamento ótimo da atenção do jo-gador, o ritmo da narrativa deve seguir uma curva de interesse conforme a ilustrada em Schell (2008) ereproduzida na figura 1.
Os pontos marcados no gráfico correspondem às etapas do jogo. Inicialmente, é necessário prender aatenção do jogador, como forma de garantir o relacionamento com o jogo (ponto A). Posteriormente, aatenção do jogador pode ser levada a um ponto mais baixo, desde que seja aumentada de forma contínuadurante o relacionamento entre jogo e jogador (pontos B a G). Perto do final do jogo, atinge-se o clímax,onde o conflito deve ser resolvido (ponto H) e logo a seguir, o jogador perde o interesse pelo jogo (pontoI) ao terminar a experiência.
Apesar de a função da retenção de atenção do jogador ser importante para jogos sérios, nota-se quea finalidade principal de se manter a atenção do jogador não é a de criação de uma narrativa e sim a detransmissão de uma habilidade com aplicações diretas para a solução de problemas na vida real.2.1 SERIOUS GAMES
O termo Serious Games pode parecer paradoxal, uma vez que pode parecer uma tentativa de se abor-dar uma atividade lúdica a partir de um viés não-divertido. Pode parecer que o intuito é utilizar umaplicativo de software com foco na diversão, retirar-se este fator e reutilizar o que sobrar para um fimsério.
Esta abordagem, entretanto, se mostra equivocada. Segundo Almeida et al. (2011) jogos sérios são
V Simposio de Metodos Numericos Computacionais
314
aplicações interativas que necessariamente apresentam desafio para o usuário, cumprindo requisitos dediversão e motivação, que tenha uma contagem de pontuação e que transmita uma capacidade, conheci-mento ou atitude que possa ser aplicada no mundo real.
A transmissão de conhecimento por meio de simulações é já prática comum em áreas em que erros du-rante o processo de aprendizado teriam um custo muito alto. O treinamento de operadores de subestaçõesde energia elétrica por meio do uso de simuladores já foi documentado em Leite et al. (2007). No livroFullerton (2008), a utilização de jogos de computador para o desenvolvimento de habilidades também écitada.
A estrutura de um jogo, com seus elementos formais e não-formais
3 ESTADO FLOW
Cunhado pelo psicólogo Mihaly Csikszentmihalyi durante o estudo da psicologia de se sentir bem,a teoria flow refere-se a um estado de consciência em que se entra durante a realização de atividadesprazerosas, divertidas ou não. As características do estado flow são:
First, the experience (of enjoyment) usually occurs when we confront tasks we have a chanceof completing. Second, we must be able to concentrate on what we are doing. Third andfourth, the concentration is usually possible because the task undertaken has clear goalsand provides immediate feedback. Fifth, one acts with a deep but effortless involvement thatremoves from awareness the worries and frustrations of everyday life. Sixth, enjoyable ex-periences allow people to exercise a sense of control over their actions. Seventh, concernfor the self disappears, yet paradoxically the sense of self emerges stronger after the flowexperience is over. And finally, the sense of duration of time is altered; hours past by in min-utes, and minutes can stretch out to seem like hours. The combination of all these elementscauses a sense of deep enjoyment that is so rewarding people feel like expending a greatdeal of energy is worthwhile simply to be able to feel it. (Csikszentmihalyi, 1990, p. 49)
Parte importante da teoria flow é a associação entre dificuldade e atividades, ou experiências e aforma ótima de balanceá-las. Quando se inicia uma atividade, a habilidade de execução é baixa. Sea dificuldade for alta, o interesse de quem está se engajando na atividade logo se esvai, o estímulo dodesafio dando lugar ao sentimento de frustração.
Por outro lado, uma pessoa que esteja muito familiarizada com a mesma atividade, necessita de maisdesafio. Caso contrário, aborrece-se facilmente e a atividade é abandonada — como aconteceria com aatividade de dificuldade muito alta.
A figura 2 demonstra o relacionamento entre sensações, desafio e nível de habilidade. Ressalta-se queo fator de desafio é subjetivo e não objetivo. Algo que pode ser desafiante para uma pessoa, pode não oser para outra.
Este estado é importante para a área de serious games, uma vez que neste estado atenção e produtivi-dade são mais aguçadas quando comparado com os outros estados cognitivos e mentais. Sem contar queum sistema de ensino que implemente o conceito de flow garantiria o comprometimento do aluno comsua própria formação.
4 CONCLUSÕES
Diante do exposto, pode-se concluir que os conceitos de design de jogos podem ser aplicados aosjogos sérios para aumentar a eficiência de transmissão de informações.
Dada a presença do sistema de criação de cenários, este módulos do aplicativo deve se alinhar aosconceitos de flow e, inclusive, ajudar o instrutor a criar cenários alinhados às habilidades dos alunos.Com o desenvolvimento do aprendizado, o cenário deve se moldar às habilidades dos alunos e permitirque o instrutor possa interferir no cenário e aumentar ou diminuir a dificuldade. Esse procedimento alémde servir para alinhar ao cenário a ser treinado as habilidades do aluno, pode ser usado para que testessejam feitos em avaliações ou testes isolados.
V Simposio de Metodos Numericos Computacionais
315
Figura 2: Sensações provocadas por habilidade quando confrontadas com uma determinada dificul-dade.Csikszentmihalyi (1997)
Conclui-se também, que a narrativa e os elementos não formais do sistema servirão de forma essencialpara a ambientação, criando o relacionamento entre o jogador e o ambiente virtual com o qual ele devese relacionar. Esta familiaridade criada entre o jogador e o personagem do sistema virtual garante quea atenção do treinando seja máxima, mesmo ao experimentar situações de perigo para as quais o alunodeve estar preparado para enfrentar.
Este tipo de treinamento tem uma eficácia maior, uma vez que os jogadores se sentem mais à vontadepara enfrentar situações em que — caso ocorressem na vida real — seriam evitadas. Essa segurança queos jogadores sentem pode, inclusive, criar novas técnicas para a atividade que está sendo treinada.
Esse fato se dá pelo fato que os jogadores podem desenvolver outras técnicas, uma vez que o própriorisco da situação já desincentiva a inovação — um erro pode resultar em ferimentos graves ou até mesmomorte. Esse é um custo alto demais para o desenvolvimento da técnica.
REFERÊNCIAS
Almeida P., Pedro L., Moita M., Magalhaes R., Santos A., and Moreira L. Serious games as an onboard-ing organizational tool for new employees. In Information Systems and Technologies (CISTI), 20116th Iberian Conference on, pages 1 – 6. 2011.
Csikszentmihalyi M. Flow: The Psychology of Optimal Experiences. Harper & Row Publishers, 1990.Csikszentmihalyi M. Finding Flow: The Psychology of Engagement with Everyday Life. HarperCollins,
1997.Fullerton T. Game Design Workshop: a Playcentric Approach to Creating Innovative Games. Elsevier,
2 edition, 2008.Gibson J. Introduction to Game Design, Prototyping and Development. Addison-Wesley, 1 edition,
2015.Leite C.R.R., de Oliveira J.J.R., and de Oliveira J.G. O uso de simuladores no treinamento de operadores
da chesf como ferramenta para disseminação de conhecimentos na operação do sistema elétrico. InProceeding of -. 2007.
Lemarchand R. Attention, not immersion: Making your games better with psychology and playtesting,the uncharted way. 2012.
V Simposio de Metodos Numericos Computacionais
316
Schell J. The Art of Game Design; a Book of Lenses. Morgan Kaufmann, 1 edition, 2008.Zichermann G. and Cunningham C. Gamification by Design: Implementing Game Mechanics in Web
and Mobile Apps. O’Reilly Media, 1 edition, 2011.
V Simposio de Metodos Numericos Computacionais
317
V Simposio de Metodos Numericos Computacionais
ESTUDO DE PROBLEMAS DE ELASTICIDADE LINEAR BIDIMENSIONAL USANDO ANÁLISE ISOGEOMÉTRICA
Resumo: A Análise Isogeométrica (AIG) é um método que pode ser utilizado em mecânica dos sólidos, análise térmica e outros vários problemas modelados por equações diferenciais e problemas de valor de contorno. As funções de aproximação na AIG são aquelas utilizadas em computação gráfica e programas de desenho assistido por computador (CAD), conhecidas como NURBS. A utilização da AIG abre a possibilidade de integração dos processos de desenho e análise, que permitiria a transferência de geometrias produzidas por programas CAD para programas de análise. No presente estudo, é mostrada a aplicação da AIG no estudo de problemas de elasticidade linear bidimensional discutindo o desempenho observado. Palavras-Chave: Análise Isogeométrica, estado plano de tensões, elasticidade linear.
1 INTRODUÇÃO
Entre os métodos numéricos utilizados na modelagem e análise de estruturas, o Método de Elementos Finitos (MEF) (BATHE, 2006) é um dos mais utilizados e encontra-se amplamente popularizado entre engenheiros e projetistas. Na atualidade na fase de desenvolvimento de um projeto, a geometria da estrutura é desenvolvida em algum sistema CAD (Computer Aided Design), a partir deste modelo sólido, gera-se a malha de elementos finitos para análise da estrutura, seja estática ou dinâmica, colocando um número adequado de nós e de elementos de modo a obter tanto uma boa aproximação geométrica e uma boa precisão dos resultados. Na formulação clássica do MEF, funções de interpolação polinomiais são utilizadas tanto na avaliação das incógnitas como da geometria. As funções normalmente empregadas (Ex. polinômios de Lagrange) são diferentes daquelas utilizadas pelos programas CAD. A literatura indica que a geração das matrizes locais e globais de elementos finitos pode consumir até 60% do tempo empregado para modelagem e análise. As interpolações pelas funções de base de elementos finitos realizam-se de modo não integrado com as que são feitas também na geração do modelo sólido (COTTREL et al., 2009). Depreende-se, portanto, que o processo de interpolação é duplicado, pois ocorre de dois modos diferentes para um mesmo problema: primeiro, na geração do modelo CAD, e segundo, na geração das matrizes de elementos finitos. A Análise Isogeométrica (AIG) é uma abordagem recente que permite a discretização de um
Rodnny Jesus Mendoza Fakhye, Roberto Dalledone Machado
318
meio contínuo através de funções de aproximação geradas a partir da construção de um modelo sólido ou de um modelo CAD. Nesta formulação as funções de aproximação são aquelas empregadas tradicionalmente em computação gráfica, conhecidas como NURBS (Non Uniform Rational B-Splines). Uma das vantagens desta abordagem é a possibilidade da comunicação direta entre ambientes CAD e ambientes de análise, permitindo uma otimização do tempo de pré-processamento e análise. Ainda, como a Análise Isogeométrica permite trabalhar na geometria “exata” é possível eliminar imperfeições e erros de modelagem fornecendo soluções mais precisas para determinados problemas (HUGHES et al., 2005).
2 ANÁLISE ISOGEOMÉTRICA
A partir da introdução dos conceitos básicos da AIG por HUGHES et al.(2005), diversas pesquisas tem sido realizadas com o objetivo de ampliar a proposta a diferentes campos da mecânica computacional. Estes trabalhos tem mostrado desempenho similar ou superior, comparados com MEF, com ganho de precisão no tratamento de determinados problemas tais como: vibrações, turbulência, análise não linear de estruturas tipo casca, otimização topológica e aerodinâmica ver COTTRELL et al. (2006), BAZILEVS et al. (2007), BENSON et al. (2010), KIENDL et al. (2010) e CHAO E HA (2009). As funções NURBS tem se tornado o padrão da indústria para representação, desenho e intercâmbio de dados de geometria computacional (PIEGL E TILLER, 1997). A geometria computacional tem como objetivo principal é obter representações exatas de curvas, superfícies ou corpos, através de operações que podem ser realizadas por programas de computador (PEREIRA E MARTHA, 2013). 2.1 Fundamentos da AIG Uma malha de Elementos Finitos é uma discretização do domínio de análise, que é dividido por certo número de sub-domínios que são os elementos. No entanto, por condições de mapeamento, um elemento tem, na verdade, duas representações, uma no domínio paramétrico e outra no domínio físico. Os elementos são normalmente definidos pelas suas coordenadas nodais e os graus de liberdade são usualmente os valores das funções base nos nós. As funções base utilizadas no MEF são do tipo interpoladoras e podem ter valores positivos e negativos. As funções base são chamadas também de “funções de forma” (HUGHES, 2000). Na Análise Isogeométrica existem duas definições de malha: a malha de controle e a malha física. Os pontos de controle definem a malha de controle, e a malha de controle interpola os pontos de controle. Estes pontos de controle são conectados entre si, através de segmentos lineares, formando um conjunto de elementos quadrilaterais em duas dimensões e hexaédricos em três dimensões. A aparência da malha de controle é similar a uma malha de elementos finitos, mas não existe relação direta entre elas. As variáveis de controle são os graus de liberdade do problema analisado encontram-se nos pontos de controle (COTTRELL et al., 2009). As funções NURBS são construídas a partir de um conjunto de pontos no espaço paramétrico chamados de “knots” ou vetor de nós de controle. Estes nós definem a geometria da malha física e não apresentam necessariamente graus de liberdade nodais. No espaço linear, um elemento dentro da análise isogeométrica é definido como o domínio entre dois pontos de controle distintos. De modo análogo, é possível generalizar este conceito para espaços bidimensionais e tridimensionais (COTTRELL et al. 2007). As funções NURBS são funções paramétricas e, portanto, é necessário que a integração numérica seja realizada em cada unidade ou elemento isogeométrico por separado. A Figura 1 ilustra esquematicamente as relações geométricas num código baseado em AIG, onde é possível observar a representação de uma superfície física usando NURBS. Nessa
V Simposio de Metodos Numericos Computacionais
319
figura são mostrados o espaço físico e espaço parametrizado, os vetores de controle, espaço índice e as funções base quadráticas envolvidas. A descrição das funções base e a formulação numérica do problema serão mostradas a seguir.
Figura 1. Relações geométricas em AIG. Fonte: Adaptado COTTRELL et al., (2009).
3 FUNÇÕES BASE NA AIG
As funções de aproximação na AIG são funções NURBS que são generalizações das funções B-Spline que, por sua vez são uma derivação das Curvas de Bézier. A seguir serão apresentadas algumas das características destas funções. 3.1 Vetor de nós de controle O vetor de nós de controle é um conjunto não decrescente de coordenadas no espaço
paramétrico dado por 1, 2,...... 1n pξ ξ ξ + +Ξ = onde i
ξ é o i-ésimo nó de controle, i é o índice
do nó de controle onde 1,2,...., 1i n p= + + , p o grau do polinômio e n é o número de
funções base utilizado para gerar a curva. Os vetores de nós de controle podem estar espaçados de modo uniforme ou não uniforme. Uma mesma coordenada de um nó de controle pode aparecer mais de uma vez dentro deste vetor e, se isto ocorrer, esta característica é designada como multiplicidade. O vetor de nós tem influência direta nas funções base. Um vetor aberto é aquele no qual os pontos de controle do início e do fim se repetem p+1 vezes. Vetores abertos são os padrões nos ambientes CAD (HUGHES et al., 2005). 3.2 Funções base e derivadas As funções base de uma função B-Spline são curvas paramétricas construídas de maneira recursiva iniciando com um grau polinomial p=0. Para as funções de ordem zero, tem-se:
V Simposio de Metodos Numericos Computacionais
320
1,0
1 se
0 caso contrárioi I
iN
ξ ξ ξ +≤ <=
(1)
Para os graus maiores, ou seja, para 1,2,3...p = a equação fica:
( ) ( ) ( )1
, , 1 1, 1
1 1
i pii p i p i p
i p i i p i
N N Nξ ξξ ξ
ξ ξ ξξ ξ ξ ξ
+ +
− + −
+ + + +
−−= +
− − (2)
As derivadas das funções B-Spline também são definidas de maneira recursiva (PIEGL E TILLER, 1997) como mostra a equação (3).
( ) ( ) ( ), , 1 1, 1
1 1
i p i p i p
i p i i p i
p pN N Nξ ξ ξ
ξ ξ ξ ξ− + −
+ + + +
′ = −− −
(3)
Para uma derivada de ordem k pode-se utilizar a equação (4):
( )( 1) ( 1), 1 1, 1( )
,
1 1
k k
i p i pk
i p
i p i i p i
N NN pξ
ξ ξ ξ ξ
− −− + −
+ + + +
= − − −
(4)
3.3 NURBS (Non Uniform Rational B-Splines) As funções do tipo NURBS são uma família de funções B-Spline que utilizam um vetor de nós de controle não uniforme e inserindo uma função peso da forma:
( ) ( ),1
n
i p i
i
W Nξ ξ ω=
=∑ (5)
Onde ( ),i pN ξ é uma função base B-Spline convencional e os pesos i
ω são a componente
a projeção no plano z = 1 do vetor de pontos de controle j
B . Logo uma curva NURBS
pode ser definida como:
( )( )( )( )( )
, 1,...,j
jjj d
W
ω ξξ
ξ= =
CC B (6)
A curva assim obtida é uma função racional por partes na qual cada parcela definida no tramo é uma função polinomial dividida por outra função polinomial. Um exemplo de funções base NURBS é mostrado na Figura 2.
Figura 2. Funções base NURBS quadráticas para um vetor de nós de controle aberto e
0,0,0,1, 2,3,4,4,5,5,5Ξ = - Fonte: COTTRELL et al. (2007).
4 PROBLEMAS DE ELASTICIDADE LINEAR BIDIMENSIONAL
4.1 Formulação do Problema A forma fraca do problema de elasticidade linear tem a forma:
V Simposio de Metodos Numericos Computacionais
321
,ˆij i j i i i iw d f w d h w d
σσσ
Ω Ω ΓΩ = Ω + Γ∫ ∫ ∫ (7)
Aproximando o campo de deslocamentos por uma função do tipo:
1
ˆm
k k
k
N=
=∑u u (8)
Onde as funções base k
N são funções base NURBS. Aplicando o método de Galerkin pode-
se chegar na equação matricial:
( )1
ˆm
T
k
k
d d dσ
σΩ Ω Γ=
Ω = Ω + Γ∑ ∫ ∫ ∫B CB u Nf Nh (9)
A matriz B representa as derivadas das funções de base NURBS, C é a matriz constitutiva, N representa a matriz de funções base, f as forças de corpo e h as tensões de superfície. A Equação (9) representa o sistema ˆ =Ku f que deve ser resolvido para u e a matriz de rigidez K do sistema é dada por:
( )1
ˆm
T
k
k
dΩ
=
= Ω∑ ∫K B CB u (10)
Foi implementado um código em MATLAB® baseado no programa descrito em NGUYEN et al. (2015).
5 EXEMPLOS DE APLICAÇÃO
Na continuação deste trabalho, mostram-se os resultados preliminares obtidos para dois problemas de estado plano de tensões, onde pretende-se mostrar a distribuição do campo de tensões e as capacidades do método. 5.1 Placa quadrada sob tensão axial uniforme A Figura 3 mostra uma placa retangular sob uma tensão axial de tração Tx na direção x (horizontal). De acordo com FELIPPA (2015) a solução analítica do problema é
x xTσ = ,
0y
σ = , /x x
u T x E= e /y x x
u u T x Eν ν= = ; onde E é o módulo de elasticidade e ν é o
coeficiente de Poisson.
Figura 3: Placa quadrada sob tensão uniforme. Problema completo e problema analisado. Fonte: Os autores.
Considerando E = 105 N/mm2, Tx = 10 N/mm2, ν = 0,3 e as medidas indicadas, a respostas
analíticas ficam ux = 4E-4mm, uy = 1,2E-5mm, 210 /x
N mmσ = e 0y
σ = . Levando em conta
a simetria do problema somente um quarto da placa foi analisado. As respostas analíticas para tensões e deslocamentos foram obtidas com um único elemento isogeométrico biquadrático, como ilustrado na Figura 4.
V Simposio de Metodos Numericos Computacionais
322
Figura 4: Discretização e resultado para o deslocamento em x para o problema de placa quadrada. Fonte: Os
autores.
5.2 Placa retangular com furo circular Neste caso uma placa em estado plano de tensões e espessura h é submetida a uma tensão axial uniforme, como mostrado na Figura 5. A presença do furo circular no centro da placa provoca uma concentração de tensões na borda do furo cuja magnitude comparada com a tensão Tx = 1 N/mm2 inicial define o fator de concentração de tensão que tem uma solução analítica. Novamente foi aproveitada a simetria do problema modelando um quarto da placa. A discretização e os resultados obtidos são mostrados na Figura 6.
Figura 5: Placa com furo circular. Problema completo e problema analisado. Fonte: Os autores.
Segundo COTTRELL et al. (2009) considerando as mesmas propriedades elásticas do problema anterior o fator de concentração analítico é 3. Resultado obtido com a discretização mostrada na Figura 6 usando 32 elementos biquadráticos.
Figura 6: Discretização e resultado para a tensão σx para o problema de placa com furo circular. Fonte: Os
autores.
V Simposio de Metodos Numericos Computacionais
323
6 CONSIDERAÇÕES FINAIS
A Análise Isogeométrica apresenta vantagens do ponto de vista da integração do processo de projeto e análise. Foi mostrado nos exemplos analisados a sua capacidade e desempenho. A utilização de AIG abre-se a possibilidade de usar os modelos recuperados de estruturas já construídas (usualmente em CAD), apresentando potencial promissório para futuras aplicações.
7. AGRADECIMENTOS
Os autores agradecem o apoio do Parque Tecnológico de Itaipu (PTI) e ao Centro de Estudos Avançados em Segurança de Barragens (CEASB).
REFERÊNCIAS
BATHE K.J. Finite element procedures. New Jersey : Prentice Hall, 2006. BAZILEVS Y., CALO V.M., COTTRELL J.A., HUGHES T.J.R., Reali A., Scovazzi G. Variational multiscale residual-based turbulence modeling for large eddy simulation of incompressible flows. Computer Methods in Applied Mechanics and Engineering. 2007, Vol. 197, pp. 173-201. BENSON D.J., BAZILEVS Y., HSU M.C., HUGHES T.J.R. Isogeometric shell analysis: The Reissner–Mindlin shell. Computer Methods in Applied Mechanics and Engineering. 2010, Vol. 199, pp. 276-289. CHO S., HA S. H. Isogeometric shape design optimization: exact geometry and enhanced sensitivity. Structural and multidisciplinary optimization. 2009, Vol. 38, pp. 53-70. COTTRELL J.A., HUGHES T.J.R., BAZILEVS Y. Isogeometric Analysis: toward integratioin of CAD and FEA. Chichester : John Wiley & Sons Ltd, 2009. COTTRELL J.A., HUGHES T.J.R., REALI A. Studies of refinement and continuity in isogeometric strucutural analysis. Comput. Methods Appl. Mech. Engnrg. 2007, Vol. 196, pp. 4160-4183. COTTRELL J.A., REALI A., BAZILEVS Y.,HUGHES T.J.R. Isogeometric analysis of structural vibrations. Comput. Methods Appl. Mech.Engrg. 195, 2006, pp. 5257-5296. FELIPPA, C. Introduction to Finite Element Methods. Capítulo 27. Disponível em: < http://www.colorado.edu/engineering/CAS/courses.d/IFEM.d/>. Acesso em 10/10/2015. HUGHES, T.J.R., COTTRELL J.A., BAZILEVS Y. Isogeometric analysis: Cad, finite elements, nurbs exact geometry and mesh refinement. Computer methods in Applied
Mechanics and Engineering. 2005, Vol. 194, pp. 4135-4195. HUGHES, T.J.R. The Finite Element Method. Mineola, N.Y. : Dover, 2000. KIENDL J., BAZILEVS Y., HSU M.C., WÜCHNER R., BLETZINGERK.U. The bending strip method for isogeometric analysis of Kirchhoff–Love shell structures comprised of multiple patches. Computer Methods in Applied Mechanics and
Engineering. 2010, Vol. 199, pp. 2403-2416. NGUYEN, V.P.; ANITESCU, C; BORDAS, S; RABCZUK, T. "Isogeometric analysis: an overview and computer implementation aspects". Mathematics and Computers in
Simulation, 2015, pp. 89-116, Vol 117. PEREIRA A.M.B, MARTHA L.F. Geometria Computacional: Principais Algoritmos e Predicados. Notas de Aula da disciplina CIV2802 – Sistemas Gráficos para Engenharia. s.l. : Tecgraf, PUC, Rio de janeiro, 2013. PIEGL L., TILLER W. The NURBS book. Berlin: Springer Verlag, 1997.
V Simposio de Metodos Numericos Computacionais
324
V Simposio de Metodos Numericos Computacionais
UM ESTUDO SOBRE A INFLUÊNCIA DO TAMANHO DA AMOSTRA NA
ANÁLISE FATORIAL DE DADOS DICOTÔMICOSUFPR
Resumo: A Análise Fatorial envolvendo dados dicotômicos está presente em grande parte dos estudos
empíricos, e as relações resultantes desta dicotomização são um problema que ainda traz certa preocupação
aos pesquisadores do meio estatístico. Este estudo tem como objetivo relacionar o tamanho das amostras
dicotômicas à medida de adequação de amostra (MSA) de Kaiser-Mever-Olkin, às comunalidades e às
explicações fornecidas pelos fatores. Para tanto, amostras dicotômicas foram geradas pelo método de
simulação de Monte Carlo, diversificando o número de variáveis, o número de observações e o número de
fatores. Depois, efetuou-se a Análise Fatorial, cujo processo foi repetido cem vezes com o intuito de obter
um valor médio. Por fim, os resultados alcançados foram modelados em função do tamanho das amostras,
utilizando modelos de Regressão Polinomial. As análises determinaram que o modelo de Regressão
Polinomial de melhor ajuste é o de quinto grau, e que este apresenta uma boa relação entre as variáveis
estudadas e os tamanhos das amostras, podendo então ser utilizado para verificar a influência do tamanho da
amostra na Análise Fatorial. Verificou-se ainda que o melhor resultado foi obtido para o índice de MSA e o
pior resultado foi a proporção de variância explicada pelo primeiro fator.
Palavras-Chave: Análise Fatorial Exploratória; Dados dicotômicos; Tamanho de amostra.
1 INTRODUÇÃO
Atualmente, a Estatística encontra-se associada ao desenvolvimento e ao progresso tecnológico,
contribuindo com muitas técnicas analíticas multivariadas utilizadas amplamente em empresas, sistemas
governamentais e centros de pesquisa, entre essas técnicas pode-se destacar a Análise Fatorial Exploratória.
Análise Fatorial (AF) é uma técnica de análise exploratória de dados que tem por objetivo descobrir e
analisar a estrutura de um conjunto de variáveis inter-relacionadas, de modo a construir uma escala de
medida para fatores (intrínsecos) que, de alguma forma (mais ou menos explícita), controla as variáveis
originais. A partir das correlações observadas entre as variáveis originais, a Análise Fatorial estima os
fatores comuns que são subjacentes às variáveis e não diretamente observáveis (FÁVERO et al., 2009). Este
tipo de técnica pode ser utilizado de uma forma exploratória, onde se busca uma estrutura em um conjunto
de variáveis como um redutor de dados, ou de uma perspectiva confirmatória, quando se tem uma ideia
preconcebida sobre a estrutura real dos dados e deseja-se testar uma hipótese (HAIR et al., 2005).
Quando o pesquisador necessitar utilizar a Análise Fatorial Exploratória como ferramenta de pesquisa em
um estudo empírico, é fundamental decidir qual o tamanho ideal para sua amostra, questão que se torna
ainda mais complexa quando os dados analisados são dicotomizados. Não há dúvidas de que selecionar uma
amostra que não representa perfeitamente a população estudada implicará em uma margem de erro
Rosilei de Souza Novak, Jair Mendes Marques
325
denominada erro amostral. Quando se propõe um número elevado para o tamanho da amostra essa escolha
pode trazer um aumento inviável no custo da pesquisa. Muitos estudos foram desenvolvidos sugerindo
ideias que ajudassem a determinar o tamanho adequado para uma amostra. KLINE (1970) advertiu que uma
amostragem, para ser confiável, deveria ter pelo menos 100 indivíduos. Também CATTELL (1978) sugeriu
a relação de 3/6 (6 indivíduos por 3 variáveis), SHAW (2005) recomenda o tamanho de amostra de 180
observações, em seu estudo utilizou o método de Monte Carlo, variando o número de fatores, a razão fatorial
e as comunalidades. PEARSON (2010) indicou que essa relação fosse de pelo menos 3/5 (5 indivíduos por 3
variáveis). Mediante à diversidade de respostas, ainda se tem dúvida quanto a essa questão, que se torna
cada vez mais complexa quando os dados observados na Análise Fatorial são dados dicotômicos. Esse
estudo teve o objetivo determinar a influência do tamanho da amostra na dicotomização de dados normais
multivariados.
2 MATERIAIS E MÉTODOS
Para a realização deste estudo foi utilizado o software Matlab, no qual foram implementados três diferentes
programas: o primeiro gerou a matriz de correlação, o segundo fez a Análise Fatorial e o terceiro realizou a
Regressão Polinomial.
Utilizando o método de Monte Carlo, foram geradas amostras aleatórias dicotômicas de 30 variáveis, 4
fatores e 60, 90, 120, 150, 180, ...,1500 observações, obedecendo a proporção de cinquenta por cento de zero
e cinquenta por cento de um. Essas amostras dicotômicas foram geradas com pré-requisito a partir de uma
matriz de correlação com o número de fatores adequados, o MSA maior que 0,5 e as comunalidades maiores
ou iguais a 0,7. Para cada amostra foram realizadas 100 simulações de Análise Fatorial Exploratória,
calculando as médias do MSA, das comunalidades e das proporções das variâncias explicadas. As amostras
que não obedeciam aos pré-requisitos estabelecidos eram descartadas e substituídas, até atingir o número de
100 casos pré-condicionados. Os resultados foram modelados em função dos logaritmos dos tamanhos das
amostras com a utilização de modelos de Regressão Polinomial, para reduzir a variação. Porém os gráficos
referentes aos modelos foram gerados em função do tamanho das amostras, situação realizada para auxiliar
pesquisadores que queiram ter esses resultados por base para fixar o tamanho de uma amostra.
A avaliação do Modelo de Regressão foi realizada com a utilização dos seguintes indicadores: Coeficiente
de Explicação (R2), Estatística χ2 para a Aderência do Ajuste e o Desvio Padrão do ajuste (erro padrão do
coeficiente y). Inicialmente para cada modelo de regressão utilizado, foram realizadas as análises de
resíduos (média nula, homocedasticidade, normalidade pelo teste de Kolmogorov-Smirnov e independência
através do teste de Durbin-Watson) sendo essas condições satisfeitas.
A Análise Fatorial foi aplicada com o uso do Método das Componentes Principais, na escolha do número de
fatores foi utilizado o critério de Kaiser e o método de rotação foi o Ortogonal Varimax. A seguir serão
mostrados os resultados das funções polinomiais e o os índices dos indicadores. Os indicadores de ajustes
serviram de apoio para a escolha da função ajustada para cada situação.
3 RESULTADOS
Com o objetivo de estudar a eficácia do método, buscou-se a aplicação experimental em diversos conjuntos
de dados. Ao todo foram geradas 40 amostras diferentes, contudo neste estudo serão apresentadas apenas 8
amostras, que foram escolhidas de modo a relatar o comportamento do grupo.
Foram observados as resultados do MSA que avaliaram a adequacidade das amostras, variância explicada
pelo fator1 que representaram o quando da variação dos dados é explicado pelo primeiro fator (fator que
fornece maior explicação), variância total que representa o quando da variação é explicado por todos os
fatores juntos e as comunalidades que é a proporção de variância comum presente em uma variável. Se as
comunalidades estão próximas de zero, os fatores comuns explicam pouco ou nenhuma variância e se as
comunalidades estão próximas de um, quase toda a variância é explicada pelos fatores.
V Simposio de Metodos Numericos Computacionais
326
A tabela 1 a seguir mostra o número de variáveis por fator, utilizados em cada simulação.
Tabela 1: Classificação do número de variáveis por fator
N° simulação N° de variáveis por fator
1 [8 8 8 6]
2 [9 7 7 7]
3 [10 10 5 5]
4 [11 7 6 6 ]
5 [12 6 6 6]
6 [13 6 6 5]
7 [14 6 5 5]
8 [15 5 5 5]
3.1 Resultados das Funções de Regressão Polinomial para o MSA
O índice de MSA avaliaram a medida de adequacidade de cada amostra para a AF, para valores acima de
0,50 mostra que a análise é satisfatória. Foram obtidas as funções polinomiais para cada simulação, geradas
a partir das médias do MSA em relação aos tamanhos das amostras e também os indicadores de ajustes,
apresentadas nas tabelas 2 e 3 a seguir:
Tabela 2: Modelos de regressão ajustados do MSA
N°
simulação MODELO y = a0+ a1x + a2x
2+…+ anxn
1 y = – 21.5511+41.2623x – 30.65818x2+11.4442x3– 2.1394x4+ 0.1599x5
2 y = – 15.4156+28.7041 – 20.4691x2+7.3558x3– 1.3273x4+ 0.0960 x5
3 y = – 18.9449+36.2168x – 26.7230x2+9.9133x3– 1.8427x4+0.1370x5
4 y = – 15.0365+28.6548x – -20.9585x2+7.7331x3-1.4331x4+0.1064x5
5 y = – 15.7350+30.1716x – 22.2007x2+8.2335x3– 1.5331x4+0.1144 x5
6 y = – 10.3839+19.0753x – 13.0924x2+4.5424x3– 0.7938x4+0.0558 x5
7 y = – 21.4265+41.3447x – 30.8745x2+11.5713x3– 2.1702x4+0.1627x5
8 y = – 21.7826+41.7090x – 30.9973X2+11.5696x3– 2.1619x4+0.1615x5
Tabela 3:Indicadores para a regressão do MSA
N° simulação R2 χ2 Sy
1 0.9994 0.00003 0.00086
2 0.9997 0.00002 0.00065
3 0.9997 0.00001 0.00057
4 0.9998 0.00001 0.00050
5 0.9997 0.00001 0.00005
6 0.9999 0.00000 0.00038
7 0.9995 0.00002 0.00075
8 0.9996 0.00002 0.00074
3.2 Resultados das Funções de Regressão Polinomial para a Proporção da Variância Explicada
A tabela 4 mostra as regressões polinomiais obtidas a partir das médias das proporções de explicação da
variância, proporcionadas pelo fator 1, em relação aos tamanhos das amostras. E a tabela 5 refere-se aos
indicadores de ajuste para a regressão das proporções da variâncias explicadas pelo fator 1.
V Simposio de Metodos Numericos Computacionais
327
Tabela 4: Modelo de Regressão ajustados à Proporção de Variância Explicada pelo Fator 1
N°
simulação MODELO y = a0+ a1x + a2x
2+…+ anxn
1 y = –214.9676+487.2247x-397.6769x2+159.3493x3-31.4406x4+2.4493x5
2 y = 69.0479-99.3620x+84.0601x2-35.5341x3+7.4710x4-0.6237x5
3 y = –308.3474+709.5802x-594.8604x2+245.1407x3-49.8066 x4+3.9983x5
4 y = –60.2234+192.9703x-172.5162x2+74.5397x3-15.6904x4+1.2938x5
5 y = –195.5082+462.8827x-380.1304x2+154.1506x3-30.9207x4+2.4571x5
6 y = 110.3694-170.6008x+144.4636x2-60.7441x3+12.6325x4-1.0377x5
7 y = 14.3890+35.4019x -30.0291x2+12.0569x3-2.3342x4+0.1760x5
8 y = –409.1023+872.4216x -697.7957x2+276.1447x3-54.1198x4+4.2053x5
Tabela 5: Indicadores para a Regressão das Proporções das Variâncias Explicadas pelo Fator 1
N° simulação R2 χ2 Sy
1 0.8188 0.0073 0.0560
2 0.5938 0.0070 0.0596
3 0.9677 0.0043 0.0479
4 0.7680 0.0055 0.0530
5 0.6622 0.0054 0.0578
6 0.7065 0.0044 0.0552
7 0.5605 0.0075 0.0721
8 0.5265 0.0064 0.0576
A variância explicada pelos fatores é proporcionada pelos autovalores correspondentes. Quando analisados
os autovalores de um conjunto de dados, é possível saber de que modo as variâncias da matriz de correlação
estão distribuídas. Os autovalores representam o quanto a variância é explicada pelo fator, ou o quanto cada
fator explica a variabilidade dos dados. Foi analisada a proporção da variância explicada pelo primeiro fator,
e a proporção da variância total explicada.
A tabela 6 traz as regressões polinomiais obtidas a partir da relação entre as médias da proporção da
variância total explicada e os tamanhos das amostras para cada simulação realizada, enquanto a tabela 7 traz
os indicadores de ajuste correspondentes.
Tabela 6: Modelo de Regressão Ajustados à Proporção de Variância Total Explicada pelos Fatores
N°
simulação MODELO y = a0+ a1x + a2x
2+…+ anxn
1 y = -318.2401+821.9924x-684.5084x2+279.4772x3--56.1966x4 +4.4641x5
2 y = 651.9000-1151.6000x +909.400x2-358x3+70.2000x4-5.5000x5
3 y = -46.4662+293.9963x -276.3715x2+123.2896x3-26.5760x4+2.2351x5
4 y = 67.3391+55.3461x -80.5261x2+43.0299x3-10.1817x4+0.9018x5
5 y = 43.8470+114.8543x -136.0102x2+69.0988x3-16.2540x4+1.4583x5
6 y = 398.8664-641.9936x +502.0180x2-195.6648x3 +37.8994x4-2.9143x5
7 y = -273.7632+724.5202x -595.2926x2+239.3083x3 -47.3217x4+3.6945x5
8 y = -14.3238+194.4189x-172.7246x2+72.6408x3 -14.7524 x4+1.1691x5
V Simposio de Metodos Numericos Computacionais
328
Tabela 7: Indicadores para a Regressão das Proporções da Variância Total Explicada Pelos Fatores
N° simulação R2 χ2 Sy
1 0.9352 0.0077 0.1088
2 0.9659 0.0037 0.0766
3 0.9637 0.0041 0.0803
4 0.9805 0.0027 0.0639
5 0.9642 0.0039 0.0784
6 0.9602 0.0034 0.0741
7 0.9794 0.0027 0.0658
8 0.9563 0.0053 0.0893
3.3 Resultados das Funções de Regressão Polinomial para as Comunalidades.
A comunalidade é a proporção de variância comum presente em uma variável. A tabela 8 mostra os modelos
Regressão Polinomial para as comunalidades e a tabela 9 os indicadores de ajuste correspondentes.
Tabela 8: Modelos de Regressão Ajustados às Comunalidades
N°
simulação MODELO y = a0+ a1x + a2x
2+…+ anxn
1 y = –4.8152+11.6841x -9.7178x2+3.9597x3-0.7933x4+0.0627x5
2 y = 8.9975-16.3317x +12.8092x2-5.0046x3+0.9732x4-0.0753x5
3 y = 3.4162-4.9483x +3.5994x2-1.3114x3+0.2385x4-0.0173x5
4 y = –2.2536+6.5603x -5.6869x2 +2.3933x3-0.4923x4+0.0398 x5
5 y = 1.6673-1.9025x +1.5143x2-0.6110x3+0.1234x4-0.0099 x5
6 y = –4.3464+9.8290x -7.5191x2+2.8354x3-0.5287x4+0.0391 x5
7 y = 5.1505-8.7622x +6.9154x2-2.7317x3 +0.5382x4-0.0422 x5
8 y = 1.6175-1.3603x +0.6928x2-0.1383x3+0.0031 x4+0.0015 x5
Tabela 9: Indicadores para a Regressão das Comunalidades
N° simulação R2 χ2 Sy
1 0.8445 0.00019 0.0018
2 0.8889 0.00013 0.0015
3 0.9249 0.00013 0.0014
4 0.9009 0.00012 0.0014
5 0.8060 0.00020 0.0018
6 0.8211 0.00016 0.0016
7 0.9025 0.00015 0.0016
8 0.8367 0.00018 0.0017
Na próxima seção serão expostos os gráficos referentes as 8 simulações amostrais realizadas. Ressaltando
que os gráficos alusivos aos modelos foram gerados em função do tamanho das amostras, não em função do
logaritmo do tamanho das amostras. E as análises de resíduos para possibilitar o uso da inferência em
regressão polinomial foi realizada, mas os resultados estão impossibilitados de serem detalhados neste
estudo.
V Simposio de Metodos Numericos Computacionais
329
3.4 Os Gráficos Obtidos Através da Regressão Polinomial
Para cada simulação foram plotados quadro gráficos: médias do MSA, das comunalidades, das proporções
das variâncias explicadas (fator 1 e total) em relação em relação aos tamanhos das amostras, sendo que nesse
artigo será mostrado apenas os gráficos da última simulação, com número de variáveis por fator igual a
v=[15 5 5 5]
Figura 1: Mostra o grafico gerado das médias do MSA em relação ao tamanho das amostras.
Figura 2: Mostra o grafico gerado das médias da variância explicada pelo Fator 1 em relação ao tamanho das amostras.
Figura 3 Mostra o grafico gerado das médias da variância total (%) em relação ao tamanho das amostras.
V Simposio de Metodos Numericos Computacionais
330
Fifura 4: Mostra o grafico gerado das médias das comunalidades em relação ao tamanho das amostras.
4 CONCLUSÕES
De acordo com as análises dos resultados obtidos, para os casos estudados, pode-se concluir que:
(1) Para todas as variáveis estudadas (MSA, proporção da variância explicada pelo primeiro fator, proporção
e variância total explicada e comunalidades médias) o modelo de regressão polinomial adequado, em relação
aos tamanhos das amostras, é o de quinto grau. O melhor ajuste é verificado para o MSA, com coeficiente
de explicação sempre acima de 0,99.
(2) Das regressões polinomiais obtidas a partir das médias das proporções de explicação da variância,
proporcionadas pelo fator 1, em relação aos tamanhos das amostras, verifica-se que os modelos de
Regressão Polinomial mais adequados também foram de grau 5 em todas as simulações. Todavia neste caso
os indicadores de ajuste verificaram ser o pior ajuste modelado e o coeficiente de explicação (R2) apresentou
uma variação grande de simulação para simulação, mostrando alguns resultados ruins. Ocorreu também uma
piora nos demais indicadores, apontando um ajuste ruim com grande variabilidade do coeficiente de
explicação, constatando que o tamanho da amostra tem grande influência na modelagem.
(4) O ajuste para a explicação total também apresenta bom resultado, conforme os indicadores mostrados na
Tabela 7, com coeficiente de explicação sempre acima de 0,93. A variação total explicada decresce com o
tamanho da amostra, mas com tendência de estabilização para as amostras maiores.
(5) O ajuste para as comunalidades médias tem um padrão semelhante ao da explicação total, porém com a
qualidade do ajuste inferior, pois aqui o coeficiente de explicação está acima de 0,80.
REFERÊNCIAS
CATTELL, R. The Scientific Use Of Factor Analysis. New York: Plenum, 1978.
FACHEL, J. M. G. Análise Fatorial. Dissertação (Mestrado) – IME, USP, São Paulo, 1976.
FÁVERO, L.P. et al. Análise de Dados: Modelagem Multivariada para Tomada de Decisões. 1 ed. Rio de
Janeiro: Campos Elsevier, 2009. GORSUCH, R. L. Factor Analysis. Hillsdale: Lawrence Erlbaum Associate, 1983.
HAIR, J. J .F.; ANDERSON, R. E.; TATHAM, R. L.; and BLACK, W. C. Multivariate data analysis. New
Jersey: Prentice-Hall, 1998.
HAIR, J.H. F. et al. Fundamentos de Métodos de Pesquisa em Administração. Porto Alegre: Bookmann,
2005.
JOHNSON, R. A.; WICHERN, D.W. Applied multivariate statistical analysis. 2. ed. Englewood Cliffs:
Prentice-Hall, 1988. 607p.
KAISER, H. F. A second generation little jiffy. Revista Psychometrika, v. 35, n. 4, dez. 1970.
KLINE, P. An Easy Guide To Factor Analysis. Revista Psychometrika, v. 35, n. 4, 1970.
PEARSON, R. H.; MUNDFORM, D. J. Recommended Sample Size for Conducting Exploratory Factor
Analysis on Dichotomous Data. Journal of Modern Applied Statistical Methods, v. 9, n. 2, p. 359-368, 2010
V Simposio de Metodos Numericos Computacionais
331
V Simposio de Metodos Numericos Computacionais
PROJEÇÃO DA SÉRIE TEMPORAL CANADIAN LYNX PELO MÉTODO HÍBRIDO SVR-LSSVR WAVELET
Resumo: Adaptados do support vector machine para a tarefa de regressão os previsores support vector regression (SVR) e least square support vector regression (LSSVR) vem se mostrando técnicas eficientes na projeção de séries temporais (estocásticas). O presente artigo propõe um previsor híbrido que integra as seguintes abordagens: SVR, LSSVR e a decomposição wavelet que oferece vantagens atrativas no processo preditivo. A fim de ilustrá-lo, é utilizada a série temporal Canadian Lynx. Os resultados alcançados pelo previsor híbrido proposto quando comparado com dezoito outros métodos alcançou maior nível de acurácia. Palavras-chave: série temporal, SVR, LSSVR, decomposição wavelet.
1. INTRODUÇÃO Um dos objetivos no estudo de séries temporais (estocásticas) é modelá-las com a finalidade de se produzir previsões, com o maior nível de acurácia possível. Não obstante, para prevê-las, é necessária a utilização de observações passadas que são analisadas com o intuito de se desenvolver um modelo matemático que as descreva, por meio da relação de autodependência existente entre elas. A acurácia nas projeções temporais é de suma importância em muitos processos de tomada de decisão, o que motiva a realização de pesquisas, cada vez maiores, neste campo do conhecimento. Nesta perspectiva, o método preditivo individual support vector regression (SVR), cuja versão inicial foi proposta por (VAPNIK, 1995), consiste em uma metodologia preditiva baseada na teoria da aprendizagem estatística, a qual adere ao princípio da minimização do risco estrutural. Tal abordagem que vem sendo frequentemente utilizada, nos últimos anos, na projeção de séries temporais, principalmente aquelas exibem não linearidade em sua estrutura de autodependência, com extraordinário sucesso, como mostram, dentre outros, (VAPNIK; GOLOWICH; SMOLA, 1996), (HONG, 2011), (ANANDHI; CHEZIAN, 2013). Derivado do SVR, o método least squares support vector regression (LSSVR), proposto por (SUYKENS; VANDEWALLE, 1999)(SUYKENS; VANDEWALLE, 1999), possui as mesmas capacidades que o SVR, no tocante a mapear estruturas de autodependência não lineares; porém, um de seus diferenciais reside no fato de que utiliza restrições de igualdade, ao invés de restrições de desigualdade. Além disso, adota o sistema de mínimos quadrados lineares como a função objetivo (a ser otimizada), o que o torna, do ponto de vista computacional e operacional, atraente. Da Análise Wavelet, (MALLAT, 2009), obtém-se uma decomposição ortogonal de uma série temporal em termos de componentes wavelet (CWs). As CWs consistem em subséries temporais com
Samuel Bellido Rodrigues, Arinei Carlos Lindbeckda Silva, Luiz Albino Teixeira Junior, Edgar
Manuel Carreno Franco , Rafael Morais Souza
332
frequências espectrais diferentes e constantes, que tendem exibir melhores padrões de comportamento que a série temporal original. Diversos artigos propõem a decomposição wavelet como um método auxiliar à modelagem de sinais temporais e que apresentam ganhos preditivos relevantes como mostrado, por exemplo, em (TEIXEIRA JR et al., 2012), (SANG, 2013), (TEIXEIRA JR et al., 2015) e (TEIXEIRA; TEIXEIRA JUNIOR; SIQUEIRA, 2015). Em (TEIXEIRA JR et al., 2012), é apresentada uma metodologia em que as CWs de uma série temporal constituem os padrões de entrada de uma rede neural artificial multilayer perceptron (RNA-MLP), cuja camada de saída neural produz as suas previsão, dentro e fora da amostra. Os autores mostram que os resultados preditivos da RNA-MLP integrada com a decomposição wavelet alcançaram resultados preditivos muito superiores aos de uma RNA-MLP convencional (que não utiliza o pré-processamento dos padrões de entrada via a decomposição wavelet). Por sua vez, é bem conhecido na literatura de séries temporais que a combinação linear de previsões pode obter ganhos de acurácia relevantes, no processo preditivo. Em (GRANGER, 1989), por exemplo, pode ser verificado, na modelagem de diversas séries temporais, oriundas de diferentes áreas, que a combinação linear de previsões incorreu em ganhos de acurácia preditiva. Em (FARIA; MUBWANDARIKWA, 2008) (FARIA; MUBWANDARIKWA, 2008), por outro lado, salientam que a previsão combinada tende a ser mais informativa, uma vez que pode ser visualizada como uma agregadora de informações oriundas de diferentes fontes (a saber, métodos preditivos individuais, a saber). Em (WALLIS, 2011) e em (MANCUSO; WERNER, 2013), em que são fornecidas revisões históricas sobre métodos preditivos combinados, são referidos e comentados muitos dos principais artigos que tratam de combinações lineares de previsões. Recentemente, vários outras contribuições atestam e incentivam à utilização de previsões linearmente combinadas, como, por exemplo em: (BABU; REDDY, 2014b); (BABU; REDDY, 2014a); (KOSANAN; KANTANANTHA, 2014); (RODRIGUES et al., 2014a); (RODRIGUES et al., 2014b); (RODRIGUES et al., 2015) e (TEIXEIRA; TEIXEIRA JUNIOR; SIQUEIRA, 2015). Dado que a combinação linear de previsões e a decomposição wavelet podem contribuir substancialmente na obtenção de ganhos no processo de geração de previsões, este artigo propõe uma metodologia preditiva (aplicável à modelagem de qualquer série temporal que exiba estrutura de autodependência não linear) que integra as seguintes abordagens: decomposição wavelet, SVR, LSSVR e combinação linear de previsões. A escolha do SVR e LSSVR ocorreu por serem aplicáveis à modelagem de quaisquer séries temporais e pela sua comprovada eficiência ao fazê-lo. Informações distintas são capturas por cada abordagem, de forma que as previsões combinadas são agregadoras de informações.
2. METODOLOGIA PROPOSTA
Seja ( )( ) 1Tt
y t= uma série temporal de cardinalidade T a ser prevista. O método híbrido proposto é
executado de acordo com os quatro passos seguintes. Passo 1 - Decomposição wavelet da série original: uma decomposição wavelet de nível r ,
(TEIXEIRA JR et al., 2015) da série temporal ( )( ) 1Tt
y t= é realizada, gerando-se 1r + CWs - isto é, uma
CW de aproximação de nível 0m , denotada por ( )( )0 1m
TA
ty t
=, e r CWs de detalhe de níveis
( )0 0 0, 1,..., 1m m m r+ + − , denotadas por ( )( )0 1
,m
TD
ty t
= ( )( )10 1
,...,m
TD
ty t
+ =( )( )( 1)0 1m r
TD
ty t
+ − = respectivamente. Na
prática, usualmente se adota para o parâmetro de nível 0m valor igual ao nível de decomposição r . As CWs de aproximação e de detalhe foram calculadas no software Matlab 8.0, o qual oferece várias opções de bases wavelet, tais como: as famílias de Haar, Daubechies, coiflets e symlets. Passo 2 - Modelagem das componentes wavelet via SVR e LSSVR: as CW obtidas no passo 1 são modeladas através de um SVR e de um LSSVR.
V Simposio de Metodos Numericos Computacionais
333
Para a obtenção dos modelos individuais SVR, foi utilizada uma biblioteca do software Matlab 8.0, denominada LIBSVM (versão 3.2), a qual foi desenvolvida por Chang e Lin (2015) e se encontra disponível em http://www.csie.ntu.edu.tw/~cjlin/libsvm/. Para modelagem via LSSVR, foi utilizada uma biblioteca para Matlab 8.0 denominada LS-SVMlab, (versão 1.8), a qual se encontra disponível no link http://www.esat.kuleuven.be/sista/lssvmlab/. Esta foi desenvolvida por (BRABANTER et al., 2011), baseado nos trabalhos de (SUYKENS; GESTEL; BRABANTER, 2002) e de (SUYKENS; VANDEWALLE, 1999). Passo 3 - Combinação linear das previsões dos métodos preditivos SVR e LSSVR: Uma vez obtidas as previsões da componente wavelet de aproximação e as r previsões das componentes de detalhe, na etapa anterior, através dos métodos SVR e LSSVR, faz-se a combinação linear das previsões, com o objetivo de se obter a previsão da componente de aproximação, e de cada umas das r componentes de detalhe. Assim, para cada uma das CW, a referida combinação é dada conforme a Equação (1).
( ) ( )( ) ( )( )1 2' 'CW,SVR S R ',LS VCSVR LSS W CWVR
T T T
CW t T t T t TCWy t tCL yρ ρ− = = =
= × + × (1)
Onde: CW,SVRCWy são as componentes wavelet previstas por SVR, ,LSSVRCWCWy são as componentes
wavelet LSSVR, 1 2eρ ρ denotam os pesos adaptativos cujos valores ótimos são determinados através da solução do problema de programação não linear, representado na Equação (2).
( )2
1 2
'
1 '
. . ρ ρ
−=
= −∑ SVR LSVRCW CW
T
t T
Min MSET
s a são irrestr
y CL
e itas (2)
Passo 4 – Soma das combinações lineares: somam-se, para cada instante t, as previsões linearmente combinadas obtidas no passo anterior, conforme a Equação (3).
( )( ), , 1, ( 1),0 0 0 0''
ˆ ...− − + − + − −
+
== + + + +
m SVR LSSVR m SVR LSSVR m SVR LSSVR m r SVR LSSVR
T hH A D Dt T Dy t CL CL CL CL (3)
Nesta etapa as previsões linearmente combinadas são somadas para cada instante t, de forma a gerar as previsões combinadas, dentro e fora da amostra, que será denotado por ( )( ) ''
ˆ +
=
T h
t THy t . Os passos do método híbrido proposto aqui são esquematizados no fluxograma da Figura 1.
Soma das combinações de previsões
Modelo híbrido (previsões pontuais)
SVR1 LSSVR1
CL1
SVR2 LSSVR2
CL2
SVR3 LSSVR3
CL3
Série temporal original
Decomposição wavelet nível r
Componente de aproximação
nível m0
Componente de detalhe nível m0
Componente de detalhe
nível m0+1
Componente de detalhe
nível m0+(r-1)
...
SVRr+1 LSSVRr+1
CLr+1
Figura 1 - Fluxograma da metodologia híbrida proposta.
3. RESULTADOS NUMÉRICOS Nesta seção, a série temporal anual do Canadian Lynx (lince canadense) foi usada para mostrar a eficácia e o poder preditivo do método híbrido proposto no processo de geração de previsões. A série
V Simposio de Metodos Numericos Computacionais
334
temporal supracitada se refere ao número de linces preso por ano no distrito de Rio Mackenzie do Norte do Canadá para o período 1821-1934 e pode ser obtida em https://datamarket.com/. Existem na literatura vários trabalhos que fazem análise e previsão da série de tempo Canadian Lynx, credita-se, porém, a (MORAN, 1953), como sendo o primeiro trabalho de análise desta. O gráfico da série Canadian Lynx (com 114 observações, relativas ao período 1821-1934) é exibida graficamente, na Figura 2. Pode-se observar uma periodicidade de aproximadamente 10 anos, conforme destaca (ZHANG, 2003).
Figura 2 - Série temporal Canadian Lynx (1821-1934).
Neste experimento, foram produzidas previsões um passo à frente, com um horizonte de previsão de 14 passos à frente (ou seja, h = 14), já que o presente método é comparado aos resultados de outros autores, que se referem exclusivamente a este tipo de projeção. Além disso, é considerada a versão logarítmica de base 10 da série temporal do Canadian Lynx, para fins de modelagem. Este conjunto de dados possui cardinalidade 114 observações, sendo que as primeiras 100 observações foram utilizadas para treinamento, enquanto que as 14 remanescentes, para teste. Para tanto, no primeiro passo, foi utilizada uma decomposição wavelet de nível 2, gerando uma CW de aproximação de nível 2 (cuja notação é A2) e duas CWs de detalhe de níveis 2 e 3 (cujas notações são respectivamente D2 e D3). A base wavelet escolhida para a referida decomposição foi a da família de Daubechies com momento nulo igual a 8 (cuja notação é dada por “db 8”). As 3 componentes wavelet geradas podem ser visualizadas na Figura 3.
0
2000
4000
6000
8000
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101
106
111
Cana
dian
lynx
tempo em anos
1,7
2,2
2,7
3,2
3,7
1 8 15 22 29 36 43 50 57 64 71 78 85 92 99
log
Lynx
A2_
db8
Tempo em anos
CW A2_db8
-0,21
-0,11
-0,01
0,09
0,19
1 8 15 22 29 36 43 50 57 64 71 78 85 92 99
log
Lynx
D2_
db8
Tempo em anos
CW D2_db8
V Simposio de Metodos Numericos Computacionais
335
Figura 3: CWs da decomposição wavelet de nível com base db8.
Quanto à modelagem SVR, foi utilizado o Kernel polinomial, definido por ( )* , 0 degreegamma u v coef+
e o Kernel RBF, dado por ( )2xp *e gamma u v− − . É conhecido que o desempenho de generalização de
um modelo SVR depende de um bom ajuste do parâmetro de regularização (C) e do parâmetro ε da função perda, bem como dos parâmetros relacionados ao Kernel, escolhido conforme (SMOLA; SCHÖLKOPF, 1998). A biblioteca utilizada aqui permite que os parâmetros sejam definidos pelo usuário. A fim de melhor avaliar o desempenho da abordagem proposta, para cada CW a ser modelada, os parâmetros C e ε , e os parâmetros do Kernel foram configurados em uma busca por grade (grid search) conforme (HSU; CHANG; LIN, 2010), e selecionado aquele que apresentou um melhor desempenho de validação cruzada 10 vezes 10-fold no conjunto de treino, (VIANA; HAFTKA; STEFFEN, 2009).
Para o LSSVR, é necessário o ajuste de dois parâmetros, o de regularização ( )γ e o do Kernel ( )2σ ,
sendo que nesse caso somente o Kernel gaussiano foi utilizado, o qual é dado por 2
2xp2
eu vσ
− −
. A
fim de se determinar a melhor configuração, foi programado um algoritmo de busca por grade e selecionado aquele que apresentou um melhor desempenho de validação cruzada 10 vezes 10-fold no conjunto de treinamento. Os resultados selecionados, após o treino baseados no menor cross validation mean squared error (CVMSE) (IBRAHIM; WIBOWO, 2014) relativos à modelagem SVR podem ser visualizados na Tabela 1; e os relativos à modelagem LSSVR, na Tabela 2.
Tabela 1- Resultados dos parâmetros selecionados SVR.
Série Kernel Gamma Degree coef0 Cost epsilon janela A2 Polinomial 0.36 3 3 121 0.001 10 D2 Polinomial 0.01 3 4 1094 0.01 10 D3 Polinomial 0.21 3 4 73 0.01 10
Tabela 2- Resultados dos parâmetros selecionados na modelagem LSSVR.
Série Kernel γ 2σ janela A2 Rbf 47345 40.76 4 D1 Rbf 5157098 21742.47 10 D2 Rbf 82012812838944 1865591127 10
Os resultados estatísticos obtidos pelo método proposto são exibidos, na Tabela 3, e comparados com as seguintes as abordagens: (i) (ZHANG, 2003), que comparou resultados obtidos com os modelos ARIMA e RNA com o híbrido ARIMA-RNA; (ii) (KAJITANI; HIPEL; MCLEOD, 2005), que
-0,5
-0,1
0,3
1 8 15 22 29 36 43 50 57 64 71 78 85 92 99log
Lynx
D3_
db8
Tempo em anos
CW D3_db8
V Simposio de Metodos Numericos Computacionais
336
utilizaram na modelagem da Canadian Lynx via uma RNA Feed-Forward (FFNN - Feed-Forward Neuron Networks) e modelo SETAR (Self-Exciting Threshold Auto-Regression); (iii) (ALADAG; EGRIOGLU; KADILAR, 2009), que realizaram a combinação de RNAs recorrentes Elman e um modelo ARIMA; (iv) (ZHENG; ZHONG, 2011), que apresentaram uma metodologia que combina a Função de Base Radial (RBF – radial basis function) de uma rede neural artificial baseado em alisamento binomial (BS-RBF) e uma abordagem que combina a função de base radial (RBF) de uma rede neural com modelo auto-regressivo (AR), utilizando a técnica alisamento binomial (BS), denominado BS-RBFAR; (v) (KHASHEI; BIJARI, 2011a), os quais propuseram um modelo híbrido RNA/ARIMA e o compararam com a modelagem ANN (p,d,q), (vi) (KHASHEI; BIJARI, 2012), que sugeriram metodologias híbridas com base em um classificador (redes neurais probabilísticas (PNNS)), gerando os previsores ARIMA/PNN e ANN/PNN, (vii) (KARNABOOPATHY; VENKATESAN, 2012), que utilizaram em sua modelagem o modelo Full Range Auto-regressive (FRAR); (viii) (ADHIKARI; AGRAWAL, 2013), os quais propuseram uma metodologia combinando vários algoritmos de treinamento denominado (Ensemble of Multiple ANN Training Methods) e a comparou com as modelagens ARIMA e support vector machine (SVM) para regressão; e (ix) (ISMAIL; SHABRI, 2014), que usaram support vector machine (SVM) para regressão e SVM com mínimos quadrados (LSSMV). Quando comparado com os resultados de outros métodos nas mesmas condições, a metodologia híbrida proposta alcançou melhores resultados que outros 18 métodos preditivos competidores, em relação às medidas de acurácia MSE (mean square error) e MAE (mean absolute error), que são definidas em (HAMILTON, 1994). Note que, em relação ao segundo melhor método competidor (a saber, LSSVM), o ganho relativo na estatística MSE foi de 59%; enquanto que foi de 37% na métrica MAE. Por sua vez, a Figura 4 mostra os valores de previsão na amostra de teste, com as últimas 14 observações. A linha contínua representa os dados reais da série subjacente, enquanto que a linha pontilhada, as previsões produzidas pelo método proposto. É possível verificar que as previsões e as observações exibem alta correlação, evidenciado pela proximidade de seus pontos no plano.
Tabela 3 - Comparativo entre métodos de previsão aplicados à série temporal log Canadian Lynx, utilizando as estatísticas de aderência MSE e MAE.
Autores Métodos h=14 MSE MAE
(ZHANG, 2003) ARIMA 0,020486 0,112255
ANN 0,020466 0,112109 HYBRID 0,017233 0,103972
(KAJITANI; HIPEL; MCLEOD, 2005) FFNN 0,0090 - SETAR 0,0140 -
(ALADAG; EGRIOGLU; KADILAR, 2009) HYBRID 0,00900 -
(ZHENG; ZHONG, 2011) BS-RBF 0,002809 - BS-RBFAR 0,002199 -
(KHASHEI; BIJARI, 2011b) ANN(p,d,q) 0,013609 0,089625 ANNs/ARIMA 0.00999 0,085055
(KHASHEI; BIJARI, 2012) ARIMA/PNN 0,011461 0,084381 ANN/PNN 0,014872 0,079628
(KARNABOOPATHY; VENKATESAN, 2012) FRAR 0,00455 -
(ADHIKARI; AGRAWAL, 2013) ARIMA 0,01285 -
SVR 0,05267 - ENSAMBLE 0,00715 -
(ISMAIL; SHABRI, 2014) SVR 0,00850 0,07460 LSSVM 0,00300 0,04180
Os autores Método Proposto 0,00123 0,02626
V Simposio de Metodos Numericos Computacionais
337
Figura 4: Observações e previsões, na amostra de teste
4. CONCLUSÃO Nesse artigo, foi proposto um previsor híbrido de séries temporais usando a decomposição wavelet, a modelagem via support vector regression (SVR) e least square support vector regression (LSSVR), programação não linear e a combinação de previsões. Os resultados alcançados pelo previsor híbrido proposto na modelagem da série temporal canadian lynx quando comparadas as medidas de acurácia MSE e MAE alcançou maior nível de acurácia. É importante salientar que, embora os fundamentos teóricos associados à metodologia proposta sejam complexo, a sua implementação é relativamente simples, quanto utilizados os programas e pacotes mencionados no texto. Agradecimentos: Às instituições: Itaipu Binacional, PPGMNE (Programa de Pós Graduação em Métodos Numéricos em Engenharia), CEASB (Centro de Estudos Avançados em Segurança de Barragens), FPTI (Fundação Parque Tecnológico Itaipu).
REFERÊNCIAS ADHIKARI, R.; AGRAWAL, R. K. A Homogeneous Ensemble of Artificial Neural Networks for Time Series Forecasting. International Journal of Computer Applications, v. 32, n. 7, p. 8, 2013. ALADAG, C. H.; EGRIOGLU, E.; KADILAR, C. Forecasting nonlinear time series with a hybrid methodology. Applied Mathematics Letters, v. 22, n. 9, p. 1467–1470, 2009. ANANDHI, V.; CHEZIAN, R. M. Support Vector Regression to Forecast the Demand and Supply of Pulpwood. International Journal of Future Computer and Communication, v. 2, n. 3, p. 1–4, 2013. BABU, C. N.; REDDY, B. E. A moving-average filter based hybrid ARIMA–ANN model for forecasting time series data. Applied Soft Computing, v. 23, p. 27–38, 2014a. BABU, C. N.; REDDY, B. E. Prediction of selected Indian stock using a partitioning–interpolation based ARIMA–GARCH model. Applied Computing and Informatics, out. 2014b. BRABANTER, K. DE et al. LS-SVMlab Toolbox User ’ s Guide. [s.l: s.n.]. CHANG, C.-C.; LIN, C.-J. LIBSVM -- A Library for Support Vector Machines. Disponível em: <http://www.csie.ntu.edu.tw/~cjlin/libsvm/>. Acesso em: 2 jan. 2015. FARIA, A. E.; MUBWANDARIKWA, E. The geometric combination of bayesian forecasting models. Journal of Forecasting, v. 27, n. 1, p. 519–535, 2008. GRANGER, C. W. J. Combining forecasts – twenty years later. Journal of Forecasting, v. 8, p. 167–73, 1989. HAMILTON, J. D. Time Series Analysis. [s.l.] Princeton University Press, 1994. v. 39 HONG, W.-C. Electric load forecasting by seasonal recurrent SVR (support vector regression) with chaotic artificial bee colony algorithm. Energy, v. 36, n. 9, p. 5568–5578, set. 2011. HSU, C.-W.; CHANG, C.-C.; LIN, C.-J. A Practical Guide to Support Vector Classification. [s.l: s.n.]. Disponível em: <http://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf>. IBRAHIM, N.; WIBOWO, A. Support vector regression with missing data treatment based variables selection for water level prediction of Galas River in Kelantan Malaysia. WSEAS Transactions on Mathematics, v. 13, p. 69–78, 2014. ISMAIL, S.; SHABRI, A. Time Series Forecasting using Least Square Support Vector Machine for Canadian Lynx Data. Jurnal Teknologi, v. 1, p. 11–15, 2014.
2,3
2,8
3,3
1 2 3 4 5 6 7 8 9 10 11 12 13 14
Cana
dian
Lyn
x
Tempo em anos
Série Híbrido
V Simposio de Metodos Numericos Computacionais
338
KAJITANI, Y.; HIPEL, K. W.; MCLEOD, A. I. Forecasting nonlinear time series with feed-forward neural networks: A case study of Canadian lynx data. Journal of Forecasting, v. 24, p. 105–117, 2005. KARNABOOPATHY, R.; VENKATESAN, D. Data mining in canadian lynx time series. Journal of Reliability and Statistical Studies, v. 5, n. 1, p. 1–06, 2012. KHASHEI, M.; BIJARI, M. A novel hybridization of artificial neural networks and ARIMA models for time series forecasting. Applied Soft Computing Journal, v. 11, n. 2, p. 2664–2675, 2011a. KHASHEI, M.; BIJARI, M. Which Methodology is Better for Combining Linear and Nonlinear Models for Time Series Forecasting ? v. 4, n. 4, p. 265–285, 2011b. KHASHEI, M.; BIJARI, M. A new class of hybrid models for time series forecasting. Expert Systems with Applications, v. 39, n. 4, p. 4344–4357, 2012. KOSANAN, O.; KANTANANTHA, N. Thailand ’ s Para Rubber Production Forecasting ComparisonProceedings of the International MultiConference of Engineers and Computer Scientists 2014. Anais...Hong Kong: 2014 MALLAT, S. A Wavelet Tour of Signal Processing: The Sparse Way. Third Edit ed.[s.l: s.n.]. MANCUSO, A. C. B.; WERNER, L. Review of Combining Forecasts Approaches. Independent Journal of Management & Production, v. 4, n. June, p. 248–277, 2013. MORAN, P. The statistical analysis of the Canadian Lynx cycle. Australian Journal of Zoology, v. 1, n. 3, p. 291, 1953. RODRIGUES, S. B. et al. Combinação Linear De Redes Neurais Artificiais E Máquinas De Vetores De Suporte Para Regressão Nas Previsões De Vazões Mensais No Posto 266-ItaipuXVII Encontro de Modelagem Computacional V Encontro de Ciência e Tecnologia de Materiais Universidade Católica de Petrópolis (UCP). Anais...2014a RODRIGUES, S. B. et al. Comparativo Entre Arima, Redes Neurais Artificiais, Máquinas De Vetores Suporte Para Regressão E Combinação Linear De Previsões De Vazões Mensais No Posto 266- ItaipuSimpósio de Engenharia de Produção. Anais...XXI SIMPEP, 2014b RODRIGUES, S. B. et al. Forecasting of the relative displacements in block I11 of the Itaipu hydroelectric plant dam through a ARIMA-SVR hybrid approach. Espaço Energia, v. 22, n. 22, p. 28–37, 2015. SANG, Y.-F. A review on the applications of wavelet transform in hydrology time series analysis. Atmospheric Research, v. 122, p. 8–15, mar. 2013. SMOLA, A. J.; SCHÖLKOPF, B. A tutorial on support vector regressionStatistics and Computing, 1998. SUYKENS, J. A. K.; GESTEL, T. VAN; BRABANTER, J. DE. Least Squares Support Vector Machines. [s.l: s.n.]. SUYKENS, J. A. K.; VANDEWALLE, J. Least Squares Support Vector Machine Classifiers. Neural Processing Letters, v. 9, n. 3, p. 293–300, 1999. TEIXEIRA JR, L. A. et al. Redes neurais artificiais e decomposição wavelet na previsão da radiação solar diretaCongresso Latino-Iberoamericano de Investigación Operatica e Simpósio Brasileiro de Pesquisa Operacional. Anais...2012 TEIXEIRA JR, L. A. et al. Artificial Neural Network and Wavelet decomposition in the Forecast of Global Horizontal Solar Radiation. Sobrapo, v. 35, n. 1, p. 1–16, 2015. TEIXEIRA, L. L.; TEIXEIRA JUNIOR, L. A.; SIQUEIRA, P. H. Forecasts of monthly flows in the post-266 Itaipu using neural networks with wavelet shrinkage. Espaço Energia, v. 22, n. 22, p. 8–17, 2015. VAPNIK, V.; GOLOWICH, S. E.; SMOLA, A. Support Vector Method for Function Approximation, Regression Estimation, and Signal Processing. Advances in Neural Information Processing Systems, v. 9, p. 281–287, 1996. VAPNIK, V. N. The Nature of Statistical Learning Theory. [s.l: s.n.]. v. 8 VIANA, F. A C.; HAFTKA, R. T.; STEFFEN, V. Multiple surrogates: How cross-validation errors can help us to obtain the best predictor. Structural and Multidisciplinary Optimization, v. 39, n. 4, p. 439–457, 2009. WALLIS, K. F. Combining forecasts : forty years later. Applied Financial Economics, p. 33–41, 2011. ZHANG, G. P. Time series forecasting using a hybrid ARIMA and neural network model. Neurocomputing, v. 50, p. 159–175, jan. 2003. ZHENG, F.; ZHONG, S. Time series forecasting using a hybrid RBF neural network and AR model based on binomial smoothing. World Academy of Science Engineering and Technology, p. 1125–1129, 2011.
V Simposio de Metodos Numericos Computacionais
339
V Simposio de Metodos Numericos Computacionais
APLICAÇÃO DE MÉTODOS NUMÉRICOS SIMPLES PARA A RESOLUÇÃO DE PROBLEMA DE VALOR NO CONTORNO
ASSOCIADO À OTIMIZAÇÃO DE BIOPROCESSOS
Resumo: Neste trabalho, métodos numéricos simples foram utilizados para resolver o
problema de valor no contorno decorrente da aplicação do Princípio do Máximo de
Pontryagin à otimização de um bioprocesso em batelada de produção de antibiótico. Os
métodos utilizados foram o de Runge-Kutta-Gill para a integração das equações diferencias
ordinárias resultantes e o de Newton-Raphson para resolver uma equação algébrica não linear
que surge na formulação do problema. Os resultados obtidos foram comparados com uma
solução do problema obtida pelo método da colocação ortogonal, sendo observada uma
estrita concordância entre as duas soluções.
Palavras-Chave: Otimização, Princípio do Máximo de Pontryagin, Bioprocesso em Batelada, Antibiótico
1 INTRODUÇÃO Apesar de determinados antibióticos apresentarem-se eficazes no tratamento de doenças,
alguns deles ainda não são comercializados devido à baixa produtividade do bioprocesso e às
dificuldades na etapa de purificação, o que acarreta um alto custo do medicamento. Nestes
casos, faz-se necessária a otimização dos processos de produção e de recuperação do
bioproduto sendo que para este fim, a modelagem matemática apresenta-se como uma
moderna e poderosa ferramenta.
A otimização corresponde à utilização do modelo matemático para determinar as condições
operacionais ótimas, por meio da maximização ou minimização de uma função objetivo
previamente definida.
Com relação à temperatura, sabe-se que esta variável exerce uma forte influência sobre o
conjunto da atividade microbiana, existindo um intervalo estreito de valores no qual a
atividade celular é máxima. Para fungos produtores de antibióticos, este intervalo está situado
entre 25 e 27oC, sendo a temperatura do meio fermentativo controlada mediante a
manipulação da temperatura ou vazão da água de refrigeração na camisa do reator.
Constantinides e Mostoufi (1999) apresentaram um estudo de caso da otimização do perfil de
temperatura durante o bioprocesso de produção em batelada de penicilina usando o Princípio
do Máximo de Pontryagin. Os autores utilizaram o método da colocação ortogonal para a
resolução do problema, justificando que este método é mais preciso que o método das
diferenças finitas.
Neste trabalho, utilizou-se um método numérico mais simples que o da colocação ortogonal
para a integração das equações diferenciais, o qual foi o método de Runge-Kutta-Gill de
quarta ordem. O problema resolvido foi a determinação do perfil ótimo de temperatura em
cultivos em batelada que maximiza a concentração de antibiótico ao final do processo,
utilizando-se para isso um modelo matemático do bioprocesso e o Princípio do Máximo de Pontryagin.
2 METODOLOGIA 2.1 Modelo matemático
Para este estudo de caso, o bioprocesso de produção de penicilina foi representado pelo
modelo matemático apresentado por Constantinides e Mostoufi (1999) para o crescimento de
Samuel Conceicao Oliveira, Mariana Prado Reina
340
Penicillium chrysogenum, um microrganismo produtor de penicilina. O modelo é baseado na
lei logística de crescimento limitado, sendo esta limitação descrita implicitamente pela
introdução do termo (1-X/Xm) na equação da taxa de crescimento (rx), a qual diminui ao longo
do tempo e se torna nula quando X atinge o valor máximo Xm, condição em que o crescimento
celular é encerrado. A produção de penicilina é também modelada, ao considerar que a
cinética de formação de antibiótico é dada pelo modelo misto de Luedeking e Piret
(rP=αrX+βX), com α=0 e β≠0, uma vez que o antibiótico é um metabólito secundário
produzido majoritariamente após a fase de crescimento (Sinclair e Kristiansen, 1987).
Considera-se também o fato comumente observado em fermentações penicilínicas de que o
produto é degradado por hidrólise a uma taxa proporcional à sua própria concentração, sendo
este processo descrito por uma cinética de primeira ordem. Condições isotérmicas são
implicitamente consideradas, uma vez que a temperatura também não é modelada. O modelo
completo, constituído por duas equações diferenciais ordinárias correspondentes aos balanços
de massa de células e de produto em um biorreator em batelada, é representado a seguir:
−==
m
mXX
XXr
dt
dX1µ (1)
PkXrrdt
dPhhP −=−= β (2)
onde t é o tempo, X é a concentração celular, P é a concentração de antibiótico, rX é a taxa
de crescimento celular, rP é a taxa de produção de antibiótico, rh é a taxa de hidrólise do
produto e µm, Xm, β, kh são os parâmetros do modelo.
As variáveis do modelo original foram então adimensionalizadas e expressões descrevendo
os parâmetros cinéticos (bi) em função da temperatura (θ) foram incorporadas ao modelo com
o objetivo de ampliar sua faixa de validade para condições não isotérmicas. Esta versão
ampliada do modelo é dada pelas seguintes equações (Constantinides e Mostoufi, 1999):
( ) 03.00121
2
111
1 =−= y ,yb
byb
d
yd
τ (3)
( ) 0.002132 == y ,yb
d
yd
τ (4)
onde:
( )( )
( )( )
( )( )
−−
−−=
−−
−−=
−−
−−=
262
262
53232
232
42232
232
11250,1
0,1;
250,1
0,1;
250,1
0,1
ww
wwwb
ww
wwwb
ww
wwwb
θθθ (5)
C20;71,1;94,0 C;30;005,01,13 o654
o321 ====== w w ww w ; w (6)
2.2 Princípio do Máximo de Pontryagin
As equações de balanço de massa de células e produto do modelo adimensionalizado podem
ser escritas na seguinte forma matricial:
V Simposio de Metodos Numericos Computacionais
341
( )Xfdt
Xd= (7)
onde:
( )
−
=
=
=
13
21
2
111
2
1;
yb
yb
byb
f
fXf
y
y X
2
1 (8)
O Hamiltoniano é dado por:
( ) XfHTλ= (9)
onde:
[ ]2
T λλλ 1 = (10)
Assim:
[ ] ( )13221
2
111121
2
1 ybyb
bybff
f
f H 21
1
2 λλλλλλ +
−=+=
= (11)
Por outro lado, as taxas de variação temporal das variáveis adjuntas λ1 e λ2 são dadas por:
−+−
=
⇒
∂
∂−=
0
2 321
2
111
2
1
byb
bb
d
d
X
H
d
d λλ
λ
λ
ττ
λ (12)
A partir da Equação (12), as seguintes equações podem ser obtidas:
23b-yb
bb
d
dλλλ
τ
λ11
2
111
1 2+−= (13)
d
d 02 =
τ
λ (14)
A condição necessária para a otimização do bioprocesso é dada por:
( )0
/0 3
12212
11
11 =
∂
∂+
∂
∂−
∂
∂=
∂
∂⇒=
∂
∂
θλ
θθλ
θθ
by
bby
by
HH (15)
A partir das expressões dos bi em função da temperatura apresentadas anteriormente, obtém-
se:
( )( )
( ) ( )( )
−−
−−=
∂
∂=
∂
∂
−−
−−=
∂
∂2
62
625321
232
3211
250,1
2;0
/;
250,1
2
ww
wwwb
bb
ww
wwwb θ
θθ
θ
θ (16)
Substituindo os resultados anteriores na expressão de ∂H/∂θ=0, obtém-se a expressão do
perfil ótimo de temperatura θ:
V Simposio de Metodos Numericos Computacionais
342
( ) ( ) ( ) ( )
ww
wwy
ww
wwy
ww
wwwy
ww
wwwy
−−+
−−
−−+
−−=
262
251
232
2111
262
6251
232
32111
250,1
2
250,1
2
250,1
2
250,1
2 λλθ (17)
No equacionamento apresentado anteriormente, as Equações (11) e (13)-(15) foram retiradas
da publicação de Constantinides e Mostoufi (1999).
Quando o objetivo é maximizar a concentração de antibiótico ao final do processo é
necessário que ( ) 011 = λ e ( ) 0.112 =λ . Sendo dλ2/dt=0, a segunda condição impõe que λ2 seja
constante e igual a 1.0 em todo o domínio do tempo, isto é, λ2=1.0 para 0 ≤ τ ≤ 1.
Assim, o algoritmo para a resolução do problema consistiu dos seguintes passos:
10) atribuição de um valor inicial para λ1(0);
20) integração do sistema de EDOs desde τ=0 até τ=1 e verificação se λ1(1)=0. Caso não,
atribuição de novo valor a λ1(0) até a condição final ser satisfeita.
Para tornar o algoritmo computacional autônomo para a determinação de λ1(0), acoplou-se o
método de Newton-Raphson (Constantinides e Mostoufi, 1999) ao método de integração,
resolvendo-se a seguinte equação algébrica não linear:
( )( ) ( )[ ] ( )[ ] ( )( ) ( )[ ] 0100110 11
0
111 ==⇒=−=calculadodoespecificacalculado
f f λλλλλ44 344 21
(18)
Para o cálculo das derivadas necessárias no método de Newton-Raphson, utilizou-se a
fórmula de diferenças finitas à frente e para a integração numérica das EDOs, utilizou-se o
método de Runge-Kutta-Gill de 4a ordem de passo variável (Ramirez, 1989; Bequette, 1998;
Constantinides e Mostoufi, 1999).
3 RESULTADOS E DISUSSÃO
O algoritmo proposto foi implementado em linguagem de programação FORTRAN e os
perfis das variáveis de estado (y1, y2 e θ ) e da variável adjunta λ1 estão apresentados nas
Figuras 1 a 4, respectivamente. Tais perfis estão em estrita concordância com aqueles obtidos
por Constantinides e Mostoufi (1999) ao utilizarem o método da colocação ortogonal para a
resolução do problema proposto.
De acordo com a formulação apresentada (modelo do processo e Princípio do Máximo de
Pontryagin), o perfil ótimo de temperatura varia entre 20 e 30oC segundo o padrão mostrado
na Figura 5. Os perfis mostrados na Figura 7 evidenciam o fato bem conhecido de que altas
temperaturas (30oC) favorecem o crescimento do fungo enquanto que baixas temperaturas
(20oC) favorecem a síntese do antibiótico (Bailey e Ollis, 1986).
4 CONCLUSÃO
A partir dos resultados obtidos neste estudo pode se concluir que o método de integração
numérica de Runge-Kutta-Gill de 4a ordem foi eficaz para resolver o problema de valor no
contorno resultante da aplicação do Princípio do Máximo de Pontryagin à otimização de um
bioprocesso de produção de antibiótico. Os resultados obtidos com o método numérico
proposto foram coincidentes com aqueles obtidos, por outro autor, empregando o método
mais complexo da colocação ortogonal.
V Simposio de Metodos Numericos Computacionais
343
Figura 1: Perfil de concentração adimensional de células durante uma fermentação penicilínica não isotérmica
Figura 2: Perfil de concentração adimensional de produto durante uma fermentação penicilínica não isotérmica
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
y1 (
con
cen
tra
ção
ce
lula
r)
ττττ (-)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
y2 (
con
cen
tra
ção
pro
du
to)
ττττ (-)
V Simposio de Metodos Numericos Computacionais
344
Figura 3: Perfil de temperatura ótimo durante uma fermentação penicilínica não isotérmica
Figura 4: Perfil da variável adjunta λ1 durante uma fermentação penicilínica não isotérmica
0.0 0.2 0.4 0.6 0.8 1.0
20
22
24
26
28
30
θθ θθ [
tem
pe
ratu
ra (
oC
) ]
ττττ (-)
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.5
1.0
1.5
2.0
2.5
3.0
3.5
4.0
λλ λλ11 11 (
-)
ττττ (-)
V Simposio de Metodos Numericos Computacionais
345
Figura 5: Perfis das variáveis de estado e da variável adjunta λ1 obtidos por Constantinides e Mostoufi (1999)
REFERÊNCIAS
BAILEY, J.E.; OLLIS, D. F. Biochemical engineering fundamentals. 2. ed. New York:
Mc.Graw-Hill, 1986.
BEQUETTE, B. WAYNE Process dynamics: modeling, analysis, and simulation. Upper
Saddle River, N.J.: Prentice Hall PTR, 1998.
CONSTANTINIDES, A.; MOSTOUFI, N. Numerical methods for chemical engineers with MATLAB applications. Upper Saddle River, N.J.: Prentice Hall PTR, 1999.
RAMIREZ, W. F. Computational methods for process simulation. Stoneham: Butterworth
Publishers, 1989.
SINCLAIR, C. G.; KRISTIANSEN, B. Fermentation kinetics and modelling. Milton
Keynes: Open University Press, 1987.
V Simposio de Metodos Numericos Computacionais
346
V Simposio de Metodos Numericos Computacionais
An Optimization Model Applied to a Two-Stage Production Environment
ABSTRACT: This article presents a mathematical model for sequencing and
scheduling in an industrial manufacturing company with a two-stage production.
In the first one, the environment consists of production in distinct parallel
machines. The second is made of test cells where items are subject to adverse
climatic conditions so that the functioning of the manufactured items is tested.
Thus, the authors propose a mathematical model that helps in the management of
production, so that it determines which machines will produce items as well as the
order of their production in the first stage. This will reduce production costs and
serve the purpose of test cells, preventing their use with idle spaces. To validate
the model, an application of random generated data is proposed, which is solved
by the use of the CPLEX software and relax-and-fix heuristics.
Keywords: Optimization model, multiple machines, multiple stages.
1 Introduction The task of planning how different products will be manufactured has been a
challenge in many industries. Determining parameters within the productive
industrial management – with high quantities of items, operating machines and
production stages, among others – has become more complex.
The main assumption of theoretical models in the last years has been that
productive environments and their particularities should be presented in a realistic
manner. An optimization model has been recently presented by Meyer [6]. This
author presented the General Lot Sizing and Scheduling Problem for Parallel
Production Lines – GLSPPL – which, besides indicating when, where and how
much to produce, allow machines to execute tasks considering the minimization
of storage and setup costs, depending on the sequence that items are produced and
their costs, but directed only to one productive stage.
Some industrial processes are organized so that the modeling process occurs
in more than one production stage, which makes the formulation of models more
complex (Seeanner & Meyr [10]). According to Ferreira et al. [1], “these
decisions are interdependent and both can demand high levels of the productive
capacity”. They are called multi-stage or multi-level. Seeanner & Meyr [10]
present a literature review on multi-stage models and mention some important
works in the areas, such as Meyr [7], Mohammadi et al. [8], Ferreira et al. [1],
Neida Volpi, Sander Joner
347
Toledo et al. [11] and Ferreira et al.[2].
This article is divided into five sections. In section one, the introduction
and a summary of the book research are presented. In section two, the description
of the problems is presented. Section three presents the optimization model
whereas section four shows its implementation. Section five presents the main
conclusion of the article.
2 Description of the problem
This article presents a mathematical problem applied to a factory of
electronic items, with the intention of reducing costs. The production of these
items occurs in two stages and will be described in the following topics.
2.1 Description of the production stages
As mentioned before, each item to be produced is submitted to two stages.
The first one (Stage I) is made of parallel machines where the assembly of
products takes place. The problems to be considered in this stage are the quantity,
the machines and the sequence of production of items so that the necessities of the
second stage are met. As to what concerns the production of different items in the
same machine, its preparation implies setup costs.
After being produced in the first stage, items are sent to an intermediate stock
with limited storage capacity. It is necessary to wait for a sufficient number of
items to make up a lot and afterwards send them to the second production stage.
The second stage consists of a test sector that verifies the functioning of the items.
The test cells, which are like furnaces, operate at high temperatures so as to
simulate the functioning of the items in extreme conditions. The cells rely on
connectors (slots) which are appropriate to each type of item being tested. Each
item submitted to a test cell must remain there for a determined period of time,
with temperature and humidity conditions simulating its real functioning. There
must be a test cell (test furnace) for each item once the furnace must be adapted to
the electrical connectors and the variations of the simulated environmental
conditions. Such a test is justifiable taking into account the extreme temperatures
and humidity conditions some machine components are exposed to.
2.2 Description of the optimization problem
It is important to emphasize that stage II (test cells) depends on the exit of
items from stage I. Thus, one of the problems was the organization of quantities as
well as the sequencing of production in parallel machines that constitute stage I.
This is important so that the exit of components is programmed and the generation
of intermediate stock is minimized, avoiding queues and idle spaces in the
furnaces (test cells).
V Simposio de Metodos Numericos Computacionais
348
As to what concerns stage I, when a machine starts producing a new type of
item, this process has to be interrupted so that a new one may be configured
(setup). At this point, the production line is interrupted but the factory as a whole
remains operating, generating production costs.
This article considers that the setup time depends on the sequence of
manufacturing items, so that the time to change from item i to item j can be
different from the time to change the same item j to an item i.
It is observable that it is not always possible or feasible to produce a quantity
of items that can supply a test cell (furnace test) in a specific period of time. In the
formulation of the mathematical model, therefore, a penalty was applied whenever
there was idle space in the test cell, varying according to the technical
specifications of each cell. Due to the pursuit for minimizing costs, it becomes
necessary, whenever possible, to use the most of the test cell, seeking to meet the
demands foreseen in the planning horizon.
3 Optimization model
The mathematical model proposed for the problem under study was based on
the GLSPPL by Meyr [6]. His planning horizon is divided into t periods and each
of them is sub divided into s sub periods. The set of all sub periods s, which are
part of the planning horizon, is represented by W.
In order to solve the problem, new restrictions to GLSPPL were suggested in
order to minimize the stocks of non-tested items – those that are present at the exit
of parallel machines and at the entrance of items in the test cells (test furnaces) –
and to maximize the load at each test cell as well. The planning horizon considers
eight working hours, divided into 4 periods of two hours each, as this is the time
for the uninterrupted work of a test cell. As each period is subdivided, the
production of more than one type of item per machine, at the same time, becomes
possible, once capacity (time) is available.
The optimization model for the problem under study is presented below.
Parameters:
: set of sub periods in period t;
: set of items that can be produced in machine l;
demand considered for item i at the planning horizon;
available capacity (time) for production by machine l in a period t;
: allocation capacity of item i in its test cell (there is a furnace for each type of
item);
:storage capacity of items tested for the entire planning horizon;
:storage capacity of items not tested for each period t;
:quantity of item i not tested in stock at the beginning of the horizon planning;
: maintenance cost of one unit of item i, not tested in stock, per period;
V Simposio de Metodos Numericos Computacionais
349
:setup cost to produce item j immediately after the production of item i at
machine l;
: cost to produce item i at machine l;
: time consumed to produce one unit of item i at machine l;
:minimum lot of item i to be produced at machine l;
:setup time for the production of item j immediately after the production of
item i at machine l;
:1, if the machine is ready to produce item i at machine l at the beginning of
the planning horizon; 0, if otherwise;
:cost for each missing unit of item i to complete the maximum capacity of the
test cell (penalty for the furnace operation with idle spaces).
Variables:
: quantity of item i produced at machine l in sub period s;
: quantity of item i not tested in stock at the end of period t;
:missing quantity to complete the maximum capacity of the test cell of item i
in period t;
:quantity of item i that will be sent to the test cell – dedicated to this item, in
period t;
is equal to 1, if machine 1 is prepared to produce item i in sub period s; 0, if
otherwise;
:is equal to 1, if there is setup of item i for item j at machine l in sub period s;
0, if otherwise.
Mathematical Model
(1)
Subject to:
(2)
(3)
(4)
(5)
V Simposio de Metodos Numericos Computacionais
350
(6)
(7)
(8)
(9)
(10)
(11)
(12)
(13)
(14)
The objective function (1) minimizes storage, production, setup and
operation costs of test cells with idle spaces. Restriction (2) defines that the total
quantity of item i to be sent in all periods - to the test cell dedicated to this type of
item - must be the same as the demand of item i established for the planning
horizon. Restriction (3) is responsible for controlling the balance of stocks as it
relates the production in period t with the intermediate stock of the previous and
current period, comparing it with the capacity of the test cell per period, for each
item in the entire planning horizon. Restriction (4) ensures that the amount of
untested items, which make up the intermediate stock, does not exceed its storage
capacity. Restriction (5) ensures that the maximum storage capacity of tested
items does not exceed its limits. Restriction (6) guarantees that the number of
hours consumed at the production process, added to the number of hours spent for
the preparation of the machine, does not exceed the capacity available for each
period of the planning horizon. Restriction (7) establishes that the necessary
amount of item i, in order to complete the maximum capacity of the test cell in
period t (filling the idle spaces) is calculated by the difference between the
maximum capacity of the test cell for item i and the quantity of item i that will be
V Simposio de Metodos Numericos Computacionais
351
sent to the test cell in period t. Restriction (8) establishes a minimum production
lot for each type of item in a sub period which only becomes active when the
preparation of a machine for the production of a new item occurs. Restriction (9)
indicates that item i will only be produced in sub period s if the machine is ready
for this item ( ). Restriction (10) defines that the machine can be ready for
the production of only one type of item in each sub period s. Restriction (11)
indicates if there was a change in the production from item i to item j in a sub
period at machine l. Restriction (12) indicates that machines were not ready for
the production of any item at the beginning of the planning horizon. Restriction
(13) indicates that the variable is binary and (14) that variables
are non-negative integers and that variables are
non-negative reals. Due to the formulation of the model, these variables are
obtained by the combination of binary variables, without any need to define them
as integers.
4 Implementation of the model
The model was tested using data from an electronic factory that produces
frequency inverters. It produces eight types of distinct items in two stages. In the
first one, two parallel machines are responsible for the production of any of those
items. The second stage is composed of eight test cells where each one tests one
type of item. Table 1 presents the dimension of the problem, considering the
parameters previously presented.
TABLE 1: Dimension of the problem
Components of the optimization model Quantity
Restrictions 14244
Binary variables 640
Integer variables 720
Real variables 6441
Coefficient different from zero 36570
For the resolution of the model, tests with the Relax-and-fix were done
using the strategy Relax-and-fix forward where, at first, integer variables that
belonged to the first period were maintained and the integrities of the same
variables in other periods were relaxed. For these, any positive real value was
accepted. As the values of the integer variables of the first period were found, these
values were fixed and became parameters. Then, in a second phase, the integer
variables from the second stage were declared as integer and those from subsequent
V Simposio de Metodos Numericos Computacionais
352
periods were relaxed. Any positive real value was accepted for the latter. This
procedure was adopted until the last period of the horizon planning.
5 Conclusions
The results obtained show that the mathematical model is well adapted for
the current scenario of the industrial production, once it has shown good results as
to what concerns sequencing and scheduling.
As the model is generalized, it can be applied to other similar production
environments, without huge adaptations. Some important model applications can
be performed in the food industry, where furnaces are necessary, in the
manufacturing of furniture, as a painting process and drying cameras belong to the
process, among other examples.
As a recommendation to future works, other resolution strategies could be
studied and used with metaheuristics, or other approaches of Relax-and-fix which
work with different forms of relaxation of integer variables, in order to allow a
comparison among resolution methods.
References
[1] Ferreira D, Morabito R, Rangel S (2009). Solution approaches for the soft
drink integrated production lot sizing and scheduling problem. Eur J Oper
Research 196(2):697–706
[2] Ferreira, D.; Almada-Lobo, BR., Rangel, S. (2013). Formulações
Monoestágio para o problema da produção de bebidas dois estágios com
sincronia. Produção, v. 23, n. 1, p. 107-119, Jan./Mar.
[3] Fleischmann, B.; Meyr, H. (1997). The general lot sizing and scheduling
problem. OR Spektrum, v. 19 n. 1, p. 11-21.
[4] Kawamura, S. M. (2009). Aplicação da Heurística Relax-and-Fix no
Problema de Dimensionamento e Sequenciamento de Lotes de Produção em
Máquinas Distintas em Paralelo. Anais do XLII SBPO. Bento Gonçalves.
[5] Mercé, C. e Fontam, G. (2003). Mip-based heuristics for capacitated
lotsizing problems. International Journal of Production Economics, 85,
97-111.
[6] Meyr, Herbert. (2002). Simultaneous lotsizing and scheduling on parallel
machines. European Journal of Operational Research 139 pp. 277–292.
[7] Meyr H (2004). Simultane Losgrößen- und Reihenfolgeplanung bei
mehrstufiger kontinuierlicher Fertigung. Zeitschrift für Betriebswirtschaft
74(6):585–610.
[8] Mohammadi M, Fatemi Ghomi SMT, Karimi B, Torabi SA (2009.)
Development of heuristics for multiproduct multi-level capacitated lotsizing
problem with sequence-dependent setups. J Appl Sci 9(2) pp. 296–303.
V Simposio de Metodos Numericos Computacionais
353
V Simposio de Metodos Numericos Computacionais
ANÁLISE GLOBAL DO REMODELAMENTO ÓSSEO CONSIDERANDO MOVIMENTAÇÃO ORTODÔNTICA IDEALIZADA
Resumo: O presente artigo avalia o efeito de remodelamento ósseo de uma mandíbula suína submetida a um carregamento idealizado. Um modelo computacional tridimensional simplificado é desenvolvido para simular o movimento ortodôntico e verificar o comportamento do conjunto composto pelo dente (pré-molar), ligamento periodontal (PDL) e osso alveolar. A análise é feita via Método dos Elementos Finitos (MEF). A geometria tridimensional é obtida através da reconstrução de sólidos utilizando a tomografia do dente real. Considera-se o material trabalhando em regime elástico linear com propriedades isotrópicas. A energia densidade de deformação é obtida e o remodelamento é então avaliado. Palavras-Chave: Remodelamento Ósseo, Movimento Ortodôntico, Elementos Finitos, Modelo Computacional.
1 INTRODUÇÃO
Uma das mais importantes características do osso é a capacidade autoadaptativa do seu comportamento, que consiste em modificar sua microestrutura e suas propriedades de acordo com o ambiente mecânico (TORMENA, 2009). O movimento ortodôntico ocorre dentro do osso alveolar, o qual sofre um remodelamento quando submetido a carregamentos externos (KAWARIZADEH et al. 2003). Reações tissulares do conjunto formado pelo dente, ligamento periodontal (PDL) e osso alveolar indicam trocas histológicas ocorridas, que correspondem ao espaço percorrido pelo dente movimentado. A resposta biomecânica é devido à combinação das propriedades constitutivas de componentes orgânicos, inorgânicos e fluidos presente no conjunto (LIN et al. 2013). O processo de adaptação óssea devido à alteração das cargas aplicadas é precedido pelo aumento significativo da incidência de microfissuras adjacentes às regiões de modelação e remodelação óssea. A partir desta constatação, o microdano é então considerado um dos estímulos mais importantes do remodelamento ósseo e são apresentadas várias propostas para considerar a carga mecânica como uma resposta adaptativa, principalmente para a deformação e o dano (RAMTANI et al. 2004). O comportamento ósseo é anisotrópico, cujos valores e as direções principais da rigidez mudam, não somente ponto a ponto, mas também no tempo, como resultado do processo de remodelamento (DOBLARÉ e GARCÍA, 2002). Muitos modelos de remodelação comumente
Sara de Godoy Bueno, Marco Andre Argenta
354
consideram o material ósseo como sendo homogêneo eresultando em um comportamentO presente artigo tem o intuito deósseo na movimentação ortodôntica magnitude de 6N para um modelo computacionsendo material isotrópico trabalhando portanto, se, houve algum efeito de perda ou ganho de rigidez do material ósseo.
2 MATERIAIS E MÉTODOS
2.1 Modelo ComputacionalO método mais utilizado para a análise numcomo uma ferramenta clínica para a análise do movimento ortodôntico (A2011). Por isso, para o caso desse artigo, aFoi desenvolvido um modelo computacional simplificado,trabalhando em regime elástico linear com propriedades isotrópicas. A geometria do conjunto dente, PDL e osso alveolar é obtida através da reconstrução de sólidos usando as imagens de tomografias da mandíbula utilizada no ensaio experimental(2015) para a validação do modelo computacional. Dessa maneira, garantedivergências entre o modelo computacional e o tridimensional simplificado é composto por elementos tetraédricos lineares, como mostra a Figura 1. Foram utilizados 97.235 elementos para compor a malha do osso alveolar, 45.275 para a dentina, 36.754 para a polpa, 19.743 para o esmalte e 16.433 para o PDL. As condições de contorno naturais aplicadas no modelo computacional são as mesmas utilizadas no ensaio experimental realizado, ou seja, focompressão de 6N no dente.
Os valores dos módulos de elasticidade (E) e coeficiente de Poisson (osso alveolar (considerando material homogêneo), PDL e dente (este último composto pelo esmalte, dentina e polpa) foram escolhidos baseandoatual (WILLIAMS ET AL. 1984, BUENO et al. 2015)
o como sendo homogêneo e uniforme em resultando em um comportamento isotrópico.
o intuito de verificar a presença ou não do efeito de remodelamento na movimentação ortodôntica causada por carga vertical idealizada de compressão
ra um modelo computacional simplificado, o qual considera o osso comotrabalhando em regime linear. Para o caso considerado
, houve algum efeito de perda ou ganho de rigidez do material ósseo.
MATERIAIS E MÉTODOS
Modelo Computacional O método mais utilizado para a análise numérica é o MEF, sendo seu potencial validado como uma ferramenta clínica para a análise do movimento ortodôntico (A
Por isso, para o caso desse artigo, a análise numérica é realizada utilizando o MEFmodelo computacional simplificado, considerando o materi
trabalhando em regime elástico linear com propriedades isotrópicas. A geometria do conjunto é obtida através da reconstrução de sólidos usando as imagens de
mandíbula utilizada no ensaio experimental realizado por lidação do modelo computacional. Dessa maneira, garante
divergências entre o modelo computacional e o material ex vivo. O modelo computacional ificado é composto por elementos tetraédricos lineares, como mostra a
. Foram utilizados 97.235 elementos para compor a malha do osso alveolar, 45.275 a polpa, 19.743 para o esmalte e 16.433 para o PDL.
contorno naturais aplicadas no modelo computacional são as mesmas utilizadas no ensaio experimental realizado, ou seja, foi aplicada uma
Figura 1: Modelo Computacional.
Os valores dos módulos de elasticidade (E) e coeficiente de Poisson (ʋ) utilizados para o osso alveolar (considerando material homogêneo), PDL e dente (este último composto pelo esmalte, dentina e polpa) foram escolhidos baseando-se em dados apresentados
(WILLIAMS ET AL. 1984, BUENO et al. 2015), mostrados na tabela 1.
todas as direções,
a presença ou não do efeito de remodelamento de compressão com
o qual considera o osso como caso considerado, é avaliado,
, houve algum efeito de perda ou ganho de rigidez do material ósseo.
, sendo seu potencial validado como uma ferramenta clínica para a análise do movimento ortodôntico (AMMAR et al.
análise numérica é realizada utilizando o MEF. considerando o material
trabalhando em regime elástico linear com propriedades isotrópicas. A geometria do conjunto é obtida através da reconstrução de sólidos usando as imagens de
por BUENO et al. lidação do modelo computacional. Dessa maneira, garante-se não haver
. O modelo computacional ificado é composto por elementos tetraédricos lineares, como mostra a
. Foram utilizados 97.235 elementos para compor a malha do osso alveolar, 45.275 a polpa, 19.743 para o esmalte e 16.433 para o PDL.
contorno naturais aplicadas no modelo computacional são as mesmas i aplicada uma força vertical de
ʋ) utilizados para o osso alveolar (considerando material homogêneo), PDL e dente (este último composto pelo
se em dados apresentados na literatura na tabela 1.
V Simposio de Metodos Numericos Computacionais
355
3 MODELO PROPOSTO POR
A adaptação óssea (remodelação ouchamada "zona morta", onde o osso não reage a estímulos mecânicos,Utilizando a energia densidade de deformaçãodo osso, HUISKES et al. (1987) propõem que quandoatividade adaptativa é iniciada, ou seja, ocorre Nessas expressões, é o limite que define os limites da "zona morta" (onde não ocorre remodelamento) e é a energia no equilíbrio homeostáticomostra a adaptação óssea em função da energia
Figura
Onde é a metade da largura da "zona morta" e
4 RESULTADOS
4.1 Modelo ComputacionalO resultado da energia de deformaçãoFigura 3, o qual relaciona a energia de deformação em função de dois passos de carga (3N e 6N).
Tabela 1: Propriedades dos Materiais.
Material E (MPa) ʋ Dentina 18.600 0.30 Esmalte 84.100 0.33 Polpa 2 0.45 PDL 0.24 0.45 Osso 13.700 0.30
MODELO PROPOSTO POR HUISKES ET AL. (1987)
adaptação óssea (remodelação ou modelação) ocorre quando os limites do domínio donde o osso não reage a estímulos mecânicos,
energia densidade de deformação como o estímulo que controla a. (1987) propõem que quando 1 ou
tividade adaptativa é iniciada, ou seja, ocorre diminuição ou aumento de massa ósseaé o limite que define os limites da "zona morta" (onde não ocorre é a energia no equilíbrio homeostático (SOUZA, 2009)
função da energia densidade de deformação.
Figura 2: Esquema de adaptação óssea (SOUZA, 2009).
tade da largura da "zona morta" e é a energia de deformação de referência
Modelo Computacional da energia de deformação, em , obtido computacionalmente
Figura 3, o qual relaciona a energia de deformação em função de dois passos de carga (3N e
modelação) ocorre quando os limites do domínio da onde o osso não reage a estímulos mecânicos, são excedidos.
estímulo que controla a remodelação ou a 1 a
diminuição ou aumento de massa óssea. é o limite que define os limites da "zona morta" (onde não ocorre
(SOUZA, 2009). A Figura 2
é a energia de deformação de referência.
computacionalmente é apresentado na Figura 3, o qual relaciona a energia de deformação em função de dois passos de carga (3N e
V Simposio de Metodos Numericos Computacionais
356
Figura 3: Energia
Verifica-se que o valor de 0.modelo. 4.2 Remodelamento ÓsseoConforme supracitado, o osso sofrerá remodelamento caso os limitesexcedidos. Temos que o limite à
E o limite à direita é:
Por falta de dados experimentais do osso mandibular, determinação dos limites da "zona morta"trabalho de DOBLARÉ e GARCIA, 2002
Tabela
Parâmetro
Efetuando os cálculos, obtêm-respectivamente.
5 DISCUSSÕES
Analisando o resultado da energia de deformaçãoverifica-se que o modelo possui umonde não ocorre remodelamento ósseo
0.00
0.05
0.10
0.15
0.20
0.25
0.30
U (
J)
Energia de deformação do osso em função da força aplicada
.247kgm para a energia densidade de deformação máxima do
Remodelamento Ósseo o osso sofrerá remodelamento caso os limites da "zo
emos que o limite à esquerda é dada pela expressão:
1
1
experimentais do osso mandibular, são adotados parâmetros paradeterminação dos limites da "zona morta" para um tecido ósseo trabecular apresentados no
GARCIA, 2002, conforme mostrados na tabela 2.
Tabela 2: Parâmetros de um osso trabecular.
Parâmetro Unidade Valor 0.67
- 0.2 10 - 0.10
PDL 0.24 0.45 Osso 13.700 0.30
-se os valores limites da "zona morte" de 0.18405
da energia de deformação obtido computacionalmentepossui um valor de energia que se encontra à direita
não ocorre remodelamento ósseo. Os valores resultantes são mostrados
F (N)
Força x Energia de deformação
em função da força aplicada
energia densidade de deformação máxima do
da "zona morta" seja
(1)
(2)
adotados parâmetros para tecido ósseo trabecular apresentados no
tabela 2.
18405J e 0.22495J,
computacionalmente (0.247kgm), à direita do intervalo
são mostrados na Figura 4.
V Simposio de Metodos Numericos Computacionais
357
Figura 4: Valores dos limites da "zona morta"
Conforme detectado, para o caso analisado, do tecido ósseo aumenta à medida que a carga
6 CONCLUSÕES
O presente trabalho avaliousimplificado submetido à um carregamento idealizadoformação óssea, o modelo utilizadode adaptação óssea ao modelo numérico.Por se tratar de um materialcomportamento, a análise do remodelamento ósseoobter resultados mais coerentes com a situação física
REFERÊNCIAS
AMMAR, H. H., PETER N., RICHARDDimensional Modeling and Finite Element Analysis in Treatment Planning for OrthodonTooth Movement. American Journal of Orthodontics and Dentofacial Orthopedics71, 2011. BUENO, S. G., ARGENTA, M. A., GEBERT, A. Comparison of Orthodontic Movement experimental measurements of a sDOBLARÉ, M., GARCÍA, J. M. Anisotropic bone remodeling model based on adamage-repair theory. Journal of BiomechanicsKAWARIZADEH, A., BOUDetermination of Initial Tooth Mobility and Material Properties of the Periodontal Lin Rat Molar Specimens. European Journal of OrthodonticsHUISKES R., WEINANS H., GROOTENBOER H.J., DALSTRA M., FUDULA B.,SLOOFF T.J., 1987. Adaptive BoneAnalysis. Journal BiomechanicsLIN, JEREMY, D., HUSEVINP. F, LUKE L. H., GEROLDLigament-Tooth Fibrous Joint.RAMTANI, S., GARCÍA J. M.,bone remodeling law applied to three unitMedicine 34:259-273, 2004. SOUZA, L., A., F. Modelo numfundamentado na mecânica do contínuo do dano contínuo.
imites da "zona morta" e energia de deformação do modelo computacional
para o caso analisado, ocorre aumento de massa ósseaà medida que a carga aplicada no modelo aumenta
O presente trabalho avaliou o remodelamento ósseo para o modelo tridimensional o à um carregamento idealizado de 6N. Por ter sido detectada
utilizado seria melhor representado caso fosse incorporado o efeito ao modelo numérico.
Por se tratar de um material biológico que possui diversas variáveis que influem em seu o remodelamento ósseo torna-se importante para que
resultados mais coerentes com a situação física real.
., RICHARD J. C., VICTOR, H. M., OSAMAFinite Element Analysis in Treatment Planning for Orthodon
American Journal of Orthodontics and Dentofacial Orthopedics
BUENO, S. G., ARGENTA, M. A., GEBERT, A. P. O. F., HYPOLITO, J. K. Global Comparison of Orthodontic Movement between a simplified computacional m
easurements of a swine tooth. Cilamce, 2015. GARCÍA, J. M. Anisotropic bone remodeling model based on a
Journal of Biomechanics, 35:1-17, 2002. OURAUEL C., JAGER A., Experimental and Numerical
f Initial Tooth Mobility and Material Properties of the Periodontal LEuropean Journal of Orthodontics 25:569–78, 2003
HUISKES R., WEINANS H., GROOTENBOER H.J., DALSTRA M., FUDULA B.,987. Adaptive Bone-Remodeling theory applied to Prosthetic
Journal Biomechanics 20:1135-1150. USEVIN Ö., JANELLE P. G., ANDREW T. J., SABRAEROLD A. S., SUNITA P. S., Biomechanics of a Bone
Tooth Fibrous Joint. Journal of Biomechanics 46:443–49, 2013. RAMTANI, S., GARCÍA J. M., DOBLARÉ M. Computer simulation of an adaptivebone remodeling law applied to three unit-bone bars structure. Computers
SOUZA, L., A., F. Modelo numérico anisotrópico de remodelação óssea interno fundamentado na mecânica do contínuo do dano contínuo. Tese de doutorado do programa
e energia de deformação do modelo computacional
aumento de massa óssea, ou seja, a rigidez aumenta.
para o modelo tridimensional Por ter sido detectada a
caso fosse incorporado o efeito
que influem em seu se importante para que se possa
SAMA M. M.. Three-Finite Element Analysis in Treatment Planning for Orthodontic
American Journal of Orthodontics and Dentofacial Orthopedics 139:59–
HYPOLITO, J. K. Global between a simplified computacional model and
GARCÍA, J. M. Anisotropic bone remodeling model based on a continuum
Experimental and Numerical f Initial Tooth Mobility and Material Properties of the Periodontal Ligament
, 2003. HUISKES R., WEINANS H., GROOTENBOER H.J., DALSTRA M., FUDULA B.,
Remodeling theory applied to Prosthetic-Design
ABRA I. D., KEVIN Biomechanics of a Bone-Periodontal
DOBLARÉ M. Computer simulation of an adaptive damage-
Computers in Biology and
érico anisotrópico de remodelação óssea interno Tese de doutorado do programa
V Simposio de Metodos Numericos Computacionais
358
de pós graduação em métodos numéricosTORMENA, F. V., Um modelo de remodelamento termodinâmicos generalizados. métodos numéricos em engenhariaWILLIAMS, K. R., EDMUNDSON, J. T.Finite Element Method. Biomaterials
de pós graduação em métodos numéricos em engenharia - UFPR, 2009. TORMENA, F. V., Um modelo de remodelamento ósseo utilizando potenciais termodinâmicos generalizados. Tese de doutorado do programa de pós graduação em
em engenharia - UFPR, 2009. DMUNDSON, J. T. Orthodontic tooth movement analysed bBiomaterials 5:347–351, 1984.
ósseo utilizando potenciais Tese de doutorado do programa de pós graduação em
Orthodontic tooth movement analysed by the
V Simposio de Metodos Numericos Computacionais
359
V Simposio de Metodos Numericos Computacionais
INFLUÊNCIA DAS CONDIÇÕES AMBIENTAIS NOS DESLOCAMENTOS
DE UMA BARRAGEM DE CONCRETO
Resumo: Técnicas de estatística multivariada são utilizadas neste estudo para analisar os dados de
monitoramento de deslocamentos de uma barragem de concreto, medidos por meio de pêndulos,
bases de alongâmetros e extensômetro múltiplos de hastes, levando em consideração a ação das
condições ambientais, delimitadas pela temperatura superficial do concreto, temperatura ambiente e
nível de água do reservatório. A análise de correlação canônica é usada para avaliar a influência das
variáveis ambientais nos deslocamentos das estruturas e fundações da barragem. A análise fatorial é
utilizada para identificar as fontes de variabilidade dos dados e ordenar os sensores de acordo com a
ação dos fatores. As datas das medições são agrupadas de acordo com as similaridades presentes nas
observações, através da aplicação da análise de agrupamentos. Em seguida, a análise discriminante é
usada para avaliar os grupos quanto à sua homogeneidade. Os resultados demonstram que as técnicas
utilizadas permitem distinguir as respostas da barragem e identificar os efeitos das variações das
condições ambientais sobre os deslocamentos das estruturas e fundações da barragem.
Palavras-Chave: Monitoramento de Barragens; Correlação Canônica; Análise fatorial; Análise de
Agrupamentos; Análise Discriminante.
Sheila Regina Oro, Anselmo Chaves Neto, Claudio NeumannJunior, Suellen Ribeiro Pardo Garcia, Tereza Rachel Mafioleti
360
1 INTRODUÇÃO
As estruturas de barragens de concreto estão sujeitas a alterações provocadas pela incidência de
fenômenos, tais como: deslocamentos, deformações, tensões, pressões, entre outros. De acordo com
Li et al. (2013), essas alterações ocorrem porque essas estruturas interagem com fatores ambientais,
hidráulicos e geomecânicos, tais como a temperatura do concreto, a pressão hidrostática e o efeito do
tempo. Por isso, esses fatores devem ser considerados durante a avaliação do desempenho estrutural
das barragens, o que aumenta a complexidade do problema.
O monitoramento estrutural, conforme Cruz (2006), envolve inspeções visuais, medição geodésica
de deslocamentos verticais e/ou horizontais, levantamentos batimétricos e acompanhamento da
instrumentação. Pêndulos, bases de alongâmetro, medidores triortogonais, medidores de vazão,
piezômetros e extensômetros múltiplos de hastes, são alguns exemplos de instrumentos utilizados
nesse monitoramento (MATOS, 2002).
De acordo com De Sortis e Paoliani (2007), o conjunto de dados da instrumentação é útil para a
avaliação da segurança do desempenho de barragens, principalmente se as medidas atuais são
comparadas com toda a série histórica de dados por meio de ferramentas de identificação estatísticas
e estruturais.
Nesse sentido, Villwock et al. (2013) salientam que a análise detalhada dos dados da instrumentação
requer uma combinação de conhecimentos, especialmente de Engenharia, Matemática e Estatística, e
deve ser feita por uma equipe técnica experiente, com o auxílio de recursos computacionais.
A análise estatística é indicada por Farrar e Worden (2007) para classificar a alteração dos
parâmetros como proveniente da modificação da condição estrutural (falha) ou modificação das
condições ambientais e/ou operacionais, especialmente em situações que possuem incertezas
inerentes ao sistema adotado. Além disso, os autores salientam a necessidade de identificação e
minimização das fontes de variabilidade no processo de aquisição de dados e do sistema monitorado.
No entanto, nem todas as fontes de variabilidade podem ser eliminadas, como por exemplo, a
variação causada por diversas condições ambientais, como temperatura, umidade, carregamento e
condições de contorno. Por isso, é necessário fazer as medições apropriadas de tal modo que essas
fontes possam ser quantificadas estatisticamente.
De acordo com a literatura pesquisada, a modelagem estatística dos dados de monitoramento de
estruturas tem sido aplicada, principalmente, com os objetivos de classificação, associação, previsão
de valores e detecção de valores atípicos. Dentre as técnicas estatísticas multivariadas utilizadas para
essa finalidade estão a correlação canônica (YU-QING e YAN-LIANG, 2012), regressão linear
múltipla (DENG et al., 2008; MATA, 2011), análise de componentes principais (GU et al., 2011;
VILLWOCK et al., 2013) e equações estruturais (CHENG e ZHENG, 2013).
Neste trabalho é apresentado um método auxiliar no monitoramento estrutural de barragens de
concreto, que combina técnicas de estatística multivariada para: (1) quantificação da influência das
condições ambientais nos deslocamentos das estruturas e fundações; (2) identificação dos sensores
de maior relevância no que diz respeito à variabilidade dos dados; (3) agrupamento das datas das
medições, de acordo com as similaridades.
2 FUNDAMENTAÇÃO TEÓRICA
2.1 Análise de Correlação Canônica
A análise de correlação canônica é uma técnica de análise de interdependência, que permite ao
pesquisador identificar e quantificar as associações existentes entre dois grupos de variáveis (X e Y).
A ideia básica é encontrar a combinação linear das variáveis de X e a combinação linear das
variáveis de Y que produzem a maior correlação entre os dois grupos Johnson e Wichern (2007).
Considerando que U e V são as combinações lineares dos vetores em X e Y (Eq. 1), respectivamente,
o problema canônico consiste em obter os vetores de coeficientes a e b que maximizem a correlação
entre U e V (Eq. 2). As combinações lineares U e V, neste caso, são denominadas variáveis
canônicas.
V Simposio de Metodos Numericos Computacionais
361
Xa'=U Yb'=V (1)
bΣb'aΣa'
bΣa'=λ=VU,Corr
YX
XY
(2)
Os vetores X e Y possuem matrizes de covariâncias XΣ e YΣ , respectivamente, e o relacionamento
está resumido na matriz de covariância cruzada entre esses vetores que é YXXY Σ'=Σ .
Dessa forma, cada par de variáveis canônicas tem variâncias unitárias, correlação máxima e é não
correlacionado com os demais pares de variáveis canônicas. O número de pares de variáveis
canônicas que pode ser obtido é igual ao menor valor entre p e q. Em geral, procura-se obter poucos
pares de variáveis canônicas que explicam grande parte da interdependência entre os dois conjuntos
de variáveis observáveis.
2.2 Análise Fatorial
A aplicação da técnica multivariada da análise fatorial permite a explicação das correlações entre as
muitas variáveis de um conjunto de dados por meio de um número reduzido de variáveis aleatórias
não observáveis, denominadas fatores (JOHNSON; WICHERN, 2007).
De acordo com Johnson e Wichern (2007), o modelo fatorial (Eq. 3) considera que cada variável
pode ser escrita como uma combinação linear dos fatores comuns (Fk) e dos fatores específicos (εj).
Durante o processo de obtenção dos fatores são estimadas as cargas fatoriais, as comunalidades, as
variâncias específicas e os escores fatoriais, que são medidas com propriedades explicativas de
grande interesse para o pesquisador.
pmpmp2p1p
jmjmj2j1j
2m2m2221
1m1m1211
ε+Fl++Fl+Fl=Z
ε+Fl++Fl+Fl=Z
ε+Fl++Fl+Fl=Z
ε+Fl++Fl+Fl=Z
21
21
212
211
(3)
2.3 Análise de Agrupamentos
A utilização da análise de agrupamentos visa encontrar dentro de um conjunto heterogêneo de dados
um pequeno número de grupos homogêneos, cuja variação dentro do grupo seja substancialmente
menor do que a variabilidade total do conjunto de dados.
No método hierárquico aglomerativo inicialmente cada observação forma um grupo separado. A
cada etapa do processo, os grupos juntam-se de acordo com as similaridades formando novos
agrupamentos, até que reste somente um agrupamento com o número total de observações incluído.
A similaridade é uma medida da proximidade entre dois grupos. Uma forma de calcular essa medida
é a distância de Mahalanobis (Eq. 4).
ji1
jiij xxΣ'xx=D 2 (4)
Onde Σ é a matriz de covariância do conjunto de dados completo X.
2.4 Análise Discriminante
A análise discriminante é uma técnica que possibilita, a partir de variáveis independentes ou não,
estudar o perfil, realizar diferenciação e classificação de elementos de dois ou mais grupos. O
número de grupos deve ser conhecido com antecedência. A discriminação é feita com base numa
regra matemática que minimiza as probabilidades de erros de classificação incorretas.
Na abordagem de Mahalanobis (Eq. 5), calcula-se a distância ( 2gD ) de cada observação até o
centroide de cada grupo ( gx ). A observação, então, é alocada no grupo de centroide mais próximo.
V Simposio de Metodos Numericos Computacionais
362
g1
Wgg xxΣ'xx=D 2 (5)
Onde ΣW é a matriz de covariância dentro do grupo entre as variáveis independentes.
3 MATERIAIS E MÉTODO
O método proposto consiste na aplicação das técnicas denominadas Análise de Correlação Canônica,
Análise Fatorial, Análise de Agrupamentos e Análise Discriminante aos dados de monitoramento de
uma barragem de concreto.
Para a composição do conjunto de dados foram consideradas observações registradas no período
compreendido entre janeiro de 1990 e dezembro de 2013, resultantes das medições manuais da
instrumentação instalada nos blocos chaves D7 e D8, do Trecho D (Barragem Lateral Direita,
construída em blocos de contrafortes) da Barragem de Itaipu, além dos dados hidrometeorológicos
do mesmo período.
A instrumentação considerada neste estudo consistiu de 40 sensores, entre pêndulos diretos, pêndulos
invertidos, bases de alongâmetro, termômetros superficiais e extensômetros múltiplos de hastes.
Também foram considerados os dados hidrometeorológicos: nível de água do reservatório e
temperatura ambiente no entorno da barragem. Sendo assim, foram computadas 42 variáveis,
referentes aos sensores considerados neste estudo.
4 RESULTADOS
A análise de correlação canônica foi utilizada para estudar as relações existentes entre o grupo de
sensores que medem deslocamentos e os indicadores das condições ambientais.
A avaliação da qualidade do potencial das variáveis canônicas foi feita com base na proporção da
variação explicada pelas variáveis canônicas para cada grupo. A variável canônica U1 explicou
38,7% da variância observada nos deslocamentos, enquanto que a proporção da variância explicada
por V1 para o grupo condições ambientais foi de 65,6%. Sendo assim, os grupos “Deslocamentos” e
“Condições Ambientais” foram bem representados pelo primeiro par de variáveis canônicas, uma
vez que a correlação canônica entre esses grupos foi de 0,986, enquanto que os outros pares
apresentam valores menores.
As correlações entre as 38 variáveis do primeiro grupo e as 4 do segundo foram estimadas. Dentre as
variáveis mais correlacionadas (|ρ| > |0,8| e valor-p < 0,05) estão cinco hastes de extensômetros
múltiplos e três sensores de pêndulos relacionados com as temperaturas. Cabe ressaltar que as
maiores correlações foram negativas, indicando que nos períodos de temperatura baixa os
deslocamentos foram maiores do que naqueles de temperatura elevada.
Por outro lado, o nível de água do reservatório apresentou pequena correlação positiva
individualmente apenas com alguns sensores. Possivelmente porque a baixa variabilidade observada
nessa variável levou a forças atuantes sobre a barragem praticamente constantes. Outra justificativa
pode ser a necessidade de interação do nível de água do reservatório com a temperatura para
influenciar os deslocamentos.
Confrontando as variáveis canônicas U1 e V1, por meio do gráfico de dispersão (Fig. 1), confirmou-
se a relação linear existente entre essas variáveis, evidenciando a possibilidade de prever o
desempenho estrutural da barragem em uma determinada época em função dos sensores de medição
de deslocamentos.
Portanto, se o grupo “Condições Ambientais” foi o causador da variabilidade observada no grupo
“Deslocamentos”, então U1 pode ser utilizado como o melhor preditor e V1 o mais provável critério
para a realização da previsão do desempenho estrutural da barragem, no que diz respeito aos
deslocamentos.
V Simposio de Metodos Numericos Computacionais
363
A aplicação da análise fatorial por componentes principais resultou num modelo composto por cinco
fatores (Tabela 1), identificados com base nas maiores cargas fatoriais, com capacidade de explicar
91,12% da variância do conjunto de observações.
Tabela 1: Fatores relacionados aos deslocamentos relativos da barragem de Itaipu
Fator Nome Explicação (%) Sensores mais correlacionados
F1 Percepção da Fundação 45,88 Extensômetros múltiplos de hastes (maioria)
F2 Contração do Concreto 30,83 Bases de alongâmetro (aberturas entre juntas)
Pêndulos (sentido normal)
F3 Expansão do Concreto 9,66 Temperaturas
Extensômetros múltiplos de hastes (4)
Pêndulos (sentido do fluxo da água - bloco D8)
F4 Geometria da Estrutura do Bloco D7 2,41 Pêndulos (sentido do fluxo da água - bloco D7)
F5 Pressão Hidrostática 2,34 Nível de água do reservatório
A variabilidade presente nas leituras de cada sensor, advinda dos fatores identificados, foi estimada
através da comunalidade. Assim, uma comunalidade baixa (menor que 0,60) indicaria que a variável
não seria suficientemente explicada pelo modelo e poderia ser descartada. Os resultados apontaram
para a preservação de todos os sensores considerados neste estudo.
Utilizando a comunalidade como uma medida da importância de cada variável para o modelo
fatorial, obteve-se o ranqueamento dos sensores. Assim os instrumentos mais importantes para os
blocos D8 e D7 foram, respectivamente, três hastes de extensômetro múltiplo pertencentes a um
mesmo furo de sondagem e as duas bases de alongâmetro que medem a abertura entre as juntas dos
blocos. Além disso, o nível de água do reservatório foi a variável relacionada com as condições
ambientais melhor classificada.
O fator, por ser uma variável latente, não pode ser medido diretamente. No entanto, os valores dos
fatores, denominados escores fatoriais, são estimados com base nas cargas fatoriais e nos valores dos
sensores que dominam esse fator.
Os escores fatoriais de cada uma das 288 datas de realização das leituras, com relação a cada fator,
foram utilizados como dados de entrada para a análise de cluster e a análise discriminante.
Na análise de cluster, utilizando o método da média do grupo e a distância de Mahalanobis, foram
identificados três grupos homogêneos de datas (Fig. 2), agregando 190 elementos no primeiro (G1),
83 no segundo (G2) e 15 no terceiro (G3). O primeiro grupo ficou constituído essencialmente dos
meses de novembro a maio, período em que foram registradas as maiores temperaturas, enquanto que
Variáveis Canônicas (U1,V1)
U1
V1
-2,1 -1,1 -0,1 0,9 1,9
-2
-1
0
1
2
Figura 1: Gráfico de dispersão das variáveis canônicas U1 e V1
V Simposio de Metodos Numericos Computacionais
364
a maioria dos meses com menores temperaturas ficaram reunidas em G2. O terceiro grupo reuniu as
datas em que foram registrados os menores níveis de água do reservatório.
A classificação das 288 observações foi testada através da análise discriminante, considerando os
sensores com as maiores comunalidades. Devido à grande diferença de tamanho dos grupos,
considerou-se a proporcionalidade do número de observações por grupo. O elevado percentual de
classificação correta, 94,1%, confirmou o poder discriminante dos sensores considerados na análise.
Duas funções foram consideradas estatisticamente relevantes, ao nível de confiança de 99%, para
fazer a distinção das observações pertencentes a cada grupo (Fig. 3). A primeira função discrimina os
grupos Temperatura Alta e Temperatura Baixa, enquanto que a segunda discrimina o grupo Baixo
Nível de Água do Reservatório Baixo (BNAR) dos demais grupos.
As funções de classificação das observações nos grupos (Eq. 6) são combinações lineares dos
sensores. Essas funções podem ser utilizadas para a classificação de novas datas de leituras. Para
tanto, basta calcular os escores de cada novo elemento em cada grupo e, em seguida, alocá-lo
naquele de maior escore.
G1 = -0,664 + 0,664*Z53 - 1,332*Z52 - 0,075*Z54 + 0,323*Z9 + 0,134*Z61 - 0,881*Z7
(6) G2 = -3,398 - 0,446*Z53 + 2,866*Z52 + 0,073*Z54 – 1,284*Z9 + 1,656*Z61 + 2,674*Z7
G3 = -23,805 + 5,944*Z53 + 1,009*Z52 + 0,544*Z54 + 3,013*Z9 - 10,866*Z61 - 3,636*Z7
Figura 3: Dispersão dos elementos de acordo com as funções discriminantes entre grupos
Figura 2: Agrupamentos pelo método da ligação média, utilizando a distância de Mahalanobis
V Simposio de Metodos Numericos Computacionais
365
5 CONCLUSÕES
Os resultados da análise de correlação canônica permitem inferir que os deslocamentos das estruturas
e fundações da barragem são fortemente influenciados pelas condições ambientais. Em geral, a
instrumentação registra maiores deslocamentos nos períodos de baixas temperaturas.
O conjunto de instrumentos composto por pêndulos, bases de alongâmetro e extensômetro múltiplos
de hastes pode ser usado para a previsão do desempenho estrutural de uma barragem, no que diz
respeito aos deslocamentos, segundo o critério da variabilidade nas condições ambientais.
As datas das observações registradas pela instrumentação, quando submetidas à análise de
agrupamentos e análise discriminante, podem ser agrupadas em “Temperatura Alta”, “Temperatura
Baixa” e Baixo Nível de Água do Reservatório.
A maior parte da variabilidade dos dados das medições é devida aos fatores: Percepção da Fundação;
Contração do Concreto; Expansão do Concreto; Geometria da Estrutura do Bloco D7 e Pressão
Hidrostática.
AGRADECIMENTOS
Agradecimentos pelas contribuições das seguintes instituições:
- CEASB – Itaipu Binacional: suporte técnico e disponibilização dos dados;
- PROPPG – UTFPR: viabilização deste estudo via Portaria nº. 0398/2014; - PPGMNE – UFPR: suporte teórico e incentivo ao desenvolvimento deste trabalho.
REFERÊNCIAS
CHENG, L.; ZHENG, D. Two online dam safety monitoring models based on the process of
extracting environmental effect. Advances in Engineering Software, v. 57, p. 48–56, 2013.
CRUZ, P. T. 100 barragens brasileiras: casos históricos, materiais de construção, projeto. São
Paulo: Oficina dos Textos, 2006.
DENG, N.; WANG, J.-G.; SZOSTAK-CHRZANOWSKI, A. Dam Deformation Analysis Using the
Partial Least Squares Method. , 2008. proceedings, Lisbon. Disponível em:
<http://bbjd.fig.net/resources/proceedings/2008/lisbon_2008_comm6/papers/pst01/pst01_05_deng_
mc048.pdf>. .
DE SORTIS, A.; PAOLIANI, P. Statistical analysis and structural identification in concrete dam
monitoring. Engineering Structures, v. 29, p. 110–120, 2007.
FARRAR, C. R.; WORDEN, K. An introduction to structural health monitoring. Philosophical
Transactions of the Royal Society A, v. 365, p. 303–315, 2007.
GU, C. S.; ZHAO, E. E.; JIN, Y.; SU, H. Z. Singular value diagnosis in dam safety monitoring effect
values. Science China,Technological Sciences, v. 54, n. 5, p. 1169–1176, 2011.
JOHNSON, R. A.; WICHERN, D. W. Applied Multivariate Statistical Analysis. 6o ed. Pearson,
2007.
LI, F.; WANG, Z. Z.; LIU, G. Towards an error correction model for dam monitoring data analysis
based on cointegration theory. Structural Safety, v. 43, p. 12–20, 2013.
MATA, J. Interpretation of concrete dam behaviour with artificial neural network and multiple linear
regression models. Elsevier, Engineering Structures, v. 33, p. 903–910, 2011.
MATOS, S. F. Avaliação de instrumentos para auscultação de barragem de concreto. Estudo de
caso: deformímetros e tensômetros para concreto na Barragem de Itaipu, 2002. Dissertação,
Curitiba, PR: UFPR.
VILLWOCK, R.; STEINER, M. T. A.; DYMINSKI, A. S.; CHAVES NETO, A. Itaipu
Hydroelectric Power Plant Structural Geotechnical Instrumentation Temporal Data Under the
Application of Multivariate Analysis - Grouping and Ranking Techniques. Multivariate Analysis in
Management, Engineering and the Sciences. p.81–102, 2013. InTech.
YU-QING, Z.; YAN-LIANG. Temperature Prediction of RCC Based on Partial Least-Squares
Regression. Energy Procedia, v. 17, Part A, p. 326–332, 2012.
V Simposio de Metodos Numericos Computacionais
366
V Simposio de Metodos Numericos Computacionais
UTILIZAÇÃO DO MODELO DE REGRESSÃO DE COX PARAEXPLICAR O TEMPO ATÉ A GERMINAÇÃO DE SEMENTES DE
PEROBA-ROSA
Resumo: Aspidosperma polyneuron Müll.Arg., também conhecida como peroba-rosa, possui muitas virtudesquanto ao seu uso em diferentes atividades. Para que haja representatividade no estudo de produção de mudas eplantios de recomposição/produção, recomenda-se trabalhar com sementes provenientes de pelo menos 12 ou 13matrizes. O presente trabalho teve por objetivo avaliar se sementes oriundas de um lote composto possuem menortempo até a germinação em relação as sementes de lotes únicos, utilizando de técnicas estatísticas da Análise deSobrevivência. Por meio do modelo de regressão de Cox, verificou-se que sementes oriundas de um lote compostotiveram menor tempo de germinação em relação aos lotes únicos. Este trabalho possui bastante relevância umavez que há carência na literatura acerca dessa espécie.
Palavras-Chave: Peroba-Rosa, Sementes, Tempo até a germinação, Modelo de Regressão deCox.
1 INTRODUÇÃO
Aspidosperma polyneuron Müll.Arg. é uma espécie arbórea pertencente à família Apocynaceae, con-hecida popularmente como peroba-rosa. Esta espécie possui características muito apreciáveis, e por issoé bastante visada pela construção civil, indústria de móveis, etc. [6,7].
Muito embora seja uma espécie de grande valor, existem poucas informações técnicas para avaliarsua qualidade fisiológica em laboratório [1]. Em especial, é importante conhecer o tempo até a ger-minação das sementes de peroba-rosa uma vez que isso possibilita o melhor planejamento de viveirosdessa espécie. Além disso, encontra-se na literatura a recomendação de se trabalhar com sementes mis-turadas (lote composto), provenientes de pelo menos 12 ou 13 matrizes [4], pois esta seria uma formade obter representatividade no estudo de produção de mudas e de plantios de recomposição/produção.Dessa forma, o presente trabalho tem por objetivo avaliar se a recomendação de se trabalhar com lotecomposto de sementes de peroba-rosa apresenta menor tempo de germinação em relação às sementes delotes não-compostos, utilizando de técnicas estatísticas da Análise de Sobrevivência.
2 MATERIAIS E MÉTODOS
2.1 Escolha das matrizes e obtenção das sementesO presente trabalho foi desenvolvido com sementes colhidas em 13 árvores (matrizes) localizadas
dispersamente em cinco municípios do Estado do Paraná. A coleta das sementes ocorreu entre os mesesde agosto e de setembro de 2014. As sementes das matrizes foram individualizadas e, por meio delas,
Vanessa Ferreira Sehaber, Sheilly RaquellyPrado de Paula, Antonio Carlos Nogueira
367
contituíu-se o lote composto, procurando manter um número equivalente de sementes de cada matrizamostrada.
As sementes coletadas foram levadas ao Laboratório de Sementes Florestais do Departamento deCiências Florestais da Universidade Federal do Paraná (UFPR), localizado no município de Curitiba- PR, onde foram beneficiadas e utilizadas para a realização dos experimentos. Foram retiradas 180sementes de cada um dos 14 lotes de sementes para instalar o experimento de germinação. Utilizou-sede um delineamento completamente casualizado e as sementes foram postas para germinar em caixas deGerbox, sobre um substrato de papel, em câmara de germinação cuja temperatura e fotoperíodo foramcontrolados em, respectivamente, 25 oC e 11 horas.
O experimento foi instalado em novembro de 2014 e diariamente, no mesmo horário, realizou-se averificação das sementes que germinaram ou não. O experimento se passou em 22 dias e o critériode encerramento do mesmo foi não observar algum sinal de germinação das sementes na câmara degerminação ao longo de 3 dias consecutivos. Utilizou-se o software R versão 3.2.2 para realizar asanálises estatísticas [8].
2.2 Modelos de análise de sobrevivência
Em análise de sobrevivência, a variável resposta é, geralmente, o tempo até a ocorrência de um eventode interesse e este tempo é denominado de tempo de falha [2]. A principal característica de dados desobrevivência é a presença de censura, que é a observação parcial da resposta. A observação censuradainforma que o tempo até a falha é maior do que aquele que foi registrado.
Uma função de probabilidade que leva em consideração o tempo que o indivíduo levou até a falha éa função de sobrevivência S(t). Define-se função de sobrevivência, S(t), como a probabilidade de umindivíduo sobreviver mais do que um determinado tempo t, ou seja, S(t) = P (T > t) = 1− F (t), ondeF (t) é a função de distribuição acumulada do tempo até a falha.
Há diferentes abordagens na Análise de Sobrevência que se aplicam na modelagem dos dados, algu-mas delas são a paramétrica, a não-paramétrica e semi-paramétrica. Quando a abordagem paramétricanão é satisfatória, as abordagens não-paramétrica e semi-paramétrica são bastante razoáveis. Uma abor-dagem não-paramétrica para estimar S(t) quando há indivíduos censurados pode ser dada pelo estimadorde Kaplan-Meier [5]. A presença de covariáveis na estimação por Kaplan-Meier não permite estimar oefeito da covariável, mas apenas comparar e testar a igualdade entre as curvas de sobrevivência [3].
Para investigar o efeito de covariáveis no tempo até a falha, foram considerados alguns modelos deregressão que assumem diferentes distribuições de probabilidades para a variável resposta, porém, paraeste estudo, tais modelos não apresentaram ajustes adequados. Diante disso, utilizou-se o modelo deregressão de Cox (o qual também é denominado de modelo de taxas de falhas proporcionais, uma vezque a razão de taxa de falhas de dois indivíduos diferentes é constante no tempo), que é um modelosemi-paramétrico, o qual apresentou ajuste bastante razoável. A função de sobrevivência desse modeloé dada por S(t|x) = [S0(t)]
exp(x′β) e função taxa de falha dada por λ(t|x) = [λ0(t)] exp(x′β). Ainda,pode-se obter a função taxa de falha acumulada Λ(t|x) com base na função taxa de falha, a qual é útilpara avaliar a taxa de falha e informar qual curva tem maior risco de falha.
3 RESULTADOS E DISCUSSÕES
Na Figura 1 encontra-se o gráfico de dispersão dos tempos de germinação das sementes de peroba-rosa durante os 22 dias de experimento.
V Simposio de Metodos Numericos Computacionais
368
Dias
Sem
ente
s de
per
oba−
rosa
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180
5 10 20
1
5 10 20
2
5 10 20
3
5 10 20
4
5 10 20
5
5 10 20
6
5 10 20
7
5 10 20
8
5 10 20
9
5 10 20
10
5 10 20
11
5 10 20
12
5 10 20
13
5 10 20
14
Censura Falha
Figura 1: Gráfico de falhas e censuras do tempo até a germinação da semente de peroba-rosa para os 14lotes de sementes
V Simposio de Metodos Numericos Computacionais
369
As curvas de sobrevivência dos tempos de germinação das sementes de peroba-rosa, durante os 22dias de experimentação, obtidas por meio do estimador de Kaplan-Meier, foram representadas na Figura2 com a cor preta. Quanto mais próxima de zero estiver a calda da curva da função de sobrevivênciamaior é a quantidade de sementes que germinaram. Isso pode ser observado nas curvas da Matrizes 5,7, 8, 12, 13, 14. Observe que a curva da Matriz 1 não atingiu 50%, ou seja, o experimento foi encerradosem que fosse observado 50% das sementes germinadas desta matriz.
Além da Matriz 1, observa-se que as Matrizes 2, 3, 4 e 6 também apresentaram caldas pesadas.Ainda, representou-se na Figura 2 o modelo de regressão de Cox com a cor vermelha, o qual teve comocovariável o fator Matriz, com 14 níveis. As curvas em vermelho estão, visualmente, muito próximas dascurvas estimadas por Kaplan-Meier. Encontram-se na Tabela 1 algumas medidas baseadas nas curvasde sobrevivência estimadas por Kaplan-Meier e, na Tabela 2, as estimativas obtidas pelo modelo deregressão de Cox.
Tabela 1: Tabela com cálculo de quantidades básicas para o tempo até a germinação das sementes deperoba-rosa para os 14 lotes de sementes, obtidos com base no estimador de Kaplan-Meier
Lotes Não Germ. Germ. % Não Germ. % Germ. Tempo médio Tempo medianoMatriz 1 124 56 69 31 13,67 ± 0,08 -Matriz 2 66 114 37 63 10,57 ± 0,16 12,29Matriz 3 80 100 44 56 13,76 ± 0,20 13,33Matriz 4 90 90 50 50 13,91 ± 0,14 19,00Matriz 5 30 150 17 83 4,11 ± 0,02 6,45Matriz 6 79 101 44 56 9,07 ± 0,10 11,50Matriz 7 25 155 14 86 8,19 ± 0,08 8,79Matriz 8 24 156 13 87 7,37 ± 0,11 8,91Matriz 9 43 137 24 76 5,69 ± 0,14 6,25
Matriz 10 64 116 36 64 11,06 ± 0,17 10,67Matriz 11 47 133 26 74 7,58 ± 0,11 8,62Matriz 12 27 153 15 85 6,81 ± 0,19 9,10Matriz 13 29 151 16 84 6,87 ± 0,10 9,24Matriz 14 11 169 06 94 5,81 ± 0,05 8,38
Pela Tabela 1 observa-se as Matrizes 7, 8, 9, 11, 12, 13 e 14 tiveram mais de 70% das sementesgerminadas e que menos de 32% das sementes da Matriz 1 germinaram. Os três maiores tempos médiosforam das Matrizes 1, 3 e 4 e os três menores foram das Matrizes 5, 9 e 14.
Para os tempo medianos, os maiores tempos medianos foram das Matrizes 1, 3 e 4 e os três menoresforam das Matrizes 5, 9 e 14. na Figura 2, as curvas em vermelho representam o ajuste do modelo deregressão de Cox, o qual tem como covariável o fator Matriz, com 14 níveis, e a Figura 4 encontram-seas curvas da função de falha acumulada para cada matriz.
As estimativas obtidas para o modelo regressão de Cox encontram-se na Tabela 2. Dessa forma, omodelo de regressão de Cox estimado é dado por
S(t|Matrix) = Sexp(3,2−0,4M2−0,4M3−0,3M4−1,1M5−0,5M6−0,9M7−0,8M8−1,0M9−0,6M10−0,8M11−0,9M12−0,8M13−0,9M14)0
E, por meio dessas estimativas, obtém-se as seguintes taxas:
λ(t|Matriz 1)
λ(t|Matriz 14)∼= 67, 4
λ(t|Matriz 8)
λ(t|Matriz 14)∼= 1, 1
Assim, pode-se dizer que a taxa do tempo até a germinação das sementes da Matriz 1 é, aproximada-mente, 67,4 vezes a taxa das sementes da Matriz 14 e, de modo semelhante, que a taxa do tempo até agerminação das sementes da Matriz 8 é, aproximadamente, 1,1 vezes a taxa das sementes da Matriz 14.
V Simposio de Metodos Numericos Computacionais
370
Tabela 2: Estimativas βj do modelo de regressão de Cox, j = 0, ..., 14, cuja matriz de contraste é do tipotratamento
Categoria β ep(β) Z p-valorIntercepto 3,23 0,05 60,13 ≤ 0,00001Matriz 10 -0,62 0,07 -8,77 ≤ 0,00001Matriz 11 -0,80 0,07 -11,42 ≤ 0,00001Matriz 12 -0,91 0,07 -12,92 ≤ 0,00001Matriz 13 -0,80 0,07 -11,38 ≤ 0,00001Matriz 14 -0,98 0,07 -13,94 ≤ 0,00001Matriz 2 -0,43 0,07 -6,09 ≤ 0,00001Matriz 3 -0,42 0,07 -5,83 ≤ 0,00001Matriz 4 -0,35 0,07 -4,82 ≤ 0,00001Matriz 5 -1,10 0,07 -15,66 ≤ 0,00001Matriz 6 -0,52 0,07 -7,35 ≤ 0,00001Matriz 7 -0,92 0,07 -13,13 ≤ 0,00001Matriz 8 -0,85 0,07 -12,09 ≤ 0,00001Matriz 9 -1,01 0,07 -14,33 ≤ 0,00001
Log(scale) -0,51 0,02 -27,93 ≤ 0,00001
Ao comparar visualmente os ajustes obtidos, observa-se pelo gráfico da Figura 2 que o modelo deregressão de Cox conseguiu ajustar curvas próximas as estimadas por Kaplan-Meier, porém não repre-sentou satisfatoriamente as curvas de sobrevivência das Matrizes 5 e 9.
Tempo (dias)
Sob
revi
vênc
ia e
stim
ada
0.2
0.4
0.6
0.8
1.01
0 5 10 15 20
2 3
0 5 10 15 20
4 5
0 5 10 15 20
6 7
0 5 10 15 20
8 9
0 5 10 15 20
10 11
0 5 10 15 20
12 13
0 5 10 15 20
0.2
0.4
0.6
0.8
1.014
Kaplan−Meier Mod. Reg. Cox
Figura 2: Gráficos das funções de sobrevivência estimadas por Kaplan-Meier versus as funções de so-brevivência estimadas pelo modelo de regressão de Cox para o tempo até a germinação das sementes deperoba-rosa para os 14 lotes de sementes
A Figura 3 mostra as estimativas das curvas de sobrevivência dos resíduos Cox-Snell obtidas porKaplan-Meier (S(ei)KM) e pelo modelo exponencial padrão (S(ei)Exp), as quais devem ser próximas.Além disso, os gráficos dos pares de pontos (S(ei)KM, S(ei)Exp) devem ser, aproximadamente, uma reta
V Simposio de Metodos Numericos Computacionais
371
para que o modelo ajustado possa ser considerado satisfatório. Observando os gráficos da Figura 3,nota-se que o modelo de regressão de Cox parece aceitável, o que indica sua adequação de ajuste aosdados.
0.2 0.4 0.6 0.8 1.0
0.2
0.4
0.6
0.8
1.0
S(ei): Kaplan−Meier
S(e
i): E
xpon
enci
al P
adrã
o
0.0 0.5 1.0 1.5 2.0 2.50.
00.
20.
40.
60.
81.
0
Resíduos de Cox−Snell
Sob
revi
vênc
ia e
stim
ada
Kaplan−MeierExponencial padrão
Figura 3: Análise dos resíduos de Cox-Snell do modelo de regressão de Cox ajustado para os dados degerminação das sementes de peroba-rosa
Tempo (dias)
Taxa
de
falh
a ac
umul
ada
0.0
0.5
1.0
1.5
2.0
2.5
5 10 15 20
Matriz 1Matriz 2Matriz 3Matriz 4
Matriz 5Matriz 6Matriz 7Matriz 8
Matriz 9Matriz 10Matriz 11Matriz 12
Matriz 13Matriz 14
Figura 4: Gráficos das funções taxas de falha acumulada estimadas com base no modelo de regressão deCox para os 14 lotes de sementes de peroba-rosa
As curvas da função taxa de falha acumulada foram maiores para as Matrizes 5, 14 e 9 (matrizes commaiores riscos de germinação) e foram menores para as Matrizes 1, 4 e 2 (matrizes com menores riscosde germinação). Como o modelo superestimou as funções de sobrevivência das Matrizes 5 e 9, pode-sedizer que a Matriz 14 apresentou maior taxa de falha.
V Simposio de Metodos Numericos Computacionais
372
4 CONCLUSÕES
Consoante ao objetivo do trabalho, verificou-se que o lote composto, representado pela Matriz 14,apresentou maior taxa de germinação em relação às demais matrizes, o que evidencia que o tempo atéa germinação dessa matriz foi menor. Assim, em termos práticos, a recomendação de homogeneizar assementes aplicou-se no caso das sementes dos lotes de peroba-rosa. Embora a Matriz 14 tenha apre-sentado maior número de sementes germinadas, um modelo de regressão logístico seria indicado paraa avaliação do percentual de germinação das sementes dos 14 lotes experimentados. Dessa forma, osmétodos estatísticos e computacionais utilizados servem de base para que outros pesquisadores interes-sados nesta espécie tenham uma perspectiva sobre o tempo até a germinação das sementes e subsidiemprocedimentos de plantio.
REFERÊNCIAS
[1] CARVALHO, P. E. R. Espécies arbóreas brasileiras. Brasília: Embrapa Informação Tecnológica.Colombo - PR: Embrapa Florestas, 2003.
[2] COLOSIMO, E. A.; GIOLO, S. R. Análise de sobrevivência aplicada. Blucher: São Paulo, 2006.[3] CARVALHO, M. S. et. al. Análise de sobrevivência: teoria e aplicações em saúde. ed. 2. Fiocruz:
São Paulo, 2011.[4] KAGEYAMA, P. Y. et al. Diversidade genética em espécies tropicais de diferentes estágios
sucessionais por marcadores genéticos. Scientia Forestalis, Piracicaba, v. 64, p. 93-107, 2003.[5] KAPLAN, E. L.; MEIER, P. Nonparametric estimation from incomplete observations. Journal
of the American Statistical Association. v. 53, p. 457-481, 1958.[6] KOCH, I. et a. Apocynaceae in Lista de Espécies da Flora do Brasil. Jardim Botânico do Rio
de Janeiro. Disponível em: <http://floradobrasil.jbrj.gov.br/jabot/floradobrasil/FB 4530>. Acessoem: 08 Jan. 2015.
[7] LORENZI, H. Árvores brasileiras: manual de identificação de plantas arbóreas do Brasil.Nova Odessa: Instituto Plantarum, vol. 1, ed. 5, p. 368, 2008.
[8] R. DEVELOPMENT CORE TEAM.R: A language and environment for statistical computing.Vienna: R Foundation for Statistical Computing, 2015.
V Simposio de Metodos Numericos Computacionais
373
V Simposio de Metodos Numericos Computacionais
MODELO DE REGRESSÃO MULTIVARIADO PARA DESLOCAMENTOS EM BARRAGEM DE CONCRETO
Resumo: O presente artigo apresenta uma aplicação do modelo de regressão por mínimos quadrados parciais em dados de monitoramento de barragens. O deslocamento da estrutura de um bloco de concreto é captado pelos instrumentos pêndulo direto e invertido. Esses instrumentos requerem monitoramento constante de engenheiros e técnicos responsáveis pela segurança da obra, por isso, é de interesse deste trabalho investigar o relacionamento entre o deslocamento captado pelo pêndulo, que é a resposta da barragem, mediante as variações do nível do reservatório e temperatura. O modelo condensa informação dos dados em um número pequeno de novas variáveis o que indica um bom potencial para auxiliar no monitoramento de barragens. Palavras-Chave: Regressão Multivariada, Mínimos Quadrados Parciais, Barragem.
1 INTRODUÇÃO
O objetivo da análise dos dados da instrumentação em barragens é propiciar informação que pode ser usada em uma interpretação física das deformações e, na previsão, seja do comportamento futuro da própria estrutura ou para estudo do comportamento de uma estrutura semelhante (DENG; WANG; SZOSTAK, 2008). Modelos estatísticos são propostos na literatura para tal objetivo, cita-se Ahmadi-Nedushan (2002), Chouinard e Roy (2006), De Sortis e Paoliani (2007), Léger e Lecler (2007), Deng, Wang e Szostak (2008), Yu et al. (2010), Mata (2011), Xi et al. (2011) e Li, Wang e Liu (2013). Estes são baseados em correlações existentes entre fatores tais como: o nível de água do reservatório, temperatura ambiente, desgaste devido ao tempo e a resposta da barragem a estas ações como tensões, deformações e deslocamentos (AHMADI-NEDUSHAN, 2002). Um dos desafios ao propor tais modelos é que primeiro, as variáveis independentes, ou seja, variações do nível do reservatório e temperatura, podem gerar dados multicolineares, inviabilizando o uso de algumas técnicas estatísticas. A multicolinearidade cria uma variância compartilhada entre as variáveis, diminuindo assim a capacidade de prever a variável dependente, bem como examinar a importância relativa de cada variável independente (HAIR, et al., 2009). O método de regressão por mínimos quadrados parciais atende o problema da multicolinearidade e não requer que os resíduos tenham distribuição normal. O método consiste em utilizar componentes obtidas, a fim de maximizar a covariância entre as variáveis
Suellen Ribeiro Pardo Garcia, Anselmo Chaves Neto, SheilaRegina Oro, Tereza Rachel Mafioleti, Claudio Neumann Junior
374
independentes e as variáveis dependentes (GARCIA e FILZMOSER, 2011). Entre aplicações de regressão por mínimos quadrados parciais, destaca-se o trabalho de (DENG; WANG e SZOSTAK, 2008) que apresenta uma análise de deformação para um ponto sobre a barragem. A conclusão no artigo foi que o modelo de regressão por mínimos quadrados parciais é mais confiável e tem melhor integridade do que o modelo de regressão múltipla que foi amplamente empregado no monitoramento de barragens. A proposta do artigo é desenvolver um modelo estatístico de regressão multivariada por mínimos quadrados parciais, onde as leituras dos sensores dos pêndulos direto e invertido compõem a matriz de variáveis dependentes e as variáveis independentes (preditoras) são as leituras do nível do reservatório, leituras dos termômetros de superfície e funções que descrevem o efeito irreversível na estrutura ao longo do tempo. O aspecto relevante deste modelo é sua característica multivariada, ou seja, será proposto um modelo para várias variáveis de resposta simultaneamente.
2 MODELO HYDROSTATIC DIRECT TEMPERATURE TIME (HT DT)
A resposta de um instrumento de segurança de barragem pode ser modelada em função de efeitos irreversíveis (eventuais deformações permanentes na estrutura) e efeitos reversíveis que o correm pela variação do nível do reservatório e temperatura, ao longo do tempo (Ahmadi-Nedushan, 2002). O deslocamento de um bloco de concreto é uma das respostas da barragem sob a ação dos efeitos reversíveis e irreversíveis. Trata-se de um dos parâmetros mais significativos em monitoramento de segurança de barragens. O modelo proposto por Léger e Leclerc (2007) descreve os deslocamentos em função da variação do nível do reservatório (H(z)), da variação da temperatura utilizando os dados dos termômetros embutidos no concreto (S(T)), e, em função dos efeitos irreversíveis (T(t)). O modelo, denomino HTDT (hydrostatic, direct temperature, time) é dado por
1
lnk
2 3 41 2 3 4 5 i i 1 2
i
D(t)= H(z)+S(T)+T(t)= a +a z+a z +a z +a z + bT +c t +c t=∑ (1)
onde ( )D t é a variável resposta (deslocamentos), t é o instante de início da análise, a
variável z é definida como mín
máx mín
h hz
h h
−=−
, h nível do reservatório e iT são as temperaturas
dos termômetros considerados no modelo. Os coeficientes desconhecidos ka e lc são
estimados pelo método dos mínimos quadrados. O modelo HTdT é uma regressão múltipla, o artigo se propõe a estender essa modelagem para várias variáveis resposta utilizando o modelo de mínimos quadrados parciais. O método de mínimos quadrados ordinários, ao contrário do método de mínimos quadrados parciais, apresenta resultados instáveis quando existe alto grau de correlação entre as variáveis independentes (multicolinearidade), o que aumenta a variância dos coeficientes estimados (MORELLATO, 2010). Calcula-se o fator de inflação da variância (VIF – Variance Inflation Factor) para quantificar a gravidade da multicolinearidade em uma análise de regressão. Essa estatística fornece um índice que mede o quanto a variância de um coeficiente de regressão estimado é maior na presença de colinearidade.
V Simposio de Metodos Numericos Computacionais
375
O VIF é calculado para cada ix (variável independente) dado por 2
1
1 i
VIFR
=−
, onde 2iR é o
coeficiente de determinação da equação de regressão
1 1 1 1 1 1... ...i i i i i p px x x x xα α α α− − + += + + + + + . A multicolinearidade é alta quando 10VIF > .
Em dados de monitoramento de barragens geralmente existe multicolinearidade e de fato, isso é verificado nesta aplicação na seção 4.2, isso justifica a escolha do método.
3 REGRESSÃO POR MÍNIMOS QUADRADOS PARCIAIS
Para auxiliar a notação, seja Y a matriz de variáveis resposta (deslocamentos) e seja X a matriz de variáveis preditoras (modelo HTdT). Assim, Y Xβ ε= + é o modelo de regressão por mínimos quadrados parciais, onde Y é a matriz nxm de n observações e m instrumentos, X é uma matriz nxr de n observações e r variáveis do modelo HTdT, β é uma matriz rxm dos coeficientes de regressão e ε é a matriz dos resíduos nxm. Os resíduos possuem vetor de médias nulo e matriz de covariâncias igual a 2Iσ , onde I é a matriz identidade de ordem nxn, mas sem distribuição definida (WOLD, SJÖSTRÖM e ERIKSSON, 2001). O modelo encontra poucas “novas” variáveis chamadas de componentes de X que são denotadas por ( ) 1,2,...,at a A= . O objetivo do modelo é extrair componentes que
capturem as variâncias dos preditores e também obter correlações com as respostas, isto é alcançado maximizando a covariância entre , e aX t Y (MORELLATO, 2010).
As componentes A (A<r ) são ortogonais e obtidas por combinações lineares das variáveis originais xr, com os pesos wa (a=1,2,...,A), da seguinte forma:
T XW= (2)
onde ( )1 2, ,..., AT t t t= é a matriz nxa de componentes (escores ou fatores) e
( )1 2, ,..., AW w w w= é a matriz rxa de pesos. As matrizes X e Y são decompostas na forma:
'X TP F= + (3)
'Y UC G= + (4)
onde T e U são matrizes nxA de componentes (escores ou fatores) de X e Y respectivamente, P’ e C’ são matrizes Axr e Axm de pesos de X e Y, respectivamente e F e G são as matrizes dos resíduos. As componentes de X são boas preditoras de Y, ou seja,
'Y TC E= + (5)
onde C’ é obtido por mínimos quadrados, dado por
( ) 1ˆ ' ' 'C T T T Y−= (6)
Para conseguir os coeficientes da regressão por mínimos quadrados parciais referentes as variáveis originais, substitui-se (2) em (5) e obtém-se
' ' 'Y TC E XWC E XB E B WC= + = + = + ⇒ =
ou seja,
V Simposio de Metodos Numericos Computacionais
376
ˆˆ 'B WC= (7)
A j-ésima coluna da matriz Bcorresponde aos coeficientes estimados para o modelo de regressão por mínimos quadrados parciais da variável de resposta , 1,...,
jy j m= . A
validação cruzada é normalmente utilizada para determinar este número ótimo de componentes (MEVIK e WEHRENS, 2007).
4 MODELAGEM
4.1 Dados A Barragem Principal (trecho F) de Itaipu é composta de blocos de concreto do tipo gravidade aliviada com 16 tomadas de água. Este é o trecho da barragem de concreto com maior influência da variação do nível do reservatório. O trecho F possui 18 blocos duplos que vão do F1/2 ao F35/36. Considera-se o bloco F19/20 para análise por ser um dos blocos com maior altura de coluna d’água. Os 6 sensores de um pêndulo direto e 1 sensor de um pêndulo invertido são os instrumentos para as variáveis de resposta, as leituras do nível do reservatório, as leituras de 6 termômetros de superfície instalados no bloco e o efeito irreversível foram utilizados para compor as funções do modelo HTdT e assim, constituírem a matriz de variáveis preditoras. O período da análise foi de janeiro de 2000 a junho de 2015. A Tabela 1: Variáveis consideradas no modelo. apresenta as 19 variáveis iniciais.
Tabela 1: Variáveis consideradas no modelo.
Variáveis Dependentes COF17X COF18X COF19X COF20X COF21X COF22X COF23X
Variáveis Independentes z z2 z3 z4 TSF11 TSF12 TSF13 TSF14 TSF15 TSF16 t ln t
Os pêndulos diretos e invertidos fornecem medidas dos deslocamentos na direção X, no sentido do fluxo (direção montante-jusante) e na direção Y, perpendicular ao fluxo (margem direita-esquerda) medido em milímetros. O presente trabalho limita-se a modelar os deslocamentos no sentido do fluxo (direção X). O nível do reservatório é dado em metros e a unidade de medida para os termômetros de superfície é em graus Celsius. Os sensores COF17 ao COF22 são do pêndulo direto e o sensor COF23 do pêndulo invertido no bloco F19/20. Os termômetros de superfície são identificados como TSF11, TSF12, TSF13, TSF14, TSF15 e TSF16. 4.2 Ajuste do Modelo O número de observações é de 186 para cada variável, com periodicidade mensal, e, na modelagem foi utilizado o software livre R (TEAM R CORE, 2015). Os VIF para as variáveis preditoras (independentes) estão apresentados na Tabela 2: Fator de inflação da variância As variáveis que representam a variação do nível do reservatório (z, z2, z3 e z4, funções do modelo HTdT), TSF12 e TSF13 indicam alta multicolinearidade, o que justifica a escolha do método de mínimos quadrados parciais para a estimativa dos parâmetros, uma vez que esse método não é afetado pela presença de multicolinearidade.
Tabela 2: Fator de inflação da variância
z z2 z3 z4 TSF11 TSF12 TSF13 TSF14 TSF15 TSF16 t ln t 187,3 2284,6 4356,1 1042,6 1,3 26,6 25,2 1,4 5,3 2,5 7,2 6,4
O valor importância da variável para a projeção (VIP – Variable Importance in Projection) classifica as variáveis independentes em termos de seu poder explicativo. Os preditores com
1VIP > são considerados mais relevantes para a construção de Y. Na Tabela 3: Importância
V Simposio de Metodos Numericos Computacionais
377
da variável para a projeção considerando 4 componentes apresenta-se os valores VIP para todas as variáveis independentes considerando até 4 componentes para o modelo. Considera-se 4 componentes, mas qualquer outro valor maior que 2 seria aceitável, pois observa-se que a partir de 2 componentes o valor de VIP é aproximadamente o mesmo.
Tabela 3: Importância da variável para a projeção considerando 4 componentes
t1 t2 t3 t4 z 0,60 0,66 0,67 0,66 z2 0,62 0,68 0,69 0,69 z3 0,63 0,67 0,69 0,69 z4 0,63 0,67 0,69 0,68
TSF11 0,85 0,84 0,84 0,87 TSF12 1,46 1,40 1,40 1,38 TSF13 1,46 1,40 1,39 1,37 TSF14 0,30 0,28 0,29 0,29 TSF15 1,49 1,43 1,42 1,41 TSF16 1,28 1,22 1,21 1,25
t 0,82 0,98 1,00 1,00 ln t 0,92 0,99 0,98 0,99
Nota-se que TSF12, TSF13, TSF15 e TSF16 são mais relevantes no modelo. Como t e ln t apresentaram valores próximos a 1, opta-se por manter estas variáveis no modelo. A validação cruzada para o novo modelo (com as variáveis z, z2, z3, z4, TSF11 e TSF14 excluídas) é apresentada na Tabela 4: Validação cruzada considerando até 6 componentes para o modelo.. Nota-se que 2 0,0975hQ ≥ para a escolha de h = 2,3,1,2,2,2 e 2 componentes
para as variáveis COF17X, COF18X, COF19X, COF20X, COF21X, COF22X e COF23X, respectivamente. Adota-se h=2 componentes.
Tabela 4: Validação cruzada considerando até 6 componentes para o modelo.
2hQ COF17X COF18X COF19X COF20X COF21X COF22X COF23X
t1 0,29 0,74 0,79 0,81 0,80 0,77 0,03 t2 0,17 0,11 0,02 0,09 0,09 0,27 0,11 t3 -0,01 0,13 0,03 0,04 0,01 -0,01 0,04 t4 -0,01 -0,01 0,05 0,05 0,07 0,00 0,05
Outro resultado importante é o coeficiente 2R que é a proporção de variância explicada pelas componentes do modelo (ver Tabela 5: Variância explicada pelo modelo.). Com a escolha de h = 2, temos 87% e 66% da variância das variáveis independentes e dependentes, respectivamente, explicada pelo modelo.
Tabela 5: Variância explicada pelo modelo.
R2 de X R2 de X acumulado R2 de Y R2 de Y acumulado t1 0,55 0,55 0,61 0,61 t2 0,33 0,87 0,05 0,66
Os deslocamentos observados pelos sensores do pêndulo direto e invertido e os deslocamentos previstos pelo ajuste do modelo são dados na Figura 1: Valores observados nos sensores do pêndulo (em preto) e valores previstos (em azul) pelo modelo. O eixo x são as 186 observações (2000 a 2015) e o eixo y são os deslocamentos medidos em mm. Nesta aplicação nem todas as variáveis preditoras contribuíram para a interpretação dos deslocamentos. Os valores VIP (Ver Tabela 3: Importância da variável para a projeção considerando 4 componentes) indicaram apenas as variáveis TSF12, TSF13, TSF15 e TSF16 como mais relevantes para o modelo. Isto apenas confirma informação já conhecida de que o deslocamento obtido pelo pêndulo é fortemente influenciado pela temperatura. Assim, as
V Simposio de Metodos Numericos Computacionais
378
variáveis z, z2, z3 e z4 foram excluídas, pois, não há contribuição relevante da variação do nível do reservatório nos movimentos relativos do bloco F19/20. Também se observa nos gráficos uma leve tendência de crescimento, porém este comportamento é consistente com as tendências de deformação de uma barragem ao longo do tempo.
5 CONCLUSÃO
A análise identifica que as variações do nível do reservatório (variáveis z, z2,z3 e z4) e as leituras dos termômetros TSF11 e TSF14 não contribuem significativamente para a previsão dos movimentos relativos do bloco F19/20. Logo, o número de 12 variáveis preditoras se reduz a 6 variáveis. O modelo de regressão por mínimos quadrados parciais extrai do relacionamento entre as 7 variáveis de resposta e 6 variáveis preditoras, apenas 2 componentes. Essas 2 componentes explicam aproximadamente 87% da variabilidade das variáveis preditoras e explicam mais que 66% da variabilidade das variáveis de resposta. Isso mostra um bom potencial para o uso da regressão por mínimos quadrados parciais no tratamento de dados de monitoramento de barragens reduzindo o número de variáveis a serem monitoradas. Para os sensores COF17X e COF23X o modelo não foi satisfatório. O sensor do pêndulo direto COF17X está localizado na crista e o sensor do pêndulo invertido COF23X na base. O COF17X tem correlação entre 0,65 e 0,72 com os demais sensores exceto o COF23X. O COF23X tem correlação inferior a 0,1 em valor absoluto com os demais sensores, por isso, deve ser avaliado individualmente. As correlações entre as demais variáveis de resposta é maior que 0,95. Essas variáveis serão avaliadas separadamente em estudo futuro. Na literatura, uma gama de modelos univariados é proposta, muitas vezes ignorando a presença de correlações entre as variáveis, enquanto que ao estimar conjuntamente os parâmetros, como no modelo apresentado, obtêm-se um ganho de eficiência dos estimadores e leva-se em conta o relacionamento entre as variáveis admitindo que sejam correlacionadas. Não se leva em conta neste estudo, a autocorrelação temporal entre as variáveis, aspecto que será investigado em estudos futuros por meio de modelos dinâmicos. As previsões do modelo, comparadas às leituras reais, fornecem informação sobre a mudança de comportamento da estrutura com relação ao comportamento anterior, considerado estável. Em trabalho futuro pretende-se construir o intervalo de confiança para os estimadores de modo a estabelecer limites de controle para as novas observações de deslocamentos
. 0 50 100 150
1.5
2.0
2.5
COF17X
0 50 100 150
1.0
2.0
3.0
4.0
COF18X
V Simposio de Metodos Numericos Computacionais
379
0 50 100 150
34
56
7COF19X
0 50 100 150
56
78
910
COF20X
0 50 100 150
78
910
1112
COF21X
0 50 100 150
1112
1314
1516
1718
COF22X
0 50 100 150
0 50 100 150
3.2
3.4
3.6
3.8
4.0
4.2
COF23X
Figura 1: Valores observados nos sensores do pêndulo (em preto) e valores previstos (em azul) pelo modelo. O eixo x são as 186 observações (2000 a 2015) e o eixo y são os deslocamentos medidos em mm.
V Simposio de Metodos Numericos Computacionais
380
REFERÊNCIAS
AHMADI-NEDUSHAN, B. Multivariate Statistical Analysis of monitoring data for concrete dams. Tese de Doutorado do Departamento de Engenharia Civil e Mecânica Aplicada, McGill University. Montreal, p. 211. 2002. CHOUINARD, L.; ROY, V. Performance of Statistical Models for Dam Monitoring Data. Joint International Conference on Computing and Decision Making in Civil and Building Engineering. Montreal: [s.n.]. 2006. p. 9. DE SORTIS, A.; PAOLIANI, P. Statistical analysis and structural identification in concrete dam monitoring. Engineering Structures, v. 1, n. 29, p. 110-120, Janeiro 2007. DENG, N., WANG, J., e SZOSTAK, A. C. Dam deformation analysis using the partial least squares method, 13th FIG International Symposium on Deformation Measurements and Analysis e 4th IAG Symp. on Geodesy for Geotechnical and Structural Engineering, Lisbon. 2008. GARCIA, H.; FILZMOSER, P. Multivariate Statistical Analysis using the R package chemometrics. University of Technology: Department of Statistics and Probability Theory. Vienna, p. 71. 2011. HAIR, J. F. et al. Análise Multivariada de Dados. 6ª. ed. São Paulo: Bookman, 2009. LÉGER, P.; LECLERC, M. Hydrostatic, temperature, time-displacement model for concrete dams. Journal of engineering mechanics, v. 133 No. 3, p. 267-277, Março 2007. LI, F.; WANG, Z.; LIU, G. Towards an Error Correction Model for dam monitoring data analysis based on Cointegration Theory. Structural Safety, v. 43, p. 12-20, Julho 2013. MATA, J. Interpretation of concrete dam behaviour with artificial neural network and multiple linear regression models. Engineering Structures, v. 33, n. 3, p. 903-910, Março 2011. MEVIK, B.-H.; WEHRENS, R. The pls package: principal component and partial least squares regression in R. Journal of Statistical Software, v. 18, n. 2, p. 1-24, 2007. MORELLATO, S. A. Modelos de regressão PLS com erros heteroscedásticos. Dissertação de Mestrado em Estatística. Universidade Federal de São Carlos - UFSCar. São Carlos, p. 49. 2010. Team, R. Core. R: A language and environment for statistical computing. Vienna, Austria; 2014. URL http://www. R-project. org (2015). WOLD, S.; SJÖSTRÖM, M.; ERIKSSON, L. PLS-regression: a basic tool of chemometrics. Chemometrics and intelligent laboratory systems, v. 58, n. 2, p. 109-130, 2001. XI, G. Y. et al. Application of an artificial immune algorithm on a statistical model of dam displacement. Computer & Mathematics with Applications, v. 62, n. 10, p. 3980-3986, Novembro 2011. YU, H. et al. Multivariate analysis in dam monitoring data with PCA. Science China Technological Sciences, v. 53, n. 4, p. 1088-1097, 2010.
V Simposio de Metodos Numericos Computacionais
381
V Simposio de Metodos Numericos Computacionais
MODELAGEM TÉRMICA DE UM BLOCO DE CONTRAFORTEATRAVÉS DE DADOS DE TERMÔMETROS E O MÉTODO DOS
ELEMENTOS FINITOS
Resumo: Este trabalho consiste em um estudo de caso que aborda o tema transferência de calor por conduçãoem um bloco de uma barragem real do tipo contrafortes com o objetivo de propiciar um método para aproximar osvalores dos coeficientes térmicos do concreto: condutividade térmica, massa específica e calor específico, no casode não existirem informações reais desses valores através de ensaios em laboratório. Para que tais coeficientessejam representativos, inicialmente aproximações de dados observados dos termômetros inseridos no bloco sãorealizadas por meio de séries de Fourier graças a sazonalidade da variável temperatura no bloco. Os dados obser-vados e ajustados de três termômetros são utilizados como condições de contorno para obter a solução da equaçãoda difusão do calor e o modelo é calibrado e validado a partir de dados observados de outros quatro termômetros.Os processos de calibração e validação são executados através do método dos elementos finitos com auxílio dosoftware Ansys.
Palavras-Chave: Barragem de concreto, Equação do Calor, Série de Fourier, Ansys.
1 INTRODUÇÃO
Altos índices de variação de temperatura podem afetar o desempenho, resistência e durabilidade dasestruturas, de modo que a correta avaliação do campo de temperaturas é essencial para a determinaçãodas tensões de origem térmica. Diversos trabalhos presentes na literatura destacam a importância de seanalisar os efeitos da temperatura no desempenho estrutural de barragens. (Ansell and Malm (2008),Léger and Leclerc (2007) e Mirzabozorg et al. (2014))
As barragens, por sua vez, podem ser classificadas em dois grandes grupos, de acordo com o materialutilizado na sua construção: barragens de concreto, que podem ser do tipo gravidade, arco e contrafortese barragens convencionais de terra e/ou enrocamento.
A transferência de calor por condução em um bloco de contraforte de uma barragem real é abor-dada neste trabalho, com o objetivo de propiciar um método para aproximar os valores dos coeficientestérmicos do concreto: condutividade térmica, massa específica e calor específico, no caso de não exis-tirem informações reais desses valores através de ensaios em laboratório. Os registros de temperaturasentre os anos 1985 e 2014 dos termômetros instalados à superfície e no interior do bloco em estudoproporcionaram a calibração e validação do modelo térmico descrito pela equação da difusão do calor.A Figura 1 trata da geometria do bloco e a localização dos termômetros, sendo 4 superficiais (TS-D-903,TS-D-904, TS-E-1 e TS-D-5) e 3 internos (TI-E-1, TI-E-2 e TI-E-3).
Tasia Hickmann, Liliana Madalena Gramani, Eloy Kaviski,Luis Antonio Sucapuca Aracayo, Everton Luis Garcia
382
Figura 1: Geometria do bloco de contraforte e a localização dos termômetros.
Inicialmente tomou-se os 20 primeiros anos (1985−2004) de dados de temperaturas de 7 termômetrose, devido ao cárater sazonal da temperatura, construiu-se uma série de Fourier com período de 365, 25dias que forneceu a temperatura em qualquer instante do tempo para cada um dos termômetros presentesno bloco. A distribuição bidimensional da temperatura transiente no interior do bloco para o ‘ano médio’,o qual representou o período de 1985 a 2004, foi obtida através do método dos elementos finitos comauxílio do software Ansys. As condições inicial e de contorno necessárias para solução da equação dacondução de calor consistiram das temperaturas do ‘ano médio’ ajustadas pela série de Fourier para 3termômetros presentes na superfície do bloco (TS-D-904, TS-E-1 e TS-D-5).
Os parâmetros térmicos do concreto foram estabelecidos após feita a calibração do modelo por meiodas temperaturas de 1 termômetro superficial (TS-D-903) e os 3 termômetros internos (TI-E-1, TI-E-2 eTI-E-3) deste mesmo ‘ano médio’. O modelo foi considerado calibrado quando, para fixados valores doscoeficientes térmicos, o MAPE (Erro Percentual Absoluto Médio) obtido entre os dados de temperaturasvia série de Fourier e aqueles obtidos através da solução numérica da equação do calor (via Ansys) foimenor que 20% nos pontos onde se localizam os termômetros TS-D-903, TI-E-1, TI-E-2 e TI-E-3.
A última etapa consistiu na validação do modelo térmico, onde foram tomados dados dos últimos 10anos (2005 − 2014). Tal processo ocorreu de modo similar ao processo de calibração, apenas diferen-ciando no fato que os coeficientes térmicos já foram determinados na fase de calibração, sendo apenasfeito nesta etapa a comparação entre os dados de temperatura obtidos via séries de Fourier e via Ansyspara os mesmos termômetros utilizados na fase anterior.
Este trabalho está organizado da seguinte forma: A primeira seção trata da formulação matemática daequação da condução de calor. Na seção seguinte é introduzida a formulação em elementos finitos comauxílio do software Ansys. A terceira seção apresenta um estudo de caso de um bloco de uma barragemreal de contrafortes, onde serão definidas as séries de Fourier dos termômetros, a determinação doscoeficientes térmicos do concreto através da calibração e validação do modelo térmico.
2 EQUAÇÃO DA DIFUSÃO DO CALOR
De acordo com Ozisik (1993) e Shukla (2005), a base para a análise térmica no Ansys é a equaçãodo balanço de calor, obtida a partir do princípio de conservação da energia ou a primeira lei da termo-dinânica, que pode ser escrita como:
ρc
(∂T
∂t+ vT LT
)+ LT q =
.q, (1)
onde: ρ = densidade, c = calor específico, T = temperatura, L =
∂∂x
∂∂y
∂∂z
T, v =
vx vy vz
T
= vetor velocidade para transporte de massa de calor, q = vetor fluxo de calor,.q = taxa de geração de
calor por unidade de volume.A lei de Fourier é utilizada para relacionar fluxo de calor e gradientes térmicos:
q = − [D] LT, (2)
V Simposio de Metodos Numericos Computacionais
383
onde: [D] =
kxx 0 00 kyy 00 0 kzz
= matriz de condutividade, com kxx, kyy e kzz condutividades do material
nas direções x, y e z, respectivamente.Combinando as Equações (1) e (2), obtém-se a equação de conservação da energia em coordenadas
cartesianas:ρc
(∂T
∂t+ vT LT
)+(LT [D] L
)T =
.q . (3)
A fim de definir um problema da transferência de calor, além da formulação das equações no domíniode estudo, é necessário especificar as condições inicial e de contorno e estas são descritas na seção quesegue.2.1 Condições Iniciais e de Contorno
Considere uma região Ω cuja superfície de contorno é denotada por S, conforme a Figura 2. Rel-ativamente à condição inicial, é definida a temperatura no instante inicial, t = t0, no domínio Ω, ouseja, T (x, y, z, t0) = T0 (x, y, z). As condições de contorno sobre a superfície da região em análiseS = S1 ∪ S2 ∪ S3 para problemas desta natureza podem ser de três tipos e estão iliustradas, conformeSilva (2014), na Figura 2, e são como:
Figura 2: Domínio e fronteiras de Newmann, Dirichlet e Robin convectiva.
1. Temperatura especificada atuando na superfície S1, e neste caso é dito que a condição de fronteiraé do tipo Dirichlet ou essencial: T = T ∗.
2. Fluxo de calor específico atuando na superfície S2, conhecida como condição de fronteira de Neu-mann ou natural onde n é o vetor unitário normal à superfície e q∗ é o fluxo de calor específico:
qT n = −q∗. (4)
3. Superfícies de convecção específicadas atuando sobre a superfície S3, chamada de condição defronteira de Robin convectiva, onde hf é o coeficiente de convecção, TS é a temperatura na super-fície e TB é a temperatura de um fluido adjacente à superfície:
qT n = hf (TS − TB) . (5)
Combinando as Equações (2), (4) e (5), obtêm-se:
nT [D] LT = q∗, (6)nT [D] LT = hf (TB − TS) . (7)
Pré-multiplicando a Equação (3) por uma variação na temperatura, integrando sobre o volume doelemento e combinando com as Equações (6) e (7), com algumas manipulações algébricas, chega-se àseguinte equação:
∫
vol
(ρc δT
(∂T
∂t+ vT LT
)+ LT (δT ) ([D] LT )
)d (vol)
=
∫
S2
δTq∗d (S2) +∫
S3
δT hf (TB − TS) d (S3) +∫
volδT
.q d (vol),
(8)
V Simposio de Metodos Numericos Computacionais
384
onde: δT = δT (x, y, z, t) e vol = volume do elemento.Como é de conhecimento comum, soluções analíticas para problemas de condução de calor são res-
tritas a casos onde o grau de complexidade da geometria e das condições de contorno são relativamentebaixas. Sugere-se assim o estudo de soluções através de métodos aproximados, um deles é o Método dosElementos Finitos, que será brevemente abordado na seguinte seção.
3 MÉTODO DOS ELEMENTOS FINITOS
O Método dos Elementos Finitos (MEF) é uma metodologia numérica para obtenção de soluçãonumérica de equações na forma diferencial ou integral. Geralmente o MEF permite aos utilizadoresobter a evolução no espaço e/ou tempo das variáveis que representam o comportamento de um sistemafísico. (Madenci and Guven (2015))
Após realizada a geração da malha da geometria em estudo e feita a discretização da equação (3)no domínio temporal e espacial, o processo a determinação do campo de temperatura e outras variáveissecundárias, como o fluxo de calor, só pode ser completa através do MEF se forem inseridas condiçõesinicial e de contorno.3.1 Formulação Matricial
A temperatura para cada elemento, Ωe, pode ser representada como:
T = NT Te , (9)
onde: T = T (x, y, z, t) é a temperatura, N = N (x, y, z) são as funções base do elemento eTe = Te (t) é o vetor de temperaturas nodais do elemento.
Derivando em relação ao tempo a Equação (9), a expressão para δT e LT ficam, respectivamente:
δT = δTeT N , (10)LT = [B] Te , (11)
onde [B] = L NT . Como as quantidades Te,Te
e δTe não variam sobre o elemento e ao
tomar-se a Equação (8) combinada com as Equações (9)–(11) conclui-se que:[Ct
e
] Te
+([Ktm
e
]+[Ktb
e
]+[Ktc
e
])Te =
Qf
e
+ Qc
e+ Qge , (12)
onde:
[Cte
]= ρ
∫
volρc N NTd (vol) ,
[Ktm
e
]= ρ
∫
volc N vT [B] d (vol),
[Ktb
e
]=
∫
vol[B]T [D] [B] d (vol) ,
[Ktc
e
]=
∫
S3
hf N NTd (S3),Qf
e
=
∫
S2
N q∗d (S2) , Qce =
∫
S3
TBhf N d (S3),
Qge =
∫
vol
.q N d (vol).
4 ESTUDO DE CASO
4.1 Série de FourierA calibração e validação do modelo térmico para o bloco, representado através da Figura 1, teve como
primeiro passo o ajuste de uma série de Fourier sobre os dados dos 7 termômetros também visualizadosna mesma figura, tal série pode ser representada como na Equação (13):
T (t) = y0 +N∑
k=1
aksen
(2kπ
Pt
)+ bk cos
(2kπ
Pt
), (13)
onde: t é a variável tempo, P = 365, 25 dias o período da série, T (t) a temperatura em um instante t,
V Simposio de Metodos Numericos Computacionais
385
N o número de harmônicos e os 2N + 1 coeficientes y0, ak e bk a serem ajustados através do Métododos Mínimos Quadrados em um código implementado no Matlab.
Já o MAPE é dado por E =
n∑i=1
∣∣∣∣Ti−Ti
Ti
∣∣∣∣n
, onde n é o número de dados observados, Ti a i-ésima temper-atura observada, Ti o valor aproximado da i-ésima temperatura determinada através da série (13).
O número de harmônicos e o MAPE para cada um dos 7 termômetros está descrito nas Tabelas 1 e 2:
Tabela 1: Número de Harmônicos e o respectivo MAPE para o ajuste da série de Fourier dos dados de1985 a 2004
Harmônicos MAPE (em %)TS-D-5 45 9.76
TS-D-903 10 2.52TS-D-904 10 2.55
TS-E-1 10 2.25TI-E-1 5 1.15TI-E-2 5 1.38TI-E-3 5 1.21
Tabela 2: Número de Harmônicos e o respectivo MAPE para o ajuste da série de Fourier dos dados de2005 a 2014
Harmônicos MAPE (em %)TS-D-5 15 9.55
TS-D-903 5 2.6TS-D-904 5 2.7
TS-E-1 5 1.36TI-E-1 5 0.71TI-E-2 5 1.39TI-E-3 5 0.64
4.2 Generalidades e Hipóteses da Simulação via Ansys
As simulações foram realizadas no ambiente Ansys - Workbench V16.1 e os gráficos no ambienteThermal Transient - V16.1. Algumas simplificações foram consideradas no processo de geração domodelo térmico: estado plano de tensões, homogeneidade do material, comportamento isotrópico eelástico linear do material e simplificações na geometria (chanfros, drenagem, suportes, vigas, e outros).
No problema têm-se 365 valores de temperatura, um para cada dia do ano médio, que equivale a3.1536 × 107 s, esse valor é dividido em 365 steps, ou seja, 1 step equivale a 86400 s. Cada step foidividido em 24 substeps, de modo que cada substep teve 3600 s.
4.3 Análise Transiente: Fase de Calibração
Inicialmente uma simulação estacionária com os dados do primeiro dia do ano médio, que correspon-deu do ano 1985 a 2004, foi realizada com a finalidade do bloco estar com um campo de temperatura emequilíbrio e que seja a temperatura inicial para a análise transiente (veja a Figura 3). As condições decontorno, são as temperaturas dos termômetros TS-D-5, TS-D-904 e TS-E-1 referentes ao ano médio de1985 a 2004:
V Simposio de Metodos Numericos Computacionais
386
Figura 3: Campo de temperatura numérica para o primeiro dia do ano médio como condição inicial paraa análise transiente na fase de calibração.
Após aplicada as condições inicial e de contorno, variou-se os parâmetros térmicos (condutividade tér-mica, massa específica e calor específico) de modo a se alcançar um MAPE inferior a 20%. Os parâme-tros utilizados na simulação foram: condutividade térmica 1.2W (mK)−1, calor específico 895.38 J(kgK)−1
e massa específica 2550 kg m−3.A Figura 4 apresenta o campo de temperatura após realizada a análise transiente, via Ansys, para o
último dia do ano médio. O MAPE determinado pelos valores dos termômetros TS-D-903, TI-E-1, TI-E-2 e TI-E-3 e os obtidos pelo Ansys nos pontos onde estes se localizam foram respectivamente 1.78%,9.32%, 16.21% e 10.86%, todos abaixo do percentual estipulado de 20%.
Figura 4: Campo de temperatura numérica para o último dia do ano médio de 1985 a 2004 após realizadaa análise transiente na fase de calibração.4.4 Análise Transiente: Fase de Validação
Com os parâmetros térmicos obtidos através da fase de calibração, segue-se para a fase da validaçãodo modelo. Novamente uma simulação estacionária com os dados do primeiro dia do ano médio doano 2005 a 2014 foi realizada para se obter temperatura inicial do bloco para a análise transiente (vejaa Figura 5). As condições de contorno, que são as temperaturas dos termômetros TS-D-5, TS-D-904 eTS-E-1 referentes ao ano médio de 2005 a 2014.
Figura 5: Campo de temperatura numérica para o primeiro dia do ano médio como condição inicial paraa análise transiente na fase de validação.
V Simposio de Metodos Numericos Computacionais
387
A Figura 6 apresenta o campo de temperatura após realizada a análise transiente, via Ansys, para oúltimo dia do ano médio. O MAPE determinado pelos valores dos termômetros TS-D-903, TI-E-1, TI-E-2 e TI-E-3 e os obtidos pelo Ansys nos pontos onde estes se localizam foram respectivamente 1.82%,11.82%, 13.52% e 14.36%, todos abaixo do percentual estipulado de 20%.
Figura 6: Campo de temperatura numérica para o último dia do ano médio de 2005 a 2014 após realizadaa análise transiente na fase de validação.
5 CONSIDERAÇÕES FINAIS
Um método para determinação dos parâmetros térmicos (condutividade térmica, massa específica ecalor específico) presentes na equação do calor, foi apresentado neste trabalho. Dados observados de 7termômetros instalados em um bloco de contraforte de uma barragem real foram utilizados. Ajustou-separa cada um deles uma curva (série de Fourier) e tomou-se 3 deles para condição de contorno pararesolução do modelo térmicos e outros 4 para calibração e validação dos parâmetros. Utilizando umamalha eficiente (poucos elementos e de boa qualidade) e com um passo de tempo de 3600 s, que éconsiderada suficiente pra a modelagem do fenômeno e dentro de uma tolerância de 20% para o MAPEo método foi eficiente.
REFERÊNCIAS
Ansell A. and Malm R. Modelling of thermally induced cracking of a concrete buttress dam. NordicConcrete Research, 38:69–88, 2008.
Léger P. and Leclerc M. Hydrostatic, temperature, time-displacement model for concrete dams. Journalof engineering mechanics, 133(3):267–277, 2007.
Lewis R.W., Nithiarasu P., and Seetharamu K.N. Fundamentals of the Finite Element Method for Heatand Fluid Flow. John Wiley & Sons, 2004.
Madenci E. and Guven I. The Finite Element Method and Applications in Engineering Using ANSYS R©.Springer Science & Business Media, 2 edition, 2015.
Mirzabozorg H., Hariri-Ardebili M., Shirkhan M., and Seyed-Kolbadi S. Mathematical modeling andnumerical analysis of thermal distribution in arch dams considering solar radiation effect. The Scien-tific World Journal, 2014, 2014.
Ozisik M.N. Heat Conduction. John Wiley & Sons, 1993.Shukla K.N. Mathematical Principles of Heat Transfer. Begell House, 2005.Silva C.R.S. Desenvolvimento de Formulações de Elementos Finitos para Problemas de Transferência de
Calor. Master’s Thesis, Faculdade de Ciências e Tecnologia - Universidade Nova de Lisboa, Lisboa,Portugal, 2014.
V Simposio de Metodos Numericos Computacionais
388
V Simposio de Metodos Numericos Computacionais
MÉTODO DE ANÁLISE PROBABILÍSTICA DE ESTABILIDADE DE BARRAGENS DE TERRA
Resumo: O artigo apresenta uma abordagem de confiabilidade estrutural para a análise probabilística da estabilidade de barragens de terra. A análise teve por base o First Order Reliability Method e visou à obtenção da probabilidade de ruptura do talude e do índice de confiabilidade estrutural. A função que descreveu o desempenho da estrutura foi o Fator de Segurança Simplificado de Janbu. As variáveis consideradas aleatórias foram a coesão efetiva e o ângulo de atrito interno efetivo da argila compactada do corpo da barragem. Para a aplicação deste método, foi utilizada a seção transversal localizada na Estaca 122+00 da Barragem de Terra da Margem Esquerda da Usina Hidrelétrica de Itaipu. O índice de confiabilidade obtido ficou dentro do intervalo recomendado para barragens de terra. A probabilidade de ruptura encontrada foi 0,0087%. O método de análise probabilística de estabilidade apresentado cumpriu seus objetivos e a sua implementação computacional foi viável nesse caso.
Palavras-Chave: Estabilidade de Barragens, Confiabilidade Estrutural, Índice de Confiabilidade, Probabilidade de Ruptura.
1 INTRODUÇÃO A maior parte dos problemas de estabilidade de estruturas, em Engenharia Civil, foi tratada de forma determinística, até meados do século XX. O estudo da estabilidade de taludes de forma determinística deu origem ao método do equilíbrio limite, pelo qual é calculado o Fator de Segurança (FS). De acordo com diferentes hipóteses, alguns autores apresentaram maneiras distintas de calcular o Fator de Segurança, por exemplo: Fellenius (1936), Janbu (1954), Spencer (1967). Pesquisadores observaram que, muitas vezes, as variáveis envolvidas nos cálculos de estabilidade de estruturas estavam sujeitas à variabilidade. Assim, a partir da década de 1960 são encontrados trabalhos que consideram essa variabilidade e que deram origem às técnicas probabilísticas chamadas de confiabilidade estrutural. Alguns exemplos são: Cornell (1969), Hasofer e Lind (1974), Ang e Tang (1984). Em problemas de geotecnia, a variabilidade dos dados dá-se muitas vezes devido à alteração das propriedades do solo de um ponto a outro, à intervenção e falhas humanas nos ensaios geotécnicos, dentre outros motivos (EL-RAMLY, 2002). Dadas às incertezas das variáveis do FS, uma abordagem com base na probabilidade de instabilidade do talude e de confiabilidade da estrutura consegue expressar as condições de segurança do aterro, de forma mais próxima do real (EL-RAMLY, 2002).
Tereza Rachel Mafioleti, Anselmo Chaves Neto,Josiele Patias, Luiz Albino Teixeira Junior
389
Este trabalho apresenta resultados de uma proposta de utilização do método de confiabilidade estrutural FORM (First Order Reliability Method), para o qual a função utilizada para descrever o desempenho da estrutura é denominada “Fator de Segurança Simplificado de Janbu”. Nessa proposta foram apresentadas maneiras de tratar as dificuldades encontradas pela utilização do “FS Simplificado de Janbu” durante a execução do algoritmo. Para verificação da eficácia da análise probabilística proposta, foram utilizados dados da Barragem de Terra da Margem Esquerda da Usina Hidrelétrica de Itaipu e a análise foi realizada na seção transversal da Estaca 122+00.
2 CONFIABILIDADE ESTRUTURAL O “Fator de Segurança Simplificado de Janbu” fornece informação sobre o desempenho da estrutura. A violação da condição de FS > 1 implica em desempenho insatisfatório, ou seja, ocorrência de ruptura, e, em termos de confiabilidade estrutural, é interpretada como a violação do estado limite. A confiabilidade estrutural preocupa-se com o cálculo da probabilidade da violação do estado limite das estruturas de engenharia, em qualquer fase da vida destas estruturas (MELCHERS, 1987). De acordo com Ang e Tang (1984), se X é o vetor aleatório das variáveis de resistência e das variáveis de solicitação, )(XG é a função do estado limite, para a qual a violação ocorre quando 0)( XG , e )(xf X é a função densidade probabilidade conjunta de X , então a probabilidade de ruptura ( rp ) é:
0)(
)(...]0)([XG
Xr xdxfXGPp (1)
Muitas vezes, as funções densidade probabilidade (f.d.p.) das variáveis de resistência e solicitação são desconhecidas. Mesmo nos casos em que são conhecidas e é possível determinar )(xf X , o cálculo da Equação (1) é inviável. O método FORM, de confiabilidade estrutural, é uma alternativa para superar essa dificuldade. 2.1 First Order Reliability Method (FORM) Para a execução do algoritmo FORM, é necessário que as variáveis aleatórias sejam independentes e sigam a distribuição normal padronizada. Variáveis com estas caracterícticas compõem um espaço chamado de “espaço reduzido”. A função do estado limite, escrita com as variáveis do “espaço reduzido”, quando igualda a zero, representa a equação do estado limite. Tal equação determina a superfície de falha no “espaço reduzido”. O FORM faz a aproximação linear da superfície de falha no seu ponto mais próximo à origem do “espaço reduzido”. O ponto da superfície de falha mais próximo da origem do “espaço reduzido” indica os valores mais prováveis que as variáveis aleatórias devem assumir para que ocorra a falha, ele é chamado de ponto de projeto. A distância da origem do “espaço reduzido” ao ponto de projeto corresponde ao índice de confiabilidade (MELCHERS, 1987). O FORM apresenta os seguintes passos de iteração para o caso de se ter variáveis aleatórias independentes que sigam a distribuição normal, conforme Ang e Tang, (1984): Passo 1. Transformação do vetor aleatório X do espaço original, no vetor z do “espaço reduzido”, com auxílio da matriz inversa dos desvios padrões estimados e do vetor das médias estimadas de X : 1][ e :
)(][ 1 Xz (2)
Passo 2. Escrita da equação do estado limite em função das variáveis do “espaço reduzido”:
V Simposio de Metodos Numericos Computacionais
390
0)( zG (3)
Passo 3. Cálculo dos cossenos diretores do vetor , por meio do vetor das derivadas parciais
de G em relação às variáveis de z , derivadas essas denotadas por
zG :
zG
zG
1
(4)
Passo 4. Obtenção do novo ponto de projeto *z em função do índice de confiabilidade :
*z (5)
Passo 5. Obtenção de um índice de confiabilidade das raízes da equação do estado limite:
0)( * GzG (6)
Passo 6. Se a diferença entre o índice de confiabilidade da iteração atual com o da iteração anterior for aceitável, então o processo finaliza-se, obtém-se o índice de confiabilidade, o ponto de projeto a partir da Equação (5) e a probabilidade de ruptura rp com a função distribuição normal acumulada ( ) de . Caso contrário, retorna-se ao Passo 3.
)(1 rp (7)
2.2 Fator de Segurança Simplificado de Janbu Neste trabalho, a função escolhida para descrever o desempenho da estrutura foi o “Fator de Segurança Simplificado de Janbu”. Procurou-se determinar a probabilidade de ruptura do aterro. As hipóteses são: o solo rompe-se bruscamente, as equações do equilíbrio estático são válidas até a iminência da ruptura e o FS é o mesmo ao longo de toda a superfície de ruptura. A análise, feita no plano bidimensional, por uma seção transversal do talude, considera que a superfície de ruptura é circular, conforme a Figura 1 a seguir e que o solo sobre a superfície de ruptura é dividido em fatias.
Figura 1: Superfície de ruptura do FS de Janbu Simplificado (Guedes de Mello 1993, citado por Ferreira, 2012).
O Fator de Segurança é dito “simplificado” quando é analisado apenas o equilíbrio de forças ou de momentos sobre a superfície de ruptura (CHENG E LAU, 2008). O “Método Simplificado de Janbu” considera apenas o equilíbrio de forças. Uma fatia genérica da superfície de ruptura da Figura 1, com as variáveis envolvidas, é apresentada na Figura 2 a seguir:
V Simposio de Metodos Numericos Computacionais
391
Figura 2: Fatia genérica para o cálculo do Fator de Segurança Simplificado de Janbu (Ferreira, 2012).
As variáveis apresentadas na Figura 2 são: peso da fatia (W), largura da fatia ( x ), forças tangenciais aplicadas nas faces das fatias i e i+1 ( 1, ii XX ), forças normais de interação aplicadas nas interfaces das fatias i e i+1 ( 1, ii EE ), comprimento da base da fatia ( l ), força normal atuando no centro da base da fatia ( N ), tensão de corte mobilizada na base da fatia (T ), inclinação da base da fatia ( ), função característica da superfície (ordenada) da fatia i ( iy ), diferenças dos valores tomados pelas ordenadas da superfície de deslizamento (dy ), função característica da linha de pressão da fatia i ( 'iy ), diferenças dos valores tomados pelas ordenadas da linha de impulso ( 'dy ) e altura da fatia ( h ). Realizando o equilíbrio de forças e considerando as variáveis coesão efetiva ( 'c ), pressão da água nos poros (u ), ângulo de atrito interno efetivo ( ' ), tem-se o “Fator de Segurança Simplificado de Janbu” (JANBU, 1954):
k
k
FStgtgtgxuWxc
tgWFS '1
sec]')('[1 2
1
(8)
Atualmente, existem programas computacionais para o cálculo dos fatores de segurança. Dentre os quais, destaca-se o SLOPE/W®, utilizado para a obtenção dos resultados apresentados neste artigo. A Equação (8), uma função recursiva, é utilizada como função do estado limite no desenvolvimento do algoritmo descrito na Seção 2.1; porém, apresenta algumas dificuldades, tais como o cálculo das derivadas parciais e de suas raízes. Assim, um procedimento alternativo é apresentado na Seção 2.3. 2.3 Procedimento alternativo As derivadas parciais de uma função implícita )(zG podem ser obtidas por aproximação numérica conforme a Equação (9) a seguir, onde h é um valor a ser incrementado ao valor da variável iz :
hzzzzGzhzzzG
zG nini
i
),...,,...,,(),...,,...,,( 2121
(9)
Para o cálculo das raízes da função do estado limite )(G durante o desenvolvimento do
V Simposio de Metodos Numericos Computacionais
392
algoritmo FORM, Su et al. (2010) sugeriram aproximar )(G por meio de uma série de Taylor de segunda ordem, a partir de um suposto índice de confiabilidade inicial 0 :
)()(2
)()( 002
220
00
GGGG
(10)
tal que )( 0G é o valor de G para o novo ponto de projeto *z (Equação (5)) obtido com 0 . As derivadas parciais de G em relação à , em 0 , são dadas por:
00
i
i
zzGG (11)
As derivadas de G em relação a iz e de iz em relação a são obtidas da Equação (9) e da Equação (5). A derivada parcial segunda de G em relação a é obtida:
2
2
2
2
2
00
i
i
zzGG (12)
tal que a derivada parcial segunda de G em relação a iz é aproximada por:
2212121
2
2 ),...,,...,,(),...,,...,,(2),...,2,...,,(h
zzzzGzhzzzGzhzzzGzG ninini
i
(13)
3 MATERIAIS E MÉTODOS Neste artigo, foi utilizada a seção transversal da Estaca 122+00 da Barragem de Terra da Margem Esquerda da Usina de Itaipu, cuja composição está representada na Figura 3 a seguir: basalto (14), basalto intemperizado (13), saprolito (12), argila da fundação (11), bermas (9), eixo da barragem (8), filtro interno de areia (7), argila compactada do corpo da barragem (6) e rip rap (5) (ITAIPU BINACIONAL, 2009).
Figura 3: Seção transversal típica na região da Estaca 122+00
As variáveis consideradas aleatórias foram a coesão efetiva e o ângulo de atrito interno efetivo da argila da fundação da barragem. Ambas variáveis, conforme teste de Shapiro-Wilk e Kolmogorov-Smirnov, assumem distribuição normal e são independentes (Tabela 1). As demais variáveis para os outros materiais do aterro foram consideradas determinísticas e
V Simposio de Metodos Numericos Computacionais
393
estão na Tabela 2. Tabela 1: Variáveis consideradas aleatórias
Variáveis aleatórias da argila da fundação Coesão efetiva (KPa) Ângulo de atrito interno efetivo (graus)
Média 18,2649 25 Desvio padrão 6,0682 1,4142
Tabela 2: Variáveis consideradas determinísticas
Material Peso específico
(KN/m3) Coesão
efetiva (KPa) Ângulo de atrito
interno efetivo (graus) Argila compactada 19,025 55,5181 27,275 Argila da fundação 17,8482 ----- ----
Saprolito 18,0443 0 25 Basalto alterado 19,1427 19,123 28 Areia dos Filtros 22,065 0 40
Bermas 19,025 58,2517 24 Rip rap 21,5747 0 40
O procedimento de obtenção do índice de confiabilidade, probabilidade de ruptura e ponto de projeto ocorreu conforme descrito na Seção 2. Quando foi necessário obter o valor do Fator de Segurança (função do estado limite) ao se calcular o valor aproximado das derivadas parciais, o incremento h foi realizado na variável do espaço reduzido. Depois, todas as variáveis foram escritas no espaço original, conforme a Equação (2). Então foi acessado o software SLOPE/W®.
4 RESULTADOS Os resultados da análise probabilística de estabilidade pelo FORM, tendo como função do estado limite o “Fator de Segurança Simplificado de Janbu”, e considerando-se apenas as variáveis coesão efetiva e ângulo de atrito interno efetiva como aleatórias, estão na Tabela 3 a seguir. A estrutura pode ser considerada em boas condições de segurança, visto que o índice de confiabilidade está no intervalo de valores recomendados por Whitman (1984) que é de 3,5 a 5,0 para barragens de terra. O Fator de Segurança da época de construção da barragem (FS de projeto), simulando as condições atuais, foi menor que o FS probabilístico obtido nesta análise.
Tabela 3: Resultados da análise de confiabilidade pelo FORM
Função do estado limite Fator de
Segurança Índice de
confiabilidade Probabilidade
de ruptura
Coesão efetiva (Kpa)
Ângulo de atrito interno efetivo
(graus) FS de Janbu Simplificado 2,93 3,75 0,0087% 16,05 26,72
A superfície circular de ruptura, com as suas fatias, para a qual foi determinada a probabilidade de ruptura, através da seção transversal da Estaca 122+00, foi considerada fixa e passando pela camada de saprolito, conforme a Figura 4. É provável que existam outras superfícies de deslizamento na mesma seção com maior probabilidade de ruptura; o que pode nortear novos estudos. Para a convergência do FORM da maneira como foi apresentado, neste artigo, isto é, com o cálculo aproximado das derivadas parciais e com a aproximação da superfície de falha por uma série de Taylor de segunda ordem em função do índice de confiabilidade, faz-se necessária uma escolha adequada do incremento h e do índice de confiabilidade inicial. Assim, o início do processo de convergência do algoritmo pode dispender mais tempo.
V Simposio de Metodos Numericos Computacionais
394
Figura 4: Superfície de ruptura circular e suas fatias, ao final da análise de confiabilidade estrutural
5 CONCLUSÕES Este trabalho cumpriu com os objetivos, pois com o método de análise probabilística de estabilidade apresentado foi possível a obtenção do índice de confiabilidade, da probabilidade de ruptura e do ponto de projeto. A visão probabilística da questão, isto é, a consideração da aleatoriedade de algumas das variáveis dentre as várias envolvidas no problema de estabilidade, favorece a realização de análises que levam em conta os riscos. Tal análise forneceu uma visão mais próxima da real e pode complementar o conhecimento pré-existente das condições estruturais. A complexidade técnica apresentada pelos recursos matemáticos que estruturam a metodologia aqui proposta, não é empecilho para a aplicação do método em quaisquer barragens de aterro, visto que os mesmos podem ser operacionalizados de maneira relativamente simples, com o uso do aplicativo, SLOPE/W®, utilizado na análise realizada neste artigo.
REFERÊNCIAS ANG A.H., TANG, W.H., Probability concepts in engineering planning and design: decision, risk and reliability, Vol II, John Wiley and Sons, 1984. CHENG, Y.M., LAU, C.K., Slope Stability Analysis and Stabilization, Routledge, 2008. CORNELL, C.A., A probability-based structural code. Journal of American Concrete Institute 66, 12: 974–985, 1969. EL-RAMLY H., MORGENSTERN, N.R., CRUDEN, D.M., Probabilistic slope stability for practice. Canadian Geotechnical Journal, 39: 665-683, 2002. FELLENIUS, W., Calculation of the stability of earth dams. Trans 2nd Congress of Large Dams, 4: 445–462, 1936. FERREIRA, J.L.F., Análise de estabilidade de taludes pelos métodos de Janbu e Spencer, Dissertação de Mestrado, Curso de Engenharia Civil, Faculdade de Engenharia da Universidade do Porto, Porto, 2012. HASOFER, A.M., LIND, N.C., An exact and invariant first-order reliability. Journal of Engineering Mechanics Division, 100: 111–121, 1974. ITAIPU BINACIONAL, Usina Hidrelétrica de Itaipu: aspectos de engenharia. Itaipu Binacional, Foz do Iguaçu, 2009. JANBU, N., Stability analysis of slopes with dimensionless parameters. PhD. Thesis in Civil Engineering. Faculty of Art and of Sciences Harvard University, 1954. MELCHERS R.E., Structural Reliability: analysis and prediction, John Wiley and Sons, 1987. SPENCER, E., A method of analysis of the stability of embankments assuming parallel inter-slice forces. Geotécnique, 17: 11–26, 1967. SU, Y., LI, X., XIE, Z., Probabilistic evaluation for the implicit limit-state function stability of a highway tunnel in China. Tunnelling and Underground Space Technology, Elsiever, 26: 422-434, 2010. WHITMAN, R.V., Evaluating calculated risk in geotechnical engineering, Journal of Geotechnical Engineering Division, 110: 145-188, 1984.
V Simposio de Metodos Numericos Computacionais
395
V Simposio de Metodos Numericos Computacionais
Matheurística TSrad para otimização no planejamento de Radioterapia
Resumo: Este trabalho propõe a matheurística 1 TSrad que busca uma solução para os problemas da escolha defeixes e distribuição de dose em radioterapia. Trata-se de um método híbrido, que combina a metaheurística BuscaTabu e o método exato Ponto Interior. A metodologia é testada em quatro instâncias, nas quais são avaliadas suaperformance em relação à qualidade de solução e tempo computacional, na intenção de obter soluções próximas àótima em tempo computacional menor ao do método exato. Os resultados obtidos para o estudo de caso propostoforam próximos ao ótimo, em tempo computacional menor.
Palavras-Chave: Matheurística, Busca Tabu, Ponto Interior, Radioterapia.
1 INTRODUÇÃO
Nos últimos anos, muitas pesquisas tem sido realizadas na tentativa de melhorar o planejamento da ra-dioterapia. Quando se refere à técnicas de Pesquisa Operacional (PO), dois problemas são especialmenteabordados: (a) o posicionamento dos feixes; (b) a distribuição da dose.
O problema do posicionamento dos feixes, ou problema geométrico, busca determinar o melhor con-junto de feixes para irradiar o tumor, de modo a atingir o mínimo possível os demais órgãos.
Este problema foi abordado, por exemplo, por GOLDBARG et al. (2009) num modelo multiobjetivoque foi resolvido por algoritmo Transgenético, introduzido por eles, e pelo algoritmo genético multiob-jetivo, para compará-los.
O problema da distribuição de dose busca determinar a intensidade de dose a ser emitida pelos feixespreviamente estabelecidos. Esta distribuição é chamada de mapa de fluência.
ACOSTA et al. (2008) propuseram um modelo para determinar a distribuição de dose, o qual éresolvido com a técnica Simulated Annealing. A partir deste modelo, VIANA et al. (2011) e SHAO(2008) propuseram alterações. VIANA et al. (2011) resolveram este problema pelo método de PontoInterior (PI) e acrescentaram pesos que consideravam a hetereogeneidade dos tecidos irradiados. SHAO(2008) extendeu-o para a abordagem 3D.
ROMEIJN et al (2006) propuseram uma abordagem linear para o problema da distribuição de dose ediscutiu a dificuldade das restrições do problema.
Outros trabalhos integraram os dois problemas, dada sua natureza, entre eles os trabalhos de VOET(2014) e BREEDVELD (2013), que propuseram o algoritmo iCycle para otimização da orientação defeixes coplanares e não coplanares e a distribuição de dose.
GEVERT et al. (2013) propuseram um modelo único para otimizar o posicionamento dos feixes edistribuição de dose, estendendo o modelo de OBAL et al. (2013). Um conjunto de feixes disponíveis
1Denomina-se Matheurística ao método híbrido que utiliza metaheurísticas e técnicas de programação matemática.
Thalita Monteiro Obal, Neida Maria Patias Volpi, VaniaGryczak Gevert, Volmir Eugenio Wilhelm, Helenice de
Oliveira Florentino Silva, Dylan Jones, Djamila Ouelhadj
396
foi proposto e o modelo determinava o melhor subconjunto, dado um número limite a escolher, e suadistribuição de dose por feixe.
Duas questões para melhoria podem ser destacadas na proposta de GEVERT et al. (2013) no usode método exato para resolver o modelo: (i) o grande tempo computacional; (ii) a impossibilidade deresolver o modelo para a configuração 3D (mais de um corte de tomografia computadorizada (TC)),devido a dimensão do problema (grande número de variáveis e restrições).
Para se resolver a questão do tempo computacional, OBAL et al. (2015) propuseram uma metodolo-gia híbrida utilizando algoritmo genético (AG) e PI. Conforme apresentado no trabalho, a metodologiaalcançou o objetivo de melhorar o tempo computacional do método exato de GEVERT et al. (2013),e com soluções próximas à ótima. Contudo, acredita-se que o tempo computacional pode ainda sermelhorado por meio de uma metodologia de solução única, que está apresentada neste trabalho.
Desta forma, o presente trabalho está organizado da seguinte forma: a seção 2 descreverá a metodolo-gia proposta, a matheurística TSrad; em seguida, a seção 3 apresentará resultados do mesmo estudo decaso apresentado em OBAL et al. (2015), porém estendendo as instâncias para fortalecer as suposiçõesdaquela pesquisa para o método exato (de GEVERT et al. (2013)) e para TSrad, apresentando compara-ções das metodologias e conclusões.
2 METODOLOGIA
A matheurística proposta TSrad é um método híbrido que combina Busca Tabu (BT) e o método dePonto Interior (PI). BT é utilizado para determinar a direção de feixes e PI, a distribuição de dose. Estametodologia é proposta pois é de solução única. Logo, TSrad foi proposta com intenção de melhorarainda mais o tempo computacional do método exato, considerando que a metodologia de Obal et al.(2015) requer a avaliação da população.
BT foi utilizada com a seguinte estrutura:
(i) Solução
A solução é um conjunto de η feixes selecionados utilizados no tratamento. Por exemplo, se forconsiderado que, dentre os 8 feixes disponíveis (ver Figura 1(a)), forem selecionados η = 4, oconjunto: sexe = (2, 4, 6, 8) é um exemplo de solução que utiliza os feixes: 2, 4, 6 e 8, e não utilizaos feixes: 1, 3, 5 e 7.
Para cada solução da BT, a distribuição de dose pode ser determinada resolvendo-se o modelo (1).O valor da solução de BT é dada por g.
min g =(γ1f(ε
−) + γ2f(ε+) + αf(θ+) + βf(δ+)
)
s a AnX = SnBn + θ+ − θ−
AhX = ShBh + δ+ − δ−
AtX = DBt + ε+ − ε−
(θ+i ), (θ−i ), (δ
+i ), (δ
−i ), (ε
+i ), (ε
−i ) ≥ 0 (1)
Para descrição do modelo (1), ver GEVERT et al. (2013) e OBAL et al. (2015).
(ii) Vizinhança
A vizinhança da solução atual é um conjunto de soluções geradas por meio de uma pequena per-turbação na solução atual (TALBI (2009)). Esta perturbação é denominada movimento. Para aproposta de TSrad, um movimento é considerado quando um feixe da solução atual é aleatoria-mente selecionado e substituído por um feixe que não estava na solução atual.
Para sexe, por exemplo, um feixe do conjunto (2,4,6,8) é aleatoriamente selecionado, por exemplo,6, e um feixe entre aqueles que não estavam em sexe, (1,3,5,7), é aleatoriamente selecionado, porexemplo, 3, para substituir o feixe 6 e gerar a nova solução, ou solução vizinha: (2,4,3,8).
V Simposio de Metodos Numericos Computacionais
397
Para a próxima iteração, o vizinho que apresentar melhor avaliação da solução, é considerado comonova solução atual (mesmo que sua solução seja pior do que a solução atual). Sua vizinhança écontruída, e assim sucessivamente, até que o critério de parada seja satisfeito.
(iii) Lista tabu
Para evitar ciclos, ou seja, que vizinhos já visitados anteriormente sejam novamente considerados,uma lista com os movimentos recentes é criada, e é chamada lista tabu (Glover (1989); Talbi(2009)). Esta lista memoriza as recentes buscas na trajetória.
Neste trabalho, esta lista contém o feixe que foi excluído e o que foi inserido, e vice-versa. Para oexemplo anterior, os movimentos [6,3] e [3,6] são incluídos na lista tabu.
Apenas podem ser considerados vizinhos, soluções não constantes na lista tabu ou que não sa-tisfaçam o critério de aspiração. Este critério define soluções que sejam particularmente boas, e,mesmo estando na lista tabu, poderão fazer parte da nova vizinhança.
(iv) Critério de parada
O critério de parada utilizado foi número de iterações. Diferentes números foram testados paraavaliar a performance da metodologia.
3 EXPERIMENTOS COMPUTACIONAIS
A metodologia proposta TSrad, assim como o método exato de Gevert et al. (2013) foram aplicadosa um estudo de caso, que está descrito na sessão 3.1. As sessões 3.2 e 3.3 contem os resultados obtidos.
3.1 Estudo de casoO estudo de caso desenvolveu-se para uma ocorrência de câncer de próstata.A imagem de tomografia computadorizada foi obtida no Hospital Erasto Gaertner (Curitiba/PR/Brasil),
com projeto número 2042. O corte de TC selecionado é o que contém o isocentro do tumor, e, depois deum pré-processamento, a imagem tem 22.638 pixels.
Realizaram-se experimentos para quatro diferentes instâncias, conforme mostrada na Tabela 1. Aspossíveis direções dos feixes para as instâncias 1 e 2 são mostradas na Figura 1(a), com 8 feixesdisponíveis, e para as instâncias 3 e 4 na Figura 1(b), com 12 feixes disponíveis.
(a) 8 possíveis direções de feixe (b) 12 possíveis direções de feixe
Figura 1: Possíveis direções dos feixes
O uso de 6 ou 4 feixes é um número comum na prática do tratamento.As seções 3.2 e 3.3 apresentam os resultados do uso das metodologias: método exato e TSrad, respec-
tivamente, nas instâncias propostas na Tabela 1.
V Simposio de Metodos Numericos Computacionais
398
Tabela 1: Instâncias propostas
Instância Número de feixes disponíveis Número de feixes a ser selecionado1 8 62 8 43 12 64 12 4
3.2 Resultados da metodologia exataPara obter-se soluções ótimas, o modelo (2) foi resolvido pelo método Branch and Bound, com γ1 =
γ2 = 0, 4 e α = β = 0, 1. Estes pesos foram utilizados baseado nos experimentos feitos em GEVERT etal. (2013), que mostrou que este conjunto de pesos apresentam melhores resultados para este estudo decaso. Para descrição do modelo (2), ver GEVERT et al. (2013) e OBAL et al. (2015).
min g =(γ1f(ε
−) + γ2f(ε+) + αf(θ+) + βf(δ+)
)
s a AnX = SnBn + θ+ − θ−
AhX = ShBh + δ+ − δ−
AtX = DBt + ε+ − ε−m∑
k=1
zk ≤ η
0 ≤ xk ≤ M.zk(θ+i ), (θ
−i ), (δ
+i ), (δ
−i ), (ε
+i ), (ε
−i ) ≥ 0
zk ∈ 0, 1 (2)
Na configuração das instâncias 1 e 2, o modelo (2) tem 22.718 variáveis e 11.319 restrições; para asinstâncias 3 e 4, modelo (2) tem 22.758 variáveis e 11.319 restrições. A solução ótima do modelo (2)obtido por método exato para cada instância é mostrado na Tabela 2.
Em todas as metodologias, o software Matlab foi utilizado, e executado num computador Intel Corei5 e CPU de 1.7 GHz.
Tabela 2: Resultados do método exato
Instância f(ε+) f(ε−) f(θ+) f(δ+) g Tempo computacional (h) Feixes selecionados1 126,52 958,64 731,45 109,47 518,16 26,16 1, 2, 4, 6, 7, 82 63,10 1.152,8 792,61 109,61 576,60 19,07 1, 2, 5, 73 119,80 940,55 689,15 115,23 504,58 219,27 (> 9 dias) 1, 2, 7, 9, 104 52,7 1.171,2 682,0 109,9 568,76 101,82 (> 4 dias) 1, 2, 9, 11
Os resultados obtidos (Tabela 2) mostram que o tempo computacional de resolução pelo métodoBranch and Bound é elevado.
3.3 Resultados de TSradOs resultados dos experimentos usando TSrad para as instâncias propostas na Tabela 1 estão apre-
sentados na Tabela 4, considerando a média dos resultados de cinco execuções de cada experimentoproposto na Tabela 3. Experiências preliminares levaram a utilização dos parâmetros apresentados naTabela 3.
Como o número de iterações é relativamente pequeno, o tamanho da lista tabu foi considerado 2. Ocritério de aspiração considerou que a solução que fosse 10% melhor que a melhor solução até o presentemomento satisfazia o critério.
As soluções foram avaliadas usando o modelo (1), com pesos: γ1 = γ2 = 0, 4 e α = β = 0, 1. Ométodo de PI foi utilizado para resolver o modelo.
V Simposio de Metodos Numericos Computacionais
399
Tabela 3: Experimentos propostos em cada instância de TSrad
Experimento Número de iterações Tamanho da vizinhançaa 3 3b 3 5c 3 10d 5 3e 5 5f 5 10
Tabela 4: Média de resultados de TSrad
Instância Experimento f(ε+) f(ε−) f(θ+) f(δ+) gDesvio da soluçãoótima (%) Tempo computacional (h)
% de melhoria em tempo computa-cional em relação ao método exato
1
a 129,82 958,78 728,71 110,47 519,36 0,23 0.53 97,96b 129,64 956,15 741,08 108,39 519,26 0,21 0,89 96,58c 126,52 958,65 731,46 109,47 518,16 0,00 1,91 92,68d 128,80 957,85 749,50 105,33 520,14 0,38 0,68 97,39e 126,72 958,92 730,68 108,47 518,17 0,00 1,17 95,49f 126,52 958,65 731,46 109,47 518,16 0,00 2,69 89,69
2
a 64,42 1,157,22 812,08 144,64 584,33 1,34 0,44 97,70b 65,58 1.145,88 833,84 106,44 578,61 0,34 0,80 95,82c 61,26 1.145,42 841,14 119,58 578,74 0,37 1,55 91,86d 57,06 1.150,72 938,50 112,82 588,24 2,02 0,93 95,14e 61,54 1.150,84 811,44 111,32 577,23 0,11 1,59 91,67f 66,50 1.140,36 838,12 112,96 577,85 0,22 2,74 85,66
3
a 96,92 1.027,63 790,31 107,66 539,62 6,94 0,66 99,70b 111,87 987,89 699,49 119,38 521,79 3,41 0,91 99,58c 118,18 952,50 720,09 115,04 511,79 1,43 1,87 99,14d 88,05 1.026,11 786,48 125,96 536,91 6,41 1,05 99,52e 111,97 990,43 747,54 116,45 527,36 4,51 1,62 99,26f 119,05 941,17 691,90 115,90 504,87 0,06 3,11 98,58
4
a 60,06 1.144,96 1.038,48 148,84 600,75 5,62 0,54 99,47b 65,10 1.067,18 1.093,02 152,22 577,44 1,53 0,93 99,08c 61,38 1.126,36 873,84 116,08 574,09 0,94 1,85 98,17d 61,94 1.137,84 892,76 114,42 580,62 2,09 0,98 99,03e 62,52 1.142,50 876,70 108,24 580,51 2,06 1,29 98,73f 51,62 1.165,98 718,78 143,62 573,29 0,79 3,12 96,93
Comparando com os resultados do método exato, apresentados na seção 3.2, observa-se que em todosos casos o tempo computacional de TSrad é significativamente menor.
Além disso, na instância 1, os experimentos (c) e (f) atingiram a solução ótima em todas as execuções.Nas outras instâncias, os melhores resultados foram obtidos nos experimentos (e), (f) e (f), para asinstâncias 2, 3 e 4, respectivamente, com um pequeno desvio para o ótimo de : 0,11%, 0,06% e 0,79%.
Os resultados apresentados na Tabela 4 mostram que nos experimentos com maior tamanho de vizi-nhança apresentam melhores resultados. Esta melhoria somente não acontece na instância 2.
Por outro lado, o incremento no número de iterações apresenta melhores resultados em 58% dos casos,entre 12 possíveis comparações. Logo, pode-se observar que o tamanho da vizinhança provavelmente émais importante no processo de convergência de TSrad para este estudo de caso.
Especialmente nas instâncias 3 e 4, que utilizam 12 feixes disponíveis (logo tem o maior númerode possíveis soluções nas instâncias propostas neste trabalho), é evidente a importância da escolha dosparâmetros para o processo de convergência.
4 CONCLUSÃO
Este trabalho propõe a metodologia TSrad, para selecionar feixes e determinar a distribuição de dosepara os respectivos feixes selecionados. Ainda descreve uma comparação dos resultados da metodologiaproposta com os do método exato apresentado por Gevert et al. (2013).
Os experimentos foram conduzidos para avaliar e comparar a performance da metodologia proposta eo método exato quanto à solução e quanto ao tempo computacional. A matheurísticas TSrad apresentousoluções com pequeno desvio da solução ótima em tempo computacional muito menor ao do métodoexato.
Devido a importância observada dos parâmetros de entrada de TSrad (tamanho da vizinhaça e númerode iterações), mais experimentos podem ser testados para avaliar o melhor conjunto de parâmetros. Outra
V Simposio de Metodos Numericos Computacionais
400
opção é a proposta de uma metodologia menos dependente de parâmetros, como é o caso da BT.Para trabalhos futuros, o uso de mais de um corte de TC é fundamental para aproximação da técnica
à realidade dos planejamentos de radioterapia.
REFERÊNCIAS
Acosta, R. Brick, W. Hanna, A. Holder, A. Lara, D. Mcquilen, G. Nevin, D. Uhlig, P. and Salter, B.Radiotherapy optimAl Design: An Academic Radiotherapy Treatment Design System. Operations Re-search/Computer Science Interfaces. 47:401-425, 2009.
Breedveld, S. Towards Automated Treatment Planning in Radiotherapy: A Mathematical Approach toAutomated and Integrated Multi-Criterial Optimization of Beam Angles and IMRT Fluence Profiles.Erasmus University Rotterdam, The Netherlands, 2013.
Gevert, V.G. Obal, T.M. Volpi, N.M.P. and Wilhelm, V.E. Um modelo de otimização integrado para osproblemas da escolha de feixes de radiação e do mapa de fluência em radioterapia. Simpósio Brasileirode Pesquisa Operacional, XLV, 2013. Natal/RN. Anais. Sociedade Brasileira de Pesquisa Operacional,2013.
Glover, F. Tabu search - Part I. ORSA J. Comput, 1989.
Goldbarg, M.C. Algoritmo evolucionário para otimização do plano de tratamento em radioterapia con-formal 3D. Pesquisa Operacional. 29: 239-267, 2009.
Obal, T.M. Volpi, N.P. and Miloca, S.A. Multiobjective approach in plans for treatment of cancer byradiotherapy. Pesquisa Operacional. 33:269-282, 2013.
Obal, T.M. Florentino, H.O. Gevert, V.G. Jones, D.F. Ouelhadj, D. Volpi, N.M.P. and Wilhelm, V.E. Amatheuristic for the selection of beam directions and dose distribution in Radiotherapy Planning. Journalof Physics: Conference Series. 616, 2015.
Romeijn, H.E. Ahuja, R.K. Dempsey, J.F. and Kumar, A. A New Linear Programming Approach toRadiation Therapy Treatment Planning Problems. Operations Research. 54:201-216, 2006.
Shao, L. Multiple Objective Linear Programming in Radiotherapy Treatment Planning. Thesis of doc-tory. Department of Engineering Science, School of Engineering, University of Auckland, 2008.
Talbi, E.G. Metaheuristics: from desing to implementation. John Wley & Sons, New Jersey, 2009.
Viana, R.S. Florentino, H.O. Lima, E.A.B.F. Fonseca, P.R. and Homem, T.P.D. Heterogeneity correctionin the construction of optimized planning in radiotherapy using linear programming. Pesquisa Opera-cional. 31:565-578, 2011.
Voet, P.W.J. Automation of contouring and planning in radiotherapy. Erasmus University Rotterdam,The Netherlands, 2014.
V Simposio de Metodos Numericos Computacionais
401
V Simposio de Metodos Numericos Computacionais
CONDICIONAMENTO DO PROBLEMA DE AUTOVALORESOBTIDO DO MÉTODO DE ELEMENTOS FINITOS
GENERALIZADOS NA ANÁLISE DINÂMICA DE VIGAS DEEULER-BERNOULLI
Resumo: Ao longo dos anos novos métodos foram desenvolvidos baseados no Método de Elementos Finitos(MEF); o Método de Elementos Finitos Generalizados (MEFG) é um deles. O MEFG é um método de Galerkin,cujos espaços de aproximações locais refletem as informações disponíveis sobre a solução da equação diferenciala ser resolvida, garantindo uma boa aproximação local e global. Ao aplicar métodos numéricos na análise de vi-brações livres de estruturas, o problema se reduz a solução numérica de um problema de autovalores e autovetoresgeneralizado. O MEFG tem apresentado excelentes resultados com soluções mais precisas do que os refinamentosh e p do MEF. O objetivo deste trabalho é fazer uma análise do problema de autovalores generalizados e a pertur-bação gerada pelas aproximações das matrizes do MEFG na análise dinâmica de vigas de Euler-Bernoulli, já queem alguns casos o MEFG tem apresentado autovalores negativos dependendo da precisão empregada nas rotinascomputacionais.
Palavras-Chave: Condicionamento, Problema de Autovalores Generalizado, Método de ElementosFinitos Generalizados, Análise dinâmica.
1 INTRODUÇÃO
O Método dos Elementos Finitos (MEF), tem uma vasta área de aplicação em problemas Físicos eMatemáticos, a aplicação desta técnica possibilita encontrar a solução de sistemas de Equações Dife-renciais. O Método de Elementos Finitos Generalizados (MEFG), por sua vez, é baseado nas ideias doMétodo da Partição da Unidade (MPU), desenvolvido por Melenk e Babuska(1996).
Arndt(2009) propõe uma aplicação do MEFG em problemas de vibrações livres, da qual encontram-seproblemas relacionados a sensibilidade do mesmo, apesar dos bons resultados apresentados. Observou-se ainda que os ajustes feitos na precisão empregada nos cálculos computacionais para determinação dasmatrizes de massa e rigidez por integração numérica, ou na solução do problema de autovalores, afetama precisão e a convergência do MEFG. Leung et al., (2004), tentando encontrar uma maneira de avaliara sensibilidade do problema de vibração, ao utilizar o método p-Fourier e MEF, calcularam o número decondição da matriz de massa, de forma a encontrar uma "medida" de sensibilidade.
Cook(2002) define o número de condição como quociente entre o maior e o menor autovalores damatriz, ou seja, o número de condição está diretamente ligado com autovalores. Em 1965, Wilkin-son introduziu o número de condição de uma matriz A, fazendo uma dicussão sobre sua sensibilidade.Smith(1967) publicou uma expressão explícita do número de condição para matrizes reduzidas à forma
Thamara Petroli, Marcos Arndt, RobertoDalledone Machado, Paulo de O. Weinhardt
402
canônica de Jordan. Por volta dos anos 1970, Stewart(1971) e Wilkinson(1972), usaram o número decondição para limitar o domínio do espectro. Já no ano de 1976, Golub e Wilkinson começaram a tratarsobre a sensibilidade de problemas de autovalores.
O objetivo deste trabalho é fazer uma análise do condicionamento e sensibilidade do problema deautovalores generalizado, gerado pela equação Ax = λBx, do MEFG. Stewart e Sun (1990) afirmaramque se uma matriz é hermitiana, e recebe uma perturbação, então haverá um incremento nos seus auto-valores. Sendo assim, o estudo e análise das aproximações das matrizes de massa e rigidez é necessário,para descobrir até que ponto as perturbações geradas pelas aproximações do método de construção dessasmatrizes podem influenciar no desempenho e precisão do MEFG na análise dinâmica de estruturas.
2 PROBLEMA DE AUTOVALORES GENERALIZADOS COM MATRIZES HERMITIANAS
Um problema de autovalores generalizado é, definido pela equação:
P (λ)x = (A− λB)x = 0⇐⇒ Ax = λBx (1)
E se a matriz B = I , matriz identidade, o problema generalizado é chamado de problema de autova-lores padrão, ou somente problema padrão.
Para este trabalho são necessárias as seguintes definições:
• Uma matriz A, é dita Hermitiana, se A = (A)T , onde A é a matriz conjugada de A.
• Sejam λi’s autovalores da matriz A, então:
– Se λi > 0 ∀i, então A é definida positiva;
– Se λi ≥ 0 ∀i, então A é chamada de semi-definida positiva;
– Se λi < 0 ∀i, então A é definida negativa;
– Se λi ≤ 0 ∀i, então A é semi-definida negativa;
– A matriz A é indefinida quando existem autovalores positivos e negativos.
O conceito de condicionamento é definido através da análise de sensibilidade da solução do problemade autovalor à pequenas variações nos dados de entrada. O problema é bem condicionado se pequenasperturbações nos dados de entrada resultam em pequenas variações nos dados de saída. Caso contrário,quando pequenas perturbações nos dados de entrada produzem grandes perturbações nos dados de saída,temos um problema mal condicionado.
Um problema de autovalor generalizado, Eq.(1), pode ser bem condicionado ou mal condicionado.Quando a matriz A é hermitiana e trata-se de um problema padrão, então este é um problema bemcondicionado (Demmel et al., 2000). A situação muda completamente quando o problema é generaliza-do, que em geral é mal condicionado, principalmente quando as matrizes não são hermitianas (Bazán,2003).
Lidar com matrizes hermitianas e definida positivas traz algumas vantagens, uma delas é que exis-tem algoritmos que facilitam encontrar os autovalores das matrizes, de maneira a ter uma medida decondicionamento. Outra vantagem, é que pode-se trasformar um problema de autovalor generalizadoem um problema padrão. Se as matrizes A e B são hermitianas e B é definida positiva , então pode-sedecomporB como produto de matrizes não singulares,B = LL∗, através da Decomposição de Cholesky,por exemplo. Assim o problema se transforma em:
(L−1A(L∗)−1)x = λx (2)
Como os espaços do domínio são invariantes (Golub e Loan, 1996), as propriedades são preservadasapós a transformação, isto é, os autovalores são os mesmos, e se x é autovetor da Eq.(2), então x =(L∗)−1x satisfaz a Eq.(1). Portanto, quando um problema de autovalores generalizado tem as matrizesA e B hermitianas e B é definida positiva; então este é um problema bem condicionado, porque podeser reduzido a um problema padrão, com mesmos autovalores e que por sua vez é bem condicionado.
V Simposio de Metodos Numericos Computacionais
403
3 ANÁLISE DINÂMICA DE ESTRUTURAS
A análise de vibrações livres em estruturas não amortecidas recai no problema (Chopra, 2012):
Kφ = ω2Mφ (3)
onde K é a matriz de rigidez, M a matriz de massa, ω a frequência natural e φ o vetor de modo devibração natural.
As matrizes K e M quando provém da forma fraca de Galerkin referente ao equilíbrio dinâmico dosistema para vibrações de viga de Euler-Bernoulli, são dadas na forma:
K = [kij] =
∫
Ω
∂2Φi
∂x2
∂2Φj
∂x2dΩ (4)
M = [mij] =
∫
Ω
ΦiΦjdΩ (5)
onde as Φ’s são funções de interpolação e Ω o domínio global do problema. A escolha das funções deinterpolação depende do método aproximado a ser empregado.3.1 Aproximações pelo MEFG
O MEFG surgiu a partir do Método dos Elementos Finitos da Partição da Unidade, onde o enriqueci-mento local do subespaço de aproximação é incorporado através do MPU (Arndt, 2009).
O espaço das funções de aproximação, além de representarem uma boa aproximação local, deve serdenso no conjunto de soluções da equação diferencial a ser resolvida. Como a escolha não é única, entãoela depende de aspectos como custo da construção das matrizes e otimalidade do sistema.
O MPU permite construir um espaço de aproximação com a regularidade desejada, independentedos espaços de aproximação locais, preservando as propriedades destes espaços. A aproximação dasolução proposta pelo MEFG no domínio do elemento mestre pode ser escrito como combinação dascomponentes (Arndt et al., 2014):
u = uMEF + uENRIQ (6)
onde uMEF é a componente do MEF baseada nos graus de liberdade nodais e uENRIQ é a componentede enriquecimento gerada sobre a partição da unidade, multiplicando-a, e baseada nos graus de liberdadede campo.
Para este trabalho utilizam-se:
u(ξ) =2∑
i=1
ηi(ξ)(φ1i(ξ) + φ2i(ξ)) +2∑
i=1
ηi
[nl∑
j=1
γi(ξ)
](7)
onde:
φ11 = 1− ξ + ξ2
2
φ12 =ξ − ξ2
2+ 1
φ21 =1− ξ2
4
φ22 =ξ2 − 1
4
(8)
Com as funções de enriquecimento, baseadas em Arndt(2009), dadas por:
γj(ξ) = cos
[(j − 1)π(ξ + 1)
2
]− cos
[(j + 1)π(ξ + 1)
2
](9)
para j = 1, 2, ..., nl, sendo nl o número de níveis de enriquecimento.
V Simposio de Metodos Numericos Computacionais
404
E as funções da partição da unidade utilizadas foram:
η1 =(1− ξ)
2
η2 =(1 + ξ)
2
(10)
Para este trabalho considerou-se ξ ∈ [−1, 1].
Por construção do método, como apresentado por Arndt(2009), sabe-se que as matrizes K e M sãomatrizes hermitianas. Sendo M definida positiva (Inman, 1996), então pode-se aplicar a decomposiçãoem M , transformando o problema de autovalor generalizado em um padrão bem condicionado. E se x éautovetor da Eq.(2), então x = (L∗)−1x satisfaz a Eq.(3); logo pelas definições anteriores segue que osautovalores são reais e positivos, ou seja, ω2 ∈ R.
Como a matriz de massa é por definição definida positiva nos problemas de vibração livre não have-riam motivos para medir o condicionamento do sistema, pois sabe-se que o problema é bem condicionadoe os autovalores são reais e positivos. Porém, dependendo da precisão empregada no cálculo das ma-trizes de massa e rigidez observa-se que o problema continua mal condicionado numericamente, sendoentão necessário verificar a sensibilidade numérica da matriz de massa, pois o bom condicionamento doproblema depende desta ser numericamente definida positiva.
4 ANÁLISE DA SENSIBILIDADE
Primeiramente variou-se o número de dígitos significativos (precisão) para a aproximação numérica(integração numérica) das matrizes de massa e rigidez, calculando-se o erro absoluto das aproximaçõesem relação aos valores exatos (integração exata). As matrizes geradas, no software Maple, tem 5 níveisde enriquecimento (nl = 5), variando o número de dígitos significativos (17, 19 e 22). Para determinaçãodas matrizes aproximadas foi empregada a quadratura de Gauss.
As figuras 1 a 3 a seguir apresentam, a título de ilustração, a distribuição do erro nas matrizes demassa e rigidez para uma precisão de 17, 19 e 22 dígitos significativos, respectivamente.
(a) Matriz de Massa (b) Matriz de Rigidez
Figura 1: 17 dígitos
V Simposio de Metodos Numericos Computacionais
405
(a) Matriz de Massa (b) Matriz de Rigidez
Figura 2: 19 dígitos
(a) Matriz de Massa (b) Matriz de Rigidez
Figura 3: 22 dígitos
Observa-se que apesar da dispersão do erro, o aumento da precisão faz com que a parte central dasmatrizes de massa e rigidez, contenha os erros mais altos na matriz, embora sejam bastante pequenos.Nessa região estão as funções de enriquecimento dos níveis mais altos (no caso, nível 5).
Considerando o erro das aproximações, uma segunda análise foi feita, mas agora observando a partirde qual precisão a matriz de massa torna-se definida positiva e a ordem do número de condição dessamatriz (Tabela 1 a seguir).
Tabela 1: Precisão a partir do qualM se estabiliza como definida positiva e ordem do número de condição
Número de Níveis 1 2 3 4 5 6 7 8 9 10Número de dígitos significativos 4 5 5 8 10 11 11 14 16 17Ordem do número de condição 104 105 106 108 109 1011 1012 1014 1015 1017
Observa-se que a potência da ordem do número de condição se aproxima da precisão necessária paraque a matriz M torne-se definida positiva. Por exemplo, com 6 níveis de enriquecimento a matriz édefinida positiva a partir de 11 dígitos de precisão e a ordem do número de condição é 1011.
V Simposio de Metodos Numericos Computacionais
406
5 CONCLUSÃO
O objetivo deste trabalho foi fazer uma análise do problema de autovalores generalizado e a pertur-bação gerada pelas aproximações das matrizes do Método de Elementos Finitos Generalizados (MEFG).Mesmo com toda a base teórica matemática garantindo que o problema de autovalores generalizado davibração livre da viga de Euler-Bernoulli é bem condicionado, ainda assim encontra-se grande sensibi-lidade no problema da Eq.(3). Essa sensibilidade está diretamente ligada com os erros de aproximaçãogerados pelo MEFG, na construção das matrizes de massa e rigidez, que por fim provocam perturbaçõesnos autovalores. Pela análise realizada, conclui-se que as aproximações numéricas e analíticas são boas,apesar da sensibilidade do problema.
Ainda pode-se observar uma correlação direta entre a potência da ordem do número de condiçãoda matriz de massa e a quantidade de dígitos significativos (precisão) necessária para que a matriz demassa torne-se numericamente definida-positiva, ou seja, quando a mesma satisfaz as hipóteses para obom condicionamento. Logo, a ordem de grandeza do número de condição da matriz de massa podeser utilizado para estimar a precisão necessária na construção da matriz de massa e portanto ser tambémempregada na comparação de estabilidade de diferentes propostas de funções de enriquecimento para oMEFG.
Pesquisas futuras pretedem verificar o comportamento da sensibilidade do problema de autovalor commudança das funções de enriquecimento, no caso, para o problema de vibração livre de viga e tambémbarra e estado plano.
REFERÊNCIAS
Arndt, M., 2009. O Método dos Elementos Finitos Generalizados Aplicado à Análise de VibraçõesLivres de Estruturas Reticuladas. Tese de Doutorado, Universidade Federal do Paraná.Arndt, M., Machado, R.M., & Natume, P.M. 2014. Generalized finite element method using besselfunctions in vibration analysis. CILAMCE, Fortaleza.Bazán, F.S.V., 2003. Autovalores de Polinômios Matriciais: Sensibilidade, Computação e Aplicações.Notas de Minicurso: 24CBM, Florianópolis.Chopra, A. K., 2012. Dynamics of structures: theory and applications to earthquake engineering. NewJersey: Prentice Hall.Cook, R. D., Malkus, D. S., Plesha, M. E, Witt, R. J., 2002. Concepts and Applications of Finite ElementAnalysis. University of Wisconsin: Madison.Demmel, J., Bai, Z., Dongarra, J., Ruhe, A.,& Vorst, H.v.d., 2000. Templates for the Solution of Alge-braic Eigenvalue Problems. Philadelphia: Society for Industrial and Applied Mathematics - SIAM.Golub, G.H., & Loan, C.F.V., 1996. Matrix Computations. Baltimore and London: The Johns HopkingUniversity Press.Inman, D. J., 1996. Engineering vibration. New Jersey: Prentice-Hall.Leung, A. Y. T. & Chan, J. K. W., 1998. Fourier p-element for the analysis of beams and plates. Journalof Sound and Vibration, vol. 212, n. 1, p. 179 - 185.Leung, A.Y.T, Zhu, B., Zheng, J., & Yang, H., 2004. Analytic trapezoidal Fourier p-element for vibratingplane problems.Journal of Sound and Vibration, vol.271, pp. 67 - 81.Melenk, J. M.; & Babuska, I., 1996. The partition of unity finite element method: basic theory andapplications. Computer Methods in Applied Mechanics and Engineering, vol. 139, n. 1-4, pp. 289 - 314.Smith, R.A., 1967. The condition numbers of the matrix eigenvalue problem. Numerische Mathematik,vol.10, pp. 232 - 240.Stewart, G.W., 1971. Error bounds for approximate invariant subspaces of closed linear operators. SIAMJournal on Numerical Analysis, vol.8, pp. 796 - 808.Stewart, G.W.,& Sun, J., 1990. Matrix Perturbation Theory. Boston: Academic Press.Wilkinson, J.H., 1965. The Algebraic Eigenvalue Problem. Oxford: Claredon Press.Wilkinson, J.H., 1972. Note on matrices with a very ill-conditioned eigenproblem. Numerische Mathe-matik, vol. 19, pp. 175 - 178.
V Simposio de Metodos Numericos Computacionais
407
V Simposio de Metodos Numericos Computacionais
DETERMINAÇÃO DA FORÇA CRÍTICA DE FLAMBAGEM DE ARCOS
COM FORMA PARABÓLICA
Resumo: Neste trabalho são verificados métodos para determinação da força crítica de flambagem
no próprio plano de arcos biarticulados com forma parabólica, submetidos à força concentrada no
meio do vão, para diferentes dimensões de altura máxima e seção transversal. São apresentadas
análises conforme equações indicadas na literatura e a partir de simulação numérica por autovalor
no programa computacional ANSYS. Os resultados são então comparados a fim de indicar a precisão
daqueles alcançados com a simulação numérica em relação aos valores teóricos, uma vez que
atualmente as ferramentas computacionais são largamente utilizadas na análise estrutural. Constatou-
se que a precisão dos resultados alcançados com a simulação numérica foi menor para valores
maiores da relação entre a altura máxima e o vão do arco, e que a variação das dimensões da seção
transversal não influenciou esse critério de precisão.
Palavras-Chave: Arco, Flambagem, Estabilidade.
1 INTRODUÇÃO
Os arcos são elementos estruturais curvos solicitados externamente no próprio plano e amplamente
construídos desde os tempos antigos para suportar pontes, aquedutos, coberturas e outras obras.
Internamente são influenciados por esforços de compressão principalmente, embora também possam
ocorrer esforços de cisalhamento e flexão conforme a forma do arco e as ações atuantes.
Assim como outras estruturas que resistem principalmente a esforços de compressão, o arco pode
sofrer instabilidade dentro ou fora de seu plano por flambagem (ZIENMAN, 2007). A análise de
estabilidade é um importante ramo da análise estrutural, pois a instabilidade da estrutura pode
ocorrer em níveis de tensão muito inferiores ao limite de ruptura do material. A verificação de
estabilidade geralmente ocorre com a determinação de valores críticos para as ações atuantes na
estrutura, que ocasionam a instabilidade estrutural.
Dessa forma o objetivo do trabalho é determinar a força crítica de flambagem em um caso específico
de arco simétrico com forma parabólica, biarticulado e submetido à força concentrada verticalmente
no meio do vão, com diferentes dimensões de altura máxima e seção transversal. Além da análise
fundamentada em conceitos teóricos, é feita análise numérica por autovalor no programa
computacional ANSYS, baseado em elementos finitos. Também é estimada a precisão dos resultados
obtidos a partir da simulação numérica, pois atualmente as ferramentas computacionais são
largamente utilizadas na análise estrutural.
Thiago Damasceno Silva, Francisco Antonio Romero Gesualdo
408
2 FLAMBAGEM DE ARCOS COM FORMA PARABÓLICA
A instabilidade de arcos por flambagem pode ocorrer fora do plano da estrutura, ou no próprio plano.
A instabilidade fora do plano é associada a esforços de compressão, flexão e torção, podendo ser
evitada com a aplicação de travamentos adequados e não é abordada no trabalho. A instabilidade no
próprio plano é associada a esforços de compressão e flexão.
Na Figura 1 é representado um arco simétrico com forma parabólica e apoios articulados nas
extremidades. O arco é solicitado externamente no meio do vão por força concentrada agindo na
direção vertical. Além da preponderância do esforço de compressão, o arco é solicitado internamente
por esforços de cisalhamento e flexão.
Figura 1: Arco parabólico e biarticulado submetido à força concentrada verticalmente no meio do vão.
De acordo com KARNOVSKY (2012), a força crítica de flambagem no próprio plano de arcos
parabólicos submetidos à força concentrada verticalmente no meio do vão pode ser determinada pela
Equação 1.
Pcr196 6 m E I
1 7 68 m2
S L
(1)
Na Equação 1, Pcr representa a menor intensidade da força concentrada em que ocorre a
instabilidade, E é o módulo de elasticidade do material, I é o momento de inércia da seção
transversal, S é o comprimento axial do arco e L é o vão entre apoios. A variável m refere-se à
relação entre a altura máxima do arco (f) e o vão entre apoios (Equação 2).
mf
L
(2)
A Equação 1 somente pode ser aplicada quando m ≤ 0,2 (KARNOVSKY, 2012). Portanto, a fórmula
é indicada apenas para a análise de arcos rasos, cuja altura máxima não ultrapassa 20 % do
comprimento do vão entre apoios.
3 PROCEDIMENTOS DE ANÁLISE
Foram analisados doze modelos estruturais de arcos biarticulados com forma parabólica, divididos
em três classes conforme as dimensões da seção transversal. Em todos os modelos foram atribuídos
os mesmos valores para o vão entre apoios e o módulo de elasticidade (Tabela 1). O comportamento
do material é considerado elástico linear.
V Simposio de Metodos Numericos Computacionais
409
Tabela 1 – Constantes atribuídas aos arcos.
Vão entre apoios (L) Módulo de elasticidade (E)
m kN/m²
10 20∙106
Diferentes valores foram adotados para altura máxima e seção transversal dos arcos (Tabela 2), cuja
variação foi estabelecida a fim de verificar a precisão dos resultados obtidos. Essas variações
geométricas acarretam na variação da esbeltez da estrutura. Foi escolhida seção transversal
retangular do tipo quadrada para que suas propriedades geométricas fossem iguais nas duas direções.
Tabela 2: Dimensões da seção transversal e altura máxima dos arcos.
Classe Modelo
Dimensões da seção
transversal retangular
Altura máxima do
arco (f)
m m
I
1 0,1 × 0,1 0,5
2 0,1 × 0,1 1,0
3 0,1 × 0,1 1,5
4 0,1 × 0,1 2,0
II
5 0,2 × 0,2 0,5
6 0,2 × 0,2 1,0
7 0,2 × 0,2 1,5
8 0,2 × 0,2 2,0
III
9 0,5 × 0,5 0,5
10 0,5 × 0,5 1,0
11 0,5 × 0,5 1,5
12 0,5 × 0,5 2,0
3.1 Análise teórica
Na análise teórica foi aplicada a Equação 1 para determinação da força crítica de flambagem, após o
cálculo do momento de inércia e o comprimento de cada arco conforme as dimensões da seção
transversal e altura máxima (Tabela 2).
3.2 Análise numérica
Na simulação numérica foi utilizada análise por autovalor para determinação da força crítica de
flambagem a partir do programa computacional ANSYS. Inicialmente foi gerada a geometria dos
arcos no próprio programa. Para constituir os arcos foi escolhido o elemento de barra tridimensional
BEAM188, que possui dois nós e seis graus de liberdade por nó, sendo três relacionados à translação
e três à rotação nas direções axiais (ANSYS, 2012). Por consequência, a análise numérica foi
tridimensional, embora uma análise bidimensional fosse suficiente para a determinação dos valores
críticos. A quantidade de elementos referentes à divisão da malha foi definida como 50. Testes
iniciais relacionados à variação da quantidade de elementos não indicou mudanças significantes nos
resultados, por isso esse fator foi constante. Nas extremidades dos arcos foram restringidas
translações e rotações, exceto a rotação no eixo z, com o intuito de simular os apoios articulados.
Uma força unitária com direção vertical foi aplicada na metade dos arcos, pois o valor da força
crítica na análise por autovalor é obtido em função da força inicialmente admitida. Na Figura 2 é
representado um dos modelos analisados (modelo 8) no programa computacional, que também
representa a orientação adotada para os eixos.
V Simposio de Metodos Numericos Computacionais
410
(a)
(b)
Figura 2: Representação do modelo no programa computacional ANSYS. (a) vista isométrica; (b) vista frontal.
A possível diferença percentual ocasionada na análise numérica com relação à teórica é verificada na
Equação 3, sendo AT a análise teórica e AN a análise numérica.
Diferença %( )AT AN
AT100
(3)
4 RESULTADOS E DISCUSSÃO
Em geral, a configuração geométrica do primeiro modo de flambagem dos arcos foi similar à
representação indicada na Figura 3, que especificamente corresponde ao modelo 8.
V Simposio de Metodos Numericos Computacionais
411
(a)
(b)
Figura 3: Configuração geométrica do primeiro modo de flambagem. (a) vista isométrica; (b) vista frontal.
Os valores referentes às forças críticas de flambagem são apresentados na Tabela 3, procedentes das
análises teóricas e numéricas. Também é indicada a diferença percentual entre a análise teórica e a
numérica.
Em geral, nota-se que a variação da força crítica obtida na análise numérica em relação à análise
teórica foi maior para valores maiores na relação entre altura máxima e vão. A alteração das
dimensões da seção transversal também não indicou variações consideráveis no padrão apresentado,
com exceção do modelo 9, em que houve variação muito maior (10,01 %). Nos outros modelos a
diferença foi consideravelmente próxima para uma mesma relação entre altura e vão.
A variação dos resultados pode estar relacionada ao algoritmo do programa computacional, referente
à análise numérica por autovalor. Provavelmente maior precisão poderia ser obtida na solução
numérica se fosse atribuído um elemento mais adequado para constituir a estrutura, ou se fosse
realizado outro tipo de análise numérica. Além disso, a análise numérica foi procedida conforme
modelos tridimensionais, enquanto a análise teórica foi feita por modelos bidimensionais.
Os valores obtidos nas duas análises para a força crítica de flambagem também são indicados
graficamente na Figura 4, agrupados por classe.
V Simposio de Metodos Numericos Computacionais
412
Tabela 3 – Força crítica de flambagem e diferença percentual.
Classe Modelo f / L
Força crítica de flambagem (Pcr) Diferença
Análise teórica Análise numérica
kN kN %
I
1 0,05 15,97 16,08 0,69
2 0,10 29,67 27,75 6,47
3 0,15 39,66 33,93 14,45
4 0,20 45,69 35,71 21,84
II
5 0,05 255,53 260,58 1,98
6 0,10 474,64 443,78 6,50
7 0,15 634,64 541,65 14,65
8 0,20 730,96 570,02 22,02
III
9 0,05 9981,00 10980,00 10,01
10 0,10 18540,73 17269,00 6,86
11 0,15 24790,55 20842,00 15,93
12 0,20 28553,17 21917,00 23,24
(a) (b)
(c)
Figura 4: Variação da força crítica de flambagem em cada classe dos modelos analisados.
(a) classe I; (b) classe II; (c) classe III.
V Simposio de Metodos Numericos Computacionais
413
5 CONCLUSÕES
Foram realizadas análises teóricas e numéricas para a determinação da força crítica de flambagem de
arcos parabólicos e biarticulados submetidos à força concentrada verticalmente no meio do vão, que
apresentaram diferentes dimensões de seção transversal e altura máxima. Ao todo foram analisados
doze modelos estruturais.
Na análise numérica por autovalor houve maior variação nos resultados para valores maiores da
relação entre a altura máxima do arco e o vão entre apoios. Apesar de haver imprecisão de
aproximadamente 22 % no maior limite dessa relação (0,2), a análise por autovalor ainda pode ser
aplicada visto que o resultado final não ultrapassou o valor crítico teórico. Um dos fatores que pode
ter influenciado os resultados refere-se aos diferentes procedimentos de análise, pois a análise
numérica foi elaborada a partir de modelos tridimensionais enquanto a análise teórica foi obtida por
modelos bidimensionais. Outro aspecto verificado foi a variação das dimensões da seção transversal,
que não provocou alterações significativas no padrão dos resultados entre as análises teórica e
numérica de arcos com a mesma altura máxima.
REFERÊNCIAS
ANSYS. Mechanical Applications – Mechanical User Guide. Release 14.5, ANSYS, Inc., 2012.
KARNOVSKY, I. Theory of arched structures - Strength, Stability, Vibration. Springer, 2012.
ZIEMIAN, R. Guide to stability design criteria for metal structures. 6. ed. John Wiley & Sons, 2010.
V Simposio de Metodos Numericos Computacionais
414
V Simposio de Metodos Numericos Computacionais
ANÁLISE ESPAÇO-TEMPORAL DOS CASOS NOVOS DEHANSENÍASE
Resumo: A hanseníase, também conhecida como lepra, é uma doença incapacitante que data desde antes deCristo e que ainda está presente nos dias atuais. Com o descobrimento da sua cura, o número de casos novosvêm diminuindo, porém ainda há registros expressivos de novos casos no mundo. Há alguns anos, a OrganizaçãoMundial de Saúde estabeleceu uma meta aos países para reduzir o número de casos novos de hanseníse em 1caso novo a cada 10.000 habitantes e, diante dessa meta, a Secretaria de Saúde do Estado do Paraná conseguiualcançá-la a nível de estado, porém, não ainda a nível de municípios. Esta pesquisa tem como objetivo analisaros casos novos de hanseníase no estado do Paraná, no período entre 1980 e 2013, considerando um modeloespaço-temporal que considera a subdivisão dos municípios ao longo dos anos.
Palavras-Chave: Análise espaço-temporal, modelos hierárquicos bayesianos, casos novos dehanseníase, Estado do Paraná.
1 INTRODUÇÃO
Há fenômenos que quando observados em uma determinada localização podem com o passar dotempo apresentar, ou não, um comportamento conjunto no tempo e no espaço. Geralmente, fenômenosepidemiológicos apresentam este tipo de comportamento.
Assim, a análise espaço-temporal vem a ser útil para identificar áreas com maior risco para a trans-missão de uma doença ao longo do tempo, além de subsidiar o entendimento e a avaliação do impacto deprocessos e estruturas sociais na disseminação da mesma (AMARAL, 2008). E isso é um dos objetivosda Secretaria de Saúde do Estado do Paraná (SESA) ao trabalhar com a hanseníase.
A hanseníase, também denominada por lepra, é uma doença com registros na literatura que datamantes de Cristo, com casos na China, Egito e Índia. Ao longo da história, as pessoas atingidas erammuitas vezes condenadas ao ostracismo por suas comunidades e famílias. As principais formas de man-ifestação dos sintomas da doença ocorrem por meio de sinais e sintomas dermatoneurológicos, como:lesões na pele e nos nervos periféricos, principalmente nos olhos, mãos e pés, e perda de sensação sobrea maior parte da sua pele (NOTO AND SCHREUDER AND NAAFS, 2011; SEHGAL, 2006; SBD,2015)
Além das condições individuais, outros fatores relacionados aos níveis de endemia e às condiçõessocioeconômicas desfavoráveis, assim como condições precárias de vida e de saúde e o elevado númerode pessoas convivendo em um mesmo ambiente/território, influem no risco de adoecer (SAMPAIO,2012; BRASIL, 2006).
O Sistema Nacional de Vigilância Epidemiológica (SNVE) foi instituído no país no final da década de70, e este vem a monitorar várias doenças de notificação compulsória no país, sendo a hanseníase uma
Vanessa Ferreira Sehaber, Paulo Justiniano Ribeiro Junior
415
delas (BRASIL, 1975). Por se tratar de uma doença infecciosa, a hanseníase possui evolução crônica e,além disso, desempenha grande importância para a saúde pública devido à sua magnitude e ao seu poderincapacitante, atingindo principalmente a faixa etária economicamente ativa.
A vigilância epidemiológica da hanseníase no estado do Paraná é realizada pela SESA através deum conjunto de atividades que fornecem informações sobre a doença e sobre o seu comportamento epi-demiológico, com a finalidade de recomendar, executar e avaliar as atividades de controle da hanseníase.Todas essas ações tem por objetivo reduzir a prevalência da hanseníase a menos de 1 caso em 10.000habitantes, quebrando assim a cadeia epidemiológica da doença e a produção de novos casos (OMS,2014; BRASIL, 2002).
Desde a instalação do SNVE, o Estado do Paraná passou por um processo intenso de desmembra-mentos de municípios. Diante do interesse de investigar estatisticamente a epidemiologia da hanseníaseno Paraná, este trabalho tem como objetivo principal analisar os casos novos de hanseníase no estado doParaná, no período entre 1980 e 2013, considerando um modelo espaço-temporal que considera a sub-divisão dos municípios ao longo dos anos. Essa é uma proposta inovadora, tanto a nível epidemiológicocomo estatístico.
2 MATERIAIS E MÉTODOS
2.1 MateriaisEste trabalho está em desenvolvimento e está utilizando o conjunto de dados disponibilizado pela
SESA, o qual disponibiliza informações sobre os casos novos de hanseníase, por município, no períodocompreendido entre 1980 e 2013.
A busca por covariáveis medidas ano-a-ano por município e que sejam relacionadas à saneamento,educação, renda, habitação, etnia está em andamento. Essas variáveis estão sendo baseadas em estudosrelizados por Sampaio (2012) e Sehaber and Silva (2015).
Ainda, será necessário o uso das populações anuais de cada município na modelagem espaço-temporal, contudo sabe-se que estas são levantadas quando os censos são realizados. No período com-preendido entre os censos, a SESA utiliza as estimativas populacionais disponibilizadas por dois órgãos:o Departamento de Informática do Sistema Único de Saúde (DATASUS) e o Instituto Paranaense deDesenvolvimento Econômico e Social (IPARDES). Contudo, mediante análises descritivas, verificou-sealgumas flutuações e tendências duvidosas, como se pode ver nos gráficos da Figura 1. Para contornaresse problema utilizou-se interpolação linear para obter estimativas populacionais menos equivocadas.
O tratamento dos dados e a modelagem espaço-temporal está sendo realizada com auxílio computa-cional do software R versão 3.2.2 (R CORE TEAM, 2015).
2.2 MétodosModelos espaço-temporais, também conhecidos como modelos dinâmicos na literatura bayesiana,
são uma vasta classe de modelos paramétricos com parâmetros variando no tempo, onde ambos, a vari-ação dos parâmetros e a disposição da informação dos dados são descritos de uma forma probabilística(LAWSON, 2001; GELFAND et al., 2010, BLANGIARDO AND CAMELETTI, 2015).
Assim, seja Y t um vetor de observações no espaço, de ordem n × 1, sobre os tempos t = 1, · · · , T .Define-se as seguintes quantidades no tempo t.
Equação de observações p(yt|µt) e g(µt) = ηt =X tθtEquação de evolução θt = Gtθt−1 + ωt com ωt ∼
[0,W−1
t
] (1)
onde
• θt, um vetor de estados n-dimensional no tempo t;
• X t, uma matriz de covariáveis observadas no tempo t;
• Gt, uma matriz de evolução conhecida de ordem n× n;
V Simposio de Metodos Numericos Computacionais
416
• ωt, um vetor n-dimensional de evolução dos erros com média nula e matriz de precisão conhecidaW−1
t , denotada por ωt ∼[0,W−1
t
];
• ηt =X tθt, uma função linear dos parâmetros de estado;
• g(µt), uma função monótica e contínua conhecida que leva µt à reta real.
Neste modelo, a equação de observações está relacionada com o comportamento probabilístico davariável resposta para um dado estado do sistema no instante t, e a equação de evolução tem a ver coma evolução paramétrica entre cada instante de tempo (WEST AND HARRISON, 1997).
A variável resposta deste trabalho tem natureza discreta, pois está sendo considerado o número decasos novos de hanseníase em cada área/município do estado. Destre os modelos discretos, vem-se uti-lizando as distribuições de probabilidade Poisson e binomial negativa (SEHABER AND SILVA, 2015).
A estimação dos parâmetros e a inferência desses modelos vêm sendo bastante discutida e estudadana literatura, há uma série de exemplos utilizando a abordagem INLA para realizar aproximações com-pletas de inferências bayesianas em modelos dinâmicos lineares e generalizados (RUIZ-CÁRDENASAND KRAINSKI AND RUE, 2012). Essa estrutura aproxima diretamente as marginais das posteriorisde interesse desconsiderando a suposição de atualização/estimação recursiva dos estimadores e hiper-parâmetros no caso de dados fixados e, além disso, permite fazer análises bayesianas completas dosmodelos de espaço de estados facilmente (RUE AND MARTINO AND CHOPIN, 2009).
3 RESULTADOS
De forma preliminar, os resultados que serão apresentados são análises descritivas referente as esti-mativas populacionais, aos casos novos de hanseníse no Estado do Paraná e aos desmembramentos dosmunicípios ao longo dos anos. Essas análises descritiva são fundamentais, pois irão auxiliar a próximaetapa desta pesquisa, que é a utilização de modelos espaço-temporais para explicar a ocorrência de casosnovos de hanseníase no Estado do Paraná.
Figura 1: Populações estimadas para os municípios de Campo Mourão e Farol: DATASUS, IPARDES,interpolações lineares e censos
Os gráficos da Figura 1 exemplificam as flutuações e tendências duvidosas das estimativas popula-cionais do DATASUS (azul) e do IPARDES (verdes) para os municípios de Campo Mourão e de Farol.Os pontos em preto representam o número de habitantes levandos pelos censos e as estimativas popu-lacionais em vermelho representam as estimativas obtidas por interpolações lineares. Ainda, por meio
V Simposio de Metodos Numericos Computacionais
417
desses gráficos, pode-se observar a subdivisão de Campo Mourão, a qual originou o município de Farolno ano de 1993.
Figura 2: Representação dos casos novos de hanseníase, a cada 3 anos
Na Figura 2, estão sendo representados os gráficos dos coeficientes de detecção (taxas brutas, razãodo número de casos novos pela população do município, vezes 100.000 habitantes), com intervalos declasses utilizados pelo SESA (BRASIL, 2010). Foram apresentados mapas a partir de 1997, pois osdados que acompanham os mapas entre 1997 e 1980, período com subdivisão dos municípios, aindaestão sendo manipulados.
Figura 3: Representação dos casos nulos de hanseníase, a cada 3 anos
V Simposio de Metodos Numericos Computacionais
418
Observa-se uma gradual diminuição da incidência de hanseníase ao longo dos anos, a qual é verificadapela diminuição da densidade da cor vermelha, especialmente na região central dos mapas.
De forma complementar, observa-se pelos gráficos da Figura 3 um aumento na densidade de casosnulos de hanseníase no estado, o que vem a ser um resultado muito interessante, pois significa que aincidência da hanseníase está diminuindo ao longo dos anos.
Os gráficos da Figura 4 são uma prévia dos contornos dos limites dos municípios ao longo dos anosde emancipação, pois ainda há contorno que precisam ser construídos e que estão dependendo de outrasfontes para tornarem-se fidedignos.
Figura 4: Mapas dos limites dos municípios paranaenses por ano de desmembramento
Observa-se por meio desses gráficos que os anos com maior densidade de emancipações são os anosde 83, 93 e 97. Verificou-se que algumas formas de subdivisão dos municípios, como um novo municípiose originar apenas de um município assim como um novo município se originar da mescla de dois oumais municípios.
4 CONCLUSÕES
Este trabalho está sendo desenvolvido em parceria com a qual apresentou interesse de conhecer umpouco mais sobre a epidemiologia da doença frente por meio de técnicas estatísticas, não utilizadas pelosistema padrão brasileiro, a fim de melhorar a sua atuação para diminuir os casos novos de hanseníaseno estado e atender a meta da OMS em todos os municípios.
Embora os dados ainda esteja em processo de manipulação e de busca de covariáveis, a literatura demodelos bayesianos hierárquicos está sendo revisada de forma a melhor aplicar a modelagem espaço-temporal. Essa análise será importante pois auxiliará a SESA a entender a epidemiologia da doença alémde proporcionar predições mais confiáveis de casos novos de hanseníase.
V Simposio de Metodos Numericos Computacionais
419
Essa revisão de literatura é necessária para implementação computacional da estrutura de subdivisãode municípios na modelagem espaço-temporal, a qual poderá ser útil análises de outras variáveis quecomunguem das características trabalhadas nessa pesquisa.
REFERÊNCIAS
AMARAL E.P. and LANA F.C.F. Análise espacial da hanseníase na microrregião de almenara, mg,brasil. Revista Brasileira de Enfermagem, 61:701–707, 2008.
BLANGIARDO M. and CAMELETTI M. Spatial and spatio-temporal bayesian models with R-INLA.John Wiley & Sons, United Kingdom, 2015.
BRASIL. Lei 6.259 de 30/10/1975. 1975.BRASIL. Ministério da saúde. secretaria de políticas de saúde. departamento de atenção básica. guia
para o controle da hanseníase. 2002.BRASIL. Ministério da Saúde. Secretaria de Vigilância em Saúde. Fundação Oswaldo Cruz. Abordagens
espaciais na saúde pública. Série B. Textos Básicos de Saúde. Série Capacitação e Atualização emGeoprocessamento em Saúde. 2006.
BRASIL. Ministério da saúde. Roteiro para uso do sistema de informação de agravos de notificação -sinan NET HANSENÍASE. 2010.
GELGAND A.E., DIGGLE P.J., use M. FUENTES, and GUTTORP P. Handbook of spatial Statistics.Chapman & Hall/CRC, Londres, 2010.
LAWSON A.B. Statistical methods in spatial epidemiology. Wiley, Chichester, 2001.NOTO S., SSHREUDER P.A.M., and NAAFS B. The diagnosis of leprosy. 2011.OMS. Organização mundial de saúde. Global leprosy situation. Weekly Epidemiological Record - WER,
87:317–328, 2012.R CORE TEAM. R: A Language and Environment for Statistical Computing. R Foundation for Statistical
Computing, Vienna, 2015.RUE H., MARTINO S., and CHOPIN N. Approximate bayesian inference for latent gaussian models
using integrated nested Laplace approximations (with discussion). Journal of the Royal StatisticalSociety, 71(2):319–392, 2009.
RUIZ-CÁRDENAS R., KRAINSKI E.T., and RUE H. Direct fitting of dynamic models using integratednested Laplace approximations - INLA. Computational Statistics and Data Analysis, 56:1808–1828,2012.
SAMPAIO P.B. Análise espacial dos casos novos de hanseníase e a correlação com os indicadoressocioeconômicos no município de vitória - es, no período de 2005 a 2009. 2012.
SBD. Sociedade brasieleira de dermatologia. hanseníase. 2015.SEHABER V.F. and SILVA B.H.C. Análises espacial e espaço-temporal dos casos novos de hanseníase
no estado do Paraná - Monografia do Curso de Bacharelado em Estatística, Universidade Federal doParaná. 2015.
SEHGAL A. Deadly diseases and epidemics. Chelsea House Publishers„ Philadelphia, 2006.WEST M. and HARRISON J. Bayesian forecasting and dynamic models. Springer-Verlag, New York,
2 edition, 1997.
V Simposio de Metodos Numericos Computacionais
420
V Simposio de Metodos Numericos Computacionais
SOLUÇÃO DE EQUAÇÕES DIFERENCIAIS POR ALGORITMOS DE
DIFERENCIAÇÃO AUTOMÁTICA E PROGRAMAÇÃO GENÉTICA
Resumo: Este artigo tem por objetivo investigar o potencial de algoritmos computacionais,
construídos através da combinação dos métodos de diferenciação automática e programação
genética, na obtenção de soluções analíticas para problemas de equações diferenciais ordinárias e
parciais. Com esse intuito, e utilizando o ambiente de programação Matlab, diversos algoritmos
foram elaborados e soluções de diferentes tipos de equações diferenciais foram determinadas. Os
resultados do estudo são promissores, com soluções exatas obtidas para a maioria dos problemas
abordados e que atestam, empiricamente, a eficácia e robustez da metodologia desenvolvida.
Palavras-Chave: Equações Diferenciais, Diferenciação Automática, Programação Genética.
1 INTRODUÇÃO
É de amplo conhecimento que um número expressivo de projetos de pesquisa realizados por diversas
áreas do conhecimento científico utiliza-se de modelos matemáticos que são formulados,
parcialmente ou integralmente, por equações diferenciais. No entanto, dada à complexidade dos
modelos propostos, os seus formuladores quase sempre se deparam com problemas de difícil solução
e com solução analítica desconhecida. Nesta situação, o procedimento usual é a obtenção de uma
solução através de métodos numéricos. Contudo, grande parte destes projetos objetivam resultados
maiores e usam as equações diferenciais para tentar descrever o comportamento dinâmico de
variáveis que são objetos centrais destas pesquisas. Nestes casos, certamente, a solução numérica não
é suficientemente completa para dar aos pesquisadores as respostas requeridas para as suas
avaliações. Faz-se necessário o conhecimento da solução na sua forma literal, pois esta permite a
realização de importantes e diferentes tipos de análises, tais como: estáticas comparativas;
conhecimento da magnitude de efeitos parciais e elasticidades; estudos de estabilidade e
estacionariedade; etc.
Com a motivação de tentar contribuir com novos métodos que ajudem a dirimir os problemas acima
citados, o objetivo principal deste estudo é investigar o potencial de algoritmos computacionais,
construídos a partir da combinação das técnicas de diferenciação automática e programação genética
(DAPG); na obtenção de soluções analíticas para complexos problemas de equações diferenciais
ordinárias (EDOs) e parciais (EDPs). Com essa finalidade, e utilizando o ambiente de programação
Matlab, diversos algoritmos foram elaborados e soluções analíticas para diferentes problemas de
EDOs e EDPs foram determinadas. Os resultados do trabalho são promissores, com soluções exatas
obtidas para a grande maioria dos problemas abordados e que, empiricamente, atestam a consistência
e robustez da metodologia desenvolvida.
Para comparar os estudos realizados aos de mesmo gênero existentes na literatura, uma revisão
Waldir Jesus de Araujo Lobao, Marco AurelioCavalcanti Pacheco, Douglas Mota Dias
421
bibliográfica foi realizada e um número significativo de trabalhos foi examinado. Verificou-se que,
embora exista uma vasta literatura sobre diferenciação automática (DA) e programação genética
(PG), a grande maioria dos trabalhos aborda e aplica estas técnicas de forma separada. Além disso,
dentre os que desenvolvem DA e PG, conjuntamente, são raros aqueles que apresentam estudos
sobre a solução de equações diferenciais. Destes, destacam-se os artigos de (CAO, et al. 2000; IBA
AND SAKAMOTO, 2002; IMAE, J. et al. 2004; TSOULOS AND LAGARIS, 2006). Estes
trabalhos serviram de base comparativa na avaliação do desempenho computacional dos algoritmos
desenvolvidos e apresentados neste artigo. As comparações foram de fundamental importância, pois
possibilitaram perseguir melhores resultados e desenvolver algoritmos mais eficientes e eficazes.
Além desta breve introdução, o trabalho apresenta-se organizado em outras três seções. A segunda
descreve os aspectos metodológicos do algoritmo de DAPG. A terceira seção apresenta os resultados
de duas aplicações de soluções de equações diferenciais por DAPG. Na quinta seção são
apresentadas as conclusões do trabalho.
2 ASPECTOS METODOLÓGICOS DO ALGORITMO DE DAPG
Nesta seção são apresentados os procedimentos metodológicos adotados na elaboração do algoritmo
DAPG, desenvolvido para solucionar problemas de equações diferenciais. Em virtude do espaço
exíguo, os fundamentos teóricos sobre diferenciação automática e programação genética não serão
aqui apresentados, a seção limita-se a descrever os aspectos metodológicos relacionados à estrutura e
as etapas de funcionamento do algoritmo. No entanto, para os leitores menos familiarizados com
estas técnicas, sugere-se a leitura dos seguintes textos: (RALL, 1981; KOZA, 1992; FINK, 2007;
SILVA, 2009).
2.1 A Estrutura e Etapas de Funcionamento do Algoritmo de DAPG
O algoritmo foi desenvolvido em ambiente de programação Matlab e funciona com dois programas
básicos que se completam e trabalham simultaneamente. O primeiro é responsável pela execução da
programação genética (PG) e o segundo executa a diferenciação automática (DA) e avalia a aptidão
(fitness) de cada indivíduo gerado pelo primeiro. Os programas funcionam concomitantemente ao
longo de muitas repetições, denominadas de gerações, e finalizam as suas tarefas de acordo com um
critério de parada previamente definido. A estrutura de representação da PG é a tradicional em forma
de árvore, sendo escolhida por permitir rápida leitura e direta interpretação dos resultados. A
parametrização da PG é flexível e possibilita a definição do conjunto de parâmetros que deseja
utilizar na execução do programa. Algumas das possibilidades de parametrização são as seguintes: (i)
Tipos e formas de árvores; (ii) Profundidade mínima da árvore inicial; (iii) Profundidade máxima da
árvore (depth); (iv) Controle do número de nós (nodes); (v) Seleção do conjunto de funções e
terminais; (vi) Percentual ou número de indivíduos; (vii) Métodos de seleção para reprodução; (viii)
Taxas de crossover e mutação; (ix) Tamanho da população; (x) Diferentes critérios de parada.
Um componente essencial para o funcionamento do programa de PG são os conjuntos de funções e
terminais, pois estes são necessários para a criação e reprodução da população de indivíduos e,
consequentemente, implicam diretamente na geração da solução ótima para o problema. Juntos,
funções e terminais definem o tamanho da árvore de representação. O conjunto de funções é
composto de operadores e funções matemáticas elementares. O conjunto de terminais é constituído
de constantes (números reais, complexos, número etc.) e das variáveis que compõem a equação
diferencial.
A primeira etapa que o programa de PG realiza é a criação da população inicial. Funções e terminais
são selecionados aleatoriamente e combinados, dando origem aos indivíduos que compõem a
população. No caso específico deste trabalho, cada indivíduo criado é uma função matemática e,
portanto, uma possível solução da equação diferencial de interesse. Para a avaliação dos indivíduos
recém-criados é necessário definir de uma medida de erro (fitness) que avalie a qualidade e aptidão
de cada indivíduo. Em virtude de o objetivo ser a solução de equações diferenciais, surge, nesse
V Simposio de Metodos Numericos Computacionais
422
ponto, a necessidade de um programa de diferenciação automática para, via cálculo diferencial,
verificar a qualidade da solução proposta. Para ilustrar como esta tarefa é realizada pelo algoritmo,
um exemplo simples é apresentado a seguir.
Suponha que se queira obter a solução do seguinte problema de EDO:
(1)
Suponha, também, que a função abaixo seja um indivíduo ou uma solução proposta pela PG.
f(x) = 2 + exp (-2x) (2)
Então, logo após a função ser gerada pela PG a sua qualidade é avaliada. Ou seja, o segundo
programa executa diferenciação automática e calcula a derivada de f(x) em cada ponto do domínio
definido pelo algoritmo (geralmente uma grade com 50 ou mais pontos de x). Em seguida, gera uma
medida de fitness que compara os resultados obtidos com o verdadeiro modelo de EDO. Então, de
acordo com o exemplo, segue que:
f ´(x) = -2 exp (-2x) (3)
Aplicando este resultado na EDO, tem-se:
f ´(x) + 2 f(x) - exp (-2x) = -2 exp (-2x) + 2[2 + exp (-2x)] - exp (-2x) = 4- exp (-2x) 0. (4)
Observe que f(x) apresenta erro diferente de zero e, necessariamente, não é uma solução exata da
EDO de interesse, embora satisfaça a condição inicial, pois
f(0) = 2 + exp (-2 0) = 2 + 1 = 3. (5)
Contudo, o algoritmo não trabalha com a diferenciação simbólica da solução proposta, como feito
acima, e sim com a derivada avaliada em cada ponto do domínio. Diante disso, a medida de fitness
escolhida para avaliar a qualidade das soluções propostas pela PG é o, comumente utilizado, erro
absoluto médio, acrescido de uma penalidade para o erro da condição inicial ou de outras restrições
exigidas pelo problema. Isto é,
fitness = erro absoluto médio + erro de restrições. (6)
(7)
Após a avaliação dos indivíduos, feitas de acordo com os seus fitness, parte daqueles que receberam
as melhores avaliações são selecionados para etapa de reprodução e geração da próxima população.
Os demais são automaticamente descartados e excluídos do processo. Esta sequência de criação,
avaliação, seleção e reprodução se repete ao longo de diversas gerações até que a melhor solução
seja encontrada. Portanto, o que o algoritmo realiza ao longo de diversas gerações é tentar criar por
PG o indivíduo ou a solução f(x) que minimize o fitness. Deve-se ressaltar que, a busca pela solução
ótima ocorre de forma evolutiva e a velocidade de convergência depende de algumas importantes
etapas, métodos e operadores genéticos que não serão apresentados.
Outro aspecto importante da metodologia são os critérios que definem e elegem a solução analítica
de uma equação diferencial pelo algoritmo de DAPG. De acordo com o critério de parada utilizado, o
algoritmo funciona até que a última geração seja avaliada e, ao término das gerações, seleciona a
melhor solução encontrada, ou seja, aquela que minimiza a medida de erro (fitness). A partir deste
ponto, a melhor solução encontrada é validada como uma solução final de PGDA se satisfaz os
seguintes requisitos:
(i) se apresenta baixíssima medida de fitness, com valores abaixo de 0,00001; (ii) se satisfaz as
condições inicias e condições de contorno do problema proposto; (iii) se quando diferenciada pelas
V Simposio de Metodos Numericos Computacionais
423
regras do cálculo usual, se iguala à equação diferencial proposta em todo o domínio do problema.
Caso uma solução validada apresente fitness nulo e satisfaça os demais requisitos com perfeita
exatidão, a mesma é considerada como uma solução analítica exata do problema proposto. Pois, esta
solução é idêntica à obtida quando se aplica o cálculo diferencial usual, tanto para EDOs quanto para
EDPs. Caso contrário, a solução validada é considerada como uma solução analítica aproximada.
3 SOLUÇÕES DE EQUAÇÕES DEFERENCIAIS POR DAPG
Nesta seção são apresentados os resultados de duas aplicações, uma para EDO e outra para EDP, que
ajudam a ilustrar a solução de equações diferenciais por DAPG. Contudo, deve-se informar que mais
de 30 problemas foram tratados com o objetivo de testar a eficiência e eficácia do algoritmo, no
sentido da obtenção de soluções analíticas exatas. No entanto, não será possível apresentar os demais
resultados dado o limite de páginas do artigo.
De uma forma geral, para as diversas aplicações realizadas, o algoritmo foi parametrizado de acordo
com os parâmetros indicados na Tabela 1.
Tabela 1: Parametrização do Algoritmo de DAPG.
Parâmetros Básicos do DAPG
Gerações 20 a 100 Inicialização Growinit
População (indivíduos) 30 a 600 Seleção e Reprodução Lexictour
Funções Elementares 8 a 15 Elitismo totalelitism
Terminais 5 a 15 Critério de Parada Nº de Gerações
Variáveis 2 a 6 Taxa de Crossover Variável
Modo de DA (fixo) forward Taxa de Mutação Variável
O número de gerações de 20 a 100 e o tamanho da população de 30 a 600, dependendo do número de
variáveis, da ordem de diferenciação, e do tamanho e complexidade da equação diferencial. O
número de funções e operações matemáticas elementares variou de 8 a 15, e o número de terminais,
variáveis mais constantes, variou de 5 a 15. A inicialização da população, a seleção para reprodução
e a técnica de elitismo, para a maioria das aplicações, foram utilizados, respectivamente, os métodos
growinit, lexictour, e totalelitism. As taxas de crossover e mutação são variáveis, iniciando com 50%
para cada operador. O critério de parada utilizado foi o número de gerações. Foram utilizados
conjuntos ou grades de 50 ou mais pontos do domínio da função para a realização dos exercícios.
Exemplo 1:
A primeira aplicação aborda a solução da seguinte EDO de 2ª ordem:
EDO:
Solução exata obtida:
Os resultados são apresentados graficamente na Figura 1: Representação em Árvore da Solução da
EDO. e na Figura 2: Gráfico da Função Solução da EDO. Na árvore da Figura 1: a variável
independente (x) é representada por ( x = x1).
V Simposio de Metodos Numericos Computacionais
424
#Generations: 40 #Individuals: 400
UsedResources: 3779
Best so far: 6031 Fitness: 0.000000
Depth: 6
Nodes: 16
Figura 1: Representação em Árvore da Solução da EDO.
Figura 2: Gráfico da Função Solução da EDO.
A solução da EDO foi obtida no indivíduo 6031 (bestsofar), para uma população de 400 indivíduos e
40 gerações. A solução é exata, conforme mostra fitness nulo na Figura 1. A árvore de representação
obtida é a mais parcimoniosa possível, com profundidade 6 (depth) e 16 nós (nodes).
Exemplo 2:
A segunda aplicação aborda a solução da seguinte EDP de 2ª ordem:
EDP:
Solução exata obtida:
Os resultados são apresentados graficamente na Figura 3: Representação em Árvore da Solução da
EDP. e na Figura 4: Gráfico da Função Solução da EDP. Na árvore da Figura 3: as variáveis
independentes x e t são representadas, respectivamente, pelas variáveis ( x = x1) e ( t = x2).
V Simposio de Metodos Numericos Computacionais
425
#Generations: 50
#Individuals: 50
UsedResources: 425
Best so far: 1336
Fitness: 0.000000
Depth: 5
Nodes: 9
Figura 3: Representação em Árvore da Solução da EDP.
Figura 4: Gráfico da Função Solução da EDP.
A solução da EDP foi obtida no indivíduo 1336 (bestsofar), para uma população de 50 indivíduos e
50 gerações. A solução analítica encontrada é exata, conforme mostra fitness nulo na Figura 1. A
árvore de representação obtida é a mais parcimoniosa possível, com profundidade 5 (depth) e 9 nós
(nodes).
4 CONCLUSÕES
O estudo foi realizado com o objetivo de investigar o potencial de algoritmos computacionais,
construídos a partir da combinação das técnicas de diferenciação automática e programação genética,
na obtenção de soluções analíticas para problemas de equações diferenciais ordinárias e parciais.
Acreditamos que o objetivo proposto foi alcançado, pois os resultados das aplicações são muito
promissores, com soluções exatas obtidas para a grande maioria dos problemas abordados e que,
empiricamente, comprovam a consistência e robustez da metodologia desenvolvida. Lamentamos,
apenas, não ter podido apresentar os significativos resultados das demais aplicações, no entanto,
colocamos à disposição de todos os interessados. É importante informar que todos os problemas de
equações diferenciais desenvolvidos neste estudo, também foram testados na sub-rotina DSolver do
programa Mathematica e nas ODE-PDE-Solver Functions do programa Matlab. Os resultados dos
testes mostraram que mais de 50% das equações, aproximadamente 16 equações, não foram
solucionadas por estes programas, embora tenham sido solucionadas de forma exata e analítica pelo
algoritmo de DAPG. Estes resultados são relevantes, pois confirmam a potencialidade do algoritmo.
V Simposio de Metodos Numericos Computacionais
426
Para finalizar, gostaríamos que o estudo realizado fosse entendido como uma metodologia
alternativa, e elaborada com a finalidade de auxiliar pesquisadores na difícil tarefa de obter soluções
analíticas para complexos problemas de equações diferenciais.
REFERÊNCIAS
BURGESS, G., Finding approximate analytic solutions to differential equations using genetic
programming. Surveillance Systems Division, Electronics and Surveillance Research Laboratory,
Department of Defense, Australia, 1999.
CAO, H. et al., Evolutionary modeling of systems of ordinary differential equations with genetic
programming, Genetic Programming and Evolvable Machines, vol. 1, pp. 309–337, 2000.
FINK, M., Automatic Differentiation for MATLAB, 2007. MATLAB Central,
www.mathworks.com/matlabcentral. (Martin Fink, Director of Hewlett-Packard - HP Labs research.)
IBA, H. AND SAKAMOTO, E., Inference of differential equation models by genetic programming.
Proceedings of the Genetic and Evolutionary Computation Conference (GECCO 2002), 2002, pp.
788–795.
IMAE, J. et al., Design of nonlinear control systems by means of differential genetic programming.
43rd IEEE, Conference on Decision and Control. Atlantis, Paradise Island, Bahamas. December 14-
17, 2004.
KOZA, R. J., Genetic Programming: On the Programming of Computers by Means of Natural
Selection (Complex Adaptive Systems). 1992, Massachusetts Institute Technology. ISBN 0-262-
11170-5.
LUKE, S. AND PANAIT, L., Lexicographic parsimony pressure. In Langdon, W.B. et al., editors,
Proceedings of GECCO-2002. Morgan Kaufmann (2002) 829–836.
RALL, L. B., Automatic Differentiation: Techniques and Applications. Lecture Notes in Computer
Science 120. Springer. ISBN 3-540-10861-0. (1981).
SILVA, S. A, Genetic Programming Toolbox for MATLAB, 2009. Universidade Nova de Lisboa,
PO Box 127, 2780-156 Oeiras, Portugal. [email protected].
TSOULOS, I. G. AND LAGARIS, I, E., Solving differential equations with genetic programming.
Genetic Program Evolvable Mach (2006) 7: 33-54.
V Simposio de Metodos Numericos Computacionais
427
V Simposio de Metodos Numericos Computacionais
ANÁLISE NUMÉRICA DE UM MODELO DE CORDASELÁSTICAS COM FRONTEIRA MÓVEL
Resumo: Neste trabalho vamos estudar um modelo matemático para pequenas vibrações de cordas elásticas comfronteira móvel. O objetivo é obter a estimativa de erro de soluções em espaços de Sobolev para o problema semi-discreto e problema discreto. A análise é baseada no método de elemento finito de Galerkin.
Palavras-Chave: Análise Numérica, Estimativa de Erro, Fronteira Móvel, Método de Elementos Fini-tos, Equação de Kirchhoff-Carrier, Projeção de Ritz.
1 INTRODUÇÃO
A equação de Kirchhoff modela as vibrações de uma corda elástica ver KIRCHHOFF (1876), e édada por
∂2u
∂t2− 1
m
[τ0 +
k
2L0
∫ β0
α0
(∂u
∂x
)2
dx
]∂2u
∂x2= 0 (1)
onde u = u(x, t) é o deslocamento transversal da corda, m é a massa por unidade de longitude, τ0 éa tensão, L0 = β0 − α0 é a longitude da corda nos extremos e k é o módulo de Young. A extensãodo modelo de Kirchhoff com fronteira móvel foi deduzida por (MEDEIROS, LIMACO e MENEZES(2002)), onde a existência e unicidade de soluções locais são analisadas.
Neste trabalho estudaremos a estimativa de erro para o problema semi-discreto e problema discretodo modelo
∂2u
∂t2−[τ0
m+k
m
γ(t)− γ0
γ0
+k
2mγ(t)
∫ β(t)
α(t)
(∂u
∂x
)2
dx
]∂2u
∂x2= 0 (2)
para pequenas vibrações de cordas elásticas com a fronteira variando com o tempo nas extremidades dacorda, onde γ(t) = β(t)− α(t), α(t) < β(t) e γ0 = β0 − α0 com α(0) = α0, β(0) = β0.
Denotemos por Q o domínio não cilíndrico, do plano R2, definido como segue Q = (x, t) ∈R2;α(t) < x < β(t), t > 0 e sua fronteira lateral Σ é definida por Σ =
⋃
0<t<T
(α(t), β(t)) × t.
Definimos a(t) = τ0m
+ kmγ(t)−γ0γ0
e b(t) = k2mγ(t)
. Com esta notação temos o operador diferencial definido
para funções u(x, t) com (x, t) ∈ Q por:
Lu(x, t) =∂2u
∂t2−[a(t) + b(t)
∫ β(t)
α(t)
(∂u
∂x
)2
dx
]∂2u
∂x2. (3)
Quando α(t) = α0, β(t) = β0, ∀t ≥ 0, o operador Lu se reduz ao modelo de Kirchhoff-Carrier.
Wilman Rodas Huarcaya, Mauro AntonioRincon, Natanael Peixoto Quintino
428
2 FORMULAÇÃO DO PROBLEMA
Propõe-se investigar o seguinte problema
Lu(x, t) = f(x, t), ∀(x, t) ∈ Q,u(x, t) = 0, ∀(x, t) ∈ Σ,
u(x, 0) = u0(x), u′(x, 0) = u1(x), α(0) < x < β(0),
(4)
com as seguintes hipóteses:
(H1) α, β ∈ C2([0, T [;R), α(t) < β(t), α′(t) < 0, β′(t) > 0,
|α′(t) + γ′(t)y| < 1
2
(m0
2
)1/2
e |α′′(t) + γ′′(t)y| < (α′(t) + γ′(t)y)2
γ
para todo 0 ≤ t < T, e 0 ≤ y ≤ 1 com m0 uma constante de (H2)
(H2) a ∈ W 1,∞(0,∞), a(t) ≥ m0 > 0 e 0 < γ0 < γ(t) < γ1 <∞.
Devemos considerar o problema equivalente definido num domínio fixo pela mudança de variáveis
τ : Q→ Q = (0, 1)× (0, T )
(x, t) 7→ (y, t) =
(x− α(t)
γ(t), t
) (5)
que é um difeomorfismo de classe C2. A inversa τ−1 é também um difeomorfismo de classe C2. Aaplicação τ definida em (5) transforma o operador Lu(x, t) no operador Lv(y, t), dado por
Lv(y, t) =∂2v
∂t2− 1
γ2
[−m0
2+ a(t) +
b(t)
γ
∫ 1
0
(∂v
∂y
)2
dy
]∂2v
∂y2− ∂
∂y
(a(y, t)
∂v
∂y
)
+ b(y, t)∂2v
∂t∂y+ c(y, t)
∂v
∂y,
(6)
definido para funções reais v(y, t) no cilindro Q. Onde os coeficientes de Lv(y, t) são:
a(y, t) =m0
2γ2−(α′ + γ′y
γ
)2
, b(y, t) = −2
(α′ + γ′y
γ
), c(y, t) = −
(α′′ + γ′′y
γ
). (7)
Obtemos assim, num domínio retangularQ = (0, 1)×(0, T ), o problema equivalente de determinar umafunções v = v(y, t) no espaço H1
0 (0, 1) ∩H2(0, 1), tal que,
Lv(y, t) = g(y, t), ∀ (y, t) ∈ Qv(0, t) = v(1, t) = 0, 0 < t < T
v(y, 0) = v0(y), v′(y, 0) = v1(y), 0 ≤ y ≤ 1.
(8)
Pela mudança de variável τ, a função u(x, t) é solução do problema (4) se, e somente se, v(y, t) é soluçãodo problema (8).
Denotamos por ((, )), ‖.‖; (, ), |.| respectivamente o produto escalar e a norma em H10 (0, 1) e L2(0, 1).
Em (MEDEIROS, LIMACO e MENEZES (2002)) foi mostrado a existência e unicidade de soluçõeslocais do problema (8).
V Simposio de Metodos Numericos Computacionais
429
3 ESTIMATIVA DE ERRO
Seja
µ = µ(t) =1
γ2
[−m0
2+ a(t) +
b(t)
γ‖v(t)‖2
](9)
com a seguinte hipóteses:
(H3) µ é uma função derivável verificando: 0 < µ1 ≤ µ(λ) ≤ µ2 e |µ′(λ)| ≤ c, ∀λ ∈ R.
A formulação variacional do problema (8) pode ser expressada para todo w ∈ H10 (0, 1) como:
(v′′, w
)+ µ(∂v∂y,∂w
∂y
)+(a(y, t)
∂v
∂y,∂w
∂y
)+(b(y, t)
∂v′
∂y, w)
+(c(y, t)
∂v
∂y, w)
=(g, w
). (10)
3.1 Problema Semi-discretoApresentaremos a formulação semi-discreta para o problema (8) usando o método de Galerkin dis-
cretizando a variável espacial. Seja K família de polígonos Th = K ver CIARLET (1978), e in-dexamos pelo parâmetro 0 < h < 1, representando o máximo diâmetro de elementos K ∈ Th. Dado uminteiro l ≥ 1 introduzimos o espaço de elemento finito, N l
h = qh ∈ C0(0, 1); qh|K ∈ Pl(K),∀K ∈ Th,onde Pl(K) é o conjunto de polinômios sobre K de grau menor ou igual a l, isto é, N l
h é o espaço defunções polinomiais continuas por partes de grau l. Pela teoria de interpolação, segue que dada umafunção v : (0, T )→ H l+1(0, 1) existe um interpolador vh : (0, T )→ N l
h tal que
‖v(t)− vh(t)‖m ≤ Chl+1−m‖v(t)‖l+1. (11)
O resultado ainda vale para v′(t) e v′′(t) emH l+1(0, 1), ver DOUGLAS e DUPONT (1970). O problemasemi-discreto consiste em encontrar vh : (0, T )→ Nh, para todo wh ∈ Nh tal que
(v′′h, wh
)+µh
(∂vh∂y
,∂wh∂y
)+(a(y, t)
∂vh∂y
,∂wh∂y
)+(b(y, t)
∂v′h∂y
, wh)
+(c(y, t)
∂vh∂y
, wh)
=(g, wh
). (12)
Tomando w = wh em (10) e fazendo a diferença entre os problemas (10) e (12) obtemos(
(v − vh)′′, wh)
+
(µ∂v
∂y− µh
∂vh∂y
,∂wh∂y
)+
(a(y, t)
∂(v − vh)∂y
,∂wh∂y
)
+
(b(y, t)
∂(v − vh)′∂y
, wh
)+
(c(y, t)
∂(v − vh)∂y
, wh
)= 0, ∀wh ∈ Nh.
(13)
Seja a(v, w) forma bilinear em H10 (0, 1) definida por
a(v, w) = µ(t)
(∂v
∂y,∂w
∂y
)+
(a(y, t)
∂v
∂y,∂w
∂y
). (14)
Usando hipóteses (H1) e (H3) concluímos que a(v, w) é contínua e coerciva. Mas, ainda podemos definira projeção ortogonal, denominada projeção de Ritz com respeito a forma bilinear a(., .) da seguinteforma: P : V → Nh onde Pv(t) = vh(t) satisfazendo, a(v(t)− vh(t), wh) = 0, ∀wh ∈ Nh.
Queremos mostrar que a solução aproximada vh(y, t) converge para a solução exata v(y, t) em algumanorma quando h→ 0. Para conseguir a convergência, precisamos da seguinte hipótese para interpolar odado inicial.
(H4) ‖vh(0)− vh(0)‖ ≤ c1h2, |v′h(0)− v′h(0)‖ ≤ c2h
2.
Teorema. Se v é solução do problema (8) com dados iniciais v0 ∈ H10 (0, 1) ∩H2(0, 1), v1 ∈ H1
0 (0, 1),e suponhamos que v ∈ L∞(0, T,H1
0 (0, 1) ∩ H2(0, 1)), v′, v′′ ∈ L∞(0, T,H2(0, 1)) com as hipóteses(H1)− (H4), então existe uma constante positiva C dependente de v e independente de h tal que
|v′ − v′h|L∞(0,T ;L2(0,1)) + h‖v − vh‖L∞(0,T ;H10 (0,1)) ≤ Ch2. (15)
V Simposio de Metodos Numericos Computacionais
430
Demonstração. Seja e(t) = v(t)− vh(t) = (v(t)− vh(t)) + (vh(t)− vh(t)) = ρ(t) + θ(t), onde vh(t) éo interpolante de v(t) em Nh. Somando e subtraindo vh(t) em (13), usando a(ρ(t), wh) = 0, e tomandowh = θ′(t) juntamente com as hipóteses (H1)− (H3) obtemos que
1
2
d
dt|θ′(t)|2 +
1
2µ1d
dt‖θ(t)‖2 +
3m0
8γ1
d
dt‖θ(t)‖2 ≤ γ′
γ|θ′(t)|2 −
(c(y, t)
∂θ
∂y, θ′(t)
)
− (ρ′′, θ′)−(b(y, t)
∂ρ′
∂y, θ′)−(c(y, t)
∂ρ
∂y, θ′)−
([µ− µh
]∂vh∂y
,∂θ′
∂y
).
(16)
Análise do termo não linear. Da desigualdade (16), usando a desigualdade de Schwartz e Young,temos ∣∣∣∣
([µ− µh
]∂vh∂y
,∂θ′
∂y
)∣∣∣∣ ≤ C[‖ρ‖2 + ‖θ‖2] +1
4
d
dt‖θ‖2. (17)
Analogamente podemos limitar os outros termos do lado direito da desigualdade (16) usando a desigual-dade de Schwartz e Young com sobre os coeficientes a(y, t), b(y, t) e c(y, t). Substituindo em (16) eintegrando de 0 a t, obtemos
|θ′(t)|2 + ‖θ(t)‖2 ≤ C(|θ′(0)|2 + ‖θ(0)‖2)
+
∫ t
0
(|θ′(s)|2 + ‖θ(s)‖2 + ‖ρ(s)‖2 + ‖ρ′(s)‖2 + |ρ′′(s)|2
)ds.
(18)
Fixando l = 1 e variando m ∈ 0, 1 em (11) para limitar ρ′′, ρ′ e ρ, juntamente com a hipóteses (H4)temos que
|θ′(t)|2 + ‖θ(t)‖2 ≤ Ch2 +
∫ t
0
[|θ′(s)|2 + ‖θ(s)‖2]ds. (19)
Usando a desigualdade de Gronwall, a integral do lado direito pode ser removida, obtendo-se que
|θ′(t)|2 + ‖θ(t)‖2 ≤ Ch2, ∀t ∈ [0, T ]. (20)
Extraindo a raiz em ambos lados e usando a desigualdade triangular juntamente com (11) concluímosque
|v′ − v′h|L∞(0,T ;L2(0,1)) + h‖v − vh‖L∞(0,T ;H10 (0,1)) ≤ Ch2. (21)
3.2 Problema DiscretoNesta seção faremos a estimativa de erro, ou ordem de convergência na norma discretaL∞(0, T ;L2(0, 1))
para o problema semi-discreto (8), quando o tempo t varia discretamente sobre o intervalo [0, T ] na formatn = n∆t, n = 0, 1, . . . N. Seja vn uma aproximação de v(·, tn), e então a aproximação θ-Newmark(LIU e RINCON,(2011)) é definido por vn+θ = θvn+1 +(1−2θ)vn+θvn−1, onde 0 ≤ θ ≤ 1. Definimos:
vn+ 12 =
1
2
(vn+1 + vn
), δvn+
12 =
1
∆t
(vn+1 − vn
),
δvn =1
2∆t
(vn+1 − vn−1
), δ2vn =
1
(∆t)2
(vn+1 − 2vn + vn−1
).
(22)
Para obter estimativas de erro no tempo discreto, requeremos mais regularidade sobre as derivadas de v
(H5) v′, v′′ ∈ L∞(0, T ;H2(0, 1)), v′′′ ∈ L∞(0, T ;H1(0, 1)) e v′′′′ ∈ L∞(0, T ;L2(0, 1)).
Definimos o esquema discreto baseado no problema semi-discreto (13), dada pela seguinte equação(δ2(vn − vnh), wh
)+
(µn+θ ∂v
n+θ
∂y− µn+θ
h
∂vn+θh
∂y,∂wh∂y
)+
(an+θ ∂(vn+θ − vn+θ
h )
∂y,∂wh∂y
)
+
(bn+θ ∂δ(v − vh)
∂y, wh
)+
(cn+θ ∂(vn+θ − vn+θ
h )
∂y, wh
)= (ϕn, wh), ∀wh ∈ Nh.
(23)
V Simposio de Metodos Numericos Computacionais
431
Teorema. Seja v0 ∈ H10 (0, 1) ∩H2(0, 1), v1 ∈ H1
0 (0, 1) e v ∈ L∞(0, T,H10 (0, 1) ∩H2(0, 1)). Sobre as
hipóteses (H1) − (H5), existe uma constante positiva C dependente de v e independente de h e ∆t talque
|δ(v − vh)|L∞(0,T ;L2(0,1)) + h‖v − vh‖L∞(0,T ;H10 (0,1)) ≤ C(h2 + (∆t)2). (24)
Demonstração. Seja en = vn − vnh = (vn − vnh) + (vnh − vnh) = ρn + ξn, onde vnh é o interpolante de vn
em Nh. Somando e subtraindo vnh em (23), usando a projeção de Ritz a(ρn+θ, wh) = 0, obtemos(δ2ξn, wh
)+
(µn+θh
∂ξn+θ
∂y,∂wh∂y
)+
(an+θ ∂ξ
n+θ
∂y,∂wh∂y
)+
(bn+θ ∂(δξn)
∂y, wh
)
+
(cn+θ ∂ξ
n+θ
∂y, wh
)= −
(bn+θ ∂(δρn)
∂y, wh
)−(cn+θ ∂ρ
n+θ
∂y, wh
)
−([µn+θ − µn+θ
h
]∂vn+θ
∂y,∂wh∂y
)+ (ϕn − δ2ρn, wh)
(25)
ondeϕn = (δ2vn−vn+θtt )+bn+θ ∂
∂y(δvn−vnt ) e δ2vn, δvn são aproximações dos termos (vtt), (vt) no tempo
por diferenças finitas. Tomando, em particular wh =1
2(δξn+1/2 + δξn−1/2) =
1
2∆t(ξn+1− ξn−1) = δξn,
em (25), temos
1
2∆t(3m0
8γ21
+ µ1)
[((ξn, ξn+1))− ((ξn, ξn−1))] + θ
[∥∥ξn+1 − ξn∥∥2 −
∥∥ξn − ξn−1∥∥2]
+1
2∆t
(∣∣δξn+1/2∣∣2 −
∣∣δξn−1/2∣∣2)≤ −
([µn+θ − µn+θ
h
] ∂∂yvn+θh ,
∂
∂y(δξn)
)
−(bn+θ ∂
∂y(δξn), δξn
)− 1
2
(bn+θ ∂(δρn)
∂y, δξn+1/2 + δξn−1/2
)
− 1
2
(cn+θ ∂ρ
n+θ
∂y, δξn+1/2 + δξn−1/2
)− 1
2
(cn+θ ∂
∂yξn+θ, δξn+1/2 + δξn−1/2
)
+ (ϕn − δ2ρn, δξn+1/2 + δξn−1/2) =6∑
i=1
Ii
(26)
Análise do termo não linear: Da desigualdade (26), usando a desigualdade de Cauchy-Schwartz comab ≤ 1
2εa2 + ε
2b2, a, b ≥ 0, ε > 0, temos
|I1| ≤λ
2η∆t(‖ρn+θ‖2 + ‖ξn+θ‖2) +
η
4∆t[‖ξn+1 − ξn‖2 − ‖ξn − ξn−1‖2] (27)
onde λ = λ(vn+θ, vn+θh , γ0, k,m) > 0. Analogamente podemos limitar I2 − I6 pelas hipóteses sobre
os coeficientes an+θ, bn+θ e cn+θ, agora substituindo I1 − I6 na equação (26), multiplicando por 2∆t, esomando de n = 1, . . . , N − 1 juntamente com a desigualdade de Schwarz no termo ((ξ1, ξ0)), obtemos
(3m0
8γ21
+ µ1)[((ξN , ξN−1))
]+[(3m0
8γ21
+ µ1)θ
2
]∥∥ξN − ξN−1∥∥2
+∣∣δξN−1/2
∣∣2 ≤∣∣δξ1/2
∣∣2
+1
2(3m0
8γ21
+ µ1)(‖ξ1‖2 + ‖ξ0‖2) +[(3m0
8γ21
+ µ1)θ
2
]‖ξ1 − ξ0‖2
+N−1∑
n=1
[λ
η(‖ρn+θ‖2 + ‖ξn+θ‖2) +
(m0
8
)1/2 ∆t
2γ0
|δξn+1/2 + δξn−1/2|2
+m0∆t
4γ20
|δξn+1/2 + δξn−1/2|‖δρn‖+m0∆t
8γ20
|δξn+1/2 + δξn−1/2|‖ρn+θ‖
+m0∆t
8γ20
|δξn+1/2 + δξn−1/2|‖ξn+θ‖+ 2∆t|ϕn||δξn+1/2 + δξn−1/2|
+ 2∆t|δ2ρn||δξn+1/2 + δξn−1/2|].
(28)
V Simposio de Metodos Numericos Computacionais
432
Da desigualdade ab ≤ 12εa2 + ε
2b2, a, b ≥ 0, ε > 0, e ((ξN , ξN−1)) = 1
4
[‖ξN + ξN−1‖2 + ‖ξN − ξN−1‖2
]
temos
1
4‖ξN + ξN−1‖2 +
(θ − 1
4
)∥∥ξN − ξN−1∥∥2
+
(1− C∆tε
(λ+
m0
4γ20
+ (m0
8γ20
)1/2))∣∣δξN−1/2
∣∣2
≤ C
[χ2
0 +N−1∑
n=1
λ
η(‖ρn+θ‖2 + ‖ξn+θ‖2) +
(∆tε
(λ+
m0
4γ20
+ (m0
8γ20
)1/2))|δξn−1/2|2
+m0∆t
16γ20ε
(‖ρn+θ‖2 + ‖ξn+θ‖2) +∆t
ε|ϕn|2 +
∆t
ε|δ2ρn|2 +
m0∆t
8γ20ε‖δρn‖2
](29)
onde C é uma constante positiva e χ20 ≤ ch4. Tomando ε < 1
C∆t[(λ+m04γ20
+(m08γ20
)1/2)]e θ > 1
4então podemos
segurar que o segundo e o terceiro termo do lado esquerdo de (29) são positivos. Denotando por C4 =
min1− C[ε(λ+ m0
4γ20+ (m0
8γ20)1/2)∆t], 1
4, θ− 1
4 e C5 = C
C4max1
ε, ε(3λ+ m0
4γ20
12
+ (m0
2)1/2 1
γ0), m0
8γ20, ( λ
2ε+
m0
16εγ0), então da desigualdade (29) obtêm-se que
‖ξN + ξN−1‖2 +∥∥ξN − ξN−1
∥∥2+∣∣δξN−1/2
∣∣2 ≤ C5
[χ2
0 +N−1∑
n=1
∆t|δξn−1/2|
+ ∆t(‖ρn+θ‖2 + ‖ξn+θ‖2) + ∆t|ϕn|2 + ∆t|δ2ρn|2 + ∆t‖δρn‖2
].
(30)
Fixando l = 1 e variando m ∈ 0, 1 em (11) para limitar ρ′′, ρ′ e ρ, juntamente com (H4) e expansãode Taylor, temos que
‖ξN + ξN−1‖2 +∥∥ξN − ξN−1
∥∥2+∣∣δξN−1/2
∣∣2 ≤ C5
[h4 + h2(‖v‖2
2 + ‖v′‖22) + h4‖v′′‖2
2
+ (∆t)4(|v′′′|2 + |v′′′′|2) + ∆tN−1∑
n=1
(‖ξn + ξn−1‖2 +
∥∥ξn − ξn−1∥∥2
+∣∣δξn−1/2
∣∣2)].
(31)
Então podemos aplicar o Lema de Gronwall em (31) e usando a equivalência de normas em espaços dedimensão finita, podemos extrair a raiz quadrada para obter,
max1≤N≤T
h∥∥ξN
∥∥+∣∣δξN−1/2
∣∣ ≤ C(h2 + (∆t)2). (32)
Assim pela definição de norma e usando a desigualdade triangular juntamente com (11) concluímos que
h‖v − vh‖L∞(0,T ;H10 (0,1)) + |δ(v − vh)|L∞(0,T ;L2(0,1)) ≤ C(h2 + (∆t)2). (33)
Analogamente como no problema (8), precisamos da seguinte hipótese adicional para interpolar os dadosiniciais do problema (4) isto é
(H6) ‖uh(0)− uh(0)‖ ≤ ch2; |u′h(0)− u′h(0)| ≤ ch2.
Teorema. Sejam It = (α(t), β(t)) e I0 = (α(0), β(0)). Se u é soluções do problema (4) com dadosiniciais u0 ∈ H1
0 (I0) ∩H2(I0), u1 ∈ H10 (I0), e suponhamos que u ∈ L∞(0, T,H1
0 (It) ∩H2(It)) com ashipóteses (H1)− (H4), então existe uma constante positiva C dependente de u e independente de h talque
|u′ − u′h|L∞(0,T ;L2(It)) + h‖u− uh‖L∞(0,T ;H10 (It)) ≤ Ch2. (34)
Demonstração. Usando a mudança de variáveis τ definida em (5), temos que a estimativa de erro dev(y, t) dada em (21) implica a estimativa de erro de u(x, t) em (34).
V Simposio de Metodos Numericos Computacionais
433
4 RESULTADOS NUMÉRICOS
Exemplo 1. Consideremos um problema com uma solução exata desconhecida, que nos permi-tira calcular o erro e confirmar numericamente a taxa de convergência, considere o problema (4) emQ com α(t) = −t
t+1, β(t) = 2t+1
t+1, τ0m
= 10, km
= 5,m0 = 5 e f(x, t) escolhida tal que u(x, t) =
sen(6πν)sen(0, 25πt) é a solução exata, onde ν = (t+1)x+t(3t+1)
. A posição e velocidade inicial são dadaspor u0(x) = 0 e u1(x) = 0, 25πsen(6πx). Assim o erro de aproximação é apresentado na tabela 1 paraθ = 0, 5 e na tabela 2 para θ = 0, 75.
malha EL∞(0,T ;L2(0,1)) taxa10× 10 0,072831 -20× 20 0,016720 2,1240× 40 0,003457 2,2780× 80 0,000779 2,12
Tabela 1: Erro e taxa para o exemplo 1.
malha EL∞(0,T ;L2(0,1)) taxa10× 10 0,084821 -20× 20 0,018332 2,2140× 40 0,003858 2,2480× 80 0,000877 2,13
Tabela 2: Erro e taxa para o exemplo 1.
Exemplo 2. Considere o problema (4) em Q com α(t), β(t),m,m0, k e τ0 como no Exemplo 1e seja f(x, t) escolhida tal que u(x, t) = 1
π2 sen(6πν)cos(πt) é a solução exata do problema, ondeν = (t+1)x+t
(3t+1). A posição e velocidade inicial são dadas por u0(x) = 1
π2 sen(6πx) e u1(x) = 0. Assim oerro de aproximação é apresentado na tabela 3 para θ = 0, 5 e na tabela 4 para θ = 0, 75.
malha EL∞(0,T ;L2(0,1)) taxa10× 10 0,020639 -20× 20 0,005703 1,8540× 40 0,001398 2,0280× 80 0,000365 1,93
Tabela 3: Erro e taxa para o exemplo 2.
malha EL∞(0,T ;L2(0,1)) taxa10× 10 0,026657 -20× 20 0,006825 1,9640× 40 0,001949 1,8080× 80 0,000502 1,95
Tabela 4: Erro e taxa para o exemplo 2.
5 CONCLUSÕES
Observamos que nos resultados numéricos obtivemos um decaimento de erro de ordem aproximada-mente quadrática, assim como no resultado analítico. E ainda mais, quanto menor o θ do Método deNewmark, menor o erro.
Num próximo trabalho apresentaremos graficamente o comportamento da solução numérica uh(x, t)ao longo do domínio não cilíndrico Q testando diversos comportamentos na fronteira e outras condiçõesiniciais. Além disso se mostrará que a taxa de convergência no espaço L∞(0, T ;H1
0 (0, 1)) será de ordemum.
REFERÊNCIAS
CIARLET P. The finite element method for elliptic problems. North Holland, Amsterdam, 1978.DOUGLAS J. and DUPONT T. Galerkin methods for parabolic equations. Journal on Numerical
Analysis, 7:575–626, 1970.KIRCHHOFF G. Vorlesungen uber Mathematiche Physik. Tauber, Leipzig, 1883.LIU I. and RINCON M. Introdução ao método de elementos finitos. IM,UFRJ, 2011.MEDEIROS L. LIMACO J. and MENEZES S. Vibrations of elastic strings. Journal of Computer
Analysis and Applications, 4:91–127, 2002.
V Simposio de Metodos Numericos Computacionais
434
Indice Remissivo
Etore Funchal de Faria, 76
Ademir Alves Ribeiro, 2, 227Adilandri Mercio Lobeiro, 153Adriana Camila Braga, 2Adriano Rodrigues de Melo, 9Adriano Vitor, 15Aline Kieskoski, 22Andre Luıs Machado Martinez, 110Andre Luiz Emidio de Abreu, 29Anselmo Chaves Neto, 29, 96, 123, 275, 360, 374, 389Antonio Carlos Nogueira, 367Arinei Carlos Lindbeck da Silva, 261, 332Aurelio Ribeiro Leite Oliveira, 43, 220
Cassius Tadeu Scarpin, 70, 201, 268Caue Barros Guimaraes, 36Cecilia Orellana Castro, 43Cesar Augustus Assis Beneti, 298Christian Wendt, 145Claudio Neumann Junior, 360Claudio Neumann Junior, 374
Daniel Almeida Colombo, 292Daniel Gregorio Alfaro Vigo, 180David Amundsen, 180Diego Addan Goncalves, 50Diego Felipe Capraro, 56Dione Ines Christ Milani, 63Dirceu Scaldelai, 15Djamila Ouelhadj, 396Douglas Mota Dias, 421Dylan Jones, 396
Edgar Manuel Carreno Franco, 123, 187Edgar Manuel Carreno Franco , 332Edson Hideki Koroishi, 194, 292, 307Eduardo Todt, 50Eliete Nascimento Pereira, 70Eloy Kaviski, 9, 117, 145, 153, 382Emerson V Castelani , 110Erik Taketa, 292, 307Everton Luis Garcia, 382
Fabio Andre Negri Balbo, 117Fabian Andres Lara-Molina, 194, 307Fabiana Frata Furlan Peres, 76Fernando Mucio Bando, 82Francielly Elizabeth de Castro Silva, 131Francisco Antonio Romero Gesualdo, 408
Gabriela Wessling Oening Dicati, 89, 160Geraldo Carvalho Brito Junior, 96Gerson Ulbricht, 103
Gizelli Renata Mendes, 110Guilherme Augusto Pianezzer, 117
Haroldo Valentin Ribeiro, 2Helenice de Oliveira Florentino Silva, 396
Jederson da Silva, 89, 131Julio Cesar Royer, 187Jair Mendes Marques, 36, 82, 325Jairo Marlon Correa, 123Joao do Carmo Lopes Goncalves, 131Joao Furtado Resende, 138Joao Maria Marra, 145Jocelaine Cargnelutti, 153Jorge Kazuo Yamamoto, 63Jose Eduardo Gubaua, 89, 160Josiele Patias, 63, 82, 389Josue Ervin Musial, 167Joyce Rodrigues da Silva, 174Jucelio Tomas Pereira, 89, 131, 160Juliana Castanon Xavier, 180
Karina Assolari Takano, 194Kellen Dayelle Endler, 201Klaus de Geus, 313
Liliana Madalena Gramani, 9, 117, 145, 153, 382Lucas Peres de Souza, 206Luis Antonio Sucapuca Aracayo, 382Luiz Albino Teixeira Junior, 70, 123, 187, 332, 389Luiz Albino Teixeira Junior, 82Luiz Antonio Farani de Souza, 213Luzia Vidal de Souza, 15
Manoel Messias Alvino de Jesus, 2Manolo Rodriguez Heredia, 220Marco Andre Argenta, 56, 206, 354Marco Aurelio Cavalcanti Pacheco, 421Marcos Arndt, 241, 285, 402Marcos Roberto Bombacini, 227Maria Teresinha Arns Steiner, 201Mariana Prado Reina, 340Marlon Ferreira Corsi e Carlos Andres Reyna Vera-Tudela,
235Mateus Rauen, 241Mauro Antonio Rincon, 180, 428Michael Mannich, 138Michely Castro dos Santos, 247Miguel Diogenes Matrakas, 254Monica Beltrami, 261
Natanael Peixoto Quintino, 428Nathalia Cristina Ortiz da Silva, 268Nayane Thais Krespi Musial, 275
435
V Simposio de Metodos Numericos Computacionais
Neida Maria Patias Volpi, 22, 63, 103, 396Neida Volpi, 347
Paulo de O Weinhardt, 402Paulo de Oliveira Weinhardt, 285Paulo Henrique Siqueira, 15, 167Paulo Justiniano Ribeiro Junior, 415
Rafael Morais Souza, 332Renan Franco Correa, 292Renan Henrique Luz Seluzniak, 298Rennan Otavio Kanashiro, 307Ricardo Cesar Ribeiro dos Santos, 313Roberto Dalledone Machado, 96, 241, 285, 318, 402Rodnny Jesus Mendoza Fakhye, 318Rosangela Aparecida Botinha Assumpcao, 63Rosilei de Souza Novak, 325
Sergio Scheer, 76Samuel Bellido Rodrigues, 332Samuel Conceicao Oliveira, 340Sander Joner, 347Sara de Godoy Bueno, 354Sergio Scheer, 254, 298Sheila Regina Oro, 360, 374Sheilly Raquelly Prado de Paula, 367Suellen Ribeiro Pardo Garcia, 360, 374
Tasia Hickmann, 382Tereza Rachel Mafioleti, 360, 374, 389Thalita Monteiro Obal, 396Thamara Petroli, 402Thiago Damasceno Silva, 408Tiago Martinuzzi Buriol, 298
Ubirata Tortato, 36
Vanderlei Galina, 153Vanessa Ferreira Sehaber, 367, 415Vania Gryczak Gevert, 396Volmir Eugenio Wilhelm, 187, 396
Waldir Jesus de Araujo Lobao, 421Wilman Rodas Huarcaya, 428
436