m´etodos num´ericos computacionais

444
M ETODOS M ETODOS NUM ERICOS NUM ERICOS COMPUTACIONAIS COMPUTACIONAIS Peri odico do Simp osio de M etodos Num ericos Computacionais 2015

Upload: truongbao

Post on 10-Jan-2017

473 views

Category:

Documents


126 download

TRANSCRIPT

METODOSMETODOS

NUMERICOSNUMERICOS

COMPUTACIONAISCOMPUTACIONAIS

Periodico do Simposio de MetodosNumericos Computacionais

2015

V Simposio de Metodos Numericos Computacionais

Marco Andre ArgentaMarina Vargas R. P. Goncalves

METODOS NUMERICOSCOMPUTACIONAIS

O periodico Metodos Numericos Computacionais contem todos os artigos completos enviados, aceitos e apresentados

durante o V Simposio de Metodos Numericos Computacionais da UFPR 2015.

Universidade Federal do Parana (UFPR)2014

V Simposio de Metodos Numericos Computacionais

Informacoes Basicas

A proposta do Simposio de Metodos Numericos Computacionais da UFPR e disseminar a pesquisa emmetodos numericos em engenharia e viabilizar um local para a discussao das pesquisas e trabalhos desenvolvidosna area. O periodico contem todos os artigos completos enviados e apresentados durante o evento.

Copyright

Os conceitos contidos em artigos sao de exclusiva responsabilidade de seus autores, nao refletindo, necessariamente,a opiniao dos editores. Nao se permite a reproducao total ou parcial dos trabalhos, apenas utilizar comofonte de dados desde que seja indicada, na forma de citacao, explicitamente a sua fonte.

CORPO EDITORIAL

Editora ResponsavelEditora da UFPR

Coordenacao EditorialMarco Andre ArgentaMarina Vargas Reis de Paula Goncalves

OrganizacaoGustavo Valentim Loch

Comite CientıficoAbel SiqueiraAda ScudelariAdriano DelfinoAdriano VictorAna Paula OeningAndre FabianiAndre Jacomel ToriiAndre MalheirosArinei Carlos Lindbeck da SilvaCesar Augusto TaconeliCesar TaconeliCleverson AndreoliCosmo Damiao SantiagoCristovao FernandesDaniel Estevao KaviskiDebora Cintia MarcilioDeise CostaDiana CancelliDiane Rizzotto RossettoEduardo FerreiraEduardo LopesElias KrainskiElvidio GavassoniEmılio MercuriErica CastilhoEricson DilayEuda FerreiraFabiane OliveiraFelıcio Bruzzi BarrosFernando Mayer

Francisco Chagas Lima JuniorGeovani GrapigliaGislaine PericaroGustavo Valentim LochHsu Yang ShangHugo LaraIdemauro LaraIsabella Andreczevski ChavesJoao Elias Abdalla FilhoJose CarrerJose Eduardo Pecora JuniorJose Ruidival Soares dos Santos FilhoJucelio TomasJuliano Fabiano da MotaLeandro MagataoLuciane GrossiLuciano Kiyoshi ArakiLuiz Albino Teixeira JuniorLuiz AlkiminMael SachineMarcelo BessaMarcelo CostaMarco Andre ArgentaMarcos ArndtMarcos PratesMaria Teresinha Arns SteinerNeida maria Patias VolpiNelson DiasOdacir GraciolliPaulo ConejoPaulo SiqueiraRafael SouzaRamiro CardenasRaphael ScuciatoRenata StramandinoliRicardo AlmeidaRicardo BertinRoberta BoszczowskiRoberta SueroRoberto Dalledone MachadoRodrigo Eustaquio

I

V Simposio de Metodos Numericos Computacionais

Rogerio CarrazedoRudinei BogoSilvana Heidemann RochaSilvia ShimakuraSimone MilocaSimone Tomazzoni GoncalvesSiovani Cintra FelipussiSolange Regina dos SantosSonia Isoldi MullerTerezinha GuedesThais FonsecaThiago Andre GuimaraesTIago Martinuzzi BuriolVanderly JaneiroWagner BonatWalmes ZevianiWalmor Cardoso GodoiWellington Mazer

Concepcao do projeto graficoMarco Andre Argenta

Web designMarco Andre Argenta

II

V Simposio de Metodos Numericos Computacionais

Sumario

Informacoes Basicas I

Copyright I

CORPO EDITORIAL I

Apresentacao V

Artigos Completos 1Analise Em Larga Escala Das Vazoes De Rios No Brasil . . . . . . . . . . . . . . . . . . . . . . . . 2Esquema Explıcito Com Erro De Truncamento Local Nulo Para A Equacao Da Onda 1d . . . . . . 9Um Algoritmo Genetico Hıbrido Para O Pcv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15Um Estudo Sobre A Metaheurıstica Colonia De Formigas . . . . . . . . . . . . . . . . . . . . . . . 22Modelo Para Previsao De Evaporacao Em Reservatorios De Agua . . . . . . . . . . . . . . . . . . . 29Previsao De Demanda Para Pecas De Reposicao De Alto Giro . . . . . . . . . . . . . . . . . . . . . 36Aprimoramento Do Precondicionador Separador Para Sistemas Lineares Oriundos Dos Metodos

De Pontos Interiores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43Extracao E Parsing De Dados 4d De Landmarks Em Superfıcies Geometricas Dinamicas. . . . . . 50Distribuicao Do Carregamentos De Paredes Estruturais Sobre Vigas Considerando O Efeito Arco

Atraves Da Modelagem Em Elementos Finitos . . . . . . . . . . . . . . . . . . . . . . . . . . 56Analise Da Variabilidade Espaco-Temporal Das Subpressoes Ao Longo Da Brecha D Na Usina

Hidreletrica De Itaipu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63Metodo Preditivo Wavelet Arima Neural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70Acesso A Informacoes De Fissuras Em Estruturas De Concreto Em Campo Utilizando Realidade

Aumentada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76Abordagem Neuro/Fuzzy/Bayesiana Aplicada Na Gestao De Seguranca De Barragens . . . . . . . 82Analise Da Remodelacao Ossea Utilizando H-Adaptatividade Em Um Modelo Bidimensional De

Um Femur Humano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89The Modeling Of Tilting Pad Journal Bearings Of Large Hydro Generators For Structural Health

Monitoring Purposes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96Dimensionamento E Sequenciamento De Lotes: Um Modelo Com Dois Estagios E Estoque Intermediario

Com Tempo Mınimo De Permanencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103Metodos De Otimizacao Aplicados Em Uma Equacao Diferencial Com Multiplos Pontos De Fornteira110Metodos De Homogeneizacao Para Obtencao Das Propriedades Efetivas Do Concreto . . . . . . . . 117Metodologia Hıbrida Wavelet Na Previsao Da Serie Temporal Do Pendulo Direto Do Bloco F-13

Da Barragem Principal Da Usina Hidreletrica De Itaipu . . . . . . . . . . . . . . . . . . . . . 123Uma Discussao Sobre H-Adaptatividade No Metodo Dos Elementos Finitos Aplicado Ao Problema

De Viga De Euler-Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131Resolucao Do Problema Do Caixeiro Viajante Atraves De Uma Maquina De Boltzmann Modificada138Transiente Hidraulico Em Condutos Forcados: Solucao Do Fenomeno Pela Integracao Discreta

Das Equacoes Governantes Pelo Metodo De Runge-Kutta Aplicado Nas Turbinas Da UsinaHidreletrica De Itaipu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145

Simulacao Numerica Do Escoamento De Poiseuille Utilizando O Metodo Do Reticulado De Boltzmann153Avaliacao Da Remodelacao Ossea Tridimensional Em Torno De Proteses Femorais Utilizando Os

Modelos Isotropico E Anisotropico De Stanford . . . . . . . . . . . . . . . . . . . . . . . . . . 160Aplicacao De Caos Em Mapas Auto-Organizaveis Para Resolver Problemas Como O Caixeiro

Viajante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167Uma Resolucao Do Problema Do Caixeiro Viajante Por Mapa Auto-Organizavel De Kohonen . . . 174Analise De Estabilidade E Convergencia De Um Metodo Espectral Totalmente Discreto Para

Sistemas De Boussinesq. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180Previsao De Radiacao Solar De Curto Prazo Usando Combinacao Wavelet-Redes Neurais . . . . . 187Analysis Of A Fuzzy Controller Of A Manipulator With Flexible Joints . . . . . . . . . . . . . . . 194Otimizacao Na Localizacao De Centros Publicos De Educacao Infantil Em Curitiba-Pr . . . . . . . 201Analise Tridimensional Do Comportamento Mecanico De Viga Mista Aco-Concreto Pelo Metodo

Dos Elementos Finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206

III

V Simposio de Metodos Numericos Computacionais

Estudo De Metodos Numericos Para A Solucao De Problemas Nao Lineares De Trelicas Planas . . 213Novo Parametro De Correcao De Falhas Na Diagonal Da Fatoracao Controlada De Cholesky No

Metodo De Pontos Interiores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220Robust Unit Commitment With Wind Power Forecasting Uncertainty . . . . . . . . . . . . . . . . 227Estudo De Trincas Utilizando O Metodo Do Elemento De Contorno Com A Funcao De Green

Numerica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235Implementation And Accuracy Aspects For Nurbs Based Isogeometric Analysis Of Free Vibration

Of Trusses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241Aplicacao Da Analise Multivariada Na Determinacao Dos Indicadores Dos Municıpios Paranaenses 247Visualizacao De Dados Multidimensionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254Selecao Otimizada De Parametros Do Support Vector Classification (SVC) Por Meio Da Tecnica

Grid-Quadtree . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261Insercao De Novos Pedidos Atraves De Simulacao Durante O Sequenciamento Em Uma Unica

Maquina Para Minimizar O Makespan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268Previsao De Series Financeiras: Um Estudo Baseado Na Analise De Dados Em Painel . . . . . . . 275Uma Proposta De Estabilizacao Do Mefg Com Enriquecimento Trigonometrico Para Analise Modal285Controle Ativo De Vibracoes Utilizando Logica Fuzzy Em Um Rotor Flexıvel Com Atuadores

Eletromagneticos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292Ampliando A Interacao Para Aumentar A Compreensao Na Visualizacao De Dados De Radares

Meteorologicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298Utilizacao Da Evolucao Diferencial Em Problemas Inversos Para A Identificacao De Parametros . . 307Exploracao Das Bases Teoricas De Design De Jogos Em Aplicacoes Voltadas Ao Aprendizado . . . 313Estudo De Problemas De Elasticidade Linear Bidimensional Usando Analise Isogeometrica . . . . 318Um Estudo Sobre A Influencia Do Tamanho Da Amostra Na Analise Fatorial De Dados Dicotomicos325Projecao Da Serie Temporal Canadian Lynx Pelo Metodo Hıbrido Svr-Lssvr Wavelet . . . . . . . . 332Aplicacao De Metodos Numericos Simples Para A Resolucao De Problema De Valor No Contorno

Associado A Otimizacao De Bioprocessos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340An Optimization Model Applied To A Two-Stage Production Environment . . . . . . . . . . . . . 347Analise Global Do Remodelamento Osseo Considerando Movimentacao Ortodontica Idealizada . . 354Influencia Das Condicoes Ambientais Nos Deslocamentos De Uma Barragem De Concreto . . . . . 360Utilizacao Do Modelo De Regressao De Cox Para Explicar O Tempo Ate A Germinacao De

Sementes De Peroba-Rosa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367Modelo De Regressao Multivariado Para Deslocamentos Em Barragem De Concreto . . . . . . . . 374Modelagem Termica De Um Bloco De Contrafortes Atraves De Dados De Termometros E O Metodo

Dos Elementos Finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382Metodo De Analise De Estabilidade Probabilıstica De Barragens De Terra . . . . . . . . . . . . . . 389Matheurıstica Tsrad Para Otimizacao No Planejamento De Radioterapia . . . . . . . . . . . . . . 396Condicionamento Do Problema De Autovalores Obtido Do Metodo De Elementos Finitos Generalizados

Na Analise Dinamica De Vigas De Euler-Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . 402Determinacao Da Forca Crıtica De Flambagem De Arcos Com Forma Parabolica . . . . . . . . . . 408Analise Espaco-Temporal Dos Casos Novos De Hansenıase . . . . . . . . . . . . . . . . . . . . . . . 415Solucao De Equacoes Diferenciais Por Algoritmos De Diferenciacao Automatica E Programacao

Genetica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421Analise Numerica De Um Modelo De Cordas Elasticas Com Fronteira Movel . . . . . . . . . . . . 428

Indice por Autor 437

IV

V Simposio de Metodos Numericos Computacionais

Apresentacao

O Programa de Pos-Graduacao em Metodos Numericos em Engenharia (PPGMNE), da Universidade Federaldo Parana, criado pelo Departamento de Construcao Civil (Setor de Tecnologia) e pelo Departamento deMatematica (Setor de Ciencias Exatas), tem por objetivo congregar as areas de concentracao de MecanicaComputacional e de Programacao Matematica num unico curso, por perceber a inter-relacao entre as mesmase por acreditar que, num trabalho conjunto, multi e interdisciplinar, e possıvel o desenvolvimento e aplicacaodos metodos numerico-computacionais na busca de novas formas de solucao dos problemas de Engenharia ede problemas reais de uma forma geral. O PPGMNE iniciou atividades em 1994 com o curso de mestradoe em 2003 passou a oferecer tambem o curso de doutorado. O Programa nao tem a pretensao de cobrirtodo o conhecimento das areas mencionadas, mas considera-se apto a desenvolver trabalhos em algumasdas areas mais importantes, conforme a natureza de seu corpo docente, que envolve professores de diversosdepartamentos: Construcao Civil, Engenharia Mecanica, Engenharia Eletrica, Engenharia de Producao,Engenharia Hidraulica, Matematica, Estatıstica, Informatica e Expressao Grafica.

A proposta do simposio e disseminar a pesquisa em metodos numericos em engenharia e viabilizar umlocal para a discussao das pesquisas e trabalhos desenvolvidos na area.

O evento proporcionara:

• divulgar a producao cientıfica desenvolvida pela comunidade academica do Curso de Pos-Graduacaode Metodos Numericos em Engenharia, e demais instituicoes de ensino participantes;

• promover o intercambio entre pesquisadores, alunos e professores, visando a troca de informacoescientıficas;

• realizar a integracao das pesquisas concluıdas e/ou em andamento possibilitando uma complementacaodos resultados e direcionamento das propostas;

• construir um ambiente de discussao dos desafios enfrentados pelo desenvolvimento da pesquisa sob oponto de vista empresarial e academico.

V

V Simposio de Metodos Numericos Computacionais

Artigos CompletosArtigos CompletosArtigos Completos aceitos e apresentados durante o evento

1

V Simposio de Metodos Numericos Computacionais

ANÁLISE EM LARGA ESCALA DAS VAZÕES DE RIOS NOBRASIL

Resumo: Este artigo apresenta uma caracterização em larga escala das vazões em 141 estações diferentes (nasproximidades de usinas hidrelétricas) de 53 rios brasileiros via séries temporais diárias obtidas ao longo do períodode 1931-2012. Foi feito um estudo usando os seguintes métodos da física estatística: Detrended Fluctuation Analy-sis (DFA), Entropia e Complexidade de Permutação, visando ilustrar seus usos e também como são os estudostípicos de sistemas complexos. Entre outros resultados, mostrou-se como o uso do espectro de permutação per-mite encontrar o período associado a sazonalidade natural da vazão dos rios, que após normalizadas, as vazõessão aproximadamente descritas por uma mesma distribuição, e que essas séries temporais são correlacionadas delongo alcance. Os resultados obtidos são comparados com os resultados encontrados na literatura.

Palavras-Chave: Sistemas Complexos, Séries Temporais, Física Estatística, Correlações de LongoAlcance, Entropia e Complexidade de Permutação.

1 INTRODUÇÃO

O estudo de sistemas relacionados à Terra é um tema importante que tem sido abordado por físicose engenheiros por meio de métodos da física estatística. Terremotos (Mendes et al., 2010), atividadesgeomagnéticas (Turner et al., 2012), clima (Boettle et al., 2013) e relacionados com o clima (Rybskiet al., 2011; Ribeiro et al., 2013) são apenas alguns exemplos de sistemas que os pesquisadores temabordado com esses métodos. No caso de sistemas relacionados ao clima, sistemas importantes são osrios e suas vazões, as quais têm grande impacto sobre as atividades humanas e que também podem sofrergrande influência dessas atividades. A vazão dos rios resulta de interações complexas entre os sistemasclimáticos (como precipitação, temperatura e evaporação), relevo (como a área da bacia e alívio de terra)e atividades humanas (como poluição e geração de energia). Esses muitos processos tornam as vazõesdos rios (descargas fluviais) um processo bastante complexo que tem atraído a atenção de estudiosos aolongo das últimas seis décadas. Por exemplo, o trabalho de referência de Hurst sobre a dependência delonga duração de registros de escoamento de vários rios (Hurst, 1951) promoveu várias discussões sobreas propriedades fractais/multifractais da evolução temporal das vazões dos rios (Tessier et al., 1996;Porporato and Ridolfi, 1997; Jánosi and Gallas, 1999; Bordignon and Lisi, 2000; Kantelhardt et al.,2001; Bramwell et al., 2002; Livina et al., 2003; Kantelhardt et al., 2003; Dahlstedt and Jensen, 2005;Movahed and Hermanis, 2008; Dolgonosov et al., 2008; Zhang et al., 2009b,a; Hajian and Movahed,2010; De Domenico and Latora, 2011; Bigachev and Bunde, 2012; Yu et al., 2014; Mihailovic et al.,2014; Rabassa and Beck, 2015). Apesar dessa atenção considerável para a investigação das vazões dosrios, a maioria desses trabalhos são baseadas em dados de pequenos conjuntos de rios e ainda existeuma falta de caracterização em larga escala de séries temporais relacionada as vazões dos rios. Neste

Adriana Camila Braga, Ademir Alves Ribeiro, ManoelMessias Alvino de Jesus, Haroldo Valentin Ribeiro

2

contexto, o Brasil tem a maior bacia hidrográfica (Amazonas) e um dos sistemas de rios mais complexose extensos do mundo. Apesar disso, para o melhor de nosso conhecimento, uma investigação em largaescala sobre os rios brasileiros não foi relatada ainda. Aqui, pretende-se preencher ainda mais estalacuna.

2 APRESENTAÇÃO E ANÁLISE DOS DADOS

Os dados analisados consistem em séries temporais diárias das vazões naturais dos rios (descargasfluviais) medidas em 141 estações diferentes nas proximidades das usinas hidrelétricas. Estes dadosabrangem 53 rios brasileiros e o período de 1931 à 2012. Além disso, esses dados são disponibilizadosgratuitamente pelo Operador Nacional do Sistema Elétrico - ONS - (um órgão federal que controla osistema de energia no Brasil) no endereço eletrônico: http://www.ons.org.br/operacao/vazoes_naturais.aspx. Por questão de conveniência, vamos designar a vazão por x(t), onde t = 1, 2, . . . , 365 são os diasdo ano. Em nossa análise, removeu-se o último ponto dos dados de todas as séries temporais de anobissexto, garantindo que todas as séries temporais tenham o mesmo comprimento. A vazão x(t) é dadaem m3/s e a Figura (1) mostra exemplos da evolução temporal de três estações diferentes em quatroanos.

Vazã

o x(

t) (

m3 /s

× 1

04 )

Itaipu (Rio Paraná) 4

3 1931

Tucuruí (RioTocantins) 4

3 1970

Ilha Solteira (Rio Paraná) 4

3 1931

2 2 2

1 1 1

0 0 50 100 150 200 250 30 0 350

4

3 1958

0 0 50 100 150 200 250 30 0 350

4

3 1984

0 0 50 100 150 200 250 30 0 350

4

3 1958

2 2 2

1 1 1

0 0 50 100 150 200 250 30 0 350

4

3 1985

0 0 50 100 150 200 250 30 0 350

4

3 1998

0 0 50 100 150 200 250 30 0 350

4

3 1985

2 2 2

1 1 1

0 0 50 100 150 200 250 30 0 350

4

3 2012

0 0 50 100 150 200 250 30 0 350

4

3 2012

0 0 50 100 150 200 250 30 0 350

4

3 2012

2 2 2

1 1 1

0 0 50 100 150 200 250 30 0 350

0 0 50 100 150 200 250 30 0 350

Tempo, t (dias)

0 0 50 100 150 200 250 30 0 350

Figura 1: Exemplo de séries temporais das vazões naturais em rios brasileiros.

Uma das característica mais marcante apresentada na Figura (1) é a sazonalidade natural da evoluçãode x(t), o que reflete a associação das descargas fluviais com o sistema climático. É evidente a partirdessas figuras que grandes descargas ocorrem durante os primeiros e últimos meses do ano (verão) eque as baixas descargas aparecem durante o inverno (em torno do meio do ano). Nesse contexto, umapergunta natural é como se pode definir o período T associado a estas séries temporais e se T temalgum aspecto evolutivo ao longo dos anos. Aqui, concentrar-se-á na técnica chamada de espectro depermutação, que consiste em avaliar a entropia H e complexidade C como função do embedding delayτ em um intervalo particular, por termos boas estatísticas, escolheu-se o valor máximo de τ , em tornode 20% do comprimento N da série temporal. Este espectro de permutação provou ser bem sucedido naidentificação de fenômenos de delay e mecanismos de “feedback” em séries temporais (Zunino et al.,2010; Kulp and Zunino, 2014). Em geral, as relações H em função de τ e C em função de τ exibempicos ou vales que correspondem a harmônicas e sub-harmônicas associadas à série temporal. A fim de

V Simposio de Metodos Numericos Computacionais

3

identificar os períodos T associados às descargas fluviais, agrupou-se a série temporal x(t) em intervalosde tempo de 20 anos e, para cada conjunto, calculou-se o espectro de permutação para H e C.

Figura (2A) mostra um exemplo do espectro de permutação das descargas do rio Paraná na estaçãode Itaipu, tanto para H (painel superior) e C (painel do meio). Observou-se que a entropia H apresentapicos, enquanto a complexidade C tem vales, espaçados em cerca de 365 dias. Para estimar o períodoT associado à série temporal, analisou-se a diferença entre H e C como mostrado no painel inferior daFigura (2A). Isso garante mais informações sobre a série temporal e pode ajudar a aumentar a precisãono valor estimado de T . Nessa relação entre (H−C) e τ , identificou-se numericamente a localização dospicos, isto é, os valores de τ = τ ∗i onde os picos ocorrem, mediante a imposição de que um pico deve sero maior valor em torno de 180 valores menores à esquerda e à direita. A performance deste procedimentosimples foi verificada manualmente sendo que, não foram encontrados erros de identificação. O períodoT associado a um intervalo de tempo particular de uma série temporal é, assim, definido como o valormédio da diferença entre dois picos consecutivos τ ∗i . O painel inferior da Figura (2A) mostra os picosidentificados na relação de H − C em função de τ e também ilustra a definição de T .

1.0

0.7

0.6

0.5 0 300 600 900 1200

B

H −

C

Com

ple

xid

ad

e,

C

En

trop

ia,

H

p-v

alo

res q

ue

te

sta

m

testa

m t

estin

g

Pe

ríod

o E

stim

ad

o,T

a

sig

nif

icân

cia

de β

A

1.0

Itaipu (1931-1950)

Itaipu 440

0.9

400

T = A + β n

0.8

0.3

0.2

0.1

0.0

0.9

0.8

0 300 600 900 1200

0 300 600 900 1200

T T

Tempo d o delay, τ

360

320

280

C 1.0

0.8

0.6

0.4

0.2

0.0

Intervalo de tempo usado

1940 1960 1980 2000

Centro do intervalo de tempo, n

Itaipu

(Rio Paraná)

0.01

0 20 40 60 80 índice

Figura 2: Obtendo o período das séries temporais através da entropia de permutação e complexidadeestatística.

Estimou-se o valor de T associado a cada intervalo de tempo de 20 anos para todas as séries temporais.Figura(2B) mostra os valores estimados de T de quatro intervalos de tempo para as descargas do rioParaná na estação de Itaipu. Notamos que o T estimado é de cerca de 365 dias, mas que também exibepequenas flutuações. Em particular, a partir do exemplo da Figura (2B), pode-se imaginar que T temsido cada vez maior. Para ter acesso, de forma sistemática, se T apresenta algum aspecto evolutivo,ajustamos o modelo linear

T = A+ β n (1)

aos valores estimados de T para todas as séries temporais com comprimento mínimo de 80 anos. AquiA e β são constantes e n representa o centro do intervalo de tempo usado para estimar T . Verificamos asignificância estatística de β através dos seus p-valores. O p-valor indica a probabilidade do parâmetro βser diferente de zero, sendo que p-valores menores do que 0.01 indicam que existe apenas 1% de chance

V Simposio de Metodos Numericos Computacionais

4

de β não ser diferente de zero. A Figura (2C) mostra todos os p-valores, onde é evidente que β nãotem significado estatístico e, por isso, T não apresenta uma tendência linear crescente ou decrescente.Naturalmente, este resultado não exclui outras possibilidades de evolução para T , como um comporta-mento oscilatório ou dependência temporais não complicadas. No entanto, quatro valores para T nãosão suficientes para responder essas perguntas de forma objetiva. Além disso, outra questão importante(provavelmente uma das mais importantes) é em relação às flutuações de T , por exemplo, são essasflutuações crescentes? Esta hipótese é muito mais difícil de testar, porque as flutuações de τi não temqualquer razão para ser diretamente associadas às flutuações em T . Agora vamos focar nossa atençãona versão normalizada z(t) da série temporal x(t). A Figura (3) ilustra essa definição e mostra que esseprocedimento remove a principal sazonalidade presente em x(t).

Desvio

-padrã

o

Média

da v

azão, µ

(t)

(m3/s

× 1

04)

da v

azã

o,σ

(t)

Va

zão N

om

aliz

ada

, z(t

)

1

A 2.0

1.5

C 3

Itaipu 2

0

−1

−2

Itaipu

1931

1.0

0.5

0.0

B

0 50 100 150 200 250 300 350

Tempo, t (dias)

0 50 100 150 200 250 300 350

3

2 1958 1 0

−1

−2 0 50 100 150 200 250 300 350

3

2 1985

6.0

5.0

4.0

3.0

2.0

Itaipu

0 50 100 150 200 250 300 350

Tempo, t (dias)

1 0

−1

−2 0 50 100 150 200 250 300 350

3 2 2012 1

0

−1

−2 0 50 100 150 200 250 300 350

Tempo, t (dias)

Figura 3: Definição da série temporal normalizada.

Uma questão importante a respeito de z(t) está relacionada à sua distribuição de probabilidade. Di-versos trabalhos tem apontado que uma distribuição universal pode descrever a distribuição empírica dez(t), independentemente das particularidades do rio (Bramwell et al., 2002; Dahlstedt and Jensen, 2005;De Domenico and Latora, 2011). O grande número de séries temporais em nosso conjunto de dadospode fornecer uma resposta definitiva para esta questão. Para isso, avaliou-se a distribuição agregadade z(t) para todas as séries temporais. A Figura (4) mostra essa distribuição em que é observado umbom colapso, corroborando ainda mais para a hipótese de que a distribuição empírica de z(t) é universalentre diferentes rios. Outra pergunta é se esta distribuição empírica universal pode ser descrita por al-guma forma funcional. Neste contexto, o modelo Bramwell-Holdsworth-Pinto (BHP) (Bramwell et al.,1998), que descreve as flutuações magnéticas no modelo-XY clássico perto da criticalidade, bem como,a distribuição de valor extremo de primeira ordem (ou a distribuição de Gumbel (Gumbel, 1958)),

P (z) =1

θeλ−zθ

−eλ−zθ , (2)

onde θ e λ são parâmetros de ajuste, foram utilizados para ajustar estas distribuições empíricas. NaFigura (4), comparamos as distribuições empíricas com a forma de Gumbel e uma boa concordância é,de fato, observada (concordância semelhante é obtida para o modelo BHP). A distribuição de Gumbel

V Simposio de Metodos Numericos Computacionais

5

está relacionada ao máximo do conjunto de n → ∞ números aleatórios extraídos de uma distribuiçãoque assintoticamente decai mais rapidamente do que qualquer lei de potência. A concordância com essadistribuição sugere, assim, que as flutuações normalizadas z(t) podem ser também modeladas como umprocesso de valor extremo.

Dis

trib

uiçõ

es d

as

utua

ções

no

rmal

izad

as z(t)

100

10−1

10−2

10−3

10−4

com e

−4 −2 0 2 4 6 8

Flutuações Normalizadas z(t)

Figura 4: Comportamento universal das distribuições de probabilidades das vazões normalizadas.

Como nossa última análise, estudou-se se há ou não memória de longo alcance na série temporaldas descargas dos rios. Para investigar essa hipótese, considerou-se as séries temporais normalizadasz(t) agrupadas por ano e empregou-se o Detrended Fluctuation Analysis (DFA) (Peng et al., 1994;Kantelhardt et al., 2001). Se z(t) é auto-similar, a função de flutuação F (m) apresenta uma dependênciatipo lei de potência sobre o tempo de escala m, ou seja, F (m) ∼ mh, onde h é o expoente de Hurst.Para h > 0.5 ou h < 0.5 a série é correlacionada de longo alcance, enquanto que para h = 0.5 é do tiponão correlacionada ou apresenta correlação de curto alcance (tipo exponencial). O valor de h tambémdeve ser de cerca de 0.5 para versões embaralhadas de z(t), caso contrário, o DFA pode levar a falsascorrelações associadas com uma possível natureza livre de escada da distribuição de z(t) (o que nãoacontece no nosso caso).

Figura 5: Correlações de longo alcance nas vazões normalizadas.

A Figura (5A) mostra um exemplo prático de DFA para as flutuações normalizadas z(t) do rio Paraná,

V Simposio de Metodos Numericos Computacionais

6

na estação de Itaipu no ano de 1937. Nota-se que o gráfico log-log lineariza o relacionamento entreF (m) e m, de modo que a inclinação dessa curva é o valor de h. Assim, estimou-se o valor de hpor meio de regressão linear sobre a relação log-log e, para este caso, h = 1.3 para a série original eh = 0.5 para versão embaralhada. Empregando o mesmo procedimento, estimou-se h para todas asséries agrupadas por ano e a Figura (5B) mostra a distribuição de probabilidade de h. Verificamos queh é normalmente distribuído em torno de 1.16 com desvio-padrão de 0.19. Observou-se ainda que, asversões embaralhadas de z(t) exibem h com valores distribuídos em torno de 0.5 e desvio-padrão de0.05. Assim, os resultados obtidos estão em acordo com trabalhos anteriores (Dolgonosov et al., 2008;Tessier et al., 1996; Kantelhardt et al., 2001; Movahed and Hermanis, 2008; Zhang et al., 2009a; Hajianand Movahed, 2010; Yu et al., 2014; Zhang et al., 2009b) sobre a existência de correlações de longoalcance na série temporal normalizada relacionadas às descargas fluviais. No entanto, os valores de hmostram flutuações importantes, que podem ser úteis para uma classificação de rios e também podemlevar a outras investigações relacionando h com particularidades do rio e/ou do ano em análise.

3 CONCLUSÕES

Estudou-se um grande conjunto de séries temporais de descargas fluviais que cobrem 53 rios brasileiros,abrangendo mais de 80 anos. Ao utilizar a entropia e complexidade de permutação, mostrou-se que épossível associar um período T à sazonalidade natural destas séries temporais. Investigou-se a possi-bilidade de T apresentar tendências evolutivas, estimando seu valor dentro de diferentes intervalos detempo da série temporal. Uma regressão linear mostrou que T não apresenta uma tendência linear deaumento ou diminuição para todas as séries temporais. Estudou-se, também, versões normalizadas dasérie temporal e uma distribuição universal foi encontrada, apesar de toda complexidade e diferenças dosrios em análise. Argumentou-se que a distribuição de Gumbel pode ser ajustada aos dados empíricos, oque, de alguma forma, pode conectar as flutuações normalizadas com processos de valor extremo. Porfim, analisou-se a memória de longo alcance presente nessas séries temporais via DFA. Mostrou-se queo expoente de Hurst realmente confirma a existência de correlações de longo alcance, mas que o seuvalor exibe uma faixa de variação, dependendo do rio e/ou do ano em análise. Este último achado podeser, eventualmente, usado para promover uma classificação dos rios e outras questões sobre possíveisrelações entre h e particularidades do rio e/ou do ano em análise. Essas descobertas, assim, contribuempara os resultados anteriores (em relação às distribuições das flutuações normalizadas (Bramwell et al.,2002; Dahlstedt and Jensen, 2005; De Domenico and Latora, 2011) e às correlações de longo alcance(Dolgonosov et al., 2008; Tessier et al., 1996; Kantelhardt et al., 2001; Movahed and Hermanis, 2008;Zhang et al., 2009b,a; Hajian and Movahed, 2010; Yu et al., 2014)) e também lançam novas possibili-dades para investigar essas séries que podem encontrar implicações para modelagem e previsão da vazãode rios.

REFERÊNCIAS

Bigachev M.I. and Bunde A. Universality in the precipitation and river runoff. EPL, 97:48011, 2012.Boettle M., Rybski D., and Kropp J.P. How changing sea level extremes and protection measures alter

coastal flood damages. Water Resources Research, 49:1199–1210, 2013.Bordignon S. and Lisi F. Nonlinear analysis and prediction of river flow time series. Environmetrics,

11:463–477, 2000.Bramwell S., Holdsworth P., and Pinton J.F. Universality of rare fluctuations in turbulence and critical

phenomena. Nature, 396:552–554, 1998.Bramwell S.T., Holdsworth P.C.W., and Portelli B. Universal fluctuations of the danube water level: A

link with turbulence, criticality and company growth. EPL, 57:310–314, 2002.Dahlstedt K. and Jensen H.J. Fluctuation spectrum and size scaling of river flow and level. Physica A,

348:596–610, 2005.De Domenico M. and Latora V. Scaling and universality in river flow dynamics. EPL, 94:58002, 2011.Dolgonosov B.M., Korchagin K.A., and Kirpichnikova N.V. Modeling of annual oscillations and 1/f-

noise of daily river discharges. Journal of Hydrology, 357:174–187, 2008.

V Simposio de Metodos Numericos Computacionais

7

Gumbel E.J. Statistics of Extremes. Columbia University Press, New York, NY, 1958.Hajian S. and Movahed M.S. Multifractal detrended cross-correlation analysis of sunspot numbers and

river flow fluctuations. Physica A, 389:4942–4957, 2010.Hurst H.E. Long-term storage capacity of reservoirs, volume 116. Transactions of the American Society

of Civil Engineers, 1951.Jánosi I.M. and Gallas J.A.C. Growth of companies and water-level fluctuations of the river danube.

Physica A, 271:448–457, 1999.Kantelhardt J.W., Koscielny-Bunde E., Rego H.H.A., Havlin S., and Bunde A. Detecting long-range

correlations with detrended fluctuation analysis. Physica A, 295:441–454, 2001.Kantelhardt J.W., Rybski D., Zschiegner S.A., Braun P., Koscielny-Bunde E., Livina V., Havlin S., and

Bunde A. Multifractality of river runo and precipitation: comparison of fluctuation analysis andwavelet methods. Physica A, 330:240–245, 2003.

Kulp C.W. and Zunino L. Discriminating chaotic and stochastic dynamics through the permutationspectrum test. Chaos, 24:033116, 2014.

Livina V., Ashkenazy Y., Kizner Z., Strygin V., Bunde A., and Havlin S. A stochastic model of riverdischarge fluctuations. Physica A, 330:283–290, 2003.

Mendes R.S., Malacarne L.C., Santos R.P.B., Ribeiro H.V., and Picoli S. Earthquake-like patterns ofacoustic emission in crumpled plastic sheets. EPL, 92:29001, 2010.

Mihailovic D.T., Nikolic-Doric E., Dreskovic N., and Mimic G. Complexity analysis of the turbulentenvironmental fluid flow time series. Physica A, 395:96–104, 2014.

Movahed M.S. and Hermanis E. Fractal analysis of river flow fluctuations. Physica A, 387:915–932,2008.

Peng C.K., Buldyrev S.V., Havlin S., Simons M., and Stanley H.E. Mosaic organization of dna nu-cleotides. Physical Review E, 49:1685–1689, 1994.

Porporato A. and Ridolfi L. Nonlinear analysis of river flow time sequences. Water Resources Research,33:1353–1367, 1997.

Rabassa P. and Beck C. Superstatistical analysis of sea-level fluctuations. Physica A, 417:18–28, 2015.Ribeiro H.V., Antonio F.J., Alves L.G.A., Lenzi E.K., and Mendes R.S. Long-range spatial correlations

and fluctuation statistics of lightning activity rates in Brazil. EPL, 104:69001, 2013.Rybski D., Holsten A., and Kropp J.P. Towards a unified characterization of phenological phases: fluc-

tuations an correlations with temperature. Physica A, 390:680–688, 2011.Tessier Y., Lovejoy S.and Hubert P., and Schertzer D.and Pecknold S. Multifractal analysis and modeling

of rainfall and river flows and scaling, causal transfer functions. Journal of Geophysical Research,101:26427–26440, 1996.

Turner D.L., Shprits Y., Hartinger M., and Angelopoulos V. Explaining sudden losses of outer radiationbelt electrons during geomagnetic storms. Nature Physics, 8:208–212, 2012.

Yu Z.G., Leung Y., Chen Y.D., Zhang Q., Anh V., and Zhou Y. Multifractal analyses of daily rainfalltime series in Pearl River basin of China. Physica A, 405:193–202, 2014.

Zhang Q., Xu C.Y., and Yang T. Scaling properties of the runoff variations in the arid and semi-aridregions of China: a case study of the Yellow River basin. Stoch Environ Res Risk Assess, 23:1103–1111, 2009a.

Zhang Q., Xu C.Y., Yu Z., Liu C.L., and Chen Y.D. Multifractal analysis of streamflow records of theEast River basin (Pearl River), China. Physica A, 388:927–934, 2009b.

Zunino L., Soriano M.C., Fischer I., Rosso O.A., and Mirasso C.R. Permutation-information-theoryapproach to unveil delay dynamics from time-series analysis. Physical Review E, 82:046212, 2010.

V Simposio de Metodos Numericos Computacionais

8

V Simposio de Metodos Numericos Computacionais

ESQUEMA EXPLÍCITO COM ERRO DE TRUNCAMENTO LOCALNULO PARA A EQUAÇÃO DA ONDA 1D

Resumo:É conhecido que o esquema de diferenças finitas centrais, aplicado à equação da onda linear homogêneaunidimensional, possui erro de truncamento local nulo caso a relação entre os incrementos espacial e temporal sejac∆t/∆x = 1. Em outras palavras, toda função de classeC∞ que satisfaz a equação contínua irá satisfazer tambéma equação discreta. Este trabalho tem por objetivo mostrar que, sob a hipótese deu ∈ C2 e c∆t/∆x = 1, então oesquema explícito produzido também possui erro de truncamento local nulo e, por tanto, toda função que satisfazem sentido clássico a equação da onda linear homogênea 1D, irá satisfazer também a equação de diferenças, casoa relação anterior seja considerada.

Palavras-Chave: Erro de Truncamento, Diferenças Finitas, Razão de Ouro, Equação da Onda

1 INTRODUÇÃO

Seja o problema descrito pela equação:

∂2u

∂t2− c2∇2u = f (1)

em quec > 0 é a velocidade de propagação da onda; o termo fontef representa uma fonte externa;∇2

é o operador laplaciano que, em coordenadas cartesianas, emR é dado por∇2u =∂2u

∂x2e emR2 por

∇2u =∂2u

∂x2+∂2u

∂y2; x ey são as direções espaciais et o tempo; a variávelu pode representar um campo

de pressão ou um campo de deslocamento. Esta equação é conhecida como equação da onda e ocorreprimariamente em três campos (Whitham, 1974, p. 209): acústica, elasticidade e eletromagnetismo.

Em acústica, o campo acústico bidimensional é descrito porP (x, y, t) eu(x, y, t), ondeP representa ocampo de pressão e é dado pela equação (1), u é o deslocamento das partículas no meio (Fernandes et al.,2009). A relação entreP eu é dada pela Lei de HookeP = −k∇u, em quek é a incompressibilidadedo meio e∇ o operador gradiente (Santos, 2012, p. 16). Sob esta perspectiva, é utilizada em modelagemsísmica, técnica utilizada por exemplo na exploração petrolífera e que busca descrever o fenômeno depropagação de ondas que vão desde a fonte, passando pelas camadas do meio geofísico, até o retornoaos receptores (Di Bortolo, 2010).

Em elasticidade, a equação (1) pode ser obtida no tratamento elementar de vibrações transversais emcordas e membranas ou em ondas torcionais e longitudinais aolongo de barras (Rodrigues, 2012).

Em eletromagnetismo, as equações de Maxwell para um meio nãocondutor com permeabilidadeµe constante dielétricaǫ relacionam o campo elétricoE e a indução magnéticaB. Pode ser verificado

Adriano Rodrigues de Melo, Liliana Madalena Gramani, Eloy Kaviski

9

que todas as componentes deE e B satisfazem a equação da onda (1), com a velocidade de propagaçãoc = (ǫµ)−1/2 ef = 0 (Whitham, 1974, p. 214).

O método das diferenças finitas é um dos vários métodos que podem ser utilizados para aproximar asolução deste problema. Entretanto, o mesmo é condicionalmente estável e, portanto, condicionalmenteconvergente. Para o caso homogêneo unidimensional, é conhecido que a condição de estabilidade para oesquema de diferenças centrais é|c∆t/∆x| ≤ 1 (Iserles, 1996). A razãoc∆t/∆x = 1 é conhecida comorazão de ouro, pois proporciona um erro de truncamento localigual a zero e, por isso, espera-se umaacurácia perfeita para soluções de classeC∞ (Strang, 1986). Este trabalho tem por objetivo mostrar queo esquema de diferenças finitas centrais aplicado ao problema (1) homogêneo unidimensional, tambémpossuem erro de truncamento local nulo ao considerar-se soluções de classeC2 e a razão (de ouro)c∆t/∆x = 1.

Nas próximas seções serão apresentados os desenvolvimentos das ideias. Na seção2 são elenca-dos alguns resultados que norteiam os argumentos utilizados nas deduções. Em seguida, na seção3,enunciada-se e prova-se um teorema e um corolário. Na seção4 são apresentadas as conclusões e con-siderações.

2 FUNDAMENTAÇÃO TEÓRICA

Esta seção trata de alguns resultados importantes para o desenvolvimento das ideias. Os primeirosconceitos a serem tratados dizem respeito a erros de discretização, erros de truncamento local e con-sistência, enunciados conformeFerziger and Peric (2002):

Definição 2.1(Erro de Discretização Global). Sejamu euΨ os vetores solução das equações contínuae discretizada sobre uma malhaΨ, respectivamente. O erro de discretização global é definidopor:

εΨ = u− uΨ (2)

Definição 2.2(Erro de Truncamento Local). Dada uma equação diferencialP(u) = f e uma equaçãode diferenças finitasPΨ(u) = f . O erro de truncamento local pode ser formalmente definido como adiferença entre as equações contínua e discreta, ou seja:

TΨ = P(u)− PΨ(u) (3)

isto é, é o erro cometido em uma iteração do método numérico, supondo que a solução exata é conhecidano(s) passo(s) anterior(es).

Definição 2.3(Consistência). Diz-se que um esquema de diferenças finitas é consistente coma equaçãodiferencial parcial se, para toda função suaveu,

TΨ −→ 0 quando ∆t,∆x −→ 0, (4)

com convergência pontual para cada(x, t).

A seguir, dois importantes teoremas são transcritos a partir deLima (2011):

Teorema 2.1(Teorema de Schwarz). Sejaf : U −→ R duas vezes diferenciável no pontoc ∈ U ⊂ Rn.Para quaisquer1 ≤ i, j ≤ n, tem-se

∂2f

∂xi∂xj(c) =

∂2f

∂xj∂xi(c) (5)

Teorema 2.2(Teorema de Green). SejaM ⊂ R2 um compacto cujo bordo é uma curva∂M . Sea, b :M −→ R são funções de classeC1 então vale a igualdade:

∫ ∫

M

(∂b

∂x− ∂a

∂y

)dxdy =

∂M

adx+ bdy (6)

O teorema de Schwarz, evidentemente, se aplica para derivadas repetidas de ordem superior à segunda(Lima, 2011).

V Simposio de Metodos Numericos Computacionais

10

3 RESULTADOS

SejaΩ = (a, b)× R∗+ ⊂ R2 eΓ o seu contorno. Considere o seguinte problema de valor inicial:

∂2u

∂t2− c2

∂2u

∂x2= 0, emΩ

u = φ, emt = 0∂u

∂t= ψ, emt = 0

(7)

com condições de contorno adequadas. A discretização da equação anterior pelo método de diferençasfinitas centrais no tempo e no espaço é:

uj+1i − 2uji + uj−1

i

∆t2=

c2

∆x2(uji+1 − 2uji + uji−1

)(8)

em queuji é a notação indicial parau(xi, tj), comxi = a + i∆x, 0 ≤ i ≤ n, tj = j∆t, 0 ≤ j ≤ q,2 ≤ n, q ∈ N e∆x = (b − a)/n, sendon + 1 o número de nós da malha eq o número de avanços notempo. Tal método é de ordemO(h2), no tempo e no espaço, com estabilidade condicionada à restrição(Strikwerda, 1947):

∣∣∣∣c∆t

∆x

∣∣∣∣ ≤ 1 (9)

Substituindo a soluçãou(x, t) verdadeira em (8), supondo queu ∈ C∞ e usando série de Taylor,obtém-se:

(∂2u

∂t2+

∆t2

12

∂4u

∂t4+

∆t4

360

∂6u

∂t6+ · · ·

)∣∣∣∣xi,tj

= c2(∂2u

∂x2+

∆x2

12

∂4u

∂x4+

∆x4

360

∂6u

∂x6+ · · ·

)∣∣∣∣xi,tj

(10)

Mas, comou satisfaz (7) e na hipótese de queu ∈ C∞, então pelo teorema2.1:

∂4u

∂t4= c2

∂4u

∂x2∂t2= c2

∂4u

∂t2∂x2= c4

∂4u

∂x4

∂6u

∂t6= c2

∂6u

∂x2∂t4= c2

∂6u

∂t4∂x2= c6

∂6u

∂x6(11)

......

Segue-se que os dois lados de (10) diferem por:

TΨ(xi, tj) =1

12(∆t2c4 −∆x2c2)

∂4u

∂x4

∣∣∣∣xi,tj

+1

360(∆t2c6 −∆x4c2)

∂6u

∂x6

∣∣∣∣xi,tj

+ · · · (12)

Assim, sec∆t = ∆x, então a equação (12) que descreve o erro de truncamento local será nula, isto é,TΨ(xi, tj) = 0. Em outras palavras, seu ∈ C∞ for uma solução do problema (7), entãou também serásolução de (8), quandoc∆t = ∆x. Por este motivo, esta relação é chamada de razão de ouro (Strang,1986), e espera-se uma acurácia perfeita, visto que o esquema é perfeitamente consistente.

Será provado, a seguir, queu não precisa ser necessariamente de classeC∞ para que o erro local sejanulo.

Teorema 3.1.Seu ∈ C2 é solução de (7), entãou é também solução de (8) quandoc∆t = ∆x.

Demonstração:É conhecido que a equação (7) possui duas retas características:x−ct = ξ ex+ct = η,em queξ eη são duas constantes. Considere uma malha comn+1 pontos de discretização (n elementos)

V Simposio de Metodos Numericos Computacionais

11

x0 x1 x2 x3 · · · xn−1 xn

t1

t2

...

tm

∆x

∆t

X

Tx− ct = x2x + ct = xn−1

t0

Figura 1: Discretização do domínioΩ por meio das características

no espaço, tal que o incremento espacial seja dependente do incremento temporal. A relação utilizada éaquela fornecida pelas retas características, isto é,∆x = c∆t, conforme figura1.

Seja o volume de controle espaço/tempo quadrilátero com contornoL =⋃4

i=1 Li representado nafigura2. Integrando a equação (7) ao longo deste volume de controle e aplicando o teorema de Green,conforme2.2, obtém-se:

(xi, tj)(xi+1, tj)(xi−1, tj)

(xi, tj−1)

(xi, tj+1)

L1

L2L3

L4

Figura 2:(i, j)-ésimo volume de controleV Ci,j centrado em(xi, tj)

0 =

V Ci,j

(utt − c2uxx)dxdt =

L

−c2uxdt− utdx =4∑

i=1

Li

−c2uxdt− utdx (13)

Então:

• SobreL1 eL3, tem-se quedx = cdt, de modo que:∫

L1

−c2uxdt− utdx = −c∫

L1

uxdx+ utdt = −c[u(xi+1, tj)− u(xi, tj−1)] (14)∫

L3

−c2uxdt− utdx = −c∫

L3

uxdx+ utdt = −c[u(xi−1, tj)− u(xi, tj+1)] (15)

V Simposio de Metodos Numericos Computacionais

12

• Sobre os ladosL2 eL4, a relação dada édx = −cdt, e com isso:∫

L2

−c2uxdt− utdx = c

L2

uxdx+ utdt = c[u(xi, tj+1)− u(xi+1, tj)] (16)∫

L4

−c2uxdt− utdx = c

L4

uxdx+ utdt = c[u(xi, tj−1)− u(xi−1, tj)] (17)

Substituindo as equações (14-17) em (13) e, após simplificações, será obtido:

u(xi, tj+1) = u(xi−1, tj) + u(xi+1, tj)− u(xi, tj−1), para1 ≤ i ≤ n− 1, j ≥ 1 (18)

Em notação indicial:

uj+1i = uji−1 + uji+1 − uj−1

i , para1 ≤ i ≤ n− 1, j ≥ 1 (19)

Em outras palavras, uma funçãou ∈ C2 que satisfaz a equação contínuau(x, t)tt − c2u(x, t)xx = 0satisfaz também a equação discreta (8), desde que a relação entre os incrementos da malha sejac∆t =∆x.

Corolário 3.2. Seu ∈ C2 e c∆t = ∆x, então o esquema (8) possui erro de truncamento local nulo.

Demonstração:Sejau ∈ C2 uma solução em sentido clássico para a equação (7). Pelo teorema3.1, utambém é solução da equação (8). Sendo assim:

TΨ =[utt − c2uxx

]− [u(xi, tj+1)− u(xi−1, tj)− u(xi+1, tj) + u(xi, tj−1)] = 0− 0 = 0 (20)

4 CONCLUSÕES

Este trabalho teve por objetivo mostrar que um esquema de diferenças finitas centrais, aplicado àequação da onda linear homogênea unidimensional, possui erro de truncamento local nulo mesmo parasoluções em sentido clássico, isto é, soluções de classeC2. Na seção3 foi apresentada a demonstraçãoda referida afirmativa. Para isso, foram utilizadas as curvas característicasx − ct = ξ e x + ct = η daequação (7), para a construção de um volume de controle espaço-tempo. Aequação foi integrada sobreo referido volume e, com o auxílio do teorema de Green, obteve-se o resultado procurado.

Saliente-se que foram consideradas apenas duas hipóteses:u ser de classeC2 e c∆t/∆x = 1. Sendoassim, o resultado suporta malhas grosseiras, isto é, desdeque∆x = c∆t malhas com largos espaça-mentos continuam produzindo erro localTΨ nulo. Por outro lado, o esquema em (19) é de passo múltiplode modo que para obter a solução emtj+1 é necessário conhecer a variável nos tempostj e tj−1. Emoutras palavras, erro de truncamento localTΨ nulo não implica em erro globalεΨ nulo, tendo em vistaque o cálculo local pressupõe que a variável seja conhecida nos tempos anteriores.

REFERÊNCIAS

Di Bortolo L. Modelagem Sísmica Anisotrópica Através do Método das Diferenças Finitas UtilizandoSistemas de Equações em Segunda Ordem. Ph.D. thesis, UFRJ, Rio de Janeiro, 2010.

Fernandes L.L., Cruz J.a.C.R., Blanco C.J.C., and Barp A.R.B. Modelagem Sísmica via Métodos dasDiferenças Finitas: Caso da Bacia do Amazonas.Acta Amazonica, 39:155 – 163, 2009. ISSN 0044-5967.

Ferziger J.H. and Peric. Computational Methods for Fluid Dynamics. Springer, Berlin; Heidelberg; NewYork, 2002.

Iserles A. A First Course in the Numerical Analysis of Differential Equations. Cambridge UniversityPress, New York, 1996.

V Simposio de Metodos Numericos Computacionais

13

Lima E.L. Curso de Análise vol. 2. IMPA, Rio de Janeiro, 2011.Rodrigues V.L.C. Propagação de Ondas Unidimensionais por Meio da FormulaçãoDependente do

Tempo do Método dos Elementos de Contorno. Master’s Thesis, UFPR, Curitiba, 2012.Santos J.L.R.Modelagem da Equação da Onda Acústica Aplicada ao Imageamento de Estruturas Ge-

ológicas. Ph.D. thesis, COPPE - UFRJ, Rio de Janeiro, 2012.Strang G.Introduction to Applied Mathematics. Wellesley-Cambridge Press, 1986.Strikwerda J.C.Finite Difference Schemes and Partial Differential Equations. Siam, Phildelphia, 1947.Whitham G.B.Linear and Nonlinear Waves. Wiley Interscience, New York, 1974.

V Simposio de Metodos Numericos Computacionais

14

V Simposio de Metodos Numericos Computacionais

Um Algoritmo Genético Híbrido para o PCV

Resumo: No presente trabalho relata-se a implementação de um Algoritmo Genético Híbrido (AGH) para o Pro-blema do Caixeiro Viajante (PCV). Para tanto, foi proposto um novo operador de cruzamento denominado MáximaPreservação Heurística (MPH) que requer a heurística 3-Opt em um de seus passos de execução, o que confereao AG o caráter híbrido. Na sequência realizou-se testes com instâncias da biblioteca de problemas disponívelna internet e conhecida como Traveling Salesman Problem Library(TSPLIB). Os resultados demonstraram que oAGH apresentou bom desempenho para instâncias com até 300 cidades.

Palavras-Chave: Problema do Caixeiro Viajante, Heurísticas Híbridas, Algoritmo Genético, NovoOperador de Cruzamento.

1 INTRODUÇÃO

Diversos autores mencionam alguns aspectos motivadores para o estudo do PCV, entre eles estão afacilidade com que o problema é descrito, a dificuldade em resolvê-lo por ser NP-Completo e sua vastaaplicabilidade Karp (1975).

Para definir matematicamente o PCV devemos considerar um GrafoG(N,E) em queN = 1, 2, . . . , né o conjunto de nós ou vértices, E = 1, 2, . . . ,m é o conjunto de arestas de G e uma matriz C = [cij]tal que cij representa o custo associado a aresta que liga os vértices i e j. O problema consiste em deter-minar o menor ciclo hamiltoniano do Grafo G, sendo que o tamanho do ciclo é dado pelo somatório doscustos das arestas que o compõem Prestes (2006).

Se usarmos os termos “cidades” ao invés de vértices e “estradas” ao invés de arestas o problema podeser reescrito como: determinar o trajeto mais curto que um viajante deveria percorrer em uma sequênciade visitas partindo de uma das cidades, deslocando-se pelas estradas disponíveis a fim de visitar todasas outras cidades uma única vez e, ao final, retornando ao ponto de partida. Em Bodin et al. (1983) são

Adriano Vitor, Luzia Vidal de Souza,Paulo Henrique Siqueira, Dirceu Scaldelai

15

apresentadas algumas formulações matemáticas para o PCV, dentre elas está a formulação dada a seguir:

MinN∑

i=1

N∑

j=1

cij × xij (1)

s.a :N∑

i=1

xij = 1 (j = 1, . . . , N) (2)

N∑

j=1

xij = 1 (i = 1, . . . , N) (3)

xij ∈ 0, 1 (i, j = 1, . . . , N) (4)X = xij ∈ S (i, j = 1, . . . , N) (5)

Onde cij e xij são, respectivamente, os custos e as variáveis de decisão associados com a tarefa dedeslocar-se da cidade i para j. Quando xij = 1, prolonga-se a rota com o arco (i, j) que liga as cidadesi e j.

A função objetivo (1) representa o custo total a ser minimizado. O conjunto de restrições (2) e (3)asseguram que cada cidade i será designada a exatamente uma cidade j. O conjunto (4) garantem que asvariáveis xij assumirão os valores 0 ou 1, e podem ser substituídas por:

xij ≥ 0 (i, j = 1, . . . , N) (6)

O conjunto S, em (5) é qualquer grupo de restrições que impeçam a formação de subrotas, ou seja,garantem que a solução final forma um ciclo hamiltoniano. Em Bodin et al. (1983) são apresentadasalgumas possibilidades para o conjunto S.

A obtenção da solução ótima, utilizando um método exato de resolução do modelo descrito anterior-mente, fica comprometida em termos de tempo de execução à medida que o número de cidades (vértices)envolvidas aumenta. Desta forma, diversas metodologias aproximadas tem sido propostas com muitosucesso ao longo dos anos.

Apesar de existirem outras metodologias aproximadas (heurísticas) com bom desempenho para aresolução do PCV, as propostas de AGs híbridos presentes na literatura mais recente sugerem que seuuso é muito promissor, provavelmente pelos argumentos a seguir:

• A possibilidade de aproveitar o potencial de heurísticas consagradas na literatura em suas rotinasinternas, seja para gerar a população inicial ou auxílio aos operadores genéticos.

• O fato dos AGs possuírem estrutura propícia a execução em paralelo, ação que está em alta devidoaos recentes avanços no campo da informática.

• Possuir a propriedade de explorar simultaneamente múltiplos pontos do espaço de soluções de umproblema.

• As modificações em um AG para modelar variações do problema original são muito fáceis deimplementar, diferentemente de outras heurísticas.

• Não requer muitas premissas, tais como: linearidade, convexidade e diferenciabilidade, entre out-ras.

Em 2013, Honda et al. (2013) apresentaram um AG com processamento em paralelo, encontrandoas melhores soluções da literatura para problemas com até 180.000 cidades. Os autores concluem queo processamento em paralelo foi capaz de reduzir o tempo de execução em até 20 vezes mantendo aqualidade das soluções encontradas. Os autores conseguiram melhorar os menores trajetos já encontra-dos na literatura para as instâncias vangogh120K e courbet180K contendo 120.000 e 180.000 cidades,respectivamente.

V Simposio de Metodos Numericos Computacionais

16

Estas instâncias fazem parte de uma coleção presente em Cook (2014) e conhecida como PCVs Artís-ticos por ter sido construída sobre quadros de artistas mundiais famosos, tais como a obra Monalisa deDa Vinci. Nas observações finais do artigo, é mencionado que serão realizados trabalhos futuros natentativa de obter os melhores trajetos da literatura para outras instâncias ainda não testadas.

Ghorpade and Kamalapur (2014) propõe um AG com processamento em paralelo, contudo com umafilosofia diferente da apresentada por Honda et al. (2013). Neste trabalho, os autores realizam o pro-cessamento em paralelo utilizando os núcleos de processamento da placa de vídeo do computador, ouseja, utilizam a Graphics Processing Unit (GPU) em vez de usar a Central Processing Unit (CPU) comorealizado por Honda et al. (2013). Esta modificação pode acelerar ainda mais o AG, uma vez que a GPUpossui centenas de processadores enquanto que a CPU somente cerca de uma dezena deles, de acordocom os recursos tecnológicos disponíveis atualmente.

Tsai et al. (2014) apresenta um AG de alto desempenho em termos de tempo de execução, tanto parao AG quanto para suas variações, o que implica em melhorar os tempos de AGs híbridos. Para isso aestratégia foi construir uma rotina que avalia e guarda trechos de cromossomo comuns a toda populaçãoao longo das gerações, usando essas informações para evitar indivíduos não promissores. Nos testesforam usadas instâncias da biblioteca TSPLIB.

2 DETALHES DA IMPLEMENTAÇÃO DO AGH

A implementação do AGH descrito neste trabalho foi realizada em MatLab R2013b segundo os passosdo fluxograma da Figura 1.

Gerar Populacao Inicial

Calcular o Fitness da Populacao

Realizar Mutacao

Determinar Sobreviventes entre Casal e Filhos

Gerar Lista de Selecao para Cruzamento

Criterio de ParadaSim

Nao

Apresentar Solucao

Aplicar MPH em Casal da Lista

Existe Proximo Casalna Lista de Cruzamento?

Sim

Nao

Realizar Elitismo

Figura 1: Passos do AGH

A população inicial de soluções foi gerada com a heurística do Vizinho Mais Próximo. O cálculo dofítness de cada indivíduo da população foi obtido pelo somatório das distâncias ao percorrer o trajetoindicado pelo referido indivíduo. Adotou-se como critério de parada a ocorrência de 1000 geraçõesou a obtenção da solução ótima. Para gerar a lista de seleção para cruzamentos utilizou-se o método doTorneio. Foram implementados os operadores de mutação por inversão e por troca, conforme descrito emFogel (1988) e Banzhaf (1990), respectivamente. A rotina de elitismo, presente no fluxograma, garanteque o melhor indivíduo da geração t deverá estar presente na geração t + 1. Para melhor entendimento

V Simposio de Metodos Numericos Computacionais

17

do AGH, apresenta-se seu pseudocódigo a seguir:

Pseudocódigo: AGHDados de Entrada: Matriz de Distâncias e os Parâmetros do AGH .

Gerar a População InicialEnquanto Iteração for menor que CritérioParada ou a População não contiver a Solução Ótima. Faça

Avaliar Fitness da PopulaçãoDeterminar Lista de Indivíduos para CruzamentoEnquanto percorre a Lista de Cruzamentos. Faça

Realizar o Cruzamento em um Casal da Lista com o operador MPHRealizar Mutação sobre o mesmo Casal da ListaDeterminar 2 sobreviventes: entre pai, mãe e filho

FimRealizar Elitismo

FimDados de Saída:Vetor contendo a melhor solução encontrada

Neste pseudocódigo, os termos em negrito dizem respeito à variáveis ou parâmetros de inicializaçãodo algoritmo, cuja descrição é dada na Tabela 1.

Tabela 1: Parâmetros para o AGH Proposto

Parâmetro Valor ou Intervalo DescriçãoTamanho [17,300] Tamanho dos problemas testadosTamPop 15 Tamanho da populaçãoPercMutação 10% Percentual de mutação a cada geraçãoPercCruzamento 90% Percentual de Cruzamentos a cada geraçãoElitismo 1 Indivíduos preservados pelo elitismoCritérioParada 1000 Quantidade de gerações permitidasParâmetroE 40% Percentual de genes de cada indivíduo a sofrer mutaçãoFaixa 10 Profundidade da heurística 3-Opt

2.1 Operador MPHEste operador gera um único filho ao ser aplicado, para tal, seleciona-se todos os trechos contendo

duas ou mais arestas comuns aos pais para serem transferidas para o filho. No pseudocódigo descreve-seo operador MPH.

Pseudocódigo: MPHDados de Entrada: População, Lista de indivíduos para CruzamentoEnquanto Lista de Indivíduos não estiver vazia. Faça

Passo 1: a) Selecionar dois pais da Listab) Reservar os trechos contendo duas ou mais arestas comuns entre os pais.

Passo 2: Construir subproblema e obter uma solução inicial para ele.Passo 3: Aplicar heurística 3-Opt sobre a solução inicial do subproblema.Passo 4: a) Reconstruir problema Original.

b) Comparar filho com os pais e substituir se houve ganho.c) Excluir pais atuais da Lista.

FimDados de Saída: População

Para auxiliar no entendimento, o operador MPH será aplicado em um exemplo fictício com 25 cidades.As duas soluções pais e os trechos do filho, determinados no Passo 1 do pseudocódigo do MPH, sãoapresentados na Figura 2.

V Simposio de Metodos Numericos Computacionais

18

(a) Pai 1 (b)Pai 2

(c) Trechos do Filho 1

11

1517

3

6

5

12

13

23

18

24

25

22

720

21

19

4

16

2

1

10

98

14

11

1517

3

6

5

12

13

23

18

24

25

22

720

21

19

4

16

2

1

10

98

14

11

1517

3

6

5

12

13

23

18

24

25

22

720

21

19

4

16

2

1

10

98

14

Figura 2: Resultado do Passo 1 do Operador MPH

Para construir o subproblema da Figura 3(b), de que trata o Passo 2 do pseudocódigo do MPH,exclui-se todas as cidades do problema original, interiores aos trechos que serão transferidos para ofilho (cidades em vermelho na Figura 3(a)). Após as exclusões, um subproblema com menos cidades ecom a obrigatoriedade de ligação entre as cidades extremidades dos segmentos transferidos para o filhoé obtido e está ilustrado na Figura 3(b).

11

15

3

12

13

18

24

25

22

7

212

1

14

16 20

b) Subproblema Gerado Apos Exclusoes

a) Cidades do problema original e trechos a serem transferidos para o filho

11

15 17

3

6

5

12

13

23

18

24

25

22

720

21

19

4

16

2

1

10

98

14

Figura 3: Subproblema do Passo 2 do Operador MPH

Na sequência, executa-se o Passo 3, sendo gerada uma solução inicial para o subproblema e aplicado,sobre ela, a heurística 3-Opt para obter a solução apresentada na Figura 4.

11

15

3

12

13

18

24

25

22

7

212

1

14

16 20

Figura 4: Solução Para o Subproblema

Por fim, no Passo 4 faz-se a reinserção das cidades excluídas de forma apropriada entre as cidadesextremidades dos segmentos da Figura 2(a) e tem-se uma solução filho (Figura 5) para o problemaoriginal.

V Simposio de Metodos Numericos Computacionais

19

11

15 17

3

6

5

12

13

23

18

24

25

22

720

21

19

4

16

2

1

10

98

14

Figura 5: Filho Gerado pelo Operador MPH

3 RESULTADOS

O MPH foi aplicado sobre as instâncias com menos de 300 cidades, presentes na TSPLIB. Realizou-se100 execuções para cada instâncias e os resultados estão presentes na Tabela 2 a seguir.

Tabela 2: Resultados Após 100 execuções do AGH para Instâncias com até 300 cidades

Nome Estruturas Cidades Ótimo Sucesso (%) Proximidade (%) Tempo (seg)MenEx MedEx MaxEx Pré Mín. Média

gr17 Matriz 17 2085 100 0,000 0,000 0,000 3,0 0,2 1,1gr21 Matriz 21 2707 100 0,000 0,000 0,000 1,0 0,3 0,5gr24 Matriz 24 1272 100 0,000 0,000 0,000 2,5 0,3 2,0fri26 Matriz 26 937 100 0,000 0,000 0,000 1,1 0,3 1,9

bayg29 Matriz/Geo 29 1610 100 0,000 0,000 0,000 2,4 0,4 2,1bays29 Matriz/Geo 29 2020 100 0,000 0,000 0,000 2,5 0,3 1,7

dantzig42 Euc 2d 42 688 100 0,000 0,000 0,000 2,1 0,3 1,1swiss42 Matriz 42 1273 100 0,000 0,000 0,000 3,2 0,4 1,7att48a Euc 2d 48 33524 100 0,000 0,000 0,000 2,4 0,4 2,3gr48b Matriz 48 5046 100 0,000 0,000 0,000 2,5 0,6 4,0hk48 Matriz 48 11461 100 0,000 0,000 0,000 1,7 0,7 2,4eil51 Euc 2d 51 429 100 0,000 0,000 0,000 1,4 0,6 2,2

Berlin52 Euc 2d 52 7544 100 0,000 0,000 0,000 2,1 0,6 1,5Brasil58 Matriz 58 25395 100 0,000 0,000 0,000 1,2 0,5 1,7

st70 Euc 2d 70 677 100 0,000 0,000 0,000 2,7 1,0 4,4eil76a Euc 2d 76 545 100 0,000 0,000 0,000 2,0 1,1 7,4pr76b Euc 2d 76 108159 100 0,000 0,000 0,000 2,2 1,2 4,9gr96 GEO 96 54688 64 0,000 0,005 0,140 2,0 4,0 596,3rat99 Euc 2d 99 1219 100 0,000 0,000 0,000 1,7 1,3 8,4

kroE100 Euc 2d 100 22069 27 0,000 0,145 0,231 2,9 7,8 926,3rd100 Euc 2d 100 7910 100 0,000 0,000 0,000 2,4 1,2 9,4

kroC100 Euc 2d 100 20751 100 0,000 0,000 0,000 5,1 0,7 4,0kroA100 Euc 2d 100 21285 100 0,000 0,000 0,000 3,7 0,6 1,5kroD100 Euc 2d 100 21294 100 0,000 0,000 0,000 2,9 2,5 17,1kroB100 Euc 2d 100 22139 88 0,000 0,031 0,263 4,5 0,7 299,1

eil101 Euc 2d 101 641 100 0,000 0,000 0,000 2,2 1,5 30,5lin105 Euc 2d 105 14383 100 0,000 0,000 0,000 2,5 2,2 3,4pr107 Euc 2d 107 44302 100 0,000 0,000 0,000 2,3 2,2 40,6gr120 Euc 2d 120 1610 100 0,000 0,000 0,000 1,0 6,9 53,5pr124 Euc 2d 124 59031 100 0,000 0,000 0,000 1,9 2,7 19,5

bier127 Euc 2d 127 118294 100 0,000 0,000 0,000 1,2 8,1 127,6ch130 Euc 2d 130 6111 100 0,000 0,000 0,000 1,6 13,4 80,9pr136 Euc 2d 136 96771 100 0,000 0,000 0,000 1,8 56,7 167,0gr137 GEO 137 69853 100 0,000 0,000 0,000 1,6 6,3 19,6pr144 Euc 2d 144 58535 100 0,000 0,000 0,000 1,4 3,3 26,3

kroB150 Euc 2d 150 26127 99 0,000 0,000 0,001 3,1 3,3 54,7ch150 Euc 2d 150 6532 96 0,000 0,000 0,306 2,6 3,4 155,1

kroA150 Euc 2d 150 26525 100 0,000 0,000 0,000 2,0 3,5 35,5pr152 Euc 2d 152 73684 100 0,000 0,000 0,000 1,5 3,8 13,8u159 Euc 2d 159 42076 100 0,000 0,000 0,000 1,6 3,3 5,8

continua na próxima página

V Simposio de Metodos Numericos Computacionais

20

continuação da página anterior

Nome Estruturas Cidades Ótimo Sucesso (%) Proximidade (%) Tempo (seg)MenEx MedEx MaxEx Pré Mín. Média

si175 Matriz 175 21407 36 0,000 0,000 0,000 2,0 16,5 2091,2rat195 Euc 2d 195 2334 0 0,113 0,136 0,141 1,3 2250,2 2982,9d198 Euc 2d 198 15810 97 0,000 0,000 0,081 1,3 19,3 167,6

kroA200 Euc 2d 200 29369 97 0,000 0,000 0,225 2,1 13,0 227,1kroB200 Euc 2d 200 29440 91 0,000 0,027 0,300 2,6 42,7 415,5

gr202 GEO 202 40160 97 0,000 0,001 0,004 1,7 101,4 940,4tsp225 Euc 2d 225 3859 100 0,000 0,000 0,000 5,4 34,4 122,7ts225 Euc 2d 225 126646 100 0,000 0,000 0,000 3,0 19,7 121,0pr226 Euc 2d 226 80370 100 0,000 0,000 0,000 1,4 100,7 225,2gr229 GEO 229 134516 25 0,000 0,069 0,159 2,6 122,3 4352,2gil262 Euc 2d 262 2386 95 0,000 0,000 0,203 5,3 70,2 455,5pr264 Euc 2d 264 49135 100 0,000 0,000 0,000 1,8 46,5 112,4a280 Euc 2d 280 2588 100 0,000 0,000 0,000 1,9 50,9 119,3

pr299 Euc 2d 299 48195 94 0,000 0,000 0,000 3,6 87,3 653,8

Na Tabela 2, as colunas Nome, Estruturas, Cidades e Ótimo descrevem as instâncias resolvidas e ovalor ótimo da função objetivo. A coluna “Sucesso” representa a porcentagem em que o AGH obteve asolução ótima para execuções realizadas. As colunas MenEx, MedEx e MaxEx indicam os percentuaismínimos, médios e máximos de excesso sobre os valores ótimos apresentados, respectivamente, paracada instância. A coluna Pré indica o tempo necessário para realizar os cálculos prévios, tais como amatriz de distâncias. As colunas Mín. e Média apresentam o menor tempo e o tempo médio requeridospara se resolver as instâncias, considerando as 100 execuções.

4 CONCLUSÕES

Em resumo, o AGH apresentou resultados satisfatórios, encontrando a solução ótima para quase todasas instâncias testadas, com exceção da instância rat195. Para 14 instâncias (em negrito na Tabela 2), asolução ótima não foi encontrada em 100% das execuçoes, o que onerou o tempo de processamento dasmesmas. O operador MPH mostrou-se eficiente em termos de tempo de processamento para as outras 29instâncias onde houve efetividade de 100% há um tempo de processamento reduzido se comparado comas 14 instâncias.

REFERÊNCIAS

Banzhaf W. The ’molecular’ traveling salesman. Biological Cybernetics, 64(1):7–14, 1990.Bodin L., Golden B., Assad A., and Ball M. Routing and scheduling of vehicles and crews. The state of

the art. Computers and Operations Research, 10(2):63–211, 1983.Cook W. Aplications of the TSP. 2014.Fogel D.B. An evolutionary approach to the traveling salesman problem. Biological Cybernetics,

60:139–144, 1988.Ghorpade S. and Kamalapur S. Solution Level Parallelization of Local Search Metaheuristic Algorithm

on GPU. Iinternational Journal of Computer Science and Mobile Computing, 3(7):268–274, 2014.Honda K., Nagata Y., and Ono I. A parallel genetic algorithm with edge assembly crossover for 100,000-

city scale TSPs. In 2013 IEEE Congress on Evolutionary Computation, CEC 2013, pages 1278–1285.2013.

Karp H.D.R.M. On the computational complexity. Networks, 5:45–68, 1975.Prestes A.N. Uma Análise Experimental de Abordagens Heurísticas Aplicadas ao Problema do Caixeiro

Viajante. Ph.D. thesis, Universidade Federal do Rio Grande do Norte, 2006.Tsai C.w., Tseng S.p., Chiang M.c., Yang C.s., and Hong T.p. A High-Performance Genetic Algorithm

: Using Traveling Salesman Problem as a Case. Hindawi Publishing Corporation, 2014:1–15, 2014.Wang Y. The hybrid genetic algorithm with two local optimization strategies for traveling salesman

problem. Computers & Industrial Engineering, 70:124–133, 2014.

V Simposio de Metodos Numericos Computacionais

21

V Simposio de Metodos Numericos Computacionais

UM ESTUDO SOBRE A METAHEURÍSTICA

COLÔNIA DE FORMIGAS

Resumo: Algoritmos inspirados na natureza são comuns, a otimização colônia de formigas

(ACO) surgiu a partir de observações e experimentos com formigas reais. Este trabalho é um

estudo sobre a criação da metaheurística colônia de formigas. Apresenta-se o comportamento

de formigas reais, os experimentos que motivaram a criação desta técnica de otimização, a

relação/diferenças entre formigas reais e artificiais, o funcionamento dessa metaheurística,

seu algoritmo base e uma aplicação em um problema de produção.

Palavras-Chave: Metaheurística Colônia de Formigas, Otimização Colônia de Formigas,

Comportamento de formigas, Programação da Produção, Flow Shop.

Aline Kieskoski, Neida Maria Patias Volpi

22

1 INTRODUÇÃO

Inteligência coletiva ou de enxames (swarm intelligence) é um campo de pesquisa que estuda

algoritmos inspirados no comportamento de enxames (swarm) que são compostos por

indivíduos autônomos simples que cooperam com uma auto-organização, ou seja, os

indivíduos são independentes, não seguem comando de um líder, eles controlam suas ações

de modo que o enxame atinja seus objetivos. Os algoritmos de otimização colônia de

formigas fazem parte deste campo de estudo.

Os algoritmos de otimização colônia de formigas surgiram a partir da observação de

experimentos feitos com formigas reais. Colônias de formigas reais trabalham em conjunto

para encontrarem alimentos e, se comunicam através do depósito no chão de uma substância

chamada feromônio. Assim, podemos ter colônias de formigas artificiais que trabalham em

conjunto para resolverem problemas de otimização e podem se comunicar indiretamente,

simulando feromônios artificiais.

Este trabalho tem por objetivo fazer um levantamento teórico e histórico de como surgiu a

técnica de otimização colônia de formigas e como foi proposta a metaheurística colônia de

formigas. Na seção 2 comenta-se sobre o comportamento de formigas reais e os principais

experimentos que contribuíram para a criação da metaheurística colônia de formigas. Na

seção 3 apresenta-se a metaheurística colônia de formigas e na seção 4 uma aplicação dessa

metaheurística para um problema de produção.

2 COMPORTAMENTO DE FORMIGAS REAIS

Um dos primeiros pesquisadores a investigar o comportamento social dos insetos foi o

entomologista francês Pierre-Paul Grassé que descobriu que alguns insetos são capazes de

reagir a sinais que ativam uma reação, essas reações podem atuar como novos estímulos tanto

para o inseto como para outros insetos da colônia, Grassé usou o termo estigmergia

(stigmergy) para descrever esse tipo particular de comunicação (DORIGO e SOCHA, 2006).

Um exemplo de estigmergia é o movimento das formigas, enquanto elas caminham para

chegar a uma fonte de alimento depositam no chão uma substância chamada feromônio, as

outras formigas são capazes de sentir o cheiro deste feromônio e tendem a seguir caminhos

com mais feromônio.

Deneubourg et al. (1990) estudaram o comportamento, analisaram o padrão exploratório

coletivo e realizaram experimentos com formigas argentinas Iridomyrmex humilis. Em um

dos experimentos o formigueiro era ligado a uma arena de 80x80cm coberta com areia

branca, ainda não explorada e sem presença de fonte de alimento, por uma ponte binária

simples, conforme Figura 1. Inicialmente a ponte não tinha feromônio, ao caminhar as

formigas escolhiam aleatoriamente o caminho a seguir e depositavam feromônio, ao longo do

tempo uma das pontes ficava com mais feromônio até que toda a colônia convergia para

aquela ponte.

Figura1: Ponte binária. Fonte Deneubourg et al. (1990).

Goss et al. (1989) fizeram experimento com formigas argentinas Iridomyrmex humilis

ligando o ninho a uma fonte de alimento utilizando pontes com caminhos de tamanhos

diferentes. Utilizou-se dois módulos da ponte mostrada na Figura 2-a, conforme mostrado na

V Simposio de Metodos Numericos Computacionais

23

Figura 2-b, cada módulo tem dois ramos de comprimentos diferentes e cada ramo faz um

ângulo de 30º em relação ao eixo da ponte central. Cinco a 10 minutos após a colocação da

ponte as formigas descobriram a comida e o tráfego na ponte aumentou utilizando-se os dois

ramos, alguns minutos mais tarde, tornou-se visível a utilização do caminho mais curto.

Figura 2: Ponte com caminhos de tamanhos diferentes. Fonte: Goss et al. (1989).

Goss et al. (1989) sabendo que as formigas argentinas Iridomyrmex humilis depositam

feromônios durante a saída e a volta para o ninho modelaram seu comportamento ao

atravessarem a ponte considerando o depósito de uma unidade de feromônio por segundo. As

primeiras formigas escolhem aleatoriamente o caminho a seguir, aquelas que escolhem o

caminho curto chegam antes das que escolheram o caminho mais longo e consequentemente

retornam mais rápido para o ninho. Assim, enquanto o caminho mais longo é marcado apenas

pelas formigas que estão indo o caminho mais curto é marcado por formigas em ambos os

sentidos, indo e voltando. Assim o caminho mais curto acumula uma vantagem e rapidamente

torna-se o preferido, portanto quanto maior a diferença de comprimento entre os caminhos

mais rapidamente as formigas convergiram para o mais curto.

O modelo probabilístico que descreve o fenômeno descrito, proposto por Goss et al. (1989), é

apresentado na Equação 1, onde após formigas terem cruzado a ponte, é o número de

formigas que utilizaram o ramo mais curto e o número de formigas que utilizaram o ramo

mais longo, com , assim é a probabilidade da formiga escolher

o ramo , ignorando a evaporação do feromônio, que tem tempo de vida médio de 30

minutos, considerando , com os parâmetros e que nos permitem ajustar o

modelo aos dados.

(1)

Consideramos que as formigas que escolhem o ramo mais curto, chegam ao ponto oposto

aproximadamente após unidades de tempo, e as formigas que escolherem o ramo mais

longo, chegam ao ponto oposto após unidades de tempo, onde é a razão entre o

comprimento do ramo longo para o ramo curto. Goss et al. (1989) utilizaram os seguintes

valores de parâmetros: e .

O comportamento de formigas reais pode ser utilizado como inspiração para projetar

formigas artificiais, assim, surgiu a ideia dos algoritmos de otimização colônia formigas que

inspiraram a criação da metaheurística colônia de formigas.

3 METAHEURÍSTICA COLÔNIA DE FORMIGAS

A otimização colônia de formigas (ACO) surgiu inspirada no comportamento biológico de

formigas reais. Há muitas semelhanças entre colônias de formigas reais e artificiais, ambas

são compostas por indivíduos que trabalham juntos para atingir um determinado objetivo. No

V Simposio de Metodos Numericos Computacionais

24

caso de formigas reais, o problema consiste em encontrar o alimento enquanto que, no caso

de formigas artificiais, o problema é encontrar uma solução para um problema de otimização.

Nas formigas reais, a comunicação acontece através do depósito de feromônio no chão, as

formigas artificiais podem simular o feromônio modificando valores de feromônios artificiais

enquanto constroem soluções para o seu problema. Uma formiga sozinha (real ou artificial) é

capaz de encontrar uma boa solução para o seu problema, mas apenas a cooperação entre os

vários indivíduos permite encontrar boas soluções.

Dorigo e Socha (2006) enfatizaram a existência de algumas diferenças importantes entre

formigas reais e artificiais: formigas artificiais vivem em um mundo discreto e se movem

sequencialmente através de um conjunto finito de estados de problema, a atualização dos

feromônios não é realizada da mesma maneira e também existem algumas implementações de

formigas artificiais, que utilizam mecanismos adicionais que não existem no caso das

formigas reais, como por exemplo, uma busca local.

Dorigo e Di Caro (1999) formalizam a ideia de como uma colônia de formigas artificiais

poderá encontrar boas soluções para problemas de otimização, representando o problema em

um grafo, onde a tarefa principal das formigas artificiais será encontrar o caminho mais curto

entre um par de nós do grafo. A Figura 3 nos mostra um exemplo de um grafo onde o

caminho traçado em linha sólida representa o caminho mais curto, as formigas que

escolherem esse caminho vão chegar mais rápido ao destino, portanto, serão as primeiras a

retornarem ao nó de origem.

Figura 3: Construção de soluções das formigas a partir de um nó fonte para um nó destino.

Dorigo, Maniezzo e Colorni (1991) observaram a presença de efeitos sinérgicos (synergetic)

na iteração das formigas, de fato, a qualidade da solução obtida aumenta quando o número de

formigas que trabalham no problema aumenta. Eles também apresentaram a viabilidade de

processos autocatalíticos (autocatalytic) como uma metodologia de otimização de

aprendizagem, a iteração de muitos processos autocatalíticos pode levar a uma rápida

convergência para um subespaço do espaço de solução que contém soluções muito boas, em

outras palavras, todas as formigas não convergem para uma única solução, mas para um

subespaço de soluções, depois disso vão em busca de melhorar as soluções encontradas.

Dorigo, Di Caro e Gambardella (1999) ressaltam que ao usar autocatálise devemos tomar

cuidado para evitar a convergência prematura (estagnação), isto é, quando temos um ótimo

local, ou por conta de condições iniciais que fazem com que um indivíduo não muito bom,

seja melhor que todos, impedindo assim uma maior exploração do espaço de busca.

Em algoritmos de otimização colônia de formigas (ACO) um número finito de formigas

artificiais procura soluções de boa qualidade para o problema de otimização a ser resolvido.

Cada formiga constrói uma solução, partindo de um estado inicial, selecionado de acordo

com alguns critérios dependentes do problema. De acordo com a noção atribuída de

vizinhança (dependente do problema), cada formiga constrói uma solução movendo através

de uma sequência finita de estados vizinhos. Os movimentos são selecionados através da

aplicação de uma regra que pode conter informações privadas da formiga (memória) ou pelas

V Simposio de Metodos Numericos Computacionais

25

trilhas de feromônios.

Segundo Dorigo, Di Caro e Gambardella (1999) a formiga pode carregar na memória

informações para calcular o valor da solução gerada e ou a contribuição de cada movimento

executado, em alguns problemas, por exemplo, alguns movimentos podem levar a formiga a

soluções inviáveis, isso pode ser evitado através da exploração da memória da formiga.

Formigas, portanto, pode construir soluções viáveis usando só o conhecimento sobre o estado

local e sobre os efeitos de ações que podem ser executadas no estado local. A informação

pública local pode ser uma informação heurística de um problema específico ou informação

codificada nas trilhas de feromônio, acumulada por todas as formigas desde o início do

processo de pesquisa. As formigas podem liberar feromônios durante a construção de uma

solução, ou depois da solução construída, movendo-se de volta por todos os pontos visitados,

a decisão de como o feromônio será depositado depende das características do problema. Em

geral a quantidade de feromônio depositada é feita proporcionalmente de acordo com a

solução que a formiga construiu (ou está construindo), se a solução é de alta qualidade o

depósito de feromônio pode ser maior.

A solução de um problema de otimização é expressa como um custo mínimo (ou menor

caminho) de acordo com as restrições do problema. Soluções de alta qualidade são

encontradas somente como o resultado da cooperação global entre todos os agentes da

colônia simultaneamente construindo diferentes soluções.

A primeira abordagem da ACO foi proposta por Dorigo, Maniezzo, Colorni (1991) chamada

de Ant System (AS) e Dorigo, Maniezzo, Colorni (1996) aplicaram o Ant System (AS) no

clássico problema do caixeiro viajante e sugeriram a aplicação em outros problemas de

otimização como: problema do caixeiro viajante assimétrico e problemas de programação job

shop. Posteriormente, Dorigo e Gambardella (1997) propuseram um sistema colônia de

formigas, Ant Colony System (ACS), que também foi aplicado no clássico Problema do

Caixeiro Viajante.

Dorigo, Di Caro e Gambardella (1999) apresentaram a metaheurística colônia de formigas, o

algoritmo da metaheurística otimização colônia de formigas é mostrado no Algoritmo 1,

trata-se de uma etapa de inicialização e um laço composto por três componentes algorítmicos,

onde uma única iteração do ciclo consiste na construção de soluções por todas as formigas.

Conjunto de parâmetros.

Inicialize as trilhas de feromônios.

While não atender as condições de parada do

Formigas constroem soluções

Aplica uma regra de busca local opcional

Atualização dos feromônios

end while

Algoritmo 1: Algoritmo da metaheurística ACO. Fonte: Dorigo e Socha (2006).

Na atualização dos feromônios precisamos de um equilíbrio entre a exploração de novos

pontos e a exploração do conhecimento já acumulado. Também podemos analisar a

viabilidade da decisão de escolha do caminho enriquecendo com componentes específicos do

problema que queremos resolver, podemos também, por exemplo, excluir a formiga do

sistema assim que realizou sua missão de construir uma solução e depositar feromônio. Além

das atualizações locais citadas, a metaheurística ACO pode observar todas as formigas e

recolher informações globais, de todas as soluções, que podem ser utilizadas, por exemplo,

para depositar feromônio em alguns locais específicos que produzem soluções melhores

(DORIGO, DI CARO E GAMBARDELLA, 1999).

Diversas variantes da metaheurística otimização colônia de formigas foram propostas na

V Simposio de Metodos Numericos Computacionais

26

literatura, Dorigo e Socha (2006) julgam que as três mais bem sucedidas são: Ant System

(AS) (primeira implementação de um algoritmo ACO), Ant System ( AS) e

Ant Colony System (ACS).

4 APLICAÇÃO EM UM FLOW SHOP

A primeira aplicação da abordagem ACO foi feita por Dorigo, Maniezzo, Colorni (1996) que

aplicaram o algoritmo Ant System (AS) no clássico problema do caixeiro viajante e sugeriram

a aplicação em outros problemas de otimização. Dorigo e Socha (2006) ressaltaram a

possibilidade de aplicar algoritmos ACO em outros problemas de otimização como:

otimização dinâmica, otimização multiobjetivo, problemas estocásticos e otimização

contínua. Nesta seção iremos apresentar a abordagem de um algoritmo de ACO para um

problema de flow shop.

Os problemas de flow shop vêm sendo estudados a décadas e são considerados NP-hard. Em

um problema de flow shop tem-se m estágios onde em cada estágio pode-se ter uma ou mais

máquinas e tem-se n tarefas (ou trabalhos) que devem ser processadas nas máquinas

ordenadamente, isto é, cada tarefa deve ser processada primeiro no estágio 1, depois no 2 e

assim sucessivamente. Tempos de processamento para cada tarefa em cada máquina podem

ser diferentes. A representação apresentada neste trabalho é para o caso em que temos uma

máquina em cada estágio, porém, esta pode ser facilmente adaptada para o caso de mais

máquinas como também, para outros problemas como job shop.

Figura 4: Representação de um problema de flow shop. Fonte: Ying e Liao (2004).

Podemos representar um problema de flow shop por um grafo disjuntivo G = (O, C, D), onde

O é o conjunto de nós correspondente a todas as operações de processamento, onde é o

processamento da tarefa na máquina . C é o conjunto de arcos direcionados e D é o

conjunto de arcos não direcionados, temos também um ninho N e uma fonte de alimento F

que são representados por nós artificiais.

A Figura 4 representa um problema de flow shop com 3 tarefas e 4 máquinas. Os arcos

pontilhados representam os arcos por máquinas, o sentido destes arcos depende da ordem

estabelecida para as tarefas.

As formigas são colocadas no ninho N e movem-se pelos nós com base em uma regra de

transição que utiliza-se de informações das trilhas de feromônios. A formiga completa uma

solução quando passa por todos os nós. As arestas do grafo carregam consigo informações do

problema, como tempo de processamento das tarefas, tempo de setup entre as tarefas e

informações dos feromônios. Os valores dessas trilhas de feromônios são atualizados de

acordo com regras pré estabelecidas que são aplicadas após cada formiga completar uma

solução (regra de atualização local) e também após todas as formigas terem completado suas

soluções (regra de atualização global).

V Simposio de Metodos Numericos Computacionais

27

5 CONCLUSÕES

Observar o comportamento biológico dos animais pode ser uma inspiração para criação de

técnicas de resolução de problemas, assim, a partir de observações de colônias de formigas

surgiu a metaheurística colônia de formigas. Entendemos que a seleção do caminho mais

curto por formigas reais, não é resultado da comparação de comprimentos dos caminhos, e

sim, um processo coletivo de auto-organização e comunicação por estímulos (stigmergy), no

caso das formigas, por feromônios. A ideia da representação de problemas em grafos faz-nos

perceber, como é grande a gama de problemas, que podem ser resolvidos utilizando esta

técnica, fazendo com que formigas artificiais encontrem o menor caminho entre dois nós do

grafo.

Este trabalho é uma ferramenta introdutória para quem pretende resolver problemas de

otimização utilizando esta metaheurística. O Algoritmo 1, é um algoritmo base para resolver

problemas de otimização, a aplicação apresentada pode ser adaptada para diferentes tipos de

problemas. Para entender um pouco mais sobre as variantes desse algoritmo e sobre algumas

aplicações sugiro a leitura de Dorigo e Socha (2006).

REFERÊNCIAS

DENEUBOURG, J. L.; ARON, S.; GOSS, S.; PASTEELS, J. M.; The self-organizing

exploratory pattern of the argentine ant. Journal of insect behavior, v.3, n.2, p.159-168, 1990.

DORIGO, M.; MANIEZZO, V.; COLORNI, A.; Positive feedback as a search strategy.

Technical Report 91-016. Milan, Italy: Politecnico di Milano, Dipartimento di Elettronica,

1991.

DORIGO, M.; MANIEZZO, V.; COLORNI, A.; Ant system: optimization by a colony of

cooperating agents. IEEE Transactions on Systems, Man, and Cybernetics, Part B:

Cybernetics, v. 26, n. 1, p. 29-41, 1996.

DORIGO, M.; GAMBARDELLA, L. M.; Ant colony system: a cooperative learning

approach to the traveling salesman problem. IEEE Transactions on Evolutionary

Computation, v. 1, n. 1, p. 53-66, 1997.

DORIGO, M.; DI CARO, G.; The Ant Colony Optimization Meta-Heuristic. In: CORNE, D.;

DORIGO, M.; GLOVER, F. (Eds). New Ideas in Optimization, New York, McGraw-Hill,

1999. p. 11-32.

DORIGO, M.; DI CARO, G. GAMBARDELLA, L.M.; Ant Algorithms for Discrete

Optimization. Artificial Life, v.5, p.137-172, 1999.

DORIGO, M.; SOCHA, K.; An introduction to ant colony optimization. Technical Report

2006-010. Bruxelles, Belgium: IRIDIA – Institut de Recherches Interdisciplinaires et de

Développements en Intelligence Artificielle, Université Libre de Bruxelles, 2006.

GOSS, S.; ARON, S.; DENEUBOURG, J. L.; PASTEELS, J. M.; Self-organized shortcuts in

the Argentine ant, Naturwissenschaften, v.76, p. 579-581, 1989.

YING, K-C.; LIAO, C-J; An ant colony system for permutation flow-shop sequencing.

Computers & Operations Research, v.31, p. 791-801, 2004.

V Simposio de Metodos Numericos Computacionais

28

V Simposio de Metodos Numericos Computacionais

MODELO PARA PREVISÃO DE EVAPORAÇÃO EM

RESERVATÓRIOS DE ÁGUA

Resumo: O trabalho apresenta uma aplicação do método Least Square Support Vector

Machine (LSSVM) na sua variante de regressão, para calcular previsões de evaporações

líquidas de reservatórios. No estudo, devido a problemas burocráticos, não se pode utilizar

dados nacionais, portanto foram utilizadas 48 amostras de um reservatório de água indiano,

composto das médias semanais dos seguintes parâmetros: temperatura (º C), velocidade

média do vento (m/s), horas de sol (h/dia) e umidade relativa do ar (%), para estimar valores

da evaporação em milímetros por dia. Foram utilizados 30 amostras para o treinamento e as

18 restantes para a etapa de teste, obtendo valores para a raiz do erro quadrático médio

(RMSE) próximas a 0,5534, menor que o obtido no artigo onde se referenciam os dados.

Palavras-Chave: Previsões, Least Squares Support Vector Machine, Evaporação.

1 INTRODUÇÃO

Catástrofes climáticas ocorrem com frequência e, algumas vezes, com maior intensidade ao

redor do mundo. O prejuízo pela destruição de prédios nas cidades e em vidas humanas é de

vulto. A ação da natureza, algumas vezes, castiga o nosso planeta, tanto em destruição,

provocadas por tornados, terremotos, chuvas intensas e também na seca. É possível citar o

exemplo do estado de São Paulo, que passa por dificuldades devido ao baixo nível de chuvas

atingindo a região dos reservatórios de abastecimento de água. E devido a isso, o poder de

prever tais fenômenos naturais, vem se tornando, a cada dia, mais importante para a

sociedade. Os benefícios das previsões são grandes, pois pode ajudar um produtor a melhorar,

ou aumentar, a sua produção agrícola, evitar tragédias e salvar vidas, como por exemplo, as

tragédias causadas devido às fortes chuvas torrenciais de 2011, na cidade de Nova Friburgo,

Rio de Janeiro, onde se sabe historicamente que a cidade é atingida sazonalmente nos meses

de verão, por fortes chuvas. A análise das séries temporais histórica dos níveis do volume de

chuva poderia ser utilizada para poder efetuar obras nas encostas para evitar maiores

problemas, e diminuir ou evitar que vidas fossem perdidas.

A ideia de previsão, como é conhecida, trata desde previsões diárias do clima, nível de

chuvas, chegadas de voos ou de ônibus em certo aeroporto ou terminal até o crescimento do

PIB ou da taxa de inflação mensal de um país. Assim, este tema é muito útil e usado no dia a

dia. Um exemplo muito importante referencia-se a previsão de vazão de rios que deságuam

em um lago represado de uma usina hidrelétrica. O conhecimento da quantidade de água é

Andre Luiz Emidio de Abreu, Anselmo Chaves Neto

29

muito importante no dimensionamento da usina.

Além da previsão, em si, existe a questão da construção de modelos para os fenômenos

investigados, indicando suas possíveis peculiaridades, tendência, ou até mesmo, os principais

aspectos que mais influenciam tais fenómenos.

Assim diversas técnicas foram desenvolvidas e produziram modelos de previsões para muitos

fenômenos. Uma importante área da Estatística que estuda a construção de tais modelos de

previsão é a da Análise de Séries Temporais, onde a partir de séries temporais conhecidas ou

sequências de valores que variam no tempo, se estudam e criam modelos estocásticos para

prever valores ou uma sequência de valores, a partir dos dados iniciais, à frente no tempo.

Ao longo do tempo diversas técnicas foram sendo desenvolvidas para o estudo de tais

previsões, podendo-se citar: os métodos automáticos ou caixa preta (década de 60), modelos

Box & Jenkins (1970) e para a era pós Box & Jenkins, os modelos do filtro adaptativo,

método Forsys, método Ararma, combinações de previsões, métodos ARCH e GARCH,

técnicas de Redes Neurais e algoritmos genéticos (CHAVES NETO, 2009).

As buscas por métodos melhores não cessam, foram criadas diversas variações para o a

modelagem do método SVM (Support Vector Machine – Máquinas de Vetores Suporte),

sendo ideais em certas condições e sobre certos conjuntos de dados, por exemplo, número

elevado de pontos. Neste trabalho utilizou-se a variante para problemas de regressão,

chamado de Support Vector Regression - SVR (Vetores suporte para regressão).

Porém, devido à alta complexidade do modelo, solução de problemas de programação não

linear, foi utilizado uma aplicação do método dos mínimos quadrados ao problema de

programação não linear, gerando o método Least Square Support Vector Machine – LSSVM,

que possui solução de fácil implementação, e em casos gerais, possui resultados equivalentes

aos obtidos pelo método clássico SVM (XIONG, YE, 2007).

2 SUPPORT VECTOR MACHINE – SVM

O SVM é uma metodologia que classifica os padrões em dois conjuntos. E, pode ser

ampliado para classificações em múltiplas classes. Devido a utilização, de margens de

separação para os conjuntos, as quais são deslocamentos com distância igual a um, tem-se o

conjunto de classe –1 e outro de classe +1.

2.1 Support Vector Regression – SVR

Para problemas de regressão, foi criada uma adaptação, ou extensão, do método SVM. Tal

extensão se dá pela introdução de uma função de perda, denominada em inglês loss function.

A formulação do Support Vector Regression (SVR) utiliza os mesmos princípios do

algoritmo de classificação (SVM), com exceção de alguns detalhes (PARRELLA, 2007).

Ao contrario do SVM, o SVR propõe determinar um hiperplano f (x), ótimo em que, as

amostras de treinamento estejam o mais próximas possível, não importando qual dos lados da

superfície os pontos se localizam, e sim que a distância para a superfície seja a mínima

possível, [yi – ε, yi + ε], onde, desvios são permitidos desde que não ultrapassem a margem

especificada. Porém, mesmo com propósitos opostos, ambos buscam estabelecer uma função

com máxima capacidade de generalização (LIMA, 2004).

A Figura 1 apresenta uma situação hipotética referente a aplicação do método SVR a um

conjunto de dados, mostrando a função de regressão e as margens para o problema.

V Simposio de Metodos Numericos Computacionais

30

Figura 1: Exemplo de aplicação do SVR a um conjunto de dados.

2.2 Modelagem Matemática – SVR

O modelo matemático para o SVR trata-se de um problema de programação não linear, dado

pela sua formulação dual na equação (1) (WANG E HU, 2005):

liC

as

yxx

ii

l

i

ii

l

i

iii

l

i

iiji

l

i

l

j

jjii

,,1],,0[,

0)(.

)()())((2

1min

*

1

*

1

*

1

*

1 1

**

(1)

onde *, ii são os multiplicadores de Lagrange, e C é uma constante regularizadora.

2.3 Least Square Support Vector Machine – LSSVR

Proposto por Suykens e Vandewalle (1999), LS-SVM é uma variante do método SVM

clássico. Least Squares Support Vector Machine (máquina de vetores suporte a mínimos

quadrados) mantém as mesmas características básicas e a mesma qualidade na solução

encontrada que a sua predecessora. Ao contrário do SVM, o LS-SVM considera restrições de

igualdade no lugar das desigualdades, com isso, resulta um algoritmo que reduz os problemas

ao se aplicar a um conjunto extenso de dados (SANTOS, 2013).

Uma das maiores diferenças, é que, ao contrário do SVM que utiliza a programação

quadrática para calcular seus vetores suporte, que demanda um grande tempo computacional

e possuem complexidade matemática considerável, o LS-SVM usa um sistema de equações

lineares e a função de custo por mínimos quadrados (BORIN, 2007; SHAH, 2005).

Assim, o modelo primal para o problema é dado pela Equação (2) a seguir (TRAFALIS,

SANTOSA, RICHMAN, 2005):

ni

ebxwyas

eC

ww

iit

i

n

i

it

...,,2,1

.

22

1min

1

2

(2)

onde w é o vetor de pesos, C é o parâmetro que penaliza erros altos e é otimizado pelo

usuário, ei são os erros mínimos em relação a reta de regressão, conforme pode-se verificar

no exemplo da Figura 2 dada a seguir.

V Simposio de Metodos Numericos Computacionais

31

Figura 2: Exemplo de erros mínimos em relação a função de regressão.

Assim, tem-se o seguinte sistema de equações, originadas da aplicação do método dos

mínimos quadrados (TRAFALIS, SANTOSA, RICHMAN, 2005):

Y

b

CInn

tn

0

1

10

(3)

com tnyyyY )...,,,( 21 , t

n )1...,,1,1(1 , tn )...,,,( 21 e Ω é uma matriz dada pelos

elementos

),()()( jijiij xxKxx (4)

com i, j = 1, ..., n, sendo que K(xi, xj) é o Kernel utilizado, neste caso, o foi utilizado a função

RBF para suas abordagens, dada por:

22exp),(

iii

xxxxxxK (5)

E a função de regressão é dada por:

n

iii bxxKxfy

1

),()( (6)

3 MEDIDAS DE AVALIAÇÃO

3.1 Cálculo do Erro

O desempenho do método foi medido a partir do calculo da raiz do erro quadrático médio

(RMSE – Root Mean Squared Error) (REN, DU, 2013):

n

i

pii yy

nRMSE

1

2)(1 (7)

onde, )( p

iy é o valor previsto para um certo padrão e iy é o valor real para tal padrão do

grupo de teste.

3.2 Coeficiente de Correlação R

O coeficiente de correlação (R) para o treinamento foi determinado usando a equação a

seguir:

V Simposio de Metodos Numericos Computacionais

32

n

i

ppi

n

i

i

n

i

ppii

yyyy

yyyy

R

1

)()(

1

1

)()(

(8)

onde, )( p

iy é o valor previsto para um certo padrão e iy é o valor real para tal padrão do

grupo de teste e )( py e y são as médias do valor previsto e real, respectivamente.

4 DADOS UTILIZADOS

Devido à dificuldade em se obter dados nacionais foram utilizados dados da literatura. Esses

dados correspondem a reserva de água de Manasgaon, reservatório situado em Anand Sagar,

Shegaon, Índia (DESWAL, PAL, 2008). Para as previsões utilizou-se um conjunto de dados

composto de 48 observações do nível de evaporação referentes à média semanal da reserva de

Manasgaon, sendo os padrões de entrada separados em quatro características independentes:

média da temperatura (º C), velocidade média do vento (m/s), horas de sol (h/dia) e média da

umidade relativa do ar (%), e o padrão dependente: evaporação, por milímetros por semana.

Para o treinamento, foram utilizados 30 amostras do total de 48 conhecidas, deixando assim,

as demais 18 médias para o teste do modelo.

5 SOFTWARES E LINGUAGEM DE PROGRAMAÇÃO UTILIZADOS

Para o desenvolvimento da análise, foi elaborado um programa em linguagem Fortran,

responsável por fornecer as previsões, bem como o treinamento do modelo e o Software

MATLAB 2012 para a elaboração dos gráficos.

6 RESULTADOS

Além da análise da raiz do erro quadrático médio (RMSE), tem-se os resultados obtidos em

valores absolutos, que são as previsões para os padrões. Assim, tem-se diretamente a

distância das previsões aos valores reais.

A Figura 3 apresenta a comparação entre os valores reais e as previsões para os 30 padrões de

treinamento utilizados. Para esta etapa, obteve-se o valor R = 0,9998 e RMSE = 0,1254, já a

Figura 4 apresenta a comparação entre os valores reais e os valores previstos para 18 semanas

à frente, ou seja, a média da semana 31 até a média da semana 48. O valor obtido para o

RMSE ficou igual a 0,5534, ficando abaixo do menor valor obtido no artigo de referência dos

dados utilizados, 0,865 (DESWAL, PAL, 2008).

V Simposio de Metodos Numericos Computacionais

33

Figura 3 Verificação da previsão dentro do conjunto de treinamento.

Figura 4: Previsões para os dados de teste, referente às 18 semanas.

7 CONCLUSÃO

O trabalho apresenta uma aplicação do método LSSVM na geração de um modelo para o

cálculo das previsões de evaporação liquida. A aplicação usou dados de um reservatório de

água na Índia, com base em quatro variáveis independentes, onde tais dados foram obtidas na

literatura.

Considerou-se que os valores obtidos são satisfatórios, tanto para o treinamento quanto para

fase de teste, uma vez que o erro calculado ficou abaixo do menor erro calculado pelo artigo

onde se baseou os dados (DESWAL, PAL, 2008), demonstrando assim, uma boa

generalização do modelo.

Pretende-se aplicar este método a dados de reservatórios nacionais, a fim de verificar se a

perda por evaporação pode causar perigo aos atuais níveis dos reservatórios nacionais, e

assim alertar os responsáveis para mais este problema a ser tratado, evitando assim futuros

problemas maiores.

V Simposio de Metodos Numericos Computacionais

34

REFERÊNCIAS

BORIN, A. Aplicações de máquinas de vetores suporte por mínimos quadrados (LS-SVM) na

quantificação de parâmetros de qualidade de matrizes lácteas. (Tese de doutorado em

Química). Universidade Estadual de Campinas, 2007.

CHAVES NETO, A. Análise de séries temporais (notas de aula). Departamento de

Estatística, Universidade Federal do Paraná, Curitiba, 2009.

DESWAL, S.; PAL, M. Artificial Neural Network based Modeling of Evaporation Losses in

Reservoirs. World Academy of Science, Engineering and Technology. Vol:2. International

Science Index Vol:2, No:3, 2008.

LIMA, C. A. de M. Comitê de máquinas: uma abordagem unificada empregando maquinas

de vetores-suporte (Tese de doutorado em Engenharia Elétrica). Faculdade de Engenharia

Elétrica e de Computação, Universidade Estadual de Campinas, Campinas, 2004.

PARRELLA, F. Online Support Vector Regression (Master Science Thesis). Department of

Information Science, University of Genoa, Italy, 2007.

REN, P. DU, Z. Information Science and Management Engineering (Set). WIT Transactions

on Information and Communication Technologies. Sichuan University, China, 2013.

SANTOS, L. T. Abordagem da máquina de vetor suporte otimizada por evolução diferencial

aplicada à previsão de ventos (Dissertação de Mestrado em Engenharia Elétrica).

Universidade Federal do Paraná, 2013.

SHAH, R. S. Least Squares Support Vector Machine. 2005.

SUYKENS, J.; VANDEWALLE, J. Least squares support vector machine classifiers. Neural

Processing Letters, Springer Netherlands, v. 9, p.293 - 300, 1999. ISSN 1370-4621.

TRAFALIS, T. B.; SANTOSA, B.; RICHMAN, M. B. Learning networks in rainfall

estimation. Computational Management Science. July 2005, Volume 2, Issue 3, pp 229-251.

XIONG, T.; YE, J. SVM versus Least Squares SVM. JMLR Workshop and Conference

Proceedings Volume 2: AISTATS 2007.

WANG, H.; HU, D. Comparison of SVM and LS-SVM for Regression. Neural Networks and

Brain, ICNN&B '05. International Conference on , vol.1, no., pp.279,283, 13-15 Oct. 2005.

V Simposio de Metodos Numericos Computacionais

35

V Simposio de Metodos Numericos Computacionais

PREVISÃO DE DEMANDA PARA PEÇAS DE REPOSIÇÃO DE ALTO GIRO

Resumo: O panorama atual da economia globalizada mostra que o ambiente organizacional está muito

competitivo e dinâmico. Os mecanismos e os aspectos de como as organizações desenvolvem,

planejam e implementam uma estratégia organizacional podem representar ganhos ou perdas

significativas. No gerenciamento de estoques, principalmente em organizações que trabalham com

peças de reposição, a previsão de demanda se faz obrigatória, pois a acuracidade nas predições

auxiliam no desenvolvimento de estratégias, identificação de prioridades e alocação de recursos, além

de permitir, pela operacionalização eficiente da produção e serviços, que as organizações ofereçam

elevados níveis de serviço aos clientes, planejem expansões de capacidade e evitem perdas nas vendas

e estoques. Modelos comuns de previsão de demanda e gestão de estoques não podem ser aplicados

para peças de reposição devido a sua demanda intermitente e sazonal. Assim, o objetivo deste trabalho

é comparar, para o estoque estratégico de peças de reposição de alto giro, o modelo de previsão de

demanda atualmente utilizado por empresas de máquinas agrícolas e de construção e o modelo

estatístico desenvolvido por Box e Jenkins. Para a construção da metodologia proposta neste trabalho

e para o levantamento dos dados e das informações necessárias, foram utilizadas as metodologias de

estudo de caso. Os resultados encontrados demonstram que é importante a utilização de uma

metodologia baseada em técnicas estatísticas no gerenciamento do inventário e que o modelo proposto

no estudo se adequou melhor para o controle do estoque de alto giro.

Palavras-chave: Estoque de alto giro, Peças de Reposição, Previsão de Demanda, Modelos Box &

Jenkins.

Caue Barros Guimaraes, Jair Mendes Marques, Ubirata Tortato

36

1 INTRODUÇÃO

A gestão de inventário para peças de reposição de alto giro é comumente tratada com a utilização de

sistemas de informações considerados muitas vezes como “commodities”, ou seja, ao alcance da

maioria das empresas. Estes sistemas, apesar de se utilizarem de ferramentais estatísticos, não obtêm

resultados satisfatórios nas projeções de médio e longo prazo, conseguindo apenas resultados medianos

nas projeções de curto prazo. Isto ocorre porque os sistemas são implantados nos mesmos moldes e

conceitos para diferentes organizações dos mais variados setores. Além do mais, a metodologia

estatística disponível nestes sistemas é simples, não sendo possível trabalhar com técnicas mais

elaboradas e robustas.

Em seu estudo sobre a lacuna entre a teoria de gestão de estoques e a prática empresarial na reposição

de peças em concessionárias de automóveis, REGO (2006, p.69) afirma que: “o desconhecimento de

modelos acadêmicos de previsão questionados também foi evidente em todos os gestores. As técnicas

de suavização exponencial, regressão linear e Box-Jenkins não eram do conhecimento de nenhum dos

entrevistados...”.

Para corroborar o levantamento anterior, CASTRO (2005), em seu estudo sobre o planejamento e

controle da produção e estoques da cadeia automobilística brasileira, mostra que apenas 2% das

empresas utilizam a metodologia Box-Jenkins, nenhuma utiliza regressão linear, 22% utilizam

suavização exponencial e 34% média móvel. O consenso de especialistas ou a não utilização de

métodos quantitativos corresponde a 42% do total. Estes números salientam o baixo grau de

sofisticação dos métodos usados.

2 REFERÊNCIAL TEÓRICO

2.1 Gestão de Estoques

A administração de materiais na empresa é um conjunto de atividades com a finalidade de assegurar o

suprimento de materiais necessários ao funcionamento da organização, no tempo correto, na

quantidade necessária, na qualidade requerida e pelo melhor preço. Antes do tempo correto, ocasiona

estoques altos, acima da necessidade da empresa. Após o tempo correto, ocasiona falta de material

para o atendimento das necessidades. Além da quantidade necessária, representa imobilizações em

estoque ocioso. Aquém da quantidade necessária, pode levar à insuficiência de estoque. No meio

empresarial, se por um lado o excesso de estoques representa custos operacionais e de oportunidade

do capital empatado, por outro lado, níveis baixos de estoque podem originar perdas de economias e

custos elevados devidos à falta de produtos (GARCIA et al., 2006). O ideal seria a perfeita

sincronização entre a oferta e a demanda, de maneira a tornar a manutenção de estoques desnecessária.

Todavia, como é impossível conhecer exatamente a demanda futura e como nem sempre os

suprimentos estão disponíveis a qualquer momento, deve-se acumular estoque para assegurar a

disponibilidade de mercadorias e minimizar os custos totais de produção e distribuição.

A administração de estoques é de importância significativa na maioria das empresas, tanto em função

do próprio valor dos itens mantidos em estoque, quanto em associação direta com o ciclo operacional

da empresa. Os níveis de estoques dependem em grande parte do nível de vendas (ALMEIDA;

LUCENA, 2006). A necessidade de prever as vendas antes de estabelecer os níveis desejados de

estoques torna sua administração uma tarefa difícil. Deve-se observar também que os erros na fixação

dos níveis de estoque podem levar à perda das vendas (caso tenham sido subdimensionados) ou a

custos de estocagem excessivos (caso tenham sido superdimensionados), residindo, por conseguinte,

na correta determinação dos níveis de estoques, a importância do seu gerenciamento. Seu objetivo é

garantir que os estoques necessários estejam disponíveis quando necessários para manutenção do ritmo

de produção, ao mesmo tempo em que os custos de encomenda e manutenção de estoques sejam

minimizados (ALMEIDA; LUCENA, 2006). O excesso de estoque é frequentemente a maior ameaça

à liquidez do caixa. Para uma empresa ter sucesso e sobreviver, destinar de maneira errada os recursos

leva a riscos desnecessários e desperdiça as oportunidades produtivas.

2.2 Métodos de Previsão

Os métodos quantitativos univariados utilizam dados históricos da variável sobre a qual se pretende

efetuar as previsões para determinar seu padrão evolutivo e utilizam-no para efetuar extrapolações

V Simposio de Metodos Numericos Computacionais

37

sobre seu comportamento futuro. Assim, usam padrões internos dos dados históricos para prever o

futuro, ou melhor, modelam os padrões da série histórica e os projetam no futuro. Quanto aos métodos

quantitativos, são abordados, portanto, a Suavização Exponencial e a metodologia Box-Jenkins.

O método de Suavização Exponencial Simples (SES), dado pela equação (1), é um método

popularmente utilizado devido à sua simplicidade e eficiência dos resultados. É similar ao método da

média móvel, com as diferenças básicas de que a suavização exponencial todos os dados históricos são

utilizados e os valores passados são ponderados exponencialmente de acordo com seu período, ou seja,

os dados mais recentes têm um peso maior na previsão.

123

12

11 111 yyyySES tttt )(...)()( (1)

Já os modelos de Box-Jenkins foram desenvolvidos para uma série temporal que tem os dados

coletados sequencialmente ao longo do tempo, e espera-se que ela apresente correlação seriada no

tempo. Os modelos de Box-Jenkins, genericamente conhecidos por Auto Regressive Integrated Moving

Averages (ARIMA) e na literatura em português por Autorregressivos Integrados de Médias Móveis,

são modelos matemáticos que visam a captar o comportamento da correlação seriada ou auto

correlação entre os valores da série temporal, e com base nesse comportamento realizar previsões

futuras. Se essa estrutura de correlação for bem modelada, fornecerá boas previsões (WERNER;

RIBEIRO, 2003). Segundo FAVA (2000), os modelos ARIMA resultam da combinação de três

componentes denominados “filtros”: o componente autorregressivo (AR), o filtro de integração (I) e o

componente de médias móveis (MA). Uma série pode ser modelada pelos três filtros ou apenas por

um subconjunto deles, resultando em vários modelos abordados a seguir.

Modelos estacionários são aqueles que assumem que o processo está em “equilíbrio”. Um processo é

considerado fracamente estacionário se suas média e variância se mantêm constantes ao longo do

tempo, e a função de auto covariância depende apenas da defasagem entre os instantes de tempo. Um

processo é fortemente estacionário se todos os momentos conjuntos são invariantes a translações no

tempo (WERNER; RIBEIRO, 2003).

Os modelos autorregressivos de médias móveis (ARMA), expresso pela equação (2), em alguns casos,

pode ser necessário utilizar um grande número de parâmetros em modelos puramente AR ou

puramente MA. Nesses casos, é vantajoso misturar os componentes de um modelo AR como os

componentes de um modelo MA, gerando, assim, um modelo ARMA. O modelo ARMA (p,q) exigirá

um número menor de termos.

qtqttptptt eeexxx ...... 1111 (2)

Quando uma série temporal apresenta média e variância dependentes do tempo, é porque ela não é

estacionária. A não-estacionariedade de uma série implica que: a) há inclinação nos dados e eles não

permanecem ao redor de uma linha horizontal ao longo do tempo e/ou b) a variação dos dados não

permanece essencialmente constante sobre o tempo, isto é, as flutuações aumentam ou diminuem com

o passar do tempo, indicando que a variância está se alterando (WERNER; RIBEIRO, 2003).

Para detectar a não-estacionariedade de uma série, o comportamento temporal pode ser analisado

graficamente buscando padrões (a) e (b) ou, então, aplicando os testes estatísticos de raiz unitária. O

teste de raiz unitária mais usado é o de Dickey-Fuller.

Como a maioria dos procedimentos de análise estatística de séries temporais supõe que estas sejam

estacionárias, será necessário transformá-las, caso ainda não sejam. Segundo MORETTIN E TOLOI

(2006), a transformação mais comum consiste em tomar diferenças sucessivas da série original até

obter uma série estacionária. A primeira diferença de Zt é definida pela equação (3):

1 ttt ZZZ (3)

já segunda é dada pela equação (4):

2122 tttt ZZZZD (4)

V Simposio de Metodos Numericos Computacionais

38

Em situações normais, ainda segundo os autores citados, será suficiente tomar uma ou duas diferenças

para que a série se torne estacionária. O número d de diferenças necessárias para tornar a série

estacionária é denominado ordem de integração. A inclusão do termo de ordem de integração permite

que sejam utilizados os modelos ARIMA (p,d,q), denotado pelas equações (5) e (6) (WERNER;

RIBEIRO, 2003).

qtqtttptpttt eeeewwww ...... 22112211 (5)

em que:

td

t Zw (6)

Os modelos ARIMA exploram a auto correlação entre os valores da série em instantes sucessivos, mas

quando os dados são observados em períodos inferiores a um ano, a série também pode apresentar auto

correlação para uma estação de sazonalidades. Os modelos que contemplam as séries que apresentam

auto correlação sazonal são conhecidos como Seasonal Auto Regressive Integrated Moving Averages

(SARIMA). Os modelos SARIMA, dado pela equação (7), contêm uma parte não sazonal, com

parâmetros (p,d,q), e uma sazonal, com parâmetros (P,D,Q)s (WERNER; RIBEIRO, 2003).

t

DsdPsP

spp ZLLLLLL 1111 11 ...... (7)

3 METODOLOGIA

O estudo tem por finalidade delinear um modelo de previsão de demanda para peças de reposição de

alto giro de máquinas agrícolas e de construção a partir da metodologia Box-Jenkins, proporcionando,

assim, estimar com maior acurácia a demanda de peças de reposição para um período um ano,

conforme necessidade da empresa estudada.

Por questões sigilosas, o nome da empresa e modelo de máquinas foram alterados para este estudo de

caso. Para a empresa, foi considerado o nome “ALFA”. Esta organização é uma empresa multinacional

fabricante de máquinas agrícolas e equipamentos para construção. O estudo será feito especificamente

no negócio de peças de reposição. Seus produtos comercializados são peças de reposição, e seus

clientes são os concessionários de máquinas agrícolas e de construção. Os concessionários vendem

estas peças de reposição para os clientes finais, ou seja, agricultores, construção civil etc. Um dos

custos mais importantes no balanço patrimonial da empresa estudada é referente ao inventário de peças

de reposição nos centros de distribuição. Este estoque está dividido em peças novas e peças de alto,

médio, baixo e baixíssimo giro.

No plano deste trabalho, foi estudada apenas a perspectiva de peças de reposição de alto giro de classe

“A” dentro da organização Alfa, por se tratar de um inventário com 4.000 itens que correspondem a

45 milhões de reais e tem mais de 20 milhões de peças. Estas peças, por serem de alto giro,

normalmente com custo baixo e pequeno volume físico não recebem prioridade de tratamento e

análise, ficando alocadas no estoque.

A modelagem dos dados foi realizada com o auxílio de técnicas estatísticas de previsão, mais

especificamente, com análise de séries temporais a partir dos modelos ARIMA. Como os modelos

apresentaram sazonalidade dos dados, foi utilizado o modelo SARIMA, que é um modelo ARIMA

sazonal. Segundo MORETTIN E TOLOI (2006), o modelo SARIMA é utilizado quando existe auto

correlação significativa em defasagens de períodos de tempo (lags) sazonais, isto significa que há

necessidade de se considerar uma sazonalidade estocástica.

Para a modelagem, foram utilizados dados mensais referentes ao período de quatro anos e meio das

variáveis selecionadas. Foi extraída uma amostra aleatória de 30 peças de reposição do inventário,

escolhidas seguindo dois critérios básicos: somente as peças de alto giro e classe “A” (no mínimo 64

vendas em um ano) e as peças que tiveram pelo menos uma demanda em cada período. Com relação

às 54 observações (dados mensais de quatro anos e meio, sendo o primeiro referente ao mês de janeiro

de 2005 e o último relativo a junho de 2009), são uma imposição da metodologia Box & Jenkins devido

a ela ser baseada em alguns resultados fortemente assintóticos. Segundo os autores, é necessário um

mínimo de 50 observações para que seja possível criar os modelos e efetuar previsões com acuidade.

V Simposio de Metodos Numericos Computacionais

39

Os 4 períodos restantes serão utilizados para validar as previsões. Para cada uma das peças de

reposição, foi feita a modelagem dos dados, utilizando-se somente de sua série histórica de demanda,

possibilitando verificar as medidas de erro associadas e os modelos Box-Jenkins. Na análise da

adequação dos modelos, foi considerada a sazonalidade anual, conforme havia sido informado pelos

colaboradores da organização na fase de entrevistas. Para cada peça, foi feita uma análise de tendência

da série que confirmou a presença de sazonalidade anual.

Após a criação dos modelos de previsão de demanda, foram realizadas a previsão de quatro meses e

sua validação. A avaliação dos modelos ocorreu de duas formas: na primeira, testando os parâmetros

dos modelos e verificando se são significativos ou não; na segunda, foi confrontando o valor previsto

com o valor observado, gerando uma medida de erro. A partir desta medida, pode-se concluir sobre e

eficiência da previsão de demanda do estudo.

4 ANÁLISE DOS RESULTADOS

O estudo foi conduzido utilizando 52 observações da série histórica de demanda bem como suas

projeções para estoque de segurança. As 48 observações iniciais foram utilizadas para elaboração e

desenvolvimento dos modelos. O cálculo das medidas de erro, as estimativas dos parâmetros e os testes

de significância aconteceram sobre esta série de dados. Os dados das 4 observações restantes da série

histórica serviram para medir a efetividade dos modelos e comparar com as projeções obtidas pelo

software utilizado pela empresa Alfa. Em resumo, têm-se as seguintes informações para cada um dos

quatros períodos: a demanda projetada pela empresa Alfa, a demanda projetada pela proposta deste

estudo, a demanda real e somente para o quarto período, o estoque real. Esta limitação sobre a

informação somente do último mês de estoque se deu por conta de o sistema utilizado pela empresa

Alfa não possuir uma funcionalidade para registro deste tipo de informação, desta forma não gerando

uma base histórica.

4.1 Comparação entre as Demandas Projetadas e a Demanda Real

A fim de facilitar a visualização dos resultados das tabelas anteriores, concatenaram-se as

informações sobre demanda na Tabela 1. Tabela 1: Demanda real e demandas projetadas

O erro absoluto, assim chamado na Tabela 1, é calculado pela diferença entre o valor de demanda real

e o valor de demanda projetado. Após este cálculo, aplicou-se o módulo no resultado obtido para que

fosse possível a mensuração da informação de forma absoluta.

Conforme se pode notar na Tabela 1, a metodologia do estudo proposto errou em média na demanda

em 10%. O método utilizado pela empresa Alfa obteve um erro absoluto médio de 26%.

Um ponto importante a destacar é que, para o quarto período, o acerto médio foi maior em ambas as

projeções se comparado com os períodos anteriores. Isto não deveria ocorrer em um ambiente normal,

entretanto, como o trabalho foi desenvolvido com modelos sazonais, é possivelmente plausível esta

situação.

Uma medida interessante de comparação dos resultados é a diferença entre o estoque projetado e a

demanda observada. A partir desta mensuração, tem-se um índice de disponibilidade em relação ao

estoque. O estoque projetado por este estudo se deu considerando o valor máximo do intervalo de 95%

de confiança da projeção de cada peça em cada um dos quatro períodos. Já no caso da empresa Alfa,

a projeção de estoque de segurança se deu de acordo com o uso de seu software que é baseado na

técnica de suavização exponencial, contudo não discrimina qual o critério estabelecido para definir a

armazenagem mínima. Para este cálculo foi utilizada a Tabela 2 que considera o valor unitário de cada

V Simposio de Metodos Numericos Computacionais

40

peça armazenada no estoque pelos diferentes critérios, ou seja, demanda real, projeção do estudo e

projeção do aplicativo da empresa estudada.

Tabela 2: Demanda real e estoques projetados

Na Tabela 2, o erro é calculado pela subtração do estoque projetado da demanda real. Se o estoque

projetado for maior que a demanda, utiliza-se o valor padrão de zero para o cálculo desta diferença.

Caso contrário, é possível mensurar a quantidade de peças de reposição que faltaram no estoque para

que o atendimento ao cliente tivesse sido satisfatório. Esta Tabela mostra os valores financeiros que

as quantidades representam. Estes números são importantes para mensurar quanto a empresa Alfa

deixou de faturar por não ter as peças no estoque. Analisando a Tabela 2, sob o aspecto financeiro, a

empresa Alfa, para esta amostra, se ela estivesse utilizando o método atual, deixaria de faturar o

equivalente a R$200.000,00 nos quatro meses de estudo. Com os modelos sugeridos nesta pesquisa,

ela deixaria de faturar R$27.000,00. Neste item de comparação entre os métodos, salienta-se que a

empresa Alfa não aplica na prática todas as projeções efetuadas pelo seu software.

5 CONCLUSÕES FINAIS E RECOMENDAÇÔES

Os resultados observados mostraram-se satisfatórios nas duas alternativas de modelagens utilizadas –

metodologia Box-Jenkins (proposto) e Suavização Exponencial (empresa Alfa). O modelo

implementado na organização Alfa apresenta características positivas relacionadas com a facilidade

de formulação em qualquer sistema, além de ser facilmente compreendido. Não foi possível ter

subsídios mais aprofundados para discorrer sobre o software utilizado na empresa Alfa, pois as análises

foram realizadas somente sobre os resultados, ou seja, sobre as previsões de demanda efetuadas e sobre

o estoque gerado.

No caso do modelo proposto, foram realizados diversos testes para avaliar a viabilidade de implantação

da solução. Primeiramente foi realizado teste para avaliar a sazonalidade. Neste teste, foi constatada a

suposição de sazonalidade anual informada na fase de entrevistas com os colaboradores da

organização.

Em um segundo momento, foram testados diversos modelos para cada peça a fim de encontrar um que

melhor satisfizesse os pressupostos. Após esta fase, passou-se para a fase de análise das estimativas

dos parâmetros, buscando modelos com estimativas que possuíssem p-valor inferior a 5%. A grande

maioria das estimativas dos parâmetros se enquadrou nesta suposição.

Com os modelos já criados e as previsões já efetuadas, a análise que se seguiu foi referente às medidas

de erro resultantes. Praticamente todas as peças apresentaram baixos erros, indicando que os modelos

se encaixaram de forma satisfatória e com um grande poder de acurácia nas previsões.

Após todas as análises de pressupostos, sazonalidade, ajuste de modelo, estimativa de parâmetros e

avaliação dos erros, foram comparados os resultados obtidos com os dados obtidos do software da

empresa Alfa e com a demanda real. Pela confrontação dos resultados, constatou-se que o modelo

proposto apresentou um índice médio de 10% de erro absoluto em relação à demanda real. No entanto,

para o quarto período, este índice foi de 7%. O software da empresa Alfa obteve, nesta mesma

avaliação, um erro médio absoluto de 26%, sendo que no primeiro período este erro chegou a ser de

37%. A partir desta medida, já é possível notar diferenças entre resultados obtidos pelos dois métodos.

O índice de acurácia da demanda, por este critério, é mais forte para a modelagem proposta no estudo.

V Simposio de Metodos Numericos Computacionais

41

Uma segunda análise comparativa importante foi referente ao estoque proposto e à demanda real. O

estoque de segurança proposto neste trabalho é calculado pelo intervalo de confiança da estimativa da

previsão de demanda com 95% de significância. Os resultados deste índice também favoreceram a

metodologia Box-Jenkins, pois em média 1,4% das solicitações não seriam atendidas por falta de

estoque, enquanto a metodologia utilizada pelo software apresentou em média 9,6% de falta de

estoque. O melhor resultado advindo do software é para o primeiro período e mesmo assim 5,2% das

solicitações não seriam atendidas. Em contrapartida, o melhor resultado do método proposto acontece

no terceiro período e somente 0,3% dos pedidos não seriam cumpridos. Ainda comparando os métodos

segundo a temática do estoque e da demanda, para os quatro meses de previsão, a empresa Alfa

deixaria de faturar R$ 200.000,00, caso utilizasse literalmente as previsões de seu software. Por outro

lado, utilizando as previsões pelo modelo sugerido nesta pesquisa, o faturamento que deixaria de

registrar seria de R$ 25.000,00 nos quatro períodos.

Uma das grandes preocupações da empresa Alfa diz respeito à qualidade de seu atendimento e

disponibilidade de produtos aos seus clientes. Ao analisar os resultados de uma forma única e

consolidada, é possível verificar que ambas as técnicas apresentam resultados melhores do que a não

utilização de métodos numéricos cientificamente estudados. Contudo, o modelo proposto no estudo

desenvolveu melhores resultados do que o software utilizado pela empresa Alfa. Esta afirmação é

plausível de ser assegurada ao verificar os objetivos e preocupações da empresa Alfa. No caso deste

estudo, foi comprovado que a técnica Box-Jenkins apresentou índices de acurácia mais elevados tanto

para a demanda quanto para o estoque de segurança quando verificados com a demanda real. Supondo

que estes resultados obtidos pela amostra de 30 peças pudessem ser extrapolados para a população

total de peças de alto giro de classe “A” e que este total de peças apresentasse as mesmas proporções

da amostra referente a custos e quantidades, a utilização correta da metodologia proposta resultaria em

uma redução de 15 milhões de peças nos estoques, o que representaria uma redução de 32 milhões de

reais.

O trabalho tem algumas limitações. A série histórica utilizada foi curta, baseando-se no mínimo

necessário para que fosse possível a aplicação da técnica empregada no estudo caso não houvesse

sazonalidade. Devido à complexidade do método, foi utilizada somente uma técnica de previsão de

demanda. A partir deste estudo, recomenda-se para futuros trabalhos a utilização de uma série histórica

longa de dados, preferencialmente com mais de cem observações, para que as estimativas dos

parâmetros sejam mais precisas. Por fim, recomenda-se trabalhar com outras classes de peças que

sejam importantes financeiramente para a empresa.

REFERÊNCIAS

ALMEIDA, D.; LUCENA, M., Gestão estoques na cadeia de suprimentos. Revista ECCO, v. 1, p. 1,

2006.

CASTRO, R. L. Planejamento e controle da produção e estoques: um survey com fornecedores da

cadeia automobilística brasileira. Dissertação de Mestrado. Mestrado em Engenharia. EPUSP, 2005.

FAVA, V. L. Manual de econometria. In: VASCONCELOS, M. A. S.; ALVES, D. São Paulo: Editora

Atlas, 2000.

GARCIA, E. S.; REIS, L. M. T. V.; MACHADO, L. R.; FERREIRA, V. J. M. – Gestão de estoques:

otimizando a logística e a cadeia de suprimentos [Em linha]. Rio de Janeiro: E-papers Servicos

Editoriais Ltda., 2006. Disponível em:

<http://books.google.com/books?id=AvfRM51NLcQC&dq=pt-PT>. Acesso em: 21 dez. 2010.

MORETTIN, P. A.; TOLOI, C. M. C. Análise de Séries Temporais. São Paulo: Blucher, 2006.

WERNER, L. ; RIBEIRO, J. L. D. . Uma aplicação dos modelos Box-Jenkins na área de assistência

técnica de computadores pessoais. Gestão e Produção (UFSCar), São Carlos, v. 10, n. 1, p. 47-67,

2003.

REGO, J. R. A lacuna entre a teoria de gestão de estoques e a prática empresarial na reposição de peças

em concessionárias de automóveis. Dissertação de Mestrado. Mestrado em Administração. USP, 2006.

V Simposio de Metodos Numericos Computacionais

42

V Simposio de Metodos Numericos Computacionais

APRIMORAMENTO DO PRECONDICIONADOR SEPARADORPARA OS SISTEMAS LINEARES ORIUNDOS DOS MÉTODOS DE

PONTOS INTERIORES

Resumo: O precondicionador Separador (PS) proposto por OLIVEIRA AND SORENSEN (2005) foidesenvolvido especialmente para reduzir o mau condicionamento dos sistemas lineares oriundos das últimasiterações dos métodos de pontos interiores (MPI). Ele precisa de uma base que é uma submatriz não singularda matriz de restrições do problema, esta base depende fortemente da iteração corrente do algoritmo do MPI,pois induz uma ordenação das colunas da matriz de restrições que pode ser aproveitada para reduzir o númerode condição do sistema precondicionado. Portanto, a eficiência deste precondicionador depende de uma escolhaadequada desta base. Propõe-se um novo critério para a escolha da base do PS amparada em dois resultadosteóricos; o primeiro deles visa reduzir o número de condição da matriz precondicionada, e o segundo resultadomostra que este número de condição é uniformemente limitado por uma quantidade que independe da iteraçãodo MPI. Com a redução do número de condição espera-se um melhor desempenho do método dos gradientesconjugados precondicionado (GCP) e, portanto, uma redução do tempo computacional na resolução de problemas.Uma implementação desta abordagen e uma comparação com a versão atualmente utilizada, veja VELAZCO etal. (2011), mostrou resultados competitivos.

Palavras-Chave: Método de pontos interiores, Precondicionador Separador, Método dos gradientesconjugados.

Cecilia Orellana Castro, Aurelio Ribeiro Leite Oliveira

43

1 INTRODUÇÃO

Os MPIs do tipo primal-dual tornaram-se uma importante ferramenta para resolver problemas deprogramação linear (PL) de grande porte devido a seu moderado número de iterações. Apesar disso,as iterações tornam-se computacionalmente caras à medida que se aproximam da solução ótima. Istoacontece porque a direção de busca é obtida de sistemas lineares cujo número de condição é da ordemO(µ−2), onde µ denota o gap de dualidade do problema de PL, veja GONDZIO (2012). Assim, o estudode implementações eficientes que acelerem as últimas iterações dos MPIs é uma interessante linha depesquisa.Neste trabalho, abordam-se problemas de PL de grande porte usando o método preditor-corretor deMehrotra (PCM) que é uma das variantes mais eficientes do método primal-dual dos pontos interioresWRIGTH (1997). Para encontrar a direção de busca, dois sistemas lineares com a mesma matriz decoeficientes são resolvidos usando o método dos GCP. O precondicionamento é feito em duas fases:na primeira fase, usa-se o precondicionador Fatoração Controlada de Cholesky (FCC) proposto porCAMPOS (1995); na segunda fase, o PS. O objetivo deste trabalho é aprimorar as últimas iteraçõesdo MPI fazendo um estudo do número de condição da matriz precondicionada pelo PS.Os autores do PS e, posteriormente os seus colaboradores VELAZCO et al. (2011) fizeram ordenaçõesbaseadas em heurísticas, algumas delas bem sucedidas, porém ainda existem problemas não resolvidos eoutros cuja solução demanda muito tempo computacional, isto acontece principalmente por duas razões:a escolha da base passa por uma fatoração LU cara e a base escolhida não fornece um precondicionadorque diminua consideravelmente o número de condicão do sistema precondicionado.Os resultados teóricos dos autores apresentados nas proposições 1 e 2 são a base da nova proposta,esta fornece um novo critério de escolha do PS esperando um melhor desempenho do método dos GCPque acelere as últimas iterações dos MPIs. Foi feita uma implementação desta nova abordagem e umacomparação com a versão atualmente utilizada, VELAZCO et al. (2011).

2 MÉTODO PRIMAL-DUAL DE PONTOS INTERIORES

Considere o par primal-dual do problema de PL canalizado.

(P)

min cTx s. a Ax = b, x+ s = u x, s ≥ 0

(D)

max bTy − uTw s. a ATy − w ≤ c , w ≥ 0, y ∈ Rm

Onde x, s, w ∈ Rn e A uma matriz de tamanho m× n que será considerada de posto completo.Aplicando a penalidade barreira logarítmica nas restrições de não negatividade de (P ), tem-se:

(P′)

min cTx− µ

n∑

i=1

log xi − µn∑

i=1

log si s. a Ax = b, x+ s = u x, s > 0

Pela convexidade do problema (P ′) as condições de otimalidade de primeira ordem são suficientes enecessárias. Para encontrar a direção de busca numa iteração dos MPIs, aplica-se o método de Newtonnessas condições de otimalidade obtendo o seguinte sistema linear:

A 0 0 0 0In In 0 0 00 0 AT −In InZ 0 0 X 00 W 0 0 S

∆x∆s∆y∆w∆z

=

rbrurcr1r2

, (1)

onde rb = b − Ax, ru = u − x − s, rc = c + w − z − ATy, r1 = µe − XZe, r2 = µe − SWeX = diag(x1, . . . , xn), Z = diag(z1, . . . , zn), S = diag(s1, . . . , sn), W = diag(w1, . . . , wn) eeT = (1, . . . , 1) ∈ Rn.Entre as variantes dos MPIs, destacam-se os métodos seguidores de caminho, entre eles, o PCM por seruma aproximação de segunda ordem das condições de otimalidade de (P ′), veja WRIGTH (1997).

V Simposio de Metodos Numericos Computacionais

44

O sistema (1) é reduzido a duas formulações muito usadas. A primeira delas conhecida como SistemaAumentado, é um sistema de equações com matriz simétrica e indefinida de tamanho n+m.

(−D−1 AT

A 0

)(∆x∆y

)=

(rh

), (2)

onde D−1 = X−1Z + S−1W , r = rc −X−1(σµe−XZe) + S−1(σµe− SWe)− S−1Wru e h = rb.A segunda formulação é chamada Sistema de Equações Normais com matriz simétrica e positiva definidade tamanho m.

ADAT∆y = h+ ADr. (3)

Quando se abordam problemas de grande porte, mesmo problemas esparsos, uma resolução diretados sistemas (2) ou (3) demanda muita memória pois a matriz ADAT geralmente é cheia tornando aabordagem direta pouco eficiente. Para superar essa dificuldade são usados métodos iterativos que usamprodutos matriz-vetor. Além disso, um bom precondicionamento dos sistemas (2) ou (3) acelerará aconvergência dos métodos iterativos.

3 PRECONDICIONADOR SEPARADOR

O PS foi desenvolvido tanto para o sistema (2) quanto para o sistema (3). Neste trabalho usa-se ométodo GCP para encontrar a direção de busca; logo, a escolha do sistema (3) é natural por ser umamatriz simétrica e positiva definida.A construção do PS está baseada na condição de complementariedade de um problema de PL, neste caso,estas condições para um problema de PL canalizado são: xizi = 0 e siwi = 0 para todo i = 1, . . . , n.Pela definição da matriz diagonal D−1 dada acima, tem-se que di =

(zix−1i + wis

−1i

)−1, isto implicaque em cada iteração dos MPIs a matriz D se altera, particularmente, quando o MPI esteja próximo àsolução ótima, pela não negatividade das variáveis, existirão índices j ∈ 1, . . . n tais que dj → 0 oudj → ∞. Esta característica é a motivação da construção do PS e a justificativa do sucesso dele nasúltimas iterações dos MPIs como será explicado mais adiante.Em cada iteração dos MPIs considere uma ordenação: dσ(1) ≥ dσ(2) ≥ . . . ≥ dσ(m) ≥ . . . ≥ dσ(n) ondeσ é uma permutação de 1, . . . n. Esta ordem se altera de iteração a iteração, por exemplo na primeiraiteração do MPI, di = 1/2 para i = 1, . . . n pois o ponto inicial do MPI tem todas as suas componentesiguais; já nas últimas iterações, aparecem diferenças abruptas nestes valores, este é um bom indicadorde troca de fase, ou seja o PS está pronto para apresentar um bom desempenho.Suponha que as colunas das matrizes A e D sejam reordenadas de acordo com a permutação σ e queas primeiras m colunas de A sejam linearmente independentes; além disso, considere os conjuntos deíndices B = σ(1), . . . , σ(m) e N = σ(m+ 1), . . . , σ(n), então a matriz do sistema (3) fica:

ADAT = ABDBATB + ANDNA

TN . (4)

Lembrando que os conjuntos B eN contêm os índices que correspondem aos maiores e menores valoresdj respectivamente, o PS para as Equações Normais é dado por:

P = D−1/2B A−1B . (5)

Logo, a matriz (4) precondicionada por (5) é:

P (ADAT )P T = Im +WW T (6)

com W = D−1/2B A−1B AND

1/2N . A situação ideal acontece quando D−1/2B → 0 e D1/2

N → 0 implicandoque W → 0 e, portanto, P (ADAT )P T ≈ Im. Mas isto quase nunca acontece pelas seguintes razões:

1. Nada garante que AB tenha colunas linearmente independentes.2. Mesmo supondo que AB seja não singular, nem todo dj com j ∈ B é um valor grande. De fato,

perto da solução ótima existem pelo menos n −m valores próximos de zero, isto implica que nomáximo existirão m valores não pequenos.

V Simposio de Metodos Numericos Computacionais

45

Levando em conta estas considerações, define-se hj = d1/2j ‖Aj‖2 para cada j = 1, . . . , n. Usando o fato

de que a matriz A foi considerada de posto completo, propõe-se o seguinte algoritmo.Algorithm 1: Algoritmo para encontrar o conjunto de índices básicos B e não básicos N

Entrada: A matriz de restrições A ∈ Rm×n de posto m e a matriz diagonal D.Obter a permutação σ do conjunto 1, . . . , n tal que: hσ(1) ≥ hσ(2) ≥ . . . ≥ hσ(n);Defina B = ∅, i = 1, k = 0;enquanto |B| < m faça

se Aσ(i) é linearmente independente a Aj : j ∈ B entãoB = B ∪ σ(i) ; k = k + 1; bk = σ(i);

Faça i = i+ 1

retorna Os conjuntos de índices básicos B = b1, . . . bm e não básicos N = 1, . . . , n\BApós obter o conjunto de índices básicos B e não básicos N , a submatriz AB será chamada de base edenotada por B = AB; além disso, denota-se N = AN .A matriz B é obtida usando a fatoração LU da matriz A, um pivô não nulo e não muito pequeno indicaráque a respectiva coluna é linearmente independente às colunas já obtidas. Uma cuidadosa implementaçãodeve ser feita, pois dado que o conjunto de colunas linearmente independentes é desconhecido antesda fatoração LU esta pode gerar muito preenchimento. A técnica usada pelos autores para tratar esteproblema é interromper a fatoração para reordenar as colunas linearmente independentes já encontradasdas mais esparsas às menos esparsas e, dessa maneira, reiniciar a fatoração.O Algoritmo 1 é baseado num resultado que será apresentado na próxima seção.

4 ANÁLISE ESPECTRAL DA MATRIZ PRECONDICIONADA PELO PS

Na seção anterior foi visto que em cada iteração do MPI, após o cálculo dos valores hi, o Algoritmo 1fornece os conjuntos de índices B eN para construir P = D

−1/2B B−1. Além disso, a matriz de Equações

Normais precondicionada por P é dada em (6).Suponha que (λ, v) seja um autopar de I +WW T , isto é, v +WW Tv = λv. Multiplicando por vT :

|λ| = 1 +‖W Tv‖2‖v‖2 ≥ 1. (7)

Por outro lado, ‖W Tv‖ ≤ ‖W T‖‖v‖ implica que |λ| ≤ 1 + ‖W T‖2 . Portanto:

κ(P (ADAT )P T ) =λmax

λmin

≤ 1 + ‖W T‖2. (8)

A desigualdade (8) sugere uma ordenação de colunas de A minimizando a norma ‖W‖.Proposição 1. Considere os valores hi = d

1/2i ‖Ai‖2. Se os conjuntos de índices B eN são obtidos pelo

Algoritmo 1, então o PS dado por P = D−1/2B B−1 é tal que ‖W‖F é minimizada.

ProvaDa desigualdade ‖W‖F ≤ ‖D−1/2B B−1‖F‖ND1/2

N ‖F , observa-se que minimizar ‖D−1/2B B−1‖F e‖ND1/2

N ‖F implicará a minimização de ‖W‖F .De ‖BD1/2

B ‖ ≥ 1

‖D−1/2B B−1‖

, pode-se concluir que maximizar ‖BD1/2B ‖F implicará a maximização de

1

‖D−1/2B B−1‖F

, além disso maximizar 1

‖D−1/2B B−1‖F

é equivalente a minimizar ‖D−1/2B B−1‖F . Ou seja,

maximizar ‖BD1/2B ‖F implica minimizar ‖D−1/2B B−1‖F . De acordo com a seguinte equação:

‖AD1/2‖2F =‖BD1/2B ‖2F + ‖ND1/2

N ‖2F

=

σ(i)∈Bd1/2σ(i)‖Aσ(i)‖2︸ ︷︷ ︸

hσ(i)

2

+

σ(i)∈Nd1/2σ(i)‖Aσ(i)‖2︸ ︷︷ ︸

hσ(i)

2

(9)

V Simposio de Metodos Numericos Computacionais

46

para maximizar ‖BD1/2B ‖F , os índices σ(i) ∈ B devem corresponder aos maiores valores de hσ(i); assim,

esta escolha minimizará a norma ‖D−1/2B B−1‖F . Por outro lado, para minimizar ‖ND1/2N ‖F , a partir de

(9) é imediato que os índices σ(i) ∈ N devem corresponder aos menores valores de hσ(i). Para simplificar notação, considera-se σ = id, onde id é a permutação identidade. O seguinte resultadoé baseado no artigo de MONTEIRO et al. (2004). Na proposição 2 demonstra-se que se o conjunto deíndices básicos B é dado pelo Algoritmo 1 então o número de condição do sistema precondicionadopelo PS é uniformemente limitado por uma quantidade que independe da iteração do MPI.Proposição 2. Suponha que B seja uma base obtida pelo Algoritmo 1 e que a matriz A foi escalada detal forma que cada coluna tenha norma euclidiana limitada por

√m. Então:

• d12j ‖D

− 12B B−1Aj‖ = 1 para j ∈ B;

• d12j ‖D

− 12B B−1Aj‖ ≤

√m‖B−1‖ para j ∈ 1, . . . , n\B

Além disso, se C = max1,√m‖B−1‖, então: κ(PADATP T ) ≤ nC2.Prova Consideram-se duas situações:Caso 1. Se j ∈ B, então B−1Aj = ej onde ej é o j−ésimo vetor canónico de Rm; logo,

d12j ‖D

− 12B B−1Aj‖ = d

12j ‖D

− 12

B ej‖ = d12j ‖d

− 12

j ej‖ = 1.Caso 2. Se j /∈ B são considerados dois casos:Caso 2.1. A coluna Aj não foi considerada para entrar na base de acordo ao Algoritmo 1. Neste casoj > bi para todo índice básico B = b1, . . . bm; assim, hbi ≥ hj para todo bi ∈ B.Seja d

120 = mind

12bi

: bi ∈ B, então se h0 = d120 ‖A0‖ tem-se que h0 ≥ hbm ≥ hj; logo,

d12j ‖D

− 12B B−1Aj‖ ≤

d12j ‖Aj‖‖B−1‖

mind12bi

: bi ∈ B=hj‖A0‖‖B−1‖

h0, (10)

dado que ‖A0‖ ≤√m, tem-se que d

12j ‖D

− 12B B−1Aj‖ ≤

√m‖B−1‖.

Caso 2.2. A coluna Aj foi candidata para ser r−ésima coluna de B, porém Aj resultou ser linearmentedependente às colunas Ab1 , Ab2 , . . . , Abr−1; isto é, Aj = B[u, 0]T , para u ∈ Rr−1.Observe que hbi ≥ hj

para i = 1, . . . , r − 1, além disso ‖u‖ = ‖B−1Aj‖. Suponha que d120 = mind

12b1, . . . , d

12br−1, então se

h0 = d120 ‖A0‖ tem-se que h0 ≥ hbr−1 ≥ hj , logo;

d12j ‖D

− 12B B−1Aj‖ = d

12j

(r−1∑

i=1

d−1bi u2i

) 12

≤d

12j ‖Aj‖‖A0‖d

120 ‖A0‖

‖B−1‖

≤ √m‖B−1‖.

(11)

Logo, ‖D−12B B−1AD

12‖2F =

n∑

i=1

di‖D−12B B−1Aj‖22 ≤ nC2. Dado que P = D

− 12B B−1, tem-se:

‖PAD 12‖2 ≤ ‖PAD

12‖F ≤

√nC, portanto: λmax

(PADATP T

)= ‖PAD 1

2‖22 ≤ nC2. Por outrolado, λmin

(PADATP T

)≥ 1 e, por conseguinte, κ(PADATP T ) ≤ nC2.

A tarefa de determinar uma boa base é muito importante, pois o PS tem a propriedade de utilizar a matrizB em algumas iterações além da iteração na que foi calculada, em consequência o precondicionador ébarato para se calcular em algumas iterações do MPI. A mudança da base B é determinada pelo númerode iterações do método GCP usadas para resolver o sistema linear precondicionado.

5 EXPERIMENTOS NUMÉRICOS

Os experimentos numéricos foram realizados utilizando o PCx, veja CZYZYK (1996), o método diretousado para a solução dos sistemas lineares foi substituido pelo método GCP com precondicionamento

V Simposio de Metodos Numericos Computacionais

47

híbrido proposto por BOCANEGRA et al. (2007) e troca de fase proposta por VELAZCO et al. (2011).A base B do PS muda quando 8 ∗ ng ≥ m, onde ng denota o número de iterações do método GCP numaiteração do MPI. Os testes realizados comparam os resultados das abordagens PCxm e PCxc, sendoPCxm a abordagem com ordenação da base B proposta pela heurística de VELAZCO et al. (2011) ePCxc a abordagem com a ordenação da base B usando o Algoritmo 1 apresentado neste trabalho.

Tabela 1: Total de iteracões do IPM, Tempo de resolução do problema e número de iterações do PCG

Iterações MPI Tempo Iterações GCP TamanhoProb PCxm PCxc PCxm PCxc PCxm PCxc Linhas Colunas

25fv47 29 26 1, 80 1,35 5122 2951 825 1571bnl1 40 40 0, 75 0, 76 2814 2634 1175 1586chr22b 29 29 19, 33 17,94 938 909 5587 5335chr25a 29 29 42, 94 40,03 2785 2964 8149 7825cre-a 27 27 7, 67 7, 65 176 187 3516 4067cre-b 43 43 43, 40 42,29 108 166 9648 72447cre-c 27 27 5, 83 5, 02 151 155 3068 3678cre-d 42 42 28, 41 27,33 79 133 8926 69980els19 31 31 44, 24 35,49 3243 3212 4350 9937ex01 28 28 0, 41 0,34 1448 1036 246 1379ex02 46 37 0, 95 0,67 6431 3717 238 1378ex05 39 39 5, 82 4,92 2332 2290 833 6980ex09 45 52 52,14 54, 95 11862 15541 1846 16422ganges 18 18 0, 63 0, 63 326 383 1309 1681ken13 29 29 93, 80 92,35 33 34 28632 42659ken18 41 41 1040, 20 1011,89 409 504 105127 154699maros 40 25 2, 31 1,10 13813 5086 840 1443nesm 31 31 1, 57 1,28 4943 3729 662 2923rou20 24 24 757, 49 420,04 1470 1889 7359 33840scr15 24 24 7, 66 6,61 2013 1768 2234 4635scr20 21 21 60, 08 55,45 1534 2369 5079 12180ste36a 37 37 14078, 34 5523,68 14128 13793 27686 109653stocfor2 21 21 1, 13 1, 17 467 477 2157 2031stocfor3 32 32 87, 90 87, 51 5110 5154 16675 22541

Os testes foram realizados em um processador Intel i7 com 16 Gb de memória, em ambiente Linuxusando os compiladores gcc e gfortran. Os problemas são de domínio público extraídos das bibliotecasNETLIB e QAP.

0

0.2

0.4

0.6

0.8

1

0 0.2 0.4 0.6 0.8 1 1.2 1.4

π (

τ)

log (τ)

Tempo de Procesamento (PCxc × PCxm)

PCxmPCxc

Figura 1: Perfil de desempenho do tempo.Para avaliar a eficiência da ordenação proposta comparamos o número total de iterações do MPI, otempo em que cada problema é resolvido e o número total de iterações do método GCP em todas as

V Simposio de Metodos Numericos Computacionais

48

iterações do MPI correspondentes ao PS. Observa-se na Tabela 1 que as abordagens comparadas secomportam de forma parecida nas colunas correspondentes ao número de iterações do MPI pois o nossoobjetivo foi acelerar o tempo do cálculo da direção de busca em cada iteração do MPI. Apesar dissoocorrem melhoras em três problemas, 25fv47, ex02 e maros. O problema ex09 incrementou o númerode iterações do MPI.Com respeito ao tempo, o desempenho do PCxc foi melhor na maior parte dos problemas testados,as reduções de tempo consideráveis foram marcadas em negrito. Um perfil de desempenho do tempoé apresentado na Figura 1. Destacamos os problemas els19, ken18, rou20 e ste36a. Esta melhoraaconteceu porque a base B com reordenação PCxc exige menos iterações do método GCP em algumasiterações do MPI o que implica uma melhora do precondicionamento que o PS oferece ao sistema(3). Outra razão muito importante é que no total de iterações do MPI correspondentes ao PS foramnecessários menos cálculos da matriz B quando comparados com o critério de reordenação de PCxm.A propriedade de manter a base B da iteração k nas seguintes iterações é uma estratégia barata, observeque se Pk = D

−1/2B B−1 então Pk+1 = D

−1/2B B−1 , porém a matriz precondicionada I+WW T da iteração

k + 1 não tem mais o melhor conjunto de colunas e, portanto, seu desempenho não é tão bom quandocomparado com iteração k.

6 CONCLUSÕES

O desempenho do PS obtido pelo Algoritmo 1 obteve resultados superiores à abordagem baseada naheurística de reordenação proposta por VELAZCO et al. (2011), particularmente nos problemas degrande porte há diferenças notáveis.Ressaltamos que reduzir tempo em não criar uma nova matriz B implica mais iterações no métodoPCG, por esta razão existem problemas tais como ken18 com mais iterações no método PCG, porémresolvido em menos tempo.Novas estratégias de ordenamento que aproveitem a esparsidade da matriz A estão sendo investigadas,assim também, um critério de troca de base junto com técnicas que permitam a reutilização da base Bde maneira mais eficiente.

AGRADECIMENTOS

Este trabalho contou com o apoio financeiro da FAPESP - Fundação de Amparo à Pesquisa do Estadode São Paulo e pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq).

REFERÊNCIAS

BOCANEGRA S., CAMPOS F.F., and OLIVEIRA A.R.L. Using a hybrid preconditioner for solvinglarge-scale linear systems arising from interior point methods. computational optimization andapplications. Computational Optimization and Applications, pages 149–164, 2007.

CAMPOS F. Analysis of conjugate Gradients - type methods for solving linear equations. Ph.D. thesis,Oxford University Computing Laboratory, Oxford, 1995.

CZYZYK J., MEHROTRA S., and J. W.S. Pcx user guide. Technical Report OTC 96/01, 1996.GONDZIO J. Matrix-free interior point method. Computacional Optimization and Applications,

51:457–480, 2012.MONTEIRO R.D.C., NEAL J.W., and TSUCHIYA T. Uniform boundedness of a preconditioned normal

matrix used in interior-point methods. SIAM J. Optim., 15:96–100, 2004.OLIVEIRA A.L. and SORENSEN D. A new class of preconditioners for large-scale linear systems from

interior point methods for linear programming. Linear Algebra and Its Applications, 394:1–24, 2005.VELAZCO M., OLIVEIRA A., and CAMPOS F. Heuristics for implementation of a hybrid

preconditioner for interior-point methods. Pesquisa Operacional, 31:2223–2241, 2011.WRIGHT S. Primal-dual Interior-Point Methods:. SIAM e-books. Society for Industrial and Applied

Mathematics (SIAM), 1997. ISBN 9781611971453.

V Simposio de Metodos Numericos Computacionais

49

V Simposio de Metodos Numericos Computacionais

EXTRAÇÃO E PARSING DE DADOS 4D DE LANDMARKS EM SUPERFÍCIES GEOMÉTRICAS DINÂMICAS

Resumo: Sistemas capazes de identificar informações temporais em um espaço conhecido são cada vez mais necessários em áreas como a saúde, mapeamento em imagens e objetos 3D ou na classificação de tráfego de pedestres ou veículos. Esta pesquisa apresenta um sistema de extração, análise sintática e classificação de informações 4D em superfícies faciais geométricas de forma parametrizada. Palavras-Chave: 4D, modelos espaço-temporal, parser de dados, malha geométrica.

1 INTRODUÇÃO

Reconhecimento de padrões e análise de malhas 3D é cenário para estudos em diferentes abordagens, normalmente utilizando entradas 2D para extração de volumes tridimensionais (também chamados de voxels), ou analisando as landmarks (pontos de interesse dentro de um contexto específico) objetivando sintetizar uma saída em ambiente virtual (Yi and LIJUN 2008; TIM et al. 2014). Dentro deste escopo, sistemas como os de reconhecimento facial ou os que utilizam intérpretes virtuais se tornam necessários tanto em sistemas de segurança como em sistemas instrucionais ou simuladores. Neste sentido, pesquisas focadas no processamento de dados coletados de imagens sintetizadas oferecem grande potencial no desenvolvimento de novas tecnologias (Schmidt 2015). Esta pesquisa tem como objetivo propor e implementar um sistema de extração de informações 4D de uma malha geométrica, observando trabalhos atuais em duas áreas principais: avatares 3D com foco na face onde classificação de características ou processos de síntese são apresentados (Cao et al. 2014) (Sandbach et al. 2011), além de dados 4D para informações de coordenadas de movimentos ou reconhecimento de ações (Youngmo 2015; Pingkun et al. 2008; Hong et al. 2015) e pesos de landmarks ou em alguns casos superfícies e representação geométrica de quatro dimensões (Chu et al. 2009). Nas seções seguintes é apresentada a implementação de um algoritmo para extração de informações espaço-temporais e o processo de parser, ou leitura e reconhecimento sintático e semântico das informações, seguido por um teste de classificação e reconhecimento de pontos dinâmicos na malha geométrica.

Diego Addan Goncalves, Eduardo Todt

50

2 PONTOS DE INTERESSE 4D

Um modelo matemático para se calcular pontos espaço temporais utiliza decomposição de

valores singulares (Serban et al. 2014), como segue:

, t

(1)

Onde n são os pontos no espaço e T o número de observações no tempo, U é a matriz ortogonal com pontos de interesse no espaço, D é a matriz nxT. Finalmente V é a matriz TxT e U e V são os pontos médios entre as arestas. Ainda, uma maneira de modelar os pontos de interesse é calcular as arestas (ou a distância entre os pontos s-t) em um tempo (ti-tj) sendo validados por uma função de covariância em um espaço positivo, como segue:

, , , (2)

Seguindo extensões destas modelagens, alguns trabalhos apresentam métodos de conversão

de movimentos humanos de entradas 2D em saídas através de objetos tridimensionais. O

objetivo principal destes trabalhos é estimar a posição e cada ponto de articulação e

movimento do objeto (Youngmo 2015; Pingkun et al. 2008). Após identificar o movimento utilizando técnicas de processamento de imagens em canal de

profundidade, existem duas formas de se extrair o objeto 3D. A primeira é criar uma curva

média e estender uma malha poligonal simplificada, uma vez que a curva, vista como um

esqueleto para o objeto, já possuí os pontos de articulação. O outro processo utiliza o canal de

profundidade para fazer uma extrusão de uma malha poligonal irregular e simplificar com um

objeto com poucos polígonos baseado na dimensão de profundidade do objeto inicial (Yi and

LIJUN 2008; TIM et al. 2014). Com estas técnicas é possível ainda associar um objeto dinâmico de uma sequência de imagens com um objeto 3D, rastreando pontos específicos da entrada e criando um paralelo com vértices do objeto em ambiente virtual. Uma das técnicas conhecidas que utiliza este recurso é o reconhecimento de expressões faciais (REF) em sequências de imagens ou objetos 3D (Sandbach et al. 2011), onde expressões de sentimentos como raiva ou alegria, ou mesmo alterações em pontos específicos como cantos das bocas são identificados por comparação temporal de deslocamento de suas posições. Estas técnicas podem utilizar algoritmos como FFD (Free Form Deformation) onde dois frames são comparados e o movimento de cada vértice é interpolado com landmarks sequenciais (utilizando modelagem temporal).Ainda, existem trabalhos onde quatro dimensões não são tratados como informação temporal,

mas sim como representação de superfície geométrica, propondo uma arquitetura para

visualização de objetos 3D 3-manifolds (onde a malha não é fechada por polígonos de um

lado e arestas não são formadas apenas por duas faces). Esta técnica também é chamada de

Hyper Volume Voxel, onde o objeto tem a superfície representada por tetraedros (Chu et al.

2009).

V Simposio de Metodos Numericos Computacionais

51

3 MÉTODO PROPOSTO

Esta seção apresenta uma implementação para extração de informação 4D de um objeto geométrico e o processo utilizado para o reconhecimento estrutural dos dados. O método utilizado para reconhecer informações temporais neste trabalho utiliza os pontos de interesse da superficie do objeto observados em uma linha temporal, comparando os valores de sua posição em todas as coordenadas espaciais. A arquitetura do sistema proposto consiste nos seguintes blocos: Identificação de um objeto dinâmico em um ambiente virtual, desenvolvimento de um algoritmo que identifica e exporta dados da superfície do objeto 3D em um modelo parametrizado para o processo de parser (análise sintática) em um motor gráfico e o reconhecimento, ou classificação dos pontos 4D na malha importada. 3.1 Identificação de Landmarks Em um objeto 3D, qualquer superfície pode ser construída obtendo informações das faces poligonais e suas coordenadas, valores base para a análise de suas características. A implementação apresentada a seguir utilizou as bibliotecas de uso livre OpenGL (para uso em gráficos 3D) e OpenCV (para processamento de imagens) e a linguagem de programação Python. Inicialmente foram capturadas sequências de imagens com movimentos da cabeça onde foram construídos landmarks em pontos específicos da face como sobrancelhas, cantos das bocas, pequenos pontos no contorno da face, testa e nariz. Estas características foram adaptadas do modelo apresentado em (Cao et al. 2014). Para o rastreamento foram apontados landmarks utilizando o algoritmo Harris Corner estendido a um método que utiliza um filtro Threshold, posicionados em pequenos pontos e comparados a cada imagem da sequência utilizando sua posição e seus pixels, em escala de cinza, de determinada região (ver Figura 1: Aquisição de landmarks dinâmicos. ).

Figura 1: Aquisição de landmarks dinâmicos.

Com a sequência de pontos monitorada, um objeto 3D foi associado ao ambiente onde os testes e experimentos foram desenvolvidos. Foi utilizado um objeto com poucas faces e seus movimentos de rotação e translação (ver Figura 2: Malha 3D com os landmarks associados.). Então foi implementado um algoritmo para extrair as informações da superfície referente as coordenadas da estrutura poligonal.

V Simposio de Metodos Numericos Computacionais

52

Figura 2: Malha 3D com os landmarks associados.

3.2 Extração de dados 4D Para a função de extração foi utilizada a linguagem de programação C++ onde foram calculados o delta-time e as coordenadas do ambiente (apresentado na fórmula abaixo), necessárias para padronizar o ambiente uma vez que os processos e testes seguintes requerem o uso do motor gráfico Irrlicht com seu próprio ambiente virtual:

∆T obj .."w ∗ lp ' fwt ∆ (3)

Onde obj representa o conjunto de coordenadas do vértice, w representa a matriz do ambiente e lp o ponto local. Como modelo utilizado para exportar a malha, foram assumidas as coordenadas dos vértices e suas faces (uma vez que as arestas são definidas pela posição dos vértices correspondentes), normais dos polígonos para obter a direção da superfície difusa e os índices para cada ponto da sequência de movimentos (ver Figura 3: Pseudo-Código para extração de características 4D).

Figura 3: Pseudo-Código para extração de características 4D.

Extraídos os dados da malha geométrica então foi desenvolvido um sistema de parser no

V Simposio de Metodos Numericos Computacionais

53

motor gráfico, com o intuito inicial de reconhecer os elementos localmente para que se possam ser trabalhados na classificação de informação para influir no processo de animação de expressões do avatar 3D. 3.3 Sistema de Parser e Validação Para o sistema de parser foi utilizada a biblioteca de uso livre libTree, que adiciona métodos e funções para se trabalhar com extensão XML na linguagem C. Foi então criado um registro onde os dados de leitura do arquivo são armazenados, e então um teste de reconhecimento de pontos. Os testes a seguir foram executados em um servidor equipado com um acelerador de GPU Tesla K40 da Nvidia. O método, seguindo os parâmetros definidos no processo de exportação das informações 4D, objetivou ler e registrar, para cada momento temporal, as coordenadas dos vértices e identificar movimento e em qual coordenada ocorrem. Para isso foi criada uma função em que os dados exportados de dois momentos sequenciais da malha eram analisados. Com estas informações é possível identificar a diferença de determinado vértice nas coordenadas X, Y, e Z, e ainda ter a relação daquele ponto aos vértices vizinhos. Observando uma sequência de momentos é possível, então, identificar quais pontos tem a posição alterada e com qual intensidade isto ocorre, prevendo de forma clara os pontos em que a ação temporal é mais influente. Um teste para representação de pontos dinâmicos baseados no canal de profundidade pode apresentar pontos com movimento mais expressivo (ver Figura 4: Pontos 4D em uma fatia da malha geométrica) onde os pontos em vermelho representam vértices de uma fatia da malha onde a comparação de movimento do método anterior foi menos perceptível do que os vértices representados em azul (calculados por alterações mais expressivas na coordenada de profundidade). Os testes demonstram a extração de informações da malha 3D e a classificação de landmarks temporais.

Figura 4: Pontos 4D em uma fatia da malha geométrica.

Este exemplo demonstra a aplicação do método de extração e reconhecimento de landmarks da superfície baseados em parâmetros espaciais (posição na malha 3D) e temporais

V Simposio de Metodos Numericos Computacionais

54

(informações referentes a um momento específico e definido de um evento sequêncial em um ambiente virtual).

4 CONCLUSÃO

Esta pesquisa é parte do projeto iniciado em (Gonçalves et al. 2015), que teve como objetivo específico criar um sistema de extração e classificação de informações 4D para no futuro integrar a um método de simplificação e síntese de animação de expressões faciais baseado em ações para simulação com avatares 3D. A principal contribuição parcial deste trabalho está no algoritmo de extração e parser dos dados 4D da malha geométrica. Como resultado o algoritmo apresentado extrai dados 4D de uma malha geométrica de maneira organizada e parametrizada, criando uma saída que pode ser utilizada em trabalhos futuros em contextos como análise temporal de objetos 3D, otimização de malha ou edição de animação em ambientes virtuais.

REFERÊNCIAS

Yi S., LIJUN Y., Facial expression recognition based on 3d dynamic range model sequences. Proceedings of the 10th European Conference on Computer Vision: Part II, ECCV '08, páginas 58-71, Berlin, Heidelberg, 2008. Springer-Verlag. TIM S.C.W., RMBAUT M., PELLERIN D., Dictionary of gray-level 3d patches for action recognition. Machine Learning for Signal Processing (MLSP), 2014 IEEE International Workshop on, pages 16, Sept of 2014. SCHIMIDT, A. Following or leading?: The hci community and new interaction technologies, Iinteraction 22(1):7477, january of 2015. YOUNGMO H. 2d-to-3d visual human motion converting system for home optical motion capture tool and 3-d smart tv. Systems Journal, IEEE, 9(1):131140, March of 2015. PINGKUN, Y., KHAN, S.M., SHAH, M., Learning 4d action feature models for arbitrary view action recognition. Computer Vision and Pattern Recognition, 2008. CVPR 2008. IEEE Conference on, 7 June of 2008. SANDBACH, G., ZAFEIRIOU, S., PANTIC, M., e RUECKERT, D., A dynamic approach to the recognition of 3d facial expressions and their temporal models. Automatic Face Gesture Recognition and Workshops (FG 2011), 2011 IEEE International Conference, March of 2011 CAO, C., WENG, W., ZHOU, S., TONG, Y., ZHOU,K., Facewarehouse: A 3d facial expression database for visual computing.Visualization and Computer Graphics, IEEE Transactions on, 20(3):413 425, March of 2014. HONG, R., YAN, S., ZHANG, Z., Visual understanding with rgb-d sensors: An introduction to the special issue. ACM Trans. Intell. Syst. Technol., 6(2):11:111:3, March de 2015. CHU, A., CHI-WING F., HANSON, A. J., PHENG-ANN H., Gl4d: A gpu-based architecture for interactive 4d visualization. Visualization and Computer Graphics, IEEE Transactions on, 15(6):1587 1594, Nov of 2009 GONÇALVES, D. A., TODT, E., GARCIA, L. S., 3D Avatar for automatic synthesis of signs for the sign languages.. In: WSCG International Conferences in Central Europe on Computer Graphics, Visualization and Computer Vision, 2015, Plzen. WSCG 2015, 2015..

V Simposio de Metodos Numericos Computacionais

55

V Simposio de Metodos Numericos Computacionais

DISTRIBUIÇÃO DO CARREGAMENTO DE PAREDES ESTRUTURAIS SOBRE VIGAS CONSIDERANDO O EFEITO

ARCO ATRAVÉS DE MODELAGEM EM ELEMENTOS FINITOS

Resumo: Paredes estruturais, quando apoiadas em vigas sobre apoios discretos, devido à diferença de rigidez entre os elementos, tem seu carregamento vertical sobre a viga concentrado próximo aos apoios, esse fenômeno é conhecido como efeito arco. Este trabalho apresenta a modelagem, em elementos finitos, de um sistema para verificar o carregamento da parede sobre a viga, variando-se a rigidez da viga suporte, acrescentando cargas horizontais e considerando ou não a interação entre as paredes adjacentes. Palavras-Chave: Alvenaria estrutural, Efeito arco, Elementos finitos. 1 INTRODUÇÃO Em edifícios que empregam o sistema construtivo de alvenaria estrutural, em que as paredes não continuam até a fundação, a exemplo edifícios com pilotis ou subsolos, existe a necessidade de um pavimento de transição, usualmente com estrutura em concreto armado. Nesta transição, devido à diferença de rigidez entre os elementos suportes, ocorre uma concentração de tensões em algumas regiões da alvenaria e um alívio nos esforços solicitantes das vigas. Tal comportamento também ocorre na fundação de alvenarias apoiadas sobre vigas com estacas espaçadas. Este efeito usualmente é desconsiderado no dimensionamento de estruturas e não há normatização específica sobre o assunto. A interação entre a parede de alvenaria e sua estrutura suporte tem comportamento relacionado a um arco atirantado. Segundo Riddington e Smith (1978), o arco comprimido forma-se na parede e a viga suporte funciona como tirante. Parte da carga vertical se direciona para as regiões de apoio da estrutura suporte. 2 REVISÃO BIBLIOGRÁFICA Quando uma parede de alvenaria encontra-se sobre vigas com apoios discretos, as tensões verticais na base da parede tendem a se concentrar nas proximidades dos apoios, fenômeno conhecido como efeito arco. Segundo Wood (1952) apud Holanda Junior (2002) para que este efeito de arco se forme completamente, a altura da parede deve ser igual ou superior a 60% do vão entre os apoios.

Diego Felipe Capraro, Marco Andre Argenta

56

Riddington e Smith (1978) propõem o parâmetro K, que define a rigidez relativa do sistema em função principalmente do vão da viga. Quanto maior esta rigidez maior a tendência do aparecimento deste arco.

= ∗ ∗∗ (1)

Em que , , são o modulo de elasticidade, a espessura e o comprimento da parede, e , o modulo de elasticidade e o momento de inercia da viga, respectivamente. Papia (1988) confirma que quanto menor a rigidez da viga em relação à parede, maior a tendência de uma região de descolamento no contato. Ainda, próximo aos apoios, ocorre a concentração de tensões em formato de arco. Fazendo uso da modelagem com o método dos Elementos de Contorno (MEC) o pesquisador encontrou resultados bem satisfatórios, próximos do modelado em elementos finitos e do resultado experimental. Barbosa (2000), através de modelagem computacional, encontrou resultados que explicitam o alivio no esforço fletor da viga suporte, quando a consideração do sistema viga-parede funcionando como um arco. Barbosa também encontrou redução significativa da flecha máxima da viga, devido à ocorrência do fenômeno. Este alívio estudado acarreta em uma possível redução na seção da viga ou da taxa de aço utilizado, ambos proporcionando vantagem econômica. Segundo Paes (2008) a consideração do efeito arco pode causar redução do momento fletor das vigas suportes. Porém, a consideração das ações horizontais no sistema, altera a distribuição do carregamento e conduz a maiores esforços, em pelo menos 71% das vigas por ele analisadas. Seus modelos revelaram que o dimensionamento usual pode estar contra a segurança, pela desconsideração da carga horizontal no comportamento do sistema. No âmbito de ensaios experimentais que avaliaram o fenômeno, destaca-se o trabalho de Rosenhaupt (1962) apud Barbosa (2000) que ensaiou 12 paredes de alvenaria estrutural sobre vigas de concreto armado até atingir a ruptura, podendo verificar a ocorrência do efeito. Tanto a NBR 15812-1 (2010), para blocos cerâmicos, quanto a NBR 15961-1 (2011), para blocos de concreto, nos itens 9.4 e 9.6 respectivamente, descrevem: “São proibidas reduções nos valores a serem adotados como carregamento para estruturas de apoio, baseadas na consideração do efeito arco, sem que sejam considerados todos os aspectos envolvidos nesse fenômeno, inclusive a concentração de tensões que se verifica na alvenaria”. Paes (2008) e Nascimento Neto (2003), confirmaram através da modelagem numérica, que a interação entre as paredes é de vital importância na capacidade resistente do sistema, bem como na distribuição de tensões nos apoio. Carvalho (2007) realizou ensaios experimentais, com modelos reduzidos de painéis com flanges e isolados, com intuito de avaliar esta interação na geração do efeito arco. 3 MODELOS REALIZADOS Nas ultimas décadas têm-se estudado diversas técnicas para a modelagem da alvenaria estrutural, isto é, a representação dos painéis com aproximações compatíveis e que permitam a modelagem com um baixo custo computacional. Visto que o sistema possui elevada complexidade na geometria e nas propriedades dos materiais, surgem diversos estudos para tal modelagem. Uma das propostas é a consideração da alvenaria como um único material, sem discretizar de forma separada a unidade e a argamassa, conhecida como macromodelagem. Neste tipo de análise destaca-se o trabalho de Lourenço (2002).

V Simposio de Metodos Numericos Computacionais

57

Para o presente trabalho foi modelado em elementos finitos, através do Software ABAQUS, um sistema viga-parede. Este representa um painel com carregamento compatível a um prédio de oito pavimentos, sobre uma viga de concreto armado com vão de 4,5 metros. Pela bibliografia já citada o efeito arco se formará em uma altura próxima a 3 metros, aproximadamente 60% do vão, valor próximo do pé-direito usual. Dessa forma, foi realizada a modelagem de apenas um pavimento, com uma carga distribuída no topo de 400 kN/m, correspondente aos demais pavimentos. Para verificação da influência da rigidez da viga suporte na geração do efeito e consequentemente na distribuição do carregamento, foi modelado o exemplo com cinco seções diferentes para as vigas, na Tabela 1 a seguir têm-se as propriedades dos materiais adotados e suas características geométricas.

Tabela 1. Propriedades consideradas nos modelos. Propriedades dos Materiais

E(GPa)-Módulo de

Elasticidade -Coeficiente de Poisson

Concreto 30,7 0,2 Alvenaria 4,7 0,2

Propriedades Geométricas Largura (cm) Altura (cm) Inercia ( ) Viga 1 15 50 15,6 Viga 2 15 80 64,0 Viga 3 30 80 128,0 Viga 4 15 120 216,0 Viga 5 30 120 432,0

A análise realizada foi elástica linear e utilizou-se da macromodelagem da alvenaria, isto é, não foi discretizado de forma separada a unidade e a argamassa. Os modelos consideraram a alvenaria não armada e sem pontos de grauteamento. E ainda, não foi realizada a discretização da armadura da viga. Logo, não se levou em conta a fissuração do concreto, escorregamento da unidade sobre a argamassa e a plastificação da armadura. Estas simplificações são válidas quando se analisa o efeito global do sistema em situação normal de carregamento, isto é, com baixos níveis de tensões. Para análise de carga última, este modelo pode não ser o mais adequado. No contato entre a viga suporte foi considerado que não haverá descolamento da interface viga-parede. Esta simplificação elimina a não linearidade causada pelo possível descolamento no meio do vão. Segundo Barbosa (2000) isso não acarreta variação significativa na distribuição do carregamento em termos práticos. Na Figura 1, apresentada na sequencia, está representada a malha utilizada para o exemplo da Viga 1, com a discretização da alvenaria e da viga em elementos bidimensionais. Foram utilizados elementos quadrangulares, com distribuição quadrática definidas em um estado plano de tensões para os elementos da alvenaria. Já para a viga foram empregados elementos triangulares com distribuição quadrática. Foi considerado para apoio pilares com dimensões de 50 cm, altura da parede de 3m e o vão da viga de 4,50m.

V Simposio de Metodos Numericos Computacionais

58

Figura 1. Malha utilizada para o exemplo da Viga 1. Foram realizados, tomando o exemplo da Viga 2, modelos para avaliar a influencia da atuação da carga horizontal e da presença de paredes adjacentes na distribuição do carregamento. Foi aplicado uma carga horizontal de 80 kN, valor proporcional ao prédio de oito pavimentos proposto e as laterais foram modeladas, como livres, com restrições horizontais, e com restrições horizontais e verticais. Na última análise variou-se também o tipo de modelagem. A viga foi representada com o modelo unidimensional de viga de Bernoulli, mesclando elementos bidimensionais com graus de liberdade nas duas direções, com elementos de viga, dois graus de liberdade, translação vertical e rotação, cujos polinômios interpoladores são diferentes. Tal modelagem confere ao problema uma não conformidade, visto que não há compatibilidade de deformações no intervalo interno aos nós, porém é muito utilizada na literatura. 4 RESULTADOS E DISCUSSÕES Na Figura 2 a seguir, é possível observar a distribuição de tensões do sistema. É verificado um comportamento semelhante ao de uma viga parede, e ainda, é visualizado notoriamente o arco de tensões gerado na alvenaria. Na imagem observa-se que a partir de uma altura as tensões na alvenaria continuam uniformes, assim sendo, confirma-se a não necessidade da modelagem de toda a parede, e sim de apenas uma parcela proporcional ao vão da viga. Com as direções das tensões principais geradas no exemplo da Viga 1, viga de menor rigidez, pode-se observar o carregamento horizontal de tração gerado na viga, devido a tendência do arco abrir. Dessa forma, as vigas deveriam ser dimensionadas a flexo-tração.

Figura 2. Direção das tensões principais (Viga 1).

V Simposio de Metodos Numericos Computacionais

59

A Figura 3 mostra a distribuição das tensões principais de Von Misses, nela são observadas as regiões com concentração de tensões, principalmente na alvenaria. Houve acréscimos de tensões nas alvenarias, chegando até três vezes o valor de quando foi feita a consideração de distribuição uniforme. Sendo assim, a alvenaria deveria possuir, nesta região, resistência suficiente, que sem a tal, não levaria a formação do efeito arco, pelo início da fissuração. Porém para uma análise mais precisa das tensões máximas geradas é recomendado outro tipo de modelagem, na qual se discretize o contato entre bloco e argamassa, possível ponto de ruptura. Como na maioria dos prédios a resistência dos prismas é dimensionada levando em conta a distribuição uniforme, o simples grauteamento pode não ser suficiente para resistir a este esforço.

Figura 3. Tensões principais de Von Misses (Viga 1). Na Figura 4 é apresentada a distribuição do carregamento vertical ao longo das vigas. Esta foi obtida através da tensão vertical ao longo do contato. Pode-se observar claramente que com o acréscimo da rigidez da viga suporte a distribuição tende a ser uniformizar no valor de 400 kN/m, carregamento aplicado no topo da alvenaria. No gráfico também é possível verificar carregamentos próximos à zero no meio do vão das vigas mais flexíveis, isto confirma que a consideração do descolamento na interface no meio do vão não alteraria muito o diagrama. As distribuições encontradas tem formato semelhante ao da bibliografia citada.

Figura 4. Gráfico comparativo da distribuição do carregamento.

0200400600800

1.0001.200

0 100 200 300 400 500 600

Carre

gament

o (kN/m

)

Comprimento da Viga (cm)

Viga 1Viga 2Viga 3Viga 4Viga 5

V Simposio de Metodos Numericos Computacionais

60

Para avaliar a influência dos enrijecedores laterais, devido à existência de paredes adjacentes no efeito arco, foi modelado restringindo deslocamentos nas faces laterais. Na Figura 5 é possível observar a variação no carregamento considerando estas restrições e a ação da carga horizontal. A carga horizontal alterou significativamente a distribuição do carregamento, devido ao momento gerado. O lado oposto ao carregamento fica mais comprimido e no lado aplicado tem-se um alívio no carregamento. O gráfico da Figura 5 mostra a pouca influencia do confinamento na distribuição do carregamento e mostra a grande redução no carregamento total quando considerado restrições laterais nas duas direções, porém de fato para isto ocorrer a parede adjacente deve ser rígida suficiente e estar sobre uma base indeformável. Este último modelo também desconsidera o acréscimo de carregamento proveniente das paredes adjacentes. Logo o modelo com restrições nas faces não é recomendado para análise do efeito arco.

Figura 5. Comparação do carregamento levado em conta demais variáveis. Na modelagem em que se variou o tipo de elemento de viga, encontrou-se

diferentes configurações de carregamento, visto que, a biela formada pelo efeito de viga parede se formou somente na parede, logo, mobilizou uma região maior da parede e encontrou até tensões de tração no meio do vão na interface parede-viga, neste caso haveria o descolamento da parede. Tal modelagem se verificou ineficiente na determinação da distribuição do carregamento, visto que o problema tem influencia da altura da seção da viga na formação e posicionamento do arco.

Figura 6. Comparação do carregamento alterando-se o tipo de modelagem.

0200400600800

1.0001.2001.4001.600

0 100 200 300 400 500 600Carre

gament

o (kN/m

)

Comprimento da Viga (cm)

Viga 2ConfinadoC/ CargaHorizontalC/ InteraçãoParedes

0200400600800

1.0001.2001.4001.600

0 100 200 300 400 500 600

Carre

gament

o (kN/m

)

Comprimento da Viga (cm)

Viga 2DViga 1D

V Simposio de Metodos Numericos Computacionais

61

5 CONCLUSÕES Pela bibliografia e pelos modelos realizados é possível verificar o real acontecimento do efeito arco em sistemas vigas-parede, ocasionado pela diferença de rigidez entre os elementos. Neste efeito o carregamento da parede sobre a viga tende a se concentrar próximos aos apoios, solução esta, diferente do empregado nos principais métodos de dimensionamento. Este alívio no carregamento das vigas acarreta em uma possível redução na seção da viga ou da taxa de aço utilizada, ambas podem gerar grande vantagem econômica. Foi verificada também a importância das demais variáveis envolvidas no sistema, como por exemplo, a interação entre as paredes vizinhas e a presença de cargas horizontais, bem como características geométricas do sistema, presença de aberturas e continuidade da viga suporte. Confirmou-se a influência da rigidez da viga suporte na distribuição do carregamento e o expressivo acréscimo de tensões na alvenaria próximo aos apoios. Cabe ainda ressaltar que a parede é usualmente dimensionada para resistir aos esforços de compressão, considerando uma distribuição uniforme de tensões, sendo assim é nítida a importância desta análise quando considerado a atuação do efeito arco. 6 REFERÊNCIAS BIBLIOGRÁFICAS ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 15812/2010 – Alvenaria estrutural – blocos cerâmicos – Parte 2: Projetos. Rio de Janeiro. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 15961/2011 – Alvenaria estrutural – blocos de concreto – Parte 1: Projetos. Rio de Janeiro. BARBOSA, P. Estudo da interação de paredes de alvenaria estrutural com vigas de concreto armado. 2000. 108 f. Dissertação (Mestrado em Engenharia de Estruturas). Universidade de São Paulo, São Carlos, 2000. CARVALHO, J. D. N. A Contribuição de Enrijecedores Laterais para o Efeito Arco na Alvenaria Estrutural. Tese (Doutorado em Engenharia Civil). Universidade Federal de Santa Catarina, Florianópolis, 2007. NASCIMENTO NETO, J.A. Estudos de Painéis de Alvenaria constituídos por alvenaria estrutural de blocos. 2003. Tese (Doutorado em Engenharia de Estruturas). Universidade de São Paulo, São Carlos, 2003. PAES, M. Interação entre edifício de alvenaria estrutural e pavimento em concreto armado considerando‐se o efeito arco com a atuação de cargas verticais e ações horizontais. 2008. 163f. Dissertação (Mestrado em Engenharia de Estruturas). Universidade de São Paulo, São Carlos, 2008. PAPIA, M. An alternative analysis model for composite wall-beam systems. Computers & Structures Vol. 32. No. I. pp. 149-155. 1988. RIDDINGTON, J.R; STAFFORD SMITH, B. Composite method of design for heavily loaded wall-beam structures. In: Institutional of Civil Engineers Proceedings. Part 1, v.64, p.137-151, Febraury, 1978. LOURENÇO, P. B.; ZUCCHINI, A. A micro-mechanical model for the homogenisation of masonry. International Journal of Solids and Structures. Vol 39. 2002. 3233-3255.

V Simposio de Metodos Numericos Computacionais

62

V Simposio de Metodos Numericos Computacionais

ANÁLISE DA VARIABILIDADE ESPAÇO-TEMPORAL DAS SUBPRESSÕES AO LONGO DA BRECHA D NA USINA

HIDRELÉTRICA DE ITAIPU

Resumo: As subpressões nas fundações, causadas pelo fluxo de água, são uns dos maiores problemas em relação as obras hidráulicas, estas subpressões são mostradas pelos piezômetros, que estão instalados ao longo da barragem. Devido a localização dos instrumentos, optou-se por métodos alternativos, por meio de gráficos, para visualizar estas variações, buscando estabelecer padrões tanto espaciais, quanto temporais. Usou-se gráficos de barra nos espaço bi e tridimensional, para estabelecer a variação espaço-temporal, bem como boxplot das cotas piezométricas com a cota de instalação dos piezômetros. Os resultados foram satisfatórios e mostraram que a região com maior subpressões situa-se no trecho D, nesta mesma região houve locais com pouca subpressão, porém com maior variação. Ainda foi possível observar que o trecho E possui pouca subpressão e pouca variação. Os métodos utilizados foram eficientes para detectar a variabilidade espaço temporal da subpressão. Palavras-Chave: Subpressão, variação espaço-temporal, piezômetros.

Dione Ines Christ Milani, Neida Maria Patias Volpi, RosangelaAparecida Botinha Assumpcao, Jorge Kazuo Yamamoto, Josiele Patias

63

1 INTRODUÇÃO

A Usina Hidrelétrica de Itaipu, construída na década de 70, possui uma capacidade de 14.000 MW, distribuída em 20 unidades geradoras e é a maior usina hidrelétrica em operação no mundo. A Itaipu é responsável por cerca de 20% da energia consumida no Brasil e de 95% da energia consumida no Paraguai. Possui localização central em relação as maiores áreas industriais e urbanas do Brasil e do Paraguai, no Rio Paraná e tem coordenadas geográficas aproximadas 25º24’29”S, 54 º35’21”O (ITAIPU BINACIONAL, 2009). A preocupação com sua segurança é objeto de frequentes estudos, desde a análise de sua viabilidade, concepção e execução dos projetos, até os dias atuais. Para isso, fez-se um minucioso estudo sobre a geologia local e instalou-se vários instrumentos nas barragens e nas fundações, a fim de monitorar diversos parâmetros importantes. Tudo isso gera um grande volume de dados armazenados, que precisam ser estudados, a fim de entender e prever qualquer alteração. Entre estes instrumentos do monitoramento de fundação e estrutura, tem-se mais de 650 piezômetros que estão instalados ao longo da barragem, de acordo com sua necessidade, dada pelo projeto de instrumentação da barragem (ITAIPU BINACIONAL, 2008). Entre as feições da geologia mais instrumentadas, está a brecha D, localizada entre os derrames C e D e com espessura entre 8 e 9 metros (PATIAS, 2010). Nela estão instalados mais de 60 piezômetros de leitura manual os quais são lidos a cada 15 dias, aproximadamente, sua instalação, também leva em conta a localização quanto a cortina de injeção e drenagem, estão instalados a montante (MI), entre as cortinas de injeção e drenagem (D/I), e a jusante da cortina de drenagem (JD).

2 PIEZÔMETROS

Dentre os esforços atuantes em uma barragem, a determinação das pressões nas fundações causadas pelo fluxo de água consiste em um dos maiores problemas no que diz respeito a obras hidráulicas (VILWOCK, 2009). Os piezômetros são instrumentos que fornecem a carga hidráulica de pressão no ponto em que são instalados. Existem vários tipos de piezômetros. Os instalados na Usina Hidrelétrica de Itaipu, são do tipo Standpipe, cuja leitura fornece a cota piezométrica a qual equivale à carga hidráulica total no ponto da instalação, dada pela soma da cota de instalação com a subpressão. Os valores das cotas piezométricas são monitorados desde o início de enchimento do reservatório, gerando assim, séries temporais. 2.1 Cota piezométrica A cota piezométrica está ligada a cota de instalação, isso faz com que sua variação espaço-temporal seja pequena, sendo ela um objeto de estudo que ajudará a entender este fenômeno, porém, sem ser o ponto principal. 2.2 Subpressão A subpressão é dada em coluna de água – metros sobre o nível do mar (msnm) – e é calculada pela diferença entre a cota piezométrica e a cota de instalação. É a força exercida no sentido ascendente em função da percolação de água.

3 MATERIAL E MÉTODOS

Optou-se por estudar os piezômetros instalados nos blocos A, D e E, representados pelas estruturas 8, 7 e 3, respectivamente, da Figura (1-b). Do total de 60 instrumentos instalados na Brecha D, 40 estão localizados dentro da cortina de injeção, 11 a jusante e 9 a montante da cortina de injeção. A Figura (1-a) mostra a localização dos piezômetros em estudo, em função da cortina de injeção.

V Simposio de Metodos Numericos Computacionais

64

a) b)

Figura 1: a) Localização dos piezômetros quanto a cortina de injeção e drenagem.

b) Localização dos trechos A (8), D (7) e E (3).

4 RESULTADOS E DISCUSSÃO

4.1 Análise descritiva A Tabela (1) nos mostra o comportamento geral de todas as cotas piezométricas e subpressões na Brecha D.

Tabela 1: Estatística descritiva da cota piezométrica e da subpressão na Brecha D. Cota Piezométrica Subpressão

N 16020 16020 Média 158,009 6,816 Mediana 163,368 4,933 Variância 312,801 50,642 Desvio padrão 17,686 7,116 Coef. de variação 11,193% 104,406% Mínimo 133,550 -1,545 Máximo 186,565 23,368 Quartil 1 137,927 0,335 Quartil 3 173,409 12,202 Amplitude 53,015 24,913 Destaca-se na Tabela (1), a diferença entre o coeficiente de variação da cota piezométrica e da subpressão. Isso mostra que a subpressão é muito mais sensível as mudanças. O mínimo da subpressão de -1.545 refere-se ao instrumento instalado onde não há água, portanto a leitura está abaixo do ponto médio do bulbo, que é considerado a cota de instalação. A amplitude, também mostra que a variação da cota de instalação é de 29 msnm, enquanto que a amplitude da subpressão é de 23 msnm, ou seja, a cota de instalação é a maior responsável pela variabilidade da cota piezométrica. 4.2 Analise bidimensional Para a análise bidimensional das subpressões e da cota piezométrica, colocou-se os piezômetros em ordem de distância, estipulando-se como o primeiro piezômetro, localizado no ponto mais à esquerda da usina, como ponto inicial, e classificou-se em ordem os demais. Nas Figura (2) e (3) o eixo-x refere-se a estes piezômetros ordenados pela distância, enquanto

V Simposio de Metodos Numericos Computacionais

65

que o eixo-y é a variação temporal normalizada de cada piezômetro, começando em janeiro de 1995 até o máximo em dezembro de 2005. Para descrever a variação temporal, classificou-se o ponto mínimo de cada piezômetro, como valor 0 e marcados pela cor azul, e o ponto máximo da cada piezômetro como 1, marcado pela cor vermelha.

Figura 2: Distribuição espaço-temporal das subpressões normalizadas de 0 à 1 de 1995 à 2005.

MI D/I JD Figura 3: Distribuição espaço-temporal das subpressões normalizadas de 0 à 1 de 1995 à 2005, separados pela

sua localização.

Nas Figuras (2) e (3), percebe-se regiões com que variam suas subpressões de valores maiores para valores menores, como os piezômetros D-80 ao D-110 e o A-2 ao A-17. Também os piezômetros D-62 ao D-74 tiveram comportamento semelhante, tendo um pico máximo em 1997 e depois novamente aumentando a partir de 2003. Ainda podemos destacar instrumentos que não tiveram oscilações, como E-14, E-25, e E-6, todos localizado a jusante da cortina de injeção. Da mesma forma, houve piezômetros que tiveram oscilação constante, como A-25, D-13, D-8, D-44, D-117 e D-149, entre outros. 4.3 Analise tridimensional Para uma melhor visualização das analises acima, fez-se os gráficos tridimensionais, onde o

V Simposio de Metodos Numericos Computacionais

66

eixo-z é o tempo e os eixos-x e y são as localizações no plano. A Figura (4) mostra as cotas piezométricas, os maiores valores estão a esquerda, localizados próximos ao vertedouro, enquanto que os menores valores estão localizados no bloco E, a direita do grafico. Não percebe-se nenhuma variação ao lonto do tempo, parecendo que todos estão estáveis, isso se deve a dimensão da cota piezometrica, comparando-a com a variaçao da subpressão. Portanto estudar apenas as cotas piezométricas faz com que a oscilação seja mascarada.

Figura 4: Variabilidade espaço-temporal da cota piezométrica.

Para entender melhor se existe ou não variação espaço-temporal, estudou-se a Figura (5), que mostra a variação da subpressão. Nela, percebe-se que a região central, localizada no trecho D, tem maiores subpressões, enquanto os extremos que são os trechos A e E possuem menores subpressões, porém ainda não sendo possível ver a variação ao longo do tempo.

Figura 5: Variabilidade espaço-temporal da subpressão.

Assim, a mesma Figura (2) foi levada ao plano tridimensional, trocando o eixo-x da distância por sua localização espacial (x,y) e é mostrada na Figura (6), nela, pode-se perceber a localização dos piezômetros estudados nas Figuras (2) e (3).

V Simposio de Metodos Numericos Computacionais

67

Figura 6: Variabilidade espaço-temporal da subpressão normalizada.

4.4 Cota de localização e subpressões. A fim de entender melhor qual a localização de maiores subpressões e a variabilidade das mesmas, fez-se o gráfico abaixo, mostrado na Figura (7), onde o ponto em vermelho é a cota de instalação e o boxplot acima refere-se a cota piezométrica. A ordem do eixo-x é a mesma mostrada na figura (2). A distância entre a cota de instalação e o boxplot é a subpressão, portanto, caixas mais longe dos pontos significa piezômetros com maiores subpressões e boxplot maiores significam maior variação temporal das subpressões. Nesta figura percebe-se um aumento das subpressões entre os piezômetros nas localizações 15 a 33, que são: D-13, D-15, D-17, D-34, D-37, D-41, D-45, D-49, D-62, D-65, D-68, D-71, D-74, D-77, D-80, D-83, D-88, D-90 , e D-92, nessa ordem. Os piezômetros : D-13 e D-88 estão a montante da cortina de injeção, o restante destes estão durante a cortina de injeção. Também os piezômetros 34 ao 39 que referem-se aos instrumentos D-95, D-98, D-101, D-104, D-107 e D-110 possuem pouca subpressão, porém bastante variabilidade.

Figura 7: Cota de instalação e boxplot da cota piezométrica.

5 CONCLUSÕES

Este estudo buscou formas alternativas para o estudo da variabilidade espaço temporal, buscando relações entre a localização e os valores das subpressões, bem como com a variabilidade temporal. Os gráficos estudados foram eficientes no para mostrar o

V Simposio de Metodos Numericos Computacionais

68

comportamento da subpressão ao longo da Brecha D. Neles pode-se identificar as regiões com valores elevados de subpressão e regiões onde a subpressão é muito baixa, o mesmo ocorrendo com a variação temporal, podendo ser encontrada as regiões onde houve maior ou menor variação da subpressão. As Figuras (3) e (6) mostraram a em que momento ocorreu os picos de máximo e mínimo, bem como mostraram se a oscilação foi intensa ou ocorreu de maneira mais lenta.

REFERÊNCIAS

GUTIÉRREZ, J. L. C. Monitoramento da Instumentação da Barragem de Corumbá-I por Redes Neurais e Modelos de Box & Jenkins.2003. Dissertação de mestrado: Programa de Pós Graduação em Engenharia Civil da PUC-RIO., Rio de Janeiro, 2003. INTERNACIONAL ENGNEERING COMPANY, (IECO); ENERCONSUL ENGENHARIA LTDA, (ELC). Aproveitamento Hidrelétrico de Itaipu: Poço de grande diametro da

barragem lateral direita - Mapeamento geológico. n SAT 2021.50.1503-P. [S.l.], p. 10. 1977. ITAIPU BINACIONAL. Usina Hidrelétrica de Itaipu - Aspectos Técnicos de Estruturas

Civis. Foz o Iguaçu: Superintendência de Engenharia - Diretoria Técnica, 2008. 133 p. ITAIPU BINACIONAL. Itaipu: usina hidreletrica - projeto: aspectos de engenharia. Foz do Iguaçu, Paraná: [s.n.], 2009. 748 p. PATIAS, J. Zoneamento geotecnico com base em krigagem ordinario e equaçoes

multiquadricas: Barragem de Itaipu. Tese (Doutorado em Ciências) do Programa de Pós Graduação em Geotecnia, São Carlos, p. 319, 2010. SILVEIRA, J. F. A. Instrumentação e Comportamento de Fundação de Barragens de

Concreto. São Paulo: Oficina de Textos, 2003. VILWOCK, R. Técnicas de Agrupamento e de Hierarquização no Contexto de KDD -

Aplicação a Dados Temporais de Instrumentaçao Geotécnica-Estrutural da Usina

Hidrelétrica de Itaipu. Tese de Doutorado apresentada ao Programa de Pós Graduação de Métodos Numéricos em Engenharia - PPGMNE - UFPR, Curitiba, 2009.

V Simposio de Metodos Numericos Computacionais

69

V Simposio de Metodos Numericos Computacionais

MÉTODO PREDITIVO WAVELET ARIMA NEURAL

Resumo: O estudo tem por motivação a área de aplicação em monitoramento e segurança em barragens, busca-se fazer a previsão de séries temporais, para auxiliar na tomada de decisão da equipe responsável deste setor. Embora a auscultação de uma barragem seja realizada por diversos instrumentos, apenas o instrumento chamado piezômetro será utilizado. A metodologia híbrida proposta para a previsão da série temporal é composta pela Decomposição Wavelet (DW), empregada para o pré-processamento dos dados, método Autorregressivo Integrado Médias Móveis (ARIMA), aplicada para o ajuste de cada DW e Rede Neural Artificial Multilayer Perceptron (RNA-MLP), encarregada de ajustar os resíduos dos modelos ARIMA. É realizada a combinação linear tanto dos ajustes ARIMA quanto dos erros, os pesos da combinação são definidos a partir da resolução de um problema de programação não-linear. A metodologia apresentada possui uma configuração inovadora, por utilizar a DW no pré-processamento dos dados no modelo híbrido e também pela composição da combinação entre métodos de previsão. Palavras-Chave: Modelo Híbrido, Previsão de Séries Temporais, Piezômetro. 1 INTRODUÇÃO

Para assegurar integridade estrutural da Usina Hidrelétrica de Itaipu Binacional, foi realizado um grande projeto de monitoramento de toda a barragem e fundação. Os diferentes equipamentos instalados podem captar informações desde a cada minuto, hora, semana ou mês de acordo com o interesse. Essa característica periódica da coleta dos dados, faz com que sejam tratados como séries temporais, sendo assim pode-se realizar previsões. Existem vários métodos de previsão de séries temporais, tais como: Autoregressive Integrated Moving Average (ARIMA), que é robusta e capaz de modelar dados que possuem correlação de dependência linear e estacionárias; Redes Neurais Artificiais (RNA), que são capazes de modelar dados cujas relações são complexas não lineares (BOX; JENKINS; REINSEL, 2008). A Decomposição Wavelet (DW) é uma metodologia que aprimora os resultados obtidos, das ferramentas de previsão citadas acima. Este mecanismo decompõe a série em partes, possibilitando a análise dos dados em vários domínios. Isto é realizado hierarquicamente descrevendo-a de uma forma grosseira e outra detalhada, diferenciando características menos sutis e mais refinadas, efetuando um pré-processamento da série (RAVIKUMAR; TAMILSELVAN, 2014). Modelos híbridos ou combinações de vários modelos, tem se tornado um artifício comum (KHASHEI; BIJARI, 2011). O propósito destes é ultrapassar as limitações das componentes dos modelos usuais de previsão e aumentar a precisão das previsões. Isso se deve a sua capacidade de modelar dados com características lineares e não lineares (ZHU; WANG; FAN, 2014, JIURIAN;

Eliete Nascimento Pereira, Cassius TadeuScarpin, Luiz Albino Teixeira Junior

70

BINGFENG, 2013, KIA et al., 2012, VALENZUELAUm modelo híbrido composto por DW, ARIMAneste trabalho. Este tem comestacionárias, que possuem relaçõesresultados que os métodos aplicados isoladamente.O método ARIMA apreenderá as características contida nos resíduos da modelagem ARIMA(JIURIAN; BINGFENG, 2013)modelos será realizado por meio da combinação linear de pesos adaptativos, que serão definidos pela resolução de um problema de programação não linear, ao invés de uma simples soma de previsõesPara aplicação da metodologia foi selecionado o instrumento chamado piezômetrodados desta série irá auxiliar na tbarragem de Itaipu, em relação aindesejadas e recorrentes.

2 FUNDAMENTAÇÃO TEÓRIC

Nas subseções a seguir são apresentadasmetodologia proposta. 2.1 Modelo AutorregressivoO método ARIMA é um dos mais consagrados modelos lineares para previsão de séries temporais. Este método é largamente adotado em modelos híbridos, com o objetivo de elevar a capacidade de predição (BABU; REDDY, 2014; PEKTmodelo ARIMA faz a diferenciação da série temporal antes de modelátorná-la estacionária, viabilizando assim a aplicação do método Box e JenkinsREINSEL, 2008). O processo que gera a série temporal com média

t 0 1 t 1 2 t 2 p t p t 1 t 1 2 t 2 q t qy y y y

sendo d o número de diferenciações, pda parte de médias móveis do modeloindependentes e identicamente distribuídos com média zero e variância constante modelo por ARIMA (p,d,q) (MORETTIN; TOLOI2.2 Rede Neural Artificial Multilayer PerceptronA MLP é uma das RNAs utilizada na modelagem e previsão de séries temporais. listam os benefícios da RNA comocontinua com uma precisão arbitrária; imposição de poucas suposições para a sua aplicação; capacidade de generalização mesmo sendo aplicados em meios não estacionários e por fim utilizade menos parâmetros se comparado a outros métodos 2006; ZHANG, 2003). A MLP de três camadas produz bons ajustes para séries temporais constituída por: uma camada composta dos padrões de entrada, representados pelo conjunto de dados yt (t=1,...,T), a camada oculta de neurôniossinápticos e a camada de saída, que fornece a resposta da rede. Os pesos sinápticos fazem a ponderação do conjunto, mensurando sua importância em relação aneurônio da camada oculta. A soma das ponderações é utilizada na função de ativação Equação (2), para ativar as informações fornecidas à rede gerando então a saída da RNA 2001).

., 2012, VALENZUELA et al., 2008 e ZHANG, 2003)m modelo híbrido composto por DW, ARIMA e RNA Multilayer Perceptron (MLP)

tem como intuito ser aplicado a séries tanto estacionárias como não relações lineares ou não entre seus dados. Ademais

que os métodos aplicados isoladamente. método ARIMA apreenderá as características lineares da série, a RNA-MLP

contida nos resíduos da modelagem ARIMA. Essas duas previsões também são utilizadas por (JIURIAN; BINGFENG, 2013), a fim de melhorar a previsão obtida por ele, a associação dos modelos será realizado por meio da combinação linear de pesos adaptativos, que serão definidos pela resolução de um problema de programação não linear, ao invés de uma simples soma de previsões

o da metodologia foi selecionado o instrumento chamado piezômetrosérie irá auxiliar na tomada de decisão pelos especialistas em monitoramento de

em relação a ações preventivas ou investigações caso seja

FUNDAMENTAÇÃO TEÓRICA

resentadas sínteses dos métodos preditivos e da DW

Autorregressivo Integrado Médias Móveis O método ARIMA é um dos mais consagrados modelos lineares para previsão de séries temporais. Este método é largamente adotado em modelos híbridos, com o objetivo de elevar a capacidade de

BABU; REDDY, 2014; PEKTAŞ; CIGIZOGLU, 2013; WEDDING; CIOS, 1996)modelo ARIMA faz a diferenciação da série temporal antes de modelá-la, esta ação é necessária para

la estacionária, viabilizando assim a aplicação do método Box e Jenkins

O processo que gera a série temporal com média µ é apresentado na Equação (1)

t 0 1 t 1 2 t 2 p t p t 1 t 1 2 t 2 q t qy y y y

sendo d o número de diferenciações, p a ordem da parte autoregressiva do modeloda parte de médias móveis do modelo ()e t o erro aleatório. Os erros aleatórios são assumidos independentes e identicamente distribuídos com média zero e variância constante

MORETTIN; TOLOI, 2006). Rede Neural Artificial Multilayer Perceptron

A MLP é uma das RNAs utilizada na modelagem e previsão de séries temporais. como sendo: capacidade de aproximar qualquer função mensurável

continua com uma precisão arbitrária; imposição de poucas suposições para a sua aplicação; capacidade de generalização mesmo sendo aplicados em meios não estacionários e por fim utiliza

se comparado a outros métodos (COELHO; SANTOS, 2011; TURE; KURT,

A MLP de três camadas produz bons ajustes para séries temporais (HAYKINconstituída por: uma camada composta dos padrões de entrada, representados pelo conjunto de dados

a camada oculta de neurônios, que faz o processamento da informação a partir de pesos sinápticos e a camada de saída, que fornece a resposta da rede. Os pesos sinápticos fazem a ponderação do conjunto, mensurando sua importância em relação aneurônio da camada oculta. A soma das ponderações é utilizada na função de ativação

), para ativar as informações fornecidas à rede gerando então a saída da RNA

., 2008 e ZHANG, 2003). Multilayer Perceptron (MLP) é apresentado

aplicado a séries tanto estacionárias como não Ademais apresentar melhores

MLP a parte não linear . Essas duas previsões também são utilizadas por

rar a previsão obtida por ele, a associação dos modelos será realizado por meio da combinação linear de pesos adaptativos, que serão definidos pela resolução de um problema de programação não linear, ao invés de uma simples soma de previsões.

o da metodologia foi selecionado o instrumento chamado piezômetro, a previsão dos omada de decisão pelos especialistas em monitoramento de

caso seja previstas leituras

preditivos e da DW que compõem a

O método ARIMA é um dos mais consagrados modelos lineares para previsão de séries temporais. Este método é largamente adotado em modelos híbridos, com o objetivo de elevar a capacidade de

AŞ; CIGIZOGLU, 2013; WEDDING; CIOS, 1996). O la, esta ação é necessária para

la estacionária, viabilizando assim a aplicação do método Box e Jenkins (BOX; JENKINS;

é apresentado na Equação (1):

t 0 1 t 1 2 t 2 p t p t 1 t 1 2 t 2 q t q (1)

a ordem da parte autoregressiva do modelo ∅(), q a ordem rros aleatórios são assumidos

independentes e identicamente distribuídos com média zero e variância constante 2. Denota-se o

A MLP é uma das RNAs utilizada na modelagem e previsão de séries temporais. Alguns autores : capacidade de aproximar qualquer função mensurável

continua com uma precisão arbitrária; imposição de poucas suposições para a sua aplicação; capacidade de generalização mesmo sendo aplicados em meios não estacionários e por fim utilização

(COELHO; SANTOS, 2011; TURE; KURT,

HAYKIN, 2001). Ela é constituída por: uma camada composta dos padrões de entrada, representados pelo conjunto de dados

que faz o processamento da informação a partir de pesos

Os pesos sinápticos fazem a ponderação do conjunto, mensurando sua importância em relação a cada neurônio da camada oculta. A soma das ponderações é utilizada na função de ativação g conforme a

), para ativar as informações fornecidas à rede gerando então a saída da RNA (HAYKIN,

V Simposio de Metodos Numericos Computacionais

71

t 0 j 0 j i, j t iy w w g w w y

onde w0 e w0j são as bias da rede neural, wentrada, p é o números de neurônios da camada oculta.2.3 Decomposição Wavelet O termo wavelets, do inglês teve origem na palavra pequenas ondas, essas podem conter características assimétricas diferentemente das funções seno e cosseno, utilizadas na transformada de Fourier.De acordo com Kubrusly e Levan (2009), a(t=1,...,T) é dada pela Equação (3)

0 0t m ,n m ,n m,n m,n

n m m n

y a t d t

onde: a, são os coeficientes de aproximação e

função wavelet escala de níveis mque m é o parâmetro de aproximação e n parâmetro de detalhe.As componentes tanto de aproximação quanto de detalhe são calculadas pelo produto interno da função escala wavelet e a função

3 MATERIAIS E MÉTODOS

A série temporal adotada neste estudo é a deste instrumento datam de janeiro de 1986 a outubro de 2014podem ser apresentadas em metros de coluna d'água (mca) ou em(msnm). Por indicação dos engenheiros especialistas em monitoramento de barragensutilizada é mca. A série é não estacionária, suas características se alteram ao longo do tempoARIMA é utilizado. Entretanto a rede neural comportamento. A previsão um passo a frente é realizada para o instrumento citadoleituras indesejáveis ou normalidade na região onde o instrumento essas são de grande valia para a tomada de decisão no monitoramento de barragens.Uma série temporal real que não possui atributos puramente lineares ou não lineares dificulta modelagem através dos métodos citados antermodelos híbridos, cujo objetivo é a sua aplicação em qualquer tipo de série; além de visar a superação das limitações de aplicação do método ARIMA que é indicado à séries lineares e RNA séries não lineares (KHASHEI; BIJARI, 2011; ZHANG, 2003)Os modelos híbridos combinam métodos de previsão estatísticos e de inteligência artificial, podecitar como exemplo a utilização do método ARIMA e a RNA, cujo o propósito é atuar em características lineares e não linearesA metodologia proposta neste artigo é modelagem ARIMA e RNA-MLPpiezômetro, o tipo de waveletaproximação A e duas componentes de detalhe Daproximação A mantém basicamente o formato da série original e é representada na mesma faixa de valores, o que não ocorre com as componentes de detalhe.

q p

t 0 j 0 j i, j t ij 1 i 1

y w w g w w y

da rede neural, wj e wi,j são os pesos sinápticos; q é o número de nós de entrada, p é o números de neurônios da camada oculta.

, do inglês teve origem na palavra ondelette (onduletas), por serem formadas de

pequenas ondas, essas podem conter características assimétricas diferentemente das funções seno e cosseno, utilizadas na transformada de Fourier.

Kubrusly e Levan (2009), a decomposição wavelet de um estado da série temporal y(t=1,...,T) é dada pela Equação (3):

0 0

0

t m ,n m ,n m,n m,nn m m n

y a t d t

são os coeficientes de aproximação e d, os coeficientes de detalhe; a

escala de níveis m0 e n; ω,(t) representa a função wavelet de nívelque m é o parâmetro de aproximação e n parâmetro de detalhe. As componentes tanto de aproximação quanto de detalhe são calculadas pelo produto interno da

e a função wavelet pelos dados yt.

ATERIAIS E MÉTODOS

A série temporal adotada neste estudo é a série mensal do piezômetro PS-F-72 datam de janeiro de 1986 a outubro de 2014, representadas na

podem ser apresentadas em metros de coluna d'água (mca) ou em metros sobre o nível do mar (msnm). Por indicação dos engenheiros especialistas em monitoramento de barragens

, suas características se alteram ao longo do tempo, por esta razão o modelo ado. Entretanto a rede neural artificial também é capaz de lidar com este

é realizada para o instrumento citado. Esta poderá indicarindesejáveis ou normalidade na região onde o instrumento está instalado

essas são de grande valia para a tomada de decisão no monitoramento de barragens.não possui atributos puramente lineares ou não lineares dificulta

métodos citados anteriormente. Este fato estimulou o desenvolvimento de modelos híbridos, cujo objetivo é a sua aplicação em qualquer tipo de série; além de visar a superação das limitações de aplicação do método ARIMA que é indicado à séries lineares e RNA

(KHASHEI; BIJARI, 2011; ZHANG, 2003). ombinam métodos de previsão estatísticos e de inteligência artificial, pode

citar como exemplo a utilização do método ARIMA e a RNA, cujo o propósito é atuar em lineares da série.

A metodologia proposta neste artigo é híbrida, composta por decomposição waveletMLP. Primeiramente foi realizada a DW de nível

wavelet empregada foi a Haar. Obteve-se então uma componente de componentes de detalhe D1 e D2. Observa-se que na Figura

aproximação A mantém basicamente o formato da série original e é representada na mesma faixa de , o que não ocorre com as componentes de detalhe.

(2)

são os pesos sinápticos; q é o número de nós de

(onduletas), por serem formadas de pequenas ondas, essas podem conter características assimétricas diferentemente das funções seno e

um estado da série temporal yt

(3)

os coeficientes de detalhe; a ϕ,(t) é a

de nível m e n, sendo

As componentes tanto de aproximação quanto de detalhe são calculadas pelo produto interno da

de Itaipu. As leituras , representadas na Figura 1. Essas

metros sobre o nível do mar (msnm). Por indicação dos engenheiros especialistas em monitoramento de barragens a métrica

por esta razão o modelo também é capaz de lidar com este

Esta poderá indicar possíveis está instalado, informações como

essas são de grande valia para a tomada de decisão no monitoramento de barragens. não possui atributos puramente lineares ou não lineares dificulta sua

iormente. Este fato estimulou o desenvolvimento de modelos híbridos, cujo objetivo é a sua aplicação em qualquer tipo de série; além de visar a superação das limitações de aplicação do método ARIMA que é indicado à séries lineares e RNA à

ombinam métodos de previsão estatísticos e de inteligência artificial, pode-se citar como exemplo a utilização do método ARIMA e a RNA, cujo o propósito é atuar em

wavelet da série inicial, de nível = 2 da série do

então uma componente de ura 1 a componente de

aproximação A mantém basicamente o formato da série original e é representada na mesma faixa de

V Simposio de Metodos Numericos Computacionais

72

Figura 1 - Série temporal PS

Nesta fase houve a separação da amostra de treino e teste, sendo 80% dos dados utilizados para treino e 20% para teste. Cada componente ARIMA utilizando o software E-Após a modelagem ARIMA, a combinação linear dos ajustes de treino de cada componente, é realizada através de pesos adaptativos, como mostra a calculados a partir de um problema de programação não linear, cuja função objetivo é minimizar o MSE, sujeita a variáveis irrestritas

é o ajuste da Combinação partir do momento em que os pesos

2 1 2 2 1 2A D D RA RD Rsa

Função Objetivo : min MSE

: ; ; ; ; ; ; irrestrita

A fase seguinte da metodologia melhorar a qualidade do ajuste da série. Para tanto os resíduos são decompostos e cada componente da DW, serão os padrões de entrada da RNAEsta etapa foi realizada com o software Matlabfoi empregada, logo tem-se novamente, uma componente de aproximação e duas de detalhede tempo da rede é de tamanho cinco, padrão de entrada de tamanho quinze, cacomposta por seis neurônios, camada de saída com um neurônio. de treino da rede neural, denotado por O ajuste final de treinamento é composto, pela combinação linear do ajuste da

resíduos, por meio da RNA-MLP

(CWAN), na Equação (6). Novaproblema de programação linear

-5

15

35

55

75

95

1

15

29

43

57

71

85

Leit

ura

s (m

ca)

Série temporal PS-F-72 e sua decomposição wavelet Haar

Nesta fase houve a separação da amostra de treino e teste, sendo 80% dos dados utilizados para Cada componente wavelet de treinamento foi modelada at

-views. Após a modelagem ARIMA, a combinação linear dos ajustes de treino de cada componente, é realizada através de pesos adaptativos, como mostra a Equação (4). Os pesos desta fase são

um problema de programação não linear, cuja função objetivo é minimizar o MSE, sujeita a variáveis irrestritas Equação (5).

1 2, 1, 1, 2,

ˆ ˆ ˆˆCWA t A t D t D ty A D D

ombinação Wavelet ARIMA (CWA). O ajuste do treino pode ser determinadoos pesos da Equação (4) são definidos. pela Equação

2 1 2 2 1 2A D D RA RD R

m2

t 1,tt 1

D

1ˆFunção Objetivo : min MSE

: ; ; ; ; ; ; irrestrita

y ym

s

utiliza os resíduos do ajuste de treinamento. A partir demelhorar a qualidade do ajuste da série. Para tanto os resíduos são decompostos e cada componente da DW, serão os padrões de entrada da RNA-MLP.

software Matlab 2010. A DW Daubyechies 45 de nível p igual a dois se novamente, uma componente de aproximação e duas de detalhe

de tempo da rede é de tamanho cinco, padrão de entrada de tamanho quinze, cacomposta por seis neurônios, camada de saída com um neurônio. Gerou-se entãode treino da rede neural, denotado por e,.

composto, pela combinação linear do ajuste da

MLP, representado por y,, Combinação Wavelet

Novamente os pesos desta combinação são determinados pelo problema de programação linear semelhante a Equação (5).

, , ,ˆ ˆ ˆ

CWAN t CWA t N ty y e

85

99

113

127

141

155

169

183

197

211

225

239

253

267

281

295

309

323

337

Meses

Nesta fase houve a separação da amostra de treino e teste, sendo 80% dos dados utilizados para foi modelada através do modelo

Após a modelagem ARIMA, a combinação linear dos ajustes de treino de cada componente, é . Os pesos desta fase são

um problema de programação não linear, cuja função objetivo é minimizar o

(4)

ajuste do treino pode ser determinado a (5).

(5)

os resíduos do ajuste de treinamento. A partir deles deseja-se melhorar a qualidade do ajuste da série. Para tanto os resíduos são decompostos e cada componente

de nível p igual a dois se novamente, uma componente de aproximação e duas de detalhe. A janela

de tempo da rede é de tamanho cinco, padrão de entrada de tamanho quinze, camada escondida se então o resíduo do ajuste

composto, pela combinação linear do ajuste da CWA e o ajuste dos

Wavelet ARIMA Neural

são determinados pelo

(6)

PS-F-72

A

D1

D2

V Simposio de Metodos Numericos Computacionais

73

4 RESULTADOS OBTIDOS

Os dados da série temporal do PSanterior. Primeiramente foram ajustados o conjunto de treinamenutilizados no conjunto de teste. O ajuste dos dados de teste podem ser observados Nota-se que apenas a combinação das previsões das componentes melhorar o ajuste de teste. Lembrando que nesta fase é aplicada apenas a previsão através do ARIMA. Entretanto ao utilizar o ajseu resultado obtém uma precisão considerável até mesmo em comparação com o modelo ARIMA puro.

Figura

A Tabela 1 apresenta alguns métodos de comparação, entre modelos no caso o MAE. A verificação do ajuste de teste com a série inicial é feita pelo MSE.

Tabela

Ajustes ARIMA CWA

CWAN

Nota-se que a previsão CWAN obteve melhores resultados, comparandotabela. Este fato indica que o resíduo incluí-lo no ajuste da série, ocasiona

5 CONCLUSÕES

ARIMA e RNA-MLP são ferramentasgeralmente dependem das características específicas danecessário que algumas condições sejam satisfeitassendo ela linear ou não, é uma informação importante para a decisão de Esse aspecto da série não é facilmente identificado, sendo assim pode acarretar resultados não satisfatórios. A fim de contornar dificuldadevêm sendo propostos e aplicados, O modelo híbrido apresentado, além de ser composto por métodos tradicionais na área de previsão de séries temporais, também utiliza decomposição combinação linear das técnicas através de um problema de programação não linear.

58

60

62

64

66

68

70

72

74

1 3 5

Leit

ura

s (m

ca)

RESULTADOS OBTIDOS

Os dados da série temporal do PS-F-72, foram ajustados conforme o que foi descrito na seção anterior. Primeiramente foram ajustados o conjunto de treinamento e os pesos obtidos nesta etapa

O ajuste dos dados de teste podem ser observados se que apenas a combinação das previsões das componentes wavelet, não é o suficiente para

Lembrando que nesta fase é aplicada apenas a previsão através do ARIMA. Entretanto ao utilizar o ajuste dos resíduos por intermédio da RNA-MLP na combinaçãoseu resultado obtém uma precisão considerável até mesmo em comparação com o modelo ARIMA

gura 2 - Ajuste do conjunto de teste do PS-F-72

apresenta alguns métodos de comparação, entre modelos no caso o MAE. A verificação do ajuste de teste com a série inicial é feita pelo MSE.

Tabela 1- Comparação dos métodos de previsão

MAE MSE 0,729403 0,935273 0,553601 0,857801 0,377861 0,206208

se que a previsão CWAN obteve melhores resultados, comparando-se aos demais modelos da resíduo da série ainda possuem características a serem modeladas

ocasiona melhora do ajuste final da série.

MLP são ferramentas utilizadas na previsão de séries tempors características específicas das séries. Para a aplicação desses métodos é

necessário que algumas condições sejam satisfeitas, o tipo de correlação entre os dados da série, é uma informação importante para a decisão de qual modelagem utilizar.

Esse aspecto da série não é facilmente identificado, sendo assim pode acarretar resultados não satisfatórios. A fim de contornar dificuldades e limitações dos métodos citados,

sendo propostos e aplicados, seus resultados mostram-se promissores. O modelo híbrido apresentado, além de ser composto por métodos tradicionais na área de previsão de

também utiliza decomposição wavelet da série e a definição dos pesos daatravés de um problema de programação não linear.

7 9 11 13 15 17 19 21 23 25 27 29 31 33 35

Meses

PS-F-

CWA

CWAN

ARIMA

72, foram ajustados conforme o que foi descrito na seção os obtidos nesta etapa

O ajuste dos dados de teste podem ser observados na Figura 2. , não é o suficiente para

Lembrando que nesta fase é aplicada apenas a previsão através do método MLP na combinação,

seu resultado obtém uma precisão considerável até mesmo em comparação com o modelo ARIMA

apresenta alguns métodos de comparação, entre modelos no caso o MAE. A verificação

se aos demais modelos da da série ainda possuem características a serem modeladas e ao

as na previsão de séries temporais, seus resultados . Para a aplicação desses métodos é

relação entre os dados da série, qual modelagem utilizar.

Esse aspecto da série não é facilmente identificado, sendo assim pode acarretar resultados não e limitações dos métodos citados, os modelos híbridos

O modelo híbrido apresentado, além de ser composto por métodos tradicionais na área de previsão de definição dos pesos da

através de um problema de programação não linear.

-72

CWA

CWAN

ARIMA

V Simposio de Metodos Numericos Computacionais

74

O resultado obtido pela metodologia propostamodelagem ARIMA das componentes puro. Entretanto ao incluir a previsão da resultado foi aprimorado. Embora não tenha sido realizada uma investigação mais aprofundada em relação ao tipo de waveletse utilizar, os resultados obtidos serem ainda melhores em função da

AGRADECIMENTOS

A Capes e Fundação Araucária, pela bolsa de doutorado concedida a aluna Eliete Nascimento Pereira. Agradecimento também ao C(CEASB) e a Universidade Estadual o doutorado fora de cede do Programa de Pós

REFERÊNCIAS

BABU, C. N.; REDDY, B. E. A movingforecasting time series data. Applied Soft ComputingBOX, G. E. P.; JENKINS, G. M.; REINSEL, G. C. 2008. COELHO, L. D. S.; SANTOS, A. A. P. A RBF neural network model with GARCH errors: Application to electricity price forecasting. jan. 2011. HAYKIN, S. Redes Neurais - Principios E PráticaJIURIAN, H.; BINGFENG, S. The application of ARIMAforecast. 2nd International Conference oAnais...2013 KHASHEI, M.; BIJARI, M. A novel hybridization of artificial neural networks and ARIMA models for time series forecasting. Applied Soft ComputingKIA, A. N.; FATHIAN, M.; GHOLAMIAN, M. R. Using MLP and RBF Neural Networks to Improve the Prediction of Exchange Rate Time Series with ARIMA. Information and Electronics EngineeringMORETTIN, P. A.; TOLOI, C. M. 2006. PEKTAŞ, A. O.; CIGIZOGLU, H. K. ANN hybrid model versus ARIMA and ARIMAX models of runoff coefficient. Journal of HydrologyRAVIKUMAR, K.; TAMILSELVAN, Sprediction. Applied Mathematical SciencesTURE, M.; KURT, I. Comparison of four different time series methods to forecast hepatitis A virus infection. Expert Systems with ApplicationsVALENZUELA, O. et al. Hybridization of intelligent techniques and ARIMA models for time series prediction. Fuzzy Sets and SystemsWEDDING, D. K.; CIOS, K. J. Tifactors, and the Box-Jenkins model. ZHANG, G. P. Time series forecasting using a hybrid ARIMA and neural network model. Neurocomputing, v. 50, p. 159–175, jan. 2003. ZHU, L.; WANG, Y.; FAN, Q. MODWTMathematical Modelling, v. 38, n. 5

O resultado obtido pela metodologia proposta mostra-se promissora. Apenas a combinação da modelagem ARIMA das componentes wavelet não atingiu resultados melhores do que o ARIMA

Entretanto ao incluir a previsão da DW dos resíduos obtidos por meio da

realizada uma investigação mais aprofundada em relação ao tipo de wavelet são considerados satisfatórios. Existe a possibilidade dos resultados

es em função da wavelet adotada.

A Capes e Fundação Araucária, pela bolsa de doutorado concedida a aluna Eliete Nascimento Pereira. Agradecimento também ao Centro de Estudos Avançados de Segurança de Barragens (CEASB) e a Universidade Estadual do Oeste do Paraná Campus Foz do Iguaçu,o doutorado fora de cede do Programa de Pós-Graduação em Métodos Numéricos em Engenharia.

BABU, C. N.; REDDY, B. E. A moving-average filter based hybrid ARIMAApplied Soft Computing, v. 23, p. 27–38, out. 2014.

BOX, G. E. P.; JENKINS, G. M.; REINSEL, G. C. Time Series Analysis. 4. ed. New Jersey: Wiley,

COELHO, L. D. S.; SANTOS, A. A. P. A RBF neural network model with GARCH errors: Application to electricity price forecasting. Electric Power Systems Research, v. 81, n. 1, p. 74

Principios E Prática. 2. ed. Porto Alegre: Bookman, 2001. The application of ARIMA-RBF model in urban rail traffic volume

2nd International Conference on Computer Science and Electronics Engineering.

KHASHEI, M.; BIJARI, M. A novel hybridization of artificial neural networks and ARIMA models Applied Soft Computing, v. 11, n. 2, p. 2664–2675, mar. 2011.

; FATHIAN, M.; GHOLAMIAN, M. R. Using MLP and RBF Neural Networks to Improve the Prediction of Exchange Rate Time Series with ARIMA. International Journal of Information and Electronics Engineering, v. 2, n. 4, p. 2–5, 2012. MORETTIN, P. A.; TOLOI, C. M. C. Análise de Séries Temporais. 2. ed. São Paulo: Egard Blucher,

PEKTAŞ, A. O.; CIGIZOGLU, H. K. ANN hybrid model versus ARIMA and ARIMAX models of Journal of Hydrology, v. 500, p. 21–36, set. 2013.

RAVIKUMAR, K.; TAMILSELVAN, S. On the use of the wavelet decomposition for time series Applied Mathematical Sciences, v. 8, n. 58, p. 2874 2858, 2014.

TURE, M.; KURT, I. Comparison of four different time series methods to forecast hepatitis A virus ms with Applications, v. 31, n. 1, p. 41–46, jul. 2006.

VALENZUELA, O. et al. Hybridization of intelligent techniques and ARIMA models for time series Fuzzy Sets and Systems, v. 159, n. 7, p. 821–845, abr. 2008.

WEDDING, D. K.; CIOS, K. J. Time series forecasting by combining RBF networks, certainty Jenkins model. Neurocomputing, v. 10, n. 2, p. 149–168, mar. 1996.

ZHANG, G. P. Time series forecasting using a hybrid ARIMA and neural network model. 175, jan. 2003.

ZHU, L.; WANG, Y.; FAN, Q. MODWT-ARMA model for time series prediction. , v. 38, n. 5-6, p. 1859–1865, 2014.

promissora. Apenas a combinação da não atingiu resultados melhores do que o ARIMA

os resíduos obtidos por meio da RNA-MLP, o

realizada uma investigação mais aprofundada em relação ao tipo de wavelet a . Existe a possibilidade dos resultados

A Capes e Fundação Araucária, pela bolsa de doutorado concedida a aluna Eliete Nascimento entro de Estudos Avançados de Segurança de Barragens

do Paraná Campus Foz do Iguaçu, por tornar possível Graduação em Métodos Numéricos em Engenharia.

average filter based hybrid ARIMA–ANN model for 38, out. 2014.

. 4. ed. New Jersey: Wiley,

COELHO, L. D. S.; SANTOS, A. A. P. A RBF neural network model with GARCH errors: , v. 81, n. 1, p. 74–83,

. 2. ed. Porto Alegre: Bookman, 2001. RBF model in urban rail traffic volume

n Computer Science and Electronics Engineering.

KHASHEI, M.; BIJARI, M. A novel hybridization of artificial neural networks and ARIMA models 2675, mar. 2011.

; FATHIAN, M.; GHOLAMIAN, M. R. Using MLP and RBF Neural Networks to International Journal of

. 2. ed. São Paulo: Egard Blucher,

PEKTAŞ, A. O.; CIGIZOGLU, H. K. ANN hybrid model versus ARIMA and ARIMAX models of

. On the use of the wavelet decomposition for time series

TURE, M.; KURT, I. Comparison of four different time series methods to forecast hepatitis A virus

VALENZUELA, O. et al. Hybridization of intelligent techniques and ARIMA models for time series

me series forecasting by combining RBF networks, certainty 168, mar. 1996.

ZHANG, G. P. Time series forecasting using a hybrid ARIMA and neural network model.

ARMA model for time series prediction. Applied

V Simposio de Metodos Numericos Computacionais

75

V Simposio de Metodos Numericos Computacionais

ACESSO À INFORMAÇÕES DE FISSURAS EM ESTRUTURAS DECONCRETO EM CAMPO UTILIZANDO REALIDADE

AUMENTADA

Resumo: A tecnologia de realidade aumentada tem se tornado um recurso com grande potencial na área da en-genharia. Durante as fases iniciais do ciclo de vida das construções como projeto e concepção das construções, elavem sendo amplamente utilizada para visualização do projeto em campo, acompanhamento de cronograma, exe-cução de tarefas relacionadas com a construção, entre outras. Porém na fase de operação e manutenção, ainda setem muito a fazer. Estruturas de concreto exigem que sejam realizadas periodicamente inspeções para avaliação doestado de conservação das mesmas. Quando apresentam fissuras, devem ser monitoradas, visto que sua evoluçãopode ser indícios do comprometimento da estrutura, necessidade de manutenções ou intervenções. Neste contextoo artigo tem por objetivo apresentar um protótipo para acesso a informações de fissuras em estruturas de concretoem campo através do uso da realidade aumentada.

Palavras-Chave: realidade aumentada, fissuras, estruturas de concreto

1 INTRODUÇÃO

O setor da engenharia civil não pára e a cada dia surgem novas estruturas de concreto. É muitoimportante que seja garantida a segurança e o bom funcionamento destas estruturas com o mínimo demanutenções durante seu tempo de vida útil. Para tal é relevante que periodicamente sejam realizadasinspeções visuais com intuito de detectar indícios de patologias, como fissuras. Fissuras são importantesde serem detectadas, mapeadas e medidas e ainda é substancial que sua evolução seja acompanhadaValença et al. (2010).

Nos últimos anos, tem-se buscado meios de inovar a forma como são realizadas as inspeções, tirandoproveito das tecnologias atuais. Diversos métodos têm sido propostos para detecção, mapeamento emedições de fissuras utilizando, por exemplo, processamento de imagens e veículos não tripulados paraaquisição das imagens. Estes métodos geram inspeções ricas em informações e ainda obtém-se umgrande volume de dados históricos, fornecendo informações preciosas a respeito da evolução das fissurasnas estruturas. Acessar estas informações de forma adequada e em campo é muito importante, podendotornar o processo de avaliação e tomada de decisões mais eficiente. Neste contexto a realidade aumentadaé uma tecnologia vantajosa, já que mistura à realidade, informações virtuais, permitindo que dados eimagens coletadas ao longo do tempo e outras informações geradas a respeito de uma fissura coexistamno ambiente real, enriquecendo-o.

A realidade aumentada vem sendo amplamente utilizada nas mais diversas áreas, inclusive na área deArquitetura, Engenharia e Construção (AEC).

Fabiana Frata Furlan Peres, Sergio Scheer, Etore Funchal de Faria

76

Neste artigo é apresentado um protótipo de realidade aumentada para acesso à informações de fissurasem estrutura de concreto em campo, demonstrando mais uma aplicação desta tecnologia na área de AECe reforçando que é um recurso que viabiliza o bom aproveitamento do volume de dados extraído daedificação durante todo seu ciclo de vida, inclusive na fase de operação e manutenção.

2 REALIDADE AUMENTADA NA ENGENHARIA CIVIL

São infinitas as áreas potenciais para desenvolvimento de aplicações de realidade aumentada. Na áreade AEC onde são produzidos projetos, grandes volumes de dados e informações, o uso da realidade au-mentada pode trazer benefícios principalmente para a visualização/simulação, comunicação/colaboração,recuperação da informação e interação Rankohi and Waugh (2013) e Dong and Kamat (2013). Algu-mas aplicações desenvolvidas nesta área, para comunicação/colaboração são apresentadas em Shin andDuston (2009), Kwon et al. (2014) e Park et al. (2013). Em Kwon et al. (2014) e Park et al. (2013) sãodescritas aplicações de realidade aumentada voltadas também para a visualização de projetos e em Mezaet al. (2014) para o auxílio na execução de tarefas in situ, acompanhamento e atualização de cronogramase custos. Há ainda trabalhos como o de Wang et al. (2013) apresentando propostas para integrar a mo-delagem da informação da construção, do inglês, Building Information Modeling (BIM) com realidadeaumentada.

BIM tem por objetivo gerar um padrão preciso de modelagem da informação da construção de formadigital e integrada, idealizando a união das informações de uma edificação numa base de dados únicae compartilhada durante todo o ciclo de vida da edificação. Desta forma são muitos os benefícios emintegrar BIM e realidade aumentada, visto que BIM busca melhorar a qualidade da documentação que éproduzida a respeito da edificação, porém não trata de como esta documentação pode ser integrada emtempo real no local da construção, sendo que a realidade aumentada supre esta necessidade.

Apesar de haver muitos trabalhos buscando integrar realidade aumentada com AEC e BIM, eles nãoabrangem todas as fases do seu ciclo de vida, concentrando-se principalmente nas atividades relacionadascom as fases iniciais como de projetos e construções de edificações.

3 FISSURAS EM ESTRUTURAS DE CONCRETO

Fissuras podem ser os primeiros sinais da existência de uma possível falha estrutural, mas nem semprerepresentam anomalias graves Valença et al. (2010). Porém é muito importante detectá-las, mapeá-lase quantificá-las quanto a sua evolução ao longo do tempo. A seguir é apresentado o método tradicionalutilizado para caracterizar fissuras e outros métodos alternativos para tal.3.1 Métodos para Caracterização de Fissuras

O método tradicional utilizado para caracterização de fissuras consiste em fazer o esboço da fissura,com base em inspeção visual e registros fotográficos da mesma. A largura da fissura é avaliada com o usode uma lupa de aumento graduada ou então utilizando uma régua contendo espessuras padrão Valençaet al. (2010).

Com o desenvolvimento e popularização de diversas tecnologias computacionais, outros métodosalternativos ao tradicional têm sido propostos, como o CONCRACK que detecta, mapeia e mede auto-maticamente fissuras, permitindo ainda que seja monitorado a sua evolução Valença et al. (2010). Outroexemplo é o SurfCrete que além de caracterizar as fissuras, avalia outros tipos de danos em superficiesde concreto utilizando análise multiespectral Valença et al. (2012). Outros trabalhos similares propostossão descritos em Arena et al. (2014), Adhikari et al. (2014), Martins et al. (2013) e Yang et al. (2015).

Fazendo uso de algoritmos e métodos para análise de imagens, estes trabalhos que apresentam méto-dos alternativos, buscam automatizar partes ou todo o processo, apresentando vantagens em termos derapidez, eficiência, volume de informação obtida e até confiabilidade, já que os dados são processadosautomaticamente e não ficam sujeitos à erros do operador.

Um fator importante, não abordado nos trabalhos citados, refere-se a como fazer o acesso a estesdados no ambiente real onde ocorrem as inspeções.

A seguir é apresentado um protótipo (objeto deste artigo), que propõe utilizar realidade aumentadaem dispositivo móvel para disponibilizar o acesso aos dados das fissuras em tempo real, no ambiente

V Simposio de Metodos Numericos Computacionais

77

real misturando à realidade informações virtuais.

4 REALIDADE AUMENTADA X FISSURAS

A busca por métodos computacionais mais eficientes e automáticos de detecção, mapeamento emedições de fissuras, geram uma documentação muito mais rica em detalhes, completa e organizada.Porém é importante acessar estas informações no momento adequado, in situ durante as inspeções, pro-porcionando um aumento da realidade e permitindo a realização de uma inspeção mais eficaz e eficiente.A tecnologia que tem se apresentado adequada para este propósito é a realidade aumentada para dispo-sitivos móveis.

O protótipo apresentado neste artigo visa experimentar a tecnologia de realidade aumentada paradispositivo móvel no âmbito de fissuras em estruturas de concreto. Para isso tem sido utilizado no desen-volvimento deste protótipo, o framework Cordova e o plug in da Wikitude para Cordova. O frameworkCordova oferece APIs que permitem o desenvolvimento de aplicações para diversas plataformas móveisutilizando tecnologias HTML5, CSS e JavaScript. Sua principal vantagem é permitir o desenvolvimentode aplicações utilizando recursos nativos da plataforma, sem a necessidade de conhecer as especifici-dades destes recursos nativos, o que dificultaria o desenvolvimento multiplataformas. Desta forma aaplicação é codificada utilizando JavaScript, HTML5 e CSS.

Para disponibilizar o acesso aos dados e informações das fissuras no campo, através da realidadeaumentada, o protótipo utiliza a coordenada geográfica de cada fissura para definir o local do mundo realonde marcações (representada neste protótipo por alfinetes) devem ser inseridas (Figura 1), desta forma,para seu funcionamento é necessário o uso do GPS.

Foram atribuídas três cores distintas (verde, amarela e vermelha) para as marcações. Estas cores re-presentam o grau de atenção necessária a cada fissura. O grau de atenção é determinado pelo intervalo detempo passado desde a ultima inspeção, sua evolução e comprimento/abertura da fissura. As marcaçõesem vermelho destacam as fissuras que merecem maior atenção no momento, já as amarelas, aquelas emestado intermediário e as verdes, as fissuras cuja inspeção, evolução e características encontra-se sobcontrole. A Figura 1 apresenta uma tela do protótipo contendo marcações sob duas fissuras com grausde atenção diferentes. É possível ainda observar na mesma Figura, um radar no canto superior esquerdoindicando as fissuras contidas nas estruturas próximas a posição do observador.

Figura 1: Tela do protótipo de realidade aumentada contendo fissuras mapeadas e identificadas poralfinetes coloridos.

Alterando o valor definido no atalho ’Alcance’, conforme mostrado na Figura 2, é possível determinara distância máxima entre o observador e as fissuras que se deseja visualizar, excluindo assim informaçõesde fissuras que estejam muito distantes do observador. Outro recurso disponibilizado pelo protótipo é apossibilidade de aquisição de novas imagens da fissura através do atalho ’Captura de Imagem’.

V Simposio de Metodos Numericos Computacionais

78

Figura 2: Tela do protótipo de realidade aumentada apresentada quando deseja-se ajustar do raio dealcance máximo entre o observador e as fissuras visualizadas.

Quando uma fissura é selecionada pelo observador, na tela do dispositivo móvel, são mostradosmaiores detalhes sobre a mesma, como uma descrição geral, datas das inspeções com links para asrespectivas imagens obtidas no dia da inspeção, dados da abertura e comprimento da fissura. A Figura 3mostra um exemplo de tela apresentada quando é feita a seleção de uma fissura.

Figura 3: Tela do protótipo para apresentação de detalhes sobre a fissura selecionada.

Um outro recurso de grande utilidade e almejado pelo protótipo é o de poder visualizar a evoluçãoda fissura ao longo do tempo, com base nas informações coletadas até a data, sob a própria fissura domundo real. A Figura 4 mostra, em cores diferentes (preto e vermelho), o esqueleto da fissura nas duasultimas inspeções.

V Simposio de Metodos Numericos Computacionais

79

Figura 4: Tela do protótipo para visualização do esqueleto de uma fissura e sua evolução ao longo dotempo.

Este recurso apresentado na Figura 4, enriquece a visão do observador, dando a informação do realestado evolutivo de uma determinada fissura.

Com relação as dados e informações das fissuras utilizadas neste protótipo, vale ressaltar que sãofictícios e encontram-se armazenadas em um arquivo local no dispositivo móvel, para realização dostestes.

5 CONCLUSÕES

As inovações nos métodos da engenharia, introduzindo recursos computacionais, geram um grandevolume de dados histórico que somente faz sentido e é bem aproveitado se há exploração deste arcabolçode forma consistente e no momento necessário. A realidade aumentada tem se popularizado graçasaos avanços tecnológicos e vem sendo amplamente utilizada para acesso aos dados no contexto real.Este acesso aos dados no contexto real de fissuras viabiliza o bom aproveitamento do volume de dadosextraídos das estruturas de concreto, permitindo que haja maior eficiência e eficácia nas atividades deinspeção e até de possíveis manutenções.

REFERÊNCIAS

Adhikari R.S., Moselhi O., and Bagchi A. Image-based retrieval of concrete properties for bridge inpec-tion. Automation in Construction, 39:180–194, 2014.

Arena A., Piane C.D., and Saraout J. A new computational approach to cracks quantification from 2dimage analisys: Application to micro-cracks description in rocks. Computers & Geociencies, 66:106–120, 2014.

Dong S. and Kamat V.R. Smart: Scalable and modular augmented reality template for rapid developmentof engineering visualization applications. Visualization in Engineering, 2013.

Kwon O.S., Park C.S., and Lim C.R. A defect management system for reinforced concrete work utilizingbim, image-matching and augmented reality. Automation in Construction, 46:74–81, 2014.

Martins A.P., P. J.J.C., and Belini V.L. Image-based method for monitoring of crack opening on masonryand concrete using mobile platform. Ibracon Structures and Marerials Journal, 6:414–435, 2013.

Meza S., Turk Z., and Dolenc M. Component based engineering of a mobile bim - based augmentedreality system. Automation in Construction, 42:1–12, 2014.

Park C.S., Lee D.Y., Kwon O., and WANG X. A framework for proactive construction management usingbim, augmented reality and ontology-based data collection template. Automation in Construction,33:61–71, 2013.

V Simposio de Metodos Numericos Computacionais

80

Rankohi S. and Waugh L. Review and analysis of augmented reality literature for construction industry.Visualization in Engineering, 2013.

Shin D.H. and Duston P.S. Evaluation of augmented reality in steelcolumn inspection. Automation inConstruction, 18:118–129, 2009.

Valença J., Dias-da Costa D., Júlio E., and Araújo H. Desenvolvimento de um método inovador dedetecção e medição de fissuras em estruturas de betão. Encontro Nacional Betão Estrutural, 2010.

Valença J., Gonçauves L., and Júlio E. Avaliação automática de superfícies de betão com análise multi-espectral de imagem. Encontro Nacional Betão Estrutural, 2012.

Wang X., Love P.E.D., Kim M.J., Park C.S., Sing C.P., and Hou L. A conceptual framework for integrat-ing building information modeling with augmented reality. Automation in Construction, 34:37–44,2013.

Yang Y.S., Yang C.M., and Huang C.W. Thin crack observation in a reinforced concrete bridge pier testusing image processing and analisys. Advances in Engineering Software, 83:99–108, 2015.

V Simposio de Metodos Numericos Computacionais

81

V Simposio de Metodos Numericos Computacionais

ABORDAGEM NEURO/FUZZY/BAYESIANA APLICADA NA GESTÃO

DE SEGURANÇA DE BARRAGENS

Resumo: Este artigo tem como objetivo apresentar um método de detecção automática de

pontos de mudança em séries temporais geradas por instrumentos de monitoramento

envolvidos na gestão da segurança de barragens. A técnica de detecção utilizada é baseada

em uma formulação neuro/fuzzy/bayesiana dividida em três partes. A primeira etapa consiste

em uma clusterização dos pontos da série temporal a partir do desenvolvimento de um mapa

auto-organizável de Kohonen. Em seguida, é feita a construção de um conjunto fuzzy que

transforma a série temporal inicial, com distribuição arbitrária, em uma nova série cuja

distribuição de probabilidade pode ser aproximada por uma distribuição beta. Por fim, os

pontos de mudanças são detectados através de uma simulação de Monte Carlo via cadeias de

Markov. Esta metodologia é aplicada à séries temporais geradas por instrumentos de

monitoramento das estruturas de barramento da Usina Hidrelétrica de Itaipu, os quais

apresentaram pequenas mudanças no comportamento das medidas após a ocorrência do sismo

do dia 27 de fevereiro de 2010 com epicentro localizado no Chile, possibilitando a

identificação automática dos locais da barragem que necessitam de um monitoramento mais

específico.

Palavras-Chave: Segurança de Barragem, Redes Neurais, Conjuntos Fuzzy, Simulação

Monte Carlo.

1 INTRODUÇÃO

A construção de uma usina hidrelétrica é de grande importância para o desenvolvimento

de um país e demonstra grande capacidade da engenharia onde são envolvidos profissionais

de alta capacidade. No entanto, este é um tipo de obra que requer muita vigilância, a

possibilidade de ocorrer um comportamento que saia fora do esperado ou das previsões do

projeto pode resultar em consequências indesejáveis a níveis econômicos, ambientais e na

segurança de pessoas (SANTOS, 2006). No mundo todo a segurança de barragens é um

assunto muito debatido, e o Brasil mostra-se preocupado com a “saúde” de suas barragens.

Um fenômeno que merece atenção dos responsáveis pela segurança de uma barragem,

são os tremores de terras, gerados por sismos de grande ou pequena magnitude. A ocorrência

de um abalo sísmico, mesmo em um local distante da barragem pode gerar mudanças no

comportamento da sua estrutura. Com isso, um método para identificar de forma rápida quais

os pontos da barragem que sofreram influência do sismo é de grande valia para o

Fernando Mucio Bando, Jair Mendes Marques,Josiele Patias, Luiz Albino Teixeira Junior

82

gerenciamento da segurança da barragem.

A identificação da mudança de comportamento gerada por um sismo pode ser feita a

partir de análises visuais das séries temporais geradas pelos instrumentos de monitoramento

distribuídos conforme critérios de projeto ao longo das estruturas e suas fundações. Porém

uma quantidade elevada de instrumentos pode aumentar consideravelmente o tempo de

análise para ser feita de forma manual, portanto, este trabalho visa detectar de forma

automática quais as séries temporais apresentaram mudanças de comportamento após a

ocorrência do sismo, acelerando a identificação dos locais que mais requerem atenção de

monitoramento.

Muitas técnicas para a detecção de pontos de mudanças em séries temporais são

atualmente apresentadas em artigos científicos (HINKEY, 1971), (BARRY; HARTIGAN,

1993) e (LOSCHI; CRUZ, 2005). Porém, em geral as técnicas dependem de algum

conhecimento a priori do comportamento da série temporal, como modelos determinísticos

ou estatísticos. Entre estas técnicas podemos destacar: observador de Luenberger; filtro de

Kalman; redes neurais artificiais; e redes neuro-fuzzy.

Em algumas séries temporais, não é possível obter o conhecimento a priori necessário

para a aplicação das técnicas citadas. Um estudo atual que busca contornar esta situação é

apresentado no trabalho D’ANGELO et al. (2011a), onde é proposta uma formulação

neuro/fuzzy/bayesiana para a detecção de ponto de mudança em séries temporais sem

necessidade de se conhecer o comportamento a priori da série temporal.

Portanto, este artigo apresenta uma adaptação da formulação neuro/fuzzy/bayesiana de

detecção automática de ponto de mudança em séries temporais aplicada na identificação de

mudança de comportamento em dados gerados por instrumentos de monitoramento de

barragem. Como referência para a validação do método, foi aplicado em uma série temporal

que registrou mudança de comportamento após o abalo sísmico ocorrido em 27 de fevereiro

de 2010 no Chile.

2 SEGURANÇA DE BARRAGENS

O conceito de “Segurança de Barragens” envolve diversos aspectos, entre eles:

estruturais, hidráulicos, geotécnicos e operacionais. Estas características devem ser

consideradas no projeto e por toda a vida útil da barragem. Uma maneira de avaliar o

comportamento e a integridade de uma barragem é através de um sistema de instrumentação

capaz de monitorar o estado geotécnico e estrutural (SILVEIRA, 2003).

De acordo com SILVEIRA (2003), o principal objetivo de um plano de instrumentação é

garantir um nível de segurança adequado para uma barragem, ou seja, se as premissas

estabelecidas em projeto se mantém sob controle. O monitoramento através de instrumentos

possibilita a obtenção de dados quantitativos que permitem acessar informações

extremamente importantes, como pressão piezométrica, deformação, tensão e nível de água.

Porém, muitas vezes é necessária uma análise adequada dos valores gerados para detectar

uma condição crítica.

3 METODOLOGIA

Existem várias estratégias para tratar os problemas de detecção de mudança em séries

temporais, porém a maioria das técnicas apresentadas, necessita de um conhecimento a priori

do comportamento dos dados que descrevem a série temporal (ISERMANN, 1997).

Uma técnica que não se utiliza do conhecimento a priori da série temporal foi descrita

nos trabalhos D’ANGELO et al. (2011a), SOUZA et al. (2012) e D’ANGELO et al. (2014).

Essa metodologia se baseia na teoria dos conjuntos fuzzy associada com a estatística

bayesiana, e tem como principal contribuição uma abordagem que permite a detecção de

pontos de mudança em uma série temporal sem a necessidade de conhecer previamente os

V Simposio de Metodos Numericos Computacionais

83

modelos determinísticos ou probabilísticos que descrevam a coleção de dados.

O método é dividido em três passos:

1. Clusterização dos dados da série temporal através de um mapa auto-organizável de

Kohonen;

2. Construção de uma nova série temporal por meio de uma fuzzificação da série

temporal inicial;

3. Aplicação de uma simulação Monte Carlo via algoritmo Metropois-Hastings para a

determinação do ponto de mudança.

3.1 Clusterização via Rede de Kohonen

A metodologia escolhida para a clusterização dos dados é baseada em uma rede neural

auto-organizada de Kohonen (KOHONEN, 1990). A principal justificativa para a escolha da

clusterização dos dados via Rede de Kohonen, é dada pelo fato de que este método permite

um agrupamento adaptativo, isto é, que determina, além dos centros, uma quantidade

adequada de grupos, eliminando grupos desnecessários.

Como neste estudo, tem-se interesse em apenas séries temporais de uma única dimensão,

utiliza-se para a rede somente uma entrada. O número de neurônios é definido no início do

processo, e diminui no decorrer das iterações, através de um processo de eliminação por

critério de baixo desempenho, definido pelo número de associações com os elementos.

Também, no início do processo, é definido o número máximo de iterações e a taxa de

aprendizagem para a primeira etapa do método. Os pesos dos neurônios são igualmente

espaçados entre os valores máximo e mínimo da série temporal, e no final do processo, os

pesos dos neurônios que sobraram são definidos como sendo os centros dos clusters.

O treinamento da rede neural é não supervisionado e competitivo (KOHONEN, 1990).

Somente o peso do neurônio vencedor é ajustado, com isso o raio de vizinhança é

considerado sempre igual a 1. A taxa de aprendizagem é atualizada a cada iteração

variando de 0,1 até 0,01 de forma linear. Ao final do treinamento, os neurônios que tiveram

um baixo índice de desempenho, isto é, que venceram poucas vezes, são desconsiderados.

Este processo é repetido até que os neurônios que restaram, tenham todos desempenho

considerável. Após o processamento de todas as iterações, os neurônios que sobram são

definidos como os centros dos clusters para o próximo passo.

3.2 Fuzzificação da Série Temporal

Os métodos clássicos de agrupamentos separam os dados em categorias, entretanto em

muitos casos, alguns elementos não podem pertencer a uma categoria específica, pois

pertencem a duas ou mais categorias simultaneamente. A utilização dos métodos de

agrupamentos fuzzy é uma boa alternativa de resolver tal problema, pois assim, um elemento

pode pertencer a mais de uma categoria simultaneamente (PEDRYCZ, 1985).

Para o estudo aqui apresentado utilizou-se o método de agrupamento fuzzy para gerar

uma nova série temporal baseada nos centros de clusters definidos pela rede de Kohonen.

D’ANGELO et al. (2011b) mostraram de forma empírica, que mesmo sem ter qualquer

conhecimento a priori da série temporal original, a nova série gerada por agrupamento fuzzy

pode ser adequadamente aproximada por uma série com distribuição beta.

Desta maneira, dada uma série temporal e, considerando um inteiro positivo k, o

agrupamento fuzzy, consiste em definir um conjunto

que resolve o problema de minimização,

V Simposio de Metodos Numericos Computacionais

84

(1)

onde,

(2)

é o grau de pertinência fuzzy de em relação a cada centro .

O conjunto , que minimiza a expressão (1), é chamado conjunto

de centros da série temporal e neste artigo é definido através da clusterização via rede de

Kohonen apresentada anteriormente.

Como este trabalho busca encontrar apenas um ponto de mudança por vez (SOUZA et

al., 2012), então, apenas dois centros são encontrados a cada aplicação do método, e assim,

duas funções de pertinências são definidas, e . Para a próxima etapa do método,

precisa-se de apenas uma das funções de pertinência, neste artigo, utiliza-se a função .

Através de testes estatísticos conclui-se que a função pode ser aproximada por uma

função de distribuição beta com diferentes parâmetros de entrada, ou seja, uma distribuição

para e uma distribuição para . Onde o ponto é o ponto

de mudança da série temporal.

3.3 Algoritmo Metropolis-Hastings

Uma vez que as etapas anteriores transformam a série original, em uma nova série

temporal com uma função de distribuição de probabilidade beta, então, o novo modelo

estatístico fixado pode ser considerado em uma formulação bayesiana para estimar os

parâmetros da distribuição beta que se aproxima da nova série temporal, e com isso, estima-

se o parâmetro que é o próprio ponto mudança da série temporal (D’ANGELO et al.,

2011b). Nesta etapa, o algoritmo de Metropolis-Hastings, é utilizado para efetuar a simulação

Monte Carlo via cadeia de Markov com o fim de estimar os parâmetros.

Define-se uma cadeia de Markov da seguinte forma: Dado um vetor aleatório

, é escolhido um valor candidato de uma

distribuição com densidade . A função é conhecida como núcleo de

transição da cadeia e é uma função que depende de duas variáveis, do estado atual da cadeia

e do valor candidato .

O valor do candidato é aceito ou rejeitado dependendo do valor da probabilidade de

aceite dada por

(3)

Se o valor candidato é aceito, então , caso contrário . Deste modo, se o

valor candidato é rejeitado, a cadeia de Markov tem uma repetição na sequência. Assim, a

sequência forma uma cadeia de Markov com distribuição de equilíbrio .

Em termos práticos, o algoritmo Metropolis-Hastings é especificado sobre o fato de que

nas etapas anteriores a série temporal transformada segue a seguinte distribuição

para e

para .

V Simposio de Metodos Numericos Computacionais

85

Os parâmetros estimados pelo algoritmo são e o ponto de mudança . Para este

caso, a escolha dos valores iniciais é feita usando distribuições pouco informativas, no nosso

estudo:

.

Para a função de equilíbrio é utilizada a função densidade da distribuição

no cálculo dos parâmetros e :

(4)

e para o cálculo do parâmetro :

(5)

A função de verossimilhança de em relação aos parâmetros e é dada por

(6)

sendo a função gama.

Por fim, o valor estimado do parâmetro é considerado como sendo o ponto de

mudança da série temporal.

4 APLICAÇÃO: GESTÃO DE SEGURANÇA DE BARRAGEM

Itaipu é considerado um dos maiores projetos hidrelétricos do mundo, é resultado dos

esforços e empenho de dois países vizinhos, Brasil e Paraguai. Encontra-se localizado no rio

Paraná, onde os dois países fazem fronteira, 14 km a montante da ponte internacional que liga a

cidade de Foz do Iguaçu, no Brasil, à Ciudad del Este, no Paraguai (ITAIPU: USINA

HIDRELÁTRICA, 2009).

Entre 2006 e 2010, a rede sismográfica de Itaipu registrou sete telessismos (eventos

localizados a uma distância epicentral acima de 1500 km da estação de registro) importantes.

Dentre estes, os terremotos de Pisco-Peru e Maule-Chile merecem destaques. Além de ambos

serem detectados pela rede sismográfica, eles também foram acusados por alguns

instrumentos do sistema de auscultação de Itaipu. Na ocasião, verificou-se que alguns

instrumentos do sistema de monitoramento das barragens de Itaipu registraram mudanças em

seu comportamento padrão que podem estar relacionadas com estes eventos (BARROS et al.,

2010).

Para a aplicação da metodologia, é utilizado neste trabalho os dados do piezômetro

denotado por PS-D-21. O conjunto de dados gerado pelo piezômetro produz uma série

temporal com 48 pontos referentes às medidas realizadas de trinta em trinta minutos no dia da

ocorrência do sismo do Chile (Figura 1).

Para mostrar que a abordagem neuro/fuzzy/bayesiana proposta neste trabalho detecta de

forma automática os pontos de mudança em séries temporais, foi implementado um algoritmo

no software MATLAB R2011 baseado na metodologia descrita anteriormente e aplicado na série

temporal gerada pelo piezômetros PS-D-21. O algoritmo foi programado para ser executado

em cinco etapas, gerando resultados numéricos e gráficos a cada uma delas.

Os resultados gráficos estão ilustrados na Figura 2 e possuem a seguinte interpretação: O

V Simposio de Metodos Numericos Computacionais

86

gráfico (a) apresenta os resultados da clusterização via redes de Kohonen (Seção 3.1), onde

são definindos os centros, C1 e C2, que são utilizados na segunda etapa do método. Os gráfico

(b) representa as funções de pertinências, e , obtidas após o processo de fuzzificação da

série temporal (Seção 3.2). De acordo com a teoria descrita, as novas séries temporais, e

, podem ser descritas por uma distribuição beta de parâmetros (a,b,c,d,m), que podem ser

estimados através da simulação Monte Carlo.

Figura 1: Leituras automáticas do piezômetro PS-D-21 (contato concreto-rocha) – sismo Chile (27/02/2010).

O gráfico (c) mostra o resultado de 1000 estimativas do parâmetro m definidas pelo

algoritmo Metropolis-Hasting (Seção 3.3), determinando uma Cadeia de Markov, assim, tem-

se que o valor estimado que ocorre com maior frequência é a melhor estimativa para o

parâmetro m. Em seguida, o histograma (d) apresentam a distribuição de frequência dos

valores estimados pelo algoritmo Metropolis-Hasting, indicando a melhor estimativa para o

m. Por fim, como foi descrito na seção 3.3, o valor estimado para é considerado como

sendo o instante de mudança da série temporal, objetivo final da metodologia e, é plotado

(ponto vermelho) junto ao gráfico da série temporal (gráfico (e)).

Figura 2: Resultados gráficos da aplicação da metodologia proposta.

Assim, tem-se que a metodologia detectou que a séries temporal PS-D-21 sofreu

mudança de comportamento após a oitava medida do dia 27/02/2010, que é relativo a medida

registrada no instrumento às 03:30 horas. Como é fato de que o sismo no Chile ocorreu por

V Simposio de Metodos Numericos Computacionais

87

volta das 03:34:08, tem-se a confirmação de que a metodologia identificou a mudança no

comportamento gerada pelo sismo.

5 CONCLUSÕES

Neste artigo, foi proposto um método de detecção de pontos de mudança em séries

temporais aplicado a dados gerados por instrumentos de monitoramento usados no

gerenciamento da segurança de uma barragem. A associação de conceitos de redes neurais

artificiais, conjuntos fuzzy e inferência bayesiana, apresentada no método, mostrou-se

eficiente, permitindo a identificação de mudanças em séries temporais, sem a necessidade de

conhecimento a priori do conjunto de dados, além de possibilitar a detecção de mudanças

incipientes.

A aplicação do método em dados reais envolvidos no monitoramento da segurança de

barragens, confirma a importância de uma ferramenta para avaliar de forma automática as

mudanças em conjuntos de dados. No caso de Itaipu, em que cada novo evento sísmico, esta

empresa necessita revisar manualmente a mudança de comportamento em um número muito

grande de instrumentos, a utilização da metodologia é de enorme interesse, pois aceleraria as

decisões a serem tomadas em relação ao gerenciamento da segurança de sua barragem.

REFERÊNCIAS

BARROS, L. V.; PATIAS, J.; CAIXETA, D. F. Effects of Large Andean Earthquakes in the

Itaipu Binational Dam. Foz do Iguaçu, Brasil: American Geophysical Union, 2010.

BARRY, D.; HARTIGAN, J. A. A Bayesiana Analysis for Chance Point Problems. Jornal of

the American Statistical Assossiation, v. 88(421), p. 309–319, 1993.

D’ANGELO, M. F. S. V et al. Fault detection in dynamic systems by a Fuzzy/Bayesian

network formulation. Applied Soft Computing Journal, v. 21, p. 647–653, 2014.

D’ANGELO, M. F. S. V. et al. Fuzzy/Bayesian change point detection approach to incipient

fault detection. [s.l.] IET Control Theory and Applications, v. 5, p. 539, 2011. v. 5

D’ANGELO, M. F. S. V. et al. Incipient fault detection in induction machine stator-winding

using a fuzzy-Bayesian change point detection approach. Applied Soft Computing, v. 11, p.

179–192, 2011.

HINKEY, D. V. Inference About the Change From Cumulative Sum Test. Biometria, v. 26,

p. 279–284, 1971.

ISERMANN, R.; BALLE, P. Trends in the Application of Model-Based Fault Detection and

Diagnosis of Technical Processes. Control Engineering Practice, v. 5 (5), p. 707–719, 1997.

ITAIPU: USINA HIDRELÉTRICA. Projeto: Aspectos de Engenharia. Foz do Iguaçu - PR:

[s.n.].

KOHONEN, T. The self-organizing map. [s.l.] Proceedings of the IEEE, v. 78, n. 9, p. 1464-

1480, 1990. v. 78

LOSCHI, R. H.; CRUZ, F. R. B. Extension to the Product Partition Model: Computing the

Probability of a Change. Computational Statistics and Data Analysis, v. 42(2), p. 255–268,

2005.

PEDRYCZ, W. Fuzzy Clustering with Partial Supervision. Pattern Recongnition Letters, v. 3

(1), p. 13–20, 1985.

SANTOS, R. N. C. DOS. Enquadramento das Análises de Riscos em Geotecnia. . 2006, p.

281.

SILVEIRA, J. F. A. Instrumentação e Comportamento de Fundações de Barragens de

Concreto. São Paulo - SP: Oficina de Textos, 2003.

SOUZA, R. et al. Atualização de Distribuições de Probabilidade e Taxas de Confiabilidade

Utilizando Técnicas de Detecção de Falhas, Anais…XIX Congresso Brasileiro de

Automática, CBA. Campina Grande: 2012.

V Simposio de Metodos Numericos Computacionais

88

V Simposio de Metodos Numericos Computacionais

ANÁLISE DA REMODELAÇÃO ÓSSEA UTILIZANDO H-

ADAPTATIVIDADE EM UM MODELO BIDIMENSIONAL DE UM

FÊMUR HUMANO

Resumo: Vários são os modelos desenvolvidos com o intuito de simular o tecido ósseo, visto

que este possui um comportamento complexo e que é capaz de alterar suas propriedades ao

longo do tempo, através de um processo denominado remodelação óssea. Como ferramenta

para simulação de tal processo, utiliza-se o Método dos Elementos Finitos, o qual devido sua

natureza numérica, apresenta erros de aproximação. Diferentes estimadores de erro são

desenvolvidos com o objetivo de avaliar o erro localmente na malha, possibilitando assim, a

utilização de uma estratégia h-adaptativa. Dessa forma, para uma melhor caracterização da

distribuição de densidades de um fêmur humano, estimam-se os erros locais no campo de

tensões e aplica-se uma estratégia h-adaptativa para geração de uma nova malha que busque

um erro limitado para cada elemento. A distribuição convergente de densidades mostra que

com a utilização dessas ferramentas, é possível obter uma caracterização próxima a de um

fêmur humano.

Palavras-Chave: Remodelação óssea, Estimativa de erro a posteriori, H-adaptatividade,

Método dos Elementos Finitos.

1 INTRODUÇÃO

O tecido ósseo é um material vivo de alta complexidade, capaz de modificar sua estrutura

interna e se adaptar a diferentes esforços a que está submetido (LEMAIRE et al., 2004). O

processo de modificação das propriedades da estrutura interna é denominado remodelação

óssea. Vários modelos matemáticos são desenvolvidos e implementados utilizando o Método

dos Elementos Finitos (MEF) com o intuito de simular o processo de remodelação do tecido

ósseo (JACOBS et al., 1995; DOBLARÉ e GARCÍA, 2001; MCNAMARA e

PRENDERGAST, 2007; SOUZA, 2009).

O MEF tem como função a obtenção do campo de tensões, ou seja, do estímulo mecânico

responsável pela modificação das propriedades ao longo do fêmur. Frisa-se a importância do

cálculo de um campo de tensões preciso, uma vez que este influencia diretamente na variável

primária do processo de remodelação óssea. Dessa maneira, devido à natureza do processo

numérico, a presença de erros é inevitável e questões fundamentais são: Quais são os erros

relativos ao MEF? Como o erro pode ser medido, controlado e efetivamente minimizado?

São várias as fontes de erros presentes no MEF, entre as quais é possível citar erros de

Jederson da Silva, Jose Eduardo Gubaua, GabrielaWessling Oening Dicati, Jucelio Tomas Pereira

89

aproximação de domínio, de aritmética finita e quadratura e erros de aproximação (REDDY,

2006). O presente trabalho trata da estimativa de erros de aproximação, as quais podem ser

divididas, em geral, em duas categorias principais: estimativas de erro a priori e a posteriori

(AINSWORTH e ODEN, 2000). Um dos tipos de estimadores de erro a posteriori baseia-se

em utilizar a própria solução numérica para obter uma solução recuperada e, a partir desta,

realizar a estimativa dos erros (ZIENKIEWICZ e ZHU, 1987). Estes são denominados

estimadores de erro baseados em recuperação, os quais são empregados para obtenção do erro

local. Desta maneira, esta categoria pode ser utilizada para desenvolver estratégias

adaptativas (PRUDHOMME et al., 2003), as quais podem ser divididas basicamente em

refino p, refino r e refino h, sendo que este implica na modificação dos tamanhos

elementares, de modo a obter a precisão desejada em todo o domínio (ZHU e

ZIENKIEWICZ, 1988).

Dessa maneira, objetiva-se controlar e mitigar os erros ao longo de um processo de

remodelação óssea de um modelo bidimensional de um fêmur humano, através da aplicação

de um estimador de erro baseado em recuperação (Estimador fundamentado na Média Nodal

Simples (MNS)), em conjunto com uma estratégia h-adaptativa. A modificação das

propriedades do tecido ósseo é realizada utilizando o modelo de remodelação isotrópico de

Stanford (JACOBS et al., 1995) e para discretização do modelo, utiliza-se elementos

triangulares lineares (CST).

2 REVISÃO TEÓRICA

Nesta seção é apresentada uma breve descrição em relação ao modelo de remodelação

óssea, ao processo de estimativa de erro baseado no estimador MNS e a estratégia adaptativa

adotada para o controle e minimização do erro ao longo do domínio.

2.1 Modelo Isotrópico de Stanford

O modelo isotrópico de Stanford (JACOBS et al., 1995) foi desenvolvido com base no

trabalho de BEAUPRÉ et al. (1990), e utiliza a densidade de energia de deformação como

estímulo mecânico. Este é determinado a partir das tensões e avaliado perante um valor de

referência. Quando o estímulo for maior, existirá uma formação de tecido e quando for

menor, existirá reabsorção óssea. O modelo incorpora a zona morta proposta por Wolff e

definida por CARTER (1984), a qual é um intervalo onde o estímulo não gera modificações

nas propriedades do material.

2.2 Estimativa do erro baseado na norma em energia

Em uma análise numérica de um problema de engenharia pode-se definir o erro como a

diferença entre a solução exata (u ) e a solução aproximada obtida pelo MEF ( u ). Assim, no

caso de elasticidade, a função erro medida em deslocamentos ue é dada por

(ZIENKIEWICZ e TAYLOR, 2000)

ˆ . u

e u u (1)

Diversas normas representando uma quantidade escalar do erro são introduzidas para que o

erro seja medido de uma forma adequada. Utilizar-se-á neste trabalho a norma do erro em

energia para quantificar o erro em cada região. Este conceito foi inicialmente introduzido por

ZIENKIEWICZ e ZHU (1987) e, para problemas da elasticidade, pode ser obtida como

12

T

-1ˆ ˆe D d ,

(2)

onde e é o erro medido em energia, o campo de tensões aproximado pelo MEF e D o

tensor constitutivo. Ressalta-se que, para o corrente problema, além da variação proveniente

entre o campo de tensões recuperado e o original, busca-se computar a variação relativa a

V Simposio de Metodos Numericos Computacionais

90

oscilação das propriedades. Para isso, o tensor constitutivo D é calculado separadamente

para cada elemento, sendo expresso por

γ

0ρD D , (3)

onde é a densidade elementar, 0D é o tensor constitutivo linear e é um expoente

característico do material (neste caso, =3).

Para descrever o comportamento de problemas de análises de tensões é conveniente definir

uma medida percentual do erro medido pela norma da energia, conhecido como erro relativo

percentual em energia , na forma

100% e

,u

(4)

onde u representa uma medida da energia total acumulada no sistema.

Porém, como a solução exata u não é conhecida e, consequentemente, as tensões, pode-se

utilizar uma solução recuperada , que possua uma taxa de convergência superior à solução

obtida diretamente pelo MEF, . Deste modo, a norma do erro em energia, obtida em relação

à solução recuperada, pode ser escrita como

1

2T

-1

ˆ ˆe D d .

(5)

2.3 Estimador baseado na Média Nodal Simples (MNS)

Este estimador consiste inicialmente na obtenção do gradiente da solução, por exemplo, o

campo de tensões em cada elemento. Considerando que cada nó é compartilhado por um

número Nel de elementos, pode-se estimar o vetor de médias nodais das tensões recuperadas

( *

m ) para o nó como (COOK et al., 2001)

Nel

*

m i jj 1

1ˆ ,

Nel

(6)

onde i j é o vetor de tensões obtidos via MEF para o i-ésimo nó do j-ésimo elemento do

conjunto.

Após a obtenção de todos os vetores de médias nodais das tensões, um campo

suavizado e contínuo entre os elementos pode ser construído através da utilização das

mesmas funções de forma elementares ( ) empregadas para interpolar o campo de

deslocamentos. Com isso, a parcela de um campo de tensões suavizadas sobre um elemento

pode ser escrita como

* *, (7)

onde * é a função vetorial das tensões suavizadas no elemento e * é o vetor nodal das

tensões recuperadas para o elemento em questão. Logo, aplicando o conceito de norma em

energia (Eq. (5)) a nível elementar, é possível computar os erros localmente. Ressalta-se que

este estimador possui desempenho satisfatório quando utilizado elementos lineares em um

problema de elasticidade plana, além de sua simplicidade de sua implementação (SILVA,

2015).

2.4 Critério de equidistribuição do erro elementar

Neste caso, espera-se que o erro relativo percentual em energia para uma malha m seja

menor ou igual a um valor admissível . Ou seja, dada uma malha m , onde

m , (8)

busca-se uma malha m 1 tal que

V Simposio de Metodos Numericos Computacionais

91

m 1 . (9)

Como critério de malha ótima, este trabalho emprega a condição de equidistribuição do erro

em energia (ZIENKIEWICZ e ZHU, 1987). Para uma estimativa a posteriori do erro, um

limite superior para o mesmo pode ser posto como

min(p,λ)Ch ,e (10)

onde e representa a norma em energia, C é uma constante, h representa o tamanho de um

elemento finito, p é a ordem polinomial do elemento e é um parâmetro que define o tipo

de singularidade. Considerando que esta equação de projeção para o erro é válida para a

malha corrente m e para a próxima malha m 1 , obtém-se uma estimativa para o novo

tamanho do elemento newh na forma

el,oldold

new 1p

el,new

hh onde ,

e

e (11)

sendo el,old

e o erro para um elemento el na malha corrente com o tamanho de elemento

oldh , el,new

e o erro para um elemento el na malha m 1 . Neste caso, é um parâmetro de

refino que indica se a malha será (para 1 ) ou não (para 1 ) refinada. Considerando a

condição de equidistribuição, o erro máximo admissível para cada elemento pode ser

calculado como

11 2 222 2 *

el,new

ˆ,

Nel Nel

u eue (12)

onde *e é o erro total na norma em energia calculado por

Nel

2 2* *

elel 1

e e (13)

e u é a medida da energia total acumulada. Supondo que a solução analítica não é

conhecida, utiliza-se para o cálculo de u o conceito de que o erro é ortogonal a solução

aproximada (CIARLET, 2002). Nesse caso,

22 2 *ˆ , u u e (14)

sendo 2

u calculado por

2 Tˆ ˆ ˆ d .

u σ Dσ (15)

3 IMPLEMENTAÇÃO COMPUTACIONAL

A formulação isotrópica para remodelação óssea é implementada em um conjunto de rotinas

no software Matlab, através de um modelo bidimensional de um fêmur humano, o qual é

discretizado inicialmente em 1052 elementos do tipo CST resultando em 618 nós. As

condições de contorno de Dirichlet, as constantes do processo de remodelação e o

carregamento são os mesmos utilizadas por JACOBS et al. (1995). Neste, as magnitudes das

forças na articulação do quadril e musculares para os diferentes casos de carga são: 1, 2317 N

e -702 N; 2, 1158 N e -351 N; 3, 1548 N e -468 N. E suas respectivas direções em relação ao

eixo vertical são: 1, 24° e 28°; 2, 15° e 8°; 3, 56° e 35°. Estas forças simulam um passo de

uma caminhada (momento do contato do pé a superfície, adução e abdução) e são divididas

V Simposio de Metodos Numericos Computacionais

92

conforme o número de elementos existente no segmento referente à cabeça femoral ou ao

trocanter maior, e aplicadas de forma constante sobre os mesmos. O processo de remodelação

é incremental no tempo e utiliza o algoritmo de Euler e resume-se, a:

(i) solução do problema pelo MEF obtendo o campo de deslocamentos;

(ii) Obtêm-se as tensões e os estímulos mecânicos para cada ponto de integração;

(iii) aplicação do processo de remodelação;

(iv) verificação do critério de convergência relativo a oscilação do campo de densidades (se

satisfeito prossegue para o passo (v), caso contrário, retorna ao passo (i));

(v) estimativa dos erros para cada carregamento que compõe o ciclo de carga;

(vi) verificação do critério de convergência relativo ao erro admissível global (se satisfeito,

encerra o processo e salva os resultados, caso contrário, prossegue para o passo (vii));

(vii) aplicação do processo h-adaptativo e geração da nova malha;

(viii) recuperação do campo de densidades e retorna ao passo (i);

Devido ao alto custo computacional, o erro admissível é limitado em 20%. Além disso, são

adotados limites para o campo de densidades, sendo o valor máximo de 2,0 g/cm³ e o mínimo

de 0,2 g/cm³ referentes ao tecido cortical e trabecular respectivamente.

Considera-se que uma solução satisfaz o critério de convergência relativo a oscilação do

campo de densidades quando a norma da diferença entre dois campos consecutivos é menor

ou igual a uma tolerância. Neste caso, esta é uma medida do tamanho do problema

(densidade cortical multiplicada pela raiz do número de elementos que compõe a malha)

multiplicado por 510 . Limita-se o processo de remodelação a aplicação de 500 ciclos de

carga. Outro critério é quando há convergência relativa ao erro admissível, o qual é satisfeito

caso o máximo erro relativo percentual for menor ou igual ao erro admissível.

4 EXEMPLO NUMÉRICO E DISCUSSÕES

Uma das dificuldades encontradas durante a aplicação da análise de erro e estratégia h-

adaptativa ao processo de remodelação óssea, está associada a aplicação do ciclo de carga.

Deste modo, para cada carregamento, estimam-se os erros elementares (os quais fornecem

uma medida percentual global do erro ()) e o novo tamanho de cada elemento. Assim, dada

uma malha fixa e uma configuração convergente de densidades, obtêm-se três medidas

globais distintas para o erro e consequentemente, três medidas do novo tamanho de cada

elemento. Neste caso, considera-se o tamanho elementar mínimo estimado para geração da

nova malha, restringindo-o em aumentar ou diminuir em até três vezes o seu tamanho atual.

A Figura 1 expõe as medidas percentuais globais do erro ao fim de cada aplicação do

processo de remodelação e também, o erro estimado para a nova malha logo após a

recuperação do campo de densidades. Estas medidas fazem referência as três cargas

aplicadas, sendo definidas como: um erro relativo percentual global mínimo ( mín ), máximo

( máx ) e médio ( méd ).

Outra dificuldade, refere-se à modificação das propriedades do tecido ósseo. Neste caso, após

a convergência do critério relativo a oscilação do campo de densidades para a malha inicial,

os novos tamanhos elementares são estimados considerando a distribuição corrente. Na

sequência, obtém-se um campo de densidades recuperado para a nova malha e então, um

novo processo de remodelação é iniciado. Ao final, o campo de densidades convergente

apresenta diferentes propriedades do inicial, caracterizando uma forte dependência da solução

em relação à malha utilizada (Figura 2a).

Assim, a convergência do critério relativo ao erro admissível global é dificilmente alcançada.

Desta forma, opta-se por limitar o número de iterações adaptativas a duas.

A Figura 2a apresenta as malhas inicial e duas seguintes resultantes do processo h-adaptativo

V Simposio de Metodos Numericos Computacionais

93

e seus respectivos campos de densidade. Além disso, são apresentados os erros elementares

referente a estes campos para os três diferentes tipos de carregamento aplicados a cada ciclo

de carga (Figura 2b, 2c e 2d).

Figura 1. Erro relativo percentual global em função do número de elementos.

Figura 2. Resultados do processo adaptativo aplicado à remodelação óssea. (a) Campos de densidade resultantes.

Distribuição dos erros para: (b) o primeiro, (c) segundo e (d) terceiro campos de densidades obtidos.

5 CONCLUSÕES

O presente trabalho teve como objetivo a aplicação de um estimador de erro baseado em

recuperação (MNS) em conjunto com um processo h-adaptativo, em uma análise de

remodelação óssea bidimensional. Deste modo, um processo automático para obtenção de

uma malha que possibilite uma melhor caracterização do fêmur humano é inicializado,

V Simposio de Metodos Numericos Computacionais

94

obtendo assim, um campo convergente de densidades, para uma malha que busque um erro

limitado em cada elemento. Quanto a questão morfológica do fêmur, pode-se notar (Figura

2a) que, conforme o refino da malha nas regiões com um maior gradiente de densidades, uma

melhor caracterização do fêmur humano é obtida. Isso ocorre devido o estado de tensões

(responsável principal pelo processo de remodelação) estar sendo melhor calculado.

Os resultados obtidos neste estudo inicial podem servir como base para o desenvolvimento de

metodologias que aliem o processo de remodelação óssea a adaptatividade da malha, visto

que tais áreas, em separado, são amplamente desenvolvidas.

REFERÊNCIAS

AINSWORTH, M., ODEN, J. T., A Posteriori Error Estimation in Finite Element Analysis.

1. ed. John Wiley and Sons, 2000.

BEAUPRÉ, G. S., ORR, T.E., CARTER, D.R., An approach for time-dependent bone

modeling and remodeling – theorical development. Journal Orthopedic Research, 8:651-661,

1990.

CARTER, D. R., Mechanical loading histories and cortical bone remodeling. Calcified Tissue

International, 36:S19-S24, 1984.

CIARLET, P. G., The Finite Element Method for Elliptic Problems. Elsevier, 2002.

COOK, R. D., MALKUS, D. S., PLESHA, M. E., WITT, R. J., Concepts and Applications of

Finite Element Analysis. John Wiley and Sons, 2001.

DOBLARÉ, M.; GARCÍA, J. M., Application of an anisotropic bone-remodeling model

based on a damage-repair theory to the analysis of the proximal femur before and after total

hip re-placement. Journal of Biomechanics, 34:1157-1170, 2001.

JACOBS, C. R., LEVENSTON, M. E., BEAUPRÉ, G. S., SIMO, J. C., CARTER, D. R.,

Numerical instabilities in bone remodeling simulations: the advantages of a node-based finite

element approach. Journal Biomechanics, 28:449-459, 1995.

LEMAIRE V., TOBIN, F. L., GRELLER L. D., CHO C. R., SUVA L. J., Modeling the

interactions between osteoblast and osteoclast activities. Journal of Theoretical Biology, 229:

293-309, 2004.

MCNAMARA, M. L.; PRENDERGAST, P. J., Bone remodeling algorithms incorporating

both strain and microdamage stimuli. Journal of Biomechanics, 40:1381-1391, 2007.

PRUDHOMME, S., ODEN, J. T., WESTERMANN, T., BASS, J., BOTKIN, M. E., Practical

methods for a posteriori error estimation in engineering applications. International Journal

for Numerical Methods in Engineering, 56:1193-1224, 2003.

REDDY, J. N., An Introduction to the Finite Element Method. 3. ed. McGraw Hill, 2006.

SILVA, J., Análise de estimadores de erro a posteriori aplicados ao método dos elementos

finitos utilizando refino h-adaptativo. Dissertação (Mestrado em Engenharia Mecânica) –

Setor de Ciência e Tecnologia, Universidade Federal do Paraná, 2015.

SOUZA, L. A. F., Moelo numérico anisotrópico de remodelação óssea interna fundamentado

na mecânica do dano contínuo. Tese (Doutorado em Métodos Numéricos) – Setor de Ciência

e Tecnologia, Universidade Federal do Paraná, Curitiba, 2009.

ZHU, J. Z., ZIENKIEWICZ, O. C., Adaptive techniques in the finite element method.

Communications in Applied Numerical Methods, 4:197-204, 1988.

ZIENKIEWICZ, O. C., TAYLOR, R. L., The Finite Element Method - Volume 1: The Basis,

5ª ed. Butterworth Heinemann, 2000.

ZIENKIEWICZ, O. C., ZHU, J. Z., A simple error estimator and adaptive procedure for

practical engineering analysis. International Journal for Numerical Methods in Engineering,

24:333-357, 1987.

V Simposio de Metodos Numericos Computacionais

95

V Simposio de Metodos Numericos Computacionais

THE MODELING OF TILTING PAD JOURNAL BEARINGS OF

LARGE HYDRO GENERATORS FOR STRUCTURAL HEALTH

MONITORING PURPOSES

Abstract: This paper describes part of a research involving tribology, rotordynamics and time

series analysis applied in the assessment of the condition of large hydro generators, based on

the monitoring of vibrations and temperatures. This part of the research has focus on the

dynamic analysis of the journal bearings, particularly on the oil film stiffness. This type of

analysis was extensively applied to horizontal rotating machines in the past; however, it still is

necessary to review some important aspects for vertical machines such as large hydro

generators. Based on the analysis of vibration and temperature data measured in commissioning

tests of large hydro generators, it was verified that several parameters like the generator

electromagnetic field or the seasonal variations of cooling water temperature, have significant

impact in the oil film thickness and viscosity. Consequently, these parameters may have more

influence in the determination of the oil film dynamic coefficients than the type of model

(hydrodynamic, thermo-hydrodynamic or thermo-elasto-hydrodynamic model) used to

represent the bearing. Based in numerical simulations with a proposed model, this paper shows

that the relationship between the oil film restoring force and the journal displacement is

nonlinear, comparable to a hardening stiffness with cubic characteristics and depending on the

bearing clearance. Cross-coupling effects are not present during normal operating conditions,

but they may take place due to uneven distribution of the pads clearances originated by bearing

deformations caused by the generator electromagnetic field. In this case, the oil film may also

show negative cross-coupling stiffnesses. Finally, this paper indicates that oil film stiffness is

susceptible to most of the damages that usually occurs in tilting pad journal bearings. Thus, the

monitoring of this parameter is important for the application of structural health monitoring

processes to hydro generators.

Keywords: Damage detection, tilting pad journal bearings, oil film stiffness, hydro generators.

1 INTRODUCTION

Hydroelectricity plays an important role in Brazil, as it represents more than three quarters of

the electricity consumed in the country. The Brazilian electrical grid has hundreds of medium

and large size hydro generators, which are in operation during the past thirty to fifty years.

Despite of being resistant and reliable machines, due to their strategic importance and advanced

age, the using of structural health monitoring (SHM) process is a mandatory requirement.

Geraldo Carvalho Brito Junior, RobertoDalledone Machado, Anselmo Chaves Neto

96

Large hydro generators (LHG) are usually equipped with tilting pad journal bearings (TPJB),

components that have significant influence in their vibratory behavior. In fact, the correct

understanding of the bearing dynamics is critical to assess adequately the condition of these

machines. TPJB and their dynamic characteristics are objects of extensive analyses since a long

time. However, these studies have mostly been carried out for horizontal machines of high

speed, with shafts of relatively small diameter and bearings with a low number of pads. Hydro

generators, on the contrary, commonly are rotating machines of low speed and of vertical

assembly, with large diameter shafts, using bearings with a high number of pads. In addition,

bearings of horizontal machines are preloaded with the machine weight, whereas vertical

machines have not a defined static load acting in the journal bearings. Such antagonist features

originate particular conditions in the determination of stiffness and damping coefficients of the

journal bearings used hydro generators. This paper presents these particularities based on the

analyses of vibration signals and temperature data collected in commissioning tests of several

LHG, as well as based on numerical simulations with a proposed model.

2 LITERATURE REVIEW

(DIMOND, SHETH, et al., 2009) and (TIWARI, LEES e FRISWELL, 2004) presented a

detailed review about tilting pad bearing theory and identification of bearing dynamic

parameters. This section gives complementary information on these subjects, specifically

regarding to the TPJB used in LHG.

The using of mathematical modeling to support the condition assessment of hydro generators

began in the 1980’s, due to cases of chronic dynamic problems or due to the expressive increase

of the size of these machines. The most complete reference for damage detection in hydro

generators at that time (VLADISLAVLEV, 1979) dedicates only a few paragraphs to describe

the dynamic behavior of journal bearings.

It was usual to neglect the oil film dynamic effects in the first models, disregarding the damping

and attributing very high values to the stiffness. (DO NASCIMENTO, 1987) and (SPERBER

e WEBER, 1991) modeled a 160 MW hydro generator of Ilha Solteira Power Plant (Brazil).

Based on experimental tests, they estimated the oil film stiffness as 220 GN/m, much higher

value than the bearing brackets stiffnesses (3 to 20 GN/m). A few years later (CARDINALI,

1992) modeled the same hydro generator, but in this case, the oil film and the bearing brackets

stiffnesses were in the same range magnitude (2.5 to 3.6 GN/m).

The manufacturer used a computer program developed for plain journal bearings to estimate

the oil film stiffnesses used in the modeling of the 700 MW hydro generators of Itaipu Power

Plant (Brazil and Paraguay) (ITAIPU, 2009). Also in this model, the stiffnesses of the brackets

and of the oil film also have the same order of magnitude, from 3 to 7 GN/m.

Many contributions on hydro generator modeling has been developed in China, due to the

increase of hydroelectricity in this country. The majority of them were included in a book

entirely dedicated to this subject, probably the most complete reference nowadays (WU, LI, et

al., 2013). This reference brings some numerical examples with bearing global stiffness, albeit

without explicit values for the oil film stiffness.

In the past decade occurred an increase in the research involving mathematical modeling of

hydro generators in Sweden, as result of a common effort of universities, of the energy agency

and manufacturers. (GUSTAVSSON, 2008) focused the research in the analysis of the dynamic

behavior of hydro generators under the action of electromagnetic forces. This research includes

the identification of oil film stiffness and damping coefficients based on the measurements of

shaft displacements and the bearing loads. The identified oil film stiffness varied between 0.40

to 0.80 GN/m, much lower values than those obtained in the previous references.

(NÄSSELQVIST, 2011) centered the research in the analysis of bearings influence in the

V Simposio de Metodos Numericos Computacionais

97

dynamics of vertical machines, with emphasis in hydro generators. Most of the work was

developed using a test rig composed by a Jeffcott rotor with two 4-pad TPJB, designed to

operate on both vertical and horizontal position. This part of the research comprised the

proposal of a methodology for condition assessment based on the bearing load and considering

the hydro generators mechanical properties. It also contains a case study of resonance in a 42

MW vertical hydro generator, where the oil film stiffness of the turbine bearing was determined

for several clearances under the action of a prescribed static load, using a software “developed

for bearing calculations in steam and gas turbines”. The oil film stiffness varied in the range of

0.15 to 0.88 GN/m, again much lower values than the bearing bracket stiffness (2.5 GN/m).

As the oil film stiffness is much lower or has the same order of magnitude than bearing bracket

stiffness, it has an important influence in the dynamic behavior of hydro generators and the

comprehension of this influencing mechanism is essential for monitoring purposes.

3 THE MODELING OF TPJB OF LHG FOR SHM PURPOSES

3.1 Review on this research

The experimental and theoretical aspects of this research are related to the 700 MW hydro

generators of Itaipu Power Plant, which main characteristics are described in (ITAIPU, 2009).

A brief review in the hydrodynamic bearing theory applied to the TPJB used in LHG is

presented in (BRITO, MACHADO e CHAVES NETO, 2014). This reference also describes

the main uncertainties in modelling the guide bearings of LHG and shows a satisfactory

agreement between calculated and measured pressures of the oil film of TPJB used in LHG,

indicating that the simplified model is valid. The first results of the experimental identification

of the oil film stiffness are shown in (BRITO, MACHADO e CHAVES NETO, 2013). An

analysis showed the identified values were much lower than the theoretical ones, indicating

possible errors in the identification process. However, the results presented following indicates

that the results of the identification process are feasible.

3.2 Estimating oil film stiffness

This section describes the estimation of the oil film stiffness of the upper guide bearing of

Itaipu Power Plant generating units. The option by the oil film stiffness is because this is the

most suitable parameter for structural health monitoring applications, as it is the easiest to

estimate and to monitor. Besides that, changes in the oil film stiffness will indirectly indicate

variations in the oil film damping, as both parameters have common dependence in the bearing

features.

Figure 1 shows the relationship between the components of the resultant force in 𝑋 (𝐹𝑋) and 𝑌

(𝐹𝑌) directions of the bearing, with a shaft displacement in 𝑋 direction, from -100 µm to +100

µm, in 5 µm steps. For reference, this calculation used nominal viscosity (𝜂 = 0.047 Pa.s) and

nominal clearance (𝑐 = 200 m). Due to the bearing symmetry, the results were the same for

equal displacements in 𝑌 direction, demonstrating that 𝑘𝑋𝑋 = 𝑘𝑌𝑌. Figure 1 also indicates that

there are no cross-coupling effects between the force in one direction and the displacement in

the orthogonal direction, then 𝑘𝑋𝑌 = 𝑘𝑌𝑋 = 0. It also indicates that force-displacement

relationship is nonlinear, with a portion of the force varying cubically with the displacement,

as indicated by equation (1).

V Simposio de Metodos Numericos Computacionais

98

𝐹𝑋 = 𝑘𝑋𝑋 ∙ (𝑋 + 𝛼𝑋𝑋𝑋3) , 𝐹𝑌 = 𝑘𝑌𝑌 ∙ (𝑌 + 𝛼𝑌𝑌𝑌3) (1)

Figure 1. Force components (𝑭𝑿 and 𝑭𝒀) versus shaft displacement 𝑿 for 𝜼 = 0.047 Pa.s and 𝒄 = 200 m

A polynomial curve fitting for the relationship of Figure 1 indicated 𝐹𝑋 = 9.15 ∙ 109(𝑋 +5.93 ∙ 107𝑋3), with coefficient of determination 𝑅2 = 0.9999. As 𝜕𝐹𝑋 𝜕𝑋 =⁄ 𝑘𝑋𝑋 ∙ (1 +3 𝛼𝑋𝑋𝑋2), the linearized oil film stiffness varies with the square of shaft position 𝑋. Figure 2

shows that this stiffness varies almost parabolically with the bearing static load, that

is, 𝜕𝐹𝑋 𝜕𝑋 =⁄ 9.36 ∙ 109 + 2006 ∙ 𝐹𝑋 + 7.26 ∙ 10−3 ∙ 𝐹𝑋2, with 𝑅2 = 0.9994.

Figure 2. Relation between oil film stiffness (𝝏𝑭𝑿 𝝏𝑿⁄ ) and the static load (𝑭𝑿) for 𝜼 = 0.047 Pa.s and 𝒄 = 200

m

Figure 4 shows the force components (𝐹𝑋 and 𝐹𝑌) for shaft displacements in 𝑋 (two upper

diagrams) and 𝑌 directions (two lower diagrams), with the same viscosity (𝜂 = 0.047 Pa.s) but

when the distribution of the minimum oil film thickness has the elliptical form showed in

Figure 3 (no load in the generator, blue curve). Equation (2) shows stiffness matrix for this

condition, obtained by linearizing the curves of Figure 4. It is possible to verify that not only

the direct stiffnesses decreased to approximately 15% of their nominal value and that the TPJB

shows cross-coupling effects (𝜕𝐹𝑌 𝜕𝑋 ≠⁄ 0 and 𝜕𝐹𝑋 𝜕𝑌 ≠⁄ 0). It is also possible to see that the

V Simposio de Metodos Numericos Computacionais

99

stiffness matrix is asymmetric (𝑘𝑋𝑌 = −𝑘𝑌𝑋).

𝐊 = [ 1.31 ∙ 109 0.31 ∙ 109

−0.31 ∙ 109 1.64 ∙ 109] N/m (2)

Figure 3. Distribution of the minimum oil film thickness [m] in the UGB: a) at 0 MW (blue); b) at 700

MW (red)

Figure 4. Force components (𝑭𝑿 and 𝑭𝒀) versus shaft displacements in 𝑿 (two upper diagrams) and 𝒀 (two

lower diagrams) directions, for 𝜼 = 0.047 Pa.s and with the distribution minimum oil film thickness shown in

Figure 3 for 0 MW (blue curve)

V Simposio de Metodos Numericos Computacionais

100

4 USING MODEL TO SUPPORT DAMAGE DETECTION AND DIAGNOSTICS

Vibration condition monitoring is the most frequent technique applied for damage detection in

rotating machines. The vibrations of a hydro generator depend on many factors, among which

are the stiffnesses of the journal bearings. The oil film stiffness is the parcel with more

influence in the total stiffness of the journal bearing, as it is the portion most susceptible to

changes in the bearing operating conditions or to damages.

The usual damages in bearings (e.g. reduction of the cooling system efficiency, deterioration

of the lubricant, clearances excessively large or small, etc.) have impact either in the

distribution of the oil film thickness or in the oil film viscosity. Table 1 shows that this type of

damage may originate expressive changes in the oil film stiffness, which may be reduced to a

fraction of its nominal value due to feasible variations in clearance and viscosity. From Table

1 it is possible to verify that:

a. For a given viscosity, the linear portion of the oil film stiffness (𝑘𝜉𝜉) decreases cubically

with the clearance increasing. On the other hand, for a certain clearance, this portion

increases proportionally with the viscosity.

b. The nonlinear cubic portion of the oil film stiffness (𝛼𝜉𝜉) does not depend on the

lubricant viscosity. It depends only in the bearing geometry, even for the cases where

clearance distribution is not uniform.

Table 1. Oil film stiffness for several bearing conditions

Bearing clearance Clearance

𝑐 [m]

Viscosity

𝜂 [mPa.s]

𝐹𝑋 = 𝑘𝜉𝜉 ∙ (𝜉 + 𝛼𝜉𝜉𝜉3)

𝑘𝜉𝜉 [N/m] 𝛼𝜉𝜉[m-2]

Nominal clearance 200 47.0 9.15 ∙ 109 5.93 ∙ 107

35.3 6.86 ∙ 109 5.93 ∙ 107

23.5 4.58 ∙ 109 5.93 ∙ 107

Increased in 50% 300 47.0 2.83 ∙ 109 1.99 ∙ 107

35.3 2.12 ∙ 109 1.99 ∙ 107

23.5 1.41 ∙ 109 1.99 ∙ 107

Increased in 100% 400 47.0 1.20 ∙ 109 1.03 ∙ 107

35.3 0.90 ∙ 109 1.03 ∙ 107

23.5 0.60 ∙ 109 1.03 ∙ 107

As Figure 3 - 700 MW n.a. 47.0 0.39 ∙ 109 0.52 ∙ 107

(𝑋 direction or 0°) 35.3 0.29 ∙ 109 0.52 ∙ 107

23.5 0.19 ∙ 109 0.52 ∙ 107

As Figure 3 - 700 MW n.a. 47.0 0.89 ∙ 109 1.17 ∙ 107

(𝑌 direction or 90°) 35.3 0.67 ∙ 109 1.17 ∙ 107

23.5 0.45 ∙ 109 1.17 ∙ 107

The support of a reliable model to explain changes in bearing total stiffness together with the

bearing temperatures will increase the effectiveness of damage detection and diagnostics based

on vibration condition monitoring.

5 CONCLUDING REMARKS

Founded on the results of commissioning tests of LHG, this research verified that several

phenomena have significant changes in the distribution of the oil film thickness, in the oil film

viscosity and, consequently, in the dynamic characteristic of the TPJB used in these machines.

As it impossible or unpractical to determine these parameters accurately for each bearing pad,

the research proposed a simplified hydrodynamic model to determine the oil film stiffness of

these journal bearings, as well as to support damage detection and diagnostics in the mentioned

V Simposio de Metodos Numericos Computacionais

101

machines. Despite of requiring further efforts in this field, the satisfactory agreement between

measured and calculated values preliminarily validated the model. Simulations with the model

indicated that oil film stiffness of the TPJB of LHG is nonlinear, with a portion of the restoring

force varying cubically with shaft displacement in the bearing. These simulations also indicated

that the oil film stiffness varies parabolically with the bearing static load and that the cubic

portion of this stiffness depends on the bearing clearance, but not in the oil film viscosity. Such

mathematical expressions for oil film forces and stiffness could be useful in the hydro

generators dynamic modeling. In addition, these simulations indicated that oil film stiffness

strongly depends on three parameters, the bearing load, the oil film thickness and the oil

viscosity. As several of the damages that usually occur in a hydro generator affect these

parameters, the monitoring of the oil film stiffness may be useful for damage detection. A

simplified and reliable model is valuable in damage detection and diagnostics tasks, for

minimizing false positive and false negative diagnosis, as well as for identifying overdiagnosis.

REFERENCES

BRITO, G. C. J. R.; MACHADO, R. D.; CHAVES NETO, A. Modelling the dynamic

behaviour of large hydro generating units guide bearings. IV Simpósio de Métodos

Numéricos Computacionais da Universidade Federal do Paraná. Curitiba: [s.n.]. 2014. p. 42-

48.

BRITO, G. C. J. R.; MACHADO, R. D.; CHAVES NETO, A. E. A. Using autoregressive

models for damage identification in guide bearings of hydro generating units. XXXIV

Iberian Latin American Congress on Computational Methods in Engineering. Pirenópolis,

Brasil: [s.n.]. 2013.

CARDINALI, R. Modelagem e aplicações em diagnose de máquinas rotativas verticais.

Campinas State University. Campinas, p. 106. 1992.

DIMOND, T. W. et al. Identification methods and test results for tilting pad and fixed geometry

journal bearing dynamic coefficients - a review. Shock and Vibration, 16, 2009. 13-43.

DO NASCIMENTO, L. P. Estudos das forças excitadoras e da modelagem matemática de

máquinas hidroelétricas. Campinas State University. Campinas, p. 129. 1987.

GUSTAVSSON, R. Rotor dynamical modelling and analysis of hydropower units. Lulea

University of Technology. Lulea, Sweden, p. 57. 2008.

ITAIPU. Projeto hidrelétrico de Itaipu: características de engenharia. Porto Alegre: Tab

Marketing Editorial, 2009.

NÄSSELQVIST, M. Simulation and characterization of rotordynamic properties for

vertical machines. Lulea University of Technology. Lulea, p. 68. 2011.

SPERBER, A.; WEBER, H. I. Dynamic Models in Hydroelectric Machinery. Journal of the

Brazilian Society of Mechanical Sciences, v. XIII, p. 29-59, 1991.

TIWARI, R.; LEES, A. W.; FRISWELL, M. I. Identification of dynamic bearing parameters -

a review. The Shock and Vibration Digest, 36, n. 2, March 2004. 99-124.

VLADISLAVLEV, L. A. Vibration of hydro units in hydroelectric power plants. [S.l.]:

Amerind Publishing Company, 1979.

WU, Y. et al. Vibration of hydraulic machinery. Dordrecht: Springer, 2013.

V Simposio de Metodos Numericos Computacionais

102

V Simposio de Metodos Numericos Computacionais

DIMENSIONAMENTO E SEQUENCIAMENTO DE LOTES: UM MODELO COM DOIS ESTÁGIOS E ESTOQUE INTERMEDIÁRIO COM

TEMPO MÍNIMO DE PERMANÊNCIA

Resumo: Neste trabalho são apresentadas formulações matemáticas para programação da produção envolvendo dois estágios, ambos compostos por máquinas paralelas, interligados por um estoque intermediário onde os lotes necessitam permanecer por um tempo mínimo que varia conforme o tipo de item produzido. O objetivo do modelo matemático é minimizar custos de produção e a utilização de horas-extra de trabalho baseando-se no melhor arranjo possível dos lotes de itens a serem produzidos. Após ser apresentado o modelo matemático, 3 problemas teste foram resolvidos, onde foi possível verificar que o modelo está corretamente formulado e pode ser aplicado em diversas situações industriais. Devido à complexidade do modelo, não foi possível obter uma solução ótima, sendo assim, testes foram realizados com tempo computacional limitado. Palavras-Chave: Programação da produção, máquinas paralelas, dois estágios. 1 INTRODUÇÃO

Um grande desafio presente nas indústrias consiste em planejar o ambiente de produção, de modo a atender às demandas previstas através da utilização de recursos muitas vezes escassos. Diversos estudos têm sido realizados nas últimas décadas no sentido de propor modelos matemáticos voltados a auxiliar nas decisões envolvendo o planejamento e controle da produção Meyr (2002). Alguns arranjos do ambiente de produção nas industrias são organizados em diferentes estágios produtivos, o que torna as formulações matemáticas complexas (Toledo, 2013), e difíceis de serem computacionalmente resolvidas (Ferreira et al, 2009). Um modelo importante modelo matemático foi proposto por Drexl e Kimms (2013), denominado modelo Multi-level PLSP, o qual “abrange múltiplos estágios produtivos, considerando que a produção de um item final requer a produção de itens intermediários, os quais são produzidos em estágios anteriores”. Vários trabalhos que consideram múltiplos estágios produtivos têm sido publicados nos últimos anos (Drexl e Kimms, 1997). Ferreira et al (2009) propõe uma aplicação na produção de refrigerantes considerando dois estágios produtivos. Mohammadi et al (2009), consideram uma produção flowshop multi-nível onde todas as máquinas são dispostas em série. Transchel et al (2011) apresentou um modelo de programação com 2 estágios, aplicado ao processo de produção em um caso específico numa indústria. Ferreira et al (2013) propuseram formulações matemáticas monoestágio a um problema multi-estágio de modo a reduzir o esforço computacional para a

Gerson Ulbricht, Neida Maria Patias Volpi

103

resolução. Seeanner e Meyr (2013)General Lot-Sizing and Scheduling múltiplos estágios com possibilidade de haNeste trabalho é apresentado um modelo matemático contendo diferenças em relação aos encontrados até então na literatura, o intermediário com restrição de tempo de permanência dos lotes.

. 2 APRESENTAÇÃO DO PROBLEMA Este trabalho foi elaborado a partir deeletrônicas, a qual conta com 2 estágios de produção:Devices), máquinas paralelas distintas placas. Em um segundo estágio (PTH distintas, são fixados componentes maioresestágios SMD e PTH se dá por meio de um estoque intermediário onde os lotes devem aguardar por um tempo mínimo (conforme o tipo de itsecagem de uma cola protetora de componentes antes a qual protege alguns excessivo do processo de soldagem de itens maiores. funcionamento destes 2 estágios.

Figura

2.1 Formulação Matemática Neste tópico é apresentado o modelo matemático desenvolvido, o qual é do tipo multimulti-períodos, multi-itens, e composto por 2 estágios com estoques intermediários com capacidade de estocagem limitada e necessidade de cumprimento de tempo mínimo de espera dos lotes. quadro 1 são apresentados os índices, variáveis

Quadro 1: Índices, variáveis e parâmetros do modelo 2 estágios.

Índices: : (= I, II) estágios produtivos; , : (= 1, . . . , ) itens; : (= 1, . . . , ) máquinas pertencentes ao estágio θ; : (= 1, . . . , ) períodos; : (= 1, . . . , ) subperíodos. Variáveis:

Máquina 1

Máquina 2

Máquina K I

Estágio I

Pla

no d

e P

rodu

ção

Restrição de Tempo mínimo de permanência do lote,

Seeanner e Meyr (2013) apresentaram um modelo matemático chamado de GLSPMS Sizing and Scheduling Problem for Multiple production Stages

com possibilidade de haver linhas de produção paralela. Neste trabalho é apresentado um modelo matemático contendo diferenças em relação aos encontrados até então na literatura, o qual aborda dois estágios interligados por um estoque intermediário com restrição de tempo de permanência dos lotes.

2 APRESENTAÇÃO DO PROBLEMA

elaborado a partir de estudos realizados em uma indústria produtora de a qual conta com 2 estágios de produção: No primeiro estágio (SMD

distintas fazem a inserção de micro componentes sobre a superfície das . Em um segundo estágio (PTH - Pin Through Hole) também formado por máquinas paralelas

, são fixados componentes maiores nos furos pré-existentes nas placas. A conexão entre os estágios SMD e PTH se dá por meio de um estoque intermediário onde os lotes devem aguardar por um tempo mínimo (conforme o tipo de item). Esse tempo de espera dos lotes é necessário para secagem de uma cola protetora de componentes antes a qual protege alguns componentes

do processo de soldagem de itens maiores. A Figura 1 mostra um resumo do tágios.

Figura 1: Representação do Ambiente de Produção

Neste tópico é apresentado o modelo matemático desenvolvido, o qual é do tipo multie composto por 2 estágios com estoques intermediários com capacidade

de estocagem limitada e necessidade de cumprimento de tempo mínimo de espera dos lotes. são apresentados os índices, variáveis e parâmetros do modelo.

1: Índices, variáveis e parâmetros do modelo 2 estágios.

) máquinas pertencentes

Parâmetros: N: número de itens; T: número de períodos no horizonte de planejamento; W: número total de subperíodos em todo o horizonte de

planejamento; : conjunto de subperíodos contidos no período : número de máquinas pertencentes ao estágio : conjunto de itens que podem ser produzidos na

Estágio II

Máquina 1

Máquina 2

Máquina K II

⁞ Est

oqu

e In

term

ediá

rio

Dem

anda

do

clie

nte

de permanência do lote, conforme o tipo de item produzido

o matemático chamado de GLSPMS - Problem for Multiple production Stages, o qual considera

Neste trabalho é apresentado um modelo matemático contendo diferenças em relação aos qual aborda dois estágios interligados por um estoque

uma indústria produtora de placas No primeiro estágio (SMD - Surface Mounting

sobre a superfície das por máquinas paralelas . A conexão entre os

estágios SMD e PTH se dá por meio de um estoque intermediário onde os lotes devem aguardar por em). Esse tempo de espera dos lotes é necessário para

componentes do calor A Figura 1 mostra um resumo do

Neste tópico é apresentado o modelo matemático desenvolvido, o qual é do tipo multi-máquinas, e composto por 2 estágios com estoques intermediários com capacidade

de estocagem limitada e necessidade de cumprimento de tempo mínimo de espera dos lotes. No

número de períodos no horizonte de planejamento; número total de subperíodos em todo o horizonte de

conjunto de subperíodos contidos no período t; número de máquinas pertencentes ao estágio θ;

conjunto de itens que podem ser produzidos na

produzido

V Simposio de Metodos Numericos Computacionais

104

: quantidade do item i produzido na

máquina k ∈ θ, no subperíodo estágio θ; : quantidade do item i enviada ao estoque intermediário no período

: é igual a 1, se a máquina está preparada para produzir o item subperíodo , no estágio θ; 0, caso contrário;

: é igual a 1, quando o item produzido na máquina k ∈subperíodo , no estágio θ; 0, caso contrário; : é igual a 1, quando o item produzido no estágio I, no período alguma das máquinas k ∈ θ; contrário;

: é igual a 1, se há setup

para o item j na máquina k subperíodo s, no estágio θ; 0, caso contrário; ℎ

: Instante de término do lote do item i em cada período t em cada máquina k ∈ θ, no estágio θ; ℎ

: instante de término do lote do item i em cada período t em todas as máquinas (estágio I); ℎ

: instante de término do lote do item i em cada período t (estágio I), somado ao tempo mínimo em que o lote deve permanecer em estoque intermediário; ℎ

: instante em que o item processamento no estágio II, na máquina ∈ θ, no período t ;

: quantidade em minutos extra para produção na máquina k ∈ θ, no período no estágio θ;

: quantidade do item i, armazenada no

estoque intermediário no final do período t;

: quantidade do item

demanda não atendida no final do períodot, no Estágio II.

produzido na

no subperíodo , no

enviada ao estoque intermediário no período t;

a 1, se a máquina k ∈ θ, está preparada para produzir o item i no

; 0, caso

é igual a 1, quando o item i é ∈ θ, no ; 0, caso

é igual a 1, quando o item i é produzido no estágio I, no período t em

0, caso

do item i

∈ θ no ; 0, caso

Instante de término do lote do em cada máquina

instante de término do lote do item em todas as máquinas

instante de término do lote do (estágio I),

somado ao tempo mínimo em que o lote deve permanecer em estoque

instante em que o item i inicia o processamento no estágio II, na máquina k

quantidade em minutos extra para , no período t,

, armazenada no estoque intermediário no final do período

quantidade do item i, com demanda não atendida no final do período

máquina k, no estágio θ;

: capacidade de produção disponível máquina k, no período t;

: custo de produção para produzir o item máquina k ∈ θ, no estágio θ;

: custo em minutos extra do funcionamento de cada

máquina k, no estágio θ;

: custo de setup para produzir o item

imediatamente após o item i na máquina θ;

: tempo de setup para produção do item

imediatamente após o item i na máquina θ;

: tempo de setup para produzir o item máquina k ∈ θ, no estágio θ, no início do horizonte de planejamento;

: tempo consumido para produção de uma unidade do item i na máquina k ∈ θ, no estágio

: lote mínimo do item i que poderá ser produzido na máquina k ∈ θ, no estágio θ

: igual a 1, se a máquina k ∈ preparada para produzir o item i, no início do horizonte de planejamento; 0, caso contrário;

: quantidade máxima permitida em minutos extra, para produção na máquina k ∈ θ, no período θ;

,: quantidade do item i, com demanda não atendida no

estágio II, no início do horizonte de planejamento;

: quantidade do item i, existente no estoque

intermediário no início do horizonte de planejamento;

: quantidade máxima permitida de estoque

intermediário, do item i, no período

: quantidade máxima permitida de demanda não

atendida no estágio II, do item i, no período : demanda do item i no período t; : tempo mínimo de permanência em estoque

intermediário, de um lote do item I; : custo por período, para manter uma unidade do item

i, no estoque intermediário; : custo por período, do atraso de entrega da produção

do item i, no estágio II; M: número suficientemente grande.

capacidade de produção disponível estágio θ, na

custo de produção para produzir o item i na

custo em minutos extra do funcionamento de cada

para produzir o item j

na máquina k ∈ θ, no estágio

para produção do item j

na máquina k ∈ θ, no estágio

para produzir o item i na , no início do horizonte de

tempo consumido para produção de uma unidade , no estágio θ;

que poderá ser produzido

θ, do estágio θ, está , no início do horizonte

quantidade máxima permitida em minutos extra,

, no período t, no estágio

demanda não atendida no estágio II, no início do horizonte de planejamento;

, existente no estoque intermediário no início do horizonte de planejamento;

quantidade máxima permitida de estoque no período t;

quantidade máxima permitida de demanda não , no período t;

t; tempo mínimo de permanência em estoque

custo por período, para manter uma unidade do item

custo por período, do atraso de entrega da produção

V Simposio de Metodos Numericos Computacionais

105

min =

+

Modelo Matemático:

Sujeito a:

Conjuntos de restrições comuns aos estágios I e II:

.

.

.

(

ℎ ≥ ℎ

+ .

ℎ = ℎ

≥ ℎ

Conjuntos de Restrições: Estoque intermediário, demanda e sincronia entre estágios:

=

ℎ = ℎ

.

+

.

.

+ . , + .

Conjuntos de restrições comuns aos estágios I e II:

≤ .

= I, II ;

=

. −

, = I, II ;

∈ ; ∈

= 1 = I, II;

=

, + − 1

= I, II;

= 1, … ,

.

= I, II; = 1, … ,

≤ 1 = I, II;

= 1, … ,

) ≥

= I, II; ∈

+

+ .

− = I, II; , = 1, …

= 1

= I, II =

+ .

= I, II; = 1, … ,

= 1, … ,

= = 1, … ,

Conjuntos de Restrições: Estoque intermediário, demanda e sincronia entre estágios:

≥ ℎ

= = 1, … ,

=

≤ . = 1, … ,

+ . = 1, … ,

(1)

= 1, … ,

; ∈

1, … ,

(2)

= 1, … , ∈

(3)

= 1, … , = 1, … ,

(4)

, = 1, … ,

; = 1, … , (5)

= 1, … , ; = 1, … ,

(6)

= 1, … ,

; = 1, … , (7)

= 1, … , / = 1, … ,

(8)

= 1, … , … , ( ≠ ) 1, … ,

(9)

= 1, … , = 1, … ,

(10)

= 1, … , ; = 1, … ,

(11)

; = 1, … ,

; = I, II (12)

= I, II ; = 1, … ,

(13)

Conjuntos de Restrições: Estoque intermediário, demanda e sincronia entre estágios:

1, … , ; = 1, … ,

(14)

1, … , (15)

= 1, … (16)

; = 1, … , (17)

V Simposio de Metodos Numericos Computacionais

106

2.1.1 Função objetivo

A função objetivo (1) representa a minimização dos custos de horas extras nos dois estágios produtivos, bem como o custo do não (backorder) em cada período do estágio I e de estoques intermediários existentes entre períodos. 2.1.2 Conjuntos de restrições comuns aos estágios produtivos I e II (

O conjunto de restrições apresentado em (subperíodo s se a máquina k, estiver preparada para a produção do respectivo item (conjunto de restrições (3) impõe uma condição de lote mínimo de produção para cada tipo de item em um subperíodo, a qual somente é ativada, quando ocorre a preparação de máquina para um novo item. O conjunto de restrições (4) determina que cada máquina esteja preparada para produzir somente um tipo de item em cada subperíodo do item i para o item j na máquina O conjunto de restrições (6) impõe a condição de que quando o item subperíodo do no estágio θ, a variável conjunto de restrições (7) impõe que o lote de um item do estágio subperíodo do respectivo período ao qual este pertencecontrole do tempo de processamento e término dentro de um determinadO conjunto de restrições (8) ordena a produção em subperíodos consecutivos dentro de cada período do estágio θ, sendo que no caso de haverem masubperíodos ociosos ficam concentrados no final de cada período.responsável pelo cálculo dos instantes de início da produção de cada lote, em cada máquina e em cada período, em cada estágio θ, de modo a garantir que o instante de início de um lote do item maior ou igual ao instante de início de um lote do item de setup, quando houver. O conjunto de restrições (10) indica que o instante de início da produção de um item estágio θ, deve ser maior ou igual ao tempo necessário para preparação, no início do horizonte de planejamento. O conjunto de restrições (tipo de item em cada período t do horizonte de planejamento, em cada máquina pertencente ao estágio θ. O conjunto de restrições (12) calcula a quantidade de horas

=

Conjuntos de Restrições: Domínio das Variáveis

,

,

, ℎ

, ,

1) representa a minimização dos custos de setup, de produção e da utilização de horas extras nos dois estágios produtivos, bem como o custo do não cumprimento da demanda

) em cada período do estágio I e de estoques intermediários existentes entre períodos.

.1.2 Conjuntos de restrições comuns aos estágios produtivos I e II ( = ,

de restrições apresentado em (2), indica que somente haverá produção do item , estiver preparada para a produção do respectivo item (

3) impõe uma condição de lote mínimo de produção para cada tipo de item em eríodo, a qual somente é ativada, quando ocorre a preparação de máquina para um novo item.

4) determina que cada máquina esteja preparada para produzir somente um tipo de item em cada subperíodo s. O conjunto de restrições (5) indica se houve mudança de produção

na máquina k entre os subperíodos. 6) impõe a condição de que quando o item i é produzido na máquina

, a variável assume o valor 1. Caso contrário,

7) impõe que o lote de um item do estágio θ, seja produzido dentro de um único o período ao qual este pertence. A existência desta restrição

controle do tempo de processamento e término dentro de um determinado período do estágio produtivo.8) ordena a produção em subperíodos consecutivos dentro de cada período

, sendo que no caso de haverem mais subperíodos do que itens em determinado período, os subperíodos ociosos ficam concentrados no final de cada período. O conjunto de restrições (responsável pelo cálculo dos instantes de início da produção de cada lote, em cada máquina e em cada

, de modo a garantir que o instante de início de um lote do item maior ou igual ao instante de início de um lote do item i adicionado ao seu tempo de processamento e

dica que o instante de início da produção de um item , deve ser maior ou igual ao tempo necessário para preparação, no início do horizonte de

O conjunto de restrições (11) calcula o instante de término de cada lotedo horizonte de planejamento, em cada máquina pertencente ao estágio

12) calcula a quantidade de horas-extras necessárias em cada máquina

= + , −

= 1, … ,

≤ = 1, … ,

− , +

= = 1, … ,

≤ = 1, … ,

≥ ℎ

= 1, … , =

Conjuntos de Restrições: Domínio das Variáveis

,

∈ ∀ , ∈ , , ,

, ∈ 0,1 ∀ , ∈ , , ,

, , ℎ

, ℎ, ℎ

≥ 0 ∀ , ∈ , , ,

, de produção e da utilização de cumprimento da demanda

) em cada período do estágio I e de estoques intermediários existentes entre períodos.

)

2), indica que somente haverá produção do item i no , estiver preparada para a produção do respectivo item ( = 1). O

3) impõe uma condição de lote mínimo de produção para cada tipo de item em eríodo, a qual somente é ativada, quando ocorre a preparação de máquina para um novo item.

4) determina que cada máquina esteja preparada para produzir somente um dica se houve mudança de produção

é produzido na máquina k no r 1. Caso contrário,

= 0. O , seja produzido dentro de um único

. A existência desta restrição busca facilitar o o período do estágio produtivo.

8) ordena a produção em subperíodos consecutivos dentro de cada período is subperíodos do que itens em determinado período, os

O conjunto de restrições (9) é responsável pelo cálculo dos instantes de início da produção de cada lote, em cada máquina e em cada

, de modo a garantir que o instante de início de um lote do item j deve ser adicionado ao seu tempo de processamento e

dica que o instante de início da produção de um item i na máquina k, no , deve ser maior ou igual ao tempo necessário para preparação, no início do horizonte de

11) calcula o instante de término de cada lote de determinado do horizonte de planejamento, em cada máquina pertencente ao estágio

extras necessárias em cada máquina k

; = 1, … , (18)

; = 1, … , (19)

; = 1, … , (20)

; = 1, … , (21)

; = 1, … , ; 1, … ,

(22)

,

(23)

V Simposio de Metodos Numericos Computacionais

107

pertencente ao estágio θ, de modo a conco valor máximo permitido para a utilização de tempo extra na máquina 2.1.3 Estoques intermediários, demanda e sincronia entre estágios produtivos O conjunto de restrições (14) calcula o instante de término de cada lote, em cada período do estágio I, de modo que se um mesmo item for produzido em diferentes máquinas, havendo assim diferentes instantes de término (ℎ

) conforme calculaddesigualdade presente no conjunto de restrições (que os instantes de término de todas as máquinas. Devido ao fato de que se busca minimizar os instantes de término no segundo estágio, por meio da atribuição de custos de tempo extra, consequentemente o valor de ℎ

O conjunto de restrições (15) determina que os itens produzidos em todas as máquinas durante os subperíodos s pertencentes ao período existente entre os dois estágios produtivos.encaminhado ao estoque intermediário, a variável O conjunto de restrições (17) calcula o instante de término de processamento no estágio I, adicionado do tempo em que o lote do item estoque intermediário (), somente será adiquando = 1. Assim, se um lote que deverá ser enviado ao segundo estágio é proveniente da fabricação no período anterior e esteve armazenado no estoque intermediário, não é necessário aguardar o tempo mínimo. O conjunto de restrições (18) é responsável pelo balanceamento entre as quantidades produzidas no primeiro e segundo estágio, de modo que as quantidades a serem produzidas no estágio II em determinado período podem ser compostas pque foram enviados ao estoque intermediário (períodos anteriores e que permaneceram armazenados (quantidade máxima permitida de estoque intermediário, do item O conjunto de restrições (20) é responsável pelo balanceamento entre a demanda (

para cada período t, bem como possíveis atrasos (quais possuem custos que são minimizados pela função objetivo. a quantidade máxima permitida de demanda não atendida no estágio II, do item O conjunto de restrições (22) indica que o em cada máquina, no segundo estágio, deve ser maior ou igual ao instante de término da permanência do lote no estoque intermediário.No momento em que é iniciada a produção (2) a (13) onde θ = 2. O conjunto de restrições ( 3 RESOLUÇÃO DO MODELO

Para realização de alguns testes, foram criados 3 problemas de tamanhos distintos, ondeconsideram um horizonte de planejamento composto de 5 períodos, onde cada período foi dividido em subperíodos igual à quantidade de itens a serem produzidos, de modo a possibilitar a produção de todos os itens concomitantemente.Os problemas foram resolvidos utilizando o pacote computacional IBM ILOG CPLEX Studio 12.6 com interface OPL. Foi utilizado um computador com processador e 16Gb de memória RAM, onde soluções limitado em 60 minutos.

, de modo a concluir a produção dos itens. O conjunto de restrições (o valor máximo permitido para a utilização de tempo extra na máquina k, no período

.1.3 Estoques intermediários, demanda e sincronia entre estágios produtivos

restrições (14) calcula o instante de término de cada lote, em cada período do estágio I, de modo que se um mesmo item for produzido em diferentes máquinas, havendo assim diferentes

) conforme calculado pelo conjunto de restrições (te no conjunto de restrições (14), busca atribuir à variável ℎ

que os instantes de término de todas as máquinas. Devido ao fato de que se busca minimizar os egundo estágio, por meio da atribuição de custos de tempo extra,

é minimizado pela função objetivo.

15) determina que os itens produzidos em todas as máquinas durante os pertencentes ao período t, no estágio I, sejam enviados a um estoque intermediário

existente entre os dois estágios produtivos. O conjunto de restrições (16) impõe que quando o item encaminhado ao estoque intermediário, a variável , assume o valor 1.

17) calcula o instante de término de processamento no estágio I, adicionado do tempo em que o lote do item i permanece em estoque intermediário. Observa

), somente será adicionado ao instante de término do lote no estágio I (. Assim, se um lote que deverá ser enviado ao segundo estágio é proveniente da

fabricação no período anterior e esteve armazenado no estoque intermediário, não é necessário

18) é responsável pelo balanceamento entre as quantidades produzidas no primeiro e segundo estágio, de modo que as quantidades a serem produzidas no estágio II em determinado período podem ser compostas pelos itens produzidos neste mesmo período no estágio I, e que foram enviados ao estoque intermediário (), bem como por itens que foram produzidos em períodos anteriores e que permaneceram armazenados (,

). O conjunto de restrições (quantidade máxima permitida de estoque intermediário, do item i, no período t.

20) é responsável pelo balanceamento entre a demanda (

, bem como possíveis atrasos ( ), no atendimento desta demanda no período

quais possuem custos que são minimizados pela função objetivo. O conjunto de restrições (a quantidade máxima permitida de demanda não atendida no estágio II, do item i

22) indica que o instante em que será iniciada a produção dos lotes dos itens, em cada máquina, no segundo estágio, deve ser maior ou igual ao instante de término da permanência do lote no estoque intermediário. No momento em que é iniciada a produção no segundo estágio, passam a atuar o conjunto de restrições

O conjunto de restrições (23) indica o domínio das variáveis.

3 RESOLUÇÃO DO MODELO

testes, foram criados 3 problemas de tamanhos distintos, ondeconsideram um horizonte de planejamento composto de 5 períodos, onde cada período foi dividido em subperíodos igual à quantidade de itens a serem produzidos, de modo a possibilitar a produção de todos os itens concomitantemente. A Tabela 1 mostra a dimensão dos problemas gerados.Os problemas foram resolvidos utilizando o pacote computacional IBM ILOG CPLEX

12.6 com interface OPL. Foi utilizado um computador com processador de soluções inteiras factíveis foram encontradas em tempo de execução

O conjunto de restrições (13) define , no período t, no estágio θ.

.1.3 Estoques intermediários, demanda e sincronia entre estágios produtivos

restrições (14) calcula o instante de término de cada lote, em cada período do estágio I, de modo que se um mesmo item for produzido em diferentes máquinas, havendo assim diferentes

restrições (11) quando θ = 1, a ℎ

, um valor maior que os instantes de término de todas as máquinas. Devido ao fato de que se busca minimizar os

egundo estágio, por meio da atribuição de custos de tempo extra,

15) determina que os itens produzidos em todas as máquinas durante os , no estágio I, sejam enviados a um estoque intermediário

16) impõe que quando o item i for

17) calcula o instante de término de processamento no estágio I, adicionado Observa-se que o tempo em

cionado ao instante de término do lote no estágio I (ℎ),

. Assim, se um lote que deverá ser enviado ao segundo estágio é proveniente da fabricação no período anterior e esteve armazenado no estoque intermediário, não é necessário

18) é responsável pelo balanceamento entre as quantidades produzidas no primeiro e segundo estágio, de modo que as quantidades a serem produzidas no estágio II em

elos itens produzidos neste mesmo período no estágio I, e ), bem como por itens que foram produzidos em

O conjunto de restrições (19) impõe a

20) é responsável pelo balanceamento entre a demanda () de cada item i

dimento desta demanda no período t, os O conjunto de restrições (21) impõe

i, no período t. produção dos lotes dos itens,

em cada máquina, no segundo estágio, deve ser maior ou igual ao instante de término da permanência

uar o conjunto de restrições indica o domínio das variáveis.

testes, foram criados 3 problemas de tamanhos distintos, onde todos consideram um horizonte de planejamento composto de 5 períodos, onde cada período foi dividido em subperíodos igual à quantidade de itens a serem produzidos, de modo a possibilitar a produção de

dimensão dos problemas gerados. Os problemas foram resolvidos utilizando o pacote computacional IBM ILOG CPLEX Optimization

12.6 com interface OPL. Foi utilizado um computador com processador Intel Xeon (3,7GHz) factíveis foram encontradas em tempo de execução

V Simposio de Metodos Numericos Computacionais

108

Tabela 1:

Descrição Número de Itens (

Número de máquinas –Número de máquinas –

Restrições Total de variáveisVariáveis bináriasVariáveis inteiras

Variáveis reais (não inteiras)Coeficientes diferentes de zero

Os parâmetros utilizados para resolução dos problemas foram gerados conforme Taillard (1993), o qual consiste na atribuição de valores aleatórios, dentro de um intervalo pré-definido. Foram geradas 3 instâncias aleatórias para cada um dos 3 problemas (A, B e C) onde o gap médio obtido (diferença percentual entre o melhor considerando todas as instâncias testadas 4 CONCLUSÕES

O principal objetivo deste trabalho foi desenvolver um modelo matemático além de atender a um caso específico, também Nos testes realizados até o momento, percebegeneralizado para uma ampla gama de aplicações.Espera-se que com as formulações propostas neste trabalho,industrial de modo a oportunizar uma ferramenta aplicada à gestão que utilização dos recursos disponíveis. REFERÊNCIAS DREXL, A. KIMMS, A.,

European J. O. Research, 221-235

FERREIRA D, MORABITO R, RANGEL S

production lot sizing and scheduling problem,

FERREIRA, D.; ALAMADA

problema da produção dois estágios com sincronia,

MEYR, H., Simultaneous lotsizes, MOHAMMADI M. et al, Development of heuristics for multiproduct multilotsizing problem with sequence-SEEANNER, F., MEYER, H., production. OR Spectrum 35: 33-TAILLARD, E. Benchmarks for basic scheduling problems. 278-285, 1993. TOLEDO, C.F.M. et al., Glass container production scheduling through hybrid-population based evolutionary algorithm,TRANSCHEL S. et al, A hybrid general lotprocess with a two-stage product structure,

Tabela 1: Dimensão dos problemas gerados

Problema A Problema B ProblemNúmero de Itens (N) 4 7

– Estágio I 2 2 – Estágio II 2 3 2820 4280

Total de variáveis 2541 3851 Variáveis binárias 1940 2920 Variáveis inteiras 340 520

Variáveis reais (não inteiras) 261 411 Coeficientes diferentes de zero 11608 17478

Os parâmetros utilizados para resolução dos problemas foram gerados conforme Taillard (1993), o qual consiste na atribuição de valores aleatórios, dentro de um intervalo

Foram geradas 3 instâncias aleatórias para cada um dos 3 problemas (A, B e C) onde o (diferença percentual entre o melhor bound e a melhor solução inteira encontrada)

tâncias testadas foi de 20,6%.

O principal objetivo deste trabalho foi desenvolver um modelo matemático com 2 e atender a um caso específico, também possa ser utilizado em outras situações na indústria.

Nos testes realizados até o momento, percebe-se que o modelo está bem formulado e devidamente generalizado para uma ampla gama de aplicações.

que com as formulações propostas neste trabalho, seja possível contribuir no segmento industrial de modo a oportunizar uma ferramenta aplicada à gestão que possibutilização dos recursos disponíveis.

Lot sizing and scheduling - Survey and extensions.

235, 1997.

FERREIRA D, MORABITO R, RANGEL S., Solution approaches for the soft drink integrated

sizing and scheduling problem, European J. O. Research 196(2):

AMADA-LOBO, B., RANGEL, S., Formulações Monoestágio para o

dois estágios com sincronia, Produção, v. 23, n. 1, p. 107

., Simultaneous lotsizes, European J. O. Research, n. 139: 277–292, 2002, Development of heuristics for multiproduct multi

-dependent setups, J Appl Sci 9(2): 296–303, 2009 Muti-stage simultaneous lot-sizing and scheduling for flow line -73, 2013.

TAILLARD, E. Benchmarks for basic scheduling problems. European J. O

Glass container production scheduling through hybridbased evolutionary algorithm, Applied Soft Computing 1352–1364

, A hybrid general lot-sizing and scheduling formulation for astage product structure, Int J Prod Res 49(9): 2463–2480, 2011.

Problema C 10 3 3

7760 6976 5340 940 696

31999

Os parâmetros utilizados para resolução dos problemas foram gerados conforme método proposto por Taillard (1993), o qual consiste na atribuição de valores aleatórios, dentro de um intervalo

Foram geradas 3 instâncias aleatórias para cada um dos 3 problemas (A, B e C) onde o solução inteira encontrada)

com 2 estágios, para que possa ser utilizado em outras situações na indústria.

lo está bem formulado e devidamente

seja possível contribuir no segmento possibilitando uma melhor

Survey and extensions.

soft drink integrated

: 697–706, 2009.

Formulações Monoestágio para o

, n. 1, p. 107-119, 2013.

, 2002. , Development of heuristics for multiproduct multi-level capacitated

, 2009. sizing and scheduling for flow line

O. Research, 64, p.

Glass container production scheduling through hybrid multi 1364, 2013.

sizing and scheduling formulation for a production , 2011.

V Simposio de Metodos Numericos Computacionais

109

V Simposio de Metodos Numericos Computacionais

MÉTODOS DE OTIMIZAÇÃO APLICADOS EM UMA EQUAÇÃODIFERENCIAL COM MÚLTIPLOS PONTOS DE FRONTEIRA

Resumo: Neste trabalho exploramos o estudo de métodos de otimização não linear na determinação de soluçãonumérica para uma equação diferencial de segunda ordem com múltiplos pontos de fronteira, em geral este prob-lema é solucionado utilizando métodos baseados no teorema de ponto fixo de Banach ver AGRAWAL AND MEE-HAN AND O’REGAN, (2001). O uso de métodos de otimização não linear mostrou-se vantajoso por permitiruma análise qualitativa dos problemas, além de não depender de que o operador integral seja uma contração navizinhança da solução. Deste modo apresentamos duas abordagens baseadas em métodos de otimização não linearpara o problema: na primeira analisamos uma estratégia baseada no método de Gauss-Newton com a equaçãodiscretizada ; na segunda além da equação discretizada utilizamos como nos métodos baseados no teorema deBanach a equação integral associada a equação diferencial e aplicamos um método de otimização não linear comrestrições.

Palavras-Chave: equações diferenciais, otimização não linear.

Andre Luıs Machado Martinez, EmersonV. Castelani , Gizelli Renata Mendes

110

1 INTRODUÇÃO

Neste artigo analisamos algumas perspectivas na determinação de solução numérica para uma equaçãodiferencial de segunda ordem com múltiplos pontos de fronteira definida como:

u′′ + q(t)f(t, u, u′) = 0,

u(0) = 0 u(1) = g(u(η1), u(η2), ..., u(ηm−2))(1)

onde g : Rm−2 → R , f : [0, 1] × R × R → R e q : R+ → R são contínuas e, possivelmente, nãolineares, η1, ..., ηm−2 ∈ (0, 1).

Este problema é conhecido na literatura como problema de segunda ordem com múltiplos pontos defronteira, ou simplesmente, m-pontos. Os primeiros resultados de existência de solução foram apre-sentados por II’IN AND MOISEEV (1987). Segundo LIN AND CUI (2011) variações deste problemasurgem no contexto de modelos de fluxo elástico e viscoelástico, aplicações relacionadas com designede pontes são apresentadas por ZOU AND ZHANG (2007).

Devido à importância dessa classe de problemas em diversas aplicações, muitos autores têm de-senvolvido estudos considerando variações e generalizações. A maior parte desses estudos são rela-cionados à existência de solução, recomendamos as referências (GUPTA, 1992; AND GUPTA ANDTROFIMCHUK, 1997; MA, 1997; WONG AND AGARWAL, 1995). Diversos trabalhos despontaramtratando da obtenção de solução numérica, recomendamos (CASTELANI AND MA, 2007; LIN ANDCUI, 2011; MARTINEZ AND MARTINEZ AND CASTELANI AND PINTO, 2012), os resultadosnuméricos geralmente não caminham como a existência de soluções e na sua maioria consideram ape-nas métodos baseados no teorema de ponto fixo de Banach, uma exceção é o trabalho de CASTELANIAND MARTINEZ (2014), no qual os autores exploram o uso de métodos de otimização na determi-nação de solução numérica, neste trabalho a equação diferencial de (1) é discretizada e esta da origemao conjunto de restrições para o problema de programação não linear e utiliza-se como função objetivouma variação da condição u(1) = g(u(η1), u(η2), ..., u(ηm−2)), este artigo motivou nosso trabalho noqual exploramos alternativas que podem ser aplicadas a outras equações, trabalhamos com a equaçãodiscretizada e aplicamos o método de Gauss-Newton também utilizamos o fato de que esta classe deproblemas pode ser representada por uma equação integral para utilizar um método de programação nãolinear com restrições.

2 MÉTODOS NUMÉRICOS

Nesta seção apresentamos duas alternativas para determinação de solução numérica para o problema(1), a primeira alternativa se baseia na resolução do sistema não linear obtido com a discretização doproblema, na segunda alternativa a equação discretizada forma o conjunto de restrições e utilizamos umafunção objetivo baseada na representação integral do problema.2.1 Algoritmo 1

Em nossa primeira alternativa, basicamente utilizamos o método de Gauss-Newton recomendamosKELLEY (1999), combinando com interpolação spline. Vamos considerar tj, j = 0, 1, ..., n umapartição de [0, 1], com tj+1 − tj = h = 1

npara todo j = 0, 1, ..., n − 1, denotaremos por uj uma

aproximação para u(tj). Utilizando diferenças finitas obtemos uma discretização para a equação u′′ =f(t, u, u′). Definimos a seguir o sistema não linear r(u) = 0:

r(u) =

uj+1 − 2uj + uj−1h2

+ f

(tj, uj,

uj+1 − uj−12h

)= 0

u1 − g(u(η1), u(η2), ..., u(ηm−2)) = 0(2)

Um algoritmo para resolver o problema (1) é apresentado a seguir.ALGORITMO 1

Passo 1 Definir uniformemente a malha espaçada tj, j = 1, ..., n;

V Simposio de Metodos Numericos Computacionais

111

Passo 2 Escolher a aproximação inicial u0j = u0(tj);

Passo 3 Discretizar o problema (1) por diferença finita, e computar para j = 2, ..., n− 1

u′′k(tj) =

uk(tj+1)− 2uk(tj) + uk(tj−1)

h2, u

′k(tj) =uk(tj+1)− uk(tj−1)

2h

Calcular uk(η), η = (η1, ..., ηm−2) usando interpolação por Spline Cúbica.

Passo 4 Para k = 1, 2, 3, ...(Gauss-Newton para o sistema r(u) = 0, r foi definida em (2)).

a) Compute rk = (r1, r2, ..., rn)T e Ak = (aij)n×n, ri = ri(u

k), aij = ∇ri(uk)

b) Encontre dk tal que (ATkAk)dk = −AT

k rk

c) Determine αk tal que a condição de Armijo seja satisfeita

d) Compute uk+1 = uk + αkdk

Passo 5 Teste a convergência.

2.2 Algoritmo 2Na segunda alternativa, basicamente utilizamos um método de programação não linear para problemas

com restrições. Assim como no algoritmo 1 consideramos tj, j = 0, 1, ..., n uma partição de [0, 1],com tj+1 − tj = h = 1

npara todo j = 0, 1, ..., n − 1, denotaremos por uj uma aproximação para

u(tj). Consideremos como no algoritmo 1 o sistema não linear r(u) = 0 para compor o conjunto dasrestrições do problema. Definimos uma função objetivo que explora algumas propriedades do problema(1) utilizado nos métodos numéricos baseados em ponto fixo.

O problema definido em (1) pode ser modelado como uma equação integral, para isto basta observarque as soluções do problema (1) são pontos fixos do operador

(Tu)(x) =

∫ 1

0

G(x, t)f(t, u(t), u′(t))dt+ g(u(η1), . . . , u(ηm−2))x (3)

onde G é uma função de Green dada por

G(x, t) =

t(1− x), t ≤ xx(1− t), x ≤ t

(4)

Métodos numéricos baseados em ponto fixo, definem uma aproximação inicial para a solução dis-cretizada de (1), u0, então a sequência do método fica determinada como uk+1 = Tuk, a convergênciadesta classe de métodos se baseia no Teorema de Ponto Fixo de Banach, ou seja, converge se T é umacontração em uma vizinhança da solução.

Observe que determinar u que satisfaz T (u) = u é equivalente a determinar u que minimiza ‖T (u)−u‖22, deste modo uma solução de (1) é uma solução do problema de programação não linear abaixo:

min ‖T (u)− u‖22

sujeito a

uj+1 − 2uj + uj−1h2

+ f

(tj, uj,

uj+1 − uj−12h

)= 0

u1 − g(u(η1), u(η2), ..., u(ηm−2)) = 0 (5)Q(u) = 0

onde a restrição Q(u) = 0 representa a possibilidade de inclusão de análise qualitativa do problema,ou seja, esta restrição permite a inclusão de restrições com relação a norma, positividade, concavidadeda solução a ser determinada, caso tenhamos esta informação. Definimos como ALGORITMO 2 a res-olução do problema de programação não linear (5) pela função fmincon do MatLab (www.mathworks.com).

ALGORITMO 2

V Simposio de Metodos Numericos Computacionais

112

Passo 1 Definir uniformemente a malha espaçada tj, j = 1, ..., n;

Passo 2 Escolher a aproximação inicial u0j = u0(tj);

Passo 3 Discretizar o problema (1) por diferença finita, e computar para j = 2, ..., n− 1

u′′k(tj) =

uk(tj+1)− 2uk(tj) + uk(tj−1)

h2, u

′k(tj) =uk(tj+1)− uk(tj−1)

2h

Calcular uk(η), η = (η1, ..., ηm−2) usando interpolação por Spline Cúbica.

Passo 4 Aplique a função fmincon para o problema,

min ‖T (u)− u‖22

sujeito a

uj+1 − 2uj + uj−1h2

+ f

(tj, uj,

uj+1 − uj−12h

)= 0

u1 − g(u(η1), u(η2), ..., u(ηm−2)) = 0Q(u) = 0

calcule as integrais do operador T com o método dos trapézios e uk(η) utilizando Spline Cúbica.

Passo 5 Teste a convergência.

Uma motivação para definirmos os Algoritmo 1 e 2 consiste no fato de que métodos numéricos basea-dos em ponto fixo não permitem a inclusão de análise qualitativa da solução, além disso estes métodosapresentam forte tendência de convergir para a solução de menor norma, quando o problema possuimúltiplas soluções, mesmo utilizando variedade de aproximações iniciais.

3 TESTES NUMÉRICOS

Nesta seção apresentamos os resultados após realizar testes com onze problemas utilizando os algo-ritmos 1 e 2. Primeiramente detalharemos o exemplo 1, no qual as funções componentes do problema(1) são apresentadas a seguir:

f(t, u, v) =

t+ 24

27u3 + ( v

80)2, 0 ≤ u ≤ 3

t+ 24 + u− 3 + ( v80)2, 3 ≤ u

e

g(y) =1

3+

1

4k

k∑

i=1

yi.

η =

(1

10,1

5,2

3,3

4

)

Pode-se mostrar utilizando o teorema de Avery-Peterson, recomendamos AVERY AND PETERSON(2001), que o problema acima possui no mínimo três soluções no espaço de Banach E = C1[0, 1] dasfunções continuamente diferenciáveis em [0, 1] com norma

‖u‖E = max‖u‖∞, ‖u′‖∞.

Segundo o teorema podemos ainda caracterizar as soluções como concavas, positivas e com ‖u‖E ≤ 80.Deste modo podemos incluir no Algoritmo 2 função Q afim de explorar estas características qualitativasdo problema, deste modo obtemos as seguintes restrições adicionais

−uj ≤ 0,∀j = 1, ..., n

uj ≤ 80,∀j = 1, ..., n

V Simposio de Metodos Numericos Computacionais

113

Aplicamos os Algoritmos 1 e 2, utilizamos dez aproximações iniciais diferentes, definidas pela equação

u0(x) = x(nr + 1− x),

onde nr é um número randômico no intervalo [0, 10].Naturalmente, este processo pode retornar múltiplas respostas. Assim precisamos estabelecer um

critério afim de comparar soluções para estabelecer quais seriam distintas. Note que a amplitude dassoluções podem ser diferentes. Neste sentido dizemos que soluções u∗ e u∗∗ são equivalentes se

‖u∗ − u∗∗‖ ≤ max10−8, 10−6min‖u∗‖, ‖u∗∗‖.

Os resultados obtidos pelos algoritmos 1 e 2 foram equivalentes, utilizando o critério acima para com-parar as soluções obtidas, concluímos que pelo menos cinco soluções são diferentes (ver Figura 1).

Figura 1: Soluções numéricas obtidas.

Podemos observar que as solução encontradas são possivelmente concavas, positivas e com ‖u‖E ≤80, como era esperado.

Para este problema também aplicamos o Algoritmo 2 do artigo MARTINEZ AND MARTINEZ ANDCASTELANI AND PINTO, 2012, baseado no teorema de Ponto Fixo de Banach, aplicamos as mesmascondições anteriores utilizando 10 aproximações iniciais diferentes. O método convergiu apenas parauma solução distinta, possivelmente a de menor norma (ver Figura 1).

Com intuito de comparar os Algoritmo 1 e 2, realizamos testes nos quais não incluímos a restriçõesqualitativas no Algoritmo 2. O problemas testados foram retirados dos artigos MARTINEZ ANDCASTELANI, 2008; MARTINEZ AND MARTINEZ AND CASTELANI AND PINTO, 2012; MAR-TINEZ AND MARTINEZ AND CASTELANI AND PINTO, 2013. Utilizamos a função fmincom doMatLab (www.mathworks.com) para aplicar tanto o Algoritmo 1 quanto o Algoritmo 2, especificamenteno caso do Algoritmo 1 consideremos uma função constante como função objetivo na função fmincone implementamos r(u) = 0 como restrição de igualdade, deste modo consideramos o tempo gasto porcada algoritmo nos problemas como um parâmetro de comparação. Na tabela 1 podemos comparar otempo de convergência entre o algoritmo 1 e algoritmo 2.

V Simposio de Metodos Numericos Computacionais

114

t Algoritmo 1 t Algoritmo 2 Aproximação Inicialex1 1.28 s 2.34 s identidadeex2 1.66 s 2.76 s identidadeex4 2.15 s 1.67 s nuloex5 2.44 s 1.95 s nuloex6 2.22 s 2.06 s nuloex7 1.79 s 1.9 s identidadeex8 2.59 s 2.33 s identidadeex9 2.18 s 1.62 s nulo

ex10 2.42 s 1.79 s nuloex11 1.69 s 2.11 s identidade

Tabela 1: Testes com os Algoritmos 1 e 2

4 CONCLUSÃO

Ambos os algoritmos aprsentaram bom desempenho pois convergiram nos onze problemas testados.Observe que esperávamos que o Algoritmo 2 fosse consideravelmente mais lento, pois o custo do calculode ‖Tu − u‖22 deveria implicar em um número maior de operações, porém o tempo gasto entre osalgoritmos foi equilibrado como podemos observar na Tabela 1, isto se deve principalmente ao fato deque o Algoritmo 2 consumiu um número menor de iterações internas.

Pretendemos explorar a eficiência destes algoritmos com outras equações diferenciais que permitemrepresentação através de uma equação integral, bem como explorar as possíveis vantagens de se consid-erar o Algoritmo 2 realizando mais testes. Podemos ressaltar que quando comparamos os Algoritmos1 e 2 com métodos numéricos baseados em ponto fixo, uma grande vantagem é que em problemascom múltiplas soluções podemos determinar todas as soluções e não ficamos necessariamente restritos asolução de menor norma como ocorreu no exemplo 1.

REFERÊNCIAS

Agarwal R., Meehan M., and O’Regan D. Fixed Point Theory and Applications. Cambridge UniversityPress, 2001.

Avery R.I. and Peterson A.C. Three positive fixed points of nonlinear operators in ordered banach spaces.Computers and Mathematics with Applications, 42:313–322, 2001.

Castelani E.V. and Ma T.F. Numerical solutions for a three-point boundary value problem. Communica-tions in Applied Analysis, 11:87–96, 2007.

Castelani E.V. and Martinez A.L.M. Resolvendo uma equação de múltiplos pontos utilizando métodosde otimização. XXXV CNMAC, 2014.

Gupta C.P. Solvability of a three-point nonlinear boundary value problem for a second order ordinarydifferential equation. J. Math. Anal. Appl, 2:540–551, 1992.

Gupta C.P. and Trofimchuk S.I. A sharper condition for the solvability of a three-point second orderboundary value problem. J. Math. Anal. Appl, 2:586–597, 1997.

Il’in V.A. and Moiseev E.I. A nonlocal boundary value problem for the sturm-liouville operator in thedifferential and. Sov. Math. Dokl, 34:507–511, 1987a.

Il’in V.A. and Moiseev E.I. Nonlocal boundary-value problem of the secod kind for a sturm-liouvilleoperator. Differential Equations, 23:979–987, 1987b.

Kalley C.T. Iterative methods for optimization. SIAM, 1999.Lin Y. and Cui M. A numerical solution to nonlinear multi-point boundary value problems in the repro-

ducing kernel space. Mathematical Methods in the Applied Sciences, 34:44–47, 2011a.Lin Y. and Cui M. A numerical solutionto nonlinear multi-point boundary value problems in the repro-

ducing kernel space. Mathematical Methods in the Applied Sciences, 34:545–555, 2011b.

V Simposio de Metodos Numericos Computacionais

115

Ma R. Existence theorems for a second order m-point boundary value problem. J. Math. Anal. Appl,211:545–555, 1997a.

Ma R. Existence theorems for a second order three point boundary value problem. J. Math. Anal. Appl,212:430–442, 1997b.

Martinez A.L.M., Martinez C.P.A., Castelani E.V., and Pinto T.S. Remarks on positive solutions for anm-point boundary value problem. Int. Journal of Appl. Math., 25:281–297, 2012.

Wong P.J.Y. and Agarwal R.P. Existence and uniqueness of solutions for three-point boundary valueproblems for second order difference equations. Proceedings of Dynamic Systems and Applications,1995.

Zou Y., Hu Q., and Zhang R. On numerical studies of multi-point boundary value problem and its foldbifurcation. App. Math. and Comp., 185:527–537, 2007.

V Simposio de Metodos Numericos Computacionais

116

V Simposio de Metodos Numericos Computacionais

MÉTODOS DE HOMOGENEIZAÇÃO PARA OBTENÇÃO DAS

PROPRIEDADES EFETIVAS DO CONCRETO

Resumo: Este artigo apresenta um exemplo de aplicação das técnicas atuais de

homogeneização para modelar o concreto. As técnicas de homogeneização são aquelas que

buscam obter as propriedades efetivas do material a partir das propriedades conhecidas dos

componentes que o formam. Entre as técnicas de homogeneização, discutem-se o limite

superior de Voigt, o limite inferior de Reuss, o método auto-consistente e o método de Mori-

Tanaka. Essas técnicas foram aplicadas para aproximar o valor do módulo de elasticidade do

concreto a partir das propriedades dos agregados graúdos e da argamassa que formam o

concreto. O objetivo ao apresentar este exemplo é divulgar como realizar a aplicação das

técnicas de homogeneização e como proceder ao realizar a análise dos resultados.

Palavras-Chave: Concreto, Técnicas de homogeneização, Método auto-consistente, Método

de Mori-Tanaka, Limite superior de Voigt, Limite inferior de Reuss.

1 INTRODUÇÃO

Analisar as propriedades de materiais heterogêneos é um desafio que tem sido contornado com

a utilização de técnicas de homogeneização, as quais buscam descrever as relações existentes

entre as propriedades conhecidas em escalas menores daquelas que ocorrem em escalas

maiores (WRIGGERS e MOFTAH, 2006).

Como aponta LI e WANG (2008), na natureza praticamente não existem materiais

perfeitamente homogêneos. Entretanto, de maneira geral, mesmo possuindo microestruturas

complexas, o comportamento estatístico destas estruturas pode determinar as respostas médias

que surgem na macroescala.

Para o uso e o entendimento dos métodos de homogeneização é necessário observar que os

materiais compósitos analisados são tratados como modelos contínuos com dois níveis de

análise: a estrutura microscópica e a macroscópica. Geralmente, as propriedades do material

na microescala são conhecidas, enquanto busca-se, através delas, determinar o comportamento

do material na macroescala.

Os métodos de homogeneização, os quais representam a teoria das propriedades

efetivas, partem do princípio de que as relações constitutivas na escala macroscópica podem

ser adquiridas através do comportamento médio dos constituintes na microescala, os quais, por

sua vez, são governados pelas leis físicas apropriadas para cada nível de estudo. Por exemplo,

ao modelar materiais próprios da nano mecânica através de técnicas de homogeneização, deve-

Guilherme Augusto Pianezzer, Fabio Andre NegriBalbo, Liliana Madalena Gramani, Eloy Kaviski

117

se simular as propriedades dos constituintes através das leis físicas próprias desta camada, que

são, no caso, as leis da Mecânica Quântica. Mas, ao tratar de materiais próprios da

micromecânica, os constituintes são simulados a partir das leis da Mecânica do Contínuo ou da

Mecânica Clássica.

Assim, os métodos de homogeneização não evitam a modelagem física do material.

Entretanto, como visto, o fazem de outra maneira: A abordagem se trata de representar uma

estrutura heterogênea por uma estrutura homogênea equivalente. Para facilitar e unificar a

linguagem utilizada por aqueles que lidam com a teoria, determinou-se que a escolha do termo

micro ou macro escala é uma escolha matemática, de maneira que não está associada a nenhum

comprimento de escala específico (LI e WANG, 2008).

As primeiras propostas de simulação foram feitas por Voigt em 1887 e Reuss em 1929.

Seus modelos teóricos são simplificados, mas, além de permitirem ampliar o entendimento dos

fundamentos envolvidos nos métodos de homogeneização, hoje eles são consagrados como

limite superior e inferior, respectivamente, para o verdadeiro valor das propriedades efetivas.

Entre as técnicas atuais serão discutidos o método auto consistente e o método de Mori-

Tanaka, os quais ambos utilizam o tensor de Eshelby (ESHELBY, 1957) para determinar as

propriedades efetivas.

Para aplicação das técnicas o concreto será considerado como um material compósito

composto de duas fases. Como exemplo será utilizado o concreto na mesoescala formado por

argamassa (matriz) e agregados graúdos (inclusões).

2 PROPRIEDADES DOS CONSTITUINTES

O concreto na mesoescala pode ser visto como um material composto de duas fases: argamassa

e agregados graúdos. A ideia básica das técnicas de homogeneização é que não se conhece

informações confiáveis sobre as propriedades do material final, no caso o concreto. Assim,

utilizam-se informações dos constituintes que são obtidas da seguinte maneira.

2.1 Agregado graúdo (Inclusão)

Para determinar as propriedades da inclusão, assumiu-se da literatura [4], que o mesmo possui

módulo de elasticidade de 5.104𝑀𝑃𝑎 e coeficiente de Poison de 1.3𝑥10−1. Além disso,

considerou-se que as inclusões se comportam como isotrópicas. Isso significa que o tensor de

flexibilidade, definido por:

𝑺 =

[ 1/𝐸 −𝑣/𝐸 1/𝐸−𝑣/𝐸 1/𝐸 −𝑣/𝐸−𝑣/𝐸 −𝑣/𝐸 1/𝐸

0 0 00 0 00 0 0

0 0 00 0 00 0 0

1/𝐺 0 00 1/𝐺 00 0 1/𝐺]

. (1)

No qual E representa o módulo de elasticidade e 𝑣 o coeficiente de Poison. Para os

valores obtidos, foi possível determinar o tensor de flexibilidade para a inclusão, 𝑺𝒂𝒈 e ao

inverter este tensor obteve-se o tensor de elasticidade, 𝑪𝒂𝒈.

2.2 Argamassa (Matriz)

De maneira equivalente, obteve-se o modulo de elasticidade e o coeficiente de Poisson para a

argamassa a partir da literatura [4]. Neste caso, os valores de referência foram 3.00𝑥104𝑀𝑃𝑎

V Simposio de Metodos Numericos Computacionais

118

para 𝐸 e 3.00𝑥10−1 para 𝑣. Com estas propriedades, utilizou-se a Equação 1 para determinar 𝑺𝒂𝒓 e inverteu-se o

tensor obtido para determinar 𝑪𝒂𝒈. Neste caso, também foi considerada a isotropia do material.

Tanto no caso da argamassa quanto nos agregados graúdos, a isotropia é uma

aproximação que se mostrou adequada de acordo com os resultados. Entretanto, no interesse

de refinar os métodos de homogeneização deve-se realizar uma modelagem dos constituintes

que mais se adequa ao caso estudado.

3 TÉCNICAS DE HOMOGENEIZAÇÃO

Essa seção apresenta as técnicas de homogeneização utilizadas para calcular as propriedades

efetivas do concreto.

3.1 Método de Voigt

O método de Voigt é um dos mais simples esquemas de homogeneização de material

compósito. A utilidade deste modelo reside no fato de que hoje ele representa um limite

superior (Limite superior de Voigt) para o valor do módulo de elasticidade de um material

compósito, de maneira que representa valores superestimados para esta informação.

Conhecendo informações extraídas da inclusão e da matriz, o modelo de Voigt encontra

o tensor homogeneizado através da seguinte expressão dada pela Equação 2.

= 𝑓𝑎𝑔𝑪𝒂𝒈 + 𝑓𝑎𝑟𝑪𝒂𝒓 (2)

Nesta equação 𝑪𝒂𝒈 e 𝑪𝒂𝒓 representam as propriedades da inclusão e da matriz como

indicados pela seção anterior. O parâmetro 𝑓 diz respeito a fração volumétrica de compósito,

sendo 𝑓𝑎𝑔 a fração volumétrica da agregados graúdos indicando a porcentagem de agregados

presentes no volume do concreto. Como o material é formado apenas pelas duas fases, sabe-se

que:

𝑓𝑎𝑔 + 𝑓𝑎𝑟 = 1 (3)

Calculando-se , pode-se inverter o tensor para calcular e a partir da Equação 1

determinar as propriedades do material. Pelo método de Voigt, o módulo de elasticidade obtido

é de 3.35𝑥104𝑀𝑃𝑎 e o coeficiente de Poison de 2,7𝑥10−1.

3.2 Método de Reuss

O método de Reuss representa um limite inferior para o valor do tensor de elasticidade efetivo

do material compósito. Conhecendo as informações extraídas da inclusão e da matriz, o modelo

de Reuss encontra o tensor homogeneizado através da Equação 4:

= [𝑓𝑎𝑔𝑪𝒂𝒈−1 + 𝑓𝑎𝑟𝑪𝒂𝒓

−𝟏]−1

(4)

Da mesma forma, a partir do tensor de flexibilidade homogeneizado e da Equação 1

chega-se que o modulo de elasticidade e o coeficiente de Poisson são 3,19𝑥104𝑀𝑃𝑎 e

2,84𝑥10−1, respectivamente.

3.3 Método auto consistente

O método auto-consistente utiliza o tensor de Eshelby (ESHELBY, 1957) para o cálculo das

propriedades efetivas. Esse tensor já foi calculado para diversos formatos de inclusão e no

exemplo apresentado aqui os agregados graúdos foram aproximados como circulares (LI e

WANG, 2008). O tensor de Eshelby para inclusões circulares é dado de maneira explícita

através da Equação 5.

V Simposio de Metodos Numericos Computacionais

119

𝐸𝑖𝑗𝑘𝑙 =5𝑣 − 1

15(1 − 𝑣)𝛿𝑖𝑗𝛿𝑘𝑙 +

4 − 5𝑣

15(1 − 𝑣)(𝛿𝑖𝑘𝛿𝑗𝑙 + 𝛿𝑖𝑙𝛿𝑗𝑘) (5)

Onde 𝛿𝑖𝑗 representa o Delta de Kronicker que retorna 1 no caso em que os índices são

iguais e 0 caso contrário. Além disso, o método depende do cálculo de 𝐴𝑎𝑔 dado pela Equação

6:

𝐴𝑎𝑔 = (𝑪𝒂𝒓 − 𝑪𝒂𝒈)−1

: 𝑪𝒂𝒓 (6)

E do cálculo do tensor de concentração dado pela Equação 7.

𝛾 = 𝐴𝑎𝑔: (𝐴𝑎𝑔 − 𝑬)−1

(7)

Assim, o tensor de elasticidade homogeneizado pelo método é dado pela Equação 8.

= 𝑪𝒂𝒓 + 𝑓𝑎𝑔(𝑪𝒂𝒈 − 𝑪𝒂𝒓): 𝛾 (8)

Com o mesmo procedimento de inverter o tensor e comparar com a Equação 1, obteve-

se como módulo de elasticidade 3.23𝑥104𝑀𝑃𝑎 e coeficiente de Poison de 2.79𝑥10−1.

3.4 Método de Mori-Tanaka

O esquema de homogeneização pelo método de Mori-Tanaka apresenta a seguinte estimativa

para o tensor de elasticidade:

= [(𝑓𝑎𝑟𝑪𝒂𝒓 + 𝑓𝑎𝑔𝑪𝒂𝒈: 𝛾): (𝑓𝑎𝑟𝑰 + 𝑓𝑎𝑔𝛾)]−𝟏

(9)

No qual, 𝑰 representa a matriz identidade e os outros parâmetros são os mesmos do

método anterior. Ao aplicar o método, os resultados encontrados para o módulo de elasticidade

e para o coeficiente de Poison foram de 3,24𝑥104𝑀𝑃𝑎 e 2,78𝑥10−1.

4 RESULTADOS ENCONTRADOS

Essas técnicas foram utilizadas na seção anterior para o cálculo das propriedades efetivas no

caso em que a fração volumétrica de agregados graúdos era de 15%. Para este exemplo,

também foram executados casos em que as concentrações de agregados no volume do concreto

eram diferentes.

Foram realizados testes com concentrações de 5% a 45%, intervalo de valores comuns

encontrados nos problemas reais. Os resultados obtidos foram distribuídos em um gráfico como

mostra o Gráfico 1.

V Simposio de Metodos Numericos Computacionais

120

Gráfico 1: Módulo de elasticidade para diferentes concentrações (O autor, 2015)

Neste Gráfico 1, pode-se notar o comportamento que o método proposto por Voigt e

por Reuss possuem em relação a serem um limite superior e inferior, respectivamente. Estes

dois métodos já são comprovados na literatura como bons indicativos deste fenômeno. Para o

caso dado, então, o método auto-consistente e o método de Mori-Tanaka obtiveram resultados

adequados em relação aos dois métodos padrões.

5 CONSIDERAÇÕES FINAIS

Este exemplo permitiu verificar como realizar a aplicação das técnicas de homogeneização em

um problema simplificado. Este resultado faz parte do desenvolvimento da tese desenvolvida

junto ao programa de pós-graduação em métodos numéricos em engenharia que busca

encontrar o real estado de conservação das principais barragens das usinas hidrelétricas do país.

As técnicas de homogeneização têm sido uma aliada para determinar as reais

propriedades efetivas, como pode ser observado pelos trabalhos especializados que o grupo de

pesquisa têm desenvolvido nos últimos anos (BALBO et al, 2015; PIANEZZER et al, 2013;

PIANEZZER et al, 2014)

REFERÊNCIAS

BALBO, F. A. N., PIANEZZER, G. A., GRAMANI, L. M., KAVISKI, E., RASSY, M. T., An

application to the diffusion equation in a model for the damage in concrete due to alkali-silica

reaction, Applied Mathematical Sciences (Ruse), vol 9, pp. 4135-4147, 2015.

ESHELBY, J. D., The determination of the elastic field of an ellipsoidal inclusion and related

problems, Proc. of Roy. Soc., vol 241, pp. 376-396, 1957.

LI, S., WANG, G., Introduction to Micromechanics and Nanomechanics, World Scientific,

2008.

V Simposio de Metodos Numericos Computacionais

121

PIANEZZER, G. A., BALBO, F. A. N., GRAMANI, L. M., KAVISKI, E., RASSY, M. T, Um

algoritmo para geração do elemento representativo do concreto com agregados graúdos em

formato elíptico, Revista SODEBRAS, vol 8, pp. 11-15, 2013.

PIANEZZER, G. A., BALBO, F. A. N., GRAMANI, L. M., KAVISKI, E., RASSY, M. T,

Simulação computacional do teste de carregamento axial, CNMAC2014 – Congresso Nacional

de Matemática Aplicada e Computacional, Natal – RN, 2014.

RASSY, M. T., Uma contribuição para a modelagem da heterogeneidade do concreto com o

método de Galerkin Livre de Elementos., Tese, USP, 2012.

WRIGGERS, P., MOFTAH, S. Mesoscale models for concrete: Homogeneization and damage

behaviour. Finite Element in Analysis and Design, vol. 42, pp. 623-636, 2006.

good friend. Journal of Numerical Methods, 32:2223–2241, 1995a.

V Simposio de Metodos Numericos Computacionais

122

V Simposio de Metodos Numericos Computacionais

METODOLOGIA HÍBRIDA WAVELET NA PREVISÃO DA SÉRIE TEMPORAL DO PÊNDULO DIRETO DO BLOCO F-13 DA BARRAGEM

PRINCIPAL DA USINA HIDRELÉTRICA DE ITAIPU

Resumo: Este artigo propõe um método híbrido wavelet chamado de ArimaX-Garch Wavelet (AXGW) para predições de dados temporais de deslocamento de um bloco da barragem principal da usina hidrelétrica de Itaipu, localizada em Foz do Iguaçu, Paraná, Brasil. Os resultados obtidos com este método pode auxiliar a equipe técnica na execução de atividades preventivas, corretivas e até mesmo para monitoramento da estrutura. A fim de se produzir suas previsões, o previsor AXGW considera informações sobre as estruturas de autodependência linear e não-linear (incluindo, a volatilidade) exibidas pelos dados. Para ilustrar o método proposto em um caso aplicado real, um estudo de caso utilizando uma série temporal diária da usina de Itaipu foi efetuado. Todas as análises numéricas mostraram maior acurácia com o uso da metodologia AXGW em relação à tradicional abordagem Arima-Garch.

Palavras-chave: Decomposição Wavelet, ArimaX-Garch, Segurança de Barragens.

Jairo Marlon Correa, Anselmo Chaves Neto, LuizAlbino Teixeira Junior, Edgar Manuel Carreno Franco

123

1 INTRODUÇÃO

A Itaipu binacional é um dos maiores projetos hidrelétricos do mundo, considerando-se a produção anual. Localiza-se no rio Paraná a 14 km à montante da ponte internacional que liga a cidade de Foz do Iguaçu, no Brasil, à Ciudad del Este no Paraguai. O projeto da barragem da Itaipu foi bastante criterioso tanto em termos de investigação da rocha de fundação quanto dos materiais utilizados na construção das barragens, seguindo um minucioso controle de qualidade, além disso foram instalados aproximadamente 2400 instrumentos, cujas leituras são feitas desde a época da construção com uma periodicidade que varia de semanal até semestral, conforme o tipo de instrumento. Em 2005, como parte de modernização da usina, foi implantado um sistema de aquisição automática dos dados, chamado Automatic Data Acquisition System (ADAS) (ITAIPU, 2015), onde 10% dos instrumentos mais importantes foram automatizados, passando a ter leituras a cada 30 minutos, além da leitura manual já existente. A barragem principal da usina de Itaipu é de concreto, do tipo gravidade aliviada. É composta por 18 blocos, onde estão as tomadas d´água de 16 unidades geradoras (ITAIPU, 2014). A água do reservatório exerce uma pressão na face montante da barragem e também exerce, nas partes inferiores dos blocos, uma subpressão ou empuxo hidrostático que cria um efeito contrário ao que a sua própria massa exerce sobre a fundação. Devido a essas duas forças, a barragem tem uma tendência a apresentar pequenos deslocamentos horizontais, principalmente no sentido montante-jusante. Em contrapartida, as forças estabilizantes ou a favor da segurança são o peso próprio da estrutura e o atrito entre a barragem e a rocha de fundação. De acordo com (ITAIPU, 2009) foram instalados dois tipos de pêndulos em trechos da Usina Hidrelétrica de Itaipu: o pêndulo direto e o invertido. O pêndulo direto é responsável em monitorar os deslocamentos horizontais de pontos dos blocos instrumentados da barragem em determinadas cotas, em relação à fundação da estrutura. Já o pêndulo invertido monitora os deslocamentos da fundação da barragem em relação ao contato concreto/rocha ou a alguma cota determinada no bloco de concreto. Neste estudo, avalia-se a implementação de um modelo de previsão do deslocamento de um bloco da barragem principal da Usina Hidrelétrica de Itaipu por meio do qual seja possível realizar a análise do comportamento da estrutura em torno deste bloco. Tais informações permitirão medidas corretivas em planos de execução e/ou tomada de decisões já adotadas por engenheiros e técnicos especialistas. Assim sendo, é proposta uma metodologia preditiva não-linear híbrida chamada de ArimaX-Garch Wavelet (AXGW) cujo objetivo é gerar previsões para uma série temporal de deslocamento de um bloco da Usina Hidrelétrica de Itaipu, localizada em Foz do Iguaçu, Paraná, Brasil.

2 REVISÃO DA LITERATURA

2.1 Decomposição Wavelet Seja y t 1, … , T uma série temporal de tamanho igual a T, onde T 1. Segundo (TEIXEIRA JUNIOR et al., 2015), uma decomposição wavelet de cada estado y é dada, genericamente, em (1)

y y y

1

Onde: (i) y : ∑ a , ϕ , t∈ e y : ∑ d , ω , t∈ são, respectivamente, as

componentes wavelet (CW) de aproximação de nível m e de detalhe de nível m do estado y ; (ii) a , e d , são, respectivamente, os coeficientes wavelet de aproximação (de níveis m e n)

e de detalhe (de níveis m e n), os quais são, respectivamente, definidos pelo produto interno usual entre y t 1, … , T e ϕ , . t 1, … , T - isto é, a , : ∑ f t ϕ , t ) - e entre y t 1, … , T e ω , t t 1, … , T - isto é, d , : ∑ f t ω , t -, onde m ,m, n ∈ ; e

V Simposio de Metodos Numericos Computacionais

124

(iii) ϕ , t : 2 ϕ 2 t n consiste em uma função escala gerada por superposições de

uma função escala original ϕ . , onde n,m ∈ ; e ω , . : 2 ω 2 . n , onde m, n ∈ , consiste em uma função wavelet gerada por superposições de uma função wavelet original ω . (MALLAT, 2009; TEIXEIRA JUNIOR et al., 2015). Em termos práticos, para decompor séries temporais, é usual se utilizar uma decomposição wavelet de nível r, a qual consiste, basicamente, na decomposição wavelet descrita em (1), com um truncamento na r-ésima componente de detalhe - onde é usual que m é assumido ser igual a r (Teixeira Jr et al., 2012). Com efeito, em uma decomposição wavelet de nível 2 (isto é, r = 2), onde o truncamento, em (1), ocorre na segunda componente de detalhe, adota-se m 2, de modo que o estado y é expandido tal como: y y y y +ε , em que ε é o erro de aproximação em t.

2.2 Modelo ArimaX-Garch Seja y t 1, … , T uma série temporal que exibe estrutura de autodependência linear. Baseado em BOX & TIAO (1975), cada estado y pode ser representado por um modelo ArimaX (p, d, q), conforme em (2).

y ∑ y ∑ θ e ∑ ∑ α x , e (2)

onde: B é o operador de atraso, definido por B y ≔ y , onde k pertence a ; ≔ 1 B é o

operador diferença, onde d é a ordem da diferenciação; e θ são listas ordenadas de

parâmetros complexos, com 0 e θ 0, e α é o parâmetro complexo associado à componente

exógena x , ; e é uma inovação no tempo t que consiste em uma realização de uma variável aleatória ε , onde ε t 1, … , T é um processo estacionário em média zero e covariância constante; e p e q são, respectivamente, as ordens da parte autoregressiva ∑ y (notação: AR(p)) e da parte de

médias móveis ∑ θ e (notação: (MA(q)); e L é a ordem máxima do lag em ∑ α x , da

variável exógena x , , onde i 1, … , r 1 . Note que o termo do erro e , em t, é a realização de uma variável randômica ε , com média zero e variância constante, isto é, σ σ . Em alguns casos a heteroscedasticidade pode depender dos valores observados do passado da série temporal ou de valores passados da sua variância, de tal modo que um modelo AR, bem como suas extensões, pode ser adaptado para projetar a variação temporal. Desta forma, incondicionalmente, a variância é constante, mas condicionada a esses valores passados, poderá mudar temporalmente. Um modelo vastamente utilizado em sua modelagem é o chamado o Heteroscedasticidade Condicional Autoregressiva (GARCH). Segundo BOLLERSLEV (1990), o modelo geral GARCH (P,Q) para a variância condicional σ de inovações ε é dado em (3).

σ γ ∑ γ σ +∑ δ e , (3)

Em (3), as seguintes restrições tem de ser atendidas: ∑ γ +∑ δ 1; γ 0; e γ 0 (j=1,…,P)

e δ 0 (i=1,…,Q) (HAMILTON, 1994). Um modelo composto por (2) e (3) é chamado modelo ArimaX-Garch. Assim, para se obter o melhor modelo ArimaX-Garch, três passos básicos devem ser executados: no passo 1, testar os valores plausíveis para os parâmetros p, d, q, I, L , em (2), e os parâmetros P e Q, em (3), baseado na meio da análise do gráfica das funções de autocorrelação simples e parcial dos erros de previsão padronizados ordinários, z t 1, … , T , e quadráticos, zt

2 t 1, … ,T (BOLLERSLEV, 1990; ENGLE, 1982); no passo 2, definir o método de estimação dos parâmetros do modelo ArimaX-Garch (o método mais comum é o de Máxima Verossimilhança (Hamilton, 1994)); e, no passo 3, analisar os testes de diagnósticos para validar (ou não) o modelo ArimaX-Garch estimado.

V Simposio de Metodos Numericos Computacionais

125

3 METODOLOGIA PROPOSTA

Seja y t 1, … , T uma série temporal com estrutura de autodependência linear e não-linear a ser projetada. A representação por meio de fluxograma do método AXGW é dado na Figura 1.

série temporal

(amostra de treino)

decomposição wavelet de nível r

componente wavelet de detalhe

de nível m0

componente wavelet de

aproximação de nível m0

componente de detalhe de nível

m0+(r‐1)

Arima‐Garch1

previsão fora da amostra

Arima‐Garch2

previsão fora da amostra

Arima‐Garchr+1

previsão fora da amostra

variável exógena

wavelet VEW1

variável exógena wavelet VEW2

variável exógena wavelet VEWr+1

modelo ArimaX‐Garch

Wavelet

previsões ArimaX‐Garch

Wavelet

...

...

...

Figura 1 - Fluxograma do método AXGWN.

Mais detalhadamente, o método AXGW consiste na execução dos seis passos a seguir. (1) realiza-se uma decomposição wavelet de nível r de y t 1, … , T , produzindo r+1, representadas pela lista

x , , … , x , ; (2) cada CW produzida no passo (1) é modelada, individualmente, por

meio de um modelo Arima-Garch, a fim de se gerar previsões fora da amostra; (3) As CWs do passo 1 são completadas pelas respectivas previsões geradas no passo 2, obtendo-se as Variáveis Exógenas Wavelet (VEWs), dotadas de informações da frequência espectral (MALLAT, 2009) associadas a y t 1, … , T ); (4) é feita a projeção da série temporal subjacente através de um modelo ArimaX-Garch utilizando as VEWs produzidas no passo (3); e (5) as previsões oriundas dos passos 4 são realizadas, para cada instante t, gerando as predições híbridas de y t 1, … , T .

V Simposio de Metodos Numericos Computacionais

126

4 RESULTADOS NUMÉRICOS

Nesta seção, os principais resultados numéricos de uma aplicação do modelo Arima-Garch tradicional (benchmark) e do método AXGWN (proposto) a uma série temporal de aferições diárias do deslocamento de um bloco da barragem da usina de Itaipu são mostrados. 4.1 Série temporal de deslocamento Uma série temporal de deslocamento físico de um bloco da barragem que abastece a usina hidrelétrica de Itaipu é modelada devido às suas propriedades estatísticas e à sua relevância. Na figura 2, o seu gráfico mostra o comportamento temporal das 2.023 observações, em intervalos diários, os quais foram coletados do sistema automatizado ADAS.

12

13

14

15

16

17

18

250 500 750 1000 1250 1500 1750 2000

Desloca

mento

(mm)

Figura 2 - Série temporal diária de deslocamento físico de um bloco da barragem da usina de Itaipu.

Foram utilizadas as 1658 primeiras observações, que compuseram a amostra de treino, para obtenção dos parâmetros ótimos dos dois métodos preditivos envolvidos, enquanto as observações subsequentes, com três horizontes de previsão distintos, formaram a amostra de teste (h=30, h=182 e h=365). Considerando o teste de raiz unitária de Augmented Dickey-Fuller (ADF) (Hamilton, 1994), não se rejeitou a hipótese nula de não estacionariedade de primeira ordem da série temporal em questão, ao nível de 1% de significância. Por outro lado, ao considerar a série transformada com a aplicação do logaritmo, seguida da diferenciação, rejeitou-se fortemente a hipótese nula, ao nível de 1% de significância. As funções de autocorrelação simples e parcial (Box et al., 2008), referidas aqui como FAC e FACP, respectivamente, de sua versão transformada, bem como de sua versão quadrática exibiu valores de autocorrelações simples e parciais significativas, ao nível de 1%, cuja volatilidade é capturada com o uso do modelo Arima-Garch. Uma vez que não havia variáveis exógenas adequadas disponíveis para serem usadas pelo modelo ArimaX-Garch, foi adotado o modelo Arima-Garch como benchmark. É importante salientar ainda que foram produzidas, pelos modelos Arima-Garch (benchmark) e AXGW (o qual é proposto aqui) somente previsões 1 passo à frente, para um horizonte de previsão iguais a 30, 182 e 365 passos à frente. Para os diagnósticos dos resíduos, na etapa de modelagem, foram utilizados os seguintes critérios: teste de Ljung-Box (para verificação de existência de autocorrelação significativa até o lag 36); estatística de Durbin-Watson (para analisar a evidência empírica de autocorrelação de lag 1); análises gráficas da FAC e da FACP (para visualizar, respectivamente, a presença de autodependência linear simples e parcial significativas, até o lag 36); teste ARCH (para verificação de evidência de heteroscedasticidade condicional significativa, até o lag 36) (HAMILTON, 1994). Todos os modelos Arima-Garch, bem como as suas análises residuais, foram executadas no software EViews 8 (www.eviews.com/). 4.2 Modelo Arima-Garch tradicional O modelo Arima-Garch com maior aderência à série temporal de deslocamento considerada foi o Arima-Garch (4,1,4) (1,1), com transformação logarítmica seguida por dupla diferenciação. Todas as estimativas de máxima verossimilhança seus parâmetros, tanto da equação da média condicional e

V Simposio de Metodos Numericos Computacionais

127

quanto da variância condicional, foram estatisticamente significativas, ao nível de 1% e satisfaziam às condições de estacionariedade e invertibilidade. Em todos os testes residuais, aceitou-se a hipótese de inexistência de autocorrelação nos resíduos padronizados ordinários e quadráticos, a 1% de significância - o que significa que o modelo Arima-Garch capturou uma estrutura de autodependência plausível. Em particular, a estatística Durbin-Watson, calculada a partir dos resíduos ordinários padronizados, obteve valor igual a 2.065517, que sugere a inexistência de autocorrelação de lag 1 (por ser muito próxima ao valor referência 2). Salienta-se ainda que, dentre todos os modelos Arima-Garch plausíveis identificados, foram adotadas, como critério de seleção, as seguintes estatísticas de aderência, na amostra de treinamento: Absolute Percentage Error (APE), Mean Absolute Percentage Error (MAPE), Mean Absolute Error (MAE) e explanation coefficient (R2) (HAMILTON, 1994). 4.3 Método AXGW Para a implementação do método AXGW, foi utilizado o software MATLAB versão 2013a (www.mathworks.com/) e o software EViews 8 (www.eviews.com/). Primeiramente, foi realizada, no MATLAB, uma decomposição wavelet de nível 2 da amostra de treino da série temporal t 1, … ,1658 de deslocamento em questão, de maneira a gerar: uma CW de aproximação de

nível 2, a qual é denotada por A2,t t 1, … ,1658 ; duas CWs de detalhes de níveis 2 e 3, as quais são denotadas, respectivamente, por D2,t t 1, … ,1658 e D ,t t 1, … ,1658 . Para tal, foram utilizadas as funções originais escala ϕ . e wavelet ω . da família de Daubechies com momento nulo igual a 40 (Mallat, 2008). O critério de escolha da família wavelet foi baseado na minimização de ∑ ε , onde: A2,t 2,t ,t ε , para todo t=1,...,1658. Foram testadas as famílias de Daubechies de momento nulo igual a 1 até 40 (ou seja, 40 diferentes famílias). No passo 2 do método AXGW, cada uma das três componentes wavelet , , , e , t 1, … ,1658 foi modelada usando um modelo Arima-Garch (descrita na seção 2.2), a fim de se

produzir as seguintes sequências de previsões para cada um dos horizontes de previsão: y , , y , e y , t 1658,… , h (para h=30, h=182 e h=365). No passo 3, as três componentes wavelet do passo 1 são completadas pelas h previsões geradas no passo 2, gerando as três componentes wavelet completadas (denotadas por y , , , y , , e y , , ou, equivalentemente, por x , x e x ). Estas são interpretadas como se fossem, de fato, variáveis exógenas convencionais. No passo 4, por sua vez, tais variáveis exógenas artificiais wavelet são utilizadas em um modelo Arima-Garch. A sua componente ArimaX é dada por: y 0,118616x , 0,160258x , 0,160258x , 0,015052x ,

0,076524x , 0,295753y 0,413187y 0,367060y 0,303136y0,0746118e 0,041489e 0,094745e 2,285675σ . 4 Note, em (4), que todas as três variáveis exógenas artificiais wavelet obtidas no passo 2 foram utilizadas, porém na sua forma defasada. Além disso, a previsão da variância σt

2, gerada no modelo (5), fornece um efeito redes neurais artificiais para a construção da previsão da média condicional yt. Por sua vez, a sua componente Garch é dada pelo modelo Garch (1,1), com distribuição GED (Hamilton, 1994) para os resíduos padronizados, a qual é dada em (5).

σt2 0,00000154 0.252298 et 1

2 0.612211σt 12 . (5)

O método da Máxima Verossimilhança (veja MILLAR, 2011) foi usado para se obter as estimativas do modelo Arima-Garch, em (4) e (5). Todas as estimativas foram estatisticamente significantes, ao nível de 1%, e satisfaziam às condições de estacionariedade e invertibilidade. Foram analisadas as funções FAC e a FACP (até o lag 36) dos resíduos padronizados ordinários e quadráticos. Em todos os lags até 36, os valores de autocorrelação simples e parcial permaneceram dentro dos intervalos de confiança, com 99% de credibilidade, o que sugere autocorrelações não diferentes de zero, a 1% de significância. Baseado na estatística de Ljung-Box sobre os resíduos padronizados ordinários, na amostra de treino, verificou-se que não havia evidência de

V Simposio de Metodos Numericos Computacionais

128

autodependência linear e quadrática significativas, ao nível de 1%, até a defasagem 36. O teste Arch confirmou inexistência de evidência empírica, ao nível de 1% de significância, de heteroscedasticidade nos resíduos padronizados ordinários de treino, até o lag 36. Por fim, a estatística Durbin-Watson foi 2.035487 sugere, empiricamente, a inexistência de autocorrelação de lag 1, nos resíduos padronizados, na amostra de treino. 4.4 Comparativos de Desempenho A Tabela 1 fornece os valores obtidos pelas estatísticas de aderência MAPE e MAE, nas amostras de treinamento e de teste.

Tabela 1 - Performance de previsões dos Arima-Garch e AXGWN.

MÉTODO MAPE MAE

Dentro da Amostra

Fora da Amostra

Dentro da Amostra

Fora da Amostra

Arima-Garch (h=30) 0,78% 3,64% 0,020 0,096 AXGW (h=30) 0,71% 1,27% 0,018 0,033

Arima-Garch (h=182) 0,32% 5,39% 0,048 0,779 AXGW (h=182) 0,20% 0,24% 0,030 0,035

Arima-Garch (h=365) 0,32% 12,06% 0,048 1,798 AXGW (h=365) 0,19% 2,53% 0,029 0,040

Note, na Tabela 1, que o método AXGW obteve melhor desempenho preditivo em relação ao modelo Arima-Garch, tanto dentro da amostra (amostra de treino) e quanto fora da amostra (amostra de teste). É desejável que as previsões sejam as mais acuradas possíveis para que os processos decisórios operacionais e financeiros, que por sinal são grandes, sejam executados no momento correto. Salienta-se que a execução de ações operacionais de reparos na barragem ou de investimentos desnecessários ou em períodos inoportunos, pode acarretar, dentre outras coisas, em altas perdas financeiras. A Figura 3 mostra o gráfico dos Erros Percentuais Absolutos (APEs) calculados para h=365 previsões fora da amostra, para ambos os modelos. Note que o modelo AXGWN mostra que os APEs foram baixos do que o modelo Arima-Garch na maioria dos 365 pontos; além de apresentar maior estabilidade (isto é, menores “picos”) na flutuação dos erros. Por fim, o APE máximo do modelo Arima-Garch foi aproximadamente igual a 27,62%, enquanto que o APE máximo do AXGWN foi 5,79%. Em termos do coeficiente R2 (que mede a variabilidade explicada pelos modelos, na amostra de treinamento), o modelo Arima-Garch obteve R 0,131408 e o AXGWN, de R 0,548725.

Figura 3 – Comparação da evolução temporal do APE, na amostra de teste, dos métodos Arima-Garch e AXGW.

0,00%

5,00%

10,00%

15,00%

20,00%

25,00%

30,00%

1

12

23

34

45

56

67

78

89

100

111

122

133

144

155

166

177

188

199

210

221

232

243

254

265

276

287

298

309

320

331

342

353

364

APE

Horizonte de Previsão

AXGW Arima‐Garch

V Simposio de Metodos Numericos Computacionais

129

5 CONCLUSÕES

Neste artigo, é proposto um novo método preditivo híbrido, designado por ArimaX-Garch Wavelet, para a previsão de séries temporais de deslocamento de blocos de barragem que utiliza variáveis exógenas wavelet (obtida a partir da decomposição wavelet da série subjacente), como se fossem, de fato, variáveis exógenas. Este método foi utilizado para a modelagem da série temporal diária, oriunda das aferições do pêndulo em um dos blocos da barragem principal da Usina de Itaipu, que possibilitou inserir informações (decodificadas no domínio do tempo) da frequência espectral (Souza et al., 2015) presente nos dados na modelagem para a construção das previsões. De fato, as previsões agregaram informações provenientes das estruturas lineares (por meio do modelo Arima), não-lineares (via modelo Garch) e da frequência espectral (por meio da utilização das CWs como variáveis exógenas) exibidas pela série temporal subjacente. Com efeito, o método proposto foi mais preciso que o tradicional modelo Arima-Garch. A utilização das componentes wavelet se tornou viável uma vez que as de detalhe são sempre um processo estacionário de segunda ordem (o que é requerido para as variáveis exógenas da modelagem ArimaX). Além disso, a de aproximação pode ser modelada por um Arima-Garch sempre que a série de tempo original também for capaz de sê-lo. Ainda, as componentes wavelet, bem como as suas versões defasadas, tendem a apresentar autocorrelação com a série temporal original, uma vez que são obtidas a partir desta. Por fim, salienta-se também que o método proposto pode ser operacionalizado de uma forma relativamente simples, com a utilização dos software mencionados no texto.

REFERÊNCIAS

BOLLERSLEV, T., 1990. Generalized Autoregressive Conditional Heteroscedasticity. Journal of Econometrics, 31, pp.307–327. BOX, G.E.P., Jenkins, G.M. and Reinsel, G.C., 2008. Time Series Analysis: Forecasting and Control. 4th ed. ed. Hoboken, NJ: Wiley. BOX, G.E.P. and TIAO, G.C., 1975. Intervention Analysis with Applications to Economic and Environmental problems. Journal of American Statistical Association, 70(349), pp.70–79. ENGLE, R.F., 1982. Autoregressive Conditional Heteroscedasticity with Estimates of the Variance of United Kingdom Inflation. Econometrica, vol. 50(No. 4), pp.987–1007. HAMILTON, J., 1994. Time Series Analysis. Princeton University Press. ITAIPU, 2009. Usina Hidrelétrica de Itaipu: Aspectos de Engenharia. Foz do Iguaçu: TAB Marketing Editurial. ITAIPU, 2014. Energia hidráulica. [online] Available at: <https://www.itaipu.gov.br/energia/energia-hidraulica> [Accessed 8 May 2014]. ITAIPU, 2015. Nada escapa ao setor que ‘respira’ segurança de barragem. [online] Available at: <http://jie.itaipu.gov.br/print_node.php?secao=turbinadas1&nid=11685> [Accessed 3 May 2015]. MALLAT, S., 2008. A Wavelet Tour of Signal Processing: The Sparse Way. Third Edit ed. MILLAR, R.B., 2011. Maximum Likelihood Estimation and Inference: With Examples in R, SAS and ADMB. Wiley. SOUZA, A.C.C. de, RODRIGUES, A.L. and PACHECO, D.A. de J., 2015. Métodos quantitativos de previsão de demanda aplicados em orçamento de despesas. Revista ESPACIOS, 36(10). TEIXEIRA JÚNIOR, L.A., MENEZES, M.L. de, CASSIANO, K.M., PESSANHA, J.F.M. and SOUZA, R.C., 2012. Modelagem Box e Jenkins, decomposição wavelet e programação matemática na geração de previsões. XV Simpósio de Pesquisa Operacional e Logística da Marinha. TEIXEIRA JÚNIOR, L.A., SOUZA, R.M., MENEZES, L.M., CASSIANO, K.M., PESSANHA, J.F.M. and SOUZA, R.C., 2015. Artificial Neural Network and Wavelet decomposition in the Forecast of Global Horizontal Solar Radiation. Sobrapo, 35(1), pp.1–16.

V Simposio de Metodos Numericos Computacionais

130

V Simposio de Metodos Numericos Computacionais

UMA DISCUSSÃO SOBRE H-ADAPTATIVIDADE NO MÉTODO DOS

ELEMENTOS FINITOS APLICADO AO PROBLEMA DE VIGA DE EULER-

BERNOULLI

Resumo: O corrente trabalho discute a análise de erros de aproximação, suas estimativas e a

adaptatividade da malha quando da aplicação do Método dos Elementos Finitos. Para tanto, utiliza o

problema de viga de Euler-Bernoulli. A estimativa dos erros baseia-se na recuperação das derivadas

de ordem superior. São empregados os seguintes estimadores: estimador fundamentado na Média

Nodal Simples e estimador Superconvergent Patch Recovery. A solução do problema unidimensional

de flexão de vigas finas é obtida utilizando elemento de 2 nós e 2 graus de liberdade por nó. Com o

cálculo do erro, utiliza-se um processo h-adaptativo para gerar malhas com vistas a satisfazer o

critério de malha ótima de erro uniforme e não superior ao erro admissível. Através de exemplos

numéricos é realizada uma análise comparativa entre os diferentes estimadores no contexto de um

processo h-adaptativo.

Palavras-Chave: Método dos Elementos Finitos, H-adaptatividade, Estimadores de erro a posteriori.

1 INTRODUÇÃO

Muitos métodos numéricos são empregados atualmente, entre eles, o Método das Diferenças Finitas,

Método de Elementos de Contorno, Método de Elementos Finitos (MEF) etc.. No presente trabalho,

é utilizado o MEF, no qual a presença de erros numéricos é inevitável e as questões fundamentais

são: Quais são os erros relativos ao MEF? Como o erro pode ser medido, controlado e efetivamente

minimizado?

Os erros introduzidos na solução do MEF de uma dada equação diferencial podem ser atribuídos a

três razões principais (REDDY, 2006): Erro de aproximação de domínio, erros de aritmética finita e

quadratura e erros de aproximação.

As estimativas de erros de aproximação podem ser divididas, em geral, em duas categorias

principais: estimativas de erro a priori e estimativas de erro a posteriori (AINSWORTH e ODEN,

2000). Esta estimativa permite o cálculo dos erros locais, possibilitando o emprego de estratégias

adaptativas que conduzam a um erro limitado ao longo do domínio.

Neste contexto, o corrente trabalho trata da análise de erros de aproximação, suas estimativas e a h-

adaptatividade da malha, utilizando o MEF para resolver um problema de viga fina segundo a teoria

de Euler-Bernoulli, no qual a seguinte discussão é posta: Matematicamente sabe-se que os erros

dominantes ocorrem na derivada superior de uma dada equação diferencial, nesse caso, na terceira

derivada da solução. Por outro lado, fisicamente, o corrente problema é caracterizado por possuir a

grande maioria de sua energia de deformação ocasionada por tensões de flexão, a qual é proporcional

ao momento fletor, ou seja, proporcional à segunda derivada da solução a menos de uma constante.

Dessa maneira, propõem-se duas formas de análise. A primeira refere-se a avaliar dois estimadores

Jederson da Silva, Francielly Elizabeth de Castro Silva,Jucelio Tomas Pereira, Joao do Carmo Lopes Goncalves

131

de erros (estimador fundamentado na Média Nodal Simples (MNS) e estimador Superconvergent

Patch Recovery (SPR)) aplicados para guiar um processo h-adaptativo baseado na seminorma de

ordem três do erro elementar. A segunda busca conduzir o processo h-adaptativo com base na

seminorma de ordem dois do erro elementar.

2 FUNDAMENTAÇÃO TEÓRICA

Nesta seção é apresentada uma breve fundamentação teórica referente aos estimadores de erro, ao

processo h-adaptativo e ao critério de malha ótima.

2.1 Problema de Viga de Euler-Bernoulli

O corrente problema trata da flexão de viga fina elástica e linear segundo a teoria de Euler-Bernoulli.

O objetivo é encontrar a função deflexão da viga w(x) que satisfaça um problema de valor de

contorno (PVC), posto como (REDDY, 2006):

2 2

1

2 2

o L o L

x 0 x L

d d wEI f , para x Ω 0, L R

dx dx

dw dww(0) w , w(L) w , r e r ,

dx dx

(1)

onde, L é o comprimento total da viga, I é o momento de inércia da seção transversal, E é o módulo

de elasticidade longitudinal do material, 0 Lr e r são rotações prescritas nas extremidades da viga, ow

e Lw são deflexões prescritas nas extremidades da viga e f f x é uma função carregamento

transversal à viga definido na forma de força por unidade de comprimento.

Uma maneira alternativa de apresentar o PVC posto anteriormente, é através de sua forma

variacional equivalente:

2

2 22

02 2

(x) H

d w d

Encon

vEI d f vd , v H .

dx d

trar w que satis z

x

fa

(2)

onde o termo a esquerda e a direita da Eq. (2) representam, respectivamente, a forma bilinear

contínua associada ao problema definida em 2 2H x H e um funcional contínuo e linear. Além disso,

v é uma função de variação cinematicamente admissível e 2H é o espaço de funções de Hilbert de

segunda ordem com suporte compacto em Ω .

2.2 Estimador de Erro

Por simplicidade, toda a formulação aqui apresentada faz referência a terceira derivada das

deflexões, sendo aplicada posteriormente também considerando a segunda derivada da solução.

Assim, a derivada de terceira ordem das deflexões elementares obtidas via MEF ( V ) é dada por

ˆ ˆ ,V Dw (3)

onde D representa a matriz da terceira derivada das funções de forma e w é o vetor de deflexões

elementares.

O erro de aproximação pode ser calculado através da diferença entre a solução analítica ( w ) e a

solução aproximada ( w ) obtida pelo MEF, sendo, expresso por (ZIENKIEWICZ e TAYLOR, 2000)

ˆe w w. (4)

Para se obter uma medida escalar do erro, adota-se a seminorma de ordem três do erro elementar:

V Simposio de Metodos Numericos Computacionais

132

T2

.ˆ ˆe d

V V V V (5)

A variável supracitada ( V ) é a função de terceira derivada das deflexões obtida analiticamente.

Uma maneira de quantificar o erro medido pela seminorma é o erro relativo percentual, , dado por

e

100,u

(6)

onde a energia total acumulada u é obtida como

2 T .u d

V V (7)

Como as soluções analíticas não são conhecidas, busca-se empregar uma solução com uma taxa de

convergência superior à solução gerada diretamente pelo MEF, a qual é denominada de solução

recuperada e representada por *V . Assim, o estimador de erro torna-se

T2

* * *ˆ ˆe d

V VV V . (8)

A qualidade dos estimadores de erro, geralmente, é medida pelo índice de efetividade ( ), dado pela

razão entre o erro estimado e o erro verdadeiro.

2.3 Método das Médias Nodais Simples (MNS)

Considerando que cada nó é conectado a um total de noNel elementos, pode-se estimar o vetor de médias

nodais da terceira derivada das deflexões recuperadas (*

nV ) como (ZIENKIEWICZ e ZHU, 1987)

no

*

n

Nel

ii 1no

.1 ˆ

Nel

V V (9)

Um campo suavizado que é contínuo entre os elementos pode ser construído através das mesmas

funções de interpolação utilizadas para interpolar as deflexões. Dessa forma, o campo suavizado

sobre um elemento qualquer pode ser posto como

* *n .V V (10)

onde *V é o vetor da terceira derivada da deflexão recuperada no elemento.

2.4 Método Superconvergent Patch Recovery (SPR)

A ideia básica deste método, introduzido por ZIENKIEWICZ e ZHU (1992a, 1992b), é idêntica à

empregada pelo estimador MNS, ou seja, estima o erro através de um campo suavizado e contínuo ao

longo de todo o domínio, obtido através da Eq. (10).

O SPR obtém um polinômio que aproxima, neste caso, a terceira derivada da deflexão e define os

valores recuperados nos nós utilizando um ajuste por mínimos quadrados de soluções obtidas nos

pontos superconvergentes. No desenvolvimento do SPR é necessário utilizar o conceito de padrões,

os quais são definidos pelos elementos que estão conectados a um mesmo nó.

De acordo com ZIENKIEWICZ e ZHU (1992a, 1992b), a solução recuperada da terceira derivada da

deflexão, pode ser escrita como

*n 1, x V pa a , (11)

sendo os coeficientes do polinômio p dados por

V Simposio de Metodos Numericos Computacionais

133

T

1 2a , a a . (12)

Estes coeficientes são obtidos pela minimização da distância quadrática entre este polinômio e os

valores da terceira derivada da deflexão nos pontos de Gauss dos elementos que compõe o padrão

para o nó. Tendo determinados os coeficientes do polinômio, substituem-se as coordenadas do nó

central do padrão na Eq. (11) para calcular os valores nodais da terceira derivada da deflexão *

nV .

Com isso, emprega-se a Eq. (10) para obter a distribuição da terceira derivada da deflexão ao longo

de todo o conjunto de elementos.

2.5 Malha h-adaptativa

Através dos estimadores de erro descritos, um processo h-adaptativo é iniciado. Neste, espera-se que

o erro relativo percentual para uma malha k , seja menor ou igual a um valor admissível .

Assim, tomando uma malha k , onde k , busca-se uma nova malha k 1 tal que k 1

.

Como critério de malha ótima, este trabalho emprega equidistribuição do erro elementar, do qual o

novo tamanho de cada elemento pode ser posto como (ZIENKIEWICZ e ZHU, 1987):

1

p

oldnew hh , sendo el,old el,new

e e . (13)

onde oldh e

el,olde são respectivamente, o tamanho e o erro do elemento corrente e

el,newe é o

erro para um elemento el na malha k 1 . Neste caso, é um parâmetro de erro local elementar que

indica se a malha será refinada 1 ou não 1 . O erro admissível para cada elemento é

calculado como

11222 22*

el,new,

u e ue

Nel Nel

(14)

onde *e é o erro total na seminorma e dado por

Nel2 2

* *

elel 1

e e ,

(15)

e u é a medida da energia total acumulada (obtida via MEF).

Com o objetivo de controlar uma possível grande oscilação no tamanho dos elementos (FANCELLO

e FEIJÓO, 1992), o parâmetro de refinamento é atualizado como posto abaixo:

ie

ie ie ie

ie

ie ie ie

1, para 1.

21

, para 1.4

(16)

3 EXEMPLOS NUMÉRICOS

Neste exemplo, a solução aproximada do PVC dado pela Eq. (1) é definida em função dos seguintes

parâmetros escalares: 6 4I = 50.10 m , E 200 GPa e L 2 m . As condições de contorno

caracterizam uma viga biengastada ( o Lr r 0 e o Lw w 0 ). O carregamento externo distribuído,

f , é definido tal que a solução analítica w seja dada por uma modificação da solução analítica

proposta por ZIENKIEWICZ e TAYLOR (2000). Nesse caso,

V Simposio de Metodos Numericos Computacionais

134

1w x x 2 x tan x 1 , onde = 3 . (17)

A estrutura computacional foi programada utilizando o software Matlab. Em geral, considera-se que

uma solução é convergente caso satisfaça dois critérios, um critério global ( k 1 ) e outro local

( 1 ). Aqui é considerado um único critério de parada como definido por OÑATE e BUGEDA

(1993) que procura atender ambos os critérios simultaneamente. Neste caso, espera-se que o

parâmetro de refinamento elementar, o qual é definido pela multiplicação do parâmetro de erro

global pelo parâmetro de erro local elementar, esteja abaixo da unidade (no corrente estudo,

considera-se 1,2 como o máximo valor admissível).

A avaliação da eficiência dos vários estimadores aplicados ao processo adaptativo é conseguida

através de uma comparação entre variáveis que caracterizam o processo como: número de graus de

liberdade ( NGL ), erro relativo global percentual em terceira e segunda derivada ( 3 e 2 ), índice de

efetividade global ( ), desvio do índice de efetividade ( D ) e máximo parâmetro de refinamento

elementar ( ie,máx ). Entende-se por desvio de índice de efetividade, uma medida escalar que

considera todos os índices de efetividades elementares, expressa por:

el

2N

ie

ie 1

D 1 N,

(18)

onde ieθ é o índice de efetividade elementar (para uma estimativa ideal D = 0).

São empregados os parâmetros iniciais: recuperação do erro na terceira derivada da solução, malha

uniforme com oito elementos e = 1%. As soluções iniciais e convergentes (vista ampliada na

região de maior oscilação da solução, ou seja, no centro da viga) podem ser visualizadas na Figura 1

e 2. Os resultados das iterações do processo adaptativo são fornecidos na Tabela 1.

Tabela 1 - Resultados para recuperação da terceira derivada da solução.

Estimador Malha 1 Malha 2 Malha 3 Malha 4 Malha 5

Média Nodal Simples

(MNS)

*

3 46,76% 10,98% 2,93% 1,40% 0,74%

0,7161 1,0456 1,0047 1,0018 1,0009

NGL 18 62 150 282 502

ie,máx 67,95 22,20 4,50 2,30 0,87

D 3,92 1,34 0,80 0,20 0,31

2 7,7973% 0,2603% 0,0286% 0,0094% 0,0032%

Superconvergent

Patch Recovery (SPR)

*

3 46,76% 10,98% 2,94% 1,40% 0,75%

0,7161 1,0463 1,0115 1,0090 1,0029

NGL 18 62 150 282 498

ie,máx 67,95 22,20 4,62 2,38 0,90

D 3,92 1,33 0,84 0,22 0,48

2 7,7973% 0,2603% 0,0280% 0,0092% 0,0033%

Além da eficiência de ambos os estimadores percebe-se que o erro relativo percentual global em

terceira derivada obtido pelos respectivos estimadores (*

3 ) é maior do que o erro relativo percentual

global analítico em segunda derivada ( 2 ).

V Simposio de Metodos Numericos Computacionais

135

(a) (b)

Figura 1 –Resultados para função terceira derivada e estimador MNS. Malha: (a) Inicial. (b) Após convergência.

(a) (b)

Figura 2 –Resultados para função terceira derivada e estimador SPR. Malha: (a) Inicial. (b) Após convergência.

Por fim, os seguintes parâmetros são utilizados: recuperação na segunda derivada da solução, malha

uniforme com oito elementos e = 1%. A solução inicial e convergente (vista ampliada com centro

em 0,775 metros) pode ser visualizada na Figura 3. Os resultados das iterações do processo

adaptativo são demonstrados por meio da Tabela 2.

(a) (b)

Figura 3 –Resultados para função segunda derivada e estimador SPR. Malha: (a) Inicial. (b)Após convergência.

Neste caso, o estimador MNS não é aplicado para a abordagem baseada na segunda derivada da

solução, pois este estimador não apresenta bons índices de efetividade quando a recuperação de uma

V Simposio de Metodos Numericos Computacionais

136

solução quadrática é necessária (SILVA, 2015).

Tabela 2 – Resultados para recuperação da segunda derivada da solução.

Estimador Malha 1 Malha 2 Malha 3

Superconvergent

Patch Recovery

(SPR)

*

2 9,79% 0,90% 0,49%

1,2574 1,0138 1,0065

NGL 18 30 38

ie,máx 18,65 1,43 0,67

D 5,43 0,34 0,21

3 59,45% 18,62% 13,09%

4 CONCLUSÕES

O presente trabalho mostra que, caso o erro em terceira derivada, ou seja, o erro medido no esforço

cortante a menos de uma constante, seja desprezado, a utilização da adaptatividade na segunda

derivada da solução pode tornar-se interessante, uma vez que para o mesmo erro admissível, a malha

adaptada possui uma redução do número de graus de liberdade. Para isso deve-se utilizar um

estimador baseado em padrões, como o SPR. Por outro lado, em casos onde o esforço cortante gera

uma parcela representativa da energia total do sistema (embora, do ponto de vista físico, essa energia

tenha sido desprezada quando da aplicação do modelo de Euler-Bernoulli), matematicamente a

recuperação da terceira derivada da solução pode ser utilizada, pois garante um erro menor do que o

admissível, além deste ser várias ordens de grandeza abaixo do erro obtido pela segunda derivada da

solução. Nesse caso, qualquer um dos estimadores aqui discutidos mostra-se apto a guiar o processo

h-adaptativo. Os resultados obtidos deste estudo inicial aplicado ao problema de flexão de viga de

Euler-Bernoulli podem servir como base para que esta abordagem de h-adaptatividade seja estendida

a problemas de placas, cuja aplicação no campo da engenharia é também relevante.

REFERÊNCIAS

AINSWORTH, M., ODEN, J. T., A Posteriori Error Estimation in Finite Element Analysis. 1. ed.

John Wiley and Sons, 2000.

FANCELLO, E. A., FEIJÓO, R. A., Adapte: estimador de erro para problemas planos em

elasticidade linear. Mecânica Computacional, 13, Bariloche, Argentina, 1992.

ONÃTE, E., BUGEDA, G., A study of mesh optimality criteria in adaptive finite element analysis.

Engineering Computations, 10:307–321, 1993.

REDDY, J. N., An Introduction to the Finite Element Method. 3. ed. McGraw Hill, 2006.

SILVA, J., Análise de estimadores de erro a posteriori aplicados ao método dos elementos finitos

utilizando refino h-adaptativo. Dissertação (Mestrado em Engenharia Mecânica) – Setor de Ciência e

Tecnologia, Universidade Federal do Paraná, 2015.

ZIENKIEWICZ, O. C., TAYLOR, R. L., The Finite Element Method - Volume 1: The Basis, 5ª ed.

Butterworth Heinemann, 2000.

ZIENKIEWICZ, O. C., ZHU, J. Z., A simple error estimator and adaptive procedure for practical

engineering analysis. International Journal for Numerical Methods in Engineering, 24:333-357,

1987.

ZIENKIEWICZ, O. C., ZHU, J. Z., The superconvergent patch recovery and a posteriori error

estimates, Part 1: The recovery technique. International Journal for Numerical Methods in

Engineering, 33:1331-1364, 1992a.

ZIENKIEWICZ, O. C., ZHU, J. Z., The superconvergent patch recovery and a posteriori error

estimates. Part 2: Error estimates and adaptivity. International Journal for Numerical Methods in

Engineering, 33:1365–1382, 1992b.

V Simposio de Metodos Numericos Computacionais

137

V Simposio de Metodos Numericos Computacionais

Resolução do problema do Caixeiro Viajante através de uma máquinade Boltzmann modificada

Resumo: A resolução do problema do caixeiro viajante através da máquina de Boltzmann é altamente paraleli-zável e, consequentemente, pode ser executada rapidamente. No entanto, a abordagem tradicional para modelaro problema através dos neurônios e suas conexões na rede neural apresenta algumas dificuldades na convergênciaapós um ciclo válido ter sido encontrado. Uma segunda etapa de treinamento é proposta e implementada nestetrabalho e é constatado que, utilizando esta modificação, a rede neural é mais consistente e produz melhores resul-tados.

Palavras-Chave: Redes neurais artificiais, Máquina de Boltzmann, Caixeiro Viajante

1 INTRODUÇÃO

O problema do caixeiro viajante, por ser de difícil resolução e possuir uma alta aplicabilidade, é umdos problemas mais estudados da logística e da ciência da computação. O caixeiro viajante é um pro-blema combinatório de otimização e pertence a classe NP-difícil, ou seja, acredita-se, segundo maiorparte dos pesquisadores da área, que não exista uma solução computacional genérica e exata que custetempo computacional polinomialmente dependente do tamanho da especificação (instância) deste pro-blema (BARTAL, et al. 2012).

Diversos métodos de aproximação foram desenvolvidos para o problema do caixeiro viajante. Taismétodos têm a característica de serem mais rápidos do que as técnicas de solução exata, porém nãogarantem a otimalidade da solução. Para o problema do caixeiro viajante métrico, um dos esquemas deaproximações mais antigo, foi desenvolvido por CHRISTOPHIDES (1976), onde a resposta do métodose possui uma distância de no máximo 50% da solução ótima.

O uso de redes neurais artificiais (RNAs) para resolver problemas difíceis, particularmente da classeNP-difícil, pode ser abordado de diversas maneiras. BRUCK E GOODMAN (1990) utilizaram umarede neural em que cada nó realiza uma operação lógica (e, ou e negação). No entanto a existência deuma rede de tamanho polinomial no tamanho da instância do problema, ao contrario do que a maioriadas pesquisas indica, implicaria que existe uma solução de custo polinomial para todos os problemas daclasse NP .

A abordagem por uma rede neural probabilística e altamente paralelizável, como a máquina de Boltz-mann, possibilita uma implementação da rede em um tamanho fixo, geralmente quadrática em relaçãoao tamanho da instância. A máquina de Boltzmann foi utilizada em diversas áreas, desde representaçãode conhecimento até reconhecimento de padrões e otimização combinatória (AARST E KORST, 1987;AARST E KORST, 1989).

Joao Furtado Resende, Michael Mannich

138

O objetivo desta pesquisa é resolver o problema do caixeiro viajante através da máquina de Boltz-mann através uma modificação no treinamento da rede neural que auxilia na busca por melhores ciclos.Também foi analisada a capacidade da RNA, com e sem a modificação, de achar ciclos próximos ouiguais ao ótimo para instâncias geradas pseudoaleatóriamente.

2 METODOLOGIA

2.1 Caixeiro ViajanteO problema do caixeiro viajante consiste em uma busca por uma rota com o menor custo que passe

por todos os pontos (cidades) de um conjunto e volte para o ponto de partida. Quando o custo associadoa transição de um ponto para o outro obedece a desigualdade triangular, como é o caso quando o custo érepresentado pela distância euclidiana, o problema é dito caixeiro viajante métrico.

No problema do caixeiro viajante métrico euclidiano, todas as cidades são conectadas entre si e asdistâncias entre as cidades i e j, que é, por definição, igual a distância de j para i, são denotadas por dij .A resposta ao problema consiste em um ciclo (i1, i2, . . . , iN , i1), onde ik 6= il, para todo k e l, tal que asoma

∑n−1k=1 dikik+1

+ diN i1 é mínima.2.2 Máquina de Boltzmann

A máquina de Boltzmann utiliza unidades de estado com valores binários e transições probabilísticasentre estados. A configuração k da máquina é dada pelos valores das N unidades binárias Xi. O valorde uma unidade Xi em uma dada configuração k é denotado por xi.

Nesta aplicação da rede, os pesos wij não variam e representam o impacto, negativo ou positivo,de que ambas as unidades Xi e Xj estejam ligadas. As conexões são representadas de maneira nãodirecional, ou em outras palavras, wij = wji, para todo 1 ≤ i, j ≤ N . Ligações de uma unidade com elamesma também são permitidas, ou seja, wii podem ser não nulas.

O consenso C, ou função objetivo, da rede, dado pela Equação 1, representa a desejabilidade geral,ou qualidade, da rede.

C =n∑

i=1

n∑

j=i

wijxixj (1)

A máquina de Boltzmann busca, através da mudança entre estados, a maximização deste consensoC. O ganho ou perda ∆Ci de qualidade pela mudança no estado de uma dada unidade Xi é dado pelaEquação 2.

∆Ci = (1− 2xi)

(wii +

N∑

j=1,j 6=i

wijxixj

)(2)

A probabilidade de que uma dada unidade Xi troque de estado é dada pelo ganho (ou perda) deconsenso ∆Ci e pela temperatura da rede T . A temperatura da rede é alterada segundo a técnica detêmpera simulada, do inglês simulated annealing, que é analoga ao processo utilizado na produção demetais fortes, onde o metal é gradualmente resfriado para evitar imperfeições na estrutura cristalina dometal devido ao congelamento (AARST E KORST, 1989).

Tal redução na temperatura da rede é feita de diversas maneiras, sendo as principais delas as reduçõeslogarítmica e a exponencial (Equação 3).

Te = αeT0 (3)

onde e ∈ N indica a época de treinamento da rede, T0 indica a temperatura inicial arbitrária e α ∈ (0, 1).A probabilidade Ae

i ∈ [0, 1] de troca de estado para uma dada unidade Xi na época e é dada pelaEquação 4. Após calculada esta probabilidade, um número pseudoaleatório unifermemente distribuidor ∈ [0, 1] é selecionado e caso r ≤ Ae

i , a unidade Xi troca de estado.

Aei =

[1 + exp

(−∆Ci

Te

)]−1(4)

V Simposio de Metodos Numericos Computacionais

139

Como, no decorrer do treinamento, a temperatura da rede diminui, o cálculo da probabilidade de trocade estado se reduz para 0 nos casos em que a mudança no consenso total é negativa e 1 para os casosem que a mudança é positiva. Portanto, com o decorrer do treinamento, a rede gera menos transições deestados que representam riscos (∆Ci < 0), se assemelhando a um algorítmo de busca gulosa, na qual atroca de estados só é feita quando há um ganho no consenso, possibilitando que a busca permaneça emmáximos locais.2.3 Aplicação da Máquina de Boltzmann ao Problema do Caixeiro Viajante2.3.1 Estrutura Básica

Para resolver o problema do caixeiro viajante através da rede neural probabilística de Boltzmann éadotada uma distribuição matricial dos neurônios da rede, na qual as linhas representam as diferentescidades e as colunas representam a ordem de visita às cidades. Como busca-se visitar todas as cidades, amatriz de neurônios possui dimensão N ×N , onde N é o número de cidades. Tal estrutura foi adaptadade FAUSETT (1994).

Dado que o objetivo é que apenas uma cidade seja percorrida em um dado passo de tempo, é necessá-rio que apenas um neurônio esteja ligado em cada coluna da matriz de neurônios. Analogamente, comocada cidade deve ser percorrida apenas uma vez, é preciso que apenas um neurônio esteja ligado em cadalinha.

Tais características são tratadas na máquina de Boltzmann através de pesos negativos entre todos osneurônios da mesma coluna e, analogamente, da mesma linha. No entanto, é necessário incentivar a ati-vação dos neurônios, do caso contrario a rede apenas manteria todos os neurônios desligados para evitaras punições mencionadas. Tal incentivo é implementado através de conexões positivas dos neurônioscom si mesmos. Essas conexões são mostradas na Figura 1, onde p e b ∈ R+ representam seus pesos.

V t−11

V t−1i

V t−1N

V t1

V ti

V tN

V t+11

V t+1i

V t+1N

b

b

b

b

b

b

b

b

b

−p

−p

−p

−p

−p

−p

−p

−p

−p

−p

−p

−p

−p

−p

−p

−p

−p

−p

Figura 1: Representação genérica das conexões reponsáveis pela formação do ciclo

Dado que a busca é pela rota mínima que percorra todas as cidades, as distâncias entre as cidadessão inseridas como conexões negativas entre colunas adjacentes da matriz de neurônios. Tal estrutura éexemplificada na Figura 2, onde dij ∈ R+ representa a distância euclidiana entre as cidades i e j.

V Simposio de Metodos Numericos Computacionais

140

V t−11

V t−1i

V t−1N

V t1

V ti

V tN

V t+11

V t+1i

V t+1N

−d1i

−d1N−di1

−diN−dN1

−dNi

−d1i

−d1N−di1

−diN−dN1

−dNi

Figura 2: Representação genérica das conexões responsáveis pela minimização da distância total

Para evitar que a rede ative múltiplos neurônios na mesma linha ou na mesma coluna, é necessá-rio que o peso das conexões negativas na linha ou coluna seja maior, em módulo, do que o incentivo(autoconexão) de ativação dos neurônios, ou seja, p > b.

Como a ativação de um neurônio, cuja respectiva linha e coluna estejam desligadas, deve ser incenti-vada, é necessário que o peso b da autoconexão seja maior do que a soma das distâncias aos neurôniosativados das duas colunas adjacentes. Uma maneira de garantir isto é fazer com que b > 2dmax, ondedmax é a maior distâncias entre duas cidades na instância do problema.

2.3.2 Modificação na Máquina de Boltzmann

Como apontado por FAUSETT (1994), a máquina de Boltzmann tem grandes dificuldades em mudarde estados após um ciclo válido ter sido encontrado. Para mitigar esta característica, uma segunda épocade treinamento foi especialmente desenvolvida neste trabalho para a resolução do problema do caixeiroviajante.

A segunda etapa de treinamento começa após a primeira etapa ter convergido para um ciclo válido.Em cada época desta segunda etapa, duas colunas diferentes J1 e J2, da matriz de neurônios, são sorte-adas aleatoriamente e as linhas I1 e I2 são selecionadas de tal forma que os neurônios (I1,J1) e (I2,J2)estejam ativos.

Após isso, os neurônios selecionados são desligados e a Equação 5 é utilizada para avaliar o ganho ouperda de consenso pela troca da ativação dos neurônios (I1,J1) e (I2,J2) pelos neurônios (I1,J2) (I2,J1).

∆C =(∆C(I1,J1) + ∆C(I2,J2) + w(I1,J1),(I2,J2) + w(I2,J2),(I1,J1)

)−(

∆C(I1,J2) + ∆C(I2,J1) + w(I1,J2),(I2,J1) + w(I2,J1),(I1,J2)

) (5)

onde as funções ∆C(i,j) são calculadas da maneira usual (Equação 2).Após calculada o ganho ou perda de consenso, a probabilidade de mudança de estado é calculada

segundo a Equação 4. Como a temperatura da rede, por não ser alterada após o final da primeira etapade treinamento, é relativamente baixa, a troca na ativação dos neurônios na segunda etapa ocorre quaseque exclusivamente para os casos em que há um ganho no consenso global.

3 RESULTADOS E DISCUSSÃO

A implementação da máquina de Boltzmann para a resolução do problema do caixeiro viajante foifeita na linguagem de programação C. A têmpera simulada foi implementada com o decaimento expo-

V Simposio de Metodos Numericos Computacionais

141

nencial (Equação 3), com a temperatura inicial T0 = 20, o decaimento α = 0, 98, temperatura mínimade 0, 1.

O peso das autoconexões, ou bias, foi implementado como b = 2, 5dmax e a punição para ligação demúltiplos neurônios em uma linha ou coluna foi usado como p = 3b. O critério de parada para a primeiraetapa de treinamento foi encontrar um ciclo válido e 250 épocas de treinamento.

A máquina foi executada para instâncias de 10 e 30 cidades e, para eliminar os possíveis efeitos daaleatoriedade dos estados iniciais, foram feitas 100 simulações utilizando sementes diferentes. Para ana-lizar o impacto da implementação da modificação da rede, as mesmas instâncias e as mesmas sementesaleatórias foram executadas com e sem a segunda etapa de treinamento.

O resultado das 100 execuções da máquina de Boltzmann sem modificação para a instância com 10cidades é representado na Figura 3 e Tabela 1. Na Figura 3, o melhor ciclo é referente ao menor cicloresultante das 100 diferentes simulações.

Figura 3: Popularidade dos caminhos resultantes para 10 cidades da rede usual. Linhas pontilhadasverdes e linhas tracejadas vermelhas indicam caminhos que foram utilizados entre 1 e 33 vezes e 34 e 66vezes, respectivamente

O fato dos diferentes estados iniciais da rede terem resultado em diferentes ciclos de saída é reflexoda dificuldade da máquina de Boltzmann em trocar de estado após um ciclo válido ter sido alcançado.O desempenho da rede referente a distância dos caminhos gerado é bastante baixo e similar ao que seriagerado por um algoritmo completamente aleatório de permutação das cidades, onde todos os caminhosteriam a mesma popularidade.

A modificação na rede neural (Seção 2.3.2) obteve um grande ganho de qualidade nas soluções pro-duzidas, como é evidenciado pela Figura 4 e Tabela 1. O fato da rede ter convergido para o mesmocaminho, que coincide com a solução exata do problema do caixeiro viajante para esta instância, namaioria das execuções indica que a modificação na rede de fato aumenta a eficiência da mesma.

Um sumário dos resultados para a instância com 10 cidades é dado na Tabela 1, onde D denota asoma de todas as distâncias percorridas em um ciclo resultante de uma execução da rede e Dmedio e σDindicam a média e o desvio padrão para as 100 diferentes execuções. A melhor distância conhecida D∗

para as instâncias de 10 e 30 cidades foi obtida através da biblioteca de otimização global do Matlab2010a.

Como o espaço de busca do problema do caixeiro viajante cresce conforme o fatorial do número decidades, a dificuldade de se encontrar soluções boas aumenta drasticamente entre instâncias com 10 e 30cidades. Tal característica foi refletida na convergência da RNA para caminhos diferentes e, em algunscasos, de baixa qualidade.

V Simposio de Metodos Numericos Computacionais

142

Figura 4: Popularidade dos caminhos resultantes para 10 cidades da rede modificada. Linhas pontilha-das verdes e linhas azuis indicam caminhos que foram utilizados entre 1 e 33 vezes e 67 e 100 vezes,respectivamente

10 Cidades 30 CidadesRNA Usual Modificada Usual ModificadaD∗ 28,9 28,9 43,6 43,6Dmin 37,0 28,9 106,3 45,0Dmedio 47,7 29,0 136,9 53,7Dmax 61,4 32,3 171,2 67,0σD 5,3 0,5 12,6 4,0

Tabela 1: Parâmetros estatísticos para os resultados das 100 simulações

Os ciclos finais para as execuções da máquina de Boltzmann modificada, para a instância com 30cidades, são ilustrados na Figura 5, na qual é possível verificar que todos os caminhos mais populares(acima de 66% de uso) estão de fato presentes também no melhor ciclo encontrado, indicando uma certaconvergência da rede independente do estado inicial utilizado. No entanto, algumas das arestas compopularidade 34 e 66% não estão presentes no melhor ciclo encontrado, o que pode ser devido ao fatode conectarem cidades relativamente próximas que não são adjacentes em tal ciclo.

4 CONCLUSÕES

Devido a grande complexidade intrínseca ao problema do caixeiro viajante, a implementação usualda máquina de Boltzmann não foi capaz de resolvê-lo devidamente. Tal fato pode ser explicado peladificuldade encontrada pela rede em mudar os estados dos neurônios após um caminho válido ter sidoencontrado.

No entanto, a inserção da segunda etapa de treinamento para a máquina de Boltzmann resultou, paraas instâncias com 10 e 30 cidades, em um grande ganho de desempenho na resolução do problema eobteve soluções relativamente próximas à solução ótima, sem um aumento significativo no tempo decomputação utilizado.

A modificação no treinamento da máquina de Boltzmann para a resolução do problema do caixeiroviajante de 10 e 30 cidades resultou em melhorias de 40% e 60%, respectivamente, na distância médiados ciclos para as 100 simulações. No entanto, a técnica utilizada pode apresentar problemas referentesa execução paralela da máquina, uma vez que quatro unidades são selecionadas por vez na segunda etapa

V Simposio de Metodos Numericos Computacionais

143

Figura 5: Popularidade dos caminhos resultantes para 30 cidades da rede modificada. Linhas pontilhadasverdes, linhas tracejadas vermelhas e linhas azuis indicam caminhos que foram utilizados entre 1 e 33vezes, 34 e 66 vezes e 67 e 100 vezes, respectivamente

de treinamento, criando a necessidade de uma etapa extra de comunicação entre elas.

REFERÊNCIAS

Aarts E.H. e Korst J.H. Boltzmann machines and their applications. Em J. de Bakker, A. Nijman, eP. Treleaven, editores, PARLE Parallel Architectures and Languages Europe, volume 258, páginas34–50. 1987. ISBN 978-3-540-17943-6. doi:10.1007/3-540-17943-7_119.

Aarts E.H. e Korst J.H. Boltzmann machines for travelling salesman problems. European Journalof Operational Research, 39(1):79 – 95, 1989. ISSN 0377-2217. doi:http://dx.doi.org/10.1016/0377-2217(89)90355-X.

Bartal Y., Gottlieb L.A., e Krauthgamer R. The traveling salesman problem: Low-dimensionality im-plies a polynomial time approximation scheme. Em Proceedings of the Forty-fourth Annual ACMSymposium on Theory of Computing, STOC ’12, páginas 663–672. ACM, New York, NY, USA, 2012.ISBN 978-1-4503-1245-5. doi:10.1145/2213977.2214038.

Bruck J. e Goodman J.W. On the power of neural networks for solving hard problems. Journal ofComplexity, 6(2):129 – 135, 1990. ISSN 0885-064X. doi:http://dx.doi.org/10.1016/0885-064X(90)90001-T.

Christophides N. Worst-case analysis of a new heuristic for the travelling salesman problem. RelatórioTécnico 388, Graduate School of Industrial Administration, Carnegie Mellon University, 1976.

Fausett L. Fundamentals of Neural Networks: Architectures, Algorithms, and Applications. Prentice-Hall, Inc., Upper Saddle River, NJ, USA, 1994. ISBN 0-13-334186-0.

V Simposio de Metodos Numericos Computacionais

144

V Simposio de Metodos Numericos Computacionais

TRANSIENTE HIDRÁULICO EM CONDUTOS FORÇADOS: SIMULAÇÃO DO ESCOAMENTO NAS TURBINAS DA UHE ITAIPU

POR MEIO DE ANALOGIA COM CIRCUITOS ELÉTRICOS

Resumo: O presente trabalho apresenta uma aplicação do uso da analogia elétrica na

modelagem de circuitos hidráulicos associada ao método de Runge-Kutta na solução

numérica das equações governantes para a determinação do comportamento da pressão no

sistema hidráulico de uma turbina Francis durante transientes do golpe de aríete,

tradicionalmente resolvido pelo método das características. A validação dos resultados é feita

com base nos dados disponíveis dos transientes registrados durante ensaios de rejeições de

carga nas turbinas da Usina de Itaipu (UHI). Como uma aplicação deste estudo se analisa a

possibilidade de alteração da curva de fechamento do distribuidor destas turbinas de modo a

se obter uma lei de fechamento que proporcione valores mais favoráveis de sobrepressão

devido ao golpe de aríete e de sobrevelocidade na unidade geradora nas rejeições de carga.

Palavras-Chave: Golpe de Aríete, Conduto Forçado, Turbina, Transiente Hidráulico,

Simulação Numérica.

1 INTRODUÇÃO

A regularização de um sistema elétrico interligado é um processo complexo e requer ação

instantânea e permanente para equilibrar as oscilações normais e as variações bruscas da

carga com a geração, na qual também por sua vez ocorrem oscilações e variações bruscas,

seja por falha nos equipamentos de geração ou perda da disponibilidade energética

temporária de alguma fonte como, por exemplo, as fontes renováveis eólicas e solares, que

cada vez mais se fazem presentes na matriz energética brasileira e mundial.

Neste contexto, as usinas hidrelétricas são versáteis no atendimento das variações da carga

e da geração do sistema elétrico interligado, devido à rapidez na resposta de potência

decorrente de uma relação favorável de inércia rotatória e resposta hidráulica. Contudo, no

atendimento destas variações muitas vezes estas usinas operam fora de suas melhores

condições hidráulicas, inclusive devido à variação sazonal na hidraulicidade ou por crises

hidráulicas, cada vez mais frequentes pelo aquecimento global. Neste cenário, as máquinas

Francis, responsáveis por expressiva contribuição na geração hidroelétrica no Brasil e no

mundo e também por 60% do potencial hidráulico mundial a instalar, são normalmente mais

sensíveis por suas características intrínsecas, principalmente quanto à eficiência e

perturbações no escoamento.

Joao Maria Marra, Liliana MadalenaGramani, Christian Wendt, Eloy Kaviski

145

O conhecimento do comportamento da pressão no sistema hidráulico de uma turbina

hidráulica durante transientes no escoamento é fundamental na etapa de projeto do conduto

forçado e da unidade geradora e a correta estimativa deste representa desafios devido à

complexidade da instalação real de uma usina hidrelétrica. Embora as variações de pressão

provocadas pelo golpe de aríete em uma variação brusca da carga possam ser quantificadas

com acurácia por meio do método das Características, para fenômenos de ressonância e

instabilidade hidráulicas durante operação normal da turbina a representação do sistema

hidráulico por circuitos elétricos equivalentes solucionados pela integração numérica de

Runge-Kutta apresenta algumas vantagens na modelagem matemática do sistema hidráulico.

O presente trabalho apresenta um estudo realizado com os dados das turbinas da Usina de

Itaipu utilizando o método de Runge-Kutta na simulação numérica do comportamento da

pressão após uma rejeição de carga, realiza comparação com medições disponíveis para esta

situação e analisa a possibilidade de alteração da curva de fechamento do distribuidor das

turbinas, de modo a se obter uma lei de fechamento que proporcione valores mais favoráveis

de sobrepressão devido ao golpe de aríete e de sobrevelocidade na unidade geradora.

2. EQUAÇÕES GOVERNANTES E ANALOGIA ELÉTRICA O circuito hidráulico de usinas hidrelétricas se caracteriza por ter as dimensões

longitudinais muito maiores que as dimensões transversais, conforme ilustração da Figura 1.

Em função desta configuração típica, o escoamento do fluido de trabalho tem características

predominantes na direção longitudinal e variação de temperatura desprezível, possibilitando

uma modelagem matemática unidimensional do escoamento representativa de seu

comportamento dinâmico com base nas leis de conservação da massa e do momento.

Figura 1: Esquema do sistema hidráulico típico de uma usina hidroelétrica (Adaptado de IEC 60193)

De acordo com CHAUDRY (2014), a aplicação da segunda lei de Newton sobre o

diagrama de corpo livre das forças em um elemento elástico de comprimento dx da tubulação

e da equação da continuidade sobre o mesmo elemento sujeito a uma linha piezométrica

hidráulica resulta no seguinte sistema de equações governantes para o escoamento

unidimensional transiente no elemento da tubulação, onde a é a celeridade das ondas de

pressão, H é a altura piezométrica, Q é a vazão, D é o diâmetro do conduto, A é área de sua

seção transversal, f é o coeficiente de atrito de Darcy e g é a aceleração da gravidade.

2

10

2

∂ ∂+ + =

∂ ∂

fQ QH Q

x gA t gDA (1)

2

0∂ ∂

+ =∂ ∂

H a Q

t gA x (2)

V Simposio de Metodos Numericos Computacionais

146

No sistema de equações governantes, a Eq. (1) se refere à equação do movimento e a Eq.

(2) a uma equação de transporte dada pela conservação da massa. O sistema de equações

formado é um sistema não linear de equações diferenciais parciais de primeira ordem do tipo

hiperbólico, para os quais o método das características, baseado em diferenças finitas, é

tradicionalmente utilizado em sua solução numérica para dadas condições inicial e de

contorno.

Conforme STREETER E WYLIE (1978), o tal sistema de equações é análogo ao de

propagação de ondas elétricas em condutores elétricos, sendo que a vazão Q corresponde à

corrente elétrica e a altura piezométrica H (ou pressão) corresponde à tensão elétrica. Com

base na analogia destes dois sistemas, os parâmetros correspondentes do sistema hidráulico

são qualificados com as tradicionais denominações dos parâmetros R (Resistência),

L(Indutância) e C (Capacitância) para um sistema elétrico, como indicado a seguir:

( ) 0∂ ∂

+ + =∂ ∂

H QL' R' Q Q

x t (3)

1

0∂ ∂

+ =∂ ∂

H Q

t C' x (4)

No sistema hidráulico o parâmetro R representa a perda de energia por efeitos dissipativos,

L e C representam, respectivamente, os efeitos de inércia e armazenamento em volume. O

parâmetro C é também denominado de compliância, pois o efeito de armazenamento se deve

à compressibilidade do fluido e à elasticidade da tubulação. Devido à dependência da

resistência R com a vazão R(Q), o sistema de EDP é não linear. O sinal de apóstrofo indica

que os valores dos parâmetros nas equações estão por unidade de comprimento do elemento

de tubo considerado:

[ ] 2 3 2

2 2

1

2 = = =

f Q gAR' s m L' s m C' m

gAgDA c (5)

O circuito do sistema hidráulico equivalente ao circuito elétrico RLC encontra-se indicado

na Figura 2, onde o índice i e i+1 representam o valor das variáveis de estado (H, Q ) nas

extremidades opostas do elemento considerado. O circuito elétrico da Figura2 é também

representativo de dois trechos de comprimento dx/2 de uma linha transmissão com diferença

de potencial elétrico fase-terra respectivamente de i

U e 1iU + e capacitância C entre a linha e o

referencial de terra.

Figura 2: Esquema do sistema circuito elétrico equivalente do elemento de tubo elástico

Em função da analogia entre os circuitos hidráulico e elétrico, as equações governantes do

circuito hidráulico podem ser obtidas por aplicação das leis de Kirchoff e das leis relativas à

queda de tensão elétrica (ou de pressão hidráulica) nos elementos do circuito, sendo a vazão

Q equivalente à corrente I e a pressão hidráulica H equivalente à tensão elétrica U.

3. DISCRETIZAÇÃO ESPACIAL DO SISTEMA HIDRÁULICO E MODELAGEM

DA TUBULAÇÃO Nesta simulação, todos os trechos de tubulação do sistema hidráulico são modelados como

elementos de tubos elásticos em aço, independente de estarem estes instalados em aço

aparente, embutido, ou somente em concreto.

V Simposio de Metodos Numericos Computacionais

147

Para um tubo de comprimento l genérico, aplicando-se uma discretização baseada em um

esquema central, pode-se quantificar a variação espacial da altura manométrica H e da vazão

Q no nó 1 2i + e o valor médio da vazão, conforme, respectivamente, expressões indicadas

nas Eq. (6) seguinte:

1 1 11 2

1 2 1 2 2

+ + ++

+ +

− − +∂ ∂= = =

∂ ∂i i i i i i

i

i i

H H Q Q Q QH Q; ; Q

x dx x dx (6)

A Figura 3 ilustra a discretização espacial de esquema central utilizada para a

tubulação de comprimento l :

Figura 3: Discretização espacial unidimensional da tubulação (Adaptado de Nicolet 2007)

Para o tubo elástico considerado, o esquema do circuito elétrico equivalente à

discretização adotada, fica conforme ilustrado na Figura 4.

Figura 4: Circuito elétrico equivalente do tubo elástico (Adaptado de Nicolet 2007)

Substituindo as expressões da Eq. (6) nas Eq. (3) e Eq. (4) e fazendo

R' dx R, L' dx L e C' dx C= = = obtém-se um sistema de EDOs para um elemento de tubo

elástico de comprimento dx, que expresso em forma matricial resulta no sistema da Eq. (7):

1 2 1 2

1 1 1

0 0 0 1 1 0

0 2 0 1 2 0

0 0 2 1 0 2

+ +

+ + +

⋅ + = − −

i / i /

i i i

i i i

h hCd

L / Q R / Q Hdt

L / R /Q Q H

(7)

Em forma matricial compacta, o sistema de equações (7) reduz-se à Eq. (8), onde

( )1 2 1i / i ix H , Q , Q+ +=

é o vetor das variáveis de estado do sistema discretizado e A e B são

matrizes 3x3:

[ ] [ ]⋅ + ⋅ =

dxA B x C

dt (8)

Onde,

[ ]

( )

( )

( )

[ ]

( )

( )

( )

1 12 1 2 1

1 1

0 0

1 1

1 1

2 21

1 1

0

1 1

2 1 2 2 1 1 2

− + +

− − = =

+ + −

C n n

C

C

Cn nA B

L / R /

L R

L R

n L / n R /

(9)

V Simposio de Metodos Numericos Computacionais

148

Para o tubo elástico de comprimento l discretizado conforme indicado na Figura 3, as

matrizes [ ] [ ]A e B da Eq. (9), têm ordem 2 1n + e os vetores de estado x (Eq. 10) e de

condições de contorno C

(Eq. 11) têm dimensão 2 1 1( n , )+ :

( )1 1 2 2 1 2 1 2 1 1 1+ + + +=

T

/ / n / nx H H H Q Q Q (10)

( )1 10 0 0 0 +=

T

nC H H (11)

4. MODELAGEM DO SISTEMA HIDRÁULICO Esta seção aborda com foi realizada a modelagem geométrica da variação do diâmetro da

tubulação ao longo do sistema hidráulico, desde a tomada de água até o final da caixa espiral, e também a modelagem funcional dos elementos considerados como concentrados (lumped), quais sejam, duto de ventilação do conduto e distribuidor da turbina. 4.1 Tubulação

A variação do diâmetro da tubulação no trecho de entrada, curva superior, trecho trecho, curva inferior e caixa espiral do sistema hidráulico das turbinas de ITAIPU está indicada na Figura 5.b.

Figura 5: a) Sistema hidráulico; b) Modelagem geométrica

O coeficiente de atrito nas superfícies hidráulicas foi obtido a partir de dados da perda de

carga no sistema hidráulico disponíveis em Itaipu (2008) e da equação de Darcy-Weisbach,

resultando em um valor médio de 0,025.

4.2 Chaminé de equilíbrio O duto para purga do ar atmosférico no enchimento da turbina e do conduto forçado e

os nichos da comporta e stop-log existentes no trecho de entrada do sistema hidráulico

funcionam como uma pequena chaminé de equilíbrio (surge shaft) durante transientes da

operação normal ou rejeição de carga. O modelo matemático adotado para este elemento no

foi conforme indicado na Figura 6.

Figura 6: Modelo matemático para a chaminé de equilíbrio (Fonte: Nicolet 2007)

V Simposio de Metodos Numericos Computacionais

149

Resolvendo o circuito elétrico da Figura 6.a, se obtém a Eq. (15) compatível com a

discretização e vetor de estado adotado na aplicação por Runge-Kutta para este elemento do

sistema hidráulico:

( )( )

( )

( )( )1 1 1

0 0 0 1 1 0

0 1

0 1+ + +

+ − + − + − = − + −− +

ss c c

ss ss i d d i ss

ss ss i i id d

C h hd

L L L . Q R R R . Q Hdt

L L L Q Q hR R R

(12)

Para o caso do método das características, a modelagem utilizada para o duto de ventilação

foi baseada somente na equação da continuidade, resultando na expressão indicada na

ilustração da Figura 6.b. 4.3 Distribuidor

A curva de vazão em função da área livre do distribuidor WA da turbina, sob condição

estática, foi modelada com base na determinação do coeficiente de descarga DC a partir de

dados de medição de vazão e queda líquida nH disponíveis em ITAIPU (2006.a) e Itaipu

(2008.a), utilizando a relação da Eq. (16):

2DW nWQ C .A g.H= (13)

Para condição dinâmica, a curva de vazão no distribuidor durante um fechamento abrupto

foi modelada com base na lei temporal de fechamento do distribuidor, onde b é altura da

palheta e S a abertura, conforme a relação da Eq. (17):

( )2 24 2D n Dt t nQ C .A g.H C . b S g.H= = ⋅ ⋅ (14)

As curvas para o coeficiente de descarga, lei de fechamento e curva de vazão no

distribuidor estão indicadas na Figura 7:

Figure 8: a) Coeficiente de descarga; b) Lei de fechamento; c) Curva de vazão

De forma a facilitar a análise da influência da variação da lei de fechamento na

sobrepressão e na sobrevelocidade, esta foi modelada considerando a possibilidade de

alteração do tempo total de fechamento por meio de alteração da abertura em 1t nos e abertura

e tempo em 2t para uma dada abertura inicial do distribuidor em ot . O trecho inicial da curva

7.b foi modelado por um polinômio, o trecho intermediário como uma reta e o trecho final

por uma exponencial. A curva de vazão da Figura 7.c se refere ao caso estudado com vazão

inicial de 745 m3/s, considerada a máxima possível (100%) de acordo com a curva de colina

das turbinas de ITAIPU.

4.4 Conjunto girante

A rejeição abrupta da carga de uma unidade geradora por desacoplamento desta com o

V Simposio de Metodos Numericos Computacionais

150

sistema elétrico proporciona um desbalanceamento de torque entre a turbina e o gerador e

consequente aumento da velocidade de rotação. Em função disto, o regulador de velocidade

da turbina comandará o fechamento do distribuidor da turbina, o que por sua vez causa um

transiente na pressão hidráulica no conduto forçado, conhecido como golpe de aríete. Nesta

condição, assumindo que o torque magnético no entreferro do gerador se anula

instantaneamente, a velocidade de rotação N do conjunto girante passa a ser dominada pelo

torque mecânico mecT e pela inércia rotatória J, conforme Eq. (18):

60

2πmec mag

dNT T J

dt

− =

(15)

A Equação (18) pode ser integrada por separação de variáveis, cuja aproximação discreta

da solução dada pela Eq. (19) permite obter a evolução da rotação durante o transiente a

partir da potência rejeitada na turbina na rotação nominal. Durante o transiente, a potência no

eixo da turbina foi avaliada pela expressão t nP Q Hγ η= . O momento de inércia J foi obtido

por medições existentes do parâmetro GD2 em ITAIPU (1992), cujo valor considerado foi de

363950 tm2, equivalendo a um momento de inércia de 9,275E6 kg m

2.

( )( )2

21 1

60

2πbtt t t

tN N P P P

J+ +

∆ = + + −

(16)

A potência frenante bP foi obtida assumindo a permanência das perdas no gerador

dependentes da tensão (2,1 MW) e a variação das perdas por atrito (2,1 MW) nos mancais e

na ventilação proporcionais ao cubo da variação da rotação. 5. RESULTADOS OBTIDOS

A validação dos resultados da modelagem e solução numérica pelo método de Runge-

Kutta realizadas neste trabalho foi baseada na confrontação com medições disponíveis em

ITAIPU (2006.b) relativas a uma rejeição de carga de 785 MW, com plena abertura do

distribuidor e queda bruta de 120,2 mca. Considerando as perdas no gerador, conforme

ITAIPU (2008.b), a potência rejeitada no eixo da turbina foi estimada em 794 MW,

correspondendo a vazão de 745 m3/s e queda líquida de 118,4 mca pela curva de colina da

turbina. O intervalo de tempo mínimo nas iterações computacionais respeitou o critério de

Courant-Friedrich-Levy, o qual estabelece que o número Courant Cr a t x a n t l= ⋅ ∆ ∆ = ⋅ ⋅ ∆

deve ser menor ou igual à unidade. Na Tabela 1 estão indicados os parâmetros da simulação e

a diferença percentual dos valores máximos da sobrepressão e da sobrevelocidade com

relação aos valores medidos:

Tabela 1 – Parâmetros da simulação e resultados

Método l [m] n a [m/s] t [s] Cr f Tempo

Simulado[s]

Duração da

Simulação [h]

∆P

[%] ∆N

[%]

Runge-Kutta 252 200 1115 5.83e-5 0.05 0.025 40 12,33 0,41 0,84

A evolução temporal da pressão na entradaa caixa espiral está indicada na Figura 9.a. Os

valores máximos obtidos para a sobrepressão P∆ e a sobrevelocidade N∆ com a lei de

fechamento existente são aderentes aos valores medidos. A modelagem espacial com a

respectiva solução numérica captaram a redução da pressão logo após o início do transiente e

também a sobreposição das ondas positiva e negativa na pressão, marcada pelo período

4T L a= = 0,735 s e correspondente frequência de 1,36 Hz. A discreta redução da pressão

antes de sua elevação pode ser atribuída à inércia da vazão, proporcionando um aumento da

parcela da energia de velocidade no iníciol do fechamento do distribuidor.

V Simposio de Metodos Numericos Computacionais

151

Figura 9: a) Pressão caixa espiral; b) Tempo de fechamento x sobrepressão e sobrevelocidade máximas

Os resultados das simulações com variação da lei de fechamento estão indicados na Figura

9.b, na qual se evidencia a possibilidade de reduzir aproximadamente 7% na sobrevelocidade,

mantendo-se o limite nominal de 30% na sobrepressão.

6. CONCLUSÃO

A sobrepressão e a sobrevelocidade para uma dada rejeição é diretamente afetada pela lei

de fechamento do distribuidor e a simulação computacional destes fenômenos nos transientes

hidráulicos permite avaliar na fase de projeto a lei de fechamento e inércia rotatória

necessárias para o atendimento dos valores contratados para os mesmos.

A aplicação da simulação computacional do transiente hidráulico e sobrevelocidade em

unidades geradoras existentes permiter reavaliar a possibilidade de alteração da lei de

fechamento visando obter uma lei de fechamento mais vantajosa e evitando realizar tal estudo

de forma experimental.

A solução do transiente pelo método de Runge-Kutta apresentou boa aderência de

resultados para a sobrepressão e a sobrevelocidadee e não apresentou instabilidade numérica

para qualquer discretização espacial considerada na simulação.

7 REFERÊNCIAS

CHAUDRY, M. H., 2014. Applied Hydraulic Transients. Springer, 3rd edition.

IEC 60193, 1999 - International Eletrotechnical Commision (Ed.) Hydraulic turbines storage

pumps and pump-turbines – Model acceptance tests. Genebra, Suíca.

ITAIPU, 1992, Technical Report, Acceptance tests in an explanatory way – Itaipu

Binacional, Brazil.

ITAIPU , 2006.a. Technical Report, Hydraulic stability test – Comissioning of the U9A.

Itaipu Binacional, Brazil.

ITAIPU , 2006.b. Technical Report, Load rejection test – Comissioning of the U9A. Itaipu

Binacional, Brazil.

ITAIPU , 2008.a. Technical Report, Determination of the efficiency of the turbine U18A.

Itaipu Binacional, Brazil.

ITAIPU, 2008.b. Technical Report, Determination of the efficiency of the generator U18A.

Itaipu Binacional, Brazil.

NICOLET, C.,2007. Hydroacoustic Modelling And Numerical Simulation Of Unsteady

Operation Of Hydroelectric Systems. 334 p. Tese (Doutorado) - Escola Politécnica Federal

de Lausana, Lausana, Suíca.

STREETER, V.; WYLIE, E., 1978 Fluid Transients. McGraw-Hill Inc.

V Simposio de Metodos Numericos Computacionais

152

V Simposio de Metodos Numericos Computacionais

SIMULAÇÃO NUMÉRICA DO ESCOAMENTO DE POISEUILLEUTILIZANDO O MÉTODO DO RETICULADO DE BOLTZMANN

Resumo: Nas últimas décadas, métodos computacionais baseados em autômatos celulares, foram propostos parasimular escoamentos. Dentre estes métodos, pode-se citar o método do reticulado de Boltzmann (LBM). O LBMpode ser obtido por dois caminhos. Um deles é a derivação a partir do autômato celular do tipo gás de rede e aoutra forma é a derivação a partir da equação de Boltzmann. Originário historicamente do esquema baseado noautômato celular do tipo gás de rede, o método considera uma dinâmica molecular de partículas fictícias em queo espaço, o tempo e as velocidade são discretas. No que se refere aos módulos de velocidades, eles assumemvalores contínuos. Por outro lado, o método do reticulado de Boltzmann pode ser visto como uma forma dis-cretizada da equação cinética de Boltzmann, em que somente são mantidos os detalhes moleculares essenciaispara se recuperar o comportamento macroscópico correto. É possível mostrar que, sob certas condições, o LBMrecupera as equações de Saint-Venant e Navier-Stokes. Além disso, o interesse em utilizar o método do reticuladode Boltzmann se ratifica, principalmente, quando ele aparece como uma alternativa potencial para simular umagrande variedade de fluxos de fluidos, sem utilizar discretizações nas equações de Navier-Stokes. O objetivo destetrabalho é utilizar o método do reticulado de Boltzmann para simular o escoamento de Poiseuille. Far-se-á a com-paração entre solução numérica e analítica, permitindo a validação do método.

Palavras-Chave: Método do Reticulado de Boltzmann, Escoamento de Poiseuille, Simulação Numérica

1 INTRODUÇÃO

O autômato celular foi originalmente proposto por John Von Neumann nos anos 40. O objetivo princi-pal de Neumann era criar um modelo que através de regras simples pudesse reproduzir fenômenos natu-rais e artificiais. Uma característica importante desse modelo é ser capaz de simular sistemas complexosque evoluem ao longo do tempo, partindo de regras simples. Mais adiante, em 1968, o matemático JohnConway, desenvolve o Jogo da Vida, que consiste de autômatos celulares que tem por objetivo represen-tar através de regras matemáticas, sistemas complexos da evolução da vida, popularizando os autômatoscelulares e provocando o interesse de pesquisadores de diversas áreas (Dewdney, 1989). Desde então,o modelo proposto foi bem desenvolvido e tornou-se uma ferramenta muito poderosa na simulação devários problemas científicos (Chopard et al., 2002).

Os autômatos celulares do tipo gás de rede (LGCA) são uma classe particular dos autômatos celulares.A dinâmica das partículas no LGCA é desenvolvida como um modelo microscópico simples, totalmentediscreto para um fluído a base de partículas fictícias localizadas nos nós de um reticulado uniforme.Tais partículas movem-se uma unidade do reticulado nas direções de suas velocidades. Duas ou mais

Jocelaine Cargnelutti, Vanderlei Galina, Eloy Kaviski,Liliana Madalena Gramani, Adilandri Mercio Lobeiro

153

partículas que chegam ao mesmo nó podem colidir. A característica importante dos autômatos gás derede é que a massa e quantidade de movimento são explicitamente conservados o que diferem de umautômato celular. Este é um recurso muito desejável na simulação de problemas físicos reais (Zhou,2004).

Salienta-se que a proposta dos LGCAs é modelar fluidos via autômatos celulares, utilizando regrassimples. De acordo com Judice (2009), duas características essenciais consideradas são as leis de con-servação da quantidade de movimento e conservação da massa (número de partículas).

Foi proposto por Hardy et al. (1976) o primeiro modelo discreto para simulação de escoamentos defluidos, chamado HPP, baseado em uma rede quadrada com quatro possibilidade de movimento. OsLGCAs se tornaram populares na década de 70, para simular escoamentos de fluidos e outros problemasfísicos, no entanto, o primeiro modelo, o HPP, não recupera as equações de Navier-Stokes. Isto ajudouno desestímulo da utilização do LGCA. Porém, alguns anos depois, em 1983, o pesquisador StephenWolfram reavivou o interesse neste método (Wolf-Gladrow, 2005). Além do fato de que o HPP nãorecupera as equações de Navier-Stokes, devido à sua anisotropia, o modelo HPP não representa de formaprecisa o comportamento de um gás, como sua difusão. Ratificando a importância dos modelos baseadosno LGCA e pensando em resolver os problemas do modelo HPP, dez anos depois Frisch et al. (1986)descobriram as simetrias que permitem recuperar corretamente as equações de Navier-Stokes. Com baseem uma estrutura hexagonal de seis velocidades, o novo modelo proposto é chamado de FHP.

A simetria hexagonal, a estabilidade numérica e a recuperação assintótica das equações de Navier-Stokes ainda não tornavam o FHP um método numérico eficiente, pois ruídos estatísticos estavam pre-sentes nas simulações. De acordo com (Wolf-Gladrow, 2005), os primeiros pesquisadores que con-seguiram eliminar o ruído foram McNamara and Zanetti (1988) e foram também os primeiros que uti-lizaram funções contínuas de distribuição de partículas ao invés das funções booleanas usadas no LGCA.Nascia, o método do reticulado de Boltzmann. Embora os pesquisadores Wolfram (1986) e Frisch et al.(1987) já haviam usado a equação do reticulado de Boltzmann como ferramenta analítica para calcu-lar os coeficientes de viscosidade do LGCA, os primeiros pesquisadores que utilizaram a equação doreticulado de Boltzmann (LBE) como método numérico foram McNamara and Zanetti (1988).

Ressalta-se que, originalmente o método do reticulado de Boltzmann surgiu em resposta aos proble-mas dos métodos baseados no LGCA (McNamara and Alder, 1993), e foi derivado do LGCA. Inicial-mente o LBM possuía o mesmo operador de colisão do LGCA e toda sua teoria dependia da teoria doLGCA. Porém o operador de colisão do LGCA não era simples e nem eficiente. De acordo com Sur-mas (2010), quando pesquisadores conseguiram estabelecer uma conexão entre a equação de Boltzmanne a equação do reticulado de Boltzmann, pôde-se utilizar as ferramentas da teoria cinética, como porexemplo, operador de colisão BGK.

O interesse em utilizar o LBM se ratifica, principalmente, pelo fato de que ele aparece como umaalternativa potencial para simular uma grande variedade de fluxos de fluidos, sem utilizar discretizaçõesnas equações de Navier-Stokes. ((Chen and Doolen, 1998); (Chopard and Masselot, 1999); (Succi,2001); (Bao and Meskas, 2011)).

De acordo com Golbert (2013), a ideia principal deste método é elaborar modelos cinéticos simplifi-cados que incorporem a física essencial de processos microscópicos, ou mesoscópicos, de forma que ascaracterísticas na escala macroscópica sejam fiéis às equações desejadas, não sendo necessário fazer adiscretização das equações que governam a dinâmica do fluido.

Outro ponto fundamental do LBM está relacionado com a recuperação das equações de Navier-Stokesa partir dele. Isto ocorre aplicando-se uma expansão assintótica multiescala de Chapman-Enskog na LBEe assumindo que o número de Mach é pequeno. De acordo com He and Luo (1997), na prática usa-seMa < 0, 15. Com uma distribuição de equilíbrio adequadamente escolhida, os pesquisadores Qianet al. (1992), obtiveram resultados ótimos nas simulações, as equações de Navier-Stokes foram obtidasa partir da equação cinética BGK com aproximação de segunda ordem. A recuperação das equações deNavier-Stokes pode ser vista em Wolf-Gladrow (2005).

Além disso, Benzi et al. (1992) concluem que melhorias adicionais na solução numérica de problemasmodelados pelas equações de Navier-Stokes através do esquema baseado na equação do reticulado de

V Simposio de Metodos Numericos Computacionais

154

Boltzmann, podem ser obtidas através de uma melhor interpretação e incorporação das característicasfísicas do problema, em vez do desenvolvimento de receitas numéricas.

Os pesquisadores Chen and Doolen (1998) e Zhao et al. (2013) mostraram que o LBM é uma técnicapoderosa para simular uma grande variedade de problemas complexos em dinâmica de fluidos. Nosúltimos anos, o LBM provou ser uma alternativa viável aos métodos numéricos tradicionais, com basena solução de equações de Navier-Stokes. Entre as razões de sua crescente popularidade são a suasimplicidade, facilidade de implementação e paralelismo de seu algoritmo.

2 MÉTODO DO RETICULADO DE BOLTZMANN

2.1 Equação do método do reticulado de BoltzmannPara iniciar este estudo, toma-se o caminho da teoria cinética. Dela, pode-se obter uma versão da

equação simplificada de Boltzmann (Abe, 1997):

∂g

∂t+−→c .∇g = Ω (1)

onde g é a função distribuição de partículas, ~c é o vetor velocidade das micropartículas e Ω é o operadorde colisão.

Quando se olha para a equação (1), observa-se que seu lado direito possui um termo chamado op-erador de colisão. Os pesquisadores Higuera and Jiménez (1989) assumiram que a distribuição estápróxima do equilíbrio local e com isto linearizaram o operador de colisão. Isto representa uma impor-tante simplificação do LBM. A aproximação BGK, simplificação muito utilizada do operador de colisão,utiliza um termo de relaxamento em direção ao equilíbrio local. No operador de colisão, a distribuiçãode equilíbrio local foi escolhida de forma que se possam recuperar as equações de Navier-Stokes ass-intoticamente. O uso do método do reticulado de Boltzmann com a simplificação BGK do operadorde colisão permite cálculos computacionais mais eficientes e evita-se ter que resolver equações cinéti-cas complexas como a equação de Boltzmann na sua forma mais complexa (Chen and Doolen, 1998).Pode-se reescrever (1) da seguinte forma:

∂g

∂t+−→c .∇g = $

(gM − g

)(2)

onde gM é a função de distribuição de equilíbrio de Maxwell-Boltzmann e $ é o coeficiente chamadode frequência de colisão. A função distribuição de equilíbrio de Maxwell-Boltzmann é dada por:

gM =ρ

(2π/3)D/2e[−

32(−→c −−→v ).(−→c −−→v )] (3)

onde D é a dimensão do espaço, ρ é o valor macroscópico da massa específica, ~c é o vetor velocidadedas micropartículas e ~v é a velocidade hidrodinâmica (velocidade do fluido).

Em um primeiro momento far-se-á a substituição da função distribuição de Maxwell-Boltzmann, poruma aproximação polinomial. É possível fazer uma simplificação na função distribuição de Maxwell-Boltzmann (3), assumindo que o número de Mach M = |−→v |/cs é pequeno. É feita uma aproximaçãopolinomial que substitui a função distribuição de Maxwell-Boltzmann, onde os termos até segunda or-dem são mantidos. Este esquema pode ser usado em reticulados regulares arbitrários (Koelman, 1991).O próximo passo é estabelecer a equação do reticulado de Boltzmann a partir de (2). Para isso, procede-se com três discretizações necessárias: no espaço de velocidades, e nos domínios espacial e temporal. Aequação do LBM descreve a colisão e a propagação de partículas. Obtém-se:

fi (−→x +−→ei∆x, t+ ∆t)− fi (−→x , t) =

1

τ[f eqi (−→x , t)− fi (−→x , t)] , i = 1, ..., M (4)

V Simposio de Metodos Numericos Computacionais

155

com

f eqi = ωiρ

[1 +

3 (~c.~v)

c2+

9

2

(~c.~v)2

c4− 3

2

(~v.~v)

c2

], ωi =

4/9, se i = 01/9, se i = 1, 2, 3, 41/36, se i = 5, 6, 7, 8

(5)

em que fi é a função distribuição de partículas, f eqi é a função distribuição de equilíbrio e wi são pesosassociados a cada uma das direções do reticulado. Os pesos na equação (5) são referentes ao modeloD2Q9, onde i = 0 é o centro do reticulado, i = 1, 2, 3, 4 são as direções cardeais e i = 5, 6, 7, 8 são asdireções colaterais (arestas diagonais do reticulado) conforme figura 1.

A densidade e a velocidade do fluido são recuperadas a partir das distribuições de partículas:

ρ(~x, t) =∑

i

fi(~x, t), ρ(~x, t) ~u(~x, t) =∑

i

fi(~x, t)c~ei (6)

2.2 Reticulado D2Q9O reticulado utilizado neste trabalho é o D2Q9, pois representa bem a dinâmica de problemas envol-

vendo escoamentos de fluidos em canais. ((Zhou et al., 2010); (Xiong and Zhang, 2011) e (Krivovichev,2014)).

Figura 1: Direções de movimento de umapartícula no reticulado D2Q9.

Fonte: Bao and Meskas (2011)

É um reticulado bidimensional que possui oito direçõesnão nulas de movimento, (ver figura 1). Este reticulado équadrado e é necessário introduzir duas velocidade (cardeaise colaterais) para as partículas, de acordo com a distância aser percorrida em um passo de tempo. Uma partícula toma adireção de uma das 9 possibilidades de direções, de acordocom as velocidades estabelecidas, sendo que uma delas épermanecer no mesmo local (Bao and Meskas, 2011).

Com relação às duas velocidades, pode-se perceber queas direções cardeais são mais lentas e terão módulo c =∆x/∆t. As direções colaterais são mais rápidas, pois pre-cisam percorrer maior distância utilizando o mesmo tempodas direções cardeais e terão módulo

√2c.

As direções do movimento das partículas são dadas por:

−→ei =

(0, 0) i = 0(1, 0) , (0, 1) , (−1, 0) , (0,−1) i = 1, 2, 3, 4(1, 1) , (−1, 1) , (−1,−1) , (1,−1) i = 5, 6, 7, 8

(7)

2.3 Condições iniciais e de contornoIndependente do problema que será simulado, quanto melhor for a representação das características do

problema pelas condições de contorno, melhor será o desempenho da simulação. Além disso, condiçõesde contorno impróprias podem levar a resultados sem coerência física. Essas conclusões podem servistas no trabalho de (Hou et al., 1995).

O LBM faz atualizações sucessivas em toda a malha, a cada passo de tempo. Condições iniciais ede contorno devem ser estabelecidas. Comumente os valores das funções distribuições de partículas sãoconfigurados para os valores da função distribuição de equilíbrio utilizando uma determinada velocidademacroscópica. Com relação a densidade macroscópica, usualmente utiliza-se uma valor constante. Paraas condições de contorno, é comum a utilização de uma distribuição de equilíbrio ajustada com os dadosde densidade, velocidade e temperatura, como condição inicial de um domínio de simulação no métododo reticulado de Boltzmann. Ou seja, no primeiro passo de tempo, a função distribuição de equilíbrioé calculada de acordo com os valores de entrada, densidade e velocidade macroscópicas. Em seguida,atribui-se o valor de f eq a função distribuição de partículas f (Zhou, 2004).

Como se trata, neste trabalho, da simulação de um escoamento que acorre por diferença de pressão,é interessante utilizar a condição de contorno de Zou e He. Estas condições de contorno serão aplicadas

V Simposio de Metodos Numericos Computacionais

156

na entrada e na saída do escoamento. Como relação as paredes superior e inferior, é interessante utilizarBounce back para representar a velocidade nula nas paredes.

3 ESTUDO DE CASO

3.1 Escoamento de PoseiuilleEscoamentos laminares de fluidos viscosos que ocorrem em dutos produzidos por um gradiente de

pressão são chamados de Poiseuille. Isso inclui os escoamentos similares, em canais entre placas fixas,etc. Portanto, um escoamento em regime estacionário de um fluido incompressível ao longo de umcanal retangular, com paredes impermeáveis e não-escorregadias, devido à diferença de pressão entre osextremos do canal é um escoamento de Poiseuille (Fox and McDonald, 1998).

Figura 2: Escoamento de Poiseuille aolongo de um canal retangular. Fonte: Au-tor

O escoamento ocorre devido a uma diferença de pressão,com pressão maior na entrada (pent) e menor na saída (psai),conforme está representado na figura 2.

As equações governantes deste problema são as equaçõesde Navier-Stokes com simplificações, como por exemplo,com pressão hidrostática. A solução analítica pode serobtida, pois é um caso simplificado de escoamento laminar.

As soluções para as velocidades nas direções x, y são,respectivamente (Fox and McDonald, 1998):

ux (x, y) = − 1

∂p

∂x

(Lyy − y2

), uy (x, y) = 0 (8)

onde, p é a pressão, ∂p∂x

é a variação da pressão, µ é a viscosidade dinâmica que é dada por µ = ρν,com densidade ρ e viscosidade cinemática ν, ux componente horizontal da velocidade, ux componentevertical da velocidade e Ly tamanho da entrada do canal.3.2 Algoritmo do método do reticulado de Boltzmann

De posse de todas essas informações, pode-se estabelecer um algoritmo que fornece a evolução dofluido para cada nó no reticulado D2Q9.

A inicialização (t = 0) contém os seguintes passos: i) Inicializa-se o valor da densidade macroscópicaρ (−→x , 0); ii) Inicializa-se o valor da velocidade macroscópica −→v (−→x , 0); iii) Calcular f eqi (ρ,−→v ); iv)Inicializar fi (−→x , 0) utilizando f eqi (ρ,−→u ).

O loop principal (t = 1 até tmax): i) Cálculo da colisão usando−fi (−→x , t) = fi (

−→x , t) + 1τ

[f eqi (−→x , t)− fi (−→x , t)] , i = 1, ..., M ; ii) Cálculo da propagação usando

fi (−→x +−→ei∆x, t+ ∆t) =

−fi (−→x , t) , i = 1, ..., M ; iii) Informar quais condições de contorno vai

usar e incorporar no código; iv) Atualizar densidade ρ(−→x , t) =∑i

fi(−→x , t) e a velocidades ρ−→u (−→x , t) =

∑i

fi(−→x , t)c−→ei ; v) Calcular a f eqi com os valores atualizados.

4 RESULTADOS E DISCUSSÕES

Pelo algoritmo da LBM é necessário inicializar a função distribuição de partículas f . Esta ini-cialização é feita atribuindo a função distribuição de equilíbrio f eq a f , ou seja, f = f eq. Porém,olhando para f eq em (5), pode-se notar que precisa-se de valores iniciais de velocidade e densidade.Deste modo, atribui-se um valor inicial para a densidade (ρ = 1 kg m−3) e para a velocidade atribui-se(umax = 0.2m/s). Além disso, considera-se nesta simulação o LBM simplificado, onde ∆x = ∆t = 1.Os parâmetros e características da malha utilizadas nesta simulação: Tamanho do domínio 300m× 50m,ou seja, Lx = 300m e Ly = 50m; passo no tempo ∆t = 1; passo no espaço ∆x = ∆y = 1; número deReynolds Re = 1000; viscosidade ν = umaxLx/Re e parâmetro de relaxação τ = 3ν + 1/2.

Na figura 3(a), pode-se ver a solução analítica do escoamento de Poseiuille. Pode-se ver também nafigura 3(b) a solução numérica com condição de contorno bounce back nas paredes inferior e superior.

V Simposio de Metodos Numericos Computacionais

157

Condição de contorno de Zhou e He na entrada e saída do escoamento. A Condição de contorno deZhou e He é indicada para escoamentos que ocorrem por diferença de pressão. De acordo com ascaracterísticas da malha, o parâmetro de relaxação assume o valor τ = 0, 68. Observa-se que o valor doparâmetro de relaxamento não pode ser inferior a 0,5, pois a viscosidade se tornaria negativa.

Observe que esta simulação é realizada com um fluido hipotético, pois optou-se por utilizar ∆x =∆t = 1.

(a) Solução analítica (b) Solução numérica

Figura 3: Solução analítica e numérica para o escoamento Poiseuille.

Observa-se na figura 4 que a simulação representa bem o escoamento do problema proposto. O erroabsoluto máximo na simulação é de 2, 06× 10−2.

Figura 4: Comparação entre solução analítica e numérica. Corte feito no meio da canal.

5 CONCLUSÃO

O presente trabalho pressupõe que escoamento de um fluido pode ser descrito numericamente pelométodo do reticulado de Boltzmann. Mostrou-se que, mesmo utilizando o LBM simplificado, a soluçãonumérica do escoamento de Poiseuille está bem próxima da solução analítica. Pontos importantes comoa simplicidade de implementação computacional e o fato de que o LBM não utiliza discretizações nasequações que governam a dinâmica dos fluidos, tornam o método atraente. O próximo passo para esteproblema, é refazer a simulação refinando a malha. Com isso, espera-se resultados mais acurados.

REFERÊNCIAS

Abe. Derivation of the lattice boltzmann method by means of the discrete ordinate method for theboltzmann equation. Journal of Computational Physics, 131(241 - 246), 1997.

Bao Y.B. and Meskas J. Lattice boltzmann method for fluid simulations. 2011.Benzi R., Succi S., and Vergassola M. The lattice boltzmann equation: Theory and applications.

PHYSICS REPORTS, 222(3):145 – 197, 1992.Chen S. and Doolen G.D. Lattice boltzmann method for fluid flows. Annual Review of Fluid Mechanics,

30(1):329–364, 1998.Chopard B., Dupuis A., Masselot A., and Luthi P. Cellular automata and lattice boltzmann techniques:

An approach to model and simulate complex systems. World Scientific Publishing Company, 5(2):103– 246, 2002.

V Simposio de Metodos Numericos Computacionais

158

Chopard B. and Masselot A. Cellular automata and lattice boltzmann methods: a new approach tocomputational fluid dynamics and particle transport. Future Generation Computer Systems, 16:249 –257, 1999.

Dewdney A.K. A cellular universe of debris, droplets, defects and demons. Scientific American,261:2:102 – 105, 1989.

Fox R.W. and McDonald A.T. Introduction to Fluid Mechanics. John Wiley e Sons, 1998.Frisch U., d’Humières D., Hasslacher B., Lallemand P.and Pomeau Y., and Rivet J.P. Lattice gas hydro-

dynamics in two and three dimensions. Complex Systems, 1:649 – 707, 1987.Frisch U., Hasslacher B., and Pomeau Y. Lattice gas cellular automata for the navier-stokes equations.

Physical Review Letters, 56(14):1505 –1508, 1986.Golbert D.R. Método de lattice Boltzmann em hemodinâmica computacional: interações fluido-

estrutura e modelos acoplados 1D-3D. Ph.D. thesis, Laboratório Nacional de Computação Científica,Petrópolis, RJ - Brasil, 2013.

Hardy J., Pazzis O.d., and Pomeau. Molecular dynamics of a classical lattice gas: transport propertiesand time correlation functions. Physical Review A, 13:1949 – 1961, 1976.

He X. and Luo L.S. A priori derivation of the lattice boltzmann equation. Physical Review E, 55(6):6333– 6336, 1997.

Higuera F.J. and Jiménez J. Boltzmann approach to lattice gas simulations. EPL (Europhysics Letters),9(7):663 – 668, 1989.

Hou S., Zou Q., Chen S., Doolen G., and Cogley A.C. Simulation of cavity flow by the lattice boltzmannmethod. J. Comput. Phys., 118:329 – 347, 1995.

Judice S.F.P.P. Animação de fluido via modelos do tipo lattice gás e lattice Boltzmann. Master’s Thesis,Laboratório Naciaonal de Computação Científica, Petrópolos, RJ, 2009.

Koelman J.M.V.A. A simple lattice boltzmann scheme for navier-stokes fluid flow. Europhys, 15(6):603– 607, 1991.

Krivovichev G.V. On the parametrical lattice boltzmann equations. Applied Mathematical Sciences,8(101):5003 – 5014, 2014.

McNamara G. and Alder B. Analysis of the lattice boltzmann treatment of hydrodynamics. Physica A,194:218 – 228, 1993.

McNamara G.R. and Zanetti G. Use of the boltzmann equation to simulate lattice-gas automata. PhysicalReview Letters, 61(20):2332 – 2335, 1988.

Qian Y.H., D‘Humières D., and Lallemand P. Lattice bgk models for navier-stokes equation. EurophysicsLetters, 17(6):479 – 484, 1992.

Succi S. The Lattice Boltzmann Equation for Dynamics and Beyond. Oxford University Press Inc., NewYork, 2001.

Surmas R. Simulação de fenômenos termo-fluidodinâmicos pelo emprego dos mmétodo de diferençasfinitas à solução da equação de BoltzBolt. Ph.D. thesis, Universidade Federal de Santa Catarina,Florianópolis, SC., 2010.

Wolf-Gladrow D.A. Lattice-Gas Cellular Automata and Lattice Boltzmann Models - An Introduction.Berlin, 2005.

Wolfram S. Cellular automaton fluids 1 - basic theory. J. Stat. Phys.,, 45(3 e 4):471 – 526, 1986.Xiong W. and Zhang J. A two-dimensional lattice boltzmann model for uniform channel flows. Com-

puters and Mathematics with Applications, 61:3453 – 3460, 2011.Zhao Z., Huang P., Li Y., and Li J. A lattice boltzmann method for viscous free surface waves in two

dimensions. International Journal for Numerical Methods in Fluids, 71:223 – 248, 2013.Zhou J.G. Lattice Boltzmann MMethod for Shallow Water Flows. Springer, New York, 2004.Zhou J.G., Liu H., Shafiai S., Peng Y., and Burrows R. Lattice boltzmann method for open-channel

flows. Engineering and Computational Mechanics, 163:243 – 249, 2010.

V Simposio de Metodos Numericos Computacionais

159

V Simposio de Metodos Numericos Computacionais

ANÁLISE DA REMODELAÇÃO ÓSSEA TRIDIMENSIONAL EM

TORNO DE PRÓTESES FEMORAIS UTILIZANDO OS MODELOS

ISOTRÓPICO E ANISOTRÓPICO DE STANFORD

Resumo: O tecido ósseo possui a capacidade de alteração de suas propriedades ao longo da

vida e de se adaptar conforme o esforço a que está submetido. Quando se instala uma prótese,

a condução e transmissão dos esforços ao tecido ósseo são governadas totalmente pelo

material da mesma, a qual possui uma rigidez maior que a do osso. Objetiva-se avaliar e

comparar a adaptação óssea em torno de uma prótese ortopédica para o fêmur humano,

utilizando os modelos isotrópico e anisotrópico de remodelação óssea de Stanford. Aplica-se

o Método dos Elementos Finitos através do software Abaqus, customizando-o com uma sub-

rotina desenvolvida em linguagem Fortran. Os resultados apresentam uma perda gradativa de

densidade óssea para ambos os modelos, porém, gerando um ganho desta no trocanter maior

quando se aplica o modelo isotrópico de remodelação, o qual, não acontece clinicamente.

Palavras-Chave: Remodelação óssea, Prótese femoral, Método dos Elementos Finitos,

Modelos Isotrópico e Anisotrópico de Stanford, Abaqus.

1 INTRODUÇÃO

Embora muitos materiais possuam um comportamento extremamente complexo, os materiais

biológicos têm um grau de complexidade ainda maior por possuírem características

peculiares. Por exemplo, o tecido ósseo, além de ser poroso, heterogêneo e anisotrópico, é

capaz de alterar sua estrutura interna e se adaptar aos esforços a que está submetido

(GARCÍA et al. 2002). Este processo de modificação das propriedades e adaptação é

denominado remodelação óssea e ocorre ao longo de toda a vida, removendo o tecido antigo

e substituindo-o por novo (LEMAIRE et al., 2004).

Uma importante linha de pesquisa que leva em consideração a modificação e a adaptação do

tecido ósseo é o desenvolvimento de próteses. Quando um componente é inserido junto ao

osso, uma adaptação funcional é estimulada e devido ao contato do novo material com este

tecido, as distribuições de tensões e deformações são alteradas. Isso acontece como

consequência do material da prótese ter interferência direta na condução das forças internas,

podendo conduzir a perda significativa de densidade óssea ou até mesmo, a fratura do osso.

Para correção de uma articulação coxo-femoral danificada, realiza-se o procedimento

cirúrgico denominado Artroplastia Total de Quadril (ATQ), onde a articulação não saudável é

substituída por uma artificial que possibilite a melhoria de qualidade de vida do paciente. A

Jose Eduardo Gubaua, Gabriela WesslingOening Dicati, Jucelio Tomas Pereira

160

prótese é dividida em dois componentes. O primeiro é inserido junto ao acetábulo. O segundo

é o femoral, o qual é dividido em duas partes, sendo a primeira uma haste que é instalada no

fêmur e a segunda, uma cabeça esférica que junto com o componente acetabular, forma o par

tribológico, possibilitando a movimentação da articulação artificial.

As próteses femorais podem ser fixadas de duas maneiras. A primeira delas é a cimentada, a

qual utiliza um cimento acrílico de secagem rápida nas cavidades, nas quais a haste femoral e

o componente acetabular são implantados. Um segundo modo de fixação é o não cimentado,

onde a fixação ocorre através da osseointegração. Neste processo, o tecido ósseo cresce e

adere sobre o material da prótese, fazendo a fixação de forma biológica.

Para a confecção das próteses, utilizam-se materiais que sejam compatíveis com o corpo

humano e que são denominados biomateriais. Estes podem ser formados por uma única

substância ou combinação de substâncias, naturais ou não, que não sejam drogas ou

fármacos, utilizadas em aplicações biomédicas e que interagem com sistemas biológicos, que

tratam, aumentam ou substituem quaisquer tecidos, órgãos ou funções do corpo (OLIVEIRA

et al., 2010). Os biomateriais mais frequentemente utilizados em reconstruções

osteoarticulares podem ser agrupados em: metálicos, poliméricos, cerâmicos e compósitos.

Dentre os metálicos, se destacam as ligas de cromo-cobalto e o titânio e suas ligas.

O corrente estudo tem como objetivo avaliar o processo de remodelação óssea, em um

modelo tridimensional do fêmur humano considerando os modelos isotrópico e anisotrópico

de Stanford (JACOBS et al., 1995; JACOBS et al., 1997), após a instalação de uma prótese.

A análise é realizada através do Método dos Elementos Finitos (MEF). Para a modificação

das propriedades do tecido ósseo, os modelos de remodelação são implementados em sub-

rotinas UMAT (User Material), as quais customizam o software Abaqus. Adota-se a premissa

de que ocorre uma adesão total na interface osso/prótese (osseointegração completa).

2 MÉTODOS

Nessa seção são apresentados de maneira sucinta, os modelos de remodelação óssea

isotrópico e anisotrópico de Stanford (JACOBS et al., 1995; JACOBS et al., 1997) e o

método de avaliação da distribuição de densidades de Gruen (GRUEN et al., 1979).

2.1 Modelo Isotrópico de Stanford

O modelo isotrópico de remodelação óssea de Stanford (JACOBS et al., 1995) utiliza a

densidade de energia de deformação (DED) como estímulo mecânico. Este é determinado a

partir das tensões correntes e avaliado perante um valor de referência. Os autores incorporam

o conceito de zona morta proposto por Wolff e definido por CARTER (1984), a qual é um

intervalo onde o estímulo não gera modificações nas propriedades do material. Quando o

estímulo for maior que o valor de referência, existirá uma formação de tecido ósseo. Já

quando o estímulo for menor, existirá reabsorção óssea.

2.2 Modelo Anisotrópico de Stanford

Uma extensão do modelo isotrópico é o modelo anisotrópico de Stanford, onde as

propriedades do tecido variam de acordo com a direção (JACOBS et al., 1997). Quando um

modelo isotrópico é adotado, as constantes de rigidez do material (Módulo de Young e o

coeficiente de Poisson) podem ser obtidas diretamente e somente com o valor da densidade

aparente. Por outro lado, não é possível determinar todos os termos da matriz de rigidez

anisotrópica somente em termos da densidade aparente, embora esta tenha uma influência

significativa sobre essa matriz. Portanto, no modelo anisotrópico de Stanford é considerado

que a densidade e a matriz de rigidez são independentes, porém, acopladas. Com isso, a

densidade exerce uma influência na taxa de mudança da rigidez, que por sua vez atua na taxa

de mudança de densidade. Assim como no caso isotrópico, uma zona-morta é incorporada ao

modelo e a DED é utilizada como estímulo mecânico.

V Simposio de Metodos Numericos Computacionais

161

2.3 Método de Avaliação do fêmur

Neste método, a avaliação da remodelação óssea em torno da haste femoral é realizada

utilizando as sete zonas de Gruen (GRUEN et al., 1979), as quais são demarcadas na vista

antero-posterior do modelo do fêmur (Figura 1). No corrente estudo, aplica-se este método

para avaliação do percentual de ganho/perda de massa óssea ao longo da análise para cada

área demarcada na Figura. Para quantificar a variação de massa óssea no trocanter maior e

crista e linha intertrocantérica, a região 1 de Gruen é estendida até o ponto de inserção

muscular.

Figura 1: Zonas de Gruen (TEN BROEKE et al., 2014).

3 IMPLEMENTAÇÃO COMPUTACIONAL

Para avaliação da remodelação óssea em torno da prótese femoral são realizadas duas

análises. A primeira, com o fêmur antes da ATQ, para determinação do campo de densidades

de equilíbrio, o qual é recuperado e utilizado como passo inicial da segunda análise, realizada

após o procedimento cirúrgico.

Para a primeira análise, utiliza-se um modelo sólido e tridimensional de um fêmur humano

(GRABCAD, 2014), apresentado na Figura 2a. O modelo é simulado no software Abaqus

6.12-1 e discretizado em 190.985 elementos do tipo tetraédrico linear denominado C3D4,

resultando em 36.480 nós (Figura 2b). A aplicação do carregamento segue o mesmo

procedimento de DICATI (2015) onde as forças apresentadas por JACOBS et al. (1995) são

divididas em 30 regiões, sendo 15 sobre a cabeça e 15 sobre o trocanter maior. As forças são

aplicadas aos pares ao longo da análise.

Figura 2: (a) modelo tridimensional utilizado e (b) malha de elementos finitos.

Para realizar a análise de um material em que a densidade varia ao longo do tempo, e é

dependente dos campos de tensões e deformações, customiza-se o software Abaqus com uma

V Simposio de Metodos Numericos Computacionais

162

sub-rotina em linguagem Fortran. Nesse caso, emprega-se a UMAT (User Material).

Para verificação do processo de remodelação óssea após o procedimento da ATQ, utiliza-se o

modelo apresentado na Figura 3a. A cabeça e parte do colo femoral (Figura 3b) são

removidas utilizando o software de CAD Solidworks. O modelo da prótese de Chanrley

(GRABCAD, 2014) é apresentado na Figura 3c, sendo considerada confeccionada com a liga

de Cromo-Cobalto-Molibdênio F90 que possui módulo de elasticidade de 210.000 MPa e

coeficiente de Poisson de 0,3 (Yan et al., 2011). Nesta simulação são aplicadas as mesmas

condições de contorno utilizadas para a análise do fêmur antes da realização do procedimento

da ATQ, com a diferença de que as cargas de compressão passam a ser aplicadas sobre a

cabeça femoral da prótese. Um sólido com comportamento elástico e linear é posicionado e

perfeitamente unido na diáfise femoral com o objetivo de evitar a formação de regiões de

concentrações de tensões. Neste, são aplicadas condições de contorno de Dirichlet

homogêneas.

A osseointegração é um processo realizado na interface osso/prótese. Este envolve uma série

de eventos biológicos que culminam na formação de osso novo. A osseointegração é formada

por duas fases. A primeira é realizada durante a ATQ, onde é obtida a fixação primária

(mecânica) através da inserção da prótese no osso. Esta influencia a segunda fase, a qual

corresponde a fixação biológica, através da formação de tecido imaturo (woven tissue) na

região que sob condições de solicitação mecânica favoráveis, remodela-se para o osso

lamelar. Cerca de três meses após a inserção é possível visualizar uma textura mista de tecido

imaturo e lamelar que caracteriza este tipo de fixação (MAGROGENIS et al., 2009). No

corrente trabalho, o período de osseointegração não é considerado. A interface entre o osso e

a prótese é adotada como sendo totalmente colada (após o período de fixação biológica).

A malha utilizada no modelo (Figura 3d) é composta de 223.422 elementos (123.127 para o

fêmur operado, 25.640 para a prótese e 10.876 elementos para o sólido inserido na diáfise

femoral) e 43.833 nós (24.168 para o fêmur, 5.470 para a prótese e 2.271 nós para o sólido).

A densidade inicial desta análise é recuperada a partir do campo de densidades de equilíbrio

do fêmur antes da ATQ, através de uma série de rotinas desenvolvidas no software Matlab.

Tomando as coordenadas de um nó qualquer na malha nova em relação a antiga, é definida

uma esfera centrada nesse nó e com raio arbitrado. A densidade nodal nova é obtida através

de uma média ponderada das densidades de todos os nós antigos internos a esta esfera.

Figura 3: (a) Modelo após a ATQ, (b) cavidade femoral, (c) prótese de Chanrley instalada e (d) malha de

elementos finitos aplicada ao problema.

V Simposio de Metodos Numericos Computacionais

163

São impostos à análise limites superior e inferior de densidades no valor de 6100,2 kg/mm³ e 6102,0 kg/mm³, referentes aos tecidos cortical e trabecular

respectivamente.

4 RESULTADOS E DISCUSSÕES

A Figura 4 apresenta os campos de densidades antes da realização da ATQ para o modelo

isotrópico (Figura 4a) e anisotrópico (Figura 4c). Para ambos os modelos, os principais

aspectos morfológicos encontrados em um fêmur humano saudável são encontrados. Regiões

com valores de densidade máxima são visualizados na fossa intertrocantérica e em torno da

diáfise femoral, resultando na formação dos córtices lateral e medial. Regiões de densidade

intermediária são encontradas no interior da diáfise do fêmur, sendo valores maiores para o

modelo anisotrópico quando comparado ao isotrópico, na região da crista intertrocantérica,

no pescoço e nas áreas de aplicação de carregamento. Há também, a formação do triângulo de

Ward, a formação do canal femoral e a distribuição característica de osso trabecular na região

do trocanter maior e na cabeça femoral, onde ocorre deposição preferencial de massa óssea

ao longo do caminho da carga compressiva. Também são apresentados os campos de

densidade recuperados para os modelos isotrópico (Figura 4b) e anisotrópico (Figura 4d).

(a) (b) (c) (d) Figura 4: Distribuição de densidades (a) inicial e (b) recuperada para o modelo isotrópico. Distribuição de

densidades (c) inicial e (d) recuperada para o modelo anisotrópico.

A Figura 5 apresenta o campo de densidade após 5 anos da realização do procedimento de

ATQ e a variação de ganho/perda de massa óssea ao longo da análise para as sete regiões de

Gruen, considerando o modelo isotrópico de remodelação óssea. O campo resultante

apresenta a ocorrência da reabsorção óssea adaptativa nas regiões 2 (córtex lateral), 6 (córtex

medial) e 7 (atrofia do calcar) de Gruen, sendo essas de maior intensidade na zona 2

(30,564%). Ocorre perda de densidade ao longo da interface osso/prótese caracterizando o

efeito clinicamente conhecido como Stress Shielding (GARCÍA et al., 2002). Este é um efeito

causado devido à redução de transmissão de esforços. Porém, na região 1 de Gruen, existe um

ganho de densidade óssea ao longo do trocanter maior, resultando em um ganho de massa de

8,07%, sendo este um fenômeno não encontrado quando comparado à uma radiografia

(Figura 6). Um aumento de massa óssea no canal medular (zona 4) pode ser visualizado,

sendo esta, uma tendência a formação de um pedestal ósseo na região distal da haste.

A Figura 7 apresenta o campo de densidades após 5 anos da realização do procedimento da

ATQ e a variação da perda/ganho de massa óssea para as sete regiões de Gruen, considerando

o modelo anisotrópico de remodelação. O campo resultante apresenta a ocorrência da

reabsorção óssea adaptativa nas regiões 1 e 2 (córtex lateral), 6 (córtex medial) e 7 (atrofia do

calcar) de Gruen, sendo essas de maior intensidade nas zonas 1 e 7 (42,528 e 39,332%). A

perda de densidade ao redor da haste femoral (regiões 1 e 2 de Gruen) caracteriza o efeito

V Simposio de Metodos Numericos Computacionais

164

clinicamente conhecido como Stress Shielding. Ao contrário do modelo isotrópico, não há a

formação de densidade óssea no trocanter maior. Um aumento de massa óssea no canal

medular (zona 4) pode ser visualizado, sendo esta, uma tendência a formação de um pedestal

ósseo na região distal da haste.

Figura 5: Campo de densidades para o modelo isotrópico de remodelação e variação das zonas de Gruen.

Figura 6: Acompanhamento clínico de pacientes após o procedimento da ATQ (BOCHIN e ALENCAR., 2007),

sendo (a) distribuição de densidades sem a ocorrência do stress shielding, com stress shielding (b) leve, (c)

moderado e (d) grave.

Figura 7: Campo de densidades para o modelo anisotrópico de remodelação e variação das zonas de Gruen.

V Simposio de Metodos Numericos Computacionais

165

5 CONCLUSÕES

O corrente trabalho teve como objetivo a avaliação do processo de remodelação óssea, em

um modelo tridimensional do fêmur humano, após a instalação de uma prótese femoral. Para

um fêmur intacto, o carregamento aplicado sobre o mesmo é transmitido ao longo de toda a

sua seção transversal. Devido ao material do componente inserido na articulação do quadril,

há alterações na condução e transmissão de esforços ao tecido ósseo. São utilizados os

modelos de remodelação isotrópico e anisotrópico de Stanford. Ambos os modelos

apresentam características que são encontradas em análise de radiografias de um fêmur

operado. Porém, o modelo de remodelação isotrópico apresenta um ganho de densidade ao

longo do trocanter maior (região onde estão conectadas as forças de reação musculares) que

não acontece clinicamente. O campo de densidades resultante para o modelo anisotrópico

apresenta a ocorrência do fenômeno de stress shielding ao longo da interface osso/prótese e

perda acentuada nos córtices medial e lateral podendo assim, ser classificado como um efeito

grave (Figura 6d), onde são encontradas várias regiões de perda de massa óssea ao longo da

diáfise femoral.

REFERÊNCIAS

BOCHIN, L. C., ALENCAR, P. G. C. “Stress shielding”: avaliação radiográfica após

seguimento a longo prazo. Revista Brasileira de Ortopedia, 41:290-296, 2007.

CARTER, D. R., Mechanical loading histories and cortical bone remodeling. Calcified Tissue

International, 36:S19-S24, 1984.

DICATI, G. W. O. Análise comparativa entre os modelos de Stanford isotrópico e

anisotrópico para remodelação óssea utilizando o método dos elementos finitos 2D e 3D.

Dissertação (Mestrado em Engenharia Mecânica) – Setor de Ciência e Tecnologia,

Universidade Federal do Paraná, Curitiba, 2015.

GARCÍA, J. M., DOBLARÉ, M., CEGOÑINO, J. Bone remodeling simulation: a tool for

implant design. Computational Materials Science, 25:100-114, 2002.

GRADCAB, 2014. Disponível em: http://www.grabcad.com. Acessado em: 20/04/2014

GRUEN, T. A., MCNEICE, G.M., AMSTUTZ, H.C., 1979. Models of failure of cemented

stem-type femoral components – a radiographic analysis of loosening. Clinical Orthopedics

and Relate Research, 141, 1979.

JACOBS, C. R., LEVENSTON, M. E., BEAUPRÉ, G. S., SIMO, J. C., CARTER, D. R.,

Numerical instabilities in bone remodeling simulations: the advantages of a node-based finite

element approach. Journal Biomechanics, 28:449-459, 1995.

JACOBS, C. R.; SIMO, J. C.; BEAUPRÉ, G. S.; CARTER, D. R. Adaptative bone

remodeling incorporating simultaneous density and anisotropy considerations. Journal of

Biomechanics, 30:603-613, 1997.

LEMAIRE V., TOBIN, F. L., GRELLER L. D., CHO C. R., SUVA L. J., Modeling the

interactions between osteoblast and osteoclast activities. Journal of Theoretical Biology, 229:

293-309, 2004.

MAGROGENIS, A. F., DIMITROU, R., PARVIZI, J., BABIS, G. C. Biology of implant

osseointegration. Journal of Musculoskeletal and Neuronal Interactions, 9:61-71, 2009.

OLIVEIRA, L. S. A. F., OLIVEIRA, C. S., MACHADO, A. P. L. M., ROSA, F. P.

Biomateriais com aplicação na regeneração óssea – método de análise e perspectivas futuras.

Revista de Ciências Médicas e Biológicas, 9:37-44, 2010.

YAN, W., BERTHE, J., WEN, C. Numerical investigation of the effect of porous titanium

femoral prosthesis on bone remodeling. Materials and Design, 32:1776-1782, 2011.

V Simposio de Metodos Numericos Computacionais

166

V Simposio de Metodos Numericos Computacionais

APLICAÇÃO DE CAOS EM REDES NEURAISAUTO-ORGANIZÁVEIS PARA RESOLVER PROBLEMAS COMO

O CAIXEIRO VIAJANTE

Resumo: Este trabalho apresenta uma proposta de melhoria para a solução do clássico Problema do CaixeiroViajante (PCV), para tanto utilizou-se a meta-heurística clássica Redes de Kohonen, que foi adaptada para resolvereste problema. Além dessa adaptação foi implementada a característica caótica nesse algoritmo com o objetivode testá-la e comprovar sua eficiência. São apresentados os primeiros resultados e discutida a possibilidade deaplicação dessa metodologia em outros problemas de otimização.

Palavras-Chave: Redes Neurais, Teoria do Caos, Problema do Caixeiro Viajante, Meta-heurísticas

1 INTRODUÇÃO

As redes neurais tem sido amplamente aplicadas nos mais diferentes campos científicos para a soluçãodos mais variados problemas, bem como as mais variadas meta-heurísticas baseadas em algum com-portamento biológico. Essas técnicas, em geral, tem alcançado um ótimo desempenho na solução deproblemas de alta complexidade computacional, em especial nos problemas da pesquisa operacional.

Admitindo heurísticas baseadas no modelo de aprendizado do cérebro humano e que a formação dessaexperiência se dá de maneira aleatória, os modelos heurísticos clássicos se mostram rígidos (DINGLE etal., 1993) e um tanto quanto limitados se comparados com a capacidade de aprendizado dos organismosbiológicos (HAYKIN, 2001). A melhor maneira de simular e/ou explicar o paradigma do aprendizadopara aproximar os algoritmos heurísticos da capacidade cognitiva das estruturas biológicas é a utilizaçãode caos nas redes neurais de qualquer natureza (DINGLE et al., 1993).

O Problema do Caixeiro Viajante é utilizado neste estudo, porque serve como plataforma de testespara investigar as diversas propostas heurísticas, além de ser um problema de alta aplicabilidade nomundo real, de fácil compreensão e descrição. Entretanto de difícil solução, pois pertence à classe deproblemas NP-hard e que demanda um tempo computacional que pode ser exponencial dependendo dainstância a ser solucionada. Assim, vários métodos como, por exemplo, apresentado por SIQUEIRA(2005) tem sido desenvolvidos com o propósito de resolver instâncias cada vez maiores desse problemaem um tempo computacional menor.

Os mapas auto-organizáveis são conhecidos por sua capacidade de agrupar padrões de entrada devidoao modelo de sua função de densidade de probabilidade gerar uma ordem espacial. O trabalho de DIN-GLE et all. (1993) apresenta simulações que ilustram a capacidade que o mapa auto-organizável caóticotem para executar cada uma destas tarefas. O caos é usado para escolher o neurônio vencedor de formaprobabilística mas, o efeito não é examinado em relação aos problemas difíceis como por exemplo naresolução do PCV.

Josue Ervin Musial, Paulo Henrique Siqueira

167

Este trabalho apresenta uma proposta de melhoria para a solução do clássico problema do CaixeiroViajante, para tanto utilizou-se a meta-heurística clássica Redes de Kohonen, que foi adaptada pararesolver este problema. Além dessa adaptação foi implementada a característica caótica nesse algoritmocom o objetivo de testá-la e comprovar sua eficiência. No final deste artigo apresentamos os primeirosresultados obtidos.

2 CAOS

Caos Determinístico ou simplesmente Caos é o fenômeno pelo qual um comportamento imprevisível,aparentemente aleatório é produzido por um sistema completamente determinístico. Tal atividade é sen-sivelmente dependente das condições iniciais e, por consequência, imprevisível. Deste modo, pequenasdiferenças nas condições iniciais podem gerar grandes diferenças nas saídas dentro de um tempo finito(OTT, 2002).

Um dos sistemas clássicos mais simples, capazes de produzir caos determinístico é a equação logís-tica:

y(n+ 1) = 4µ y(n) [1− y(n)] (1)

O comportamento dessa equação de diferença de primeira ordem muda drasticamente quando oparâmetro de bifurcação µ é alterado, conforme mostra a Figura 1. Para 2 < µ < 2, 9 a saída con-verge para um único valor diferente de zero. Quando µ > 2, 9 a saída começa a oscilar primeiro entre 2valores, depois 4 valores, em seguida, 8 valores e assim por diante, até que para µ > 3, 6 a saída se tornacaótica.

Figura 1: Diagrama de Bifurcação para o mapa logístico.

Num regime caótico um sistema apresenta sensibilidade às condições iniciais, ou seja, mesmo seas condições iniciais são próximas o resultado das iterações pode divergir exponencialmente, com odecorrer do tempo. Uma maneira de medir essa divergência é através do expoente de Lyapunov λ (OTT,2002).

O expoente de Lyapunov λ(x0) é definido na equação (2).

λ(x0) = limN→∞

1

N

N−1∑

n−1ln | f ′(xn) | (2)

onde N é o número de iterações, x1 = f(x0), x2 = f(x1) . . .. Assim se λ(x0) > 0 o sistema apresentaregime caótico e se λ(x0) ≤ 0 o sistema apresenta regime regular (OTT, 2002).

Outro conceito utilizado neste estudo é a unidade neural caótica fundamentada na equação logísticainvertida, na qual a entrada convencional da unidade neural é dada por:

net =∑

i

wixi (3)

onde xi são as entradas da rede neural e wi são os pesos associados. A próxima saída y(n+1) da unidadeneural depende da entrada da saída anterior como segue:

y(n+ 1) = 1− 4 [1− net] y(n) [1− y(n)] (4)

V Simposio de Metodos Numericos Computacionais

168

O comportamento desta unidade neural depende da sua entrada, se net < 0, 11 a unidade exibe ativi-dade caótica neural, pois satisfaz as mesmas condições da equação (1) que apresenta atividade caóticapara µ > 0, 89. Para 0, 11 < net < 0, 25 produz atividade periódica, enquanto que para net > 0, 25produz um único valor que cresce com o aumento do valor net e é igual a unidade para net > 0, 75.

Um dos pioneiros na utilização de caos em redes neurais foi AIHARA et all. (1990). Em seu tra-balho é proposto o modelo com um único neurônio com dinâmica caótica, considerando as seguintespropriedades dos neurônios biológicos: memória, refratariedade e soma espaço-temporal das entradas(AIHARA et all., 1990). O modelo contempla os modelos convencionais de um neurônio como um dosseus casos especiais; ou seja, a dinâmica caótica é apresentada como uma extensão natural dos modelosde neurônios não-caóticos. Em resumo o trabalho mostra a viabilidade da utilização de caos determinís-tico em redes neurais.

3 PROBLEMA DO CAIXEIRO VIAJANTE

O PCV é um típico problema de otimização combinatória, ele pode ser entendido como uma buscapelo menor caminho fechado que visita cada cidade uma vez e apenas uma vez. A forma de problema dedecisão do PCV é um NP-completo, por isso o grande interesse em heurísticas eficientes para resolvê-lo.Utilizado amplamente nos experimentos dos mais diversos métodos de otimização o PCV, pois trata-se de um problema de fácil descrição e compreensão. Entretanto apresenta uma grande dificuldadena obtenção da solução por que é um problema NP-Difícil (KARP, 1975), apesar disso apresenta umaaplicabilidade ampla.

Existem muitas das heurísticas que utilizam o paradigma da computação neural ou noções rela-cionadas recentemente. A primeira abordagem para o PCV via redes neurais foi no trabalho de Hopfielde Tank (1985), que foi baseado na minimização de uma função de energia, e os mínimos locais devemcorresponder a uma boa solução de uma instância do PCV. No entanto, esta abordagem não garante aviabilidade, ou seja, nem todos os pontos de mínimos da função energia representam solução viável parao PCV.

Outras técnicas clássicas são utilizadas para resolver o PCV, por exemplo, o método Simplex e osmétodos exatos como a inserção mais económica e a inserção do nó mais distante. Além das técnicasexistem outras maneiras para resolver o PCV, destacando-se os Algoritmos Genéticos (GOLDBERG,1986) e as Redes Neurais Artificiais (FAUSETT, 1994).

Uma técnica para a solução do PCV apresentada em SIQUEIRA (2005), utiliza a resolução clássicado problema da Designação como uma fase preliminar da resolução do PCV, na qual considera-se asolução ótima para a matriz de custos do problema da Designação como uma solução inicial para o PCV.Se a solução inicial determina uma rota viável então esta já é a solução ótima do PCV, caso contrário,um método “Winner Takes All” com rede recorrente é aplicado para viabilizar a solução.

4 REDES NEURAIS AUTO-ORGANIZÁVEIS

A rede de Kohonen, mais conhecida como rede Self-Organizing Map (SOM) ou ainda, rede de mapasauto-organizáveis, foi desenvolvida pelo finlandês Teuvo Kohonen na década de 80. Seu algoritmo temcomo princípio a auto-organização, um processo muito semelhante ao que ocorre no interior do cérebrohumano (KOHONEN, 2001). O modelo de Kohonen pertence a uma classe de algoritmos de codificaçãovetorial e, gera um mapeamento topológico dos vetores de entrada.

A rede SOM emprega uma mistura dinâmica de competição e cooperação para permitir a formaçãoemergente de um isomorfismo entre um espaço de característica e uma matriz de neurônios (HAYKIN,2001). Ela simplesmente inspeciona os dados de entrada, buscando regularidades e padrões e organiza-os de tal maneira a formar uma ordenada descrição dos dados de entrada. Esta descrição pode levar auma solução do problema em questão (LUEUG, 2004).4.1 Algoritmo SOM para Resolver o PCV

O algoritmo SOM para ser aplicado na resolução do PCV deve sofrer uma adaptação para que seobtenha como resposta, após o final do processo, uma sequência de cidades a serem visitadas, ou seja,uma rota solução para o PCV.

V Simposio de Metodos Numericos Computacionais

169

Para simplificar a implementação os dados de entrada bem como a camada de pesos, estes foramconvertidos em uma escala que varia no intervalo [0, 1] utilizando a equação (5)

xescala =(x− xmin)

(x− xmax)(5)

onde x é o valor da entrada a ser convertida e xmin e xmax são respectivamente os valores de mínimo emáximo das entradas antes da conversão para a escala (BAI et all., 2006).

A arquitetura SOM consiste além das entradas bidimensionais das coordenadas espaciais das cidadese de um anel sobre a qual os neurônios estão espacialmente distribuídos como pode ser observado naFigura 2. Dispor os neurônios em forma de anel é a maneira mais citada na literatura de adaptar oalgoritmo SOM para resolver o PCV.

Figura 2: Distribuição dos neurônios.

Os pesos dos neurônios definem a posição do neurônio no espaço. Os dados de entrada (um conjuntode n cidades) são apresentados ao SOM em uma ordem aleatória e uma competição baseada em distânciaeuclidiana é realizada entre os neurônios no anel. O neurônio vencedor é o neurônio i∗ que possui adistância mínima para a cidade apresentada.

Assim, o neurônio vencedor i∗, bem como os neurônios vizinhos movem-se na direção desse neurônio,usando a função de vizinhança:

f(σ, d) = exp

−d2σ2

. (6)

Os neurônios são atualizados segundo a seguinte função de atualização:

ynovoj = yatualj + α · f(σ, d) · (xi − yatualj ) (7)

onde α e σ são a taxa de aprendizagem e o parâmetro de vizinhança respectivamente. A distância cardinald = min ‖j − J‖,m− ‖j − J‖ é calculada ao longo dos neurônios j e J onde ‖ · ‖ representa o valorabsoluto. Taxa de aprendizagem tem característica dinâmica e diminui gradualmente durante o processode aprendizado, assumindo valores no intervalo (0; 1). Do mesmo modo, a função de vizinhança f(σ, d)assume um valor muito grande no início do treinamento, e diminui lentamente, em abrangência, com oprogresso do treinamento. Depois de muitas iterações os neurônios tendem a se aproximar das entradase finalmente convergem para elas. Uma vez que todos neurônios convergiram para os valores de entrada,basta ler as coordenadas na ordem em que aparecem. O resultando dessa sequência constitui uma soluçãopara o PCV em questão. A Figura 3 ilustra a evolução do algoritmo a partir do estado inicial do anel, (a)atingindo uma fase intermédia, após algumas iterações (b) e estabilizando no estado final (c).

O número de neurônios deve ser maior do que o número de cidades para evitar a oscilação de umneurônio e seus diferentes vizinhos. Uma boa alternativa é definir o número de neurônios m como sendoo dobro do número de vértices, ou seja, m = 2n.

V Simposio de Metodos Numericos Computacionais

170

Figura 3: Exemplo.

4.2 Caos em Redes de KohonenA aplicação de caos determinístico em redes de Kohonen foi feita pela primeira vez por DINGLE

AND JONES (1993). Os mapas auto-organizáveis convencionais utilizam unidades lineares:

ypj = netpj =M∑

i=1

wjixpi = wj e xp = ‖wj‖‖xp‖ cosφpj (8)

onde φpj é o ângulo entre o padrão de entrada xp e o vetor de peso wj . O vetor de peso da unidade neuralvencedora e os seus vizinhos são modificados de acordo com a seguinte regra, que gira no sentido wj opadrão de entrada xp:

wj =watual

j + λxp

‖watualj + λxp‖

(9)

A taxa de aprendizado λ, geralmente, diminui de forma linear ao longo da sessão de treinamento deum valor inicial λ(0) para um valor finalλmin.

O caos pode ser introduzido no mapa auto-organizével por substituição dos neurônios lineares da redeconvencional por neurônios caóticos (4).

5 METODOLOGIA

Uma adaptação ao algoritmo SOM para a solução do TSP, proposta por CASTRO et all. (2009),adapta o algoritmo clássico para obtenção dos coeficientes de aprendizagem e raio de vizinhança pelasseguintes equações:

αn =13√n

(10)

σn = σn−1 × (1− 0.01× n) (11)

em que σ0 =l

4× c , l é o número de neurônios e c é uma constante, neste trabalho foram adotados os

seguintes valores: c = 8 ou c = 10.O algoritmo modificado segue os seguintes passos:

1. Inicialização: as entradas do algoritmo são formadas pelas coordenadas cartesianas das cidades,juntamente com o número de neurônios escolhidos para os cálculos. O número de neurôniosdevem ser maiores que o número de cidades e inicialmente são dispostos em um retângulo queenvolve a posição geométrica das cidades.

2. Parâmetros de adaptação: αn e σn calculados de acordo com as equações (10) e (11).

V Simposio de Metodos Numericos Computacionais

171

3. Avaliação da vizinhança: que é obtida pela avaliação dos parâmetros de vizinhança e aprendizagematravés de sua atualização.

4. Competição: Cálculo do neurônio vencedor

5. Cooperação O neurônio vencedor tem sua vizinhança adaptada de acordo com a evolução do raioe coeficiente cognitivo descritos no passo 3 e acrescido da soma de um termo com característicacaótica.

6. Adaptação: Retorne ao passo 2 enquanto αn > αmin.

6 RESULTADO E DISCUSSÕES

O algoritmo SOM possui dois parâmetros adaptativos, o coeficiente de aprendizagem αn e a funçãode vizinhança (normalmente a função gaussiana é adotada) e o coeficiente de variância σn propostos porKohonen apresentam um decréscimo exponencial.

Para o teste inicial foram escolhidas algumas instâncias do PCV, descritas brevemente na Tabela 1.

Instâncias Número de Cidades Tamanho da rota ótimaulisses22 22 70.13

Eil51 51 426Eil76 76 538eil101 101 629gr96 96 55209st70 70 675

Tabela 1: Instâncias utilizadas nos experimentos computacionais.

Os primeiros resultados foram obtidos utilizando o algoritmo SOM e o algoritmo SOM modificadocom característica caótica SOM/Caos. O método foi aplicado 5 vezes para cada instância e resultou emuma solução média. Os resultados são apresentados na Tabela 2.

Instâncias SOM SOM/Caos Erro em (%)ulisses22 80.12 76.53 9

Eil51 464.28 455.14 6.8Eil76 581.64 571.52 6.2eil101 661.68 656.54 4.3gr96 55391.3 55384.56 3.2st70 712.47 709.23 5.0

Tabela 2: Instâncias utilizadas nos experimentos computacionais.

Inicialmente os neurônios são dispostos em uma malha com formato parabólico, envolvendo ascidades e o algoritmo SOM/Caos modela essa malha ajustando a rota solução do PCV apresentada peloalgoritmo. A Figura 4 apresenta o resultado do algoritmo SOM/Caos, aplicado na instância “Eil51”,após a inclusão das cidades que ficaram fora da rota e aplicação do refinamento, caso tenha ocorridocruzamento de arcos6.1 Considerações Finais

Neste trabalho é feita uma proposta acrescentando a característica caótica ao algoritmo heurísticoclássico de mapas auto-organizáveis, na tentativa de tornar essa busca mais semelhante aos processosnaturais biológicos.

O foco inicial deste trabalho é a solução do PCV devido a pelo menos três características, que são:sua grande aplicação prática, uma enorme relação com outros modelos LAPORTE et al, (2000) e sua

V Simposio de Metodos Numericos Computacionais

172

Figura 4: Resultado final do algoritmo SOM/Caos para a instância Eil51.

grande dificuldade de solução exata. Dessa forma, a importância do modelo é indiscutível, tanto sob oaspecto prático, como o teórico.

A implementação inicial dos algoritmos foi programada na linguagem computacional Microsoft Vi-sual Basic, versão 2010 e posteriormente transcritos para a linguagem C++. Foi desenvolvido umsoftware utilizado como uma ferramenta capaz de testar as instâncias do PCV extraídos da bibliotecaTSPLIB95 e, resolvidos pelos algoritmos clássicos de mapas auto-organizáveis e mapas auto-organizáveiscom introdução de caos.

Tal resultado mostra que o algoritmo converge para a solução, e os neurônios inicialmente dispostosem um retângulo (ou anel) envolvendo as cidades se aproximam de uma solução. O algoritmo tem umbom potencial e possibilidade de melhoria substituindo a função com característica caótica ou fazer umacombinação com heurísticas de refinamento 2-opt ou 3-opt.

REFERÊNCIAS

Aihara K.; Toyoda, M. Chaotic neural networks. Physics Letters A, v. 144, p. 333 - 340, 1990.Bai Y.; Zhang, W. J. Z. An new self-organizing maps strategy for solving the traveling salesman problem.

Chaos, Solutions and Fractals, v. 28, p. 1082 - 1089, 2006.Castro L. N. de ; Masutti, T. A. S. A self-organizing neural network using ideas from the immune system

to solve the traveling salesman problem. Information Sciences, v. 179, p. 1454 - 1468, 2009.Dantzig G.B.; Rasmer, J. The truck dispatching problem. Management Science, v. 6, n. 1, p. 80 - 91,

1959.Dingle A. A. ; Andreae, J. H. J. R. D. The chaotic self-organizing map. Proc. of First New Zealand

International Two-Stream Conference on Artificial Neural Networks and Expert Systems, p. 15 - 18,1993.

Fausett, L. Fundamentals of Neural Networks. New Jersey: Prentice Hall, 1994.Goldberg, D. Genetic Algorithms in Search, Optimization and Machine Learning. New Jersey: Menlo

Park, Addison-Wesley, CA, 1986.Haykin, S. S. Redes Neurais: Princípios e Prática. Canada: Pearson Education Inc., 2001.Karp, R. On the computational complexity of combinatorial problems. Networks, v. 5, p. 45 - 68, 1975.Kohonen, T. The self-organizing map. Proceedings of the IEEE, v. 78, p. 1464 - 1480, 1990.Kohonen, T. Self-Organizing Maps. New York: Springer, 2001.Laporte G.; Gendreaub, M. P. J. S. F. Classical and modern heuristics for the vehicle routing problem.

International Transactions in Operational Research, v. 7, p. 285 - 300, 2000.Murty, K. Linear and combinatorial programming. Florida: Springer, 1985.Ott, E. Chaos in Dynamical Systems. Maryland: Cambridge University Press, 2002.Siqueira, P. Uma Nova Abordagem na Resolução do Problema do Caixeiro Viajante. Tese (Doutorado) -

Universidade Federal do Paraná, 2005.

V Simposio de Metodos Numericos Computacionais

173

V Simposio de Metodos Numericos Computacionais

UMA RESOLUÇÃO DO PROBLEMA DO CAIXEIRO VIAJANTE POR

MAPA AUTO-ORGANIZÁVEL DE KOHONEN

Resumo: Este artigo apresenta um método para solucionar o problema do caixeiro viajante baseado

no mapa auto-organizável de Kohonen, com possibilidade de inserção e eliminação de neurônios.

Será apresentado o modelo matemático para o problema do caixeiro viajante, o mapa

auto-organizável de Kohonen. E para testar o funcionamento do algoritmo são usadas instâncias do

banco de dados TSPLIB. As soluções obtidas pelo mapa auto-organizável de Kohonen serão

confrontadas com as melhores soluções encontradas de cada instância.

Palavras-chave: Caixeiro viajante, mapa auto-organizável de Kohonen

Joyce Rodrigues da Silva

174

1 INTRODUÇÃO

O caixeiro-viajante pode ser exemplificado como um vendedor que precisa visitar diversos clientes,

somente uma vez. O objetivo é realizar este trabalho percorrendo o menor caminho possível. O

problema é de fácil compreensão, porém segundo LAPORTE (1992), o problema do caixeiro

viajante é um dos mais desafiadores, por isso é tão estudado.

O problema do caixeiro-viajante atrai pesquisadores de diversas áreas, devido a sua grande

aplicabilidade. Muitos problemas encontrados em situações reais podem ser modelados de forma

similar ao problema do caixeiro viajante ou suas variantes. Apesar de que sua formulação

matemática seja simples, nesse problema é possível encontrar várias questões estudadas em

otimização combinatória, por isso, ele tem sido utilizado como referência para avaliação de novos

algoritmos e heurísticas, como busca tabu, algoritmos genéticos, simulated annealing e redes neurais

artificiais, segundo CUNHA (2014).

Neste trabalho, utilizou-se um mapa auto-organizável de Kohonen para a resolução do problema do

caixeiro viajante. Em CALADO e LADEIRA (2001), pode ser encontrado um estudo comparativo

entre mapa auto-organizável e outras técnicas de inteligência artificial para a solucionar o problema

do caixeiro viajante.

2 O PROBLEMA DO CAIXEIRO VIAJANTE

É considerado G = (M,E) um grafo completo e não orientado em que M é o conjunto que representa

os m clientes e E é o conjunto que representa as ligações entre os clientes, e para qualquer par de

clientes, i,j M com i ≠ j, existe uma aresta (i,j) correspondente.

A seguir, será aprensentado o caso simétrico, baseado no modelo apresentado por ARENALES et al.

(2007, p. 186-187).

Definindo cij como a distância entre a cliente i e o cliente j, se cij = cji o problema é chamado

simétrico.

Seja a variável de decisão:

Então o modelo pode ser descrito como:

∑∑

(1)

(2)

∑∑

∑∑

⌋ (3)

(4)

Como o objetivo é a rota de menor distância, usa-se a função minimizar em (1). São somadas às

distâncias de todos os caminhos possíveis. Nota-se que j>i, pois as distâncias são iguais, ou seja,

cij = cji .

As restrições em (2) impõem que cada cliente i tenha somente um cliente anterior e um cliente

posterior na sua rota, criando assim o ciclo que o caixeiro percorrerá.

Supondo S uma sub-rota, com cardinalidade de no mínimo 3, e no máximo ⌊

⌋ nós, e considerando

|S|=k, a restrição (3), garante que são eliminados os ciclos com k nós e também os ciclos com n-k

nós. Por exemplo na Figura 1, supor um conjunto M com cardinalidade 9 e um subconjunto S com

cardinalidade 3, a sub-rota é a linha pontilhada e para que não haja sub-rota é necessário que pelo

V Simposio de Metodos Numericos Computacionais

175

menos dois arcos liguem o subconjunto S com o resto dos nós como é demostrado pelas linhas

tracejadas.

Figura 1: exemplo de sub-rota da restrição (3)

A restrição (4) é utilizada para indicar que as variáveis de decisão são binárias.

3 MAPA AUTO-ORGANIZÁVEL DE KOHONEN

O mapa auto-organizável de KOHONEN (1982) pertencem a uma classe de redes neurais artificiais

baseadas em aprendizado competitivo, em que os neurônios tendem a aprender a distribuição

estatística dos dados de entrada. A Figura 2 exibe uma arquitetura típica do mapa auto-organizável,

na qual todas as unidades de entrada encontram-se conectadas a todas as unidades de saída

(neurônios) através de conexões sinápticas.

Figura 2: Arquitetura de uma rede neural auto-organizável.

De acordo com HAYKIN (1998), a aprendizagem competitiva consiste na competição entre si dos

neurônios da camada de saída da rede neural. Sendo assim, somente um único neurônio está ativo em

um determinado instante. Essa característica torna a aprendizagem competitiva adequada para

descobrir características estatisticamente salientes que podem ser utilizadas para classificar um

conjunto de padrões de entrada. Os neurônios, além de conectados a camada de entrada, eles podem

incluir conexões de realimentação entre os neurônios, conforme mostrado na Figura 3.

Figura 3: Arquitetura de uma rede com aprendizagem competitiva, adaptado do HAYKIN (1998).

O algoritmo que forma o mapa auto-organizável envolve 4 etapas principais, resumidas a seguir:

Inicialização do mapa: definir os pesos sinápticos iniciais, atribuindo-lhes valores pequenos

e aleatórios.

V Simposio de Metodos Numericos Computacionais

176

Processo competitivo: ao apresentar um padrão de entrada, os neurônios competem entre si

através de seus níveis de ativação, sendo que apenas um neurônio será o vencedor.

Processo cooperativo: é inspirado em um mecanismo neurobiológico, no qual o neurônio

vencedor do processo competitivo tende a influenciar o estado dos neurônios vizinhos.

Adaptação sináptica: nesta fase, os pesos sinápticos do neurônio vencedor e seus vizinhos

são atualizados de modo a se aproximarem espacialmente do padrão de entrada.

3.1 Estrutura da rede neural aplicada ao problema e o algoritmo proposto

A arquitetura da rede adotada é parecida com a que foi exibida na Figura 2, com a relação de

vizinhança unidimensional. A primeira camada é composta pelos padrões de entrada, que para o caso

do caixeiro viajante é as coordenadas dos clientes e a segunda camada é formada pelos neurônios de

saída. No final do algoritmo a ordem em que os neurônios são apresentados pela rede, indica a

sequência que o caixeiro viajante deverá percorrer.

O algoritmo proposto segue as 4 etapas principais descritas anteriormente e durante a execução é

adotado a politica de remoção e inserção de neurônios. O pseudo-código a seguir ilustra de forma

simplificada o procedimento realizado para encontrar uma solução do problema do caixeiro viajante.

Algoritmo 1: treinamento de um mapa auto-organizável.

Entrada: coordenadas dos clientes, número máximo de iterações, taxa de aprendizado, raio de

vizinhança.

Saída: pesos para rede neural de Kohonen treinada.

1 Inicialização do mapa;

2 Enquanto não satisfizer o critério de parada faça:

3 Para todas as entradas faça:

4 Encontre o neurônio vencedor que apresentar maior correlação com a entrada selecionada;

5 Encontre os neurônios vizinhos do neurônio vencedor;

6 Atualiza os pesos sinápticos, do vencedor e seus vizinhos;

7 Reduza a taxa de aprendizado;

8 Reduza o valor da vizinhança;

9 fim-para;

11 Insere ou apaga os neurônios;

12 fim-enquanto;

13 retorna rede neural de Kohonen treinada.

ANGÉNIOL et al. (1988) descreve que a inicialização do mapa deve ser um anel em torno da região

onde se deseja criar a rota. Como a distribuição inicial dos neurônios tem influencia direta sobre a

configuração final do mapa, esse ponto é crucial para um bom desempenho do algoritmo.

Quando a coordenada de um cliente é apresentada a rede, é selecionado um neurônio vencedor de

acordo com o critério de similaridade. Para o problema do caixeiro viajante, o critério de

similaridade é a menor distância euclidiana entre a coordenada do cliente e o neurônio.

O processo cooperativo é inspirado em um mecanismo neurobiológico, no qual um neurônio que se

encontra no estado ativo tende a influenciar o estado dos neurônios vizinhos. A vizinhança

considerada nesse algoritmo proposto é unidimensional, limitada ao anel onde se encontra o neurônio

vencedor. A variável que representa a vizinhança decresce conforme o número de épocas

transcorridas. Para a vizinhança unidimensional, a função de ativação da vizinhança é definida de

acordo com a equação (5).

(

)

(5)

O índice i(x) é o índice do neurônio vencedor para o cliente x, j é o índice de um neurônio vizinho,

dj,i representa a distância lateral entre o neurônio vencedor i e o neurônio vizinho j e σ é o desvio

padrão. No caso da vizinhança unidimensional, a distância lateral dj,i é dada pelo grau de vizinhança.

V Simposio de Metodos Numericos Computacionais

177

O raio de vizinhança afetado pelo neurônio vencedor decai com o número de iterações. O

decaimento é controlado pelo desvio padrão associado à função de vizinhança gaussiana e é

calculado pela equação (6).

(

)

(6)

O valor inicial de σ é representado por σ0, é uma constante de tempo que define o fator de

redutibilidade da vizinhança e n é o número da época.

A adaptação dos pesos sinápticos para o neurônio vencedor e sua vizinhança na época n+1 é feita de

acordo com a equação (7).

(7)

A taxa de aprendizado é µ, x representa as coordenadas do consumidor em questão e wj é o vetor de

pesos referente ao neurônio j.

A taxa de aprendizagem µ assume inicialmente o valor de 0.6 e decai com o número de épocas de

acordo com a equação (8).

(

)

(8)

O processo de inserção e remoção de neurônios durante o treinamento da rede foi introduzido por

ANGÉNIOL et al. (1988). Um neurônio é duplicado se ele for escolhido como vencedor por dois

clientes diferentes na mesma época de treinamento. O neurônio duplicado é inserido no anel como

um vizinho de grau 1 do vencedor e com as mesmas coordenadas. Na próxima época de treinamento

os neurônios duplicados serão separados pela atualização dos seus vizinhos. Garantindo assim que

cada cliente tenha um neurônio associado. Um neurônio é deletado se após 3 épocas de treinamento

não tenha sido escolhido como vencedor para nenhum cliente. ANGÉNIOL et al. (1988) garante

experimentalmente que isso ajuda a encontrar soluções quase ótimas.

4 RESULTADOS COMPUTACIONAIS

O algoritmo proposto foi desenvolvido para ser executado no aplicativo Matlab. O computador usado

nos testes possui um processador Pentium Dual-Core T4500 2,30 GHz com 4,00 GB de memoria

ram e sistema operacional Windows 7 Home Basic (64 bits). A versão do aplicativo do Matlab é a

R2013a.

Para todas as instâncias testadas foram usadas os mesmos parâmetros para realização dos testes. A

taxa de aprendizagem foi usada com o valor de 0.6, o número máximo de épocas foi estipulado como

3000 e o raio de vizinhança de grau 3. As instâncias utilizadas foram obtidas na base de dados

TSPLIB e o número ao final do nome da instância se refere à quantidade de dados. Foi executado a

implementação do mapa auto-organizável 10 vezes para cada instância e os menores valores obtidos

estão na Tabela 1. Usou-se 3 critérios de parada, o primeiro é o numero de iterações menor que 3000,

o segundo é taxa de aprendizagem diferente que 0.01 e o terceiro é a distância entre o neurônio

vencedor e cada cliente referente a esse neurônio seja menor que 0.01. A ordem em que os neurônios

são apresentados ao final do treinamento representa a rota que o vendedor deverá fazer para

minimizar a distância percorrida.

É possível observar que o número de iterações até ser obtida a solução é no máximo 1154 e o tempo

de processamento é relativamente pequeno para as 5 primeiras instâncias da Tabela 1.

Ao comparar a melhor solução encontrada até o momento com a solução obtida, nas instâncias

EIL51, EIL101 e TPS225, é verificado que o valor obtido é próximo do valor conhecido. Porém não

é encontrado o mesmo valor.

V Simposio de Metodos Numericos Computacionais

178

Instância Melhor solução conhecida

(distância)

Solução obtida

(distância) Tempo(s) Nº iterações

EIL51 426 428 14 953

EIL101 629 649 27 952

TPS225 3916 4018 70 963

PCB442 50778 54163 153 1154

PR1002 259045 271937 363 1007

PR2392 378037 409339 1142 1151 Tabela 1: Resultados computacionais obtidos para o problema do caixeiro viajante, comparados com as melhores

soluções conhecidas disponíveis em: < http://www.iwr.uni-heidelberg.de/groups/comopt/software/TSPLIB95/tsp/>.

5 CONCLUSÕES

O algoritmo proposto mostrou-se eficiente, pois conseguiu solucionar o problema do caixeiro

viajante. O método para obtenção da solução é simples e pode ser implementado em qualquer

linguagem. Por mais que não foi possível encontrar as mesmas soluções que as melhores conhecidas,

ressalta-se que nenhum dos parâmetros foram alterados durante os testes e mesmo assim foram

encontradas boas soluções para instâncias com poucas quantidades. Já para grandes quantidades as

soluções obtidas não foram tão boas, mas foi possível encontrar uma solução.

O mapa auto-organizável de Kohonen para solucionar o problema do caixeiro viajante pode ser uma

boa opção para encontrar soluções iniciais para ser usado em meta-heuristicas, já que o custo

computacional é pequeno. Existem duas grandes vantagens em usar a abordagem proposta, a

primeira é a ausência da necessidade de ajuste de parâmetros de acordo com as peculiaridades de

cada instância do problema e a segunda é a possibilidade de aplicação a problemas de grande porte

sem que haja a explosão do custo computacional.

6 REFERÊNCIAS

ANGÉNIOL, B., VAUBOIS, C. & LE TEXIER, J., Y., “Self-organizing feature maps and the

travelling salesman problem”, Neural Networks,1, 289-293, 1988.

ARENALES, M.; ARMENTANO, V.; MORABITO, R.; YANASSE, H.. Pesquisa operacional. Rio

de Janeiro, Elsevier, p.186-187, 2007.

CALADO, F. M.; LADEIRA, A. P. Problema do caixeiro viajante: Um estudo comparativo de

técnicas deinteligência artificial. e-Xacta, v. 4, p. 5–16, 2001.

CUNHA, C. B.; BONASSER, U. O.; ABRAHÃO, F. T. M. Experimentos computacionais com

heurísticas de melhorias para o problema do caixeiro viajante. Anais do XVI Congresso da Anpet –

Associação Nacional de Pesquisa e Ensino em Transportes. Natal, RN: ANPET. v. 2, p. 105–117,

2002.

HAYKIN, S. Neural Networks: A Comprehensive Foundation. 2nd. ed. Upper Saddle River, NJ:

Prentice Hall, 1998.

KOHONEN, T. Self-organized formation of topologically correct feature maps. Biological

Cybernetics, Springer-Verlag, v. 43, n. 1, p. 59–69, 1982.

LAPORTE, G. The traveling salesman problem: An overview of exact and approximate algorithms.

European Journal of Operational Research, v. 59, n. 2, p. 231 – 247, 1992.

V Simposio de Metodos Numericos Computacionais

179

V Simposio de Metodos Numericos Computacionais

ANÁLISE DE ESTABILIDADE E CONVERGÊNCIA DE UMMÉTODO ESPECTRAL TOTALMENTE DISCRETO PARA

SISTEMAS DE BOUSSINESQ

Resumo: Na primeira parte deste trabalho, apresentamos a análise de estabilidade da família linear de sistemasde Boussinesq com o objetivo de determinar a influência de seus parâmetros (a, b, c, d) na eficiência e precisãodo método espectral de colocação de Fourier aplicado na variável espacial, juntamente com o método de RungeKutta de quarta ordem aplicado na variável temporal. São identificadas quais regiões de parâmetros são as maisadequadas para a obtenção de uma solução numérica consistente. Na segunda parte é apresentada a análise deconvergência da família não linear de sistemas de Boussinesq nos casos em que a condição de estabilidade linearé dada por ∆t ≤ C∆x. Experimentos numéricos são fornecidos com o objetivo de verificar a estabilidade dassoluções do problema linear nas regiões de parâmetros que apresentam resolução numérica com baixo custo com-putacional.

Palavras-Chave: Sistemas de Boussinesq, Método Espectral de Colocação de Fourier, Método deRunge-Kutta, Simulações Numéricas

1 INTRODUÇÃO

Em 1870, Boussinesq obteve em Boussinesq (1872) os primeiros modelos de equações de evolução,que foram utilizados inicialmente para descrever a propagação de ondas bidimensionias, e se apresen-tavam sob a forma de uma perturbação da equação da onda unidimensional. Além disso, decorriamdiretamente da formulação Euleriana do problema da onda de água, e utilizavam, dentre outras hipóte-ses, a propagação unidirecional da onda. Como consequência disto, os modelos obtidos por Boussinesqsão formalmente comparados com o conhecido modelo obtido por Korteweg e de-Vries alguns anos maistarde em Korteweg and Vries (1895), chamado de equação de KdV.

O objetivo deste trabalho é desenvolver a análise de estabilidade e convergência da família de sistemasde Boussinesq da forma

ηt + ux + (uη)x + auxxx − bηxxt = 0,ut + ηx + uux + cηxxx − duxxt = 0,

(1)

que foi obtida e analisada em Bona et al. (2002), como um modelo assintótico obtido a partir dasequações de Euler para ondas de pequena amplitude e grande comprimento de onda. Os parâmetrosa, b, c, d são tais que,

a =1

2

(θ2 − 1

3

)λ, b =

1

2

(θ2 − 1

3

)(1− λ), c =

1

2

(1− θ2

)µ, d =

1

2

(1− θ2

)(1− µ), (2)

Juliana Castanon Xavier, Mauro Antonio Rincon,Daniel Gregorio Alfaro Vigo, David Amundsen

180

com λ, µ ∈ R e 0 ≤ θ ≤ 1.O sistema (1) descreve a propagação não linear de ondas de pequena amplitude em um canal. As

variáveis dependentes η = η(t, x) e u = u(t, x) representam, respectivamente, a altura da superfícielivre do fluido em relação a superfície de repouso e a velocidade horizontal do fluido em algum pontoacima do fundo do canal. Até onde sabemos, a maior parte dos resultados numéricos para esses sistemassão concentrados em escolhas específicas dos parâmentros (a, b, c, d), como por exemplo em Dougaliset al. (2010).

Embora esses resultados respondam a uma importante pergunta levantada em Bona et al. (2002),sobre a construção de métodos numéricos eficientes e precisos para a obtenção de soluções aproximadasde problemas de valor inicial e de contorno (PVICs) relacionados com esses sistemas, seria útil explorarde maneira mais abrangente e consistente a escolha desses parâmetros na construção destes esquemasnuméricos.

Nosso objetivo é analisar a influência de diferentes escolhas dos parâmetros a, b, c, d na eficiênciae precisão de um esquema numérico. Para isto, aplicamos conjuntamente o método espectral de colo-cação de Fourier para a discretização espacial e o método de Runge-Kutta (RK) de quarta ordem para adiscretização temporal.

A análise de convergência relacionada com a discretização espacial do problema, indica qual a ordemde precisão no espaço que podemos obter soluções aproximadas. Essa ordem de precisão está fortementerelacionada com a regularidade das soluções do sistema (1). Por outro lado, a análise da discretizaçãotemporal indica a eficiência e precisão nas aproximações temporais da solução. Essa informação não estádiretamente relacionada com a regularidade espacial da solução, mas sim com propriedades dispersivase de estabilidade das equações totalmente discretizadas.

Portanto, após toda a análise numérica, identificamos quais escolhas particulares dos parâmetrosa, b, c, d geram os mais precisos e eficientes esquemas numéricos. Na seção 2 é feita a análise de es-tabilidade da versão linear do sistema (1) através da análise de von Neumann, e na seção 3 são dadosos resultados da análise de convergência do problema não linear para os casos com condição de estabi-lidade linear numérica mais interessantes, isto é, aquelas do tipo ∆t ≤ C e ∆t ≤ C∆x. Na seção 4 sãoapresentados alguns experimentos numéricos com o objetivo de verificar a estabilidade das soluções doproblema linear em algumas regiões especiais de parâmetros.

2 ANÁLISE DE VON NEUMANN DO SISTEMA LINEAR DISCRETIZADO

Analisamos os sistemas de Boussinesq dados por (1) num domínio Ω = [−L,L] com condições decontorno periódicas em Ω. Aplicamos o método de colocação de Fourier na variável espacial do sistema(1) sem os termos (ηu)x e uux, que é a versão linear do sistema original. Obtemos então, o seguintesistema de equações diferenciais ordinárias:

ηt = −ikw1(k)u,ut = −ikw2(k)η,

(3)

válido para cada k = πL

−N2

+ 1, . . . , N2

, com w1(k) =

1− ak2

1 + bk2e w2(k) =

1− ck2

1 + dk2. Aplicando a

análise de estabilidade de Von Neumann no sistema (3), obtemos o seguinte resultado:

Teorema 2.1. O sistema (3) é estável se ∆t ≤ CN−` para alguma constante positivaC e ` ∈ 0, 1, 2, 3,onde ∆t é o tamanho do passo de tempo e N é o número de pontos considerados na discretizaçãoespacial. O valor de ` irá depender da região à qual pertencem os parâmentos (a, b, c, d), como podeser observado na Tabela 1.Prova. Para aplicar a análise de von Neumann ao sistema (3) precisamos discretizar a variável temporalt. Para isso, vamos aplicar o método de RK de quarta ordem, partindo das expansões de Taylor de η e uem uma vizinhança de (t −∆t). Avaliando essas expansões no ponto t = tn+1 = tn + ∆t, chegamos aum sistema linear, representado na sua forma matricial por

[ηn+1k

un+1k

]= Gk

[ηnkunk

], (4)

V Simposio de Metodos Numericos Computacionais

181

onde a matriz Gk =

[A(k) B(k)C(k) A(k)

]é tal que

A(k) = 1− k2w1(k)w2(k)∆t2

2!+ k4w2

1(k)w22(k)∆t4

4!,

B(k) = −ikw1(k)∆t+ ik3w21(k)w2(k)∆t3

3!,

C(k) = −ikw2(k)∆t+ ik3w1(k)w22(k)∆t3

3!.

(5)

Estamos interessados em soluções do tipo[ηnkunk

]= gnk

[akbk

], com ak, bk 6= 0. Para determinar

o fator de amplificação gk, substituímos o tipo de soluções que temos interesse em (4), e levando emconsideração a definição da matriz Gk, obtemos que

g±k = A(k)±√α(k), (6)

em que

α(k) = −k2w1(k)w2(k)∆t2 +k4

3w2

1(k)w22(k)∆t4 − k6

36w3

1(k)w32(k)∆t6, (7)

para cada k = πL

−N2

+ 1, . . . , N2

.

De acordo com a análise de von Neumann, para que a solução de (4) seja estável, é suficiente queo fator de amplificação gk seja tal que |gk| ≤ 1 para todo k. De (6) e (7), notamos que isso equivale adeterminar os valores de y que satisfazem

|g±k | − 1 =y3

576(y − 8) , em que y = k2w1(k)w2(k)∆t2. (8)

Assim, levando em conta que quando k = 0 não há nenhuma restrição para ∆t, concluímos que parak = π

L

−N2

+ 1, . . . , N2

, com k 6= 0, temos que |g±k | ≤ 1 se, e somente se,

0 ≤ k2w1(k)w2(k)∆t2 ≤ 8 ⇔ 0 ≤ ∆t ≤√

8 (|ω(k)|)−1 , (9)

em que ω(k) = kσ(k) = k√w1(k)w2(k).

A conclusão do Teorema 2.1, isto é, a condição de estabilidade do sistema (4) do tipo ∆t ≤ CN−`

para alguma constante positiva C e ` ∈ 0, 1, 2, 3, segue da análise do comportamento assintótico deω(k) quando k se aproxima do infinito. Esse comportamento varia de acordo com a região de parâmetrosconsideradas (aquelas com resultados sobre boa colocação do problema linear - ver Bona et al. (2002)),como pode ser observado na Tabela 1.

3 ANÁLISE DE CONVERGÊNCIA DO SISTEMA NÃO LINEAR DISCRETIZADO

Para o problema não linear, realizamos a análise de convergência do sistema (1) totalmente dis-cretizado pelos métodos de colocação de Fourier na variável espacial e o método de RK de quarta ordemna variável temporal. Essa análise de convergência está direcionada, inicialmente, para algumas regiõesespecíficas de parâmentros (a, b, c, d); a saber, aquelas que fornecem condição de estabilidade para oproblema linear do tipo ∆t ≤ CN−1. Esses casos, juntamente com aqueles em que a condição de esta-bilidade do problema linear é dada por ∆t ≤ C, compõem os casos de maior interesse numérico devidoao baixo custo computacional na sua implementação.

A seguir, enunciamos o resultado global para esses casos, mas o demonstramos para a região a <0, b > 0, c < 0, d > 0. A demonstração para as outras sete regiões com ` = 1 na Tabela 1 seguem demaneira análoga, com algumas pequenas modificações.

Teorema 3.1. Sejam s ≥ 4 e (η, u) ∈ C(0, T ;Hs(Ω) × Hs+2(Ω)) solução do sistema (1) para umadeterminada região de parâmetros (a, b, c, d) e para algum 0 < T < ∞, com dado inicial (η0, u0) ∈Hs(Ω)×Hs+2(Ω). Suponha que exista uma constante M tal que maxt∈[0,T ] (‖∂5

t η(t)‖1 + ‖∂5t u(t)‖1) ≤

V Simposio de Metodos Numericos Computacionais

182

` = 0 ` = 1a < 0, b > 0, c = 0, d > 0 a < 0, b > 0, c < 0, d > 0a = 0, b > 0, c < 0, d > 0 a < 0, b > 0, c = 0, d = 0a = 0, b > 0, c = 0, d = 0 a = 0, b > 0, c < 0, d = 0a = 0, b > 0, c = 0, d > 0 a < 0, b = 0, c = 0, d > 0a = 0, b = 0, c = 0, d > 0 a = 0, b = 0, c < 0, d > 0

a = 0, b = 0, c = 0, d = 0a = c > 0, b > 0, d > 0a = c > 0, b = d < 0

` = 2 ` = 3a < 0, b > 0, c < 0, d = 0 a < 0, b = 0, c < 0, d = 0a < 0, b = 0, c < 0, d > 0 a = c > 0, b = 0, d = 0a < 0, b = 0, c = 0, d = 0a = 0, b = 0, c < 0, d = 0a = c > 0, b = 0, d > 0a = c > 0, b > 0, d = 0

Tabela 1: Variação de ` nas regiões de parâmetros.

M . Seja (Hn, Un) solução do problema totalmente discreto associado. Então, para N suficientementegrande e ∆t suficientemente pequeno tais que ∆t ≤ cN−1 para alguma constante C > 0, existe umaoutra constante, também denotada por C, independente de N , tal que:

max0≤n≤M

(‖η(tn)−Hn‖1 + ‖u(tn)− Un‖1) ≤ C(∆t4 +N1−s) (10)

Notação. Dado um inteiro positivo N , definimos o espaço SN = spane−ikx,−N ≤ k ≤ N

. Além

disso, consideramos PN o operador de projeção ortogonal de L2 em SN tal que (PNw, v) = (w, v) paratodo v ∈ SN .Prova. Sejam aB e aD duas projeções elípticas em SN definidas através de PN por aB(PNv, ξ) = aB(v, ξ)e aD(PNw, ξ) = aD(w, ξ) para todo ξ ∈ SN , em que aB, aD : H1×H1 → R são duas formas bilinearesdefinidas por aB(u, v) := (u, v)+b(ux, vx) e aD(u, v) := (u, v)+d(ux, vx). É fácil ver que para b, d > 0essas duas formas bilineares são coercivas.

A aproximação semi-discreta do problema (1) pelo método espectral de colocação de Fourier, deno-tada por (ηN , uN), é uma aplicação de [0,∞) em SN ×SN tal que, para todo (ϕ, ψ) ∈ SN ×SN vale que

(ηNt , ϕ)(t) + (uNx , ϕ)(t) + ((ηNuN)x, ϕ)(t) + a(uNxxx , ϕ)(t)− b(ηNxxt , ϕ)(t) = 0,(uNt , ψ)(t) + (ηNx , ψ)(t) + (uNuNx , ψ)(t) + c(ηNxxx , ψ)(t)− d(uNxxt , ψ)(t) = 0,

(11)

para t ≥ 0 com condições iniciais ηN(x, 0) = PNη0(x) e uN(x, 0) = PNu0(x).Para o problema de valor inicial formado por (11), vale a seguinte estimativa semi-discreta

max0≤t≤T

(‖η(t)− ηN(t)‖1 + ‖u(t)− uN(t)‖1) ≤ CN1−s. (12)

Sejam f , g : L2 → SN definidas, respectivamente, por aB(f(v), χ) = (v, χ′) e aD(g(w), χ) = (w, χ

′)

para todo χ ∈ SN . Portanto, do sistema (11) obtemos que

ηNt = f(ηN , uN),uNt = g(ηN , uN),

(13)

válida para todo t ∈ [0, T ]. As funcões f : H1 × H2 → SN e g : H2 × H1 → SN são dadas porf(v, w) = f(w) + f(vw) + af(w

′′) e g(v, w) = g(v) + 1

2g(w2) + cg(v

′′), de modo que h′ denota a

derivada de uma função h com respeito a variável espacial.O método de RK de quarta ordem aplicado no sistema de equações diferenciais (11) pode ser descrito

através do seguintes algoritmo:

V Simposio de Metodos Numericos Computacionais

183

1. Defina η0N = PNη0 e u0

N = PNu0

2. Para n = 0, 1, . . . ,M − 1 faça

2.1 ηn,1N = ηnN e un,1N = unN

2.2 Para i = 2, 3, 4 faça

2.2.1 ηn,iN = ηnN + ∆tαif(ηn,i−1N , un,i−1

N ) e un,iN = un + ∆tαig(ηn,i−1N , un,i−1

N )

2.3 ηn+1N = ηnN + ∆t

∑4j=1 βjf(ηn,jN , un,jN ) e un+1

N = unN + ∆t∑4

j=1 βjg(ηn,jN , un,jN )

com α2 = α3 = 12, α4 = 1, β1 = β4 = 1

6e β2 = β3 = 1

3. É importante observar que no passo 2.3 do

algoritmo acima, essa igualdade é na realidade uma aproximação para os valores de ηN(t) e uN(t) notempo t = tn+1, tendo portanto um erro de aproximação associado.

A primeira parte da demonstração consiste em mostrar que esses erros, denominados de erros locaisdo método de RK, definidos por

δn1 := ηn+1N − ηnN −∆t

4∑

j=1

βjf(ηn,jN , un,jN ), δn2 := un+1N − unN −∆t

4∑

j=1

βjg(ηn,jN , un,jN ), (14)

satisfazem max0≤n≤N−1

(‖δn1 ‖1 + ‖δn2 ‖1) ≤ C∆t5.

Esta limitação dos erros locais pode ser obtida a partir do algoritmo descrito acima, através do cál-culo explícito de cada passo intermediário do método de RK, (ηn,jN , un,jN ), juntamente com os valoresde f(ηn,jN , un,jN ) e g(ηn,jN , un,jN ), que podem ser descritos em função das derivadas temporais de ηN e uNavaliadas em t = tn.

Assim, obtemos que

δn1 = ηn+1N −

4∑

j=0

∆tj

j!∂jt ηN + ∆t5Γn1 , δn2 = un+1

N −4∑

j=0

∆tj

j!∂jtuN + ∆t5Γn2 , (15)

com Γn1 = −148

(γn1 + γn3 ) e Γn2 = −148

(12γn2 + γn4

). A primeira parte da prova segue então da limitação por

constantes de ‖Γn1‖ e ‖Γn2‖, que é garantida pelos seguintes lemas que podem ser facilmente verificados.

Lema 3.1. Se s ≥ 3 é tal que (η, u) ∈ C(0, T ;Hs(Ω))2 e (∂tη, ∂tu) ∈ C(0, T ;Hs−1(Ω))2, então

max0≤t≤T

(‖∂jt ηN(t)‖1 + ‖∂jtuN(t)‖1

)≤ Cj, para j = 1, 2, 3, 4. (16)

Lema 3.2. Existe uma constante C independente de N tal que ‖f(v)‖1 ≤ C‖v‖ se v ∈ L2per

e ‖f(v)‖2 ou 3 ≤ C‖v‖1 se v ∈ H1per. As mesmas estimativas valem para g.

Na sequência, apresentamos a parte de estabilidade da prova. Sejam εn,j := ηn,jN − Hn,j een,j := un,jN −Un,j os erros entre a solução do sistema (11) avaliada em t = tn e a aproximação totalmentediscreta (Hn, Un) em SN de η(., tn) de u(., tn), solução no sentido clássico de (1), para 0 ≤ n ≤M − 1e j = 1, 2, 3, 4.

Observe que, para j = 1 temos εn := εn,1 = ηnN −Hn e en := en,1 = unN − Un. Por outro lado, paraj = 2, 3, 4 temos

εn,j = εn + ∆tαi

[f(ηn,j−1

N , en,j−1) + f(εn,j−1un,j−1N ) + f(εn,j−1en,j−1)

],

en,j = en + ∆tαi[g(εn,j−1, en,j−1)− g(en,j−1en,j−1) + g(en,j−1un,j−1

N )].

(17)

Sejam M uma constante suficientemente grande tal que, maxt∈[0,T ] (‖∂itηN(t)‖1 + ‖∂ituN(t)‖1) ≤2M para i = 0, 1, ..., 5, e n∗ < M o maior inteiro tal que ‖Hn‖1 + ‖Un‖1 ≤ 3M quando 0 ≤ n ≤ n∗.

V Simposio de Metodos Numericos Computacionais

184

Assim, para 0 ≤ n ≤ n∗ temos que ‖εn‖1 + ‖en‖1 ≤ 5M e ‖εn,j‖1 + ‖en,j‖1 ≤ (‖εn‖1 + ‖en‖1) +C(M, |a|, |c|)∆t (‖εn,j−1‖1 + ‖en,j−1‖1), para j = 2, 3, 4.

Além disso, usando as definições de ε e e e o algoritmo do método de RK descrito anteriormenre,concluímos que

εn+1 = εn + ∆t∑4

j=1 βj[f(ηn,jN , un,jN )− f(Hn,j, Un,j)

]+ δn1 ,

en+1 = en + ∆t∑4

j=1 βj[g(ηn,jN , un,jN )− g(Hn,j, Un,j)

]+ δn2 .

(18)

Definindo An := ‖εn‖1 + ‖en‖1 e An,j := ‖εn,j‖1 + ‖en,j‖1, de (18) temos que

An+1 ≤ An + ∆t4∑

j=1

An,j + (‖δn1 ‖1 + ‖δn2 ‖1) , (19)

que, em consequência da primeira parte, é equivalente a An+1 ≤ (1 + C∆t)An + C∆t5, com A0 = 0.Observe que, de (19) temos que An+1 ≤ C(n∗)∆t4, sendo ∆t suficientemente pequeno. Finalmente,

concluímos através das definições de ε e e que ‖Hn+1‖1 +‖Un+1‖1 ≤ 2M +An+1 ≤ 3M , independentede n∗, o que contradiz a propriedade maximal de n∗. Portanto, ‖Hn‖1 + ‖Un‖1 ≤ C para todo 0 ≤ n ≤M e portanto max0≤n≤M (‖εn‖1 + ‖en‖1) ≤ C∆t4, que juntamente com (12), conclui a demonstração.

Observação. A prova para as outras regiões de parâmetros da Tabela 1 com ` = 0, 1 segue de maneirabastante similar a demonstração do Teorema 3.1 com algumas pequenas modificações, como nas funçõesf e g, além das normas nos espaços Hs que contém as soluções clássicas dos problemas (ver Bona et al.(2002) para mais detalhes sobre esses espaços).

4 EXPERIMENTOS NUMÉRICOS

Nessa seção, mostramos os resultados de alguns experimentos numéricos que fizemos com o propósitode confirmar a condição de estabilidade do problema linear obtida na seção 2. Nossos experimentos es-tão concentrados nos casos de resolução numérica com menor custo computacional, isto é, aqueles comcondição de estabilidade do tipo ∆t ≤ C e ∆t ≤ CN−1.

Nas tabelas a seguir, mostramos a verificação numérica da condição de estabildiade obtida na seção2, para os casos em que ` = 0 e ` = 1, de acordo com a Tabela 1. Todas as simulações foram executadascom L = 150, T = 70 e o número de elementos da malha espacial, N , múltiplo de 2. Como condiçõesiniciais foram utilizadas duas gaussianas, η0 = e−5x2 e u0 = −e−5x2 em [−L,L].

a, c < 0 b, d > 0 a = b = c = d = 0N ∆t Constante de estabilidade C ∆t Constante de estabilidade C29 0,8060 1,37 0,5313 0,90211 0,2102 1,43 0,1328 0,90213 0,0523 1,42 0,0330 0,90215 0,0130 1,41 0,0082 0,89

Tabela 2: Estabilidade numérica para ` = 1.

Nas Tabelas 2 e 3, as segunda e quarta colunas indicam o último ∆t tal que a solução aproximadagerada foi estável. As terceira e quinta colunas indicam a constante de estabilidade numérica C. Para aTabela 2, essa constante é determinada por C ' ∆t

∆x, com ∆x = 2L/N . Já para a Tabela 3, a constante

de estabilidade C é exatamente o valor de ∆t em cada caso.Podemos observar que para essas duas regiões de parâmetros, que de acordo com a Tabela 1, apre-

sentam condição de estabilidade do tipo ∆t ≤ C e ∆t ≤ CN−1, foram obtidos numericamente o queera esperado após a análise de von Neumann, isto é, para a Tabela 2 a dependência linear entre ∆t e ∆xe para a Tabela 3 a não dependência de ∆t da variação de ∆x.

V Simposio de Metodos Numericos Computacionais

185

a < 0 b > 0 c = 0 d > 0 a = 0 b > 0 c = 0 d = 0N ∆t Constante de estabilidade C ∆t Constante de estabilidade C29 1,8 1,8 1,7 1,7211 1,8 1,8 1,6 1,6213 1,8 1,8 1,6 1,6215 1,8 1,8 1,6 1,6

Tabela 3: Estabilidade numérica para ` = 0.

O critério utilizado para determinar a estabilidade da solução aproximada, de η por exemplo, é aseguinte: calculamos a norma L2(−L,L) do dado inicial, ‖η0‖L2 , e comparamos com a mesma normada última aproximação obtida pelo método numérico, ‖η‖L2 . Se p =

‖η‖L2

‖η0‖L2< C1, em que C1 é uma

constante maior que um mas não grande, consideramos a solução numérica obtida estável. O mesmocritério pode ser utilizado para verificar a estabilidade da função u.

Observação. Com o objetivo de validar nosso código, simulamos soluções de onda “cnoidal” parasistemas de Bona-Smith, que são obtidos a partir de (1), com a = 0, c = (2−3θ2)/3, b = d = (3θ2−1)/6,para 2/3 ≤ θ2 ≤ 1. Um teste similar foi feito em Antonopoulos et al. (2010) com o objetivo detestar a precisão do método de Galerkin que foi utilizado. Nosso código implementado em MATLAB,utilizando a rotina FFT (Fast Fourier Transform), gerou resultado semelhante ao encontrado na Figura 2de Antonopoulos et al. (2010).

5 CONCLUSÕES E TRABALHOS FUTUROS

Neste trabalho, através da análise de estabilidade do problema linear, identificamos as regiões deparâmetros (a, b, c, d) da família de sistemas de Boussinesq (1), capazes de gerar soluções numéricasestáveis de maneira eficiente. Eficientes no sentido de que podemos escolher um tamanho de passomaior na discretização temporal, sem perder a estabilidade da solução aproximada obtida.

Também foi mostrado o estudo de convergência do problema não linear totalmente discretizado pelosmétodos de colocação de Fourier e método de RK de quarta ordem, nas variáveis espacial e temporal,respectivamente. Essa análise foi feita para regiões específicas de parâmetros, que apresentam resoluçãonumérica com baixo custo computacional. Essa segunda parte nos permite relacionar a precisão e efi-ciência dos métodos numéricos utilizados.

Embora os resultados desse artigo já estejam finalizados, este trabalho ainda está em andamento, e ospróximos passos estarão concentrados nas simulações numéricas do problema não linear, com o objetivode comprovar as estimativas de precisão obtidas durante a análise de convergência, mostrada na seção 3.

REFERÊNCIAS

Antonopoulos D., Dougalis V., and Mitsotakis D. Galerkin approximations of periodic solutions ofBoussinesq systems. Bulletin of the Greek Mathematical Society, 57:13–30, 2010.

Bona J., Chen M., and Saut J.C. Boussinesq equations abd other systems for smalle-amplitude longwaves in nonlinear dispersive media: I. Derivation and linear theory. J. Nonlinear Sci., 12:283–318,2002.

Boussinesq J. Théorie des ondes et des remous qui se propagent le long d’un canal rectangularie hor-izontal, en communiquant au liquide contenu dans ce canal des vitesses sensiblement parailles de lasurface au found. Journal de Mathématiques Pures et Appliquées, 17:55–108, 1872.

Dougalis V., Mitsotakis D., and Saut J.C. Boussinesq Systems of Bona-Smith Type on Plane Domains:Theory and Numerical Analysis. Journal of Scientific Computing, 44:109–135, 2010.

Korteweg D. and Vries G. On the change of form of long waves advanc- ing in a rectangular canal, andoon a new type of long stationary wavestile. Philosophical Magazine, 39:1443–1461, 1895.

V Simposio de Metodos Numericos Computacionais

186

V Simposio de Metodos Numericos Computacionais

PREVISÃO DE RADIAÇÃO SOLAR DE CURTO PRAZO USANDO COMBINAÇÃO WAVELET-REDES NEURAIS

Resumo: Previsões acuradas de séries temporais de radiação solar são essenciais para um gerenciamento adequado da produção de energia elétrica realizada por usinas fotovoltaicas. Entretanto, por se tratar de dados altamente não estacionários, é difícil se produzir previsões acuradas. Este artigo propõe um método preditivo automático que combina decomposição wavelet e Redes Neurais Artificiais (RNAs) para a previsão de curto prazo de radiação solar. Basicamente, o método proposto pode ser executado em quatro passos: no passo 1, é realizada uma decomposição de nível r, usando uma base wavelet, de uma dada série temporal de radiação solar, gerando r+1 Componentes Wavelet (CWs); no passo 2, as r+1 CWs são modeladas por k diferentes RNAs, em que k > 5, e as 5 melhores previsões são combinadas por outras RNAs, produzindo predições para cada CW, das quais a melhor é selecionada; no passo 3, as previsões de todas as CWs são simplesmente somadas de forma a gerar a previsão da série temporal de radiação solar. Os passos 1, 2 e 3 são repetidos em um processo interativo de ajuste detalhado na Seção 3. Para a sua avaliação, foram modeladas 10 séries temporais de radiação solar brasileiras e os resultados alcançados são notavelmente superiores aos de uma RNA convencional e uma RNA wavelet proposta em Teixeira Jr et al (2015). Palavras-Chave: séries temporais de radiação solar, decomposição wavelet, redes neurais artificiais, previsões.

1. INTRODUÇÃO

Uma das fontes de energia limpa e renovável mais promissora atualmente é a energia solar, convertida em energia elétrica a partir de placas fotovoltaicas, desde instalações domésticas até grandes usinas. Um problema com a energia solar é sua descontinuidade durante a noite e sua variação em função das condições climáticas, sendo a geração de eletricidade afetada pela passagem de nuvens ou períodos de chuva. Essas descontinuidades e variações precisam ser compensadas pelas outras fontes de geração de energia acopladas ao sistema elétrico. Assim, a integração econômica segura dessa fonte de energia na operação do sistema elétrico depende de previsões acuradas da geração de energia de modo que os operadores possam tomar decisões sobre o uso de outras unidades para abastecer o sistema como um todo. Este artigo apresenta uma Combinação Wavelet Redes Neurais Artificiais (CWRNA) iterativa para produzir previsões de curto prazo para radiação solar. O método CWRNA pode

Julio Cesar Royer, Volmir Eugenio Wilhelm, LuizAlbino Teixeira Junior, Edgar Manuel Carreno Franco

187

ser descrito em quatro passos gerais: 1) é realizada uma decomposição de nível , usando uma determinada base wavelet , de uma série temporal de radiação solar, gerando 1Componentes Wavelet (CW); 2) essas 1 CWs são modeladas individualmente por diferentes RNAs, onde 5, e os 5 melhores modelos são combinados por outras RNAs, e o melhor resultado é selecionado como previsão da CW; 3) as previsões das 1CWs são somadas compondo uma previsão de radiação solar para a base wavelet e o nível de decomposição ; e 4) os passos 1, 2 e 3 são repetidos para todas as combinações de bases wavelet aplicáveis e níveis de decomposição de 1 a 3 e a melhor previsão de radiação solar é selecionada. Nos experimentos computacionais foram usadas séries temporais da média horária da radiação solar global horizontal (W/m2) obtidas das estações Solarimétricas do Projeto Sonda INPE/CPTEC1 (Pereira et al., 2006), para 10 localidades diferentes: Brasília, Caicó, Campo Grande, Cuiabá, Florianópolis, Joinville, Natal, Palmas, Petrolina e São Martinho. Somente para Cuiabá o relatório é apresentado com detalhamento maior. Todas as séries temporais cobrem exatamente o período de um ano, mas um ano diferente para cada localidade. O restante deste artigo está assim organizado: na sessão 2 são introduzidos aspectos teóricos da Teoria Wavelet e das Redes Neurais Artificiais; O método CWRNA é detalhado na sessão 3; os experimentos computacionais e seus resultados são apresentados na sessão 4, seguida das conclusões na sessão 5.

2. REVISÃO DA LITERATURA

2.1 Decomposição Wavelet De acordo com Teixeira Jr et al. (2015), um estado de uma série temporal 1, … , pode ser ortogonalmente expandido como em (1).

, ,′

(1)

Onde: , ∑ ⟨ , , ⟩ ,∈ é uma CW de aproximação de nível ′ do estado , sendo , um valor de imagem em t de uma função wavelet escala , . e ⟨ , , ⟩:=∑ , ; e , é uma CW de aproximação de nível do estado

, sendo , um valor de imagem em t de uma função wavelet escala , . e ⟨ , , ⟩ ≔ ∑ , .

A expansão em (1) é usualmente chamada de “decomposição wavelet” de . De acordo com Teixeira Jr et al. (2015), qualquer série temporal infinita, denotada por 1,… , , pode ser decomposta como em (2).

, ,

′ (2)

A expansão em (2) é usualmente chamada de decomposição wavelet de nível de .

2.2 Redes Neurais Artificiais De acordo com Haykin (2001), uma Rede Neural Artificial (RNA) feedforward com uma, e somente uma, camada escondida se caracteriza por ter três camadas (a saber, uma de entrada, escondida e de saída), como na Figura 1 - as quais são constituídas de unidades de processamento simples numericamente interconectadas por ligações acíclicas. A relação entre a saída no instante t, denotada por , e as entradas defasadas em p instantes, 1Essas séries temporais podem ser encontradas em <http://sonda.ccst.inpe.br/infos/index.html>

V Simposio de Metodos Numericos Computacionais

188

1,… , é mostrada em (3).

∑ ∑ (3)

Onde 0, 1, … , e 0,1, , … , ; 0, 1, … , são os parâmetros de RNA, os quais são muitas vezes chamados os pesos sinápticos; é o número de nós de entrada; é o número de nós escondidos; é o erro de aproximação no tempo t; e . é aqui chamado de função logística, apesar de ser possível adoptar uma outra função de transferência (Haykin, 2001).

Figura 1: Rede Neural Artifical Multilayer Perceptron.

A previsão de séries temporais usando RNAs inicia com a composição dos padrões de

treinamento (pares de entrada e saída) que dependem da escolha da janela de tempo de tamanho L (para os valores passados da série e para as variáveis explicativas) e do horizonte de previsão h. Em um processo autorregressivo (linear ou não linear), por exemplo, o padrão de entrada é formado somente pelos valores passados da própria série, ao passo que o padrão de saída desejável é o valor observado da série temporal no horizonte de previsão. Na figura 2 é ilustrado como é geralmente construído o padrão de treinamento baseado nos 4 valores anteriores informados. Observe que a construção dos padrões de treinamento da rede consiste em mover janelas de entrada e saída ao longo de toda a série. Assim, cada par de janelas (entrada / saída) serve como um padrão de treinamento e deve ser apresentado repetidamente até o algoritmo de aprendizagem convergir.

Figura 2: Composição dos conjuntos de treinamento.

3. METODOLOGIA PROPOSTA

A metodologia proposta combina a decomposição wavelet com redes neurais artificiais (RNAs) do tipo multilayer perceptron seguindo um algoritmo iterativo que busca identificar os melhores parâmetros (base ortonormal e nível de decomposição) para a decomposição wavelet e a melhor estrutura (tamanho da janela, número de neurônios na camada escondida e número de iterações de treinamento) das RNAs. O algoritmo pode ser descrito de modo sucinto em 4 passos:

V Simposio de Metodos Numericos Computacionais

189

Passo 1: Realizar k decomposições wavelet de nível , definidas em termos de uma base ortogonal (das famílias Haar, Daubechies, Symlet ou Battle-Lemarie (Daubechies, 1992), Fejer-Korovkin (Olhede & Walden, 2004) ou Minimum Bandwidth (Morris & Peravali, 1999)) de uma série temporal de radiação solar, denotada por 1, … , , resultando em 1 CW de aproximação de nível ′, denotada por 1,… , , onde ′ ∈ e CW de detalhe de níveis ′, 1, …, 1 , representadas por 1,… , , onde ∈ ;

Passo 2: as CWs do passo 1 são individualmente modelados por n RNAs com diferentes configurações, onde 5. Desta forma, cada RNA captura informações distintas presentes em cada CW da série temporal de radiação solar;

Passo 3: as 5 melhores previsões da CW são combinadas por outras p RNAs, com diferentes configurações, produzindo previsões combinadas. A melhor delas é selecionada como a previsão da CW; e

Passo 4: as previsões de todas as CWs são somadas para formar a k-ésima e rk-ésima previsão de radiação solar. A melhor entre todas as k e rkprevisões é selecionada. A figura 3(a) apresenta o fluxograma da decomposição wavelet, incluindo os laços para a

busca dos melhores parâmetros de decomposição (filtro e nível de decomposição) e a chamada à rotina que faz a previsão das CWs através de RNAs. As variáveis usadas são RS (série temporal de Radiação Solar), ji e jf (janela inicial e janela final, limites da faixa de tamanho de janela), ni e nf (número inicial e final de neurônios na camada escondida), ii e if (número máximo de iterações inicial e final), numFiltros é o número total de filtros (bases ortogonais wavelet) testados, previsãoRS[f,r] é uma matriz com todas as previsões testadas, para escolher a melhor previsão, f e r são índices para indicar o filtro e o nível da decomposição. Apr é uma CW de aproximação e Det é uma CW de detalhe, e RNA é a chamada ao procedimento de previsão por RNA, descrito na figura 3(b). Para essa figura, ainda são usadas as variáveis j, n e i, como índices das faixas de janelas, neurônios e iterações, série, com a CW a ser modelada, prTr, prVal e prTst, com as previsões de Treinamento, Validação e Teste, cbTr, cbVal, cbTst, para as previsões combinadas de Treino, Validação e Teste, mlp é a chamada a uma rede neural MultilayerPerceptron, rmse é a rotina que calcula a Raiz do Erro Quadrático Médio, usado como parâmetro de avaliação da acurácia da previsão.

4. EXPERIMENTO COMPUTACIONAL

Para o experimento computacional foram consideradas as mesmas séries de Teixeira Júnior et al. (2015), com dez séries temporais de radiação solar de localidades diferentes, todas com intervalo de uma hora e período de um ano (8760 observações), embora de anos diferentes. A modelagem das séries também seguiu o mesmo padrão para permitir a comparação de resultados, sendo a amostra de treinamento com 7008 observações, as próximas 876 observações compõe a validação e as últimas 876 servem de amostra de teste. O algoritmo proposto foi implementado em R (R Core Team, 2015), usando os pacotes Waveslim (Whitcher, 2015) para decomposição wavelet e RSNNS (Bergmeir&Benitez, 2012) para a rede neural. Na decomposição wavelet foram testados os filtros wavelet disponíveis no pacote Waveslim (Haar, Daubechies (db2, db4 e db8), Minimum Bandwidth (mb4, mb8, mb16 e mb24), Fejér-Korovkin (fk4, fk6, fk8, fk14 e fk22), LeastAssymetric (=Symlet) (la8, la16 e la20) e Battle-Lemarie (bl14 e bl20)). Também foram testados os níveis de decomposição de 1 a 3. Nas redes neurais, foi escolhido o modelo feedforward Multilayer Perceptron, com uma camada escondida, função de ativação tangente hiperbólica na camada escondida e linear na camada

V Simposio de Metodos Numericos Computacionais

190

de saída, com algoritmo de aprendizado gradiente conjugado escalonado (SCG), que simula o algoritmo Levenberg-Marquardt, atualização de parâmetros em ordem topológica, deixando os demais parâmetros padrões do pacote. Em todas as simulações os padrões de entrada foram linearmente transformados para ficarem na faixa [-1,1].

Figura 3: Fluxograma da Decomposição Wavelet (a) e da Rede Neural Artificial (b).

V Simposio de Metodos Numericos Computacionais

191

Para a série de Cuiabá foi testada uma faixa de variação do tamanho das janelas de 10 a 25, de 15 a 25 neurônios na camada escondida, número máximo de iterações de 25 a 30. Com o objetivo de diminuir o tempo de processamento, para as demais localidades, as faixas foram reduzidas para 10 a 16, 18 a 25 e 27 a 30, respectivamente. O algoritmo implementado seleciona a melhor configuração de filtro wavelet, nível de decomposição, tamanho da janela RNA, número de neurônios na camada escondida e número máximo de iterações para cada CW, e para a previsão combinada. 4.1 Resultados obtidos A tabela 1 apresenta os resultados obtidos na amostra de teste, comparado aos resultados obtidos por Teixeira Júnior et al. (2015). Observe que os resultados obtidos pelo método proposto são significativamente melhores.

Tabela 1: Resultados na amostra de teste por Teixeira Júnior et al. (2015) (*) e pelo método proposto (**).

Local Resultado Filtro

Wavelet Tamanho da

janela

Neurônios na camada

escondida

Número máximo de iterações

RMSE Wm-2

R2

Brasília * db32 15 8 91.29 0.9074

** db8 10 to 15 18 to 25 27 a 30 17.05 0.9968

Caicó * db20 15 8 37.61 0.9888

** db8 10 to 15 18 to 25 27 a 30 11.79 0.9989

Campo Grande * db20 12 8 76.06 0.9458

** fk8 10 to 16 18 to 25 27 a 30 19.89 0.9964

Cuiabá * db38 10 12 26.1382 0.9934

** la20 10 to 25 15 to 25 25 a 30 16.49 0.9974

Florianópolis * db40 8 15 50.12 0.9783

** la16 10 to 15 18 to 25 27 a 30 19.22 0.9969

Joinville * db32 12 10 84.3426 0.885

** la16 10 to 16 18 to 25 27 a 30 15.44 0.9963

Natal * db20 15 13 75.9577 0.9577

** bl20 10 to 16 18 to 25 27 a 30 8,68 0.9995

Palmas * db40 10 13 60.3 0.9553

** db8 10 to 15 18 to 25 27 a 30 16.72 0.9966

Petrolina * db15 9 20 82.5086 0.9303

** bl14 10 to 16 18 to 25 27 a 30 11.87 0.9986

São Martinho * db13 20 14 19.6784 0.9973

** la20 10 to 15 18 to 25 27 a 30 17.11 0.9982

CONCLUSÕES

Neste artigo é proposto um método (denotado por CW-RNA) que propõe uma abordagem iterativa para encontrar os melhores parâmetros estruturais de combinação entre decomposição wavelet e redes neurais, acrescentando ainda uma combinação das melhores previsões por outra rede neural, obtendo uma previsão ainda mais aproximada. O método proposto foi comparado com o método WD-ANN proposto por Teixeira Júnior et al. (2015), aplicado ao mesmo conjunto de séries temporais de radiação solar. Pode-se observar que as previsões pelo método CW-RNA proposto apresentaram um ganho preditivo significativo em relação ao WD-ANN, na amostra de testes, apresentando valores menores para o RMSE, e valores mais altos de R2, indicando maior correlação entre as previsões e as observações em todas as séries analisadas.

V Simposio de Metodos Numericos Computacionais

192

REFERÊNCIAS

BERGMEIR, C., BENITEZ, J.M., Neural Networks in R Using the Stuttgart Neural Network Simulator: RSNNS. Journal of Statistical Software, 46(7): 1-26, 2012.

DAUBECHIES, I., Ten Lectures on Wavelets. CBMS-NSF Regional Conference Series In Applied Mathematics (SIAM), 1992.

HAYKIN, S.S., Redes Neurais: Princípios e Aplicações. 2ª edição, Pearson, Porto Alegre, 2001.

MORRIS, J.M., PERAVALI, R. Minimum-bandwidth discrete-time wavelets. Signal Processing. 76(2): 181-193, 1999.

OLHEDE, S., WALDEN, A.T. The Hilbert spectrum via wavelet projections. Proceedings of The Royal Society A, 460(2044), 2004.

PEREIRA, E.B., MARTINS F.R., ABREU, S.L., RUTHER, R. Atlas Brasileiro de Energia Solar. São José dos Campos: INPE, 2006.

R CORE TEAM, R: A language and environment for statistical computing. R Foundation for Statistical Computing, Vienna, Austria. URL <http://www.R-project.org/>, 2015.

TEIXEIRA JUNIOR, L.A., SOUZA, R.M., MENEZES, M.L., CASSIANO, K.M., PESSANHA, J.F.M., SOUZA, R.C., Artificial Neural Network and Wavelet Decomposition in the Forecast of Global Horizontal Dolar Radiation. Pesquisa Operacional, Rio de Janeiro, 35(1), p. 73-90, Apr. 2015.

WITCHER, B. waveslim: Basic wavelet routines for one-, two- and three-dimentional signal processing. R package version 1.7.5. <http://CRAN.R-project.org/package=waveslim>, 2015.

V Simposio de Metodos Numericos Computacionais

193

V Simposio de Metodos Numericos Computacionais

ANALYSIS OF A FUZZY CONTROLLER OF A MANIPULATORWITH FLEXIBLE JOINTS

Resumo: This paper aims at analyzing a regulation control of a two-link planar manipulator with flexible joints.The regulation control is applied to attenuate the vibration on the joints for a desired closed-loop balance at a spe-cific configuration. The dynamic model of the flexible manipulator with rigid links and flexible joints is derivedusing the Lagrange-Euler principle. The control strategy is based on the Fuzzy Takagi-Sugeno model as well asthe Parallel Distributed Compensation. Simulation results show that the proposed control strategy regulates theposition of the robot over a desired position within the workspace.

Palavras-Chave: Flexible Manipulator, Takagi-Sugeno Fuzzy Model, Robot Control.

1 INTRODUCTION

The robot manipulators traditionally used in industry uses stiff joints, heavy and rigid structures,powerful actuators and works, generally in slow speed with high torques. With the development of robotmanipulators made with light structures, that work in higher speed than the ones mentioned before, andthe use of reductions or transmissions with flexible elements provide flexibility to these systems and cannot be neglected in their study.

The flexible joints provide compliance between the robotic manipulator and objects of the environ-ment, thus enhancing the performance in eventual collisions (Ramirez et al., 2009). The main sources offlexible joints are compliant transmission elements (harmonic drives, shaft windup, bearing deformation,and compressibility of the hydraulic fluid in hydraulic robots and so on) (Chang and Yen, 2011).

The reasons why considering the flexibility of the manipulators in the control projects is importantare: the dynamics of these robots produce low frequency oscillations when increasing the speed ofoperation and undesirable oscillations during the robot motion. These conditions can also harm thedynamic response and accuracy (Karkoub and Tamma, 2011; Readman, 1994).

According to Lara-Molina et al.(2014) , some works has developed control algorithms for flexiblerobots as if they were rigid. This assumption became valid just for cases of slow motion and smallinteracting forces. Considering that the kinematics, dynamics, and control design of robotic manipulatorwith rigid elements are well defined is highlited the importance of develop specific control algorithms inorder to improve the dynamic performance of flexible robots.

Benosman and Vey (2014) present four main aspects related with the control of a flexible roboticmanipulator: i) end-effector position regulation, ii) rest to rest end-effector motion in fixed time, iii)trajectory tracking in the joint space (tracking of a desired angular trajectory) and iv) trajectory trackingin the operational space (tracking of a desired end-effector trajectory). A number of control techniques

Karina Assolari Takano, Fabian AndresLara-Molina, Edson Hideki Koroishi

194

have been used in robotic manipulators with flexible joints in order to achieve these objectives. Never-theless input/output linearization approach, based on computed torques methods, has been widely usedin the literature to control robotic manipulators with flexible joints Benosman and Vey (2004). In this pa-per a alternative fuzzy controller to the computed torque methods is tested. This control strategy allowsworking properly in a system with reduced set of state feedback, which involve the most of the caseswith flexible manipulators. It occurs due to the physical difficulty of installing the necessary amount ofsensors Chen (2006).

This papers aims at designing a set-point regulation control of a two-link planar manipulator withflexible joints considering the joint variables control of the motors based on. The nonlinear dynamics ofthe robotic flexible manipulator is approximated with a Takagi-Sugeno fuzzy model. The control strategyis based on the Fuzzy Takagi-Sugeno model as well as the Parallel Distributed Compensation. Section2 presents the complete and simplified dynamic model of the two-link planar manipulator with flexiblejoints. Section 3 introduces the control strategy which is based on parallel distribution compensation andTakagi-Sugeno fuzzy model. In section 4 are presented the results of numerical simulations. Finally,some conclusions are remarked in section 5.

2 MODELING OF THE ROBOT MANIPULATOR WITH FLEXIBLE JOINTS

This section describes the dynamic model of a two-link robotic manipulator with flexible joints.The flexible transmission of the motor to the joint is modeled by a torsional spring stiffness ki. Fig-

ure 1(a) shows the model of a flexible joint. With τ =τ1 . . . τn

T ∈ Rn×1 the torque applied bythe motor after the reduction, θ =

θ1 . . . θn

T ∈ Rn×1 the angular position of the motor after thereduction and q =

q1 . . . qn

T ∈ Rn×1 the angular position of the link.

(a) Flexible joint. (b) Planar robot with flexible joints

Figura 1: Two-link robot with flexible joints.

Considering that the angular velocity of the motor’s rotors is produced only by their own spinning DeLuca and Book (2008), the reduced dynamic model of a n-link robot manipulator with flexible joint iswritten as follows:

ML(q)q+VL(q, q) +K(q− θ) + τ fq = 0 (1)

Bθ +K(θ − q) + τ θ = τ (2)

where the vectors q =q1 . . . qn

T ∈ Rn×1 and q =q1 . . . qn

T ∈ Rn×1 are the angular veloc-ity and acceleration of the links; ML(q) ∈ Rn×n is the inertia matrix of the rigid links; VL(q, q) ∈ Rn×1

is the vector that contains the Coriolis and centrifugal torques; B ∈ Rn×n is the matrix of inertia of themotor’s rotors; θ =

θ1 . . . θn

T ∈ Rn×1 is the angular acceleration of the motor after the reduction;K = diag(k1, . . . , kn) is the diagonal matrix of the joint stiffness. The link and motor equations (eqs. (1)and (2)) are dynamically coupled by the elastic torque K(θ − q). The direction of the acceleration of

V Simposio de Metodos Numericos Computacionais

195

gravity is assumed to be oriented along the −z axis, therefore its effects are ignored in the dynamicmodel of eq (3). Fig.. 1(b) shows specifically a two-link robot with flexible joints where n=2.

The rigid model of the manipulator considers an infinite stiffness (K → ∞), thus θ → q, for thiscase the model can be stated as follows:

ML(q) +VL(q, q) +GL(q) + τ fq = τ (3)

2.1 Simplified modelThe dynamic model of eqs. (1) and (2) is simplified in order to obtain a model to design the controller.

Two assumption are considered: the manipulator is considered at a constant configuration, thereforeVL(q, q) = 0; and additionally, the worst case in which the manipulator is not damped is considered,thus τ θ = τ fq = 0. The total dynamic equation can be express by using the matricial notation:

MT (q)z+KTz = τ (4)

where, z =q θ

T , MT (q) =

[ML(q) 02,202,2 B

]and KT =

k1 0 −k1 00 k2 0 −k2−k1 0 k1 00 −k2 0 k2

. The state-space

representation of the system considering the states x1 = z and x2 = x1 is state as follows:x1

x2

=

[04,4 I4,4

−MT (q)−1K 04,4

]x1

x2

+

[04,4

MT (q)−1

]01,2τ

y1y2

=

[0 0 1 0 0 0 0 00 0 0 1 0 0 0 0

]x1

x2

(5)It is wort to mention that the total inertia matrix of MT (q) depends on the position of the rigid link q2,thus the expression of eq. (5) is equivalent to the state-space-representation:

x = A(q2)x+B(q2)u y = Cx+Du (6)

where u =01,2 τ

T . The transfer matrix G can be obtained for specific values of q2. Considering thetorque of the actuators τ as the input and the position of the motor θ as the output, the matrix functionis obtained based on the state-space representation of eq. (5), thus:

θ1(s)θ2(s)

=[G(q)

]τ1(s)τ2(s)

(7)

Where, [G(q)] =

[G11(s) G12(s)G21(s) G22(s)

]and s is the variable of Laplace. The first pair of imaginary zeros

of G11(s) and G11(s) transfer functions occurs at the so-called locked frequency defined as ω1 and ω2

for each joint respectively. The locked frequency is used to tune the controller of motion.

3 CONTROL STRATEGY

This section presents the strategy to regulate the position of robot in a constant configuration basedon on the Takagi-Sugeno fuzzy model together with Parallel Distributed Compensation.3.1 Regulation Control

The main objective is controlling the motion of the manipulator with joint elasticity in a constantconfiguration based on De Luca and Book (2008). This controll strategy should provide asymptoticstabilization of a desired closed-loop steady state. The control law is based on the motor variablesposition and velocity feedback, thus a constant reference θd (with θd ≡ 0) should be defined.

τ = KP (θd − θ)−KDθd (8)

Where KP = diag(kp1 , . . . , kpn) and KD = diag(kd1 , . . . , kdn) are positive-definite and diagonal pro-portional and derivative n-by-n gain matrices, respectively.

V Simposio de Metodos Numericos Computacionais

196

In order to obtain sufficient damping in the closed-loop system, the PD gains are select to limit thebandwidth to one third of the locked frequency of each joint.

Considering the simplified dynamic model of the robot (eq. (5)) in order to access the gains of the PDcontroller of eq. (8), the state-space-representation of control system is presented in eq. (9).

x = [A(q)−BF]x+BFu y = Cx (9)

Nevertheless, it is observed that the dynamic matrix A(q) depends on the configuration of the ma-nipulator defined by joint position of the links q, specifically q2, therefore the locked frequencies of thejoints are dependent of the configuration of the robot. This nonlinearity is considered by the controlsystem by using Takagi-Sugeno fuzzy model together with Parallel Distributed Compensation.3.2 Parallel Distributed Compensation

In this paper, the so-colled Takagi-Sugeno fuzzy model is used to approximate a nonlinear systemmodel (Takagi and Sugeno, 1985). This fuzzy model is described by fuzzy IF-THEN rules which repre-sent local models of the system, thus the fuzzy model is represented as follows:

Rule i : IF x1(t) is M1i . . . and xn is Mni

THEN x = Aix+Biu (10)

where i = 1, 2, . . . , r; r is the number of IF-THEN rules; x is the state vector; x is the output from thei-th IF-THEN rule; u is the input control vector; For a given pair [x,u] the resulting output fuzzy systemis inferred as follows:

x =

r∑i=1

wi(Aix+Biu)

r∑i=1

wi

(11)

Each Aix is denominated a local subsystem. Additionally, wi is the activation level from application iand is given by:

wi =n∏

j=1

Mij(xj) (12)

with Mij(xj) is the grade of membership of the state xj in Mij; and Mijthe j-th fuzzy set of the i-th rule.As an example, the membership functions M1 and M2 for the them correspondent rules are shown inFig. 2.

Figura 2: Membership functions of the fuzzy system Mij

The parallel distributed compensation (CPD) is used to design fuzzy controllers to control fuzzysystems. A controller for each fuzzy system is designed, hence the fuzzy controller shares the samefuzzy set with the fuzzy system. For each rule, a linear control design technique is used, thus:

Rule i : IF x1 is M1i . . . and xn is Mni

THEN u = −Fix (13)

V Simposio de Metodos Numericos Computacionais

197

where i = 1, 2, . . . , r and r is the number of IF-THEN rules. Considering the regulation control ofeq. (8), the fuzzy and nonlinear controller is:

u =

−r∑i=1

wiFix

r∑i=1

wi

(14)

4 SIMULATION RESULTS

The parameters of the planar manipulator with flexible joints of figure 1(b) are presented in Table 1.

Tabela 1: Parameters of Flexible Manipulator.

Parameter of motor/link Symbol ValueMass of the link m2,m1 (Kg) 0.5

Elasticity of the joint K2, k1 (N/m) 10×103

Length of the link l2, l1 (m) 0.25Mass of the motor mr2,mr1(kg) 0.5

Reduction ratio n2, n1 100Rotor Inertia of the motor Ir2zz , Ir1zz (kg m2) 14×10−6

According to Lara-Molina et al. (2015) the specific configuration of the manipulator introduces anon-linearity in the simplified model of the flexible robot with flexible joints. Therefore, the variation ofthe locked frequencies should be taken into account in the design of the control system.4.1 Application of PDC

In order to apply the PDC technique, a fuzzy model that represents the dynamics of the nonlinearsystem should be defined. The nonlinear system of eq. (6) is approximated by a Takagi-Sugeno fuzzymodel. Few rules are used to minimize the complexity of the model, the system model is approximatedby the 2-rule fuzzy model of eqs. (15) and (16):

Rule 1 : IF q2 is about 0o

THEN x = A(0)x+B(0)u (15)Rule 2 : IF q2 is about ± 180o

THEN x = A(180o)x+B(180o)u (16)

The fuzzy rules are illustrated in fig. 3

Figura 3: Membership functions of the robot fuzzy model of the robot.

The regulation controller of eq. (9) was tuned, considering the correspondent locked frequencies, foreach local model of the fuzzy model of the robot in eqs. (15) and (16), thus the local and linear controllerswith gain matrices F1 and F2 were obtained. The gains of these linear controllers are: kp11 = 3500,kp21 = 3500, kd11 = 60, kd21 = 42; and kp12 = 4000, kp22 = 4000, kd12 = 50, kd22 = 35, respectively.These local controllers are used in the nonlinear fuzzy controller of eq. (14).

V Simposio de Metodos Numericos Computacionais

198

The poles of the uncontrolled and controlled robot are shown in Figs. 4(a) and 4(b). It is observedthat the the poles of the uncontrolled system, presented in Fig. 4(a), have been pushed to the left (seeFig. 4(b)). Therefore the PDC controller damps the robot over all the range of the considered values ofq2.

Pole−Zero Map

Real Axis

Ima

gin

ary

Axis

−200 −150 −100 −50 0 50−1500

−1000

−500

0

500

1000

1500

Controlled

Uncontrolled

(a) q2=0o

Pole−Zero Map

Real Axis

Ima

gin

ary

Axis

−140 −120 −100 −80 −60 −40 −20 0 20−800

−600

−400

−200

0

200

400

600

800

Controlled

Uncontrolled

(b) q2=180o.

Figura 4: Pole and zero map of the control and uncontrolled robot.

The step position response of the controlled system is evaluated considering a step input of amplitude5.7×10−2 o at first and second joint. The closed-loop step position response of the joints θ1 and θ2 (inFig. 5(a) and 5(b)) is evaluated for: q2 = 0o and q2 = 180. The results show that the step responseovershoot is less than 10% and the settling time is 0.08s. Hence, the controller damps and stabilizes thesystem response adequately.

0 0.02 0.04 0.06 0.08 0.10

0.5

1

1.5x 10

−3

θ 1[rad]

Time [sec]

θ1Set-point

0 0.02 0.04 0.06 0.08 0.10

0.5

1

1.5x 10

−3

θ 2[rad]

Time [sec]

θ2Set-point

(a) q2=0o.

0 0.02 0.04 0.06 0.08 0.10

0.5

1

1.5x 10

−3

θ 1[rad]

Time [sec]

θ1Set-point

0 0.02 0.04 0.06 0.08 0.10

0.5

1

1.5x 10

−3

θ 2[rad]

Time [sec]

θ2Set-point

(b) q2=180o.

Figura 5: System output with a step input.

Finally, the torque applied to the motors τ =[τ1 τ2

]T is also evaluated for same values of q2 = 0o

and q2 = 180o that were evaluated in the previous cases. As seen in Figs. 6(a) and 6(b). The maximumtorque applied to the motor is 4Nm, according as the system reach the steady state the torque goes tozero.

5 CONCLUSIONS

This paper presented the analysis of a regulation control of a two-planar robot with flexible joints ina constant configuration. The nonlinear model of the robot is approximated with a Takagi-Sugeno fuzzy

V Simposio de Metodos Numericos Computacionais

199

0 0.02 0.04 0.06 0.08 0.1−1.5

−1

−0.5

0

0.5

1

1.5

2

2.5

3

3.5τ c[N

]

Time [sec]

τ1τ2

(a) q2=0o.

0 0.02 0.04 0.06 0.08 0.1−2

−1

0

1

2

3

4

τ c[N

]

Time [sec]

τ1τ2

(b) q2=180o.

Figura 6: Control: torque of the motors.

model which combines the linear local models. The control strategy is based on the Takagi-Sugeno fuzzymodel together with Parallel Distributed Compensation, the resulting controller is a fuzzy combinationof the linear PD controllers designed for each local linear model of the robots.

The time domain and the frequency response function were used to access the dynamic performanceof the robot controlled with the proposed fuzzy controller. The dynamic response of the robot exhibits anadequate behavior in terms of the motion performance. Therefore, the proposed fuzzy controller showsits effectiveness to regulate the position of the robot over a desired position.

REFERENCES

Benosman M. and Vey G.L. Control of flexible manipulators: A survey. Robotica, 22:533–545, 2004.Chang Y.C. and Yen H.M. Design of a robust position feedback tracking controller for flexible-joint

robots. Control Theory and Applications, 5:351–363, 2011.Chen C.W. Stability conditions of fuzzy systems and its application to structural and mechanical systems.

Advances in Engineering Software, 37(9):624–629, 2006.De Luca A. and Book W. Robots with Flexible Elements. Springer Handbook of Robotics, Heidelberg,

2008.Karkoub M. and Tamma K.K. Modeling and µ-synthesis control of flexible manipulators. Computers

and Structures, 79:543–551, 2011.Lara-Molina F.A., Koroishi E.H., and Steffen V. Uncertainty analysis of a two-link robot manipulator

under fuzzy parameters. In Robotics: SBR-LARS Robotics Symposium and Robocontrol (SBR LARSRobocontrol), 2014 Joint Conference on. 2014a.

Lara-Molina F.A., Rosario J.M., Dumur D., and Wenger P. Robust generalized predictive control of theorthoglide robot. Industrial Robot: An International Journal, 41(3):275–285, 2014b.

Lara-Molina F.A., Takano K.A., and Koroishi E.H. Set-point regulation of a robot manipulator withflexible joints using fuzzy control. In 12th Latin American Robotics Symposium and 2015 ThirdBrazilian Symposium on Robotics (LARS-SBR 2015). 2015.

Melhem K. and Wang W. Global output tracking control of flexible joint robots via factorization of themanipulator mass matrix. TRANSACTIONS ON ROBOTICS, 25:428–437, 2009.

Ramirez A.R.G., Pieri E.R.D., Guenther R., and Golin J.F. Experimental evaluation of a cascade controltechnique with friction compensation for a flexible joint robot. Controle & Automação, 20:490–501,2009.

Readman M. Flexible Joint Robots. CRC Press, Florida, 1994.Takagi T. and Sugeno M. Fuzzy identification of systems and its applications to modeling and control.

IEEE Trans Syst, SMC-15:116–132, 1985.

V Simposio de Metodos Numericos Computacionais

200

V Simposio de Metodos Numericos Computacionais

OTIMIZAÇÃO NA LOCALIZAÇÃO DE CENTROS PÚBLICOS DE

EDUCAÇÃO INFANTIL EM CURITIBA-PR

Resumo: Este artigo visa estudar a distribuição espacial de centros públicos de educação

infantil em Curitiba-PR. Para tanto, primeiramente, avalia-se a atual localização dos centros

existentes, identificando-se regiões com excesso ou escassez de vagas. Em seguida, apresenta-

se uma proposta de localização ideal de novas instalações, resultante da aplicação do modelo

das p-medianas. Para resolver o modelo de programação linear inteira binária, fez-se uso da

linguagem de modelagem VB.NET© e o solver CPLEX©. Para a representação dos resultados,

utilizou-se o software ArcGis® 10.1, facilitando a interpretação dos mesmos.

Palavras-Chave: Problema de Localização de Facilidades, Unidades de Educação Infantil, p-

medianas.

1 INTRODUÇÃO

O tema da pesquisa, de modo mais amplo, incide na localização de instalações, que tem sido

uma área de pesquisa solidamente constituída dentro da área de Pesquisa Operacional (MELO;

NICKEL; SALDANHA-DA-GAMA, 2009). Inúmeros artigos e livros são testemunhas deste

fato (ver, por exemplo: (DREZNER; HAMACHER, 2002) e (NICKEL; PUERTO, 2006).

A importância desse tema se deve ao fato de que o estudo de localização de facilidades é um

aspecto crítico dentro do planejamento estratégico aplicado tanto a ambientes públicos como

privados (ARENALES et al., 2007). Decisões tomadas nesse âmbito são complexas, pois

definem o sucesso do negócio, envolvem grandes investimentos e caso as escolhas sejam mal

feitas, pode ser bastante difícil ou impossível reverter a situação (MARETH; PIZZOLATO,

2014).

A problemática da localização de instalações, de modo específico das unidades de Educação

Infantil consiste num problema de natureza abrangente, diante da imposição de oferecer

educação a todas as crianças. Particularmente, no Brasil, o problema exibe grande atualidade,

pois o direito ao acesso à Educação Infantil tem sido colocado como uma das metas de destaque

estabelecidas pela administração pública, segundo o Plano Nacional da Educação (PNE).

O objetivo geral do trabalho é analisar a atual situação da distribuição de creches no município

de Curitiba-PR e otimizar a localização de novas creches de acordo com a demanda existente

no referido município. Para a aplicação prática reportada, foram utilizadas informações do

IPPUC (Instituto de Pesquisa e Planejamento Urbano de Curitiba) referentes aos 75 bairros,

em relação a população de 0 a 5 anos. Além disso, informações sobre a quantidade, capacidade

Kellen Dayelle Endler, Maria TeresinhaArns Steiner, Cassius Tadeu Scarpin

201

e localização de escolas foram adquiridas junto à Secretaria Municipal da Educação.

O presente artigo encontra-se estruturado da seguinte forma: a seção 2, apresenta a descrição

da metodologia utilizada ao longo do trabalho; a seção 3 traz os resultados obtidos, e a seção 4

as conclusões em relação as análises realizadas.

2 METODOLOGIA

O modelo das p-medianas supõe que tanto as crianças como as creches estão localizadas nos

vértices dos bairros e que as crianças preferem a escola mais próxima de suas residências.

Dessa forma, se um vértice contém uma creche, ela atende todas as crianças que moram naquele

bairro, o qual, de acordo com a simplificação adotada, percorrerá uma distância nula. Caso o

vértice não contenha uma creche, assume-se que a criança vai preferir o vértice mais próximo

com uma creche e todos os alunos percorrerão a distância separando esses dois vértices.

Essa simplificação é considerada razoável, pois as distâncias entre vértices aproximam a

distância média para o conjunto de crianças dispersas em um setor censitário, caminhando para

o geocentro de um setor vizinho. A metodologia adotada neste artigo é constituída por cinco

passos:

PASSO 1: Determinação dos Vértices da Rede

Marcou-se os geocentros, ou pontos centrais de cada bairro. Considerou-se que cada vértice

definido, para efeitos do estudo, contêm toda a população de 0 a 5 anos deste bairro.

PASSO 2: Determinação dos Arcos da Rede e Matriz de Distâncias

Criou-se um grafo G=(N, A) com N=1,...,n vértices, representando os geocentros dos bairros

analisados, determinando-se a matriz de distâncias euclidianas entre vértices.

PASSO 3: Localização Atual

No caso do estudo de avaliação da situação atual, identificou-se quais bairros possuem

atualmente creches, supondo que estas estejam localizadas em seus respectivos geocentros.

PASSO 4: Localização Proposta

Esta é a fase de análise da localização ideal ou ótima. É obtida pela solução do modelo da p-

mediana. O problema das p-medianas pode ser formulado de acordo com o seguinte modelo de

programação linear binária (PIZZOLATO et al., 2004):

Onde, 𝑑𝑖𝑗 é a matriz de distâncias euclidianas entre i e j; [𝑥𝑖𝑗]𝑛𝑥𝑛 é uma matriz de alocação,

com 𝑥𝑖𝑗 = 1 se o vértice 𝑖 está alocado à mediana 𝑗, e 𝑥𝑖𝑗 = 0, caso contrário; 𝑥𝑗𝑗 = 1 se o

vértice 𝑗 é uma mediana e 𝑥𝑗𝑗 = 0, caso contrário. O conjunto 𝑁 é particionado em 𝑝

agrupamentos de pontos.

A função objetivo (1) consiste em minimizar a soma das distancias ponderadas de cada vértice

à mediana mais próxima. As restrições (2) e (4) impõem que cada vértice i seja alocado a um

único vértice j, o qual deve ser uma mediana. A restrição (3) determina o número exato de p-

𝑷𝑷𝑴 𝑴𝒊𝒏 ∑ ∑ 𝒅𝒊𝒋𝒙𝒊𝒋

𝒋∈𝑵𝒊∈𝑵

(1)

𝑠. 𝑎. ∑ 𝑥𝑖𝑗

𝑗∈𝑁

= 1, ∀𝑖 ∈ 𝑁 (2)

∑ 𝑥𝑗𝑗

𝑗∈𝑁

= 𝑝 (3)

𝑥𝑖𝑗 ≤ 𝑥𝑗𝑗 ∀𝑖, 𝑗 ∈ 𝑁 (4)

𝑥𝑖𝑗 ∈ 0,1, ∀𝑖, 𝑗 ∈ 𝑁 (5)

V Simposio de Metodos Numericos Computacionais

202

medianas a serem localizadas e (5) indica as condições de integralidade.

PASSO 5: Interpretação e Validação dos Resultados

A interpretação dos resultados é realizada através da representação geográfica dos mesmos,

utilizando para tal, o ArcGis® 10.1. Compara-se a demanda resultante com a capacidade da

escola correspondente. A implementação das medidas sugeridas pelo estudo passa antes pela

validação dos dados e das conclusões alcançadas.

3 RESULTADOS E DISCUSSÃO

Analisando-se a localização atual das unidades de Educação Infantil, distribuídas nos 75 bairros

de Curitiba-PR, foram identificados os bairros contendo creches ou pré-escolas, e os devidos

número de vagas faltantes ou em excesso de cada bairro. A Figura 1 sugere uma importante

conclusão para o gerenciamento do sistema no curto prazo, a de que os maiores desequilíbrios

estão nos bairros Cidade Industrial, Sítio Cercado e Cajuru, que apesar de apresentarem escolas

ativas, apresentam escassez de mais de 5000 vagas. Portanto, qualquer nova construção ou

expansão deve priorizar esta região.

Figura 1: Mapa de Curitiba: Representação do resultado da análise da localização atual de creches e pré-escolas

Fonte: autora (2015)

V Simposio de Metodos Numericos Computacionais

203

Para a análise da nova proposta de localização, foi aplicado o modelo das p-medianas para

determinar a localização ideal para os 75 bairros do município. A distância total percorrida

pelas crianças de acordo com a configuração atual é de 35.875 metros, em relação a distância

de 32.947 metros da localização ótima.

Nesta etapa, determinou-se a localização ideal das 52 escolas existentes. Com a resposta obtida,

o grafo foi então dividido em 52 árvores, que correspondem a 52 microrregiões. O resultado

da proposta tende a criar micro regiões mais uniformes e balanceadas ao longo do município.

Os resultados encontram-se na Figura 2.

Figura 2: Mapa de Curitiba: Representação do resultado da Análise da localização proposta de creches e pré-

escolas.

Fonte: autora (2015)

V Simposio de Metodos Numericos Computacionais

204

4 CONCLUSÕES

Pode-se observar que há escassez de vagas em grande parte das regiões. O somatório da

demanda é de 129.857, enquanto que o somatório da oferta de vagas é de 39.736. Assim, há

uma falta global estimada na região de 90.121 vagas. Essa falta de vagas é decorrente de um

cálculo aritmético simples da diferença da capacidade total de cada bairro e de sua população

apontada pelo IBGE.

Entretanto, há fatores que afetam seu cálculo, como por exemplo, a participação da escola

privada, que absorve parte da demanda (estimou-se 54,6% para 2014, segundo o Ministério da

Educação); o fato de não ser obrigatório para crianças de 0 a 3 anos; a atração de alunos de

municípios vizinhos, bem como para outros municípios.

Esta última consideração é importante, visto que a Região Metropolitana de Curitiba reúne 29

municípios do estado do Paraná em relativo processo de conurbação. Muitas famílias que têm

suas residências nos municípios vizinhos, por algum tipo de conveniência ou pela melhor

qualidade da escola, preferem ter seus filhos estudando na capital, sendo que o movimento

oposto também ocorre.

Dentre as premissas assumidas pelo modelo das p-medianas, talvez a mais significativa seja

referente a heterogeneidade das instalações. Assumir que os pais levam as crianças para a

escola mais próxima de suas residências não pode ser considerada uma hipótese verdadeira no

momento em que as creches em confronto possuem aspectos distintivos tais como tradição,

qualidade das instalações e do ensino oferecido, oportunidades de acesso a séries superiores,

alternativas diferenciadas de ensino, contradições culturais ou sócio econômicas.

Os resultados deste artigo constituem em conclusões preliminares de um estudo em andamento.

O que se espera alcançar ao final do estudo, inicialmente, obter uma perspectiva mais detalhada

sobre possíveis desigualdades entre oferta e demanda por vagas em centros de Educação

Infantil de Curitiba-PR. Para tanto, serão considerados para a análise, os 2.395 setores

censitários do município (ao invés dos 75 bairros), valendo-se heurísticas e meta-heurísticas.

REFERÊNCIAS

ARENALES, M. N. et al. Pesquisa operacional: para cursos de engenharia. Rio de

JaneiroElsevier, 2007.

DREZNER, Z.; HAMACHER, H. W. Facility location: applications and theory. Nova

YorkSpringer Science & Business Media, 2002.

MARETH, T.; PIZZOLATO, N. D. Mapeamento da utilização dos métodos/algoritmos

aplicados na resolução de problemas de localização. Revista Eletrônica Operacional para o

Desenvolvimento, v. 6, n. 1, p. 154–182, 2014.

MELO, M. T.; NICKEL, S.; SALDANHA-DA-GAMA, F. Facility location and supply chain

management - A review. European Journal of Operational Research, v. 196, n. 2, p. 401–

412, 2009.

NICKEL, S.; PUERTO, J. Location theory: a unified approach. Springer Science &

Business Media, 2006.

PIZZOLATO, N. D. et al. Localização de escolas públicas: Síntese de algumas linhas de

experiências no Brasil. Pesquisa Operacional, v. 24, n. 1, p. 111–131, 2004.

V Simposio de Metodos Numericos Computacionais

205

V Simposio de Metodos Numericos Computacionais

ANÁLISE QUANTITATIVA CONCEITUAL DO COMPORTAMENTO

MECÂNICO DE VIGA MISTA AÇO-CONCRETO PELO MÉTODO

DOS ELEMENTOS FINITOS

Resumo: O estudo realizado tem por objetivo avaliar conceitualmente os resultados

mecânicos de um modelo numérico simplificado tridimensional para uma viga mista aço

concreto. A principal simplificação é a adoção do comportamento linear elástico para os

materiais envolvidos. Os resultados obtidos pelo modelo são comparados com outros

resultados numéricos e experimentais presentes na literatura. Têm-se aqui uma avaliação

básica, focada nos deslocamentos verticais, nos deslizamentos relativos da interface aço-

concreto e nas tensões longitudinais que ocorrem nos componentes da viga.

Palavras-Chave: viga mista aço-concreto, modelagem numérica, interface aço-concreto.

1 INTRODUÇÃO

No Brasil, a aplicação de elementos mistos aço-concreto passou a figurar, mais recentemente,

como uma boa opção estrutural para edifícios de múltiplos pavimentos, sejam estes

comerciais, residenciais, hospitais, shopping centers ou escolas (QUEIROZ et al., 2012).

Logo o entendimento detalhado do comportamento destes elementos passou a ser necessário

e bastante útil na otimização do seu uso. Isso tem sido buscado pelos pesquisadores por duas

vertentes principais: a modelagem experimental e a modelagem numérica. Nas análises

numéricas, quando devidamente validadas, é possível estudar vários parâmetros ao mesmo

tempo, algo que se torna muito difícil no caso experimental. Embora existam variados tipos

de métodos numéricos passíveis de uso na análise estrutural, o Método dos Elementos Finitos

vem se consolidando como uma alternativa extremamente viável e funcional. Todavia a

aplicação do Método dos Elementos Finitos na análise de vigas mistas pode acontecer de

variados modos, e em diferentes níveis de complexidade e detalhamento. ARIZUMI et al.

(1981) e GATTESCO (1999), por exemplo, utilizam modelos simplificados com elementos

de comportamento unidimensional, enquanto FU, LAM e YE (2007) e KATAOKA e EL

DEBS (2015) desenvolvem seus estudos baseados em modelos tridimensionais .

Este trabalho tem por objetivo desenvolver, de maneira inicial, um modelo numérico com

elementos sólidos, elásticos e lineares para uma viga mista já modelada experimentalmente

por CHAPMAN e BALAKHRISHNAN (1964) e numericamente por GATTESCO (1999),

assim como comparar as respostas mecânicas com os resultados de modelos mais elaborados,

apresentados pelos autores citados.

Lucas Peres de Souza, Marco Andre Argenta

206

2 REVISÃO BIBLIOGRÁFICA

De forma a simular o comportamento integrado dos elementos que compõem uma viga mista,

pode-se recorrer a modelos que tornem a análise unidimensional. Tais análises são possíveis

através de algumas hipóteses simplificadoras e equacionamentos que relacionem o

comportamento da estrutura em todas as dimensões com a direção principal tomada como

referência.

Um modelo representativo para o tratamento unidimensional de uma viga mista pelo MEF é

desenvolvido por GATTESCO (1999). Neste modelo é incorporada uma análise não linear,

no que se refere aos comportamentos do concreto, do aço e dos conectores de cisalhamento.

GATTESCO (1999) propõe a divisão da viga mista em elementos de viga que, por sua vez,

são subdivididos em dois tipos: a parte de concreto e a parte metálica, ligados na interface por

duas molas horizontais. Os elementos em questão (Figura 1) possuem 4 pontos nodais, com 3

graus de liberdade em cada nó (translações vertical e horizontal e rotação no plano x-y).

Figura 1: Elemento de viga mista unidimensional

Fonte: GATTESCO (1999)

O autor opta em negligenciar o fenômeno de separação vertical entre o perfil e a laje (uplift),

bem como por tornar iguais as rotações no perfil e na laje. Estas hipóteses acabam reduzindo

o número de graus de liberdade de doze para oito. Para vigas simplesmente apoiadas,

GATTESCO (1999) compara os resultados processados em suas análises com resultados

experimentais de CHAPMAN E BALAKHRISHNAN (1964). As comparações principais

realizadas pelo autor são em relação à deflexão da viga no meio do vão e ao deslizamento

relativo entre laje e perfil. A Figura 2 traz os resultados colocados lado a lado, percebendo-se

uma boa correlação entre as curvas.

Deve-se lembrar que GATTESCO (1999) incorpora em seus modelos o comportamento não

linear do concreto, do aço, da conexão de cisalhamento e do atrito entre o perfil metálico e a

laje de concreto. Este comportamento não linear é inserido pela definição de leis constitutivas

previamente consolidadas experimentalmente. Sendo assim, o processo de convergência não

linear é feito pelo método de Newton-Raphson, com o uso da matriz de rigidez tangente do

elemento.

V Simposio de Metodos Numericos Computacionais

207

Figura 2- Comparação das deflexões no meio do vão e dos deslizamentos relativos obtidos por GATTESCO

(1999) e CHAPMAN e BALAKHRISNAN (1964).

Adaptado de GATTESCO (1999)

O aumento da capacidade de processamento dos computadores e o surgimento de softwares

com interface gráfica estimulou o uso da modelagem em três dimensões de vigas mistas. Um

modelo tridimensional foi criado por FU, LAM e YE (2007), com o uso do software

ABAQUS para conduzir análises paramétricas de vigas e ligações mistas. O modelo

numérico busca replicar as análises experimentais de FU e LAM (2006).

Os materiais dos componentes estruturais em aço (perfis das vigas e pilares, os conectores de

cisalhamento stud bolts e os parafusos) são definidos como elasto-plásticos, tanto sob tração

como sob compressão, com os mesmos valores limite de deformações.

De modo a simplificar a malha, os studs são modelados com seção retangular, de área

convertida a partir dos pinos utilizados nos testes experimentais. A cabeça dos pinos não é

modelada, bem como a solda entre os conectores e a viga metálica (FU, LAM e YE, 2007)

Como poderia causar problemas de convergência, também é negligenciado o atrito entre o

concreto e o perfil da viga. Portanto, nos modelos, o comportamento misto é proporcionado

somente pelos conectores de cisalhamento. Outro problema de convergência poderia ser

causado pela consideração da fissuração do concreto. No intuito de evitar este fenômeno, os

autores optaram por adotar um modelo simplificado elasto-plástico para o material da laje.

3 METODOLOGIA

O modelo numérico desenvolvido neste trabalho utiliza o software ABAQUS, como

ferramenta de análise, pelo Método dos Elementos Finitos. A viga biapoiada selecionada para

a comparação com o modelo de GATTESCO (1999) é aquela experimentada por CHAPMAN

e BALAKRISHNAN (1964), sendo estas formadas por um vão de 5490 mm, perfil metálico

de altura 305 mm e laje com espessura de 152 mm e largura efetiva de 1220 mm. Na Figura 3

é mostrada a geometria da viga E1.

V Simposio de Metodos Numericos Computacionais

208

Figura 3: Viga mista E1 ensaiada por CHAPMAN e BALAKHRISHNAN (1964) e modelada neste trabalho.

Todos os materiais envolvidos na modelagem realizada são tomados como isotrópicos e

elásticos lineares, de maneira simplificada. Já o carregamento considerado, é somente aquele

com valor igual a 448,5 kN, aplicado no meio do vão. A Tabela 1 engloba os valores que

serviram como entradas para o modelo.

Tabela 1: Geometria do modelo e dados dos materiais

Nome: Viga E1

Carregamento

P= 448500 N

A= 244000 mm²

vão= 5490 Mm p= 1,8381 N/mm²

Perfil Metálico Laje

d= 305 Mm bef= 1220 mm

bf= 152 Mm tc= 152 mm

tf= 18 Mm Conectores

hw= 269 Mm diâmetro= 12,7 mm

tw= 10 Mm altura do corpo= 88 mm

Materiais- Aço Perfis e Conectores Materiais- Concreto

E= 202160 N/mm² Ec= 29670 N/mm²

γs= 0,000077 N/mm³ γc= 0,000024 N/mm³

ν= 0,3 ν= 0,2

A entrada de geometria no software é realizada separando-se o modelo em duas partes: a laje

de concreto, e o conjunto formado pelo perfil metálico e pelos conectores de cisalhamento.

De modo a proporcionar a formação das superfícies de contato, é necessário que a geometria

da laje desconte o volume de concreto que não existe, devido à presença dos conectores.

Nesta modelagem ignora-se a cabeça dos conectores stud, considerando-se apenas seu corpo.

Realizada a inserção dos elementos geométricos, procede-se à definição dos contatos entre

superfícies. Sendo assim, são estabelecidos dois tipos de contato: entre o perfil metálico e a

laje de concreto, e entre a face lateral do conector e a laje. Para o primeiro tipo, adota-se um

contato de atrito livre na direção tangencial e de deslocamentos uniformizados na direção

normal da superfície. Já para a região de interface entre conectores e laje, assume-se uma

compatibilidade total de deslocamentos. Isso quer dizer que, somente a deformabilidade dos

conectores pode gerar o deslizamento parcial entre perfil e laje. As superfícies de contato

entre o topo dos conectores e a laje, são negligenciadas.

Para a geração da malha de elementos finitos, todos os componentes estruturais são

discretizados em elementos tetraédricos de interpolação linear, com 4 nós e 3 graus de

liberdade translacionais por nó. Busca-se otimizar a malha, com um instrumento de geração

V Simposio de Metodos Numericos Computacionais

209

automática de malhas disponível no software. Esta otimização envolve o refinamento da

região dos conectores, e a transição para elementos de dimensão maior nas outras regiões da

peça. A malha selecionada, para ser submetida ao processamento, é aquela que minimiza

tanto a distorção de forma dos elementos quanto o número de nós.

Com isso, a discretização final, ilustrada na Figura 4, resulta em 77727 elementos no

conjunto formado por perfis e conectores, e em 262812 elementos na laje de concreto. Em

razão da definição da malha, a seção dos conectores, geometricamente circular, é modelada

como retangular, com área correspondente à da seção circular. A ação da carga pontual de

448,5 kN, aplicada no meio do vão, é simulada pela inserção de uma pressão, na superfície da

laje, no valor de 1,8381 N/mm² , em uma área correspondente a 244000 mm². Os apoios

fixos são simulados pela restrição dos deslocamentos em x, y e z nos nós correspondentes.

Figura 4- Malha de elementos finitos gerada para o modelo tridimensional

4 RESULTADOS E DISCUSSÕES

A primeira observação sobre os resultados do modelo diz respeito aos deslocamentos

verticais da viga mista. Como é demonstrado na Figura 5, a flecha máxima, correspondente

ao carregamento de 448,5 kN, é de 7,20 mm, enquanto o modelo unidimensional de

GATTESCO (1999) chega à deflexão máxima de aproximadamente 16,62 mm e os

resultados experimentais remetem à valores próximos dos 20 mm.

Figura 5- Deslocamentos verticais

A definição do comportamento dos materiais, principalmente quanto ao desprezo da

fissuração do concreto e da plastificação do aço, pode ter levado a esta diferença de valores.

Os modelos de GATTESCO (1999) consideram a fissuração do concreto, assim como a

plastificação do aço, quando as tensões ultrapassam valores limite. Contudo, para uma análise

inicial, na busca da distribuição de deslocamentos entre os componentes da viga mista, é

V Simposio de Metodos Numericos Computacionais

210

válida a análise considerando o comportamento linear dos materiais. No que diz respeito ao

deslizamento relativo (Figura 6), na interface entre perfil e laje, há uma discrepância entre os

resultados experimentais e o que se observa na resposta do modelo aqui desenvolvido. As

prováveis simplificações que podem ter gerado tal diferença de resultados são a não

consideração do atrito entre as partes, bem como a manutenção do contato entre laje e

conector, em regiões que apresentam tensões de tração no concreto.

No entanto, é importante perceber as áreas em que se encontram os valores máximos para o

deslizamento relativo. Tanto nos modelos experimentais quanto na modelagem realizada, os

deslizamentos máximos ocorrem simetricamente a aproximadamente 40 % e 60% do vão

livre total. Segundo ARIZUMI et al. (1981), este comportamento se intensifica na interface, à

medida que se aproxima da carga última resistida pela estrutura Além desta região,

pertencente ao terço médio do vão, ocorrem também grandes deslizamentos nos pontos

próximos aos apoios. O deslizamento relativo máximo na interface aço concreto é de 0,05

mm no modelo.

Figura 6- Deslizamentos relativos entre laje de concreto e perfil metálico segundo a direção longitudinal

Pela Figura 7, que mostra a distribuição de tensões longitudinais ao longo da viga mista,

indica-se tensões máximas de tração próximas a 140 MPa, na extremidade da mesa inferior

do perfil metálico. Já a tensão máxima de compressão atinge aproximadamente 14 MPa, no

bordo superior da laje de concreto. Na seção crítica da viga, localizada no meio do vão, tem-

se que a linha neutra da seção metálica está localizada na alma do perfil, conforme mostrado

na Figura 8. A Figura 8 também demonstra que a laje está inteiramente comprimida,

indicando um bom aproveitamento de suas propriedades mecânicas.

Figura 7- Tensões longitudinais (σz) ao longo da viga

V Simposio de Metodos Numericos Computacionais

211

Figura 8- Tensões longitudinais na seção crítica da viga

5 CONCLUSÕES

Primeiramente, é necessário o entendimento de que a modelagem tridimensional simplificada

deve ser tomada apenas como um parâmetro inicial de análise. Percebe-se, pela comparação

com os resultados dos experimentos de CHAPMAN e BALAKHRISHNAN (1964), que os

valores de deflexões e deslizamentos relativos divergem. Torna-se necessário, então, levar em

conta principalmente as não linearidades de comportamento dos materiais envolvidos, para

que se simule o comportamento mecânico de maneira mais fiel. Além disso, a aplicação de

um espectro maior de valores de carregamento no modelo, poderia levar a melhores

comparações.

Contudo, o modelo desenvolvido é capaz de prever as regiões onde o deslizamento relativo e

a pressão de contato são mais intensos, bem como mostrar de maneira coerente a distribuição

de tensões ao longo da viga.

Como forma de incrementar o comportamento mecânico do modelo, estudos mais

aprofundados sobre a região de interface aço concreto são de extrema importancia, tendo em

vista esta servir como mecanismo de transferência de esforços. Além disso, a incorporação da

plastificação do aço e da fissuração do concreto poderão fazer com que o modelo represente,

de maneira mais fiel, o desempenho real da viga mista.

REFERÊNCIAS

ARIZUMI, Y.; HAMADA, S.; KAJITA, T. Elastic-plastic analysis of composite beams with

incomplete interaction by finite element method. Computers and Structures. v.14, p.453-462,

1981.

CHAPMAN, J. C.; BALAKRISHNAN, S. Experiments on Composite Beams. The Structural

Engineer. v.42, p.369-383, 1964.

FU, F.; LAM, D. Experimental study on semi-rigid composite joints with steel beams and

precast hollowcore slabs. Journal of Constructional Steel Research. v.62, p.771-782, 2006.

FU, F.; LAM, D.; YE,J. Parametric study of semi-rigid composite connections with 3-D finite

elemento approach. Journal of Constructional Steel Research, v.29, p.888-898, 2007.

GATTESCO, N. Analytical modeling of nonlinear behavior of composite beams with

deformable connection. Journal of Constructional Steel Research. v.52, p.195-218, 1999.

KATAOKA, M. N; EL DEBS, A. L. H. C. Parametric study of composite beam-column

connections using 3D finite elemento modelling. Journal of Constructional Steel Research,

v.102, p. 136-149, 2015.

QUEIROZ, G.; PIMENTA, R.J.; MARTINS, A. G. Estruturas Mistas. Instituto Aço Brasil/

Centro Brasileiro de Construção em Aço, v.1 2. ed., Rio de Janeiro, 2012.

V Simposio de Metodos Numericos Computacionais

212

V Simposio de Metodos Numericos Computacionais

ESTUDO DE MÉTODOS NUMÉRICOS PARA A SOLUÇÃO DE

PROBLEMAS NÃO LINEARES DE TRELIÇAS PLANAS

Resumo: Este artigo apresenta os resultados do código computacional desenvolvido para a

solução numérica de problemas de treliça plana considerando a não linearidade física, cujo

comportamento do material é descrito por um modelo constitutivo baseado na Mecânica do

Dano Contínuo. Para a solução do problema estrutural, são implementados os seguintes

métodos incrementais e iterativos com controle de força constante: Quase - Newton (BFGS e

Broyden); e de Newton - Raphson, sendo o sistema de equações solucionado a cada iteração

pelo Método do Gradiente Conjugado. Em adição, ao método de Newton - Raphson é

adicionada a técnica de continuação Controle de Deslocamento Generalizado. A ideia dos

métodos de continuação é tratar o parâmetro de força como uma variável, adicionando uma

condição de restrição ao sistema de equações que descreve o equilíbrio estrutural para a

determinação do mesmo. As estruturas são discretizadas por meio do Método dos Elementos

Finitos, sendo as simulações computacionais efetuadas com o software Matlab, com o intuito

de comprovar a eficiência do programa implementado mostrando, assim, a aplicabilidade de

cada solução às estruturas testadas.

Palavras-Chave: Métodos Quase - Newton, Método do Gradiente Conjugado, Mecânica do

Dano, Técnica de Continuação, Treliça Plana.

1 INTRODUÇÃO

As estruturas treliçadas têm grande aplicação na Engenharia Estrutural, sendo que os métodos

de análises lineares desses tipos de estruturas já estão bastante consolidados. Atualmente

sistemas em treliças de dimensões e complexidade cada vez maiores têm sido usados numa

grande variedade de aplicações práticas da engenharia. O advento do uso desses sistemas em

estruturas de grande complexidade, tais como, torres de linhas de transmissão, pontes e

mesmo estruturas aeroespaciais, tem exigido o uso intensivo de computadores e técnicas

apuradas de análise matricial (LEITE, 2000). Este artigo apresenta uma estudo comparativo

de métodos iterativos e incrementais para a solução numérica de problemas de treliças planas

considerando a não linearidade física. Para tal, um código computacional é desenvolvido, em

teoria de pequenos deslocamentos, para possibilitar a determinação da trajetória de equilíbrio

(deslocamento versus força). O comportamento do material é descrito por um modelo

constitutivo baseado na Mecânica do Dano Contínuo proposto por MANZOLI (1998).

Para a solução do problema estrutural num esquema incremental-iterativo e com controle de

Luiz Antonio Farani de Souza

213

força constante são utilizados os métodos: Quase - Newton (BFGS e Broyden); e de Newton -

Raphson com o método do Gradiente Conjugado para a solução do sistema de equações a

cada iteração. Na técnica de controle de força constante, o parâmetro de força é mantido

invariável durante o ciclo iterativo. Em adição, é implementada a técnica de continuação

Controle de Deslocamento Generalizado (GDCM) associada ao método de Newton -

Raphson. A ideia dos métodos de continuação é tratar o parâmetro de força como uma

variável, adicionando uma condição de restrição ao sistema de equações que descreve o

equilíbrio estrutural para a determinação do mesmo. Análises estruturais por meio do Método

dos Elementos Finitos de treliças planas são efetuadas com o programa Matlab. Os métodos

de solução são avaliados a partir dos parâmetros: número total de incrementos de força (Ntot),

número total de iterações (Itot), número médio de iterações por incremento de força (Iméd), e

deslocamento máximo (v).

2 MÉTODOS DE SOLUÇÃO

Seja o problema estrutural descrito pelo seguinte sistema de equações:

(1)

Sendo K a matriz de rigidez representativa do sistema estrutural, u o vetor de

deslocamentos, Fi o vetor de forças internas (avaliado em função do vetor de deslocamentos

totais u nos pontos nodais da estrutura), e o parâmetro de força responsável pelo

escalonamento do vetor Fr, sendo este um vetor de referência e de magnitude arbitrária. A

Eq. (1) deve ser obtida de forma incremental, ou seja, para uma sequência de incrementos do

parâmetro de força é determinada um sequência de incrementos de deslocamentos nodais. O

parâmetro de carga total e o vetor de deslocamentos totais u são obtidos pelas seguintes

equações no passo de força t + t e iteração k, respectivamente:

(2)

(3)

2.1 Método de Newton - Raphson com o Método do Gradiente Conjugado (NR -

MGC)

O método do Gradiente Conjugado gera uma sequência de soluções aproximadas uj e,

essencialmente, utiliza a matriz de rigidez do sistema K apenas em operações de

multiplicação de matriz por vetor. Adota-se a estratégia de sempre ir buscando direções

ortogonais p0, p1,... às direções já calculadas no passo anterior. Para cada uma dessas direções

encontra-se um vetor u. O algoritmo para a determinação do vetor de deslocamento total u

no passo de força t + t e iteração k é mostrado na Figura 1.

Figura 1: Algoritmo referente ao método de Newton - Raphson com o método do Gradiente Conjugado.

V Simposio de Metodos Numericos Computacionais

214

2.2 Métodos Quase - Newton

Nos métodos Quase - Newton, a sequência u(k)

é gerada por meio da expressão (CRISFIELD,

1991):

(4)

Sendo s(k)

a solução do sistema de equações dado por:

(5)

A matriz de rigidez K(k)

é atualizada a cada iteração, e é imposta a condição de que tal matriz

satisfaz a seguinte equação:

(6)

A escolha da estratégia na obtenção da matriz de rigidez define o método Quase - Newton ou

método Secante. Neste trabalho, foram implementados os métodos BFGS (Broyden, Fletcher,

Goldfarb e Shanno) e de Broyden. A matriz K(k)

no método BFGS é avaliada por:

(7)

Sendo . No método de Broyden, a matriz de rigidez K(k)

é

determinada pela equação:

(8)

Os sistemas dados em (5) e (6) são solucionados utilizando o operador "\" do Matlab. O

algoritmo para a determinação do vetor de deslocamento total u no passo de força t + t e

iteração k é mostrado na Figura 2.

Figura 2: Algoritmo referente aos métodos Quase - Newton (BFGS e Broyden).

3 ESTRATÉGIA DE ITERAÇÃO BASEADA NO DESLOCAMENTO

GENERALIZADO (GDCM)

A técnica GDCM foi apresentada por YANG e SHIEH (1990) e consiste na utilização de um

parâmetro geral de rigidez (GSP), que é definido pela seguinte equação:

(9)

Sendo 1 ur

(1) o vetor de deslocamentos da primeira iteração referente ao primeiro passo de

força. Os deslocamentos residuais são definidos como a soma de duas parcelas no passo t+t:

(10)

Sendo (k)

o parâmetro de força que deve ser avaliado ao longo do ciclo iterativo, e

V Simposio de Metodos Numericos Computacionais

215

ug(k)

e ur(k)

são obtidos por meio das expressões, respectivamente:

(11)

(12)

Os sistemas de equações lineares apresentados em (11) e (12) são solucionados com o

método de Gauss-Seidel. O parâmetro do incremento de força t+t

(k)

é calculado por:

(13)

O sinal do incremento inicial de força (t+t

(1)

) pode ser positivo ou negativo. A escolha do

sinal correto é de suma importância na definição de sequências de soluções que permitam o

avanço na resposta deslocamento - força. O parâmetro de rigidez generalizado (GSP)

depende exclusivamente dos vetores t ur

(1) (passo de força anterior) e

t+t ur

(1) (passo de

força corrente). A mudança de sinal do parâmetro GSP serve como um indicador para a

mudança do sentido de crescimento da força, uma vez que o mesmo torna-se negativo

somente nos incrementos da força imediatamente após a passagem por pontos limites. Há

possibilidade de que o deslocamento tangente tenda ao infinito em pontos próximos a um

ponto limite da trajetória de equilíbrio. Para evitar que isso ocorra, limitou-se esse

deslocamento a um valor máximo umáx, de forma que se || u|| > umáx, então (CRISFIELD,

1991):

(14)

Uma estratégia adaptativa que pode ser muito útil no emprego da técnica de controle de força

é a determinação automática da variação do parâmetro de força inicial (1

(1)) para a

definição do valor do parâmetro de força para a primeira iteração (t + Δt

(1)

), que consiste em,

ao final de cada passo da análise, monitorar o número de iterações requeridas para a

convergência (Ntoti) da técnica iterativa e comparar esse número com um valor ótimo (Notim).

Por meio desta monitoração, calcula-se t+Δt

(1)

para o passo de força seguinte por:

(15)

4 MODELO CONSTITUTIVO PARA O MATERIAL

Para descrever o comportamento do material, utiliza-se um modelo baseado na Mecânica do

Dano Contínuo proposto por MANZOLI (1998). Para o caso de um elemento unidimensional

submetido a uma força axial, a tensão efetiva é expressada por:

(16)

O limite de dano inicial r0 é uma propriedade do material e pode ser relacionado à tensão

limite de proporcionalidade f0 da seguinte forma:

(17)

Sendo B1 um parâmetro do modelo. Define-se a norma da tensão efetiva por:

V Simposio de Metodos Numericos Computacionais

216

(18)

A partir das relações de Kuhn - Tucker, o limite de dano é dado pelo máximo valor da

variável durante o processo de carregamento, tal que:

(19)

A partir das Eqs. (16) e (18), pode ser expresso em termos da deformação específica por:

(20)

A variável de dano d é escrita em função do módulo H e do limite de dano r por:

(21)

5 SIMULAÇÕES COMPUTACIONAIS

Nesta seção são apresentados os resultados numéricos de problemas de treliças planas

encontrados na literatura, levando-se em conta na análise estática por Elementos Finitos a não

linearidade física, com o intuito de comparar os métodos de solução. Em todas as análises

estruturais, considerou-se para a verificação da convergência a cada iteração k o critério de

parada , supondo a tolerância igual a 10-5

. Nas simulações com a técnica de iteração

GDCM, adotou-se o número de iterações desejadas (Notim) igual a 5, e o deslocamento

máximo ( umáx) igual a ||1 ur

(1)||. O peso próprio das estruturas é desconsiderado nas análises.

5.1 Simulação 1

Este exemplo, analisado por RODRIGUES (1997), é composto por uma treliça metálica

biapoiada de 13 barras com área da seção transversal A = 1,0 cm2, cujos banzos inferior e

superior são paralelos entre si, conforme ilustra a Figura 3. A estrutura é solicitada por uma

força concentrada P de intensidade 60 kN no nó 3 na direção vertical e sentido para baixo.

Figura 3: Treliça plana biapoiada com 13 barras.

O material das barras apresenta comportamento elastoplástico bilinear (encruamento linear ou

endurecimento). Para o modelo de dano, considerou-se os seguintes parâmetros: E = 21000,0

kN/cm2, f0 = 24 kN/cm

2, H = 0,3125 e B1 = 1,0. Nas simulações, considerou-se o incremento

de força P = 0,1 kN. Com relação à estratégia de iteração GDCM, adotou-se o incremento

inicial do parâmetro de força 1

(1) igual a 3,1. Na Tabela 1 são apresentados os resultados

numéricos das simulações efetuadas com os métodos BFGS, Broyden, Newton - Raphson

com o Gradiente Conjugado (NR - MGC) supondo o tamanho do passo de força constante

(controle de força constante), e com o método de Newton - Raphson (NR) associado à técnica

de continuação GDCM (NR - GDCM). Vê-se nessa tabela que os resultados ficaram bastante

próximos aos apresentados por RODRIGUES (1997). Em relação aos parâmetros da análise

estática não linear, o método BFGS apresentou o menor número de iterações até a

convergência (Itot = 5056), sendo que para o método NR - GDCM houve a necessidade de um

número menor de incrementos de força até o fim da simulação (Ntot = 381).

V Simposio de Metodos Numericos Computacionais

217

Tabela 1: Resultados numéricos.

Métodos numéricos Ntot Itot Iméd Desloc. vertical nó 3 (cm)

BFGS 600 5056 8,426666666666666 -6,611082061527813

Broyden 600 5159 8,598333333333333 -6,611082115929345

NR - MGC 600 9389 15,648333333333333 -6,611082119134057

NR - GDCM 381 6499 17,057742782152232 -6,609204991646640

RODRIGUES (1997) - - - -6,611

5.2 Simulação 2

Na Figura 4 é mostrada uma estrutura de treliça plana estaticamente indeterminada com duas

forças concentradas P aplicadas simetricamente. Esta estrutura foi analisada por

GUTIÉRREZ (2014). O material que constitui as barras apresenta comportamento elástico

idealmente plástico. Para o modelo de dano, considerou-se os seguintes parâmetros: E0A =

105 kN, f0 = 65 MPa (diagonais), f0 = 61,1 MPa (demais barras), H = 0,0 e B1 = 1,0. Nas

simulações, adotou-se o incremento de força P = 1,0 kN. Para a estratégia de iteração

GDCM, supôs-se o incremento inicial do parâmetro de força 1

(1) igual a 2,0.

Figura 4: Treliça plana hiperestática.

Os resultados numéricos das simulações efetuadas com o métodos numéricos são

apresentados na Tabela 2. Na Figura 5 são mostradas as trajetórias deslocamento máximo

versus força P com os métodos de solução associados à técnica de incremento de força

constante (BFGS, Broyden e NR - MGC), e a com controle de iteração e incremento de força

(NR - GDCM). Tabela 2: Resultados numéricos.

Métodos numéricos Ntot Itot Iméd Desloc. vertical nó 5 (cm)

BFGS 40 213 5,325000000000000 -0,039933071706962

Broyden 40 154 3,850000000000000 -0,039933071709044

NR - MGC 40 180 4,500000000000000 -0,039933071709090

NR - GDCM 59 1176 19,932203389830509 -0,199142248507156

Figura 5: Trajetórias de equilíbrio obtidas com métodos de solução: (a) com controle de força constante (BFGS,

Broyden e NR - MGC); e (b) associado à técnica de cotinuação (NR - GDCM).

V Simposio de Metodos Numericos Computacionais

218

Observa-se na Figura 5b que para a força P igual a 40,7333 kN, aproximadamente, há

aumento do deslocamento vertical no nó 5 sem acréscimo de força. As barras 1-2, 4-5, 5-6 e

8-9 atingem a tensão de escoamento em primeiro, apresentando comportamento plástico. Vê-

se a necessidade do uso de uma técnica de continuação, uma vez que as trajetórias de

equilíbrio obtidas com controle de força constante são conduzidas até P = 40 kN (Figura 5a);

para a próxima configuração de equilíbrio (ou seja, P = 41 kN) a convergência não é

alcançada no ciclo iterativo ( ) ocorrendo o término da simulação. Na Tabela 2,

comparando os métodos BFGS, Broyden e NR - MGC quanto aos parâmetros de análise, o

método de Broyden apresentou o menor número de iterações até o fim da simulação (Itot =

154).

6 CONCLUSÕES

A partir dos resultados obtidos, o tipo de lei constitutiva adotada para o material é uma das

causas da maior ou menor eficiência dos processos para a busca do equilíbrio. Uma lei

elastoplástica perfeita (simulação 2) pode conduzir a uma situação em que a estrutura

apresente grandes deformações antes de alcançar o equilíbrio. Estruturas pouco deformáveis

e/ou pouco esbeltas apresentam resposta próxima do comportamento elástico-linear, de modo

que os algoritmos implementados mostram eficiência no processo de resolução (os métodos

Quase - Newton alcançam o equilíbrio com um menor número de iterações em geral, em

comparação com o método de Newton - Raphson). Com relação ao MGC para a solução do

sistema de equações a cada iteração, um problema característico desse método é a sua

instabilidade numérica perante as diferentes propriedades do sistema de equações, mais

especificamente do condicionamento da matriz; para solucionar essa questão, pode-se utilizar

técnicas de pré-condicionadores que são otimizadores que diminuem essa instabilidade

inerente ao método e aceleram a convergência do sistema. Em adição, observa-se a

necessidade da utilização de um método de solução associado a uma técnica de iteração e

incremento de força para a solução de problemas com não linearidade física, quando se tem

ponto limite (ponto crítico) na trajetória de equilíbrio.

AGRADECIMENTOS

O autor agradece à UTFPR pelo apoio financeiro no desenvolvimento desta pesquisa.

REFERÊNCIAS

CRISFIELD, M. A. Non-Linear Finite Element Analysis of Solids and Structures. Vol. 1:

Essentials. New York: John Wiley & Sons, 1991.

GUTIÉRREZ, M. P. D. Análise elastoplástica de estruturas metálicas usando o conceito de

rótulas plásticas e o algoritmo de retorno radial. Brasília: UNB, 2014. Dissertação

(Mestrado) - Departamento de Engenharia Civil e Ambiental, Universidade de Brasília, 2014.

LEITE, F. N. Uma formulação teórica consistente para análise não linear de estruturas

treliçadas espaciais. Belo Horizonte: UFMG, 2000. Dissertação (Mestrado) - Departamento

de Engenharia de Estruturas, Universidade Federal de Minas Gerais, 2000.

MANZOLI, O. L. Um modelo analítico y numérico para la simulatión de discontinuidades

fuertes em la mecânica de sólidos. Barcelona: 1998. Tese (Doutorado) - Escola Técnica

Superior D’Enginyers de Camins, Canals i Ports, Universitat Politécnica de Catalunya,

Barcelona, 1998.

RODRIGUES, R. O. Análise Dinâmica Bidimensional Não linear Física e Geométrica de

Treliças de Aço e Pórticos de Concreto Armado. São Carlos: EESC-USP, 1997. Tese

(Doutorado) - Faculdade de Engenharia Civil, Escola de Engenharia de São Carlos, 1997.

YANG, Y. B.; SHIEH, M. S. Solution Method for Nonlinear Problems with Multiple Critical

Points. AIAA Journal, v. 28, n. 12, p. 2110-2116, 1990.

V Simposio de Metodos Numericos Computacionais

219

V Simposio de Metodos Numericos Computacionais

NOVO PARÂMETRO DE CORREÇÃO DE FALHAS NADIAGONAL DA FATORAÇÃO CONTROLADA DE CHOLESKY NO

MÉTODO DE PONTOS INTERIORES

Resumo: O objetivo deste estudo é modificar o cálculo do precondicionador Fatoração Controlada deCholesky (FCC) para reduzir o tempo computacional na resolução dos sistemas lineares oriundos do métodoprimal-dual de pontos interiores. Propõe-se esta modificação pois quando existe falha na diagonal a fatoraçãoé reiniciada, aumentando dessa forma o tempo de precondicionamento, quer seja devido a reconstrução doprecondicionador. quer seja a perda de qualidade do mesmo. O cálculo dos novos parâmetros é feito considerandoa relação que existe entre a FCC obtida antes e depois da falha na diagonal. A melhoria obtida usandoesta nova modificação reduziu o número de reinícios como será apresentado em experimentos numéricos comproblemas de grande porte. Estes resultados são competitivos e mostram que a nova proposta é eficiente e robusta.

Palavras-Chave:Métodos de pontos interiores, Precondicionadores, Fatoração Controlada de Cholesky.

Manolo Rodriguez Heredia, Aurelio Ribeiro Leite Oliveira

220

1 INTRODUCÇÃO

Os métodos de pontos interiores do tipo primal-dual são uma ótima ferramenta para resolver problemasde grande porte, pois apresentam um moderado número de iterações. No entanto, cada iteração poderesultar computacionalmente cara devido ao mau condicionamento dos sistemas lineares que precisamser resolvidos para encontrar a direção de busca.Para melhorar o condicionamento destes sistemas lineares e melhorar o tempo computacional em cadaiteração são usados os precondicionadores. Neste trabalho é usada uma abordagem híbrida proposta porBOCANEGRA et al. (2007). Esta abordagem tem duas fases, na primeira é usado o precondicionador(FCC) proposto por CAMPOS (1995) e na segunda fase, trabalha-se com o precondicionador Separador(PS) proposto por OLIVEIRA AND SORENSEN (2005).O precondicionador FCC é muito eficiente nas iterações iniciais do método de pontos interiores,porém durante o processo de fatoração é possível que existam falhas na diagonal do precondicionador,isto acarreta o reinício da fatoração LDLT . O número máximo de reinícios permitidos é 15. Istoé uma desvantagem, pois aumenta o tempo de precondicionamento da matriz do problema. Umalgoritmo que evita reinícios é apresentado em SILVA (2014), mas os resultados obtidos não sãocompetitivos com a construção original, porque o tempo computacional em alguns problemas éaumentado consideravelmente.Propõe-se uma modificação na Fatoração Controlada de Cholesky alterando a maneira do cálculo doparâmetro de correção das falhas que ocorrem na diagonal. O objetivo é reduzir o número de reiníciosda fatoração durante a construção do precondicionador FCC.

2 PROGRAMAÇÃO LINEAR

Considere o problema de programação linear primal-dual (P)

minimizar cTx s. a Ax = b e x ≥ 0

e (D)

maximizar yT b s. a ATy + z = c , z ≥ 0 e y ∈ Rm

na forma padrão, onde A ∈ Rm×n comm < n, é uma matriz m× n de posto completo, x, z e c ∈ Rn e b ∈ Rm.As condições de Karush-Kuhn-Tucker (KKT) para os problemas (P) e (D) são dadas por

Ax− bATy + z − c

XZe

= 0 (x, z) ≥ 0 , (1)

onde X e Z são matrizes diagonais com as componentes dos vetores x e z e o vetor e ∈ Rn tem todassuas componentes de uns.2.1 Método Preditor-Corretor de MehrotraO método preditor-corretor de Mehrotra é a variante mais eficiente dos métodos seguidores de caminho.A principal característica é que em cada iteração k a direção de busca é obtida pela resolução de doissistemas lineares com a mesma matriz. Primeiro, calcula-se a direção afim-escala (∆ax

k,∆ayk,∆az

k)A 0 00 AT IZk 0 Xk

∆axk

∆ayk

∆azk

=

rkprkdrka

, (2)

onde rkp = b−Axk, rkd = c−ATyk−zk e rka = −XZe. Logo, o lado direito do sistema (2) é modificadofazendo rkp = rkd = 0 e substituindo rka por rc, onde rkc = σkµke − ∆aX

k∆aZke, σk é o parâmetro

de centragem, µk é o gap de dualidade, ∆aXk = diag(∆ax

k) e ∆aZk = diag(∆az

k). Resolve-se estenovo sistema para obter a direção de centragem (∆cx

k,∆cyk,∆cz

k). Finalmente, a direção de busca(∆x,∆y,∆z) é obtida da soma das duas direções anteriores.A estrutura da matriz do sistema (2) permite reformulá-la de modo a obter um sistema linear com matrizsimétrica e definida positiva: Assim, se Θ = XZ−1:

AΘkAt∆yk = rkp + A(Θkrkd − (Zk)−1rka

). (3)

A equação (3) é chamada de equações normais. Dado que a matriz AΘkAT é mal condicionada, osucesso da implementação, usando métodos iterativos, depende da boa escolha de precondicionadores.

V Simposio de Metodos Numericos Computacionais

221

2.2 Precondicionadores para as Equações NormaisNas iterações iniciais será usada uma classe de precondicionador chamada de FCC, proposta porCAMPOS (1995) e nas iterações finais, quando as matrizes se tornam muito mal condicionadas, usa-se oPS proposto em OLIVEIRA AND SORENSEN (2005). A regra para mudança de um precondicionadorpara outro é determinada pela heurística proposta por VELAZCO et al. (2011).Esta abordagem híbrida utiliza o método dos gradientes conjugados e trabalha com o precondicionadorM para resolver o sistema de equações normais. O sistema precondicionado é:

M−1(AΘAT)M−Ty = M−1(rkp + A

(Θkrkd − (Zk)−1rka

)), (4)

onde y = MT∆y. Usa-se na primeira fase a FCC para construir a matriz M e depois da mudança defase o PS constrói a matriz M .2.3 Fatoração Controlada de CholeskyConsidere a fatoração de Cholesky e a Fatoração Incompleta de Cholesky (FIC) da matriz AΘAT :LLT = AΘAT = LLT + R, onde L é o fator obtido quando a fatoração é completa, L quando afatoração é incompleta e R é a matriz resíduo. Define-se a matriz E como a diferença E = L− L; logo,

L−1(AΘAT

)L−T = L−1(LLT )L−T = (L−1L)(L−1L)T

= (I + L−1E)(I + L−1E)T .(5)

Quando a matriz L se aproxima de L, E se aproxima da matriz nula; logo, L−1(AΘAT

)L−T se

aproxima da matriz identidade I . A FCC é baseada na minimização da norma de Frobenius da matrizE, pode-se considerar o problema de minimizar

∑nj=1 cj , onde cj denota o somatório

∑mi=1 |`ij − ˜

ij|2.Reescrevendo este problema, tem-se: minimizar

∑nj=1

(∑mj+ηk=1 |`ikj − ˜

ikj|2 +∑n

k=mj+η+1 |`ikj|2)

onde mj representa o número de componentes não nulas abaixo da diagonal da j-ésima coluna da matrizAΘAT e η representa o número de componentes extras permitidas por coluna.A FCC é um precondicionador construído com base na fatoração de Cholesky incompleta e, portanto,é possível encontrar falhas na diagonal. Manteuffel et al. (1980) mostraram que se uma matriz Vé simétrica definida positiva, existe uma constante α > 0 tal que uma fatoração incompleta deV +α diag(V ) existe. Na abordagem híbrida para o precondicionamento do método de pontos interioresas falhas que ocorrem durante a fatoração são corrigidas com um incremento exponencial. O valor doincremento é αt = 5 · 10−4 · 2t−1, onde t = 1, . . . , 15 representa o número de reinícios permitidos naFCC. No entanto, é possível evitar reinícios SILVA (2014), esta abordagem denotado por FCCβ estábaseada em BELLAVIA et. al. (2012).Na próxima seção são apresentados novos valores para o incremento na FCC.2.4 Uma Nova Proposta para o cálculo do incremento na Fatoração Controlada de CholeskyNesta seção é denotada por A a matriz AΘAT da equação (4); isto é, A é simétrica definida positiva deordem m; além disso, A é considerada escalada, para cada j = 1 . . . ,m, ajj = 1. Na FCC quando existeuma falha na diagonal; isto é, existe dj < tol, onde j = 1, . . . ,m e tol = 10−8, o valor do incrementona diagonal é denotado por αt, onde t = 1, . . . , 15. Propõe-se novos valores para αt, estes não evitam oreinício na FCC, mas o número de reinícios necessários para realizar a fatoração é reduzido.Como a atualização proposta está baseada na fatoração da matriz A + αI , denotada por A, deve-seconhecer o comportamento da mesma ao longo da Fatoração LDLT . Logo, efetuando o cálculo dadescomposição A = LDL

T, obtém-se:

dj = ajj + α−j−1∑

k=1

dk`2

jk ;

`ij =1

dj

(aij −

j−1∑

k=1

`ikdk`jk

).

(6)

V Simposio de Metodos Numericos Computacionais

222

para j = 1, . . .m e i = j + 1, . . . ,m. Usa-se a fatoração LDLT da matriz A para calcular as novascomponentes da matriz L e D; assim, pode-se obter:

dj = dj + α +

j−1∑

k=1

(dk`

2jk − dk`

2

jk

);

`ij = `ijdj

dj+

1

dj

j−1∑

k=1

(`ikdk`jk − `ikdk`jk

).

(7)

para j = 1, . . .m e i = j + 1, . . . ,m.As novas propostas para calcular αt estão baseadas na equação (7):

1. Denota-se a primeira proposta por FCC1. Quando dj < tol, usa-se a equação (7) para mostrar:para cada α > 0, dj > tol se, e somente se,

j−1∑

k=1

dk`2

jk ≤ ajj + α− tol . (8)

Procura-se α próximo de zero, pois A deve estar próximo de A. Desta maneira, deve-se resolver oproblema:

(Pα)

minα>0

α

s. a

j−1∑

k=1

dk`2

jk ≤ ajj + α− tol .(9)

No entanto, quando dj < tol, para k = 1, . . . , j − 1 não são conhecidos os valores dk nem `jk,pois ainda não foi feita a fatoração LDL

T. Para tanto, a seguinte Afirmação é útil na construção

da FCC1.AFIRMAÇÃO 2.1. Se existe falha na diagonal na FCC e para cada α > 0, dj > tol, então

j−1∑

k=1

dk`2

jk < α +

j−1∑

k=1

dk`2jk (10)

Prova. Consequência direta da hipótese e da equação (7).

Quando dj < tol, consideram-se a função f : R −→ R e g : R −→ R, dadas por

α 7→j−1∑

k=1

(dk`jk)2

dk + αe α 7→

j−1∑

k=1

α

dk + αdk`

2jk , (11)

respectivamente. Como limα→0+

g(α) = 0, usando a inequação (10) em vez de resolver o problema

(Pα) é procurada a solução do problema:

(Pα)

minα>0

α

s. a f(α) ≤ ajj − tol ,(12)

pois se α é solução de (Pα):

j−1∑

k=1

dk`2

jk < α +

j−1∑

k=1

dk`2jk = α + f(α) + g(α)

≈ α + f(α) < α + ajj − tol .

(13)

Como f é uma função decresciente α é solução de (Pα) se, e somente se, f(α) = ajj−tol. Usa-seo método de Newton para calcular numericamente este valor.

V Simposio de Metodos Numericos Computacionais

223

2. O novo valor de αt é calculado baseado na construção de uma parábola, denota-se esteprecondicionador por FCCp. Na equação (7), substitui-se a segunda na primeira igualdade:

dj = dj + α +

j−1∑

k=1

dk`2jk

(dk − dkdk

)+ d` (14)

onde d` = −∑j−1k=1

∑k−1t=1

1dk

( (2`jkdk + `jtdt`kt − `jtdt`kt

) (`jtdt`kt − `jtdt`kt

)). Logo, para dj

é obtida a aproximação dj: dj = dj +α+∑j−1

k=1 dk`2jk

((dk − dk)/dk

). Usando a equação (7), para

k = 1, . . . , j − 1, cumpre-se

(dk − dkdk

)=

α +∑k−1

s=1 ds`2ksds−dsds

dk + α +∑k−1

s=1 ds`2ksds−dsds

(15)

e denotando αk = α +∑k−1

s=1 ds`2ksds−dsds

, segue-se(dk−dkdk

)= αk

dk+αk. No entanto, para construir a

FCCp, considera-se a aproximação dj para dj:

dj = K + α− drdr + α

dr`2jt . (16)

onde r é o argumento de max1≤k≤j−1

`jk e K = ajj −∑j−1

k=1k 6=r

dk`2jk.

Observa-se que dj > dj . Logo, deve-se isolar α da equação (16) para obter:

αt =

(tol−K− dr +

√(tol−K + dr)2 + (2dr`jr)2

)/2 (17)

Na Figura 1, tem-se uma interpretação geométrica desta proposta.

tol

ℓjr dj√

Kdr

√K(dr+α)dr

y

x

Figura 1: Desloca-se(√

K/dr, 0)

e(0,K

)até(√

K(dr + α)/dr, 0)

e(0,K + α

), respectivamente para que

dj ≥ tol.

Testes numéricos para avaliar o desempenho destas propostas serão apresentados na próxima seção.

3 EXPERIMENTOS NUMÉRICOS

Os testes para avaliar o desempenho destas novas propostas foram realizados com a versão modificadado PCx que resolve os sistemas lineares utilizando uma abordagem híbrida no precondicionamento dométodo dos gradientes conjugados. O código da FCC foi modificado incorporando as novas propostas, asquais estão sendo chamadas de FCC1 e FCCp. Por outro lado, a modificação proposta por SILVA (2014)é chamada de FCCβ. Os testes computacionais foram realizados em ambiente Linux, em uma máquinaequipada com processador core i7 de 2.0 GHz e 8Gb de memória RAM.Os problemas utilizados para avaliar o desempenho das novas abordagens foram extraídos dasbibliotecas: NETLIB, QAP e KENNINGTON. Na Tabela 1 são apresentados o tempo de processamentopara avaliar a eficiência das novas propostas. O símbolo "−" significa que o problema não foi resolvido.Na Tabela 2, compara-se o total de reinícios em todas as iterações onde é calculada a FCC e o totalde iterações do método de pontos interiores. Os símbolos "∗" e "∗∗" significam que em uma iteração eem mais de uma iteração do método de pontos interiores o número total de reinícios foi maior que 15,respectivamente. O símbolo "−" significa que o problema não foi resolvido.

V Simposio de Metodos Numericos Computacionais

224

A eficiência das novas modificações FCC1 e FCCp é destacada na resolução dos problemas pds, poisnão foi necessária uma abordagem híbrida. Enquanto o desempenho da FFCβ foi discrepante em relaçãoa estes problemas, porque existiu a mudança de fase o que implica que o precondicionador Separadorincrementou o tempo computacional.Observa-se que as novas estratégias para o cálculo do parâmetro de correção αt melhoram o desempenhoda FCC, pois o tempo de processamento foi reduzido quando comparado com a proposta original FCC.Além disso, o número de reinícios para o cálculo do precondicionador FCC1 e FCCp em cada iteração émenor do que o FCC. Isto acontece porque o cálculo de αt tem justificacão algébrica e geométrica.

4 CONCLUSÕES

As modificações propostas chamadas de FCC1 e FFCp reduziram o número de reinícios da FCC atéconcluir a construção deste precondicionador. Os experimentos numéricos realizados com problemas deprogramação linear indicam que a FCCp é muito eficiente em problemas pequenos; no entanto, a FCC1é robusta, pois foi possível resolver problemas como o ste36a.A justificação da construção das propostas FCC1 e FCCp pode ser implementada para que o tempocomputacional também seja reduzido na abordagem FCCβ. Por esta razão novas formas de calcular aatualização da modificação FCCβ serão investigadas.A FCC é um precondicionador que pode ser aplicado a vários tipos de problemas. Assim, as abordagensapresentadas aqui podem ser testadas em outros contextos de precondicionamento, como por exemplo, aresolução numérica de certos tipos de equações diferenciais.

Tabela 1: Problemas Testes e o tempo computacional

Tamanho TempoProblema Linhas Colunas FCC FCC1 FCCp FCCβ

NL 6665 14680 32, 99 30, 36 45.36 75, 81stocfor3 15362 22228 87, 88 79, 91 102, 16 80, 67BL 5729 12462 18, 04 17, 59 17, 29 38, 61els19 4350 13186 43, 47 42, 74 46, 49 44, 92chr22b 5587 10417 19, 76 18, 37 18, 38 17, 15scr20 5079 15980 60, 98 64, 63 69, 78 54, 35rou20 7359 37640 755, 41 763, 01 863, 83 663, 19ste36a 27683 15980 10022, 89 9468.18 − −cre-b 5328 36382 43, 28 40, 54 39, 51 51, 98cre-d 4094 28601 27, 91 27, 40 27, 08 32, 85ex09 1821 18184 51, 01 42, 25 42, 01 59, 75ken11 9964 16740 10, 17 9, 39 10, 63 15, 34ken13 22365 36561 93, 64 86, 94 80, 20 141, 62ken18 78538 128434 1014.74 997, 45 1120, 57 1096, 73pds-06 9145 28472 8, 19 9, 58 13, 97 38, 98pds-10 16558 48763 18, 48 16, 18 21, 66 168, 17pds-20 32276 106180 214, 59 281, 38 229, 33 928, 28pds-40 34265 214385 395, 70 426, 51 508, 51 4521, 67pds-60 96503 332862 1076, 86 1146, 09 1713, 35 11160, 55pds-80 126109 430800 1509, 34 1587, 91 1874, 55 15848, 94pds-100 156243 514577 2573, 59 2660, 97 3137, 19 28371, 93

AGRADECIMENTO

Este trabalho contou com o apoio financeiro da Fundacão de Amparo à Pesquisa do Estado de São Paulo(FAPESP) e pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq).

V Simposio de Metodos Numericos Computacionais

225

Tabela 2: Número total de reínicios em cada iteração e total de iterações

Número de Reinícios IteraçõesProblema FCC FCC1 FCCp FCC FCC1 FCCp FCCβ

NL 284 79 51 41 42 45 47stocfor3 199 74 48∗ 32 32 32 32BL 261 94 63 38 38 38 38els19 78 32 22 31 31 31 31chr22b 79 30 18 29 29 29 29scr20 74 27 25 21 21 21 21rou20 81 28 20 24 24 24 24ste36a 125∗ 38 − 37 37 − −cre-b 288 95 37 43 43 43 43cre-d 281 150∗∗ 24 42 46 42 43ex09 319 82 45 45 44 45 51ken11 74 33 35 23 22 22 23ken13 73 33 33 29 29 30 29ken18 103 52 46 41 40 39 38pds-06 216 62 64 39 39 40 38pds-10 256 67 61 47 46 48 47pds-20 322 89 58 60 61 60 59pds-40 479 137 118 78 79 79 77pds-60 492 145 126 84 84 85 84pds-80 478 173 139 83 83 83 83pds-100 508 181 145 87 88 87 83

REFERÊNCIAS

BELLAVIA S., SIMONE V.D., DI SERAFINO D., and MORINI B. A preconditioning framework forsequences of diagonally modified linear systems arising in optimization. SIAM Journal on NumericalAnalysis, 50(6):3280–3302, 2012.

BOCANEGRA S., CAMPOS F.F., and OLIVEIRA A.R.L. Using a hybrid preconditioner for solvinglarge-scale linear systems arising from interior point methods. Computational Optimization andApplications, 36(2-3):149–164, 2007.

CAMPOS F.F. Analysis of conjugate gradients-type methods for solving linear equations. Ph.D. thesis,University of Oxford, 1995.

MAUNTEUFFEL T.A. An incomplete factorization technique for positive definite linear systems.Mathematics of computation, 34(150):473–497, 1980.

OLIVEIRA A.R.L. and SORENSEN D. A new class of preconditioners for large-scale linear systemsfrom interior point methods for linear programming. Linear Algebra and its applications, 394:1–24,2005.

SILVA L.M. Modificações na Fatoração Controlada de Cholesky para Acelerar o Precondicionamentode Sistemas Lineares no Contexto Pontos Interiores. Ph.D. thesis, Universidade Estadual de Campinas,2014.

VELAZCO M.I., OLIVEIRA A.R.L., and CAMPOS F.F. Heuristics for implementation of a hybridpreconditioner for interior-point methods. Pesquisa Operacional, 31(3):579–591, 2011.

WRIGHT S. Primal-dual Interior-Point Methods:. SIAM e-books. Society for Industrial and AppliedMathematics (SIAM), 1997. ISBN 9781611971453.

V Simposio de Metodos Numericos Computacionais

226

V Simposio de Metodos Numericos Computacionais

ROBUST UNIT COMMITMENT WITH WIND POWERFORECASTING UNCERTAINTY

Abstract: The integration of large-scale wind power adds a significant uncertainty to power system planning andoperating. The representation of wind power forecasting uncertainty in the unit commitment (UC) problem aimsto schedule the most cost-effective combination of generating units to meet forecasted load. There is no generalsolution technique for three-level optimization problems like UC. In this paper, a comparative study has been donefor an adaptive robust UC and an equivalent Linear Program (LP).

Key Words: Unit Commitment, Wind Power, Uncertainty, Adaptive Robust Optimization

1 INTRODUCTION

Robust Optimization (RO) is a methodology for addressing uncertainty in optimization problems thathas grown in popularity over the last decade (for a survey, see (Bertsimas, D., Brown, D. B., Caramanis,2011). The RO approach to uncertainty models the uncertain parameters in a problem as belongingto a an uncertainty set, instead of modeling them as being drawn from probability distributions. Wesolve an RO problem with respect to the worst-case realization of those uncertain parameters over theiruncertainty set, i.e.

minx∈X

f (x) (1)

subject to g (x, ξ) ≤ 0 ∀ξ ∈ Ξ

where x are the decision variables, ξ are the uncertain parameters drawn from the uncertainty setΞ, f : X → R is a function of x and g : X × Ξ → Rk is a vector valued function of both x and ξ.Note that constraints which are not affected by uncertainty are captured by the set X . As the uncertaintyset Ξ is typically not a finite set of scenarios, RO problems have an infinite set of constraints. This isusually addressed by either reformulation the RO problem using duality to obtain a robust counterpart, or by using a cutting-plane method that aims to add only the subset of constraints that are required atoptimality to enforce feasibility (Bertsimas, D., Dunning, I., Lubin, 2015).

As electricity generation from renewable resources, such as solar and wind generation increases,power system operators (SO) must increase reserve margins to account for the larger uncertainty onthe net load (Makarov, Y.V., Loutan, C., Jian Ma, and de Mello, 2009), (Ela, E., and O’Malley, 2012).Existing power systems have not been designed to effectively withstand these levels of uncertainty andmay therefore require sizable investments to make their generation fleet more flexible (Ma, J., Silva, V.,

Marcos Roberto Bombacini, Ademir Alves Ribeiro

227

Belhomme, R., Kirschen, D.S., and Ochoa, 2013). For a power system generate power for its customers,there are two phases: 1) Unit Commitment (UC), i.e., deciding which generator should be on-line togenerate power. 2) Economic Dispatch (ED), i.e., deciding the output for each on-line generator.

The contributions of this paper are twofold:

1. to implement two UC formulation in Julia language management the uncertainty associated towind power;

2. to compare the costs and the generators use in an illustrative example in a power system with ahigh penetration of wind power generation;

The rest of this paper is organized as follows. Section 2 describes the RO model. Section 3 shows theFourier Motzkin Elimination procedure from Robust UC to Linear Programming UC problem. Section4 illustrate a three bus example mirroring the interface between Western and Eastern Texas. Section5 provides some results from a realistic case study for RO and LP methods. Section 6 provides somerelevant conclusions and future work.

2 ROBUST UC

The robust optimization approach to UC (sometimes called adaptive robust optimization (Bertsimas,D., Litvinov, E., Sun, X. A., Zhao, Ji. and Zheng, 2013)) typically consists of two stages, where the costsfor (first-stage) commitment x decisions and the costs of the (second-stage) dispatch in the worst-casewind scenario are minimized over a planning horizon T of length T = |T | (Bertsimas, D., Litvinov,E., Sun, X. A., Zhao, Ji. and Zheng, 2013), (Zhao, C., and Guan, 2013), (Morales-Espana, G., Latorre,J.M., and Ramos, 2013). This worst-case scenario ξ is taken from a continuous interval of minimum andmaximum wind nodal injection for each time interval and each bus, called uncertainty set.

Definition 1. Given a vector with de lowest (w) and one with highest (w) possible wind powerinjection for each time interval t ∈ T and each node b ∈ BW , the uncertainty set Ξ is defined by acontinuous range between these extremes, i. e.,

Ξ (w,w) =ξ ∈ RBT : wbt ≤ ξbt ≤ wbt, ∀b ∈ BW , t ∈ T

(2)

where BW denotes the set of wind nodes, and BW the number of such nodes(BW =

∣∣BW∣∣).

This uncertainty set can be taken very large for very robust solutions, or relatively tight to get lessconservative solutions, allowing some control over conservatism (Guan, Y., and Wang, 2014).

Given such minimum and maximum possible wind power injection, the objective is to minimize thesum of the costs bTx for the unit’s commitment related decisions for each time interval (e.g., on/off andstartup/shutdown) and the worst-case dispatch cost max

ξ∈Ξmin

p(·),w(·)

(cTp (ξ) + dTw (ξ)

). The continuous

variable p is a vector of units’ dispatch decisions for each time interval. The continuous variable w is avector of each wind production dispatch decision for each bus with wind power injections, and for eachtime interval.

Through this paper wind is considered to be dispatchable; that is, wind curtailment is allowed. There-fore, the uncertain parameter is the maximum possible dispatchable wind (ξ) that can be produced (i.e.,available wind capacity) rather than the wind dispatch (w) itself, which is a decision variable.

Definition 2. The two-stage robust UC formulation S given minimum (w) and maximum (w) possiblewind power injection is the following:

S (w,w) = minx

(bTx+ max

ξ∈Ξ(w,w)min

p(·),w(·)

(cTp (ξ) + dTw (ξ)

))(3)

s.t. Fx ≤ f , x is binary (4)

Hp (ξ) + Jw (ξ) ≤ h (5)

V Simposio de Metodos Numericos Computacionais

228

Ax+ Bp (ξ) + Cw (ξ) ≤ g (6)

w (ξ) ≤ ξ (7)

p, w ≥ 0 (8)

where x,p and w are variables as discussed above.Constraint (4) involves only commitment-related constraints, e.g., minimum up/down times. Con-

straint (5) contains dispatch-related constraints, e.g., energy balance, transmission limit constraints, andramping constraints. Constraint (6) couples the commitment and dispatch decisions, e.g., minimum andmaximum generation capacity constraints. Finally, (7) guarantee that the wind dispatch cannot exceedthe available wind production.

Theorem 1. For each minimum (w) and maximum (w) possible wind power injection, the second

stage problem(

maxξ∈Ξ

minp,w

cTp + dTw

)can be formulated as an LP.

By applying the Fourier Motzkin elimination, we obtain the following equivalent formulation:

minp,w

cTp+ dTw (9)

s.t. Hp+ Jw ≤ h (10)

Bp+ Cw ≤ g (11)

w ≤ w (12)

p, w ≥ 0. (13)

In short, the second-stage max-min problem (3)-(8), which is non-convex (Bertsimas, D., Litvinov, E.,Sun, X. A., Zhao, Ji. and Zheng, 2013), (Zhao, C., and Guan, 2013), is equivalent to the LP formulation(9)-(13). Consequently, the complete two-stage UC formulation with wind dispatch is equivalent to thetwo-stage robust UC formulation RO given minimum possible wind power injection. (The step-by-stepFourier Motzkin procedure can be found in the technical report (Morales-España, G., Davidson, M.,Ramírez-Elizondo, L., de Weerdt, 2015).)

The main element of this proof is a generalization of a similar result on adaptive robust optimizationfor LP problems (Dantzig, G. B., Thapa, 2003), (Ben-Tal, A., Goryashko, A., Guslitzer, E., Nemirovski,2004). Since the uncertainty affecting every one of the constraints (4)-(8) is independent of each other,and the uncertainty set is defined as a continuous interval, the fully adaptive solution of the second-stageproblem is equivalent to the static (or non-adaptive) one, as proven in (Ben-Tal, A., Goryashko, A.,Guslitzer, E., Nemirovski, 2004) and further discussed in (Caramanis, 2006). That is, we can obtain thesolution of the second-stage Adaptive Robust Optimization (ARO) model (3)-(8) by solving its staticrobust reformulation, which result is (9)-(13).

3 FOURIER MOTZKIN ELIMINATION

The elimination of a variable xr, 1 ≤ r ≤ N , from a system of linear inequalities

V Simposio de Metodos Numericos Computacionais

229

Ax ≥ b,A =

aT1...aTM

= [aij] ; aTi = [ai1 · · · aiN ] ;

x =

x1...xN

; b =

b1...bN

;M,N ≥ 2 (14)

corresponds to the calculation of a new vector inequality with air = 0 for 1 ≤ i ≤ M . To this end,Fourier Motzkin Elimination (FME) exploits two properties of inequalities, i.e.,

s ≥ t ∧ y ≥ y ≥ z ⇒ s+ y ≥ t+ z (15)

s ≥ t ∧ y ≥ y ≥ 0⇒ s · y ≥ t · y. (16)

The elimination of a variable xr from (14) takes two steps:Sorting of Inequalities: The individual inequalities aTi x ≥ bi from (14) into three sets, i.e.,

I> =aTg x ≥ bg|agr > 0 ∧ g ∈ G

(17)

I< =aTl x ≥ bl|alr < 0 ∧ l ∈ L

(18)

I= =aTe x ≥ be|aer < 0 ∧ e ∈ E

(19)

withG ∩ L = G ∩ U = L ∩ E = ∧G ∪ L ∪ E = 1 . . .M . (20)

Elimination of xr by Linear Combination: The inequalities in I= are already independent of xr sinceaer = 0. They are included in the final set of inequalities without any further manipulation.

Geometrically, the elimination of a variable xr can be interpreted as a projection of the original poly-tope along the xr-axis. An inequality with aer = 0 describes a halfspace, the boundary hyperplane ofwhich is parallel to the xr-axis. When this hyperplane is intersected with the subspace that is supportedby the remaining parameters, then we obtain the (N − 1)-dimensional projection of this hyperplane.This is depicted in Fig. 1 for the 3-D case shaded plane is projected onto xa/xb plane.

Figure 1: Projection of a Parallel Boundary Plane

The set I= is then augmented by all pairwise linear combinations of inequalities from I> and I< suchthat the rth coefficient is zero:

I= ∪(agr · aTl − alr · aTg

)· x ≥ agrbl − alrgg|g ∈ G ∧ l ∈ L

. (21)

V Simposio de Metodos Numericos Computacionais

230

Fig. 2 shows how such a linear combination results in a zero coefficient of xr and hence yields aplane that is parallel to the xr and hence yields a plane that is parallel to the xr-axis. The final set ofinequalities in vector/matrix notation is

A\r · x ≥ b\r. (22)

The entries in the rth column of A\r are all zeros: Variable xr has been removed from the system ofinequalities (Stehr, G., Graeb, H. E., and Antreich, 2007).

Figure 2: Projection of a Linear Combination of Planes

4 ILLUSTRATIVE EXAMPLE

In the following notes for the sake of simplicity, we are going to use a three bus example mirroringthe interface between Western and Eastern Texas Fig. 3. This example is taken from (Baldick, 2012).

Figure 3: A Three Bus Example Mirroring the Interface Between Western and Eastern Texas

For this example, we set the following characteristics of generators (Table 1), transmission lines(Table 2), wind farms (Table 3) and demand (Table 4):

V Simposio de Metodos Numericos Computacionais

231

Generator 1 Generator 2gmin, MW 0 300gmax, MW 1000 1000cg, $/MWh 50 100cg0,$/MWh 1000 0

Table 1: Characteristics of Generators

Line 1 Line 2fmax, MW 100 1000x, p. u. 0.001 0.001

Table 2: Transmission Lines

Wind farm 1 Wind farm 2wf , MW 150 50cw, $/MWh 30 20

Table 3: Wind farm

Bus 1 Bus 2 Bus 3d, MW 0 0 1500

Table 4: Demand

5 NUMERICAL RESULTS

The Robust Optimization and Linear Programming methods are applied for solving the Unit Commit-ment problem for an illustrative example Fig. 3 separately, and the numerical results are given in (Table5).

Total Cost($)

Dispatch ofGenerator 1

(MW)

Dispatch ofGenerator 2

(MW)

Dispatch ofWind Farm 1

(MW)

Dispatch ofWind Farm 2

(MW)Robust Optimization 99.562,5 1000 493,75 6,25 0Linear Programming 80.000 800 300 200 200

Table 5: The Numerical Results for RO and LP methods.

It can be seen from (Table 5) that OR has the highest cost value, and LP performs much bettergenerators use. It is worth noting wind power forecast error usually has been assumed 10%.

6 CONCLUSIONS AND FUTURE WORK

Two different methods, RO and LP methods, are used for solving the UC problem known as animportant and hard-solving problem in power system engineering, and the results from the programscoded and implemented using Julia language and Gurobi Optimizer for these methods are compared toeach other according to cost and generators use. The numerical results show that the RO method whichis firstly used for solving the UC problem in literature gives the highest cost but permits uncertainty

V Simposio de Metodos Numericos Computacionais

232

set flexibility. It is seen that LP method yields the minimum cost and performs much better generatorsuse. Since an important factor in the solution of UC problems is how the representation of wind powerforecasting uncertainty in the unit commitment (UC) problem can be done.

Another straightforward application of the results in this paper would be to incorporate the worst-casesolution in a deterministic UC formulation based on reserves, thereby greatly improving its robustnesswithout significantly affecting its computational burden. We also believe that our formulation couldhelp in the design of new heuristics for the two-stage robust UC problem including dynamic sets ofuncertainty (Lorca, Á., and Sun, 2014).

REFERENCES

Baldick R. Wind and Energy Markets : A Case Study of Texas. IEEE Systems Journal, 6(1):27–34,2012.

Ben-Tal, A., Goryashko, A., Guslitzer, E., Nemirovski A. Adjustable Robust Solutions of UncertainLinear Programs. Mathematical Programming, 99(2):351–376, 2004.

Bertsimas, D., Brown, D. B., Caramanis C. Theory and Applications of Robust Optimization. SIAMReview, 53(3):464–501, 2011.

Bertsimas, D., Dunning, I., Lubin M. Reformulation Versus Cutting-Planes for Robust Optimization: AComputational Study. Optimization On-Line, 2015.

Bertsimas, D., Litvinov, E., Sun, X. A., Zhao, Ji. and Zheng T. Adaptive Robust Optimization for theSecurity Constrained Unit Commitment Problem. IEEE Transactions on Power Systems, 28(1):52–63,2013. ISSN 0885-8950. doi:10.1109/TPWRS.2012.2205021.

Caramanis C. Adaptable Optimization: Theory and Algorithms. Ph.D. thesis, Massachusetts Institute ofTechnology, 2006.

Dantzig, G. B., Thapa M.N. Linear Programming : 2 : Theory and Extensions. First edition, 2003.ISBN 0387948333.

Ela, E., and O’Malley M. Studying the Variability and Uncertainty Impacts of Variable Generation atMultiple Timescales. IEEE Transactions on Power Systems, 27(3):1324–1333, 2012.

Guan, Y., and Wang J. Uncertainty Sets for Robust Unit Commitment. IEEE Transactions on PowerSystems, 29(3):1439–1440, 2014.

Lorca, Á., and Sun X.A. Adaptive Robust Optimization With Dynamic Uncertainty Sets for Multi-PeriodEconomic Dispatch Under Significant Wind. IEEE Transactions on Power Systems, PP(99):1–12,2014.

Ma, J., Silva, V., Belhomme, R., Kirschen, D.S., and Ochoa L. Evaluating and Planning Flexibility inSustainable Power Systems. In IEEE Power and Energy Society General Meeting (PES), pages 1–11.2013. ISBN 9781479913039.

Makarov, Y.V., Loutan, C., Jian Ma, and de Mello P. Operational Impacts of Wind Generation onCalifornia Power Systems. IEEE Transactions on Power Systems, 24(2):1039–1050, 2009.

Morales-España, G., Davidson, M., Ramírez-Elizondo, L., de Weerdt M.M. Online Companion for Ro-bust Unit Commitment with Dispatchable Wind: An LP Reformulation of the Second-Stage. TechnicalReport, 2015.

Morales-Espana, G., Latorre, J.M., and Ramos A. Tight and Compact MILP Formulation for the ThermalUnit Commitment Problem. IEEE Transactions on Power Systems, 28(4):4897–4908, 2013.

Morales, J.M., Conejo, A.J., and Perez-Ruiz J. Economic Valuation of Reserves in Power Systems WithHigh Penetration of Wind Power. IEEE Transactions on Power Systems, 24(2):900–910, 2009.

Sahin, C., Shahidehpour, M., and Erkmen I. Allocation of Hourly Reserve Versus Demand Responsefor Security-Constrained Scheduling of Stochastic Wind Energy. IEEE Transactions on SuatainableEnergy, 4(1):219–228, 2013. doi:10.1109/TSTE.2012.2213849.

Stehr, G., Graeb, H. E., and Antreich K.J. Analog Performance Space Exploration by Normal-BoundaryIntersection and by Fourier âAS Motzkin Elimination. IEEE Transactions on Computer-Aided Designof Integrated Circuits and Systems, 26(10):1733–1748, 2007.

Wang R., Wang P., Wang R., Wang P., and Xiao G. A Robust Optimization Approach for Energy Gener-

V Simposio de Metodos Numericos Computacionais

233

ation Scheduling in Microgrids A Robust Optimization Approach for Energy Generation Schedulingin Microgrids. (AUGUST), 2015. doi:10.13140/RG.2.1.2270.1924.

Wei, W., Wang, J., and Mei S. Dispatchability Maximization for Co-Optimized Energy and ReserveDispatch With Explicit Reliability Guarantee. IEEE Transactions on Power Systems, PP(99):1–13,2015.

Zhao, C., and Guan Y. Unified Stochastic and Robust Unit Commitment. IEEE Transactions on PowerSystems, 28(3):3353–3361, 2013.

V Simposio de Metodos Numericos Computacionais

234

V Simposio de Metodos Numericos Computacionais

ESTUDO DE TRINCAS UTILIZANDO O MÉTODO DO ELEMENTO DE CONTORNO COM A FUNÇÃO DE GREEN NUMÉRICA

As trincas ocupam um lugar muito importante nas causas de falha dos componentes de máquinas ou na construção civil, praticamente, todo elemento fabricado apresenta alguma imperfeição que pode ser causada pela movimentação de materiais na confecção, por algum tratamento térmico ou ainda como consequência da ocorrência de vibração na área; tendo um estudo mais amplo, dinâmico, pode-se obter a carga máxima suportada e a propagação da trinca. A mecânica da fratura é a área da mecânica que estuda os processos mecânicos que levam à propagação de fendas, fissuras e outros "defeitos", que diminuem a resistência do material, provocando a fratura ou ruptura do mesmo. Ela utiliza métodos analíticos da mecânica dos sólidos para calcular a força motriz em uma trinca e métodos da mecânica dos sólidos experimental e computacional para caracterizar a resistência do material à fratura. A Metodologia abordada utiliza três ferramentas matemáticas: O Método dos Elementos de Contorno (MEC) que vem sendo aplicado com êxito a diversas propostas de resolução de problemas de engenharia, seja no caso estático ou no dinâmico, uma vez que seus resultados apresentam alta precisão, com a vantagem adicional da discretização somente do contorno do problema; a Função de Green como solução fundamental, que evita a discretização do contorno da trinca quando este está descarregado, uma vez que esta solução, para a força de superfície, seja nula nas faces da trinca; e, o Método da dupla Reciprocidade, que transforma integrais de domínio em integrais de contorno.Esse artigo pretende analisar o comportamento elastostático de uma trinca reta de bordo em uma barra homogênea ao receber um carregamento vertical positivo.

Palavras-chave: Função de Green Numérica, Método dos Elementos de Contorno, trinca.

Marlon Ferreira Corsi, Carlos Andres Reyna Vera-Tudela

235

METODOLOGIA 1. MÉTODO DOS ELEMENTOS DE CONTORNO (MEC) O MEC (BREBBIA, TELLES & WROBEL, 1984) se aplica à diferentes problemas em engenharia, tais como: mecânica da fratura, mecânica do contato, barreira acústica, proteção catódica (em casco de navios e torres de distribuição elétrica), e problemas de elasticidade. Contudo, singularidades fracas e fortes surgem nessas formulações matemáticas, as quais devem ser contornadas por técnicas e artifícios numéricos. O método possui uma boa precisão nos resultados,resolve problemas infinitos ou semi-infinitos, e envolve somente a discretização do contorno, diminuindo o custo computacional. A Figura 1 demonstra como é feita a discretização do contorno considerando a linearidade e a influência das forças em cada ponto fonte ( ) e ponto campo (x).

Figura 1: Representação gráfica do Domínio do Problema.

( ) = ( , ) ( ) ( ) − ( , ) ( ) ( ) (1)

Onde u (ξ, x) ep (ξ, x) são, respectivamente, o deslocamento e a força de superfície no ponto campo x na direção j pertencente ao contorno Γ, para uma carga unitária aplicada no ponto fonte (interno) ξ na direção i. 2. FUNÇÃO DE GREEN NUMÉRICA (FGN) A FGN(GUIMARÃES & TELLES, 1994), como mostra na Figura 2, descreve forças que se encontram em equilíbrio em termos de uma superposição da solução fundamental de Kelvin mais uma parte complementar,evitando a singularidade na superfície da trinca, pois a discretização para a força de superfície é nula nas faces da trinca, quando esta está descarregada.

V Simposio de Metodos Numericos Computacionais

236

Figura 2: Função de Green Numérica.

Solução de Kelvin e a Solução Complementar u (ξ, x) = u (ξ, x) + u (ξ, x) u (ξ, x) = u (ξ, x) + u (ξ, x) (2)

Substituindo na equação do MEC, utilizando o método da colocação para pontos conhecidos no contorno, a quadratura Gaussiana e aplicando as técnicas de Integração, temos:

u (ξ, x) = u ( , ) + | | ( , ) ( , )

( , ) = ( , ) + | | ( , ) ( , ) (3)

Onde é o jacobiano, são pontos de colocação, é a representação dos pesos de Gauss. 3. MÉTODO DA DUPLA RECIPROCIDADE (MDR) O MDR (PARTRIDGE, BREBBIA & WROBEL, 1992) permite resolver problemas transientes usando soluções fundamentais da estática, tem como objetivo transformar a integral de domínio do Termo existente em uma integral de contorno. Por exemplo: Equação de Navier:

μ u ′ + (λ + μ) u ′ = b (4) Adotando a solução fundamental para os deslocamentos e para as forças de superfície com os procedimentos clássicos do Método dos Elementos de Contorno gera a seguinte equação com integrais de contorno e uma integral de domínio:

+ ∗ ΓΓ

= ∗ ΓΓ

+ ∗ ΩΩ

(5)

Se representar a ação do domínio por um somatório de funções: ( ) = = + + … + (6)

Ao aplicar o método, essa equação pode ser reescrita como: + ∗ Γ

Γ− ∗ Γ

Γ= û + ∗ û Γ

Γ− ∗ Γ

Γ (7)

Usando os valores nodais com o mesmo grupo de funções de interpolação, obtêm-se os somatórios:

V Simposio de Metodos Numericos Computacionais

237

+ ℎ − = û + ℎ û − (8) Finalmente, aplicando a equação anterior para todos os nós do contorno e pontos internos, e incorporando a matriz C em h, forma-se o seguinte sistema de equações:

− = ( û − ) (9) Para = , onde é uma função auxiliar de interpolação, ( , )(1 + ). 4. APLICAÇÃO E ANÁLISE DOS DADOS Tendo uma chapa retangular com uma trinca de Bordo Reta com carregamento vertical positivo, considerando a proporção dos eixos e dois nós fixos no eixo w (KARAMI&KUHN, 1993; VERA-TUDELA, 2003), como é mostrado na Figura 3. Adotando um material linearmente elástico com as seguintes propriedades: módulo de Young igual a 1000; coeficiente de Poisson igual a 0,3, densidade igual à unidade e trinca de tamanho 7, com a/w = 0.7 e h/w = 4. A discretização tem 197 nós no contorno, 96 elementos quadráticos e 40 pontos internos.

Figura 3: Chapa com carregamento Reverso.

Ao implementar os dados no programa, observa-se após a carga reversa ser aplicada, uma variação no Fator de Intensidade de Tensão, Tabela 1, que também resultou em uma variação da trinca no eixo y, representado na Figura 4, os dados tabelados descrevem uma superfície similar ao obtido na Figura 5 (KARAMI & KUHN, 1992).

V Simposio de Metodos Numericos Computacionais

238

ABERTURA DA TRINCA

NO Cy 11 0,173309091 12 1,488407728 13 11,59123329 14 10,30515245 15 8,209602971 16 6,809388777 17 5,497799936 18 4,451916365 19 3,487847496 20 2,692714304 21 1,971155669 22 1,376407442 23 0,829984825 24 0,375531989

Figura 4: Dados da Trinca.

Tabela 1: Valores de K1/K0.

h/w a/w / √ / √ ( ) 4 0.7 1.44 1.22

Figura 5: Gráfico da abertura da Trinca

5. CONCLUSÃO Esse artigo demonstrou a aplicabilidade do MEC com a FGN e o MDR para a resolução de problemas da mecânica da fratura com trinca de bordo reta, através de uma implementação em FORTRAN 95 onde seus resultados foram comparados com os resultados do paper do Karami.

V Simposio de Metodos Numericos Computacionais

239

Pode-se observar que ao se discretizar a Figura 3 e rodar o programa, os resultados foram próximos como mostra a Tabela 1, e uma pequena similaridade na disposição da superfície da Trinca (Figuras 4 e 5). Estudos posteriores devem permitir comprar estes resultados comparando a carga de domínio com uma carga aplicada equivalente. Além disso, o interesse é ainda estudar o comportamento da trinca inclinada calculando os valores de K1/K0 e K2/K0 com os obtidos na literatura.

REFERÊNCIAS BREBBIA, C. A., TELLES, J. C. F. & WROBEL, L. C., 1984, Boundary Elements Techniques: Theory and Application. Berlin, Springer-Verlag. KARAMI, G and FENNER,R. T., Analysis of mixed mode fracture and crack closure using the boundary integral equation method. Int. J. Fracture 30, 15-31 (1986). GUIMARÃES, S. & TELLES, J. C. F., 1994, “On the hyper-singular boundary element formulation for fracture mechanics applications”, Engineering Analysis with Boundary Elements, v. 13, pp. 353-363. KARAMI,G., A Boundary Element Method for Two-Dimensional Elastic Contact Problems. Springer-Verlag, Berlin (1989). PARTRIDGE, P. W., BREBBIA, C. A. & WROBEL, L. C., 1992, The Dual Reciprocity Boundary Element Method. London, ComputationalMechanicsPublications. VERA-TUDELA, CARLOS ANDRÉS REYNA. Formulações Alternativas do MEC paraProblemas Elastodinâmicos de Mecânica da Fratura com o uso da Função de Green Numérica, Rio de Janeiro, 2003. COPPE/UFRJ, D.Sc.,Engenharia Civil, 2003. Tese – Universidade Federal do Rio deJaneiro, COPPE.

V Simposio de Metodos Numericos Computacionais

240

V Simposio de Metodos Numericos Computacionais

IMPLEMENTATION AND ACCURACY ASPECTS FOR NURBSBASED ISOGEOMETRIC ANALYSIS OF FREE VIBRATION OF

TRUSSES

Abstract: Isogeometric Analysis (IGA) is a numerical method to solve partial differential equations with someimplementation aspects similar to Finite Element Method (FEM). Its main difference is related with basis func-tions. IGA uses NURBS as shape functions to approximate the mathematical problem and also to interpolategeometry. The aim of this paper is to test NURBS shape functions as approach to the free vibration problem oftrusses. The main characteristics of IGA is presented. Some different treatments from FEM are developed to IGAtruss element and finally one test is performed aiming to test its accuracy, comparing with the classical FEM, theComposite Element Method (CEM) and the Generalized Finite Element Method (GFEM).

Keywords: Isogeometric Analysis, Trusses, Free Vibration, Finite Element Method

1 INTRODUCTION

Isogeometric Analysis had its introductory work published by Hughes et al. (2005). In ten years ofdevelopment, a high amount of works was produced by several researchers motivated by the initial ad-vantages, mostly related with mesh questions (Cottrell et al., 2007) and accuracy in dynamical problems(Cottrell et al., 2006), specially for rods and trusses.

Trusses are basically formed by a set of linked rods. As the results for free vibration problem of rodsin IGA was more accurate than classical FEM, based in a numerical test, this works test if the efficacyof the free vibration rod formulation can be extended for trusses.

2 ISOGEOMETRIC ANALYSIS

Isogeometric Analysis is a FEM-like numerical method that reformulates the treatment of object ge-ometry and mesh questions. Aiming to solve FEM mesh bottlenecks, which demands high computationalcosts, IGA works by means of NURBS (Non Uniform Rational B-Splines), which allow to connect CADenvironment with FEA, since those functions are the same.

IGA follows the opposite way of Isoparametric Concept. Since FEM turns to find a set of functionsto describe the mathematical problem, IGA aims to find a set of NURBS capable to describe objectgeometry perfectly (Cottrell et al., 2009).2.1 NURBS Functions

NURBS is a family of B-Splines functions. It follows the recursive scheme of construction of Coxand de-Boor (De-Boor, 1972; Cox, 1972). This formulation constructs a base of n B-Splines with orderp, where its behaviour depends on the called knot vector Ξ. The knot vector consists in a set of non

Mateus Rauen, Roberto Dalledone Machado, Marcos Arndt

241

decreasing coordinates, called knots. Given a polynomial degree p, a number of n shape functions and aknot vector Ξ = ξ1, ξ2, . . . , ξn+p+1, B-Splines basis functions are defined by:

Ni,0(ξ) =

1 if ξi ≤ ξ < ξi+1,0 otherwise, (1)

for p = 0 and

Ni,p(ξ) =ξ − ξiξi+p − ξi

Ni,p−1(ξ) +ξi+p+1 − ξξi+p+1 − ξi+1

Ni+1,p−1(ξ), (2)

for p ≥ 1.For IGA, a basic set of NURBS shape functions is defined by repeating the edge knots p + 1 times.

Some relevant NURBS properties are described in Hughes et al. (2005) and Piegl and Tiller (1997) whichextensively contribute to the performance and optimization of IGA implementations. Figure 1 shows anexample of NURBS shape functions with parameters p = 2, n = 6 and ξ = 0, 0, 0, 0.25, 0.5, 0.75, 1, 1, 1.

Figura 1: NURBS Shape Functions

2.2 IGA RefinementsIn the viewpoint of shape functions, IGA refinement could be seen as a set of modification in the

functions parameters. Basically the input parameters Ξ, n and p are modified and a new set of shapefunctions is created. Different kind of modifications describes the different kinds of refinements.

Isogeometric h refinement consists to change n and Ξ parameters only. With the increasing in thenumber of shape functions n there’s also a need to add knot in Ξ. This results in a increasing in thenumber of shape functions with the same order p. Considering frequency error spectra for the freevibration of rods and beams (Cottrell et al., 2006), it is proven that h refinements does not change thebehaviour of normalized spectrum curves.

Cottrell et al. (2007) define the Isogeometric p refinement as the order increasing with continuitymaintained. The number of shape functions n is also increased, but an important fact is related to knotvector: the multiplicity of the whole set of knots is also increased. Details of p refinement implemen-tation are given by Cottrell et al. (2007) and Cottrell et al. (2009). Some comparisons isogeometric prefinement and other refinements developed by Rauen et al. (2013).

NURBS shape functions allows to control their continuities with parameters p and the multiplicity ofknots. The concept of the k refinement is to increase polynomial degree without increase interior knotsmultiplicity. This gives a high continuity in element domain (Cottrell et al., 2007). Convergence rates ink refinement were proven higher than p refinement (Rauen et al., 2013; Rauen, 2014), due to inscreasecontinuity and shape functions smoothness with a lower number of shape functions.

V Simposio de Metodos Numericos Computacionais

242

3 TRUSS ELEMENT

3.1 Classical Rod FormulationPlane truss formulation is a generalization of bar element. First consider straight uniform bar, with

cross sectional area A, Young Modulus E, specific mass ρ, lenght L and axial displacement u, thedifferential equation for vibration of a straight bar can be written as:

ρA∂2u

∂t2− ∂

∂x

(EA

∂u

∂x

)= 0. (3)

Its classical variational formulation is given by the orthogonalization between the diferential equationand a weight function w:

ρA

∫ L

0

∂2u

∂t2wdx+ EA

∫ L

0

∂u

∂x

∂w

∂xdx− EA

[w∂u

∂x

]L

0

= 0. (4)

The last term of eq. (4) vanishes by applying boundary condition. The known eigenvalue problem arisewhen the classical solution of the differential equation, given by

u(x, t) = eiωtu(x) = ((cos(ωt) + i.sen(ωt)) u(x). (5)

is applied. The system turns into:B(u,w) = λF (u,w) (6)

where B(u,w) and F (u,w) are bilinear forms and λ is the eigenvalue related with the natural vibrationfrequencies. The matricial form for Eq.(6) is:

Kuh = λhMuh (7)

where uh are the approximate eigenvectors, related with the natural vibration modes and λh are theapproximate eigenvalue related with the natural vibration frequencies. K and M are, respectively, thestiffness and mass matrix. The isogeometric numerical expressions for an element of those matrix arewritten as:

Kij = EA

∫ L

0

∂Ni,p

∂x

∂Nj,p

∂xdx (8)

Mij = ρA

∫ L

0

Ni,p Nj,p dx (9)

3.2 Transformation MatrixTruss elements are global defined by a linear transformation from the original bar element. The global

stiffness and mass matrix are given by:

KG = TTKT (10)MG = TTMT (11)

where KG and MG are the global transformed matrix and T is the transformation matrix (Bathe, 1996).In the element domain, NURBS generates field degrees of freedom. Nodal degrees of freedom are

separated, aiming to facilitate boundary condition imposing. The transformation matrix can be expressedby:

T =

cos(γ) sen(γ) 0 0 0 0 . . . 00 0 0 0 1 0 . . . 00 0 0 0 0 1 . . . 0...

......

......

... . . . ...0 0 0 0 0 0 . . . 10 0 cos(γ) sen(γ) 0 0 . . . 0

(12)

V Simposio de Metodos Numericos Computacionais

243

where

cos(γ) =uj − uiLe

(13)

sen(γ) =vj − viLe

(14)

Le =√

(uj − ui)2 + (vj − vi)2 (15)

and ui, uj , vi and vj are the displacements in the global domain. Figure 2 shows the transformationscheme.

Figura 2: Truss Element Transformation

3.3 Seven Bar TrussThe seven bar truss free vibration problem was originally proposed by Zeng (1998a) (Figure 3). This

modelling uses the parameters: cross sectional area A = 0.001m2, specific mass ρ = 8000 kg/m3 andYoung Modulus E = 210GPa.

Figura 3: Seven Bar Truss (Zeng, 1998a)

3.3.1 FEM, GFEM and CEM Natural Vibration Frequencies

Table 1 shows the free vibration for the seven bar truss for approach using FEM, GFEM and CEMwith 5 enrichment functions (Arndt et al., 2010; Arndt, 2009). The results obtained from Zeng (1998a)for CEM with 1 and 2 enrichment functions are also shown in Table 1.

V Simposio de Metodos Numericos Computacionais

244

Tabela 1: Seven Bar Truss Natural Vibration Frequencies developed in FEM, GFEM and CEM (Arndtet al., 2010)

i FEM (7e) CEM (7e 1c) CEM (7e 2c) CEM (7e 5c) GFEM (7e) Adap. GFEM6 dgof 13 dgof 20 dgof 41 dgof 34 dgof 1× 6dgof + 2× 34dgof

ωi (rad/s) ωi (rad/s) ωi (rad/s) ωi (rad/s) ωi (rad/s) ωi (rad/s)1 1683.521413 1648.516148 1648.258910 1647.811939 1647.785439 1647.7844282 1776.278483 1741.661466 1741.319206 1740.868779 1740.840343 1740.8397973 3341.375203 3119.123132 3113.835167 3111.525066 3111.326191 3111.3227154 5174.353866 4600.595156 4567.688849 4562.562379 4561.819768 4561.8173075 5678.184561 4870.575795 4829.702095 4824.125665 4823.253509 4823.2486786 8315.400602 7380.832845 7379.960217 7379.515018 7379.482416 7379.4823227 8047.936309 7532.305498 7506.784243 7499.1440498 8272.611818 8047.936313 8047.936297 8047.9363129 11167.56472 9997.484917 9931.261415 9922.385851

In vibration problems, which leads to an eigenvalue problem, truncation errors occurs in upper bound(see proofs in Carey and Oden (1984) and Arndt (2009)). By this statement, the results in Table 1 showsthat adaptive GFEM presents the best approach for the free vibration truss problem, followed by GFEMand CEM with 5 enrichment functions.

3.3.2 IGA Natural Vibration Frequencies

Table 2 shows the results for IGA with polynomial degrees p = 2, 3 and 4. Routines uses non repeatedinterior knots, generating high continuity in interior, typical procedure from k refinement.

Tabela 2: Seven Bar Truss Natural Vibration Frequencies developed in IGA

IGA p = 2 IGA p = 3 IGA p = 4i 13 dgof 20 dgof 34 dgof

ωi (rad/s) ωi (rad/s) ωi (rad/s)1 1648.06320092 1647.78555214 1647.784440272 1741.21025463 1740.84082235 1740.839809453 3117.08579405 3111.40375945 3111.322747884 4597.86055319 4562.60137052 4561.817653045 4869.00145652 4825.08885595 4823.249436136 7430.30350284 7429.37528256 7379.541335697 8100.92593226 7502.19348783 7499.170331418 8273.78472987 8100.92593226 8047.995578869 11364.16244158 10086.2045829 9923.15407939

4 CONCLUSIONS

This work tested the efficacy of Isogeometric Analysis for the free vibration of trusses. The resultsshows high convergence for IGA and the most refined frequency set can reach adptive GFEM accuracyproposed by Arndt et al. (2010).

The same spectrum behaviour presented by Cottrell et al. (2006) cannot be generalized to trusses.The results shows that accuracy is lost when rods are linked. The same investigation to other trussesgeometry is suggested to extend this verification.

ACKNOWLEDGEMENTS

The authors acknowledge CNPQ (Conselho Nacional de Desenvolvimento Científico e Tecnológico)by the support in this research.

V Simposio de Metodos Numericos Computacionais

245

REFERENCES

Arndt M. O Método dos Elementos Finitos Generalizados Aplicado À Análise de Vibrações Livresde Estruturas Reticuladas. Ph.D. thesis, Programa de Pós-Graduação em Métodos Numéricos emEngenharia, Curitiba, 2009. Doutorado em Método Numéricos em Engenharia.

Arndt M., Machado R.D., and Scremin A. An adaptive generalized finite element method applied to freevibration analysis of straight bars and trusses. Journal of Sound and Vibration, 329:659–672, 2010.

Bathe K.J. Finite Element Procedures. Prentice Hall, New Jersey, 1996.Carey G.F. and Oden J.T. Finite Element, volume 2: A Second Course. Prentice Hall, New Jersey, 1984.Cottrell J.A., Bazilevs Y., and Hughes T.J.R. Isogeometric Analysis: Toward Integration of CAD and

FEA. John Wiley & Sons, USA, 1st edition edition, 2009.Cottrell J.A., Hughes A.T.J.R., and Reali A. Studies of refinement and continuity in isogeometric struc-

tural analysis. Computer Methods in Applied Mechanics and Engineering, 196:4160–4183, 2007.Cottrell J.A., Reali A., Bazilevs Y., and Hughes T.J.R. Isogeometric analysis of structural vibrations.

Computer Methods in Applied Mechanics and Engineering, 195:5257–5196, 2006.Cox M.G. The numerical evaluation of b-splines. IMA Journal of Applied Mathematics, 10(2):134–149,

1972.De-Boor C. On calculation of b-splines. Journal of Approximation Theory, 6:50–62, 1972.Hughes T.J.R., Cottrell J.A., and Bazilevs Y. Isogeometric analysis: Cad, finite elements, nurbs, exact ge-

ometry and mesh refinement. Computer Methods in Applied Mechanics and Engineering, 194:4135–4195, 2005.

Piegl L. and Tiller W. The NURBS Book (2Nd Ed.). Springer-Verlag New York, Inc., New York, NY,USA, 1997. ISBN 3-540-61545-8.

Rauen M. Análise Isogeométrica Aplicada ao Problema de Vibração Livre na Mecânica das Estruturas.Master’s Thesis, Universidade Federal do Paraná, 2014.

Rauen M., Machado R.D., and Arndt M. Comparison between the isogeometric analysis and the enrichedmethods to the problem of free vibration of bars. In Proceedings of the XXXIV Ibero-Latin AmericanCongress on Computational Methods in Engineering. XXXIV Ibero-Latin American Congress onComputational Methods in Engineering, Pirenópolis, Brazil, 2013.

Zeng P. Composite element method for vibration analysis of structures, part i: principle and c0 element(bar). Journal of Sound and Vibration, 218(4):619–658, 1998a.

V Simposio de Metodos Numericos Computacionais

246

V Simposio de Metodos Numericos Computacionais

APLICAÇÃO DA ANÁLISE MULTIVARIADA NA DETERMINAÇÃO

DOS INDICADORES DOS MUNICÍPIOS PARANAENSES

Resumo: O método estatístico de análise fatorial foi essencial para o desenvolvimento deste

trabalho. A partir de uma matriz de dados disponibilizada pelo Instituto Paranaense de

Desenvolvimento Econômico e Social (IPARDES) no último Anuário Estatístico do Estado do

Paraná de 2013, cujas 399 linhas representam os municípios paranaenses enquanto as 62

colunas trazem informações sobre economia e educação, urbanização e social, envelhecimento

populacional, infraestrutura e características demográficas, foram determinados fatores

sintéticos por meio da aplicação da análise fatorial em conjunto com a análise de componentes

principais, sendo possível traçar o perfil de cada município, permitindo estabelecer quais as

cidades que possuem alto ou baixo potencial de desenvolvimento em relação a cada fator

extraído. Os resultados encontrados com a aplicação dos métodos estatísticos foram preparados

através do software MATLAB, obtendo informações que podem facilitar a aplicação de

mecanismos e tomada de decisão para o planejamento governamental, gerando promoção e

alocação de investimentos nas cidades, afim de minimizar as distorções entre elas.

Palavras-Chave: Análise fatorial, análise de componentes principais, potencial de

desenvolvimento, municípios paranaenses.

1 INTRODUÇÃO

O Instituto Paranaense de Desenvolvimento Econômico e Social (IPARDES) traz em seu

último anuário, Anuário Estatístico do Estado do Paraná de 2013, informações das pesquisas

realizadas pelo Instituto Brasileiro de Geografia e Estatística (IBGE) e de outras fontes, tais

como COPEL, SANEPAR, SEED-PR, exibindo dados estatísticos sobre a realidade estadual,

os quais permitem conhecer e analisar o comportamento socioeconômico e ambiental de seus

399 municípios.

O presente trabalho é motivado pela proposta de aplicar técnicas de análise multivariada, tais

como método das componentes principais e análise fatorial (AF) afim de criar indicadores

sintéticos para os municípios paranaenses, realizar um estudo das determinações das dimensões

econômicas, saúde, educacional e social, além de determinar indicadores por dimensão,

indicadores globais e por fim, classificar os municípios de acordo com os indicadores obtidos,

permitindo estabelecer quem são aqueles com maior ou menor potencialidade de

desenvolvimento tanto industrial como comercial, educacional, de serviços e social. Este

estudo auxilia na construção do perfil de cada município, podendo facilitar a aplicação de

mecanismos e tomada de decisão para o planejamento governamental, gerando promoção e

Michely Castro dos Santos

247

alocação de investimentos nas cidades, afim de amenizar as distorções entre elas.

2 METODOLOGIA

2.1 Análise Fatorial

A análise estatística univariada, por melhor explorada que seja, pode não ser o suficiente diante

da necessidade do pesquisador que busca informações sobre os fenômenos que interagem no

processo em estudo. Logo, há a necessidade da aplicação das técnicas da estatística

multivariada, visto que a mesma estuda a relação (ou parte sistemática) que há entre todas as

variáveis simultaneamente e obtém informações sobre o todo de maneira sumarizada

(MINGOTI, 2005), isto é, a estatística multivariada permite o estudo de fenômenos complexos,

pois realiza o tratamento de diversas variáveis simultaneamente, mesmo quando não se conhece

o modelo teórico que as relaciona (JOHNSON& WICHERN, 2002).

A Análise Fatorial (AF) é uma das técnicas de estatística multivariada e será essencial no

desenvolvimento deste trabalho. Seu propósito essencial é descrever, se possível, as relações

de covariância entre muitas variáveis observáveis em termos de poucas variáveis aleatórias

não-observáveis, chamadas de fatores. Basicamente, cada fator define um grupo onde as

variáveis originais tenham correlação muito alta, mas que relativamente tenham baixa

correlação com variáveis de grupos diferentes definidos por outros fatores. Com este estudo é

possível saber quanto cada fator está associado a cada variável observável e ainda se permite a

explicação da variabilidade do conjunto de dados iniciais.

Conforme Marques (2015), seja 𝑋 ~ ∙ (𝜇 , ∑ ), com 𝑝 componentes, o modelo fatorial de 𝑋 é

linearmente dependente sobre as variáveis aleatórias(v.a) não observáveis 𝐹1, 𝐹2,..., 𝐹𝑚, com

𝑚 ≤ 𝑝, chamadas de fatores comuns e 𝑝 fontes de variação aditiva 𝜀1, 𝜀2,... , 𝜀𝑝, chamadas de

erros, o modelo de análise fatorial é dado por:

𝑋1 − 𝜇1 = 𝑙11𝐹1 + 𝑙12𝐹2 + ⋯ + 𝑙1𝑚𝐹𝑚 + 𝜀1

𝑋2 − 𝜇2 = 𝑙21𝐹1 + 𝑙22𝐹2 + ⋯ + 𝑙2𝑚𝐹𝑚 + 𝜀2

𝑋𝑝 − 𝜇𝑝 = 𝑙𝑝1𝐹1 + 𝑙𝑝2𝐹2 + ⋯ + 𝑙𝑝𝑚𝐹𝑚 + 𝜀𝑝

Onde 𝜇𝑖 representa a média da v.a 𝑋𝑖, ∀𝑖 ∈ [1, 𝑝] e 𝑙𝑖𝑗 o peso ou carregamento da v.a 𝑋𝑖 em

relação ao fator 𝐹𝑗, ∀(𝑖, 𝑗) ∈ [1, 𝑝] × [1, 𝑚]. Cada 𝑙𝑖𝑗 indica o grau de correspondência entre a

variável e o fator. Ou na forma matricial:

𝑋 − 𝜇 = 𝐿 𝐹 + 𝜀 (1) (𝑚 × 1) (𝑚 × 1) (𝑝 × 𝑚)(𝑚 × 1) (𝑝 × 1)

Repare que o número de fatores 𝑚 deve ser menor ou igual ao número de variáveis observáveis

𝑝, pois a análise fatorial se torna vantajosa apenas quando o número de fatores é muito menor

que o número de variáveis originais.

Entendido esta estrutura, aplicam-se dois testes. O de adequabilidade da amostra de Kaiser-

Meyer-Olkin (KMO), o qual fornece uma medida e caso seja um valor entre 0,5 a 1,0 indica

que a técnica de AF é apropriada. Já o teste de esfericidade de Bartlett verifica se as variáveis

são independentes, e caso sejam, a matriz de correlação R é a matriz identidade, portanto o

método de AF é inapropriado nesta situação.

Sendo provada a adequabilidade da AF, primeiramente se calcula a matriz de correlação R das

v.a. Assim, poderá ser observado quão relacionadas estão, afim de identificarmos grupos de

v.a com forte correlação entre si e baixa associação com as v.a dos demais grupos.

Em seguida, se calcula os autovalores da matriz R e pelo Critério de Kaiser são considerados

apenas aqueles maiores que um. Considerando do maior autovalor ao menor, cada um reflete

a importância de um fator, sendo que a variabilidade de cada fator é dada pela razão do

V Simposio de Metodos Numericos Computacionais

248

autovalor correspondente, pela soma de todos os autovalores. Porém, não se faz necessário

trabalhar com todos os autovalores, basta escolher aqueles que representam a maior

variabilidade total dos dados. De acordo com Mingoti (2005), o número de fatores a serem

considerados deve refletir pelo menos 70% da variabilidade original dos dados, contudo, esta

não é a única forma de tomada de decisão.

Através do método das componentes principais extraímos os fatores e seus respectivos pesos

fatoriais 𝑙𝑖𝑗, que no caso da análise fatorial ortogonal, é dada pela covariância entre cada v.a

𝑋𝑖 e fator 𝐹𝑗. Sendo assim, quanto maior o peso fatorial, maior a correlação da variável com

aquele fator.

A comunalidade é outro importante valor a ser calculado, sendo está uma porção da variância

da v.a 𝑋𝑖, dada pelas somas dos quadrados dos pesos correspondentes de cada fator 𝐹𝑗. Isto é:

ℎ𝑖2 = 𝑙𝑖1

2 + 𝑙𝑖22 + ⋯ + 𝑙𝑖𝑚

2 (2)

Sendo assim, quanto mais alto for este valor, melhor a chance de se estar trabalhando com um

modelo fatorial adequado.

O procedimento a ser tomado após a extração dos fatores é a interpretação dos dados, sendo

assim, deve estar claro qual a contribuição de cada v.a a um fator, porém quando existe mais

de um fator e os pesos referentes a cada um não são claros, pode ser adotado o método de

rotação Varimax, que tem por finalidade rotacionar os eixos coordenados, procurando dar aos

fatores maior clareza para interpretação, pois para cada v.a haverá um grande peso fatorial de

contribuição para apenas um fator e pequenas contribuições aos demais fatores.

Por fim, através da matriz de resíduos poderá se analisar o ajuste do modelo, pois ela traz

informações das diferenças entre as covariâncias originais e as covariâncias ajustadas, portanto

quanto menor o resíduo melhor o ajuste. Se a matriz residual é composta por zero em sua

diagonal principal e se os demais elementos forem também tão pequenos trata-se de um modelo

bem ajustado pelo método das componentes principais, caso contrário os erros podem causar

grandes falhas na interpretação.

3 RESULTADO

Para este estudo foi montada uma matriz de dados, onde as colunas representam 62 variáveis

observáveis, também chamadas de variáveis originais, escolhidas entre todos os dados

coletados pelo Anuário Estatístico do Estado do Paraná de 2013, de modo que 14 delas trazem

informações sobre características sociais da população, 14 sobre economia, 12 sobre educação,

9 em saúde, 8 em infraestrutura e 5 sobre características demográficas, referentes a todos os

399 municípios do estado.

Primeiramente, com o auxílio do software MATLAB, aplica-se o teste de KMO, obtendo o

valor 0,9010, o qual indica que a AF é apropriada por se tratar de um valor tão próximo de um.

Na realização de um segundo teste, Esfericidade de Bartlett, notou-se que é improvável a matriz

de correlação ser equivalente à matriz identidade e isto é representado pelo valor 117140, índice

alto estatisticamente significante, mostrando que correlações suficientes existem entre as

variáveis para se continuar a análise.

Na sequência, encontra-se a matriz de correlação R das variáveis observáveis e por meio do

método de componentes principais os fatores necessários para representá-las. A escolha da

quantidade de fatores foi determinada através do Critério de Kaiser (quantidade de autovalores

maiores que um). Como R possui 8 autovalores com esta característica, foram encontrados 8

fatores para explicar o sistema de dados. E com a aplicação da análise fatorial à matriz de

tratamento é possível considerar apenas os três primeiros fatores que juntos explicam pouco

mais de 82% da variância total, conforme representado na Tabela 1.

V Simposio de Metodos Numericos Computacionais

249

Tabela 1: Fatores, autovalores e percentual de variância acumulada.

Fatores F1 F2 F3 F4 F5 F6 F7 F8

Autovalor 42,47 5,57 2,85 2,45 1,95 1,50 1,15 1,10

Variância

Acumulada

(%)

68,51

77,49

82,09

86,03

89,18

91,60

93,45

95,23

Na Tabela 2 o critério Varimax também é apresentado com a finalidade de facilitar a

interpretação dos resultados. Tabela 2: Rotação Varimax - Fatores, autovalores e percentual de variância acumulada.

Fatores F1 F2 F3 F4 F5 F6 F7 F8

Autovalor 42,47 5,57 2,85 2,45 1,95 1,50 1,15 1,10

Variância

Acumulada

(%)

67,01

72,88

76,49

80,48

84,24

87,73

93,33

95,23

Pelas Tabelas 1 e 2 observa-se que os fatores 1, 2 e 3, sem rotação, são responsáveis por 82,09%

da explicação do sistema de dados originais ou 76,49% com rotação Varimax. Em ambos

métodos, verificou-se que as comunalidades estão acima de 0,70, portanto a variabilidade das

variáveis originais é explicada pelos fatores. Este resultado induz a pertinência do uso da AF

para a matriz de tratamento. E a matriz residual, com os elementos da diagonal principal sendo

nulos e os demais valores muito próximos de zero, confirma um bom ajuste do modelo.

Em relação ao critério de rotação Varimax, o fator 1 representa 67,01% da variabilidade total

explicada pelos dados e é composto por 43 variáveis originais, representando o indicador

econômico e educacional, por apresentarem maior número de variáveis com tais características.

O fator 2 explica 5,87% do sistema com 5 variáveis originais, caracterizado como indicador de

urbanização e social. Por fim, o fator 3, responsável por 3,61% da variabilidade total, composto

por duas variáveis originais, denominado indicador de envelhecimento populacional.

Através dos escores fatoriais foi possível ranquear os municípios paranaenses em relação aos

indicadores sintéticos: fator 1, fator 2 e fator 3. Por exemplo, em relação ao fator 1, cidades

como Curitiba, Londrina, Maringá, Foz do Iguaçu, Cascavel, Ponta Grossa, São José dos

Pinhais, Toledo, Guarapuava, Araucária e Colombo apresentaram os maiores valores para o

indicador econômico e educacional, enquanto as demais cidades se mantiveram equilibradas.

Para o fator 2, a capital paranaense manteve um bom escore, mas municípios do interior

apresentaram os escores mais elevados, tais como Mandirituba, Laranjal, Morretes,

representando bons indicadores de urbanização e social, enquanto Londrina, Maringá e Foz do

Iguaçu são exemplos que apresentaram escores negativos. O fator 3, caracterizado pelo

indicador de envelhecimento populacional, Curitiba novamente aponta alto valor de escore,

junto com algumas cidades do interior do estado, como Doutor Camargo, Esperança Nova,

Japurá e Lupionópolis, porém Colombo, Campo Magro, Araucária e Cambé apresentaram

escores negativos.

Ao calcular os escores finais ponderados é possível notar que Curitiba, Londrina, Maringá,

Ponta Grossa, Cascavel e São José dos Pinhais são os municípios com maior potencial de

desenvolvimento, enquanto Saudade do Iguaçu, Quatro Barras, Cafelândia, Douradina, Balsa

V Simposio de Metodos Numericos Computacionais

250

Nova atingiram os piores índices de desenvolvimento. Destaque para a capital paranaense, que

em todas as análises apresentou alto escore para os três fatores.

A Tabela 3 exibe dez municípios ranqueados, cada um com seu respectivo escore fatorial final

ponderado, referente ao desempenho geral nos três fatores estudados: educação e economia,

urbanização e social, envelhecimento populacional. De modo que os cinco primeiros

apresentaram o melhor desempenho, enquanto os cinco últimos, os piores em relação a todos

os municípios do estado. Tabela 3: Municípios ranqueados e escore fatorial final

MUNICÍPIO ESCORE

FATORIAL

Curitiba 12,7783

Londrina 2,8969

Maringá 2,1209

Ponta Grossa 1,3812

Cascavel 1,2245

Balsa Nova -0,4294

Douradina -0,4303

Cafelândia -0,4383

Quatro Barras -0,4705

Saudade do Iguaçu -0,4732

Para maior clareza e interpretação dos resultados da tabela acima, serão definidos indicadores

sintéticos finais. Sendo assim, tomando como base Curitiba e Saudade do Iguaçu, está por

apresentar o menor escore ponderado (-0,4732) e a capital paranaense pelo melhor desempenho

(12,7783), considera-se então o menor valor (-0,4732) igual a 0 (zero) e o maior escore

(12,7783) igual a 1 (um) e através da regra de três são determinados os demais indicadores

sintéticos, isto é:

Primeiramente, calcula-se 𝐸𝑇, a diferente entre os escores finais de Curitiba e Saudade do

Iguaçu.

𝐸𝑇 = Escore de Curitiba − Escore de Saudade do Iguaçu = 12,7783 − (−0,4732)

∴ 𝐸𝑇 = 13,2515. Em seguida, a diferença entre os escores finais de cada um dos demais municípios com

Saudade do Iguaçu. Por exemplo, para Londrina:

𝐸1 = Escore de Londrina − Escore de Saudade do Iguaçu = 2,8969 − (−0,4732)

∴ 𝐸1 = 3,3701.

Por meio de regra de três:

1

1TE

E x

13,2515 1

3,3701 x

3,3701

13,2515x 0,2543.x

Portanto, o valor 0,2543 é o indicador sintético referente ao município de Londrina.

Procedendo do mesmo modo para Maringá, Ponta Grossa, Cascavel, Balsa Nova, Douradina,

Cafelândia e Quatro Barras, obtém-se a Tabela 4.

V Simposio de Metodos Numericos Computacionais

251

Tabela 4: Municípios ranqueados e indicador sintético

MUNICÍPIO INDICADOR

SINTÉTICO

Curitiba 1

Londrina 0,2543

Maringá 0,1957

Ponta Grossa 0,1399

Cascavel 0,1281

Balsa Nova 0,003305

Douradina 0,003237

Cafelândia 0,002633

Quatro Barras 0,0002037

Saudade do Iguaçu 0,000000000

Esses valores permitem uma comparação entre eles. Quanto mais próximo de 1 estiver o

indicador sintético, maior o potencial de desenvolvimento do município. Note também a

diferença entre Londrina e Curitiba, mesmo aquele sendo considerado com segundo melhor

potencial nas áreas dos fatores estudados, há uma diferença bastante significativa ao se

considerar o indicador sintético final. Para os últimos cinco municípios, observa-se a

necessidade de criação de uma política social e econômica para elaboração de programas ou

investimentos que venham melhorar esse quadro.

4 CONCLUSÕES

Por meio da análise fatorial foram determinados três fatores sintéticos, os quais ajudam a traçar

os perfis dos municípios do estado do Paraná. E a partir da análise dos indicadores de

desenvolvimento econômico e educacional, urbanização e social e de envelhecimento

populacional, estabeleceu-se quais as cidades que possuem alto ou baixo potencial de

desenvolvimento nas áreas citadas. Este estudo pode facilitar aplicação de mecanismos e

tomada de decisão para o planejamento governamental, gerando promoção e alocação de

investimentos afim de melhorar o desenvolvimento dos 399 municípios paranaenses e amenizar

as distorções entre eles.

Foi possível notar a relevância das grandes cidades no escore final, caracterizadas pelo alto

potencial de desenvolvimento econômico e educacional. E a relevância dos pequenos

municípios na área social e de envelhecimento populacional. Destaque para a capital do estado,

pois alcançou o mais alto escore em relação aos fatores estudados.

REFERÊNCIAS

Instituto Paranaense de Desenvolvimento Econômico e Social - IPARDES. Anuário Estatístico

do Estado do Paraná 2013. Acesso em: 29 de março de 2015. Disponível em:

<http://www.ipardes.pr.gov.br/anuario_2013/index.html>.

HAIR JR. J.F, Análise Multivariada de dados, Porto Alegre: Bookman, 2009.

JOHNSON, R.A, WICHERN, D.W, Applied Multivariate Statistical Analysis, 5ª ed, Ney

Jersey: Prentice-Hall, 2002.

MARQUES, J.M, Notas de aula de análise multivariada aplicada à pesquisa, Curitiba: UFPR,

2015.

V Simposio de Metodos Numericos Computacionais

252

MINGOTI, S.A, Análise de dados através de métodos de estatística multivariada: uma

abordagem aplicada. Belo Horizonte: Editora UFMG, 2005.

MORRISON, D. F, Multivariate Statistical Methods, Tokyo: McGraw-Hill, 1976.

REZENDE, M.L, FERNANDES, L.P.S, SILVA, A.M.R, Utilização da Análise Fatorial para

determinar o potencial de crescimento econômico em uma região do sudeste do Brasil, Revista

Economia e Desenvolvimento, n 19, 2007.

SILVA, N.C.N, FERREIRA, W.L, CIRILLO, M.A, SCALON, J.D, O uso da análise fatorial

na descrição e identificação dos perfis característicos de municípios de Minas Gerais, Rev.

Bras. Biom, São Paulo, v.32, n2, p.201-2015, 2014.

V Simposio de Metodos Numericos Computacionais

253

V Simposio de Metodos Numericos Computacionais

DADOS MULTIDIMENSIONAIS: REDUÇÃO DE DIMENSÕES,QUALIDADE E VISUALIZAÇÃO

Resumo: No trabalho é realizado um estudo bibliográfico a respeito de método de redução dimensional e demedidas de qualidade para estes métodos com o objetivo de identificar um ou mais métodos viáveis para comporuma solução interativa de análise de dados através da geração de imagens tridimensionais.

Palavras-Chave: Redução Dimensional, Escala Multidimensional (MDS), Visualização Científica

1 INTRODUÇÃO

Uma grande parcela dos processos ou fenômenos reais que são estudados apresentam dados multi-dimensionais, ou seja, possuem um grande conjunto de características distintas. Para que os analistasconsigam compreender e tirar conclusões a partir destes dados, é necessário que sejam criadas represen-tações ou projeções dos mesmos em duas ou três dimensões. O ideal seria que estas projeções contassemcom o mínimo de dimensões, ou características, necessárias para representar o conjunto original, o quenem sempre é possível, pois os dispositivos utilizados normalmente representam apenas duas ou três di-mensões, além do que a compreensão de um conjunto maior de dimensões é bastante difícil (VAN DERMAATEN et al., 2009).

O presente trabalho visa estudar as características dos principais algoritmos de Redução Dimensional(RD), juntamente com os métodos de avaliação dos seus resultados, para de identificar um ou maismétodos viáveis para a projeção de um conjunto n-dimensional em um plano cartesiano de maneira queo mesmo possa compor uma solução interativa para análise de dados.

Este artigo está organizado da seguinte forma: na próxima seção são apresentados os conceitos edescrições a respeito dos métodos de RD, depois na seção 3 alguns dos estudos a respeito dos problemase da qualidade das projeções resultantes da RD são discutidos, na sequencia a seção 4 aborda métodosde geração de imagens para representar conjuntos de dados e por último são apresentadas consideraçõesa respeito dos métodos e algoritmos discutidos no trabalho.

2 REDUÇÃO DIMENSIONAL

Conjuntos multidimensionais são o resultado de processos em diferentes áreas, como os arquivos con-tendo sinais de áudio ou imagem digitais, os resultados de um escaneamento por ressonância magnética,sequencias de DNA, dentre muitas outras. A classificação, compreensão e visualização de conjuntosmultidimensionais são alguns dos processos facilitados pela aplicação dos métodos de RD (VAN DERMAATEN et al., 2009).

Miguel Diogenes Matrakas, Sergio Scheer

254

O procedimento de RD consiste em mapear os elementos de um conjunto com n dimensões para umarepresentação que mantenha, da melhor forma possível, as relações entre elementos e seus agrupamentosem um conjunto com m dimensões, com m << n (VAN DER MAATEN et al., 2009; ADHIANTO etal., 2013). Portanto, para um conjunto de h elementos Xn = xi ∈ Rn1≤i≤h, um algoritmo de RD podeser interpretado como uma função

f : Rn × T → Rm (1)

que mapeia cada um dos xi elementos em um novo elemento yi no espaço Rm (MARTINS et al., 2014)..

Um conjunto multidimensional após a realização da redução de dimensões deve manter as relaçõesde vizinhança entre os vetores, ou seja, um conjunto de pontos próximos no espaço n-dimensional devetambém formar um conjunto de vizinhos na projeção dos dados. Cada um dos métodos de RD apresen-tam uma peculiaridade com relação à disposição da vizinhança dos pontos projetados (MARTINS et al.,2014). .2.1 Métodos de Redução de dimensões

Existem dezenas de métodos utilizadas para realizar a RD apresentadas na literatura, classificadas deacordo com o método utilizado para calcular a função f , apresentada na equação 1. Alguns dos métodosmais utilizados são a Classical Scaling (MDS - Multidimensional Scaling), Análise de ComponentesPrincipais (PCA - Principal Components Analysis), Isomap, Maximum Variance Unfolding (MVU), Lo-cally Linear Embeding (LLE), Stochastic Neighbor Embedding (SNE), Stochastic Proximity Embedding(SPE) e Redes Neurais Artificiais. Esta lista não tem a pretensão de ser completa ou qualificar os méto-dos, mas sim apresentar um conjunto dos mais citados, de maneira a expor a diversidade de abordagensao problema de RD. Alguns destes métodos são brevemente descritos a seguir:

Classical Scaling (MDS) segundo BORG AND GROENEN (2005) , consiste em, a partir de umamatriz X de elementos no espaço n-dimensional, calcular uma matriz ∆2 com os quadrados dasdissimilaridades destes elementos, para em seguida aplicar a operação denominada centralizaçãodupla (double centering) que consiste em calcular a matriz B∆, dada por B∆ = −1/2 J ∆2 J sendoJ a matriz de centralização dada por: J = I − n−1 U , onde I é a matriz identidade, U é umamatriz cujos elementos são iguais a 1 e n é o número de dimensões do conjunto de elementos.

A matriz ∆2 deve ser decomposta em seus autovalores e autovetores, de modo que: B∆ = QΛQ′

de tal modo que QΛQ′ = (QΛ1/2)(QΛ1/2)′ = Y Y ′.

Após a decomposição, considera-se a matriz formada pelos primeiros m autovalores maiores quezero para compor a uma matriz Λ+ eQ+ a matriz formada pelas primeirasm colunas deQ, fazendocom que a matriz de coordenadas resultante seja: Y = Q+Λ

1/2+

Este método minimiza a função de perda dada por L(Y ) = ‖Y Y ′ −B∆‖2

SMACOF conforme descrito no trabalho de (BORG AND GROENEN (2005) resolve o Multidimen-sional Scaling por um processo iterativo, ou seja, é um algoritmo para minimizar o valor da funçãoStress, cujo acrônimo significa “Scaling by Mojorizing a Complicated Function”. Portanto, a par-tir de uma matriz X de elementos no espaço n-dimensional e da matriz ∆ que é formada pelasdissimilaridades destes elementos, a função Stress representa as diferenças entre as medidas dasdissimilaridades representadas na matriz ∆ e os valores de distância entre as projeções dos ele-mentos de X no espaço m-dimensional.

A função Stress é escrita como:

σr(Y ) =∑

i<j

wi j(δi j − di j(Y ))2 (2)

onde w é uma matriz de pesos, δi j são os elementos da matriz de dissimilaridades e di j são os ele-mentos da matriz de distância entre os componentes Y , que é a matriz de projeções dos elementosde X .

V Simposio de Metodos Numericos Computacionais

255

O algoritmo consiste em, a partir de uma projeção inicial Y , não aleatória, calcular as diferençasentre as distâncias utilizando a função Stress, e enquanto o seu valor for maior que um limitede precisão, ou um máximo de iterações não for atingido, atualizar a matriz Y utilizando Y u =n−1B(Y )Y no caso da matriz de pesos ter todos os elementos iguais a 1, ou Y u = V +B(Y )Ycaso contrário, sendo a matriz V + a inversa das somas ponderadas das distâncias entre elementosde Y , e B(Y ) a matriz formada pela razão ponderada entre as dissimilaridades dos elementos deX e Y .

Principal Components Analysis (PCA) é descrito por VAN DER MAATEN et al. (2009) como sendomatematicamente equivalente ao método Classical Scaling, pois em ambos os métodos o obje-tivo é minimizar a função de perda, ou seja, busca-se uma representação para os dados na qualas diferenças de valores para uma determinada medida de distância, aplicada entre os pares deelementos, seja a menor possível. Para o Classical Scaling utiliza-se a Distância Euclidiana e noPCA é utilizada a matriz de covariâncias dos elementos.

Da mesma forma que no MDS, o PCA resolve uma decomposição em autovalores da seguinteforma cov(X)M = λM na qual M representa a matriz que mapeia os elementos do espaço n-dimensional para o espaço m-dimensional, e λ é a matriz formada pelos autovalores de cov(X).

Isomap é um método propostos por TANENBAUM et al. (2000) de maneira a trabalhar com as dis-tância geodésicas e não com as distâncias Euclidiana entre os elementos do conjunto de pontos noespaço n-dimensional. O objetivo é capturar a geometria dos pontos no conjunto n-dimensional emante-la na projeção.

A redução dimensional é realizada utilizando-se o Classical Scaling, porém para trabalhar comas distâncias geodésicas, para cada elemento são calculados os seus k vizinhos mais próximos,formando assim um grafo conectado, e a partir deste, o menor caminho entre cada par de elementoscorresponde à sua distância, que pode ser calculada por algoritmos como o caminho mais curto deDjikstra ou Floyd (VAN DER MAATEN et al., 2009) .

Stochastic Proximity Embedding (SPE) está descrito no trabalho de NAJIM AND LIM (2014) comoum método não linear e iterativo, que consiste em atualizar as projeções de cada elemento con-siderando as suas distâncias aos demais componentes do conjunto que sejam menores que um raiorC .

A partir de uma projeção aleatória inicial, um ponto i é sorteado e utilizado para ajustar as coor-denadas de todos os demais elementos da projeção utilizando a seguinte regra:

yj = yj + λ(tk)S(δi j)δi j − di jdi j + ε

(yj − yi) (3)

S(δi j) =

1 se( (δi j ≤ rC) ∧ ( (δi j > rC) ∨ (di j < δi j) ) )

0 caso contrário(4)

onde xi e xj representam as coordenadas dos elementos i e j, λ(tk) é a taxa de aprendizado, ε éuma constante para evitar divisão por 0, δi j representa a distância entre os elementos no espaçon-dimensional e di j a distâncias de suas projeções no espaço m-dimensional.

3 QUALIDADE DOS MÉTODOS DE REDUÇÃO DIMENSIONAL

Levando em consideração que cada um dos métodos de RD está melhor adaptada a um determinadopadrão nos dados de origem, vários estudos foram realizados com o intuito de verificar o desempenhoe acurácia de cada algoritmo, além de métricas de avaliação, ou sistemas de verificação e comparaçãodos resultados (MARTINS et al., 2014; MOKBEL et al., 2013; VAN DER MAATEN et al., 2009;ISENBERG et al., 2013) .

O resultado de um método para realizar RD depende de como são consideradas as medidas de si-milaridade entre os elementos do conjunto. Os métodos lineares, como MDS e PCA utilizam relações

V Simposio de Metodos Numericos Computacionais

256

globais, já métodos como SPE e Isomap levam em consideração as distâncias locais, ou seja, consideramas características de relacionamento entre os elementos mais próximos uns dos outros. Estas abordagensgeram resultados com distintos graus de preservação das distâncias entre pares de elementos no espaçom-dimensional.

Os autores MARTINS et al. (2014) apresentam um sistema para avaliar diversos aspectos do pro-cesso de RD, no qual as relações entre as características dos conjuntos n e m-dimensionais podem serestudadas de acordo com as seguintes definições: Falsos vizinhos Considerando um ponto xi e sua pro-jeção yi, para que ocorra a preservação de sua vizinhança, todos os vizinhos de yi também devem estarpróximos de xi. Caso exista um ponto yj vizinho a yi, correspondente a um ponto xj que não pertenceà vizinhança de xi, então yj é considerado como um falso vizinho de yi; Vizinhos desaparecidos Casoexista um ponto xj vizinho a um poto xi, e cuja projeção yj não pertence à vizinhança de yi, então yj éconsiderado um vizinho desaparecido de yi; Grupos Os conceitos de falsos vizinhos e vizinhos desapare-cidos podem ser generalizados para grupos, considerando que grupos de elementos próximos no espaçon-dimensional devem formar também grupos de elementos no espaço m-dimensional. Assim pode-segeneralizar falsos vizinhos em falsos membros e vizinhos desaparecidos em membros desaparecidos.

No trabalho de MOKBEL et al. (2013) , cujo objetivo é aprimorar a avaliação baseada em matrizesde ordem, são apresentadas uma revisão e a taxonomia para critérios de avaliação de métodos de RD,levando em consideração que a formalização das avaliações podem ajudar na comparação entre diferen-tes métodos de RD ou obter informações qualitativas a respeito de uma determinada visualização obtidaa partir de RD.

4 VISUALIZAÇÃO CIENTÍFICA

WRIGHT (2007) define Visualização como um processo interativo para entender o que gerou, ouproduziu, os dados, e não apenas uma técnica de apresentação destes dados. Afirma também que oser humano compreende naturalmente três dimensões, consequentemente, a compreensão de espaçoscom maior número de dimensões, com exceção do caso especial do tempo, é limitada. Portanto, sefor necessário representar mais variáveis do que podem ser acomodadas com estas restrições, outrosrecursos devem ser utilizados, como cores, sons, animação, ou o que mais estiver disponível.

A redução dimensional, realizada por métodos como os discutidos na seção 2, também faz parte doconjunto de ferramentas disponíveis para a visualização e análise de dados nos quais o número de dimen-sões excede a capacidade de compreensão humana ou de representação em um determinado dispositivo.Para exemplificar esta situação na Figura 1 é apresentado um Bloco tridimensional artificialmente ge-rado, constituído por três campos escalares. Cada campo escalar representa uma variável presente noconjunto de dados, com escalas e taxas de variação distintas. Na Figura 1(a) percebe-se que os valoresvariam em apenas um dos eixos do bloco, pela variação de cores do amarelo até o vermelho, já na Figura1(b) a variação é em outro sentido e com uma amplitude de valores maior que o representado em 1(a).Na Figura 1(c) além da alteração da direção da variação, parte do bloco não está representado, indicandoque ali não ha valores para o escalar sendo visualizado.

Nesta linha, os autores PAO AND MENG (1998) abordam os problemas de se conseguir entender umconjunto de dados multidimensionais e multivariados, apresentando como principal ferramenta os méto-dos de RD, permitindo que os dados sejam visualizados em gráficos (projeções) 2D, o que possibilitaaos analistas entenderem mais facilmente as relações existentes nos dados. Segundo os autores existemtrês aspectos na compreensão de dados multidimensionais: Distribuição dos pontos n-dimensionaisConhecer como os pontos ocupam o espaço de dados respondendo questões como: A distribuição dosdados é uniforme? Ou em aglomerados? Segue a mesma distribuição por todo o espaço, ou é regular emuma região e irregular em outra? Relacionamento funcional Saber se existe uma correspondência entreos valores do campo vetorial do espaço de entrada e o espaço dos valores das propriedades. Formaçãode categorias Criação de aglomerados no espaço de propriedades. Como os pontos no espaço de da-dos se relacionam com as categorias? Elementos próximos no espaço de dados correspondem à mesmacategoria no espaço das propriedades? São estudadas as inconsistências.

DOS SANTOS AND BRONDLIE (2004) realizam a visualização de dados multidimensionais e mul-

V Simposio de Metodos Numericos Computacionais

257

(a) (b) (c)

Figura 1: Visualização de três campos escalares que formam um volume correspondente à representaçãode um bloco artificial de dados

tivariados utilizando filtros para selecionar o conjunto de dimensões a serem visualizadas, a ferramentadescrita apresenta bons resultados para a navegação em conjuntos extensos de dados, porem a visualiza-ção ocorre de forma separada, com um conjunto de dimensões sendo mostrado a cada instante, sendoestas escolhidas pelo usuário da ferramenta.

Os autores GUO et al. (2011) descrevem um método iterativo para definir a Função de Transferência(FT) utilizada na geração de imagens a partir de dados multidimensionais. A FT é criada com o auxílioda visualização dos dados em um diagrama de coordenadas paralelas e projeções dos clusters de dadosprojetados pelo método MDS.4.1 Visualização de volumes

Segundo ENGEL et al. (2006) a geração de representações gráficas de volumes necessita que o meioparticipante seja modelado juntamente com o mecanismo de transporte de energia luminosa, e tanto arepresentação de fenômenos gasosos quanto a visualização científica de dados volumétricos comparti-lham o mesmo mecanismo de propagação da energia luminosa.

No modelo utilizado para realizar a renderização de volumes, assume-se que a luz se propaga emlinhas retas caso não haja interação com o meio. Os três principais tipos de interação que podem ocorrerentre um raio de luz e o meio pelo qual o mesmo está se propagando são: a Emissão, caso no qualo material efetivamente emite luz, aumentando a quantidade de energia que se propaga no meio; aAbsorção que corre quando o material pelo qual o raio de luz está viajando consegue converter energiaradiativa em calor, efetivamente diminuindo a quantidade de energia luminosa; e a Dispersão que é asituação na qual a direção do raio luminoso é alterada pelo meio que o mesmo está atravessando (ENGELet al., 2006; GLASSNER, 1995) .

Ainda segundo ENGEL et al. (2006) a energia de um raio de luz pode ser descrita por sua radiância I ,que é definida pela quantidade de energia radiativaQ por unidade de áreaA, que é medida na projeção aolongo da direção de propagação do raio luminoso indicado por⊥, pelo ângulo do sólido Ω e por unidadede tempo t:

I =dQ

dA⊥ dΩ dt(5)

O modelo tradicional de visualização de dados provenientes de simulações é a geração de uma matrizcom os dados e em seguida realizar a visualização usando métodos tradicionais baseados em interpolaçãolinear. Os autores NELSON et al. (2014) propõem um método para realizar a visualização deste tipo dedados de forma precisa e interativa.

O problema reside em calcular ou obter uma aproximação do valor da integral de renderização devolume, que não possui solução analítica e portanto precisa ser resolvida por técnicas numéricas, que

V Simposio de Metodos Numericos Computacionais

258

introduzem erros na imagem resultante ou levam muito tempo para serem calculadas.O modelo ótico do método utilizado por NELSON et al. (2014) é o emissão-absorção (emission-

absorption), para o qual a irradiação ao longo de um segmento de raio é dada por:

I(a, b) =

∫ b

a

k (f(t)) τ (f(t)) e−∫ ta τ(f(u)) du dt (6)

onde a e b são os limites do segmento e k e τ são a cor e a função de transferência de densidade. f(t) éo campo escalar no ponto de descontinuidade t ao longo do segmento que representa o raio de luz.

Dada a função f , a sua composição com a função de transferência (convolução) resulta em umafunção contínua e derivável apenas em um conjunto finito de pontos de descontinuidade. O cálculoda integral de visualização requer o conhecimento destes pontos, apesar de ser uma solução possívele atraente, é computacionalmente proibitiva. A convergência de métodos de quadratura de alta ordemassume funções suaves (smooth - funções que possuem derivadas de todas as ordens), o que é violadopelos pontos de descontinuidade neste caso.

ENGEL et al. (2006) define a equação para visualização de volumes como:

I(D) = I0e−

D∫s0

k(t)dt

+

D∫

s0

q(s)e−

D∫sk(t)dt

ds . (7)

Na qual I0 representa a luz que entra no volume pelo ponto s = s0, I(D) representa a quantidade de luzque sai do volume pelo ponto s = D e chega até a câmera. O conjunto de operações para gerar uma ima-gem representativa de um volume de dados é composto por: Travessia dos dados Definição ou escolhados pontos no volume de dados, serve de base para a discretização da integral de visualização do volumecontínuo. Interpolação Normalmente os pontos de amostragem são diferentes da grade de dados, por-tanto, é necessário reconstruir o espaço contínuo a partir da grade para obter-se os valores das amostras.Cálculo do gradiente O gradiente de um campo escalar normalmente é utilizado na determinação dailuminação local. Classificação Realizada normalmente por funções de transferência, é utilizada paramapear propriedades dos dados em características óticas, geralmente como um conjunto de valores decor e opacidade. Iluminação e sombreamento O sombreamento do volume pode ser incorporado aoprocesso pela adição de um termo de iluminação na integral de visualização - Equação (7). ComposiçãoÉ o processo iterativo para determinar o valor da integral de visualização, que pode realizar o cálculotanto partindo do observador quanto chegando neste.

5 CONSIDERAÇÕES FINAIS

A visualização de dados multidimensionais envolve uma sequencia de procedimentos, sendo umaetapa fundamental a redução do número de dimensões dos dados, para viabilizar a compreensão dasinformações existentes no conjunto de dados.

Os distintos métodos de RD, conforme discutido, possuem características para resolver por diferentesabordagens a transformação ou projeção de espaços necessária para realizar a visualização de dadosmultidimensionais. Sendo que os métodos lineares normalmente enfatizam um determinado conjunto ougrupo de características dos dados originais, já os não lineares procuram manter um outro conjunto derelações, normalmente maior ou mais geral, existentes nos dados de entrada.

Uma consideração importante sobre os métodos de RD e visualização de dados multidimensionaisestudados é que na maioria das aplicações não há uma conservação das posições espaciais do conjuntode pontos de entrada, ou seja, dado um volume da dados, as coordenadas geométricas para um conjuntode características são também incluídas no processo de RD, sendo assim projetadas juntamente com asdemais dimensões na representação final a ser visualizada pelo usuário do sistema.

De acordo com o discutido nas referências apresentadas, não há um método geral para realizar a RD,mas sim métodos mais adequados a um determinado tipo de visualização ou melhor ajustado às carac-terísticas do conjunto de dados de entrada. Métodos mais gerais, como o Classical Scaling e o PCA,

V Simposio de Metodos Numericos Computacionais

259

são utilizados em diferentes abordagens ou aplicações, apesar de sofrerem com a restrição correspon-dente à sua linearidade. Outra característica favorável a estes métodos diz respeito à sua simplicidadee facilidade de implementação. Na maioria dos trabalhos envolvendo estudos ou a proposição de novasabordagens para RD, o Classical Scaling e/ou o PCA são utilizados também como base comparativa dedesempenho e qualidade das respostas, sendo portanto, escolhas aceitáveis para o teste de novas abor-dagens tanto do pré-processamento dos dados como na concepção de novos algoritmos de geração deimagens.

Como desenvolvimento futuro pretende-se utilizar estes métodos de RD para unificar a representaçãoe visualização das dimensões de conjuntos de dados como os apresentados na Figura 1, fornecendo aosespecialistas uma nova abordagem para o estudo de dados n-dimensionais.

REFERENCES

Adhianto L., Banerjee S., Fagan M., Krentel M., Marin G., Mellor-Crummey J., and Tallent N.R. HPC-TOOLKIT: Tools for performance analysis of optimized parallel programs. Concurrency ComputationPractice and Experience, pages 662–682, 2013. ISSN 15320626. doi:10.1002/cpe.

Borg I. and Groenen P.J.F. Modern Multidimensional Scaling. Springer, 2 edition, 2005. ISBN 978-0387-25150-9.

dos Santos S. and Brodlie K. Gaining understanding of multivariate and multidimensional data throughvisualization. Computers & Graphics, 28(3):311–325, 2004. ISSN 00978493. doi:10.1016/j.cag.2004.03.013.

Engel K., Hadwiger M., Kniss J.M., Lefohn A.E., Salama C.R., and Weiskopf D. Real-time volumegraphics. A K Peters, Ltd., Wellesley, Massachusetts, 2006. ISBN 978-1-56881-266-3.

Glassner A.S. Principles of Digital Image Synthesis. Morgan Kaufmann Publishers, INC., San Francisco,CA, 1995. ISBN 1-55860-276-3.

Guo H., Xiao H., and Yuan X. Multi-dimensional transfer function design based on flexible dimensionprojection embedded in parallel coordinates. In IEEE Pacific Visualization Symposium, pages 19–26.IEEE, 2011.

Isenberg T., Isenberg P., Chen J., Sedlmair M., and Moller T. A systematic review on the practice ofevaluating visualization. IEEE Transactions on Visualization and Computer Graphics, 19(12):2818–2827, 2013. ISSN 10772626. doi:10.1109/TVCG.2013.126.

Martins R.M., Coimbra D.B., Minghim R., and Telea a.C. Visual analysis of dimensionality reductionquality for parameterized projections. Computers and Graphics (Pergamon), 41(1):26–42, 2014. ISSN00978493. doi:10.1016/j.cag.2014.01.006.

Mokbel B., Lueks W., Gisbrecht A., and Hammer B. Visualizing the quality of dimensionality reduction.Neurocomputing, 112:109–123, 2013. ISSN 09252312. doi:10.1016/j.neucom.2012.11.046.

Najim S.a. and Lim I.S. Trustworthy dimension reduction for visualization different data sets. Informa-tion Sciences, 278:206–220, 2014. ISSN 00200255. doi:10.1016/j.ins.2014.03.048.

Nelson B., Kirby R.M., and Haimes R. GPU-based volume visualization from high-order finite elementfields. IEEE transactions on visualization and computer graphics, 20(1):70–83, 2014. ISSN 1941-0506. doi:10.1109/TVCG.2013.96.

Pao Y.H. and Meng Z. Visualization and the understanding of multidimensional data. EngineeringApplications of Artificial Intelligence, 11(5):659–667, 1998. ISSN 0952-1976. doi:http://dx.doi.org/10.1016/S0952-1976(98)00031-1.

Tenenbaum J.B., de Silva V., and Langford J.C. A global geometric framework for nonlinear dimen-sionality reduction. Science (New York, N.Y.), 290(5500):2319–23, 2000. ISSN 0036-8075. doi:10.1126/science.290.5500.2319.

Van Der Maaten L.J.P., Postma E.O., and Van Den Herik H.J. Dimensionality Reduction: A ComparativeReview. Journal of Machine Learning Research, 10:1–41, 2009. ISSN 0169328X. doi:10.1080/13506280444000102.

Wright H. Introduction to Scientific Visualization. UK: Springer, 2007.

V Simposio de Metodos Numericos Computacionais

260

V Simposio de Metodos Numericos Computacionais

SELEÇÃO OTIMIZADA DE PARÂMETROS DO SUPPORT VECTOR

CLASSIFICATION (SVC) POR MEIO DA TÉCNICA GRID-QUADTREE

Resumo: A eficiência do algoritmo Support Vector Classification (SVC) depende da escolha

de seus parâmetros. Dentre os métodos de seleção de parâmetros do SVC, a busca por grid é

a mais utilizada devido a sua simplicidade e bons resultados. Contudo, por avaliar todas as

combinações de parâmetros no seu espaço de busca, essa metodologia apresenta alto custo

computacional. Com o objetivo de reduzir o número de operações efetuadas pelo grid, este

trabalho propõe um método que combina o uso de duas quadtrees ao grid, uma executada em

malha grosseira e outra em refinada. Mostrou-se que executar duas vezes a quadtree é mais

vantajoso em termos de esforço computacional que rodar a técnica tradicional, apenas uma

vez, em malha grosseira. Os resultados evidenciaram que o método proposto é capaz de

fornecer parâmetros de qualidade igual ou superior ao da busca por grid, realizando muito

menos operações.

Palavras-Chave: Quadtree, Seleção de parâmetros, SVC, Redução de operações, Busca por

grid.

1 INTRODUÇÃO

O algoritmo Support Vector Classification (SVC), desenvolvido por Cortes e Vapnik (1995),

tem apresentado excelentes resultados no campo de reconhecimento de padrões. Todavia, a

qualidade de suas soluções depende significativamente da seleção de seus parâmetros:

constante de regularização C, tipo de kernel e parâmetros internos a essa função. A escolha

equivocada dessas variáveis pode levar a baixa performance do algoritmo e a fenômenos

indesejáveis como o overfitting e o underfitting.

Dentre os diversos métodos de seleção de parâmetros do SVC, recebe destaque a busca por

grid. Essa técnica se distingue das demais devido a sua facilidade de uso e ao fornecimento

de resultados exatos. Por esses motivos, muitos usuários a têm como principal opção quando

necessitam ajustar parâmetros no SVC. Contudo, por avaliar todas as combinações de

parâmetros no seu espaço de busca, a metodologia do grid apresenta alto custo

computacional. Desta forma, sua utilização para grandes conjuntos de dados torna-se bastante

demorada e, em muitos casos, impraticável. Assim, Hsu, Chang e Lin (2010) sugerem, por

economia de tempo, que se inicie a varredura de parâmetros em um grid grosseiro e, após se

deparar com uma região de possíveis soluções, execute nessa área um grid refinado para

encontrar o ótimo.

Monica Beltrami, Arinei Carlos Lindbeck da Silva

261

Beltrami e Silva (2015a, 2015b, 2015c), motivados em reduzir o número de operações

efetuadas pelo grid, estudaram a viabilidade de incorporar a esse método a técnica quadtree.

Os autores evidenciaram que a adoção da quadtree ao grid, além de propiciar a determinação

de boas soluções, poupou a execução de muitos cálculos em relação a técnica convencional.

Nas comparações por eles realizadas, utilizaram-se malhas (grids) de espaçamento similar a

resolução da quadtree.

Deste modo, baseando-se nos estudos de Beltrami e Silva (2015a, 2015b, 2015c) e nas

recomendações de Hsu, Chang e Lin (2010), este artigo tem por objetivo comparar a

quantidade de operações realizadas por um grid convencional, sem refinamento, com as de

uma “quadtree da quadtree”. Ou seja, deseja-se mostrar que aplicar uma quadtree de maior

resolução, em uma região de parâmetros já pesquisada por outra quadtree, é mais vantajoso,

em termos de rapidez, que executar o método convencional, somente uma vez, com malha

grosseira. Para validar a abordagem proposta, comparam-se os resultados alcançados por

ambas as técnicas confrontando a qualidade da solução e a quantidade de operações

computacionais necessárias para obtê-la.

2 SUPPORT VECTOR CLASSIFICATION (SVC)

O algoritmo SVC, cujo funcionamento baseia-se no aprendizado supervisionado, visa

encontrar um hiperplano separador de máxima margem resolvendo a formulação primal:

(1)

Onde: , são as incógnitas do problema e C é a constante de regularização.

Na função objetivo de (1), o primeiro termo tende a maximizar a margem do hiperplano e o

segundo a minimizar as variáveis de folga . Logo, a constante C, que deve ser positiva e

especificada pelo usuário, determina o quão sensível o modelo será a presença de pontos mal

classificados. O problema (1) é mais facilmente resolvido por meio de sua representação

dual. Essa formulação, além de facilitar a solução do SVC, permite, por meio de funções

kernel, projetar os dados de entrada para um espaço de características. Nesse último, torna-se

possível a classificação linear de dados não linearmente separáveis. Assim, o modelo dual é

do SVC é dado por:

,

(2)

Onde: são os multiplicadores de Lagrange.

As condições de Karush-Kuhn-Tucker (KKT), que se aplicam a (2), mostram que apenas os

vetores situados sobre as margens de classificação e os que possuem variável de folga

têm seu respectivo multiplicador de Lagrange . Em virtude de serem os únicos

a influenciar a construção do hiperplano separador, estes pontos são chamados de vetores

suporte (VS). Contudo, os VS associados a variável de folga, , são considerados erros

de classificação e denominados vetores suporte Bound (VSBound). Ambos são usados no

cálculo da função de decisão, definida por:

(3)

Onde: é um kernel definido pelo usuário.

V Simposio de Metodos Numericos Computacionais

262

Uma função pode ser considerada um kernel desde que ela atenda ao teorema de Mercer.

Entretanto, em virtude do amplo domínio de convergência da função gaussiana, equação (4),

e sua vasta aplicabilidade (PANG et al, 2011), os métodos de seleção de parâmetros do SVC

partem do princípio que essa será a função empregada no algoritmo.

(4)

Desta forma, para o bom funcionamento do SVC, devem ser adequadamente especificados: a

constante de regularização C e o parâmetro do kernel gaussiano , conforme mostra (4).

3 BUSCA POR GRID

A busca por grid é considerada referência na área de seleção de parâmetros do SVC, pois

novos métodos, ao serem propostos, validam seus resultados comparando-os com os do grid.

O objetivo desta busca é encontrar o par de parâmetros ótimo (C, ), em uma malha ou grade.

Para aprimorar a habilidade de generalização do SVC e prevenir o overfitting, a referida

técnica emprega a metodologia de validação cruzada (VC) do tipo k-fold. Segundo Akay

(2009), a busca por grid é descrita pelos passos do quadro 1.

Quadro 1: Pseudocódigo da busca por grid. Fonte: AKAY (2009).

1. Considere uma malha (grid) no espaço de coordenadas .

2. Para cada par de parâmetros (C, ) do espaço de busca, realize uma validação cruzada k-

fold no conjunto de treinamento.

3. Escolha o par (C, ) que resulte na maior taxa de acertos de validação cruzada.

4. Use estes parâmetros para criar o modelo SVC.

4 QUADTREE

A técnica quadtree é uma estrutura hierárquica de representação de dados, criada pela divisão

sucessiva do espaço em quadrantes de mesmo tamanho. O conceito fundamental da quadtree

é, ao fragmentar certa região, identificar pelas suas intersecções quais quadrantes estão

inteiramente contidos na área de interesse, parcialmente inseridos ou vazios. Aqueles que

estiverem parcialmente contidos, ou seja que possuírem dados internos e externos à região

considerada, são recursivamente divididos em novos quadrantes até que todos estes se tornem

homogêneos. Quando essa condição é atingida, encerra-se o processo de divisão.

Cada quadrante gerado representa um nó na árvore quadtree. Os quadrantes que contêm

somente dados internos à região são denominados PRETOS e os que possuem apenas dados

externos são BRANCOS. Os nós correspondentes a esses dois tipos de quadrantes tornam-se

folhas, significando que nenhuma divisão a mais será necessária. Já os quadrantes

heterogêneos, denominados CINZA, são nós internos e subdivididos até que todos os seus

filhos virem folhas. A figura 1 ilustra a região de interesse e as etapas correspondentes a

divisão do espaço, enquanto que a figura 2 apresenta a árvore gerada.

(a) (b) (c) (d)

Figura 1: Processo de divisão da quadtree. Fonte: Os autores.

V Simposio de Metodos Numericos Computacionais

263

Figura 2: Árvore quadtree. Fonte: Os autores.

Em uma quadtree, a sua resolução consiste no número de vezes que o processo de

decomposição é efetuado, podendo ser fixada a priori ou depender dos dados de entrada.

Assim, quanto maior a resolução da árvore, mais divisões serão executadas e menores serão

as laterais dos quadrantes gerados. Para garantir a convergência do problema envolvendo

quadtree, é desejável que a mesma esteja completamente balanceada. Detalhes sobre o

balanceamento encontram-se em Beltrami e Silva (2015b).

5 PROCEDIMENTOS METODOLÓGICOS

O método de determinação de parâmetros do SVC sugerido neste trabalho, que combina as

técnicas grid e quadtree, foi implementado por meio da linguagem VB.net. O mesmo foi

concebido com base em Keerthi e Lin (2003), que constataram a existência de uma curva que

separa o espaço de busca de parâmetros (C, ) em duas regiões: uma caracterizada pelo

underfitting e overfitting e outra denominada boa região. O objetivo da proposta é, por meio

de uma quadtree balanceada, desenhar o espaço evidenciado por Keerthi e Lin (2003) e, a

partir disso, encontrar o par ótimo (C, ). Assim, a ideia fundamental é reduzir operações do

grid, a medida que várias regiões do espaço de busca deixam de ser avaliadas. Por exemplo:

como as regiões de underfitting e overfitting não são interessantes para a busca de

parâmetros, elas são entendidas pela quadtree como nós BRANCOS e, consequentemente,

dispensam divisões e a varredura completa do grid. O mesmo ocorre com a avaliação de

quadrantes internos a boa região, por estarem completamente inseridos na zona de interesse,

são compreendidos como nós PRETOS e também não se dividem.

Seguindo esse princípio, o método proposto é executado em duas etapas. Na primeira, visa-se

identificar por meio da quadtree, de forma grosseira e com menor resolução, a região de

melhores parâmetros e determinar uma solução (C, ). Na segunda etapa, com o intuito de

refinar a malha e otimizar a resposta previamente encontrada, roda-se novamente a quadtree,

agora com maior resolução, somente na região propícia determinada na primeira fase.

Na metodologia sugerida, os quadrantes são avaliados com base em dois critérios: taxa de

validação cruzada (VC) e quantidade de vetores suporte (VS). O controle desse último é

importante já que um elevado número de VS indica a ocorrência de overfitting. Uma vez que

o comportamento dos parâmetros pertencentes ao espaço de busca é desconhecido, para

iniciar o processo de divisão da quadtree necessita-se estabelecer valores de referência. Em

outras palavras, define-se as características da região que se deseja encontrar. Neste trabalho,

adotaram-se como valores iniciais: taxa VC ≥ 70% e número de VS ≤ 50%. Assim, pares de

parâmetros que não atendam simultaneamente a esses dois critérios são considerados

externos a região de interesse. Ressalta-se que esses valores são válidos apenas na primeira

vez que se roda o método grid-quadtree, pois na segunda usa-se como referência o par (C, )

determinado como solução na fase anterior.

Os resultados do grid-quadtree foram comparados com os da tradicional busca por grid,

levando-se em conta a qualidade da resposta e o número de operações necessárias para obtê-

la. Nesta pesquisa, o número de operações é equivalente a quantidade de combinações de

V Simposio de Metodos Numericos Computacionais

264

parâmetros analisados por cada um dos métodos. Ressalta-se que todos os cálculos referentes

ao SVC foram efetuados por meio dos pacotes computacionais disponibilizados na

plataforma LIBSVM - Library for Support Vector Machines (CHANG; LIN, 2011). Logo, o

número de operações também é compreendido como a quantidade de vezes que o LIBSVM é

chamado para treinar o algoritmo SVC, pois para cada par (C, ) executa-se uma validação

cruzada k-fold conforme visto no quadro 1. Para ambos os métodos, adotou-se a validação

cruzada com k=5. Assim, o pseudocódigo do grid-quadtree é dado por:

Quadro 2: Pseudocódigo do método proposto grid-quadtree. Fonte: Os autores.

1. Faça RodaQuadtree = 1.

2. Entre com o valor da resolução da quadtree.

3. Iniciar a divisão da quadtree pelo nó pai, que corresponde a todo espaço de busca.

4. Para cada vértice (C, ) dos quadrantes gerados (nós filhos), treinar o SVC via LIBSVM

conduzindo uma VC 5-fold.

5. A partir dos resultados obtidos no passo 4, para cada vértice (C, ), se a sua taxa de VC

for maior ou igual a taxa de VC referência E se seu número de vetores suporte for menor

ou igual a quantidade de VS referência, então o sinal do vértice é positivo. Caso

contrário, negativo.

6. Para cada nó filho, se os sinais dos seus quatro vértices forem iguais então o nó é folha.

Caso contrário, o nó deve ser dividido.

7. Repetir os passos 4 a 6 até que todos os nós da árvore quadtree tornem-se folhas ou

atinja-se a resolução estipulada.

8. Dentre a região de melhores parâmetros, assuma o par (C, ) de maior taxa VC e menor

quantidade de VS como solução.

9. Faça RodaQuadtree = 2.

10. Entre com o valor da resolução, que deve superior (de maior precisão) à do passo 2.

11. Adote os valores da solução do passo 8 como referência para o processo de divisão.

12. Delimite o novo espaço de busca pelos os extremos da região encontrada no passo 8.

13. Inicie a divisão da nova quadtree tomando o par (C, ) do passo 8 como centro do nó

pai.

14. Repita os passos 4 a 8.

As bases de dados empregadas neste trabalho, descritas no quadro 3, são referência na área e

estão disponíveis no repositório LIBSVM. Todas elas referem-se ao conjunto de treinamento

e foram normalizadas no intervalo [-1, 1] ou [0, 1].

Quadro 3: Conjunto de dados estudados. Fonte: CHANG e LIN (2011).

Base de dados Nº de classes Nº de dados Nº de características Normalização

Svmguide1 2 3089 4 [-1, 1]

Splice 2 1000 60 [-1, 1]

DNA 3 2000 180 [0, 1]

Pendigits 10 7494 16 [0, 1]

Para o grid convencional e para a primeira execução do grid-quadtree, utilizou-se uma malha

de tamanho 17x17, com os eixos dos parâmetros C e variando no intervalo 2-8, 2-7,2-6,…, 26,

27, 28. Já para segunda aplicação do grid-quadtree, usou-se uma malha de divisão

(espaçamento) 0,5, com extremos definidos conforme passo 12 do quadro 2.

6 RESULTADOS

A busca por grid, por calcular todas as combinações de parâmetros no espaço de busca

17x17, efetuou para cada conjunto de dados 289 operações para encontrar o par ótimo (C, ).

V Simposio de Metodos Numericos Computacionais

265

Em relação a esse valor, avaliou-se qual foi o percentual necessário de operações para que a

técnica grid-quadtree, executando as suas duas etapas, resolvesse o mesmo problema. As

tabelas 1 e 2 apresentam, nessa ordem, os pares (C, ) determinados pela busca por grid (BG)

e pelo grid-quadtree (GQ). Já a tabela 3 evidencia o número de operações efetuadas por

ambos os métodos para encontrar os respectivos valores das tabelas 1 e 2.

Tabela 1: Parâmetros encontrados pelo método busca por grid. Fonte: Os autores.

Conjunto C Taxa VC (%) VS VS (%) VSBound

Svmguide1 2,00 4,00 96,92 316 10,23 0

Splice 16,00 0,008 87,80 423 42,30 0

DNA 4,00 0,008 95,45 696 34,80 0

Pendigits 8,00 2,00 99,72 1039 13,86 0

Tabela 2: Parâmetros encontrados pelo método grid- quadtree. Fonte: Os autores.

Conjunto Execução C Taxa VC (%) VS VS (%) VSBound

Svmguide1 1ª 1,00 4,00 96,86 364 11,78 0

2ª 1,41 4,97 96,96 346 11,20 0

Splice 1ª 8,00 0,015 87,70 479 47,90 0

2ª 8,00 0,013 87,80 457 45,70 0

DNA 1ª 4,00 0,016 95,40 838 41,90 0

2ª 4,00 0,008 95,45 696 34,80 0

Pendigits 1ª 8,00 2,00 99,72 1039 13,86 0

2ª 19,03 0,92 99,72 805 10,74 0

Tabela 3: Comparação entre o número de operações realizadas pelos métodos BG e GQ. Fonte: Os autores.

Busca por Grid Grid-quadtree (Total = 1ª + 2ª execução)

Conjunto Todos Svmguide1 Splice DNA Pendigits

Número de operações 289 273 93 114 230

Operações realizadas (%) 100 94,46 32,18 39,45 79,58

Redução de operações (%) - 5,54 67,82 60,55 20,42

Pelas tabelas 1 e 2, verifica-se que, para todos os conjuntos de dados, o grid-quadtree

encontrou ao final da segunda etapa, referente à otimização da solução, pares de parâmetros

com taxa VC maiores ou iguais a da busca por grid. Já para a base Pendigits, o GQ alcançou

a mesma solução que a BG, rodando apenas o quadtree grosseiro (1ª etapa). Assim, para esse

conjunto, a melhoria da solução, ocorrida na 2ª fase, consistiu apenas na redução de VS.

Pela tabela 3, que compara o número de operações efetuadas pela técnica convencional e pela

GQ (após as suas duas execuções), nota-se que o GQ encontrou a solução final, em todos os

casos, executando menos operações que a BG. Os melhores resultados se deram para os

conjuntos Splice e DNA. Para este último, tem-se que o GQ encontrou o mesmo par (C, )

que a BG, executando apenas 114 operações, o que implica em uma economia de 60,55% dos

cálculos efetuados pelo grid tradicional.

A figura 3, que compara as soluções gráficas do Svmguide1 fornecidas pela BG, a esquerda, e

GQ, a direita, explica o porquê a redução de operações do GQ para esse conjunto foi inferior

aos demais. Constata-se, pela figura 3, que a boa região determinada pelo grid e grid-

quadtree grosseiros (representados pela cor verde água) é extensa. Logo, o refinamento da

quadtree ocorreu numa área maior, resultando em mais operações. Contudo, vale lembrar que

se o refinamento do grid, conforme sugere a literatura, fosse realizado nessa mesma área,

milhares de operações seriam efetuadas pela BG. Desta forma, o resultado do GQ para o

Svmguide1 é tão significativo quanto os demais. Na figura 3 (a direita), as linhas pretas

representam a primeira execução do GQ e as vermelhas a segunda.

V Simposio de Metodos Numericos Computacionais

266

Figura 3: Solução gráfica do Svmguide1 pelos métodos BG e GQ. Fonte: Os autores.

7 CONCLUSÕES

O presente trabalho propôs um método que combina a técnica quadtree ao grid, com a

finalidade de reduzir os cálculos efetuados pela metodologia tradicional. Mostrou-se que

executar a quadtree duas vezes, uma para determinar a boa região de parâmetros e a outra

para otimizar a solução (C, ), é mais vantajoso em termos de esforço computacional que

rodar a busca por grid, com malha grosseira, apenas uma vez. Os resultados evidenciaram

que o GQ é capaz de fornecer pares de parâmetros de qualidade igual ou superior a BG, em

termos de taxa de validação cruzada e número de vetores suporte, realizando muito menos

operações. Para 50% dos conjuntos avaliados, a redução de operações foi superior a 60%.

Com isso, conclui-se que o método proposto é uma excelente alternativa ao grid

convencional, sendo capaz de fornecer excelente soluções em menor tempo.

AGRADECIMENTOS

Ao Instituto Federal do Paraná – IFPR e a Coordenação de Aperfeiçoamento de Pessoal de

Nível Superior – CAPES por apoiarem e financiarem esta pesquisa. Ao grupo de pesquisa

GTAO – Grupo de Tecnologia Aplicada à Otimização pelos recursos disponibilizados.

REFERÊNCIAS

AKAY, M. F., Support vector machines combined with feature selection for breast cancer

diagnosis. Expert Systems with Applications, 16: 3240 – 3247, 2009.

BELTRAMI, M., SILVA, A. C. L da., Grid-Quadtree Algorithm for Support Vector

Classification Parameters Selection. Applied Mathematical Sciences, 2: 75-82, 2015a.

BELTRAMI, M., SILVA, A. C. L da., O uso da técnica quadtree na otimização da busca por

grid – um método para selecionar parâmetros do Support Vector Classification. Anais do

XXII SIMPEP – Simpósio de Engenharia de Produção, 2015b.

BELTRAMI, M., SILVA, A. C. L da., Proposta de técnica grid-quadtree para seleção de

parâmetros do Support Vector Classification (SVC). Anais do XV SEPROSUL – Simpósio de

Engenharia de Produção Sul-Americano, 2015c.

CHANG, C. C., LIN, C. J., LIBSVM: A Library for Support Vector Machines. ACM

Transactions on Intelligent Systems and Technology, 2:27:1--27:27, 2011. Software available

at http://www.csie.ntu.edu.tw/~cjlin/libsvm.

CORTES, C., VAPNIK, V., Support-vector network. Machine Learning, 20: 273-297, 1995.

HSU, C.W., CHANG, C. C., LIN, C. J., A Practical Guide to Support Vector Classification.

Department of Computer Science, National Taiwan University, 2010.

KEERTHI, S. S., LIN, C. J., Asymptotic Behaviors of Support Vector Machines with

Gaussian Kernel. Neural Computation, 15: 1166- 1189, 2003.

PANG, H et al., Novel linear search for support vector machine parameter selection. Journal

of Zhejiang University – Science C (Computers & Electronics), 12: 885- 896, 2011.

V Simposio de Metodos Numericos Computacionais

267

V Simposio de Metodos Numericos Computacionais

INSERÇÃO DE NOVOS PEDIDOS ATRAVÉS DE SIMULAÇÃO

DURANTE O SEQUENCIAMENTO EM UMA ÚNICA MÁQUINA

PARA MINIMIZAR O MAKESPAN

Resumo: Este artigo estuda o problema de sequenciamento de produção em uma única

máquina com inserção de novos pedidos de clientes realizados por meio de uma simulação,

visando a minimização do makespan. Tal estudo foi realizado a partir de dados randômicos

com base no modelo exato do problema. Os novos sequenciamentos também fazem uso de

dados aleatórios, como quantas e quais tarefas são recém-chegadas e o tempo de chegada das

tarefas inseridas ao longo do processo. Os testes computacionais foram implementados em

Visual Basic Studio e otimizados pelo software CPLEX, acompanhado pela biblioteca

Concert. Os resultados obtidos pela inserção de 20 a 50 por cento da quantidade original de

tarefas a serem sequenciadas mostram uma análise da mudança do makespan inicial em

relação ao makespan atualizado a partir dos acréscimos realizados. Ao fim da análise dos

resultados, obtêm-se dados importantes, como a média e o desvio padrão, para avaliações

futuras, nas quais será averiguada a amplitude de cada nova inserção para diferentes

quantidades de tarefas inicialmente propostas para o sequenciamento, assim como aplicações

de heurísticas para comparação com a simulação efetiva.

Palavras-Chave: Re-sequenciamento, Uma única máquina, Inserção de novos pedidos,

Minimização do Makespan.

1 INTRODUÇÃO

O Planejamento e Controle de Produção (PCP) consiste em um procedimento utilizado para

gerenciamento das atividades realizadas em um processo de produção e, atualmente, possui

extrema importância no mercado produtivo dado que cada vez mais as empresas procuram

estabelecer metas de produtividade e qualidade que garantam bons resultados para o

estabelecimento e seus clientes.

Existem três pontos da literatura de PCP em uma única máquina que são de interesse para o

problema abordado neste trabalho. Em primeiro lugar, o sequenciamento realizado emprega o

tempo de preparação da máquina entre as tarefas, ou seja, o setup depende da sequência

realizada pelos trabalhos. Em segundo lugar, a programação tem por objetivo minimizar o

makespan da produção. Em terceiro lugar, o processo realiza uma simulação a partir da

inserção de novas ordens de tarefas ocorridas durante o sequenciamento.

Nathalia Cristina Ortiz da Silva, Cassius Tadeu Scarpin

268

Com a inserção de trabalhos no decorrer do procedimento é preciso executar um novo

sequenciamento a cada entrada de tarefas recém-encomendadas pelos clientes. O tempo de

chegada desses novos trabalhos é dado de forma aleatória. Deste modo, o problema abordado

possui grande nível de complexidade, por estar relacionado com ambientes estocásticos.

Esses ambientes proporcionam uma variabilidade no processo de produção, referentes ao

tempo de chegada dos pedidos dos clientes, a quantas e quais tarefas serão inseridas ao longo

do sequenciamento, ao tempo de preparação das máquinas, ao tempo de produção do item,

entre outros fatores relevantes ao sistema de fabricação do produto.

Durante a programação e o sequenciamento de um sistema de produção, podem-se notar as

diferenças existentes entre o planejamento desse sistema produtivo e o que acontece de fato

no mundo real. O presente trabalho reproduz um modelo que recebe monitoramento contínuo.

Quando aplicados nas empresas, os modelos propostos através da simulação ajudam de

maneira significativa no processo de ajuste do estado do sistema tradicional de PCP para o

estado de um sistema dinâmico desejado.

Cancelamentos ou adições de novas encomendas, mudanças na prioridade dos pedidos,

atrasos de processamento, falhas nas máquinas são exemplos de tais eventos, que, em

combinação com a natureza dinâmica dos sistemas de produção, pedem por mecanismos

eficazes de PCP em tempo real para identificar as mudanças nos planos de produção e para

fornecer medidas corretivas (Georgiadis e Michaloudis, 2011).

O objetivo deste trabalho é desenvolver uma simulação que, unida ao modelo matemático

referente ao problema abordado no estudo, avalie a reprogramação do sequenciamento de

produção a partir de novos eventos a serem inseridos com relação aos pedidos dos clientes

que ocorrem quando o sequenciamento já está em andamento. As diferenças apontadas em

tempo real entre as atividades planejadas e efetivas forneçam medidas de otimização.

O artigo está estruturado da seguinte maneira: a Seção 2 oferece uma visão geral de trabalhos

correlatos acerca dos conceitos fundamentais que pautam esse artigo; a Seção 3 abrange a

descrição do problema de pesquisa; a Seção 4 versa sobre a metodologia empregada no

estudo, na qual se apresenta uma descrição detalhada do problema por meio de uma

modelagem matemática e aponta o Algoritmo de Novas Chegadas realizado através de uma

simulação. Na Seção 5, faz-se a implementação, apresentação e análise dos resultados

computacionais. As observações finais, juntamente com as sugestões para trabalhos futuros,

são realizadas na Seção 6.

2 TRABALHOS CORRELATOS

Pesquisas recentes para os problemas de sequenciamento em uma máquina com setup

dependente da sequência são abordados por diversos autores. Allahverdi et al. (2014); Cheng

et al. (2014); Kopanoglu (2014); Keshavarz et al. (2015); González e Vela (2014); Jia e

Leung (2014); Khowala et al. (2014); Kononov et al. (2015); Li et al. (2015); Herr e Goel

(2016) são alguns pesquisadores que concentram seus trabalhos atuais no sequenciamento de

uma única máquina. A maioria dos objetivos destacados em suas pesquisas atua com a

finalidade de miminizar o makespan, minimizar o atraso e/ou o adiantamento das datas de

entrega, ou até mesmo problemas que lidam com multi critérios, ou seja, a minimização de

mais do que uma função objetivo.

O re-sequenciamento também tem atraído atenção de muitos autores: Vieira et al. (2003);

Aytug et al. (2005) e Ouelhadj e Petrovic (2009). O artigo apontado por Akkan (2015)

envolve a inserção de uma nova operação em um sequenciamento já existente. A intenção do

trabalho é manter o novo sequenciamento o mais estável possível para uma minimização do

atraso máximo. Para isto, são efetuadas várias heurísticas simples e um Branch & Bound

híbrido com um algoritmo de busca local.

V Simposio de Metodos Numericos Computacionais

269

As heurísticas aplicadas por Akkan (2015) em um re-sequenciamento serão de suma

importância para pesquisas futuras do nosso trabalho. Por hora, iremos descrever o problema

discutido neste artigo e avaliar os resultados encontrados através de uma simulação com

inserção de novas tarefas.

3 DESCRIÇÃO DO PROBLEMA

Este trabalho consiste em uma programação de produção com chegada de novos pedidos para

a confecção de tarefas com tempos de chegada estocásticos. O sequenciamento, que é

efetuado por meio de uma modelagem inteira mista (MIP), é iniciado com a quantidade de

tarefas a serem realizadas já definida e, durante o procedimento, novos pedidos chegam à

produção para serem inseridos no processo, gerando assim um re-sequenciamento a partir de

cada nova chegada.

Nas subseções seguintes, descrevem-se o modelo matemático do problema de minimização

do makespan e, em seguida, a simulação efetuada para a entrada de novos pedidos de tarefas

realizados pelos clientes.

4 METODOLOGIA

4.1 Modelo Exato

O problema abordado neste trabalho tem como objetivo minimizar o makespan, ou seja, o

instante de término de todas as tarefas processadas. Para o problema consideram-se as

seguintes hipóteses:

(a) Existem n trabalhos a serem processados por uma única máquina.

(b) Cada trabalho possui um tempo de processamento pi. Além disso, é necessário um tempo

de preparação da máquina para processar cada tarefa e o setup utilizado é dependente da

sequência, sendo assim, designa-se por sij o tempo de preparação da máquina para processar

a tarefa j imediatamente após a tarefa i.

(c) Para cada tarefa i, a variável Ci indica o instante de término de processamento da mesma.

Por sua vez, a variável binária xij define se a tarefa i precede imediatamente a tarefa j (xij =

1) ou não (xij = 0).

O problema é

min Cmax (1)

Sujeito a

Cmax ≥ Ci, i = 1, … , n (2)

∑ xij = 1, j = 0, … , n (3)

n

i=0,i≠j

∑ xij = 1, i = 0, … , n (4)

n

j=0,j≠i

Cj ≥ Ci − M + (sij + pj + M)xij, i = 0, … , n j = 1, … , n (5)

C0 = 0 (6)

𝐂 ∈ R+n, 𝐱 ∈ B(n+1)(n+1) (7)

Como citado anteriormente, a função objetivo (1) minimiza o makespan de todas as tarefas

do sequenciamento. As restrições (2) garantem que o instante do término do sequenciamento

completo seja maior ou igual ao instante de término de processamento de cada uma das

V Simposio de Metodos Numericos Computacionais

270

tarefas. As restrições (3) e (4) afirmam que cada tarefa tem apenas uma tarefa imediatamente

predecessora e uma tarefa imediatamente sucessora, respectivamente. Em (5), as restrições

implicam que o instante de término de processamento da tarefa j não ocorra antes da soma

entre o instante de término de processamento da tarefa i imediatamente anterior a j, o setup

entre as tarefas i e j e o tempo para a tarefa j ser processada. A restrição (6) afirma que o

instante de término de processamento da tarefa 0 é nulo. As restrições (7) indicam o tipo das

variáveis.

4.2 Simulação

A partir da formulação do modelo exato, dá-se início a construção da simulação com a

finalidade de reproduzir um sistema de produção real. Antes de iniciá-la, consideram-se as

seguintes informações para o problema de sequenciamento abordado no trabalho:

(a) Ao ocorrer o evento de chegada de uma nova ordem, uma vez que o processamento é

iniciado, não se interrompe o trabalho que está sendo executado até que o mesmo seja

concluído. Deste modo, o re-sequenciamento ocorre no momento em que esta tarefa é

finalizada, conforme exposto na Figura 1.

(b) A quantidade de chegadas de tarefas após o começo da programação foi gerada

aleatoriamente entre 20 e 50 por cento da totalidade dos trabalhos do sequenciamento inicial.

(c) O tempo de chegada de cada novo pedidos também é gerado de forma randômica, não

ultrapassando o maior tempo de processamento entre as tarefas existentes. A partir destes

dados, cria-se uma lista com a somatória dos tempos de chegada das novas encomendas,

juntamente com a informação de qual tarefa será inserida em cada posição durante o processo

de produção.

Figura 1: O novo sequenciamento é realizado conforme descrito no item (a).

Com os dados supracitados, a simulação é proposta como segue.

Algoritmo de Novas Chegadas (NC):

Passo 0: Com os tempos de processamento, os tempos de setup e a quantidade inicial de

tarefas para o processamento, calcula-se o sequenciamento inicial através da modelagem

matemática proposta para o problema.

Passo 1: Cria-se uma lista para organizar o sequenciamento final da simulação.

Passo 2: Verifica-se o instante de término de cada tarefa do sequenciamento anterior. Se este

possuir tempo inferior do que o próximo evento ocorrido, a tarefa é levada para a lista final.

Passo 3: Aquelas tarefas do sequenciamento anterior que não são enviadas para a lista final,

são re-sequenciadas juntamente com os novos pedidos que chegam à programação até o

instante de término da última tarefa que foi finalizada no processo anterior.

Passo 4: Volta-se ao Passo 2 enquanto existirem novas chegadas de trabalhos no processo.

V Simposio de Metodos Numericos Computacionais

271

5 RESULTADOS COMPUTACIONAIS

O modelo matemático foi codificado na linguagem Visual Basic Studio 2012 e implementado

no software de otimização CPLEX com o auxílio da biblioteca Concert. O modelo e a

simulação efetuada para tal tiveram seus testes computacionais realizados em um computador

com processador Intel® Core™ i3 3227 U 1.9 GHz, com 4 GB de RAM.

Para tal implementação foram consideradas 10 tarefas a serem sequenciadas inicialmente.

Como os testes de simulação gerados efetuam inserções numa quantidade de 20 a 50 por

cento das tarefas do começo da programação, analisaram-se novas entradas de 2, 3 4 e 5

tarefas, respectivamente. Cada um desses experimentos foi testado 30 vezes. A geração de

quais tarefas fazem parte do novo pedido dos clientes e em que momento esses trabalhos

chegam ao sequenciamento ocorre de forma estocástica.

O sequenciamento inicial possui o makespan igual a 801. Na Tabela 1, verificam-se a média

e o desvio padrão do aumento nos valores do makespan encontrados após 30 testes de cada

uma das inserções supracitadas bem como a porcentagem do limite inferior e superior do

acréscimo no tempo total de término das tarefas em cada nova chegada. Tabela 1: Média, desvio padrão e porcentagem dos limites inferior e superior do aumento do makespan em cada

inserção.

Em seguida, os gráficos observados nas Figuras 2, 3, 4 e 5 representam os 30 testes

realizados para as novas chegadas obtidas no sequenciamento. Em cada uma das inserções, os

pontos denotam o acréscimo do valor do makespan dos testes efetuados quando comparado

ao makespan do problema original. A linha representa o valor médio exposto na Tabela 1em

cada um dos casos.

Figura 2: Apresentação dos testes que representam o acréscimo do makespan com 2 tarefas inseridas no

sequenciamento e a média desses valores.

V Simposio de Metodos Numericos Computacionais

272

Figura 3: Apresentação dos testes que representam o acréscimo do makespan com 3 tarefas inseridas no

sequenciamento e a média desses valores.

Figura 4: Apresentação dos testes que representam o acréscimo do makespan com 4 tarefas inseridas no

sequenciamento e a média desses valores.

Figura 5: Apresentação dos testes que representam o acréscimo do makespan com 5 tarefas inseridas no

sequenciamento e a média desses valores.

6 CONSIDERAÇÕES FINAIS

Ao fim da análise dos resultados computacionais, muitas informações relevantes são

adquiridas para auxiliar pesquisas futuras: a média, o desvio padrão, e os limites inferior e

superior do acréscimo do makespan original são alguns dos dados que podem oferecer

resultados significativos.

Posteriormente, novos testes serão realizados com diferentes quantidades de tarefas no

sequenciamento, além de testes com variabilidade de inserções e desistências. A análise do

fator de impacto do tempo de setup entre as tarefas quando comparado ao tempo de

processamento das mesmas também pode retornar resultados positivos.

A avaliação dos dados já existentes, juntamente com os testes que serão realizados, fornece

uma comparação entre a simulação efetiva e aplicações de heurísticas simples para contrapor

os benefícios de cada uma dessas propostas.

V Simposio de Metodos Numericos Computacionais

273

REFERÊNCIAS

AKKAN C., Improving schedule stability in single-machine rescheduling for new operation

insertion. Computers & Operations Research, 64:198-209, 2015.

ALLAHVERDI L., AYDILEK H., AYDILEK A., Single machine scheduling problem with

interval processing times to minimize mean weighted completion time. Computers &

Operations Research, 51:200-207, 2014.

AYTUG H., LAWLEY M., MCKAY K., MOHAN S., UZSOY R., Executing production

schedules in the face of uncertainties: a review and some future directions. European Journal

of Operations Research, 161:86–110, 2005.

CHEN T.C.E., LIU C.Y., LEE W.C., JI M., Two-agent single-machine scheduling to

minimize the weighted sum of the agents’ objective functions. Computers & Industrial

Engineering, 78:66-73, 2014.

GEORGIADIS P., MICHALOUDIS C., Real-time production planning and control system

for job-shop manufacturing: A system dynamics analysis. European Journal of Operational

Research, 216:94-104, 2012.

GONZÁLEZ M.A., VELA C.R., An efficient memetic algorithm for total weighted tardiness

minimization in a single machine with setups. Applied Soft Computing, 37:506-518, 2014.

HERR O., GOEL A., Minimising total tardiness for a single machine scheduling problem

with family setups and resource constraints. European Journal of Operational Research,

248:123-135, 2016.

JIA Z.H., LEUNG J. Y.T., An improved meta-heuristic for makespan minimization of a

single batch machine with non-identical job sizes. Computers & Operations Research, 46:49-

58, 2014.

KAPLANOGLU V., Multi-agent based approach for single machine scheduling with

sequence-dependent setup times and machine maintenance. Applied Soft Computing, 23:165-

179, 2014.

KESHAVARZ T., SAVELSBERGH M., SALMASI N., A branch-and-bound algorithm for

the single machine sequence-dependent group scheduling problem with earliness and

tardiness penalties. Applied Mathematical Modelling, 2015.

KONONOV A.V., LIN B.M.T., FANG K.T., Single-machine scheduling with supporting

tasks. Discrete Optimization, 17:69-79, 2015.

KHOWALA K., FOWLER J., KEHA A., BALASUBRAMANIAN H., Single machine

scheduling with interfering job sets. Computers & Operations Research, 45:97-107, 2014.

LI Z., CHEN H., XU R., LI X., Earliness–tardiness minimization on scheduling a batch

processing machine with non-identical job sizes. Computers & Industrial Engineering,

87:590-599, 2015.

OUELHADJ D., PETROVIC S., A survey of dynamic scheduling in manufacturing systems.

Journal of Scheduling, 12:417–31, 2009.

VIEIRA G.E., Herrmann JW, Lin E. Rescheduling manufacturing systems: a framework of

strategies, policies, and methods. Journal of Scheduling, 6:39–62, 2003.

V Simposio de Metodos Numericos Computacionais

274

V Simposio de Metodos Numericos Computacionais

PREVISÃO DE SÉRIES FINANCEIRAS: UM ESTUDO BASEADO NA

ANÁLISE DE DADOS EM PAINEL

Resumo: Este estudo tem como objetivo prever o preço das ações da carteira teórica

composta pelas empresas integrantes do IBrX-50 utilizando o modelo de análise de dados em

painel. Para isso pesquisou-se a literatura relacionada ao método de previsão, bem como

aquela que tange o mercado acionário e seu mecanismo de funcionamento. Em relação aos

procedimentos metodológicos foram pesquisadas 23 empresas componentes do índice IBrX-

50 listadas na BM&FBovespa desde ao menos 2014. A variável utilizada em todas as análises

foi o preço de fechamento da ação do último dia de cada mês (portanto dados mensais) e o

período de análise corresponde aos anos de 2004 até 2014, sendo 10 anos (2004-2013) para

análise e 2014 para realizar as previsões. Com a realização do estudo percebeu-se que o

método multivariado de análise de dados em painel se mostrou eficiente para efetuar

previsões de séries financeiras.

Palavras-Chave: Análise de dados em painel, séries financeiras, preço de ações, IBrX-50.

1 INTRODUÇÃO

O desenvolvimento das sociedades está intimamente relacionado com o mercado financeiro,

visto que é por meio de seus componentes que a transferência de recursos é viabilizada. Os

mercados acionários constituem uma subdivisão importante do mercado de capitais, pois

executam tarefas vitais na economia, como por exemplo auxílio no processo de alocação de

recursos financeiros, oportunidades de investimentos para agentes superavitários, e

oportunidades de obtenção de capital para empresas que têm projeto de investimento com

valor presente líquido positivo (Bruni, 1998).

A forma de ação dos investidores, bem como o funcionamento do mercado acionário sempre

foram relevantes e constantes temas de pesquisa. Nesse sentido, a Teoria de Finanças sofreu

alterações profundas com o passar do último meio século. Nesse processo de evolução, a

teoria em questão incorporou técnicas e expressões exóticas, aparentemente incomum ao

mercado financeiro, como por exemplo: redes neurais, teoria do caos, fractais e algoritmos

genéticos. Sendo assim, observa-se que as ciências exatas, como a matemática e a física,

ligam-se cada vez mais aos estudos financeiros (Bruni, 1998).

No mercado de capitais, as ações proporcionam aos investidores participação proporcional no

fluxo de caixa da empresa, ou seja, a empresa se compromete a pagar, de forma periódica,

Nayane Thais Krespi Musial, Anselmo Chaves Neto

275

dividendos proporcionais ao seu portador. Este mercado é interessante para a empresa, visto

que a movimentação de ações no mercado (emissão e venda) permite que esta capte recursos

financeiros e aplique em investimentos produtivos (Antunes et al., 2002).

Logo, o objetivo deste artigo é prever o preço das ações da carteira teórica composta pelas

empresas integrantes do IBrX-50 utilizando análise de dados em painel.

2 CARTEIRA DE AÇÕES

O mercado financeiro tem grandes preocupações com a maneira como um investidor poderia

decidir da melhor forma possível sua composição de investimentos, analisando em relação

aos retornos esperados e aos riscos incorridos. O investidor sempre busca maximizar os

retornos e minimizar os riscos, o que torna essa a decisão ótima (Kritzman, 1992).

A forma de composição dos investimentos é realizada entre escolhas acerca do risco e do

retorno, ou seja, um investidor pode escolher entre vários conjuntos de diferentes ações,

denominado carteira de ações. Portanto, o investidor pode decidir como aplicar seus recursos,

distribuindo-os entre diferentes ativos de retornos e riscos desiguais. (BRUNI, 1998). Dessa

forma, Sharpe, Alexander, Bailey (1995) definem carteira de ações (ou carteira de mercado)

como um portfólio formado por todos os ativos no qual a proporção investida em cada ativo

corresponde ao seu valor relativo de mercado.

A partir deste momento, vale definir a teoria desenvolvida por Markowitz designada por

Moderna Teoria de Portfólios. Esta teoria, segundo o próprio Markowitz (1952), apresenta o

risco como fator inerente às decisões de investimento, de forma a contrariar o senso comum,

que é concentrar os recursos em um único ativo de maior retorno esperado. Define-se

portfólio como “uma carteira de títulos que contém ações, obrigações, mercadorias,

investimentos em imóveis, investimentos em títulos de liquidez imediata ou outros ativos de

um investidor pessoa física ou institucional.” (Downes et al., 1993, p. 385).

Ainda segundo Markowitz (1952), a principal conclusão que se obtém a partir de sua teoria é

que um investidor, ao analisar um ativo, não deve estar preocupado somente com o seu risco

individual, mas sim, na contribuição deste ao risco total do portfólio. Essa é a ideia de

diversificação, introduzida pelo autor, e até aquele momento, contestada por pensadores

influentes da época. Por volta de 20 anos depois da publicação de seu trabalho Markowitz

praticamente extinguiu as concepções ingênuas acerca da diversificação, mostrando que não

“bastava colocar os ovos em vários cestos diferentes e, quanto maior o número de cestos,

maior a segurança.” (Bruni, 1998, p. 44).

Conforme as ideias expostas por Markowitz (1952) uma diversificação feita de forma

apropriada e correta pode reduzir os riscos inerentes ao mercado acionário. Um exemplo

simples dessa ideia é, se aumentar o preço do petróleo prejudica os resultados de uma

empresa de aviação, o investidor poderia reduzir esse risco (exposto no preço da ação), por

meio da compra de ações de uma empresa petrolífera (a qual teria melhora nos seus

resultados pelo fato do preço do petróleo estar em alta).

3 ANÁLISE DE DADOS EM PAINEL

O modelo de dados em painel envolve, em sua análise, dados provenientes de várias cross-

sections ao longo do tempo. Em outras palavras, é um modelo capaz de analisar

simultaneamente diversas informações em vários períodos de tempo (Fávero et al., 2014). É

importante salientar que a principal vantagem da análise de dados em painel, apontada por

Marques (2000), é a possibilidade de controlar a heterogeneidade individual, que em outras

palavras quer dizer, a possibilidade de se medir separadamente os efeitos gerados por conta

V Simposio de Metodos Numericos Computacionais

276

de diferenças existentes em cada observação em cada cross-section.

A diversidade de modelos de dados em painel existentes atualmente é vasta. Todavia, a

divisão básica entre esses modelos se dá separando-os em dois grupos: i) modelos de efeitos

fixos; e ii) modelos de efeitos aleatórios. Apesar da nomenclatura, tanto os modelos de efeitos

fixos quanto os modelos de efeitos aleatórios possuem efeitos, no nível individual (empresas),

aleatórios (Greene, 2007).

O modelo geral que descreve os dados em painel é dado por:

onde: denota os diferentes indivíduos;

denota o período de tempo que está sendo analisado;

refere-se ao parâmetro de intercepto; e

refere-se ao coeficiente angular correspondente a k-ésima variável explicativa do

modelo.

A forma matricial do modelo é dada por:

onde: e são vetores de dimensão (T x 1) e contém, respectivamente, as T variáveis

dependentes e os T erros;

é uma matriz de dimensão (K x T|) com as variáveis explicativas do modelo;

é a matriz dos parâmetros a serem estimados.

É fácil verificar que, para este modelo, o intercepto e os parâmetros resposta diferem para

cada indivíduo e para cada período de tempo. Sendo assim, tem-se mais valores

desconhecidos do que observações, o que torna impossível estimar esses parâmetros. Para

tanto, faz-se necessário especificar suposições acerca do modelo geral, (01) ou (02), com o

intuito de torná-lo estimável operacionalmente (Duarte et al., 2008).

Ainda segundo os autores supra citados, existem três modelos que são os mais utilizados

quando se trata de mesclar dados de séries temporais e dados de corte transversal. São eles: i)

Modelo de Regressões Aparentemente Não-Relacionadas; ii) Modelos de Efeitos Fixos; e iii)

Modelos de Efeitos Aleatórios.

4 PROCEDIMENTOS METODOLÓGICOS

A população de pesquisa compreende todas as empresas que compunham o índice IBRX-50

V Simposio de Metodos Numericos Computacionais

277

da BM&FBovespa no 1º quadrimestre (janeiro – abril) de 2015, perfazendo um total de 50

empresas. Integram esse grupo empresas pertencentes aos diversos setores econômicos da

bolsa.

Conforme a própria definição do índice IBRX-50, 50 empresas compõem a população da

presente pesquisa. Por sua vez a amostra da pesquisa é composta por 23 empresas, as demais

empresas foram retiradas da amostra por falta de dados disponíveis para análise.

Os dados utilizados na presente pesquisa foram obtidos por meio da base de dados Thomson.

Para alguns esclarecimentos adicionais, foram também consultadas às demonstrações

contábeis disponibilizadas no endereço eletrônico da BM&FBovespa. Por fim, o período de

análise da variável de pesquisa é de 11 anos, iniciando em 2004 e findando em 2014. Dessa

forma, cada empresa analisada terá 132 dados coletados, sendo 12 de cada ano multiplicado

por 11 anos.

Além disso, para proceder a análise clássica de dados em painel, necessita-se de uma variável

dependente e ao menos uma variável independente. No caso do presente estudo, tem-se

apenas uma variável em análise, preço de ação. Para resolver esse impasse, recorreu-se ao

modelo de Koyck, cuja ideia é utilizar um dado passado na equação atual, em outras palavras,

no modelo original a variável dependente passa a ser uma variável independente no

momento que calcula-se .

Na adaptação proposta, a ideia é justamente considerar , que seria uma variável

dependente, como uma variável independente no modelo em que é a variável dependente.

Então, em outras palavras, tem-se o preço da ação no período anterior como variável

independente e o preço da ação no período atual como variável dependente. O software

STATA será utilizado no procedimento de análise de dados em painel. Da mesma forma que

nas etapas anteriores calcula-se o erro. E, por fim, será comparado os erros obtidos pelos três

métodos de previsão.

5 DISCUSSÃO DOS RESULTADOS

A Tabela 1 mostra os resultados obtidos na previsão do preço das ações do ano de 2014, mês

a mês para cada empresa integrante da amostra. Vale ressaltar que o método utilizado para

proceder essa análise foi análise de dados em painel.

Tabela 1: Resultados da previsão do preço das ações

BRADESCO BRADESPAR

Mês/2014 Preço

Observado

Preço

Previsto

Preço

Observado

Preço

Previsto

Janeiro 0,1286 0,12865 0,10927 0,10959

Fevereiro 0,1344 0,13433 0,10431 0,10470

Março 0,1538 0,15349 0,09614 0,09665

Abril 0,1639 0,16337 0,09424 0,09477

Maio 0,1539 0,15359 0,09073 0,09131

Junho 0,1581 0,15774 0,09900 0,09946

Julho 0,1710 0,17038 0,11278 0,11304

Agosto 0,2022 0,20115 0,10000 0,10045

Setembro 0,1721 0,17152 0,08732 0,08796

Outubro 0,1846 0,18376 0,08140 0,08213

Novembro 0,1958 0,19483 0,07308 0,07393

Dezembro 0,1732 0,17260 0,06917 0,07008

Erro quadrático médio 0,0000003718 - 0,0000003407

V Simposio de Metodos Numericos Computacionais

278

BRASIL BRASKEM

Mês/2014 Preço

Observado

Preço

Previsto

Preço

Observado

Preço

Previsto

Janeiro 0,10221 0,10262 0,06962 0,07052

Fevereiro 0,10125 0,10168 0,06251 0,06351

Março 0,11178 0,11206 0,06757 0,06850

Abril 0,11484 0,11507 0,05764 0,05872

Maio 0,11163 0,11191 0,05694 0,05803

Junho 0,12206 0,12218 0,05388 0,05501

Julho 0,13644 0,13635 0,05153 0,05269

Agosto 0,17288 0,17226 0,05464 0,05576

Setembro 0,12431 0,12440 0,05614 0,05724

Outubro 0,13649 0,13640 0,06401 0,06499

Novembro 0,14612 0,14588 0,06486 0,06583

Dezembro 0,11664 0,11685 0,05163 0,05279

Erro quadrático médio 0,0000000910 - 0,0000011125

BRF S/A CCR S/A

Mês/2014 Preço

Observado

Preço

Previsto

Preço

Observado

Preço

Previsto

Janeiro 0,21424 0,21300 0,07539 0,07620

Fevereiro 0,21263 0,21142 0,07810 0,07887

Março 0,22456 0,22317 0,08481 0,08549

Abril 0,25063 0,24886 0,08496 0,08563

Maio 0,23915 0,23755 0,08556 0,08623

Junho 0,26516 0,26318 0,08772 0,08835

Julho 0,27569 0,27355 0,08692 0,08756

Agosto 0,29774 0,29528 0,09905 0,09951

Setembro 0,28942 0,28708 0,08160 0,08233

Outubro 0,32075 0,31795 0,08997 0,09057

Novembro 0,33033 0,32738 0,08596 0,08662

Dezembro 0,31549 0,31276 0,07474 0,07556

Erro quadrático médio 0,0000045616 - 0,0000004681

CEMIG CIA HERING

Mês/2014 Preço

Observado

Preço

Previsto

Preço

Observado

Preço

Previsto

Janeiro 0,06732 0,06825 0,13183 0,13181

Fevereiro 0,06481 0,06578 0,12231 0,12243

Março 0,07393 0,07477 0,13474 0,13467

Abril 0,08266 0,08336 0,11559 0,11581

Maio 0,07559 0,07640 0,10652 0,10687

Junho 0,07840 0,07916 0,10897 0,10929

Julho 0,09008 0,09067 0,10336 0,10376

Agosto 0,09353 0,09408 0,13779 0,13769

Setembro 0,07263 0,07349 0,12181 0,12193

Outubro 0,06882 0,06973 0,12281 0,12292

Novembro 0,06807 0,06899 0,12005 0,12020

Dezembro 0,06336 0,06435 0,09900 0,09946

Erro quadrático médio 0,0000006907 - 0,0000000612

GERDAU ITAUSA

Mês/2014 Preço

Observado

Preço

Previsto

Preço

Observado

Preço

Previsto

Janeiro 0,08346 0,08415 0,13549 0,13542

Fevereiro 0,06987 0,07077 0,13980 0,13966

Março 0,07028 0,07116 0,15198 0,15166

Abril 0,06451 0,06548 0,16516 0,16465

Maio 0,06431 0,06529 0,15654 0,15616

V Simposio de Metodos Numericos Computacionais

279

Junho 0,06236 0,06336 0,15774 0,15734

Julho 0,06441 0,06539 0,17343 0,17280

Agosto 0,06246 0,06346 0,19980 0,19878

Setembro 0,05654 0,05763 0,16727 0,16673

Outubro 0,05308 0,05422 0,18170 0,18095

Novembro 0,05213 0,05329 0,19098 0,19009

Dezembro 0,04551 0,04677 0,17093 0,17033

Erro quadrático médio 0,0000010286 - 0,0000003463

ITAUUNIBANCO KLABIN S/A

Mês/2014 Preço

Observado

Preço

Previsto

Preço

Observado

Preço

Previsto

Janeiro 0,03584 0,03724 0,00987 0,01165

Fevereiro 0,03619 0,03758 0,00912 0,01091

Março 0,03965 0,04099 0,00917 0,01096

Abril 0,04216 0,04346 0,00902 0,01081

Maio 0,04030 0,04163 0,00847 0,01027

Junho 0,04105 0,04237 0,00847 0,01027

Julho 0,04506 0,04632 0,00877 0,01057

Agosto 0,05213 0,05329 0,00882 0,01062

Setembro 0,04396 0,04524 0,00937 0,01116

Outubro 0,04707 0,04830 0,00962 0,01141

Novembro 0,05003 0,05121 0,01098 0,01274

Dezembro 0,04456 0,04583 0,01193 0,01368

Erro quadrático médio 0,0000016647 - 0,0000031876

LOJAS AMERICANAS OI

Mês/2014 Preço

Observado

Preço

Previsto

Preço

Observado

Preço

Previsto

Janeiro 0,05644 0,05753 0,20652 0,20539

Fevereiro 0,05554 0,05664 0,17744 0,17675

Março 0,06456 0,06553 0,15389 0,15354

Abril 0,06521 0,06618 0,10476 0,10514

Maio 0,06411 0,06509 0,09474 0,09526

Junho 0,06817 0,06909 0,09524 0,09576

Julho 0,06992 0,07082 0,07118 0,07205

Agosto 0,07689 0,07768 0,07018 0,07107

Setembro 0,06712 0,06805 0,08471 0,08539

Outubro 0,07078 0,07166 0,06266 0,06366

Novembro 0,08231 0,08302 0,06667 0,06761

Dezembro 0,08391 0,08460 0,04065 0,04198

Erro quadrático médio 0,0000008456 - 0,0000006840

PETROBRAS SABESP

Mês/2014 Preço

Observado

Preço

Previsto

Preço

Observado

Preço

Previsto

Janeiro 0,06652 0,06746 0,05358 0,05472

Fevereiro 0,06261 0,06361 0,04877 0,04998

Março 0,07248 0,07334 0,04682 0,04805

Abril 0,07584 0,07665 0,04040 0,04173

Maio 0,07639 0,07719 0,04055 0,04188

Junho 0,07890 0,07966 0,04461 0,04588

Julho 0,08767 0,08830 0,05489 0,05600

Agosto 0,10847 0,10880 0,04672 0,04795

Setembro 0,08396 0,08465 0,04110 0,04242

Outubro 0,07093 0,07181 0,03885 0,04020

Novembro 0,05840 0,05946 0,02787 0,02938

Dezembro 0,04556 0,04682 0,02546 0,02701

Erro quadrático médio 0,0000007453 - 0,0000017024

V Simposio de Metodos Numericos Computacionais

280

SID NACIONAL SOUZA CRUZ

Mês/2014 Preço

Observado

Preço

Previsto

Preço

Observado

Preço

Previsto

Janeiro 0,10907 0,10939 0,10381 0,10381

Fevereiro 0,10526 0,10564 0,09991 0,09991

Março 0,10326 0,10366 0,10119 0,10119

Abril 0,10336 0,10376 0,09996 0,09996

Maio 0,10667 0,10702 0,11280 0,11280

Junho 0,11554 0,11576 0,11191 0,11191

Julho 0,09820 0,09867 0,10346 0,10346

Agosto 0,10471 0,10509 0,10297 0,10297

Setembro 0,09664 0,09714 0,09675 0,09675

Outubro 0,09469 0,09522 0,09833 0,09833

Novembro 0,09378 0,09433 0,10070 0,10070

Dezembro 0,08276 0,08346 0,09487 0,09487

Erro quadrático médio 0,0000002019 - 0,0000001854

SUZANO PAPEL TELEF BRASIL

Mês/2014 Preço

Observado

Preço

Previsto

Preço

Observado

Preço

Previsto

Janeiro 0,04521 0,04647 0,22742 0,22599

Fevereiro 0,04201 0,04331 0,21293 0,21172

Março 0,03950 0,04084 0,23825 0,23666

Abril 0,03393 0,03536 0,23228 0,23078

Maio 0,03794 0,03931 0,22181 0,22046

Junho 0,03955 0,04089 0,22306 0,22169

Julho 0,04160 0,04292 0,22607 0,22466

Agosto 0,04216 0,04346 0,23734 0,23577

Setembro 0,04682 0,04805 0,24010 0,23848

Outubro 0,04992 0,05111 0,25118 0,24940

Novembro 0,05203 0,05319 0,26070 0,25878

Dezembro 0,05388 0,05501 0,23233 0,23083

Erro quadrático médio 0,0000016462 - 0,0000023476

TIM PART S/A USIMINAS

Mês/2014 Preço

Observado

Preço

Previsto

Preço

Observado

Preço

Previsto

Janeiro 0,06085 0,06188 0,05714 0,05823

Fevereiro 0,05494 0,05605 0,04647 0,04771

Março 0,05689 0,05798 0,04877 0,04998

Abril 0,05815 0,05921 0,04120 0,04252

Maio 0,05845 0,05951 0,03704 0,03842

Junho 0,06226 0,06326 0,03549 0,03689

Julho 0,05774 0,05882 0,03784 0,03921

Agosto 0,06040 0,06144 0,03800 0,03936

Setembro 0,06211 0,06311 0,02942 0,03091

Outubro 0,06501 0,06598 0,02607 0,02761

Novembro 0,05995 0,06099 0,02356 0,02514

Dezembro 0,05654 0,05763 0,02281 0,02440

Erro quadrático médio 0,0000011005 - 0,0000000000

VALE

Mês/2014 Preço

Observado

Preço

Previsto

Janeiro 0,14787 0,14761

Fevereiro 0,14331 0,14312

Março 0,13960 0,13946

Abril 0,12993 0,12993

Maio 0,12602 0,12608

V Simposio de Metodos Numericos Computacionais

281

Junho 0,12957 0,12959

Julho 0,14351 0,14332

Agosto 0,12767 0,12771

Setembro 0,11669 0,11690

Outubro 0,10551 0,10588

Novembro 0,09774 0,09823

Dezembro 0,09388 0,09442

Erro quadrático médio 0,0000000721

Conforme evidenciado na Tabela 1, os erros quadráticos médios são pequenos de forma a

mostrar que o método de análise de dados em painel é eficiente para prever preço de ações.

Destaca-se que a melhor previsão ocorreu para a empresa USIMINAS que apresentou erro

quadrático médio de 0,0000000000.

Em contrapartida a previsão menos acurada, ou seja, aquela que apresentou maior erro

quadrático médio foi da empresa BRF S/A, sendo 0,0000045616. A Tabela 2 apresenta um

ranking dos erros quadráticos médios de cada uma das 23 empresas pesquisadas.

Tabela 2: Ranking dos erros quadráticos médios

Empresa Erro quadrático médio

Usiminas 0,0000000000

Cia Hering 0,0000000612

Vale 0,0000000721

Brasil 0,0000000910

Souza Cruz 0,0000001854

Sid Nacional 0,0000002019

Bradespar 0,0000003407

Itausa 0,0000003463

Bradesco 0,0000003718

CCR S/A 0,0000004681

OI 0,0000006840

CEMIG 0,0000006907

Petrobras 0,0000007453

Lojas Americanas 0,0000008456

Gerdau 0,0000010286

Tim Part S/A 0,0000011005

Braskem 0,0000011125

Suzano Papel 0,0000016462

ItauUnibanco 0,0000016647

SABESP 0,0000017024

Telef Brasil 0,0000023476

Klabin S/A 0,0000031876

BRF S/A 0,0000045616

A Tabela 3 apresenta o erro médio global obtido a partir do modelo utilizado para fazer as

previsões. Esse erro foi obtido fazendo a média aritmética entre os erros médios quadráticos

obtidos para cada empresa.

Tabela 3: Erro quadrático médio global

Método Erro quadrático médio

Dados em Painel 0,0000010198

V Simposio de Metodos Numericos Computacionais

282

Conforme evidenciado na Tabela 2, o modelo de dados em painel tem erro quadrático médio

com valor de 0,0000010198. Sendo assim, é fácil verificar que este é um modelo que pode

ser considerado preciso, mesmo sendo multivariado. O fato de o resultado obtido ser

considerado bom, corrobora com a ideia de diversificação de Markowitz (1952), pois parece

que o modelo multivariado é mais sensível a oscilações.

6 CONCLUSÕES

Este trabalho teve como objetivo geral prever o preço das ações da carteira teórica composta

pelas empresas integrantes do IBrX-50 utilizando análise de dados em painel.

Para tanto utilizou-se 23 empresas que compõem o índice IBRX-50 e que estavam listadas na

BM&FBovespa desde ao menos 2004. A variável analisada é o preço de fechamento da ação

do último dia útil de cada mês. E a tese do trabalho, está justamente em admitir que uma

previsão realizada de forma multivariada seria mais precisa do que as formas univariadas

tradicionais de fazer isso. Esta tese tem por base a Teoria de Markowitz (1952) que defende a

diversificação das carteiras de ações.

Por fim evidenciou-se que que o método de análise de dados em painel (multivariado)

apresentou um desempenho bastante satisfatório. Portanto, ao fim, confirma-se parcialmente

a tese da pesquisa, de que o modelo multivariado é também eficiente, ou até melhor que

modelos univariados, para prever o preço das ações da carteira teórica composta pelas

empresas integrantes do IBRX-50. E, ainda pode-se afirmar que a teoria de Markowitz (1952)

que sugere diversificação das carteiras foi comprovada por meio de pesquisa empírica.

REFERÊNCIAS

ANTUNES, M. A., PROCIANOY, J. L. Os efeitos das decisões de investimento das

empresas sobre os preços de suas ações no mercado de capitais. Revista de Administração, v.

38, n. 1, p. 5-14, 2002.

BRUNI, A. L. Risco e equilíbrio: uma análise do modelo de precificação de ativos

financeiros na avaliação de ações negociadas na Bovespa (1988-1996). 1998. 163 f.

Dissertação (mestrado) – Faculdade de Economia, Administração e Contabilidade,

Universidade de São Paulo, São Paulo, 1998.

DOWNES, J., GODMAN, J. E. Dicionário de termos financeiros e de investimento. São

Paulo: Nobel, 1993.

DUARTE, P. C., LAMOUNIER, W. M., COLAUTO, R. D. Modelos econométricos para

dados em painel: aspectos teóricos e exemplos de aplicação à pesquisa em contabilidade e

finanças. In: LOPES, J., RIBEIRO FILHO, J. F., PEDERNEHIRAS, M. (eds.), Educação

Contábil: Tópicos de Ensino e Pesquisa. São Paulo, Atlas, p. 256-274, 2008. Disponível em

<http://disciplinas.stoa.usp.br/pluginfile.php/176819/mod_resource/content/1/Artigo%20-

%20Modelos%20e m %20Painel.pdf>. Acesso em 26/01/15.

FÁVERO, L. P., BELFIORE, P., TAKAMATSU, R.T; SUZART, J. Métodos quantitativos

com Stata®. Rio de Janeiro: Elsevier, 2014.

GREENE, W. H. Econometric analysis. 6. ed Upper Saddle River: Prentice Hall, 2007.

KRITZMAN, M. What Practitioners Need To Know ... About Duration and Convexity.

Financial Analysts Journal, maio/junho, p. 17- 20, 1992.

MARKOWITZ, H. Portfolio selection. Journal of Finance, junho, pp. 77 – 91, 1952.

V Simposio de Metodos Numericos Computacionais

283

MARQUES, L. D. Modelos dinâmicos com dados em painel: revisão da literatura. Série

Working Papers do Centro de Estudos Macroeconômicos e Previsão (CEMPRE) da

Faculdade de Economia do Porto, Portugal, nº 100, 2000.

SHARPE, W. F., ALEXANDER, G. J., BAILEY, J. V. Investments. 5th ed. New Jersey:

Prentice-Hall, Englewood, 1995.

V Simposio de Metodos Numericos Computacionais

284

V Simposio de Metodos Numericos Computacionais

Uma proposta de estabilização do MEFG com enriquecimentotrigonométrico para Análise Modal

Resumo: No contexto da análise dinâmica de estruturas, uma das limitações do Método dos Elementos Finitos(MEF) é a dificuldade de aproximar as altas frequências. Essa falta de precisão se torna mais significativa a me-dida que os carregamentos excitem os modos com frequências mais altas. Visando abordar esse tipo de problemaé possível utilizar o Método dos Elementos Finitos Generalizados (MEFG) para enriquecer o espaço de aproxi-mação e representar melhor esses modos de alta frequência. Neste artigo será discutido o impacto da aplicaçãode enriquecimentos sucessivos na sensibilidade e na acurácia e será apresentada uma proposta de modificação dasfunções de enriquecimento para tratar problemas de sensibilidade.

Palavras-Chave: MEF, MEFG, Condicionamento, Análise Dinâmica

1 INTRODUÇÃO

O Método dos Elementos Finitos Generalizados (MEFG) é um método de Galerkin aplicado a sub-domínios. Nesse método são adicionadas funções de enriquecimento que refletem características parti-culares do problema que visam melhorar a qualidade da aproximação.

Com essa abordagem de enriquecimento, Arndt (2009) investigou a aplicação do MEFG na análisede vibrações livres de estruturas reticuladas. O estudo apresentou formulações variacionais para osproblemas de barra, vigas de Euler-Bernoulli e pórticos, bem como desenvolveu os respectivos elementosfinitos generalizados.

Os estudos de Arndt (2009) foram estendidos por Torii (2012) que aplicou o MEFG à análise modale transiente de barras, vigas de Euler-Bernoulli, pórticos, equação da onda bidimensional e estado planode tensões. Os exemplos apresentados demonstraram o potencial do MEFG para aplicações em análisedinâmica, principalmente para os casos em que os carregamentos excitam modos com frequências maiselevadas. É válido ressaltar que apesar dos resultados acurados e sucesso nas aplicações, foram relata-dos problemas no condicionamento dos problemas modelados pelo MEFG, sendo necessário o uso deprecisão numérica elevada (ARNDT, 2009) ou ajuste das funções de enriquecimento (TORII, 2012).

Baseando-se nesses trabalhos, Shang (2014) estende os estudos do MEFG a análise dinâmica elasto-plástica propondo soluções para as dificuldades numéricas presentes na abordagem por MEF. Os resulta-dos obtidos são bastante satisfatórios mas, no entanto, a problemática de sensibilidade numérica continuapresente.

Visando tratar os problemas de sensibilidade numérica que surgem na aplicação das propostas deenriquecimento, este artigo propõe uma sutil modificação nas funções utilizadas para análise unidimen-sional por Arndt (2009). Esta proposta se mostrou bastante eficaz, aumentando significativamente aestabilidade do método.

Paulo de Oliveira Weinhardt, MarcosArndt, Roberto Dalledone Machado

285

2 METODOLOGIA

O presente trabalho desenvolveu uma proposta de modificação visando a melhora da acurácia e daestabilidade da aplicação do MEFG com enriquecimentos trigonométricos em análise dinâmica, gerandomelhora nos resultados e aumento da aplicabilidade do método.2.1 Análise Dinâmica Modal

No contexto deste trabalho foi estudado um problema simples com solução analítica, possibilitandoassim a validação dos resultados, estudo de convergência de vibração uniaxial de barra e comparaçãodas abordagens adotadas.

Segundo Bathe (1996), a análise modal recai no seguinte problema de autovetores e autovalores ge-neralizado:

Kφ = ω2Mφ (1)

onde,

• K: matriz de rigidez;

• M : matriz de massa;

• ω: frequência natural;

• φ: vetor de modo de vibração natural.

As matrizes K e M estão associadas a discretização e aproximação por Elementos Finitos do Pro-blema Variacional de Valor de Contorno (PVVC) referente ao equilíbrio dinâmico do sistema. Ou seja,as matrizes K e M podem ser escritas como:

K = [kij] =

Ω

Φi,xΦj ,xdΩ (2)

M = [mij] =

Ω

ΦiΦjdΩ

sendo Φ as funções de interpolação,Φ,x, em notação indicial, sua primeira derivada e Ω o domínio globaldo problema.

2.1.1 Solução Analítica - Barra Bi-engastada

Com o intuito de avaliar a aproximação realizada, o presente trabalho se restringiu a aplicação em umproblema com solução analítica disponível. Para o caso unidimensional, o problema escolhido é expostoa seguir.

Considere-se uma barra engastada em ambas as extremidades, conforme ilustrado na Fig 1.

Figura 1: Barra bi-engastada.

V Simposio de Metodos Numericos Computacionais

286

O modelo resulta no seguinte problema elíptico de autovalores e autovetores, na forma forte:

d2u

dx2= −ω2 ρ

Eu(x) (3)

Sujeito às condições de contorno:

u(0) = 0 (4)u(L) = 0

A solução analítica é dada por:

ω =nπ

L

√ρ

E(5)

Esta solução é utilizada para normalizar as soluções aproximadas como:

ω =ωh

ω(6)

Considerando que o espectro de frequência independe das constantes, foram adotados: seção cons-tante unitária, parâmetros de material unitários e comprimento total unitário.

Analogamente, os graus de liberdade (n) são normalizados em função do número total de graus deliberdade (N ) como:

n =n

N(7)

Dessa forma, ao plotar ω × n, pode-se comparar os diferentes métodos com distintos números degraus de liberdade.2.2 Construção do Espaço de Aproximação do MEFG

O MEF pode ser visto como um caso particular do Método dos Elementos Finitos Partição da Unidade(MEFPU). Assim, as propriedades do MEF, e consequentemente do MEFG, são herdadas do MEFPU(MELENK, 1995). A seguir são estabelecidas as condições às quais a aproximação deve estar submetidapara que sejam válidas as propriedades da Partição da Unidade.

Partição da Unidade é um espaço topológico de funções φi subordinadas a uma cobertura Ωi ⊂IR que possuem as seguintes propriedades:

• suporteφi ⊂ −Ωi, ou seja φi tem suporte compacto em Ωi

• ∑iφi = 1 em Ω

Com a definição deste ente topológico pode-se estabelecer o conceito do espaço de aproximação doMEFPU.

Seja Ωi uma cobertura aberta de Ωi ⊂ IR e seja uma Partição da Unidade φi correspondente.Seja, ainda, um espaço Vi ⊂ H1(Ωi ∩ Ω). Então o espaço

VMEFPU =∑

i

φiVi (8)

é definido como espaço de aproximação do MEFPU.Com os conceitos pertinentes do MEFPU embasados, pode-se escrever que a solução aproximada do

MEFG é composta da soma de duas parcelas:

ueh = uMEF + uENR (9)

onde uMEF corresponde a parcela descrita pelas funções de aproximação clássicas do MEF e uENR

corresponde a aproximação feita pelas funções de enriquecimento que visam incorporar aspectos parti-culares do problema estudado.

V Simposio de Metodos Numericos Computacionais

287

2.3 Enriquecimento TrigonométricoPara o problema de vibração livre foi proposto por Arndt (2009) um conjunto de funções de enriqueci-

mento para o problema de análise dinâmica com o MEFG. Esse grupo de funções consiste na construçãode um par de nuvens, uma senoidal e uma cossenoidal, subordinadas a cobertura do nó enriquecido. Es-sas nuvens são escritas no domínio do elemento como dois pares de funções seno e cosseno. O domínioelementar é considerado para ξ ∈ (0,+1).

Nuvem senoidal:

γ1j = sen(βjLeξ) (10)γ2j = sen(βjLe(ξ − 1))

Nuvem cossenoidal:

ϕ1j = cos(βjLeξ)− 1 (11)ϕ2j = cos(βjLe(ξ − 1))− 1

Onde Le é o comprimento do elemento e βj = jπ é um parâmetro de enriquecimento hierárquicoproposto por Arndt (2009) para j níveis de funções.2.4 Pré condicionamento das funções de enriquecimento

O presente trabalho propõe uma alteração no grupo de funções de enriquecimento visando estabi-lizar sua aplicação sucessiva que visa evitar a construção de espaços de aproximação que tendem adependência linear. A modificação proposta, chamada de Modificação Heurística no escopo deste tra-balho, consiste basicamente na eliminação do parâmetro Le e um ajuste no parâmetro βj a cada novonível de enriquecimento de forma automática. A remoção de Le desvincula o formato das funções deenriquecimento do tamanho do elemento, facilitando o estudo da influência do parâmetro βj no condi-cionamento. Assim, as funções utilizadas na aplicações foram escritas no domínio de ξ ∈ (−1,+1) daseguinte forma:

Nuvem senoidal:

γ1j = sen(βj(ξ + 1)) (12)γ2j = sen(βj(ξ − 1))

Nuvem cossenoidal:

ϕ1j = cos(βj(ξ + 1))− 1 (13)ϕ2j = cos(βj(ξ − 1))− 1

Parâmetro βj

βj = (2j − 5

4)π (14)

3 RESULTADOS

O enriquecimento trigonométrico proposto por Arndt (2009) tem alta acurácia e garante independên-cia linear analítica entre cada nível de enriquecimento. No entanto, os testes apresentam uma dificuldadenumérica de avançar para níveis de enriquecimento mais altos sem utilizar uma precisão muito alta ecom grande dificuldade de integração numérica.

Baseando-se em diversos testes, resolveu-se tentar um processo de amortização do parâmetro βj aolongo de cada camada de enriquecimento. Esse processo consiste no descrito pela Eq.14.

Visando estudar as condições de sensibilidade das matrizes envolvidas no problema de autovalores eautovetores generalizado, foram medidos o números de condição da matriz de massa analítica e matrizde rigidez restritas referentes a aplicação de 10 níveis de enriquecimento em um elemento finito. O efeitoresultante desse processo de pré condicionamento é evidente, como pode ser visto na Fig.2 e na Fig.3.

V Simposio de Metodos Numericos Computacionais

288

Figura 2: Número de condição da Matriz de Massa para os dez primeiros níveis de enriquecimento -MEFG x Modificação Heurística

Figura 3: Número de condição da Matriz de Rigidez para os dez primeiros níveis de enriquecimento -MEFG x Modificação Heurística

Os resultados dos testes feitos até a 4a camada de enriquecimento em uma malha de 100 elementosfinitos são expostos nas Figs.4, 5 e 6. O 1o nível de enriquecimento foi omitido em razão das duasabordagens coincidirem para os parâmetros adotados. É possível notar que as diferenças de condiciona-mento das matrizes de massa e rigidez impactam na qualidade da aproximação do MEFG na análisemodal, comprometendo a acurácia em casos mal condicionados e podendo gerar modos espúrios.

V Simposio de Metodos Numericos Computacionais

289

Figura 4: Espectro normalizado de frequências - 2 níveis de enriquecimento - Modificação Heurística

Figura 5: Espectro normalizado de frequências - 3 níveis de enriquecimento - Modificação Heurística

Figura 6: Espectro normalizado de frequências - 4 níveis de enriquecimento - Modificação Heurística

Os testes apresentados até 4 níveis de enriquecimento em uma malha de 100 elementos finitos, atéonde a proposta não-modificada não apresenta modos espúrios, demonstram uma tendência de estabili-dade da alternativa. Com o intuito de testar a robustez da proposta, é apresentado na Fig. 7 o espectroreferente a aplicação de 50 níveis de enriquecimento com a utilização de precisão dupla. O erro obser-vado é bastante reduzido, mesmo para a última frequência (abaixo de 20%), e não foram encontradosmodos espúrios.

V Simposio de Metodos Numericos Computacionais

290

Figura 7: Espectro normalizado de frequências - 50 níveis de enriquecimento - Modificação Heurística

4 CONCLUSÕES

Neste trabalho foi apresentada uma proposta de modificação das funções de enriquecimento do MEFGaplicado a análise modal. As alterações, apesar de sutis, resultaram em ganho efetivo de condiciona-mento sem sacrificar a acurácia. A abordagem exige novos estudos para consolidação, principalmentecom uma adaptação da formulação, aplicação na análise transiente e extensão para domínios bidimen-sionais.

REFERÊNCIAS

Arndt M. O Método dos Elementos Finitos Generalizados Aplicado à Análise de Vibrações Livres deEstruturas Reticuladas. Tese de doutorado, Universidade Federal do Paraná, 2009.

Bathe K.J. Finite element procedures. Prentice-Hall, 1996.Melenk J.M. On generalized finite element methods. Ph.D. thesis, The University of Maryland, 1995.Shang Y.H. Análise dinâmica elastoplástica de problemas da mecânica de sólidos via métodos enrique-

cidos de elementos finitos. Tese de doutorado, Pontifícia Universidade Católica do Paraná, 2014.Torii A.J. Análise dinâmica de estruturas com o Método dos Elementos Finitos Generalizado. Tese de

doutorado, Universidade Federal do Paraná, 2012.

V Simposio de Metodos Numericos Computacionais

291

V Simposio de Metodos Numericos Computacionais

CONTROLE ATIVO DE VIBRAÇÕES UTILIZANDO LÓGICA FUZZY

EM UM ROTOR FLEXÍVEL COM ATUADORES

ELETROMAGNÉTICOS

Resumo: Nos últimos anos, novos métodos dedicados ao controle ativo de vibrações foram

desenvolvidos e propostos, com o objetivo de lidar com vários tipos de problemas da

dinâmica. Estas pesquisas são impulsionadas pela busca por um desempenho mais seguro e

eficiente nas operações dos sistemas mecânicos. Existem vários tipos de atuadores

disponíveis para o controle ativo de vibrações, mas o presente trabalho é dedicado ao Atuador

Eletromagnético. Este atuador utiliza forças eletromagnéticas para controlar o rotor sem o

contato mecânico. O atuador eletromagnético é representado por um modelo não-linear, o que

justifica o uso de controle utilizando Lógica Fuzzy. Neste trabalho é utilizado o modelo de

Takagi-Sugeno e o os controladores são obtidos utilizando o regulador linear quadrático.

Finalmente, os resultados da simulação demonstram a eficácia da metodologia.

Palavras-Chave: Controle Ativo de Vibrações, Atuador Eletromagnético, Lógica Fuzzy.

1 INTRODUÇÃO

Atualmente, observa-se um aumento de trabalhos de pesquisa em engenharia dedicada ao

desenvolvimento de técnicas de controle ativo de vibrações (AVC) (HURLEBAUS,

STÖBENER AND GAUL, 2008; RESTA, et al. 2010). No contexto da dinâmica do rotor,

SALDARRIAGA (2007) classifica as técnicas de AVC em duas categorias principais: o

controle ativo de vibrações, que consiste na aplicação de forças laterais que se oponha às

forças provocadas pela vibração e o equilíbrio ativo que consiste na redistribuição da massa

ao longo do rotor, com a participação de atuadores, de modo que o rotor possa ser

equilibrado.

Neste trabalho, o atuador eletromagnético (AEM) é usado para controlar o comportamento

dinâmico de um rotor flexível. Neste tipo de atuador a dificuldade tem a ver com a não

linearidade do atuador. Vários autores têm proposto alternativas diferentes para lidar com tal

situação. HAGOPIAN e MAHFOUD (2010) utilizaram o modelo inverso do atuador

eletromagnético para controlar um sistema de rotor e utilizaram a força de controle para

determinar a corrente elétrica que foi usada para acionar o AEM.

Além disso, CARDIM (2009) e GAINO (2009) utilizaram as desigualdades matriciais

lineares (LMIs) para montar reguladores fuzzy, considerando o modelo de Takagi-Sugeno

(TS), utilizaram a Lógica Fuzzy baseado em modelos locais para resolver sistemas não-

Daniel Almeida Colombo, Erik Taketa,Renan Franco Correa, Edson Hideki Koroishi

292

lineares. Esta metodologia é utilizada, na presente contribuição, para resolver o problema de

não-linearidade do AEM que é usado para controlar o sistema de rotor.

2 MODELO DO ROTOR

O modelo do rotor apresentado foi obtido utilizando 32 elementos de viga de Timoshenko,

sendo este modelo discretizado mostrado na Figura 1. Os discos D1 e D2 estão localizados

nos nós 13 e 22, os mancais M1 (Mancal Híbrido) e M2 nos nós 4 e 31 e considerados como

plano de medição o nó 8. Em (KOROISHI, et al. 2014) a equação do movimento de um rotor

flexível foi determinada utilizando o Método dos Elementos Finitos e é escrita na forma

matricial dada pela Equação 1:

[ ] [ ] [ ] )()()()()( tFtFtxKKtxCCtxM EMAuggb +=++++ (1)

onde x(t) é o vetor de deslocamentos generalizados; [M], [K], [Cb], [Cg] e [kg] são as

matrizes bem conhecidas de inércia, rigidez, amortecimento viscoso (que podem incluir

amortecimento proporcional), de Coriolis (com respeito à velocidade de rotação) e o efeito da

variação da velocidade de rotação; é a velocidade variável no tempo angular, e Fu (t) e

FEMA(t) são as forças devido ao desequilíbrio e ao AEM, respectivamente.

Figura 1: Esquema de Rotor, Adaptado de (KOROISHI, et al. 2014).

O mancal híbrido é composto de 4 atuadores eletromagnéticos, dois para cada direção de

controle (x e z). Os AEMs aplicam somente força de atração e cada atuador age

separadamente. A Figura 2a apresenta o modelo do mancal híbrido (mancal contendo os

quatro AEMs) e a Figura 2b apresenta o modelo esquemático de cada AEM.

Figura 2: (a) Mancal híbrido; (b) Circuito ferromagnético (KOROISHI, et al. 2014)

V Simposio de Metodos Numericos Computacionais

293

Tabela 1: Características físicas do sistema de rotor-rolamento, segundo KOROISHI, et al. (2014).

Rotor Mancal

Propriedade Valor Propriedade Valor

Massa do eixo (kg) 4,1481 kx1 (N/m) 7,73X105

Massa do disco D1 (kg) 2,6495 kz1 (N/m) 1,13X105

Massa do disco D2 (kg) 2,6495 kx2 (N/m) 5,51X108

Espessura do disco D1 (m) 0,1000 kz2 (N/m) 7,34X108

Espessura do disco D2 (m) 0,1000 Cx1 (N.s/m) 5,7876

Diâmetro do eixo (m) 0,0290 Cz1 (N.s/m) 12,6001

Módulo de Young (GN/m2) 205 Cx2 (N.s/m) 97,0231

Densidade (Kg/m3) 7850 Cz2 (N.s/m) 77,8510

Coeficiente de Poisson 0,3 - -

Os parâmetros que definem a geometria das bobinas (a, b, c, d e f) são mostrados na Figura

2(b); µ0 e µ é a permeabilidade magnética no vácuo e a permeabilidade relativa do material,

respectivamente. µr é determinado experimentalmente. A diferença é dada por e; δ é a

variação da folga devido à vibração do rotor na posição do AEM.

A Tabela 1 apresenta as propriedades físicas do rotor. Outras propriedades utilizadas para o

eixo são as seguintes: elásticas ou Módulo de Young (E) = 210 GN / m2, densidade = 7,800

kg / m3, e Coeficiente de Poisson = 0,3.

A força eletromagnética é dada pela Equação 2:

(2)

Parâmetros da bobina conforme KOROISHI et al. (2014): µ0=1.2566X10-6H/m,

µr=700H/m, N (número de espiras) = 250, a=9,5 mm, b=38,0 mm, c=28,5 mm, d= 9,5 mm, f

= 22,5 mm e=0,5 mm.

3 METODOLOGIA

A estratégia de controle é mostrada na Figura 3e a estrutura do controlador Fuzzy proposto é

mostrado na Figura 4.

Figura 2. Estratégia de controle utilizando Lógica Fuzzy

Os controladores locais Gis da Figura 4 são determinados por meio de modelos locais, os

quais são lineares. Vale destacar que estes controladores locais foram determinados

utilizando o regulador linear quadrático (LQR). Os modelos locais foram determinados

FEMA =N2I2μ0af

2 e ± δ +b + c + d− 2a

μr

2

V Simposio de Metodos Numericos Computacionais

294

considerando os valores máximos e mínimos de da Equação 2 tanto para a direção x

como para a direção z. Como o sistema apresenta duas não-linearidades (forças

eletromagnéticas nas direções x e z), a metodologia necessitou de 4 modelos locais.

Figura 3. Controlador Fuzzy utilizando o Modelo de TS (adaptado de R. CARDIM, 2009).

Os termos ijf~

e ijg~ são a funções não lineares no sistema, e no presente trabalho é,

respectivamente, a força eletromagnética nas direções x e z. 1ija , 2ija , 1ijb e 2ijb são os valores

de mínimos e máximos de ijf~

e ijg~ , respectivamente. Estes termos são utilizados para

determinar as seguintes funções auxiliares.

21

1

2

21

2

1

))((~

))((~

ijij

ijij

ij

ijij

ijij

ij

aa

txfa

aa

atxf

e

21

1

2

21

2

1

))((~

))((~

ijij

ijij

ij

ijij

ijij

ij

bb

txgb

bb

btxg

(3)

Finalmente, utilizando estas funções auxiliares, o αis é calculado:

gf ijpijpi

(4)

Com pf =1,2 e pg=1,2.

4 RESULTADOS

O sistema rotativo foi analisado considerando uma entrada impulsiva de 100N aplicada

no disco 1. Os controladores locais foram projetados utilizando o LQR, sendo o

controlador global determinado segundo a metodologia apresentada na seção3. A Figura

5 mostra o deslocamento para os sistemas analisados.

A resposta do sistema controlado mostra que o controlador satisfez as expectativas do

projeto, visto que a resposta do sistema foi atenuada. Em um instante de tempo de

aproximadamente 0,1s, a amplitude na direção x foi reduzida de 9,03x10-5

m para uma

amplitude de 1,56x10-5

m, o que representa uma redução de 82,7%, na direção z a

amplitude foi reduzida de 7,663x10-5

para 1,68x10-5

, representando 78,07% de redução.

Em seguida, a Figura 6 é apresentada a função resposta em frequência (FRF).

V Simposio de Metodos Numericos Computacionais

295

Figura 4. Reposta do Deslocamento do Sistema.

Figura 5. Função Resposta em Frequência (FRF).

Analisando a Figura 6 é possível observar a atenuação do deslocamento através dos picos da

FRF. Avaliando primeiramente na direção x, pode-se observar que houve uma redução na

amplitude de 9,39 dB no primeiro modo e de 10,6 dB no segundo modo. Na direção z houve

uma redução de 5,77 dB e 7,09 dB para o primeiro e segundo modo, respectivamente.

Figura 6. Força Eletromagnética.

A Figura 7 mostra a força eletromagnética que foi utilizada para o controle do sistema do

V Simposio de Metodos Numericos Computacionais

296

rotor. Observando-se a Figura 7, verifica-se que a maior aplicação de força de controle ocorre

nos ciclos mais próximos ao impulso, sendo que a máxima força aplicada ocorre durante o

segundo ciclo. Após 0,05 segundos do impulso, a ordem de grandeza da força de controle

reduz para aproximadamente 5% da força máxima de controle.

5 CONCLUSÕES

Os resultados apresentados demonstram a eficiência da utilização da Lógica Fuzzy para o

controle de sistemas rotativos. O modelo de Takagi-Sugeno, vinculado com a compensação

paralela, permitiu a solução de não-linearidade do AEM através da solução por meio de

modelos locais. O controlador LQR foi utilizando para solucionar esses modelos locais,

controlando assim, o sistema global. Diante disto, através de simulações computacionais, o

objetivo do trabalho em mostrar a eficiência da técnica de controle em um sistema rotativo

por meio de Lógica Fuzzy utilizando um AEM não-linear, foi alcançado.

REFERÊNCIAS

BRATLAND, M., HAUGEN, B., AND RØLVAG, T., Modal analysis of active flexible

multibody systems, Computers & Structures, vol. 89, 750-761, 2011.

CARDIM, R., Projeto de controladores baseados em LMIs: Realimentação derivativa e

sistemas chaveados utilizando estrutura variável, Tese de Doutorado, Universidade Estadual

Paulista, Ilha Solteira, 2009.

HAGOPIAN, J. D., MAHFOUD, J., Electromagnetic actuator design for the control of light

structures, Smart Structures and Systems, vol. 6, No. 1, 29-38, 2010.

HURLEBAUS, S., STÖBENER, U., AND GAUL, L., Vibration reduction of curved panels

by activemodal control, Computers&Structures, vol. 86, 251–257, 2008.

GAINO, R., Controle de movimentos de pacientes paraplégicos utilizando modelos Fuzzy T-

S, Tese de Doutorado, Universidade Estadual Paulista, Ilha Solteira, 2009.

KOROISHI, E. H., BORGES, A. S, CAVALINI JR, A. Ap., AND STEFFEN JR, V.,

Numerical and Experimental Modal Control of Flexible Rotor Using Electromagnetic

Actuator, Mathematical Problems in Engineering, 2014

LI, S., Active modal control simulation of vibro-acoustic response of a fluid-loaded plate,

Journal of Sound and Vibration, vol. 330, 5545–5557, 2011.

RESTA, F., RIPAMONTI, F., CAZZULANI, G. AND FERRARI, M., Independent modal

control for nonlinear flexible structures: An experimental test rig, Journal of Sound and

Vibration, vol. 329, 961–972, 2010.

SALDARRIAGA, M. V., Atenuação de Vibrações em Máquinas Rotativas Flexíveis usando

Materiais Viscoelásticos nos Suportes, Tese de Doutorado, Universidade Federal de

Uberlândia, Uberlândia, 2007.

TAKAGI, T., AND SUGENO,M., Fuzzy identification of systems and its applications to

modeling and control, IEEE Transactions on Systems, Man and Cybernetics, vol. 15, 116-

132, 1985.

V Simposio de Metodos Numericos Computacionais

297

V Simposio de Metodos Numericos Computacionais

AMPLIANDO A INTERAÇÃO PARA AUMENTAR ACOMPREENSÃO NA VISUALIZAÇÃO DE DADOS DE RADARES

METEOROLÓGICOS

Resumo: A visualização de dados de radares meteorológicos auxilia o analista a identificar a entrada de sistemasfrontais e eventos severos, dando importante suporte cognitivo à avaliação e à tomada de decisões. Mas, tradi-cionalmente, esses sistemas têm mantido alguns padrões de interface e funcionalidades que têm persistido pormuitos anos. Com a evolução da tecnologia a quantidade de informações geradas pelos radares aumentou, emmuitos casos, mais de cinco vezes, assim, também cresceu o interesse por soluções que permitam analisar e extrairmais rápida e facilmente informações relevantes a partir desses dados. Neste trabalho é apresentado o sistemaRADEX para visualização interativa de dados de radares meteorológicos. Sua interface é orientada ao usuário,projetada para ser simples e intuitiva. Provê ferramentas personalizadas, com controles gráficos para definição deparâmetros em algoritmos de visualização. Os produtos de visualização são gerados "sob demanda" e armazenadosde modo que possam ser acessados e alternados instantaneamente para comparação e análise visual.

Palavras-Chave: Palavras-chave: Visualização Científica Interativa, Python, Radar Meteorológico

1 INTRODUÇÃO

Atualmente, o Instituto Tecnológico SIMEPAR opera dois radares meteorológicos que funcionamcontinuamente, coletando informações de grande valor agregado na previsão meteorológica e monitora-mento de eventos severos e, também, no acompanhamento da entrada de sistemas frontais no Estado doParaná. Pelo menos a cada dez minutos é gerado um volume de dados que pode conter milhões de pontose até de vinte variáveis associadas a cada ponto da grade tridimensional. Assim, ferramentas interativasque permitam visualizar esses dados e extrair rapidamente informações relevantes a partir deles, são degrande importância (Telea, 2014; Hansen et al., 2014).

Dos radares operados pelo SIMEPAR, o mais antigo deles foi instalado no município de TeixeraSoares no estado do Paraná, em 1996. É um radar de polarização simples, ou seja, emite somente ondashorizontais. O mais novo, instalado em 2013 no município de Cascavel no estado do Paraná, é um radarde polarização dupla, ou seja, emite ondas verticais e horizontais (Islam and Rico-Ramirez, 2013; Caoet al., 2012; Silveira, 1998). Em ambos os radares, o alcance máximo cobre praticamente todo o estadodo Paraná e parte dos estados de Santa Catarina, Rio Grande do Sul, São Paulo e Mato Grosso do Sul e,ainda, parte dos países vizinhos Paraguai e Argentina.

A tecnologia de radares polarimétricos permite adquirir uma quantidade maior de dados aumentandoa sua capacidade de detectar particulas suspensas mas também agrega complexidade aos dados e à forma

Renan Henrique Luz Seluzniak, Tiago MartinuzziBuriol, Cesar Augustus Assis Beneti, Sergio Scheer

298

de processá-los. Assim, ferramentas computacionais que permitem interagir e explorar visualmente osdados de radares polarimétricos são recursos de grande valor para a análise e a compreensão dessesdados. Além disso, muitos aspectos, incluindo fatores humanos e computacionais, apresentam desafiosconsideráveis para o desenvolvimento de ferramentas de visualização eficientes que possam trazer ganhoefetivo ao analista (Tory and Möller, 2004).

Nesse sentido, a usabilidade de um sistema de visualização também é um aspecto relevante a serconsiderado, pois, ao inspecionar conjunto de dados é importante que o analista possa se concentrar naanálise e na compreensão dos dados e do fenômeno ao invés de preocupar-se em como utilizar o sis-tema. Isso significa não distrair-se procurando uma funcionalidade em menus e submenus ou realizandoinúmeros cliques com o mouse. Uma interface com usuário mais eficiente pode permitir ao analistaconcentrar-se na investigação dos dados para obter uma melhor compreensão do fenômeno e, assim,conseguir tomar decisões e chegar a conclusões mais rapidamente. Também se espera que o sistemaresponda rapidamente às solicitações do usuário, então, o desempenho dos algoritmos numéricos e devisualização deve ser aceitável.

Neste trabalho é apresentado um experimento sobre visualização interativa para análise de dados deradares meteorológicos. Um sistema foi desenvolvido em Python, utilizando um conjunto de módulos ebibliotecas especializadas, tais como NumPy, para processamento numérico, e Pygame para visualizaçãoe interação. O ideia principal é prover um meio fácil e rápido de explorar os dados de forma interativae intuitiva. O sistema foi projetado com orientação ao usuário buscando disponibilizar ferramentasbaseadas em controles gráficos e possibilitam gerar produtos de visualização "sob demanda", ou seja,os produtos são gerados a medida que o usuário interage com o sistema. Uma vez gerado, um produtode visualização (buffer de imagem) é armazenado pode ser acessado instantaneamente. Essa abordagemnão requer o pré processamento dos dados e permite mecanismos para comparação, altenando rapida-mente entre uma imagem e outra. Os mecanismos de processamento e visualização interativa dos dadosproporciona uma navegação espaço-temporal oferecendo suporte cognitivo ao analista.

2 DADOS E PRODUTOS DE RADARES METEOROLÓGICOS

Os radares operados pelo Instituto tecnologico SIMEPAR geram dados a partir da emissão de feixesde ondas eletromagnéticas a cada 1 grau (varredura azimutal), completando um giro de 360 graus paracada elevação da antena (inclinação vertical). O radar TXS, por exemplo, dispõe para cada ponto em seusdados, pelo menos três variáveis (chamadas de "momentos"): Refletividade (DBZH), Velocidade Radial(VELH) e Largura Espectral (WIDTHH). Já o radar CAS possui mais de vinte momentos associados acada ponto. Ao gerar imagens para visualização destes dados, transformações entre o sitema de coorde-nadas esférico para cartesiano são realizadas. Adicionalmente, uma série de rotinas envolvendo métodosnuméricos computacionais, tais como interpolação, seleção e mapeamento dos dados são processsados.Portanto, o desempenho computacional é um dos aspectos chave para proporcionar uma interação fluidaem um aplicativo para visualização interativa.

O volume de dados gerado ao final de um ciclo completo do radar TXS corresponde a uma sequênciade 360 varreduras azimutais com 14 diferentes elevações da antena, com 800 pontos (gates ou bins)igualmente espaçados ao longo de cada feixe de 200 km. Por fim, tem-se uma grade em coordenadaspolares com resolução de 360x14x800, completando 4.032.000 pontos. O radar CAS pode gerar até2500 gates por feixe. Cada um destes pontos podem conter dezenas de variáveis associadas a ele. Acada 10 minutos é gerado um volume de dados descrito em coordenadas esféricas, com três graus deliberdade (r, θ, φ) (Figura 1). O primeiro, r, é o range (distância do alvo até radar), θ é o azimute (ânguloem relação ao norte), e φ é a elevação da antena.

Dentre as dezenas de variáveis que um radar pode medir, destaca-se a refletividade (DBZH) que éum fator entre a irradiância emitida pelo radar e a recebida por ele depois de retroespalhadas peloshidrometeoros (gotas de chuva) presentes na atmosfera. A unidade utilizada é o dBZ, que é uma escalalogarítmica da refletividade. Os valores variam entre -24 dBZ e 72 dBZ, quanto maiores forem essesvalores, maiores serão os diâmetros das gotas presentes no volume medido, indicando maior intensidadede precipitação. Os diversos produtos gerados a partir dos dados são visualizados e analisados a fim

V Simposio de Metodos Numericos Computacionais

299

Figura 1: Esquema de varredura e a estrutura do volume de dados.

de se obter informações para previsões a curto prazo, como possibilidade de tempestades e tormentas.A figura ?? mostra um sistema 2D para visualização de dados do radar e, também, uma representaçãosimplificada da estrutura 3D dos dados como eles são originalmente adquiridos.

Neste trabalho foi desenvolvido um sistema para visualização interativa de dados de radar que munidode ferramentas projetadas para serem fáceis de usar, com resposta rápida e diferentes das abordagensconvencionais. A ideia é explorar a evolução dos hardwares gráficos e em novos paradigmas de interaçãopara criar ferramentas de visualização orientadas ao usuário, que possam oferecer um ganho no processode análise desses dados. Para isso, é necessário gerar os produtos de visualização a partir dos dadosoriginais, de forma que a estrutura inicial seja perdida. Com isso, os produtos devem ser obtidos apartir de solicitações que o usuário faz interagindo graficamente sobre uma representação dos dados. Aabordagem adotada é armazenar os produtos a medida que vão sendo gerados, para que o usuário possa?navegar? entre as imagens alternando rapidamente entre uma e outra a fim de analisar e comparar osprodutos.

3 DESCRIÇÃO DO SISTEMA DESENVOLVIDO

O sistema foi desenvolvido em Python (www.python.org), que é uma linguagem de programação con-hecida por ser versátil, possuir uma vasta biblioteca padrão, além de módulos de terceiros e, também,por ser de fácil aprendizagem. Outras de suas características incluem permitir o desenvolvimento rápidode programas (alta produtividade) (Wei-Bing L. J., 2012), possuir uma sintaxe limpa gerando códigoslegíveis e possibilitar a compilação de códigos em linguagem de máquina. Assim, buscando um equi-líbrio entre esforço demandado para o desenvolvimento e o desempenho final do aplicativo, optou-se porutilizar, além da linguagem Python, os pacotes Pygame (www.pygame.org) e Numpy (www.numpy.org).

Pygame é uma biblioteca multiplataforma para o desenvolvimento de jogos, que funciona em umacamada sobre a biblioteca SDL (Simple DirectMedia Layer). Esta última, é uma biblioteca multimídialivre e de código aberto, multiplataforma, escrita em C, que representa uma interface simples para acessodireto ao hardware gráfico, de áudio, e dispositivos de entrada de várias plataformas. Por ser destinadaao desenvolvimento de jogos, Pygame também é adequado para o desenvolvimento de sistemas de vi-sualização interativos, proporcionando um conjunto de funções convenientes para o desenvolvimento decontroles gráficos e mecanismos de interação (Jones, 2005; McGugan, 2007).

NumPy é o pacote básico para computação científica e processamento numérico em Python. Possuiestruturas de dados que permitem trabalhar com arranjos, vetores e matrizes de N dimensões de comconsiderável eficiência (Coelho, 2007) e conveniências. Provê funções e operações sofisticadas, real-izadas por códigos compilados escritos em C, o que garante um desempenho superior se comparado àsoperações com vetores originais do Python.

Numpy tornou-se o padrão para representação de dados numéricos em Python, pois possibilita aimplementação eficiente de algoritmos de processamento numérico em uma linguagem de alto nível. Oganho de desempenho é devido, em geral, ao uso de três técnicas: cálculos vetorizados, acesso aos dadosna memória sem a necessidade de copiar e a minimização do número de operações aritméticas (WaltS. et al., 2011). Em sua essência, no entanto, um array do Numpy é apenas uma forma conveniente

V Simposio de Metodos Numericos Computacionais

300

de descrever um ou mais blocos de memória do computador, de modo que os números representadospossam ser facilmente manipulados.

Este conjunto de bibliotecas proporcionou agilidade no desenvolvimento e na experimentação deferramentas e funcionalidades de visualização altamente interativas, focadas na facilidade de uso e navelocidade de resposta dos algoritmos às solicitações do usuário. Buscou-se com as funcionalidadesimplementadas proporcionar um meio efetivo de exploração e de análise visual dos dados, preservandoa sua estrutura original. No sistema desenvolvido, a interação ocorre de maneira gráfica e um PPI servecomo ponto de partida para a definição dos parâmetros usados nos algoritmos de visualização.

A estratégia adotada, chamada aqui de geração de produtos "sob demanda", consiste em manter umconjunto de dados na memória RAM da máquina e obter produtos diversos a partir destes dados, inter-agindo diretamente em uma representação visual, que serve como base (por exemplo, um PPI). Dessamaneira, é possível dar zoom ou obter cortes verticais do volume de dados criando novas imagens a par-tir dos dados originais, sem haver a necessidade de converter previamente a grade polar em uma gradecartesiana. Para descrever brevemente a utilização da ferramenta, supondo que o usuário queira ver umvorte vertical, basta para isso traçar uma linha sobre o PPI usando o com o mouse (clicar, arrastar esoltar). Ou então, para ampliar e transladar gradualmente a imagem, basta apontar o ponto de foco egirar a rodinha do mouse, assim que o movimento cessa, a imagem é atualizada (reprocessada) a partirdos dados originais.

Para conferir uma resposta rápida na geração do corte vertical, a abordagem utilizada foi calcular aposição espacial correspondente a cada pixel da imagem que representa o corte e, então, buscar nos dadoso valor da variável para aquela posição. Essa estratégia é conveniente para a utilização do pacote Numpy,pois as operações com matrizes podem ser escritas com poucas linhas de programação e o desempenhotem sido satisfatório para o propósito do trabalho. Não é objetivo deste trabalho apresentar testes develocidade de processamento, no entanto, é possível estimar que em um PC comum, um tempo menorque 1/5 de segundo, o que é aceitável.

4 VISUALIZAÇÃO INTERATIVA E PRODUTOS "SOB DEMANDA"

Visando proporcionar ao usuário uma experiência de análise de dados fluida, por meio de uma in-terface simples e mecanismos de interação eficazes, adotou-se a abordagem de geração de produtos devisualização "sob demanda". A ideia é realizar o processamento dos dados e a geração das imagens (pro-dutos de visualização) a medida que o usuário solicita ao sistema de forma interativa. Por exemplo, aoabrir um aquivo de dados, o usuário visualiza um PPI da variável refletividade e um corte vertical padrão.Ao selecionar outra variável, outro PPI e corte vertical são gerados e armazenados em um "banco de pro-dutos". Nesse momento o sistema possui dois PPIs armazenados, então, o usuário poder alternar entreum e outro, usando as teclas ou botões do aplicativo, e visualizar os PPIs instataneamente. Dessa forma,a medida que o usuário vai navegando e interagindo com os dados, o sistema vai armazenando produtosde visualização que passam a estar disponíveis instantaneamente. Ou seja, o tempo de processamento(cerca de 200 ms) não é mais necessário. Nas seções seguintes são apresentadas algumas ferramentasdisponíveis no sistema RADEX.4.1 Navegação espaço-temporal

Ao analisar dados de diferentes radares, contendo varreduras com horário diferentes, é desejável queo usuário possa avançar ou retroceder no tempo, para um mesmo radar (navegação temporal), ou alternarentre diferentes elevações de um mesmo volume de dados (navegação espacial). Para permitir esse tipode interação, evitando o reprocessamento de dados, foi desenvolvido um mecanismo de gerenciamentoda navegação utilizando a estrutura de dicionários do Python. A ideia é guardar informações chave sobreos dados processados e acessar seus produtos conforme o usuário solicitar. Por exemplo, se o usuárioabrir um conjunto de dados provenientes de diferentes radares com várias datas para cada radar. Então,ao pressionar as setas direita e esquerda, no teclado, o usuário visualiza os dados desse mesmo radar nadata e horário imediatamente posterior ou anterior, respectivamente. Ao pressionar um botão na tela,muda o radar. As setas "para cima" e "para baixo" alternam as elevações imediatamente superior ouinferior, respectivamente. Um dicionários Python para cada radar é usado para guardar vários tipos de

V Simposio de Metodos Numericos Computacionais

301

informações, incluindo sprites do Pygame e matrizes de dados. Antes de processar os cálculos para geraralgum produto é feita uma busca nos dicionários para verificar se tal operação já foi feita, caso já tenhasido feita, o produto já processado é mostrado.4.2 Integração com a biblioteca Py-ART

Py-ART é um módulo Python que contém uma coleção de algoritmos para dados de radar meteo-rológico e utilitários. Py-ART é usado pelo Atmospheric Radiation Measurement (ARM) Facilidade dePesquisa do Clima para trabalhar com dados a partir de um número de sua precipitação e de nuvemradares, mas foi projetado para que ele possa ser utilizado por outros no radar e comunidades atmos-féricas para examinar, processos e analisar dados de muitos tipos de radares meteorológicos. Com eleé possível ler vários formatos de radar meteorológico(Sigmet/IRIS, MDV, CF/Radial, UF, NEXRAD,NetCDF convertido para CF/Radial). A vantagem de usar o Py-ART em vez de vários módulos que leemsomente um formato é a padronização, enquanto tem que fazer várias condições para determinar qualmódulo usar para abrir o dado de radar e coletar as informações necessárias.4.3 Threshold

Para observar somente regiões que apresentam um grau de significado maior que outras regiões, foidesenvolvido a sua threshold interativa, onde podemos remover valores menos significativos da imagem,sem alterar o dado e sem tempo de espera. A execução desta função é simples, com o botão scroll domouse podemos definir o intervalo de cores de vai aparecer no RADEX, para isso, devemos estar como mouse em cima do colorbar e assim usar o scrool para determinar o intervalo, conforme é alterado ointervalo, no colorbar é mostrado uma barra que determina o intervalo em questão. Quando é realizadoo threshold, tanto o PPI quanto o corte vertical, são alterados pela novo intervalo pelo usuário.4.4 Corte vertical arbitrário

Sobre um PPI, o usuário pode traçar um segmento de reta arbitrário e rapidamente visualizar um cortevertical no volume de dados (figura ??). Isso permite que o analista explore o interior do volume dedados e possa obter informações sobre a forma de uma célula de tempestade, por exemplo, e com issoavaliar a situação para uma tomada de decisão. Adicionalmente, ao passar a seta do mouse sobre a linhado corte, é mostrada uma linha vertical (em vermelho na tela superior, à direita na figura ??) na imagemdo corte, o que permite ter uma percepção acurada da posição sobre o mapa da projeção da linha vertical.Também é mostrado dinamicamente, ao desenhar a linha do corte, o tamanho correspondente (em km)do corte sobre o mapa. Na figura 3 também é possível ver o resultado do zoom sobre o PPI.4.5 Gráfico de dispersão

Para visualizar correlações entre variáveis, foi adicionado uma ferramena para gerar o gráfico dadispersão. O gráfico da dispersão trata-se de comparar duas variáveis diferentes numa região determinadapelo usuário, mostrada na figura 2. Junto com o gráfico de dispersão, é realizado o perfil vertical dosdados, onde uma média dos valores da variável é plotada a em relação à altitude no volume de dados.4.6 A "função cortina"

Como alternativa à visualização lado a lado para comparação de duas variáveis (além de outras finali-dades) foi desenvolvida a "função cortina" (nome dado devido à semelhança com o abrir e fechar de umacortina). Basicamente, o efeito é obtido pela sobreposição de duas imagens, em que uma linha verticaldivide a visualização, à direita é mostrada a imagem de uma variável e à esquerda de outra. A linha podeser movimentada com o mouse lembrando o movimento de abrir e fechar uma cortina. Essa ferramentatem se mostrado muito útil para verificar a incidência de chuva em um região específia de interesse, porexemplo, verificar se uma célula de tempestade encontra-se sobre uma rodovia, visualizar a topograficasob os dados ou comparar duas variáveis diferentes (figura 3). A função é acionada segurando o botãodo mouse pressionado sobre o botão na tela correspondente à nova variável a ser visualizada e, então,movimentando o mouse.4.7 Filtros para controle de qualidade

De forma integrada ao sistema de visualização foram implementados filtros para o controle de qual-idade dos dados de modo que o analista possa ligar e desligar combinando com as outras formas devisualização disponíveis. Os dados adquiridos a partir de radares meteorológicos são comumente afe-tados por ?ruídos? indesejados, ocasionados pela presença de insetos, pássaros, partículas suspensas

V Simposio de Metodos Numericos Computacionais

302

Figura 2: Comparação feita sobre DBZH e ZDR

Figura 3: Usando cortina para comparar RHOHV e DBZH

no ar, propagações anômalas de sinal e acidentes de topografia. Essas interferências resultam em ecos(sinais) que não correspondem à precipitação, o que pode comprometer o uso destes dados para diver-sas aplicações. Assim, a partir de estudos sobre técnicas utilizadas para filtrar estes dados (Steiner andSmith, 2002; Dixon and Seed, 2014; Friedrich et al., 2006), foi desenvolvido um algoritmo a partir damodificação do algoritmo de Steiner M. e Smith J. (2002). A modificação foi no sentido de simplifi-cação para que o processamento ocorra mais rapidamente e possa atender às questões de interatividadee usabilidade. O resultado de uma aplicação do filtro é mostrado na figura 4.4.8 Cortes radiais

Outra funcionalidade disponível é a visualização interativa de cortes radiais, em que o usuário podevisualizar de forma dinâmica e interativa um conjunto de cortes radiais pré-processados. Basicamenteo usuário seleciona um setor circular no PPI e os cortes verticais na direção radial são gerados. Entãoo usuário pode passar o mouse e alternar a visualização dinamicamente e dessa forma, explorar o in-terior do volume de dados (Figura 5). A visualização funciona como uma animação, controlada pelo

V Simposio de Metodos Numericos Computacionais

303

Figura 4: Imagem original (esquerda) e imagem filtrada via algoritmo desenvolvido (direita).

movimento do mouse.

Figura 5: Seleção da área para realização do corte radial

4.9 Visualização 3D de um volume selecionadoPor fim, uma funcionalidade que ainda enconta-se em desenvolvimento é a seleção de uma região de

interesse e a visualização 3D do volume por meio de técnicas de visualização científica para campos es-calares. Dentre as técnicas que estão sendo implementadas estão a visualização volumétrica e a extraçãode isosuperfícies. Para a visualização 3D tem sido utilizado a biblioteca PyVTK a qual é permite o usode Python para acessar funções da biblioteca VTK (www.vtk.org).

5 CONSIDERAÇÕES FINAIS

Neste trabalho foi apresentado o desenvolvimento de um sistema para visualização de dados deradares meteorológicos, e suas principais funcionalidades. Muitas das ferramentas desenvolvidas ofer-ecem funcionalidades personalizadas, não disponíveis em outros programas, comerciais ou não. Os

V Simposio de Metodos Numericos Computacionais

304

Figura 6: visualização 3D de um volume selecionado.

parâmetros para algoritmos de visualização implementados são definidos por meio de interação diretacom uma representação dos dados. As estratégias adotadas para a geração das representações dos dados,implementadas fazendo uso intensivo de estruturas de dados baseados em vetores e matrizes, permitiuobter uma interação fluida, com desempenho satisfatório. A experiência do desenvolvimento da ferra-menta de visualização apresentada neste trabalho, mostrou que a linguagem Python pode ser uma boaescolha para desenvolvimento de sistemas gráficos que combinam processamento numérico e intera-tividade. Embora em computação científica linguagens como C/C++ e Fortran sejam mais utilizadas,linguagens como Python oferecem vantagens em termos de produtividade e alcançando desempenhosatisfatório para muitas aplicações. As facilidades e conveniências providas pelas bibliotecas e módulosdisponíveis em Python, permitem a criação de programas de forma mais rápida e com melhor perfor-mance.

REFERÊNCIAS

Cao Q., Yeary M., and Zhang G. Efficient ways to learn weather radar polarimetry. Education, IEEETransactions on, 55(1):58–68, 2012. ISSN 0018-9359. doi:10.1109/TE.2011.2118211.

Coelho F.C. Computação Cientifica com Python. Flavio Codeço Coelho, Petropolis, RJ, 1 edition,2007. ISBN 978-85-907346-0-4.

Dixon M. and Seed A. Developments in echo tracking - enhancing titan. 8th European Conference onRadar in Meteorology and Hydrology, pages 1–14, 2014.

Friedrich K., Hagen M., and Einfalt T. A quality control concept for radar reflectivity, polarimetricparameters, and doppler velocity. Journal of Atmospheric and Oceanic Technology, 23(7):865–887,2006.

Hansen C., Chen M., Johnson C., Kaufman A., and Hagen H. Scientific Visualization Uncertainty,Multifield, Biomedical, and Scalable Visualization. 23, 1 edition, 2014.

Idelsohn S. and Oñate E. Finite element and finite volumes. two good friends. International Journal forNumerical Methods in Engineering, 37:3323–3341, 1994.

Islam T. and Rico-Ramirez M.A. An overview of the remote sensing of precipitation with polarimetricradar. Progress in Physical Geography, page 0309133313514993, 2013.

Johnson C. Top scientific visualization research problems. IEEE Comput. Graph. Appl., 24(4):13–17,2004. ISSN 0272-1716. doi:10.1109/MCG.2004.20.

Jones R. Rapid game development in python. OpenSource Developers’ Conference, pages 84–90, 2005.

V Simposio de Metodos Numericos Computacionais

305

ISSN 0272-1716.Keefe D. and Isenberg T. Reimagining the scientific visualization interaction paradigm. Computer,

46(5):51–57, 2013. ISSN 0018-9162. doi:10.1109/MC.2013.178.Lin J.W. Why python is the next wave in earth sciences computing. Bulletin of the American Meteoro-

logical Society, 93(12):1823–1824, 2012.M. Heistermann S. Collis M.J.D.S.G.J.J.H.B.K.J.K.D.B.M.M.P.T.P. and Wolff D.B. The emergence of

open-source software for the weather radar community. Bulletin of the American MeteorologicalSociety, 96(1):117–128, 2015.

McGugan W. Beginning Game Development with Python and Pygame. 1 edition, 2007. ISBN 978-1-59059-872-6.

Meyer E., Morrison A., and Plummer C. Finite differences and finite volumes. two old friends. Journalof Numerical Methods, 32:1223–1241, 1995a.

Meyer E., Morrison A., and Plummer C. The finite element method: A good friend. Journal of NumericalMethods, 32:2223–2241, 1995b.

Qi W. 3D Interaction with Scientific Data: An experimental and perceptual approach. Ph.D. thesis,Technische Universiteit Eindhoven, 2008.

Rinehart R.E. Radar for Meteorologists. Rinehart Publications, Columbia, 4 edition, 2004. ISBN0965800210.

Silveira R. Recognition of clutter in weather radars using polarization diversity information and artifi-cial neural networks. Ph.D. thesis, University of Essex, 1998.

Steiner M. and Smith J.A. Use of three-dimensional reflectivity structure for automated detection andremoval of nonprecipitating echoes in radar data. J. Atmos. Oceanic Technol., (19):673–686, 2002.doi:http://dx.doi.org/10.1175/1520-0426(2002)019<0673:UOTDRS>2.0.CO;2.

Telea A.C. Data Visualization: Principles and Practice. CRC Press, 2 edition, 2014.Tory M. and Möller T. Human factors in visualization research. IEEE Transactions on Visualization and

Computer Graphics, 10(1):72–84, 2004. ISSN 1077-2626. doi:10.1109/TVCG.2004.1260759.van der Walt S., Colbert S., and Varoquaux G. The numpy array: A structure for efficient numerical

computation. Computing in Science Engineering, 13(2):22–30, 2011. ISSN 1521-9615. doi:10.1109/MCSE.2011.37.

Villarini G. and Krajewski W. Review of the different sources of uncertainty in single polarizationradar-based estimates of rainfall. Surveys in Geophysics, 31(1):107–129, 2010. ISSN 0169-3298.doi:10.1007/s10712-009-9079-x.

Zienkiewicz O. and Taylor R. The finite element method, volume II. McGraw Hill, 1991.

V Simposio de Metodos Numericos Computacionais

306

V Simposio de Metodos Numericos Computacionais

UTILIZAÇÃO DA EVOLUÇÃO DIFERENCIAL EM PROBLEMAS

INVERSOS PARA A IDENTIFICAÇÃO DE PARÂMETROS

Resumo: Com a grande evolução dos computadores nos últimos tempos, houve um aumento

na utilização de técnicas de otimização. Essas técnicas podem ser utilizadas em problemas

envolvendo identificação de parâmetros de máquinas rotativas visando melhorar seu

funcionamento. Desta forma, o presente trabalho teve como objetivo utilizar o método de

Evolução Diferencial aplicado em problemas inversos para identificação de parâmetros.

Foram realizadas comparações com os resultados obtidos por meio de alteração na população

inicial.

Palavras-Chave: Máquinas Rotativas, Identificação de Parâmetros, Evolução

Diferencial.

1 INTRODUÇÃO

Na área de engenharia mecânica, quando se trata de projetar algum novo equipamento, é

necessário que o projetista busque desenvolver equipamentos que, quando operando,

possuam uma baixa propagação de vibrações e níveis de ruídos, já que os mesmos são

indesejáveis e degradam a vida útil do equipamento gerando custos e até mesmo maiores

problemas que poderiam ser evitados caso tivesse sido feito um melhor estudo e

planejamento na fase de projeto, pois, hoje em dia, um produto deve apresentar algumas

características essenciais como durabilidade, segurança e, também, baixo custo na produção.

Num contexto mais estrito, mais precisamente na dinâmica de rotação, não é diferente, pois

há vários estudos em andamento visando melhorar os modelos matemáticos já existentes e

possibilitando levar em conta as características típicas e propriedades de materiais dos rotores

flexíveis com o intuito de atenuar às vibrações e melhorar seu rendimento. Pode-se encontrar

mais informações sobre o assunto na literatura. (GENTA, 2005; LALANNE AND

FERRARIS, 1998).

Para conseguir um modelo que represente um rotor é necessário considerar vários

subsistemas. Esses subsistemas são definidos por sua geometria (eixos, discos acoplamentos)

e também há os subsistemas que são de frequência ou estado dependente (mancais e efeito

Coriolis). E, fazendo o uso do problema inverso, os parâmetros do modelo são identificados.

A solução do problema inverso é obtida com o uso dos métodos de otimização, aqui, pode-se

citar vários métodos, tais como algoritmo genético, colônia de formigas, evolução diferencial

Rennan Otavio Kanashiro, Erik Taketa, FabianAndres Lara-Molina, Edson Hideki Koroishi

307

entre outros. No presente trabalho é utilizada a técnica de Evolução Diferencial (DE) e então

são realizadas análises por meio da variação do tamanho da população.

2 ROTOR FLEXÍVEL

Através do Princípio de Hamilton, pode-se modelar a resposta dinâmica do sistema mecânica

considerado. Para isso, deve-se calcular a energia de deformação do eixo e as energias

cinéticas do eixo e dos discos para serem utilizadas na modelagem. Com a utilização do

Princípio de Hamilton Estendido, é possível incluir os efeitos da energia de dissipação. Já os

parâmetros dos mancais são considerados no modelo do sistema pelo uso do princípio do

trabalho virtual. Para discretizar a estrutura, é utilizado o método dos elementos finitos, com

isso, as energias calculadas são concentradas nos pontos nodais. Para conectar os pontos

nodais são utilizadas as funções de formas. A rigidez do eixo é obtida por meio da teoria de

viga de Timoshenko e a área de seção transversal foi atualizada.

O modelo assim obtido é representado matematicamente por um conjunto de equações

diferenciais, de acordo com LALANNE AND FERRARIS (1998), como dada pela equação

(1):

(1)

Onde, x(t) é o vetor de deslocamento generalizado; [M], [Cb], [Cg], [K] e [Kg] são as

matrizes de massa do sistema, amortecimento viscoso do mancal (pode incluir amortecimento

proporcional), giroscópica (com respeito a velocidade de rotação), rigidez do sistema e

rigidez devido ao movimento transiente, respectivamente; é a velocidade angular que varia

no tempo, e Fu(t) é a força de desbalanceamento.

A Figura 1 apresenta o modelo discretizado do rotor analisado.

Figura 1: Modelo discretizado do rotor (KOROISHI et al., 2014).

Os nós 4 e 31 corresponde aos mancais, os nós 8 e 27 correspondem aos sensores e os nós 13

e 22 correspondem a posição dos discos. Outros detalhes sobre o rotor podem ser encontrados

em KOROISHI et al. (2014).

3 MÉTODOS HEURÍSTICOS DE OTIMIZACAO

Otimizar significa melhorar o que já existe, assim, a otimização busca a melhor configuração

para um sistema, embora possua limitações como, um aumento no tempo computacional

quando o número de variáveis de projeto cresce, o surgimento de funções descontinuas que

convergem lentamente ou até mesmo de funções com vários mínimos locais que dificulta o

processo de encontrar um mínimo global. Para se aplicar o algoritmo de otimização é preciso

V Simposio de Metodos Numericos Computacionais

308

levar em consideração a natureza da função objetivo, as restrições e o número de variáveis

dependentes e independentes.

A função objetivo define a característica do sistema que deseja melhorar. Esta característica é

representada por uma equação matemática dependente das variáveis de projeto. As variáveis

de projeto, também conhecidas como variáveis de decisão ou de busca, são um conjunto de

parâmetros que podem influenciar os valores da função objetivo. Se manipuladas

corretamente, elas promovem modificações no sentido de aumentar ou diminuir os valores da

função objetivos. As restrições limitam os valores da função objetivo a certas regiões do

espaço de projeto e são características que dependem matematicamente das variáveis de

projeto.

Os métodos de otimização heurística são baseados na evolução biológica e vem sendo

bastante utilizados devido ao grande avanço dos computadores nas últimas décadas. Quando

esses métodos são aplicados em máquinas rotativas é para obter as combinações entre as

variáveis de projeto e então obter o ponto ótimo de trabalho. (KESHTKAR et al., 2011)

4 EVOLUÇÃO DIFERENCIAL

Esse método foi proposto por Storn e Price em 1995. Seu funcionamento é baseado em

conceitos evolutivos para encontrar um ponto ótimo. Faz-se o uso de operações vetoriais para

obter novos potenciais candidatos a resolver o problema. Na Figura 2, pode-se observar um

esquema gráfico do método de busca do algoritmo DE.

Figura 2: Esquema gráfico do algoritmo de Evolução Diferencial (OLIVEIRA et al., 2014).

Primeiramente, têm-se três vetores (r1 r2 r3

x , x , x ), a partir disso, são selecionados dois vetores

aleatórios ( , r2 r3

x x ) e então é realizada a subtração desses vetores, com o vetor resultante

dessa subtração é feito uma multiplicação por um escalar F, assim, obtém-se o vetor

( )F r2 r3x x , que deve ser somado ao vetor 1rx . Como resultado desses processos, um novo

vetor é formado, iv , esse vetor é um novo individuo, já que o mesmo indica uma nova

posição no espaço. Para melhor entender o funcionamento do algoritmo, tem-se a Figura 3.

V Simposio de Metodos Numericos Computacionais

309

Figura 3: Fluxograma da Evolução Diferencial (OLIVEIRA et al., 2014).

5 SIMULAÇÃO COMPUTACIONAL

A Tabela 1 fornece os dados do modelo do rotor e dos mancais, e também os os intervalos de

busca para os parâmetros de rigidez e amortecimento.

A função objetivo utilizada, representada pela equação (2), teve como objetivo minimizar as

diferenças entre as Funções de Respostas em Frequência (FRFs) geradas por meio do modelo

de elementos finitos e aqueles obtidos a partir do modelo com parâmetros nominais. Tabela 1: Dados do modelo do rotor e dos mancais e intervalos dos parâmetros.

Características do Rotor Valor Mancal Propriedades Direção Limites

Massa do eixo (Kg) 41,481 - - - Inferior Superior

Massa do disco D1 (Kg) 26,495 1 K (N/m) x 500000 5000000

Massa do Disco D2 (Kg) 26,495 1 K (N/m) z 500000 1E+07

Espessura de D1 (m) 0,1 1 C (Ns/m) x 0 200

Espessura de D2 (m) 0,1 1 C (Ns/m) z 0 200

Diâmetro do Eixo (m) 0,029 2 K (N/m) x 5E+07 1E+09

Módulo de Young (GN/m²) 205 2 K (N/m) z 5E+07 1E+09

Densidade (Kg/m³) 7850 2 C (Ns/m) x 0 200

Coeficiente de Poisson 0,3 2 C (Ns/m) z 0 200

(2)

V Simposio de Metodos Numericos Computacionais

310

As variáveis de projeto são: rigidez e amortecimento dos mancais. Foram considerados seis

tamanhos populacionais iniciais: 50, 100, 150, 200, 250 e 300. Para cada tamanho

populacional, o otimizador foi executado dez vezes.

Os resultados da simulação computacional são apresentados nas Figuras 4, 5 e 6.

Figura 4: Dispersão dos dados otimizados para rigidez (K) dos mancais.

Os números no eixo x 1, 2, 3, 4, 5 e 6 representam os tamanhos populacionais, 50, 100, 150,

200, 250 e 300, respectivamente. Os retângulos azuis representam a variação dos dados

obtidos e a linha vermelha seria a mediana dos mesmos. Já os símbolos “+” em vermelho

mostram algum ponto que está muito fora da variação, que pode ser visto melhor na Figura 4-

d. A partir dos resultados apresentados pelos boxplots das Figuras 4 e 5, pode-se observar

que, de um modo geral a variação do tamanho da população não representou uma melhora no

processo de identificação dos parâmetros de rigidez e de amortecimento.

Figura 5: Dispersão dos dados otimizados para o amortecimento (C) dos mancais.

A Figura 6 apresenta a comparação da resposta do sistema real e identificado.

V Simposio de Metodos Numericos Computacionais

311

Figura 6: Resultado da otimização com população inicial de 150.

A partir do resultado da Figura 6, pode-se observar que o processo de identificação de

parâmetros utilizando a Evolução Diferencial foi eficiente, visto que a resposta do sistema

identificado se aproximou da resposta do sistema utilizado para realizar a identificação

baseado no problema inverso.

6 CONCLUSÕES

Os resultados encontrados foram satisfatórios, uma vez que os parâmetros desconhecidos

foram identificados com sucesso. Assim, pode-se concluir que o uso da técnica de otimização

DE é bastante útil quando aplicada na solução de problemas inversos com relação à

identificação de parâmetros de maquinas rotativa. E mesmo com uma população inicial baixa,

50, os resultados obtidos também são satisfatórios quando comparados com outras

populações iniciais maiores. Outro fator importante é que o uso de uma população inicial

menor implica em um menor tempo computacional necessário.

REFERÊNCIAS

OLIVEIRA, M.V.F de, ROCHA, L.A. de A. da, KOROISHI, E.H. e STEFFEN JR, V.,

Otimização de parâmetros aplicados no controle de vibrações de rotores flexíveis utilizando

técnicas heurísticas, CONEM, 2014.

GENTA, G., Dynamics of Rotating Systems, Springer Science+Business, 2005.

KESHTKAR, H., ALIMARDANI, A. and ABDI, B., Optimization of Rotor Speed Variations

in Microturbines, Energy Procedia, vol. 12, 789-798, 2011.

KOROISHI, E.H., BORGES, A. S., CAVALINI JR, A. Ap., and STEFFEN JR, V.,

Numerical and Experimental Modal Control of Flexible Rotor Using Electromagnetic

Actuator, Mathematical Problems in Engineering, vol. 2014 (2014), Article ID 361418.

LALANNE,M. and FERRARIS, G., Rotordynamics predictions in engineering, John Wiley

and Sons, Second Edition, 1998.

V Simposio de Metodos Numericos Computacionais

312

V Simposio de Metodos Numericos Computacionais

EXPLORAÇÃO DAS BASES TEÓRICAS DE DESIGN DE JOGOSEM APLICAÇÕES VOLTADAS AO APRENDIZADO

Resumo: A popularidade dos jogos de computador, aliada aos avanços de hardware, conceitos de design de jogose a familiaridade do público com as novas tecnologias formam uma base sólida para a utilização deste tipo de mí-dia no treinamento profissional e educação continuada. Da aplicação destes conceitos originalmente pensados compropósito lúdico a um ambiente profissional, foi criada a área de jogos sérios, ou serious games. Para o projetodesenvolvido, estes conceitos serão aplicados ao desenvolvimento de um sistema de treinamento para eletricistasque atuam em circunstâncias de alto risco. O sistema irá implementar estes conceitos para garantir a eficiência dotreinamento aplicado e para que os alunos se sintam motivados e desafiados pelos cenários criados. Os conceitosprecisam ser revisados antes de serem implementados, e é isto que este artigo irá fazer; rever os conceitos de gamedesign e alinhar aos conceitos de serious games a esse tema.

Palavras-Chave: Serious Games

1 INTRODUÇÃO

A idéia de criar aplicativos de software para ajudar na educação não é nova. Já desde o final da décadade 1980 este conceito é explorado por educadores e pesquisadores, um esforço que atingiu o ápice naprodução de Where in the World is Carmen Sandiego? Zichermann and Cunningham (2011).

Com o avanço da tecnologia e a popularização de jogos entre o grande público, este assunto foiretomado com o conceito de serious games, gamification e novos conceitos aplicados à área de jogoseducacionais (edutainment).

A ciência do design de jogos também se modificou, com a adoção de técnicas como prototipagemrápida e desenvolvimento iterativo, conceitos herdados da área de engenharia de software.

Este trabalho tem como objetivo realizar uma revisão dos conceitos principais do design de jogos emotivação para jogar; como fazer um jogo atraente para o público e como estes conceitos podem seraplicados à área de serious games.

2 LUDOLOGIA

Apesar de não se ter uma definição única de jogos, é possível enumerar as partes que compõemo sistema e como o usuário se relaciona com estes sistemas, composto de elementos formais e não-formais. Conforme exposto por Gibson (2015), estes elementos são vistos pelo jogador sob uma óticaúnica e que tem bases nos fatores culturais, sociais e tecnológicos a que o jogador está exposto.

Estes elementos interferem na forma como o jogador se relaciona com o jogo, como o jogo se rela-ciona com o jogador e como os jogadores se relacionam entre si após terem interagido com o jogo.

Ricardo Cesar Ribeiro dos Santos, Klaus de Geus

313

Figura 1: Exemplo de curva de interesse para um jogo. Schell (2008)

Estes elementos devem ser considerados sempre que um sistema deste tipo for desenvolvido. Destaforma, a eficácia de desenvolver os elementos não formais, como narrativa, conflito e motivação aumenta,criando uma melhor experiência para o jogador e aumentando a eficácia do sistema desenvolvido.

Em jogos que têm como único propósito a atividade lúdica, esta preocupação tem o propósito mer-cadológico, de criar um público que consuma o aplicativo de software e seus subprodutos. Em casos nãolúdicos, estes elementos que garantem o engajamento do usuário servem para garantir que a mensagemnecessária seja transmitida ao jogador.

Este processo se dá por meio da obtenção da atenção do jogador inicialmente, e por meio da retençãoda atenção do jogador. Este procedimento é mais importante que a imersão propriamente dita, umavez que os protagonistas dos jogos passam por situações que seriam desagradáveis para o jogador —ferimentos, stress, mágoas, situações de risco em geral. Gibson (2015)

Segundo Lemarchand (2012), para um jogo conseguir um aproveitamento ótimo da atenção do jo-gador, o ritmo da narrativa deve seguir uma curva de interesse conforme a ilustrada em Schell (2008) ereproduzida na figura 1.

Os pontos marcados no gráfico correspondem às etapas do jogo. Inicialmente, é necessário prender aatenção do jogador, como forma de garantir o relacionamento com o jogo (ponto A). Posteriormente, aatenção do jogador pode ser levada a um ponto mais baixo, desde que seja aumentada de forma contínuadurante o relacionamento entre jogo e jogador (pontos B a G). Perto do final do jogo, atinge-se o clímax,onde o conflito deve ser resolvido (ponto H) e logo a seguir, o jogador perde o interesse pelo jogo (pontoI) ao terminar a experiência.

Apesar de a função da retenção de atenção do jogador ser importante para jogos sérios, nota-se quea finalidade principal de se manter a atenção do jogador não é a de criação de uma narrativa e sim a detransmissão de uma habilidade com aplicações diretas para a solução de problemas na vida real.2.1 SERIOUS GAMES

O termo Serious Games pode parecer paradoxal, uma vez que pode parecer uma tentativa de se abor-dar uma atividade lúdica a partir de um viés não-divertido. Pode parecer que o intuito é utilizar umaplicativo de software com foco na diversão, retirar-se este fator e reutilizar o que sobrar para um fimsério.

Esta abordagem, entretanto, se mostra equivocada. Segundo Almeida et al. (2011) jogos sérios são

V Simposio de Metodos Numericos Computacionais

314

aplicações interativas que necessariamente apresentam desafio para o usuário, cumprindo requisitos dediversão e motivação, que tenha uma contagem de pontuação e que transmita uma capacidade, conheci-mento ou atitude que possa ser aplicada no mundo real.

A transmissão de conhecimento por meio de simulações é já prática comum em áreas em que erros du-rante o processo de aprendizado teriam um custo muito alto. O treinamento de operadores de subestaçõesde energia elétrica por meio do uso de simuladores já foi documentado em Leite et al. (2007). No livroFullerton (2008), a utilização de jogos de computador para o desenvolvimento de habilidades também écitada.

A estrutura de um jogo, com seus elementos formais e não-formais

3 ESTADO FLOW

Cunhado pelo psicólogo Mihaly Csikszentmihalyi durante o estudo da psicologia de se sentir bem,a teoria flow refere-se a um estado de consciência em que se entra durante a realização de atividadesprazerosas, divertidas ou não. As características do estado flow são:

First, the experience (of enjoyment) usually occurs when we confront tasks we have a chanceof completing. Second, we must be able to concentrate on what we are doing. Third andfourth, the concentration is usually possible because the task undertaken has clear goalsand provides immediate feedback. Fifth, one acts with a deep but effortless involvement thatremoves from awareness the worries and frustrations of everyday life. Sixth, enjoyable ex-periences allow people to exercise a sense of control over their actions. Seventh, concernfor the self disappears, yet paradoxically the sense of self emerges stronger after the flowexperience is over. And finally, the sense of duration of time is altered; hours past by in min-utes, and minutes can stretch out to seem like hours. The combination of all these elementscauses a sense of deep enjoyment that is so rewarding people feel like expending a greatdeal of energy is worthwhile simply to be able to feel it. (Csikszentmihalyi, 1990, p. 49)

Parte importante da teoria flow é a associação entre dificuldade e atividades, ou experiências e aforma ótima de balanceá-las. Quando se inicia uma atividade, a habilidade de execução é baixa. Sea dificuldade for alta, o interesse de quem está se engajando na atividade logo se esvai, o estímulo dodesafio dando lugar ao sentimento de frustração.

Por outro lado, uma pessoa que esteja muito familiarizada com a mesma atividade, necessita de maisdesafio. Caso contrário, aborrece-se facilmente e a atividade é abandonada — como aconteceria com aatividade de dificuldade muito alta.

A figura 2 demonstra o relacionamento entre sensações, desafio e nível de habilidade. Ressalta-se queo fator de desafio é subjetivo e não objetivo. Algo que pode ser desafiante para uma pessoa, pode não oser para outra.

Este estado é importante para a área de serious games, uma vez que neste estado atenção e produtivi-dade são mais aguçadas quando comparado com os outros estados cognitivos e mentais. Sem contar queum sistema de ensino que implemente o conceito de flow garantiria o comprometimento do aluno comsua própria formação.

4 CONCLUSÕES

Diante do exposto, pode-se concluir que os conceitos de design de jogos podem ser aplicados aosjogos sérios para aumentar a eficiência de transmissão de informações.

Dada a presença do sistema de criação de cenários, este módulos do aplicativo deve se alinhar aosconceitos de flow e, inclusive, ajudar o instrutor a criar cenários alinhados às habilidades dos alunos.Com o desenvolvimento do aprendizado, o cenário deve se moldar às habilidades dos alunos e permitirque o instrutor possa interferir no cenário e aumentar ou diminuir a dificuldade. Esse procedimento alémde servir para alinhar ao cenário a ser treinado as habilidades do aluno, pode ser usado para que testessejam feitos em avaliações ou testes isolados.

V Simposio de Metodos Numericos Computacionais

315

Figura 2: Sensações provocadas por habilidade quando confrontadas com uma determinada dificul-dade.Csikszentmihalyi (1997)

Conclui-se também, que a narrativa e os elementos não formais do sistema servirão de forma essencialpara a ambientação, criando o relacionamento entre o jogador e o ambiente virtual com o qual ele devese relacionar. Esta familiaridade criada entre o jogador e o personagem do sistema virtual garante quea atenção do treinando seja máxima, mesmo ao experimentar situações de perigo para as quais o alunodeve estar preparado para enfrentar.

Este tipo de treinamento tem uma eficácia maior, uma vez que os jogadores se sentem mais à vontadepara enfrentar situações em que — caso ocorressem na vida real — seriam evitadas. Essa segurança queos jogadores sentem pode, inclusive, criar novas técnicas para a atividade que está sendo treinada.

Esse fato se dá pelo fato que os jogadores podem desenvolver outras técnicas, uma vez que o própriorisco da situação já desincentiva a inovação — um erro pode resultar em ferimentos graves ou até mesmomorte. Esse é um custo alto demais para o desenvolvimento da técnica.

REFERÊNCIAS

Almeida P., Pedro L., Moita M., Magalhaes R., Santos A., and Moreira L. Serious games as an onboard-ing organizational tool for new employees. In Information Systems and Technologies (CISTI), 20116th Iberian Conference on, pages 1 – 6. 2011.

Csikszentmihalyi M. Flow: The Psychology of Optimal Experiences. Harper & Row Publishers, 1990.Csikszentmihalyi M. Finding Flow: The Psychology of Engagement with Everyday Life. HarperCollins,

1997.Fullerton T. Game Design Workshop: a Playcentric Approach to Creating Innovative Games. Elsevier,

2 edition, 2008.Gibson J. Introduction to Game Design, Prototyping and Development. Addison-Wesley, 1 edition,

2015.Leite C.R.R., de Oliveira J.J.R., and de Oliveira J.G. O uso de simuladores no treinamento de operadores

da chesf como ferramenta para disseminação de conhecimentos na operação do sistema elétrico. InProceeding of -. 2007.

Lemarchand R. Attention, not immersion: Making your games better with psychology and playtesting,the uncharted way. 2012.

V Simposio de Metodos Numericos Computacionais

316

Schell J. The Art of Game Design; a Book of Lenses. Morgan Kaufmann, 1 edition, 2008.Zichermann G. and Cunningham C. Gamification by Design: Implementing Game Mechanics in Web

and Mobile Apps. O’Reilly Media, 1 edition, 2011.

V Simposio de Metodos Numericos Computacionais

317

V Simposio de Metodos Numericos Computacionais

ESTUDO DE PROBLEMAS DE ELASTICIDADE LINEAR BIDIMENSIONAL USANDO ANÁLISE ISOGEOMÉTRICA

Resumo: A Análise Isogeométrica (AIG) é um método que pode ser utilizado em mecânica dos sólidos, análise térmica e outros vários problemas modelados por equações diferenciais e problemas de valor de contorno. As funções de aproximação na AIG são aquelas utilizadas em computação gráfica e programas de desenho assistido por computador (CAD), conhecidas como NURBS. A utilização da AIG abre a possibilidade de integração dos processos de desenho e análise, que permitiria a transferência de geometrias produzidas por programas CAD para programas de análise. No presente estudo, é mostrada a aplicação da AIG no estudo de problemas de elasticidade linear bidimensional discutindo o desempenho observado. Palavras-Chave: Análise Isogeométrica, estado plano de tensões, elasticidade linear.

1 INTRODUÇÃO

Entre os métodos numéricos utilizados na modelagem e análise de estruturas, o Método de Elementos Finitos (MEF) (BATHE, 2006) é um dos mais utilizados e encontra-se amplamente popularizado entre engenheiros e projetistas. Na atualidade na fase de desenvolvimento de um projeto, a geometria da estrutura é desenvolvida em algum sistema CAD (Computer Aided Design), a partir deste modelo sólido, gera-se a malha de elementos finitos para análise da estrutura, seja estática ou dinâmica, colocando um número adequado de nós e de elementos de modo a obter tanto uma boa aproximação geométrica e uma boa precisão dos resultados. Na formulação clássica do MEF, funções de interpolação polinomiais são utilizadas tanto na avaliação das incógnitas como da geometria. As funções normalmente empregadas (Ex. polinômios de Lagrange) são diferentes daquelas utilizadas pelos programas CAD. A literatura indica que a geração das matrizes locais e globais de elementos finitos pode consumir até 60% do tempo empregado para modelagem e análise. As interpolações pelas funções de base de elementos finitos realizam-se de modo não integrado com as que são feitas também na geração do modelo sólido (COTTREL et al., 2009). Depreende-se, portanto, que o processo de interpolação é duplicado, pois ocorre de dois modos diferentes para um mesmo problema: primeiro, na geração do modelo CAD, e segundo, na geração das matrizes de elementos finitos. A Análise Isogeométrica (AIG) é uma abordagem recente que permite a discretização de um

Rodnny Jesus Mendoza Fakhye, Roberto Dalledone Machado

318

meio contínuo através de funções de aproximação geradas a partir da construção de um modelo sólido ou de um modelo CAD. Nesta formulação as funções de aproximação são aquelas empregadas tradicionalmente em computação gráfica, conhecidas como NURBS (Non Uniform Rational B-Splines). Uma das vantagens desta abordagem é a possibilidade da comunicação direta entre ambientes CAD e ambientes de análise, permitindo uma otimização do tempo de pré-processamento e análise. Ainda, como a Análise Isogeométrica permite trabalhar na geometria “exata” é possível eliminar imperfeições e erros de modelagem fornecendo soluções mais precisas para determinados problemas (HUGHES et al., 2005).

2 ANÁLISE ISOGEOMÉTRICA

A partir da introdução dos conceitos básicos da AIG por HUGHES et al.(2005), diversas pesquisas tem sido realizadas com o objetivo de ampliar a proposta a diferentes campos da mecânica computacional. Estes trabalhos tem mostrado desempenho similar ou superior, comparados com MEF, com ganho de precisão no tratamento de determinados problemas tais como: vibrações, turbulência, análise não linear de estruturas tipo casca, otimização topológica e aerodinâmica ver COTTRELL et al. (2006), BAZILEVS et al. (2007), BENSON et al. (2010), KIENDL et al. (2010) e CHAO E HA (2009). As funções NURBS tem se tornado o padrão da indústria para representação, desenho e intercâmbio de dados de geometria computacional (PIEGL E TILLER, 1997). A geometria computacional tem como objetivo principal é obter representações exatas de curvas, superfícies ou corpos, através de operações que podem ser realizadas por programas de computador (PEREIRA E MARTHA, 2013). 2.1 Fundamentos da AIG Uma malha de Elementos Finitos é uma discretização do domínio de análise, que é dividido por certo número de sub-domínios que são os elementos. No entanto, por condições de mapeamento, um elemento tem, na verdade, duas representações, uma no domínio paramétrico e outra no domínio físico. Os elementos são normalmente definidos pelas suas coordenadas nodais e os graus de liberdade são usualmente os valores das funções base nos nós. As funções base utilizadas no MEF são do tipo interpoladoras e podem ter valores positivos e negativos. As funções base são chamadas também de “funções de forma” (HUGHES, 2000). Na Análise Isogeométrica existem duas definições de malha: a malha de controle e a malha física. Os pontos de controle definem a malha de controle, e a malha de controle interpola os pontos de controle. Estes pontos de controle são conectados entre si, através de segmentos lineares, formando um conjunto de elementos quadrilaterais em duas dimensões e hexaédricos em três dimensões. A aparência da malha de controle é similar a uma malha de elementos finitos, mas não existe relação direta entre elas. As variáveis de controle são os graus de liberdade do problema analisado encontram-se nos pontos de controle (COTTRELL et al., 2009). As funções NURBS são construídas a partir de um conjunto de pontos no espaço paramétrico chamados de “knots” ou vetor de nós de controle. Estes nós definem a geometria da malha física e não apresentam necessariamente graus de liberdade nodais. No espaço linear, um elemento dentro da análise isogeométrica é definido como o domínio entre dois pontos de controle distintos. De modo análogo, é possível generalizar este conceito para espaços bidimensionais e tridimensionais (COTTRELL et al. 2007). As funções NURBS são funções paramétricas e, portanto, é necessário que a integração numérica seja realizada em cada unidade ou elemento isogeométrico por separado. A Figura 1 ilustra esquematicamente as relações geométricas num código baseado em AIG, onde é possível observar a representação de uma superfície física usando NURBS. Nessa

V Simposio de Metodos Numericos Computacionais

319

figura são mostrados o espaço físico e espaço parametrizado, os vetores de controle, espaço índice e as funções base quadráticas envolvidas. A descrição das funções base e a formulação numérica do problema serão mostradas a seguir.

Figura 1. Relações geométricas em AIG. Fonte: Adaptado COTTRELL et al., (2009).

3 FUNÇÕES BASE NA AIG

As funções de aproximação na AIG são funções NURBS que são generalizações das funções B-Spline que, por sua vez são uma derivação das Curvas de Bézier. A seguir serão apresentadas algumas das características destas funções. 3.1 Vetor de nós de controle O vetor de nós de controle é um conjunto não decrescente de coordenadas no espaço

paramétrico dado por 1, 2,...... 1n pξ ξ ξ + +Ξ = onde i

ξ é o i-ésimo nó de controle, i é o índice

do nó de controle onde 1,2,...., 1i n p= + + , p o grau do polinômio e n é o número de

funções base utilizado para gerar a curva. Os vetores de nós de controle podem estar espaçados de modo uniforme ou não uniforme. Uma mesma coordenada de um nó de controle pode aparecer mais de uma vez dentro deste vetor e, se isto ocorrer, esta característica é designada como multiplicidade. O vetor de nós tem influência direta nas funções base. Um vetor aberto é aquele no qual os pontos de controle do início e do fim se repetem p+1 vezes. Vetores abertos são os padrões nos ambientes CAD (HUGHES et al., 2005). 3.2 Funções base e derivadas As funções base de uma função B-Spline são curvas paramétricas construídas de maneira recursiva iniciando com um grau polinomial p=0. Para as funções de ordem zero, tem-se:

V Simposio de Metodos Numericos Computacionais

320

1,0

1 se

0 caso contrárioi I

iN

ξ ξ ξ +≤ <=

(1)

Para os graus maiores, ou seja, para 1,2,3...p = a equação fica:

( ) ( ) ( )1

, , 1 1, 1

1 1

i pii p i p i p

i p i i p i

N N Nξ ξξ ξ

ξ ξ ξξ ξ ξ ξ

+ +

− + −

+ + + +

−−= +

− − (2)

As derivadas das funções B-Spline também são definidas de maneira recursiva (PIEGL E TILLER, 1997) como mostra a equação (3).

( ) ( ) ( ), , 1 1, 1

1 1

i p i p i p

i p i i p i

p pN N Nξ ξ ξ

ξ ξ ξ ξ− + −

+ + + +

′ = −− −

(3)

Para uma derivada de ordem k pode-se utilizar a equação (4):

( )( 1) ( 1), 1 1, 1( )

,

1 1

k k

i p i pk

i p

i p i i p i

N NN pξ

ξ ξ ξ ξ

− −− + −

+ + + +

= − − −

(4)

3.3 NURBS (Non Uniform Rational B-Splines) As funções do tipo NURBS são uma família de funções B-Spline que utilizam um vetor de nós de controle não uniforme e inserindo uma função peso da forma:

( ) ( ),1

n

i p i

i

W Nξ ξ ω=

=∑ (5)

Onde ( ),i pN ξ é uma função base B-Spline convencional e os pesos i

ω são a componente

a projeção no plano z = 1 do vetor de pontos de controle j

B . Logo uma curva NURBS

pode ser definida como:

( )( )( )( )( )

, 1,...,j

jjj d

W

ω ξξ

ξ= =

CC B (6)

A curva assim obtida é uma função racional por partes na qual cada parcela definida no tramo é uma função polinomial dividida por outra função polinomial. Um exemplo de funções base NURBS é mostrado na Figura 2.

Figura 2. Funções base NURBS quadráticas para um vetor de nós de controle aberto e

0,0,0,1, 2,3,4,4,5,5,5Ξ = - Fonte: COTTRELL et al. (2007).

4 PROBLEMAS DE ELASTICIDADE LINEAR BIDIMENSIONAL

4.1 Formulação do Problema A forma fraca do problema de elasticidade linear tem a forma:

V Simposio de Metodos Numericos Computacionais

321

,ˆij i j i i i iw d f w d h w d

σσσ

Ω Ω ΓΩ = Ω + Γ∫ ∫ ∫ (7)

Aproximando o campo de deslocamentos por uma função do tipo:

1

ˆm

k k

k

N=

=∑u u (8)

Onde as funções base k

N são funções base NURBS. Aplicando o método de Galerkin pode-

se chegar na equação matricial:

( )1

ˆm

T

k

k

d d dσ

σΩ Ω Γ=

Ω = Ω + Γ∑ ∫ ∫ ∫B CB u Nf Nh (9)

A matriz B representa as derivadas das funções de base NURBS, C é a matriz constitutiva, N representa a matriz de funções base, f as forças de corpo e h as tensões de superfície. A Equação (9) representa o sistema ˆ =Ku f que deve ser resolvido para u e a matriz de rigidez K do sistema é dada por:

( )1

ˆm

T

k

k

=

= Ω∑ ∫K B CB u (10)

Foi implementado um código em MATLAB® baseado no programa descrito em NGUYEN et al. (2015).

5 EXEMPLOS DE APLICAÇÃO

Na continuação deste trabalho, mostram-se os resultados preliminares obtidos para dois problemas de estado plano de tensões, onde pretende-se mostrar a distribuição do campo de tensões e as capacidades do método. 5.1 Placa quadrada sob tensão axial uniforme A Figura 3 mostra uma placa retangular sob uma tensão axial de tração Tx na direção x (horizontal). De acordo com FELIPPA (2015) a solução analítica do problema é

x xTσ = ,

0y

σ = , /x x

u T x E= e /y x x

u u T x Eν ν= = ; onde E é o módulo de elasticidade e ν é o

coeficiente de Poisson.

Figura 3: Placa quadrada sob tensão uniforme. Problema completo e problema analisado. Fonte: Os autores.

Considerando E = 105 N/mm2, Tx = 10 N/mm2, ν = 0,3 e as medidas indicadas, a respostas

analíticas ficam ux = 4E-4mm, uy = 1,2E-5mm, 210 /x

N mmσ = e 0y

σ = . Levando em conta

a simetria do problema somente um quarto da placa foi analisado. As respostas analíticas para tensões e deslocamentos foram obtidas com um único elemento isogeométrico biquadrático, como ilustrado na Figura 4.

V Simposio de Metodos Numericos Computacionais

322

Figura 4: Discretização e resultado para o deslocamento em x para o problema de placa quadrada. Fonte: Os

autores.

5.2 Placa retangular com furo circular Neste caso uma placa em estado plano de tensões e espessura h é submetida a uma tensão axial uniforme, como mostrado na Figura 5. A presença do furo circular no centro da placa provoca uma concentração de tensões na borda do furo cuja magnitude comparada com a tensão Tx = 1 N/mm2 inicial define o fator de concentração de tensão que tem uma solução analítica. Novamente foi aproveitada a simetria do problema modelando um quarto da placa. A discretização e os resultados obtidos são mostrados na Figura 6.

Figura 5: Placa com furo circular. Problema completo e problema analisado. Fonte: Os autores.

Segundo COTTRELL et al. (2009) considerando as mesmas propriedades elásticas do problema anterior o fator de concentração analítico é 3. Resultado obtido com a discretização mostrada na Figura 6 usando 32 elementos biquadráticos.

Figura 6: Discretização e resultado para a tensão σx para o problema de placa com furo circular. Fonte: Os

autores.

V Simposio de Metodos Numericos Computacionais

323

6 CONSIDERAÇÕES FINAIS

A Análise Isogeométrica apresenta vantagens do ponto de vista da integração do processo de projeto e análise. Foi mostrado nos exemplos analisados a sua capacidade e desempenho. A utilização de AIG abre-se a possibilidade de usar os modelos recuperados de estruturas já construídas (usualmente em CAD), apresentando potencial promissório para futuras aplicações.

7. AGRADECIMENTOS

Os autores agradecem o apoio do Parque Tecnológico de Itaipu (PTI) e ao Centro de Estudos Avançados em Segurança de Barragens (CEASB).

REFERÊNCIAS

BATHE K.J. Finite element procedures. New Jersey : Prentice Hall, 2006. BAZILEVS Y., CALO V.M., COTTRELL J.A., HUGHES T.J.R., Reali A., Scovazzi G. Variational multiscale residual-based turbulence modeling for large eddy simulation of incompressible flows. Computer Methods in Applied Mechanics and Engineering. 2007, Vol. 197, pp. 173-201. BENSON D.J., BAZILEVS Y., HSU M.C., HUGHES T.J.R. Isogeometric shell analysis: The Reissner–Mindlin shell. Computer Methods in Applied Mechanics and Engineering. 2010, Vol. 199, pp. 276-289. CHO S., HA S. H. Isogeometric shape design optimization: exact geometry and enhanced sensitivity. Structural and multidisciplinary optimization. 2009, Vol. 38, pp. 53-70. COTTRELL J.A., HUGHES T.J.R., BAZILEVS Y. Isogeometric Analysis: toward integratioin of CAD and FEA. Chichester : John Wiley & Sons Ltd, 2009. COTTRELL J.A., HUGHES T.J.R., REALI A. Studies of refinement and continuity in isogeometric strucutural analysis. Comput. Methods Appl. Mech. Engnrg. 2007, Vol. 196, pp. 4160-4183. COTTRELL J.A., REALI A., BAZILEVS Y.,HUGHES T.J.R. Isogeometric analysis of structural vibrations. Comput. Methods Appl. Mech.Engrg. 195, 2006, pp. 5257-5296. FELIPPA, C. Introduction to Finite Element Methods. Capítulo 27. Disponível em: < http://www.colorado.edu/engineering/CAS/courses.d/IFEM.d/>. Acesso em 10/10/2015. HUGHES, T.J.R., COTTRELL J.A., BAZILEVS Y. Isogeometric analysis: Cad, finite elements, nurbs exact geometry and mesh refinement. Computer methods in Applied

Mechanics and Engineering. 2005, Vol. 194, pp. 4135-4195. HUGHES, T.J.R. The Finite Element Method. Mineola, N.Y. : Dover, 2000. KIENDL J., BAZILEVS Y., HSU M.C., WÜCHNER R., BLETZINGERK.U. The bending strip method for isogeometric analysis of Kirchhoff–Love shell structures comprised of multiple patches. Computer Methods in Applied Mechanics and

Engineering. 2010, Vol. 199, pp. 2403-2416. NGUYEN, V.P.; ANITESCU, C; BORDAS, S; RABCZUK, T. "Isogeometric analysis: an overview and computer implementation aspects". Mathematics and Computers in

Simulation, 2015, pp. 89-116, Vol 117. PEREIRA A.M.B, MARTHA L.F. Geometria Computacional: Principais Algoritmos e Predicados. Notas de Aula da disciplina CIV2802 – Sistemas Gráficos para Engenharia. s.l. : Tecgraf, PUC, Rio de janeiro, 2013. PIEGL L., TILLER W. The NURBS book. Berlin: Springer Verlag, 1997.

V Simposio de Metodos Numericos Computacionais

324

V Simposio de Metodos Numericos Computacionais

UM ESTUDO SOBRE A INFLUÊNCIA DO TAMANHO DA AMOSTRA NA

ANÁLISE FATORIAL DE DADOS DICOTÔMICOSUFPR

Resumo: A Análise Fatorial envolvendo dados dicotômicos está presente em grande parte dos estudos

empíricos, e as relações resultantes desta dicotomização são um problema que ainda traz certa preocupação

aos pesquisadores do meio estatístico. Este estudo tem como objetivo relacionar o tamanho das amostras

dicotômicas à medida de adequação de amostra (MSA) de Kaiser-Mever-Olkin, às comunalidades e às

explicações fornecidas pelos fatores. Para tanto, amostras dicotômicas foram geradas pelo método de

simulação de Monte Carlo, diversificando o número de variáveis, o número de observações e o número de

fatores. Depois, efetuou-se a Análise Fatorial, cujo processo foi repetido cem vezes com o intuito de obter

um valor médio. Por fim, os resultados alcançados foram modelados em função do tamanho das amostras,

utilizando modelos de Regressão Polinomial. As análises determinaram que o modelo de Regressão

Polinomial de melhor ajuste é o de quinto grau, e que este apresenta uma boa relação entre as variáveis

estudadas e os tamanhos das amostras, podendo então ser utilizado para verificar a influência do tamanho da

amostra na Análise Fatorial. Verificou-se ainda que o melhor resultado foi obtido para o índice de MSA e o

pior resultado foi a proporção de variância explicada pelo primeiro fator.

Palavras-Chave: Análise Fatorial Exploratória; Dados dicotômicos; Tamanho de amostra.

1 INTRODUÇÃO

Atualmente, a Estatística encontra-se associada ao desenvolvimento e ao progresso tecnológico,

contribuindo com muitas técnicas analíticas multivariadas utilizadas amplamente em empresas, sistemas

governamentais e centros de pesquisa, entre essas técnicas pode-se destacar a Análise Fatorial Exploratória.

Análise Fatorial (AF) é uma técnica de análise exploratória de dados que tem por objetivo descobrir e

analisar a estrutura de um conjunto de variáveis inter-relacionadas, de modo a construir uma escala de

medida para fatores (intrínsecos) que, de alguma forma (mais ou menos explícita), controla as variáveis

originais. A partir das correlações observadas entre as variáveis originais, a Análise Fatorial estima os

fatores comuns que são subjacentes às variáveis e não diretamente observáveis (FÁVERO et al., 2009). Este

tipo de técnica pode ser utilizado de uma forma exploratória, onde se busca uma estrutura em um conjunto

de variáveis como um redutor de dados, ou de uma perspectiva confirmatória, quando se tem uma ideia

preconcebida sobre a estrutura real dos dados e deseja-se testar uma hipótese (HAIR et al., 2005).

Quando o pesquisador necessitar utilizar a Análise Fatorial Exploratória como ferramenta de pesquisa em

um estudo empírico, é fundamental decidir qual o tamanho ideal para sua amostra, questão que se torna

ainda mais complexa quando os dados analisados são dicotomizados. Não há dúvidas de que selecionar uma

amostra que não representa perfeitamente a população estudada implicará em uma margem de erro

Rosilei de Souza Novak, Jair Mendes Marques

325

denominada erro amostral. Quando se propõe um número elevado para o tamanho da amostra essa escolha

pode trazer um aumento inviável no custo da pesquisa. Muitos estudos foram desenvolvidos sugerindo

ideias que ajudassem a determinar o tamanho adequado para uma amostra. KLINE (1970) advertiu que uma

amostragem, para ser confiável, deveria ter pelo menos 100 indivíduos. Também CATTELL (1978) sugeriu

a relação de 3/6 (6 indivíduos por 3 variáveis), SHAW (2005) recomenda o tamanho de amostra de 180

observações, em seu estudo utilizou o método de Monte Carlo, variando o número de fatores, a razão fatorial

e as comunalidades. PEARSON (2010) indicou que essa relação fosse de pelo menos 3/5 (5 indivíduos por 3

variáveis). Mediante à diversidade de respostas, ainda se tem dúvida quanto a essa questão, que se torna

cada vez mais complexa quando os dados observados na Análise Fatorial são dados dicotômicos. Esse

estudo teve o objetivo determinar a influência do tamanho da amostra na dicotomização de dados normais

multivariados.

2 MATERIAIS E MÉTODOS

Para a realização deste estudo foi utilizado o software Matlab, no qual foram implementados três diferentes

programas: o primeiro gerou a matriz de correlação, o segundo fez a Análise Fatorial e o terceiro realizou a

Regressão Polinomial.

Utilizando o método de Monte Carlo, foram geradas amostras aleatórias dicotômicas de 30 variáveis, 4

fatores e 60, 90, 120, 150, 180, ...,1500 observações, obedecendo a proporção de cinquenta por cento de zero

e cinquenta por cento de um. Essas amostras dicotômicas foram geradas com pré-requisito a partir de uma

matriz de correlação com o número de fatores adequados, o MSA maior que 0,5 e as comunalidades maiores

ou iguais a 0,7. Para cada amostra foram realizadas 100 simulações de Análise Fatorial Exploratória,

calculando as médias do MSA, das comunalidades e das proporções das variâncias explicadas. As amostras

que não obedeciam aos pré-requisitos estabelecidos eram descartadas e substituídas, até atingir o número de

100 casos pré-condicionados. Os resultados foram modelados em função dos logaritmos dos tamanhos das

amostras com a utilização de modelos de Regressão Polinomial, para reduzir a variação. Porém os gráficos

referentes aos modelos foram gerados em função do tamanho das amostras, situação realizada para auxiliar

pesquisadores que queiram ter esses resultados por base para fixar o tamanho de uma amostra.

A avaliação do Modelo de Regressão foi realizada com a utilização dos seguintes indicadores: Coeficiente

de Explicação (R2), Estatística χ2 para a Aderência do Ajuste e o Desvio Padrão do ajuste (erro padrão do

coeficiente y). Inicialmente para cada modelo de regressão utilizado, foram realizadas as análises de

resíduos (média nula, homocedasticidade, normalidade pelo teste de Kolmogorov-Smirnov e independência

através do teste de Durbin-Watson) sendo essas condições satisfeitas.

A Análise Fatorial foi aplicada com o uso do Método das Componentes Principais, na escolha do número de

fatores foi utilizado o critério de Kaiser e o método de rotação foi o Ortogonal Varimax. A seguir serão

mostrados os resultados das funções polinomiais e o os índices dos indicadores. Os indicadores de ajustes

serviram de apoio para a escolha da função ajustada para cada situação.

3 RESULTADOS

Com o objetivo de estudar a eficácia do método, buscou-se a aplicação experimental em diversos conjuntos

de dados. Ao todo foram geradas 40 amostras diferentes, contudo neste estudo serão apresentadas apenas 8

amostras, que foram escolhidas de modo a relatar o comportamento do grupo.

Foram observados as resultados do MSA que avaliaram a adequacidade das amostras, variância explicada

pelo fator1 que representaram o quando da variação dos dados é explicado pelo primeiro fator (fator que

fornece maior explicação), variância total que representa o quando da variação é explicado por todos os

fatores juntos e as comunalidades que é a proporção de variância comum presente em uma variável. Se as

comunalidades estão próximas de zero, os fatores comuns explicam pouco ou nenhuma variância e se as

comunalidades estão próximas de um, quase toda a variância é explicada pelos fatores.

V Simposio de Metodos Numericos Computacionais

326

A tabela 1 a seguir mostra o número de variáveis por fator, utilizados em cada simulação.

Tabela 1: Classificação do número de variáveis por fator

N° simulação N° de variáveis por fator

1 [8 8 8 6]

2 [9 7 7 7]

3 [10 10 5 5]

4 [11 7 6 6 ]

5 [12 6 6 6]

6 [13 6 6 5]

7 [14 6 5 5]

8 [15 5 5 5]

3.1 Resultados das Funções de Regressão Polinomial para o MSA

O índice de MSA avaliaram a medida de adequacidade de cada amostra para a AF, para valores acima de

0,50 mostra que a análise é satisfatória. Foram obtidas as funções polinomiais para cada simulação, geradas

a partir das médias do MSA em relação aos tamanhos das amostras e também os indicadores de ajustes,

apresentadas nas tabelas 2 e 3 a seguir:

Tabela 2: Modelos de regressão ajustados do MSA

simulação MODELO y = a0+ a1x + a2x

2+…+ anxn

1 y = – 21.5511+41.2623x – 30.65818x2+11.4442x3– 2.1394x4+ 0.1599x5

2 y = – 15.4156+28.7041 – 20.4691x2+7.3558x3– 1.3273x4+ 0.0960 x5

3 y = – 18.9449+36.2168x – 26.7230x2+9.9133x3– 1.8427x4+0.1370x5

4 y = – 15.0365+28.6548x – -20.9585x2+7.7331x3-1.4331x4+0.1064x5

5 y = – 15.7350+30.1716x – 22.2007x2+8.2335x3– 1.5331x4+0.1144 x5

6 y = – 10.3839+19.0753x – 13.0924x2+4.5424x3– 0.7938x4+0.0558 x5

7 y = – 21.4265+41.3447x – 30.8745x2+11.5713x3– 2.1702x4+0.1627x5

8 y = – 21.7826+41.7090x – 30.9973X2+11.5696x3– 2.1619x4+0.1615x5

Tabela 3:Indicadores para a regressão do MSA

N° simulação R2 χ2 Sy

1 0.9994 0.00003 0.00086

2 0.9997 0.00002 0.00065

3 0.9997 0.00001 0.00057

4 0.9998 0.00001 0.00050

5 0.9997 0.00001 0.00005

6 0.9999 0.00000 0.00038

7 0.9995 0.00002 0.00075

8 0.9996 0.00002 0.00074

3.2 Resultados das Funções de Regressão Polinomial para a Proporção da Variância Explicada

A tabela 4 mostra as regressões polinomiais obtidas a partir das médias das proporções de explicação da

variância, proporcionadas pelo fator 1, em relação aos tamanhos das amostras. E a tabela 5 refere-se aos

indicadores de ajuste para a regressão das proporções da variâncias explicadas pelo fator 1.

V Simposio de Metodos Numericos Computacionais

327

Tabela 4: Modelo de Regressão ajustados à Proporção de Variância Explicada pelo Fator 1

simulação MODELO y = a0+ a1x + a2x

2+…+ anxn

1 y = –214.9676+487.2247x-397.6769x2+159.3493x3-31.4406x4+2.4493x5

2 y = 69.0479-99.3620x+84.0601x2-35.5341x3+7.4710x4-0.6237x5

3 y = –308.3474+709.5802x-594.8604x2+245.1407x3-49.8066 x4+3.9983x5

4 y = –60.2234+192.9703x-172.5162x2+74.5397x3-15.6904x4+1.2938x5

5 y = –195.5082+462.8827x-380.1304x2+154.1506x3-30.9207x4+2.4571x5

6 y = 110.3694-170.6008x+144.4636x2-60.7441x3+12.6325x4-1.0377x5

7 y = 14.3890+35.4019x -30.0291x2+12.0569x3-2.3342x4+0.1760x5

8 y = –409.1023+872.4216x -697.7957x2+276.1447x3-54.1198x4+4.2053x5

Tabela 5: Indicadores para a Regressão das Proporções das Variâncias Explicadas pelo Fator 1

N° simulação R2 χ2 Sy

1 0.8188 0.0073 0.0560

2 0.5938 0.0070 0.0596

3 0.9677 0.0043 0.0479

4 0.7680 0.0055 0.0530

5 0.6622 0.0054 0.0578

6 0.7065 0.0044 0.0552

7 0.5605 0.0075 0.0721

8 0.5265 0.0064 0.0576

A variância explicada pelos fatores é proporcionada pelos autovalores correspondentes. Quando analisados

os autovalores de um conjunto de dados, é possível saber de que modo as variâncias da matriz de correlação

estão distribuídas. Os autovalores representam o quanto a variância é explicada pelo fator, ou o quanto cada

fator explica a variabilidade dos dados. Foi analisada a proporção da variância explicada pelo primeiro fator,

e a proporção da variância total explicada.

A tabela 6 traz as regressões polinomiais obtidas a partir da relação entre as médias da proporção da

variância total explicada e os tamanhos das amostras para cada simulação realizada, enquanto a tabela 7 traz

os indicadores de ajuste correspondentes.

Tabela 6: Modelo de Regressão Ajustados à Proporção de Variância Total Explicada pelos Fatores

simulação MODELO y = a0+ a1x + a2x

2+…+ anxn

1 y = -318.2401+821.9924x-684.5084x2+279.4772x3--56.1966x4 +4.4641x5

2 y = 651.9000-1151.6000x +909.400x2-358x3+70.2000x4-5.5000x5

3 y = -46.4662+293.9963x -276.3715x2+123.2896x3-26.5760x4+2.2351x5

4 y = 67.3391+55.3461x -80.5261x2+43.0299x3-10.1817x4+0.9018x5

5 y = 43.8470+114.8543x -136.0102x2+69.0988x3-16.2540x4+1.4583x5

6 y = 398.8664-641.9936x +502.0180x2-195.6648x3 +37.8994x4-2.9143x5

7 y = -273.7632+724.5202x -595.2926x2+239.3083x3 -47.3217x4+3.6945x5

8 y = -14.3238+194.4189x-172.7246x2+72.6408x3 -14.7524 x4+1.1691x5

V Simposio de Metodos Numericos Computacionais

328

Tabela 7: Indicadores para a Regressão das Proporções da Variância Total Explicada Pelos Fatores

N° simulação R2 χ2 Sy

1 0.9352 0.0077 0.1088

2 0.9659 0.0037 0.0766

3 0.9637 0.0041 0.0803

4 0.9805 0.0027 0.0639

5 0.9642 0.0039 0.0784

6 0.9602 0.0034 0.0741

7 0.9794 0.0027 0.0658

8 0.9563 0.0053 0.0893

3.3 Resultados das Funções de Regressão Polinomial para as Comunalidades.

A comunalidade é a proporção de variância comum presente em uma variável. A tabela 8 mostra os modelos

Regressão Polinomial para as comunalidades e a tabela 9 os indicadores de ajuste correspondentes.

Tabela 8: Modelos de Regressão Ajustados às Comunalidades

simulação MODELO y = a0+ a1x + a2x

2+…+ anxn

1 y = –4.8152+11.6841x -9.7178x2+3.9597x3-0.7933x4+0.0627x5

2 y = 8.9975-16.3317x +12.8092x2-5.0046x3+0.9732x4-0.0753x5

3 y = 3.4162-4.9483x +3.5994x2-1.3114x3+0.2385x4-0.0173x5

4 y = –2.2536+6.5603x -5.6869x2 +2.3933x3-0.4923x4+0.0398 x5

5 y = 1.6673-1.9025x +1.5143x2-0.6110x3+0.1234x4-0.0099 x5

6 y = –4.3464+9.8290x -7.5191x2+2.8354x3-0.5287x4+0.0391 x5

7 y = 5.1505-8.7622x +6.9154x2-2.7317x3 +0.5382x4-0.0422 x5

8 y = 1.6175-1.3603x +0.6928x2-0.1383x3+0.0031 x4+0.0015 x5

Tabela 9: Indicadores para a Regressão das Comunalidades

N° simulação R2 χ2 Sy

1 0.8445 0.00019 0.0018

2 0.8889 0.00013 0.0015

3 0.9249 0.00013 0.0014

4 0.9009 0.00012 0.0014

5 0.8060 0.00020 0.0018

6 0.8211 0.00016 0.0016

7 0.9025 0.00015 0.0016

8 0.8367 0.00018 0.0017

Na próxima seção serão expostos os gráficos referentes as 8 simulações amostrais realizadas. Ressaltando

que os gráficos alusivos aos modelos foram gerados em função do tamanho das amostras, não em função do

logaritmo do tamanho das amostras. E as análises de resíduos para possibilitar o uso da inferência em

regressão polinomial foi realizada, mas os resultados estão impossibilitados de serem detalhados neste

estudo.

V Simposio de Metodos Numericos Computacionais

329

3.4 Os Gráficos Obtidos Através da Regressão Polinomial

Para cada simulação foram plotados quadro gráficos: médias do MSA, das comunalidades, das proporções

das variâncias explicadas (fator 1 e total) em relação em relação aos tamanhos das amostras, sendo que nesse

artigo será mostrado apenas os gráficos da última simulação, com número de variáveis por fator igual a

v=[15 5 5 5]

Figura 1: Mostra o grafico gerado das médias do MSA em relação ao tamanho das amostras.

Figura 2: Mostra o grafico gerado das médias da variância explicada pelo Fator 1 em relação ao tamanho das amostras.

Figura 3 Mostra o grafico gerado das médias da variância total (%) em relação ao tamanho das amostras.

V Simposio de Metodos Numericos Computacionais

330

Fifura 4: Mostra o grafico gerado das médias das comunalidades em relação ao tamanho das amostras.

4 CONCLUSÕES

De acordo com as análises dos resultados obtidos, para os casos estudados, pode-se concluir que:

(1) Para todas as variáveis estudadas (MSA, proporção da variância explicada pelo primeiro fator, proporção

e variância total explicada e comunalidades médias) o modelo de regressão polinomial adequado, em relação

aos tamanhos das amostras, é o de quinto grau. O melhor ajuste é verificado para o MSA, com coeficiente

de explicação sempre acima de 0,99.

(2) Das regressões polinomiais obtidas a partir das médias das proporções de explicação da variância,

proporcionadas pelo fator 1, em relação aos tamanhos das amostras, verifica-se que os modelos de

Regressão Polinomial mais adequados também foram de grau 5 em todas as simulações. Todavia neste caso

os indicadores de ajuste verificaram ser o pior ajuste modelado e o coeficiente de explicação (R2) apresentou

uma variação grande de simulação para simulação, mostrando alguns resultados ruins. Ocorreu também uma

piora nos demais indicadores, apontando um ajuste ruim com grande variabilidade do coeficiente de

explicação, constatando que o tamanho da amostra tem grande influência na modelagem.

(4) O ajuste para a explicação total também apresenta bom resultado, conforme os indicadores mostrados na

Tabela 7, com coeficiente de explicação sempre acima de 0,93. A variação total explicada decresce com o

tamanho da amostra, mas com tendência de estabilização para as amostras maiores.

(5) O ajuste para as comunalidades médias tem um padrão semelhante ao da explicação total, porém com a

qualidade do ajuste inferior, pois aqui o coeficiente de explicação está acima de 0,80.

REFERÊNCIAS

CATTELL, R. The Scientific Use Of Factor Analysis. New York: Plenum, 1978.

FACHEL, J. M. G. Análise Fatorial. Dissertação (Mestrado) – IME, USP, São Paulo, 1976.

FÁVERO, L.P. et al. Análise de Dados: Modelagem Multivariada para Tomada de Decisões. 1 ed. Rio de

Janeiro: Campos Elsevier, 2009. GORSUCH, R. L. Factor Analysis. Hillsdale: Lawrence Erlbaum Associate, 1983.

HAIR, J. J .F.; ANDERSON, R. E.; TATHAM, R. L.; and BLACK, W. C. Multivariate data analysis. New

Jersey: Prentice-Hall, 1998.

HAIR, J.H. F. et al. Fundamentos de Métodos de Pesquisa em Administração. Porto Alegre: Bookmann,

2005.

JOHNSON, R. A.; WICHERN, D.W. Applied multivariate statistical analysis. 2. ed. Englewood Cliffs:

Prentice-Hall, 1988. 607p.

KAISER, H. F. A second generation little jiffy. Revista Psychometrika, v. 35, n. 4, dez. 1970.

KLINE, P. An Easy Guide To Factor Analysis. Revista Psychometrika, v. 35, n. 4, 1970.

PEARSON, R. H.; MUNDFORM, D. J. Recommended Sample Size for Conducting Exploratory Factor

Analysis on Dichotomous Data. Journal of Modern Applied Statistical Methods, v. 9, n. 2, p. 359-368, 2010

V Simposio de Metodos Numericos Computacionais

331

V Simposio de Metodos Numericos Computacionais

PROJEÇÃO DA SÉRIE TEMPORAL CANADIAN LYNX PELO MÉTODO HÍBRIDO SVR-LSSVR WAVELET

Resumo: Adaptados do support vector machine para a tarefa de regressão os previsores support vector regression (SVR) e least square support vector regression (LSSVR) vem se mostrando técnicas eficientes na projeção de séries temporais (estocásticas). O presente artigo propõe um previsor híbrido que integra as seguintes abordagens: SVR, LSSVR e a decomposição wavelet que oferece vantagens atrativas no processo preditivo. A fim de ilustrá-lo, é utilizada a série temporal Canadian Lynx. Os resultados alcançados pelo previsor híbrido proposto quando comparado com dezoito outros métodos alcançou maior nível de acurácia. Palavras-chave: série temporal, SVR, LSSVR, decomposição wavelet.

1. INTRODUÇÃO Um dos objetivos no estudo de séries temporais (estocásticas) é modelá-las com a finalidade de se produzir previsões, com o maior nível de acurácia possível. Não obstante, para prevê-las, é necessária a utilização de observações passadas que são analisadas com o intuito de se desenvolver um modelo matemático que as descreva, por meio da relação de autodependência existente entre elas. A acurácia nas projeções temporais é de suma importância em muitos processos de tomada de decisão, o que motiva a realização de pesquisas, cada vez maiores, neste campo do conhecimento. Nesta perspectiva, o método preditivo individual support vector regression (SVR), cuja versão inicial foi proposta por (VAPNIK, 1995), consiste em uma metodologia preditiva baseada na teoria da aprendizagem estatística, a qual adere ao princípio da minimização do risco estrutural. Tal abordagem que vem sendo frequentemente utilizada, nos últimos anos, na projeção de séries temporais, principalmente aquelas exibem não linearidade em sua estrutura de autodependência, com extraordinário sucesso, como mostram, dentre outros, (VAPNIK; GOLOWICH; SMOLA, 1996), (HONG, 2011), (ANANDHI; CHEZIAN, 2013). Derivado do SVR, o método least squares support vector regression (LSSVR), proposto por (SUYKENS; VANDEWALLE, 1999)(SUYKENS; VANDEWALLE, 1999), possui as mesmas capacidades que o SVR, no tocante a mapear estruturas de autodependência não lineares; porém, um de seus diferenciais reside no fato de que utiliza restrições de igualdade, ao invés de restrições de desigualdade. Além disso, adota o sistema de mínimos quadrados lineares como a função objetivo (a ser otimizada), o que o torna, do ponto de vista computacional e operacional, atraente. Da Análise Wavelet, (MALLAT, 2009), obtém-se uma decomposição ortogonal de uma série temporal em termos de componentes wavelet (CWs). As CWs consistem em subséries temporais com

Samuel Bellido Rodrigues, Arinei Carlos Lindbeckda Silva, Luiz Albino Teixeira Junior, Edgar

Manuel Carreno Franco , Rafael Morais Souza

332

frequências espectrais diferentes e constantes, que tendem exibir melhores padrões de comportamento que a série temporal original. Diversos artigos propõem a decomposição wavelet como um método auxiliar à modelagem de sinais temporais e que apresentam ganhos preditivos relevantes como mostrado, por exemplo, em (TEIXEIRA JR et al., 2012), (SANG, 2013), (TEIXEIRA JR et al., 2015) e (TEIXEIRA; TEIXEIRA JUNIOR; SIQUEIRA, 2015). Em (TEIXEIRA JR et al., 2012), é apresentada uma metodologia em que as CWs de uma série temporal constituem os padrões de entrada de uma rede neural artificial multilayer perceptron (RNA-MLP), cuja camada de saída neural produz as suas previsão, dentro e fora da amostra. Os autores mostram que os resultados preditivos da RNA-MLP integrada com a decomposição wavelet alcançaram resultados preditivos muito superiores aos de uma RNA-MLP convencional (que não utiliza o pré-processamento dos padrões de entrada via a decomposição wavelet). Por sua vez, é bem conhecido na literatura de séries temporais que a combinação linear de previsões pode obter ganhos de acurácia relevantes, no processo preditivo. Em (GRANGER, 1989), por exemplo, pode ser verificado, na modelagem de diversas séries temporais, oriundas de diferentes áreas, que a combinação linear de previsões incorreu em ganhos de acurácia preditiva. Em (FARIA; MUBWANDARIKWA, 2008) (FARIA; MUBWANDARIKWA, 2008), por outro lado, salientam que a previsão combinada tende a ser mais informativa, uma vez que pode ser visualizada como uma agregadora de informações oriundas de diferentes fontes (a saber, métodos preditivos individuais, a saber). Em (WALLIS, 2011) e em (MANCUSO; WERNER, 2013), em que são fornecidas revisões históricas sobre métodos preditivos combinados, são referidos e comentados muitos dos principais artigos que tratam de combinações lineares de previsões. Recentemente, vários outras contribuições atestam e incentivam à utilização de previsões linearmente combinadas, como, por exemplo em: (BABU; REDDY, 2014b); (BABU; REDDY, 2014a); (KOSANAN; KANTANANTHA, 2014); (RODRIGUES et al., 2014a); (RODRIGUES et al., 2014b); (RODRIGUES et al., 2015) e (TEIXEIRA; TEIXEIRA JUNIOR; SIQUEIRA, 2015). Dado que a combinação linear de previsões e a decomposição wavelet podem contribuir substancialmente na obtenção de ganhos no processo de geração de previsões, este artigo propõe uma metodologia preditiva (aplicável à modelagem de qualquer série temporal que exiba estrutura de autodependência não linear) que integra as seguintes abordagens: decomposição wavelet, SVR, LSSVR e combinação linear de previsões. A escolha do SVR e LSSVR ocorreu por serem aplicáveis à modelagem de quaisquer séries temporais e pela sua comprovada eficiência ao fazê-lo. Informações distintas são capturas por cada abordagem, de forma que as previsões combinadas são agregadoras de informações.

2. METODOLOGIA PROPOSTA

Seja ( )( ) 1Tt

y t= uma série temporal de cardinalidade T a ser prevista. O método híbrido proposto é

executado de acordo com os quatro passos seguintes. Passo 1 - Decomposição wavelet da série original: uma decomposição wavelet de nível r ,

(TEIXEIRA JR et al., 2015) da série temporal ( )( ) 1Tt

y t= é realizada, gerando-se 1r + CWs - isto é, uma

CW de aproximação de nível 0m , denotada por ( )( )0 1m

TA

ty t

=, e r CWs de detalhe de níveis

( )0 0 0, 1,..., 1m m m r+ + − , denotadas por ( )( )0 1

,m

TD

ty t

= ( )( )10 1

,...,m

TD

ty t

+ =( )( )( 1)0 1m r

TD

ty t

+ − = respectivamente. Na

prática, usualmente se adota para o parâmetro de nível 0m valor igual ao nível de decomposição r . As CWs de aproximação e de detalhe foram calculadas no software Matlab 8.0, o qual oferece várias opções de bases wavelet, tais como: as famílias de Haar, Daubechies, coiflets e symlets. Passo 2 - Modelagem das componentes wavelet via SVR e LSSVR: as CW obtidas no passo 1 são modeladas através de um SVR e de um LSSVR.

V Simposio de Metodos Numericos Computacionais

333

Para a obtenção dos modelos individuais SVR, foi utilizada uma biblioteca do software Matlab 8.0, denominada LIBSVM (versão 3.2), a qual foi desenvolvida por Chang e Lin (2015) e se encontra disponível em http://www.csie.ntu.edu.tw/~cjlin/libsvm/. Para modelagem via LSSVR, foi utilizada uma biblioteca para Matlab 8.0 denominada LS-SVMlab, (versão 1.8), a qual se encontra disponível no link http://www.esat.kuleuven.be/sista/lssvmlab/. Esta foi desenvolvida por (BRABANTER et al., 2011), baseado nos trabalhos de (SUYKENS; GESTEL; BRABANTER, 2002) e de (SUYKENS; VANDEWALLE, 1999). Passo 3 - Combinação linear das previsões dos métodos preditivos SVR e LSSVR: Uma vez obtidas as previsões da componente wavelet de aproximação e as r previsões das componentes de detalhe, na etapa anterior, através dos métodos SVR e LSSVR, faz-se a combinação linear das previsões, com o objetivo de se obter a previsão da componente de aproximação, e de cada umas das r componentes de detalhe. Assim, para cada uma das CW, a referida combinação é dada conforme a Equação (1).

( ) ( )( ) ( )( )1 2' 'CW,SVR S R ',LS VCSVR LSS W CWVR

T T T

CW t T t T t TCWy t tCL yρ ρ− = = =

= × + × (1)

Onde: CW,SVRCWy são as componentes wavelet previstas por SVR, ,LSSVRCWCWy são as componentes

wavelet LSSVR, 1 2eρ ρ denotam os pesos adaptativos cujos valores ótimos são determinados através da solução do problema de programação não linear, representado na Equação (2).

( )2

1 2

'

1 '

. . ρ ρ

−=

= −∑ SVR LSVRCW CW

T

t T

Min MSET

s a são irrestr

y CL

e itas (2)

Passo 4 – Soma das combinações lineares: somam-se, para cada instante t, as previsões linearmente combinadas obtidas no passo anterior, conforme a Equação (3).

( )( ), , 1, ( 1),0 0 0 0''

ˆ ...− − + − + − −

+

== + + + +

m SVR LSSVR m SVR LSSVR m SVR LSSVR m r SVR LSSVR

T hH A D Dt T Dy t CL CL CL CL (3)

Nesta etapa as previsões linearmente combinadas são somadas para cada instante t, de forma a gerar as previsões combinadas, dentro e fora da amostra, que será denotado por ( )( ) ''

ˆ +

=

T h

t THy t . Os passos do método híbrido proposto aqui são esquematizados no fluxograma da Figura 1.

Soma das combinações de previsões

Modelo híbrido (previsões pontuais)

SVR1 LSSVR1

CL1

SVR2 LSSVR2

CL2

SVR3 LSSVR3

CL3

Série temporal original

Decomposição wavelet nível r

Componente de aproximação

nível m0

Componente de detalhe nível m0

Componente de detalhe

nível m0+1

Componente de detalhe

nível m0+(r-1)

...

SVRr+1 LSSVRr+1

CLr+1

Figura 1 - Fluxograma da metodologia híbrida proposta.

3. RESULTADOS NUMÉRICOS Nesta seção, a série temporal anual do Canadian Lynx (lince canadense) foi usada para mostrar a eficácia e o poder preditivo do método híbrido proposto no processo de geração de previsões. A série

V Simposio de Metodos Numericos Computacionais

334

temporal supracitada se refere ao número de linces preso por ano no distrito de Rio Mackenzie do Norte do Canadá para o período 1821-1934 e pode ser obtida em https://datamarket.com/. Existem na literatura vários trabalhos que fazem análise e previsão da série de tempo Canadian Lynx, credita-se, porém, a (MORAN, 1953), como sendo o primeiro trabalho de análise desta. O gráfico da série Canadian Lynx (com 114 observações, relativas ao período 1821-1934) é exibida graficamente, na Figura 2. Pode-se observar uma periodicidade de aproximadamente 10 anos, conforme destaca (ZHANG, 2003).

Figura 2 - Série temporal Canadian Lynx (1821-1934).

Neste experimento, foram produzidas previsões um passo à frente, com um horizonte de previsão de 14 passos à frente (ou seja, h = 14), já que o presente método é comparado aos resultados de outros autores, que se referem exclusivamente a este tipo de projeção. Além disso, é considerada a versão logarítmica de base 10 da série temporal do Canadian Lynx, para fins de modelagem. Este conjunto de dados possui cardinalidade 114 observações, sendo que as primeiras 100 observações foram utilizadas para treinamento, enquanto que as 14 remanescentes, para teste. Para tanto, no primeiro passo, foi utilizada uma decomposição wavelet de nível 2, gerando uma CW de aproximação de nível 2 (cuja notação é A2) e duas CWs de detalhe de níveis 2 e 3 (cujas notações são respectivamente D2 e D3). A base wavelet escolhida para a referida decomposição foi a da família de Daubechies com momento nulo igual a 8 (cuja notação é dada por “db 8”). As 3 componentes wavelet geradas podem ser visualizadas na Figura 3.

0

2000

4000

6000

8000

1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101

106

111

Cana

dian

lynx

tempo em anos

1,7

2,2

2,7

3,2

3,7

1 8 15 22 29 36 43 50 57 64 71 78 85 92 99

log

Lynx

A2_

db8

Tempo em anos

CW A2_db8

-0,21

-0,11

-0,01

0,09

0,19

1 8 15 22 29 36 43 50 57 64 71 78 85 92 99

log

Lynx

D2_

db8

Tempo em anos

CW D2_db8

V Simposio de Metodos Numericos Computacionais

335

Figura 3: CWs da decomposição wavelet de nível com base db8.

Quanto à modelagem SVR, foi utilizado o Kernel polinomial, definido por ( )* , 0 degreegamma u v coef+

e o Kernel RBF, dado por ( )2xp *e gamma u v− − . É conhecido que o desempenho de generalização de

um modelo SVR depende de um bom ajuste do parâmetro de regularização (C) e do parâmetro ε da função perda, bem como dos parâmetros relacionados ao Kernel, escolhido conforme (SMOLA; SCHÖLKOPF, 1998). A biblioteca utilizada aqui permite que os parâmetros sejam definidos pelo usuário. A fim de melhor avaliar o desempenho da abordagem proposta, para cada CW a ser modelada, os parâmetros C e ε , e os parâmetros do Kernel foram configurados em uma busca por grade (grid search) conforme (HSU; CHANG; LIN, 2010), e selecionado aquele que apresentou um melhor desempenho de validação cruzada 10 vezes 10-fold no conjunto de treino, (VIANA; HAFTKA; STEFFEN, 2009).

Para o LSSVR, é necessário o ajuste de dois parâmetros, o de regularização ( )γ e o do Kernel ( )2σ ,

sendo que nesse caso somente o Kernel gaussiano foi utilizado, o qual é dado por 2

2xp2

eu vσ

− −

. A

fim de se determinar a melhor configuração, foi programado um algoritmo de busca por grade e selecionado aquele que apresentou um melhor desempenho de validação cruzada 10 vezes 10-fold no conjunto de treinamento. Os resultados selecionados, após o treino baseados no menor cross validation mean squared error (CVMSE) (IBRAHIM; WIBOWO, 2014) relativos à modelagem SVR podem ser visualizados na Tabela 1; e os relativos à modelagem LSSVR, na Tabela 2.

Tabela 1- Resultados dos parâmetros selecionados SVR.

Série Kernel Gamma Degree coef0 Cost epsilon janela A2 Polinomial 0.36 3 3 121 0.001 10 D2 Polinomial 0.01 3 4 1094 0.01 10 D3 Polinomial 0.21 3 4 73 0.01 10

Tabela 2- Resultados dos parâmetros selecionados na modelagem LSSVR.

Série Kernel γ 2σ janela A2 Rbf 47345 40.76 4 D1 Rbf 5157098 21742.47 10 D2 Rbf 82012812838944 1865591127 10

Os resultados estatísticos obtidos pelo método proposto são exibidos, na Tabela 3, e comparados com as seguintes as abordagens: (i) (ZHANG, 2003), que comparou resultados obtidos com os modelos ARIMA e RNA com o híbrido ARIMA-RNA; (ii) (KAJITANI; HIPEL; MCLEOD, 2005), que

-0,5

-0,1

0,3

1 8 15 22 29 36 43 50 57 64 71 78 85 92 99log

Lynx

D3_

db8

Tempo em anos

CW D3_db8

V Simposio de Metodos Numericos Computacionais

336

utilizaram na modelagem da Canadian Lynx via uma RNA Feed-Forward (FFNN - Feed-Forward Neuron Networks) e modelo SETAR (Self-Exciting Threshold Auto-Regression); (iii) (ALADAG; EGRIOGLU; KADILAR, 2009), que realizaram a combinação de RNAs recorrentes Elman e um modelo ARIMA; (iv) (ZHENG; ZHONG, 2011), que apresentaram uma metodologia que combina a Função de Base Radial (RBF – radial basis function) de uma rede neural artificial baseado em alisamento binomial (BS-RBF) e uma abordagem que combina a função de base radial (RBF) de uma rede neural com modelo auto-regressivo (AR), utilizando a técnica alisamento binomial (BS), denominado BS-RBFAR; (v) (KHASHEI; BIJARI, 2011a), os quais propuseram um modelo híbrido RNA/ARIMA e o compararam com a modelagem ANN (p,d,q), (vi) (KHASHEI; BIJARI, 2012), que sugeriram metodologias híbridas com base em um classificador (redes neurais probabilísticas (PNNS)), gerando os previsores ARIMA/PNN e ANN/PNN, (vii) (KARNABOOPATHY; VENKATESAN, 2012), que utilizaram em sua modelagem o modelo Full Range Auto-regressive (FRAR); (viii) (ADHIKARI; AGRAWAL, 2013), os quais propuseram uma metodologia combinando vários algoritmos de treinamento denominado (Ensemble of Multiple ANN Training Methods) e a comparou com as modelagens ARIMA e support vector machine (SVM) para regressão; e (ix) (ISMAIL; SHABRI, 2014), que usaram support vector machine (SVM) para regressão e SVM com mínimos quadrados (LSSMV). Quando comparado com os resultados de outros métodos nas mesmas condições, a metodologia híbrida proposta alcançou melhores resultados que outros 18 métodos preditivos competidores, em relação às medidas de acurácia MSE (mean square error) e MAE (mean absolute error), que são definidas em (HAMILTON, 1994). Note que, em relação ao segundo melhor método competidor (a saber, LSSVM), o ganho relativo na estatística MSE foi de 59%; enquanto que foi de 37% na métrica MAE. Por sua vez, a Figura 4 mostra os valores de previsão na amostra de teste, com as últimas 14 observações. A linha contínua representa os dados reais da série subjacente, enquanto que a linha pontilhada, as previsões produzidas pelo método proposto. É possível verificar que as previsões e as observações exibem alta correlação, evidenciado pela proximidade de seus pontos no plano.

Tabela 3 - Comparativo entre métodos de previsão aplicados à série temporal log Canadian Lynx, utilizando as estatísticas de aderência MSE e MAE.

Autores Métodos h=14 MSE MAE

(ZHANG, 2003) ARIMA 0,020486 0,112255

ANN 0,020466 0,112109 HYBRID 0,017233 0,103972

(KAJITANI; HIPEL; MCLEOD, 2005) FFNN 0,0090 - SETAR 0,0140 -

(ALADAG; EGRIOGLU; KADILAR, 2009) HYBRID 0,00900 -

(ZHENG; ZHONG, 2011) BS-RBF 0,002809 - BS-RBFAR 0,002199 -

(KHASHEI; BIJARI, 2011b) ANN(p,d,q) 0,013609 0,089625 ANNs/ARIMA 0.00999 0,085055

(KHASHEI; BIJARI, 2012) ARIMA/PNN 0,011461 0,084381 ANN/PNN 0,014872 0,079628

(KARNABOOPATHY; VENKATESAN, 2012) FRAR 0,00455 -

(ADHIKARI; AGRAWAL, 2013) ARIMA 0,01285 -

SVR 0,05267 - ENSAMBLE 0,00715 -

(ISMAIL; SHABRI, 2014) SVR 0,00850 0,07460 LSSVM 0,00300 0,04180

Os autores Método Proposto 0,00123 0,02626

V Simposio de Metodos Numericos Computacionais

337

Figura 4: Observações e previsões, na amostra de teste

4. CONCLUSÃO Nesse artigo, foi proposto um previsor híbrido de séries temporais usando a decomposição wavelet, a modelagem via support vector regression (SVR) e least square support vector regression (LSSVR), programação não linear e a combinação de previsões. Os resultados alcançados pelo previsor híbrido proposto na modelagem da série temporal canadian lynx quando comparadas as medidas de acurácia MSE e MAE alcançou maior nível de acurácia. É importante salientar que, embora os fundamentos teóricos associados à metodologia proposta sejam complexo, a sua implementação é relativamente simples, quanto utilizados os programas e pacotes mencionados no texto. Agradecimentos: Às instituições: Itaipu Binacional, PPGMNE (Programa de Pós Graduação em Métodos Numéricos em Engenharia), CEASB (Centro de Estudos Avançados em Segurança de Barragens), FPTI (Fundação Parque Tecnológico Itaipu).

REFERÊNCIAS ADHIKARI, R.; AGRAWAL, R. K. A Homogeneous Ensemble of Artificial Neural Networks for Time Series Forecasting. International Journal of Computer Applications, v. 32, n. 7, p. 8, 2013. ALADAG, C. H.; EGRIOGLU, E.; KADILAR, C. Forecasting nonlinear time series with a hybrid methodology. Applied Mathematics Letters, v. 22, n. 9, p. 1467–1470, 2009. ANANDHI, V.; CHEZIAN, R. M. Support Vector Regression to Forecast the Demand and Supply of Pulpwood. International Journal of Future Computer and Communication, v. 2, n. 3, p. 1–4, 2013. BABU, C. N.; REDDY, B. E. A moving-average filter based hybrid ARIMA–ANN model for forecasting time series data. Applied Soft Computing, v. 23, p. 27–38, 2014a. BABU, C. N.; REDDY, B. E. Prediction of selected Indian stock using a partitioning–interpolation based ARIMA–GARCH model. Applied Computing and Informatics, out. 2014b. BRABANTER, K. DE et al. LS-SVMlab Toolbox User ’ s Guide. [s.l: s.n.]. CHANG, C.-C.; LIN, C.-J. LIBSVM -- A Library for Support Vector Machines. Disponível em: <http://www.csie.ntu.edu.tw/~cjlin/libsvm/>. Acesso em: 2 jan. 2015. FARIA, A. E.; MUBWANDARIKWA, E. The geometric combination of bayesian forecasting models. Journal of Forecasting, v. 27, n. 1, p. 519–535, 2008. GRANGER, C. W. J. Combining forecasts – twenty years later. Journal of Forecasting, v. 8, p. 167–73, 1989. HAMILTON, J. D. Time Series Analysis. [s.l.] Princeton University Press, 1994. v. 39 HONG, W.-C. Electric load forecasting by seasonal recurrent SVR (support vector regression) with chaotic artificial bee colony algorithm. Energy, v. 36, n. 9, p. 5568–5578, set. 2011. HSU, C.-W.; CHANG, C.-C.; LIN, C.-J. A Practical Guide to Support Vector Classification. [s.l: s.n.]. Disponível em: <http://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf>. IBRAHIM, N.; WIBOWO, A. Support vector regression with missing data treatment based variables selection for water level prediction of Galas River in Kelantan Malaysia. WSEAS Transactions on Mathematics, v. 13, p. 69–78, 2014. ISMAIL, S.; SHABRI, A. Time Series Forecasting using Least Square Support Vector Machine for Canadian Lynx Data. Jurnal Teknologi, v. 1, p. 11–15, 2014.

2,3

2,8

3,3

1 2 3 4 5 6 7 8 9 10 11 12 13 14

Cana

dian

Lyn

x

Tempo em anos

Série Híbrido

V Simposio de Metodos Numericos Computacionais

338

KAJITANI, Y.; HIPEL, K. W.; MCLEOD, A. I. Forecasting nonlinear time series with feed-forward neural networks: A case study of Canadian lynx data. Journal of Forecasting, v. 24, p. 105–117, 2005. KARNABOOPATHY, R.; VENKATESAN, D. Data mining in canadian lynx time series. Journal of Reliability and Statistical Studies, v. 5, n. 1, p. 1–06, 2012. KHASHEI, M.; BIJARI, M. A novel hybridization of artificial neural networks and ARIMA models for time series forecasting. Applied Soft Computing Journal, v. 11, n. 2, p. 2664–2675, 2011a. KHASHEI, M.; BIJARI, M. Which Methodology is Better for Combining Linear and Nonlinear Models for Time Series Forecasting ? v. 4, n. 4, p. 265–285, 2011b. KHASHEI, M.; BIJARI, M. A new class of hybrid models for time series forecasting. Expert Systems with Applications, v. 39, n. 4, p. 4344–4357, 2012. KOSANAN, O.; KANTANANTHA, N. Thailand ’ s Para Rubber Production Forecasting ComparisonProceedings of the International MultiConference of Engineers and Computer Scientists 2014. Anais...Hong Kong: 2014 MALLAT, S. A Wavelet Tour of Signal Processing: The Sparse Way. Third Edit ed.[s.l: s.n.]. MANCUSO, A. C. B.; WERNER, L. Review of Combining Forecasts Approaches. Independent Journal of Management & Production, v. 4, n. June, p. 248–277, 2013. MORAN, P. The statistical analysis of the Canadian Lynx cycle. Australian Journal of Zoology, v. 1, n. 3, p. 291, 1953. RODRIGUES, S. B. et al. Combinação Linear De Redes Neurais Artificiais E Máquinas De Vetores De Suporte Para Regressão Nas Previsões De Vazões Mensais No Posto 266-ItaipuXVII Encontro de Modelagem Computacional V Encontro de Ciência e Tecnologia de Materiais Universidade Católica de Petrópolis (UCP). Anais...2014a RODRIGUES, S. B. et al. Comparativo Entre Arima, Redes Neurais Artificiais, Máquinas De Vetores Suporte Para Regressão E Combinação Linear De Previsões De Vazões Mensais No Posto 266- ItaipuSimpósio de Engenharia de Produção. Anais...XXI SIMPEP, 2014b RODRIGUES, S. B. et al. Forecasting of the relative displacements in block I11 of the Itaipu hydroelectric plant dam through a ARIMA-SVR hybrid approach. Espaço Energia, v. 22, n. 22, p. 28–37, 2015. SANG, Y.-F. A review on the applications of wavelet transform in hydrology time series analysis. Atmospheric Research, v. 122, p. 8–15, mar. 2013. SMOLA, A. J.; SCHÖLKOPF, B. A tutorial on support vector regressionStatistics and Computing, 1998. SUYKENS, J. A. K.; GESTEL, T. VAN; BRABANTER, J. DE. Least Squares Support Vector Machines. [s.l: s.n.]. SUYKENS, J. A. K.; VANDEWALLE, J. Least Squares Support Vector Machine Classifiers. Neural Processing Letters, v. 9, n. 3, p. 293–300, 1999. TEIXEIRA JR, L. A. et al. Redes neurais artificiais e decomposição wavelet na previsão da radiação solar diretaCongresso Latino-Iberoamericano de Investigación Operatica e Simpósio Brasileiro de Pesquisa Operacional. Anais...2012 TEIXEIRA JR, L. A. et al. Artificial Neural Network and Wavelet decomposition in the Forecast of Global Horizontal Solar Radiation. Sobrapo, v. 35, n. 1, p. 1–16, 2015. TEIXEIRA, L. L.; TEIXEIRA JUNIOR, L. A.; SIQUEIRA, P. H. Forecasts of monthly flows in the post-266 Itaipu using neural networks with wavelet shrinkage. Espaço Energia, v. 22, n. 22, p. 8–17, 2015. VAPNIK, V.; GOLOWICH, S. E.; SMOLA, A. Support Vector Method for Function Approximation, Regression Estimation, and Signal Processing. Advances in Neural Information Processing Systems, v. 9, p. 281–287, 1996. VAPNIK, V. N. The Nature of Statistical Learning Theory. [s.l: s.n.]. v. 8 VIANA, F. A C.; HAFTKA, R. T.; STEFFEN, V. Multiple surrogates: How cross-validation errors can help us to obtain the best predictor. Structural and Multidisciplinary Optimization, v. 39, n. 4, p. 439–457, 2009. WALLIS, K. F. Combining forecasts : forty years later. Applied Financial Economics, p. 33–41, 2011. ZHANG, G. P. Time series forecasting using a hybrid ARIMA and neural network model. Neurocomputing, v. 50, p. 159–175, jan. 2003. ZHENG, F.; ZHONG, S. Time series forecasting using a hybrid RBF neural network and AR model based on binomial smoothing. World Academy of Science Engineering and Technology, p. 1125–1129, 2011.

V Simposio de Metodos Numericos Computacionais

339

V Simposio de Metodos Numericos Computacionais

APLICAÇÃO DE MÉTODOS NUMÉRICOS SIMPLES PARA A RESOLUÇÃO DE PROBLEMA DE VALOR NO CONTORNO

ASSOCIADO À OTIMIZAÇÃO DE BIOPROCESSOS

Resumo: Neste trabalho, métodos numéricos simples foram utilizados para resolver o

problema de valor no contorno decorrente da aplicação do Princípio do Máximo de

Pontryagin à otimização de um bioprocesso em batelada de produção de antibiótico. Os

métodos utilizados foram o de Runge-Kutta-Gill para a integração das equações diferencias

ordinárias resultantes e o de Newton-Raphson para resolver uma equação algébrica não linear

que surge na formulação do problema. Os resultados obtidos foram comparados com uma

solução do problema obtida pelo método da colocação ortogonal, sendo observada uma

estrita concordância entre as duas soluções.

Palavras-Chave: Otimização, Princípio do Máximo de Pontryagin, Bioprocesso em Batelada, Antibiótico

1 INTRODUÇÃO Apesar de determinados antibióticos apresentarem-se eficazes no tratamento de doenças,

alguns deles ainda não são comercializados devido à baixa produtividade do bioprocesso e às

dificuldades na etapa de purificação, o que acarreta um alto custo do medicamento. Nestes

casos, faz-se necessária a otimização dos processos de produção e de recuperação do

bioproduto sendo que para este fim, a modelagem matemática apresenta-se como uma

moderna e poderosa ferramenta.

A otimização corresponde à utilização do modelo matemático para determinar as condições

operacionais ótimas, por meio da maximização ou minimização de uma função objetivo

previamente definida.

Com relação à temperatura, sabe-se que esta variável exerce uma forte influência sobre o

conjunto da atividade microbiana, existindo um intervalo estreito de valores no qual a

atividade celular é máxima. Para fungos produtores de antibióticos, este intervalo está situado

entre 25 e 27oC, sendo a temperatura do meio fermentativo controlada mediante a

manipulação da temperatura ou vazão da água de refrigeração na camisa do reator.

Constantinides e Mostoufi (1999) apresentaram um estudo de caso da otimização do perfil de

temperatura durante o bioprocesso de produção em batelada de penicilina usando o Princípio

do Máximo de Pontryagin. Os autores utilizaram o método da colocação ortogonal para a

resolução do problema, justificando que este método é mais preciso que o método das

diferenças finitas.

Neste trabalho, utilizou-se um método numérico mais simples que o da colocação ortogonal

para a integração das equações diferenciais, o qual foi o método de Runge-Kutta-Gill de

quarta ordem. O problema resolvido foi a determinação do perfil ótimo de temperatura em

cultivos em batelada que maximiza a concentração de antibiótico ao final do processo,

utilizando-se para isso um modelo matemático do bioprocesso e o Princípio do Máximo de Pontryagin.

2 METODOLOGIA 2.1 Modelo matemático

Para este estudo de caso, o bioprocesso de produção de penicilina foi representado pelo

modelo matemático apresentado por Constantinides e Mostoufi (1999) para o crescimento de

Samuel Conceicao Oliveira, Mariana Prado Reina

340

Penicillium chrysogenum, um microrganismo produtor de penicilina. O modelo é baseado na

lei logística de crescimento limitado, sendo esta limitação descrita implicitamente pela

introdução do termo (1-X/Xm) na equação da taxa de crescimento (rx), a qual diminui ao longo

do tempo e se torna nula quando X atinge o valor máximo Xm, condição em que o crescimento

celular é encerrado. A produção de penicilina é também modelada, ao considerar que a

cinética de formação de antibiótico é dada pelo modelo misto de Luedeking e Piret

(rP=αrX+βX), com α=0 e β≠0, uma vez que o antibiótico é um metabólito secundário

produzido majoritariamente após a fase de crescimento (Sinclair e Kristiansen, 1987).

Considera-se também o fato comumente observado em fermentações penicilínicas de que o

produto é degradado por hidrólise a uma taxa proporcional à sua própria concentração, sendo

este processo descrito por uma cinética de primeira ordem. Condições isotérmicas são

implicitamente consideradas, uma vez que a temperatura também não é modelada. O modelo

completo, constituído por duas equações diferenciais ordinárias correspondentes aos balanços

de massa de células e de produto em um biorreator em batelada, é representado a seguir:

−==

m

mXX

XXr

dt

dX1µ (1)

PkXrrdt

dPhhP −=−= β (2)

onde t é o tempo, X é a concentração celular, P é a concentração de antibiótico, rX é a taxa

de crescimento celular, rP é a taxa de produção de antibiótico, rh é a taxa de hidrólise do

produto e µm, Xm, β, kh são os parâmetros do modelo.

As variáveis do modelo original foram então adimensionalizadas e expressões descrevendo

os parâmetros cinéticos (bi) em função da temperatura (θ) foram incorporadas ao modelo com

o objetivo de ampliar sua faixa de validade para condições não isotérmicas. Esta versão

ampliada do modelo é dada pelas seguintes equações (Constantinides e Mostoufi, 1999):

( ) 03.00121

2

111

1 =−= y ,yb

byb

d

yd

τ (3)

( ) 0.002132 == y ,yb

d

yd

τ (4)

onde:

( )( )

( )( )

( )( )

−−

−−=

−−

−−=

−−

−−=

262

262

53232

232

42232

232

11250,1

0,1;

250,1

0,1;

250,1

0,1

ww

wwwb

ww

wwwb

ww

wwwb

θθθ (5)

C20;71,1;94,0 C;30;005,01,13 o654

o321 ====== w w ww w ; w (6)

2.2 Princípio do Máximo de Pontryagin

As equações de balanço de massa de células e produto do modelo adimensionalizado podem

ser escritas na seguinte forma matricial:

V Simposio de Metodos Numericos Computacionais

341

( )Xfdt

Xd= (7)

onde:

( )

=

=

=

13

21

2

111

2

1;

yb

yb

byb

f

fXf

y

y X

2

1 (8)

O Hamiltoniano é dado por:

( ) XfHTλ= (9)

onde:

[ ]2

T λλλ 1 = (10)

Assim:

[ ] ( )13221

2

111121

2

1 ybyb

bybff

f

f H 21

1

2 λλλλλλ +

−=+=

= (11)

Por outro lado, as taxas de variação temporal das variáveis adjuntas λ1 e λ2 são dadas por:

−+−

=

∂−=

0

2 321

2

111

2

1

byb

bb

d

d

X

H

d

d λλ

λ

λ

ττ

λ (12)

A partir da Equação (12), as seguintes equações podem ser obtidas:

23b-yb

bb

d

dλλλ

τ

λ11

2

111

1 2+−= (13)

d

d 02 =

τ

λ (14)

A condição necessária para a otimização do bioprocesso é dada por:

( )0

/0 3

12212

11

11 =

∂+

∂−

∂=

∂⇒=

θλ

θθλ

θθ

by

bby

by

HH (15)

A partir das expressões dos bi em função da temperatura apresentadas anteriormente, obtém-

se:

( )( )

( ) ( )( )

−−

−−=

∂=

−−

−−=

∂2

62

625321

232

3211

250,1

2;0

/;

250,1

2

ww

wwwb

bb

ww

wwwb θ

θθ

θ

θ (16)

Substituindo os resultados anteriores na expressão de ∂H/∂θ=0, obtém-se a expressão do

perfil ótimo de temperatura θ:

V Simposio de Metodos Numericos Computacionais

342

( ) ( ) ( ) ( )

ww

wwy

ww

wwy

ww

wwwy

ww

wwwy

−−+

−−

−−+

−−=

262

251

232

2111

262

6251

232

32111

250,1

2

250,1

2

250,1

2

250,1

2 λλθ (17)

No equacionamento apresentado anteriormente, as Equações (11) e (13)-(15) foram retiradas

da publicação de Constantinides e Mostoufi (1999).

Quando o objetivo é maximizar a concentração de antibiótico ao final do processo é

necessário que ( ) 011 = λ e ( ) 0.112 =λ . Sendo dλ2/dt=0, a segunda condição impõe que λ2 seja

constante e igual a 1.0 em todo o domínio do tempo, isto é, λ2=1.0 para 0 ≤ τ ≤ 1.

Assim, o algoritmo para a resolução do problema consistiu dos seguintes passos:

10) atribuição de um valor inicial para λ1(0);

20) integração do sistema de EDOs desde τ=0 até τ=1 e verificação se λ1(1)=0. Caso não,

atribuição de novo valor a λ1(0) até a condição final ser satisfeita.

Para tornar o algoritmo computacional autônomo para a determinação de λ1(0), acoplou-se o

método de Newton-Raphson (Constantinides e Mostoufi, 1999) ao método de integração,

resolvendo-se a seguinte equação algébrica não linear:

( )( ) ( )[ ] ( )[ ] ( )( ) ( )[ ] 0100110 11

0

111 ==⇒=−=calculadodoespecificacalculado

f f λλλλλ44 344 21

(18)

Para o cálculo das derivadas necessárias no método de Newton-Raphson, utilizou-se a

fórmula de diferenças finitas à frente e para a integração numérica das EDOs, utilizou-se o

método de Runge-Kutta-Gill de 4a ordem de passo variável (Ramirez, 1989; Bequette, 1998;

Constantinides e Mostoufi, 1999).

3 RESULTADOS E DISUSSÃO

O algoritmo proposto foi implementado em linguagem de programação FORTRAN e os

perfis das variáveis de estado (y1, y2 e θ ) e da variável adjunta λ1 estão apresentados nas

Figuras 1 a 4, respectivamente. Tais perfis estão em estrita concordância com aqueles obtidos

por Constantinides e Mostoufi (1999) ao utilizarem o método da colocação ortogonal para a

resolução do problema proposto.

De acordo com a formulação apresentada (modelo do processo e Princípio do Máximo de

Pontryagin), o perfil ótimo de temperatura varia entre 20 e 30oC segundo o padrão mostrado

na Figura 5. Os perfis mostrados na Figura 7 evidenciam o fato bem conhecido de que altas

temperaturas (30oC) favorecem o crescimento do fungo enquanto que baixas temperaturas

(20oC) favorecem a síntese do antibiótico (Bailey e Ollis, 1986).

4 CONCLUSÃO

A partir dos resultados obtidos neste estudo pode se concluir que o método de integração

numérica de Runge-Kutta-Gill de 4a ordem foi eficaz para resolver o problema de valor no

contorno resultante da aplicação do Princípio do Máximo de Pontryagin à otimização de um

bioprocesso de produção de antibiótico. Os resultados obtidos com o método numérico

proposto foram coincidentes com aqueles obtidos, por outro autor, empregando o método

mais complexo da colocação ortogonal.

V Simposio de Metodos Numericos Computacionais

343

Figura 1: Perfil de concentração adimensional de células durante uma fermentação penicilínica não isotérmica

Figura 2: Perfil de concentração adimensional de produto durante uma fermentação penicilínica não isotérmica

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

y1 (

con

cen

tra

ção

ce

lula

r)

ττττ (-)

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

1.2

1.4

y2 (

con

cen

tra

ção

pro

du

to)

ττττ (-)

V Simposio de Metodos Numericos Computacionais

344

Figura 3: Perfil de temperatura ótimo durante uma fermentação penicilínica não isotérmica

Figura 4: Perfil da variável adjunta λ1 durante uma fermentação penicilínica não isotérmica

0.0 0.2 0.4 0.6 0.8 1.0

20

22

24

26

28

30

θθ θθ [

tem

pe

ratu

ra (

oC

) ]

ττττ (-)

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.5

1.0

1.5

2.0

2.5

3.0

3.5

4.0

λλ λλ11 11 (

-)

ττττ (-)

V Simposio de Metodos Numericos Computacionais

345

Figura 5: Perfis das variáveis de estado e da variável adjunta λ1 obtidos por Constantinides e Mostoufi (1999)

REFERÊNCIAS

BAILEY, J.E.; OLLIS, D. F. Biochemical engineering fundamentals. 2. ed. New York:

Mc.Graw-Hill, 1986.

BEQUETTE, B. WAYNE Process dynamics: modeling, analysis, and simulation. Upper

Saddle River, N.J.: Prentice Hall PTR, 1998.

CONSTANTINIDES, A.; MOSTOUFI, N. Numerical methods for chemical engineers with MATLAB applications. Upper Saddle River, N.J.: Prentice Hall PTR, 1999.

RAMIREZ, W. F. Computational methods for process simulation. Stoneham: Butterworth

Publishers, 1989.

SINCLAIR, C. G.; KRISTIANSEN, B. Fermentation kinetics and modelling. Milton

Keynes: Open University Press, 1987.

V Simposio de Metodos Numericos Computacionais

346

V Simposio de Metodos Numericos Computacionais

An Optimization Model Applied to a Two-Stage Production Environment

ABSTRACT: This article presents a mathematical model for sequencing and

scheduling in an industrial manufacturing company with a two-stage production.

In the first one, the environment consists of production in distinct parallel

machines. The second is made of test cells where items are subject to adverse

climatic conditions so that the functioning of the manufactured items is tested.

Thus, the authors propose a mathematical model that helps in the management of

production, so that it determines which machines will produce items as well as the

order of their production in the first stage. This will reduce production costs and

serve the purpose of test cells, preventing their use with idle spaces. To validate

the model, an application of random generated data is proposed, which is solved

by the use of the CPLEX software and relax-and-fix heuristics.

Keywords: Optimization model, multiple machines, multiple stages.

1 Introduction The task of planning how different products will be manufactured has been a

challenge in many industries. Determining parameters within the productive

industrial management – with high quantities of items, operating machines and

production stages, among others – has become more complex.

The main assumption of theoretical models in the last years has been that

productive environments and their particularities should be presented in a realistic

manner. An optimization model has been recently presented by Meyer [6]. This

author presented the General Lot Sizing and Scheduling Problem for Parallel

Production Lines – GLSPPL – which, besides indicating when, where and how

much to produce, allow machines to execute tasks considering the minimization

of storage and setup costs, depending on the sequence that items are produced and

their costs, but directed only to one productive stage.

Some industrial processes are organized so that the modeling process occurs

in more than one production stage, which makes the formulation of models more

complex (Seeanner & Meyr [10]). According to Ferreira et al. [1], “these

decisions are interdependent and both can demand high levels of the productive

capacity”. They are called multi-stage or multi-level. Seeanner & Meyr [10]

present a literature review on multi-stage models and mention some important

works in the areas, such as Meyr [7], Mohammadi et al. [8], Ferreira et al. [1],

Neida Volpi, Sander Joner

347

Toledo et al. [11] and Ferreira et al.[2].

This article is divided into five sections. In section one, the introduction

and a summary of the book research are presented. In section two, the description

of the problems is presented. Section three presents the optimization model

whereas section four shows its implementation. Section five presents the main

conclusion of the article.

2 Description of the problem

This article presents a mathematical problem applied to a factory of

electronic items, with the intention of reducing costs. The production of these

items occurs in two stages and will be described in the following topics.

2.1 Description of the production stages

As mentioned before, each item to be produced is submitted to two stages.

The first one (Stage I) is made of parallel machines where the assembly of

products takes place. The problems to be considered in this stage are the quantity,

the machines and the sequence of production of items so that the necessities of the

second stage are met. As to what concerns the production of different items in the

same machine, its preparation implies setup costs.

After being produced in the first stage, items are sent to an intermediate stock

with limited storage capacity. It is necessary to wait for a sufficient number of

items to make up a lot and afterwards send them to the second production stage.

The second stage consists of a test sector that verifies the functioning of the items.

The test cells, which are like furnaces, operate at high temperatures so as to

simulate the functioning of the items in extreme conditions. The cells rely on

connectors (slots) which are appropriate to each type of item being tested. Each

item submitted to a test cell must remain there for a determined period of time,

with temperature and humidity conditions simulating its real functioning. There

must be a test cell (test furnace) for each item once the furnace must be adapted to

the electrical connectors and the variations of the simulated environmental

conditions. Such a test is justifiable taking into account the extreme temperatures

and humidity conditions some machine components are exposed to.

2.2 Description of the optimization problem

It is important to emphasize that stage II (test cells) depends on the exit of

items from stage I. Thus, one of the problems was the organization of quantities as

well as the sequencing of production in parallel machines that constitute stage I.

This is important so that the exit of components is programmed and the generation

of intermediate stock is minimized, avoiding queues and idle spaces in the

furnaces (test cells).

V Simposio de Metodos Numericos Computacionais

348

As to what concerns stage I, when a machine starts producing a new type of

item, this process has to be interrupted so that a new one may be configured

(setup). At this point, the production line is interrupted but the factory as a whole

remains operating, generating production costs.

This article considers that the setup time depends on the sequence of

manufacturing items, so that the time to change from item i to item j can be

different from the time to change the same item j to an item i.

It is observable that it is not always possible or feasible to produce a quantity

of items that can supply a test cell (furnace test) in a specific period of time. In the

formulation of the mathematical model, therefore, a penalty was applied whenever

there was idle space in the test cell, varying according to the technical

specifications of each cell. Due to the pursuit for minimizing costs, it becomes

necessary, whenever possible, to use the most of the test cell, seeking to meet the

demands foreseen in the planning horizon.

3 Optimization model

The mathematical model proposed for the problem under study was based on

the GLSPPL by Meyr [6]. His planning horizon is divided into t periods and each

of them is sub divided into s sub periods. The set of all sub periods s, which are

part of the planning horizon, is represented by W.

In order to solve the problem, new restrictions to GLSPPL were suggested in

order to minimize the stocks of non-tested items – those that are present at the exit

of parallel machines and at the entrance of items in the test cells (test furnaces) –

and to maximize the load at each test cell as well. The planning horizon considers

eight working hours, divided into 4 periods of two hours each, as this is the time

for the uninterrupted work of a test cell. As each period is subdivided, the

production of more than one type of item per machine, at the same time, becomes

possible, once capacity (time) is available.

The optimization model for the problem under study is presented below.

Parameters:

: set of sub periods in period t;

: set of items that can be produced in machine l;

demand considered for item i at the planning horizon;

available capacity (time) for production by machine l in a period t;

: allocation capacity of item i in its test cell (there is a furnace for each type of

item);

:storage capacity of items tested for the entire planning horizon;

:storage capacity of items not tested for each period t;

:quantity of item i not tested in stock at the beginning of the horizon planning;

: maintenance cost of one unit of item i, not tested in stock, per period;

V Simposio de Metodos Numericos Computacionais

349

:setup cost to produce item j immediately after the production of item i at

machine l;

: cost to produce item i at machine l;

: time consumed to produce one unit of item i at machine l;

:minimum lot of item i to be produced at machine l;

:setup time for the production of item j immediately after the production of

item i at machine l;

:1, if the machine is ready to produce item i at machine l at the beginning of

the planning horizon; 0, if otherwise;

:cost for each missing unit of item i to complete the maximum capacity of the

test cell (penalty for the furnace operation with idle spaces).

Variables:

: quantity of item i produced at machine l in sub period s;

: quantity of item i not tested in stock at the end of period t;

:missing quantity to complete the maximum capacity of the test cell of item i

in period t;

:quantity of item i that will be sent to the test cell – dedicated to this item, in

period t;

is equal to 1, if machine 1 is prepared to produce item i in sub period s; 0, if

otherwise;

:is equal to 1, if there is setup of item i for item j at machine l in sub period s;

0, if otherwise.

Mathematical Model

(1)

Subject to:

(2)

(3)

(4)

(5)

V Simposio de Metodos Numericos Computacionais

350

(6)

(7)

(8)

(9)

(10)

(11)

(12)

(13)

(14)

The objective function (1) minimizes storage, production, setup and

operation costs of test cells with idle spaces. Restriction (2) defines that the total

quantity of item i to be sent in all periods - to the test cell dedicated to this type of

item - must be the same as the demand of item i established for the planning

horizon. Restriction (3) is responsible for controlling the balance of stocks as it

relates the production in period t with the intermediate stock of the previous and

current period, comparing it with the capacity of the test cell per period, for each

item in the entire planning horizon. Restriction (4) ensures that the amount of

untested items, which make up the intermediate stock, does not exceed its storage

capacity. Restriction (5) ensures that the maximum storage capacity of tested

items does not exceed its limits. Restriction (6) guarantees that the number of

hours consumed at the production process, added to the number of hours spent for

the preparation of the machine, does not exceed the capacity available for each

period of the planning horizon. Restriction (7) establishes that the necessary

amount of item i, in order to complete the maximum capacity of the test cell in

period t (filling the idle spaces) is calculated by the difference between the

maximum capacity of the test cell for item i and the quantity of item i that will be

V Simposio de Metodos Numericos Computacionais

351

sent to the test cell in period t. Restriction (8) establishes a minimum production

lot for each type of item in a sub period which only becomes active when the

preparation of a machine for the production of a new item occurs. Restriction (9)

indicates that item i will only be produced in sub period s if the machine is ready

for this item ( ). Restriction (10) defines that the machine can be ready for

the production of only one type of item in each sub period s. Restriction (11)

indicates if there was a change in the production from item i to item j in a sub

period at machine l. Restriction (12) indicates that machines were not ready for

the production of any item at the beginning of the planning horizon. Restriction

(13) indicates that the variable is binary and (14) that variables

are non-negative integers and that variables are

non-negative reals. Due to the formulation of the model, these variables are

obtained by the combination of binary variables, without any need to define them

as integers.

4 Implementation of the model

The model was tested using data from an electronic factory that produces

frequency inverters. It produces eight types of distinct items in two stages. In the

first one, two parallel machines are responsible for the production of any of those

items. The second stage is composed of eight test cells where each one tests one

type of item. Table 1 presents the dimension of the problem, considering the

parameters previously presented.

TABLE 1: Dimension of the problem

Components of the optimization model Quantity

Restrictions 14244

Binary variables 640

Integer variables 720

Real variables 6441

Coefficient different from zero 36570

For the resolution of the model, tests with the Relax-and-fix were done

using the strategy Relax-and-fix forward where, at first, integer variables that

belonged to the first period were maintained and the integrities of the same

variables in other periods were relaxed. For these, any positive real value was

accepted. As the values of the integer variables of the first period were found, these

values were fixed and became parameters. Then, in a second phase, the integer

variables from the second stage were declared as integer and those from subsequent

V Simposio de Metodos Numericos Computacionais

352

periods were relaxed. Any positive real value was accepted for the latter. This

procedure was adopted until the last period of the horizon planning.

5 Conclusions

The results obtained show that the mathematical model is well adapted for

the current scenario of the industrial production, once it has shown good results as

to what concerns sequencing and scheduling.

As the model is generalized, it can be applied to other similar production

environments, without huge adaptations. Some important model applications can

be performed in the food industry, where furnaces are necessary, in the

manufacturing of furniture, as a painting process and drying cameras belong to the

process, among other examples.

As a recommendation to future works, other resolution strategies could be

studied and used with metaheuristics, or other approaches of Relax-and-fix which

work with different forms of relaxation of integer variables, in order to allow a

comparison among resolution methods.

References

[1] Ferreira D, Morabito R, Rangel S (2009). Solution approaches for the soft

drink integrated production lot sizing and scheduling problem. Eur J Oper

Research 196(2):697–706

[2] Ferreira, D.; Almada-Lobo, BR., Rangel, S. (2013). Formulações

Monoestágio para o problema da produção de bebidas dois estágios com

sincronia. Produção, v. 23, n. 1, p. 107-119, Jan./Mar.

[3] Fleischmann, B.; Meyr, H. (1997). The general lot sizing and scheduling

problem. OR Spektrum, v. 19 n. 1, p. 11-21.

[4] Kawamura, S. M. (2009). Aplicação da Heurística Relax-and-Fix no

Problema de Dimensionamento e Sequenciamento de Lotes de Produção em

Máquinas Distintas em Paralelo. Anais do XLII SBPO. Bento Gonçalves.

[5] Mercé, C. e Fontam, G. (2003). Mip-based heuristics for capacitated

lotsizing problems. International Journal of Production Economics, 85,

97-111.

[6] Meyr, Herbert. (2002). Simultaneous lotsizing and scheduling on parallel

machines. European Journal of Operational Research 139 pp. 277–292.

[7] Meyr H (2004). Simultane Losgrößen- und Reihenfolgeplanung bei

mehrstufiger kontinuierlicher Fertigung. Zeitschrift für Betriebswirtschaft

74(6):585–610.

[8] Mohammadi M, Fatemi Ghomi SMT, Karimi B, Torabi SA (2009.)

Development of heuristics for multiproduct multi-level capacitated lotsizing

problem with sequence-dependent setups. J Appl Sci 9(2) pp. 296–303.

V Simposio de Metodos Numericos Computacionais

353

V Simposio de Metodos Numericos Computacionais

ANÁLISE GLOBAL DO REMODELAMENTO ÓSSEO CONSIDERANDO MOVIMENTAÇÃO ORTODÔNTICA IDEALIZADA

Resumo: O presente artigo avalia o efeito de remodelamento ósseo de uma mandíbula suína submetida a um carregamento idealizado. Um modelo computacional tridimensional simplificado é desenvolvido para simular o movimento ortodôntico e verificar o comportamento do conjunto composto pelo dente (pré-molar), ligamento periodontal (PDL) e osso alveolar. A análise é feita via Método dos Elementos Finitos (MEF). A geometria tridimensional é obtida através da reconstrução de sólidos utilizando a tomografia do dente real. Considera-se o material trabalhando em regime elástico linear com propriedades isotrópicas. A energia densidade de deformação é obtida e o remodelamento é então avaliado. Palavras-Chave: Remodelamento Ósseo, Movimento Ortodôntico, Elementos Finitos, Modelo Computacional.

1 INTRODUÇÃO

Uma das mais importantes características do osso é a capacidade autoadaptativa do seu comportamento, que consiste em modificar sua microestrutura e suas propriedades de acordo com o ambiente mecânico (TORMENA, 2009). O movimento ortodôntico ocorre dentro do osso alveolar, o qual sofre um remodelamento quando submetido a carregamentos externos (KAWARIZADEH et al. 2003). Reações tissulares do conjunto formado pelo dente, ligamento periodontal (PDL) e osso alveolar indicam trocas histológicas ocorridas, que correspondem ao espaço percorrido pelo dente movimentado. A resposta biomecânica é devido à combinação das propriedades constitutivas de componentes orgânicos, inorgânicos e fluidos presente no conjunto (LIN et al. 2013). O processo de adaptação óssea devido à alteração das cargas aplicadas é precedido pelo aumento significativo da incidência de microfissuras adjacentes às regiões de modelação e remodelação óssea. A partir desta constatação, o microdano é então considerado um dos estímulos mais importantes do remodelamento ósseo e são apresentadas várias propostas para considerar a carga mecânica como uma resposta adaptativa, principalmente para a deformação e o dano (RAMTANI et al. 2004). O comportamento ósseo é anisotrópico, cujos valores e as direções principais da rigidez mudam, não somente ponto a ponto, mas também no tempo, como resultado do processo de remodelamento (DOBLARÉ e GARCÍA, 2002). Muitos modelos de remodelação comumente

Sara de Godoy Bueno, Marco Andre Argenta

354

consideram o material ósseo como sendo homogêneo eresultando em um comportamentO presente artigo tem o intuito deósseo na movimentação ortodôntica magnitude de 6N para um modelo computacionsendo material isotrópico trabalhando portanto, se, houve algum efeito de perda ou ganho de rigidez do material ósseo.

2 MATERIAIS E MÉTODOS

2.1 Modelo ComputacionalO método mais utilizado para a análise numcomo uma ferramenta clínica para a análise do movimento ortodôntico (A2011). Por isso, para o caso desse artigo, aFoi desenvolvido um modelo computacional simplificado,trabalhando em regime elástico linear com propriedades isotrópicas. A geometria do conjunto dente, PDL e osso alveolar é obtida através da reconstrução de sólidos usando as imagens de tomografias da mandíbula utilizada no ensaio experimental(2015) para a validação do modelo computacional. Dessa maneira, garantedivergências entre o modelo computacional e o tridimensional simplificado é composto por elementos tetraédricos lineares, como mostra a Figura 1. Foram utilizados 97.235 elementos para compor a malha do osso alveolar, 45.275 para a dentina, 36.754 para a polpa, 19.743 para o esmalte e 16.433 para o PDL. As condições de contorno naturais aplicadas no modelo computacional são as mesmas utilizadas no ensaio experimental realizado, ou seja, focompressão de 6N no dente.

Os valores dos módulos de elasticidade (E) e coeficiente de Poisson (osso alveolar (considerando material homogêneo), PDL e dente (este último composto pelo esmalte, dentina e polpa) foram escolhidos baseandoatual (WILLIAMS ET AL. 1984, BUENO et al. 2015)

o como sendo homogêneo e uniforme em resultando em um comportamento isotrópico.

o intuito de verificar a presença ou não do efeito de remodelamento na movimentação ortodôntica causada por carga vertical idealizada de compressão

ra um modelo computacional simplificado, o qual considera o osso comotrabalhando em regime linear. Para o caso considerado

, houve algum efeito de perda ou ganho de rigidez do material ósseo.

MATERIAIS E MÉTODOS

Modelo Computacional O método mais utilizado para a análise numérica é o MEF, sendo seu potencial validado como uma ferramenta clínica para a análise do movimento ortodôntico (A

Por isso, para o caso desse artigo, a análise numérica é realizada utilizando o MEFmodelo computacional simplificado, considerando o materi

trabalhando em regime elástico linear com propriedades isotrópicas. A geometria do conjunto é obtida através da reconstrução de sólidos usando as imagens de

mandíbula utilizada no ensaio experimental realizado por lidação do modelo computacional. Dessa maneira, garante

divergências entre o modelo computacional e o material ex vivo. O modelo computacional ificado é composto por elementos tetraédricos lineares, como mostra a

. Foram utilizados 97.235 elementos para compor a malha do osso alveolar, 45.275 a polpa, 19.743 para o esmalte e 16.433 para o PDL.

contorno naturais aplicadas no modelo computacional são as mesmas utilizadas no ensaio experimental realizado, ou seja, foi aplicada uma

Figura 1: Modelo Computacional.

Os valores dos módulos de elasticidade (E) e coeficiente de Poisson (ʋ) utilizados para o osso alveolar (considerando material homogêneo), PDL e dente (este último composto pelo esmalte, dentina e polpa) foram escolhidos baseando-se em dados apresentados

(WILLIAMS ET AL. 1984, BUENO et al. 2015), mostrados na tabela 1.

todas as direções,

a presença ou não do efeito de remodelamento de compressão com

o qual considera o osso como caso considerado, é avaliado,

, houve algum efeito de perda ou ganho de rigidez do material ósseo.

, sendo seu potencial validado como uma ferramenta clínica para a análise do movimento ortodôntico (AMMAR et al.

análise numérica é realizada utilizando o MEF. considerando o material

trabalhando em regime elástico linear com propriedades isotrópicas. A geometria do conjunto é obtida através da reconstrução de sólidos usando as imagens de

por BUENO et al. lidação do modelo computacional. Dessa maneira, garante-se não haver

. O modelo computacional ificado é composto por elementos tetraédricos lineares, como mostra a

. Foram utilizados 97.235 elementos para compor a malha do osso alveolar, 45.275 a polpa, 19.743 para o esmalte e 16.433 para o PDL.

contorno naturais aplicadas no modelo computacional são as mesmas i aplicada uma força vertical de

ʋ) utilizados para o osso alveolar (considerando material homogêneo), PDL e dente (este último composto pelo

se em dados apresentados na literatura na tabela 1.

V Simposio de Metodos Numericos Computacionais

355

3 MODELO PROPOSTO POR

A adaptação óssea (remodelação ouchamada "zona morta", onde o osso não reage a estímulos mecânicos,Utilizando a energia densidade de deformaçãodo osso, HUISKES et al. (1987) propõem que quandoatividade adaptativa é iniciada, ou seja, ocorre Nessas expressões, é o limite que define os limites da "zona morta" (onde não ocorre remodelamento) e é a energia no equilíbrio homeostáticomostra a adaptação óssea em função da energia

Figura

Onde é a metade da largura da "zona morta" e

4 RESULTADOS

4.1 Modelo ComputacionalO resultado da energia de deformaçãoFigura 3, o qual relaciona a energia de deformação em função de dois passos de carga (3N e 6N).

Tabela 1: Propriedades dos Materiais.

Material E (MPa) ʋ Dentina 18.600 0.30 Esmalte 84.100 0.33 Polpa 2 0.45 PDL 0.24 0.45 Osso 13.700 0.30

MODELO PROPOSTO POR HUISKES ET AL. (1987)

adaptação óssea (remodelação ou modelação) ocorre quando os limites do domínio donde o osso não reage a estímulos mecânicos,

energia densidade de deformação como o estímulo que controla a. (1987) propõem que quando 1 ou

tividade adaptativa é iniciada, ou seja, ocorre diminuição ou aumento de massa ósseaé o limite que define os limites da "zona morta" (onde não ocorre é a energia no equilíbrio homeostático (SOUZA, 2009)

função da energia densidade de deformação.

Figura 2: Esquema de adaptação óssea (SOUZA, 2009).

tade da largura da "zona morta" e é a energia de deformação de referência

Modelo Computacional da energia de deformação, em , obtido computacionalmente

Figura 3, o qual relaciona a energia de deformação em função de dois passos de carga (3N e

modelação) ocorre quando os limites do domínio da onde o osso não reage a estímulos mecânicos, são excedidos.

estímulo que controla a remodelação ou a 1 a

diminuição ou aumento de massa óssea. é o limite que define os limites da "zona morta" (onde não ocorre

(SOUZA, 2009). A Figura 2

é a energia de deformação de referência.

computacionalmente é apresentado na Figura 3, o qual relaciona a energia de deformação em função de dois passos de carga (3N e

V Simposio de Metodos Numericos Computacionais

356

Figura 3: Energia

Verifica-se que o valor de 0.modelo. 4.2 Remodelamento ÓsseoConforme supracitado, o osso sofrerá remodelamento caso os limitesexcedidos. Temos que o limite à

E o limite à direita é:

Por falta de dados experimentais do osso mandibular, determinação dos limites da "zona morta"trabalho de DOBLARÉ e GARCIA, 2002

Tabela

Parâmetro

Efetuando os cálculos, obtêm-respectivamente.

5 DISCUSSÕES

Analisando o resultado da energia de deformaçãoverifica-se que o modelo possui umonde não ocorre remodelamento ósseo

0.00

0.05

0.10

0.15

0.20

0.25

0.30

U (

J)

Energia de deformação do osso em função da força aplicada

.247kgm para a energia densidade de deformação máxima do

Remodelamento Ósseo o osso sofrerá remodelamento caso os limites da "zo

emos que o limite à esquerda é dada pela expressão:

1

1

experimentais do osso mandibular, são adotados parâmetros paradeterminação dos limites da "zona morta" para um tecido ósseo trabecular apresentados no

GARCIA, 2002, conforme mostrados na tabela 2.

Tabela 2: Parâmetros de um osso trabecular.

Parâmetro Unidade Valor 0.67

- 0.2 10 - 0.10

PDL 0.24 0.45 Osso 13.700 0.30

-se os valores limites da "zona morte" de 0.18405

da energia de deformação obtido computacionalmentepossui um valor de energia que se encontra à direita

não ocorre remodelamento ósseo. Os valores resultantes são mostrados

F (N)

Força x Energia de deformação

em função da força aplicada

energia densidade de deformação máxima do

da "zona morta" seja

(1)

(2)

adotados parâmetros para tecido ósseo trabecular apresentados no

tabela 2.

18405J e 0.22495J,

computacionalmente (0.247kgm), à direita do intervalo

são mostrados na Figura 4.

V Simposio de Metodos Numericos Computacionais

357

Figura 4: Valores dos limites da "zona morta"

Conforme detectado, para o caso analisado, do tecido ósseo aumenta à medida que a carga

6 CONCLUSÕES

O presente trabalho avaliousimplificado submetido à um carregamento idealizadoformação óssea, o modelo utilizadode adaptação óssea ao modelo numérico.Por se tratar de um materialcomportamento, a análise do remodelamento ósseoobter resultados mais coerentes com a situação física

REFERÊNCIAS

AMMAR, H. H., PETER N., RICHARDDimensional Modeling and Finite Element Analysis in Treatment Planning for OrthodonTooth Movement. American Journal of Orthodontics and Dentofacial Orthopedics71, 2011. BUENO, S. G., ARGENTA, M. A., GEBERT, A. Comparison of Orthodontic Movement experimental measurements of a sDOBLARÉ, M., GARCÍA, J. M. Anisotropic bone remodeling model based on adamage-repair theory. Journal of BiomechanicsKAWARIZADEH, A., BOUDetermination of Initial Tooth Mobility and Material Properties of the Periodontal Lin Rat Molar Specimens. European Journal of OrthodonticsHUISKES R., WEINANS H., GROOTENBOER H.J., DALSTRA M., FUDULA B.,SLOOFF T.J., 1987. Adaptive BoneAnalysis. Journal BiomechanicsLIN, JEREMY, D., HUSEVINP. F, LUKE L. H., GEROLDLigament-Tooth Fibrous Joint.RAMTANI, S., GARCÍA J. M.,bone remodeling law applied to three unitMedicine 34:259-273, 2004. SOUZA, L., A., F. Modelo numfundamentado na mecânica do contínuo do dano contínuo.

imites da "zona morta" e energia de deformação do modelo computacional

para o caso analisado, ocorre aumento de massa ósseaà medida que a carga aplicada no modelo aumenta

O presente trabalho avaliou o remodelamento ósseo para o modelo tridimensional o à um carregamento idealizado de 6N. Por ter sido detectada

utilizado seria melhor representado caso fosse incorporado o efeito ao modelo numérico.

Por se tratar de um material biológico que possui diversas variáveis que influem em seu o remodelamento ósseo torna-se importante para que

resultados mais coerentes com a situação física real.

., RICHARD J. C., VICTOR, H. M., OSAMAFinite Element Analysis in Treatment Planning for Orthodon

American Journal of Orthodontics and Dentofacial Orthopedics

BUENO, S. G., ARGENTA, M. A., GEBERT, A. P. O. F., HYPOLITO, J. K. Global Comparison of Orthodontic Movement between a simplified computacional m

easurements of a swine tooth. Cilamce, 2015. GARCÍA, J. M. Anisotropic bone remodeling model based on a

Journal of Biomechanics, 35:1-17, 2002. OURAUEL C., JAGER A., Experimental and Numerical

f Initial Tooth Mobility and Material Properties of the Periodontal LEuropean Journal of Orthodontics 25:569–78, 2003

HUISKES R., WEINANS H., GROOTENBOER H.J., DALSTRA M., FUDULA B.,987. Adaptive Bone-Remodeling theory applied to Prosthetic

Journal Biomechanics 20:1135-1150. USEVIN Ö., JANELLE P. G., ANDREW T. J., SABRAEROLD A. S., SUNITA P. S., Biomechanics of a Bone

Tooth Fibrous Joint. Journal of Biomechanics 46:443–49, 2013. RAMTANI, S., GARCÍA J. M., DOBLARÉ M. Computer simulation of an adaptivebone remodeling law applied to three unit-bone bars structure. Computers

SOUZA, L., A., F. Modelo numérico anisotrópico de remodelação óssea interno fundamentado na mecânica do contínuo do dano contínuo. Tese de doutorado do programa

e energia de deformação do modelo computacional

aumento de massa óssea, ou seja, a rigidez aumenta.

para o modelo tridimensional Por ter sido detectada a

caso fosse incorporado o efeito

que influem em seu se importante para que se possa

SAMA M. M.. Three-Finite Element Analysis in Treatment Planning for Orthodontic

American Journal of Orthodontics and Dentofacial Orthopedics 139:59–

HYPOLITO, J. K. Global between a simplified computacional model and

GARCÍA, J. M. Anisotropic bone remodeling model based on a continuum

Experimental and Numerical f Initial Tooth Mobility and Material Properties of the Periodontal Ligament

, 2003. HUISKES R., WEINANS H., GROOTENBOER H.J., DALSTRA M., FUDULA B.,

Remodeling theory applied to Prosthetic-Design

ABRA I. D., KEVIN Biomechanics of a Bone-Periodontal

DOBLARÉ M. Computer simulation of an adaptive damage-

Computers in Biology and

érico anisotrópico de remodelação óssea interno Tese de doutorado do programa

V Simposio de Metodos Numericos Computacionais

358

de pós graduação em métodos numéricosTORMENA, F. V., Um modelo de remodelamento termodinâmicos generalizados. métodos numéricos em engenhariaWILLIAMS, K. R., EDMUNDSON, J. T.Finite Element Method. Biomaterials

de pós graduação em métodos numéricos em engenharia - UFPR, 2009. TORMENA, F. V., Um modelo de remodelamento ósseo utilizando potenciais termodinâmicos generalizados. Tese de doutorado do programa de pós graduação em

em engenharia - UFPR, 2009. DMUNDSON, J. T. Orthodontic tooth movement analysed bBiomaterials 5:347–351, 1984.

ósseo utilizando potenciais Tese de doutorado do programa de pós graduação em

Orthodontic tooth movement analysed by the

V Simposio de Metodos Numericos Computacionais

359

V Simposio de Metodos Numericos Computacionais

INFLUÊNCIA DAS CONDIÇÕES AMBIENTAIS NOS DESLOCAMENTOS

DE UMA BARRAGEM DE CONCRETO

Resumo: Técnicas de estatística multivariada são utilizadas neste estudo para analisar os dados de

monitoramento de deslocamentos de uma barragem de concreto, medidos por meio de pêndulos,

bases de alongâmetros e extensômetro múltiplos de hastes, levando em consideração a ação das

condições ambientais, delimitadas pela temperatura superficial do concreto, temperatura ambiente e

nível de água do reservatório. A análise de correlação canônica é usada para avaliar a influência das

variáveis ambientais nos deslocamentos das estruturas e fundações da barragem. A análise fatorial é

utilizada para identificar as fontes de variabilidade dos dados e ordenar os sensores de acordo com a

ação dos fatores. As datas das medições são agrupadas de acordo com as similaridades presentes nas

observações, através da aplicação da análise de agrupamentos. Em seguida, a análise discriminante é

usada para avaliar os grupos quanto à sua homogeneidade. Os resultados demonstram que as técnicas

utilizadas permitem distinguir as respostas da barragem e identificar os efeitos das variações das

condições ambientais sobre os deslocamentos das estruturas e fundações da barragem.

Palavras-Chave: Monitoramento de Barragens; Correlação Canônica; Análise fatorial; Análise de

Agrupamentos; Análise Discriminante.

Sheila Regina Oro, Anselmo Chaves Neto, Claudio NeumannJunior, Suellen Ribeiro Pardo Garcia, Tereza Rachel Mafioleti

360

1 INTRODUÇÃO

As estruturas de barragens de concreto estão sujeitas a alterações provocadas pela incidência de

fenômenos, tais como: deslocamentos, deformações, tensões, pressões, entre outros. De acordo com

Li et al. (2013), essas alterações ocorrem porque essas estruturas interagem com fatores ambientais,

hidráulicos e geomecânicos, tais como a temperatura do concreto, a pressão hidrostática e o efeito do

tempo. Por isso, esses fatores devem ser considerados durante a avaliação do desempenho estrutural

das barragens, o que aumenta a complexidade do problema.

O monitoramento estrutural, conforme Cruz (2006), envolve inspeções visuais, medição geodésica

de deslocamentos verticais e/ou horizontais, levantamentos batimétricos e acompanhamento da

instrumentação. Pêndulos, bases de alongâmetro, medidores triortogonais, medidores de vazão,

piezômetros e extensômetros múltiplos de hastes, são alguns exemplos de instrumentos utilizados

nesse monitoramento (MATOS, 2002).

De acordo com De Sortis e Paoliani (2007), o conjunto de dados da instrumentação é útil para a

avaliação da segurança do desempenho de barragens, principalmente se as medidas atuais são

comparadas com toda a série histórica de dados por meio de ferramentas de identificação estatísticas

e estruturais.

Nesse sentido, Villwock et al. (2013) salientam que a análise detalhada dos dados da instrumentação

requer uma combinação de conhecimentos, especialmente de Engenharia, Matemática e Estatística, e

deve ser feita por uma equipe técnica experiente, com o auxílio de recursos computacionais.

A análise estatística é indicada por Farrar e Worden (2007) para classificar a alteração dos

parâmetros como proveniente da modificação da condição estrutural (falha) ou modificação das

condições ambientais e/ou operacionais, especialmente em situações que possuem incertezas

inerentes ao sistema adotado. Além disso, os autores salientam a necessidade de identificação e

minimização das fontes de variabilidade no processo de aquisição de dados e do sistema monitorado.

No entanto, nem todas as fontes de variabilidade podem ser eliminadas, como por exemplo, a

variação causada por diversas condições ambientais, como temperatura, umidade, carregamento e

condições de contorno. Por isso, é necessário fazer as medições apropriadas de tal modo que essas

fontes possam ser quantificadas estatisticamente.

De acordo com a literatura pesquisada, a modelagem estatística dos dados de monitoramento de

estruturas tem sido aplicada, principalmente, com os objetivos de classificação, associação, previsão

de valores e detecção de valores atípicos. Dentre as técnicas estatísticas multivariadas utilizadas para

essa finalidade estão a correlação canônica (YU-QING e YAN-LIANG, 2012), regressão linear

múltipla (DENG et al., 2008; MATA, 2011), análise de componentes principais (GU et al., 2011;

VILLWOCK et al., 2013) e equações estruturais (CHENG e ZHENG, 2013).

Neste trabalho é apresentado um método auxiliar no monitoramento estrutural de barragens de

concreto, que combina técnicas de estatística multivariada para: (1) quantificação da influência das

condições ambientais nos deslocamentos das estruturas e fundações; (2) identificação dos sensores

de maior relevância no que diz respeito à variabilidade dos dados; (3) agrupamento das datas das

medições, de acordo com as similaridades.

2 FUNDAMENTAÇÃO TEÓRICA

2.1 Análise de Correlação Canônica

A análise de correlação canônica é uma técnica de análise de interdependência, que permite ao

pesquisador identificar e quantificar as associações existentes entre dois grupos de variáveis (X e Y).

A ideia básica é encontrar a combinação linear das variáveis de X e a combinação linear das

variáveis de Y que produzem a maior correlação entre os dois grupos Johnson e Wichern (2007).

Considerando que U e V são as combinações lineares dos vetores em X e Y (Eq. 1), respectivamente,

o problema canônico consiste em obter os vetores de coeficientes a e b que maximizem a correlação

entre U e V (Eq. 2). As combinações lineares U e V, neste caso, são denominadas variáveis

canônicas.

V Simposio de Metodos Numericos Computacionais

361

Xa'=U Yb'=V (1)

bΣb'aΣa'

bΣa'=λ=VU,Corr

YX

XY

(2)

Os vetores X e Y possuem matrizes de covariâncias XΣ e YΣ , respectivamente, e o relacionamento

está resumido na matriz de covariância cruzada entre esses vetores que é YXXY Σ'=Σ .

Dessa forma, cada par de variáveis canônicas tem variâncias unitárias, correlação máxima e é não

correlacionado com os demais pares de variáveis canônicas. O número de pares de variáveis

canônicas que pode ser obtido é igual ao menor valor entre p e q. Em geral, procura-se obter poucos

pares de variáveis canônicas que explicam grande parte da interdependência entre os dois conjuntos

de variáveis observáveis.

2.2 Análise Fatorial

A aplicação da técnica multivariada da análise fatorial permite a explicação das correlações entre as

muitas variáveis de um conjunto de dados por meio de um número reduzido de variáveis aleatórias

não observáveis, denominadas fatores (JOHNSON; WICHERN, 2007).

De acordo com Johnson e Wichern (2007), o modelo fatorial (Eq. 3) considera que cada variável

pode ser escrita como uma combinação linear dos fatores comuns (Fk) e dos fatores específicos (εj).

Durante o processo de obtenção dos fatores são estimadas as cargas fatoriais, as comunalidades, as

variâncias específicas e os escores fatoriais, que são medidas com propriedades explicativas de

grande interesse para o pesquisador.

pmpmp2p1p

jmjmj2j1j

2m2m2221

1m1m1211

ε+Fl++Fl+Fl=Z

ε+Fl++Fl+Fl=Z

ε+Fl++Fl+Fl=Z

ε+Fl++Fl+Fl=Z

21

21

212

211

(3)

2.3 Análise de Agrupamentos

A utilização da análise de agrupamentos visa encontrar dentro de um conjunto heterogêneo de dados

um pequeno número de grupos homogêneos, cuja variação dentro do grupo seja substancialmente

menor do que a variabilidade total do conjunto de dados.

No método hierárquico aglomerativo inicialmente cada observação forma um grupo separado. A

cada etapa do processo, os grupos juntam-se de acordo com as similaridades formando novos

agrupamentos, até que reste somente um agrupamento com o número total de observações incluído.

A similaridade é uma medida da proximidade entre dois grupos. Uma forma de calcular essa medida

é a distância de Mahalanobis (Eq. 4).

ji1

jiij xxΣ'xx=D 2 (4)

Onde Σ é a matriz de covariância do conjunto de dados completo X.

2.4 Análise Discriminante

A análise discriminante é uma técnica que possibilita, a partir de variáveis independentes ou não,

estudar o perfil, realizar diferenciação e classificação de elementos de dois ou mais grupos. O

número de grupos deve ser conhecido com antecedência. A discriminação é feita com base numa

regra matemática que minimiza as probabilidades de erros de classificação incorretas.

Na abordagem de Mahalanobis (Eq. 5), calcula-se a distância ( 2gD ) de cada observação até o

centroide de cada grupo ( gx ). A observação, então, é alocada no grupo de centroide mais próximo.

V Simposio de Metodos Numericos Computacionais

362

g1

Wgg xxΣ'xx=D 2 (5)

Onde ΣW é a matriz de covariância dentro do grupo entre as variáveis independentes.

3 MATERIAIS E MÉTODO

O método proposto consiste na aplicação das técnicas denominadas Análise de Correlação Canônica,

Análise Fatorial, Análise de Agrupamentos e Análise Discriminante aos dados de monitoramento de

uma barragem de concreto.

Para a composição do conjunto de dados foram consideradas observações registradas no período

compreendido entre janeiro de 1990 e dezembro de 2013, resultantes das medições manuais da

instrumentação instalada nos blocos chaves D7 e D8, do Trecho D (Barragem Lateral Direita,

construída em blocos de contrafortes) da Barragem de Itaipu, além dos dados hidrometeorológicos

do mesmo período.

A instrumentação considerada neste estudo consistiu de 40 sensores, entre pêndulos diretos, pêndulos

invertidos, bases de alongâmetro, termômetros superficiais e extensômetros múltiplos de hastes.

Também foram considerados os dados hidrometeorológicos: nível de água do reservatório e

temperatura ambiente no entorno da barragem. Sendo assim, foram computadas 42 variáveis,

referentes aos sensores considerados neste estudo.

4 RESULTADOS

A análise de correlação canônica foi utilizada para estudar as relações existentes entre o grupo de

sensores que medem deslocamentos e os indicadores das condições ambientais.

A avaliação da qualidade do potencial das variáveis canônicas foi feita com base na proporção da

variação explicada pelas variáveis canônicas para cada grupo. A variável canônica U1 explicou

38,7% da variância observada nos deslocamentos, enquanto que a proporção da variância explicada

por V1 para o grupo condições ambientais foi de 65,6%. Sendo assim, os grupos “Deslocamentos” e

“Condições Ambientais” foram bem representados pelo primeiro par de variáveis canônicas, uma

vez que a correlação canônica entre esses grupos foi de 0,986, enquanto que os outros pares

apresentam valores menores.

As correlações entre as 38 variáveis do primeiro grupo e as 4 do segundo foram estimadas. Dentre as

variáveis mais correlacionadas (|ρ| > |0,8| e valor-p < 0,05) estão cinco hastes de extensômetros

múltiplos e três sensores de pêndulos relacionados com as temperaturas. Cabe ressaltar que as

maiores correlações foram negativas, indicando que nos períodos de temperatura baixa os

deslocamentos foram maiores do que naqueles de temperatura elevada.

Por outro lado, o nível de água do reservatório apresentou pequena correlação positiva

individualmente apenas com alguns sensores. Possivelmente porque a baixa variabilidade observada

nessa variável levou a forças atuantes sobre a barragem praticamente constantes. Outra justificativa

pode ser a necessidade de interação do nível de água do reservatório com a temperatura para

influenciar os deslocamentos.

Confrontando as variáveis canônicas U1 e V1, por meio do gráfico de dispersão (Fig. 1), confirmou-

se a relação linear existente entre essas variáveis, evidenciando a possibilidade de prever o

desempenho estrutural da barragem em uma determinada época em função dos sensores de medição

de deslocamentos.

Portanto, se o grupo “Condições Ambientais” foi o causador da variabilidade observada no grupo

“Deslocamentos”, então U1 pode ser utilizado como o melhor preditor e V1 o mais provável critério

para a realização da previsão do desempenho estrutural da barragem, no que diz respeito aos

deslocamentos.

V Simposio de Metodos Numericos Computacionais

363

A aplicação da análise fatorial por componentes principais resultou num modelo composto por cinco

fatores (Tabela 1), identificados com base nas maiores cargas fatoriais, com capacidade de explicar

91,12% da variância do conjunto de observações.

Tabela 1: Fatores relacionados aos deslocamentos relativos da barragem de Itaipu

Fator Nome Explicação (%) Sensores mais correlacionados

F1 Percepção da Fundação 45,88 Extensômetros múltiplos de hastes (maioria)

F2 Contração do Concreto 30,83 Bases de alongâmetro (aberturas entre juntas)

Pêndulos (sentido normal)

F3 Expansão do Concreto 9,66 Temperaturas

Extensômetros múltiplos de hastes (4)

Pêndulos (sentido do fluxo da água - bloco D8)

F4 Geometria da Estrutura do Bloco D7 2,41 Pêndulos (sentido do fluxo da água - bloco D7)

F5 Pressão Hidrostática 2,34 Nível de água do reservatório

A variabilidade presente nas leituras de cada sensor, advinda dos fatores identificados, foi estimada

através da comunalidade. Assim, uma comunalidade baixa (menor que 0,60) indicaria que a variável

não seria suficientemente explicada pelo modelo e poderia ser descartada. Os resultados apontaram

para a preservação de todos os sensores considerados neste estudo.

Utilizando a comunalidade como uma medida da importância de cada variável para o modelo

fatorial, obteve-se o ranqueamento dos sensores. Assim os instrumentos mais importantes para os

blocos D8 e D7 foram, respectivamente, três hastes de extensômetro múltiplo pertencentes a um

mesmo furo de sondagem e as duas bases de alongâmetro que medem a abertura entre as juntas dos

blocos. Além disso, o nível de água do reservatório foi a variável relacionada com as condições

ambientais melhor classificada.

O fator, por ser uma variável latente, não pode ser medido diretamente. No entanto, os valores dos

fatores, denominados escores fatoriais, são estimados com base nas cargas fatoriais e nos valores dos

sensores que dominam esse fator.

Os escores fatoriais de cada uma das 288 datas de realização das leituras, com relação a cada fator,

foram utilizados como dados de entrada para a análise de cluster e a análise discriminante.

Na análise de cluster, utilizando o método da média do grupo e a distância de Mahalanobis, foram

identificados três grupos homogêneos de datas (Fig. 2), agregando 190 elementos no primeiro (G1),

83 no segundo (G2) e 15 no terceiro (G3). O primeiro grupo ficou constituído essencialmente dos

meses de novembro a maio, período em que foram registradas as maiores temperaturas, enquanto que

Variáveis Canônicas (U1,V1)

U1

V1

-2,1 -1,1 -0,1 0,9 1,9

-2

-1

0

1

2

Figura 1: Gráfico de dispersão das variáveis canônicas U1 e V1

V Simposio de Metodos Numericos Computacionais

364

a maioria dos meses com menores temperaturas ficaram reunidas em G2. O terceiro grupo reuniu as

datas em que foram registrados os menores níveis de água do reservatório.

A classificação das 288 observações foi testada através da análise discriminante, considerando os

sensores com as maiores comunalidades. Devido à grande diferença de tamanho dos grupos,

considerou-se a proporcionalidade do número de observações por grupo. O elevado percentual de

classificação correta, 94,1%, confirmou o poder discriminante dos sensores considerados na análise.

Duas funções foram consideradas estatisticamente relevantes, ao nível de confiança de 99%, para

fazer a distinção das observações pertencentes a cada grupo (Fig. 3). A primeira função discrimina os

grupos Temperatura Alta e Temperatura Baixa, enquanto que a segunda discrimina o grupo Baixo

Nível de Água do Reservatório Baixo (BNAR) dos demais grupos.

As funções de classificação das observações nos grupos (Eq. 6) são combinações lineares dos

sensores. Essas funções podem ser utilizadas para a classificação de novas datas de leituras. Para

tanto, basta calcular os escores de cada novo elemento em cada grupo e, em seguida, alocá-lo

naquele de maior escore.

G1 = -0,664 + 0,664*Z53 - 1,332*Z52 - 0,075*Z54 + 0,323*Z9 + 0,134*Z61 - 0,881*Z7

(6) G2 = -3,398 - 0,446*Z53 + 2,866*Z52 + 0,073*Z54 – 1,284*Z9 + 1,656*Z61 + 2,674*Z7

G3 = -23,805 + 5,944*Z53 + 1,009*Z52 + 0,544*Z54 + 3,013*Z9 - 10,866*Z61 - 3,636*Z7

Figura 3: Dispersão dos elementos de acordo com as funções discriminantes entre grupos

Figura 2: Agrupamentos pelo método da ligação média, utilizando a distância de Mahalanobis

V Simposio de Metodos Numericos Computacionais

365

5 CONCLUSÕES

Os resultados da análise de correlação canônica permitem inferir que os deslocamentos das estruturas

e fundações da barragem são fortemente influenciados pelas condições ambientais. Em geral, a

instrumentação registra maiores deslocamentos nos períodos de baixas temperaturas.

O conjunto de instrumentos composto por pêndulos, bases de alongâmetro e extensômetro múltiplos

de hastes pode ser usado para a previsão do desempenho estrutural de uma barragem, no que diz

respeito aos deslocamentos, segundo o critério da variabilidade nas condições ambientais.

As datas das observações registradas pela instrumentação, quando submetidas à análise de

agrupamentos e análise discriminante, podem ser agrupadas em “Temperatura Alta”, “Temperatura

Baixa” e Baixo Nível de Água do Reservatório.

A maior parte da variabilidade dos dados das medições é devida aos fatores: Percepção da Fundação;

Contração do Concreto; Expansão do Concreto; Geometria da Estrutura do Bloco D7 e Pressão

Hidrostática.

AGRADECIMENTOS

Agradecimentos pelas contribuições das seguintes instituições:

- CEASB – Itaipu Binacional: suporte técnico e disponibilização dos dados;

- PROPPG – UTFPR: viabilização deste estudo via Portaria nº. 0398/2014; - PPGMNE – UFPR: suporte teórico e incentivo ao desenvolvimento deste trabalho.

REFERÊNCIAS

CHENG, L.; ZHENG, D. Two online dam safety monitoring models based on the process of

extracting environmental effect. Advances in Engineering Software, v. 57, p. 48–56, 2013.

CRUZ, P. T. 100 barragens brasileiras: casos históricos, materiais de construção, projeto. São

Paulo: Oficina dos Textos, 2006.

DENG, N.; WANG, J.-G.; SZOSTAK-CHRZANOWSKI, A. Dam Deformation Analysis Using the

Partial Least Squares Method. , 2008. proceedings, Lisbon. Disponível em:

<http://bbjd.fig.net/resources/proceedings/2008/lisbon_2008_comm6/papers/pst01/pst01_05_deng_

mc048.pdf>. .

DE SORTIS, A.; PAOLIANI, P. Statistical analysis and structural identification in concrete dam

monitoring. Engineering Structures, v. 29, p. 110–120, 2007.

FARRAR, C. R.; WORDEN, K. An introduction to structural health monitoring. Philosophical

Transactions of the Royal Society A, v. 365, p. 303–315, 2007.

GU, C. S.; ZHAO, E. E.; JIN, Y.; SU, H. Z. Singular value diagnosis in dam safety monitoring effect

values. Science China,Technological Sciences, v. 54, n. 5, p. 1169–1176, 2011.

JOHNSON, R. A.; WICHERN, D. W. Applied Multivariate Statistical Analysis. 6o ed. Pearson,

2007.

LI, F.; WANG, Z. Z.; LIU, G. Towards an error correction model for dam monitoring data analysis

based on cointegration theory. Structural Safety, v. 43, p. 12–20, 2013.

MATA, J. Interpretation of concrete dam behaviour with artificial neural network and multiple linear

regression models. Elsevier, Engineering Structures, v. 33, p. 903–910, 2011.

MATOS, S. F. Avaliação de instrumentos para auscultação de barragem de concreto. Estudo de

caso: deformímetros e tensômetros para concreto na Barragem de Itaipu, 2002. Dissertação,

Curitiba, PR: UFPR.

VILLWOCK, R.; STEINER, M. T. A.; DYMINSKI, A. S.; CHAVES NETO, A. Itaipu

Hydroelectric Power Plant Structural Geotechnical Instrumentation Temporal Data Under the

Application of Multivariate Analysis - Grouping and Ranking Techniques. Multivariate Analysis in

Management, Engineering and the Sciences. p.81–102, 2013. InTech.

YU-QING, Z.; YAN-LIANG. Temperature Prediction of RCC Based on Partial Least-Squares

Regression. Energy Procedia, v. 17, Part A, p. 326–332, 2012.

V Simposio de Metodos Numericos Computacionais

366

V Simposio de Metodos Numericos Computacionais

UTILIZAÇÃO DO MODELO DE REGRESSÃO DE COX PARAEXPLICAR O TEMPO ATÉ A GERMINAÇÃO DE SEMENTES DE

PEROBA-ROSA

Resumo: Aspidosperma polyneuron Müll.Arg., também conhecida como peroba-rosa, possui muitas virtudesquanto ao seu uso em diferentes atividades. Para que haja representatividade no estudo de produção de mudas eplantios de recomposição/produção, recomenda-se trabalhar com sementes provenientes de pelo menos 12 ou 13matrizes. O presente trabalho teve por objetivo avaliar se sementes oriundas de um lote composto possuem menortempo até a germinação em relação as sementes de lotes únicos, utilizando de técnicas estatísticas da Análise deSobrevivência. Por meio do modelo de regressão de Cox, verificou-se que sementes oriundas de um lote compostotiveram menor tempo de germinação em relação aos lotes únicos. Este trabalho possui bastante relevância umavez que há carência na literatura acerca dessa espécie.

Palavras-Chave: Peroba-Rosa, Sementes, Tempo até a germinação, Modelo de Regressão deCox.

1 INTRODUÇÃO

Aspidosperma polyneuron Müll.Arg. é uma espécie arbórea pertencente à família Apocynaceae, con-hecida popularmente como peroba-rosa. Esta espécie possui características muito apreciáveis, e por issoé bastante visada pela construção civil, indústria de móveis, etc. [6,7].

Muito embora seja uma espécie de grande valor, existem poucas informações técnicas para avaliarsua qualidade fisiológica em laboratório [1]. Em especial, é importante conhecer o tempo até a ger-minação das sementes de peroba-rosa uma vez que isso possibilita o melhor planejamento de viveirosdessa espécie. Além disso, encontra-se na literatura a recomendação de se trabalhar com sementes mis-turadas (lote composto), provenientes de pelo menos 12 ou 13 matrizes [4], pois esta seria uma formade obter representatividade no estudo de produção de mudas e de plantios de recomposição/produção.Dessa forma, o presente trabalho tem por objetivo avaliar se a recomendação de se trabalhar com lotecomposto de sementes de peroba-rosa apresenta menor tempo de germinação em relação às sementes delotes não-compostos, utilizando de técnicas estatísticas da Análise de Sobrevivência.

2 MATERIAIS E MÉTODOS

2.1 Escolha das matrizes e obtenção das sementesO presente trabalho foi desenvolvido com sementes colhidas em 13 árvores (matrizes) localizadas

dispersamente em cinco municípios do Estado do Paraná. A coleta das sementes ocorreu entre os mesesde agosto e de setembro de 2014. As sementes das matrizes foram individualizadas e, por meio delas,

Vanessa Ferreira Sehaber, Sheilly RaquellyPrado de Paula, Antonio Carlos Nogueira

367

contituíu-se o lote composto, procurando manter um número equivalente de sementes de cada matrizamostrada.

As sementes coletadas foram levadas ao Laboratório de Sementes Florestais do Departamento deCiências Florestais da Universidade Federal do Paraná (UFPR), localizado no município de Curitiba- PR, onde foram beneficiadas e utilizadas para a realização dos experimentos. Foram retiradas 180sementes de cada um dos 14 lotes de sementes para instalar o experimento de germinação. Utilizou-sede um delineamento completamente casualizado e as sementes foram postas para germinar em caixas deGerbox, sobre um substrato de papel, em câmara de germinação cuja temperatura e fotoperíodo foramcontrolados em, respectivamente, 25 oC e 11 horas.

O experimento foi instalado em novembro de 2014 e diariamente, no mesmo horário, realizou-se averificação das sementes que germinaram ou não. O experimento se passou em 22 dias e o critériode encerramento do mesmo foi não observar algum sinal de germinação das sementes na câmara degerminação ao longo de 3 dias consecutivos. Utilizou-se o software R versão 3.2.2 para realizar asanálises estatísticas [8].

2.2 Modelos de análise de sobrevivência

Em análise de sobrevivência, a variável resposta é, geralmente, o tempo até a ocorrência de um eventode interesse e este tempo é denominado de tempo de falha [2]. A principal característica de dados desobrevivência é a presença de censura, que é a observação parcial da resposta. A observação censuradainforma que o tempo até a falha é maior do que aquele que foi registrado.

Uma função de probabilidade que leva em consideração o tempo que o indivíduo levou até a falha éa função de sobrevivência S(t). Define-se função de sobrevivência, S(t), como a probabilidade de umindivíduo sobreviver mais do que um determinado tempo t, ou seja, S(t) = P (T > t) = 1− F (t), ondeF (t) é a função de distribuição acumulada do tempo até a falha.

Há diferentes abordagens na Análise de Sobrevência que se aplicam na modelagem dos dados, algu-mas delas são a paramétrica, a não-paramétrica e semi-paramétrica. Quando a abordagem paramétricanão é satisfatória, as abordagens não-paramétrica e semi-paramétrica são bastante razoáveis. Uma abor-dagem não-paramétrica para estimar S(t) quando há indivíduos censurados pode ser dada pelo estimadorde Kaplan-Meier [5]. A presença de covariáveis na estimação por Kaplan-Meier não permite estimar oefeito da covariável, mas apenas comparar e testar a igualdade entre as curvas de sobrevivência [3].

Para investigar o efeito de covariáveis no tempo até a falha, foram considerados alguns modelos deregressão que assumem diferentes distribuições de probabilidades para a variável resposta, porém, paraeste estudo, tais modelos não apresentaram ajustes adequados. Diante disso, utilizou-se o modelo deregressão de Cox (o qual também é denominado de modelo de taxas de falhas proporcionais, uma vezque a razão de taxa de falhas de dois indivíduos diferentes é constante no tempo), que é um modelosemi-paramétrico, o qual apresentou ajuste bastante razoável. A função de sobrevivência desse modeloé dada por S(t|x) = [S0(t)]

exp(x′β) e função taxa de falha dada por λ(t|x) = [λ0(t)] exp(x′β). Ainda,pode-se obter a função taxa de falha acumulada Λ(t|x) com base na função taxa de falha, a qual é útilpara avaliar a taxa de falha e informar qual curva tem maior risco de falha.

3 RESULTADOS E DISCUSSÕES

Na Figura 1 encontra-se o gráfico de dispersão dos tempos de germinação das sementes de peroba-rosa durante os 22 dias de experimento.

V Simposio de Metodos Numericos Computacionais

368

Dias

Sem

ente

s de

per

oba−

rosa

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180

5 10 20

1

5 10 20

2

5 10 20

3

5 10 20

4

5 10 20

5

5 10 20

6

5 10 20

7

5 10 20

8

5 10 20

9

5 10 20

10

5 10 20

11

5 10 20

12

5 10 20

13

5 10 20

14

Censura Falha

Figura 1: Gráfico de falhas e censuras do tempo até a germinação da semente de peroba-rosa para os 14lotes de sementes

V Simposio de Metodos Numericos Computacionais

369

As curvas de sobrevivência dos tempos de germinação das sementes de peroba-rosa, durante os 22dias de experimentação, obtidas por meio do estimador de Kaplan-Meier, foram representadas na Figura2 com a cor preta. Quanto mais próxima de zero estiver a calda da curva da função de sobrevivênciamaior é a quantidade de sementes que germinaram. Isso pode ser observado nas curvas da Matrizes 5,7, 8, 12, 13, 14. Observe que a curva da Matriz 1 não atingiu 50%, ou seja, o experimento foi encerradosem que fosse observado 50% das sementes germinadas desta matriz.

Além da Matriz 1, observa-se que as Matrizes 2, 3, 4 e 6 também apresentaram caldas pesadas.Ainda, representou-se na Figura 2 o modelo de regressão de Cox com a cor vermelha, o qual teve comocovariável o fator Matriz, com 14 níveis. As curvas em vermelho estão, visualmente, muito próximas dascurvas estimadas por Kaplan-Meier. Encontram-se na Tabela 1 algumas medidas baseadas nas curvasde sobrevivência estimadas por Kaplan-Meier e, na Tabela 2, as estimativas obtidas pelo modelo deregressão de Cox.

Tabela 1: Tabela com cálculo de quantidades básicas para o tempo até a germinação das sementes deperoba-rosa para os 14 lotes de sementes, obtidos com base no estimador de Kaplan-Meier

Lotes Não Germ. Germ. % Não Germ. % Germ. Tempo médio Tempo medianoMatriz 1 124 56 69 31 13,67 ± 0,08 -Matriz 2 66 114 37 63 10,57 ± 0,16 12,29Matriz 3 80 100 44 56 13,76 ± 0,20 13,33Matriz 4 90 90 50 50 13,91 ± 0,14 19,00Matriz 5 30 150 17 83 4,11 ± 0,02 6,45Matriz 6 79 101 44 56 9,07 ± 0,10 11,50Matriz 7 25 155 14 86 8,19 ± 0,08 8,79Matriz 8 24 156 13 87 7,37 ± 0,11 8,91Matriz 9 43 137 24 76 5,69 ± 0,14 6,25

Matriz 10 64 116 36 64 11,06 ± 0,17 10,67Matriz 11 47 133 26 74 7,58 ± 0,11 8,62Matriz 12 27 153 15 85 6,81 ± 0,19 9,10Matriz 13 29 151 16 84 6,87 ± 0,10 9,24Matriz 14 11 169 06 94 5,81 ± 0,05 8,38

Pela Tabela 1 observa-se as Matrizes 7, 8, 9, 11, 12, 13 e 14 tiveram mais de 70% das sementesgerminadas e que menos de 32% das sementes da Matriz 1 germinaram. Os três maiores tempos médiosforam das Matrizes 1, 3 e 4 e os três menores foram das Matrizes 5, 9 e 14.

Para os tempo medianos, os maiores tempos medianos foram das Matrizes 1, 3 e 4 e os três menoresforam das Matrizes 5, 9 e 14. na Figura 2, as curvas em vermelho representam o ajuste do modelo deregressão de Cox, o qual tem como covariável o fator Matriz, com 14 níveis, e a Figura 4 encontram-seas curvas da função de falha acumulada para cada matriz.

As estimativas obtidas para o modelo regressão de Cox encontram-se na Tabela 2. Dessa forma, omodelo de regressão de Cox estimado é dado por

S(t|Matrix) = Sexp(3,2−0,4M2−0,4M3−0,3M4−1,1M5−0,5M6−0,9M7−0,8M8−1,0M9−0,6M10−0,8M11−0,9M12−0,8M13−0,9M14)0

E, por meio dessas estimativas, obtém-se as seguintes taxas:

λ(t|Matriz 1)

λ(t|Matriz 14)∼= 67, 4

λ(t|Matriz 8)

λ(t|Matriz 14)∼= 1, 1

Assim, pode-se dizer que a taxa do tempo até a germinação das sementes da Matriz 1 é, aproximada-mente, 67,4 vezes a taxa das sementes da Matriz 14 e, de modo semelhante, que a taxa do tempo até agerminação das sementes da Matriz 8 é, aproximadamente, 1,1 vezes a taxa das sementes da Matriz 14.

V Simposio de Metodos Numericos Computacionais

370

Tabela 2: Estimativas βj do modelo de regressão de Cox, j = 0, ..., 14, cuja matriz de contraste é do tipotratamento

Categoria β ep(β) Z p-valorIntercepto 3,23 0,05 60,13 ≤ 0,00001Matriz 10 -0,62 0,07 -8,77 ≤ 0,00001Matriz 11 -0,80 0,07 -11,42 ≤ 0,00001Matriz 12 -0,91 0,07 -12,92 ≤ 0,00001Matriz 13 -0,80 0,07 -11,38 ≤ 0,00001Matriz 14 -0,98 0,07 -13,94 ≤ 0,00001Matriz 2 -0,43 0,07 -6,09 ≤ 0,00001Matriz 3 -0,42 0,07 -5,83 ≤ 0,00001Matriz 4 -0,35 0,07 -4,82 ≤ 0,00001Matriz 5 -1,10 0,07 -15,66 ≤ 0,00001Matriz 6 -0,52 0,07 -7,35 ≤ 0,00001Matriz 7 -0,92 0,07 -13,13 ≤ 0,00001Matriz 8 -0,85 0,07 -12,09 ≤ 0,00001Matriz 9 -1,01 0,07 -14,33 ≤ 0,00001

Log(scale) -0,51 0,02 -27,93 ≤ 0,00001

Ao comparar visualmente os ajustes obtidos, observa-se pelo gráfico da Figura 2 que o modelo deregressão de Cox conseguiu ajustar curvas próximas as estimadas por Kaplan-Meier, porém não repre-sentou satisfatoriamente as curvas de sobrevivência das Matrizes 5 e 9.

Tempo (dias)

Sob

revi

vênc

ia e

stim

ada

0.2

0.4

0.6

0.8

1.01

0 5 10 15 20

2 3

0 5 10 15 20

4 5

0 5 10 15 20

6 7

0 5 10 15 20

8 9

0 5 10 15 20

10 11

0 5 10 15 20

12 13

0 5 10 15 20

0.2

0.4

0.6

0.8

1.014

Kaplan−Meier Mod. Reg. Cox

Figura 2: Gráficos das funções de sobrevivência estimadas por Kaplan-Meier versus as funções de so-brevivência estimadas pelo modelo de regressão de Cox para o tempo até a germinação das sementes deperoba-rosa para os 14 lotes de sementes

A Figura 3 mostra as estimativas das curvas de sobrevivência dos resíduos Cox-Snell obtidas porKaplan-Meier (S(ei)KM) e pelo modelo exponencial padrão (S(ei)Exp), as quais devem ser próximas.Além disso, os gráficos dos pares de pontos (S(ei)KM, S(ei)Exp) devem ser, aproximadamente, uma reta

V Simposio de Metodos Numericos Computacionais

371

para que o modelo ajustado possa ser considerado satisfatório. Observando os gráficos da Figura 3,nota-se que o modelo de regressão de Cox parece aceitável, o que indica sua adequação de ajuste aosdados.

0.2 0.4 0.6 0.8 1.0

0.2

0.4

0.6

0.8

1.0

S(ei): Kaplan−Meier

S(e

i): E

xpon

enci

al P

adrã

o

0.0 0.5 1.0 1.5 2.0 2.50.

00.

20.

40.

60.

81.

0

Resíduos de Cox−Snell

Sob

revi

vênc

ia e

stim

ada

Kaplan−MeierExponencial padrão

Figura 3: Análise dos resíduos de Cox-Snell do modelo de regressão de Cox ajustado para os dados degerminação das sementes de peroba-rosa

Tempo (dias)

Taxa

de

falh

a ac

umul

ada

0.0

0.5

1.0

1.5

2.0

2.5

5 10 15 20

Matriz 1Matriz 2Matriz 3Matriz 4

Matriz 5Matriz 6Matriz 7Matriz 8

Matriz 9Matriz 10Matriz 11Matriz 12

Matriz 13Matriz 14

Figura 4: Gráficos das funções taxas de falha acumulada estimadas com base no modelo de regressão deCox para os 14 lotes de sementes de peroba-rosa

As curvas da função taxa de falha acumulada foram maiores para as Matrizes 5, 14 e 9 (matrizes commaiores riscos de germinação) e foram menores para as Matrizes 1, 4 e 2 (matrizes com menores riscosde germinação). Como o modelo superestimou as funções de sobrevivência das Matrizes 5 e 9, pode-sedizer que a Matriz 14 apresentou maior taxa de falha.

V Simposio de Metodos Numericos Computacionais

372

4 CONCLUSÕES

Consoante ao objetivo do trabalho, verificou-se que o lote composto, representado pela Matriz 14,apresentou maior taxa de germinação em relação às demais matrizes, o que evidencia que o tempo atéa germinação dessa matriz foi menor. Assim, em termos práticos, a recomendação de homogeneizar assementes aplicou-se no caso das sementes dos lotes de peroba-rosa. Embora a Matriz 14 tenha apre-sentado maior número de sementes germinadas, um modelo de regressão logístico seria indicado paraa avaliação do percentual de germinação das sementes dos 14 lotes experimentados. Dessa forma, osmétodos estatísticos e computacionais utilizados servem de base para que outros pesquisadores interes-sados nesta espécie tenham uma perspectiva sobre o tempo até a germinação das sementes e subsidiemprocedimentos de plantio.

REFERÊNCIAS

[1] CARVALHO, P. E. R. Espécies arbóreas brasileiras. Brasília: Embrapa Informação Tecnológica.Colombo - PR: Embrapa Florestas, 2003.

[2] COLOSIMO, E. A.; GIOLO, S. R. Análise de sobrevivência aplicada. Blucher: São Paulo, 2006.[3] CARVALHO, M. S. et. al. Análise de sobrevivência: teoria e aplicações em saúde. ed. 2. Fiocruz:

São Paulo, 2011.[4] KAGEYAMA, P. Y. et al. Diversidade genética em espécies tropicais de diferentes estágios

sucessionais por marcadores genéticos. Scientia Forestalis, Piracicaba, v. 64, p. 93-107, 2003.[5] KAPLAN, E. L.; MEIER, P. Nonparametric estimation from incomplete observations. Journal

of the American Statistical Association. v. 53, p. 457-481, 1958.[6] KOCH, I. et a. Apocynaceae in Lista de Espécies da Flora do Brasil. Jardim Botânico do Rio

de Janeiro. Disponível em: <http://floradobrasil.jbrj.gov.br/jabot/floradobrasil/FB 4530>. Acessoem: 08 Jan. 2015.

[7] LORENZI, H. Árvores brasileiras: manual de identificação de plantas arbóreas do Brasil.Nova Odessa: Instituto Plantarum, vol. 1, ed. 5, p. 368, 2008.

[8] R. DEVELOPMENT CORE TEAM.R: A language and environment for statistical computing.Vienna: R Foundation for Statistical Computing, 2015.

V Simposio de Metodos Numericos Computacionais

373

V Simposio de Metodos Numericos Computacionais

MODELO DE REGRESSÃO MULTIVARIADO PARA DESLOCAMENTOS EM BARRAGEM DE CONCRETO

Resumo: O presente artigo apresenta uma aplicação do modelo de regressão por mínimos quadrados parciais em dados de monitoramento de barragens. O deslocamento da estrutura de um bloco de concreto é captado pelos instrumentos pêndulo direto e invertido. Esses instrumentos requerem monitoramento constante de engenheiros e técnicos responsáveis pela segurança da obra, por isso, é de interesse deste trabalho investigar o relacionamento entre o deslocamento captado pelo pêndulo, que é a resposta da barragem, mediante as variações do nível do reservatório e temperatura. O modelo condensa informação dos dados em um número pequeno de novas variáveis o que indica um bom potencial para auxiliar no monitoramento de barragens. Palavras-Chave: Regressão Multivariada, Mínimos Quadrados Parciais, Barragem.

1 INTRODUÇÃO

O objetivo da análise dos dados da instrumentação em barragens é propiciar informação que pode ser usada em uma interpretação física das deformações e, na previsão, seja do comportamento futuro da própria estrutura ou para estudo do comportamento de uma estrutura semelhante (DENG; WANG; SZOSTAK, 2008). Modelos estatísticos são propostos na literatura para tal objetivo, cita-se Ahmadi-Nedushan (2002), Chouinard e Roy (2006), De Sortis e Paoliani (2007), Léger e Lecler (2007), Deng, Wang e Szostak (2008), Yu et al. (2010), Mata (2011), Xi et al. (2011) e Li, Wang e Liu (2013). Estes são baseados em correlações existentes entre fatores tais como: o nível de água do reservatório, temperatura ambiente, desgaste devido ao tempo e a resposta da barragem a estas ações como tensões, deformações e deslocamentos (AHMADI-NEDUSHAN, 2002). Um dos desafios ao propor tais modelos é que primeiro, as variáveis independentes, ou seja, variações do nível do reservatório e temperatura, podem gerar dados multicolineares, inviabilizando o uso de algumas técnicas estatísticas. A multicolinearidade cria uma variância compartilhada entre as variáveis, diminuindo assim a capacidade de prever a variável dependente, bem como examinar a importância relativa de cada variável independente (HAIR, et al., 2009). O método de regressão por mínimos quadrados parciais atende o problema da multicolinearidade e não requer que os resíduos tenham distribuição normal. O método consiste em utilizar componentes obtidas, a fim de maximizar a covariância entre as variáveis

Suellen Ribeiro Pardo Garcia, Anselmo Chaves Neto, SheilaRegina Oro, Tereza Rachel Mafioleti, Claudio Neumann Junior

374

independentes e as variáveis dependentes (GARCIA e FILZMOSER, 2011). Entre aplicações de regressão por mínimos quadrados parciais, destaca-se o trabalho de (DENG; WANG e SZOSTAK, 2008) que apresenta uma análise de deformação para um ponto sobre a barragem. A conclusão no artigo foi que o modelo de regressão por mínimos quadrados parciais é mais confiável e tem melhor integridade do que o modelo de regressão múltipla que foi amplamente empregado no monitoramento de barragens. A proposta do artigo é desenvolver um modelo estatístico de regressão multivariada por mínimos quadrados parciais, onde as leituras dos sensores dos pêndulos direto e invertido compõem a matriz de variáveis dependentes e as variáveis independentes (preditoras) são as leituras do nível do reservatório, leituras dos termômetros de superfície e funções que descrevem o efeito irreversível na estrutura ao longo do tempo. O aspecto relevante deste modelo é sua característica multivariada, ou seja, será proposto um modelo para várias variáveis de resposta simultaneamente.

2 MODELO HYDROSTATIC DIRECT TEMPERATURE TIME (HT DT)

A resposta de um instrumento de segurança de barragem pode ser modelada em função de efeitos irreversíveis (eventuais deformações permanentes na estrutura) e efeitos reversíveis que o correm pela variação do nível do reservatório e temperatura, ao longo do tempo (Ahmadi-Nedushan, 2002). O deslocamento de um bloco de concreto é uma das respostas da barragem sob a ação dos efeitos reversíveis e irreversíveis. Trata-se de um dos parâmetros mais significativos em monitoramento de segurança de barragens. O modelo proposto por Léger e Leclerc (2007) descreve os deslocamentos em função da variação do nível do reservatório (H(z)), da variação da temperatura utilizando os dados dos termômetros embutidos no concreto (S(T)), e, em função dos efeitos irreversíveis (T(t)). O modelo, denomino HTDT (hydrostatic, direct temperature, time) é dado por

1

lnk

2 3 41 2 3 4 5 i i 1 2

i

D(t)= H(z)+S(T)+T(t)= a +a z+a z +a z +a z + bT +c t +c t=∑ (1)

onde ( )D t é a variável resposta (deslocamentos), t é o instante de início da análise, a

variável z é definida como mín

máx mín

h hz

h h

−=−

, h nível do reservatório e iT são as temperaturas

dos termômetros considerados no modelo. Os coeficientes desconhecidos ka e lc são

estimados pelo método dos mínimos quadrados. O modelo HTdT é uma regressão múltipla, o artigo se propõe a estender essa modelagem para várias variáveis resposta utilizando o modelo de mínimos quadrados parciais. O método de mínimos quadrados ordinários, ao contrário do método de mínimos quadrados parciais, apresenta resultados instáveis quando existe alto grau de correlação entre as variáveis independentes (multicolinearidade), o que aumenta a variância dos coeficientes estimados (MORELLATO, 2010). Calcula-se o fator de inflação da variância (VIF – Variance Inflation Factor) para quantificar a gravidade da multicolinearidade em uma análise de regressão. Essa estatística fornece um índice que mede o quanto a variância de um coeficiente de regressão estimado é maior na presença de colinearidade.

V Simposio de Metodos Numericos Computacionais

375

O VIF é calculado para cada ix (variável independente) dado por 2

1

1 i

VIFR

=−

, onde 2iR é o

coeficiente de determinação da equação de regressão

1 1 1 1 1 1... ...i i i i i p px x x x xα α α α− − + += + + + + + . A multicolinearidade é alta quando 10VIF > .

Em dados de monitoramento de barragens geralmente existe multicolinearidade e de fato, isso é verificado nesta aplicação na seção 4.2, isso justifica a escolha do método.

3 REGRESSÃO POR MÍNIMOS QUADRADOS PARCIAIS

Para auxiliar a notação, seja Y a matriz de variáveis resposta (deslocamentos) e seja X a matriz de variáveis preditoras (modelo HTdT). Assim, Y Xβ ε= + é o modelo de regressão por mínimos quadrados parciais, onde Y é a matriz nxm de n observações e m instrumentos, X é uma matriz nxr de n observações e r variáveis do modelo HTdT, β é uma matriz rxm dos coeficientes de regressão e ε é a matriz dos resíduos nxm. Os resíduos possuem vetor de médias nulo e matriz de covariâncias igual a 2Iσ , onde I é a matriz identidade de ordem nxn, mas sem distribuição definida (WOLD, SJÖSTRÖM e ERIKSSON, 2001). O modelo encontra poucas “novas” variáveis chamadas de componentes de X que são denotadas por ( ) 1,2,...,at a A= . O objetivo do modelo é extrair componentes que

capturem as variâncias dos preditores e também obter correlações com as respostas, isto é alcançado maximizando a covariância entre , e aX t Y (MORELLATO, 2010).

As componentes A (A<r ) são ortogonais e obtidas por combinações lineares das variáveis originais xr, com os pesos wa (a=1,2,...,A), da seguinte forma:

T XW= (2)

onde ( )1 2, ,..., AT t t t= é a matriz nxa de componentes (escores ou fatores) e

( )1 2, ,..., AW w w w= é a matriz rxa de pesos. As matrizes X e Y são decompostas na forma:

'X TP F= + (3)

'Y UC G= + (4)

onde T e U são matrizes nxA de componentes (escores ou fatores) de X e Y respectivamente, P’ e C’ são matrizes Axr e Axm de pesos de X e Y, respectivamente e F e G são as matrizes dos resíduos. As componentes de X são boas preditoras de Y, ou seja,

'Y TC E= + (5)

onde C’ é obtido por mínimos quadrados, dado por

( ) 1ˆ ' ' 'C T T T Y−= (6)

Para conseguir os coeficientes da regressão por mínimos quadrados parciais referentes as variáveis originais, substitui-se (2) em (5) e obtém-se

' ' 'Y TC E XWC E XB E B WC= + = + = + ⇒ =

ou seja,

V Simposio de Metodos Numericos Computacionais

376

ˆˆ 'B WC= (7)

A j-ésima coluna da matriz Bcorresponde aos coeficientes estimados para o modelo de regressão por mínimos quadrados parciais da variável de resposta , 1,...,

jy j m= . A

validação cruzada é normalmente utilizada para determinar este número ótimo de componentes (MEVIK e WEHRENS, 2007).

4 MODELAGEM

4.1 Dados A Barragem Principal (trecho F) de Itaipu é composta de blocos de concreto do tipo gravidade aliviada com 16 tomadas de água. Este é o trecho da barragem de concreto com maior influência da variação do nível do reservatório. O trecho F possui 18 blocos duplos que vão do F1/2 ao F35/36. Considera-se o bloco F19/20 para análise por ser um dos blocos com maior altura de coluna d’água. Os 6 sensores de um pêndulo direto e 1 sensor de um pêndulo invertido são os instrumentos para as variáveis de resposta, as leituras do nível do reservatório, as leituras de 6 termômetros de superfície instalados no bloco e o efeito irreversível foram utilizados para compor as funções do modelo HTdT e assim, constituírem a matriz de variáveis preditoras. O período da análise foi de janeiro de 2000 a junho de 2015. A Tabela 1: Variáveis consideradas no modelo. apresenta as 19 variáveis iniciais.

Tabela 1: Variáveis consideradas no modelo.

Variáveis Dependentes COF17X COF18X COF19X COF20X COF21X COF22X COF23X

Variáveis Independentes z z2 z3 z4 TSF11 TSF12 TSF13 TSF14 TSF15 TSF16 t ln t

Os pêndulos diretos e invertidos fornecem medidas dos deslocamentos na direção X, no sentido do fluxo (direção montante-jusante) e na direção Y, perpendicular ao fluxo (margem direita-esquerda) medido em milímetros. O presente trabalho limita-se a modelar os deslocamentos no sentido do fluxo (direção X). O nível do reservatório é dado em metros e a unidade de medida para os termômetros de superfície é em graus Celsius. Os sensores COF17 ao COF22 são do pêndulo direto e o sensor COF23 do pêndulo invertido no bloco F19/20. Os termômetros de superfície são identificados como TSF11, TSF12, TSF13, TSF14, TSF15 e TSF16. 4.2 Ajuste do Modelo O número de observações é de 186 para cada variável, com periodicidade mensal, e, na modelagem foi utilizado o software livre R (TEAM R CORE, 2015). Os VIF para as variáveis preditoras (independentes) estão apresentados na Tabela 2: Fator de inflação da variância As variáveis que representam a variação do nível do reservatório (z, z2, z3 e z4, funções do modelo HTdT), TSF12 e TSF13 indicam alta multicolinearidade, o que justifica a escolha do método de mínimos quadrados parciais para a estimativa dos parâmetros, uma vez que esse método não é afetado pela presença de multicolinearidade.

Tabela 2: Fator de inflação da variância

z z2 z3 z4 TSF11 TSF12 TSF13 TSF14 TSF15 TSF16 t ln t 187,3 2284,6 4356,1 1042,6 1,3 26,6 25,2 1,4 5,3 2,5 7,2 6,4

O valor importância da variável para a projeção (VIP – Variable Importance in Projection) classifica as variáveis independentes em termos de seu poder explicativo. Os preditores com

1VIP > são considerados mais relevantes para a construção de Y. Na Tabela 3: Importância

V Simposio de Metodos Numericos Computacionais

377

da variável para a projeção considerando 4 componentes apresenta-se os valores VIP para todas as variáveis independentes considerando até 4 componentes para o modelo. Considera-se 4 componentes, mas qualquer outro valor maior que 2 seria aceitável, pois observa-se que a partir de 2 componentes o valor de VIP é aproximadamente o mesmo.

Tabela 3: Importância da variável para a projeção considerando 4 componentes

t1 t2 t3 t4 z 0,60 0,66 0,67 0,66 z2 0,62 0,68 0,69 0,69 z3 0,63 0,67 0,69 0,69 z4 0,63 0,67 0,69 0,68

TSF11 0,85 0,84 0,84 0,87 TSF12 1,46 1,40 1,40 1,38 TSF13 1,46 1,40 1,39 1,37 TSF14 0,30 0,28 0,29 0,29 TSF15 1,49 1,43 1,42 1,41 TSF16 1,28 1,22 1,21 1,25

t 0,82 0,98 1,00 1,00 ln t 0,92 0,99 0,98 0,99

Nota-se que TSF12, TSF13, TSF15 e TSF16 são mais relevantes no modelo. Como t e ln t apresentaram valores próximos a 1, opta-se por manter estas variáveis no modelo. A validação cruzada para o novo modelo (com as variáveis z, z2, z3, z4, TSF11 e TSF14 excluídas) é apresentada na Tabela 4: Validação cruzada considerando até 6 componentes para o modelo.. Nota-se que 2 0,0975hQ ≥ para a escolha de h = 2,3,1,2,2,2 e 2 componentes

para as variáveis COF17X, COF18X, COF19X, COF20X, COF21X, COF22X e COF23X, respectivamente. Adota-se h=2 componentes.

Tabela 4: Validação cruzada considerando até 6 componentes para o modelo.

2hQ COF17X COF18X COF19X COF20X COF21X COF22X COF23X

t1 0,29 0,74 0,79 0,81 0,80 0,77 0,03 t2 0,17 0,11 0,02 0,09 0,09 0,27 0,11 t3 -0,01 0,13 0,03 0,04 0,01 -0,01 0,04 t4 -0,01 -0,01 0,05 0,05 0,07 0,00 0,05

Outro resultado importante é o coeficiente 2R que é a proporção de variância explicada pelas componentes do modelo (ver Tabela 5: Variância explicada pelo modelo.). Com a escolha de h = 2, temos 87% e 66% da variância das variáveis independentes e dependentes, respectivamente, explicada pelo modelo.

Tabela 5: Variância explicada pelo modelo.

R2 de X R2 de X acumulado R2 de Y R2 de Y acumulado t1 0,55 0,55 0,61 0,61 t2 0,33 0,87 0,05 0,66

Os deslocamentos observados pelos sensores do pêndulo direto e invertido e os deslocamentos previstos pelo ajuste do modelo são dados na Figura 1: Valores observados nos sensores do pêndulo (em preto) e valores previstos (em azul) pelo modelo. O eixo x são as 186 observações (2000 a 2015) e o eixo y são os deslocamentos medidos em mm. Nesta aplicação nem todas as variáveis preditoras contribuíram para a interpretação dos deslocamentos. Os valores VIP (Ver Tabela 3: Importância da variável para a projeção considerando 4 componentes) indicaram apenas as variáveis TSF12, TSF13, TSF15 e TSF16 como mais relevantes para o modelo. Isto apenas confirma informação já conhecida de que o deslocamento obtido pelo pêndulo é fortemente influenciado pela temperatura. Assim, as

V Simposio de Metodos Numericos Computacionais

378

variáveis z, z2, z3 e z4 foram excluídas, pois, não há contribuição relevante da variação do nível do reservatório nos movimentos relativos do bloco F19/20. Também se observa nos gráficos uma leve tendência de crescimento, porém este comportamento é consistente com as tendências de deformação de uma barragem ao longo do tempo.

5 CONCLUSÃO

A análise identifica que as variações do nível do reservatório (variáveis z, z2,z3 e z4) e as leituras dos termômetros TSF11 e TSF14 não contribuem significativamente para a previsão dos movimentos relativos do bloco F19/20. Logo, o número de 12 variáveis preditoras se reduz a 6 variáveis. O modelo de regressão por mínimos quadrados parciais extrai do relacionamento entre as 7 variáveis de resposta e 6 variáveis preditoras, apenas 2 componentes. Essas 2 componentes explicam aproximadamente 87% da variabilidade das variáveis preditoras e explicam mais que 66% da variabilidade das variáveis de resposta. Isso mostra um bom potencial para o uso da regressão por mínimos quadrados parciais no tratamento de dados de monitoramento de barragens reduzindo o número de variáveis a serem monitoradas. Para os sensores COF17X e COF23X o modelo não foi satisfatório. O sensor do pêndulo direto COF17X está localizado na crista e o sensor do pêndulo invertido COF23X na base. O COF17X tem correlação entre 0,65 e 0,72 com os demais sensores exceto o COF23X. O COF23X tem correlação inferior a 0,1 em valor absoluto com os demais sensores, por isso, deve ser avaliado individualmente. As correlações entre as demais variáveis de resposta é maior que 0,95. Essas variáveis serão avaliadas separadamente em estudo futuro. Na literatura, uma gama de modelos univariados é proposta, muitas vezes ignorando a presença de correlações entre as variáveis, enquanto que ao estimar conjuntamente os parâmetros, como no modelo apresentado, obtêm-se um ganho de eficiência dos estimadores e leva-se em conta o relacionamento entre as variáveis admitindo que sejam correlacionadas. Não se leva em conta neste estudo, a autocorrelação temporal entre as variáveis, aspecto que será investigado em estudos futuros por meio de modelos dinâmicos. As previsões do modelo, comparadas às leituras reais, fornecem informação sobre a mudança de comportamento da estrutura com relação ao comportamento anterior, considerado estável. Em trabalho futuro pretende-se construir o intervalo de confiança para os estimadores de modo a estabelecer limites de controle para as novas observações de deslocamentos

. 0 50 100 150

1.5

2.0

2.5

COF17X

0 50 100 150

1.0

2.0

3.0

4.0

COF18X

V Simposio de Metodos Numericos Computacionais

379

0 50 100 150

34

56

7COF19X

0 50 100 150

56

78

910

COF20X

0 50 100 150

78

910

1112

COF21X

0 50 100 150

1112

1314

1516

1718

COF22X

0 50 100 150

0 50 100 150

3.2

3.4

3.6

3.8

4.0

4.2

COF23X

Figura 1: Valores observados nos sensores do pêndulo (em preto) e valores previstos (em azul) pelo modelo. O eixo x são as 186 observações (2000 a 2015) e o eixo y são os deslocamentos medidos em mm.

V Simposio de Metodos Numericos Computacionais

380

REFERÊNCIAS

AHMADI-NEDUSHAN, B. Multivariate Statistical Analysis of monitoring data for concrete dams. Tese de Doutorado do Departamento de Engenharia Civil e Mecânica Aplicada, McGill University. Montreal, p. 211. 2002. CHOUINARD, L.; ROY, V. Performance of Statistical Models for Dam Monitoring Data. Joint International Conference on Computing and Decision Making in Civil and Building Engineering. Montreal: [s.n.]. 2006. p. 9. DE SORTIS, A.; PAOLIANI, P. Statistical analysis and structural identification in concrete dam monitoring. Engineering Structures, v. 1, n. 29, p. 110-120, Janeiro 2007. DENG, N., WANG, J., e SZOSTAK, A. C. Dam deformation analysis using the partial least squares method, 13th FIG International Symposium on Deformation Measurements and Analysis e 4th IAG Symp. on Geodesy for Geotechnical and Structural Engineering, Lisbon. 2008. GARCIA, H.; FILZMOSER, P. Multivariate Statistical Analysis using the R package chemometrics. University of Technology: Department of Statistics and Probability Theory. Vienna, p. 71. 2011. HAIR, J. F. et al. Análise Multivariada de Dados. 6ª. ed. São Paulo: Bookman, 2009. LÉGER, P.; LECLERC, M. Hydrostatic, temperature, time-displacement model for concrete dams. Journal of engineering mechanics, v. 133 No. 3, p. 267-277, Março 2007. LI, F.; WANG, Z.; LIU, G. Towards an Error Correction Model for dam monitoring data analysis based on Cointegration Theory. Structural Safety, v. 43, p. 12-20, Julho 2013. MATA, J. Interpretation of concrete dam behaviour with artificial neural network and multiple linear regression models. Engineering Structures, v. 33, n. 3, p. 903-910, Março 2011. MEVIK, B.-H.; WEHRENS, R. The pls package: principal component and partial least squares regression in R. Journal of Statistical Software, v. 18, n. 2, p. 1-24, 2007. MORELLATO, S. A. Modelos de regressão PLS com erros heteroscedásticos. Dissertação de Mestrado em Estatística. Universidade Federal de São Carlos - UFSCar. São Carlos, p. 49. 2010. Team, R. Core. R: A language and environment for statistical computing. Vienna, Austria; 2014. URL http://www. R-project. org (2015). WOLD, S.; SJÖSTRÖM, M.; ERIKSSON, L. PLS-regression: a basic tool of chemometrics. Chemometrics and intelligent laboratory systems, v. 58, n. 2, p. 109-130, 2001. XI, G. Y. et al. Application of an artificial immune algorithm on a statistical model of dam displacement. Computer & Mathematics with Applications, v. 62, n. 10, p. 3980-3986, Novembro 2011. YU, H. et al. Multivariate analysis in dam monitoring data with PCA. Science China Technological Sciences, v. 53, n. 4, p. 1088-1097, 2010.

V Simposio de Metodos Numericos Computacionais

381

V Simposio de Metodos Numericos Computacionais

MODELAGEM TÉRMICA DE UM BLOCO DE CONTRAFORTEATRAVÉS DE DADOS DE TERMÔMETROS E O MÉTODO DOS

ELEMENTOS FINITOS

Resumo: Este trabalho consiste em um estudo de caso que aborda o tema transferência de calor por conduçãoem um bloco de uma barragem real do tipo contrafortes com o objetivo de propiciar um método para aproximar osvalores dos coeficientes térmicos do concreto: condutividade térmica, massa específica e calor específico, no casode não existirem informações reais desses valores através de ensaios em laboratório. Para que tais coeficientessejam representativos, inicialmente aproximações de dados observados dos termômetros inseridos no bloco sãorealizadas por meio de séries de Fourier graças a sazonalidade da variável temperatura no bloco. Os dados obser-vados e ajustados de três termômetros são utilizados como condições de contorno para obter a solução da equaçãoda difusão do calor e o modelo é calibrado e validado a partir de dados observados de outros quatro termômetros.Os processos de calibração e validação são executados através do método dos elementos finitos com auxílio dosoftware Ansys.

Palavras-Chave: Barragem de concreto, Equação do Calor, Série de Fourier, Ansys.

1 INTRODUÇÃO

Altos índices de variação de temperatura podem afetar o desempenho, resistência e durabilidade dasestruturas, de modo que a correta avaliação do campo de temperaturas é essencial para a determinaçãodas tensões de origem térmica. Diversos trabalhos presentes na literatura destacam a importância de seanalisar os efeitos da temperatura no desempenho estrutural de barragens. (Ansell and Malm (2008),Léger and Leclerc (2007) e Mirzabozorg et al. (2014))

As barragens, por sua vez, podem ser classificadas em dois grandes grupos, de acordo com o materialutilizado na sua construção: barragens de concreto, que podem ser do tipo gravidade, arco e contrafortese barragens convencionais de terra e/ou enrocamento.

A transferência de calor por condução em um bloco de contraforte de uma barragem real é abor-dada neste trabalho, com o objetivo de propiciar um método para aproximar os valores dos coeficientestérmicos do concreto: condutividade térmica, massa específica e calor específico, no caso de não exis-tirem informações reais desses valores através de ensaios em laboratório. Os registros de temperaturasentre os anos 1985 e 2014 dos termômetros instalados à superfície e no interior do bloco em estudoproporcionaram a calibração e validação do modelo térmico descrito pela equação da difusão do calor.A Figura 1 trata da geometria do bloco e a localização dos termômetros, sendo 4 superficiais (TS-D-903,TS-D-904, TS-E-1 e TS-D-5) e 3 internos (TI-E-1, TI-E-2 e TI-E-3).

Tasia Hickmann, Liliana Madalena Gramani, Eloy Kaviski,Luis Antonio Sucapuca Aracayo, Everton Luis Garcia

382

Figura 1: Geometria do bloco de contraforte e a localização dos termômetros.

Inicialmente tomou-se os 20 primeiros anos (1985−2004) de dados de temperaturas de 7 termômetrose, devido ao cárater sazonal da temperatura, construiu-se uma série de Fourier com período de 365, 25dias que forneceu a temperatura em qualquer instante do tempo para cada um dos termômetros presentesno bloco. A distribuição bidimensional da temperatura transiente no interior do bloco para o ‘ano médio’,o qual representou o período de 1985 a 2004, foi obtida através do método dos elementos finitos comauxílio do software Ansys. As condições inicial e de contorno necessárias para solução da equação dacondução de calor consistiram das temperaturas do ‘ano médio’ ajustadas pela série de Fourier para 3termômetros presentes na superfície do bloco (TS-D-904, TS-E-1 e TS-D-5).

Os parâmetros térmicos do concreto foram estabelecidos após feita a calibração do modelo por meiodas temperaturas de 1 termômetro superficial (TS-D-903) e os 3 termômetros internos (TI-E-1, TI-E-2 eTI-E-3) deste mesmo ‘ano médio’. O modelo foi considerado calibrado quando, para fixados valores doscoeficientes térmicos, o MAPE (Erro Percentual Absoluto Médio) obtido entre os dados de temperaturasvia série de Fourier e aqueles obtidos através da solução numérica da equação do calor (via Ansys) foimenor que 20% nos pontos onde se localizam os termômetros TS-D-903, TI-E-1, TI-E-2 e TI-E-3.

A última etapa consistiu na validação do modelo térmico, onde foram tomados dados dos últimos 10anos (2005 − 2014). Tal processo ocorreu de modo similar ao processo de calibração, apenas diferen-ciando no fato que os coeficientes térmicos já foram determinados na fase de calibração, sendo apenasfeito nesta etapa a comparação entre os dados de temperatura obtidos via séries de Fourier e via Ansyspara os mesmos termômetros utilizados na fase anterior.

Este trabalho está organizado da seguinte forma: A primeira seção trata da formulação matemática daequação da condução de calor. Na seção seguinte é introduzida a formulação em elementos finitos comauxílio do software Ansys. A terceira seção apresenta um estudo de caso de um bloco de uma barragemreal de contrafortes, onde serão definidas as séries de Fourier dos termômetros, a determinação doscoeficientes térmicos do concreto através da calibração e validação do modelo térmico.

2 EQUAÇÃO DA DIFUSÃO DO CALOR

De acordo com Ozisik (1993) e Shukla (2005), a base para a análise térmica no Ansys é a equaçãodo balanço de calor, obtida a partir do princípio de conservação da energia ou a primeira lei da termo-dinânica, que pode ser escrita como:

ρc

(∂T

∂t+ vT LT

)+ LT q =

.q, (1)

onde: ρ = densidade, c = calor específico, T = temperatura, L =

∂∂x

∂∂y

∂∂z

T, v =

vx vy vz

T

= vetor velocidade para transporte de massa de calor, q = vetor fluxo de calor,.q = taxa de geração de

calor por unidade de volume.A lei de Fourier é utilizada para relacionar fluxo de calor e gradientes térmicos:

q = − [D] LT, (2)

V Simposio de Metodos Numericos Computacionais

383

onde: [D] =

kxx 0 00 kyy 00 0 kzz

= matriz de condutividade, com kxx, kyy e kzz condutividades do material

nas direções x, y e z, respectivamente.Combinando as Equações (1) e (2), obtém-se a equação de conservação da energia em coordenadas

cartesianas:ρc

(∂T

∂t+ vT LT

)+(LT [D] L

)T =

.q . (3)

A fim de definir um problema da transferência de calor, além da formulação das equações no domíniode estudo, é necessário especificar as condições inicial e de contorno e estas são descritas na seção quesegue.2.1 Condições Iniciais e de Contorno

Considere uma região Ω cuja superfície de contorno é denotada por S, conforme a Figura 2. Rel-ativamente à condição inicial, é definida a temperatura no instante inicial, t = t0, no domínio Ω, ouseja, T (x, y, z, t0) = T0 (x, y, z). As condições de contorno sobre a superfície da região em análiseS = S1 ∪ S2 ∪ S3 para problemas desta natureza podem ser de três tipos e estão iliustradas, conformeSilva (2014), na Figura 2, e são como:

Figura 2: Domínio e fronteiras de Newmann, Dirichlet e Robin convectiva.

1. Temperatura especificada atuando na superfície S1, e neste caso é dito que a condição de fronteiraé do tipo Dirichlet ou essencial: T = T ∗.

2. Fluxo de calor específico atuando na superfície S2, conhecida como condição de fronteira de Neu-mann ou natural onde n é o vetor unitário normal à superfície e q∗ é o fluxo de calor específico:

qT n = −q∗. (4)

3. Superfícies de convecção específicadas atuando sobre a superfície S3, chamada de condição defronteira de Robin convectiva, onde hf é o coeficiente de convecção, TS é a temperatura na super-fície e TB é a temperatura de um fluido adjacente à superfície:

qT n = hf (TS − TB) . (5)

Combinando as Equações (2), (4) e (5), obtêm-se:

nT [D] LT = q∗, (6)nT [D] LT = hf (TB − TS) . (7)

Pré-multiplicando a Equação (3) por uma variação na temperatura, integrando sobre o volume doelemento e combinando com as Equações (6) e (7), com algumas manipulações algébricas, chega-se àseguinte equação:

vol

(ρc δT

(∂T

∂t+ vT LT

)+ LT (δT ) ([D] LT )

)d (vol)

=

S2

δTq∗d (S2) +∫

S3

δT hf (TB − TS) d (S3) +∫

volδT

.q d (vol),

(8)

V Simposio de Metodos Numericos Computacionais

384

onde: δT = δT (x, y, z, t) e vol = volume do elemento.Como é de conhecimento comum, soluções analíticas para problemas de condução de calor são res-

tritas a casos onde o grau de complexidade da geometria e das condições de contorno são relativamentebaixas. Sugere-se assim o estudo de soluções através de métodos aproximados, um deles é o Método dosElementos Finitos, que será brevemente abordado na seguinte seção.

3 MÉTODO DOS ELEMENTOS FINITOS

O Método dos Elementos Finitos (MEF) é uma metodologia numérica para obtenção de soluçãonumérica de equações na forma diferencial ou integral. Geralmente o MEF permite aos utilizadoresobter a evolução no espaço e/ou tempo das variáveis que representam o comportamento de um sistemafísico. (Madenci and Guven (2015))

Após realizada a geração da malha da geometria em estudo e feita a discretização da equação (3)no domínio temporal e espacial, o processo a determinação do campo de temperatura e outras variáveissecundárias, como o fluxo de calor, só pode ser completa através do MEF se forem inseridas condiçõesinicial e de contorno.3.1 Formulação Matricial

A temperatura para cada elemento, Ωe, pode ser representada como:

T = NT Te , (9)

onde: T = T (x, y, z, t) é a temperatura, N = N (x, y, z) são as funções base do elemento eTe = Te (t) é o vetor de temperaturas nodais do elemento.

Derivando em relação ao tempo a Equação (9), a expressão para δT e LT ficam, respectivamente:

δT = δTeT N , (10)LT = [B] Te , (11)

onde [B] = L NT . Como as quantidades Te,Te

e δTe não variam sobre o elemento e ao

tomar-se a Equação (8) combinada com as Equações (9)–(11) conclui-se que:[Ct

e

] Te

+([Ktm

e

]+[Ktb

e

]+[Ktc

e

])Te =

Qf

e

+ Qc

e+ Qge , (12)

onde:

[Cte

]= ρ

volρc N NTd (vol) ,

[Ktm

e

]= ρ

volc N vT [B] d (vol),

[Ktb

e

]=

vol[B]T [D] [B] d (vol) ,

[Ktc

e

]=

S3

hf N NTd (S3),Qf

e

=

S2

N q∗d (S2) , Qce =

S3

TBhf N d (S3),

Qge =

vol

.q N d (vol).

4 ESTUDO DE CASO

4.1 Série de FourierA calibração e validação do modelo térmico para o bloco, representado através da Figura 1, teve como

primeiro passo o ajuste de uma série de Fourier sobre os dados dos 7 termômetros também visualizadosna mesma figura, tal série pode ser representada como na Equação (13):

T (t) = y0 +N∑

k=1

aksen

(2kπ

Pt

)+ bk cos

(2kπ

Pt

), (13)

onde: t é a variável tempo, P = 365, 25 dias o período da série, T (t) a temperatura em um instante t,

V Simposio de Metodos Numericos Computacionais

385

N o número de harmônicos e os 2N + 1 coeficientes y0, ak e bk a serem ajustados através do Métododos Mínimos Quadrados em um código implementado no Matlab.

Já o MAPE é dado por E =

n∑i=1

∣∣∣∣Ti−Ti

Ti

∣∣∣∣n

, onde n é o número de dados observados, Ti a i-ésima temper-atura observada, Ti o valor aproximado da i-ésima temperatura determinada através da série (13).

O número de harmônicos e o MAPE para cada um dos 7 termômetros está descrito nas Tabelas 1 e 2:

Tabela 1: Número de Harmônicos e o respectivo MAPE para o ajuste da série de Fourier dos dados de1985 a 2004

Harmônicos MAPE (em %)TS-D-5 45 9.76

TS-D-903 10 2.52TS-D-904 10 2.55

TS-E-1 10 2.25TI-E-1 5 1.15TI-E-2 5 1.38TI-E-3 5 1.21

Tabela 2: Número de Harmônicos e o respectivo MAPE para o ajuste da série de Fourier dos dados de2005 a 2014

Harmônicos MAPE (em %)TS-D-5 15 9.55

TS-D-903 5 2.6TS-D-904 5 2.7

TS-E-1 5 1.36TI-E-1 5 0.71TI-E-2 5 1.39TI-E-3 5 0.64

4.2 Generalidades e Hipóteses da Simulação via Ansys

As simulações foram realizadas no ambiente Ansys - Workbench V16.1 e os gráficos no ambienteThermal Transient - V16.1. Algumas simplificações foram consideradas no processo de geração domodelo térmico: estado plano de tensões, homogeneidade do material, comportamento isotrópico eelástico linear do material e simplificações na geometria (chanfros, drenagem, suportes, vigas, e outros).

No problema têm-se 365 valores de temperatura, um para cada dia do ano médio, que equivale a3.1536 × 107 s, esse valor é dividido em 365 steps, ou seja, 1 step equivale a 86400 s. Cada step foidividido em 24 substeps, de modo que cada substep teve 3600 s.

4.3 Análise Transiente: Fase de Calibração

Inicialmente uma simulação estacionária com os dados do primeiro dia do ano médio, que correspon-deu do ano 1985 a 2004, foi realizada com a finalidade do bloco estar com um campo de temperatura emequilíbrio e que seja a temperatura inicial para a análise transiente (veja a Figura 3). As condições decontorno, são as temperaturas dos termômetros TS-D-5, TS-D-904 e TS-E-1 referentes ao ano médio de1985 a 2004:

V Simposio de Metodos Numericos Computacionais

386

Figura 3: Campo de temperatura numérica para o primeiro dia do ano médio como condição inicial paraa análise transiente na fase de calibração.

Após aplicada as condições inicial e de contorno, variou-se os parâmetros térmicos (condutividade tér-mica, massa específica e calor específico) de modo a se alcançar um MAPE inferior a 20%. Os parâme-tros utilizados na simulação foram: condutividade térmica 1.2W (mK)−1, calor específico 895.38 J(kgK)−1

e massa específica 2550 kg m−3.A Figura 4 apresenta o campo de temperatura após realizada a análise transiente, via Ansys, para o

último dia do ano médio. O MAPE determinado pelos valores dos termômetros TS-D-903, TI-E-1, TI-E-2 e TI-E-3 e os obtidos pelo Ansys nos pontos onde estes se localizam foram respectivamente 1.78%,9.32%, 16.21% e 10.86%, todos abaixo do percentual estipulado de 20%.

Figura 4: Campo de temperatura numérica para o último dia do ano médio de 1985 a 2004 após realizadaa análise transiente na fase de calibração.4.4 Análise Transiente: Fase de Validação

Com os parâmetros térmicos obtidos através da fase de calibração, segue-se para a fase da validaçãodo modelo. Novamente uma simulação estacionária com os dados do primeiro dia do ano médio doano 2005 a 2014 foi realizada para se obter temperatura inicial do bloco para a análise transiente (vejaa Figura 5). As condições de contorno, que são as temperaturas dos termômetros TS-D-5, TS-D-904 eTS-E-1 referentes ao ano médio de 2005 a 2014.

Figura 5: Campo de temperatura numérica para o primeiro dia do ano médio como condição inicial paraa análise transiente na fase de validação.

V Simposio de Metodos Numericos Computacionais

387

A Figura 6 apresenta o campo de temperatura após realizada a análise transiente, via Ansys, para oúltimo dia do ano médio. O MAPE determinado pelos valores dos termômetros TS-D-903, TI-E-1, TI-E-2 e TI-E-3 e os obtidos pelo Ansys nos pontos onde estes se localizam foram respectivamente 1.82%,11.82%, 13.52% e 14.36%, todos abaixo do percentual estipulado de 20%.

Figura 6: Campo de temperatura numérica para o último dia do ano médio de 2005 a 2014 após realizadaa análise transiente na fase de validação.

5 CONSIDERAÇÕES FINAIS

Um método para determinação dos parâmetros térmicos (condutividade térmica, massa específica ecalor específico) presentes na equação do calor, foi apresentado neste trabalho. Dados observados de 7termômetros instalados em um bloco de contraforte de uma barragem real foram utilizados. Ajustou-separa cada um deles uma curva (série de Fourier) e tomou-se 3 deles para condição de contorno pararesolução do modelo térmicos e outros 4 para calibração e validação dos parâmetros. Utilizando umamalha eficiente (poucos elementos e de boa qualidade) e com um passo de tempo de 3600 s, que éconsiderada suficiente pra a modelagem do fenômeno e dentro de uma tolerância de 20% para o MAPEo método foi eficiente.

REFERÊNCIAS

Ansell A. and Malm R. Modelling of thermally induced cracking of a concrete buttress dam. NordicConcrete Research, 38:69–88, 2008.

Léger P. and Leclerc M. Hydrostatic, temperature, time-displacement model for concrete dams. Journalof engineering mechanics, 133(3):267–277, 2007.

Lewis R.W., Nithiarasu P., and Seetharamu K.N. Fundamentals of the Finite Element Method for Heatand Fluid Flow. John Wiley & Sons, 2004.

Madenci E. and Guven I. The Finite Element Method and Applications in Engineering Using ANSYS R©.Springer Science & Business Media, 2 edition, 2015.

Mirzabozorg H., Hariri-Ardebili M., Shirkhan M., and Seyed-Kolbadi S. Mathematical modeling andnumerical analysis of thermal distribution in arch dams considering solar radiation effect. The Scien-tific World Journal, 2014, 2014.

Ozisik M.N. Heat Conduction. John Wiley & Sons, 1993.Shukla K.N. Mathematical Principles of Heat Transfer. Begell House, 2005.Silva C.R.S. Desenvolvimento de Formulações de Elementos Finitos para Problemas de Transferência de

Calor. Master’s Thesis, Faculdade de Ciências e Tecnologia - Universidade Nova de Lisboa, Lisboa,Portugal, 2014.

V Simposio de Metodos Numericos Computacionais

388

V Simposio de Metodos Numericos Computacionais

MÉTODO DE ANÁLISE PROBABILÍSTICA DE ESTABILIDADE DE BARRAGENS DE TERRA

Resumo: O artigo apresenta uma abordagem de confiabilidade estrutural para a análise probabilística da estabilidade de barragens de terra. A análise teve por base o First Order Reliability Method e visou à obtenção da probabilidade de ruptura do talude e do índice de confiabilidade estrutural. A função que descreveu o desempenho da estrutura foi o Fator de Segurança Simplificado de Janbu. As variáveis consideradas aleatórias foram a coesão efetiva e o ângulo de atrito interno efetivo da argila compactada do corpo da barragem. Para a aplicação deste método, foi utilizada a seção transversal localizada na Estaca 122+00 da Barragem de Terra da Margem Esquerda da Usina Hidrelétrica de Itaipu. O índice de confiabilidade obtido ficou dentro do intervalo recomendado para barragens de terra. A probabilidade de ruptura encontrada foi 0,0087%. O método de análise probabilística de estabilidade apresentado cumpriu seus objetivos e a sua implementação computacional foi viável nesse caso.

Palavras-Chave: Estabilidade de Barragens, Confiabilidade Estrutural, Índice de Confiabilidade, Probabilidade de Ruptura.

1 INTRODUÇÃO A maior parte dos problemas de estabilidade de estruturas, em Engenharia Civil, foi tratada de forma determinística, até meados do século XX. O estudo da estabilidade de taludes de forma determinística deu origem ao método do equilíbrio limite, pelo qual é calculado o Fator de Segurança (FS). De acordo com diferentes hipóteses, alguns autores apresentaram maneiras distintas de calcular o Fator de Segurança, por exemplo: Fellenius (1936), Janbu (1954), Spencer (1967). Pesquisadores observaram que, muitas vezes, as variáveis envolvidas nos cálculos de estabilidade de estruturas estavam sujeitas à variabilidade. Assim, a partir da década de 1960 são encontrados trabalhos que consideram essa variabilidade e que deram origem às técnicas probabilísticas chamadas de confiabilidade estrutural. Alguns exemplos são: Cornell (1969), Hasofer e Lind (1974), Ang e Tang (1984). Em problemas de geotecnia, a variabilidade dos dados dá-se muitas vezes devido à alteração das propriedades do solo de um ponto a outro, à intervenção e falhas humanas nos ensaios geotécnicos, dentre outros motivos (EL-RAMLY, 2002). Dadas às incertezas das variáveis do FS, uma abordagem com base na probabilidade de instabilidade do talude e de confiabilidade da estrutura consegue expressar as condições de segurança do aterro, de forma mais próxima do real (EL-RAMLY, 2002).

Tereza Rachel Mafioleti, Anselmo Chaves Neto,Josiele Patias, Luiz Albino Teixeira Junior

389

Este trabalho apresenta resultados de uma proposta de utilização do método de confiabilidade estrutural FORM (First Order Reliability Method), para o qual a função utilizada para descrever o desempenho da estrutura é denominada “Fator de Segurança Simplificado de Janbu”. Nessa proposta foram apresentadas maneiras de tratar as dificuldades encontradas pela utilização do “FS Simplificado de Janbu” durante a execução do algoritmo. Para verificação da eficácia da análise probabilística proposta, foram utilizados dados da Barragem de Terra da Margem Esquerda da Usina Hidrelétrica de Itaipu e a análise foi realizada na seção transversal da Estaca 122+00.

2 CONFIABILIDADE ESTRUTURAL O “Fator de Segurança Simplificado de Janbu” fornece informação sobre o desempenho da estrutura. A violação da condição de FS > 1 implica em desempenho insatisfatório, ou seja, ocorrência de ruptura, e, em termos de confiabilidade estrutural, é interpretada como a violação do estado limite. A confiabilidade estrutural preocupa-se com o cálculo da probabilidade da violação do estado limite das estruturas de engenharia, em qualquer fase da vida destas estruturas (MELCHERS, 1987). De acordo com Ang e Tang (1984), se X é o vetor aleatório das variáveis de resistência e das variáveis de solicitação, )(XG é a função do estado limite, para a qual a violação ocorre quando 0)( XG , e )(xf X é a função densidade probabilidade conjunta de X , então a probabilidade de ruptura ( rp ) é:

0)(

)(...]0)([XG

Xr xdxfXGPp (1)

Muitas vezes, as funções densidade probabilidade (f.d.p.) das variáveis de resistência e solicitação são desconhecidas. Mesmo nos casos em que são conhecidas e é possível determinar )(xf X , o cálculo da Equação (1) é inviável. O método FORM, de confiabilidade estrutural, é uma alternativa para superar essa dificuldade. 2.1 First Order Reliability Method (FORM) Para a execução do algoritmo FORM, é necessário que as variáveis aleatórias sejam independentes e sigam a distribuição normal padronizada. Variáveis com estas caracterícticas compõem um espaço chamado de “espaço reduzido”. A função do estado limite, escrita com as variáveis do “espaço reduzido”, quando igualda a zero, representa a equação do estado limite. Tal equação determina a superfície de falha no “espaço reduzido”. O FORM faz a aproximação linear da superfície de falha no seu ponto mais próximo à origem do “espaço reduzido”. O ponto da superfície de falha mais próximo da origem do “espaço reduzido” indica os valores mais prováveis que as variáveis aleatórias devem assumir para que ocorra a falha, ele é chamado de ponto de projeto. A distância da origem do “espaço reduzido” ao ponto de projeto corresponde ao índice de confiabilidade (MELCHERS, 1987). O FORM apresenta os seguintes passos de iteração para o caso de se ter variáveis aleatórias independentes que sigam a distribuição normal, conforme Ang e Tang, (1984): Passo 1. Transformação do vetor aleatório X do espaço original, no vetor z do “espaço reduzido”, com auxílio da matriz inversa dos desvios padrões estimados e do vetor das médias estimadas de X : 1][ e :

)(][ 1 Xz (2)

Passo 2. Escrita da equação do estado limite em função das variáveis do “espaço reduzido”:

V Simposio de Metodos Numericos Computacionais

390

0)( zG (3)

Passo 3. Cálculo dos cossenos diretores do vetor , por meio do vetor das derivadas parciais

de G em relação às variáveis de z , derivadas essas denotadas por

zG :

zG

zG

1

(4)

Passo 4. Obtenção do novo ponto de projeto *z em função do índice de confiabilidade :

*z (5)

Passo 5. Obtenção de um índice de confiabilidade das raízes da equação do estado limite:

0)( * GzG (6)

Passo 6. Se a diferença entre o índice de confiabilidade da iteração atual com o da iteração anterior for aceitável, então o processo finaliza-se, obtém-se o índice de confiabilidade, o ponto de projeto a partir da Equação (5) e a probabilidade de ruptura rp com a função distribuição normal acumulada ( ) de . Caso contrário, retorna-se ao Passo 3.

)(1 rp (7)

2.2 Fator de Segurança Simplificado de Janbu Neste trabalho, a função escolhida para descrever o desempenho da estrutura foi o “Fator de Segurança Simplificado de Janbu”. Procurou-se determinar a probabilidade de ruptura do aterro. As hipóteses são: o solo rompe-se bruscamente, as equações do equilíbrio estático são válidas até a iminência da ruptura e o FS é o mesmo ao longo de toda a superfície de ruptura. A análise, feita no plano bidimensional, por uma seção transversal do talude, considera que a superfície de ruptura é circular, conforme a Figura 1 a seguir e que o solo sobre a superfície de ruptura é dividido em fatias.

Figura 1: Superfície de ruptura do FS de Janbu Simplificado (Guedes de Mello 1993, citado por Ferreira, 2012).

O Fator de Segurança é dito “simplificado” quando é analisado apenas o equilíbrio de forças ou de momentos sobre a superfície de ruptura (CHENG E LAU, 2008). O “Método Simplificado de Janbu” considera apenas o equilíbrio de forças. Uma fatia genérica da superfície de ruptura da Figura 1, com as variáveis envolvidas, é apresentada na Figura 2 a seguir:

V Simposio de Metodos Numericos Computacionais

391

Figura 2: Fatia genérica para o cálculo do Fator de Segurança Simplificado de Janbu (Ferreira, 2012).

As variáveis apresentadas na Figura 2 são: peso da fatia (W), largura da fatia ( x ), forças tangenciais aplicadas nas faces das fatias i e i+1 ( 1, ii XX ), forças normais de interação aplicadas nas interfaces das fatias i e i+1 ( 1, ii EE ), comprimento da base da fatia ( l ), força normal atuando no centro da base da fatia ( N ), tensão de corte mobilizada na base da fatia (T ), inclinação da base da fatia ( ), função característica da superfície (ordenada) da fatia i ( iy ), diferenças dos valores tomados pelas ordenadas da superfície de deslizamento (dy ), função característica da linha de pressão da fatia i ( 'iy ), diferenças dos valores tomados pelas ordenadas da linha de impulso ( 'dy ) e altura da fatia ( h ). Realizando o equilíbrio de forças e considerando as variáveis coesão efetiva ( 'c ), pressão da água nos poros (u ), ângulo de atrito interno efetivo ( ' ), tem-se o “Fator de Segurança Simplificado de Janbu” (JANBU, 1954):

k

k

FStgtgtgxuWxc

tgWFS '1

sec]')('[1 2

1

(8)

Atualmente, existem programas computacionais para o cálculo dos fatores de segurança. Dentre os quais, destaca-se o SLOPE/W®, utilizado para a obtenção dos resultados apresentados neste artigo. A Equação (8), uma função recursiva, é utilizada como função do estado limite no desenvolvimento do algoritmo descrito na Seção 2.1; porém, apresenta algumas dificuldades, tais como o cálculo das derivadas parciais e de suas raízes. Assim, um procedimento alternativo é apresentado na Seção 2.3. 2.3 Procedimento alternativo As derivadas parciais de uma função implícita )(zG podem ser obtidas por aproximação numérica conforme a Equação (9) a seguir, onde h é um valor a ser incrementado ao valor da variável iz :

hzzzzGzhzzzG

zG nini

i

),...,,...,,(),...,,...,,( 2121

(9)

Para o cálculo das raízes da função do estado limite )(G durante o desenvolvimento do

V Simposio de Metodos Numericos Computacionais

392

algoritmo FORM, Su et al. (2010) sugeriram aproximar )(G por meio de uma série de Taylor de segunda ordem, a partir de um suposto índice de confiabilidade inicial 0 :

)()(2

)()( 002

220

00

GGGG

(10)

tal que )( 0G é o valor de G para o novo ponto de projeto *z (Equação (5)) obtido com 0 . As derivadas parciais de G em relação à , em 0 , são dadas por:

00

i

i

zzGG (11)

As derivadas de G em relação a iz e de iz em relação a são obtidas da Equação (9) e da Equação (5). A derivada parcial segunda de G em relação a é obtida:

2

2

2

2

2

00

i

i

zzGG (12)

tal que a derivada parcial segunda de G em relação a iz é aproximada por:

2212121

2

2 ),...,,...,,(),...,,...,,(2),...,2,...,,(h

zzzzGzhzzzGzhzzzGzG ninini

i

(13)

3 MATERIAIS E MÉTODOS Neste artigo, foi utilizada a seção transversal da Estaca 122+00 da Barragem de Terra da Margem Esquerda da Usina de Itaipu, cuja composição está representada na Figura 3 a seguir: basalto (14), basalto intemperizado (13), saprolito (12), argila da fundação (11), bermas (9), eixo da barragem (8), filtro interno de areia (7), argila compactada do corpo da barragem (6) e rip rap (5) (ITAIPU BINACIONAL, 2009).

Figura 3: Seção transversal típica na região da Estaca 122+00

As variáveis consideradas aleatórias foram a coesão efetiva e o ângulo de atrito interno efetivo da argila da fundação da barragem. Ambas variáveis, conforme teste de Shapiro-Wilk e Kolmogorov-Smirnov, assumem distribuição normal e são independentes (Tabela 1). As demais variáveis para os outros materiais do aterro foram consideradas determinísticas e

V Simposio de Metodos Numericos Computacionais

393

estão na Tabela 2. Tabela 1: Variáveis consideradas aleatórias

Variáveis aleatórias da argila da fundação Coesão efetiva (KPa) Ângulo de atrito interno efetivo (graus)

Média 18,2649 25 Desvio padrão 6,0682 1,4142

Tabela 2: Variáveis consideradas determinísticas

Material Peso específico

(KN/m3) Coesão

efetiva (KPa) Ângulo de atrito

interno efetivo (graus) Argila compactada 19,025 55,5181 27,275 Argila da fundação 17,8482 ----- ----

Saprolito 18,0443 0 25 Basalto alterado 19,1427 19,123 28 Areia dos Filtros 22,065 0 40

Bermas 19,025 58,2517 24 Rip rap 21,5747 0 40

O procedimento de obtenção do índice de confiabilidade, probabilidade de ruptura e ponto de projeto ocorreu conforme descrito na Seção 2. Quando foi necessário obter o valor do Fator de Segurança (função do estado limite) ao se calcular o valor aproximado das derivadas parciais, o incremento h foi realizado na variável do espaço reduzido. Depois, todas as variáveis foram escritas no espaço original, conforme a Equação (2). Então foi acessado o software SLOPE/W®.

4 RESULTADOS Os resultados da análise probabilística de estabilidade pelo FORM, tendo como função do estado limite o “Fator de Segurança Simplificado de Janbu”, e considerando-se apenas as variáveis coesão efetiva e ângulo de atrito interno efetiva como aleatórias, estão na Tabela 3 a seguir. A estrutura pode ser considerada em boas condições de segurança, visto que o índice de confiabilidade está no intervalo de valores recomendados por Whitman (1984) que é de 3,5 a 5,0 para barragens de terra. O Fator de Segurança da época de construção da barragem (FS de projeto), simulando as condições atuais, foi menor que o FS probabilístico obtido nesta análise.

Tabela 3: Resultados da análise de confiabilidade pelo FORM

Função do estado limite Fator de

Segurança Índice de

confiabilidade Probabilidade

de ruptura

Coesão efetiva (Kpa)

Ângulo de atrito interno efetivo

(graus) FS de Janbu Simplificado 2,93 3,75 0,0087% 16,05 26,72

A superfície circular de ruptura, com as suas fatias, para a qual foi determinada a probabilidade de ruptura, através da seção transversal da Estaca 122+00, foi considerada fixa e passando pela camada de saprolito, conforme a Figura 4. É provável que existam outras superfícies de deslizamento na mesma seção com maior probabilidade de ruptura; o que pode nortear novos estudos. Para a convergência do FORM da maneira como foi apresentado, neste artigo, isto é, com o cálculo aproximado das derivadas parciais e com a aproximação da superfície de falha por uma série de Taylor de segunda ordem em função do índice de confiabilidade, faz-se necessária uma escolha adequada do incremento h e do índice de confiabilidade inicial. Assim, o início do processo de convergência do algoritmo pode dispender mais tempo.

V Simposio de Metodos Numericos Computacionais

394

Figura 4: Superfície de ruptura circular e suas fatias, ao final da análise de confiabilidade estrutural

5 CONCLUSÕES Este trabalho cumpriu com os objetivos, pois com o método de análise probabilística de estabilidade apresentado foi possível a obtenção do índice de confiabilidade, da probabilidade de ruptura e do ponto de projeto. A visão probabilística da questão, isto é, a consideração da aleatoriedade de algumas das variáveis dentre as várias envolvidas no problema de estabilidade, favorece a realização de análises que levam em conta os riscos. Tal análise forneceu uma visão mais próxima da real e pode complementar o conhecimento pré-existente das condições estruturais. A complexidade técnica apresentada pelos recursos matemáticos que estruturam a metodologia aqui proposta, não é empecilho para a aplicação do método em quaisquer barragens de aterro, visto que os mesmos podem ser operacionalizados de maneira relativamente simples, com o uso do aplicativo, SLOPE/W®, utilizado na análise realizada neste artigo.

REFERÊNCIAS ANG A.H., TANG, W.H., Probability concepts in engineering planning and design: decision, risk and reliability, Vol II, John Wiley and Sons, 1984. CHENG, Y.M., LAU, C.K., Slope Stability Analysis and Stabilization, Routledge, 2008. CORNELL, C.A., A probability-based structural code. Journal of American Concrete Institute 66, 12: 974–985, 1969. EL-RAMLY H., MORGENSTERN, N.R., CRUDEN, D.M., Probabilistic slope stability for practice. Canadian Geotechnical Journal, 39: 665-683, 2002. FELLENIUS, W., Calculation of the stability of earth dams. Trans 2nd Congress of Large Dams, 4: 445–462, 1936. FERREIRA, J.L.F., Análise de estabilidade de taludes pelos métodos de Janbu e Spencer, Dissertação de Mestrado, Curso de Engenharia Civil, Faculdade de Engenharia da Universidade do Porto, Porto, 2012. HASOFER, A.M., LIND, N.C., An exact and invariant first-order reliability. Journal of Engineering Mechanics Division, 100: 111–121, 1974. ITAIPU BINACIONAL, Usina Hidrelétrica de Itaipu: aspectos de engenharia. Itaipu Binacional, Foz do Iguaçu, 2009. JANBU, N., Stability analysis of slopes with dimensionless parameters. PhD. Thesis in Civil Engineering. Faculty of Art and of Sciences Harvard University, 1954. MELCHERS R.E., Structural Reliability: analysis and prediction, John Wiley and Sons, 1987. SPENCER, E., A method of analysis of the stability of embankments assuming parallel inter-slice forces. Geotécnique, 17: 11–26, 1967. SU, Y., LI, X., XIE, Z., Probabilistic evaluation for the implicit limit-state function stability of a highway tunnel in China. Tunnelling and Underground Space Technology, Elsiever, 26: 422-434, 2010. WHITMAN, R.V., Evaluating calculated risk in geotechnical engineering, Journal of Geotechnical Engineering Division, 110: 145-188, 1984.

V Simposio de Metodos Numericos Computacionais

395

V Simposio de Metodos Numericos Computacionais

Matheurística TSrad para otimização no planejamento de Radioterapia

Resumo: Este trabalho propõe a matheurística 1 TSrad que busca uma solução para os problemas da escolha defeixes e distribuição de dose em radioterapia. Trata-se de um método híbrido, que combina a metaheurística BuscaTabu e o método exato Ponto Interior. A metodologia é testada em quatro instâncias, nas quais são avaliadas suaperformance em relação à qualidade de solução e tempo computacional, na intenção de obter soluções próximas àótima em tempo computacional menor ao do método exato. Os resultados obtidos para o estudo de caso propostoforam próximos ao ótimo, em tempo computacional menor.

Palavras-Chave: Matheurística, Busca Tabu, Ponto Interior, Radioterapia.

1 INTRODUÇÃO

Nos últimos anos, muitas pesquisas tem sido realizadas na tentativa de melhorar o planejamento da ra-dioterapia. Quando se refere à técnicas de Pesquisa Operacional (PO), dois problemas são especialmenteabordados: (a) o posicionamento dos feixes; (b) a distribuição da dose.

O problema do posicionamento dos feixes, ou problema geométrico, busca determinar o melhor con-junto de feixes para irradiar o tumor, de modo a atingir o mínimo possível os demais órgãos.

Este problema foi abordado, por exemplo, por GOLDBARG et al. (2009) num modelo multiobjetivoque foi resolvido por algoritmo Transgenético, introduzido por eles, e pelo algoritmo genético multiob-jetivo, para compará-los.

O problema da distribuição de dose busca determinar a intensidade de dose a ser emitida pelos feixespreviamente estabelecidos. Esta distribuição é chamada de mapa de fluência.

ACOSTA et al. (2008) propuseram um modelo para determinar a distribuição de dose, o qual éresolvido com a técnica Simulated Annealing. A partir deste modelo, VIANA et al. (2011) e SHAO(2008) propuseram alterações. VIANA et al. (2011) resolveram este problema pelo método de PontoInterior (PI) e acrescentaram pesos que consideravam a hetereogeneidade dos tecidos irradiados. SHAO(2008) extendeu-o para a abordagem 3D.

ROMEIJN et al (2006) propuseram uma abordagem linear para o problema da distribuição de dose ediscutiu a dificuldade das restrições do problema.

Outros trabalhos integraram os dois problemas, dada sua natureza, entre eles os trabalhos de VOET(2014) e BREEDVELD (2013), que propuseram o algoritmo iCycle para otimização da orientação defeixes coplanares e não coplanares e a distribuição de dose.

GEVERT et al. (2013) propuseram um modelo único para otimizar o posicionamento dos feixes edistribuição de dose, estendendo o modelo de OBAL et al. (2013). Um conjunto de feixes disponíveis

1Denomina-se Matheurística ao método híbrido que utiliza metaheurísticas e técnicas de programação matemática.

Thalita Monteiro Obal, Neida Maria Patias Volpi, VaniaGryczak Gevert, Volmir Eugenio Wilhelm, Helenice de

Oliveira Florentino Silva, Dylan Jones, Djamila Ouelhadj

396

foi proposto e o modelo determinava o melhor subconjunto, dado um número limite a escolher, e suadistribuição de dose por feixe.

Duas questões para melhoria podem ser destacadas na proposta de GEVERT et al. (2013) no usode método exato para resolver o modelo: (i) o grande tempo computacional; (ii) a impossibilidade deresolver o modelo para a configuração 3D (mais de um corte de tomografia computadorizada (TC)),devido a dimensão do problema (grande número de variáveis e restrições).

Para se resolver a questão do tempo computacional, OBAL et al. (2015) propuseram uma metodolo-gia híbrida utilizando algoritmo genético (AG) e PI. Conforme apresentado no trabalho, a metodologiaalcançou o objetivo de melhorar o tempo computacional do método exato de GEVERT et al. (2013),e com soluções próximas à ótima. Contudo, acredita-se que o tempo computacional pode ainda sermelhorado por meio de uma metodologia de solução única, que está apresentada neste trabalho.

Desta forma, o presente trabalho está organizado da seguinte forma: a seção 2 descreverá a metodolo-gia proposta, a matheurística TSrad; em seguida, a seção 3 apresentará resultados do mesmo estudo decaso apresentado em OBAL et al. (2015), porém estendendo as instâncias para fortalecer as suposiçõesdaquela pesquisa para o método exato (de GEVERT et al. (2013)) e para TSrad, apresentando compara-ções das metodologias e conclusões.

2 METODOLOGIA

A matheurística proposta TSrad é um método híbrido que combina Busca Tabu (BT) e o método dePonto Interior (PI). BT é utilizado para determinar a direção de feixes e PI, a distribuição de dose. Estametodologia é proposta pois é de solução única. Logo, TSrad foi proposta com intenção de melhorarainda mais o tempo computacional do método exato, considerando que a metodologia de Obal et al.(2015) requer a avaliação da população.

BT foi utilizada com a seguinte estrutura:

(i) Solução

A solução é um conjunto de η feixes selecionados utilizados no tratamento. Por exemplo, se forconsiderado que, dentre os 8 feixes disponíveis (ver Figura 1(a)), forem selecionados η = 4, oconjunto: sexe = (2, 4, 6, 8) é um exemplo de solução que utiliza os feixes: 2, 4, 6 e 8, e não utilizaos feixes: 1, 3, 5 e 7.

Para cada solução da BT, a distribuição de dose pode ser determinada resolvendo-se o modelo (1).O valor da solução de BT é dada por g.

min g =(γ1f(ε

−) + γ2f(ε+) + αf(θ+) + βf(δ+)

)

s a AnX = SnBn + θ+ − θ−

AhX = ShBh + δ+ − δ−

AtX = DBt + ε+ − ε−

(θ+i ), (θ−i ), (δ

+i ), (δ

−i ), (ε

+i ), (ε

−i ) ≥ 0 (1)

Para descrição do modelo (1), ver GEVERT et al. (2013) e OBAL et al. (2015).

(ii) Vizinhança

A vizinhança da solução atual é um conjunto de soluções geradas por meio de uma pequena per-turbação na solução atual (TALBI (2009)). Esta perturbação é denominada movimento. Para aproposta de TSrad, um movimento é considerado quando um feixe da solução atual é aleatoria-mente selecionado e substituído por um feixe que não estava na solução atual.

Para sexe, por exemplo, um feixe do conjunto (2,4,6,8) é aleatoriamente selecionado, por exemplo,6, e um feixe entre aqueles que não estavam em sexe, (1,3,5,7), é aleatoriamente selecionado, porexemplo, 3, para substituir o feixe 6 e gerar a nova solução, ou solução vizinha: (2,4,3,8).

V Simposio de Metodos Numericos Computacionais

397

Para a próxima iteração, o vizinho que apresentar melhor avaliação da solução, é considerado comonova solução atual (mesmo que sua solução seja pior do que a solução atual). Sua vizinhança écontruída, e assim sucessivamente, até que o critério de parada seja satisfeito.

(iii) Lista tabu

Para evitar ciclos, ou seja, que vizinhos já visitados anteriormente sejam novamente considerados,uma lista com os movimentos recentes é criada, e é chamada lista tabu (Glover (1989); Talbi(2009)). Esta lista memoriza as recentes buscas na trajetória.

Neste trabalho, esta lista contém o feixe que foi excluído e o que foi inserido, e vice-versa. Para oexemplo anterior, os movimentos [6,3] e [3,6] são incluídos na lista tabu.

Apenas podem ser considerados vizinhos, soluções não constantes na lista tabu ou que não sa-tisfaçam o critério de aspiração. Este critério define soluções que sejam particularmente boas, e,mesmo estando na lista tabu, poderão fazer parte da nova vizinhança.

(iv) Critério de parada

O critério de parada utilizado foi número de iterações. Diferentes números foram testados paraavaliar a performance da metodologia.

3 EXPERIMENTOS COMPUTACIONAIS

A metodologia proposta TSrad, assim como o método exato de Gevert et al. (2013) foram aplicadosa um estudo de caso, que está descrito na sessão 3.1. As sessões 3.2 e 3.3 contem os resultados obtidos.

3.1 Estudo de casoO estudo de caso desenvolveu-se para uma ocorrência de câncer de próstata.A imagem de tomografia computadorizada foi obtida no Hospital Erasto Gaertner (Curitiba/PR/Brasil),

com projeto número 2042. O corte de TC selecionado é o que contém o isocentro do tumor, e, depois deum pré-processamento, a imagem tem 22.638 pixels.

Realizaram-se experimentos para quatro diferentes instâncias, conforme mostrada na Tabela 1. Aspossíveis direções dos feixes para as instâncias 1 e 2 são mostradas na Figura 1(a), com 8 feixesdisponíveis, e para as instâncias 3 e 4 na Figura 1(b), com 12 feixes disponíveis.

(a) 8 possíveis direções de feixe (b) 12 possíveis direções de feixe

Figura 1: Possíveis direções dos feixes

O uso de 6 ou 4 feixes é um número comum na prática do tratamento.As seções 3.2 e 3.3 apresentam os resultados do uso das metodologias: método exato e TSrad, respec-

tivamente, nas instâncias propostas na Tabela 1.

V Simposio de Metodos Numericos Computacionais

398

Tabela 1: Instâncias propostas

Instância Número de feixes disponíveis Número de feixes a ser selecionado1 8 62 8 43 12 64 12 4

3.2 Resultados da metodologia exataPara obter-se soluções ótimas, o modelo (2) foi resolvido pelo método Branch and Bound, com γ1 =

γ2 = 0, 4 e α = β = 0, 1. Estes pesos foram utilizados baseado nos experimentos feitos em GEVERT etal. (2013), que mostrou que este conjunto de pesos apresentam melhores resultados para este estudo decaso. Para descrição do modelo (2), ver GEVERT et al. (2013) e OBAL et al. (2015).

min g =(γ1f(ε

−) + γ2f(ε+) + αf(θ+) + βf(δ+)

)

s a AnX = SnBn + θ+ − θ−

AhX = ShBh + δ+ − δ−

AtX = DBt + ε+ − ε−m∑

k=1

zk ≤ η

0 ≤ xk ≤ M.zk(θ+i ), (θ

−i ), (δ

+i ), (δ

−i ), (ε

+i ), (ε

−i ) ≥ 0

zk ∈ 0, 1 (2)

Na configuração das instâncias 1 e 2, o modelo (2) tem 22.718 variáveis e 11.319 restrições; para asinstâncias 3 e 4, modelo (2) tem 22.758 variáveis e 11.319 restrições. A solução ótima do modelo (2)obtido por método exato para cada instância é mostrado na Tabela 2.

Em todas as metodologias, o software Matlab foi utilizado, e executado num computador Intel Corei5 e CPU de 1.7 GHz.

Tabela 2: Resultados do método exato

Instância f(ε+) f(ε−) f(θ+) f(δ+) g Tempo computacional (h) Feixes selecionados1 126,52 958,64 731,45 109,47 518,16 26,16 1, 2, 4, 6, 7, 82 63,10 1.152,8 792,61 109,61 576,60 19,07 1, 2, 5, 73 119,80 940,55 689,15 115,23 504,58 219,27 (> 9 dias) 1, 2, 7, 9, 104 52,7 1.171,2 682,0 109,9 568,76 101,82 (> 4 dias) 1, 2, 9, 11

Os resultados obtidos (Tabela 2) mostram que o tempo computacional de resolução pelo métodoBranch and Bound é elevado.

3.3 Resultados de TSradOs resultados dos experimentos usando TSrad para as instâncias propostas na Tabela 1 estão apre-

sentados na Tabela 4, considerando a média dos resultados de cinco execuções de cada experimentoproposto na Tabela 3. Experiências preliminares levaram a utilização dos parâmetros apresentados naTabela 3.

Como o número de iterações é relativamente pequeno, o tamanho da lista tabu foi considerado 2. Ocritério de aspiração considerou que a solução que fosse 10% melhor que a melhor solução até o presentemomento satisfazia o critério.

As soluções foram avaliadas usando o modelo (1), com pesos: γ1 = γ2 = 0, 4 e α = β = 0, 1. Ométodo de PI foi utilizado para resolver o modelo.

V Simposio de Metodos Numericos Computacionais

399

Tabela 3: Experimentos propostos em cada instância de TSrad

Experimento Número de iterações Tamanho da vizinhançaa 3 3b 3 5c 3 10d 5 3e 5 5f 5 10

Tabela 4: Média de resultados de TSrad

Instância Experimento f(ε+) f(ε−) f(θ+) f(δ+) gDesvio da soluçãoótima (%) Tempo computacional (h)

% de melhoria em tempo computa-cional em relação ao método exato

1

a 129,82 958,78 728,71 110,47 519,36 0,23 0.53 97,96b 129,64 956,15 741,08 108,39 519,26 0,21 0,89 96,58c 126,52 958,65 731,46 109,47 518,16 0,00 1,91 92,68d 128,80 957,85 749,50 105,33 520,14 0,38 0,68 97,39e 126,72 958,92 730,68 108,47 518,17 0,00 1,17 95,49f 126,52 958,65 731,46 109,47 518,16 0,00 2,69 89,69

2

a 64,42 1,157,22 812,08 144,64 584,33 1,34 0,44 97,70b 65,58 1.145,88 833,84 106,44 578,61 0,34 0,80 95,82c 61,26 1.145,42 841,14 119,58 578,74 0,37 1,55 91,86d 57,06 1.150,72 938,50 112,82 588,24 2,02 0,93 95,14e 61,54 1.150,84 811,44 111,32 577,23 0,11 1,59 91,67f 66,50 1.140,36 838,12 112,96 577,85 0,22 2,74 85,66

3

a 96,92 1.027,63 790,31 107,66 539,62 6,94 0,66 99,70b 111,87 987,89 699,49 119,38 521,79 3,41 0,91 99,58c 118,18 952,50 720,09 115,04 511,79 1,43 1,87 99,14d 88,05 1.026,11 786,48 125,96 536,91 6,41 1,05 99,52e 111,97 990,43 747,54 116,45 527,36 4,51 1,62 99,26f 119,05 941,17 691,90 115,90 504,87 0,06 3,11 98,58

4

a 60,06 1.144,96 1.038,48 148,84 600,75 5,62 0,54 99,47b 65,10 1.067,18 1.093,02 152,22 577,44 1,53 0,93 99,08c 61,38 1.126,36 873,84 116,08 574,09 0,94 1,85 98,17d 61,94 1.137,84 892,76 114,42 580,62 2,09 0,98 99,03e 62,52 1.142,50 876,70 108,24 580,51 2,06 1,29 98,73f 51,62 1.165,98 718,78 143,62 573,29 0,79 3,12 96,93

Comparando com os resultados do método exato, apresentados na seção 3.2, observa-se que em todosos casos o tempo computacional de TSrad é significativamente menor.

Além disso, na instância 1, os experimentos (c) e (f) atingiram a solução ótima em todas as execuções.Nas outras instâncias, os melhores resultados foram obtidos nos experimentos (e), (f) e (f), para asinstâncias 2, 3 e 4, respectivamente, com um pequeno desvio para o ótimo de : 0,11%, 0,06% e 0,79%.

Os resultados apresentados na Tabela 4 mostram que nos experimentos com maior tamanho de vizi-nhança apresentam melhores resultados. Esta melhoria somente não acontece na instância 2.

Por outro lado, o incremento no número de iterações apresenta melhores resultados em 58% dos casos,entre 12 possíveis comparações. Logo, pode-se observar que o tamanho da vizinhança provavelmente émais importante no processo de convergência de TSrad para este estudo de caso.

Especialmente nas instâncias 3 e 4, que utilizam 12 feixes disponíveis (logo tem o maior númerode possíveis soluções nas instâncias propostas neste trabalho), é evidente a importância da escolha dosparâmetros para o processo de convergência.

4 CONCLUSÃO

Este trabalho propõe a metodologia TSrad, para selecionar feixes e determinar a distribuição de dosepara os respectivos feixes selecionados. Ainda descreve uma comparação dos resultados da metodologiaproposta com os do método exato apresentado por Gevert et al. (2013).

Os experimentos foram conduzidos para avaliar e comparar a performance da metodologia proposta eo método exato quanto à solução e quanto ao tempo computacional. A matheurísticas TSrad apresentousoluções com pequeno desvio da solução ótima em tempo computacional muito menor ao do métodoexato.

Devido a importância observada dos parâmetros de entrada de TSrad (tamanho da vizinhaça e númerode iterações), mais experimentos podem ser testados para avaliar o melhor conjunto de parâmetros. Outra

V Simposio de Metodos Numericos Computacionais

400

opção é a proposta de uma metodologia menos dependente de parâmetros, como é o caso da BT.Para trabalhos futuros, o uso de mais de um corte de TC é fundamental para aproximação da técnica

à realidade dos planejamentos de radioterapia.

REFERÊNCIAS

Acosta, R. Brick, W. Hanna, A. Holder, A. Lara, D. Mcquilen, G. Nevin, D. Uhlig, P. and Salter, B.Radiotherapy optimAl Design: An Academic Radiotherapy Treatment Design System. Operations Re-search/Computer Science Interfaces. 47:401-425, 2009.

Breedveld, S. Towards Automated Treatment Planning in Radiotherapy: A Mathematical Approach toAutomated and Integrated Multi-Criterial Optimization of Beam Angles and IMRT Fluence Profiles.Erasmus University Rotterdam, The Netherlands, 2013.

Gevert, V.G. Obal, T.M. Volpi, N.M.P. and Wilhelm, V.E. Um modelo de otimização integrado para osproblemas da escolha de feixes de radiação e do mapa de fluência em radioterapia. Simpósio Brasileirode Pesquisa Operacional, XLV, 2013. Natal/RN. Anais. Sociedade Brasileira de Pesquisa Operacional,2013.

Glover, F. Tabu search - Part I. ORSA J. Comput, 1989.

Goldbarg, M.C. Algoritmo evolucionário para otimização do plano de tratamento em radioterapia con-formal 3D. Pesquisa Operacional. 29: 239-267, 2009.

Obal, T.M. Volpi, N.P. and Miloca, S.A. Multiobjective approach in plans for treatment of cancer byradiotherapy. Pesquisa Operacional. 33:269-282, 2013.

Obal, T.M. Florentino, H.O. Gevert, V.G. Jones, D.F. Ouelhadj, D. Volpi, N.M.P. and Wilhelm, V.E. Amatheuristic for the selection of beam directions and dose distribution in Radiotherapy Planning. Journalof Physics: Conference Series. 616, 2015.

Romeijn, H.E. Ahuja, R.K. Dempsey, J.F. and Kumar, A. A New Linear Programming Approach toRadiation Therapy Treatment Planning Problems. Operations Research. 54:201-216, 2006.

Shao, L. Multiple Objective Linear Programming in Radiotherapy Treatment Planning. Thesis of doc-tory. Department of Engineering Science, School of Engineering, University of Auckland, 2008.

Talbi, E.G. Metaheuristics: from desing to implementation. John Wley & Sons, New Jersey, 2009.

Viana, R.S. Florentino, H.O. Lima, E.A.B.F. Fonseca, P.R. and Homem, T.P.D. Heterogeneity correctionin the construction of optimized planning in radiotherapy using linear programming. Pesquisa Opera-cional. 31:565-578, 2011.

Voet, P.W.J. Automation of contouring and planning in radiotherapy. Erasmus University Rotterdam,The Netherlands, 2014.

V Simposio de Metodos Numericos Computacionais

401

V Simposio de Metodos Numericos Computacionais

CONDICIONAMENTO DO PROBLEMA DE AUTOVALORESOBTIDO DO MÉTODO DE ELEMENTOS FINITOS

GENERALIZADOS NA ANÁLISE DINÂMICA DE VIGAS DEEULER-BERNOULLI

Resumo: Ao longo dos anos novos métodos foram desenvolvidos baseados no Método de Elementos Finitos(MEF); o Método de Elementos Finitos Generalizados (MEFG) é um deles. O MEFG é um método de Galerkin,cujos espaços de aproximações locais refletem as informações disponíveis sobre a solução da equação diferenciala ser resolvida, garantindo uma boa aproximação local e global. Ao aplicar métodos numéricos na análise de vi-brações livres de estruturas, o problema se reduz a solução numérica de um problema de autovalores e autovetoresgeneralizado. O MEFG tem apresentado excelentes resultados com soluções mais precisas do que os refinamentosh e p do MEF. O objetivo deste trabalho é fazer uma análise do problema de autovalores generalizados e a pertur-bação gerada pelas aproximações das matrizes do MEFG na análise dinâmica de vigas de Euler-Bernoulli, já queem alguns casos o MEFG tem apresentado autovalores negativos dependendo da precisão empregada nas rotinascomputacionais.

Palavras-Chave: Condicionamento, Problema de Autovalores Generalizado, Método de ElementosFinitos Generalizados, Análise dinâmica.

1 INTRODUÇÃO

O Método dos Elementos Finitos (MEF), tem uma vasta área de aplicação em problemas Físicos eMatemáticos, a aplicação desta técnica possibilita encontrar a solução de sistemas de Equações Dife-renciais. O Método de Elementos Finitos Generalizados (MEFG), por sua vez, é baseado nas ideias doMétodo da Partição da Unidade (MPU), desenvolvido por Melenk e Babuska(1996).

Arndt(2009) propõe uma aplicação do MEFG em problemas de vibrações livres, da qual encontram-seproblemas relacionados a sensibilidade do mesmo, apesar dos bons resultados apresentados. Observou-se ainda que os ajustes feitos na precisão empregada nos cálculos computacionais para determinação dasmatrizes de massa e rigidez por integração numérica, ou na solução do problema de autovalores, afetama precisão e a convergência do MEFG. Leung et al., (2004), tentando encontrar uma maneira de avaliara sensibilidade do problema de vibração, ao utilizar o método p-Fourier e MEF, calcularam o número decondição da matriz de massa, de forma a encontrar uma "medida" de sensibilidade.

Cook(2002) define o número de condição como quociente entre o maior e o menor autovalores damatriz, ou seja, o número de condição está diretamente ligado com autovalores. Em 1965, Wilkin-son introduziu o número de condição de uma matriz A, fazendo uma dicussão sobre sua sensibilidade.Smith(1967) publicou uma expressão explícita do número de condição para matrizes reduzidas à forma

Thamara Petroli, Marcos Arndt, RobertoDalledone Machado, Paulo de O. Weinhardt

402

canônica de Jordan. Por volta dos anos 1970, Stewart(1971) e Wilkinson(1972), usaram o número decondição para limitar o domínio do espectro. Já no ano de 1976, Golub e Wilkinson começaram a tratarsobre a sensibilidade de problemas de autovalores.

O objetivo deste trabalho é fazer uma análise do condicionamento e sensibilidade do problema deautovalores generalizado, gerado pela equação Ax = λBx, do MEFG. Stewart e Sun (1990) afirmaramque se uma matriz é hermitiana, e recebe uma perturbação, então haverá um incremento nos seus auto-valores. Sendo assim, o estudo e análise das aproximações das matrizes de massa e rigidez é necessário,para descobrir até que ponto as perturbações geradas pelas aproximações do método de construção dessasmatrizes podem influenciar no desempenho e precisão do MEFG na análise dinâmica de estruturas.

2 PROBLEMA DE AUTOVALORES GENERALIZADOS COM MATRIZES HERMITIANAS

Um problema de autovalores generalizado é, definido pela equação:

P (λ)x = (A− λB)x = 0⇐⇒ Ax = λBx (1)

E se a matriz B = I , matriz identidade, o problema generalizado é chamado de problema de autova-lores padrão, ou somente problema padrão.

Para este trabalho são necessárias as seguintes definições:

• Uma matriz A, é dita Hermitiana, se A = (A)T , onde A é a matriz conjugada de A.

• Sejam λi’s autovalores da matriz A, então:

– Se λi > 0 ∀i, então A é definida positiva;

– Se λi ≥ 0 ∀i, então A é chamada de semi-definida positiva;

– Se λi < 0 ∀i, então A é definida negativa;

– Se λi ≤ 0 ∀i, então A é semi-definida negativa;

– A matriz A é indefinida quando existem autovalores positivos e negativos.

O conceito de condicionamento é definido através da análise de sensibilidade da solução do problemade autovalor à pequenas variações nos dados de entrada. O problema é bem condicionado se pequenasperturbações nos dados de entrada resultam em pequenas variações nos dados de saída. Caso contrário,quando pequenas perturbações nos dados de entrada produzem grandes perturbações nos dados de saída,temos um problema mal condicionado.

Um problema de autovalor generalizado, Eq.(1), pode ser bem condicionado ou mal condicionado.Quando a matriz A é hermitiana e trata-se de um problema padrão, então este é um problema bemcondicionado (Demmel et al., 2000). A situação muda completamente quando o problema é generaliza-do, que em geral é mal condicionado, principalmente quando as matrizes não são hermitianas (Bazán,2003).

Lidar com matrizes hermitianas e definida positivas traz algumas vantagens, uma delas é que exis-tem algoritmos que facilitam encontrar os autovalores das matrizes, de maneira a ter uma medida decondicionamento. Outra vantagem, é que pode-se trasformar um problema de autovalor generalizadoem um problema padrão. Se as matrizes A e B são hermitianas e B é definida positiva , então pode-sedecomporB como produto de matrizes não singulares,B = LL∗, através da Decomposição de Cholesky,por exemplo. Assim o problema se transforma em:

(L−1A(L∗)−1)x = λx (2)

Como os espaços do domínio são invariantes (Golub e Loan, 1996), as propriedades são preservadasapós a transformação, isto é, os autovalores são os mesmos, e se x é autovetor da Eq.(2), então x =(L∗)−1x satisfaz a Eq.(1). Portanto, quando um problema de autovalores generalizado tem as matrizesA e B hermitianas e B é definida positiva; então este é um problema bem condicionado, porque podeser reduzido a um problema padrão, com mesmos autovalores e que por sua vez é bem condicionado.

V Simposio de Metodos Numericos Computacionais

403

3 ANÁLISE DINÂMICA DE ESTRUTURAS

A análise de vibrações livres em estruturas não amortecidas recai no problema (Chopra, 2012):

Kφ = ω2Mφ (3)

onde K é a matriz de rigidez, M a matriz de massa, ω a frequência natural e φ o vetor de modo devibração natural.

As matrizes K e M quando provém da forma fraca de Galerkin referente ao equilíbrio dinâmico dosistema para vibrações de viga de Euler-Bernoulli, são dadas na forma:

K = [kij] =

Ω

∂2Φi

∂x2

∂2Φj

∂x2dΩ (4)

M = [mij] =

Ω

ΦiΦjdΩ (5)

onde as Φ’s são funções de interpolação e Ω o domínio global do problema. A escolha das funções deinterpolação depende do método aproximado a ser empregado.3.1 Aproximações pelo MEFG

O MEFG surgiu a partir do Método dos Elementos Finitos da Partição da Unidade, onde o enriqueci-mento local do subespaço de aproximação é incorporado através do MPU (Arndt, 2009).

O espaço das funções de aproximação, além de representarem uma boa aproximação local, deve serdenso no conjunto de soluções da equação diferencial a ser resolvida. Como a escolha não é única, entãoela depende de aspectos como custo da construção das matrizes e otimalidade do sistema.

O MPU permite construir um espaço de aproximação com a regularidade desejada, independentedos espaços de aproximação locais, preservando as propriedades destes espaços. A aproximação dasolução proposta pelo MEFG no domínio do elemento mestre pode ser escrito como combinação dascomponentes (Arndt et al., 2014):

u = uMEF + uENRIQ (6)

onde uMEF é a componente do MEF baseada nos graus de liberdade nodais e uENRIQ é a componentede enriquecimento gerada sobre a partição da unidade, multiplicando-a, e baseada nos graus de liberdadede campo.

Para este trabalho utilizam-se:

u(ξ) =2∑

i=1

ηi(ξ)(φ1i(ξ) + φ2i(ξ)) +2∑

i=1

ηi

[nl∑

j=1

γi(ξ)

](7)

onde:

φ11 = 1− ξ + ξ2

2

φ12 =ξ − ξ2

2+ 1

φ21 =1− ξ2

4

φ22 =ξ2 − 1

4

(8)

Com as funções de enriquecimento, baseadas em Arndt(2009), dadas por:

γj(ξ) = cos

[(j − 1)π(ξ + 1)

2

]− cos

[(j + 1)π(ξ + 1)

2

](9)

para j = 1, 2, ..., nl, sendo nl o número de níveis de enriquecimento.

V Simposio de Metodos Numericos Computacionais

404

E as funções da partição da unidade utilizadas foram:

η1 =(1− ξ)

2

η2 =(1 + ξ)

2

(10)

Para este trabalho considerou-se ξ ∈ [−1, 1].

Por construção do método, como apresentado por Arndt(2009), sabe-se que as matrizes K e M sãomatrizes hermitianas. Sendo M definida positiva (Inman, 1996), então pode-se aplicar a decomposiçãoem M , transformando o problema de autovalor generalizado em um padrão bem condicionado. E se x éautovetor da Eq.(2), então x = (L∗)−1x satisfaz a Eq.(3); logo pelas definições anteriores segue que osautovalores são reais e positivos, ou seja, ω2 ∈ R.

Como a matriz de massa é por definição definida positiva nos problemas de vibração livre não have-riam motivos para medir o condicionamento do sistema, pois sabe-se que o problema é bem condicionadoe os autovalores são reais e positivos. Porém, dependendo da precisão empregada no cálculo das ma-trizes de massa e rigidez observa-se que o problema continua mal condicionado numericamente, sendoentão necessário verificar a sensibilidade numérica da matriz de massa, pois o bom condicionamento doproblema depende desta ser numericamente definida positiva.

4 ANÁLISE DA SENSIBILIDADE

Primeiramente variou-se o número de dígitos significativos (precisão) para a aproximação numérica(integração numérica) das matrizes de massa e rigidez, calculando-se o erro absoluto das aproximaçõesem relação aos valores exatos (integração exata). As matrizes geradas, no software Maple, tem 5 níveisde enriquecimento (nl = 5), variando o número de dígitos significativos (17, 19 e 22). Para determinaçãodas matrizes aproximadas foi empregada a quadratura de Gauss.

As figuras 1 a 3 a seguir apresentam, a título de ilustração, a distribuição do erro nas matrizes demassa e rigidez para uma precisão de 17, 19 e 22 dígitos significativos, respectivamente.

(a) Matriz de Massa (b) Matriz de Rigidez

Figura 1: 17 dígitos

V Simposio de Metodos Numericos Computacionais

405

(a) Matriz de Massa (b) Matriz de Rigidez

Figura 2: 19 dígitos

(a) Matriz de Massa (b) Matriz de Rigidez

Figura 3: 22 dígitos

Observa-se que apesar da dispersão do erro, o aumento da precisão faz com que a parte central dasmatrizes de massa e rigidez, contenha os erros mais altos na matriz, embora sejam bastante pequenos.Nessa região estão as funções de enriquecimento dos níveis mais altos (no caso, nível 5).

Considerando o erro das aproximações, uma segunda análise foi feita, mas agora observando a partirde qual precisão a matriz de massa torna-se definida positiva e a ordem do número de condição dessamatriz (Tabela 1 a seguir).

Tabela 1: Precisão a partir do qualM se estabiliza como definida positiva e ordem do número de condição

Número de Níveis 1 2 3 4 5 6 7 8 9 10Número de dígitos significativos 4 5 5 8 10 11 11 14 16 17Ordem do número de condição 104 105 106 108 109 1011 1012 1014 1015 1017

Observa-se que a potência da ordem do número de condição se aproxima da precisão necessária paraque a matriz M torne-se definida positiva. Por exemplo, com 6 níveis de enriquecimento a matriz édefinida positiva a partir de 11 dígitos de precisão e a ordem do número de condição é 1011.

V Simposio de Metodos Numericos Computacionais

406

5 CONCLUSÃO

O objetivo deste trabalho foi fazer uma análise do problema de autovalores generalizado e a pertur-bação gerada pelas aproximações das matrizes do Método de Elementos Finitos Generalizados (MEFG).Mesmo com toda a base teórica matemática garantindo que o problema de autovalores generalizado davibração livre da viga de Euler-Bernoulli é bem condicionado, ainda assim encontra-se grande sensibi-lidade no problema da Eq.(3). Essa sensibilidade está diretamente ligada com os erros de aproximaçãogerados pelo MEFG, na construção das matrizes de massa e rigidez, que por fim provocam perturbaçõesnos autovalores. Pela análise realizada, conclui-se que as aproximações numéricas e analíticas são boas,apesar da sensibilidade do problema.

Ainda pode-se observar uma correlação direta entre a potência da ordem do número de condiçãoda matriz de massa e a quantidade de dígitos significativos (precisão) necessária para que a matriz demassa torne-se numericamente definida-positiva, ou seja, quando a mesma satisfaz as hipóteses para obom condicionamento. Logo, a ordem de grandeza do número de condição da matriz de massa podeser utilizado para estimar a precisão necessária na construção da matriz de massa e portanto ser tambémempregada na comparação de estabilidade de diferentes propostas de funções de enriquecimento para oMEFG.

Pesquisas futuras pretedem verificar o comportamento da sensibilidade do problema de autovalor commudança das funções de enriquecimento, no caso, para o problema de vibração livre de viga e tambémbarra e estado plano.

REFERÊNCIAS

Arndt, M., 2009. O Método dos Elementos Finitos Generalizados Aplicado à Análise de VibraçõesLivres de Estruturas Reticuladas. Tese de Doutorado, Universidade Federal do Paraná.Arndt, M., Machado, R.M., & Natume, P.M. 2014. Generalized finite element method using besselfunctions in vibration analysis. CILAMCE, Fortaleza.Bazán, F.S.V., 2003. Autovalores de Polinômios Matriciais: Sensibilidade, Computação e Aplicações.Notas de Minicurso: 24CBM, Florianópolis.Chopra, A. K., 2012. Dynamics of structures: theory and applications to earthquake engineering. NewJersey: Prentice Hall.Cook, R. D., Malkus, D. S., Plesha, M. E, Witt, R. J., 2002. Concepts and Applications of Finite ElementAnalysis. University of Wisconsin: Madison.Demmel, J., Bai, Z., Dongarra, J., Ruhe, A.,& Vorst, H.v.d., 2000. Templates for the Solution of Alge-braic Eigenvalue Problems. Philadelphia: Society for Industrial and Applied Mathematics - SIAM.Golub, G.H., & Loan, C.F.V., 1996. Matrix Computations. Baltimore and London: The Johns HopkingUniversity Press.Inman, D. J., 1996. Engineering vibration. New Jersey: Prentice-Hall.Leung, A. Y. T. & Chan, J. K. W., 1998. Fourier p-element for the analysis of beams and plates. Journalof Sound and Vibration, vol. 212, n. 1, p. 179 - 185.Leung, A.Y.T, Zhu, B., Zheng, J., & Yang, H., 2004. Analytic trapezoidal Fourier p-element for vibratingplane problems.Journal of Sound and Vibration, vol.271, pp. 67 - 81.Melenk, J. M.; & Babuska, I., 1996. The partition of unity finite element method: basic theory andapplications. Computer Methods in Applied Mechanics and Engineering, vol. 139, n. 1-4, pp. 289 - 314.Smith, R.A., 1967. The condition numbers of the matrix eigenvalue problem. Numerische Mathematik,vol.10, pp. 232 - 240.Stewart, G.W., 1971. Error bounds for approximate invariant subspaces of closed linear operators. SIAMJournal on Numerical Analysis, vol.8, pp. 796 - 808.Stewart, G.W.,& Sun, J., 1990. Matrix Perturbation Theory. Boston: Academic Press.Wilkinson, J.H., 1965. The Algebraic Eigenvalue Problem. Oxford: Claredon Press.Wilkinson, J.H., 1972. Note on matrices with a very ill-conditioned eigenproblem. Numerische Mathe-matik, vol. 19, pp. 175 - 178.

V Simposio de Metodos Numericos Computacionais

407

V Simposio de Metodos Numericos Computacionais

DETERMINAÇÃO DA FORÇA CRÍTICA DE FLAMBAGEM DE ARCOS

COM FORMA PARABÓLICA

Resumo: Neste trabalho são verificados métodos para determinação da força crítica de flambagem

no próprio plano de arcos biarticulados com forma parabólica, submetidos à força concentrada no

meio do vão, para diferentes dimensões de altura máxima e seção transversal. São apresentadas

análises conforme equações indicadas na literatura e a partir de simulação numérica por autovalor

no programa computacional ANSYS. Os resultados são então comparados a fim de indicar a precisão

daqueles alcançados com a simulação numérica em relação aos valores teóricos, uma vez que

atualmente as ferramentas computacionais são largamente utilizadas na análise estrutural. Constatou-

se que a precisão dos resultados alcançados com a simulação numérica foi menor para valores

maiores da relação entre a altura máxima e o vão do arco, e que a variação das dimensões da seção

transversal não influenciou esse critério de precisão.

Palavras-Chave: Arco, Flambagem, Estabilidade.

1 INTRODUÇÃO

Os arcos são elementos estruturais curvos solicitados externamente no próprio plano e amplamente

construídos desde os tempos antigos para suportar pontes, aquedutos, coberturas e outras obras.

Internamente são influenciados por esforços de compressão principalmente, embora também possam

ocorrer esforços de cisalhamento e flexão conforme a forma do arco e as ações atuantes.

Assim como outras estruturas que resistem principalmente a esforços de compressão, o arco pode

sofrer instabilidade dentro ou fora de seu plano por flambagem (ZIENMAN, 2007). A análise de

estabilidade é um importante ramo da análise estrutural, pois a instabilidade da estrutura pode

ocorrer em níveis de tensão muito inferiores ao limite de ruptura do material. A verificação de

estabilidade geralmente ocorre com a determinação de valores críticos para as ações atuantes na

estrutura, que ocasionam a instabilidade estrutural.

Dessa forma o objetivo do trabalho é determinar a força crítica de flambagem em um caso específico

de arco simétrico com forma parabólica, biarticulado e submetido à força concentrada verticalmente

no meio do vão, com diferentes dimensões de altura máxima e seção transversal. Além da análise

fundamentada em conceitos teóricos, é feita análise numérica por autovalor no programa

computacional ANSYS, baseado em elementos finitos. Também é estimada a precisão dos resultados

obtidos a partir da simulação numérica, pois atualmente as ferramentas computacionais são

largamente utilizadas na análise estrutural.

Thiago Damasceno Silva, Francisco Antonio Romero Gesualdo

408

2 FLAMBAGEM DE ARCOS COM FORMA PARABÓLICA

A instabilidade de arcos por flambagem pode ocorrer fora do plano da estrutura, ou no próprio plano.

A instabilidade fora do plano é associada a esforços de compressão, flexão e torção, podendo ser

evitada com a aplicação de travamentos adequados e não é abordada no trabalho. A instabilidade no

próprio plano é associada a esforços de compressão e flexão.

Na Figura 1 é representado um arco simétrico com forma parabólica e apoios articulados nas

extremidades. O arco é solicitado externamente no meio do vão por força concentrada agindo na

direção vertical. Além da preponderância do esforço de compressão, o arco é solicitado internamente

por esforços de cisalhamento e flexão.

Figura 1: Arco parabólico e biarticulado submetido à força concentrada verticalmente no meio do vão.

De acordo com KARNOVSKY (2012), a força crítica de flambagem no próprio plano de arcos

parabólicos submetidos à força concentrada verticalmente no meio do vão pode ser determinada pela

Equação 1.

Pcr196 6 m E I

1 7 68 m2

S L

(1)

Na Equação 1, Pcr representa a menor intensidade da força concentrada em que ocorre a

instabilidade, E é o módulo de elasticidade do material, I é o momento de inércia da seção

transversal, S é o comprimento axial do arco e L é o vão entre apoios. A variável m refere-se à

relação entre a altura máxima do arco (f) e o vão entre apoios (Equação 2).

mf

L

(2)

A Equação 1 somente pode ser aplicada quando m ≤ 0,2 (KARNOVSKY, 2012). Portanto, a fórmula

é indicada apenas para a análise de arcos rasos, cuja altura máxima não ultrapassa 20 % do

comprimento do vão entre apoios.

3 PROCEDIMENTOS DE ANÁLISE

Foram analisados doze modelos estruturais de arcos biarticulados com forma parabólica, divididos

em três classes conforme as dimensões da seção transversal. Em todos os modelos foram atribuídos

os mesmos valores para o vão entre apoios e o módulo de elasticidade (Tabela 1). O comportamento

do material é considerado elástico linear.

V Simposio de Metodos Numericos Computacionais

409

Tabela 1 – Constantes atribuídas aos arcos.

Vão entre apoios (L) Módulo de elasticidade (E)

m kN/m²

10 20∙106

Diferentes valores foram adotados para altura máxima e seção transversal dos arcos (Tabela 2), cuja

variação foi estabelecida a fim de verificar a precisão dos resultados obtidos. Essas variações

geométricas acarretam na variação da esbeltez da estrutura. Foi escolhida seção transversal

retangular do tipo quadrada para que suas propriedades geométricas fossem iguais nas duas direções.

Tabela 2: Dimensões da seção transversal e altura máxima dos arcos.

Classe Modelo

Dimensões da seção

transversal retangular

Altura máxima do

arco (f)

m m

I

1 0,1 × 0,1 0,5

2 0,1 × 0,1 1,0

3 0,1 × 0,1 1,5

4 0,1 × 0,1 2,0

II

5 0,2 × 0,2 0,5

6 0,2 × 0,2 1,0

7 0,2 × 0,2 1,5

8 0,2 × 0,2 2,0

III

9 0,5 × 0,5 0,5

10 0,5 × 0,5 1,0

11 0,5 × 0,5 1,5

12 0,5 × 0,5 2,0

3.1 Análise teórica

Na análise teórica foi aplicada a Equação 1 para determinação da força crítica de flambagem, após o

cálculo do momento de inércia e o comprimento de cada arco conforme as dimensões da seção

transversal e altura máxima (Tabela 2).

3.2 Análise numérica

Na simulação numérica foi utilizada análise por autovalor para determinação da força crítica de

flambagem a partir do programa computacional ANSYS. Inicialmente foi gerada a geometria dos

arcos no próprio programa. Para constituir os arcos foi escolhido o elemento de barra tridimensional

BEAM188, que possui dois nós e seis graus de liberdade por nó, sendo três relacionados à translação

e três à rotação nas direções axiais (ANSYS, 2012). Por consequência, a análise numérica foi

tridimensional, embora uma análise bidimensional fosse suficiente para a determinação dos valores

críticos. A quantidade de elementos referentes à divisão da malha foi definida como 50. Testes

iniciais relacionados à variação da quantidade de elementos não indicou mudanças significantes nos

resultados, por isso esse fator foi constante. Nas extremidades dos arcos foram restringidas

translações e rotações, exceto a rotação no eixo z, com o intuito de simular os apoios articulados.

Uma força unitária com direção vertical foi aplicada na metade dos arcos, pois o valor da força

crítica na análise por autovalor é obtido em função da força inicialmente admitida. Na Figura 2 é

representado um dos modelos analisados (modelo 8) no programa computacional, que também

representa a orientação adotada para os eixos.

V Simposio de Metodos Numericos Computacionais

410

(a)

(b)

Figura 2: Representação do modelo no programa computacional ANSYS. (a) vista isométrica; (b) vista frontal.

A possível diferença percentual ocasionada na análise numérica com relação à teórica é verificada na

Equação 3, sendo AT a análise teórica e AN a análise numérica.

Diferença %( )AT AN

AT100

(3)

4 RESULTADOS E DISCUSSÃO

Em geral, a configuração geométrica do primeiro modo de flambagem dos arcos foi similar à

representação indicada na Figura 3, que especificamente corresponde ao modelo 8.

V Simposio de Metodos Numericos Computacionais

411

(a)

(b)

Figura 3: Configuração geométrica do primeiro modo de flambagem. (a) vista isométrica; (b) vista frontal.

Os valores referentes às forças críticas de flambagem são apresentados na Tabela 3, procedentes das

análises teóricas e numéricas. Também é indicada a diferença percentual entre a análise teórica e a

numérica.

Em geral, nota-se que a variação da força crítica obtida na análise numérica em relação à análise

teórica foi maior para valores maiores na relação entre altura máxima e vão. A alteração das

dimensões da seção transversal também não indicou variações consideráveis no padrão apresentado,

com exceção do modelo 9, em que houve variação muito maior (10,01 %). Nos outros modelos a

diferença foi consideravelmente próxima para uma mesma relação entre altura e vão.

A variação dos resultados pode estar relacionada ao algoritmo do programa computacional, referente

à análise numérica por autovalor. Provavelmente maior precisão poderia ser obtida na solução

numérica se fosse atribuído um elemento mais adequado para constituir a estrutura, ou se fosse

realizado outro tipo de análise numérica. Além disso, a análise numérica foi procedida conforme

modelos tridimensionais, enquanto a análise teórica foi feita por modelos bidimensionais.

Os valores obtidos nas duas análises para a força crítica de flambagem também são indicados

graficamente na Figura 4, agrupados por classe.

V Simposio de Metodos Numericos Computacionais

412

Tabela 3 – Força crítica de flambagem e diferença percentual.

Classe Modelo f / L

Força crítica de flambagem (Pcr) Diferença

Análise teórica Análise numérica

kN kN %

I

1 0,05 15,97 16,08 0,69

2 0,10 29,67 27,75 6,47

3 0,15 39,66 33,93 14,45

4 0,20 45,69 35,71 21,84

II

5 0,05 255,53 260,58 1,98

6 0,10 474,64 443,78 6,50

7 0,15 634,64 541,65 14,65

8 0,20 730,96 570,02 22,02

III

9 0,05 9981,00 10980,00 10,01

10 0,10 18540,73 17269,00 6,86

11 0,15 24790,55 20842,00 15,93

12 0,20 28553,17 21917,00 23,24

(a) (b)

(c)

Figura 4: Variação da força crítica de flambagem em cada classe dos modelos analisados.

(a) classe I; (b) classe II; (c) classe III.

V Simposio de Metodos Numericos Computacionais

413

5 CONCLUSÕES

Foram realizadas análises teóricas e numéricas para a determinação da força crítica de flambagem de

arcos parabólicos e biarticulados submetidos à força concentrada verticalmente no meio do vão, que

apresentaram diferentes dimensões de seção transversal e altura máxima. Ao todo foram analisados

doze modelos estruturais.

Na análise numérica por autovalor houve maior variação nos resultados para valores maiores da

relação entre a altura máxima do arco e o vão entre apoios. Apesar de haver imprecisão de

aproximadamente 22 % no maior limite dessa relação (0,2), a análise por autovalor ainda pode ser

aplicada visto que o resultado final não ultrapassou o valor crítico teórico. Um dos fatores que pode

ter influenciado os resultados refere-se aos diferentes procedimentos de análise, pois a análise

numérica foi elaborada a partir de modelos tridimensionais enquanto a análise teórica foi obtida por

modelos bidimensionais. Outro aspecto verificado foi a variação das dimensões da seção transversal,

que não provocou alterações significativas no padrão dos resultados entre as análises teórica e

numérica de arcos com a mesma altura máxima.

REFERÊNCIAS

ANSYS. Mechanical Applications – Mechanical User Guide. Release 14.5, ANSYS, Inc., 2012.

KARNOVSKY, I. Theory of arched structures - Strength, Stability, Vibration. Springer, 2012.

ZIEMIAN, R. Guide to stability design criteria for metal structures. 6. ed. John Wiley & Sons, 2010.

V Simposio de Metodos Numericos Computacionais

414

V Simposio de Metodos Numericos Computacionais

ANÁLISE ESPAÇO-TEMPORAL DOS CASOS NOVOS DEHANSENÍASE

Resumo: A hanseníase, também conhecida como lepra, é uma doença incapacitante que data desde antes deCristo e que ainda está presente nos dias atuais. Com o descobrimento da sua cura, o número de casos novosvêm diminuindo, porém ainda há registros expressivos de novos casos no mundo. Há alguns anos, a OrganizaçãoMundial de Saúde estabeleceu uma meta aos países para reduzir o número de casos novos de hanseníse em 1caso novo a cada 10.000 habitantes e, diante dessa meta, a Secretaria de Saúde do Estado do Paraná conseguiualcançá-la a nível de estado, porém, não ainda a nível de municípios. Esta pesquisa tem como objetivo analisaros casos novos de hanseníase no estado do Paraná, no período entre 1980 e 2013, considerando um modeloespaço-temporal que considera a subdivisão dos municípios ao longo dos anos.

Palavras-Chave: Análise espaço-temporal, modelos hierárquicos bayesianos, casos novos dehanseníase, Estado do Paraná.

1 INTRODUÇÃO

Há fenômenos que quando observados em uma determinada localização podem com o passar dotempo apresentar, ou não, um comportamento conjunto no tempo e no espaço. Geralmente, fenômenosepidemiológicos apresentam este tipo de comportamento.

Assim, a análise espaço-temporal vem a ser útil para identificar áreas com maior risco para a trans-missão de uma doença ao longo do tempo, além de subsidiar o entendimento e a avaliação do impacto deprocessos e estruturas sociais na disseminação da mesma (AMARAL, 2008). E isso é um dos objetivosda Secretaria de Saúde do Estado do Paraná (SESA) ao trabalhar com a hanseníase.

A hanseníase, também denominada por lepra, é uma doença com registros na literatura que datamantes de Cristo, com casos na China, Egito e Índia. Ao longo da história, as pessoas atingidas erammuitas vezes condenadas ao ostracismo por suas comunidades e famílias. As principais formas de man-ifestação dos sintomas da doença ocorrem por meio de sinais e sintomas dermatoneurológicos, como:lesões na pele e nos nervos periféricos, principalmente nos olhos, mãos e pés, e perda de sensação sobrea maior parte da sua pele (NOTO AND SCHREUDER AND NAAFS, 2011; SEHGAL, 2006; SBD,2015)

Além das condições individuais, outros fatores relacionados aos níveis de endemia e às condiçõessocioeconômicas desfavoráveis, assim como condições precárias de vida e de saúde e o elevado númerode pessoas convivendo em um mesmo ambiente/território, influem no risco de adoecer (SAMPAIO,2012; BRASIL, 2006).

O Sistema Nacional de Vigilância Epidemiológica (SNVE) foi instituído no país no final da década de70, e este vem a monitorar várias doenças de notificação compulsória no país, sendo a hanseníase uma

Vanessa Ferreira Sehaber, Paulo Justiniano Ribeiro Junior

415

delas (BRASIL, 1975). Por se tratar de uma doença infecciosa, a hanseníase possui evolução crônica e,além disso, desempenha grande importância para a saúde pública devido à sua magnitude e ao seu poderincapacitante, atingindo principalmente a faixa etária economicamente ativa.

A vigilância epidemiológica da hanseníase no estado do Paraná é realizada pela SESA através deum conjunto de atividades que fornecem informações sobre a doença e sobre o seu comportamento epi-demiológico, com a finalidade de recomendar, executar e avaliar as atividades de controle da hanseníase.Todas essas ações tem por objetivo reduzir a prevalência da hanseníase a menos de 1 caso em 10.000habitantes, quebrando assim a cadeia epidemiológica da doença e a produção de novos casos (OMS,2014; BRASIL, 2002).

Desde a instalação do SNVE, o Estado do Paraná passou por um processo intenso de desmembra-mentos de municípios. Diante do interesse de investigar estatisticamente a epidemiologia da hanseníaseno Paraná, este trabalho tem como objetivo principal analisar os casos novos de hanseníase no estado doParaná, no período entre 1980 e 2013, considerando um modelo espaço-temporal que considera a sub-divisão dos municípios ao longo dos anos. Essa é uma proposta inovadora, tanto a nível epidemiológicocomo estatístico.

2 MATERIAIS E MÉTODOS

2.1 MateriaisEste trabalho está em desenvolvimento e está utilizando o conjunto de dados disponibilizado pela

SESA, o qual disponibiliza informações sobre os casos novos de hanseníase, por município, no períodocompreendido entre 1980 e 2013.

A busca por covariáveis medidas ano-a-ano por município e que sejam relacionadas à saneamento,educação, renda, habitação, etnia está em andamento. Essas variáveis estão sendo baseadas em estudosrelizados por Sampaio (2012) e Sehaber and Silva (2015).

Ainda, será necessário o uso das populações anuais de cada município na modelagem espaço-temporal, contudo sabe-se que estas são levantadas quando os censos são realizados. No período com-preendido entre os censos, a SESA utiliza as estimativas populacionais disponibilizadas por dois órgãos:o Departamento de Informática do Sistema Único de Saúde (DATASUS) e o Instituto Paranaense deDesenvolvimento Econômico e Social (IPARDES). Contudo, mediante análises descritivas, verificou-sealgumas flutuações e tendências duvidosas, como se pode ver nos gráficos da Figura 1. Para contornaresse problema utilizou-se interpolação linear para obter estimativas populacionais menos equivocadas.

O tratamento dos dados e a modelagem espaço-temporal está sendo realizada com auxílio computa-cional do software R versão 3.2.2 (R CORE TEAM, 2015).

2.2 MétodosModelos espaço-temporais, também conhecidos como modelos dinâmicos na literatura bayesiana,

são uma vasta classe de modelos paramétricos com parâmetros variando no tempo, onde ambos, a vari-ação dos parâmetros e a disposição da informação dos dados são descritos de uma forma probabilística(LAWSON, 2001; GELFAND et al., 2010, BLANGIARDO AND CAMELETTI, 2015).

Assim, seja Y t um vetor de observações no espaço, de ordem n × 1, sobre os tempos t = 1, · · · , T .Define-se as seguintes quantidades no tempo t.

Equação de observações p(yt|µt) e g(µt) = ηt =X tθtEquação de evolução θt = Gtθt−1 + ωt com ωt ∼

[0,W−1

t

] (1)

onde

• θt, um vetor de estados n-dimensional no tempo t;

• X t, uma matriz de covariáveis observadas no tempo t;

• Gt, uma matriz de evolução conhecida de ordem n× n;

V Simposio de Metodos Numericos Computacionais

416

• ωt, um vetor n-dimensional de evolução dos erros com média nula e matriz de precisão conhecidaW−1

t , denotada por ωt ∼[0,W−1

t

];

• ηt =X tθt, uma função linear dos parâmetros de estado;

• g(µt), uma função monótica e contínua conhecida que leva µt à reta real.

Neste modelo, a equação de observações está relacionada com o comportamento probabilístico davariável resposta para um dado estado do sistema no instante t, e a equação de evolução tem a ver coma evolução paramétrica entre cada instante de tempo (WEST AND HARRISON, 1997).

A variável resposta deste trabalho tem natureza discreta, pois está sendo considerado o número decasos novos de hanseníase em cada área/município do estado. Destre os modelos discretos, vem-se uti-lizando as distribuições de probabilidade Poisson e binomial negativa (SEHABER AND SILVA, 2015).

A estimação dos parâmetros e a inferência desses modelos vêm sendo bastante discutida e estudadana literatura, há uma série de exemplos utilizando a abordagem INLA para realizar aproximações com-pletas de inferências bayesianas em modelos dinâmicos lineares e generalizados (RUIZ-CÁRDENASAND KRAINSKI AND RUE, 2012). Essa estrutura aproxima diretamente as marginais das posteriorisde interesse desconsiderando a suposição de atualização/estimação recursiva dos estimadores e hiper-parâmetros no caso de dados fixados e, além disso, permite fazer análises bayesianas completas dosmodelos de espaço de estados facilmente (RUE AND MARTINO AND CHOPIN, 2009).

3 RESULTADOS

De forma preliminar, os resultados que serão apresentados são análises descritivas referente as esti-mativas populacionais, aos casos novos de hanseníse no Estado do Paraná e aos desmembramentos dosmunicípios ao longo dos anos. Essas análises descritiva são fundamentais, pois irão auxiliar a próximaetapa desta pesquisa, que é a utilização de modelos espaço-temporais para explicar a ocorrência de casosnovos de hanseníase no Estado do Paraná.

Figura 1: Populações estimadas para os municípios de Campo Mourão e Farol: DATASUS, IPARDES,interpolações lineares e censos

Os gráficos da Figura 1 exemplificam as flutuações e tendências duvidosas das estimativas popula-cionais do DATASUS (azul) e do IPARDES (verdes) para os municípios de Campo Mourão e de Farol.Os pontos em preto representam o número de habitantes levandos pelos censos e as estimativas popu-lacionais em vermelho representam as estimativas obtidas por interpolações lineares. Ainda, por meio

V Simposio de Metodos Numericos Computacionais

417

desses gráficos, pode-se observar a subdivisão de Campo Mourão, a qual originou o município de Farolno ano de 1993.

Figura 2: Representação dos casos novos de hanseníase, a cada 3 anos

Na Figura 2, estão sendo representados os gráficos dos coeficientes de detecção (taxas brutas, razãodo número de casos novos pela população do município, vezes 100.000 habitantes), com intervalos declasses utilizados pelo SESA (BRASIL, 2010). Foram apresentados mapas a partir de 1997, pois osdados que acompanham os mapas entre 1997 e 1980, período com subdivisão dos municípios, aindaestão sendo manipulados.

Figura 3: Representação dos casos nulos de hanseníase, a cada 3 anos

V Simposio de Metodos Numericos Computacionais

418

Observa-se uma gradual diminuição da incidência de hanseníase ao longo dos anos, a qual é verificadapela diminuição da densidade da cor vermelha, especialmente na região central dos mapas.

De forma complementar, observa-se pelos gráficos da Figura 3 um aumento na densidade de casosnulos de hanseníase no estado, o que vem a ser um resultado muito interessante, pois significa que aincidência da hanseníase está diminuindo ao longo dos anos.

Os gráficos da Figura 4 são uma prévia dos contornos dos limites dos municípios ao longo dos anosde emancipação, pois ainda há contorno que precisam ser construídos e que estão dependendo de outrasfontes para tornarem-se fidedignos.

Figura 4: Mapas dos limites dos municípios paranaenses por ano de desmembramento

Observa-se por meio desses gráficos que os anos com maior densidade de emancipações são os anosde 83, 93 e 97. Verificou-se que algumas formas de subdivisão dos municípios, como um novo municípiose originar apenas de um município assim como um novo município se originar da mescla de dois oumais municípios.

4 CONCLUSÕES

Este trabalho está sendo desenvolvido em parceria com a qual apresentou interesse de conhecer umpouco mais sobre a epidemiologia da doença frente por meio de técnicas estatísticas, não utilizadas pelosistema padrão brasileiro, a fim de melhorar a sua atuação para diminuir os casos novos de hanseníaseno estado e atender a meta da OMS em todos os municípios.

Embora os dados ainda esteja em processo de manipulação e de busca de covariáveis, a literatura demodelos bayesianos hierárquicos está sendo revisada de forma a melhor aplicar a modelagem espaço-temporal. Essa análise será importante pois auxiliará a SESA a entender a epidemiologia da doença alémde proporcionar predições mais confiáveis de casos novos de hanseníase.

V Simposio de Metodos Numericos Computacionais

419

Essa revisão de literatura é necessária para implementação computacional da estrutura de subdivisãode municípios na modelagem espaço-temporal, a qual poderá ser útil análises de outras variáveis quecomunguem das características trabalhadas nessa pesquisa.

REFERÊNCIAS

AMARAL E.P. and LANA F.C.F. Análise espacial da hanseníase na microrregião de almenara, mg,brasil. Revista Brasileira de Enfermagem, 61:701–707, 2008.

BLANGIARDO M. and CAMELETTI M. Spatial and spatio-temporal bayesian models with R-INLA.John Wiley & Sons, United Kingdom, 2015.

BRASIL. Lei 6.259 de 30/10/1975. 1975.BRASIL. Ministério da saúde. secretaria de políticas de saúde. departamento de atenção básica. guia

para o controle da hanseníase. 2002.BRASIL. Ministério da Saúde. Secretaria de Vigilância em Saúde. Fundação Oswaldo Cruz. Abordagens

espaciais na saúde pública. Série B. Textos Básicos de Saúde. Série Capacitação e Atualização emGeoprocessamento em Saúde. 2006.

BRASIL. Ministério da saúde. Roteiro para uso do sistema de informação de agravos de notificação -sinan NET HANSENÍASE. 2010.

GELGAND A.E., DIGGLE P.J., use M. FUENTES, and GUTTORP P. Handbook of spatial Statistics.Chapman & Hall/CRC, Londres, 2010.

LAWSON A.B. Statistical methods in spatial epidemiology. Wiley, Chichester, 2001.NOTO S., SSHREUDER P.A.M., and NAAFS B. The diagnosis of leprosy. 2011.OMS. Organização mundial de saúde. Global leprosy situation. Weekly Epidemiological Record - WER,

87:317–328, 2012.R CORE TEAM. R: A Language and Environment for Statistical Computing. R Foundation for Statistical

Computing, Vienna, 2015.RUE H., MARTINO S., and CHOPIN N. Approximate bayesian inference for latent gaussian models

using integrated nested Laplace approximations (with discussion). Journal of the Royal StatisticalSociety, 71(2):319–392, 2009.

RUIZ-CÁRDENAS R., KRAINSKI E.T., and RUE H. Direct fitting of dynamic models using integratednested Laplace approximations - INLA. Computational Statistics and Data Analysis, 56:1808–1828,2012.

SAMPAIO P.B. Análise espacial dos casos novos de hanseníase e a correlação com os indicadoressocioeconômicos no município de vitória - es, no período de 2005 a 2009. 2012.

SBD. Sociedade brasieleira de dermatologia. hanseníase. 2015.SEHABER V.F. and SILVA B.H.C. Análises espacial e espaço-temporal dos casos novos de hanseníase

no estado do Paraná - Monografia do Curso de Bacharelado em Estatística, Universidade Federal doParaná. 2015.

SEHGAL A. Deadly diseases and epidemics. Chelsea House Publishers„ Philadelphia, 2006.WEST M. and HARRISON J. Bayesian forecasting and dynamic models. Springer-Verlag, New York,

2 edition, 1997.

V Simposio de Metodos Numericos Computacionais

420

V Simposio de Metodos Numericos Computacionais

SOLUÇÃO DE EQUAÇÕES DIFERENCIAIS POR ALGORITMOS DE

DIFERENCIAÇÃO AUTOMÁTICA E PROGRAMAÇÃO GENÉTICA

Resumo: Este artigo tem por objetivo investigar o potencial de algoritmos computacionais,

construídos através da combinação dos métodos de diferenciação automática e programação

genética, na obtenção de soluções analíticas para problemas de equações diferenciais ordinárias e

parciais. Com esse intuito, e utilizando o ambiente de programação Matlab, diversos algoritmos

foram elaborados e soluções de diferentes tipos de equações diferenciais foram determinadas. Os

resultados do estudo são promissores, com soluções exatas obtidas para a maioria dos problemas

abordados e que atestam, empiricamente, a eficácia e robustez da metodologia desenvolvida.

Palavras-Chave: Equações Diferenciais, Diferenciação Automática, Programação Genética.

1 INTRODUÇÃO

É de amplo conhecimento que um número expressivo de projetos de pesquisa realizados por diversas

áreas do conhecimento científico utiliza-se de modelos matemáticos que são formulados,

parcialmente ou integralmente, por equações diferenciais. No entanto, dada à complexidade dos

modelos propostos, os seus formuladores quase sempre se deparam com problemas de difícil solução

e com solução analítica desconhecida. Nesta situação, o procedimento usual é a obtenção de uma

solução através de métodos numéricos. Contudo, grande parte destes projetos objetivam resultados

maiores e usam as equações diferenciais para tentar descrever o comportamento dinâmico de

variáveis que são objetos centrais destas pesquisas. Nestes casos, certamente, a solução numérica não

é suficientemente completa para dar aos pesquisadores as respostas requeridas para as suas

avaliações. Faz-se necessário o conhecimento da solução na sua forma literal, pois esta permite a

realização de importantes e diferentes tipos de análises, tais como: estáticas comparativas;

conhecimento da magnitude de efeitos parciais e elasticidades; estudos de estabilidade e

estacionariedade; etc.

Com a motivação de tentar contribuir com novos métodos que ajudem a dirimir os problemas acima

citados, o objetivo principal deste estudo é investigar o potencial de algoritmos computacionais,

construídos a partir da combinação das técnicas de diferenciação automática e programação genética

(DAPG); na obtenção de soluções analíticas para complexos problemas de equações diferenciais

ordinárias (EDOs) e parciais (EDPs). Com essa finalidade, e utilizando o ambiente de programação

Matlab, diversos algoritmos foram elaborados e soluções analíticas para diferentes problemas de

EDOs e EDPs foram determinadas. Os resultados do trabalho são promissores, com soluções exatas

obtidas para a grande maioria dos problemas abordados e que, empiricamente, atestam a consistência

e robustez da metodologia desenvolvida.

Para comparar os estudos realizados aos de mesmo gênero existentes na literatura, uma revisão

Waldir Jesus de Araujo Lobao, Marco AurelioCavalcanti Pacheco, Douglas Mota Dias

421

bibliográfica foi realizada e um número significativo de trabalhos foi examinado. Verificou-se que,

embora exista uma vasta literatura sobre diferenciação automática (DA) e programação genética

(PG), a grande maioria dos trabalhos aborda e aplica estas técnicas de forma separada. Além disso,

dentre os que desenvolvem DA e PG, conjuntamente, são raros aqueles que apresentam estudos

sobre a solução de equações diferenciais. Destes, destacam-se os artigos de (CAO, et al. 2000; IBA

AND SAKAMOTO, 2002; IMAE, J. et al. 2004; TSOULOS AND LAGARIS, 2006). Estes

trabalhos serviram de base comparativa na avaliação do desempenho computacional dos algoritmos

desenvolvidos e apresentados neste artigo. As comparações foram de fundamental importância, pois

possibilitaram perseguir melhores resultados e desenvolver algoritmos mais eficientes e eficazes.

Além desta breve introdução, o trabalho apresenta-se organizado em outras três seções. A segunda

descreve os aspectos metodológicos do algoritmo de DAPG. A terceira seção apresenta os resultados

de duas aplicações de soluções de equações diferenciais por DAPG. Na quinta seção são

apresentadas as conclusões do trabalho.

2 ASPECTOS METODOLÓGICOS DO ALGORITMO DE DAPG

Nesta seção são apresentados os procedimentos metodológicos adotados na elaboração do algoritmo

DAPG, desenvolvido para solucionar problemas de equações diferenciais. Em virtude do espaço

exíguo, os fundamentos teóricos sobre diferenciação automática e programação genética não serão

aqui apresentados, a seção limita-se a descrever os aspectos metodológicos relacionados à estrutura e

as etapas de funcionamento do algoritmo. No entanto, para os leitores menos familiarizados com

estas técnicas, sugere-se a leitura dos seguintes textos: (RALL, 1981; KOZA, 1992; FINK, 2007;

SILVA, 2009).

2.1 A Estrutura e Etapas de Funcionamento do Algoritmo de DAPG

O algoritmo foi desenvolvido em ambiente de programação Matlab e funciona com dois programas

básicos que se completam e trabalham simultaneamente. O primeiro é responsável pela execução da

programação genética (PG) e o segundo executa a diferenciação automática (DA) e avalia a aptidão

(fitness) de cada indivíduo gerado pelo primeiro. Os programas funcionam concomitantemente ao

longo de muitas repetições, denominadas de gerações, e finalizam as suas tarefas de acordo com um

critério de parada previamente definido. A estrutura de representação da PG é a tradicional em forma

de árvore, sendo escolhida por permitir rápida leitura e direta interpretação dos resultados. A

parametrização da PG é flexível e possibilita a definição do conjunto de parâmetros que deseja

utilizar na execução do programa. Algumas das possibilidades de parametrização são as seguintes: (i)

Tipos e formas de árvores; (ii) Profundidade mínima da árvore inicial; (iii) Profundidade máxima da

árvore (depth); (iv) Controle do número de nós (nodes); (v) Seleção do conjunto de funções e

terminais; (vi) Percentual ou número de indivíduos; (vii) Métodos de seleção para reprodução; (viii)

Taxas de crossover e mutação; (ix) Tamanho da população; (x) Diferentes critérios de parada.

Um componente essencial para o funcionamento do programa de PG são os conjuntos de funções e

terminais, pois estes são necessários para a criação e reprodução da população de indivíduos e,

consequentemente, implicam diretamente na geração da solução ótima para o problema. Juntos,

funções e terminais definem o tamanho da árvore de representação. O conjunto de funções é

composto de operadores e funções matemáticas elementares. O conjunto de terminais é constituído

de constantes (números reais, complexos, número etc.) e das variáveis que compõem a equação

diferencial.

A primeira etapa que o programa de PG realiza é a criação da população inicial. Funções e terminais

são selecionados aleatoriamente e combinados, dando origem aos indivíduos que compõem a

população. No caso específico deste trabalho, cada indivíduo criado é uma função matemática e,

portanto, uma possível solução da equação diferencial de interesse. Para a avaliação dos indivíduos

recém-criados é necessário definir de uma medida de erro (fitness) que avalie a qualidade e aptidão

de cada indivíduo. Em virtude de o objetivo ser a solução de equações diferenciais, surge, nesse

V Simposio de Metodos Numericos Computacionais

422

ponto, a necessidade de um programa de diferenciação automática para, via cálculo diferencial,

verificar a qualidade da solução proposta. Para ilustrar como esta tarefa é realizada pelo algoritmo,

um exemplo simples é apresentado a seguir.

Suponha que se queira obter a solução do seguinte problema de EDO:

(1)

Suponha, também, que a função abaixo seja um indivíduo ou uma solução proposta pela PG.

f(x) = 2 + exp (-2x) (2)

Então, logo após a função ser gerada pela PG a sua qualidade é avaliada. Ou seja, o segundo

programa executa diferenciação automática e calcula a derivada de f(x) em cada ponto do domínio

definido pelo algoritmo (geralmente uma grade com 50 ou mais pontos de x). Em seguida, gera uma

medida de fitness que compara os resultados obtidos com o verdadeiro modelo de EDO. Então, de

acordo com o exemplo, segue que:

f ´(x) = -2 exp (-2x) (3)

Aplicando este resultado na EDO, tem-se:

f ´(x) + 2 f(x) - exp (-2x) = -2 exp (-2x) + 2[2 + exp (-2x)] - exp (-2x) = 4- exp (-2x) 0. (4)

Observe que f(x) apresenta erro diferente de zero e, necessariamente, não é uma solução exata da

EDO de interesse, embora satisfaça a condição inicial, pois

f(0) = 2 + exp (-2 0) = 2 + 1 = 3. (5)

Contudo, o algoritmo não trabalha com a diferenciação simbólica da solução proposta, como feito

acima, e sim com a derivada avaliada em cada ponto do domínio. Diante disso, a medida de fitness

escolhida para avaliar a qualidade das soluções propostas pela PG é o, comumente utilizado, erro

absoluto médio, acrescido de uma penalidade para o erro da condição inicial ou de outras restrições

exigidas pelo problema. Isto é,

fitness = erro absoluto médio + erro de restrições. (6)

(7)

Após a avaliação dos indivíduos, feitas de acordo com os seus fitness, parte daqueles que receberam

as melhores avaliações são selecionados para etapa de reprodução e geração da próxima população.

Os demais são automaticamente descartados e excluídos do processo. Esta sequência de criação,

avaliação, seleção e reprodução se repete ao longo de diversas gerações até que a melhor solução

seja encontrada. Portanto, o que o algoritmo realiza ao longo de diversas gerações é tentar criar por

PG o indivíduo ou a solução f(x) que minimize o fitness. Deve-se ressaltar que, a busca pela solução

ótima ocorre de forma evolutiva e a velocidade de convergência depende de algumas importantes

etapas, métodos e operadores genéticos que não serão apresentados.

Outro aspecto importante da metodologia são os critérios que definem e elegem a solução analítica

de uma equação diferencial pelo algoritmo de DAPG. De acordo com o critério de parada utilizado, o

algoritmo funciona até que a última geração seja avaliada e, ao término das gerações, seleciona a

melhor solução encontrada, ou seja, aquela que minimiza a medida de erro (fitness). A partir deste

ponto, a melhor solução encontrada é validada como uma solução final de PGDA se satisfaz os

seguintes requisitos:

(i) se apresenta baixíssima medida de fitness, com valores abaixo de 0,00001; (ii) se satisfaz as

condições inicias e condições de contorno do problema proposto; (iii) se quando diferenciada pelas

V Simposio de Metodos Numericos Computacionais

423

regras do cálculo usual, se iguala à equação diferencial proposta em todo o domínio do problema.

Caso uma solução validada apresente fitness nulo e satisfaça os demais requisitos com perfeita

exatidão, a mesma é considerada como uma solução analítica exata do problema proposto. Pois, esta

solução é idêntica à obtida quando se aplica o cálculo diferencial usual, tanto para EDOs quanto para

EDPs. Caso contrário, a solução validada é considerada como uma solução analítica aproximada.

3 SOLUÇÕES DE EQUAÇÕES DEFERENCIAIS POR DAPG

Nesta seção são apresentados os resultados de duas aplicações, uma para EDO e outra para EDP, que

ajudam a ilustrar a solução de equações diferenciais por DAPG. Contudo, deve-se informar que mais

de 30 problemas foram tratados com o objetivo de testar a eficiência e eficácia do algoritmo, no

sentido da obtenção de soluções analíticas exatas. No entanto, não será possível apresentar os demais

resultados dado o limite de páginas do artigo.

De uma forma geral, para as diversas aplicações realizadas, o algoritmo foi parametrizado de acordo

com os parâmetros indicados na Tabela 1.

Tabela 1: Parametrização do Algoritmo de DAPG.

Parâmetros Básicos do DAPG

Gerações 20 a 100 Inicialização Growinit

População (indivíduos) 30 a 600 Seleção e Reprodução Lexictour

Funções Elementares 8 a 15 Elitismo totalelitism

Terminais 5 a 15 Critério de Parada Nº de Gerações

Variáveis 2 a 6 Taxa de Crossover Variável

Modo de DA (fixo) forward Taxa de Mutação Variável

O número de gerações de 20 a 100 e o tamanho da população de 30 a 600, dependendo do número de

variáveis, da ordem de diferenciação, e do tamanho e complexidade da equação diferencial. O

número de funções e operações matemáticas elementares variou de 8 a 15, e o número de terminais,

variáveis mais constantes, variou de 5 a 15. A inicialização da população, a seleção para reprodução

e a técnica de elitismo, para a maioria das aplicações, foram utilizados, respectivamente, os métodos

growinit, lexictour, e totalelitism. As taxas de crossover e mutação são variáveis, iniciando com 50%

para cada operador. O critério de parada utilizado foi o número de gerações. Foram utilizados

conjuntos ou grades de 50 ou mais pontos do domínio da função para a realização dos exercícios.

Exemplo 1:

A primeira aplicação aborda a solução da seguinte EDO de 2ª ordem:

EDO:

Solução exata obtida:

Os resultados são apresentados graficamente na Figura 1: Representação em Árvore da Solução da

EDO. e na Figura 2: Gráfico da Função Solução da EDO. Na árvore da Figura 1: a variável

independente (x) é representada por ( x = x1).

V Simposio de Metodos Numericos Computacionais

424

#Generations: 40 #Individuals: 400

UsedResources: 3779

Best so far: 6031 Fitness: 0.000000

Depth: 6

Nodes: 16

Figura 1: Representação em Árvore da Solução da EDO.

Figura 2: Gráfico da Função Solução da EDO.

A solução da EDO foi obtida no indivíduo 6031 (bestsofar), para uma população de 400 indivíduos e

40 gerações. A solução é exata, conforme mostra fitness nulo na Figura 1. A árvore de representação

obtida é a mais parcimoniosa possível, com profundidade 6 (depth) e 16 nós (nodes).

Exemplo 2:

A segunda aplicação aborda a solução da seguinte EDP de 2ª ordem:

EDP:

Solução exata obtida:

Os resultados são apresentados graficamente na Figura 3: Representação em Árvore da Solução da

EDP. e na Figura 4: Gráfico da Função Solução da EDP. Na árvore da Figura 3: as variáveis

independentes x e t são representadas, respectivamente, pelas variáveis ( x = x1) e ( t = x2).

V Simposio de Metodos Numericos Computacionais

425

#Generations: 50

#Individuals: 50

UsedResources: 425

Best so far: 1336

Fitness: 0.000000

Depth: 5

Nodes: 9

Figura 3: Representação em Árvore da Solução da EDP.

Figura 4: Gráfico da Função Solução da EDP.

A solução da EDP foi obtida no indivíduo 1336 (bestsofar), para uma população de 50 indivíduos e

50 gerações. A solução analítica encontrada é exata, conforme mostra fitness nulo na Figura 1. A

árvore de representação obtida é a mais parcimoniosa possível, com profundidade 5 (depth) e 9 nós

(nodes).

4 CONCLUSÕES

O estudo foi realizado com o objetivo de investigar o potencial de algoritmos computacionais,

construídos a partir da combinação das técnicas de diferenciação automática e programação genética,

na obtenção de soluções analíticas para problemas de equações diferenciais ordinárias e parciais.

Acreditamos que o objetivo proposto foi alcançado, pois os resultados das aplicações são muito

promissores, com soluções exatas obtidas para a grande maioria dos problemas abordados e que,

empiricamente, comprovam a consistência e robustez da metodologia desenvolvida. Lamentamos,

apenas, não ter podido apresentar os significativos resultados das demais aplicações, no entanto,

colocamos à disposição de todos os interessados. É importante informar que todos os problemas de

equações diferenciais desenvolvidos neste estudo, também foram testados na sub-rotina DSolver do

programa Mathematica e nas ODE-PDE-Solver Functions do programa Matlab. Os resultados dos

testes mostraram que mais de 50% das equações, aproximadamente 16 equações, não foram

solucionadas por estes programas, embora tenham sido solucionadas de forma exata e analítica pelo

algoritmo de DAPG. Estes resultados são relevantes, pois confirmam a potencialidade do algoritmo.

V Simposio de Metodos Numericos Computacionais

426

Para finalizar, gostaríamos que o estudo realizado fosse entendido como uma metodologia

alternativa, e elaborada com a finalidade de auxiliar pesquisadores na difícil tarefa de obter soluções

analíticas para complexos problemas de equações diferenciais.

REFERÊNCIAS

BURGESS, G., Finding approximate analytic solutions to differential equations using genetic

programming. Surveillance Systems Division, Electronics and Surveillance Research Laboratory,

Department of Defense, Australia, 1999.

CAO, H. et al., Evolutionary modeling of systems of ordinary differential equations with genetic

programming, Genetic Programming and Evolvable Machines, vol. 1, pp. 309–337, 2000.

FINK, M., Automatic Differentiation for MATLAB, 2007. MATLAB Central,

www.mathworks.com/matlabcentral. (Martin Fink, Director of Hewlett-Packard - HP Labs research.)

IBA, H. AND SAKAMOTO, E., Inference of differential equation models by genetic programming.

Proceedings of the Genetic and Evolutionary Computation Conference (GECCO 2002), 2002, pp.

788–795.

IMAE, J. et al., Design of nonlinear control systems by means of differential genetic programming.

43rd IEEE, Conference on Decision and Control. Atlantis, Paradise Island, Bahamas. December 14-

17, 2004.

KOZA, R. J., Genetic Programming: On the Programming of Computers by Means of Natural

Selection (Complex Adaptive Systems). 1992, Massachusetts Institute Technology. ISBN 0-262-

11170-5.

LUKE, S. AND PANAIT, L., Lexicographic parsimony pressure. In Langdon, W.B. et al., editors,

Proceedings of GECCO-2002. Morgan Kaufmann (2002) 829–836.

RALL, L. B., Automatic Differentiation: Techniques and Applications. Lecture Notes in Computer

Science 120. Springer. ISBN 3-540-10861-0. (1981).

SILVA, S. A, Genetic Programming Toolbox for MATLAB, 2009. Universidade Nova de Lisboa,

PO Box 127, 2780-156 Oeiras, Portugal. [email protected].

TSOULOS, I. G. AND LAGARIS, I, E., Solving differential equations with genetic programming.

Genetic Program Evolvable Mach (2006) 7: 33-54.

V Simposio de Metodos Numericos Computacionais

427

V Simposio de Metodos Numericos Computacionais

ANÁLISE NUMÉRICA DE UM MODELO DE CORDASELÁSTICAS COM FRONTEIRA MÓVEL

Resumo: Neste trabalho vamos estudar um modelo matemático para pequenas vibrações de cordas elásticas comfronteira móvel. O objetivo é obter a estimativa de erro de soluções em espaços de Sobolev para o problema semi-discreto e problema discreto. A análise é baseada no método de elemento finito de Galerkin.

Palavras-Chave: Análise Numérica, Estimativa de Erro, Fronteira Móvel, Método de Elementos Fini-tos, Equação de Kirchhoff-Carrier, Projeção de Ritz.

1 INTRODUÇÃO

A equação de Kirchhoff modela as vibrações de uma corda elástica ver KIRCHHOFF (1876), e édada por

∂2u

∂t2− 1

m

[τ0 +

k

2L0

∫ β0

α0

(∂u

∂x

)2

dx

]∂2u

∂x2= 0 (1)

onde u = u(x, t) é o deslocamento transversal da corda, m é a massa por unidade de longitude, τ0 éa tensão, L0 = β0 − α0 é a longitude da corda nos extremos e k é o módulo de Young. A extensãodo modelo de Kirchhoff com fronteira móvel foi deduzida por (MEDEIROS, LIMACO e MENEZES(2002)), onde a existência e unicidade de soluções locais são analisadas.

Neste trabalho estudaremos a estimativa de erro para o problema semi-discreto e problema discretodo modelo

∂2u

∂t2−[τ0

m+k

m

γ(t)− γ0

γ0

+k

2mγ(t)

∫ β(t)

α(t)

(∂u

∂x

)2

dx

]∂2u

∂x2= 0 (2)

para pequenas vibrações de cordas elásticas com a fronteira variando com o tempo nas extremidades dacorda, onde γ(t) = β(t)− α(t), α(t) < β(t) e γ0 = β0 − α0 com α(0) = α0, β(0) = β0.

Denotemos por Q o domínio não cilíndrico, do plano R2, definido como segue Q = (x, t) ∈R2;α(t) < x < β(t), t > 0 e sua fronteira lateral Σ é definida por Σ =

0<t<T

(α(t), β(t)) × t.

Definimos a(t) = τ0m

+ kmγ(t)−γ0γ0

e b(t) = k2mγ(t)

. Com esta notação temos o operador diferencial definido

para funções u(x, t) com (x, t) ∈ Q por:

Lu(x, t) =∂2u

∂t2−[a(t) + b(t)

∫ β(t)

α(t)

(∂u

∂x

)2

dx

]∂2u

∂x2. (3)

Quando α(t) = α0, β(t) = β0, ∀t ≥ 0, o operador Lu se reduz ao modelo de Kirchhoff-Carrier.

Wilman Rodas Huarcaya, Mauro AntonioRincon, Natanael Peixoto Quintino

428

2 FORMULAÇÃO DO PROBLEMA

Propõe-se investigar o seguinte problema

Lu(x, t) = f(x, t), ∀(x, t) ∈ Q,u(x, t) = 0, ∀(x, t) ∈ Σ,

u(x, 0) = u0(x), u′(x, 0) = u1(x), α(0) < x < β(0),

(4)

com as seguintes hipóteses:

(H1) α, β ∈ C2([0, T [;R), α(t) < β(t), α′(t) < 0, β′(t) > 0,

|α′(t) + γ′(t)y| < 1

2

(m0

2

)1/2

e |α′′(t) + γ′′(t)y| < (α′(t) + γ′(t)y)2

γ

para todo 0 ≤ t < T, e 0 ≤ y ≤ 1 com m0 uma constante de (H2)

(H2) a ∈ W 1,∞(0,∞), a(t) ≥ m0 > 0 e 0 < γ0 < γ(t) < γ1 <∞.

Devemos considerar o problema equivalente definido num domínio fixo pela mudança de variáveis

τ : Q→ Q = (0, 1)× (0, T )

(x, t) 7→ (y, t) =

(x− α(t)

γ(t), t

) (5)

que é um difeomorfismo de classe C2. A inversa τ−1 é também um difeomorfismo de classe C2. Aaplicação τ definida em (5) transforma o operador Lu(x, t) no operador Lv(y, t), dado por

Lv(y, t) =∂2v

∂t2− 1

γ2

[−m0

2+ a(t) +

b(t)

γ

∫ 1

0

(∂v

∂y

)2

dy

]∂2v

∂y2− ∂

∂y

(a(y, t)

∂v

∂y

)

+ b(y, t)∂2v

∂t∂y+ c(y, t)

∂v

∂y,

(6)

definido para funções reais v(y, t) no cilindro Q. Onde os coeficientes de Lv(y, t) são:

a(y, t) =m0

2γ2−(α′ + γ′y

γ

)2

, b(y, t) = −2

(α′ + γ′y

γ

), c(y, t) = −

(α′′ + γ′′y

γ

). (7)

Obtemos assim, num domínio retangularQ = (0, 1)×(0, T ), o problema equivalente de determinar umafunções v = v(y, t) no espaço H1

0 (0, 1) ∩H2(0, 1), tal que,

Lv(y, t) = g(y, t), ∀ (y, t) ∈ Qv(0, t) = v(1, t) = 0, 0 < t < T

v(y, 0) = v0(y), v′(y, 0) = v1(y), 0 ≤ y ≤ 1.

(8)

Pela mudança de variável τ, a função u(x, t) é solução do problema (4) se, e somente se, v(y, t) é soluçãodo problema (8).

Denotamos por ((, )), ‖.‖; (, ), |.| respectivamente o produto escalar e a norma em H10 (0, 1) e L2(0, 1).

Em (MEDEIROS, LIMACO e MENEZES (2002)) foi mostrado a existência e unicidade de soluçõeslocais do problema (8).

V Simposio de Metodos Numericos Computacionais

429

3 ESTIMATIVA DE ERRO

Seja

µ = µ(t) =1

γ2

[−m0

2+ a(t) +

b(t)

γ‖v(t)‖2

](9)

com a seguinte hipóteses:

(H3) µ é uma função derivável verificando: 0 < µ1 ≤ µ(λ) ≤ µ2 e |µ′(λ)| ≤ c, ∀λ ∈ R.

A formulação variacional do problema (8) pode ser expressada para todo w ∈ H10 (0, 1) como:

(v′′, w

)+ µ(∂v∂y,∂w

∂y

)+(a(y, t)

∂v

∂y,∂w

∂y

)+(b(y, t)

∂v′

∂y, w)

+(c(y, t)

∂v

∂y, w)

=(g, w

). (10)

3.1 Problema Semi-discretoApresentaremos a formulação semi-discreta para o problema (8) usando o método de Galerkin dis-

cretizando a variável espacial. Seja K família de polígonos Th = K ver CIARLET (1978), e in-dexamos pelo parâmetro 0 < h < 1, representando o máximo diâmetro de elementos K ∈ Th. Dado uminteiro l ≥ 1 introduzimos o espaço de elemento finito, N l

h = qh ∈ C0(0, 1); qh|K ∈ Pl(K),∀K ∈ Th,onde Pl(K) é o conjunto de polinômios sobre K de grau menor ou igual a l, isto é, N l

h é o espaço defunções polinomiais continuas por partes de grau l. Pela teoria de interpolação, segue que dada umafunção v : (0, T )→ H l+1(0, 1) existe um interpolador vh : (0, T )→ N l

h tal que

‖v(t)− vh(t)‖m ≤ Chl+1−m‖v(t)‖l+1. (11)

O resultado ainda vale para v′(t) e v′′(t) emH l+1(0, 1), ver DOUGLAS e DUPONT (1970). O problemasemi-discreto consiste em encontrar vh : (0, T )→ Nh, para todo wh ∈ Nh tal que

(v′′h, wh

)+µh

(∂vh∂y

,∂wh∂y

)+(a(y, t)

∂vh∂y

,∂wh∂y

)+(b(y, t)

∂v′h∂y

, wh)

+(c(y, t)

∂vh∂y

, wh)

=(g, wh

). (12)

Tomando w = wh em (10) e fazendo a diferença entre os problemas (10) e (12) obtemos(

(v − vh)′′, wh)

+

(µ∂v

∂y− µh

∂vh∂y

,∂wh∂y

)+

(a(y, t)

∂(v − vh)∂y

,∂wh∂y

)

+

(b(y, t)

∂(v − vh)′∂y

, wh

)+

(c(y, t)

∂(v − vh)∂y

, wh

)= 0, ∀wh ∈ Nh.

(13)

Seja a(v, w) forma bilinear em H10 (0, 1) definida por

a(v, w) = µ(t)

(∂v

∂y,∂w

∂y

)+

(a(y, t)

∂v

∂y,∂w

∂y

). (14)

Usando hipóteses (H1) e (H3) concluímos que a(v, w) é contínua e coerciva. Mas, ainda podemos definira projeção ortogonal, denominada projeção de Ritz com respeito a forma bilinear a(., .) da seguinteforma: P : V → Nh onde Pv(t) = vh(t) satisfazendo, a(v(t)− vh(t), wh) = 0, ∀wh ∈ Nh.

Queremos mostrar que a solução aproximada vh(y, t) converge para a solução exata v(y, t) em algumanorma quando h→ 0. Para conseguir a convergência, precisamos da seguinte hipótese para interpolar odado inicial.

(H4) ‖vh(0)− vh(0)‖ ≤ c1h2, |v′h(0)− v′h(0)‖ ≤ c2h

2.

Teorema. Se v é solução do problema (8) com dados iniciais v0 ∈ H10 (0, 1) ∩H2(0, 1), v1 ∈ H1

0 (0, 1),e suponhamos que v ∈ L∞(0, T,H1

0 (0, 1) ∩ H2(0, 1)), v′, v′′ ∈ L∞(0, T,H2(0, 1)) com as hipóteses(H1)− (H4), então existe uma constante positiva C dependente de v e independente de h tal que

|v′ − v′h|L∞(0,T ;L2(0,1)) + h‖v − vh‖L∞(0,T ;H10 (0,1)) ≤ Ch2. (15)

V Simposio de Metodos Numericos Computacionais

430

Demonstração. Seja e(t) = v(t)− vh(t) = (v(t)− vh(t)) + (vh(t)− vh(t)) = ρ(t) + θ(t), onde vh(t) éo interpolante de v(t) em Nh. Somando e subtraindo vh(t) em (13), usando a(ρ(t), wh) = 0, e tomandowh = θ′(t) juntamente com as hipóteses (H1)− (H3) obtemos que

1

2

d

dt|θ′(t)|2 +

1

2µ1d

dt‖θ(t)‖2 +

3m0

8γ1

d

dt‖θ(t)‖2 ≤ γ′

γ|θ′(t)|2 −

(c(y, t)

∂θ

∂y, θ′(t)

)

− (ρ′′, θ′)−(b(y, t)

∂ρ′

∂y, θ′)−(c(y, t)

∂ρ

∂y, θ′)−

([µ− µh

]∂vh∂y

,∂θ′

∂y

).

(16)

Análise do termo não linear. Da desigualdade (16), usando a desigualdade de Schwartz e Young,temos ∣∣∣∣

([µ− µh

]∂vh∂y

,∂θ′

∂y

)∣∣∣∣ ≤ C[‖ρ‖2 + ‖θ‖2] +1

4

d

dt‖θ‖2. (17)

Analogamente podemos limitar os outros termos do lado direito da desigualdade (16) usando a desigual-dade de Schwartz e Young com sobre os coeficientes a(y, t), b(y, t) e c(y, t). Substituindo em (16) eintegrando de 0 a t, obtemos

|θ′(t)|2 + ‖θ(t)‖2 ≤ C(|θ′(0)|2 + ‖θ(0)‖2)

+

∫ t

0

(|θ′(s)|2 + ‖θ(s)‖2 + ‖ρ(s)‖2 + ‖ρ′(s)‖2 + |ρ′′(s)|2

)ds.

(18)

Fixando l = 1 e variando m ∈ 0, 1 em (11) para limitar ρ′′, ρ′ e ρ, juntamente com a hipóteses (H4)temos que

|θ′(t)|2 + ‖θ(t)‖2 ≤ Ch2 +

∫ t

0

[|θ′(s)|2 + ‖θ(s)‖2]ds. (19)

Usando a desigualdade de Gronwall, a integral do lado direito pode ser removida, obtendo-se que

|θ′(t)|2 + ‖θ(t)‖2 ≤ Ch2, ∀t ∈ [0, T ]. (20)

Extraindo a raiz em ambos lados e usando a desigualdade triangular juntamente com (11) concluímosque

|v′ − v′h|L∞(0,T ;L2(0,1)) + h‖v − vh‖L∞(0,T ;H10 (0,1)) ≤ Ch2. (21)

3.2 Problema DiscretoNesta seção faremos a estimativa de erro, ou ordem de convergência na norma discretaL∞(0, T ;L2(0, 1))

para o problema semi-discreto (8), quando o tempo t varia discretamente sobre o intervalo [0, T ] na formatn = n∆t, n = 0, 1, . . . N. Seja vn uma aproximação de v(·, tn), e então a aproximação θ-Newmark(LIU e RINCON,(2011)) é definido por vn+θ = θvn+1 +(1−2θ)vn+θvn−1, onde 0 ≤ θ ≤ 1. Definimos:

vn+ 12 =

1

2

(vn+1 + vn

), δvn+

12 =

1

∆t

(vn+1 − vn

),

δvn =1

2∆t

(vn+1 − vn−1

), δ2vn =

1

(∆t)2

(vn+1 − 2vn + vn−1

).

(22)

Para obter estimativas de erro no tempo discreto, requeremos mais regularidade sobre as derivadas de v

(H5) v′, v′′ ∈ L∞(0, T ;H2(0, 1)), v′′′ ∈ L∞(0, T ;H1(0, 1)) e v′′′′ ∈ L∞(0, T ;L2(0, 1)).

Definimos o esquema discreto baseado no problema semi-discreto (13), dada pela seguinte equação(δ2(vn − vnh), wh

)+

(µn+θ ∂v

n+θ

∂y− µn+θ

h

∂vn+θh

∂y,∂wh∂y

)+

(an+θ ∂(vn+θ − vn+θ

h )

∂y,∂wh∂y

)

+

(bn+θ ∂δ(v − vh)

∂y, wh

)+

(cn+θ ∂(vn+θ − vn+θ

h )

∂y, wh

)= (ϕn, wh), ∀wh ∈ Nh.

(23)

V Simposio de Metodos Numericos Computacionais

431

Teorema. Seja v0 ∈ H10 (0, 1) ∩H2(0, 1), v1 ∈ H1

0 (0, 1) e v ∈ L∞(0, T,H10 (0, 1) ∩H2(0, 1)). Sobre as

hipóteses (H1) − (H5), existe uma constante positiva C dependente de v e independente de h e ∆t talque

|δ(v − vh)|L∞(0,T ;L2(0,1)) + h‖v − vh‖L∞(0,T ;H10 (0,1)) ≤ C(h2 + (∆t)2). (24)

Demonstração. Seja en = vn − vnh = (vn − vnh) + (vnh − vnh) = ρn + ξn, onde vnh é o interpolante de vn

em Nh. Somando e subtraindo vnh em (23), usando a projeção de Ritz a(ρn+θ, wh) = 0, obtemos(δ2ξn, wh

)+

(µn+θh

∂ξn+θ

∂y,∂wh∂y

)+

(an+θ ∂ξ

n+θ

∂y,∂wh∂y

)+

(bn+θ ∂(δξn)

∂y, wh

)

+

(cn+θ ∂ξ

n+θ

∂y, wh

)= −

(bn+θ ∂(δρn)

∂y, wh

)−(cn+θ ∂ρ

n+θ

∂y, wh

)

−([µn+θ − µn+θ

h

]∂vn+θ

∂y,∂wh∂y

)+ (ϕn − δ2ρn, wh)

(25)

ondeϕn = (δ2vn−vn+θtt )+bn+θ ∂

∂y(δvn−vnt ) e δ2vn, δvn são aproximações dos termos (vtt), (vt) no tempo

por diferenças finitas. Tomando, em particular wh =1

2(δξn+1/2 + δξn−1/2) =

1

2∆t(ξn+1− ξn−1) = δξn,

em (25), temos

1

2∆t(3m0

8γ21

+ µ1)

[((ξn, ξn+1))− ((ξn, ξn−1))] + θ

[∥∥ξn+1 − ξn∥∥2 −

∥∥ξn − ξn−1∥∥2]

+1

2∆t

(∣∣δξn+1/2∣∣2 −

∣∣δξn−1/2∣∣2)≤ −

([µn+θ − µn+θ

h

] ∂∂yvn+θh ,

∂y(δξn)

)

−(bn+θ ∂

∂y(δξn), δξn

)− 1

2

(bn+θ ∂(δρn)

∂y, δξn+1/2 + δξn−1/2

)

− 1

2

(cn+θ ∂ρ

n+θ

∂y, δξn+1/2 + δξn−1/2

)− 1

2

(cn+θ ∂

∂yξn+θ, δξn+1/2 + δξn−1/2

)

+ (ϕn − δ2ρn, δξn+1/2 + δξn−1/2) =6∑

i=1

Ii

(26)

Análise do termo não linear: Da desigualdade (26), usando a desigualdade de Cauchy-Schwartz comab ≤ 1

2εa2 + ε

2b2, a, b ≥ 0, ε > 0, temos

|I1| ≤λ

2η∆t(‖ρn+θ‖2 + ‖ξn+θ‖2) +

η

4∆t[‖ξn+1 − ξn‖2 − ‖ξn − ξn−1‖2] (27)

onde λ = λ(vn+θ, vn+θh , γ0, k,m) > 0. Analogamente podemos limitar I2 − I6 pelas hipóteses sobre

os coeficientes an+θ, bn+θ e cn+θ, agora substituindo I1 − I6 na equação (26), multiplicando por 2∆t, esomando de n = 1, . . . , N − 1 juntamente com a desigualdade de Schwarz no termo ((ξ1, ξ0)), obtemos

(3m0

8γ21

+ µ1)[((ξN , ξN−1))

]+[(3m0

8γ21

+ µ1)θ

2

]∥∥ξN − ξN−1∥∥2

+∣∣δξN−1/2

∣∣2 ≤∣∣δξ1/2

∣∣2

+1

2(3m0

8γ21

+ µ1)(‖ξ1‖2 + ‖ξ0‖2) +[(3m0

8γ21

+ µ1)θ

2

]‖ξ1 − ξ0‖2

+N−1∑

n=1

η(‖ρn+θ‖2 + ‖ξn+θ‖2) +

(m0

8

)1/2 ∆t

2γ0

|δξn+1/2 + δξn−1/2|2

+m0∆t

4γ20

|δξn+1/2 + δξn−1/2|‖δρn‖+m0∆t

8γ20

|δξn+1/2 + δξn−1/2|‖ρn+θ‖

+m0∆t

8γ20

|δξn+1/2 + δξn−1/2|‖ξn+θ‖+ 2∆t|ϕn||δξn+1/2 + δξn−1/2|

+ 2∆t|δ2ρn||δξn+1/2 + δξn−1/2|].

(28)

V Simposio de Metodos Numericos Computacionais

432

Da desigualdade ab ≤ 12εa2 + ε

2b2, a, b ≥ 0, ε > 0, e ((ξN , ξN−1)) = 1

4

[‖ξN + ξN−1‖2 + ‖ξN − ξN−1‖2

]

temos

1

4‖ξN + ξN−1‖2 +

(θ − 1

4

)∥∥ξN − ξN−1∥∥2

+

(1− C∆tε

(λ+

m0

4γ20

+ (m0

8γ20

)1/2))∣∣δξN−1/2

∣∣2

≤ C

[χ2

0 +N−1∑

n=1

λ

η(‖ρn+θ‖2 + ‖ξn+θ‖2) +

(∆tε

(λ+

m0

4γ20

+ (m0

8γ20

)1/2))|δξn−1/2|2

+m0∆t

16γ20ε

(‖ρn+θ‖2 + ‖ξn+θ‖2) +∆t

ε|ϕn|2 +

∆t

ε|δ2ρn|2 +

m0∆t

8γ20ε‖δρn‖2

](29)

onde C é uma constante positiva e χ20 ≤ ch4. Tomando ε < 1

C∆t[(λ+m04γ20

+(m08γ20

)1/2)]e θ > 1

4então podemos

segurar que o segundo e o terceiro termo do lado esquerdo de (29) são positivos. Denotando por C4 =

min1− C[ε(λ+ m0

4γ20+ (m0

8γ20)1/2)∆t], 1

4, θ− 1

4 e C5 = C

C4max1

ε, ε(3λ+ m0

4γ20

12

+ (m0

2)1/2 1

γ0), m0

8γ20, ( λ

2ε+

m0

16εγ0), então da desigualdade (29) obtêm-se que

‖ξN + ξN−1‖2 +∥∥ξN − ξN−1

∥∥2+∣∣δξN−1/2

∣∣2 ≤ C5

[χ2

0 +N−1∑

n=1

∆t|δξn−1/2|

+ ∆t(‖ρn+θ‖2 + ‖ξn+θ‖2) + ∆t|ϕn|2 + ∆t|δ2ρn|2 + ∆t‖δρn‖2

].

(30)

Fixando l = 1 e variando m ∈ 0, 1 em (11) para limitar ρ′′, ρ′ e ρ, juntamente com (H4) e expansãode Taylor, temos que

‖ξN + ξN−1‖2 +∥∥ξN − ξN−1

∥∥2+∣∣δξN−1/2

∣∣2 ≤ C5

[h4 + h2(‖v‖2

2 + ‖v′‖22) + h4‖v′′‖2

2

+ (∆t)4(|v′′′|2 + |v′′′′|2) + ∆tN−1∑

n=1

(‖ξn + ξn−1‖2 +

∥∥ξn − ξn−1∥∥2

+∣∣δξn−1/2

∣∣2)].

(31)

Então podemos aplicar o Lema de Gronwall em (31) e usando a equivalência de normas em espaços dedimensão finita, podemos extrair a raiz quadrada para obter,

max1≤N≤T

h∥∥ξN

∥∥+∣∣δξN−1/2

∣∣ ≤ C(h2 + (∆t)2). (32)

Assim pela definição de norma e usando a desigualdade triangular juntamente com (11) concluímos que

h‖v − vh‖L∞(0,T ;H10 (0,1)) + |δ(v − vh)|L∞(0,T ;L2(0,1)) ≤ C(h2 + (∆t)2). (33)

Analogamente como no problema (8), precisamos da seguinte hipótese adicional para interpolar os dadosiniciais do problema (4) isto é

(H6) ‖uh(0)− uh(0)‖ ≤ ch2; |u′h(0)− u′h(0)| ≤ ch2.

Teorema. Sejam It = (α(t), β(t)) e I0 = (α(0), β(0)). Se u é soluções do problema (4) com dadosiniciais u0 ∈ H1

0 (I0) ∩H2(I0), u1 ∈ H10 (I0), e suponhamos que u ∈ L∞(0, T,H1

0 (It) ∩H2(It)) com ashipóteses (H1)− (H4), então existe uma constante positiva C dependente de u e independente de h talque

|u′ − u′h|L∞(0,T ;L2(It)) + h‖u− uh‖L∞(0,T ;H10 (It)) ≤ Ch2. (34)

Demonstração. Usando a mudança de variáveis τ definida em (5), temos que a estimativa de erro dev(y, t) dada em (21) implica a estimativa de erro de u(x, t) em (34).

V Simposio de Metodos Numericos Computacionais

433

4 RESULTADOS NUMÉRICOS

Exemplo 1. Consideremos um problema com uma solução exata desconhecida, que nos permi-tira calcular o erro e confirmar numericamente a taxa de convergência, considere o problema (4) emQ com α(t) = −t

t+1, β(t) = 2t+1

t+1, τ0m

= 10, km

= 5,m0 = 5 e f(x, t) escolhida tal que u(x, t) =

sen(6πν)sen(0, 25πt) é a solução exata, onde ν = (t+1)x+t(3t+1)

. A posição e velocidade inicial são dadaspor u0(x) = 0 e u1(x) = 0, 25πsen(6πx). Assim o erro de aproximação é apresentado na tabela 1 paraθ = 0, 5 e na tabela 2 para θ = 0, 75.

malha EL∞(0,T ;L2(0,1)) taxa10× 10 0,072831 -20× 20 0,016720 2,1240× 40 0,003457 2,2780× 80 0,000779 2,12

Tabela 1: Erro e taxa para o exemplo 1.

malha EL∞(0,T ;L2(0,1)) taxa10× 10 0,084821 -20× 20 0,018332 2,2140× 40 0,003858 2,2480× 80 0,000877 2,13

Tabela 2: Erro e taxa para o exemplo 1.

Exemplo 2. Considere o problema (4) em Q com α(t), β(t),m,m0, k e τ0 como no Exemplo 1e seja f(x, t) escolhida tal que u(x, t) = 1

π2 sen(6πν)cos(πt) é a solução exata do problema, ondeν = (t+1)x+t

(3t+1). A posição e velocidade inicial são dadas por u0(x) = 1

π2 sen(6πx) e u1(x) = 0. Assim oerro de aproximação é apresentado na tabela 3 para θ = 0, 5 e na tabela 4 para θ = 0, 75.

malha EL∞(0,T ;L2(0,1)) taxa10× 10 0,020639 -20× 20 0,005703 1,8540× 40 0,001398 2,0280× 80 0,000365 1,93

Tabela 3: Erro e taxa para o exemplo 2.

malha EL∞(0,T ;L2(0,1)) taxa10× 10 0,026657 -20× 20 0,006825 1,9640× 40 0,001949 1,8080× 80 0,000502 1,95

Tabela 4: Erro e taxa para o exemplo 2.

5 CONCLUSÕES

Observamos que nos resultados numéricos obtivemos um decaimento de erro de ordem aproximada-mente quadrática, assim como no resultado analítico. E ainda mais, quanto menor o θ do Método deNewmark, menor o erro.

Num próximo trabalho apresentaremos graficamente o comportamento da solução numérica uh(x, t)ao longo do domínio não cilíndrico Q testando diversos comportamentos na fronteira e outras condiçõesiniciais. Além disso se mostrará que a taxa de convergência no espaço L∞(0, T ;H1

0 (0, 1)) será de ordemum.

REFERÊNCIAS

CIARLET P. The finite element method for elliptic problems. North Holland, Amsterdam, 1978.DOUGLAS J. and DUPONT T. Galerkin methods for parabolic equations. Journal on Numerical

Analysis, 7:575–626, 1970.KIRCHHOFF G. Vorlesungen uber Mathematiche Physik. Tauber, Leipzig, 1883.LIU I. and RINCON M. Introdução ao método de elementos finitos. IM,UFRJ, 2011.MEDEIROS L. LIMACO J. and MENEZES S. Vibrations of elastic strings. Journal of Computer

Analysis and Applications, 4:91–127, 2002.

V Simposio de Metodos Numericos Computacionais

434

Indice Remissivo

Etore Funchal de Faria, 76

Ademir Alves Ribeiro, 2, 227Adilandri Mercio Lobeiro, 153Adriana Camila Braga, 2Adriano Rodrigues de Melo, 9Adriano Vitor, 15Aline Kieskoski, 22Andre Luıs Machado Martinez, 110Andre Luiz Emidio de Abreu, 29Anselmo Chaves Neto, 29, 96, 123, 275, 360, 374, 389Antonio Carlos Nogueira, 367Arinei Carlos Lindbeck da Silva, 261, 332Aurelio Ribeiro Leite Oliveira, 43, 220

Cassius Tadeu Scarpin, 70, 201, 268Caue Barros Guimaraes, 36Cecilia Orellana Castro, 43Cesar Augustus Assis Beneti, 298Christian Wendt, 145Claudio Neumann Junior, 360Claudio Neumann Junior, 374

Daniel Almeida Colombo, 292Daniel Gregorio Alfaro Vigo, 180David Amundsen, 180Diego Addan Goncalves, 50Diego Felipe Capraro, 56Dione Ines Christ Milani, 63Dirceu Scaldelai, 15Djamila Ouelhadj, 396Douglas Mota Dias, 421Dylan Jones, 396

Edgar Manuel Carreno Franco, 123, 187Edgar Manuel Carreno Franco , 332Edson Hideki Koroishi, 194, 292, 307Eduardo Todt, 50Eliete Nascimento Pereira, 70Eloy Kaviski, 9, 117, 145, 153, 382Emerson V Castelani , 110Erik Taketa, 292, 307Everton Luis Garcia, 382

Fabio Andre Negri Balbo, 117Fabian Andres Lara-Molina, 194, 307Fabiana Frata Furlan Peres, 76Fernando Mucio Bando, 82Francielly Elizabeth de Castro Silva, 131Francisco Antonio Romero Gesualdo, 408

Gabriela Wessling Oening Dicati, 89, 160Geraldo Carvalho Brito Junior, 96Gerson Ulbricht, 103

Gizelli Renata Mendes, 110Guilherme Augusto Pianezzer, 117

Haroldo Valentin Ribeiro, 2Helenice de Oliveira Florentino Silva, 396

Jederson da Silva, 89, 131Julio Cesar Royer, 187Jair Mendes Marques, 36, 82, 325Jairo Marlon Correa, 123Joao do Carmo Lopes Goncalves, 131Joao Furtado Resende, 138Joao Maria Marra, 145Jocelaine Cargnelutti, 153Jorge Kazuo Yamamoto, 63Jose Eduardo Gubaua, 89, 160Josiele Patias, 63, 82, 389Josue Ervin Musial, 167Joyce Rodrigues da Silva, 174Jucelio Tomas Pereira, 89, 131, 160Juliana Castanon Xavier, 180

Karina Assolari Takano, 194Kellen Dayelle Endler, 201Klaus de Geus, 313

Liliana Madalena Gramani, 9, 117, 145, 153, 382Lucas Peres de Souza, 206Luis Antonio Sucapuca Aracayo, 382Luiz Albino Teixeira Junior, 70, 123, 187, 332, 389Luiz Albino Teixeira Junior, 82Luiz Antonio Farani de Souza, 213Luzia Vidal de Souza, 15

Manoel Messias Alvino de Jesus, 2Manolo Rodriguez Heredia, 220Marco Andre Argenta, 56, 206, 354Marco Aurelio Cavalcanti Pacheco, 421Marcos Arndt, 241, 285, 402Marcos Roberto Bombacini, 227Maria Teresinha Arns Steiner, 201Mariana Prado Reina, 340Marlon Ferreira Corsi e Carlos Andres Reyna Vera-Tudela,

235Mateus Rauen, 241Mauro Antonio Rincon, 180, 428Michael Mannich, 138Michely Castro dos Santos, 247Miguel Diogenes Matrakas, 254Monica Beltrami, 261

Natanael Peixoto Quintino, 428Nathalia Cristina Ortiz da Silva, 268Nayane Thais Krespi Musial, 275

435

V Simposio de Metodos Numericos Computacionais

Neida Maria Patias Volpi, 22, 63, 103, 396Neida Volpi, 347

Paulo de O Weinhardt, 402Paulo de Oliveira Weinhardt, 285Paulo Henrique Siqueira, 15, 167Paulo Justiniano Ribeiro Junior, 415

Rafael Morais Souza, 332Renan Franco Correa, 292Renan Henrique Luz Seluzniak, 298Rennan Otavio Kanashiro, 307Ricardo Cesar Ribeiro dos Santos, 313Roberto Dalledone Machado, 96, 241, 285, 318, 402Rodnny Jesus Mendoza Fakhye, 318Rosangela Aparecida Botinha Assumpcao, 63Rosilei de Souza Novak, 325

Sergio Scheer, 76Samuel Bellido Rodrigues, 332Samuel Conceicao Oliveira, 340Sander Joner, 347Sara de Godoy Bueno, 354Sergio Scheer, 254, 298Sheila Regina Oro, 360, 374Sheilly Raquelly Prado de Paula, 367Suellen Ribeiro Pardo Garcia, 360, 374

Tasia Hickmann, 382Tereza Rachel Mafioleti, 360, 374, 389Thalita Monteiro Obal, 396Thamara Petroli, 402Thiago Damasceno Silva, 408Tiago Martinuzzi Buriol, 298

Ubirata Tortato, 36

Vanderlei Galina, 153Vanessa Ferreira Sehaber, 367, 415Vania Gryczak Gevert, 396Volmir Eugenio Wilhelm, 187, 396

Waldir Jesus de Araujo Lobao, 421Wilman Rodas Huarcaya, 428

436

Realizacao:

Apoio: