estudo da variabilidade dos instrumentos instalados em ...€¦ · xxx - seminÁrio nacional de...

17
COMITÊ BRASILEIRO DE BARRAGENS XXX - SEMINÁRIO NACIONAL DE GRANDES BARRAGENS FOZ DO IGUAÇU PR, 12 A 14 DE MAIO DE 2015 RESERVADO AO CBDB XXVI Seminário Nacional de Grandes Barragens 1 Estudo da Variabilidade dos Instrumentos Instalados em Blocos Chave da Barragem de ITAIPU para Determinação de Modos de Falha Orlando Catarino Da SILVA Doutorando PPGMNE/UFPR. Cleverson Gonçalves Dos SANTOS Doutorando PPGMNE/UFPR. Jair Marques MENDES Prof. Doutor PPGMNE/UFPR Cassius Tadeu SCARPIN Prof. Doutor PPGMNE/UFPR. RESUMO Um plano de instrumentação detalhado é uma das formas de verificar as reais condições de segurança apresentadas por uma estrutura. Nesse trabalho serão aplicadas as técnicas da análise fatorial em uma matriz gerada a partir das leituras dos instrumentos instalados num bloco chave da barragem. Nosso objetivo é identificar os instrumentos que são altamente correlacionados além de calcular os fatores latentes que podem estar associados a algumas anomalias na estrutura, como o tombamento e o deslizamento. A partir desses resultados testes de normalidade serão aplicados nos escores fatoriais e como a condição de normalidade dos dados é muitas vezes exigida para aplicação de técnicas de inferência estatística, se comprovada, os resultados obtidos serão utilizados futuramente como a base para a determinação de uma função de desempenho para a análise de confiabilidade estrutural, assumindo a estrutura do bloco com um sistema altamente interligado. ABSTRACT A detailed plan of instrumentation is one way to verify the actual conditions of safety presented by a structure. In this paper the techniques of factor analysis on a matrix generated from the readings of the instruments installed in one block of the dam are applied. Our goal is to identify the instruments that are highly correlated and calculates the latent factors that may be associated with some anomalies in the structure, such as tipping and sliding. From these results of normality tests will be applied to the factor scores and how the condition of normality of the data is often required for application of techniques of statistical inference, if proven, the results will be used in the future as the basis for the determination of a function performance for the analysis of structural reliability, assuming the structure of the block with a highly interconnected system.

Upload: lybao

Post on 22-Apr-2018

214 views

Category:

Documents


1 download

TRANSCRIPT

COMITÊ BRASILEIRO DE BARRAGENS XXX - SEMINÁRIO NACIONAL DE GRANDES BARRAGENS FOZ DO IGUAÇU – PR, 12 A 14 DE MAIO DE 2015 RESERVADO AO CBDB

XXVI Seminário Nacional de Grandes Barragens 1

Estudo da Variabilidade dos Instrumentos Instalados em Blocos Chave da Barragem de ITAIPU para Determinação de Modos de Falha

Orlando Catarino Da SILVA

Doutorando – PPGMNE/UFPR.

Cleverson Gonçalves Dos SANTOS Doutorando – PPGMNE/UFPR.

Jair Marques MENDES

Prof. Doutor – PPGMNE/UFPR

Cassius Tadeu SCARPIN Prof. Doutor – PPGMNE/UFPR.

RESUMO

Um plano de instrumentação detalhado é uma das formas de verificar as reais condições de segurança apresentadas por uma estrutura. Nesse trabalho serão aplicadas as técnicas da análise fatorial em uma matriz gerada a partir das leituras dos instrumentos instalados num bloco chave da barragem. Nosso objetivo é identificar os instrumentos que são altamente correlacionados além de calcular os fatores latentes que podem estar associados a algumas anomalias na estrutura, como o tombamento e o deslizamento. A partir desses resultados testes de normalidade serão aplicados nos escores fatoriais e como a condição de normalidade dos dados é muitas vezes exigida para aplicação de técnicas de inferência estatística, se comprovada, os resultados obtidos serão utilizados futuramente como a base para a determinação de uma função de desempenho para a análise de confiabilidade estrutural, assumindo a estrutura do bloco com um sistema altamente interligado.

ABSTRACT A detailed plan of instrumentation is one way to verify the actual conditions of safety presented by a structure. In this paper the techniques of factor analysis on a matrix generated from the readings of the instruments installed in one block of the dam are applied. Our goal is to identify the instruments that are highly correlated and calculates the latent factors that may be associated with some anomalies in the structure, such as tipping and sliding. From these results of normality tests will be applied to the factor scores and how the condition of normality of the data is often required for application of techniques of statistical inference, if proven, the results will be used in the future as the basis for the determination of a function performance for the analysis of structural reliability, assuming the structure of the block with a highly interconnected system.

XXVI Seminário Nacional de Grandes Barragens 2

1. INTRODUÇÃO A segurança das barragens constitui uma preocupação permanente para as entidades governamentais, tanto por sua importância econômica específica como pelo risco potencial que representa a possibilidade de ruptura ou outro acidente grave, em termos de vidas humanas, impacto ao meio ambiente, prejuízos materiais e os reflexos econômico-financeiros [1].

Considerando o risco, embora remoto, as barragens requerem muita vigilância. No mundo todo a segurança de barragens é um assunto muito discutido, e o Brasil mostra-se preocupado com a "saúde" de suas barragens.

Segundo [2] o sinal de alerta veio com o rompimento da barragem de Algodões, no Piauí, em 2009.

Em outubro de 2002, o banco mundial publicou o livro (Regulatory frameworks for dam safety), contendo modelo de regulamento, operação, manutenção e inspeção de barragens. Neste documento, o significado de segurança de barragens engloba fatores que contribuem para a operação com segurança da estrutura e obras complementares, o risco potencial para a vida humana, aspectos sanitários e de saúde pública, danos a propriedades e proteção da área no entorno do reservatório. A segurança tem a ver com a operação adequada, manutenção, inspeção e planos de emergência para lidar com situações de risco ao meio ambiente, assim como definição das medidas mitigadoras dos impactos ambientais.

Segundo estimativas, no Brasil existem cerca de 300 mil barragens de importância econômica vital, em termos de abastecimento de água, geração de energia, e apoio à indústria e mineração. A Agência Nacional de Águas do Brasil (ANA) estimou que cerca de 200 barragens pudesse estar em perigo de fracassar [3].

O 3° Simpósio de segurança de barragens realizado nos dias 18 e 19 de novembro de 2008 em Salvador tiveram como tema principal "Barragens Contemporâneas: Conhecimento, Durabilidade, Riscos e Falhas". Nesse evento foi discutido os acidentes ocorridos em barragens nos últimos 50 anos, fato que ocasionou na busca de providências como elaboração de manuais de inspeção e segurança, análises refinadas por processos computacionais, uso de sistemas remotos de auscultação, análises de riscos e implementação de planos emergenciais.

Em 20 de setembro de 2010 entra em vigor [4] que estabelece a Política Nacional de Segurança de Barragens destinadas à acumulação de água para quaisquer usos, à disposição final ou temporária de rejeitos e à acumulação de resíduos industriais, e cria o Sistema Nacional de Informações sobre Segurança de Barragens (PNSB).

No art. 2° item III dessa lei a segurança de barragens é definida como sendo a providência de condições que visam manter a sua integridade estrutural e operacional e a preservação da vida, da saúde, da propriedade e do meio ambiente.

Em seguida veio [5] que estabelece diretrizes para implantação da política nacional de segurança de barragens, aplicação de seus instrumentos e atuação do sistema nacional de informação sobre segurança de barragens.

Diante de normas que visam o controle da segurança de barragens, neste artigo é proposto um estudo da variabilidade dos blocos chaves da barragem de que possibilite identificar os modos de falha dominantes, através das leituras dos instrumentos instalados nestes blocos. Para realizar essa tarefa com maior

XXVI Seminário Nacional de Grandes Barragens 3

eficiência, é necessário um planejamento para coleta dos dados em conjunto com técnicas de mineração dos dados. Isso pode garantir maior eficiência na aplicação dos métodos estatísticos da análise multivariada que é sugerido.

2. SEGURANÇA DE BARRAGENS

Uma barragem é uma estrutura construída no caminho das águas e destinada a retê-la para os mais diversos fins, como abastecimento de água, energia hidroelétrica, irrigação, controle das enchentes e da erosão, canalização dos rios, turismo e etc [6].

As barragens podem ser classificadas em barragens de concreto e barragens de aterro. As barragens de aterro são construídas de material pouco resistente quando comparadas com as de concreto, sendo comuns as barragens de terra e barragens de enrocamento. Cada um desses tipos de barragens tem características de construção diferentes, solicitações diversas e desempenho distintos [6].

De acordo com [7] o objetivo fundamental da segurança de barragens é proteger as pessoas, os bens e o ambiente do prejudicial efeito da falha de operação ou falha de barragens e reservatórios, e, além disso, o objetivo de proteger pessoas, bens e o ambiente contra os efeitos da falha da represa tem que ser alcançado sem limitar indevidamente os benefícios criados pela operação de barragens e reservatórios. Para alcançar os mais altos padrões de segurança que podem ser razoavelmente atingidos, devem ser tomadas medidas para:

1. Controlar a liberação de descargas prejudiciais à jusante da barragem através de controles embutidos no regime de funcionamento normal da barragem;

2. Restringir a probabilidade de eventos que podem levar a uma perda de controle sobre o volume de armazenado do vertedouro e outras descargas;

3. Através de medidas preventivas detectarem locais de possíveis acidentes, mediando às consequências de tais eventos antes que eles ocorram, possibilitando medidas emergências satisfatórias.

Portanto, quando são realizados todos os mecanismos de segurança de barragens, implica que foram tomadas todas as medidas razoavelmente práticas para evitar falha, e, para mitigar as consequências, devendo ocorrer um alto nível de confiança de que a probabilidade de eventos com potencial para causar sérios danos é extremamente baixa e um alto nível de confiança de que, se ocorrer algum evento de falha as consequências adversas serão extremamente baixas.

O problema então consiste em determinar formas de avaliar essas incertezas. Na avaliação de risco de falha de uma barragem várias forças estão atuando na estrutura algumas forças com funções estabilizadoras e outras desestabilizadoras, tais forças podem provocar anomalias na estrutura. Diante disso, um sistema de monitoramento deve ser implantado logo no início da construção da barragem, possibilitando o acompanhamento do comportamento da estrutura.

O trabalho apresentada por [8] apresentou-se uma metodologia enquadrada

no contexto KDD "Descoberta de Conhecimento em Bases de Dados", que possibilitou a hierarquização dos instrumentos para automatização por suas importâncias. Não obstante, com o desenvolvimento dos computadores nos últimos anos, as técnicas de estatísticas multivariadas e confiabilidade estrutural ganharam força e estão sendo amplamente aplicadas.

Segundo [9] a avaliação de confiabilidade de um sistema é complexa, pois depende de muitos fatores como, contribuição da falha dos componentes na falha do sistema, redundância da falha no sistema, comportamento de uma componente

XXVI Seminário Nacional de Grandes Barragens 4

ou de todo o sistema após uma falha e correlações estatísticas entre os eventos de falha progressiva de componentes. 2.1 INSTRUMENTAÇÃO A instrumentação refere-se ao conjunto de dispositivos instalados nas estruturas e em suas fundações, objetivando monitorar seu desempenho através de medições de parâmetros, cujos resultados, devidamente analisados e interpretados, servirão para avaliar suas condições de segurança [1].

O sistema de instrumentação faz-se através de um plano de instrumentação que consiste em um projeto de instrumentação obtido, primeiramente, através dos resultados do estudo detalhado das características geológico-geotécnicas da região e do entorno onde estará locada a barragem, através do qual são definidas seções e blocos "chaves" a serem observados e instrumentados [10]. Blocos chaves são seções representativas do comportamento típico de um determinado trecho da barragem, levando-se em consideração basicamente o tipo de fundação e as características geométricas da estrutura, que recebem uma instrumentação mais completa [11]. As grandezas a serem medidas são basicamente as seguintes: subpressões na fundação, deslocamentos na fundação, deslocamentos da barragem, tensões internas e vazões de infiltração. Para as barragens de concreto, a observação das temperaturas máximas do concreto, em decorrência do calor de hidratação do cimento e da possibilidade de ocorrerem fissuras de origem térmica, é também de grande importância [11].

Em Itaipu foram instalados mais de 2000 instrumentos, 90% dos quais considerados permanentes. Após oito anos de operação do empreendimento, a maioria dos instrumentos está funcionando ou em condições de uso [12].

Alguns dos instrumentos instalados, e suas funções, que fazem parte do sistema de monitoramento da barragem de ITAIPU são:

Piezômetros para medir a pressão dos poros e a subpressão hidráulica em juntas ou contatos escolhidos no maciço rochoso ou no contato barragem-fundação;

Furos de drenagem para medição de percolação total e da subpressão a jusante da cortina de injeção principal;

Extensômetros múltiplos para medição das deformações totais e diferenciais, tanto na direção vertical como na horizontal, das fundações em relação às estruturas.

Piezômetros para medir a pressão dos poros no núcleo e no contato núcleo-fundação;

Pêndulos diretos e invertidos para medir os deslocamentos horizontais das estruturas de concretos como também das deformações horizontais absolutas da rocha de fundação e da estrutura acima dela;

Marcos e alvos topográficos para medir os deslocamentos horizontais da crista da barragem em relação às linhas de referências entre marcos situado nas margens em locais afastados e não afetado pelos recalques;

Bases e pinos, instalados na superfície através das juntas de contração e nas fissuras que ocorreram em alguns blocos de contrafortes, para medição das aberturas com medidor de juntas removível;

Medidores de juntas embutidos, instalados através das juntas de contração, para medição das aberturas antes e depois da injeção.

XXVI Seminário Nacional de Grandes Barragens 5

Termômetros embutidos no concreto para medição da temperatura durante a construção e operação.

Uma correlação entre os tipos de instrumentos usualmente empregados na ascultação de barragens, conjuntamente com as inspeções visuais e os principais tipos de deterioração é apresentada em [11].

FIGURA 1: Instrumentação de Barragens de Concreto

Fonte: Fread - 1988

Na Figura 1 vemos que muitos instrumentos tem a mesma finalidade,

monitorando uma mesma anomalia. Por exemplo, de acordo com esse quadro se um Recalque Diferencia estiver ocorrendo, o mesmo deverá ser detectado pelos pendulos diretos, clinometros, medidores de junta e os extensômetros. Caso ocorra uma Distensão a Montante, a percepção se dará através dos tensômetros, Deformimetros, extensômetro e piezometros. Essa propriedade apresentada pelos instrumentos é utilizada adiante para justificar o monitoramento através dos Fatores, e dos Escores Fatoriais. 2.2 MONITORAMENTO Segundo [13] leituras dos instrumentos de uma barragem devem ser realizadas por equipes de bom nível técnico e treinadas para tal, visto que a precisão dos dados obtidos estará diretamente condicionada à qualidade e cuidado dos leituristas. Estes deverão receber treinamento apropriado, e serem periodicamente motivados através de palestras e conferências; além disso, é importante que as medições sejam realizadas sempre pelos mesmos leituristas, para manter-se os erros sistemáticos sob controle e, também, para que os mesmos atuem como os primeiros inspetores visuais, informando imediatamente aos seus superiores quaisquer observações encontradas que possam ser indícios de comportamento anômalo das estruturas.

XXVI Seminário Nacional de Grandes Barragens 6

De acordo com [14] (Aproveitamento Hidrelétrico de Itaipu), as frequências de leituras dos instrumentos já sofreram várias alterações ao longo das diversas fases do projeto (instalação, construção, enchimento, 1° ano de operação e operação subsequente), de acordo com as necessidades inerentes a cada uma destas etapas.

Esse relatório propôs novas medidas de leituras, tomando como base os boletins n°41 e n°68 do ICOLD, os quais tratam desse assunto. Afirma também que as leituras adotadas nos Estados Unidos coincidem com as que estão sendo adotadas atualmente em ITAIPU, tendo até uma frequência maior de leituras (mais rigorosa) nos casos dos piezômetros, drenos e medidores de vazão, para os quais são especificadas leituras semanais enquanto para a ITAIPU é recomendado uma frequência quinzenal.

Existe hoje com a melhoria das técnicas de mineração de dados, uma preocupação na forma que os dados são coletados e armazenados, com o objetivo de garantir a robustez dessas informações, proporcionando a melhor interpretação do conhecimento.

No trabalho realizado por [15], a finalidade da pesquisa era identificar o efeito da variação diária da temperatura do ar na resposta estrutural de uma barragem de concreto, cujo objetivo era obter um melhor conhecimento sobre o comportamento estrutural da barragem, condição que a maior parte dos modelos ignoravam como uma variação diária. O procedimento apresentado pemitiu a detecção precoce de anomalias através da análise dos efeitos diários da temperatura do ar sobre o comportamento da barragem.

Em geral sistemas de monitoramento de grandes barragens são geralmente baseadas em ambas as condições de contorno (temperatura, precipitação, nível de água, etc) e as respostas estruturais (deslocamentos, rotações, pressão de poros, etc) [16]. Esse trabalho Utilizou amplamente as ferramentas de análse estatísticas para comparar a resposta da corrente da barragem para uma série de dados armazenados, a fim de destacar em tempo hábil eventuais comportamentos indesejados.

A análise estrutural deve usar métodos adequados para atingir o seu efeito final. Esses métodos devem ser capazes de, (i) modelar as características geométricas e físicas da estrutura, em particular, as descontinuidades e articulações, (ii) modelar as cargas de uma maneira integrada, tendo em conta a interação entre os fenômenos importantes envolvidos, e (iii) avaliar o comportamento não-linear, em particular permitindo a definição de mecanismos de falha [17].

Segundo [18] um percentual significativo de barragens de concreto existentes, em especial na Europa e na América do Norte, depois de uma vida de várias décadas de serviço, apresenta algum tipo de deterioração, justificando mais esforços de pesquisa dedicados a análise de diagnóstico de grandes barragens de concreto, com o objetivo de criar novas metodologias aptas a identificar os locais de possíveis danos estruturais.

3. TRATAMENTO DOS DADOS

Um plano de instrumentação, sem a correspondente análise periódica e interpretação sistemática dos resultados, é inútil, ou mesmo nocivo, na medida em que pode causar uma falsa impressão de segurança em relação ao empreendimento [1].

XXVI Seminário Nacional de Grandes Barragens 7

Neste artigo será propostos uma metodologia que busca um tratamento para obter inferências sobre os dados coletados em um bloco chave de uma barragem de concreto, considerando os dados dos instrumentos coletados ao longo de um período 13 anos, compreendidos entre 2000 a 20013. Os dados foram coletados seguindo as normas de segurança adotadas pelo proprietário da barragem. Por outro lado, se espera uma grande melhoria nos resultados, se for incorporada novas estratégias para as coletas de dados, isto é, seguir rigorosamente um planejamento tático de coleta de dados, onde serão considerados espaçamentos e horários pré-determinados.

A Descoberta do Conhecimento em Banco de Dados (Knowledge Discovery in Databases - KDD) é um processo não trivial de identificar padrões de dados válidos, novos, potencialmente úteis e desconhecidos em grandes bancos de dados [19].

A principal etapa da KDD é a mineração de dados (MD), que se trata de uma metodologia que combina métodos tradicionais de análise de dados com algoritmos sofisticados para processar grandes massas de dados. A mineração de dados, devido ao seu procedimento científico, identifica todas as possibilidades de correlações existentes nas fontes de dados, diferente das análises tradicionais [20].

A Análise Multivariada é uma ferramenta estatística que faz uso de técnicas de mineração de dados, através de um conjunto de métodos estatísticos torna possível a análise simultânea de medidas múltiplas para cada indivíduo, objeto ou fenômeno observado. Desse modo, os métodos que permitem a análise simultânea de mais de duas variáveis podem ser considerados como integrantes da análise multivariada. Essa análise requer testes de suposições para as variáveis separadas e em conjunto. As principais suposições a serem testadas são: 1. Normalidade; 2. Homoscedasticidade; 3. Linearidade.

A suposição de normalidade é a mais comum, a qual se refere à forma da distribuição de dados para uma variável quantitativa individual e sua correspondência com a distribuição normal, que representa um padrão de referência para métodos estatísticos [21].

O teste mais simples é uma verificação visual do histograma, comparando os valores de dados observados com uma distribuição aproximadamente normal. Testes de normalidade mais utilizados são: testes de Komogorov-Smirnov, Jarque-Bera e Shapiro-Wilks.

Análise multivariada também pode ser definida como um conjunto de técnicas estatísticas que tratam dos dados correspondentes às medidas de muitas variáveis simultaneamente. Basicamente, consiste no estudo estatístico dos problemas relacionados com: 1. Inferência sobre médias multivariadas; 2. Análise da estrutura de covariância de uma matriz de dados; 3. Técnicas de reconhecimento de padrão, classificação e agrupamento.

Por esse motivo a análise multivariada foi escolhida para fazer o tratamento dos dados coletados dos instrumentos do bloco chave. Pretende-se com esta técnica classificar e agrupar os instrumentos em grupos, de forma a reduzir o número de variáveis na análise, para facilitar a associação desses grupos com as possíveis anomalias que um bloco de concreto possa sofrer. A análise multivariada também é dividida em técnicas para processamento de dados, para nosso propósito é utilizada a Análise Fatorial.

XXVI Seminário Nacional de Grandes Barragens 8

A Análise Fatorial (AF) é uma técnica estatística que busca, através da avaliação de um conjunto de variáveis, a identificação de dimensões de variabilidade comuns existentes em um conjunto de fenômenos, o intuito é desvendar estruturas existentes, mas que não observáveis diretamente. Cada uma dessas dimensões de variabilidade comum recebe o nome de Fator.

Encontra-se na literatura aplicações em várias áreas para a análise fatorial, [22] utiliza-se da análise fatorial para a identificação do constructo essencial dos dados. [23] concorda que se utilize a análise fatorial nas seguintes circunstâncias: 1. Identificação das dimensões latentes ou fatores que expliquem as correlações entre um conjunto de variáveis; 2. Identificar um conjunto novo, menor, de variáveis não correlacionadas para substituir o conjunto de variáveis correlacionadas; 3. Identificação, em um conjunto maior, de um conjunto menor de variáveis que se destacam para uso em uma análise multivariada subsequente. Uma descrição completa do método para realizar uma análise fatorial dos dados é encontrada em [21] e [24].

4. CARACTERIZAÇÃO DO PROBLEMA

Os dados das leituras dos instrumentos podem revelar informações importantes sobre a estrutura da barragem, as quais se pretende utilizar futuramente, em conjunto com as técnicas de confiabilidade estrutural, para substituir as variáveis aleatórias físicas comumente utilizadas nessa análise, como as forças hidrostáticas, coeficientes de atrito, resistência do concreto e peso do bloco.

O estudo encontra-se focado num bloco chave da barragem de Itaipu, do qual os dados dos instrumentos estão disponíveis em um bando de dados. Este banco de dados é formado pelos dados de cada um dos instrumentos instalados no bloco e contém 30 anos de informação, foi utilizado um período de 2000 a 2013, onde foram coletados dados de 52 instrumentos.

A quantidade de leituras realizadas em cada instrumento do bloco depende da natureza do instrumento e da sua localização, de acordo com o sistema de monitoramento atualmente implantado na barragem de Itaipu. Assim, existem instrumentos com leituras semanais, quinzenais, mensais e para alguns a leitura é realizada de forma trimestral.

Para realizar a análise dos dados, uma padronização foi realizada, escolheu-se um representante para cada mês, ou seja, para os instrumentos que possuíam mais de uma leitura mensal, foram calculadas as médias, para os que possuíam leituras trimestrais, utilizou-se uma técnica de interpolação Spline cúbica para obter um representante mensal dos meses do qual a leitura não ocorreu.

Para realizar a análise fatorial nos dados, antes é necessário a confirmação de alguns testes estatísticos, para garantir a significância do método. 4.1 TESTES ESTATÍSTICOS

Para iniciar a análise fatorial deve-se testar a normalidade multivariada da matriz de dados. Por exemplo, o teste computacionalmente intensivo baseado na distância de Mahalanobis.

A hipótese nula do teste da distância de Mahalanobis afirma que a matriz de dados amostrais é proveniente de uma população normal multivariada [25].

XXVI Seminário Nacional de Grandes Barragens 9

Diante da normalidade multivariada dos dados, é utilizado o Teste de Bartlett para testar as hipóteses.

{𝐻0: A matriz de correlação é igual a matriz identidade, ou seja, 𝜌 = 1; 𝐻1: A matriz de correlação é diferente da matriz identidade, ou seja, 𝜌 ≠ 1.

Se a hipótese nula for rejeitada, significa que a amostra multivariada é

proveniente de uma população com matriz de correlação significativamente diferente da matriz identidade.

Para finalizar os testes se deve checar a Medida de Adequacidade dos Dados (KMO) para realização de uma análise fatorial satisfatória, devemos encontrar um valor para estatística do teste 𝑀𝑆𝐴 superior a 0,50, mostrando que a amostra multivariada satisfaz essa condição. 4.2 ANÁLISE FATORIAL

Comprovado todos os testes estatísticos necessários, se inicia a análise fatorial. Existem dois métodos para aplicar a análise fatorial nos dados, o método das componentes principais e o método da máxima verossimilhança. Os dois métodos serão aplicados e o que apresentar uma explicação maior da variabilidade deve ser escolhido.

A obtenção dos fatores é sem duvida a etapa mais importante da análise fatorial, e, para decidir quantos fatores utilizar, pode se usar o método para determinação do número de fatores sugerido por [26], do mínimo autovalor, que considera apenas os fatores cujos autovalores sejam superiores a um.

Uma vez decidido o número de fatores, deve se verificar se alguns dos instrumentos que compõem a matriz multivariada apresentam comunalidade baixa, caso exista alguns, os mesmos devem ser retirados da matriz e todos os testes estatísticos devem ser refeitos, antes de realizar novamente a análise fatorial. Se todos os testes forem bem sucedidos novamente, a nova análise fatorial deverá ter um melhor desempenho na explicação da variabilidade. 4.2.1 Extração dos Escores Fatoriais

Decidido o número de fatores, é possível gerar os escores fatoriais, os quais serão as variáveis aleatórias que substituirão as leituras dos instrumentos na análise dos dados.

Para o propósito é fundamental que os escores fatoriais satisfaçam a condição de normalidade, pois essa garantia facilita a identificação das regiões de falha e futuramente no cálculo da probabilidade de falha. Para checar esta condição é utilizado o teste apresentado em [27], que é uma modificação do teste de Komolgorov - Sminov, para o caso onde possuí apenas a média e o desvio padrão da amostra.

Aplicado o teste, e identificado os escores fatoriais que possuem distribuição normal, então esses escores serão utilizados para o monitoramento de anomalias na estrutura. Para utilizar os demais escores fatoriais, deve-se encontrar a

distribuição normal equivalente em torno de cada ponto 𝑥𝑖. A determinação dessas distribuições equivalentes é tema de um próximo trabalho, nesse momento, serão avaliados apenas os escores que já possuem a condição de normalidade, para efetuar o monitoramento do bloco.

XXVI Seminário Nacional de Grandes Barragens 10

5. DETEMINAÇÃO DOS MODOS DE FALHA

Segundo [28] e [29] a determinação de todos os modos de falha em um

sistema estrutural é inviável. Por esse motivo, serão apenas dedicado esforços em conseguir determinar os modos de falha que a análise fatorial realizada permitir, com uma boa precisão.

Como análise fatorial agrupa os instrumentos altamente correlacionados a um mesmo fator, a ideia é utilizar as associações dos instrumentos com as anomalias apresentadas em [11], [6], [30] e o conhecimento prático dos profissionais da barragem, para relacionar os fatores com as anomalias.

Se mais de um fator for necessário para monitorar certa anomalia entramos no caso de modos de falha de sistemas, onde a ocorrência de mais de um evento é necessário para ocasionar uma falha.

Segundo [31] modos de falha de sistema podem ser em série, paralelos ou mistos.

Como não serão utilizadas as grandezas físicas, se deve verificar o comportamento anormal da estrutura através das leituras dos instrumentos. De acordo com as literaturas citadas e do que foi repassado por profissionais que atuam há muitos anos na barragem, para que certas anomalias ocorram, é necessário que exista uma combinação de leituras fora do seu comportamento normal simultaneamente. Assim, deve-se determinar em quais fatores esses instrumentos estarão agrupados. Como os escores fatoriais dependem dos fatores obtidos na análise fatorial e, consequentemente, dependem dos instrumentos agrupados neles, quando houver alguma mudança brusca nas leituras desses instrumentos correlacionados com uma determinada anomalia, o resultado do escore fatorial também deverá sofrer alteração. Portanto, para realizar esse monitoramento busca-se determinar as regiões críticas desses escores fatoriais para a qual deverá indicar quais as anomalias ocorreram.

Para determinar as regiões críticas são utilizados os intervalos de projeto dos instrumentos instalados no bloco e os intervalos de 95% de confiança da média dos últimos dois anos, e, determina-se um intervalo que representa uma mudança de comportamento, definido como sendo

min , , ,L min , , ,Li i i i S S S SMC l L máx l l L máx l   (0.1)

onde 𝑙𝑖, 𝑙𝑆 são os limites inferiores e superiores, respectivamente, do intervalo de confiança de 95% da média e 𝐿𝑖 e 𝐿𝑆 são os limites inferiores e superiores, respectivamente, do intervalo de projeto do início da construção.

Usando um programa gerador de números aleatórios, é possível gerar vetores de simulação das anomalias, que são possíveis de monitorar a partir do que foi apresentado pela análise fatorial. Por exemplo, se três instrumentos estão relacionados com certa anomalia, basta gerar leituras para esses instrumentos em

seus respectivos intervalos 𝑀𝐶, e para os demais instrumentos gerar leituras dentro

dos intervalos de confiança de 95% da média 𝐼𝐶, fazendo isso, temos a geração de um vetor que simula essa anomalia.

É importante destacar, que essa geração por mais que seja aleatória deve seguir o seguinte princípio, se existem 3 instrumentos altamente relacionados com

XXVI Seminário Nacional de Grandes Barragens 11

essa anomalia, então antes é necessário verificar qual é o instrumento com maior influência no fator, essa informação é revelada pela análise fatorial. Além disso, a análise fatorial também revela qual é a correlação entre todos os instrumentos nesse estudo.

Assim, reordenamos os instrumentos, de forma que todos relacionados com a anomalia fiquem nos primeiros lugares, e, o primeiro instrumento deve ser o que possui maior influência no fator. Dessa forma, quando for gerado o primeiro número aleatório para o primeiro instrumento, é verificado em qual dos conjuntos do

intervalo 𝑀𝐶 ele pertence, visto que o intervalo 𝑀𝐶 é formado pela união de dois conjuntos. Se por exemplo, for gerado um número do intervalo esquerdo do

conjunto 𝑀𝐶, quando for gerado o próximo número aleatório para o próximo instrumento, deve ser verificado qual é a correlação do segundo instrumento com o primeiro. Se a correlação for positiva, este número aleatório deve estar do mesmo

lado esquerdo do intervalo 𝑀𝐶 do segundo instrumento, caso contrário, ou seja, se a correlação for negativa, o número aleatório deve estar do lado direito do intervalo

𝑀𝐶 do segundo instrumento. Seguindo esse princípio para todos os instrumentos, mesmo aqueles que não têm relação com a anomalia, contudo, neste caso, deve ser verificado o lado esquerdo e/ou direito do intervalo de confiança da média para tais instrumentos.

Esse processo tem a finalidade de respeitar o comportamento da estrutura, onde os instrumentos são altamente correlacionados. Dessa forma, é garantido um vetor de simulação condizente com a realidade.

O algoritmo de geração do vetor de simulação e obtenção da região crítica para uma determinada anomalia é descrito como segue.

Considere certa anomalia 𝑖, e suponha que existam 𝑚 instrumentos correlacionados com a anomalia 𝑖. Considere também que desses 𝑚 instrumentos, um número 𝑚′ < 𝑚 esteja altamente correlacionado com um fator 𝑗.

Passos

1) Ordene os 𝑚′ instrumentos em ordem decrescente, isto é, de forma que o instrumento com maior influência no fator esteja em primeiro lugar no vetor de simulação e sucessivamente;

2) gere um número aleatório para o primeiro instrumento no seu respectivo

intervalo 𝑀𝐶; 3) gere números aleatórios para os instrumentos 2, . . . , 𝑚′, dos seus

respectivos intervalos 𝑀𝐶, verificando suas correlações com o primeiro instrumento; 4) gere os demais números aleatórios para os demais instrumentos, dentro

dos intervalos de 95% de confiança da média, verificando as correlações com o primeiro instrumento.

5) gerar o vetor de simulação, padronizando todas as entradas, subtraindo as respectivas médias, e dividindo pelos respectivos desvios padrões de cada instrumento.

6) Multiplique esse vetor pelo vetor de coeficientes fatoriais do fator 𝑗, obtendo o valor do escore fatorial correspondente 𝐸𝑖𝑗.

7) Padronize 𝐸𝑖𝑗 obtendo 𝑧𝑖𝑗, utilizando a média e o desvio padrão do escore

fatorial 𝑗. 8) Plote 𝑧𝑖𝑗 no eixo 𝑥, abaixo da curva normal padrão.

9) Repita esse processo para um número suficientemente grande de vezes. Nesse algoritmo, 𝐸𝑖𝑗 representa o valor encontrado do escore fatorial 𝑗

quando simulado a anomalia 𝑖, 𝑧𝑖𝑗 é a transformação desse escore em variável

XXVI Seminário Nacional de Grandes Barragens 12

normal padrão. Como o escore fatorial 𝑗 é uma variável aleatória normal padrão, e o valor 𝑧𝑖𝑗 foi obtido simulando uma situação anormal, o valor obtido para ele se

distanciará da média 0. Se for realizada essa simulação para um número suficientemente grande de vezes, então é obtido um número suficientemente grande

de pontos no eixo 𝑥, que normalmente distanciarão da média, formando uma região em uma ou ambas as caldas da curva de Gauus, assim é utilizado essas regiões

para determinar a região crítica da anomalia 𝑖, monitorada a partir do fator 𝑗.

FIGURA 2: Fluxograma Para Determinação das Regiões Críticas

Para determinar as regiões críticas, são analisados os pontos plotados no

eixo 𝑥. Escolhemos a região onde eles se agrupem, ignorando um número de pontos fora dela, dependendo do percentual de acerto que se deseja. Se um percentual de 90% for satisfatório ao simular um número suficientemente grande de vetores, se podem rejeitar 10% dos pontos que estejam distantes da região onde eles mais se agrupem, e para essa região, determinar um intervalo, considerando ele como um intervalo da reta real, mesmo sabendo que esse conjunto possui pontos discretos de simulações. Porém, em 90% das vezes em que foi simulado aquela anomalia, os pontos se acumularam nesse intervalo.

A Figura 3 abaixo mostra a simulação de uma certa anomalia, nesse caso os pontos se concentrar na calda direita da curva de gauss, com a ocorrência de poucos pontos próximos da média. Nesse caso ignoramos esse pontos próximos da média e determinamos a região crítica como sendo o intervalo formado por dois pontos de simulação de tal forma que a região onde os pontos mais se agruparam pertençam a esse intervalo.

Na Figura 4, o caso foi oposto ao anterior, pois o pontos se concentraram na calda esquerda da curva de Gauss, e, de forma análoga definisse um intervalo da

XXVI Seminário Nacional de Grandes Barragens 13

reta formada por dois pontos de simulação, de tal forma que a região onde os pontos se concentraram esteja contida nesse intervalo.

A Figura 5 apresenta o caso onde uma anomalia foi simulada e ouve concentração dos pontos nas duas caldas da curva de Gauss. Nesse caso rejeitamos um número pequeno de pontos próximos a média, e assumimos como região crítica a união dos intervalos que contenham as regiões onde os pontos mais se concentraram das duas caldas da curva de Gauss.

Assim, dado um vetor com as leituras dos instrumentos instalados no bloco em estudo, fazemos as transformações necessárias e calculamos os escores fatoriais que sejam capazes de monitorar as anomalias. Se o valor do escore fatorial pertencer à respectiva região crítica dessa anomalia, dizemos que existem indícios estatísticos para acreditar que essa anomalia pode estar ocorrendo.

FIGURA 3: Região Crítica à Direita

FIGURA 4: Região Crítica à Esquerda

FIGURA 5: Região Crítica Bilateral

Se for necessário mais de um fator para simular uma anomalia, utilizamos o

mesmo algoritmo para cada fator, e geramos mais de uma região crítica. Nestes

XXVI Seminário Nacional de Grandes Barragens 14

casos, após dado um vetor de leituras dos instrumentos, é verificado se todos os valores dos escores fatoriais pertencem a todas as regiões críticas determinadas, se ocorrer à intersecção desses eventos, então essa anomalia pode estar ocorrendo.

Esse método é capaz de determinar apenas as regiões críticas através dos escores fatoriais que possuem uma distribuição normal. Mas pode servir como mais um critério na tomada de decisão, intensificando o monitoramento onde acusar uma possível anomalia.

6. CONCLUSÃO E TRABALHOS FUTUROS

O procedimento descrito nesse trabalho fornece uma alternativa para

determinação de modos de falha na estrutura de um bloco chave, que pode servir como uma ferramenta para o monitoramento e auxiliar na tomada de decisão.

A determinação das regiões críticas dos modos de falha, através dos escores fatoriais, que possuem uma distribuição normal, também auxiliará, nos próximos trabalhos, na determinação de uma função de desempenho multivariada, o que permitirá a utilização das técnicas de confiabilidade estrutural, para determinação do índice de confiabilidade e da probabilidade de falha do bloco.

A quantidade de modos de falha, que são monitoradas através das regiões críticas, que esse processo pode fornecer dependerá exclusivamente do número de escores fatoriais que possuem uma distribuição normal e das associações dos instrumentos instalados com as anomalias.

Um novo estudo será realizado com o objetivo de encontrar transformações especiais para os escores fatoriais que não possuem uma distribuição normal. Se for possível encontrar tais transformações, esses escores poderão ser incorporados no processo para monitorar um número maior de modos de falha, aumentando a capacidade do monitoramento, e futuramente, incorporado na função de desempenho multivariada.

A qualidade do monitoramento também depende da qualidade dos dados. Pretende se desenvolver, em um próximo trabalho, uma nova metodologia para realizar a etapa de coleta e padronização dos dados, para diminuir os erros de aproximação e da filtração dos dados. O ideal seria coletar os dados de todos os instrumentos do bloco em estudo no mesmo dia e na mesma hora, no entanto, é uma tarefa que exigiria um custo muito elevado, pois dependeria do aumento do número de leituristas.

Nesse sentido, pretende se efetuar um planejamento estratégico tático operacional, para otimizar a coleta dos dados, permitindo a coleta nos dias mais próximos possíveis e de preferência na mesma hora, já que a temperatura é uma variável que influência praticamente todos os instrumentos.

O planejamento tático a ser formulado permitirá uma coleta mais robusta dos dados, e, em conjunto com a análise estatística mencionada, um monitoramento mais eficiente pode ser obtido, o qual poderá ser repetido para os demais blocos chave.

A obtenção desse planejamento tático também tem o objetivo de comparação futura com a análise estatística anteriormente realizada. Só assim será possível quantificar quais foram às perdas de informações adquiridas, como por exemplo, se todos os instrumentos foram agrupados corretamente, ou se alguns instrumentos ficaram de fora de algum grupo especifico. Se realmente forem encontradas tais ocorrências nas análises anteriores, isso poderá ser associado aos erros acumulados nas coletas e minerações de dados, possibilitando um embasamento

XXVI Seminário Nacional de Grandes Barragens 15

teórico mais eficiente, e que sirva de inspiração para novos métodos de coleta, armazenamento e filtração de dados para pontos específicos da barragem, quando uma análise mais detalhada for exigida.

7. AGRADECIMENTO

À ITAIPU por apoiar e incentivar o desenvolvimento da pesquisa na região. Pelo apoio financeiro na formação sólida dos alunos de doutorado. Ao Centro de Estudos Avançados em Segurança de Barragens (CEASB) que sempre esteve a frente de proporcionar linhas de pesquisas aos doutorandos. Ao Parque Tecnológico de Itaipu (PTI) por proporcionar a formação de um ambiente favorável para a inovação, a pesquisa e o desenvolvimento científico e tecnológico. Agradeço também ao professor e co-autor Itamar Pena Nieradkav pelo sua contribuição na implementação computacional do método.

8. PALAVRAS-CHAVE

Análise Multivariada, Probabilidade de Falha, Análise Fatorial, Modos de Falha.

9. REFERÊNCIAS BIBLIOGRÁFICAS

[1] ICOLD (2003) - "Critérios de Projeto Civil de Usinas Hidrelétricas", Centrais

Elétricas Brasileiras S.A. - ELETROBRÁS. [2] ALBERTO, S. (2009) - "A Segurança das Barragens Brasileiras", Acessado em

3 de novembro de 2014 ás 10 horas, http://ie.org.br/site/noticias/exibe/id_ sess ao/5/id_noticia/1643/A-seguran%C3%A7a-das-barragens-brasileiras. [3] SCALETTA, M.; MESANIA, F.; OSTERLE, J. P. (2012) – "Regulatory

framework for dam safety - comparative assessment", 3-f (25- 27). Presented at Hydrovision Brazil, Rio de Janeiro: Paul C. Rizzo Associates, Inc.

[4] Brasil. Lei n°12.334, de 20 de setembro de 2010. [5] Brasil. Resolução n°144 de 10 de julho de 2012. [6] GUSMÃO FILHO, J. (2006) – "Desempenho de Obras Geotécnicas", 264 f (01-

528) Recife, Editora Universitária da UFPE. [7] David, S. Bowles, Francisco L. Giuliani. (2002) - "Dam Safety Management:

Operational Phase of the Dam Life Cycle", 170-f. Committee on Dam Safety International Commission on Large Dams (ICOLD).

[8] VILLWOCK, R (2009) - "Tecnicas de Agrupamento e a Hierarquização no

contexto KDD Aplicação a dados Temporais de Instrumentação Geotecnica-

XXVI Seminário Nacional de Grandes Barragens 16

Estrutural da Usina Hidreletrica de Itaipu", 125-f (01 - 125). Doutorado em Métodos Numéricos em Engenharia. Universidade Federal do Paraná.Curitiba.

[9] KRüGER, C. M (2008) - "Análise de Confiabilidade Estrutural Aplicada às

Barragens de Concreto", 157-f (01-157). Doutorado em Numéricos em Engenharia. Universidade Federal do Paraná. Curitiba.

[10] MATOS, S. F (2002) - "Avaliação de Instrumentos para Auscultação de

Barragem de Concreto", 106-f (01-106). Metrado em Construção Civil. Universidade Federal do Paraná. Curitiba.

[11] FREAD, D. L. (1988) - "Thechnique for Implicit Dynamic Routing in Rivers with

Tributaries", 8f (918-926), Water Research Resources, V 9, N° 4. [12] ITAIPU (2003) - "Usina Hidrelétrica de Itaipu - Aspectos Teóricos de

Engenharia", 784-f (01-784). Foz do Iguaçu: TAB Marketing Editorial. [13] Comitê Brasileiro de Grandes Barragens – CBDB (1996) – "Auscultação e

Instrumentação de Barragens no Brasil" – II Simpósio Sobre Instrumentação de Barragens. Belo Horizonte, MG, de 19 a 21/08/96. Vol. I.

[14] ITAIPU (1991) - "Proposta para Reavaliação da Frequência de Leituras da

Instrumentação". 21-f (01-21). Relatório N° 4006.50.0020.P. IECO-ILC. [15] MATA, J. TAVARES, A. SÁ DA COSTA, J. (2013) - "Time–frequency analysis

for concrete dam safety control: Correlation between the daily variation of structural response and air temperature", 7-f (658 - 665). Engineering Structures. V. 48.

[16] DE SORTIS A, A. PAOLIANI, P. (2007) - "Statistical Analysis and Structural

Identification in Concrete Dam Monitoring", 10-f (110 - 120). Engineering Structures. V. 29.

[17] BRETAS EDUARDO, M. LEMOS JOSÉ, V. LOURENÇO PAULO, B (2014) -

"A DEM based tool for the safety analysis of masonry gravity dams", 12-f (248 - 260). Engineering Structures. V. 59.

[18] ARDITO, R. MAIER, G. MASSALONGO, G (2008) - "Diagnostic Analysis of

Concrete Dams Based on Seasonal Hydrostatic Loading", 9-f (3176 - 3185). Engineering Structures. V. 30.

[19] FAYYAD, U. M. PIATETSKY-SHAPIRO, G. SMYTH, P. UTHRUSAMY, R.

(1996) - "Advances in knowledge Discovery & Data Mining". California: AAAI/MIT.

[20] OHANA, J (2012) - "Experimentos de Mineração de Dados Aplicados a

Sistemas Scada de Usinas Hidrelétricas", 95-f (1 - 92). Doutorado em Engenharia Elétrica. Universidade Federal do Pará - Belém.

XXVI Seminário Nacional de Grandes Barragens 17

[21] JOHNSON, R. A. WICHERN, D.W. (1998) - "Applied Multivariate Statistical Analysis". Fourth Edition. New Jersey: Prentice Hall.

[22] AAKER, D. A (2012) - "Administração Estratégica de Mercado". Porto Alegre.

Bookman. [23] MALHOTRA, N. K (2001) - "Pesquisa de Marketing: uma orientação aplicada".

Porto Alegre. Bookman. [24] CORRAR, L. J. PAULO, E. FILHO, J. M. (2009) - "Análise Multivariada para os

Cursos de Administração, Ciências Contábeis e Economia", 539-f (73-129). São Paulo: Atlas.

[25] BIASE, A. G.; FERREIRA, D. F (2012) - "Teste Computacionalmente Intensivo

Baseado na Distância de Mahalanobis para Normalidade Multivariada". 22-f (1 - 22). Bras. Biom, Universidade Federal de Lavras, V. 30, N° 1.

[26] KAISER, H. F. RICE, J (1974) - "Educational and Psychological Measurement".

16-f (111 - 117). J. Little Jiffy, V. 34. [27] LILLIEFORS, H. W (1967) - "On the Kolmogorov-smirnov Test for Normality

with Mean and Variance Unknown". 3-f (399 - 402). Journal of the American Statistical Association, V. 62. N°318.

[28] MOSES, F (1982) - "System Realiability Developmentes in Structural

Engineering". 10-f (3 - 13). Struct Safety. V. N°1. [29] RANGANATHAN, R (1987) - "Generation of Dominant Modes and Reliability

Analysis of Frames". 11-f (217 - 228). Structural Safety. V. 4, N° 3. [30] SILVEIRA, JOÃO FRANCISCO ALVES (2006) – "Instrumentação e Segurança

de Barragens de Terra e Enrocamento”. 208-f (001-416). Editora Oficina de Textos, São Paulo.

[31] FABER, M. H. (2006) - "Risk in Safety Civil, Surveying and Environmental

Engineering”, 11-f (171–182). Risk in Safety.