preenchimento do formulário de submissão de trabalho completo · determinam a trajetória de...

12
CONFIABILIDADE DE EMISSORES DE LASER POR UM MODELO DE DEGRADAÇÃO Rívert Paulo Braga Oliveira DEP-UFMG Av. Presidente Antônio Carlos, 6627. Belo Horizonte - MG,Brasil. [email protected] Marta Afonso Freitas DEP-UFMG Av. Presidente Antônio Carlos, 6627. Belo Horizonte - MG,Brasil. [email protected] RESUMO Neste estudo procurávamos conhecer a confiabilidade de emissores de laser pela Estatística Clássica, e realizar um paralelo com a abordagem da Estatística Bayesiana do artigo de Hamada (2005). Os resultados obtidos na metodologia Clássica surgiram a partir da interpretação comparativa dos intervalos de confiança resultantes de um Modelo de Degradação utilizando o método de Aproximação por Teste de Vida Convencional (baseado na teoria da normalidade assintótica dos estimadores de máxima verossimilhança), Bootstrap e Monte Carlo. As quantidades estimadas apresentaram intervalos de confiança mais estreitos para as metodologias iterativas quando a distribuição Weibull descrevia os tempos de falha. Notamos que ao estimarmos o percentil 1 pela metodologia Clássica (Weibull e Lognormal) o mesmo é menor que o encontrado através da abordagem Bayesiana. Observa-se também, assim como na situação Clássica, que a abordagem Bayesiana oferece estimativas um pouco menores para as medidas de interesse quando são utilizadas as falhas observadas. PALAVRAS CHAVE. Confiabilidade. Degradação. Monte Carlo. Aplicação à Indústria. ABSTRACT Over this paper we meant to assess the reliability of laser emitters throughout Classic Statistics, and confront the results with Hamada’s (2005) Bayesian approach for the same data set. We’ve compared the obtained Confidence Intervals based on a Degradation Model by Approximation Method (asymptotic normal theory of maximum likelihood estimators), with Bootstraping and Monte Carlo CI’s. The iterative methodologies raised up better outputs while time to failure followed a Weibull distribution. We noted the first percentile is little lower, on Classical approach, than on the Bayesian one. As well as Classical situation, the quantities of interest showed to be lowest when modeling over observed failure to time data. KEYWORDS. Reliability. Degradation. Monte Carlo. Applications to the Industry. XLI SBPO 2009 - Pesquisa Operacional na Gestão do Conhecimento Pág. 756

Upload: doancong

Post on 07-Feb-2019

216 views

Category:

Documents


0 download

TRANSCRIPT

CONFIABILIDADE DE EMISSORES DE LASER POR UM MODELO DE DEGRADAÇÃO

Rívert Paulo Braga OliveiraDEP-UFMG

Av. Presidente Antônio Carlos, 6627. Belo Horizonte - MG,[email protected]

Marta Afonso FreitasDEP-UFMG

Av. Presidente Antônio Carlos, 6627. Belo Horizonte - MG,[email protected]

RESUMO

Neste estudo procurávamos conhecer a confiabilidade de emissores de laser pela Estatística Clássica, e realizar um paralelo com a abordagem da Estatística Bayesiana do artigo de Hamada (2005). Os resultados obtidos na metodologia Clássica surgiram a partir da interpretação comparativa dos intervalos de confiança resultantes de um Modelo de Degradação utilizando o método de Aproximação por Teste de Vida Convencional (baseado na teoria da normalidade assintótica dos estimadores de máxima verossimilhança), Bootstrap e Monte Carlo. As quantidades estimadas apresentaram intervalos de confiança mais estreitos para as metodologias iterativas quando a distribuição Weibull descrevia os tempos de falha. Notamos que ao estimarmos o percentil 1 pela metodologia Clássica (Weibull e Lognormal) o mesmo é menor que o encontrado através da abordagem Bayesiana. Observa-se também, assim como na situação Clássica, que a abordagem Bayesiana oferece estimativas um pouco menores para as medidas de interesse quando são utilizadas as falhas observadas.

PALAVRAS CHAVE. Confiabilidade. Degradação. Monte Carlo. Aplicação à Indústria.

ABSTRACT

Over this paper we meant to assess the reliability of laser emitters throughout Classic Statistics, and confront the results with Hamada’s (2005) Bayesian approach for the same data set. We’ve compared the obtained Confidence Intervals based on a Degradation Model by Approximation Method (asymptotic normal theory of maximum likelihood estimators), with Bootstraping and Monte Carlo CI’s. The iterative methodologies raised up better outputs while time to failure followed a Weibull distribution. We noted the first percentile is little lower, on Classical approach, than on the Bayesian one. As well as Classical situation, the quantities of interest showed to be lowest when modeling over observed failure to time data.

KEYWORDS. Reliability. Degradation. Monte Carlo. Applications to the Industry.

XLI SBPO 2009 - Pesquisa Operacional na Gestão do Conhecimento Pág. 756

1. IntroduçãoNa atualidade empresas interessam-se por medir a confiabilidade de seus produtos ou dos

equipamentos necessários para desenvolvê-los.É mister observar que os testes de confiabilidade convencionais (baseados na teoria da

normalidade assintótica dos estimadores de máxima verossimilhança) necessitam da ocorrência de falhas quando o estudo é realizado. Acontece que, em geral, os equipamentos apresentam longa durabilidade, logo a obtenção da falha é um problema. Para preencher a lacuna da ausência de falhas é necessária a utilização de Modelos de Degradação, que passam pela estimação dos tempos de falha. Toledo (2007) observou que Modelos de Degradação pelo o Método de Aproximação apresentam melhores resultados que os testes de vida convencionais quando o percentual de falhas é baixo.

Hamada (2005) apresentou um artigo que utilizava o Modelo de Degradação pelo Método de Aproximação sob enfoque Bayesiano. O objetivo daquele artigo é ilustrar como dados de degradação podem ser modelados e analisados. Revela-se como métodos Bayesianos fornecem uma abordagem natural para a análise de dados de degradação. O roteiro do artigo passa pela apresentação de um modelo simples de degradação, seguido pela abordagem Bayesiana. Para fundamentos de Estatística Bayesiana ver Lee (2004), e para aplicações específicas em confiabilidade ver Ibrahim, Chen e Sinha (2001). Exemplos utilizando dados de um emissor de Laser são mostrados e posteriormente compara-se os resultados obtidos nas análises. O primeiro exemplo leva em consideração o erro de estimação dos tempos de falha, o segundo usa apenas os tempos de falha observados, e o terceiro considera os “pseudo” tempos de falha como se fossem observados.

O presente texto tem objetivo de realizar a análise, para o mesmo banco de dados de Hamada, utilizando o Modelo de Degradação pelo Método de Aproximação e métodos iterativos de Monte Carlo e Bootstrap de forma a obter intervalos de confiança para as quantidades de interesse (os intervalos assintóticos também são considerados). Os resultados são comparados e então se faz um paralelo com o artigo de Hamada.

Intervalos de confiança para as medidas tempo médio até a falha, Percentís 0,01; 0,05; 0,1; 0,5; 0,8; e probabilidade de sobrevivência até 4500 horas, foram obtidos utilizando-se a metodologia de Análise de Confiabilidade Convencional, e técnicas Bootstrap e Monte Carlo. Os softwares utilizados nas análises foram Minitab 15, R 2.7.2 e WinBUGS 14.

2. Metodologia2.1. O Modelo Geral de Degradação

Apresenta-se aqui um modelo de efeitos-mistos não lineares proposto por Lu e Meeker (1993). Para casos de degradação acelerada ver Meeker e Escobar (1998). Tseng, Hamada e Chiao (1995), Yacout, Salvatores e Orechwa (1996), Wu e Tsai (2000), entre outros, também se debruçaram sobre modelos de degradação.

Seja uma medida de interesse, tomada em uma unidade amostral, em diferentes tempos. Sejam agora n unidades amostrais sob a mesma idéia anterior. A medida de degradação (resposta) observada na unidade i no tempo jt é representada por ijy . A resposta y é composta por ( )tD, para 0≥t , e pelo erro do modelo, denotado por ε , tal que:

ijijDijY ε+= ,

ni ,...,2,1= e imj ,...,2,1= , onde

= β,ijtDijD é a rota real da unidade i no tempo ijt (e

ijt é o j-ésimo instante de tomada da medida de interesse na i-ésima unidade amostral), o vetor

de coeficientes [ ]ikii ββββ ,...,2,1= é composto pelos k parâmetros desconhecidos que

determinam a trajetória de degradação da i-ésima unidade amostral, nos respectivos instante ijt .

XLI SBPO 2009 - Pesquisa Operacional na Gestão do Conhecimento Pág. 757

ijε é o desvio residual correspondente à unidade amostral i no tempo jt , com distribuição

normal com média zero e variância constante,

2,0~ εσε Nij .

( )tD geralmente se baseia na análise empírica do processo de degradação de interesse. Uma fração k dos efeitos desconhecidos do vetor β pode variar entre as unidades amostrais. Uma outra parte pode permanecer constante para as mesmas, e são chamados de efeitos fixos.

Os efeitos aleatórios e os erros ijε são assumidos independentes. Comumente supõe-se εσ

constante. A adequação dessa suposição pode afetar ( )tD .As escalas de y e t podem ser selecionadas como na teoria física e pelos dados de modo a

simplificar a forma de ( )β,tD . Para escolher o modelo de degradação é necessário especificar a forma funcional de ( )ktD βββ ,...,2,1, , quais kβββ ,...,2,1 são aleatórios e quais são fixos.

Dado um modelo de degradação, a função distribuição do tempo T no qual a degradação atinge o nível estipulado fD pode ser escrita como uma função de fD . A proporção de falhas

no tempo t é equivalente à proporção de unidades amostrais que excedem o nível fD no tempo t . Assim, a distribuição do tempo de falha T se dá como:

( ) ( )

≥=≤= fDktDPtTPtF βββ ,...,2,1,)( ,

quando as medidas de degradação são crescentes no tempo e:

( ) ( )

≤=≤= fDktDPtTPtF βββ ,...,2,1,)( ,

quando decrescentes.Lu e Meeker (1993) apresentam 3 métodos de análise de dados de degradação, os quais

diferem basicamente na forma de estimação dos parâmetros do modelo. Neste trabalho utilizaremos um deles, o método de aproximação que é descrito a seguir.

2.2. Avaliação de F(t) pelo Método de AproximaçãoPara cada unidade amostral ajusta-se um modelo ε+= )(tDy . As estimativas de

[ ]kββββ ,...,2,1= são obtidas pelo método de mínimos quadrados. No nosso caso ajustamos o modelo:

εβ += ty

Soluciona-se ( ) fDitD =β̂, para t obtendo-se it̂ (tempo de falha estimado) para cada

unidade amostral. Note que obteremos tantos tempos de falha quanto unidades amostrais, ou seja, seria como se todas as unidades amostrais tivessem sido observadas até o momento em que atingiram o limite de degradação fD . Note também que os betas neste método são considerados como fixos.Utilizar os tempos de falha estimados (pseudo tempos de falha) para estimar )(tF aplicando-se as técnicas tradicionais de análise de tempos de falha.Para maiores detalhes sobre outras formas de avaliação de )(tF ver Toledo (2007).

2.3. Modelos Paramétricos para Descrição do Tempo de FalhaNo presente tópico nos ateremos apenas aos modelos e medidas de interesse para a

distribuição Weibull e Lognormal.Para maiores detalhes e, em particular, a construção de intervalos de confiança baseados na

propriedade de normalidade assintótica dos estimadores de máxima verossimilhança ver Freitas e

XLI SBPO 2009 - Pesquisa Operacional na Gestão do Conhecimento Pág. 758

Colosimo (1997), Colosimo e Giolo (2006), Lawless (2003). Nestes textos os autores apresentam detalhes do cálculo da variância através do método delta. No presente relatório, a construção de intervalos de confiança assintóticos será denominada de “abordagem convencional”.

2.3.1. Distribuição LognormalA função de densidade de uma variável aleatória t com distribuição lognormal é dada por:

.0,2)log(

21exp

21)( >−−=

tt

ttf

σµ

πσ

Suas funções de sobrevivência )(tR e falha )(tλ , com ( ).Φ a função de distribuição acumulada de uma normal padrão:

+−Φ=

σµ)log()( ttR

)()()(

tRtft =λ

Desse modo os percentis para a distribuição lognormal podem ser obtidos a partir da tabela da normal padrão usando-se a seguinte expressão: ( )µσ += pzpt exp ,

com pz o 100p% da distribuição normal padrão.A média e a variância da distribuição lognormal são respectivamente:

[ ]

+==

2exp σµMTTFtE

[ ] { }

−+= 12exp22exp σσµtVar

2.3.2. Distribuição WeibullA função de densidade de uma variável aleatória t com distribuição weibull é dada por:

.0;0;0,exp1)( ≥≥≥−−=

αδ

δ

αδ

δαδ ttttf

Suas funções de sobrevivência )(tR e falha )(tλ :

−=

δ

αttR exp)(

)()()(

tRtft =λ

Desse modo os percentis para a distribuição weibull podem ser obtidos usando-se a seguinte expressão:

( )[ ] δα 11ln ppt −−= ,

com pz o 100p% da distribuição normal padrão.A média e a variância da distribuição weibull são respectivamente:

[ ]

+Γ==

δα 11MTTFtE

XLI SBPO 2009 - Pesquisa Operacional na Gestão do Conhecimento Pág. 759

[ ]

+Γ−+Γ=

211212δδ

αtVar

2.4. BootstrapEssa ferramenta consiste na reamostragem com reposição de uma amostra previamente

selecionada independentemente. As amostras obtidas na reamostragem possuem tamanho n igual ao da amostra orignal. Para cada reamostragem executada são calculadas medidas de interesse. Após calculadas as medidas de interesse é obtida uma amostra, de tamanho tanto quanto o número de reamostragens executadas, contendo estimativas da medida de interesse. A partir dessas amostras é possível obter as estimativas dos valores reais das medidas de interesse com seus respectivos intervalos de confiança. Para mais detalhes sobre a metodologia Bootstrap ver Davison e Hinkley (1997).

2.5. Monte CarloEssa ferramenta consiste na geração de amostras de determinada distribuição a partir de

parâmetros conhecidos da mesma. Para cada amostra gerada são calculadas medidas de interesse. Após calculadas as medidas de interesse é obtida uma amostra, de tamanho tanto quanto o número de amostras geradas, contendo estimativas da medida de interesse. A partir dessas amostras é possível obter as estimativas dos valores reais das medidas de interesse com seus respectivos intervalos de confiança. Para maior aprofundamento no tema ver Gentle (1998).

3. Análise3.1. Descrição da Situação

Os dados de Hamada dizem respeito a um emissor de Laser. Laser significa “Light Amplification by Stimulated Emission of Radiation” (Amplificação de Luz por Emissão Estimulada de Radiação). A produção de luz degrada com o passar do tempo. Para mantê-la constante é necessário que a corrente de operação do Laser seja aumentada de tempos em tempos.

No nosso estudo a falha do laser é definida quando o nível da corrente aplicada para ajuste ultrapassa 10% da corrente de operação do aparelho. Desta forma, a analise da degradação de um laser é realizada com base na coleta de informações referentes ao aumento do valor da corrente operacional aplicada ao aparelho de emissão de luz. Foi estabelecido que a degradação inicial seria 0%, ou seja, quando a corrente do aparelho é a operacional. Medidas de valores de corrente foram obtidas a cada 250 horas até 4000 horas. A degradação percentual foi calculada como segue:

Seja:Dij – medida de degradação do i-ésimo Laser no j-ésimo tempo.corrente medidaij – corrente no i-ésimo Laser no j-ésimo tempo.corrente de operação – corrente inicial de operação do aparelho segundo suas especificações.

100-

×=operaçãodecorrente

operaçãodecorrentemedidacorrenteD ij

ij

As medidas de interesse para este estudo, obtidas através do Modelo de Degradação pelo método de Aproximação, foram:

R(4500) = probabilidade do laser não atingir o limiar de degradação até 4500 horas de uso.MTTF = tempo médio até que o limiar de degradação seja atingido.Percentil 1 = tempo no qual ao menos 1% dos Lasers falham.Percentil 5 = tempo no qual ao menos 5% dos Lasers falham.Percentil10 = tempo no qual ao menos 10% dos Lasers falham.Percentil 50 = tempo no qual ao menos 50% dos Lasers falham.Percentil 80 = tempo no qual ao menos 80% dos Lasers falham.

XLI SBPO 2009 - Pesquisa Operacional na Gestão do Conhecimento Pág. 760

Os intervalos de confiança adotados foram obtidos através do Método Delta, Bootstrap e Monte Carlo.

Observa-se na figura 1 que apenas 3 unidades de laser atingiram o nível crítico Df de 10%. Note que todos os perfis apresentaram degradação aproximadamente linear, o que nos levou a modelar cada perfil considerando-se essa característica.

Para se estimar as medidas de confiabilidade dos lasers, como R(4500), MTTF (número médio de horas até a ocorrência da falha), e percentis da distribuição de tempos de falha, utilizou-se o Método de Aproximação (baseado na metodologia de análise de degradação) com os respectivos intervalos de confiança pela abordagem convencional. Posteriormente, encontraremos intervalos de confiança Bootstrap e Monte Carlo para essas mesmas medidas dado os tempos de falha estimados a partir do Método de Aproximação.

0 1000 2000 3000 4000

02

46

810

12

Tempo

% a

cres

cido

da

corre

nte

padr

ão d

o la

ser

Df=10

Perfis de Degradação - Laser

Figura 1 - Perfis de Degradação dos Lasers

Passo 1) Para cada unidade amostral i, ajustar um modelo de degradação separado εβ += ty. Dessa forma, obtém-se estimativas de β pelo método de mínimos quadrados.

Passo 2) Calcular os ‘pseudo’ tempos de falha para cada roda a partir dos valores de β̂

usando-se a expressão β̂ˆ fi Dt = .Passo 3) Usar os ‘pseudo’ tempos de falha para identificar a F(t) usando as técnicas

tradicionais de análise de tempo de falha. (Encontrar a distribuição adequada para os dados).Passo 4) Encontrar as estimativas de confiabilidade de interesse (R(4500), MTTF, percentis,

etc) pela Análise Convencional de tempo de Falha, metodologia Bootstrap e Monte Carlo.Conforme mostrado no gráfico (figura 2), a distribuição Lognormal mostrou ser um bom

ajuste para os dados dos “pseudo tempos de falha” (correlação 0,955).A distribuição Weibull mostrou melhor ajuste (figura 3) para os dados dos “pseudo tempos de

falha” (correlação 0,98).

XLI SBPO 2009 - Pesquisa Operacional na Gestão do Conhecimento Pág. 761

800070006000500040003000

99

95

80

50

20

5

1

Pseudo Tempos de Falha

Perc

ent

Lognormal1,415

A nderson-Darling (adj)

Gráfico de Ajuste Para a Distribuição Lognormal

Figura 2 - Ajuste Lognormal aos “pseudo tempos de falha”

70006000500040003000

95

80

50

20

5

2

1

Pseudo Tempos de Falha

Perc

ent

Weibull1,159

A nderson-Darling (adj)

Gráfico de Ajuste Para a Distribuição Weibull

Figura 3 - Ajuste Weibull aos “pseudo tempos de falha”

3.2. Resultados e DiscussãoDepois de realizado o trabalho de análise, tivemos à disposição informações sobre o tempo

médio até a falha (MTTF), a probabilidade dos lasers sobreviverem até 4500 horas (R(4500)), e os percentis (1,5,10,50,80).

3.2.1. Ajuste LognormalPara o Método de Aproximação com ajuste Lognormal obtivemos os resultados que podem

ser observados nas figuras figuras 4 e 5.Os intervalos com 95% de confiança utilizando-se a metodologia Bootstrap e Monte Carlo,

em geral, não apresentaram padrão de serem menores ou maiores considerando-se as medidas de interesse.

Desse modo podemos dizer que os intervalos de confiança gerados pelas metodologias Bootstrap e Monte Carlo não apresentam resultados vantajosos com relação à abordagem convencional.

3.2.2. Ajuste WeibullPara o Método de Aproximação com ajuste Weibull obtivemos os resultados que podem ser

observados nas figuras 6 e 7.Os intervalos com 95% de confiança utilizando-se a metodologia Bootstrap e Monte Carlo,

apresentaram-se mais estreitos que os da metodologia convencional para a maioria das medidas de interesse.

Desse modo podemos dizer que os intervalos de confiança gerados pelas metodologias Bootstrap e Monte Carlo apresentam resultados melhores que os da metodologia convencional para as medidas MTTF e percentis, pois a amplitude dos intervalos apresentados obtidos foi menor em todos os casos.

XLI SBPO 2009 - Pesquisa Operacional na Gestão do Conhecimento Pág. 762

Dat

a

Perc8

0_Mon

te

Perc80

_Boo

t

Perc8

0_Ap

rox

Perc5

0_Mon

te

Perc50

_Boo

t

Perc5

0_Ap

rox

Perc1

0_Mon

te

Perc10

_Boo

t

Perc1

0_Ap

rox

Perc5

_Mon

te

Perc5

_Boo

t

Perc5

_Apro

x

Perc1

_Mon

te

Perc1

_Boo

t

Perc1

_Apro

x

MTTF_

Monte

MTTF_

Boot

MTTF_

Aprox

7000

6000

5000

4000

3000

2000

Comparação dos IC - Distribuição Lognormal

Figura 4 - Comparação dos intervalos de 95% de Confiança – Ajuste Lognormal

Dat

a

R4500_MonteR4500_BootR4500_Aprox

1,0

0,9

0,8

0,7

0,6

0,5

Comparação dos IC - Distribuição Lognormal

Figura 5 - Comparação dos intervalos de 95% de Confiança R(4500) – Ajuste Lognormal

Dat

a

Perc8

0_Mon

te

Perc80

_Boo

t

Perc8

0_Ap

rox

Perc5

0_Mon

te

Perc50

_Boo

t

Perc5

0_Ap

rox

Perc1

0_Mon

te

Perc10

_Boo

t

Perc1

0_Ap

rox

Perc5

_Mon

te

Perc5

_Boo

t

Perc5

_Apro

x

Perc1

_Mon

te

Perc1

_Boo

t

Perc1

_Apro

x

MTTF_

Monte

MTTF_

Boot

MTTF_

Aprox

7000

6000

5000

4000

3000

2000

Comparação dos IC - Distribuição Weibull

Figura 6 - Comparação dos intervalos de 95% de Confiança – Ajuste Weibull

Dat

a

R4500_MonteR4500_BootR4500_Aprox

0,9

0,8

0,7

0,6

0,5

Comparação dos IC - Distribuição Weibull

Figura 7 - Comparação dos intervalos de 95% de Confiança R(4500) - Ajuste Weibull

XLI SBPO 2009 - Pesquisa Operacional na Gestão do Conhecimento Pág. 763

2.2.3. Paralelo com o artigo de Hamada (2005)Pela abordagem de Hamada temos as seguintes estimativas para o tempo de vida dos Lasers

quando usamos os tempos de falha estimados sem considerar o erro de previsão dos mesmos (ver Tabela 1). Naquele artigo a distribuição dos tempos de vida foi considerada como Weibull.

TABELA 1- Estimativas a posteriori para as Unidades Laser – Tempo estimado

0,025 0,050 0,500 0,950 0,975Beta 6,309 1,313 3,904 4,214 6,262 8,612 8,989Lâmbda 9,62E-12 2,12E-10 1,85E-25 2,03E-24 6,72E-18 3,08E-12 2,17E-11R(4500) 0,7505 0,08945 0,5514 0,5875 0,7600 0,8798 0,8956t0,1 3825 385,1 2972 3122 3863 4394 4476

Estimativas a posteriori para as Unidades Laser baseadas nos Pseudo Tempos de Vida

Parâmetro Média Desvio Padrão Percentis

Fonte: Hamada (2005).

A probabilidade de um laser funcionar até 4500 horas é 0,75, com probabilidade de 95% de estar entre 0,55 e 0,90.

1% dos lasers falham antes de completarem 3825 horas de uso, com probabilidade de 95% entre 2972 e 4476 horas.

Se observarmos os figuras 5 a 7 notaremos que quando estimamos o percentil 1 pela abordagem Clássica (Weibull e Lognormal) o mesmo é um tanto menor que o encontrado através da abordagem Bayesiana.

É notável também que R(4500) só se “equipara”, nas duas escolas, quando o usamos o modelo Weibull para a descrição dos “pseudo tempos de falha”. O modelo Clássico Lognormal gera estimativas um pouco menores. Isso pode ser devido ao fato de que a distribuição Lognormal apresentou ajuste mais pobre em relação aos tempos de falha estimados.

TABELA 2 - Estimativas a posteriori para as Unidades Laser – Tempo observado

0,025 0,050 0,500 0,950 0,975Beta 5,644 2,33 1,393 1,896 5,357 9,667 10,12Lâmbda 3,54E-05 2,32E-03 8,31E-28 1,31E-26 2,12E-15 2,14E-06 4,67E-05R(4500) 0,6677 0,1636 0,3004 0,3624 0,6905 0,8978 0,9215t0,1 3584 611,3 2272 2641 3592 4476 4801

Estimativas a posteriori para as Unidades Laser baseadas nos Tempos de Vida

Parâmetro Média Desvio Padrão Percentis

Fonte: Hamada (2005).

Nota-se que assim como no caso Clássico – ver artigo de Toledo (2007) – que a abordagem Bayesiana oferece estimativas um pouco menores para as medidas de interesse quando são utilizados as falhas observadas (tabela 2).

A título informativo acrescentamos aqui também o caso em que Hamada inclui o erro proveniente da estimação dos tempos de falha (tabela 3).

TABELA 3- Estimativas a posteriori para as Unidades Laser – Erro modelado

0,025 0,050 0,500 0,950 0,975Beta 5,688 0,9496 3,692 4,014 5,765 7,037 7,139Lâmbida 6,628E-11 1,35E-09 2,587E-20 4,93E-20 1,63E-16 1,10E-11 8,53E-11Sigma 0,2063 0,009792 0,1882 0,1909 0,2059 0,2231 0,2266R(4500) 0,7107 0,08402 0,5236 0,5575 0,7200 0,8317 0,8477t0,1 3650 348,6 2852 3006 3699 4137 4206

Estimativas a posteriori para as Unidades Laser baseadas nos dados de DegradaçãoPercentisParâmetro Média Desvio Padrão

Fonte: Hamada (2005).

XLI SBPO 2009 - Pesquisa Operacional na Gestão do Conhecimento Pág. 764

Observa-se claramente que o intervalo de credibilidade se torna um pouco mais amplo, mas nada gritante, que o intervalo do modelo que considera os tempos de falha estimados como observados. Assim, no caso em questão, utilizar os tempos de falha observados ou estimados não parece influenciar muito as estimativas das medidas de interesse do mesmo modo que no caso Clássico.

Com o intuito de averiguar a acurácia das duas abordagens, e validar o fato observado na análise de que para o percentil 1 a estimativa clássica é um pouco menor que a bayesiana, realizamos uma simulação. Assumimos que os tempos de falha estimados seguiam uma distribuição Weibull(6,63225;5487,61) e os erros relativos às estimação desses tempos são N(0;0,2063). Dessa forma conhecemos os valores reais de R(4500) e do percentil 1 dos tempos de falha. Os perfis de desgaste foram os seguintes:

Figura 8 - Perfis de Degradação Simulados

Para a abordagem Clássica foram realizados os mesmos passos de análise de 3.1, considerou-se apenas o modelo Weibull pois já sabiamos de antemão que os tempos de falha seguiam essa distribuição. Para a abordagem Bayesiana foram utilizadas as prioris abaixo para os parâmetros:

)01,0;01,0(~

)01,0;01,0(~)01,0;01,0(~

2 idaGamaInvert

GamaGama

σ

λβ

As amostras geradas das distribuições a posteriori para os parâmetros foram de 20000, dessas as quais 500 observações foram retiradas (burn in) com saltos de 500 em 500. A forma da modelagem para este caso é diferente da do caso clássico no que diz respeito à parametrização da distribuição, entretanto não entraremos em detalhes (para tal ver Hamada 2005). Na figura 9 notamos a boa convergência das cadeias geradas pelo WinBUGS.

No quadro 1 podemos notar que o Intervalo de Confiança (95%) do caso Clássico engloba as estimativas reais. O Intervalo de Credibilidade com probabilidade 0,95 também envelopa as estimativas reais. Pontualmente, nota-se que a estimativa de t0,01 é um pouco maior para análise Bayesiana, seguida da estimativa Clássica e finalmente do valor real, o que corrobora nossa constatação anterior. Observa-se também, que para R(4500) os Intervalos de Confiança e Credibilidade abrangem a estimativa real, e pontualmente as estimativas se equiparam.

Podemos admitir que ambos os enfoques Bayesiano e Clássico são eficazes ao descreverem os tempos de falha. A abordagem Clássica tem a vantagem de ser mais facilmente executada, enquanto a Bayesiana incorpora melhor as incertezas sobre as quantidades de interesse.

XLI SBPO 2009 - Pesquisa Operacional na Gestão do Conhecimento Pág. 765

lambda

iteration501 5000 10000 15000 20000

0.0

2.00E-9

4.00E-9

6.00E-9

sigma

iteration501 5000 10000 15000 20000

0.16 0.18 0.2 0.22 0.24 0.26

Figura 9 - Gráficos de verificação da convergência da cadeia para a dist. a posteriori de β , λ e σ .

RealR(4500) 0,764 - -t(0,01) 2742,554 - -

Estimativa PontualR(4500) 0,711 (0,476139 0,855393)t(0,01) 2897,723 (2240,31 3748,05)

Estimativa PontualR(4500) 0,738 (0,562 0,893)t(0,01) 2970,081 (2350,381 3745,225)

Estimativas reais

Modelo de Degradação - Caso Clássico

Modelo de Degradação - Caso Bayesiano95% ICredibilidade

95% IConfiança

Quadro 10 – Estimativas de interesse para os dados simulados

4. ConclusãoNeste estudo fomentávamos conhecer a confiabilidade de emissores de laser pela abordagem

Clássica, e realizar um paralelo com a abordagem Bayesiana de Hamada. Um total de 15 unidades foram analisadas utilizando-se o Modelo de Degradação pelo Método da Aproximação. Comparou-se então os intervalos de confiança construídos através de Testes de Vida convencional, Bootstrap e Monte Carlo.

Os intervalos de confiança gerados pelas metodologias Bootstrap e Monte Carlo não foram vantajosos com relação à metodologia convencional no caso da distribuição Lognormal. Já no caso da distribuição Weibull estes mesmos intervalos apresentaram-se mais estreitos que os da metodologia convencional para a maioria das medidas de interesse, trazendo melhores resultados quando o interesse é o intervalo de confiança.

beta1

iteration501 5000 10000 15000 20000

0.0

5.0

10.0

15.0

XLI SBPO 2009 - Pesquisa Operacional na Gestão do Conhecimento Pág. 766

Notamos que quando estimamos o percentil 1 pela metodologia Clássica (Weibull e Lognormal) o mesmo é um tanto menor que o encontrado através da abordagem Bayesiana (artigo de Hamada). Esse fato foi corroborado através de uma simulação.

É notável também que R(4500) só se “equipara”, nas duas escolas, quando usamos o modelo Weibull para a descrição dos “pseudo tempos de falha”. O modelo Clássico Lognormal gera estimativas um pouco menores, provavelmente por conta de não apresentar aderência tão boa quanto a Weibull para a distribuição dos tempos de falha estimados.

Observa-se também, assim como na situação Clássica – ver artigo de Toledo (2007) – que a abordagem Bayesiana oferece estimativas um pouco menores para as medidas de interesse quando são utilizadas as falhas observadas. Notou-se que, no caso em questão, utilizar os tempos de falha observados ou estimados não parece influenciar muito as estimativas das medidas de interesse do mesmo modo que no caso Clássico.

As escolas (Bayesiana e Clássica) são eficazes ao descreverem os tempos de falha. A abordagem Clássica tem a vantagem de ser mais facilmente executada, enquanto a Bayesiana incorpora melhor as incertezas sobre as quantidades de interesse.

É difícil dizer qual abordagem é melhor atacar um problema de confiabilidade, entretanto a Bayesiana incorpora o erro de estimação dos pseudo tempos de falha e merece alguma atenção.

Consideramos que seria bastante interessante a realização de simulações de diversas situações e distribuições de tempos de falha. Poder-se-ia observar o comportamento do Modelo de Degradação pelo Método de Aproximação ,Clássico e Bayesiano, e suas capacidades de estimação das quantidades de interesse de modo a apontar qual a melhor alternativa para cada situação prática.

5. ReferênciasToledo, M. L. G., Ensaios de Degradação: estudo comparativo de métodos de análise de dados, 2007. Dissertação (Mestrado em Estatística) – Departamento de Estatística, Universidade Federal de Minas Gerais, Minas Gerais.Hamada, M., Using Degradation Data to Assess Reliability. Quality Engineering, v.17, 2006. p.615-620.Lee, P. M., Bayesian Statistics: An Introduction. London, Arnold, 2004.Ibrahim, J. G., Chen, M., Sinha,, D. Bayesian Survival Analysis. New York, Springer, 2001.Lu, C. J., Meeker, W. Q., Using Degradation Measures to Estimate a Time- to-Failure Distribution. Technometrics, v.35, 1993. p.161-174.Meeker, W. Q., Escobar, L. A., Accelerated Degradation Tests: Modeling and Analysis. Technometrics, v. 40, nº. 2, 1998. p. 89-99.Tseng, S. T., Hamada, M., Chiao, C. H., Using Degradation Data to Improve Fluorescent Lamp Reliability. Journal of Quality Technology, v.27, 1995. p.363-369.Yacout, A. M., Salvatores, S., Orechwa, Y., Degradation Anaysis Estimates of the Time-to-Failure Distribution of Irradiated Fuel Elements. Nuclear Technology, v.113, 1996. p.177-189.Wu, S. J., Tsai, T. R., Estimation of Time-to-Failure Distribution Derived From a Degradation Model Using Fuzzy Clustering. Quality and Reliability Engineering International, v.16, 2000. p.261-267.Freitas, M. A., Colosimo,E. A., Confabilidade: Análise de Tempo de Falhas e Testes de Vida Acelerados. Belo Horizonte: Fundação Christiano Ottoni, Escola de Engenharia, Universidade Federal de Minas Gerais, 1997.Colosimo, E. A.; Giolo, S. R., Análise de sobrevivência aplicada. São Paulo, Edgar Blücher, 2006.Lawless, J. F., Statistical Models and Methods for Lifetime Data, New Jersey, Wiley-Interscience, 2003.Davison, A. C., Hinkley, D. V., Bootstrap methods and their application. NewYork, Cambridge University Press, 1997.Gentle, J. E., Random number generation and Monte Carlo methods. New York: Springer-Verlag, 1998.

XLI SBPO 2009 - Pesquisa Operacional na Gestão do Conhecimento Pág. 767