flavio filgueiras pacheco moreira - coppead.ufrj.br · esta pesquisa comparou os desempenhos,...

150
UNIVERSIDADE FEDERAL DO RIO DE JANEIRO CENTRO DE CI˚NCIAS JUR˝DICAS E ECONMICAS INSTITUTO DE PS-GRADUA˙ˆO E PESQUISA EM ADMINISTRA˙ˆO COPPEAD ESTUDO COMPARATIVO DOS MÉTODOS DE QUASI-MONTE CARLO, AMOSTRAGEM DESCRITIVA, HIPERCUBO LATINO E MONTE CARLO CLÁSSICO NA ANÁLISE DE RISCO Flavio Filgueiras Pacheco Moreira Dissertaªo de Mestrado Orientador: Prof. Dr. Eduardo Saliby PhD em Pesquisa Operacional - LANCASTER/UK Rio de Janeiro Maro 2001

Upload: lamkhanh

Post on 08-Dec-2018

213 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

UNIVERSIDADE FEDERAL DO RIO DE JANEIROCENTRO DE CIÊNCIAS JURÍDICAS E ECONÔMICASINSTITUTO DE PÓS-GRADUAÇÃO E PESQUISA EM ADMINISTRAÇÃOCOPPEAD

ESTUDO COMPARATIVO DOS MÉTODOS DE QUASI-MONTE CARLO,

AMOSTRAGEM DESCRITIVA, HIPERCUBO LATINO E MONTE CARLO

CLÁSSICO NA ANÁLISE DE RISCO

Flavio Filgueiras Pacheco Moreira

Dissertação de Mestrado

Orientador: Prof. Dr. Eduardo SalibyPhD em Pesquisa Operacional - LANCASTER/UK

Rio de JaneiroMarço 2001

Page 2: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

ii

Folha de Aprovação

ESTUDO COMPARATIVO DOS MÉTODOS DE QUASI-MONTE CARLO,

AMOSTRAGEM DESCRITIVA, HIPERCUBO LATINO E MONTE CARLO

CLÁSSICO NA ANÁLISE DE RISCO

Flavio Filgueiras Pacheco Moreira

Dissertação submetida ao corpo docente do Instituto de Pós-Graduação ePesquisa em Administração da Universidade Federal do Rio de Janeiro, como parte dosrequisitos necessários à obtenção do grau de mestre.

Aprovada por:

Prof. _______________________________________ - Orientador Eduardo Saliby COPPEAD/UFRJ

Prof. _______________________________________ Eduardo Facó Lemgruber COPPEAD/UFRJ

Prof. _______________________________________ Gastão Coelho Gomes COPPE/UFRJ

Page 3: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

iii

Ficha Catalográfica

Moreira, Flavio Filgueiras Pacheco.Estudo comparativo dos métodos de Quasi-Monte Carlo,

Amostragem Descritiva, Hipercubo Latino e Monte Carlo clássico naanálise de risco/Flavio Filgueiras Pacheco Moreira. Rio de Janeiro:UFRJ/COPPEAD, 2001.

xv, 135p. il.Dissertação Universidade Federal do Rio de Janeiro,

COPPEAD, 2001.1. Análise de risco. 2. Métodos de amostragem. 3. Simulação. 4.

Tese (Mestr. UFRJ/COPPEAD). I. Título.

Page 4: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

iv

Ao Lucas,

Simples Amostra de Esperança.

Page 5: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

v

AGRADECIMENTOS

Ao professor Eduardo Saliby, pelo grande incentivo, pela confiança

demonstrada e pela valiosa Orientação.

Aos professores Eduardo Facó Lemgruber e Gastão Coelho Gomes, pelo

empenho na leitura da versão final do trabalho há poucos dias da apresentação e pelas

sugestões acrescentadas.

A minha esposa, Claudia, pela compreensão, apoio e incentivo durante todas as

etapas de elaboração deste trabalho, e por Tudo que possa ser entendido como Amor.

Aos meus sogros, Alcides e Sabah, pelo incentivo e por cuidar de meu ativo

mais precioso, o Lucas, durante os momentos de preparação e redação do trabalho.

A minha mãe, Oraide, pelo apoio, incentivo e presença constante em todas as

etapas de minha formação.

Aos meus irmãos, Claudio e Lucio, pelo incentivo para realização deste projeto.

Aos demais parentes, amigos e Instituições (COPPEAD, CNPq e Booz·Allen &

Hamilton) que, direta ou indiretamente, contribuíram para a realização deste trabalho de

pesquisa.

Page 6: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

vi

RESUMO

MOREIRA, F. F. P. Estudo comparativo dos métodos de Quasi-Monte Carlo,

Amostragem Descritiva, Hipercubo Latino e Monte Carlo clássico na análise

de risco. Orientador: Eduardo Saliby. Rio de Janeiro: UFRJ/COPPEAD, 2001.

135p. Dissertação. (Mestrado em Ciências da Administração)

Esta pesquisa comparou os desempenhos, quanto à velocidade de convergência e

exatidão dos resultados, de seis métodos de amostragem empregados atualmente em

ambientes empresariais e acadêmicos. Os métodos analisados foram o de Quasi-Monte

Carlo, utilizando as seqüências numéricas de baixa discrepância de Halton, Sobol e

Faure, o método de conjunto determinístico, como a amostragem Descritiva, o de

conjunto estratificado, como o Hipercubo Latino, e o clássico método de Monte Carlo.

Este último é precursor dos demais e considerado padrão de amostragem nas aplicações

de Simulação. Os desempenhos dos métodos em relação aos critérios adotados para

convergência e exatidão foram comparados entre si em três categorias de aplicações da

análise de risco decisão de investimento, avaliação de carteira de ações, avaliação do

preço de opções - e em uma aplicação científica, caracterizada pela avaliação de

integrais múltiplas. O método da amostragem Descritiva apresentou os melhores

resultados consolidados para as condições estabelecidas.

Page 7: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

vii

ABSTRACT

MOREIRA, F. F. P. Estudo comparativo dos métodos de Quasi-Monte Carlo,

Amostragem Descritiva, Hipercubo Latino e Monte Carlo clássico na análise

de risco. Orientador: Eduardo Saliby. Rio de Janeiro: UFRJ/COPPEAD, 2001.

135p. Dissertação. (Mestrado em Ciências da Administração)

This research has intended to compare the performance, regarding the rate of

convergence and the valuation precision, of six sampling methods applied to the

businesses sphere and academic researches nowadays. The employed methods were the

Quasi-Monte Carlo with the Halton, Sobol and Faure low discrepancy numerical series,

deterministic set method as Descriptive sampling, stratified set method as Latin

Hypercube sampling, and the classic Monte Carlo method. The latter method is the

pioneer of the existing ones and considered as the standard sampling method in

Simulation. The analyzed methods performance based on the rate of convergence and

the results precision criteria were compared against each other in three categories of

risk analysis applications investment decision, stock portfolio evaluation, option price

evaluation and in a scientific application, consisting of multiple integration evaluation.

The Descriptive sampling method showed the best aggregate results on the previous

assigned conditions.

Page 8: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

viii

LISTA DE QUADROS

Quadro 4.1 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato definido para o caso-base (D=5), na aplicação de Análisede Risco.................................................................................................................. 92

Quadro 4.2 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato definido para o caso variante 1 (D=8), na aplicação deAnálise de Risco .................................................................................................... 93

Quadro 4.3 Número de corridas e valor absoluto do desvio percentual relativo ao valorexato definido para o caso variante 2 (D=16), na aplicação de Análise de Risco 94

Quadro 4.4 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato definido para o caso variante 3 (D=12), na aplicação deAnálise de Risco .................................................................................................... 95

Quadro 4.5: Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato para o caso-base (D=4), na aplicação de Avaliação dePortfolio de Ações ............................................................................................... 100

Quadro 4.6 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato para o caso variante 1 (D=8), na aplicação de Avaliação dePortfolio de Ações ............................................................................................... 101

Quadro 4.7 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato para o caso variante 2 (D=10), na aplicação de Avaliaçãode Portfolio de Ações .......................................................................................... 102

Quadro 4.8 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato para o caso-base, na aplicação de Precificação de Opções.............................................................................................................................. 107

Quadro 4.9 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato da integral no caso-base (D=4), na aplicação de IntegraçãoMúltipla ............................................................................................................... 111

Quadro 4.10 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato da integral no caso variante 1 (D=8), na aplicação deIntegração Múltipla ............................................................................................ 112

Quadro 4.11 Número de corridas e valor absoluto do desvio percentual do resultadorelativo ao valor exato da integral no caso variante 2 (D=10), na aplicação deIntegração Múltipla ............................................................................................ 113

Page 9: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

ix

LISTA DE GRÁFICOS

Figura 2.1 Resultado possível em experimentos bidimensionais para quantificar adiscrepância das séries numéricas regiões concentradas e regiões vazias........... 29

Figura 2.2 Discrepâncias para 50 pares ordenados no quadrado unitário, utilizandocomo coordenadas séries de Halton (A) e séries aleatórias (B) - D50(A) = 3% eD50(B) = 5%............................................................................................................ 29

Figura 2.3 Discrepâncias para 150 pares ordenados no quadrado unitário, utilizandocomo coordenadas séries de Halton (A) e séries aleatórias (B) D150(A) = 1,67% eD150(B) = 2,33%. .................................................................................................... 30

Figura 2.4 Discrepância para 255 pares ordenados no quadrado unitário, utilizandocomo coordenadas séries de Halton (baixa-discrepância) D255 = 0,57%. ........... 30

Figura 2.5 Discrepância para 255 pares ordenados no quadrado unitário, utilizandocomo coordenadas séries aleatórias D255 = 1,35% .............................................. 31

Gráfico 3.1 Função de distribuição acumulada de probabilidades dos volumes anuaisde vendas (mil unidades), segundo tabela 3.2 ........................................................ 67

Gráfico 4.1 Percentual consolidado de vitórias de cada método de amostragem sobre ototal relativo ao critério de velocidade de convergência, na aplicação de Análise deRisco ....................................................................................................................... 96

Gráfico 4.2 Percentual consolidado de vitórias de cada método de amostragem sobre ototal relativo ao critério de exatidão do resultado, na aplicação de Análise de Risco................................................................................................................................ 97

Gráfico 4.3 Percentual consolidado de vitórias de cada método de amostragem sobre ototal relativo à velocidade de convergência, na aplicação de Avaliação de Portfoliode Ações ............................................................................................................... 105

Gráfico 4.4 Percentual consolidado de vitórias de cada método de amostragem sobre ototal relativo à exatidão do resultado, na aplicação de Avaliação de Portfolio deAções .................................................................................................................... 106

Gráfico 4.5 Percentual consolidado de vitórias para cada método de amostragem sobreo total relativo ao critério de exatidão do resultado, na aplicação de Precificação deOpções .................................................................................................................. 109

Gráfico 4.6 Percentual consolidado das vitórias de cada método de amostragem sobreo total relativo ao critério da velocidade de convergência, na aplicação deIntegração Múltipla............................................................................................... 114

Page 10: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

x

Gráfico 4.7 Percentual consolidado das vitórias de cada método de amostragem sobreo total relativo ao critério de exatidão do resultado, na aplicação de IntegraçãoMúltipla ................................................................................................................ 115

Gráfico 5.1 Percentual consolidado das vitórias de cada método de amostragem sobreo total relativo ao critério da velocidade de convergência, em todos osexperimentos da pesquisa ..................................................................................... 117

Gráfico 5.2 Percentual consolidado das vitórias de cada método de amostragem sobreo total relativo ao critério de exatidão do resultado, em todos os experimentos dapesquisa ................................................................................................................ 118

Gráfico 5.3 Percentual consolidado das vitórias de cada método de amostragem sobreo total relativo a ambos os critérios de desempenho, em todas as aplicações dapesquisa ................................................................................................................ 120

Page 11: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

xi

LISTA DE TABELAS

Tabela 3.1 Custos unitários dos novos produtos e suas probabilidades de ocorrência,para a aplicação de Análise de Risco no lançamento ............................................. 66

Tabela 3.2 Intervalos possíveis para os volumes anuais de venda dos novos produtos,para a aplicação de Análise de Risco no lançamento ............................................. 67

Tabela 3.3 Valores do investimento inicial para lançar o novo produto e suasprobabilidades de ocorrência, para a terceira variante da aplicação de Análise deRisco ....................................................................................................................... 70

Tabela 3.4 Variações no preço final dos novos produtos com as respectivasprobabilidades de ocorrência, para a terceira variante da aplicação de Análise deRisco ....................................................................................................................... 70

Tabela 3.5 Reduções no volume de vendas do primeiro ano após lançar o produto, paraa terceira variante da aplicação de Análise de Risco.............................................. 71

Tabela 3.6 Retornos anuais médios e desvios-padrão para as ações da carteiraanalisada, na aplicação de Avaliação de Portfolio de Ações.................................. 72

Tabela 3.7 Matriz de correlação entre os retornos anuais médios das ações da carteiraanalisada, na aplicação de Avaliação de Portfolio de Ações.................................. 72

Tabela 3.8 Retornos anuais médios e desvios-padrão para as ações da carteiraanalisada, na primeira variante da aplicação de Avaliação de Portfolio de Ações 73

Tabela 3.9 Matriz de correlação dos retornos anuais médios das ações da carteiraanalisada, na segunda variante da aplicação de Avaliação de Portfolio de Ações. 74

Tabela 3.10 Retornos anuais médios e desvios-padrão das ações da carteira analisada,na terceira variante da aplicação de Avaliação de Portfolio de Ações................... 74

Tabela 3.11 Matriz de correlação dos retornos anuais médios das ações da carteiraanalisada, na terceira variante da aplicação de Avaliação de Portfolio de Ações .. 75

Tabela 3.12 Fluxo de caixa bruto do portador de uma opção de compra para um ativo-objeto, na data de exercício ou do vencimento da opção ....................................... 76

Tabela 4.1 Valores exatos para o VPL, tamanho das amostras, número de corridas ecritério de desvio, adotados nos casos da aplicação de Análise de Risco .............. 91

Tabela 4.2 Valores exatos para a probabilidade, tamanho das amostras, número decorridas e critério de desvio, adotados na aplicação de Avaliação de Portfolio deAções ...................................................................................................................... 99

Page 12: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

xii

Tabela 4.3 Valores exatos para a integral, tamanho de amostras, número de corridas ecritério de desvio, adotados na aplicação de Integração Múltipla........................ 110

Tabela 4.4 Número de linhas de código das macros elaboradas em VBA para forneceras amostras de acordo com os algoritmos dos métodos de amostragem analisadosna pesquisa............................................................................................................ 116

Tabela 7.1 Velocidade de convergência máxima e mínima e respectivos desviospercentuais, relativos à Monte Carlo, para cada método de amostragem naaplicação de Análise de Risco .............................................................................. 125

Tabela 7.2 Desvio percentual máximo e mínimo e respectivas velocidades deconvergência, relativos à Monte Carlo, para cada método de amostragem naaplicação de Análise de Risco .............................................................................. 126

Tabela 7.3 Número de vitórias para cada método de amostragem estudado quanto aocritério da velocidade de convergência, na aplicação de Análise de Risco.......... 127

Tabela 7.5 Velocidade de convergência máxima e mínima e respectivos desviospercentuais, relativos à Monte Carlo, para cada método de amostragem naaplicação de Avaliação de Portfolio de Ações ..................................................... 128

Tabela 7.6 Desvio percentual máximo e mínimo e respectivas velocidades deconvergência, relativos à Monte Carlo, para cada método de amostragem naaplicação de Avaliação de Portfolio de Ações ..................................................... 129

Tabela 7.7 Número de vitórias para cada método de amostragem estudado quanto aocritério da velocidade de convergência, na aplicação de Avaliação de Portfolio deAções .................................................................................................................... 130

Tabela 7.8 Número de vitórias para cada método de amostragem estudado quanto aocritério da exatidão do resultado, na aplicação de Avaliação de Portfolio de Ações.............................................................................................................................. 130

Tabela 7.9 Velocidade de convergência máxima e mínima e respectivos desviospercentuais, relativos à Monte Carlo, para cada método de amostragem naaplicação de Precificação de Opções.................................................................... 131

Tabela 7.10 Desvio percentual máximo e mínimo e respectivas velocidades deconvergência, relativos à Monte Carlo, para cada método de amostragem naaplicação de Precificação de Opções.................................................................... 131

Tabela 7.11 Número de vitórias para cada método de amostragem estudado quantoaos dois critérios de desempenho, na aplicação de Precificação de Opções ........ 131

Tabela 7.12 Velocidade de convergência máxima e mínima e respectivos desviospercentuais, relativos à Monte Carlo, para cada método de amostragem naaplicação de Integração Múltipla.......................................................................... 132

Page 13: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

xiii

Tabela 7.13 Desvio percentual máximo e mínimo e respectivas velocidades deconvergência, relativos à Monte Carlo, para cada método de amostragem naaplicação de Integração Múltipla.......................................................................... 133

Tabela 7.14 Número de vitórias para cada método de amostragem quanto ao critérioda velocidade de convergência, na aplicação de Integração Múltipla.................. 134

Tabela 7.15 Número de vitórias para cada método de amostragem quanto ao critérioda exatidão do resultado, na aplicação de Integração Múltipla............................ 134

Tabela 7.16 Número de vitórias consolidadas para cada método de amostragem emrelação ao critério da velocidade de convergência, para todas as aplicações....... 135

Tabela 7.17 Número de vitórias consolidadas para cada método de amostragem emrelação ao critério da exatidão do resultado, para todas as aplicações ................. 135

Tabela 7.18 Total geral do número de vitórias para cada método de amostragem emrelação a ambos os critérios de desempenho, para todas as aplicações................ 135

Page 14: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

xiv

SUMÁRIO

1 O PROBLEMA.......................................................................................................... 11.1 INTRODUÇÃO ......................................................................................................... 11.2 OBJETIVOS............................................................................................................. 41.3 QUESTÕES A SEREM RESPONDIDAS ........................................................................ 51.4 HIPÓTESES............................................................................................................. 61.5 DELIMITAÇÃO DO ESTUDO..................................................................................... 61.6 RELEVÂNCIA DO ESTUDO....................................................................................... 7

2 REFERENCIAL TEÓRICO .................................................................................... 92.1 O MÉTODO DE MONTE CARLO............................................................................... 92.2 MÉTODOS DE CONJUNTOS DETERMINÍSTICOS E PROBABILÍSTICOS........................ 10

2.2.2 Hipercubo Latino para grandes amostras .................................................. 182.2.3 Amostragem Descritiva ............................................................................... 20

2.3 MÉTODO DE QUASI-MONTE CARLO .................................................................... 272.3.1 Discrepância................................................................................................ 272.3.2 Séries numéricas de Halton......................................................................... 312.3.3 Método simplificado de Halton ................................................................... 342.3.4 Séries de Sobol e Faure ............................................................................... 362.3.5 Experimentos com séries de baixa-discrepância......................................... 36

2.4 APLICAÇÕES DE QUASI-MONTE CARLO............................................................... 442.5 CONCLUSÕES....................................................................................................... 61

3 METODOLOGIA.................................................................................................... 633.1 TIPO DE PESQUISA................................................................................................ 633.2 UNIVERSO E AMOSTRA......................................................................................... 64

3.2.1 ANÁLISE DE RISCO................................................................................... 653.2.1.1 Variantes do experimento de análise de risco ...................................... 69

3.2.2 AVALIAÇÃO DE PORTFOLIO DE AÇÕES............................................... 713.2.2.1 Variantes do experimento de avaliação de portfolio de ações.............. 73

3.2.3 PRECIFICAÇÃO DE OPÇÕES .................................................................. 753.2.4 INTEGRAÇÃO MÚLTIPLA......................................................................... 78

3.2.4.1 Variantes do experimento de integração múltipla ................................ 793.3 COLETA DE DADOS .............................................................................................. 80

3.3.1 Velocidade de convergência........................................................................ 803.3.2 Exatidão do resultado.................................................................................. 813.3.3 Eficiência da correlação forçada ................................................................ 82

4 RESULTADO .......................................................................................................... 844.1 TRATAMENTO DOS DADOS ................................................................................... 844.2 LIMITAÇÕES DA PESQUISA ................................................................................... 85

4.2.1 Metodologia................................................................................................. 854.2.2 Hardware..................................................................................................... 864.2.3 Software....................................................................................................... 87

4.3 RESULTADOS DAS SIMULAÇÕES........................................................................... 88

Page 15: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

xv

4.3.1 Análise de risco ........................................................................................... 894.3.1.1 Velocidade de convergência................................................................. 964.3.1.2 Exatidão do resultado ........................................................................... 96

4.3.2 Avaliação de Portfolio de Ações ................................................................. 974.3.2.1 Eficiência da correlação forçada......................................................... 1034.3.2.2 Velocidade de convergência............................................................... 1044.3.2.3 Exatidão do resultado ......................................................................... 105

4.3.3 Precificação de Opções ............................................................................. 1064.3.3.1 Velocidade de convergência............................................................... 1084.3.3.2 Exatidão do resultado ......................................................................... 108

4.3.4 Integração múltipla ................................................................................... 1094.3.4.1 Velocidade de convergência............................................................... 1144.3.4.2 Exatidão do resultado ......................................................................... 114

4.3.5 Complexidade do código de programação................................................ 115

5 CONCLUSÃO........................................................................................................ 1175.1 SUGESTÕES PARA NOVAS PESQUISAS ................................................................. 120

6 REFERÊNCIAS BIBLIOGRÁFICAS ................................................................ 122

7 ANEXO................................................................................................................... 1257.1 APLICAÇÃO DE ANÁLISE DE RISCO.................................................................... 1257.2 APLICAÇÃO DE AVALIAÇÃO DE PORTFOLIO DE AÇÕES...................................... 1287.3 APLICAÇÃO DE PRECIFICAÇÃO DE OPÇÕES........................................................ 1317.4 APLICAÇÃO DE INTEGRAÇÃO MÚLTIPLA ........................................................... 1327.5 CONSOLIDAÇÃO DO NÚMERO DE VITÓRIAS NA PESQUISA................................... 135

Page 16: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

1 O PROBLEMA

Neste capítulo, serão apresentadas as principais características dos métodos de

simulação, os objetivos e questões a serem respondidos após a pesquisa, as principais

hipóteses e delimitações para os métodos empregados e as razões que justificaram e

motivaram este estudo.

1.1 Introdução

A simulação é um método de resolução de problemas complexos ou de difícil

solução analítica que vem sendo cada vez mais utilizada em diversas áreas de

conhecimento, como as áreas administrativas e financeiras. A crescente complexidade

das análises e das inter-relações entre as variáveis, além da maior disponibilidade de

recursos computacionais, têm contribuído para isso.

As principais vantagens oferecidas pelo método de simulação são a grande

flexibilidade na preparação de aplicações e o grau de acessibilidade aos pesquisadores

interessados. Sistemas de apreciação de ativos, avaliação de fluxos de caixa, previsão de

vendas, controle de estoques, atendimento a clientes e transportes público e militar têm

sido exemplos correntes de aplicações das ferramentas de simulação.

As principais desvantagens na utilização do método de simulação - dificuldade

operacional na modelagem e implementação das aplicações - e o tempo empregado para

executar os programas têm sido atenuados pela evolução computacional e pelo

surgimento de algoritmos que procuram reduzir o tempo de execução das atividades.

Todo processo de simulação consiste na construção de um modelo lógico-

matemático, na tradução deste modelo em linguagem de programação, na execução do

programa e na coleta de resultados. Segundo Saliby (1989), há três categorias de

simulação: determinística/probabilística, estática/dinâmica e discreta/contínua.

Page 17: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

2

Na simulação determinística, as variáveis presentes são determinísticas e, em

caso de problemas mais simples, existe uma solução analítica que deve ser analisada. É

o caso de aplicações em planejamento financeiro e sistemas macroeconômicos. Na

simulação probabilística, o modelo é mais próximo da realidade e, por conseqüência,

mais complexo, havendo maior número de inter-relacionamentos entre variáveis. Nestes

casos, os modelos possuem variáveis aleatórias com papéis auxiliares cujos valores

serão gerados pelos métodos apropriados a cada problema.

A simulação estática é utilizada nos sistemas que não sofrem alteração ao longo

do tempo, como por exemplo nas aplicações do método de Monte Carlo ao cálculo de

integrais ou nas amostragens realizadas em estudos estatísticos. Contudo, a maioria das

aplicações de simulação está ligada a experimentos em sistemas que evoluem com o

tempo, como é o caso das análises financeiras, que requerem o uso da simulação

dinâmica.

A simulação é classificada como discreta ou contínua de acordo com os valores

assumidos pelas variáveis e com os processos utilizados para atualização dos mesmos.

Na simulação discreta, a hipótese é que o estado do sistema não se altera entre a

ocorrência de eventos consecutivos. Na simulação contínua, muito embora a passagem

do tempo seja em pequenos intervalos, o tempo é considerado contínuo pelo sistema em

estudo. De acordo com Saliby (1989), a simulação contínua é muito utilizada nos

sistemas descritos por equações diferenciais e nas simulações de processos contínuos

como as operações em refinarias de petróleo.

A maioria das aplicações realizadas neste estudo é de natureza probabilística

discreta. Esta dissertação estuda o problema do tempo e da exatidão dos resultados nos

experimentos de simulação, analisando os diversos métodos de amostragem existentes e

que têm sido recentemente pesquisados no universo acadêmico. Dentre estes métodos,

estão o método de Monte Carlo, os de Quasi-Monte Carlo (ou de baixa-discrepância), o

Hipercubo Latino e a amostragem Descritiva.

Page 18: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

3

Na verdade, alguns dos métodos de amostragem utilizados representam uma

mudança de princípio em relação ao tradicional método de Monte Carlo. Segundo

Saliby (1989), o princípio da imitação total, que fez da amostragem aleatória simples

(Monte Carlo) um padrão em simulação, não é seguido quando utilizamos a

amostragem Descritiva ou algumas das séries de baixa-discrepância (Quasi-Monte

Carlo) nas aplicações. Os resultados obtidos abrem caminho para questionar a

padronização deste princípio nos casos de simulação.

O método de Monte Carlo foi proposto, inicialmente, por von Neumann e Ulam

para a solução de problemas matemáticos complexos com difícil solução analítica,

durante a Segunda Guerra Mundial. Estes problemas envolviam soluções de integrais

múltiplas nos estudos de difusão de nêutrons que, mais tarde, culminariam na

construção da primeira bomba atômica. Alguns anos depois, as principais deficiências

do método foram apontadas como sendo o grande esforço computacional envolvido e a

baixa precisão dos resultados.

Na década de 50, o método de Monte Carlo foi utilizado para aplicações

envolvendo filas de espera com o intuito de estimar parâmetros e obter conclusões sobre

seu comportamento. Era o início das aplicações de simulação por Monte Carlo. Um dos

pioneiros desta idéia foi Tocher, autor do primeiro livro sobre o assunto, lançado em

1963.

Os métodos do Hipercubo Latino e da amostragem Descritiva, que surgiram nas

aplicações de simulação após Monte Carlo, foram comparados a este por diversos

pesquisadores, dentre eles Saliby (1990a) e Saliby e Paul (1993), que identificaram

melhora, em termos estatísticos, em relação à amostragem aleatória simples.

Os métodos de amostragem de Quasi-Monte Carlo, que têm sido empregados

recentemente em inúmeros experimentos, podem auxiliar no cálculo do valor em risco

das aplicações do mercado financeiro. A complexidade da modelagem e da

programação, entretanto, poderia não justificar o aumento na velocidade de

convergência dos resultados em algumas ocasiões.

Page 19: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

4

Desta forma, seria sempre recomendável utilizar os métodos de amostragem de

Quasi-Monte Carlo quando o aparato computacional e seus afins não representassem

impedimento e a velocidade de simulação fosse o fator preponderante na aplicação

estudada?

Assim, o objetivo principal deste trabalho é utilizar os métodos de Quasi-Monte

Carlo, amostragem Descritiva e Hipercubo Latino em aplicações voltadas

principalmente ao mercado financeiro e comparar os resultados obtidos aos

provenientes do método tradicional de Monte Carlo.

1.2 Objetivos

O objetivo principal deste estudo é comparar a exatidão dos resultados e o tempo

empregado na simulação dos experimentos da área financeira quando utilizamos os

métodos de amostragem de Quasi-Monte Carlo (Faure, Sobol e Halton) e os demais

métodos de amostragem conhecidos (Monte Carlo, Hipercubo Latino e Descritiva).

Outro objetivo do estudo é identificar o grau de complexidade adicionado ao

modelo computacional desenvolvido para Monte Carlo quando adotamos algum dos três

outros métodos de amostragem conhecidos (Quasi-Monte Carlo, Hipercubo Latino ou

amostragem Descritiva).

Um objetivo intermediário é testar os algoritmos sugeridos por Cholesky para

obtenção de séries correlacionadas a partir de séries de amostras aleatórias

independentes. As amostras transformadas por Cholesky serão empregadas nos

experimentos envolvendo carteiras de ações. Os resultados serão comparados aos

obtidos sem utilizar a transformação.

Page 20: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

5

Há interesse em desenvolver algoritmos e macros em Excel para os métodos de

amostragem de Quasi-Monte Carlo e para as transformadas de Cholesky, a fim de tornar

acessíveis os resultados e incentivar novas pesquisas na área.

Por fim, pretendemos aplicar os conceitos da amostragem por Quasi-Monte

Carlo a problemas de cálculo com integrais múltiplas para testar a exatidão dos

resultados em relação à solução analítica já conhecida.

1.3 Questões a serem respondidas

O aumento na velocidade de simulação utilizando Quasi-Monte Carlo em

relação à velocidade utilizando Monte Carlo é significativo?

A complexidade acrescentada ao modelo sugerido e ao código de programação

pode representar impedimento à utilização de Quasi-Monte Carlo?

O ganho de velocidade ao utilizar Quasi-Monte Carlo em relação às velocidades

obtidas com os métodos do Hipercubo ou da amostragem Descritiva é significativo?

Existe algum parâmetro que possa caracterizar as aplicações em que a utilização

de Quasi-Monte Carlo possa ser viável ou inviável?

Em aplicações científicas, que exigem normalmente a resolução de integrais

múltiplas, a performance do método de Quasi-Monte Carlo excedeu a performance de

Monte Carlo clássico?

O emprego do algoritmo de transformação de Cholesky realmente produz séries

correlacionadas segundo uma matriz fornecida?

Page 21: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

6

Os resultados das aplicações envolvendo uma carteira de ações correlacionadas

apresentaram valores muito discrepantes antes e após aplicar a transformada de

Cholesky?

Existe algum parâmetro ou matriz de correlação para as ações da carteira que

possua influência na comparação dos resultados antes e após aplicar Cholesky?

1.4 Hipóteses

A velocidade de simulação utilizando a seqüência de Faure (Quasi-Monte Carlo)

é muito inferior às velocidades utilizando outras seqüências de amostragem com baixa-

discrepância.

A velocidade de simulação utilizando a seqüência de Faure é equivalente à

velocidade de convergência utilizando a seqüência de amostragem Descritiva.

A aplicação das transformadas de Cholesky não traz resultados significativos

quando o número de corridas de simulação é muito elevado.

O aumento na complexidade do código de programação ao utilizar o método de

Quasi-Monte Carlo é significativo apenas para a seqüência de Halton.

1.5 Delimitação do estudo

O experimento de comparação entre dois ou mais métodos de amostragem pode

envolver uma série de dimensões de comparação. Dentre estas dimensões, destacamos

apenas três a serem considerados neste estudo: a velocidade de convergência do

experimento, a exatidão do resultado obtido na simulação e o grau de complexidade do

código de programação adotado.

Page 22: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

7

A velocidade de convergência da variável de saída do experimento envolve

critérios de parada que podem estar associados, entre outros parâmetros, à precisão do

resultado obtido, ao número de corridas executadas ou ao tempo máximo permitido para

a simulação do experimento. A escolha do critério dependerá do tipo de exercício

realizado.

A exatidão do resultado obtido na simulação será avaliada pelo desvio

percentual do resultado, após a convergência, relativo ao valor exato da simulação. Este

valor foi definido como o resultado obtido pela execução do experimento com Monte

Carlo clássico. Pelo critério de convergência adotado, a simulação será interrompida

quando duas corridas consecutivas apresentarem resultados cujo desvio percentual for

inferior a um limite pré-estabelecido.

O grau de complexidade do programa gerador de amostras pode ser comparado

através de alguns parâmetros, por exemplo, pelo tempo empregado para gerar uma única

amostra de tamanho significativo, pelo número de linhas de programação no código-

fonte ou pelo tipo da linguagem de programação adotada na simulação. Neste estudo, a

comparação foi feita através do número total de linhas no programa.

Devido ao interesse de tornar os programas desenvolvidos acessíveis em simples

computadores pessoais (sem softwares específicos para análise de dados), a linguagem

de programação utilizada foi o VBA do MS Excel 2000.

1.6 Relevância do estudo

O método de Monte Carlo é amplamente utilizado em Simulação, desde a

apreciação de instrumentos financeiros complexos até a resolução de integrais múltiplas

cuja solução analítica não aparenta ser viável. Estudos preliminares como em Traub

(1996) envolvendo métodos determinísticos de amostragem, entretanto, mostraram

Page 23: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

8

resultados aparentemente superiores, em relação à velocidade e à exatidão, aos

apresentados pelos métodos tradicionais.

Velocidades de simulação cerca de 50 vezes mais elevadas e erros cerca de 20

vezes inferiores aos apresentados pelo método tradicional de Monte Carlo foram

constatações específicas para os casos testados de Quasi-Monte Carlo. Antes de concluir

sobre sua viabilidade em casos gerais, suas propriedades deveriam ser analisadas com

maior riqueza de detalhes. Ainda que tenham sido testados com instrumentos

derivativos inexistentes no País, as conclusões nos incentivam a aplicar tal método em

instrumentos financeiros similares, devido ao grande potencial de economia no tempo

de execução e melhoria no resultado associado ao uso do método.

O método de transformação de um vetor de variáveis aleatórias independentes

em outro vetor de variáveis correlacionadas, desenvolvido por Cholesky e apresentado

em Iman e Conover (1982), demonstrou resultados satisfatórios nas análises pelo

método de Monte Carlo. Sua simplicidade de cálculo e de programação, aliadas ao fato

de poder ser aplicado a quaisquer métodos de amostragem que aceitem variáveis

correlacionadas, são atrativas para a realização de estudos amostrais. O ganho potencial

na exatidão das avaliações de carteiras de ações em nosso mercado acionário poderia

ajudar a reduzir os problemas da arbitragem nesse mercado.

Este capítulo apontou a flexibilidade dos métodos de simulação na solução de

problemas complexos, bem como suas principais desvantagens. Foi mostrado que o

objetivo fundamental do trabalho será comparar os diferentes métodos de amostragem

existentes. As perguntas relevantes sobre o objetivo principal e as correspondentes

hipóteses a serem testadas também foram listadas. Em seguida, foram mostradas as

simplificações adotadas e as razões que motivaram a pesquisa, dentre elas a necessidade

de obter avaliações confiáveis para problemas de complexidade crescente em intervalos

de tempo cada vez menores.

Page 24: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

9

2 REFERENCIAL TEÓRICO

Neste capítulo, serão apresentados o contexto histórico e a evolução dos

métodos de amostragem empregados em simulação e abordados nesta pesquisa. Uma

breve descrição das características dos métodos mais complexos, como o de Quasi-

Monte Carlo com séries numéricas de baixa-discrepância, e algumas de suas recentes

aplicações também serão mostradas.

2.1 O método de Monte Carlo

Segundo Saliby (1989), o método de Monte Carlo com amostragem aleatória

simples possui vasta aplicação na simulação probabilística, apesar de ter sido concebido

originalmente por von Neumann e Ulam, durante a Segunda Guerra Mundial (1939-45),

para resolução de complexas integrais múltiplas e de diversos outros problemas

matemáticos de natureza determinística.

Após alguns anos de sua criação, suas principais desvantagens foram

identificadas e reconhecidas: o esforço computacional na preparação dos programas e a

baixa precisão dos resultados obtidos. Com recursos computacionais restritos à época,

as pesquisas foram direcionadas para aumentar a precisão nos cálculos através de novas

técnicas de redução de variância, muitas delas com controle parcial do processo de

amostragem.

No início da década de 50, com o aparecimento dos primeiros computadores, o

método de Monte Carlo começou a ser aplicado em experimentos probabilísticos como,

por exemplo, na obtenção de parâmetros para dimensionar filas de espera. Nascia,

assim, a simulação por Monte Carlo, que teria seu primeiro livro publicado em 1963.

Impulsionada pela redução nos custos dos recursos computacionais e pelo

desenvolvimento de novas linguagens de programação, apesar da persistência dos

Page 25: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

10

problemas de precisão nos cálculos, a metodologia de simulação começou a ser

largamente empregada. As técnicas de redução de variância ainda eram pouco usadas

devido à idéia pré-concebida de que os verdadeiros processos de amostragem não

deveriam sofrer restrições.

2.2 Métodos de conjuntos determinísticos e probabilísticos

McKay, Beckman e Conover (1979) realizaram um estudo comparativo entre

dois métodos de amostragem, o Hipercubo Latino e a Amostragem Estratificada, e o

método tradicional de Monte Carlo.

Naquela época, métodos numéricos que forneciam soluções aproximadas para

problemas relacionados ao fluxo de fluidos, com soluções analíticas complexas, já eram

empregados há anos. Em alguns dos problemas de fluxo de fluidos era impraticável ou

impossível realizar experimentos em laboratório. O código de programação, nestes

casos, deveria estar correto para garantir que o resultado da simulação transcreveria a

realidade nas condições de contorno adotadas.

Na ocasião, os códigos computacionais eram muito complexos e até mesmo um

simples conjunto de dados de entrada requeria várias horas de processamento no mais

veloz dos computadores utilizados nas simulações.

Ao modelarem fenômenos reais em computadores, os pesquisadores sempre

enfrentavam o problema da escolha dos valores que deveriam utilizar como variáveis de

entrada nos modelos. Tal dificuldade surgia naturalmente, uma vez que em processos

físicos os parâmetros estão em constante transformação, flutuando ao redor dos valores

nominais. Freqüentemente, os pesquisadores replicavam as incertezas sobre os valores

de entrada tratando estes como variáveis aleatórias.

Entretanto, como as janelas de tempo dos experimentos eram muito pequenas, as

variáveis de entrada precisavam ser escolhidas com cuidado. Esta preocupação

Page 26: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

11

freqüente levou os autores a procurar novos métodos de amostragem para as variáveis.

Acabaram adotando na pesquisa os métodos desenvolvidos para estudar a segurança de

reatores no Grupo de Hidrodinâmica do Laboratório Científico de Los Alamos.

Um programa, chamado Sola-Ploop, foi utilizado para simular a descompressão

de um vaso retilíneo preenchido com água à temperatura e pressão iniciais definidas. As

variáveis de entrada foram consideradas uniformemente distribuídas sobre seus

intervalos de flutuação. A variável analisada foi a pressão no interior do vaso em função

do tempo. O instante inicial foi definido como o momento de ruptura do vaso. A janela

de tempo considerada foi de 20 milisegundos.

O programa foi executado inúmeras vezes, aplicando os três métodos estudados,

selecionados dentre inúmeros outros, de modo a permitir as comparações realizadas. Os

autores demonstraram que os novos métodos de amostragem Hipercubo e

Estratificada - não produziram estimativas tendenciosas para a variável de saída.

O método da amostragem Estratificada consistiu em subdividir o universo de

amostras (de onde seriam extraídos, aleatoriamente, N elementos) em um certo número

de subconjuntos disjuntos (I), de onde deveriam ser retiradas as amostras de elementos

(nj), de modo que o produto destes termos (I ∗ nj) igualasse o total de elementos (N) da

variável de entrada no modelo.

A amostragem por Hipercubo Latino seguia o mesmo princípio da amostragem

Estratificada ao considerar N subconjuntos disjuntos. Contudo, apenas um elemento de

cada conjunto era extraído para a variável de entrada no modelo. Uma vantagem natural

do Hipercubo sobre os demais métodos de amostragem adotados ficava evidente quando

a variável de saída do modelo era influenciada apenas por algumas das componentes da

variável de entrada.

O experimento consistiu em realizar 50 observações para cada um dos três

métodos de amostragem analisados e coletar os dados sobre a precisão e a exatidão dos

resultados individuais obtidos. O tempo total para a execução do programa foi de sete

Page 27: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

12

horas. Alguns dos resultados estavam inconsistentes com o sugerido pela teoria.

Segundo os autores, tais discrepâncias aconteceram devido ao tamanho das amostras e à

independência parcial dos estimadores ao longo do tempo.

Os gráficos comparativos para as médias e desvios obtidos como resultado das

50 observações indicaram que os estimadores adotados não eram tendenciosos. Os

desvios dos estimadores utilizando a amostragem Estratificada foram inferiores aos

apresentados por Monte Carlo. Contudo, foi a amostragem por Hipercubo que

demonstrou clara superioridade, pois os desvios com este método foram cerca de 25%

dos desvios apresentados por Monte Carlo.

2.2.1 Transformada de Cholesky

Pouco tempo depois, Iman e Conover (1982) desenvolveram um procedimento

para induzir determinada matriz de correlação em variáveis multidimensionais nos

experimentos de simulação. A metodologia era simples e independente do tipo de

distribuição da amostra, preservando o formato original da mesma. O método poderia

ser empregado nos experimentos onde o conceito de variáveis correlacionadas era

aplicável. Os autores realizaram experimentos utilizando a amostragem por Monte

Carlo para estimar o viés e a variância associados ao método.

Naquela época, modelagens eram largamente empregadas para simular

relacionamentos complexos entre variáveis econômicas, sociais ou físicas, a fim de

estimar valores desconhecidos ou realizar previsões. A evolução dos computadores

induzia uma crescente complexidade nos modelos desenvolvidos e já não era raro

encontrar aplicações com centenas de variáveis de entrada que consumiam horas de

processamento até fornecer o primeiro resultado.

Muitos estudos sobre técnicas estatísticas para modelagem em computadores já

haviam sido publicados, mas pouco fora feito relativamente à incorporação de

dependências múltiplas entre as variáveis de entrada. Era comum apenas assumir as

variáveis de entrada como independentes entre si, apesar dos estudos de Scheuer e

Page 28: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

13

Stoller (1962) já apontarem a possibilidade de gerar vetores correlacionados a partir de

vetores aleatórios indicando, na ocasião, dois métodos para realizar esta transformação.

Uma abordagem em uso para incorporar certa dependência entre variáveis era

considerar combinações lineares de variáveis aleatórias a fim de construir uma estrutura

com a correlação desejada. Isto funcionava bem para séries de entrada aleatórias

normais mas, quando as amostras de entrada eram obtidas por métodos estratificados,

esta abordagem destruía a integridade dos estratos originais. Além disso, as

combinações lineares para amostragens aleatórias não-normais poderiam afetar a

distribuição marginal apresentada pelas séries originais.

Outra abordagem, proposta alguns anos antes, segundo os autores, consistia em

transformar linearmente um vetor normalmente distribuído em outro vetor

multidimensional e, logo após, aplicar as transformações convenientes para obter as

distribuições marginais procuradas. Contudo, os momentos (média, variância) das séries

transformadas eram difíceis de controlar. Em caso de duas variáveis, o controle poderia

ser feito utilizando distribuições log-normais e hiperbólicas mas, em caso de mais

variáveis, o tratamento analítico ficava inviável.

A abordagem proposta pelos autores foi baseada na hipótese de que a correlação

por rank (ou rank correlation) era uma forma sensata de definir dependências entre as

variáveis de entrada no modelo. Os autores acreditavam que o coeficiente de correlação

calculado sobre as séries originais, ainda não transformadas, poderia perder sentido caso

tais séries fossem não-normais ou quando houvesse outliers nas amostras. Por outro

lado, os coeficientes de correlação por rank continuavam fazendo sentido para a maioria

das simulações, mesmo quando os dados de entrada eram normalmente distribuídos.

O método utilizado consistia na aplicação da transformada de Cholesky para

obter, a partir da matriz de correlação desejada, uma matriz triangular inferior que, por

sua vez, seria multiplicada à direita por um vetor multidimensional com variáveis

independentes, resultando no vetor multidimensional com as correlações desejadas.

Page 29: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

14

Para o caso tridimensional (D=3), o algoritmo de Cholesky para produzir

vetores correlacionados a partir de vetores independentes foi descrito a seguir.

Sejam:

* Σ ... a matriz de correlação desejada para a variável de entrada;

* A ... uma matriz triangular superior;

* At ... a matriz transposta da matriz A.

Por definição, devemos admitir que:

Σ = At A [2.1]

Assim, teremos:

[2.2]

E, conseqüentemente:

[2.3]

Ou, de forma equivalente:

[2.4]

sssssssss

333231

232221

131211

=

aaaaaa

A

33

2322

131211

000

=

aaaaa

aAT

332313

2212

11

000

=

aaaaaa

aaaaa

a

sssssssss

33

2322

131211

332313

2212

11

333231

232221

131211

0000

00

+++++=

aaaaaaaaaaaaaaaaa

aaaaa

sssssssss

2

33

2

23

2

13222312131113

23221312

2

22

2

121112

13111211

2

11

333231

232221

131211

......

..

Page 30: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

15

E, se este sistema apresentar solução, então:

[2.5]

Generalizando para vetores multidimensionais (D=N), teremos:

[2.6]

Uma das hipóteses do método era a independência das séries de variáveis de

entrada utilizadas na transformação de Cholesky. Entretanto, tais amostras nem sempre

apresentavam a independência desejada. Os autores desenvolveram então um

procedimento para corrigir as discrepâncias decorrentes deste fato e que eram

observadas entre as matrizes de correlação calculadas e esperadas. O procedimento

consistia na aplicação da transformada de Cholesky sobre a matriz de correlação real

(naturalmente distinta da matriz identidade I) relativa às amostras originais. A nova

matriz triangular inferior obtida era invertida e multiplicada à direita pela matriz

triangular já produzida por Cholesky, para gerar uma nova matriz triangular inferior que

seria aplicada sobre os vetores de entrada. Os novos vetores obtidos a partir desta última

operação possuiriam, exatamente, a matriz de correlação procurada.

Este algoritmo de ajuste da Transformada de Cholesky, para os casos em que a

matriz de correlação dos vetores de entrada é diferente da matriz identidade, foi

apresentado a seguir.

asaasa

sa

11

3113

11

2112

1111

=

=

=

( )

aasa

aasaaasa

2

23

2

133333

12133222

23

2

122222

.1

−−=

−⋅=

−=

N , ... 2,i 1,ij com ,.1 1

1

1

1

2

++=

−⋅=

−=

∑−

=

=

i

kjkikij

iiij

i

kikiiii

aasaa

asa

Page 31: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

16

Sejam:

* T ... a verdadeira matriz de correlação da variável de entrada;

* Q ... uma matriz triangular inferior;

* Σ ... matriz de correlação desejada para a variável de entrada;

* S ... uma matriz auxiliar.

Tais que:

T = Q Qt [2.7]

Σ = S T St [2.8]

Assim:

Σ = S Q Qt St = At A [2.9]

Onde uma solução possível é:

S Q = At ou S = At Q-1 [2.10]

Em seguida, a matriz Q é determinada pela aplicação do algoritmo de Cholesky

à matriz T e S é determinada pelas equações 2.10. A matriz St é a nova matriz de

transformação ajustada. A matriz St deve ser multiplicada à direita pelo vetor de entrada

para obter o novo vetor transformado que, desse modo, possuirá matriz de correlação

idêntica à matriz desejada (Σ).

Alguns testes realizados pelos autores, envolvendo amostragens de Monte Carlo,

demonstraram que a aplicação do procedimento de correção aproximou bastante os

valores reais dos valores procurados para as correlações das séries de entrada,

principalmente para as correlações próximas de zero. A medida de variância das séries

corrigidas era cerca de 12 a 15 vezes menor que a das séries não-corrigidas e decrescia à

medida que o número de repetições aumentava.

Page 32: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

17

Um teste importante utilizando um exemplo prático obtido de um livro-texto foi

realizado pelos autores para avaliar o impacto da transformação das variáveis

independentes em variáveis correlacionadas. Neste teste, a variável aleatória de entrada

possuía quatro dimensões e alimentava uma função analítica. Foi empregada a

distribuição normal multidimensional, por ser a única distribuição multidimensional que

poderia ser manipulada sem fazer uso dos métodos de aproximação apresentados pelos

autores. Valores arbitrários para as demais variáveis do exercício foram atribuídos

apenas para caracterizar uma aplicação de simulação.

As saídas consideradas no teste foram: a função-distribuição dos valores da

função analítica estudada e seus quatro momentos. Os resultados utilizados como

referência para as comparações foram obtidos com amostras de 1000 elementos. Em

seguida, foram utilizados os métodos de Monte Carlo e do Hipercubo Latino para gerar

amostras de 50 elementos em dez corridas consecutivas. Os resultados foram

comparados à referência anteriormente definida. Dois casos foram analisados utilizando

Monte Carlo e o Hipercubo e aplicando o método desenvolvido pelos autores. Outros

dois casos foram preparados utilizando as mesmas amostras sem, contudo, aplicar o

procedimento sugerido pelos autores.

Nos casos em que o procedimento de forçar a correlação foi aplicado, para

ambos os métodos de amostragem, três dos quatro momentos apresentaram valores mais

próximos aos da referência. Além disso, todos os casos onde o procedimento foi

aplicado apresentaram desvios-padrão com valores inferiores para os quatro momentos.

Os gráficos das funções-distribuição da variável de saída (função analítica)

também foram comparados nos casos onde o procedimento de forçar a correlação foi

utilizado e nos casos em que não o foi. Os resultados mostraram que, para aquele

exemplo, utilizar o método sugerido pelos autores resultou em melhores estimativas,

tanto para Monte Carlo quanto para o Hipercubo.

Page 33: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

18

2.2.2 Hipercubo Latino para grandes amostras

Alguns anos depois, Stein (1987) estava analisando o modelo matemático para

um equipamento do qual pretendia estimar o valor esperado de uma certa medida de

performance. O modelo matemático consistia em um conjunto de equações diferenciais

e a medida de performance era uma função multidimensional. Quando o número de

variáveis era muito grande, métodos analíticos ou determinísticos eram evitados, tendo

em vista sua complexidade. Nestes casos, os pesquisadores utilizavam então a

simulação por Monte Carlo, com amostragem aleatória simples. Contudo, o autor

utilizou também, em seu exercício de simulação, a amostragem por Hipercubo Latino,

sugerida por McKay e outros (1979).

Stein (1987) verificou, ao começar o experimento, que a amostragem por

Hipercubo estratificava, na medida do possível, cada distribuição marginal das variáveis

de entrada. Por outro lado, escolhia aleatoriamente o valor a ser utilizado dentro de cada

estrato do Universo. O autor concluiu que, quanto maior o número de simulações em

relação ao número de variáveis de entrada da função estudada, a utilização da

amostragem por Hipercubo Latino produzia resultados com menor variância que os

obtidos por Monte Carlo.

O autor sabia, por McKay e outros (1979), que a variância do resultado da

simulação seria menor no Hipercubo que em Monte Carlo quando a covariância entre

duas amostras consecutivas fosse negativa. Isso aconteceria quando a função utilizada

como estimador fosse monotônica em cada uma de suas variáveis. O autor sabia que

não era o caso do estimador no experimento analisado (circuito eletrônico).

Como o resultado prático apontava que a variância do Hipercubo era menor que

a de Monte Carlo, o autor procurou encontrar uma demonstração que justificasse tal

observação. Concluiu assim que, quando o número de observações aumentava e atingia

um valor muito superior ao número de variáveis de entrada, a covariância do estimador

para duas observações consecutivas era, assintoticamente, negativa.

Page 34: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

19

Juntamente com a estimativa de valor do estimador, o autor sabia que era

importante produzir a estimativa do erro no cálculo do estimador. Quando utilizava a

amostragem aleatória simples (Monte Carlo) com N repetições, o autor sabia que uma

estimativa consistente da variância do valor esperado do estimador seria (1/N) da

variância da amostra. Porém, quando utilizava o Hipercubo, investigações preliminares

indicaram que seria possível avaliar o estimador aproximando sua função por meio de

equações de regressão. Entretanto, era difícil avaliar tais equações e a performance do

estimador com esse procedimento, o que tornava sua utilidade incerta.

Uma forma simples, segundo o autor, de estimar a variância de um estimador ao

utilizar a amostragem por Hipercubo é aplicar o método da amostragem por Hipercubo

Latino Replicado. Este método consiste em criar várias amostras com Hipercubos

independentes e estimar a variância entre tais amostras. Este método foi desenvolvido

por Iman e Conover (1980). Claro que o número de Hipercubos deve ser grande para

que a estimativa seja precisa.

Em muitas aplicações, podem existir dependências entre as componentes da

variável de entrada dos modelos. O autor apresentou um procedimento para introduzir

tais dependências em amostragens por Hipercubo Latino, quando o tamanho destas

amostras fosse grande. Embora ciente da existência do procedimento desenvolvido por

Iman e Conover (1982), o autor verificou que seria inadequado utilizar este

procedimento quando a dependência condicional entre duas variáveis de entrada não

fosse monotônica.

O autor sugeriu, assim, um novo método para atribuir dependência entre

variáveis independentes geradas pelo Hipercubo. O método partia de uma matriz de

ranks (or rank matrix) já definida e consistia em construir uma nova amostra com o

Hipercubo a partir da inversa da função-distribuição geradora da matriz de ranks. O

problema era encontrar tal função inversa. Porém, quando era difícil encontrar a função

analítica, o autor conseguia uma boa aproximação por simulação.

Page 35: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

20

A metodologia proposta para atribuir dependências entre as variáveis de entrada

foi aplicada a um atuador de impressoras e apresentou erro quadrático médio para a

variável de saída com o Hipercubo de 22% a 87% inferior ao erro quadrático médio

obtido utilizando a amostragem de Monte Carlo.

2.2.3 Amostragem Descritiva

Neste período, Saliby (1990a) questionou o fato de que, nos experimentos em

simulação, o padrão de amostragem deveria ser a amostragem aleatória simples com

grande número de corridas. Paralelamente, introduziu um novo conceito de

amostragem, denominado amostragem Descritiva. Segundo o autor, mais do que um

novo conceito, a amostragem Descritiva rompeu o paradigma da geração aleatória de

valores para as amostras na tentativa de reproduzir o comportamento natural dos

acontecimentos.

Na visão do autor, o paradigma da imitação da realidade era um equívoco. Na

verdade, a necessidade de empregar a amostragem aleatória sobre um universo

populacional era devida à falta de conhecimento sobre as características da população

estudada. Com o objetivo de evitar as amostras tendenciosas, a amostragem aleatória

ganhava preferência sobre os demais métodos.

Contudo, em muitas aplicações de Monte Carlo, as amostras são obtidas, por

hipótese, de distribuições já conhecidas e, nestes casos, o propósito fundamental das

amostragens é simular um certo comportamento aleatório e não realizar inferências

sobre a população analisada.

Segundo o autor, utilizar a amostragem aleatória simples com este propósito

causa uma imprecisão desnecessária à distribuição da população estudada, elevando a

variância do resultado dos estimadores simulados.

A alternativa mais apropriada e melhor, segundo o autor, para as aplicações de

Monte Carlo, seria a amostragem Descritiva ao invés da amostragem aleatória simples.

Page 36: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

21

A principal característica deste novo conceito de amostragem era o fato dele estar

fundamentado na seleção determinística dos valores nas amostras de entrada. Esta

escolha mais seleta pretendia reduzir as discrepâncias entre as distribuições empírica e

teórica, impedindo a flutuação aleatória dos valores nas amostras estudadas.

O método da amostragem Descritiva era fácil de implementar e produzia

estimativas mais precisas das variáveis de saída, com pequeno incremento no tempo de

programação e praticamente nenhum incremento no tempo de execução. A única

exigência em relação a Monte Carlo, antes da implementação, era conhecer o tamanho

da amostra desejada.

Muito embora o método da amostragem Descritiva tenha contribuído para a

prática de exercícios de simulação, possibilitando estimativas mais exatas dos valores

estudados, suas aplicações ainda são muito conceituais. O maior ponto de discussão

quando este método é sugerido ainda é convencer que, ao contrário da crença comum,

não há necessidade de haver seleção aleatória dos valores das amostras nos

experimentos de Monte Carlo.

Considerando a quebra do paradigma da aleatoriedade nos valores das amostras

em simulação, fica evidente a superioridade dos métodos determinísticos em relação à

precisão e exatidão dos resultados nos experimentos de Monte Carlo.

O autor descreveu no estudo os principais passos para a realização dos

experimentos em simulação por Monte Carlo. Tais procedimentos, que foram discutidos

detalhadamente naquele trabalho, estão apresentados a seguir.

Inicialmente, a formulação do problema de simulação era apresentada. Um

modelo que pudesse descrever o comportamento do sistema a ser estudado era

construído ou adaptado. Tal modelo deveria transformar um conjunto de variáveis

aleatórias de entrada (multidimendional) em um conjunto de variáveis de saída

(multidimensional) denominado de conjunto de resposta. As distribuições de

probabilidade das variáveis de entrada eram supostamente conhecidas, enquanto as

Page 37: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

22

distribuições das variáveis do conjunto de resposta eram desconhecidas. Quando eram

executadas corridas de simulação, as variáveis de entrada eram substituídas por

amostras aleatórias de tais variáveis. Assim, como conjuntos de resposta, eram obtidas

amostras das variáveis de saída.

Uma simulação, conforme definição adotada, era a execução do código de

programação de modo a produzir um conjunto de valores para cada variável de resposta

ou estimador em estudo. Um conjunto de valores das variáveis de entrada produzia um,

e apenas um, conjunto de valores das variáveis de resposta. Cada conjunto de valores

das variáveis de resposta era proveniente de uma corrida. Assim, uma simulação era

composta de N ou mais corridas, caso não fossem adotados outros critérios de parada. O

valor obtido em uma única corrida era irrelevante quando se utilizava a amostragem

aleatória simples mas não o era quando a amostragem Descritiva era adotada. Embora

os parâmetros do modelo fossem quase sempre constantes, por simplicidade, uma

corrida de simulação sempre produzia resultados distintos das demais. As flutuações dos

resultados de saída deveriam ser minimizadas e as tentativas de minimização geravam

inconvenientes, normalmente compensados pela simplicidade na programação e na

execução por Monte Carlo.

Na formulação de um problema de simulação, uma corrida podia ser vista como

um conjunto de funções a serem calculadas. À medida que o tamanho da amostra de

entrada aumentava, dois comportamentos assintóticos eram esperados, por hipótese,

para os estimadores: a ausência de tendência, de modo a tornar o resultado exato, e a

presença de consistência, ou mínima variância.

A variância dos resultados em simulação era relacionada apenas à variabilidade

das amostras de entrada. Conforme era esperado, havia sempre uma relação entre as

amostragens de entrada e os resultados dos estimadores. Conhecimentos prévios

apontavam duas fontes de variância: os valores e as seqüências. Desde os primórdios da

metodologia de simulação, estas duas características gerais eram observadas nas

amostras das variáveis de entrada.

Page 38: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

23

Ambas as características o conjunto de valores e uma particular seqüência em

que aparecessem estavam relacionadas a dois conceitos probabilísticos fundamentais.

O conjunto dos valores, por hipótese, deveria apresentar um padrão de freqüências

relativas em comum acordo com a distribuição que estivesse sendo amostrada. A

seqüência de ocorrência dos valores deveria apresentar um comportamento que

representasse a aleatoriedade. Ao utilizar a amostragem aleatória simples, ambos os

fatores eram modificados simultaneamente. Com a amostragem Descritiva, apenas um

dos fatores sofria modificações.

Separando as fontes de variância, seus impactos sobre a variância do conjunto de

resposta poderiam ser estudados separadamente. As principais conclusões da pesquisa

que analisou, isoladamente, tais fontes foram: a contribuição relativa da variância do

conjunto de valores era maior ou igual a 50% da variância dos resultados; elevando o

tamanho de uma corrida, a amostra de entrada ficava mais próxima da distribuição

teórica, mas a variância dos estimadores não era modificada; o coeficiente de

determinação, utilizado em análises de dependência para modelos de regressão linear,

poderia ser utilizado para medir a influência da variância do conjunto de valores na

amostra; a variância do conjunto de valores influenciou a maioria dos experimentos

realizados, enquanto a variância da seqüência de ocorrência influenciou apenas

experimentos de simulação de filas de espera (ou problemas de filas M/M/1).

Para compreender a variância dos resultados provocada pela variância do

conjunto de valores na amostra, o autor realizou alguns experimentos utilizando a

amostragem aleatória simples. A análise dos resultados apontou um aparente paradoxo:

embora as distribuições teóricas das variáveis de entrada fossem conhecidas, as

amostras destas variáveis se mostravam diferentes. Na verdade, as diferentes condições

de execução do programa, colhendo amostras distintas do perfil teórico esperado, eram

causadas pela seleção aleatória de valores para tais amostras. Estas discrepâncias

provocavam o aumento da variância dos estimadores de saída, demonstrando a clara

presença do efeito provocado pela variância do conjunto de valores na amostra.

Page 39: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

24

A proposta da amostragem Descritiva era eliminar ou, ao menos, reduzir o

impacto da variância do conjunto de valores de entrada nas aplicações que envolviam

Monte Carlo. Ela estava fundamentada na escolha determinística dos valores nas

amostras e, em seguida, na permutação aleatória de tais valores. Nos casos onde o

tamanho das amostras não era conhecido com antecedência, este tamanho era estimado.

As modificações a serem feitas nos códigos de programação que utilizavam a

amostragem aleatória simples eram mínimas e o acréscimo no tempo de execução dos

programas, insignificante.

Uma série de experimentos foi conduzida pelo autor comparando ambos os

métodos de amostragem. Nestes experimentos, exceto na aplicação das filas M/M/1, o

valor da média dos resultados utilizando a amostragem Descritiva foi muito próximo do

valor utilizando a amostragem aleatória simples, o que mostra a ausência de tendência

dos estimadores com a amostragem Descritiva. Os resultados com a amostragem

Descritiva foram mais exatos que aqueles com a amostragem aleatória simples. As

variâncias dos resultados com a amostragem Descritiva foram bem menores que as

variâncias com a amostragem aleatória simples. Isto significa que, em corridas menores,

os mesmos intervalos de confiança para os estimadores poderiam ser conseguidos

empregando a amostragem Descritiva. Os únicos casos onde os estimadores utilizando a

amostragem Descritiva produziram resultados tendenciosos foram os experimentos de

estado estacionário, como o caso das filas M/M/1 quando estas estavam congestionadas.

Este viés introduzido poderia ser eliminado aumentando o tamanho das corridas,

inicialmente fixadas em N=100 tentativas. Na verdade, à medida que a intensidade de

tráfico crescesse em direção ao valor unitário, o número de tentativas ou o tamanho das

corridas deveria aumentar sensivelmente. Isto, contudo, não acontecia, pois o tamanho

das corridas estava fixado. As discussões envolvendo o problema das filas necessitariam

de novos estudos antes de gerarem conclusões.

Apesar dos resultados satisfatórios apresentados pelo autor relativos ao

desempenho estatístico da amostragem Descritiva, dois outros questionamentos ainda

permaneciam sobre este método: o fato de poder gerar tendência aos estimadores e o de

não permitir que os valores das amostras variassem.

Page 40: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

25

Em relação à questão dos estimadores serem tendenciosos na amostragem

Descritiva, os estudos realizados até então mostraram que a magnitude dos desvios

introduzidos é muito pequena se comparada aos erros eliminados ao retirar a variância

do conjunto de valores da amostra na entrada.

Quanto à questão sobre a fixação do conjunto de valores da amostra, a maioria

das situações testadas seguia exatamente as hipóteses fundamentais dos modelos nas

simulações. Além do mais, existe a crença equivocada de que os erros introduzidos com

a amostragem aleatória compensavam as incertezas sobre os parâmetros das

distribuições de entrada. No entanto, incertezas como estas ou outras presentes na

modelagem não poderiam ser compensadas com a introdução de novas incertezas.

Continuando em sua linha de pesquisa, Saliby (1990b) apresentou novos

experimentos e aplicações para estudar os dois fatores causadores da variância do

estimador de saída o conjunto de valores e a seqüência de ocorrência - nos casos onde

Monte Carlo era utilizado.

Já naquela ocasião, a codificação dos algoritmos e aplicações tendia a ser mais

demorada e crítica na obtenção de resultados que a própria execução dos programas,

tendo em vista o avanço tecnológico acelerado. Entretanto, o pouco conhecimento

acumulado ao longo dos últimos anos sobre os novos métodos de amostragem motivava

as pesquisas por uma maior compreensão das razões que justificassem as variâncias dos

resultados.

Nesta pesquisa, o autor verificou, empiricamente, que a maior parte da variância

dos estimadores de saída era devida à variância do conjunto de valores nas amostras de

entrada, e que a variância associada à seqüência de ocorrência daqueles valores era

dependente do tipo de aplicação e muito imprevisível.

Page 41: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

26

Estes resultados gerais forneceram as informações necessárias às novas

abordagens de amostragem como as de conjuntos determinísticos - por exemplo, a

amostragem Descritiva.

O principal problema no estudo era descobrir se havia algum padrão que

comandasse as variâncias dos resultados, fornecendo sugestões sobre como reduzir ou

eliminar tais flutuações. O padrão a que o autor se referia e procurava não deveria ser

uma relação entre os resultados dos estimadores e os correspondentes valores das

variáveis de entrada, mas sim a relação entre os valores das amostras de entrada e as

propriedades teóricas conhecidas dessas amostras.

Seguindo o costume dos testes em simulação, foram realizados três

experimentos utilizando a amostragem aleatória simples como método para gerar as

amostras de entrada. Os experimentos consistiam em uma rede PERT, um problema de

filas M/M/1 e um sistema de estoques. Um método alternativo para gerar amostras

distribuídas aleatoriamente também foi sugerido pelo autor. Este método separava a

amostra de entrada em duas outras de mesma dimensão. Uma delas seria responsável

pela atribuição dos valores de entrada e a outra, pela determinação da ordem em que

estes valores seriam distribuídos nas variáveis de entrada. Assim, seria possível separar

os efeitos causados pelas duas fontes de variância trabalhando individualmente com

estas seqüências.

Para obter as conclusões almejadas, foram realizados experimentos com dez

corridas de dez amostras cada, o que era equivalente a 100 amostras numa única corrida

utilizando a amostragem aleatória simples.

Na simulação do sistema de estoques, os resultados mostraram que 53% da

variância total do estimador seriam justificados pela variância no conjunto de valores de

entrada. Apenas os 47% da variância total original permaneceria sem explicações pelo

modelo construído. Outra conclusão importante foi que a variação do conjunto de

valores da amostra influenciava, freqüentemente, a maioria dos estimadores nos

exemplos analisados. A influência da variação nas seqüências de ocorrência só foi

Page 42: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

27

apontada no problema das filas M/M/1. Junto com esta última evidência foi apontado

que uma investigação mais detalhada sobre os impactos dessas variâncias em problemas

de filas congestionadas seria necessária.

Contudo, a principal contribuição do estudo foi sugerir que a variância do

conjunto de valores na amostra de entrada operava como ruído no sistema, e que este

ruído era introduzido durante o processo de amostragem aleatória simples, na etapa de

escolha dos valores. Ao questionar esta variância, o autor apresentou a proposta de uma

nova abordagem para amostragem em simulação que eliminaria esse problema: a

amostragem Descritiva.

2.3 Método de Quasi-Monte Carlo

Alguns anos depois, Morokoff e Caflisch (1995) apresentaram o estudo no qual

novas abordagens determinísticas para as amostragens nos problemas de Monte Carlo

eram analisadas. Estas novas abordagens eram conhecidas por método de Quasi-Monte

Carlo e estavam fundamentadas no emprego das seqüências de baixa-discrepância

conhecidas como Halton, Sobol e Faure.

2.3.1 Discrepância

Discrepância de uma série numérica é uma função que procura medir a

uniformidade da seqüência. Segundo Traub e Papageorgiou (1996), discrepância é uma

medida do desvio em relação à uniformidade. Os autores consideram a discrepância

uma quantidade que avalia o grau de uniformidade de um conjunto de pontos dispersos

no espaço.

A definição de discrepância, apresentada pelos autores, e alguns exemplos de

suas aplicações foram mostrados a seguir.

Page 43: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

28

[2.11]

Onde:

* N ... é o número de pontos da amostra ou o tamanho da série;

* Is ... é o cubo unitário s-dimensional no Universo estudado;

* v(Q) ... é o volume de uma sub-região Q no cubo unitário Is.

A discrepância, na forma apresentada, é facilmente perceptível de modo gráfico

quando o Universo possui até três dimensões. Ela é uma medida relativa pois seu valor

não depende apenas da seqüência analisada, mas também das sub-regiões definidas no

cubo unitário. Sua definição foi muito útil pois não apenas quantificava uma

propriedade fundamental da aleatoriedade (uniformidade) como também ajudou a

identificar as imperfeições dos geradores de pontos aleatórios e pseudo-aleatórios mais

comuns. A capacidade de quantificar a aleatoriedade foi uma das razões que induziram

a procura constante por novas seqüências com distribuições cada vez mais uniformes.

A forma mais simples de apresentar, identificar e, de certa forma, quantificar

graficamente a discrepância em séries numéricas é realizar experimentos em duas

dimensões. A comparação de regiões de acumulação dos pares ordenados, formados

pelas relações estabelecidas entre os conjuntos numéricos em cada eixo, pode classificar

as seqüências analisadas quanto ao grau de uniformidade. A figura 2.1, a seguir, ilustra

uma possível situação em tais experimentos didáticos.

Para ilustrar a percepção gráfica da discrepância, foram realizados experimentos

bidimensionais com 50, 150 e 255 pares ordenados distribuídos em um quadrado

unitário. As coordenadas dos pontos grafados foram geradas de duas formas distintas. A

primeira forma empregou um gerador de números aleatórios para as seqüências de cada

coordenada. A segunda utilizou séries numéricas de Halton (baixa-discrepância) com

( )QvN

Qempontosde#IQ

Ns

D −=∈

sup

Page 44: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

29

números primos distintos em cada coordenada. Os resultados foram apresentados nas

figuras 2.2 a 2.5 a seguir.

Figura 2.1 Resultado possível em experimentos bidimensionais para quantificar a discrepânciadas séries numéricas – regiões concentradas e regiões vazias.

Figura 2.2 Discrepâncias para 50 pares ordenados no quadrado unitário, utilizando comocoordenadas séries de Halton (A) e séries aleatórias (B) - D50(A) = 3% e D50(B) = 5%.

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

(A)

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

(B)

Page 45: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

30

Figura 2.3 Discrepâncias para 150 pares ordenados no quadrado unitário, utilizando comocoordenadas séries de Halton (A) e séries aleatórias (B) – D150(A) = 1,67% e D150(B) = 2,33%.

Figura 2.4 Discrepância para 255 pares ordenados no quadrado unitário, utilizando comocoordenadas séries de Halton (baixa-discrepância) – D255 = 0,57%.

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

(A)

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

(B)

Page 46: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

31

Figura 2.5 Discrepância para 255 pares ordenados no quadrado unitário, utilizando comocoordenadas séries aleatórias – D255 = 1,35%

Assim, sabendo que uma característica teórica importante das séries aleatórias

simples era a uniformidade da seqüência, e que existiam conjuntos que apresentavam

menores discrepâncias que as verificadas nas séries aleatórias, era razoável supor que

tais conjuntos, chamados de baixa-discrepância, poderiam apresentar melhores

desempenhos que os aleatórios nos experimentos de simulação. O método de Quasi-

Monte Carlo, que será discutido a seguir, emprega as seqüências de baixa-discrepância.

2.3.2 Séries numéricas de Halton

Em seus estudos, Morokoff e Caflisch (1995) compararam o impacto das

seqüências de Halton, Sobol e Faure (também chamadas quasi-aleatórias) entre si e

com a amostragem aleatória simples em experimentos específicos para apontar os

efeitos de algumas propriedades do integrando variância, suavidade da função e

dimensão - sobre a convergência dos estimadores. De maneira geral, o método de

Quasi-Monte Carlo foi superior ao de Monte Carlo com amostragem aleatória simples.

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Page 47: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

32

Esta diferença, contudo, foi superficial pois, quando a dimensão era elevada ou o

integrando deixava de ser uma função suave, os resultados eram equivalentes.

A principal característica da amostragem aleatória era sua uniformidade. Esta

propriedade sugeria que, utilizando seqüências com maior uniformidade em suas

distribuições que a apresentada pela seqüência aleatória, poderiam ser obtidos melhores

resultados. Estas séries com distribuição mais uniforme eram denominadas de

seqüências de baixa-discrepância.

Uma destas seqüências Halton - era obtida pela decomposição de números

naturais numa base prima qualquer. Inicialmente, um número primo (P) era escolhido

ao acaso para cada dimensão do integrando. Depois, o número (N) de elementos da

amostra era estabelecido. Os números naturais até (N-1) eram então decompostos na

base (P) escolhida. A seguir, os termos da seqüência de Halton eram então

determinados pelo somatório dos algarismos da decomposição em números primos,

divididos por potências crescentes do número primo (P), conforme mostrado nas

expressões 2.12 e 2.13. A cada dimensão ou variável de entrada era empregado um

número primo distinto.

A determinação do k-ésimo elemento de uma seqüência de Halton

unidimensional com número primo p, por exemplo, segue o procedimento abaixo.

! Decomposição de (k-1) na base p;

[2.12]

! Somatório dos termos da decomposição, divididos por potências crescentes de p.

[2.13]

[ ]aaaaaa nnn pk 012211 Κ−−=−

pa

pa

pa

pa

pa

pah n

nn

nn

nk 1

112

32

210 ... +

−−− ++++++=

Page 48: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

33

Encontrar, por exemplo, os dez primeiros termos da série de Halton

unidimensional para o número primo p=2.

! 1o. passo: decompor na base p=2 os dez primeiros números naturais (0 9);

[2.14]

! 2o. passo: aplicar os somatórios das frações conforme definição anterior.

[2.15]

Outro exemplo seria encontrar os dez primeiros termos da seqüência de Halton

unidimensional para o número primo p=3.

! 1o. passo: decompor na base p=3 os dez primeiros números naturais;

[ ][ ][ ][ ][ ]100111010

2

2

2

2

2

4

3

2

1

0

=

=

=

=

= [ ][ ][ ][ ][ ]10011000111110101

2

2

2

2

2

9

8

7

6

5

=

=

=

=

=

81100

4311

4110

210

222

22

22

325

24

23

2

1

=++=

=+=

=+=

=

=

h

h

h

hh

1691001

1611000

87111

83110

85101

2222

2222

222

222

222

43210

4329

328

327

326

=+++=

=+++=

=++=

=++=

=++=

h

h

h

h

h

Page 49: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

34

[2.16]

! 2o. passo: somatório dos termos decompostos conforme definição anterior.

[2.17]

2.3.3 Método simplificado de Halton

O procedimento de Halton, apesar de simples, exige grande esforço matemático

nos casos com grandes amostras, pois a decomposição de grandes números nas bases

primas sugeridas é trabalhosa. Existe uma simplificação do método, identificada por

construção ou matematicamente, que reproduz a seqüência original, obtida pela

definição, por recursividade e evita o grande trabalho matemático.

Para entender o método simplificado de Halton, basta observar que as

seqüências possuem subconjuntos consecutivos com p valores espaçados de 1/p, são

sempre iniciadas por 0 (zero), os primeiros termos dos subconjuntos são formados pela

divisão de um termo já existente na série pelo número primo p e, finalmente, são

subconjuntos uniformes por construção no intervalo unitário [0,1).

[ ][ ][ ][ ][ ]11102

10

3

3

3

3

3

4

3

2

1

0

=

=

=

=

= [ ][ ][ ][ ][ ]10022212012

3

3

3

3

3

9

8

7

6

5

=

=

=

=

=

9411

9110

231

0

33

33

3

25

24

3

2

1

=+=

=+=

=

=

=

h

h

h

hh

271100

9822

9521

9220

9712

333

33

33

33

33

3210

29

28

27

26

=++=

=+=

=+=

=+=

=+=

h

h

h

h

h

Page 50: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

35

Os passos do método simplificado estão apresentados a seguir, com o cálculo

dos dez primeiros termos de Halton para o número primo p=5.

! 1o. passo: o primeiro subconjunto inicia por 0 (zero);

[2.18]

! 2o. passo: o primeiro subconjunto possui p elementos espaçados de 1/p;

[2.19]

! 3o. passo: o próximo subconjunto inicia pelo segundo termo da série (já

calculado) dividido pelo número primo p;

[2.20]

! 4o. passo: os demais elementos deste subconjunto são espaçados de 1/p, como no

subconjunto anterior;

[2.21]

! 5o. passo: se houvesse mais termos a serem calculados, o primeiro elemento do

próximo subconjunto seria o terceiro elemento da série dividido pelo primo p; e,

assim, sucessivamente.

01=h

52

51

511

51

5101

23

12

=+=+=

=+=+=

p

p

hh

hh

54

51

531

53

51

521

45

34

=+=+=

=+=+=

p

p

hh

hh

251

551

26 ===

phh

2511

51

2561

256

51

2511

78

67

=+=+=

=+=+=

p

p

hh

hh

2521

51

25161

2516

51

25111

910

89

=+=+=

=+=+=

p

p

hh

hh

Page 51: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

36

2.3.4 Séries de Sobol e Faure

A seqüência de Sobol utiliza o mesmo algoritmo da seqüência de Halton. A

particularidade que diferencia Sobol e Halton está relacionada aos números primos

empregados nas séries. O número primo para todas as dimensões ou variáveis de

entrada, na seqüência de Sobol, é o mesmo: o número inteiro dois. Para imprimir

aleatoriedade e diferenciar as seqüências de elementos nas séries de Sobol, algumas

técnicas de permutação são empregadas. Assim, cada dimensão considerada na

simulação possui uma permutação distinta para a seqüência dos valores de Sobol.

A seqüência de Faure utiliza, por sua vez, o mesmo algoritmo que as seqüências

de Halton e Sobol. O número primo empregado, entretanto, está relacionado ao tamanho

definido para a amostra em cada dimensão ou variável de entrada. Este número primo

também é fixo, como em Sobol, mas sua determinação não é direta. O número primo

utilizado como semente na série de Faure é o menor número primo maior ou igual ao

número de elementos da amostra. Da mesma forma que em Sobol, as amostras para as

demais dimensões ou variáveis de entrada nas simulações são obtidas por permutações

dos elementos da seqüência original de Faure.

2.3.5 Experimentos com séries de baixa-discrepância

Estudos anteriores feitos por Niederreiter (1988) demonstraram que as

seqüências de Halton, Sobol e Faure possuem discrepâncias limitadas, dependentes do

número de termos da amostra e da dimensão do integrando. Estes limites sugeriam que,

para amostras com elevado número de termos, as seqüências quasi-aleatórias de Halton,

Sobol e Faure eram, consideravelmente, mais uniformes que as seqüências aleatórias

simples. A expectativa de erro para aplicações de Monte Carlo com amostragem

aleatória simples era proporcional ao número N de termos da amostra (N-1/2). Como a

teoria das probabilidades não se aplicava a estes casos, uma nova abordagem deveria ser

adotada para estimar o erro de integração ao utilizar as seqüências quasi-aleatórias.

Desse modo, para o autor, o conceito de variação do integrando passou a ter mais

importância que o conceito anterior de variância do estimador. Por variação do

Page 52: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

37

integrando, ele se referia ao somatório das variações das projeções do integrando nas

suas dimensões correspondentes.

Um dos principais resultados de pesquisas conhecidas sobre erros de integração

é denominado desigualdade de Koksma-Hlawka, e estabelece que o erro de integração é

sempre menor ou igual ao produto da variação do integrando pela discrepância da série

utilizada na amostragem. O limite da discrepância de uma seqüência aleatória converge

para valores proporcionais a N-1/2 e sugere que, utilizando seqüências de menor

discrepância que a aleatória, poderiam ser obtidos menores erros de integração, ao

menos para grandes valores de N. A sugestão foi adotada por Morokoff e Caflisch

(1995), que trabalharam com as seqüências de baixa-discrepância de Halton, Sobol e

Faure.

Naquele estudo, Morokoff e Caflisch (1995) procuraram identificar a fonte e a

natureza das discrepâncias entre os valores dos estimadores. O objetivo da pesquisa era

realizar um conjunto de experimentos numéricos que demonstrassem, de forma clara, a

influência da variância, variação, dimensão e suavidade do integrando na taxa de

convergência das integrais. O método de amostragem utilizado na pesquisa foi o de

Quasi-Monte Carlo. Os resultados do estudo poderiam ser aproveitados para o

desenvolvimento de novos métodos de redução de variância ou de novas técnicas de

Monte Carlo com seqüências quasi-aleatórias.

Para cada exemplo estudado, o erro no cálculo da integral podia ser aproximado

pela expressão cN-α, onde N representava o número de pontos de integração quasi-

aleatórios. Em geral, os resultados mostraram que o expoente α na integração por

Quasi-Monte Carlo era superior ao expoente padrão com valor ½ - da integração por

Monte Carlo. Esta superioridade, contudo, desaparecia quando a dimensão do

integrando aumentava ou quando a suavidade da função integranda diminuía.

Contudo, ainda havia dúvidas sobre o uso da função variação do integrando, ao

invés da variância do estimador, na previsão dos erros de integração. Por exemplo, duas

funções basicamente idênticas como o produtório de x e o produtório de (1-x)

Page 53: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

38

possuiriam integrais de igual valor quando calculadas com seqüências quasi-aleatórias.

Suas variações, entretanto, eram muito diferentes entre si.

A fim de investigar a real influência que as variações possuíam na determinação

de erros dos estimadores, uma variedade de funções com amplo intervalo de flutuação

foi avaliada e integrada sobre o cubo unitário. As funções foram escolhidas de modo a

possuírem expressões analíticas para suas integrais, para permitir estimativas de sua

variância e sua variação. As funções também foram normalizadas de modo a possuírem

valor unitário nas integrais sobre o cubo unitário.

Para o caso da seqüência de Halton, como os primeiros integrandos utilizados

eram suscetíveis em relação ao valor zero e os primeiros elementos de Halton estão

muito próximos de zero, os 200 elementos iniciais da seqüência foram descartados. O

limite de 200 foi escolhido aleatoriamente. A seqüência de Faure teve problema similar.

O primeiro conjunto testado de funções integrandas multidimensionais era

relativamente simples e consistia em funções produtório de outras funções

unidimensionais. Estas funções eram escolhidas com características peculiares, como

alta variação e baixa variância, para permitir a avaliação do efeito produzido por estes

fatores. Várias corridas foram realizadas utilizando a seqüência de Sobol para

dimensões que variavam de 5 a 30 variáveis. Os resultados destes experimentos

mostraram que o uso de seqüências quasi-aleatórias produzia erros menores que o uso

de seqüências aleatórias simples.

As seqüências quasi-aleatórias também foram aplicadas em três experimentos

mais realísticos oriundos de atividades científicas ou problemas de engenharia. As

funções empregadas foram restritas a universos onde as soluções de suas integrais

pudessem ser determinadas analiticamente, de modo a facilitar as análises dos

resultados das simulações.

Por exemplo, Monte Carlo era freqüentemente empregado na solução de

equações integrais associadas a problemas de transporte. No primeiro exemplo real, os

autores consideraram uma função integral que descrevia o trajeto de partículas em um

Page 54: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

39

espaço unidimensional de tamanho unitário. Em cada passo, a partícula percorria uma

distância uniformemente distribuída no intervalo [0,1]. O estimador de interesse era

uma função integral que representava a probabilidade de uma partícula entrar no espaço

analisado, atravessar toda sua extensão e deixar o mesmo espaço. Para esta integral, a

função degrau era utilizada como componente do integrando para representar o fato da

partícula conseguir atravessar o espaço. Dependendo do número de movimentos

executados antes da saída, a partícula contribuía com certa probabilidade ao resultado

da integral. O número de movimentos da partícula foi limitado a 20, embora não

houvesse necessidade de impor limites, considerando que os mesmos resultados teriam

sido obtidos com limite de 6 passos. Uma variação deste exercício é considerar que a

partícula nunca deixará o espaço. Cada movimento define os limites do próximo

movimento. Por exemplo, após o primeiro movimento, a nova posição da partícula seria

x’ e o alcance do segundo movimento estaria uniformemente distribuído no novo

intervalo [0 , 1-x’]. Neste caso, como no anterior, a simulação aconteceria até o 20º

movimento ou outro limite qualquer imposto na pesquisa. A principal diferença entre o

primeiro método e o segundo é que a função do integrando, no segundo caso, é suave e

contínua. Foram executadas 100 corridas em ambos os casos.

Considerando que a dimensão efetiva deste experimento era seis, não foi

surpresa, segundo os autores, que os resultados encontrados fossem similares no caso

contínuo e no caso não-contínuo, para uma dimensão de 20. A seqüência de Halton

apresentou os melhores resultados. A seqüência de Faure apresentou erros maiores que

as demais, talvez pelo fato do número primo adotado ter sido 23. A razão de

convergência para o caso contínuo em todas as seqüências foi cerca de N-0.95. Por outro

lado, para o caso não-contínuo do movimento da partícula, Halton também apresentou o

menor erro e uma razão de convergência de N-0.7. Faure apresentou o maior erro, mas

uma razão de convergência ligeiramente melhor, N-0.85. A menor razão de convergência

foi apresentada pela seqüência de Sobol e era incomum e confusa. Ela serviu como

ilustração para a dificuldade de realizar previsões de convergência utilizando seqüências

quasi-aleatórias.

Page 55: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

40

O segundo exemplo real estudado considerava a equação de Boltzmann, que

descreve a evolução da função distribuição para a densidade de um gás rarefeito no

espaço em movimento. Estudos anteriores forneciam a fórmula exata para o ganho de

velocidade nestes casos, provocado por colisões binárias. Este ganho podia ser descrito

por uma integral sobre a variável de velocidade e dois parâmetros angulares que

caracterizavam o tipo de colisão. Este foi o primeiro exemplo testado cuja integral não

era calculada explicitamente sobre o cubo unitário. Neste caso, os métodos de

amostragem adotados foram equivalentes a uma mudança de variáveis. Os autores

lembraram que muitas técnicas de amostragem, quando vistas como mudança de

variáveis, produzem integrandos não-contínuos ou redirecionam a função característica

de conjuntos retangulares para conjuntos irregulares. Eles recomendaram cuidado ao

aplicar métodos de redução de variância em seqüências de baixa-discrepância.

Todas as seqüências quasi-aleatórias empregadas apresentaram comportamentos

similares e melhores que a seqüência aleatória simples. O erro quadrático para as

seqüências quasi-aleatória apresentou taxas de convergência variando de N-0.65 a N-0.61,

enquanto para seqüências pseudo-aleatórias apresentou taxa de convergência de N-0.51.

O terceiro exemplo estudado foi o cálculo da integral de linha de Feynman-Kac,

onde Monte Carlo tinha aplicação freqüente. Os autores calcularam o resultado em altas

dimensões, discretizando o intervalo de tempo e considerando movimentos gaussianos

aleatórios como aproximações do movimento browniano. Novamente, não era uma

integral sobre o cubo unitário. Os mesmos métodos utilizados no exemplo anterior

poderiam ser aplicados também neste exemplo. A amostragem uniforme no intervalo

[0,2π] foi obtida multiplicando seqüências uniformes no intervalo [0,1] por 2π. Os

resultados foram obtidos para um espaço com dimensão 40. Embora a dimensão fosse

elevada, a seqüência de Halton apresentou os menores erros. A seqüência de Sobol

apresentou resultados semelhantes. A seqüência de Faure apresentou resultados piores

que Halton e Sobol. Quando o número de elementos das seqüências era pequeno, os

erros apresentados pelas seqüências quasi-aleatórias e pseudo-aleatória foram

semelhantes. Todas as três seqüências quasi-aleatórias apresentaram taxa de

Page 56: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

41

convergência variando de N-0.65 a N-0.61, enquanto o erro quadrático para a seqüência

pseudo-aleatória apresentou taxa de convergência de N-0.41.

O desempenho das seqüências de Quasi-Monte Carlo na avaliação de integrais

de funções características era de particular interesse, pois mostrava o potencial de

sucesso destas seqüências nas simulações do movimento de partículas. Funções

características são aquelas onde decisões do tipo SIM/NÃO devam ser tomadas. Como

no exemplo do movimento da partícula, quando a decisão sobre o fato da partícula ter

ou não conseguido atravessar o espaço deveria ser tomada. A função característica a ser

integrada correspondia a um subconjunto do parâmetro espaço e os valores do

parâmetro indicavam uma decisão positiva. Quando o domínio do parâmetro era

mapeado em um cubo unitário, o volume do conjunto SIM - ou a integral da função

característica representava a probabilidade da decisão ser aceita.

A fim de determinar os efeitos dos saltos de valor nos integrandos, experimentos

foram realizados utilizando funções características de um cubo e de um cone. O cubo

foi adotado porque era a base da definição de discrepância e possuía variação finita

igual a 2s, onde s era a dimensão do integrando. O cone foi escolhido pois possui

variação infinita e é agudo. Experimentos foram conduzidos para comparar o impacto

das seqüências e determinar taxas de convergência como funções da dimensão do

integrando. Para comparar resultados como função das dimensões, os integrandos foram

normalizados de modo que o valor das integrais, para todas as formas e dimensões,

fosse unitário.

O experimento consistia em 50 corridas com 50 valores distintos de tamanho de

amostra (N) espaçados igualmente, e de modo logarítmico, nas dimensões 2 a 6. Para

ambos os formatos (cubo ou cone) o erro aumentava com a dimensão considerada. A

convergência foi geralmente melhor para a dimensão 2 e decaía quando a dimensão

aumentava. A seqüência de Halton forneceu erros menores, especialmente para a

dimensão 2. Para o cubo, a convergência na dimensão 2 foi cerca de N-0.95 para todas as

seqüências, enquanto para as dimensões 3 a 6, o erro quadrático atingiu taxas de

convergência variando de N-0.71 a N-0.89. A seqüência de Faure apresentou erros maiores

Page 57: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

42

no início, mas apresentou melhor convergência. Todas as seqüências apresentaram erros

similares quando o número de elementos na amostra era cerca de 30.000.

Para o cone, o valor do erro foi muito próximo ao esperado com a amostragem

aleatória simples e a taxa de convergência do erro foi próxima das apresentadas para o

cubo. Para as dimensões 4 a 6, todas as seqüências apresentaram resultados

semelhantes, exceto Sobol na dimensão 4, que apresentou desempenho muito ruim. As

taxas de convergência do erro variaram de N-0.54 a N-0.62. Novamente, a seqüência de

Halton foi ligeiramente melhor que as demais, com a maior diferença acontecendo na

dimensão 2. Halton e Faure apresentaram comportamento semelhante, enquanto Sobol

apresentou erros de mesma magnitude porém menos previsíveis.

Um conjunto de experimentos foi realizado para a função característica de uma

esfera nas dimensões 2 a 6. O comportamento do erro foi similar ao obtido com o cone.

Para a esfera, a taxa de convergência do erro na dimensão 2 foi cerca de N-0.78 com

todas as seqüências, enquanto na dimensão 6 foi cerca de N-0.6. Novamente, a seqüência

de Halton teve desempenho ligeiramente melhor na dimensão 2. A seqüência de Sobol,

contudo, não aparentou ser imprevisível em comparação às demais.

O desempenho melhor das seqüências quasi-aleatórias no cubo era esperado.

Tais seqüências foram construídas para minimizar a discrepância, que era calculada

sobre retângulos. Além disso, seqüências multidimensionais eram construídas pela

combinação de seqüências unidimensionais e o cubo era o produto de funções

características unidimensionais. Contudo, era preciso notar que a taxa de convergência

do tipo 1/N, sugerida como limite da discrepância, somente foi aproximada no caso

bidimensional, ao menos para os valores de N (tamanho da amostra) considerados no

estudo.

Por outro lado, em todos os experimentos, os erros conseguidos com as

seqüências de Quasi-Monte Carlo foram significativamente inferiores aos obtidos pelo

método clássico de Monte Carlo para os casos com maior tamanho de amostra. Isto

significava que o método de Quasi-Monte Carlo era capaz de reduzir o valor da

Page 58: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

43

constante c na estimativa do tamanho do erro da integral (c.N-α), ainda que não

melhorasse significativamente a taxa α de decaimento do erro.

Após tantos experimentos, os autores ainda questionavam se o pior desempenho

das seqüências quasi-aleatórias com funções características, em relação ao desempenho

com funções contínuas, conforme observado anteriormente, possuía conexão com o fato

das funções características apresentarem variação infinita. Para comprovar isso, dois

outros experimentos foram conduzidos. Ambos envolviam funções apoiadas em esferas

situadas dentro do cubo unitário. O primeiro integrando era uma função contínua não-

diferenciável que, por este motivo, possuía variação infinita. O segundo era uma função

suave cuja variação crescia exponencialmente com a dimensão estudada.

Para a função contínua, todas as seqüências nas dimensões 2 e 3 convergiram à

taxa próxima de 1/N, com a seqüência de Halton apresentando, novamente, o menor

erro. As maiores dimensões possuíam taxa de convergência de cerca de N-0.7. Para a

função suave, Halton apresentou o melhor resultado na dimensão 2 e demonstrou

redução da taxa de convergência com a elevação da dimensão do problema, variando de

N-0.9, para dimensão 2, a N-0.62, para dimensão 6. A seqüência de Sobol mostrou o

mesmo tipo de comportamento que apresentara com o cone, com os piores resultados

obtidos para a dimensão 4. A magnitude dos erros era equivalente à apresentada com

Halton. As taxas de convergência para Sobol variavam de N-0.94, na dimensão 2, para N-

0.62, na dimensão 4, embora tais taxas não aparentassem confiabilidade. A seqüência de

Faure apresentou resultados intermediários entre Halton e Sobol, com erros e taxas de

convergência semelhantes.

Com isto, os autores sugeriram que a continuidade das funções nos integrandos

era muito importante para melhorar a convergência das aplicações que utilizavam

seqüências de Quasi-Monte Carlo.

Page 59: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

44

2.4 Aplicações de Quasi-Monte Carlo

Paskov e Traub (1995) afirmaram que a simulação de Monte Carlo estava sendo

largamente empregada na avaliação de instrumentos financeiros e que enormes quantias

estavam sendo anualmente investidas em pesquisas nesta área. Um ano antes, Guterl

(1994) havia observado que não apenas os matemáticos estavam estudando a antiga

teoria dos números. Segundo ele, de maneira geral, o mercado industrial estava voltando

seus interesses para as teorias numéricas e estudando suas aplicações, a fim de facilitar a

pesada rotina das corporações.

Como já era conhecido na ocasião, o método de Monte Carlo utilizava amostras

aleatórias (ou pseudo-aleatórias). O simples teste de colocar um certo número de pontos

aleatórios das seqüências de Monte Carlo em duas dimensões permitia verificar a

ausência de uniformidade proporcional às regiões vazias no gráfico. De maneira geral,

parecia atrativo poder escolher pontos que fossem uniformemente distribuídos tanto

quanto possível. A medida, na teoria dos números, que era denominada discrepância,

quantificava o desvio de um conjunto de pares ordenados em D dimensões de um

conjunto de pontos uniformemente distribuídos no mesmo espaço. Tal medida passou a

ser empregada na busca por seqüências mais uniformes.

Existem vários conjuntos denominados de baixa-discrepância, apesar de não

haver ainda definição comprovada e científica de um conjunto D-dimensional de pontos

que apresente a menor discrepância.

Na pesquisa, Paskov e Traub (1995) compararam a eficácia dos métodos de

baixa-discrepância com o método tradicional de Monte Carlo na avaliação de

derivativos financeiros. Eles utilizaram uma CMO (collateralized mortgage obligation)

oferecida pelo banco Goldman Sachs, com dez classes de títulos definidos por meio da

avaliação de dez integrais com dimensões que podiam chegar a 360. A CMO foi

escolhida por apresentar integrais com elevada dimensão e porque cada processo de

avaliação destas integrais era muito demorado e dispendioso. Os autores esperavam

poder replicar as conclusões geradas no estudo para outros instrumentos derivativos. Os

Page 60: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

45

autores consideraram, por hipótese, que o problema financeiro foi definido por uma

integração sobre o cubo unitário com dimensão D.

As seqüências de baixa-discrepância escolhidas no experimento foram Halton e

Sobol. Eles compararam o resultados obtidos a partir destas seqüências com os

resultados utilizando o método de Monte Carlo clássico e com o método de Monte Carlo

utilizando variáveis antitéticas. Para realizar o estudo, os autores desenvolveram um

software chamado FINDER com o qual programaram e executaram as simulações

pretendidas. O software foi desenvolvido para estações de trabalho e incorporou

melhorias aos algoritmos utilizados para gerar seqüências de Sobol.

O trabalho apresentado foi baseado em dois anos de pesquisas, construção do

software e execução dos experimentos. Resultados preliminares foram apresentados a

instituições financeiras em Nova York/USA entre 1993 e 1994. Um artigo publicado no

início de 1994 discutia os principais tópicos e sugeria a superioridade dos métodos

determinísticos em exemplos práticos. Outros resultados experimentais foram

apresentados em uma conferência em meados de 1994. Um artigo publicado na revista

Business Week apontava as possíveis superioridades das seqüências de baixa-

discrepância.

No artigo, os autores procuraram apenas divulgar suas principais descobertas e

apontar os resultados típicos do estudo. Eles descobriram com os experimentos que a

seqüência de Sobol teve melhor desempenho que as seqüências de Halton e aleatória

simples do método de Monte Carlo. O desempenho a que os autores fizeram referência

estava relacionado ao tempo de convergência dos estimadores de saída. Os autores

concluíram também que a convergência apresentada por Sobol era mais suave que a

observada em Monte Carlo tradicional. Utilizando o mesmo critério de parada nas

simulações para todas as seqüências estudadas, a seqüência de Sobol finalizava de duas

a cinco vezes mais rápida que Monte Carlo tradicional e, geralmente, apresentando

menor erro. Os autores também verificaram que os resultados utilizando a seqüência de

Sobol foram consideravelmente melhores que os obtidos utilizando o Método de Monte

Page 61: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

46

Carlo com variáveis antitéticas. Este último, por sua vez, apresentou melhores

resultados que Monte Carlo clássico.

Segundo os autores, as conclusões apresentadas permaneceram para os casos em

que o tamanho das amostras era pequeno (cerca de 4.000 pontos). Mais tarde, análises

estatísticas conduzidas nos casos com amostras pequenas mostraram a superioridade das

seqüências de Sobol sobre Monte Carlo com variáveis antitéticas. Em alguns casos, para

atingir o mesmo desempenho com intervalo de confiança de 95%, por exemplo, Monte

Carlo com variáveis antitéticas necessitava de 7 a 79 vezes mais pontos que a seqüência

de Sobol. Os autores observaram também que Monte Carlo com variáveis antitéticas

também era sensível à semente inicial como no Monte Carlo clássico. A convergência

utilizando variáveis antitéticas também foi menos irregular que no caso de Monte Carlo

tradicional.

Os autores afirmaram que os resultados obtidos nos experimentos eram

relacionados ao instrumento financeiro estudado (CMO). Eles não garantiram a

superioridade da seqüência de Sobol sobre Monte Carlo para outras aplicações.

Contudo, esperavam que as vantagens da utilização da seqüência de Sobol pudessem ser

reaplicadas a muitos outros tipos de derivativos.

A idéia principal do método de Monte Carlo que foi explorada pelos autores era

a reposição da integral de uma função contínua (integrando) por um somatório discreto

com N termos escolhidos, aleatoriamente, no intervalo de domínio do integrando. Era

resultado estatístico conhecido que, se os N pontos fossem aleatoriamente escolhidos, o

erro esperado na substituição da integral pelo somatório seria σ(f)/(n0,5), onde σ2(f) era

a variância do integrando f e n o tamanho da amostra utilizada. Uma das vantagens do

método de Monte Carlo, segundo os autores, era o fato de ser independente da dimensão

do integrando. Em contrapartida, a razão de convergência do método de Monte Carlo

era proporcional ao inverso da raiz quadrada do tamanho da amostra utilizada. Esta

constatação tem sido um dos motivadores da busca por novos métodos de convergência

mais rápidos, como os métodos que utilizam seqüências de baixa-discrepância.

Page 62: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

47

As seqüências de baixa discrepância Sobol e Halton que foram adotadas nos

experimentos possuíam taxa de convergência proporcional a ((log n)d)/n. O fator de

convergência das séries de baixa discrepância (n-1) deveria ser comparado ao fator das

séries aleatórias simples (n-1/2) empregadas. Pesquisas anteriores apontaram para o fato

de que o ganho na velocidade de convergência das séries de Sobol e Halton diminuía

com o aumento da dimensão do integrando. Pesquisas posteriores, segundo os autores,

revelaram também que as vantagens teóricas da aplicação das seqüências de baixa-

discrepância desapareciam em experimentos com dimensões muito pequenas (D ≤ 30).

Entretanto, os autores afirmaram que os resultados de tais pesquisas foram

completamente diferentes dos obtidos nos testes com o instrumento financeiro analisado

(CMO). As dimensões deste título hipotecário eram devidas ao fato dele possuir

maturidade de 30 anos com pagamentos mensais. Assim, havia 360 (30 x 12) integrais

de fluxo de pagamentos para serem avaliadas a valores presentes.

Em um dos experimentos, os autores revelaram que utilizaram 20 sementes

diferentes para gerar as seqüências de números aleatórios no método de Monte Carlo

clássico. O valor adotado foi a média aritmética dos 20 resultados distintos por Monte

Carlo. Executando as seqüências de Sobol e Halton apenas uma vez foi o suficiente para

que obtivessem os mesmos resultados da média aritmética das 20 repetições de Monte

Carlo.

Outro experimento desenvolvido pelos autores adotava um critério de parada

com base no erro relativo do valor da integral entre duas corridas consecutivas. Caso

este erro fosse menor que um valor previamente estabelecido, a simulação seria

interrompida. O exercício foi executado com seqüências de Sobol, Halton e três

seqüências de Monte Carlo com sementes diferentes. Uma vez estabelecido um valor

para o critério, a seqüência de Sobol foi interrompida com 160.000 pontos amostrados,

enquanto Halton com 700.000 pontos e três simulações de Monte Carlo com 410.000,

430.000 e 780.000 pontos, respectivamente. Mesmo convergindo mais rápido, Sobol

apresentou resultado mais exato para o valor da integral que o método de Monte Carlo.

Page 63: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

48

Neste estudo, a única técnica de redução de variância empregada pelos autores

foi a correção do método de Monte Carlo clássico por variáveis antitéticas, que

apresentaram resultados satisfatórios e melhores que os de Monte Carlo clássico.

Obter bons resultados com um número relativamente pequeno de pontos na

amostra, mesmo que em detrimento da precisão dos resultados, é muito importante para

pessoas que trabalham com apreciação de CMO’s ou outros produtos derivativos. Os

métodos que possam avaliar estes instrumentos em questão de minutos são muito

procurados, mesmo que a precisão da avaliação varie entre 10-2 e 10-4. Segundo os

autores, a tendência é de que tais avaliações ou outras mais complexas sejam

necessárias no dia-a-dia das operações em um futuro próximo.

Para testar a precisão dos resultados com amostras de tamanho pequeno, os

autores realizaram um experimento com amostras de 4.000 pontos, empregando as

seqüências de Sobol, Monte Carlo e Monte Carlo com variáveis antitéticas. O resultado

obtido com 20 milhões de pontos por Monte Carlo com variáveis antitéticas foi adotado

como valor exato da integral. Este valor foi utilizado para estimar os erros nos

resultados. Um determinado método era considerado vencedor na comparação com os

outros se o erro apresentado pelo método em relação ao valor exato fosse menor que os

demais. Assim, quando comparado a Monte Carlo clássico, Sobol venceu 177 de um

total de 200 comparações (aproveitamento de 90%). Quando comparado a Monte Carlo

com variáveis antitéticas, Sobol venceu em 70% das ocasiões. Neste experimento, Sobol

foi simulado em 103 segundos enquanto Monte Carlo com variáveis antitéticas em 113

segundos numa estação de trabalho utilizada à época. Assim, Sobol foi executado em

menor tempo e apresentou os menores erros. A superioridade do método de Sobol no

estudo realizado estava comprovada.

Os autores encerraram a pesquisa sugerindo que novas comparações fossem

feitas entre as seqüências de baixa-discrepância quando aplicadas aos novos

instrumentos financeiros derivativos.

Page 64: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

49

Nessa mesma época, Traub e Papageorgiou (1996) também testaram as

seqüências de Faure e Sobol na avaliação do preço de uma Collateralized Mortgage

Obligation (CMO). Segundo os autores, resultados semelhantes aos encontrados nos

testes foram obtidos com outros instrumentos financeiros, tais como Opções Asiáticas.

Além disso, pesquisas anteriores já indicavam a superioridade quanto à velocidade de

convergência e à exatidão dos resultados nos casos em que seqüências determinísticas

eram empregadas para aplicações de simulação.

Os autores concluíram que os métodos determinísticos empregados (seqüências

de Faure e Sobol) apresentaram resultados muito superiores aos do método de Monte

Carlo tradicional. Os autores também verificaram a sensível dependência do método de

Monte Carlo à semente inicial do gerador de números aleatórios.

Para amostras de tamanho menor, os métodos determinísticos apresentaram os

menores erros nos resultados. Para a avaliação de uma das malhas do ativo financeiro

analisado, por exemplo, o método de Faure atingiu a precisão de 10-2 com 170 pontos na

amostra. No mesmo experimento, Sobol conseguiu a mesma precisão com 600 pontos

na amostra e Monte Carlo, por sua vez, com 2.700 pontos na amostra. Os autores

notaram que Monte Carlo desperdiçava pontos no Universo de combinações possíveis,

verificando a presença de pontos de acumulação após o processo de amostragem

aleatória não-uniforme nas várias dimensões. O mesmo experimento sugerido por

Paskov e Traub (1995) foi realizado: números aleatórios foram gerados e relacionados

em duas dimensões; foi verificada a existência de regiões onde não havia pares

ordenados e regiões onde havia maior acúmulo de pares ordenados.

Os autores concluíram que os métodos determinísticos foram de 20 a 50 vezes

mais velozes na convergência que Monte Carlo tradicional, mesmo com tamanhos de

amostra moderados (cerca de 2.000 pontos). Quando a alta precisão e a exatidão eram

necessárias aos resultados, os métodos determinísticos podiam ser até 1000 vezes mais

velozes que o método de Monte Carlo clássico.

Page 65: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

50

Simulações de Monte Carlo com amostras pequenas não eram confiáveis. Era

interesse dos pesquisadores obter pontos distribuídos tão uniformemente quanto fosse

possível. Este era o princípio fundamental das seqüências com baixa-discrepância.

Em 1992, era do conhecimento de todos que, embora a teoria sugerisse que os

métodos de baixa-discrepância fossem superiores ao de Monte Carlo em algumas

aplicações, esta superioridade desapareceria à medida que o número de dimensões

aumentasse. Naquele ano, programas foram desenvolvidos e testados em seqüências de

baixa-discrepância para apreciação de derivativos financeiros na Universidade de

Columbia.

Em 1995, a IBM anunciou um produto chamado Deterministic Simulation

Blaster - desenvolvido para aumentar a velocidade nas simulações. Esse produto

empregava alguns dos métodos determinísticos de baixa-discrepância. Entretanto, a

descrição dos métodos empregados ainda não havia sido revelada aos autores quando da

publicação daquele estudo.

Traub e Papageorgiou trabalharam em conjunto com Paskov no

desenvolvimento do software para executar simulações empregando métodos

determinísticos de amostragem, conhecido como FINDER. Eles verificaram que a

diferença no desempenho poderia ser associada ao número de pontos que cada método

utilizava para atingir a mesma precisão e exatidão no resultado. Tal exatidão poderia ser

definida de acordo com a aplicação estudada. A velocidade de um método em relação a

outro foi parametrizada pela razão entre o número mínimo de pontos que os métodos

necessitavam para atingir a precisão requerida. Os autores concluíram que os resultados

relativos à velocidade naquele estudo forneceram informações mais completas que os

cálculos do erro em relação a valores considerados exatos. Os autores enfatizaram

também que os resultados para as seqüências determinísticas apresentaram desempenho

sempre superior ao de Monte Carlo tradicional.

A questão da velocidade de convergência era de particular importância pois, na

ocasião, as instituições financeiras aceitavam erros relativos na terceira casa decimal em

Page 66: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

51

troca do aumento considerável da velocidade total de cálculo, uma vez que os

instrumentos financeiros já continham erros sistêmicos, intrínsecos ao processo. Através

de uma das aplicações, os autores verificaram que a seqüência de Faure apresentou a

mesma precisão com número de pontos 16 vezes menor que Monte Carlo. Eles

mostraram que, em geral, 2000 pontos de Faure poderiam apreciar o ativo estudado

(CMO) de 20 a 50 vezes mais rápido que Monte Carlo clássico. Para uma seqüência

com N pontos de Faure, os autores obtiveram erros da ordem de N-0.82, enquanto Monte

Carlo tradicional apresentou erros da ordem de N-0.5, muito superiores, portanto. Para

melhorar a exatidão dos resultados com Monte Carlo e aproximar esta da que fora

obtida com os métodos determinísticos, os autores precisavam, em alguns casos, utilizar

1000 vezes mais pontos que os empregados pelos métodos determinísticos.

Dentre os métodos determinísticos, a conclusão dos autores foi que a seqüência

de Faure era superior à de Sobol. Além de apresentar superioridade, as seqüências de

Faure poderiam ter sido expandidas para dimensões muito maiores e com pequeno

acréscimo ao esforço já empregado na criação das seqüências aleatórias simples.

Encerrando, os autores afirmaram já ter conseguido resultados encorajadores

relacionados à avaliação do preço de instrumentos derivativos com mais de 1500

dimensões (ou variáveis), utilizando seqüências de Faure.

Dois anos mais tarde, Owen (1998) apresentou um estudo onde procurava

melhorar o desempenho das seqüências de Quasi-Monte Carlo utilizando as técnicas

normalmente aplicadas a Monte Carlo. Ele conseguiu, para o caso particular de

conjuntos embaralhados, melhorar a exatidão dos resultados. Conseguiu também utilizar

a teoria de Monte Carlo para ampliar Quasi-Monte Carlo a dimensões muito elevadas,

por meio da amostragem com Supercubo Latino.

O problema considerado no estudo de Owen era estimar a integral sobre

domínios não-uniformes em casos onde o integrando possuía dimensão muito elevada.

O autor concentrou esforços nas formas de combinação existentes entre Monte Carlo e

Quasi-Monte Carlo para solucionar o problema da integração.

Page 67: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

52

Segundo o autor, as técnicas padronizadas de solução de integrais tinham boa

exatidão quando o integrando era diferenciável e possuía dimensão unitária. Para

integrandos com dimensões superiores à unitária, porém ainda pequenas, versões

iterativas das técnicas unidimensionais ainda eram aplicáveis. Integrandos que

apresentassem dimensões muito grandes, contudo, eram mais bem avaliados utilizando

métodos de simulação, incluindo Monte Carlo e métodos de distribuição uniforme,

como Quasi-Monte Carlo. A definição de um problema de dimensão elevada, segundo o

autor, estava relacionada à existência de integrações iterativas computacionalmente

inviáveis e que possuíam exatidão insuficiente.

Owen (1998) utilizou em seus estudos a definição de dimensão efetiva de um

integrando, aplicada por Caflisch, Morokoff e Owen em 1997. Segundo esta definição, a

dimensão efetiva de um integrando, no sentido do truncamento, era o menor inteiro tal

que, caso a dimensão do integrando fosse reduzida a este inteiro, a variância da integral

seria maior ou igual a 0.99σ2, onde σ2 era a variância da integral original. Esta definição

de truncamento refletia que, para alguns integrandos, apenas um pequeno conjunto de

variáveis de entrada poderia conduzir ao resultado correto. Claro que o valor do limite

fixado em 0.99 foi uma escolha arbitrária e qualquer outro valor poderia ser utilizado

em seu lugar. Se o pesquisador já possuísse, de imediato, alguma idéia sobre as

variáveis que realmente influenciariam o resultado poderia separar tais variáveis antes

de aplicar a definição.

Além dos métodos tradicionais de Monte Carlo, o autor utilizou em seus estudos

os métodos de Quasi-Monte Carlo e Quasi-Monte Carlo aleatório, que consistia em

permutar os elementos das seqüências dos métodos determinísticos empregados e

utilizar as permutações como novas seqüências. A principal razão para a adoção das

permutações de Quasi-Monte Carlo era a crença de que nestes casos haveria

cancelamentos de algumas componentes do erro de previsão. A razão teórica de

convergência para os métodos determinísticos (proporcional a N-1) era assintoticamente

superior à razão característica de Monte Carlo (proporcional a N-0.5). Em dimensões

elevadas, os métodos determinísticos sequer alcançariam esta dimensão se o tamanho da

Page 68: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

53

amostra N fosse muito pequeno. O autor observou que o limite do erro aumentava com

o tamanho da amostra até que este tamanho fosse igual a eD, onde D era a dimensão do

integrando.

Segundo Owen (1998), estudos anteriores reportaram que os métodos de Quasi-

Monte Carlo eram superiores a Monte Carlo clássico na prática, embora tal vantagem

desaparecesse para dimensões superiores ou iguais a 8. Entretanto, outros pesquisadores

demonstraram que, para dimensões da ordem de 360, as seqüências determinísticas

ainda eram muito efetivas na avaliação dos integrandos.

Nos experimentos realizados, a exatidão dos resultados apresentados por Quasi-

Monte Carlo foi assintoticamente superior à exatidão apresentada por Monte Carlo

tradicional. A principal desvantagem prática apresentada por Quasi-Monte Carlo foi a

inexistência de uma metodologia para prever a exatidão das avaliações das integrais

estudadas. Até então, não havia maneira de estimar a ordem de grandeza do erro nos

resultados.

Para os experimentos com dimensões muito grandes, o autor utilizou o

Hipercubo Latino (ou LHS), que era uma forma de estratificação simultânea em todas as

dimensões D envolvidas na integração. Este método de amostragem poderia ser

empregado para quaisquer dimensões analisadas, inclusive para dimensões de ordem

superior ao número elementos das amostras utilizadas (D>N). Pelo fato do LHS

estratificar cada variável de entrada, individualmente, era possível integrar funções

aditivas com grande exatidão.

Nos casos onde o integrando possuía dimensão muito maior do que sua

dimensão efetiva, o autor sugeria empregar o método de Quasi-Monte Carlo para as

variáveis relacionadas à dimensão efetiva e utilizar outros métodos quaisquer para as

demais variáveis em jogo. As seqüências de amostragem para as variáveis menos

representativas da integração poderiam ser fixadas no valor mais provável das amostras,

que era 0.5. Isto, contudo, poderia tornar a média da amostra um estimador tendencioso

Page 69: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

54

para o resultado, além de aumentar a dificuldade de previsão teórica do erro intrínseco

ao cálculo da integral.

Para os experimentos com transporte de partículas, estudados por Spainer (1995)

e Okten (1996), foi sugerido preencher as colunas remanescentes (relativas ao

complemento da dimensão efetiva) do integrando com seqüências de Monte Carlo

clássico. Owen, em 1994, considerou preencher as colunas remanescentes com a

amostragem por Hipercubo Latino. Segundo o autor, se fossem empregadas seqüências

determinísticas para as primeiras dimensões (efetivas) do integrando e Monte Carlo ou o

Hipercubo para as demais dimensões, seria possível avaliar com maior exatidão o

estimador do resultado da integração. Um benefício adicional sobre a sugestão de

utilizar o valor 0.5 para os todos os elementos das amostras não-efetivas era que os

preenchimentos com quaisquer outras seqüências determinísticas iriam causar uma

menor perda na exatidão do resultado da integração.

Segundo o autor, era sempre possível re-arrumar os componentes do integrando

de modo a conseguir a redução efetiva de sua dimensão. Como exemplo, foi citado o

experimento do movimento Browniano de partículas em diferentes intervalos de tempo,

que poderia ser parametrizado em relação à distância percorrida em lugar do tempo

transcorrido. Os resultados apontaram que era possível reduzir a dimensão efetiva do

problema, uma vez que o movimento total da partícula estava fortemente associado aos

primeiros passos realizados no espaço em estudo.

Owen (1998) sugeriu, adicionalmente, a aplicação de um método de amostragem

denominado por ele de Super Cubo Latino (ou LSC), que seria formado pela

amostragem estratificada de diversas permutações das seqüências de Quasi-Monte

Carlo. O método do LSC estava sendo empregado para analisar o movimento

Browniano de partículas onde os fenômenos de colisão eram permitidos. Nestes

movimentos, os pesquisadores atribuíam um conjunto de variáveis para cada colisão

possível e os valores destas variáveis eram obtidos de amostras do Super Cubo Latino.

Page 70: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

55

O autor concluiu que, ao empregar a aleatoriedade nos métodos de Quasi-Monte

Carlo, era possível melhorar os resultados de três formas distintas. A primeira forma

seria por iterações, onde os erros poderiam ser estimados com base nas amostras

utilizadas. A segunda seria nos casos que utilizassem conjuntos embaralhados, onde os

cancelamentos poderiam acontecer e melhorar a exatidão dos resultados. A terceira

forma seria empregando o Super Cubo Latino, onde as regras antes conhecidas e

utilizadas para dimensões menores seriam adotadas nos casos de grandes dimensões.

Saliby (1998) propôs um estudo comparativo entre os métodos da amostragem

Descritiva e do Hipercubo Latino. Naquele estudo, o autor descreveu os métodos e suas

similaridades, mostrando até onde poderiam ser considerados próximos. Segundo o

autor, o método da amostragem Descritiva pode ser considerado o caso-limite do

Hipercubo e, neste sentido, seria a evolução deste.

Proposta como abordagem alternativa em relação à abordagem de Monte Carlo

tradicional, a amostragem Descritiva representava, na verdade, uma mudança

conceitual. Esta amostragem consistia na seleção totalmente determinística dos valores

da amostra e da sua conseqüente permutação aleatória. Apesar de alguns resultados

teóricos já disponíveis, a amostragem Descritiva carecia de um desenvolvimento teórico

adequado. Uma das tentativas neste sentido foi aquele estudo, que procurava apoiar a

teoria da amostragem Descritiva na já fundamentada teoria do Hipercubo Latino,

identificando suas semelhanças e apontando seus principais desafios. A única diferença

entre ambos os métodos era que, ao contrário da amostragem Descritiva, o Hipercubo

ainda preservava uma mínima componente de variabilidade aleatória nos valores

selecionados para as amostras.

O conceito de variabilidade de uma amostra estava ligado ao fato de sua

variância poder ser decomposta em duas componentes principais: uma associada à

variância nos valores da amostra e outra associada à mudança na ordem em que tais

valores ocorrem dentro da amostra. A idéia da amostragem Descritiva era eliminar da

amostra a componente associada à variância nos valores, que segundo o autor era

Page 71: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

56

desnecessária, e manter a variação na ordem de ocorrência dos valores na amostra, que

era inevitável. Simbolicamente, a amostragem aleatória simples consistia na

combinação de dois conjuntos, um contendo os valores da amostra e outro contendo

indicadores da seqüência de ocorrência na amostra, conforme mostrado a seguir.

Amostragem Aleatória Simples = Conjunto Aleatório x Seqüência Aleatória

A amostragem Descritiva, por sua vez, era representada, simbolicamente, apenas

pelo conjunto de seqüências aleatórias, conforme abaixo.

Amostragem Descritiva = Conjunto Determinístico x Seqüência Aleatória

A única exigência para empregar a amostragem Descritiva era conhecer

previamente o tamanho necessário da amostra para cada aplicação. A principal questão

relativa à amostragem Descritiva era a escolha cuidadosa dos valores da seqüência ao

invés de sua geração aleatória. Este princípio seguia a linha do conhecimento

proveniente de experimentos anteriores, que relacionaram a aleatoriedade do método de

Monte Carlo apenas à variabilidade na seqüência. Tais experimentos também afirmaram

que a variabilidade nos valores da seqüência em nada influenciava a variância global

das amostras aleatórias simples.

O Hipercubo Latino foi o precursor do método da amostragem Descritiva e

consistia na aplicação de uma técnica de mapeamento ao horizonte de valores

permitidos para a amostra. Este mapeamento, como forma de reduzir a variância da

amostra, controlava fortemente os valores obtidos nas seqüências, embora ainda

permitisse uma pequena aleatoriedade nesses valores. Após sua proposição por McKay

e outros (1979), a técnica do Hipercubo foi largamente aplicada em análises de risco e

em aplicações de engenharia, onde os autores a denominaram simulação determinística

para experimentos computacionais.

A primeira semelhança apontada pelo autor entre a amostragem Descritiva e o

Hipercubo provinha do fato de que amostras subseqüentes seriam geradas pela

Page 72: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

57

permutação das seqüências inicialmente produzidas. A única diferença era o modo

como os elementos das seqüências iniciais eram escolhidos em cada estrato do domínio

de valores possíveis.

As demais semelhanças foram verificadas através de inúmeros estudos

empíricos conduzidos pelo autor e outros pesquisadores.

Outra semelhança era que, não importando o método de amostragem escolhido,

a variância atribuída à seqüência dos termos nas amostras era sempre de ordem N-1,

enquanto a atribuída à mudança nos valores dos elementos da amostra dependia do

método de amostragem adotado. Para a amostragem aleatória simples, por exemplo, esta

variância atribuída à mudança nos valores dos elementos também era de ordem N-1 e, na

maioria dos casos, era o termo dominante na variância total da amostra.

Para o Hipercubo Latino, a variância atribuída à mudança no conjunto de valores

da amostra apresentava ordem N-a, onde o parâmetro a era maior ou igual a 2. Isto

mostrava que, quanto maior o tamanho da amostra gerada, a variância atribuída à

mudança nos valores dos termos seria menos significativa que a variância atribuída à

flutuação em sua seqüência de ocorrência. Como a variância atribuída à mudança de

valores era nula na amostragem Descritiva, este método poderia ser considerado

equivalente ou caso-limite do Hipercubo, quando o tamanho da amostra considerada

fosse muito elevado.

Saliby (1998) realizou um experimento para comparar o desempenho de ambos

os métodos de amostragem em questão: a amostragem Descritiva e o Hipercubo Latino.

O experimento consistiu em avaliar um estimador definido por uma simples fórmula

matemática, apresentada na expressão 2.22.

[2.22]

Nesta aplicação, X e Y eram variáveis independentes com distribuição normal

padronizada. O propósito do experimento era avaliar a média das amostras do estimador

( )YXD 22 2/1+=

Page 73: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

58

D. Os valores da média e da variância do estimador já eram conhecidos a priori (µD =

1.2533 e σD = 0.4292). Os experimentos foram conduzidos de forma a avaliar as

contribuições individuais das variâncias relativas à flutuação nos valores das amostras e

à mudança na ordem de ocorrência desses valores. Uma série de tamanhos de amostra,

variando de 10 a 1000 termos, foi empregada para obtenção dos resultados.

Os resultados obtidos no experimento mostraram que a variância das amostras

Descritivas sempre permaneceu próxima à variância das amostras do Hipercubo e

ambas foram de ordem N-1. Estes resultados mostraram também que, à medida que o

tamanho da amostra aumentava, a razão entre a variância atribuída aos valores do

conjunto e a atribuída à ordem de ocorrência diminuía. Além disso, o autor verificou

que, para grandes tamanhos de amostra, a variância na seqüência de ocorrência era

dominante e ambos os métodos de amostragem ficavam equivalentes.

O autor concluiu afirmando que a amostragem Descritiva representava uma

evolução da amostragem por Hipercubo, sendo mais eficiente em termos estatísticos e

computacionais, uma vez que não requeria etapas intermediárias de escolha dos valores

no conjunto de amostras.

Gaure e Kleijnen (1998) apresentaram outras aplicações para os métodos de

amostragem de Monte Carlo e os demais métodos determinísticos empregados em

simulação. O propósito do estudo conduzido pelos autores foi testar e gerenciar o risco

presente no projeto de sistemas, utilizando a simulação como ferramenta para avaliar a

robustez das características testadas. Segundo os autores, a escolha dentre dois sistemas

era feita através de comparações das funções de distribuição de seus desempenhos. Tais

comparações estavam atreladas a determinado critério e compactadas em funções de

utilidade ou funções características, que eram expressões matemáticas representando as

preferências em relação ao risco contido nos sistemas avaliados.

Até então, a maioria dos estudos de robustez de sistemas considerava apenas três

valores para cada parâmetro em estudo e suas diversas combinações possíveis. Em

Page 74: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

59

seguida, técnicas matemáticas eram empregadas para escolher as combinações mais

prováveis e avaliar os resultados com estas combinações. A análise de risco, por outro

lado, utilizava tamanhos elevados de amostras para cada parâmetro. Como exemplo, o

autor citou o Hipercubo Latino que requeria, nos experimentos realizados, amostras de

pelo menos cem termos. Assim, enquanto a análise tradicional dos experimentos

utilizava valores críticos para os parâmetros, a análise de risco empregava praticamente

todo o espectro de valores possíveis e de combinações esperadas com os parâmetros do

sistema. Ao final, o procedimento da análise de risco construía a função distribuição dos

resultados com maior precisão e exatidão que nos casos tradicionais.

Na comparação de vários sistemas de controle utilizando os critérios da análise

de risco, proposta pelos autores da pesquisa, os parâmetros de incerteza considerados

foram as médias dos tempos de processamento e suas respectivas variâncias, as médias

dos tempos entre falhas consecutivas do sistema e as durações dos intervalos para

execução dos reparos no sistema. Além destes últimos, as taxas de demanda do produto

final também foram adotadas como parâmetro. Ao todo, foram 17 parâmetros

considerados nas análises realizadas.

Por simplicidade, os autores escolheram o intervalo de ±5% ao redor dos valores

mais prováveis de cada parâmetro como domínios a serem estudados. O método de

amostragem do Hipercubo Latino foi utilizado para gerar cem amostras (cenários) no

ambiente estudado. Os cenários criados foram considerados equiprováveis. Desta forma,

todos os parâmetros possuíam distribuições uniformes nos intervalos considerados. Para

cada cenário, foram executadas simulações para períodos de um mês de produção, em

regime de 22 dias úteis com dois turnos por dia. Todas as simulações utilizavam as

mesmas condições de contorno.

O objetivo era atingir 99.9% de nível de serviço e minimizar o tempo de

processo dos sistemas (WIP). Como medidas de desempenho, foram utilizados o tempo

de processo mensal e a proporção mensal dos turnos com níveis de serviço abaixo de

99.9%. A teoria da dominância estocástica poderia ser aplicada para classificar (por

ranks) os sistemas estudados com base nos resultados obtidos.

Page 75: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

60

Os autores concluíram o estudo afirmando que os resultados da aplicação dos

métodos de simulação para avaliar a questão da robustez em sistemas de produção

foram satisfatórios. Eles propuseram este procedimento diferente dos tradicionais,

utilizando a amostragem de Monte Carlo e as amostragens determinísticas, para poder

construir cenários incertos para parâmetros ambientais também incertos. A simulação

destes diferentes cenários conduziu a uma medida mais exata e precisa do risco

envolvido na adoção de sistemas que resultassem em falhas futuras. Os autores

acreditavam que este procedimento apresentava mais vantagens em relação ao método

tradicional, mesmo com a desvantagem de requerer maior número de experimentos. As

análises da robustez de diversos sistemas de controle de produção ilustraram a nova

abordagem proposta e mostraram a combinação da análise de risco com a simulação

estocástica na comparação de sistemas. Os experimentos também demonstraram a

importância do projeto de robustez nos sistemas, apresentando situações onde ignorar as

variações ambientais e as incertezas poderiam negligenciar parcelas significativas do

risco global.

Page 76: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

61

2.5 Conclusões

Neste capítulo, os diversos métodos de amostragem para aplicações de

simulação foram apresentados. Exemplos mostraram aplicações do método de Monte

Carlo clássico, com a amostragem aleatória simples, e de Monte Carlo modificado, que

utiliza a amostragem pseudo-aleatória, onde existe a liberdade de escolha do valor da

semente responsável pela seqüência dos valores aleatórios. Outros exemplos e

aplicações adotaram o método de amostragem com conjuntos determinísticos, como a

amostragem Descritiva, ou o Hipercubo Latino, que ainda apresenta uma componente

aleatória na determinação dos valores nas amostras. Finalmente, foram abordadas as

mais recentes pesquisas e aplicações em termos de metodologias de amostragem com

conjuntos quasi-aleatórios, os métodos de baixa-discrepância conhecidos como Quasi-

Monte Carlo, que utilizam as séries numéricas de Halton, Sobol e Faure.

A maior parte dos resultados apresentados pelos autores discutidos neste

capítulo indicou a superioridade das seqüências determinísticas de Quasi-Monte Carlo

sobre o método tradicional de Monte Carlo, que utiliza amostragem aleatória (ou

pseudo-aleatória) simples. A superioridade foi constatada por indicadores de velocidade

de convergência nos modelos empregados ou por indicadores de exatidão e precisão dos

resultados em relação às estimativas para as aplicações analisadas.

Alguns autores, contudo, apresentaram limites claros para tal superioridade

paramétrica através da dimensão considerada nos casos e aplicações abordadas.

Segundo alguns pesquisadores, a superioridade das seqüências de baixa-discrepância era

mantida até que o estimador analisado possuísse oito dimensões. Acima deste valor, a

superioridade não mais foi constatada. Outros resultados demonstraram que, ao menos

nas aplicações em que foram empregados, os métodos de Quasi-Monte Carlo são

superiores em termos de convergência e exatidão para dimensões de cerca de 360

variáveis de entrada.

Apesar de diferentes valores limítrofes para estas características encontradas em

diversas aplicações na natureza, uma conclusão comum foi notadamente identificada em

Page 77: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

62

todos os autores abordados: a superioridade relativa dos métodos de Quasi-Monte Carlo

e suas variações sobre o método tradicional de Monte Carlo. Esta superioridade foi

verificada em diferentes níveis para cada aplicação, considerando os valores

estabelecidos para os critérios adotados nas comparações (convergência e exatidão).

Combinações dos efeitos obtidos pela utilização dos diversos métodos de

amostragem com os efeitos da imposição de correlações entre as variáveis na entrada de

uma aplicação, através da Transformada de Cholesky, também foram discutidas nesse

capítulo. Os resultados apresentados foram satisfatórios quando comparados aos obtidos

pela utilização dos métodos tradicionais empregados no ambiente empresarial, que

desconsidera certas inter-relações entre as variáveis de entrada.

Nos capítulos subseqüentes, todos os diferentes métodos de amostragem

abordados e discutidos serão comparados entre si. Os correspondentes desempenhos

individuais serão estudados em experimentos e aplicações envolvendo análise de risco,

apreciação de instrumentos derivativos financeiros, avaliação do retorno esperado em

carteira de ações e no cálculo de integrais múltiplas, que foi uma das aplicações

pioneiras do método de Monte Carlo clássico em Engenharia.

Page 78: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

63

3 METODOLOGIA

Neste capítulo, serão apresentadas as classificações da pesquisa a ser realizada

quanto aos fins e aos meios, a abrangência e a delimitação do estudo, descrevendo os

tipos de aplicações onde serão testados e comparados os diferentes métodos de

amostragem. Serão apresentadas também as formas de coletar os dados nos

experimentos e os critérios adotados para analisar o desempenho das seqüências de

amostragem nas aplicações selecionadas.

3.1 Tipo de pesquisa

O estudo a ser realizado consistirá na comparação de seis métodos de

amostragem apresentados no capítulo anterior através da avaliação do desempenho dos

conjuntos de amostras quando aplicados aos casos de análise de risco, apreciação (ou

precificação) de derivativos financeiros, avaliação de carteiras de ações e avaliação de

integrais múltiplas.

Segundo a taxionomia apresentada por Vergara (1997), esta pesquisa pode ser

classificada, quanto aos fins, em duas categorias. Inicialmente, como uma pesquisa

exploratória, por tratar de assunto relacionado a descobertas relativamente recentes e

que ainda não foi completamente esgotado em ambientes acadêmicos. A seguir, como

pesquisa aplicada, por ser especialmente voltada ao mercado financeiro, onde o

desenvolvimento de instrumentos para avaliação de ativos tem recebido grande atenção

devido à velocidade com que surgem operações cada vez mais complexas e dependentes

de muitas variáveis inter-relacionadas.

De acordo com a classificação adotada por Vergara (1997), esta pesquisa

pertence, quanto aos meios empregados, a duas outras categorias. É uma pesquisa

experimental, uma vez que permitirá analisar o fenômeno da superioridade de uma

metodologia de amostragem em relação às demais estudadas neste trabalho. A

Page 79: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

64

comparação dos desempenhos dos métodos será realizada através da mudança das

variáveis de entrada e das condições de contorno nas aplicações. Também é uma

pesquisa de laboratório, pois as principais ferramentas a serem empregadas na análise

dos resultados e na criação das seqüências de amostragem a serem comparadas serão o

computador e seus respectivos programas.

Este trabalho também pode ser classificado, segundo Vergara (1997), como um

estudo de caso, pois os experimentos e aplicações realizadas para obtenção dos dados

estão fundamentados em situações reais e casos extraídos diretamente do mercado

financeiro ou relacionados a antigas questões de engenharia.

3.2 Universo e amostra

Há muitos experimentos e problemas onde as metodologias de amostragem aqui

estudadas1 poderiam ser aplicadas a fim de comparar a convergência e a exatidão dos

resultados obtidos para as variáveis de saída.

Entretanto, devido à limitação do tempo disponível e ao fato de que a atividade-

fim deste trabalho não é esgotar o tema, quatro categorias de experimentos foram

cuidadosamente selecionadas. A escolha teve por base facilitar o tratamento dos

resultados e contribuir para a obtenção de conclusões concretas sobre as características

dos métodos de amostragem empregados. Para modelar as aplicações desta pesquisa,

foram observados os procedimentos e as principais recomendações para a construção de

modelos e para a subseqüente realização dos experimentos a eles associados, conforme

mencionado em Vose (1996).

Em todas as aplicações desta pesquisa, as séries de baixa-discrepância

empregadas foram obtidas pelo método de Quasi-Monte Carlo aleatório. Por este

método, cada variável de entrada é associada a um número primo na primeira corrida e

1 Método de Monte Carlo clássico, Métodos de Quasi-Monte Carlo, Amostragem Descritiva e HipercuboLatino.

Page 80: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

65

recebe como amostra a série de Quasi-Monte Carlo correspondente a esse primo. Nas

corridas seguintes, as variáveis recebem permutações simples das séries utilizadas na

primeira corrida. Não há alteração nos valores dos termos nas amostras das corridas

subseqüentes (método de conjuntos determinísticos).

A primeira categoria estudada nesta pesquisa foi selecionada dentre um universo

de aplicações existentes no mercado financeiro: a Análise de Risco na tomada de

decisão sobre o lançamento de um novo produto no mercado.

3.2.1 ANÁLISE DE RISCO

O problema da Análise de Risco de um novo produto, definido em Saliby (1989,

apêndice A8), trata da situação de uma empresa que estuda suas opções de investimento

no dia-a-dia. Esta empresa está considerando a possibilidade de lançar um novo produto

na área de negócios em que atua.

Para avaliar a viabilidade do ponto de vista da empresa neste lançamento, foram

identificados e quantificados os principais fatores que, de alguma forma, pudessem

influenciar o resultado financeiro consolidado do empreendimento.

Investimento inicial:

Dentre estes fatores, o investimento inicial é de particular importância, pois,

dependendo de sua ordem de grandeza e da dificuldade em conseguir o financiamento, o

projeto pode ser inviável. Para a fabricação e colocação do produto no mercado, é

necessário um desembolso inicial de R$ 1.000.000,00 (um milhão de reais), valor

preciso o suficiente a ponto de poder ser considerado correto. Por ser investimento de

natureza específica, sem utilidade para outros fins, e por ser exclusivo da empresa

estudada, não há valor residual a ser recuperado no futuro, após o ciclo mercadológico

do produto.

Page 81: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

66

Vida mercadológica do produto:

O lançamento se refere a um produto ainda inexistente no mercado, do tipo

novidade, e dele se espera uma vida mercadológica curta no que diz respeito ao volume

de vendas. Com base na experiência e intuição dos diretores, a empresa estima em 60%

a probabilidade de permanência do produto por dois anos em sua lista de produtos

vendidos. Uma estimativa mais otimista, proveniente da mesma fonte de informações, é

a permanência por três anos consecutivos na lista de produtos vendidos pela empresa,

avaliada com 40% de probabilidade de ocorrência. A possibilidade de o produto

permanecer por mais de três anos na lista de produtos vendidos pela empresa foi

descartada pelos diretores.

Custo unitário:

Devido às incertezas do empreendimento, o custo unitário de preparação do

produto, desconsiderando as despesas iniciais de investimento, foi especificado através

de uma distribuição de probabilidades. Os valores possíveis e suas respectivas

probabilidades são fornecidos na tabela 3.1 a seguir. É importante observar que, tendo

em vista a possibilidade de estabelecer bons acordos comerciais para a pequena vida

mercadológica considerada, os custos serão idênticos ao longo de toda a vida do

produto.

Tabela 3.1 Custos unitários dos novos produtos e suas probabilidades de ocorrência, para aaplicação de Análise de Risco no lançamento

Custo unitário (R$) Probabilidade (%)

3,00 40

3,50 30

4,00 30

Page 82: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

67

Vendas anuais:

O volume de vendas do novo produto deverá variar de forma aleatória ao longo

dos anos, porém, ao contrário dos custos, seu valor para cada ano no mercado será

independente dos demais anos. Pela experiência anterior da empresa, foi verificado que

as vendas eram mais bem representadas por uma distribuição empírica contínua. Desta

forma, os volumes anuais de vendas deverão variar uniformemente para cada um dos

cinco intervalos apresentados na tabela 3.2. Os cinco intervalos de valores possíveis

para os volumes anuais de vendas são considerados equiprováveis.

Tabela 3.2 Intervalos possíveis para os volumes anuais de venda dos novos produtos, para aaplicação de Análise de Risco no lançamento

Intervalo Probabilidade (%) Limites (mil unidades)

1 20 70 a 360

2 20 360 a 410

3 20 410 a 490

4 20 490 a 630

5 20 630 a 900

Gráfico 3.1 Função de distribuição acumulada de probabilidades dos volumes anuais devendas (mil unidades), segundo tabela 3.2

0

0.2

0.4

0.6

0.8

1

0 200 400 600 800 1000VENDAS (mil unid)

F (V)

Page 83: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

68

Estes intervalos de valores para os volumes anuais de vendas também podem ser

descritos, de modo equivalente, através de sua função de distribuição acumulada de

probabilidades, apresentada no gráfico 3.1 logo após a tabela 3.2. Quaisquer que sejam

os métodos de amostragem utilizados, os valores para os volumes anuais de vendas

serão obtidos através da inversa da função de distribuição acumulada.

Preço de venda:

Para este estudo, o preço unitário de venda foi fixado em R$ 5,00, independente

dos fatores de mercado presentes nos cenários adotados. Esta aproximação é aceitável

quando o produto analisado é classificado como inédito, ou do tipo novidade, sem a

presença de outro equivalente em circulação.

Critério de decisão e taxa de desconto do fluxo de caixa:

O critério de decisão adotado para o investimento é o do fluxo de caixa

descontado (ou FCD). Os valores presentes dos fluxos de caixa futuros serão somados e

expressos em unidades de R$ 1.000,00 (unidades de mil reais).

A taxa de desconto utilizada na avaliação dos projetos da empresa é de 15% ao

ano, antes da aplicação do imposto de renda e de outros impostos cabíveis.

Outras premissas:

Foi considerado que o produto já estará disponível para as vendas logo após o

pagamento do investimento inicial. Além disso, a convenção adotada para os fluxos de

caixa foi a de que tais fluxos estariam concentrados ao final dos períodos anuais.

Page 84: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

69

Objetivo da simulação:

O objetivo principal com o emprego da Simulação neste experimento é

determinar o perfil de risco do projeto2, com interesse específico na média e no desvio-

padrão da média dos valores presentes dos fluxos de caixa.

Os diferentes métodos de amostragem empregados no experimento produzirão, a

cada corrida de simulação, uma amostra dos valores presentes dos fluxos de caixa

descontados. A partir das amostras geradas, os valores das médias e dos

correspondentes desvios-padrão das médias serão calculados, conforme as respectivas

expressões 3.1 apresentadas a seguir.

[3.1]

3.2.1.1 Variantes do experimento de análise de risco

Com o objetivo de testar a convergência e a exatidão dos resultados

apresentados pela aplicação dos métodos de amostragem estudados, três variantes do

problema de análise de risco foram empregadas. Em todos os casos, as alterações

realizadas procuraram aumentar a dimensão do problema ou o número de variáveis de

entrada.

Na primeira e segunda variantes, a dimensão do problema foi aumentada a partir

da ampliação da vida mercadológica do produto analisado. Esta dimensão foi, na

primeira variante do exercício, elevada para o horizonte de 6 anos, e na segunda, para o

horizonte de 14 anos. A vida mercadológica do produto no último ano continuou com a

probabilidade de ocorrência fixada em 40%, enquanto a vida mercadológica até o

penúltimo ano permaneceu com probabilidade de 60%. Os demais parâmetros

permaneceram constantes.

NVP

N

iiVP∑

== 1( )

11

2

−=

∑ −=

N

N

ii

VP

VPVPσe

Page 85: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

70

Na terceira variante do problema, parâmetros antes considerados constantes

passaram a flutuar em faixas de valores com suas respectivas probabilidades de

ocorrência. Os parâmetros que passaram a variar foram: o investimento inicial, que

passou a ter três valores com diferentes probabilidades, conforme a tabela 3.3; o custo

unitário dos novos produtos a cada ano, que passou a ter valores independentes entre

anos consecutivos; o preço de venda ao consumidor final, que passou a ser influenciado

pelas variáveis de mercado, recebendo acréscimo ou decréscimo de valor de acordo com

o volume anual de vendas, conforme a tabela 3.4; finalmente, o volume de vendas do

primeiro ano passou a incorporar o risco associado ao atraso na entrega das instalações,

que reduz o volume efetivo de vendas no ano de lançamento, conforme apresentado na

tabela 3.5 a seguir.

Tabela 3.3 Valores do investimento inicial para lançar o novo produto e suas probabilidadesde ocorrência, para a terceira variante da aplicação de Análise de Risco

Investimento inicial (mil R$) Probabilidade (%)

900,00 25

1.000,00 45

1.100,00 30

Tabela 3.4 Variações no preço final dos novos produtos com as respectivas probabilidades deocorrência, para a terceira variante da aplicação de Análise de Risco

Intervalo vendas Probabilidade (%) Variação (%)

1 20 -20 a -10

2 20 -10 a 0

3 20 -5 a 5

4 20 0 a 10

5 20 10 a 20

2 A função distribuição acumulada do valor presente dos fluxos de caixa descontados à taxa anual pré-estabelecida de 15%.

Page 86: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

71

Tabela 3.5 Reduções no volume de vendas do primeiro ano após lançar o produto, para aterceira variante da aplicação de Análise de Risco

Redução vendas (%) Probabilidade (%)

zero 60

20 30

40 10

A segunda categoria identificada no universo de aplicações do mercado

financeiro a ser analisada foi a Avaliação de uma Carteira (ou Portfolio) de Ações

Correlacionadas. Neste experimento, foram empregados os métodos de amostragem e as

transformações3 apresentadas no capítulo anterior.

3.2.2 AVALIAÇÃO DE PORTFOLIO DE AÇÕES

Neste experimento, o interesse maior era a avaliação do retorno esperado para

uma carteira de ações correlacionadas, cujos retornos médios anuais e correspondentes

desvios-padrão eram previamente conhecidos. A matriz de correlação das ações que

compunham a carteira também era conhecida. Abordagens equivalentes às utilizadas

neste experimento para criar dependências entre vetores independentes podem ser

consultadas no documento técnico do Risk MetricsTM terceira edição (1995), produzido

pela Morgan Guaranty Trust Company. Outros exemplos de aplicações de séries multi-

correlacionadas, bem como dos procedimentos para obter vetores correlacionados

podem ser encontrados em Jorion (1997).

Para o presente estudo, foi proposta uma carteira formada com quatro ações. As

proporções dos investimentos financeiros atribuídos a cada uma das ações eram iguais

entre si (25%). Os retornos anuais médios das ações componentes da carteira e seus

respectivos desvios-padrão foram apresentados na tabela 3.6 a seguir.

3 Transformada de Cholesky e Procedimento de Ajuste da Transformada de Cholesky.

Page 87: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

72

Tabela 3.6 Retornos anuais médios e desvios-padrão para as ações da carteira analisada, naaplicação de Avaliação de Portfolio de Ações

Retorno anual médio (%) Desvio-padrão (%)

Ação 1 15 20

Ação 2 10 12

Ação 3 25 40

Ação 4 16 20

A aplicação poderia ser empregada para determinar os percentis da distribuição

de retornos da carteira, sabendo que as ações componentes possuíam comportamentos

correlacionados. A matriz de correlação destas ações foi apresentada na tabela 3.7.

Tabela 3.7 Matriz de correlação entre os retornos anuais médios das ações da carteiraanalisada, na aplicação de Avaliação de Portfolio de Ações

Ação 1 Ação 2 Ação 3 Ação 4

Ação 1 1 0.8 0.7 0.6

Ação 2 0.8 1 0.75 0.55

Ação 3 0.7 0.75 1 0.65

Ação 4 0.6 0.55 0.65 1

Além de determinar os percentis da distribuição de retornos da carteira, a

aplicação poderia determinar a probabilidade de o retorno anual da carteira superar um

valor de referência. Esta última atribuição foi adotada como objetivo intermediário do

experimento, definindo o estimador de saída do modelo como a probabilidade do

retorno anual da carteira superar o valor de 20%.

Nesta pesquisa, entretanto, o principal objetivo da aplicação e de suas variantes

era comparar o desempenho dos métodos de amostragem testados, utilizando os

critérios de velocidade de convergência e exatidão dos retornos da carteira. Como

função de saída foi assim definida a probabilidade de o retorno anual da carteira superar

o valor de 20%.

Page 88: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

73

3.2.2.1 Variantes do experimento de avaliação de portfolio de ações

Algumas variantes poderiam ser introduzidas nesta aplicação de modo a elevar a

dimensão do problema e testar a hipótese de que os métodos de Quasi-Monte Carlo

apresentam superioridade apenas nos casos com dimensões pequenas. Duas variantes

foram consideradas.

A primeira variante considerou que o número de ações componentes da carteira

de investimentos aumentou para oito. Os novos valores das médias dos retornos anuais

individuais para as ações e seus respectivos desvios-padrão foram listados na tabela 3.8.

A nova matriz de correlação entre os retornos foi apresentada na tabela 3.9.

A segunda variante desta aplicação continuou aumentando a dimensão do

experimento, considerando a carteira composta de dez ações multi-correlacionadas. A

tabela 3.10 apresentou os retornos anuais médios das ações e seus respectivos desvios-

padrão. A tabela 3.11 apresentou a nova matriz de correlação imposta às dez variáveis

da carteira. Os valores utilizados nestas variantes do experimento não tiveram a

pretensão de replicar alguma carteira específica. Os valores foram escolhidos para testar

o desempenho dos métodos de amostragem em grandes dimensões.

Tabela 3.8 Retornos anuais médios e desvios-padrão para as ações da carteira analisada, naprimeira variante da aplicação de Avaliação de Portfolio de Ações

Retorno anual médio (%) Desvio-padrão (%)

Ação 1 15 20

Ação 2 10 12

Ação 3 25 40

Ação 4 16 20

Ação 5 20 25

Ação 6 12 16

Ação 7 13 18

Ação 8 10 13

Page 89: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

74

Tabela 3.9 Matriz de correlação dos retornos anuais médios das ações da carteira analisada,na segunda variante da aplicação de Avaliação de Portfolio de Ações

Ação 1 Ação 2 Ação 3 Ação 4 Ação 5 Ação 6 Ação 7 Ação 8

Ação 1 1 0.8 0.7 0.6 0.5 0.4 0.3 0.2

Ação 2 1 0.75 0.55 0.45 0.40 0.45 0.30

Ação 3 1 0.65 0.55 0.45 0.35 0.25

Ação 4 1 0.5 0.6 0.7 0.8

Ação 5 1 0.75 0.65 0.5

Ação 6 1 0.5 0.6

Ação 7 1 0.8

Ação 8 1

Tabela 3.10 Retornos anuais médios e desvios-padrão das ações da carteira analisada, naterceira variante da aplicação de Avaliação de Portfolio de Ações

Retorno anual médio (%) Desvio-padrão (%)

Ação 1 15 20

Ação 2 10 12

Ação 3 25 40

Ação 4 16 20

Ação 5 20 25

Ação 6 12 16

Ação 7 13 18

Ação 8 10 13

Ação 9 18 22

Ação 10 23 28

Page 90: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

75

Tabela 3.11 Matriz de correlação dos retornos anuais médios das ações da carteira analisada,na terceira variante da aplicação de Avaliação de Portfolio de Ações

Aç 1 Aç 2 Aç 3 Aç 4 Aç 5 Aç 6 Aç 7 Aç 8 Aç 9 Aç 10

Aç 1 1 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.05

Aç 2 1 0.75 0.55 0.45 0.40 0.45 0.30 0.2 0.1

Aç 3 1 0.65 0.55 0.45 0.35 0.25 0.15 0.1

Aç 4 1 0.5 0.6 0.7 0.8 0.6 0.5

Aç 5 1 0.75 0.65 0.5 0.45 0.35

Aç 6 1 0.5 0.6 0.7 0.6

Aç 7 1 0.8 0.5 0.45

Aç 8 1 0.85 0.65

Aç 9 1 0.55

Aç 10 1

A terceira categoria de aplicações escolhidas no universo de situações

encontradas no mercado financeira foi a Avaliação do Preço (Apreciação ou

Precificação) de Ativos Financeiros Derivativos. No caso, serão avaliadas as Opções

de Compra de um determinado ativo-objeto.

3.2.3 PRECIFICAÇÃO DE OPÇÕES

A opção do tipo européia sobre um ativo-objeto atribui ao portador o direito de

comprar (no caso de opção de compra) ou de vender (se a opção for de venda) o ativo-

objeto por um preço previamente definido (preço de exercício) na data do vencimento

da opção.

O modelo mais conhecido para apreciação (ou precificação) de Opções é o

modelo de Black & Scholes, desenvolvido em 1973, que faz uma série de suposições a

respeito do comportamento do ativo-objeto da opção. Dentre as suposições, está o fato

de que o preço do ativo segue uma distribuição log-normal. Isto significa que o

logaritmo do preço do ativo-objeto é uma variável aleatória normalmente distribuída.

Page 91: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

76

Algumas definições iniciais são necessárias antes da apresentação da expressão

fechada para o cálculo do valor da opção, de modo a esclarecer as dependências entre as

variáveis de controle. Assim,

P0 ... é o preço do ativo-objeto da opção na data inicial

t ... é a medida do tempo transcorrido a partir da data inicial

Pt ... é o preço do ativo-objeto da opção no instante de tempo t

Z ... é uma variável aleatória com distribuição Normal padrão

µ ... é o crescimento médio no valor do ativo-objeto ao longo do tempo

σ ... é o desvio-padrão do crescimento médio no valor do ativo-objeto.

O preço do ativo-objeto, no instante de tempo t, é modelado pela expressão 3.2

abaixo.

[3.2]

A receita bruta do portador da opção de compra, no instante do vencimento,

depende da relação entre o preço do ativo-objeto na ocasião, calculado pela expressão

3.2, e o preço de exercício estabelecido no contrato da opção. O portador da opção de

compra deverá exercer a opção apenas se o preço do ativo-objeto estiver avaliado com

valor superior ao do preço de exercício. Caso contrário, e justamente por isso o fato não

ocorra, realizará prejuízo imediato no exercício. A tabela 3.12, a seguir, apresenta os

possíveis valores, no exercício ou vencimento, para o fluxo de caixa bruto do portador

da opção de compra.

Tabela 3.12 Fluxo de caixa bruto do portador de uma opção de compra para um ativo-objeto,na data de exercício ou do vencimento da opção

Ativo-Objeto Preço Exercício Relação Fluxo Caixa bruto

Pt ≤ K zeroPt K

Pt > K Pt - K

( )[ ]ePP tZtt

5.025.00

⋅⋅+⋅⋅−⋅= σσµ

Page 92: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

77

Dessa forma, se o preço do ativo-objeto no instante do exercício for maior que o

preço de exercício, o fluxo de caixa bruto naquela data será a diferença entre o preço do

ativo-objeto e o preço de exercício. Caso contrário, o fluxo de caixa bruto será nulo.

Considerando a distribuição de valores da variável normal aleatória Z, as várias

situações para o fluxo de caixa futuro são estudadas e seus resultados trazidos a valor

presente pela taxa livre de risco. A média dos valores presentes dos fluxos de caixa

futuros para as diversas corridas executadas representa o valor da opção de compra por

simulação.

O valor considerado exato da avaliação da Opção de Compra, para comparação

com os resultados obtidos na simulação, será o valor calculado pela fórmula fechada do

modelo de Black & Scholes. Esta fórmula, bem como os passos de seu

desenvolvimento, estão explicados claramente em Hull (1993). As equações estão

mostradas nas expressões 3.3 e alguns esclarecimentos foram prestados logo a seguir.

[3.3]

N(d) é a função densidade de probabilidade acumulada para uma variável com

distribuição Normal padrão e seu valor representa a probabilidade da variável ser menor

ou igual a d. A variável r representa a taxa livre de risco na unidade de tempo adotada

para t. As demais variáveis possuem as mesmas definições que as estabelecidas para a

expressão 3.2, equação do estimador de saída para a simulação.

A variante que poderia ser introduzida nesta aplicação seria considerar uma

carteira formada de muitas opções de compra e venda, avaliar o resultado individual de

cada opção e determinar o valor total da carteira. Esta variante, contudo, por limitações

de escopo e tempo, não foi realizada.

( ) ( ) ( )ded NKNPc tr21 ⋅⋅−⋅= ⋅−

t

trKP

d⋅

++

σ2

ln2

1 tdd ⋅−= σ12e

Page 93: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

78

A quarta categoria de experimentos estudados nesta pesquisa estava relacionada

ao universo de aplicações práticas em Engenharia. O caso selecionado foi a Avaliação

de uma Integração Múltipla de quarta ordem.

3.2.4 INTEGRAÇÃO MÚLTIPLA

O problema da integração múltipla, apresentado por Saliby (1989, apêndice A5),

representa o tipo de aplicação para o qual o método de Monte Carlo foi originalmente

proposto.

Em sua abordagem, conhecida como Monte Carlo direto e apresentada por

Hammersley e Handscomb, em 1964, a integral definida de uma determinada função no

intervalo [A , B], representada por ...

[3.4]

era estimada através da relação ...

[3.5]

Em geral, através de uma simples transformação de variáveis, esta integral pode

passar a ser avaliada num intervalo unitário (ou [B-A] = 1). Esta mesma idéia pode ser

replicada ao cálculo de uma integral múltipla (n-dimensional).

O problema específico deste estudo consiste em estimar o valor da integral pelos

métodos de amostragem analisados. Em seguida, armazenar e comparar os diferentes

comportamentos de convergência e os valores obtidos para cada método empregado.

dxxfB

A

⋅=Θ ∫ )(

( )

⋅−=∑

=

N

fABY

N

iix

1)(

Page 94: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

79

A integração a ser estimada neste exercício possui dimensão quatro e foi

apresentada na expressão 3.6 a seguir.

[3.6]

O valor da estimativa da integral corresponde à média da variável de resposta

definida pela expressão 3.7.

[3.7]

Como informação adicional, Saliby (1989) fornece o valor exato desta integral

de quarta ordem apresentada na aplicação. Seu valor é 1.0693976.

3.2.4.1 Variantes do experimento de integração múltipla

As variantes para este caso podem ser conseguidas elevando a dimensão da

integral a ser estimada para ordens superiores. Quanto maior a ordem da integral mais

difícil é sua solução analítica e, portanto, os métodos de simulação nestas ocasiões

passam a ser muito úteis.

Desta forma, a primeira variante que foi analisada nesta aplicação foi a

integração múltipla de ordem oito, definida pela expressão 3.8 a seguir.

[3.8]

A segunda variante foi a integração múltipla de ordem dez, definida pela

expressão 3.9 abaixo.

[3.9]

dxdxdxdxe xxxx4321

1

0

1

0

1

0

1

04321 ⋅⋅⋅⋅=Θ ∫ ∫ ∫ ∫ ⋅⋅⋅

⋅= ∑

= NfY

N

iix 1)(

1

dxdxdxdxe xxxx8321

1

0

1

0

1

0

1

0

1

0

1

0

1

0

1

08321 ⋅⋅⋅⋅⋅⋅⋅⋅=Ω ∫ ∫ ∫ ∫ ∫ ∫ ∫ ∫ ⋅⋅⋅⋅⋅⋅⋅

dxdxdxdxe xxxx10321

1

0

1

0

1

0

1

0

1

0

1

0

1

0

1

010321 ΚΚΚ ⋅⋅⋅⋅=Ψ ∫ ∫ ∫ ∫ ∫ ∫ ∫ ∫ ⋅⋅⋅

Page 95: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

80

3.3 Coleta de dados

As informações sobre os critérios de comparação adotados - velocidade de

convergência e exatidão do resultado nas aplicações estudadas nesta pesquisa - serão

obtidas a partir de três planilhas. Estas planilhas foram desenvolvidas em MS EXCEL

2000 e, por macros, reproduzem as seqüências numéricas relativas aos métodos de

amostragem considerados.

As planilhas fundamentais para obtenção dos resultados da pesquisa foram

denominadas Risk.xls, Samples.xls e Cholesky.xls.

3.3.1 Velocidade de convergência

A planilha Samples.xls contém os algoritmos para criação das seqüências

analisadas de Monte Carlo clássico, Amostragem Descritiva, Hipercubo Latino e Quasi-

Monte Carlo. As séries numéricas de Quasi-Monte Carlo foram Halton, Sobol e Faure,

conforme definições apresentadas no capítulo anterior. Como os algoritmos para gerar

as séries numéricas de Quasi-Monte Carlo foram desenvolvidos a partir de funções pré-

definidas do EXCEL 2000, as velocidades de execução dos códigos são muito inferiores

à velocidade de cálculo das amostras aleatórias simples, que já é padronizada e foi

programada no código-fonte do aplicativo.

Assim, a comparação entre os desempenhos dos métodos de amostragem quanto

à velocidade de convergência dos resultados nas aplicações não será através do tempo

real de execução das corridas individuais e nem através da duração total da simulação.

Considerando que uma função ou comando externo do software necessita de

outros comandos internos para sua execução e que a amostragem aleatória foi

programada apenas com comandos internos, seria injusto comparar o tempo de

simulação pelo valor do tempo transcorrido. O melhor estimador na comparação das

velocidades de convergência dos resultados é o número de corridas executadas até

alcançar determinada meta de convergência.

Page 96: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

81

As sub-rotinas desenvolvidas na planilha Samples.xls em VBA4 foram

programadas para interromper as corridas de simulação de acordo com o critério

estabelecido pelo usuário no início da simulação. O usuário deve escolher o tipo de

critério e seu valor antes de executar as sub-rotinas controladoras da simulação. A

simulação será interrompida assim que o valor do critério escolhido for alcançado.

Os critérios pré-programados nas sub-rotinas da Samples.xls foram: a precisão

relativa entre duas leituras consecutivas do estimador de saída, o número de corridas

executadas durante a simulação e o tempo total transcorrido desde o início da

simulação.

3.3.2 Exatidão do resultado

Os resultados das aplicações serão verificados na planilha Risk.xls após a

execução total das corridas necessárias para atingir as metas especificadas nos critérios

de parada da simulação.

Nos casos onde o valor exato do resultado da aplicação for conhecido, o

estimador de exatidão do resultado da simulação será o desvio percentual relativo ao

valor exato. O maior ou menor valor deste desvio fornecerá informações relativas à

superioridade de um método de amostragem frente a outro.

Nas aplicações onde o valor exato do resultado da aplicação for desconhecido, o

procedimento adotado para obter o valor considerado exato será o mesmo empregado

por diversos pesquisadores e apresentado no segundo capítulo. Este procedimento

consiste em simular o experimento pelo método clássico de Monte Carlo até que a

precisão desejada para o resultado seja alcançada. O resultado da simulação por Monte

Carlo será assim adotado como valor exato na aplicação. As simulações pelos demais

métodos de amostragem serão então realizadas e seus resultados serão comparados ao

valor obtido por Monte Carlo, definido como exato.

4 Visual Basic for Applications – Linguagem de programação existente no aplicativo EXCEL 2000.

Page 97: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

82

No caso da precificação de opções de compra ou de outros derivativos

financeiros, o valor exato considerado nesta pesquisa foi o valor obtido pelos

instrumentos de avaliação adotados no mercado. Para a avaliação de opções européias

de compra, o valor exato foi calculado pelo modelo de Black & Scholes, desenvolvido

em 1973.

Para a avaliação da carteira de ações correlacionadas, o valor exato do resultado

foi obtido pela simulação por Monte Carlo clássico. Os resultados produzidos pelos

demais métodos de amostragem foram comparados ao valor exato definido. Neste

trabalho, a aplicação de Avaliação de Portfolio de Ações será estudada sob dois

aspectos. O primeiro aspecto consiste em testar a transformada de Cholesky nas

diferentes amostras em estudo. O segundo aspecto consiste em, uma vez comprovada a

eficiência da transformação, comparar os desempenhos dos métodos de amostragem

segundo os critérios de convergência e exatidão dos resultados.

3.3.3 Eficiência da correlação forçada

Os algoritmos e as sub-rotinas empregadas para obter as séries multi-

correlacionadas transformadas pelo método de Cholesky foram armazenados na planilha

Cholesky.xls.

Inicialmente, será testada a eficiência do algoritmo para correlacionar, segundo

uma matriz conhecida, as séries de variáveis independentes utilizadas no experimento.

Diversas séries independentes entre si serão produzidas pelos métodos de amostragem

estudados e a estas séries serão aplicados a Transformada de Cholesky e o procedimento

de ajuste5, conforme explicado no capítulo anterior. A matriz de correlação relativa às

séries transformadas será comparada à matriz de correlação desejada. O maior erro

relativo entre os elementos da matriz transformada e os correspondentes elementos da

matriz desejada será calculado. Esse erro será calculado para cada conjunto de amostras

testadas e os valores serão comparados entre si para gerar conclusões sobre a eficiência

da transformação de Cholesky.

5 Conforme apresentado por Iman e Conover (1982) e explicado no segundo capítulo desta dissertação.

Page 98: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

83

O interesse particular em testar a eficiência das transformações aplicadas aos

vetores independentes não está relacionado à aprovação dos algoritmos. O motivo é

verificar o perfil real das séries que estão sendo efetivamente utilizadas na comparação

dos métodos de amostragem. Uma pesquisa mais detalhada sobre os efeitos globais das

transformações aplicadas às amostras de alguns tipos de distribuição já existentes6

poderá ser encontrada em Iman e Davenport (1982).

Após verificar o perfil real das séries transformadas utilizadas nas simulações,

serão analisados os desempenhos dos métodos de amostragem segundo os dois critérios

de comparação já estabelecidos para as aplicações: convergência e exatidão dos

resultados.

Neste capítulo, foram estabelecidas as classificações desta pesquisa em

categorias quanto aos fins e quanto aos meios empregados para sua execução. Todas as

aplicações a serem realizadas como experimentos também foram apresentadas com

riqueza de detalhes. Simultaneamente, as principais variações, simplificações e

limitações de escopo consideradas durante a realização do estudo também foram

mostradas. Finalmente, foram relacionados e discutidos os critérios para a comparação

dos desempenhos de cada método de amostragem analisado.

6 Normal, lognormal, uniforme e loguniforme.

Page 99: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

84

4 RESULTADO

Neste capítulo, serão vistos os principais resultados obtidos nas simulações,

assim como os comentários sobre o desempenho dos métodos de amostragem em cada

aplicação e em suas respectivas variantes. Serão apresentadas também as formas de

tratamento das informações recebidas diretamente dos modelos simulados, as principais

limitações do método, do hardware e do software empregados na pesquisa.

4.1 Tratamento dos dados

As sub-rotinas desenvolvidas na linguagem de programação residente no

aplicativo utilizado (EXCEL 2000) forneceram os resultados para todas as aplicações

realizadas. Não houve necessidade de tratar os dados de saída das sub-rotinas, pois estas

já foram programadas para realizar todo o processamento das informações recebidas dos

modelos. Os resultados gerados nas planilhas Risk.xls, Samples.xls e

Cholesky.xls foram comparados entre si para cada método de amostragem analisado.

Tabelas e gráficos contendo as informações coletadas nas diversas simulações da

pesquisa foram apresentados a seguir. A tabela com as comparações das sub-rotinas

utilizadas também foi apresentada ao final do capítulo. Tabelas com as comparações dos

principais resultados dos métodos de amostragem em relação ao método de Monte Carlo

clássico foram apresentadas no Apêndice I. Estas tabelas foram construídas pela

combinação de informações contidas nas tabelas do presente capítulo.

As tabelas com os resultados das aplicações foram seguidas de comentários

gerais sobre o desempenho dos estimadores adotados e sobre o desempenho das séries

de amostragem analisadas na pesquisa.

O próximo capítulo consolidará as informações relevantes dos experimentos e

apresentará as conclusões do estudo, de modo a poderem ser empregados nas próximas

Page 100: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

85

pesquisas sobre o tema. O próximo capítulo também sugerirá novos temas de pesquisa

relacionados ao assunto.

4.2 Limitações da pesquisa

Este estudo apresenta algumas limitações relativas à metodologia empregada, ao

hardware e ao software utilizados. Tais limitações foram abordadas a seguir. Quaisquer

outras limitações não apresentadas explicitamente foram, provavelmente, consideradas

dependentes das demais.

4.2.1 Metodologia

A metodologia exploratória apresenta a limitação intrínseca da ausência de

generalidade nos experimentos realizados. Os experimentos são, normalmente, casos

específicos e particulares que despertam o interesse dos pesquisadores. As conclusões

obtidas nestes estudos não podem ser adotadas como teoria geral. Na verdade, são

conclusões diretamente relacionadas ao experimento e só podem ser aplicadas, com

segurança, a ele. Desenvolvimentos teóricos e mais profundos necessitariam de maior

tempo de maturação e fogem ao propósito do presente trabalho.

Outra limitação da metodologia adotada está relacionada à restrição ao número

de categorias de aplicações estudadas. As quatro categorias abordadas na pesquisa não

esgotam o universo de aplicações existentes no Mercado Financeiro ou na Pesquisa

Operacional em Engenharia. Existem outros experimentos que podem ser adaptados ao

propósito acadêmico, como foi o caso destes, e serem testados nos moldes dos exemplos

aqui discutidos, com o propósito de reforçarem as conclusões desta pesquisa.

Pode haver, é claro, dentre as categorias de aplicações analisadas, exceções às

regras e conclusões aqui obtidas. Como a metodologia exploratória procura atribuir

condições de contorno às variáveis de entrada nos modelos com base em observações

do mundo físico ou seguindo, nos casos mais difíceis, a própria intuição e o bom senso,

Page 101: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

86

é possível encontrar situações onde as conclusões não se apliquem ou onde sua adoção

conduza a erros grosseiros e resultados não-verídicos.

O simples fato de não estar desenvolvendo teorias sobre as categorias de

aplicações analisadas, me previne de estabelecer quaisquer generalizações sobre as

conclusões e descobertas desta pesquisa. O artifício acadêmico de permitir flutuações ou

o emprego ilimitado de variáveis aleatórias independentes nos experimentos não garante

a generalização das conclusões ou a replicação dos resultados parciais em tentativas

futuras.

4.2.2 Hardware

Apesar das simulações serem executadas em um equipamento com processador

de 1 GHz e RAM de 512 MB, a arquitetura do processador é limitada frente aos

processadores com tecnologia RISC, encontrados nas estações de trabalho IBM, Sun e

HP, e utilizados nos experimentos de simulação apresentados no segundo capítulo.

As simulações executadas nesta pesquisa consumiram muito tempo de

desenvolvimento e processamento, o que poderia ser reduzido com a utilização de

pacotes específicos de software ou estações de trabalho, redirecionando o tempo para a

avaliação de outras categorias de experimentos.

Entretanto, como o hardware empregado nos experimentos não deve influenciar

o desempenho das séries de amostragem pelos critérios definidos no capítulo anterior, é

esperado que as conclusões sejam idênticas em estações de trabalho ou em PCs. O

emprego de estações de trabalho apenas reduziria o tempo de processamento, pois o

número de experimentos realizados no mesmo intervalo de tempo seria maior.

Page 102: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

87

4.2.3 Software

O aplicativo utilizado nos experimentos, MS EXCEL 2000, apresenta limitações

físicas que precisam ser observadas. Estas limitações estão presentes em todas as

análises conduzidas no tratamento dos dados.

Pelo algoritmo empregado para gerar as seqüências de Quasi-Monte Carlo,

especificamente as séries de Halton e Sobol, só seria possível realizar experimentos com

até 5041 elementos na amostra, considerando o limite físico do aplicativo.

Experimentos que necessitassem de amostras com mais de 5041 elementos não

poderiam ser realizados nesta pesquisa.

Outra limitação estava relacionada ao critério da velocidade de convergência dos

resultados nas aplicações analisadas. Para este critério, foi empregado um estimador

indireto, pois o tempo real para a execução do programa não poderia ser comparado

entre os diferentes métodos de amostragem. Isto acontecia porque, no caso de Monte

Carlo clássico, havia um programa interno no aplicativo que calculava os elementos da

série. Para os demais métodos, a sub-rotina precisava ser implementada utilizando

comandos e funções externas. O aumento no tempo de execução do método de Quasi-

Monte Carlo era muito superior ao tempo utilizado por Monte Carlo tradicional. Assim,

ao utilizar estimadores de tempo real estaríamos comparando situações distintas e não-

equivalentes em termos de programação. Os resultados obtidos das medições em tempo

real não seriam úteis para a pesquisa.

Entretanto, se os algoritmos dos demais métodos de amostragem fossem re-

programados internamente no software, o tempo de execução das aplicações poderia ser

mensurado diretamente. Como alternativa, poderia ser empregado outro software onde

nenhum dos métodos de amostragem tenha sido pré-programado. Neste caso, apesar de

mais trabalhoso, o tempo real de execução poderia ser comparado entre os diferentes

métodos.

Uma outra opção, que foi a escolhida, seria encontrar um estimador que pudesse

representar o tempo de convergência dos resultados. O estimador adotado foi o número

Page 103: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

88

de corridas executadas até que o critério de convergência tenha sido atingido. A

velocidade de convergência seria inversamente proporcional a esse número de corridas.

Os diversos métodos de amostragem poderiam então ser comparados pelo inverso do

número de corridas executadas até a convergência.

O principal motivo da adoção do aplicativo MS EXCEL 2000 foi o interesse de

tornar as sub-rotinas, programas, planilhas, e resultados disponíveis a um maior número

de estudantes e pesquisadores, sem a necessidade de aguardar a aquisição de um pacote

específico de softwares para replicar os experimentos e as descobertas mais relevantes.

As contrapartidas mais significativas pela utilização do aplicativo em questão

foram administrar suas limitações físicas e os tempos de execução dos programas

A maior vantagem foi o alto potencial de penetração dos programas, resultados e

conclusões deste trabalho de pesquisa nos meios acadêmico e científico.

4.3 Resultados das simulações

Os resultados foram estruturados a seguir por categoria7 a que pertencem e,

dento de cada categoria, pelo tipo de análise8 a que o experimento se propõe investigar.

Alguns dos critérios para comparação entre as velocidades de convergência e a

exatidão dos resultados, para os diferentes métodos de amostragem, foram qualitativos,

com base no conceito de vitórias por simulação realizada. Isto é, em um evento de

simulação, o método que apresentar o menor número de corridas que os demais até

atingir o critério especificado, vence os outros em velocidade de convergência

naquele evento. Da mesma forma, o método que apresentar o menor erro relativo ao

valor considerado exato para a simulação vence os demais naquele evento. A

7 Análise de Risco, Avaliação de Portfolio de Ações, Precificação de Opções de Compra e IntegraçãoMúltipla.8 Velocidade de convergência, Exatidão do resultado e Eficiência da correlação forçada.

Page 104: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

89

somatória das vitórias em velocidade de convergência e em exatidão dos resultados

fornece o método que apresentou superioridade em relação aos demais nas aplicações

testadas.

Antes das simulações, os algoritmos dos métodos de amostragem e de outras

sub-rotinas afins precisavam ser implementados no aplicativo utilizado (EXCEL 2000).

A linguagem de programação adotada, conforme já mencionado, foi a do próprio

aplicativo (VBA). As seqüências de Halton e Faure (método de Quasi-Monte Carlo)

necessitavam de rotinas auxiliares para as etapas intermediárias da obtenção de

amostras. Tais etapas consistiam em determinar listas de números primos consecutivos

ou encontrar o menor número primo maior (ou igual) a algum número inteiro fornecido.

O tempo para desenvolver as rotinas de programação não foi precisamente mensurado.

Porém, as rotinas do método de Quasi-Monte Carlo exigiram mais tempo de

implementação que as demais envolvidas no experimento. Uma estimativa do grau

relativo de complexidade entre as rotinas empregadas foi apresentada na tabela 4.4, ao

final do capítulo, e utilizou como indicador de complexidade a extensão dos programas,

em número de linhas.

4.3.1 Análise de risco

As simulações foram realizadas para o caso-base e suas três variantes. Em todos

os casos foram considerados dez tamanhos distintos de amostra. No caso-base, a

dimensão era cinco, enquanto que nos casos variantes a dimensão era, respectivamente,

oito, dezesseis e doze. Os tamanhos de amostra no caso-base variaram de 100 a 1000. O

tempo para simulação das séries de baixa-discrepância com amostras de tamanho 1000

era muito elevado face à informação que agregava. Era mais eficiente trabalhar com

séries menores. Assim, para os demais casos estudados, os tamanhos de amostra

variaram de 50 a 500.

O estimador de saída nos casos desta categoria foi o valor esperado das médias

do valor presente líquido (VPL) do empreendimento em cada corrida. Os valores

definidos como exatos para o estimador nesta categoria, o tamanho da amostra e o

número de corridas de Monte Carlo utilizadas para obter estes valores exatos foram

Page 105: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

90

apresentados na tabela 4.1. O critério de parada nas simulações foi o desvio relativo

entre dois valores consecutivos do estimador de saída. O valor atribuído a este desvio

foi específico para cada caso, pois dependia do valor exato definido para o estimador. A

intenção era encerrar a simulação quando o erro relativo entre duas avaliações

consecutivas do estimador acontecesse a partir da terceira casa decimal, inclusive. Os

percentuais adotados como critérios de parada para os desvios entre dois valores

consecutivos do estimador também foram apresentados na tabela 4.1.

Os quadros contendo os resultados das simulações para os casos desta aplicação

foram apresentados a seguir. Cada quadro de resultados está organizado pelo método de

amostragem (vertical) e pelo tamanho da amostra empregada no experimento

(horizontal). Em cada combinação de método e tamanho de amostra, foram

apresentados dois valores. O valor superior corresponde ao do número de corridas

realizadas até atingir o critério de convergência definido para aquele caso. O valor

inferior corresponde ao valor absoluto do desvio percentual em relação ao valor exato

adotado, logo após a interrupção da simulação.

No Apêndice I, foram apresentadas tabelas construídas a partir dos quadros de

resultado apresentados neste capítulo. As tabelas mostram as comparações dos critérios

de desempenho estudados velocidade de convergência e exatidão do resultado para

cada método de amostragem em relação ao método padronizado de Monte Carlo

clássico. As tabelas do Apêndice I apresentam a razão máxima e mínima entre os

valores dos critérios de desempenho para cada método e os correspondentes valores

para Monte Carlo clássico, nas quatro aplicações estudadas. O Apêndice I também

apresenta as tabelas contendo o número de vitórias consolidadas para cada critério e

método de amostragem nas aplicações realizadas.

Os resultados do caso-base com cinco dimensões estão no quadro 4.1 a seguir.

Os resultados do primeiro caso variante, com 8 dimensões, estão no quadro 4.2. Os

resultados do segundo caso variante, com 16 dimensões, e do terceiro caso variante,

com 12 dimensões, estão mostrados, respectivamente, nos quadros 4.3 e 4.4.

Page 106: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

91

Tabela 4.1 Valores exatos para o VPL, tamanho das amostras, número de corridas e critériode desvio, adotados nos casos da aplicação de Análise de Risco

Caso Valor (KR$) TamanhoAmostras

NúmeroCorridas

Critério deParada

Desvio (%)

Caso-base (D=5) 390,61 2000 5000 0,001

1a. Variante (D=8) 1.595,82 2000 3000 0,0003

2a. Variante (D=16) 3.152,18 5000 1900 0,0001

3a. Variante (D=12) 486,21 2000 3000 0,001

Page 107: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

92

Quadro 4.1 Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato definido para o caso-base (D=5), na aplicação de Análise de Risco

MÉTODO DE AMOSTRAGEM

Halton Sobol Faure Descritiva Hipercubo Aleatória

# corridas 136 147 108 79 176 761

0

0 erro % 7.997% 6.641% 4.864% 0.259% 0.043% 2.525%

# corridas 43 60 52 35 155 1412

0

0 erro % 5.758% 2.426% 15.280% 0.321% 0.322% 0.540%

# corridas 35 40 56 71 56 124

T

A

M

A

N

H

O

3

0

0 erro % 3.080% 2.061% 7.194% 0.241% 0.110% 0.596%

# corridas 84 93 39 64 58 1174

0

0 erro % 2.808% 1.210% 1.116% 0.036% 0.010% 0.297%

# corridas 20 50 103 55 132 1155

0

0 erro % 2.103% 1.618% 1.651% 0.015% 0.041% 0.603%

# corridas 23 83 92 69 68 72

D

A 6

0

0 erro % 1.699% 1.485% 0.750% 0.028% 0.275% 0.900%

# corridas 82 49 34 65 63 717

0

0 erro % 1.171% 1.029% 0.968% 0.005% 0.110% 0.263%

# corridas 21 73 59 41 63 478

0

0 erro % 1.636% 0.968% 3.383% 0.421% 0.375% 0.409%

# corridas 33 35 27 58 20 639

0

0 erro % 1.646% 0.849% 2.032% 0.281% 0.484% 0.465%

# corridas 52 26 53 20 31 167

A

M

O

S

T

R

A

1

0

0

0erro % 1.101% 0.646% 2.786% 0.362% 0.416% 0.963%

OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #

corridas ou erro % para um determinado tamanho de amostra.

Page 108: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

93

Quadro 4.2 Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato definido para o caso variante 1 (D=8), na aplicação de Análise de Risco

MÉTODO DE AMOSTRAGEM

Halton Sobol Faure Descritiva Hipercubo Aleatória

# corridas 22 137 11 65 9 1765

0 erro % 4.802% 4.228% 5.114% 0.061% 0.142% 0.357%

# corridas 53 97 32 46 78 3131

0

0 erro % 2.623% 2.154% 1.712% 0.160% 0.029% 0.150%

# corridas 81 69 83 70 54 355

T

A

M

A

N

H

O

1

5

0 erro % 1.541% 1.238% 1.216% 0.124% 0.026% 0.224%

# corridas 40 37 63 78 78 1072

0

0 erro % 1.470% 0.661% 4.385% 0.036% 0.081% 0.019%

# corridas 96 57 32 63 18 2042

5

0 erro % 0.853% 0.573% 0.580% 0.087% 0.117% 0.344%

# corridas 58 53 89 36 37 198

D

A 3

0

0 erro % 0.851% 0.629% 2.148% 0.008% 0.120% 0.152%

# corridas 47 95 42 83 67 703

5

0 erro % 0.595% 0.508% 0.905% 0.086% 0.083% 0.089%

# corridas 52 15 59 67 89 744

0

0 erro % 1.148% 0.451% 0.347% 0.081% 0.071% 0.470%

# corridas 83 104 96 62 68 1814

5

0 erro % 0.905% 0.588% 1.449% 0.131% 0.109% 0.309%

# corridas 28 51 19 42 78 208

A

M

O

S

T

R

A

5

0

0 erro % 0.862% 0.542% 0.570% 0.038% 0.005% 0.150%

OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #

corridas ou erro % para um determinado tamanho de amostra.

Page 109: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

94

Quadro 4.3 Número de corridas e valor absoluto do desvio percentual relativo ao valor exatodefinido para o caso variante 2 (D=16), na aplicação de Análise de Risco

MÉTODO DE AMOSTRAGEM

Halton Sobol Faure Descritiva Hipercubo Aleatória

# corridas 128 52 126 63 133 8725

0 erro % 7.538% 3.569% 4.386% 0.114% 0.002% 0.112%

# corridas 72 158 177 79 179 2531

0

0 erro % 4.747% 1.840% 1.443% 0.062% 0.024% 0.263%

# corridas 64 180 123 54 95 337

T

A

M

A

N

H

O

1

5

0 erro % 2.897% 1.097% 0.987% 0.171% 0.082% 0.373%

# corridas 60 132 63 65 106 3492

0

0 erro % 2.623% 0.655% 3.769% 0.043% 0.060% 0.016%

# corridas 165 77 33 52 119 2752

5

0 erro % 1.927% 0.572% 0.573% 0.036% 0.031% 0.126%

# corridas 137 89 23 9 20 320

D

A 3

0

0 erro % 1.463% 0.557% 1.836% 0.018% 0.066% 0.016%

# corridas 52 17 70 53 129 1443

5

0 erro % 1.247% 0.483% 0.679% 0.041% 0.002% 0.025%

# corridas 54 23 47 43 19 2614

0

0 erro % 1.471% 0.284% 0.334% 0.055% 0.032% 0.043%

# corridas 52 14 109 57 9 1584

5

0 erro % 1.381% 0.363% 1.281% 0.065% 0.106% 0.095%

# corridas 71 76 17 66 70 200

A

M

O

S

T

R

A

5

0

0 erro % 1.287% 0.397% 0.512% 0.008% 0.007% 0.039%

OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #

corridas ou erro % para um determinado tamanho de amostra.

Page 110: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

95

Quadro 4.4 Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato definido para o caso variante 3 (D=12), na aplicação de Análise de Risco

MÉTODO DE AMOSTRAGEM

Halton Sobol Faure Descritiva Hipercubo Aleatória

# corridas 84 155 254 89 90 2375

0 erro % 15.483% 18.333% 27.171% 1.078% 0.459% 0.898%

# corridas 122 114 73 144 50 3481

0

0 erro % 5.307% 8.821% 6.318% 0.502% 0.378% 0.893%

# corridas 66 95 36 86 191 151

T

A

M

A

N

H

O

1

5

0 erro % 6.961% 5.931% 5.482% 0.211% 0.341% 0.803%

# corridas 198 3 115 72 31 1212

0

0 erro % 3.490% 4.154% 22.232% 0.187% 1.484% 1.049%

# corridas 53 12 47 55 70 1312

5

0 erro % 1.617% 1.727% 2.789% 0.397% 0.255% 0.352%

# corridas 23 35 15 11 85 84

D

A 3

0

0 erro % 2.046% 2.516% 10.883% 1.342% 0.133% 0.045%

# corridas 33 73 101 38 21 2333

5

0 erro % 1.344% 2.808% 3.854% 0.092% 0.976% 1.242%

# corridas 45 35 51 83 80 1134

0

0 erro % 1.600% 2.322% 2.314% 0.004% 0.123% 0.314%

# corridas 45 12 36 114 94 1984

5

0 erro % 1.621% 2.585% 7.479% 0.065% 0.368% 0.304%

# corridas 92 42 85 41 144 78

A

M

O

S

T

R

A

5

0

0 erro % 1.691% 2.060% 3.121% 0.293% 0.245% 0.086%

OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #

corridas ou erro % para um determinado tamanho de amostra.

Page 111: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

96

4.3.1.1 Velocidade de convergência

Em relação à velocidade de convergência, os métodos de Quasi-Monte Carlo, da

amostragem Descritiva e do Hipercubo Latino obtiveram, aproximadamente, igual

número de vitórias. Houve apenas uma ocasião em que o método tradicional de Monte

Carlo superou os demais, apresentando o menor número de corridas realizadas até a

convergência. Tendo em vista a aleatoriedade dos experimentos, o fato de ocorrerem

vitórias isoladas da amostragem aleatória simples já era esperado. O gráfico 4.1 a seguir

apresenta os percentuais de vitórias no critério de velocidade de convergência para os

casos e métodos de amostragem analisados.

Pelo fato de apresentarem igual número de vitórias, os métodos de Quasi-Monte

Carlo, da amostragem Descritiva e do Hipercubo Latino foram considerados

equivalentes quanto à velocidade de convergência nos experimentos de Análise de

Risco para lançamento de um novo produto no mercado.

Gráfico 4.1 Percentual consolidado de vitórias de cada método de amostragem sobre o totalrelativo ao critério de velocidade de convergência, na aplicação de Análise de Risco

4.3.1.2 Exatidão do resultado

Em relação ao critério de exatidão do resultado, mensurado pelo valor absoluto

do desvio percentual relativo ao valor exato definido no início de cada simulação, os

métodos do Hipercubo Latino e da amostragem Descritiva apresentaram clara

0%

5%

10%

15%

20%

Halton Sobol Faure Descritiva Hipercubo Aleatória

Page 112: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

97

superioridade sobre os demais. Dentre ambos, o Hipercubo apresentou número

ligeiramente maior de vitórias que a amostragem Descritiva. Esta pequena diferença do

Hipercubo em relação à amostragem Descritiva pode ser mera casualidade, devido à

aleatoriedade dos experimentos. O gráfico 4.2 apresenta os percentuais consolidados de

vitórias em relação ao critério de exatidão do resultado para os casos e métodos de

amostragem abordados.

Por apresentarem um número expressivo de vitórias no critério de exatidão do

resultado, os métodos do Hipercubo Latino e da amostragem Descritiva foram

considerados equivalentes quanto a este critério nos experimentos de Análise de Risco.

Gráfico 4.2 Percentual consolidado de vitórias de cada método de amostragem sobre o totalrelativo ao critério de exatidão do resultado, na aplicação de Análise de Risco

4.3.2 Avaliação de Portfolio de Ações

Nesta aplicação, em particular, antes de avaliar o desempenho dos métodos de

amostragem quanto à velocidade de convergência e à exatidão do resultado, foram

realizados testes com o algoritmo de transformação de Cholesky e seu respectivo

procedimento de ajuste, que convertem vetores independentes em vetores multi-

correlacionados.

Os testes consistiram em transformar vetores independentes obtidos por

amostragem aleatória simples, amostragem Descritiva, séries de Halton e algumas

combinações destas, em vetores correlacionados para observar a eficiência das

transformações. Os testes foram realizados com vetores de dimensão quatro. Esta

0%

10%

20%

30%

40%

50%

Descritiva Hipercubo Aleatória

Page 113: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

98

simplificação não introduz qualquer tendência no resultado, uma vez que o algoritmo de

Cholesky independe do tipo de distribuição original e da dimensão dos vetores de

entrada.

O objetivo dos testes era conhecer o perfil real dos vetores de entrada nos

experimentos desta aplicação, uma vez que os vetores originais gerados pelos métodos

estudados, com as distribuições conhecidas, seriam transformados antes de serem

empregados nas simulações.

O teste era simples e consistia em comparar os elementos da matriz de

correlação real obtida com os vetores transformados e os elementos da matriz de

correlação desejada para os mesmos vetores. A comparação seria através do valor

absoluto do desvio relativo entre os elementos das matrizes. O maior desvio relativo

dentre todos os obtidos para um determinado método era comparado aos maiores

desvios relativos dos demais métodos.

O resultado dos testes da transformação de Cholesky, com o procedimento de

ajuste explicitado no segundo capítulo, foram satisfatórios. O maior desvio relativo

obtido entre os elementos da matriz de correlação real e os elementos da matriz desejada

foi de 1,596%. Esse desvio foi obtido quando o vetor de entrada original era formado

por amostras aleatórias simples.

Adicionalmente, foi verificado nos testes que a diferença no valor exato definido

para o resultado do caso-base, obtido por Monte Carlo tradicional, antes e após a

aplicação da transformada de Cholesky com ajuste, era significativo. Isto significava

que mesmo para um número elevado de repetições ou tamanhos de amostra a correlação

entre os vetores de entrada era relevante.

Em seguida, foram avaliados os critérios de velocidade de convergência e de

exatidão do resultado para o caso-base e os dois casos variantes desta aplicação. Estes

experimentos foram feitos nos moldes dos realizados na categoria da aplicação anterior.

Os tamanhos de amostra utilizados nos casos desta aplicação variaram de 50 a 500. O

Page 114: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

99

estimador adotado foi a probabilidade do retorno anual da carteira ser superior a 20%. O

valor exato do estimador foi definido através da simulação de Monte Carlo tradicional.

Os valores exatos das probabilidades anuais de retorno superiores a 20% para os casos

analisados nesta aplicação foram mostrados na tabela 4.2 a seguir.

O critério de parada nas simulações foi o desvio relativo entre duas avaliações

consecutivas do estimador. O erro percentual mínimo adotado para interromper a

simulação dependia, contudo, do valor exato definido para cada experimento. Este erro

percentual mínimo foi definido em cada caso de modo a permitir variação no valor do

resultado apenas a partir da terceira casa decimal. Os desvios percentuais empregados

como critérios de parada em cada caso foram mostrados na tabela 4.2.

Os quadros 4.5, 4.6 e 4.7 apresentam os resultados das simulações para o caso-

base (dimensão 4), o primeiro caso variante (dimensão 8) e o segundo caso variante

(dimensão 10), respectivamente.

Tabela 4.2 Valores exatos para a probabilidade, tamanho das amostras, número de corridas ecritério de desvio, adotados na aplicação de Avaliação de Portfolio de Ações

Caso Probab. (%) TamanhoAmostras

NúmeroCorridas

Critério deParada

Desvio (%)

Caso-base (D=4) 75,26 2000 2000 0,006

1a. Variante (D=8) 87,83 2000 1000 0,005

2a. Variante (D=10) 90,46 2000 1000 0,005

Page 115: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

100

Quadro 4.5: Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato para o caso-base (D=4), na aplicação de Avaliação de Portfolio de Ações

MÉTODO DE AMOSTRAGEM

Halton Sobol Faure Descritiva Hipercubo Aleatória

# corridas 28 4 165 106 63 595

0 erro % 4.431% 9.651% 7.815% 1.580% 1.105% 0.753%

# corridas 52 63 26 50 27 561

0

0 erro % 3.058% 2.037% 1.628% 2.493% 0.498% 0.303%

# corridas 39 20 40 2 3 43

T

A

M

A

N

H

O

1

5

0 erro % 0.838% 4.380% 0.638% 8.951% 0.979% 1.555%

# corridas 80 46 39 17 23 522

0

0 erro % 1.978% 1.462% 5.631% 2.268% 0.285% 0.468%

# corridas 2 17 56 43 46 132

5

0 erro % 3.273% 1.053% 0.853% 1.226% 0.315% 1.188%

# corridas 20 18 12 5 27 54

D

A 3

0

0 erro % 2.232% 0.350% 4.742% 3.193% 0.366% 0.749%

# corridas 11 27 7 51 48 243

5

0 erro % 0.574% 1.538% 2.818% 0.048% 0.322% 0.156%

# corridas 14 51 39 8 46 484

0

0 erro % 1.608% 0.923% 0.836% 1.056% 0.625% 0.440%

# corridas 4 31 2 43 12 304

5

0 erro % 0.498% 0.574% 2.160% 0.759% 1.569% 0.261%

# corridas 31 32 16 32 23 22

A

M

O

S

T

R

A

5

0

0 erro % 0.067% 0.915% 1.363% 0.323% 0.754% 0.363%

OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #

corridas ou erro % para um determinado tamanho de amostra.

Page 116: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

101

Quadro 4.6 Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato para o caso variante 1 (D=8), na aplicação de Avaliação de Portfolio de Ações

MÉTODO DE AMOSTRAGEM

Halton Sobol Faure Descritiva Hipercubo Aleatória

# corridas 51 44 42 106 29 455

0 erro % 6.460% 6.587% 8.916% 0.279% 0.114% 0.294%

# corridas 40 49 20 5 16 561

0

0 erro % 3.394% 1.039% 2.141% 2.084% 0.193% 0.071%

# corridas 56 2 17 6 47 28

T

A

M

A

N

H

O

1

5

0 erro % 2.843% 5.879% 0.566% 0.952% 1.341% 1.325%

# corridas 46 48 12 16 2 262

0

0 erro % 1.923% 1.135% 5.547% 0.875% 1.331% 0.946%

# corridas 8 26 31 26 36 422

5

0 erro % 2.540% 1.751% 0.307% 0.665% 0.092% 0.599%

# corridas 61 4 23 2 47 49

D

A 3

0

0 erro % 1.045% 0.946% 1.721% 1.711% 0.986% 0.706%

# corridas 48 31 34 24 2 193

5

0 erro % 1.346% 1.182% 0.573% 1.488% 0.518% 0.552%

# corridas 61 37 43 29 4 384

0

0 erro % 1.132% 1.123% 1.025% 0.134% 0.193% 0.073%

# corridas 16 31 63 60 17 244

5

0 erro % 1.262% 1.137% 1.980% 0.161% 1.250% 0.488%

# corridas 4 54 44 55 83 44

A

M

O

S

T

R

A

5

0

0 erro % 0.718% 0.520% 1.070% 0.279% 0.381% 0.314%

OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #

corridas ou erro % para um determinado tamanho de amostra.

Page 117: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

102

Quadro 4.7 Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato para o caso variante 2 (D=10), na aplicação de Avaliação de Portfolio de Ações

MÉTODO DE AMOSTRAGEM

Halton Sobol Faure Descritiva Hipercubo Aleatória

# corridas 82 3 10 10 62 525

0 erro % 6.947% 3.919% 7.136% 0.503% 0.753% 1.580%

# corridas 52 59 53 36 55 491

0

0 erro % 3.692% 1.721% 2.464% 0.480% 0.804% 0.706%

# corridas 8 34 40 18 34 8

T

A

M

A

N

H

O

1

5

0 erro % 0.971% 2.020% 1.848% 1.790% 1.079% 1.708%

# corridas 9 45 48 32 47 232

0

0 erro % 2.161% 1.744% 3.889% 0.654% 0.385% 0.407%

# corridas 50 63 21 45 29 922

5

0 erro % 1.007% 1.135% 1.029% 0.021% 0.381% 0.055%

# corridas 37 44 54 43 32 51

D

A 3

0

0 erro % 1.150% 1.332% 1.868% 0.045% 0.399% 0.032%

# corridas 27 45 65 33 43 503

5

0 erro % 1.076% 0.608% 1.426% 0.741% 0.327% 0.674%

# corridas 43 36 40 29 15 84

0

0 erro % 0.760% 0.779% 0.292% 0.116% 1.432% 0.844%

# corridas 20 3 3 21 10 144

5

0 erro % 1.535% 0.749% 1.217% 0.199% 0.724% 0.064%

# corridas 34 23 41 34 31 21

A

M

O

S

T

R

A

5

0

0 erro % 0.405% 0.503% 0.401% 0.210% 0.132% 0.303%

OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #

corridas ou erro % para um determinado tamanho de amostra.

Page 118: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

103

4.3.2.1 Eficiência da correlação forçada

Os testes do grau de eficiência da correlação forçada foram realizados com todos

os métodos de amostragem em estudo. Um teste adicional empregando a combinação de

seqüências de Halton e de seqüências aleatórias simples também foi aplicado. Estas

seqüências foram escolhidas para o teste adicional por apresentarem nos testes

individuais os maiores desvios percentuais relativos à matriz de correlação desejada.

Os resultados mostraram que o método de transformação de Cholesky,

acompanhado do procedimento de ajuste, fornece vetores de saída correlacionados

segundo a matriz de correlação estabelecida. Houve pequenos desvios nos termos da

matriz de correlação para algumas das seqüências de entrada testadas.

O maior valor absoluto do desvio percentual relativo aos termos da matriz de

correlação desejada após a transformação de vetores formados por séries de Halton foi

de 0,086%. Para os vetores formados pelas seqüências de Sobol, Faure e amostragem

Descritiva não houve desvio significativo. Com as seqüências do Hipercubo Latino, o

maior valor absoluto do desvio percentual foi de 0,010%. O maior valor absoluto do

desvio percentual relativo aos termos da matriz de correlação desejada foi de 1,596%,

para os vetores originais formados pela amostragem aleatória simples. Para vetores

formados pela combinação das séries de Halton com amostras aleatórias simples, o

maior valor do desvio foi de 1,434%.

Pelo fato dos testes apontarem que o maior desvio relativo entre os elementos da

matriz de correlação real e os da matriz de correlação desejada foi de 1,596% e pela

ordem de grandeza dos valores da matriz referência, as diferenças nos vetores

transformados pelas duas matrizes aconteceriam na terceira casa decimal. Como o

propósito destes testes era conhecer o perfil real dos vetores transformados, e como os

testes mostraram que os resultados das simulações antes e após as transformações eram

diferentes, os erros obtidos com Cholesky foram considerados aceitáveis na pesquisa.

Page 119: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

104

Para testar a necessidade de aplicar a transformação de Cholesky aos vetores

originais quando o número de corridas e o tamanho das amostras fossem elevados, foi

realizado um teste empregando Monte Carlo clássico. Para obter o valor exato para o

caso-base desta aplicação, foram executadas 2000 corridas com amostras de 2000

termos nos vetores de entrada do modelo. O estimador foi o mesmo, isto é, a

probabilidade do retorno anual da carteira superar o valor de 20%. O resultado da

simulação obtido aplicando a transformação de Cholesky com ajuste a cada vetor de

entrada foi 75,26%. O resultado obtido sem aplicar a transformação aos vetores do

modelo foi 39,09%. A grande diferença entre os resultados encontrados sugere que,

mesmo para grandes amostras e várias corridas, os resultados com vetores

independentes podem ser muito diferentes dos resultados com vetores correlacionados.

Como a diferença entre os resultados obtidos antes e após aplicar a

transformação de Cholesky foi expressiva, a alternativa de não aplicar a mesma não foi

considerada nesta aplicação, pois os vetores de entrada são, por hipótese,

correlacionados. Para os casos desta aplicação, portanto, os vetores de entrada no

modelo foram transformados por Cholesky com algoritmo de ajuste após serem gerados

pelos métodos de amostragem e antes de iniciar a simulação.

Assim, concluímos que os vetores de entrada empregados nos diversos casos da

aplicação de Avaliação de Portfolio de Ações possuíam, após a Transformação de

Cholesky com procedimento de ajuste, a matriz de correlação desejada.

4.3.2.2 Velocidade de convergência

De acordo com os dados dos quadros 4.5 a 4.7, o método da amostragem

Descritiva e de Halton apresentaram o maior número de vitórias no critério de

velocidade de convergência. Estes resultados foram ligeiramente superiores ao obtido

com o método de Faure. De maneira geral, todos os métodos de conjuntos

determinísticos ou de conjuntos estratificados, como o Hipercubo, realizaram um

número menor de corridas até a convergência que Monte Carlo tradicional. Tal fato

Page 120: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

105

caracterizou, nesta aplicação, a superioridade dos demais métodos sobre Monte Carlo

clássico quanto à convergência. O gráfico 4.3 apresenta os percentuais consolidados das

vitórias de cada método de amostragem em relação ao total de simulações realizadas,

quanto ao critério de convergência dos resultados.

Pelos resultados obtidos, os métodos da amostragem Descritiva, de Halton e de

Faure foram considerados equivalentes em relação à velocidade de convergência dos

resultados, nos experimentos de Avaliação de Portfolio de Ações.

Gráfico 4.3 Percentual consolidado de vitórias de cada método de amostragem sobre o totalrelativo à velocidade de convergência, na aplicação de Avaliação de Portfolio de Ações

4.3.2.3 Exatidão do resultado

Pelos quadros 4.5 a 4.7, a superioridade do método da amostragem Descritiva,

do Hipercubo Latino e da amostragem Aleatória Simples (Monte Carlo) sobre o método

de Quasi-Monte Carlo, quanto ao critério da exatidão do resultado, foi evidente nos

experimentos realizados. Assim, apesar das séries de Halton apresentarem maior

velocidade de convergência, os desvios obtidos para os resultados do estimador após a

convergência foram maiores que os desvios com os demais métodos. O gráfico 4.4

apresenta os percentuais consolidados de vitórias relativas ao critério de exatidão do

resultado para os métodos de amostragem e as situações analisadas.

0%

5%

10%

15%

20%

25%

Halton Sobol Faure Descritiva Hipercubo Aleatória

Page 121: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

106

Pela superioridade quanto ao número de vitórias no critério de exatidão dos

resultados, os métodos da amostragem Descritiva, do Hipercubo e de Monte Carlo

foram considerados equivalentes na aplicação de Avaliação de Portfolio de Ações.

Gráfico 4.4 Percentual consolidado de vitórias de cada método de amostragem sobre o totalrelativo à exatidão do resultado, na aplicação de Avaliação de Portfolio de Ações

4.3.3 Precificação de Opções

O valor exato do resultado nesta aplicação foi definido pela fórmula fechada de

Black & Scholes (1973). Nesta aplicação, não foram consideradas aplicações variantes

para o caso-base. Deste modo, o valor exato para o preço da opção de compra foi R$

4,76. O desvio percentual relativo a este valor e adotado como critério de parada nas

simulações foi 0,001%.

Para as simulações nesta aplicação foram empregadas amostras de tamanho 50 a

500. O estimador foi o valor esperado da média dos preços da opção obtidos por

simulação. Os resultados das simulações para os métodos de amostragem e os vários

tamanhos de amostra estão no quadro 4.8. Neste quadro foi mostrado o número de

corridas até a convergência e o desvio percentual do resultado relativo ao valor exato. O

critério para interromper as corridas foi o erro percentual do resultado inferior a

0,001%.

0%

5%

10%

15%

20%

25%

30%

Halton Sobol Faure Descritiva Hipercubo Aleatória

Page 122: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

107

Quadro 4.8 Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato para o caso-base, na aplicação de Precificação de Opções

MÉTODO DE AMOSTRAGEM

Halton Sobol Faure Descritiva Hipercubo Aleatória

# corridas 2 2 2 2 40 1725

0 erro % 9.228% 9.228% 18.695% 0.408% 0.214% 1.011%

# corridas 2 2 2 2 78 531

0

0 erro % 5.240% 5.240% 5.784% 0.201% 0.073% 0.365%

# corridas 2 2 2 2 25 105

T

A

M

A

N

H

O

1

5

0 erro % 4.402% 4.402% 4.105% 0.130% 0.043% 0.250%

# corridas 2 2 2 2 17 1102

0

0 erro % 2.853% 2.853% 15.539% 0.096% 0.080% 0.357%

# corridas 2 2 2 2 47 832

5

0 erro % 2.626% 2.626% 2.645% 0.077% 0.023% 0.483%

# corridas 2 2 2 2 13 144

D

A 3

0

0 erro % 2.398% 2.398% 8.155% 0.064% 0.085% 0.263%

# corridas 2 2 2 2 21 513

5

0 erro % 2.347% 2.347% 3.905% 0.054% 0.005% 0.529%

# corridas 2 2 2 2 34 184

0

0 erro % 1.539% 1.539% 1.756% 0.047% 0.033% 0.321%

# corridas 2 2 2 2 10 504

5

0 erro % 1.428% 1.428% 5.859% 0.042% 0.012% 0.735%

# corridas 2 2 2 2 2 133

A

M

O

S

T

R

A

5

0

0 erro % 1.416% 1.416% 2.883% 0.038% 0.112% 0.276%

OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #

corridas ou erro % para um determinado tamanho de amostra.

Page 123: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

108

4.3.3.1 Velocidade de convergência

Pelo quadro 4.8, o critério de parada para os métodos de conjuntos

determinísticos9 foi atingido logo na segunda corrida. O motivo desse resultado já

esperado é que este experimento possui apenas uma variável e os conjuntos de amostras

são determinísticos. Desse modo, as amostras apresentam permutações simples dos

mesmos valores para esta única variável na segunda corrida, levando a resultados

idênticos. A informação relevante nesta categoria de aplicação, portanto, era o

desempenho dos métodos de amostragem quanto ao critério de exatidão do resultado.

4.3.3.2 Exatidão do resultado

Conforme as informações do quadro 4.8, o Hipercubo Latino apresentou os

melhores resultados em relação ao critério de exatidão do resultado, vencendo os

demais métodos em cerca de 80% das simulações. A amostragem Descritiva venceu nas

simulações restantes. Entretanto, é interessante notar que a diferença média entre os

desvios percentuais relativos ao valor exato apresentados pela amostragem Descritiva e

pelo Hipercubo foi de 0,072 ponto percentual. Adicionalmente, em todas as ocasiões

onde o Hipercubo venceu os demais métodos nesta aplicação, a amostragem Descritiva

apresentou o segundo menor valor de erro percentual. O gráfico 4.5 apresenta os

percentuais consolidados das vitórias relativas ao critério de exatidão do resultado para

cada método de amostragem analisado.

A amostragem Descritiva e os métodos de conjuntos determinísticos

apresentaram as maiores velocidades de convergência em todos os casos desta

aplicação. Os resultados apresentados por estes métodos foram muito próximos ao valor

exato obtido por Black & Scholes, com desvios ocorrendo apenas na terceira casa

decimal. O método do Hipercubo Latino apresentou uma média de 29 corridas para

convergência, enquanto a convergência pela amostragem Descritiva aconteceu logo na

segunda corrida, por razões já explicadas. Assim, a amostragem Descritiva foi

9 Métodos de Halton, Sobol, Faure e da amostragem Descritiva.

Page 124: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

109

considerada a mais adequada nos experimentos de avaliação do preço de uma opção de

compra por simulação.

Gráfico 4.5 Percentual consolidado de vitórias para cada método de amostragem sobre o totalrelativo ao critério de exatidão do resultado, na aplicação de Precificação de Opções

4.3.4 Integração múltipla

O estimador considerado nesta aplicação foi o valor da integral múltipla

analisada. O valor exato da integral no caso-base foi fornecido na descrição do

experimento10. Os valores exatos para as variantes 1 e 2 do caso-base foram obtidos na

simulação por Monte Carlo clássico. Estes valores foram apresentados na tabela 4.3,

juntamente com os tamanhos de amostra e o número de corridas de Monte Carlo

utilizadas para os cálculos. O valor do erro percentual relativo ao valor exato e adotado

como critério de convergência em cada caso também foi mostrado na tabela 4.3.

Para estas aplicações foram utilizadas amostras cujos tamanhos variavam de 50

a 500 termos. Os resultados das simulações nesta aplicação foram apresentados nos

quadros seguintes. O quadro 4.9 apresenta os resultados do caso-base, com dimensão 4.

O quadro 4.10 apresenta os resultados do primeiro caso variante, com dimensão 8, e o

quadro 4.11, os resultados do segundo caso variante, com dimensão 10. Assim como

nas aplicações anteriores, estes quadros foram organizados por método de amostragem e

10 Capítulo três desta dissertação.

0%10%20%30%40%50%60%70%80%

Descritiva Hipercubo

Page 125: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

110

tamanho das amostras na simulação. Cada combinação destas duas características,

apresenta dois valores. O valor superior é o número de corridas até a convergência e o

valor inferior é o desvio percentual relativo ao valor exato definido para cada caso nesta

aplicação.

Os comentários e as análises relativas à velocidade de convergência e à exatidão

do resultado foram apresentados logo após os quadros de resultado.

No Apêndice I, foram mostradas as tabelas construídas a partir dos quadros de

resultado onde são feitas comparações dos critérios de desempenho velocidade de

convergência e exatidão do resultado para os métodos estudados. Cada método de

amostragem é comparado ao método padronizado de Monte Carlo clássico. As tabelas

contêm a razão máxima e mínima entre os valores dos critérios de desempenho para

cada método e os valores para Monte Carlo. O Apêndice I também apresenta as tabelas

com o número consolidado de vitórias relativas a cada critério para todos os métodos de

amostragem.

Tabela 4.3 Valores exatos para a integral, tamanho de amostras, número de corridas e critériode desvio, adotados na aplicação de Integração Múltipla

Caso Valor TamanhoAmostras

NúmeroCorridas

Critério deParada

Desvio (%)

Caso-base (D=4) 1,0693976 _ _ 0,0001

1a. Variante (D=8) 1,0039845 5000 2000 0,0001

2a. Variante (D=10) 1,0009863 5000 2000 0,00001

Page 126: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

111

Quadro 4.9 Número de corridas e valor absoluto do desvio percentual do resultado relativo aovalor exato da integral no caso-base (D=4), na aplicação de Integração Múltipla

MÉTODO DE AMOSTRAGEM

Halton Sobol Faure Descritiva Hipercubo Aleatória

# corridas 138 155 179 221 113 1185

0 erro % 1.241% 1.042% 1.893% 0.041% 0.018% 0.134%

# corridas 103 56 162 86 24 2381

0

0 erro % 0.602% 0.574% 0.664% 0.053% 0.098% 0.058%

# corridas 117 199 233 104 188 168

T

A

M

A

N

H

O

1

5

0 erro % 0.575% 0.495% 0.356% 0.046% 0.060% 0.124%

# corridas 27 51 24 52 70 2262

0

0 erro % 0.471% 0.304% 1.530% 0.015% 0.016% 0.066%

# corridas 40 148 109 30 68 2312

5

0 erro % 0.381% 0.312% 0.227% 0.055% 0.073% 0.009%

# corridas 89 36 77 107 49 37

D

A 3

0

0 erro % 0.276% 0.295% 0.723% 0.046% 0.011% 0.065%

# corridas 153 70 81 52 93 713

5

0 erro % 0.204% 0.219% 0.326% 0.073% 0.091% 0.024%

# corridas 92 45 95 144 55 1434

0

0 erro % 0.129% 0.054% 0.202% 0.047% 0.037% 0.026%

# corridas 48 24 74 85 137 1184

5

0 erro % 0.111% 0.127% 0.463% 0.051% 0.000% 0.045%

# corridas 51 65 11 66 75 73

A

M

O

S

T

R

A

5

0

0 erro % 0.122% 0.187% 0.119% 0.032% 0.009% 0.033%

OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #

corridas ou erro % para um determinado tamanho de amostra.

Page 127: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

112

Quadro 4.10 Número de corridas e valor absoluto do desvio percentual do resultado relativoao valor exato da integral no caso variante 1 (D=8), na aplicação de Integração Múltipla

MÉTODO DE AMOSTRAGEM

Halton Sobol Faure Descritiva Hipercubo Aleatória

# corridas 37 41 68 23 50 1205

0 erro % 0.213% 0.154% 0.184% 0.038% 0.021% 0.003%

# corridas 38 35 29 76 49 201

0

0 erro % 0.120% 0.043% 0.050% 0.000% 0.004% 0.008%

# corridas 61 55 25 45 14 59

T

A

M

A

N

H

O

1

5

0 erro % 0.104% 0.075% 0.045% 0.015% 0.027% 0.013%

# corridas 10 31 33 43 29 52

0

0 erro % 0.091% 0.041% 0.138% 0.009% 0.001% 0.016%

# corridas 33 31 11 13 72 452

5

0 erro % 0.043% 0.056% 0.052% 0.034% 0.017% 0.010%

# corridas 51 2 40 46 28 33

D

A 3

0

0 erro % 0.050% 0.019% 0.082% 0.009% 0.001% 0.007%

# corridas 51 17 20 27 68 253

5

0 erro % 0.048% 0.050% 0.055% 0.000% 0.000% 0.009%

# corridas 7 16 13 3 28 164

0

0 erro % 0.058% 0.013% 0.039% 0.023% 0.000% 0.017%

# corridas 14 24 29 43 49 654

5

0 erro % 0.028% 0.014% 0.066% 0.001% 0.003% 0.001%

# corridas 26 49 25 26 44 13

A

M

O

S

T

R

A

5

0

0 erro % 0.038% 0.027% 0.025% 0.002% 0.004% 0.010%

OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #

corridas ou erro % para um determinado tamanho de amostra.

Page 128: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

113

Quadro 4.11 Número de corridas e valor absoluto do desvio percentual do resultado relativoao valor exato da integral no caso variante 2 (D=10), na aplicação de Integração Múltipla

MÉTODO DE AMOSTRAGEM

Halton Sobol Faure Descritiva Hipercubo Aleatória

# corridas 120 100 63 144 76 585

0 erro % 0.062% 0.033% 0.053% 0.008% 0.000% 0.011%

# corridas 31 93 54 42 87 991

0

0 erro % 0.042% 0.016% 0.014% 0.003% 0.003% 0.005%

# corridas 30 74 55 72 44 125

T

A

M

A

N

H

O

1

5

0 erro % 0.040% 0.017% 0.017% 0.001% 0.001% 0.004%

# corridas 60 135 57 129 39 322

0

0 erro % 0.028% 0.013% 0.045% 0.001% 0.000% 0.000%

# corridas 48 65 18 77 78 712

5

0 erro % 0.015% 0.010% 0.003% 0.001% 0.001% 0.001%

# corridas 19 87 40 78 15 30

D

A 3

0

0 erro % 0.014% 0.006% 0.025% 0.001% 0.008% 0.002%

# corridas 86 77 16 138 56 1213

5

0 erro % 0.015% 0.010% 0.008% 0.003% 0.000% 0.002%

# corridas 51 122 30 51 93 424

0

0 erro % 0.014% 0.005% 0.006% 0.001% 0.002% 0.005%

# corridas 26 11 46 57 62 634

5

0 erro % 0.015% 0.001% 0.017% 0.003% 0.006% 0.001%

# corridas 63 49 66 52 49 45

A

M

O

S

T

R

A

5

0

0 erro % 0.012% 0.007% 0.011% 0.002% 0.006% 0.002%

OBS.: Os campos escurecidos indicam o valor vencedor nos critérios de #

corridas ou erro % para um determinado tamanho de amostra.

Page 129: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

114

4.3.4.1 Velocidade de convergência

Os quadros 4.9 a 4.11 indicam que os métodos de amostragem de Sobol, Faure e

Monte Carlo tradicional apresentaram números iguais de vitórias para o critério da

velocidade de convergência. Apesar da amostragem Descritiva apresentar número

menor de vitórias, a ordem de grandeza desta diferença sugere que esse fato poderia ser

atribuído ao acaso. O gráfico 4.6 apresenta os percentuais consolidados das vitórias de

cada método de amostragem, quanto ao critério da velocidade de convergência, nos

casos desta aplicação.

Os métodos de amostragem de Sobol, Faure, Monte Carlo e Descritiva podem,

desse modo, ser considerados equivalentes quanto à velocidade de convergência, nos

experimentos de integração múltipla realizados.

Gráfico 4.6 Percentual consolidado das vitórias de cada método de amostragem sobre o totalrelativo ao critério da velocidade de convergência, na aplicação de Integração Múltipla

4.3.4.2 Exatidão do resultado

Em relação à exatidão do resultado da simulação, o método da amostragem

Descritiva apresentou número de vitórias muito maior que o número de vitórias

apresentadas por Quasi-Monte Carlo e ligeiramente superior ao número de vitórias

0%

5%

10%

15%

20%

Halton Sobol Faure Descritiva Hipercubo Aleatória

Page 130: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

115

apresentadas pelo Hipercubo e por Monte Carlo clássico. O gráfico 4.7 mostra os

percentuais consolidados das vitórias dos métodos de amostragem em relação ao critério

de exatidão do resultado. A superioridade da amostragem Descritiva sobre os demais

métodos no critério de exatidão do resultado foi evidente nos experimentos de

integração múltipla realizados.

Gráfico 4.7 Percentual consolidado das vitórias de cada método de amostragem sobre o totalrelativo ao critério de exatidão do resultado, na aplicação de Integração Múltipla

4.3.5 Complexidade do código de programação

Além das informações sobre a velocidade de convergência e a exatidão do

resultado obtido na simulação, outras considerações importantes devem ser feitas em

relação ao custo-benefício da implementação e da execução das sub-rotinas nos

experimentos. A crescente complexidade dos problemas práticos e a elevação da

capacidade dos aplicativos podem exigir dos programadores maior atenção na

implementação dos algoritmos correspondentes aos métodos de amostragem.

De acordo com o grau de complexidade do método de amostragem, seus

benefícios podem não compensar o tempo de implementação, teste e execução dos

programas. A tabela 4.4 apresenta o número de linhas de código das macros elaboradas

0%

10%

20%

30%

40%

50%

Descritiva Hipercubo Aleatória

Page 131: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

116

em VBA11 para fornecer amostras segundo os métodos analisados nesta pesquisa.

Alguns dos métodos necessitavam de rotinas auxiliares para adaptar as planilhas, antes

da execução do programa principal. O número de linhas de código foi adotado como

primeira aproximação do grau de complexidade das macros e, conseqüentemente, dos

algoritmos referentes aos métodos de amostragem. A complexidade aumentaria a

medida que novas rotinas precisassem ser elaboradas para complementar as tarefas do

programa principal.

Tabela 4.4 Número de linhas de código das macros elaboradas em VBA para fornecer asamostras de acordo com os algoritmos dos métodos de amostragem analisados na pesquisa

Descrição da sub-rotina Seqüências que a utilizam Número de linhas

Gerar seqüência de QMC12 Halton, Sobol e Faure 42

Gerar seqüência Descritiva Amostragem Descritiva 17

Gerar seqüência Hipercubo Hipercubo Latino 18

Gerar seqüência AAS13 Monte Carlo clássico 14

Gerar lista de números primos Halton, Faure 33

Fornecer número primo ≥ N Faure 50

A partir da tabela 4.4, notamos que o método de Monte Carlo clássico,

considerado o mais simples de ser programado, apresentou o menor número de linhas de

código em sua macro. Em seguida, na escala simplificada de complexidade, estava o

método da amostragem Descritiva. O método de amostragem mais complexo, que

exigiu portanto o maior número de sub-rotinas e de linhas de código na implementação

foi o de Faure. Outros métodos de amostragem poderiam ser empregados, assim como

novas combinações daqueles apresentados na tabela 4.4, a fim de simplificar os

algoritmos e reduzir os cálculos. Esta pesquisa, contudo, abordou os principais métodos

de amostragem que vinham sendo pesquisados no universo acadêmico nos últimos anos,

principalmente pela equipe da Columbia University, em Nova Iorque, EUA.

11 Visual Basic for Applications, linguagem de programação do MS EXCEL 2000.12 Quasi-Monte Carlo; a saber: seqüências de amostragem de Halton, Sobol ou Faure.13 Amostragem Aleatória Simples; ou método de amostragem de Monte Carlo clássico.

Page 132: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

117

5 CONCLUSÃO

De maneira geral, qualquer um dos três métodos de amostragem de Quasi-Monte

Carlo utilizados nos experimentos Halton, Sobol ou Faure apresentou percentual de

vitórias, em relação ao critério de velocidade de convergência, 300% acima do

percentual apresentado pelo método de Monte Carlo clássico. Existem outras ocasiões,

que podem ser consultadas nos quadros de resultado, onde ao menos uma dentre as três

seqüências de Quasi-Monte Carlo apresenta velocidade de convergência superior à

velocidade do método tradicional de Monte Carlo. O gráfico 5.1 apresenta os

percentuais consolidados das vitórias de cada método de amostragem sobre o total

relativo à velocidade de convergência, em todos os experimentos desta pesquisa.

Gráfico 5.1 Percentual consolidado das vitórias de cada método de amostragem sobre o totalrelativo ao critério da velocidade de convergência, em todos os experimentos da pesquisa

A partir do gráfico 5.1, é possível verificar que os métodos de Quasi-Monte

Carlo apresentaram superioridade quanto à velocidade de convergência sobre o método

do Hipercubo Latino. O método da amostragem Descritiva, por sua vez, foi equivalente,

quanto à convergência, aos métodos de Quasi-Monte Carlo (Faure, Halton e Sobol).

Assim, pela análise do gráfico 5.1, podemos afirmar que existe superioridade em

relação ao critério da velocidade de convergência dos métodos de conjuntos

determinísticos sobre os métodos do Hipercubo e de Monte Carlo clássico.

0%

5%

10%

15%

20%

25%

Halton Sobol Faure Descritiva Hipercubo Aleatória

Page 133: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

118

A principal característica que identifica uma aplicação de simulação como

candidata a empregar os métodos de Quasi-Monte Carlo é a necessidade de uma alta

velocidade de execução sem compromissos rígidos quanto à exatidão do resultado. Caso

seja necessário estabelecer fortes exigências sobre a exatidão do resultado, métodos com

velocidades equivalentes de convergência e melhores desempenhos relativos à exatidão

do resultado, como a amostragem Descritiva, deveriam ser adotados ou, ao menos,

testados.

Em relação à exatidão dos resultados nos experimentos realizados, o método do

Hipercubo Latino e da amostragem Descritiva apresentaram os melhores desempenhos

no panorama consolidado da pesquisa. O gráfico 5.2 apresenta os percentuais

consolidados das vitórias, quanto ao critério de exatidão dos resultados, de cada método

de amostragem empregado nas simulações. Considerando a mesma importância para os

critérios de convergência e exatidão, o método da amostragem Descritiva foi superior

aos demais nas aplicações analisadas, pois apresentou o maior número consolidado de

vitórias obtidas para ambos os critérios de desempenho. O desempenho global dos

métodos de Quasi-Monte Carlo, nas aplicações desta pesquisa, foi inferior ao da

amostragem Descritiva devido ao resultado relativo ao critério de exatidão do resultado.

O número de vitórias obtidas no critério de exatidão, que foi muito menor ao obtido pela

amostragem Descritiva e pelo Hipercubo, afetou o resultado global de Quasi-Monte

Carlo na pesquisa.

Gráfico 5.2 Percentual consolidado das vitórias de cada método de amostragem sobre o totalrelativo ao critério de exatidão do resultado, em todos os experimentos da pesquisa

0%

10%

20%

30%

40%

50%

Halton Sobol Faure Descritiva Hipercubo Aleatória

Page 134: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

119

Em aplicações de Engenharia, como o cálculo de integrais múltiplas por

simulação, os experimentos realizados com integrandos de dimensões 4 a 10 mostraram

que Quasi-Monte Carlo, empregando as séries de Sobol e Faure, foi equivalente à

Monte Carlo quanto à convergência. Para as mesmas aplicações, as séries de Halton

apresentaram velocidade de convergência inferior à apresentada por Monte Carlo

clássico. Em relação à exatidão do resultado, Monte Carlo foi muito superior a Quasi-

Monte Carlo na consolidação dos resultados obtidos para este critério nos experimentos.

Aliada às características de convergência e de exatidão do resultado, a

complexidade dos algoritmos empregados pode inviabilizar a utilização de alguns dos

métodos de amostragem estudados. Nos casos abordados na pesquisa, a complexidade

introduzida nos códigos das macros devido à Quasi-Monte Carlo e o tempo de execução

das simulações de Quasi-Monte Carlo em EXCEL não foram compensados pelos

resultados obtidos.

Para a aplicação de Avaliação de Portfolio de Ações, foram utilizados os

algoritmos de Transformação de Cholesky e seu correspondente ajuste para transformar

vetores independentes em vetores correlacionados segundo uma matriz definida. Testes

foram conduzidos com amostras determinísticas de Quasi-Monte Carlo e com amostras

dos demais métodos empregados, como o Hipercubo Latino, a amostragem Descritiva e

Monte Carlo clássico. Os resultados dos testes foram positivos, apresentando realmente

vetores transformados cujas matrizes de correlação eram muito próximas da matriz

almejada. O maior valor absoluto do erro percentual entre os elementos das matrizes de

correlação transformada e teórica foi 1,596%, quando o vetor transformado era

composto de séries aleatórias simples (Monte Carlo clássico).

Os resultados dos testes com Monte Carlo na aplicação de Avaliação de

Portfolio de Ações empregando vetores independentes e vetores transformados por

Cholesky foram muito diferentes. Esse resultado mostrou que, mesmo com grande

número de corridas e grandes amostras, desconsiderar as relações entre os vetores de

entrada pode gerar resultados incorretos. A magnitude desse erro dependerá da matriz

de correlação entre tais vetores. Uma possível equação matricial que relacione a

Page 135: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

120

discrepância nos resultados antes e após aplicar a Transformação de Cholesky e a matriz

de correlação definida para os vetores não pôde ser identificada nestes testes. Novos

experimentos específicos poderiam ser elaborados para isolar e descobrir a equação de

dependência.

De maneira geral, admitindo a mesma importância para ambos os critérios de

desempenho adotados convergência e exatidão o método da amostragem Descritiva

apresentou os melhores resultados consolidados nas aplicações desta pesquisa. O

gráfico 5.3 apresenta o número consolidado de vitórias para cada método de

amostragem considerando todos os experimentos da pesquisa.

Gráfico 5.3 Percentual consolidado das vitórias de cada método de amostragem sobre o totalrelativo a ambos os critérios de desempenho, em todas as aplicações da pesquisa

5.1 Sugestões para novas pesquisas

Conforme foi sugerido na seção anterior deste capítulo, outras pesquisas

poderiam ser conduzidas a fim de identificar a equação de dependência para a

discrepância entre os resultados, antes e depois de aplicar a Transformação de Cholesky

aos vetores de entrada, e a matriz de correlação atribuída a estes vetores.

É muito interessante continuar este estudo, aplicando os critérios de velocidade

de convergência e exatidão do resultado às simulações com outros instrumentos

0%

5%

10%

15%

20%

25%

30%

Halton Sobol Faure Descritiva Hipercubo Aleatória

Page 136: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

121

derivativos existentes no Mercado Financeiro. Outras pesquisas poderiam avaliar

algumas combinações de carteiras formadas por instrumentos derivativos e verificar a

influência dos fatores macroeconômicos nas simulações em relação a outros os critérios

de desempenho relevantes, diferentes de convergência e exatidão.

Outra linha de pesquisa mais aprofundada seria desenvolver experimentos para

isolar e identificar a dependência dos critérios de velocidade de convergência e exatidão

do resultado com a dimensão do caso ou da aplicação analisada. As futuras pesquisas

poderiam empregar um número de variáveis muito superior ao maior número adotado

neste estudo (D=16) e ampliar as evidências sobre o impacto da dimensão no resultado

da simulação.

Por fim, sugiro novas pesquisas nas áreas de Engenharia de Software e

Matemática para elaborar algoritmos mais eficientes relacionados às séries de Quasi-

Monte Carlo ou novas seqüências que elevem as taxas de convergência ou aumentem a

exatidão dos resultados. Adicionalmente, novos estudos que incorporem os algoritmos

existentes aos pacotes de aplicativos mais comuns poderiam ajudar a difundir as

pesquisas sobre novas aplicações dos métodos de amostragem aqui empregados.

Page 137: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

122

6 REFERÊNCIAS BIBLIOGRÁFICAS

GAURY, E.G.A., KLEIJNEN, J.P.C. Risk analysis of robust system design. In:

Proceedings of the 1998 Winter Simulation Conference, p. 1533-1540.

Tilburg, Netherlands: Center for Economic Research (CentER).

GUTERL, F. Suddenly, number theory makes sense to industry. Business Week,

Science & Technology sector, p. 172-174. Princeton, New Jersey, June 20, 1994.

HULL, J.C. Options, Futures and other derivative securities. New Jersey: Prentice-

Hall, 1993. 492 p.

IMAN, R.L., CONOVER, W.J. A distribution-free approach to inducing rank

correlation among input variables. Communications in Statistics, Vol. 11, No.

3, p. 311-334, 1982.

__________, DAVENPORT, J.M. Rank correlation plots for use with correlated input

variables. Communications in Statistics, Vol. 11, No. 3, p. 335-360, 1982.

JORION, P. Value at Risk: the new benchmark for controlling derivatives risk.

Chicago: Irwin Professional Publishing, 1997. 332 p.

MCKAY, M.D., BECKMAN, R.J., CONOVER, W.J. A comparison of three methods

for selecting values of input variables in the analysis of output from a computer

code. Technometrics, Vol. 21, No. 2, p. 239-245, May 1979.

MOROKOFF, W.J., CAFLISCH, R.E. Quasi-Monte Carlo integration. January 17,

1995, 36p. Los Angeles, California: Air Force Office of Scientific Research.

Page 138: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

123

NIEDERREITER, H. Quasi-Monte Carlo methods for multidimensional numerical

integration, Numerical Integration III, International Series of Numerical

Math. 85. H. Brass and G. Hämmerlin eds. Birkhäuser Verlag, Basel, 1988.

OWEN, A.B., Monte Carlo extension of Quasi-Monte Carlo. In: Proceedings of the

1998 Winter Simulation Conference, p. 571-577. Stanford, California:

Stanford University.

PASKOV, S.H., TRAUB, J.F. Faster valuation of financial derivatives: a promising

alternative to Monte Carlo. The Journal of Portfolio Management, Fall

(1995), p. 113-120. New York, New York.

SALIBY, E. Repensando a simulação: a amostragem descritiva. Rio de Janeiro:

Editora da UFRJ, São Paulo: Editora Atlas S.A., 1989. 182 p.

__________. Descriptive sampling: a better approach to Monte Carlo simulation.

Journal of the Operational Research Society, Vol. 41, No. 12, p. 1133-1142,

1990a.

__________. Understanding the variability of simulation results: an empirical study.

Journal of the Operational Research Society, Vol. 41, No. 4, p. 319-327,

1990b.

__________, PAUL, R.J. Implementing Descriptive sampling in three-phase discrete

event simulation models. Journal of the Operational Research Society, Vol.

44, p. 147-160, 1993.

__________. Descriptive sampling: an improvement over Latin hypercube sampling. In:

Proceedings of the 1997 Winter Simulation Conference, p. 230-233. Atlanta,

Georgia: Renaissance Waverly Hotel.

Page 139: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

124

SCHEUER, E.M., STOLLER, D.S. On the generation of Normal random vectors.

Technometrics, 1962, Vol. 4, No. 2, p. 278-281.

STEIN, M. Large sample properties of simulations using Latin hypercube sampling.

Technometrics, Chicago: American Statistical Association and the American

Society for Quality Control, May 1987, Vol. 29, No. 2, p. 143-151.

TRAUB, J.F., PAPAGEORGIOU, A. New results on deterministic pricing of financial

derivatives. In: Mathematical Problems in Finance, April 15, 1996. Princeton,

New Jersey: Institute for Advanced Study.

VERGARA, S.C. Projetos e relatórios de pesquisa em Administração. São Paulo:

Editora Atlas S.A., 1997, 90 p.

VOSE, D. Quantitative risk analysis: a guide to Monte Carlo simulation modelling.

Chichester, England: John Wiley & Sons Ltd., 1996. 328 p.

ZANGARI, P. Mathematics of structured Monte Carlo. Risk MetricsTM – Technical

Document, 3rd edition, p. 98-106. New York: May 26, 1995.

___________. Routines to simulate correlated Normal random variables. Risk

MetricsTM – Technical Document, 4th edition, p. 253-255. New York: 1996.

Page 140: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

125

7 ANEXO

7.1 Aplicação de Análise de Risco

Tabela 7.1 Velocidade de convergência máxima e mínima e respectivos desvios percentuais,relativos à Monte Carlo, para cada método de amostragem na aplicação de Análise de Risco

Melhor Caso Pior Caso

Método Amostragem # Vars Velocidade Max Erro Velocidade Min Erro

Halton 5.75 3.49 0.56 3.17

Sobol 6.42 0.67 0.52 2.63

Faure 3.15 2.89 0.70 1.93

Descritiva 8.35 0.38 0.96 0.10

Hipercubo 5.39 0.43 0.43 0.02

5

Halton 8.00 13.44 1.42 2.44

Sobol 5.14 5.53 0.74 5.69

Faure 16.00 14.31 1.25 0.74

Descritiva 6.80 1.06 0.84 0.96

Hipercubo 19.56 0.40 0.83 0.15

8

Halton 7.06 1.08 0.61 3.33

Sobol 40.33 3.96 1.53 20.41

Faure 5.60 243.48 0.92 36.29

Descritiva 7.64 30.02 1.36 0.01

Hipercubo 11.10 0.79 0.54 2.85

12

Halton 6.81 67.04 1.67 15.25

Sobol 16.77 31.74 1.60 6.98

Faure 13.91 116.56 1.43 5.48

Descritiva 35.56 1.15 2.72 1.68

Hipercubo 17.56 1.12 1.12 0.08

16

Page 141: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

126

Tabela 7.2 Desvio percentual máximo e mínimo e respectivas velocidades de convergência,relativos à Monte Carlo, para cada método de amostragem na aplicação de Análise de Risco

Melhor Caso Pior Caso

Método Amostragem # Vars Erro Min Velocidade Erro Max Velocidade

Halton 1.14 3.21 10.65 3.28

Sobol 0.67 6.42 4.49 2.35

Faure 0.83 0.78 28.27 2.71

Descritiva 0.02 1.09 1.03 1.15

Hipercubo 0.02 0.43 1.04 3.15

5

Halton 2.44 1.42 76.74 2.68

Sobol 0.96 4.93 34.53 2.89

Faure 0.74 1.25 228.96 1.70

Descritiva 0.05 5.50 1.87 1.37

Hipercubo 0.03 2.67 4.24 1.37

8

Halton 1.08 7.06 45.77 3.65

Sobol 2.26 3.19 56.30 2.40

Faure 3.10 2.31 243.48 5.60

Descritiva 0.01 1.36 30.02 7.64

Hipercubo 0.39 1.41 2.97 0.99

12

Halton 7.76 5.27 161.40 5.82

Sobol 2.94 1.87 40.32 2.64

Faure 2.65 2.74 231.91 5.54

Descritiva 0.20 3.03 2.67 5.37

Hipercubo 0.02 6.56 4.18 16.00

16

Page 142: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

127

Tabela 7.3 Número de “vitórias” para cada método de amostragem estudado quanto aocritério da velocidade de convergência, na aplicação de Análise de Risco

Método de Amostragem

# Vars Halton Sobol Faure Descritiva Hipercubo Aleatória

5 4 2 2 1 1

8 2 3 2 3

12 1 4 1 2 2

16 2 2 2 2 2

Total 7 8 8 8 8 1

Tabela 7.4 Número de “vitórias” para cada método de amostragem estudado quanto ao critério daexatidão do resultado, na aplicação de Análise de Risco

Método de Amostragem

# Vars Halton Sobol Faure Descritiva Hipercubo Aleatória

5 6 4

8 3 6 1

12 5 3 2

16 1 7 2

Total 15 20 5

Page 143: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

128

7.2 Aplicação de Avaliação de Portfolio de Ações

Tabela 7.5 Velocidade de convergência máxima e mínima e respectivos desvios percentuais,relativos à Monte Carlo, para cada método de amostragem na aplicação de Avaliação dePortfolio de Ações

Melhor Caso Pior Caso

Método Amostragem # Vars Velocidade Max Erro Velocidade Min Erro

Halton 7.50 1.90 0.65 4.23

Sobol 14.75 12.81 0.69 2.52

Faure 15.00 8.26 0.23 0.72

Descritiva 21.50 5.76 0.30 1.03

Hipercubo 14.33 0.63 0.28 0.27

4

Halton 11.00 2.28 0.40 2.44

Sobol 14.00 4.44 0.54 1.20

Faure 2.80 29.97 0.38 4.06

Descritiva 24.50 2.42 0.40 0.33

Hipercubo 13.00 1.41 0.53 1.21

8

Halton 2.56 5.31 0.19 0.90

Sobol 17.33 2.48 0.22 0.92

Faure 5.20 4.52 0.20 1.08

Descritiva 5.20 0.32 0.28 0.14

Hipercubo 3.17 6.98 0.24 0.63

10

Page 144: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

129

Tabela 7.6 Desvio percentual máximo e mínimo e respectivas velocidades de convergência,relativos à Monte Carlo, para cada método de amostragem na aplicação de Avaliação dePortfolio de Ações

Melhor Caso Pior Caso

Método Amostragem # Vars Erro Min Velocidade Erro Max Velocidade

Halton 0.19 0.71 10.11 1.08

Sobol 0.47 3.00 12.81 14.75

Faure 0.41 1.08 18.05 3.43

Descritiva 0.31 0.47 8.24 1.12

Hipercubo 0.27 0.28 6.00 2.50

4

Halton 1.48 0.80 47.51 1.40

Sobol 1.20 0.54 22.40 1.02

Faure 0.43 1.65 30.32 1.07

Descritiva 0.33 0.40 29.18 11.20

Hipercubo 0.15 1.17 2.70 3.50

8

Halton 0.57 1.00 36.31 1.38

Sobol 0.90 1.11 42.04 1.16

Faure 0.35 0.20 58.95 0.94

Descritiva 0.14 0.28 3.09 0.67

Hipercubo 0.44 0.68 12.60 1.59

10

Page 145: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

130

Tabela 7.7 Número de “vitórias” para cada método de amostragem estudado quanto aocritério da velocidade de convergência, na aplicação de Avaliação de Portfolio de Ações

Método de Amostragem

# Vars Halton Sobol Faure Descritiva Hipercubo Aleatória

4 1 1 4 4

8 3 1 2 4

10 3 2 2 1 1 3

Total 7 4 6 7 5 3

Tabela 7.8 Número de “vitórias” para cada método de amostragem estudado quanto aocritério da exatidão do resultado, na aplicação de Avaliação de Portfolio de Ações

Método de Amostragem

# Vars Halton Sobol Faure Descritiva Hipercubo Aleatória

4 1 1 1 1 2 4

8 1 3 3 3

10 1 4 3 2

Total 2 1 2 8 8 9

Page 146: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

131

7.3 Aplicação de Precificação de Opções

Tabela 7.9 Velocidade de convergência máxima e mínima e respectivos desvios percentuais,relativos à Monte Carlo, para cada método de amostragem na aplicação de Precificação deOpções

Melhor Caso Pior Caso

Método Amostragem # Vars Velocidade Max Erro Velocidade Min Erro

Halton 86.00 9.13 9.00 4.79

Sobol 86.00 9.13 9.00 4.79

Faure 86.00 18.49 9.00 5.47

Descritiva 86.00 0.40 9.00 0.15

Hipercubo 66.50 0.41 0.53 0.10

1

Tabela 7.10 Desvio percentual máximo e mínimo e respectivas velocidades de convergência,relativos à Monte Carlo, para cada método de amostragem na aplicação de Precificação deOpções

Melhor Caso Pior Caso

Método Amostragem # Vars Erro Min Velocidade Erro Max Velocidade

Halton 1.94 25.00 17.58 52.50

Sobol 1.94 25.00 17.58 52.50

Faure 5.47 9.00 43.56 55.00

Descritiva 0.06 25.00 0.55 26.50

Hipercubo 0.01 2.43 0.41 66.50

1

Tabela 7.11 Número de “vitórias” para cada método de amostragem estudado quanto aos doiscritérios de desempenho, na aplicação de Precificação de Opções

Método de Amostragem

Critério Halton Sobol Faure Descritiva Hipercubo Aleatória

Convergência 10 10 10 10 1

Exatidão 2 8

Total 10 10 10 12 9

Page 147: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

132

7.4 Aplicação de Integração Múltipla

Tabela 7.12 Velocidade de convergência máxima e mínima e respectivos desvios percentuais,relativos à Monte Carlo, para cada método de amostragem na aplicação de Integração Múltipla

Melhor Caso Pior Caso

Método Amostragem # Vars Velocidade Max Erro Velocidade Min Erro

Halton 8.37 7.14 0.42 4.26

Sobol 4.92 2.83 0.76 7.75

Faure 9.42 23.17 0.48 11.15

Descritiva 7.70 5.83 0.35 0.71

Hipercubo 9.92 1.70 0.76 0.18

4

Halton 4.64 30.56 0.49 5.19

Sobol 16.50 2.66 0.16 2.49

Faure 4.09 5.47 0.15 8.42

Descritiva 5.33 1.38 0.12 0.54

Hipercubo 4.21 2.11 0.17 0.06

8

Halton 4.17 10.56 0.48 5.87

Sobol 5.73 2.04 0.24 645.49

Faure 7.56 3.43 0.56 2317.06

Descritiva 2.36 0.58 0.25 62.78

Hipercubo 2.84 0.32 0.45 0.44

10

Page 148: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

133

Tabela 7.13 Desvio percentual máximo e mínimo e respectivas velocidades de convergência,relativos à Monte Carlo, para cada método de amostragem na aplicação de Integração Múltipla

Melhor Caso Pior Caso

Método Amostragem # Vars Erro Min Velocidade Erro Max Velocidade

Halton 2.48 2.46 40.33 5.78

Sobol 2.05 3.18 33.10 1.56

Faure 2.86 0.72 24.06 2.12

Descritiva 0.23 4.35 5.83 7.70

Hipercubo 0.01 0.86 7.73 3.40

4

Halton 3.44 2.29 68.44 3.24

Sobol 0.77 1.00 49.31 2.93

Faure 2.28 1.23 72.07 2.24

Descritiva 0.02 0.93 12.08 5.22

Hipercubo 0.01 0.57 6.73 2.40

8

Halton 2.67 0.82 1408.36 0.53

Sobol 0.94 0.34 645.49 0.24

Faure 1.13 1.40 2317.06 0.56

Descritiva 0.22 1.74 62.78 0.25

Hipercubo 0.00 0.76 20.31 0.82

10

Page 149: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

134

Tabela 7.14 Número de “vitórias” para cada método de amostragem quanto ao critério davelocidade de convergência, na aplicação de Integração Múltipla

Método de Amostragem

# Vars Halton Sobol Faure Descritiva Hipercubo Aleatória

4 3 2 3 2

8 1 2 1 2 1 3

10 2 1 3 1 3

Total 3 6 6 5 4 6

Tabela 7.15 Número de “vitórias” para cada método de amostragem quanto ao critério daexatidão do resultado, na aplicação de Integração Múltipla

Método de Amostragem

# Vars Halton Sobol Faure Descritiva Hipercubo Aleatória

4 3 4 3

8 4 3 3

10 6 2 2

Total 13 9 8

Page 150: Flavio Filgueiras Pacheco Moreira - coppead.ufrj.br · Esta pesquisa comparou os desempenhos, quanto à velocidade de convergŒncia e exatidªo dos resultados, de seis mØtodos de

135

7.5 Consolidação do número de vitórias na pesquisa

Tabela 7.16 Número de “vitórias” consolidadas para cada método de amostragem em relaçãoao critério da velocidade de convergência, para todas as aplicações

Método de Amostragem

Aplicação Halton Sobol Faure Descritiva Hipercubo Aleatória

A-1 7 8 8 8 8 1

A-2 7 4 6 7 5 3

A-3 10 10 10 10 1

A-4 3 6 6 5 4 6

Total 27 28 30 30 18 10

Tabela 7.17 Número de “vitórias” consolidadas para cada método de amostragem em relaçãoao critério da exatidão do resultado, para todas as aplicações

Método de Amostragem

Aplicação Halton Sobol Faure Descritiva Hipercubo Aleatória

A-1 15 20 5

A-2 2 1 2 8 8 9

A-3 2 8

A-4 13 9 8

Total 2 1 2 38 45 22

Tabela 7.18 Total geral do número de “vitórias” para cada método de amostragem em relaçãoa ambos os critérios de desempenho, para todas as aplicações

Método de Amostragem

Aplicação Halton Sobol Faure Descritiva Hipercubo Aleatória

A-1 7 8 8 23 28 6

A-2 9 5 8 15 13 12

A-3 10 10 10 12 9

A-4 3 6 6 18 13 14

Total 29 29 32 68 63 32