faculdade de economia e finanças do...

88
F F A A C C U U L L D D A A D D E E S S I I B B M M E E C C PROGRAMA DE PÓS-GRADUAÇÃO E PESQUISA EM ADMINISTRAÇÃO E ECONOMIA DISSERTAÇÃO DE MESTRADO PROFISSIONALIZANTE EM ADMINISTRAÇÃO Modelo de Simulação para Análise Custo-Volume-Lucro sob condições de Incerteza Anna Elizabeth Tavares de Araújo Freitas Orientador: Prof. Dr. Josir Simeone Gomes Rio de Janeiro, 31 de maio de 2004

Upload: duongnhu

Post on 17-Dec-2018

218 views

Category:

Documents


0 download

TRANSCRIPT

FFAACCUULLDDAADDEESS IIBBMMEECC

PROGRAMA DE PÓS-GRADUAÇÃO E PESQUISA EM

ADMINISTRAÇÃO E ECONOMIA

DISSERTAÇÃO DE MESTRADO PROFISSIONALIZANTE EM

ADMINISTRAÇÃO

Modelo de Simulação para Análise Custo-Volume-Lucro sob condições de

Incerteza

Anna Elizabeth Tavares de Araújo Freitas

Orientador: Prof. Dr. Josir Simeone Gomes

Rio de Janeiro, 31 de maio de 2004

ii

ANNA ELIZABETH TAVARES DE ARAÚJO FREITAS

MODELO DE SIMULAÇÃO PARA ANÁLISE CUSTO-VOLUME-LUCRO SOB

CONDIÇÕES DE INCERTEZA

DISSERTAÇÃO APRESENTADA AO CURSO DE

MESTRADO PROFISSIONALIZANTE EM

ADMINISTRAÇÃO DA FACULDADE DE ECONOMIA E

FINANÇAS IBMEC COMO PARTE DOS REQUISITOS

PARA OBTENÇÃO DO TÍTULO DE MESTRE EM

ADMINISTRAÇÃO

ÁREA DE CONCENTRAÇÃO: FINANÇAS E CONTROLADORIA

ORIENTADOR: PROF. DR. JOSIR SIMEONE GOMES

RIO DE JANEIRO, 31 DE MAIO DE 2004

iii

“Modelo de Simulação para Análise Custo-Volume-Lucro sob condições de Incerteza”

Anna Elizabeth Tavares de Araújo Freitas

Dissertação de mestrado

profissionalizante apresentado ao

Programa de Pós-Graduação e

Pesquisa em Administração e

Economia da Faculdade de

Economia e Finanças do Ibmec,

como requisito parcial para a

obtenção do grau de mestre em

Administração

Aprovada em 31 de março de 2004

Banca Examinadora:

_______________________________________________________

Prof. Dr. Josir Simeone Gomes, Ibmec - orientador

_______________________________________________________

Prof. Dr. Luis Perez Zotes, Ibmec

_______________________________________________________

Prof. Dr. Carlos Alberto Nunes Cosenza, UFRJ

_______________________________________________________

Prof. Dr. Ubiratan Jorge Iorio de Souza, UERJ

iv

v

AGRADECIMENTOS

Ao Prof. ANTONIO DE ARAÚJO FREITAS JÚNIOR, meu querido pai, pelo apoio e

encorajamento constantes.

Ao Prof. Dr. JOSIR SIMEONE GOMES, meu orientador, pelo interesse, apoio e

colaboração na execução desta dissertação.

Aos Professores Dr. UBIRATAN JORGE IORIO DE SOUZA, Dr. CARLOS

ALBERTO NUNES COSENZA e prof. Dr. LUIS PEREZ ZOTES, pelas

contribuições e sugestões recebidas.

A minha mãe e meus irmãos, pelo estímulo durante todo o processo.

A DELFINA SESTELO Y ALONSO pelo apoio recebido.

vi

SUMÁRIO

1. INTRODUÇÃO ......................................................................... 1

2. CONSIDERAÇÕES TEÓRICAS, CONCEITOS E DEFINIÇÕES:

ANÁLISE CUSTO-VOLUME-LUCRO ................................................. 4

2.1. Tipos de Custo ..................................................................... 5

2.2. Determinação do Ponto de Equilíbrio Operacional ..................... 6

2.3. Ponto de Equilíbrio em Unidades Monetárias ............................ 8

2.4. Análise do ponto de Equilíbrio de Caixa ................................. 10

2.5. Deficiências na Análise do Ponto de Equilíbrio ....................... 11

2.6. Considerando a Incerteza nos modelos de CVL ...................... 13

3. CONSIDERAÇÕES TEÓRICAS, CONCEITOS E DEFINIÇÕES:

SIMULAÇÃO .............................................................................. 18

3.1. Modelos de Simulação ......................................................... 20

3.2. Tipos de Modelos ................................................................ 22

3.3. Passos em um estudo de Simulação ..................................... 23

3.4. Vantagens do Método de Monte Carlo ................................... 25

3.5. Softwares .......................................................................... 25

3.6. Variáveis de Entrada ........................................................... 26

3.7. Geração de Números Aleatórios ........................................... 26

3.8. Geração de Observações Aleatórias ...................................... 27

3.9. Análise dos resultados......................................................... 28

3.10 . Importância da Simulação ................................................ 28

vii

4. FORMULAÇÃO E IMPLEMENTAÇÃO DO MODELO DE SIMULAÇÃO

PARA A ANÁLISE CUSTO – VOLUME – LUCRO ............................... 31

4.1 . Construção do Modelo ........................................................ 32

4.2 . Dados de Entrada .............................................................. 34

4.2.1 . Coleta de dados .............................................................. 35

4.2.2 . Identificar a distribuição de probabilidade.......................... 36

4.2.3 . Histogramas ................................................................... 37

4.2.4 . Estimativa de Parâmetros ................................................ 41

4.3 . Verificação e Validação ....................................................... 42

4.4 Testes de Aderência ............................................................. 43

4.5 . Análise de Resultados ........................................................ 61

5. CONCLUSÃO ......................................................................... 68

BIBLIOGRAFIA .......................................................................... 69

ANEXO....................................................................................73

viii

LISTA DE FIGURAS

Figura 2.3 – Distribuição Normal .................................................................. 14

Figura 3.1.- Modelo ........................................................................................... 21

Figura 3.2. – Tipos de Modelos ...................................................................... 22

Figura 3.3. – Classificação dos Modelos Matemáticos ............................. 22

Figura 3.4. - Passos de um estudo de simulação ..................................... 24

Figura 3.5 – Transformação Inversa ............................................................ 27

Figura 3.6 – Processo contínuo e transitório ............................................. 28

Figura 4.1 - Construção , verificação e validação do modelo. .............. 33

Figura 4.2 – Diagrama de Fluxo Lógico ....................................................... 35

Figura 4.3 – Preço unitário de vendas ......................................................... 38

Figura 4.4 – Custo variável unitário ............................................................. 39

Figura 4.5 – Custos totais operacionais fixos ............................................ 40

Figura 4.6 - Seleção da distribuição para o Custo Fixo .......................... 49

Figura 4.7- Testes de Aderência para a Distribuição Uniforme ........... 49

Figura 4.8 - Seleção da distribuição para o Custo Variável Unitário ... 50

Figura 4.9- Testes de Aderência para a Distribuição Triangular ......... 50

Figura 4.10 - Seleção da distribuição para Preço Unitário ..................... 51

Figura 4.11 - Testes de Aderência para a Distribuição Normal ........... 51

Figura 4.12 - Gráfico de Diferença para a Distribuição Uniforme ....... 52

Figura 4.13 - Gráfico de Diferença para a Distribuição Triangular ..... 53

ix

Figura 4.14 – Gráfico de Diferença para a Distribuição Normal ........... 54

Figura 4.15 – Gráfico de Probabilidade para a Distribuição Triangular

........................................................................................................................ 55

Figura 4.16 – Gráfico de Probabilidade para a Distribuição Uniforme 56

Figura 4.17 – Gráfico de Probabilidade para a Distribuição Normal ... 57

Figura 4.18 – Gráfico q-q para a Distribuição Uniforme ......................... 58

Figura 4.19 – Gráfico q-q para a Distribuição Normal ............................ 59

Figura 4.20 – Gráfico q-q para a Distribuição Triangular ....................... 60

Figura 4.22 – Histograma da variável Ponto de Equilíbrio ................... 64

Figura 4.23 – Distribuição de Probabilidade acumulada do Ponto de

Equilíbrio ....................................................................................................... 65

Figura 4.24 – Gráfico Tornado ....................................................................... 66

Figura 4.25 – Regressão e Correlação ......................................................... 67

x

LISTA DE TABELAS

Tabela 4.1 - Recomendação do número de intervalos de classe para

dados contínuos .................................................................. 46 Tabela 4.2 – Parâmetros das

Distribuições......................................................................48

xi

RESUMO

A análise custo-volume-lucro é uma ferramenta muito utilizada por administradores,

contadores, economistas, engenheiros de produção e assemelhados. Porém, o modelo

tradicional pressupõe que os dados de entrada são conhecidos. Esse pressuposto não é

consistente com o mundo real, onde as variáveis são tipicamente estocásticas. A

incerteza pode ser mensurada e incluida no modelo de CVL, permitindo a contrução de

um modelo mais útil e realista. Neste trabalho, os resultados obtidos por Jaedick e

Robichek (1964), Corrar (1993) e Leone (2003) foram extendidos, com a introdução do

conceito de simulação digital e o relaxamento do requerimento de normalidade. Foi

desenvolvido um diagrama de fluxo lógico e um modelo geral de simulação para a

análise custo-volume-lucro. Espera-se que este trabalho seja útil na difusão das técnicas

de simulação, na construção de modelos e na cultura de avaliação de risco.

xii

ABSTRACT

Cost-volume-profit analysis is a very popular tool among managers, accountants,

economists and engineers. The classic model presumes that the input values are

completely known. This assumption does not reflect the real world, where the variables

are stochastic. Uncertainty can be measured and included in the CVP model, allowing

the development of a more realistic and useful model. In this will extend the work of

Jaedick e Robichek (1964), Corrar (1993) e Leone (2003), with the introduction of the

concept of digital simulation and by relaxing the requirement of the variables normality.

A logic flow diagram, and a generalized simulation model for CVP analysis were

developed. This work is expected to be useful in the diffusion of simulation techniques,

in model building and in the risk valuation culture.

1

1. INTRODUÇÃO

A análise custo-volume-lucro (CVL) é um tópico exaustivamente tratado nos textos de

economia, contabilidade, administração, engenharia de produção e assemelhados. Usa-

se a análise CVL para medir o nível de vendas necessário para cobrir os custos

operacionais totais. Pode-se medir o ponto de equilíbrio em unidades físicas ou

unidades monetárias. Seu cálculo pode ser efetuado algebricamente ou determinado

graficamente. Abaixo do ponto de equilíbrio a empresa sofre prejuízo; acima dele o

lucro operacional é positivo. Os pontos de equilíbrio são sucetíveis a mudanças em

custos fixos, preço da venda dos produto e os custos variáveis. À medida que os custo

fixo crescem, o ponto de equilíbrio se eleva e vice versa. À medida que o custo variável

unitário aumenta, o ponto de equilíbrio também se eleva e vice-versa. A análise do

ponto de equilíbrio pode ser feita em base de caixa, deduzindo dos custos fixos

quaisquer despesas que não exigem desembolso, como depreciação, e então determina-

se o ponto de equilíbrio de caixa.

2

A análise de ponto de equilíbrio apresenta inúmeras deficiências , sendo as principais: a

suposição de linearidade, a dificuldade metodológica de classificar certos tipos de

custos, os problemas causados por empresas com produtos múltiplos e sua natureza de

curto prazo.

No ano de 1964 foram publicados dois trabalhos seminais. No primeiro deles, Jaedicke

e Robichek (1964) introduziram o conceito de incerteza na análise custo-volume-lucro.

No segundo Hertz (1964) introduziu no mundo corporativo o método de Monte Carlo,

antes restrito ao campo das ciências físicas, naturais e as engenharias.

Corrar (1990) defendeu sua tese de doutorado na USP, utilizando o método de Monte

Carlo para o cálculo da incerteza na análise custo-volume-lucro. Leone (2003)

apresentou no CLADEA trabalho que apresenta as hipóteses simplificadoras do modelo

de CVL.

Esse trabalho, apoiado nos clássicos, utilizando os conceitos apresentados por Hertz

(1964) e Jaedicke e Robicheck (1964) e as expansões feitas por Corrar (1990) e Leone

(2003) visa desenvolver um modelo de simulação e apresentar um diagrama de fluxo

lógico objetivando o estudo da incerteza na análise Custo-Volume-Lucro.

A diferença entre risco e incerteza, segundo Ross (2002), relaciona-se ao conhecimento

das probabilidades de ocorrerem certos resultados. O risco existe quando o decisor pode

estimar as probabilidades relativas a vários resultados. A incerteza existe quando quem

toma decisões não tem dados históricos e precisa fazer estimativas aceitáveis a fim de

3

formular uma distribuição probabilística subjetiva. No decorrer deste trabalho, como na

literatura corrente, os termos risco e incerteza serão usados alternativamente, em

referência a situações que envolvem decisões com risco.

Os profissionais de contabilidade, economia, administração e assemelhados conhecem e

usam os conceitos clássicos da análise custo-volume-lucro. No entanto, 40 anos depois

de publicados, os conceitos apresentados por Hertz (1964) e Jaedicke e Robicheck

(1964) ainda não chegaram ao dia-a-dia.

O diagrama de fluxo lógico e o modelo a seram desenvolvidos terão dupla importância.

Primeiro, será útil na difusão do método de Monte Carlo e na cultura de avaliação de

risco. Segundo, facilitará o acesso da tecnologia a profissionais não treinados na

construção de modelos e no uso da estatística para compreensão dos problemas

corporativos.

4

2. CONSIDERAÇÕES TEÓRICAS, CONCEITOS E DEFINIÇÕES: ANÁLISE

CUSTO-VOLUME-LUCRO

A análise da relação Custo-Volume-Lucro (Leone 1995) é relevante para a empresa,

pois lhe possibilita determinar o nível de operações que precisa manter para cobrir os

custos operacionais e avaliar a lucratividade associada a vários níveis de vendas. Para

compreender e utilizar a análise custo-volume-lucro é necessario dissecar os custos

operacionais das empresas. Para calcular o seu lucro operacional, deve-se subtrair da

receita de vendas o custo das mercadorias vendidas e as despesas operacionais. O lucro

operacional divide as porções operacional e finanaceira da demonstração de resultado.

5

2.1. Tipos de Custo

O custo das mercadorias vendidas e as despesas operacionais (Gitman, 1984) da

empresa, contêm parcelas de custos operacionais fixos, variáveis e semi-variáveis,

definidos a seguir:

Custo Fixo: Estes custos não variam com o volume das vendas, são em geral

contratuais.

Custos Variáveis: Estes custos variam em proporção direta com o volume de vendas da

empresa

Custos Semivariáveis: Estes custos são parcialmente fixos e variáveis.

Figura 2.1. – Tipos de Custo

Custos

(R$)

Vendas

(Unidades)

Custo Fixo

Custo

Variável

Custo

Semivariável

6

2.2. Determinação do Ponto de Equilíbrio Operacional

O custo das mercadorias vendidas e as despesas operacionais da empresa podem ser

agrupadas em custos fixos e variáveis. Seja,

x: volume de vendas em unidades

p: preço de venda por unidade

F: custo operacional fixo por período

v: custo operacional variável por unidade

sabendo que,

lucro operacional = receita de vendas- custos fixos operacionais-custos variáveis

operacionais (2.1)

e que,

Receita de vendas = xp (2.2)

Custos fixos operacionais = F (2.3)

Custos variáveis operacionais = xv (2.4)

substituindo as igualdades (2.2), (2.3), (2.4) em (2.1), temos:

7

Lucro operacional = xv-F-xp (2.5)

O ponto de equilibrio operacional da empresa é definido como o nível em que o lucro

operacional é nulo; isto é, o nível de vendas onde todos os custos operacionais fixos e

variáveis são cobertos. Logo,

Lucro Operacional = 0xv-F-xp (2.6)

Solucionando a equação (2.6) para o volume de vendas da empresa, x, obtém-se:

v-p

FX (2.7)

A equação (2.7) é usada para determinar o volume de vendas, x, no ponto de equilíbrio.

O ponto de equilíbrio pode ser também calculado com o auxílio de um gráfico. A figura

2.2 apresenta uma análise gráfica genérica do ponto de equilíbrio.

8

Figura 2.2 – Ponto de Equilíbrio

Na figura 2.2, temos a solução gráfica para o ponto de equilíbrio, i.e., o ponto de

equilíbrio da empresa é o ponto onde a receita de vendas e o custo operacional são

iguais. O custo operacional total é definido como a soma de seus custos operacionais

fixos e variáveis. A equação 2.8 define o custo operacional total.

Custo operacional total = xvF (2.8)

2.3. Ponto de Equilíbrio em Unidades Monetárias

Quando uma empresa produz mais de um produto, é útil calcular o ponto de equilíbrio

em termos de unidades monetárias, em vez de unidades físicas. O uso do ponto de

equilíbrio em unidades monetárias é especialmente importante para empresas que

Receita/

Custo

(R$)

Quantidade

(Unidades)

Custo Operacional Fixo

Ponto de Equilíbrio

Operacional

Receita de

Vendas Custo Operacional

Variável

Custo Operacional

Total

9

produzem vários produtos, cada um sendo vendido a um preço diferente. Supondo que o

composto de produto da empresa permaneça relativamente constante , é possível

calcular o ponto de equilíbrio em termos de unidades monetárias, usando-se uma

abordagem de margem de contribuição.

A margem de contribuição é definida como a percentagem de cada unidade monetária

de vendas que fica após cobrir os custos variáveis operacionais. Seja,

R= Receita total de vendas em unidades monetárias

V= Custos totais operacionais variáveis

F= Custos totais operacionais fixos pagos durante o período em que

são atingidos “R” unidades monetárias de vendas.

O custo operacional variável por unidade monetária de vendas pode ser representado

por V/R, de onde chega-se a margem de contribuição, que reflete a contribuição em

unidades monetárias que se destina a cobrir os custos operacionais fixos e o lucro obtido

com cada unidade monetária de vendas. A margem de contribuição na equação (2.9) é

adimensional.

Margem de contribuição = )R

V(1 (2.9)

O nível do lucro operacional a qualquer nível de vendas , Y, pode seer calculado,

multiplicando-se a margem de contribuição por Y, subtraindo-se os custos fixos, F.

10

Lucro Operacional = FR

V-1Y

(2.10)

Logo, para obter o ponto de equilíbrio operacional em unidades monetárias, igualamos o

lucro operacional a zero e solucionamos a equação (2.10) para Y. A expressão

resultante para o ponto de equilíbrio operacional em unidades monetárias é dado pela

equação 2.11.

R

V1

FY (2.11)

2.4. Análise do ponto de Equilíbrio de Caixa

É bastante comum que os custos de uma empresa se originem da aplicação do regime de

competência, não da observação rigorosa do fluxo de caixa, no entanto é útil fazer a

análise do ponto de equilíbrio de caixa, pois o ponto de equilíbrio pode ser menor do

que inicialmente computado. Os itens principais que demandam atenção na análise de

caixa são as despesas que não precisam de desembolso, como depreciação.

Ao preparar uma análise de caixa é preciso ajustar quaisquer encargos dessa natureza e

que fazem parte dos custos fixos da empresa. A presença de tais encargos sem

desembolso como parte dos custos fixos da empresa tende a superestimar o ponto de

equilíbrio da empresa.

11

Supondo que a empresa tenha encargos sem desembolso, SD, incluidos nos seus custos

fixos operacionais, a equação do ponto de equilíbrio operacional de caixa, pode ser

escrita como a equação 2.12

Ponto de equilíbrio operacional de caixa = v-p

SD-F (2.12)

A análise do ponto de equilíbrio de caixa é um mecanismo conveniente para avaliar o

nível de vendas necessário para cobertura dos desembolsos operacionais.

2.5. Deficiências na Análise do Ponto de Equilíbrio

Embora contadores, economistas e administradores façam uso constante do ponto de

equilíbrio, a análise apresenta inúmeras deficiências. As principais criticas a esse tipo de

análise foram sintetizadas por Leone (2003). Para o autor, a simplicidade teórica e a

facilidade de eventuais análises de sensibilidade é uma das vantagens do modelo.

Porém, embora a vantagem da análise CVL seja a sua simplicidade, o conjunto de

hipóteses em que o modelo se baseia pode resultar numa certa perda de realismo.

Portanto, quem utiliza um modelo simplificado como o CVL precisa conhecer e saber

administrar as suas limitações.

Assim como qualquer outro modelo o CVL é uma simplificação da realidade cujo

objetivo é auxiliar a tomada de decisões. O artigo de Leone (2003) procura determinar

quais as hipóteses necessárias para tornar o modelo CVL representativo das relações

entre custos, volume e lucro. Ele identificou sete hipóteses simplificadoras do modelo.

12

A primeira hipótese simplificadora é a de que os custos e as receitas variam de acordo

com um único direcionador. O volume de produção, que é o direcionador de custos mais

utilizado na contabilidade tradicional, é uma forma limitada de explicar o

comportamento dos custos que na verdade é causado, ou direcionado, por muitos fatores

que se inter-relacionam de formas complexas. A segunda hipótese do modelo é que o

direcionador depende de um único produto. A terceira hipótese apresentada é que o

preço de venda unitário, o custo variável unitário e os custos fixos são constantes ao

longo do intervalo de valores para o direcionador.A quarta hipótese é que as unidades

produzidas são iguais as unidades vendidas. A quinta hipótese, é que havendo mais de

um produto, o mix de vendas se mantém constante. A sexta hipótese simplificadora é

que o modelo não considera o valor do dinheiro no tempo. A sétima hipótese

identificada por Leone (2003) é que não há probabilidade (risco) envolvida nas

variáveis do modelo. Porém na prática os custos e receitas não podem ser previstos com

certeza. Como consequência, não podemos considerar que o ponto de equilíbrio será

exatamente igual aquele obtido pela análise CVL.

Entre os fatores de riscos apontados por Leone (2003) estão a entrada de novos

concorrentes que pode afetar o preço de venda. O ganho de escala e eficiência que pode

diminuir os custos variáveis. Por outro lado, a queda de motivação dos empregados,

quebra de maquinário, inadiplência e risco político, podem aumentar esses custos.

O modelo CVL pressupõe várias hipóteses simplificadoras. Porém, construír um

modelo sem essas simplificações poderia ser demorado, custoso e trabalhoso. Leone

13

(2003) questiona se vale a pena consider todos esses fatores, e defende que a obtenção

de dados mais precisos sobre o comportamento de custos e receitas pode trazer

benefícios adicionais muito pequenos para os tomadores de decisão.

2.6. Considerando a Incerteza nos modelos de CVL

O primeiro trabalho que levou em conta o fator incerteza no modelo CVL foi o de

Jaedicke e Robichek (1964). Eles demonstraram que na análise tradicional o modelo

perdia muito de sua relevância pelo fato de desconsiderar o risco e a incerteza. Os

autores sugeriram mudanças para o modelo de CVL, de forma a tornar-lo uma

ferramenta mais útil para a tomada de decisão em condições de incerteza. Embora

alertando que não seja apropriado para todos os casos, eles propuseram que as variáveis

sujeitas a incerteza sejam consideradas como sendo variáveis aleatórias contínuas de

distribuição normal.

A distribuição normal é uma das mais importantes distribuições de probabilidade

conhecidas. Isto se deve não só aos recursos que ela própria oferece, mas o fato de que

muitas outras distribuições de probabilidades convergem para ela. A forma gráfica da

distribuição normal lembra um sino, como na figura 2.13. Ela é conhecida por várias

denominações: curva normal, curva de sino e curva de Gauss. Os primeiros estudos

ligados a distribuição normal foram feitos por De moivre, e cem anos depois por

Laplace, que consolidou as descobertas feitas até então. Embora Gauss tenha nascido 23

anos depois da morte de De Moivre, a distribuição e a curva normal acabaram

recebendo o seu nome.

14

A curva normal é simétrica com relação a perpendicular passando pela origem.A média,

a mediana e a moda são identicas. Os parâmetros de uma distribuição normal são os

indicadores populacionais: média () e variância (2).

Figura 2.3 – Distribuição Normal

Como a distribuição normal é uma distribuição contínua, a variável aleatória pode

assumir quaisquer valores do campo real entre - e +. A curva normal é assintótica

com relação ao eixo hozontal, isto é, suas caudas se aproximam dela, mas não o tocam

jamais.

A vantagem da adoção da distribuição normal é que que sua localização e forma ficam

completamente determinadas pelos respectivos valores das médias e desvio padrão.

Então, conhecendo a média e o desvio padrão da variável, é possível determinar a

probabilidade de se atingir ou ultrapassar qualquer valor da distribuição através de uma

simples consulta à tabela de distribuição normal reduzida. A desvantagem, é que

- +

15

engessa o modelo, pois nem todas as variáveis se comportam como uma distribuição

normal.

Considerando que uma ou mais variáveis do modelo estejam sujeitas a incerteza e sejam

normalmente distribuidas com média e desvio padrão conhecidos, o modelo proposto

por Jaedicke e Robichek (1964) permitirá que obtenhamos uma distribuição normal para

o lucro na qual é possível estimar o risco associado ao ponto de equilibrio. Ou seja, é

possível determinar a probabilidade de não atingir pelo menos o ponto de equilibrio, ou

a probabilidade de ultrapassa-lo. A análise não precisa se limitar aos riscos associados

ao ponto de equilíbrio, quando o lucro é zero. Com o modelo proposto por Jaedicke e

Robichek (1964) podemos estimar a probabilidade de atingir ou ultrapassar qualquer

valor específico de lucro. Sabendo que os decisores possuem diferentes níveis de

tolerância ao risco, a decisão dos administradores será melhorada se tiverem estimativas

aceitáveis dos riscos envolvidos. A utilização apenas da distribuição normal é uma séria

limitação no trabalho de Jaedicke e Robichek.

A hipótese de distribuição normal só é válida em termos muito restritos. De acordo com

Corrar (1993) ela só é justificável quando as variáveis de entrada possuem pequenos

coeficientes de variação conforme o citado teorema de Craig e Aroian, ou quando as

variáveis preço unitário e o custo variável unitário são determinísticas.

Pois, mesmo sabendo que as variáveis de entrada do modelo são normalmente

distribuídas, não se pode inferir que a variável resultante lucro é normalmente

distribuida. A soma de duas variáveis aleatórias independentes e normalmente

16

distribuídas resulta em outra variável aleatória independente e normalmente distribuída.

Porém, o produto de duas variáveis aleatórias independentes e normalmente distribuídas

não resulta, necessariamente, em outra variável aleatória independente e normalmente

distribuída. Ou seja, a expressão (P-V).X pode não apresentar uma distribuição

normal, mesmo que cada uma dessas variáveis seja normal.

Normalmente os decisores consideram que todas as variáveis de entrada do modelo

custo-volume-lucro são conhecidas com certeza. Na realidade, o mais comum, é que

todas as variáveis do modelo tenham um comportamento aleatório.

Jaedicke e Robichek (1964) foram os primeiros a considerar o fator incerteza no modelo

em análise. Partindo da suposição que as variáveis de entrada do modelo se

comportavam como variáveis aleatórias contínuas.

Corrar (1993) aponta que a maior parte das empresas não leva em conta o fator

incerteza no planejamento. No modelo tradicional determinístico não há incerteza

quanto aos valores assumidos pelas variáveis de entrada. Dado um valor para cada uma

das variáveis de entrada, o lucro é determinado de forma inequívoca.

Quando para cada valor das variáveis existe uma distribuição de probabilidades e

consequentemente para os valores das variáveis dependentes, o modelo é denominado

probabilístico ou estocástico. Na realidade todas as variáveis do modelo podem

apresentar comportamento aleatório. Corrar (1993) apresenta como o método de Monte

Carlo pode ser utilizada para considerar o fator incerteza no modelo CVL.

17

O modelo de Monte Carlo é utilizado para simular as distribuições de cada variável e

computar o lucro para cada combinação simulada do preço de venda, custo fixo, custo

variável e volume de venda. A simulação fornecerá uma distribuição de probabilidades

do lucro. Essa distribuição de probabilidades permitirá obter por exemplo, a

probabilidade de se obter prejuízo, a probabilidade do lucro ser maior do que um valor

determinado ou a probabilidade do lucro estar situado entre um intervalo de valores.

Uma vantagem do método é que o lucro não precisa estar normalmente distribuido, não

é necessário conhecer a sua distribuição. Corrar (1993) mostra como a simulação

considera a incerteza das variáveis de entrada, ao invés de um valor pontual, fornece

uma distribuição de probabilidade para a variável dependente. Essa distribuição pode

fornecer informações relevantes para auxiliar o gestor no processo de planejamento e

tomada de decisão.

18

3. CONSIDERAÇÕES TEÓRICAS, CONCEITOS E DEFINIÇÕES:

SIMULAÇÃO

Simulação é uma técnica numérica para realizar experiências em computador, as quais

envolvem certos tipos de modelos lógicos que descrevem o comportamento do sistema,

ou um aspecto parcial dele, usualmente sobre intervalos de tempo. Assim a simulação é

uma técnica de fazer experimentos amostrais no modelo do sistema. Os experimentos

são feitos no modelo, em lugar do sistema real, apenas porque o último seria muito

incoveniente , dispendioso e demorado. Por outro lado, os experimentos simulados

deveriam ser vistos, como em nada diferentes dos experimentos estatísticos comuns, de

forma que eles deveriam estar baseados em sólida teoria estatística. Mesmo que os

experimentos simulados sejam, usualmente, executados num computador, isto apenas

ocorre por causa da vasta quantidade de dados que são gerados e processados, e não por

qualquer outra razão.

A simulação inclui modelos físicos, matemáticos e computacionais. Apesar da

modelagem por simulação anteceder o computador, seu uso tem crescido

consideravelmente em importância, com o advento dos computadores de alta

19

velocidade. A simulação digital tem sido largamente utilizada nas engenharias e

ciências naturais. A simulação se tornou um braço experimental da pesquisa

operacional. Muitos problemas complexos não podem ser resolvidos analiticamente,

sendo a simulação a única abordagem prática para o problema.

O desenvolvimento de um modelo de simulação segue as etapas do método científico ,

sistematizadas e apresentadas por Sir Francis Bacon apresentadas no Novum Organum

(1620), in Law e Kelton (2000), como a seguir:

1. Observação do sistema físico;

2. Formulação de uma hipótese(ou modelo matemático) que tente explicar as

observações do sistema;

3. Predizer o comportamento do sistema baseado nessa hipótese, utilizando

dedução matemática ou lógica, isto é, obtendo soluções para o modelo ou

modelos matemáticos;

4. Execução de experiências para testar a validade da hipótese ou do modelo

matemático.

20

3.1. Modelos de Simulação

O primeiro passo num estudo de simulação é desenvolver um modelo que represente o

sistema a ser investigado. É evidente que isto requer que o pesquisador se torne

inteiramente familiarizado com as realidades operacionais do sistema e com os

objetivos do estudo. Deste modo, o pesquisador poderá tentar reduzir o sistema real a

um diagrama de fluxo lógico. O sistema é, assim, desmembrado num conjunto de

componentes, reunidos por um diagrama de fluxo, onde os próprios componentes

podem ser desmembrados em subcomponentes, e assim por diante.

Finalmente, o sistema é decomposto num conjunto de elementos para os quais podem

ser dadas regras de operação. Estas regras de operação predizem os eventos que serão

gerados pelos elementos correspondentes, talvez em termos de distribuições de

probabilidade.Depois de especificados estes elementos, regras e ligações lógicas, o

modelo deveria ser inteiramente testado. Devemos enfatizar que, como qualquer

modelo, o modelo de simulação não precisa ser uma representação completamente

realística do sistema real.

Simulação é uma ferramenta de previsão e de elaboração de projetos, sendo uma das

técnicas de pesquisa operacional mais utilizadas. O modelo de simulação imita o

comportamento do sistema ao longo do tempo.

De acordo com Law e Kelton (2000) sistema é um grupo de objetos que interagem em

busca de certos objetivos. Os sistemas podem ser discretos ou contínuos. Sistema

21

discreto é aquele cujas variáveis de estado mudam em um conjunto de pontos discreto

no tempo. Sistema contínuo é aquele cujas variáveis de estado mudam continuamente

ao longo do tempo.

A modelagem é um processo interativo, que faz uso da eficiência computacional e da

retro-alimentação, objetivando ajudar o julgamento humano. Os computadores atuam

como anfitriões oferecendo ambiente propício para criação, teste e manipulação de

modelos. O modelo é uma representação simplificada do sistema (processo ou teoria)

visando melhorar nossa compreensão, capacidade de predição e eventualmente controlar

o comportamento do sistema.

Figura 3.1.- Modelo

SISTEMA REAL

SISTEMA REAL ASSUMIDO

MODELO

VALIDAÇÃO

22

3.2. Tipos de Modelos

Os modelos podem ser mentais, físicos ou simbólicos. Conforme indica a figura 3.2

Figura 3.2. – Tipos de Modelos

Modelo matemático: é um sistema de equações obtido da análise e abstração de

situações-problema com a escolha devida das variáveis e suas relações. A figura 3.3

mostra a classificação dos modelos matemáticos.

Figura 3.3. – Classificação dos Modelos Matemáticos

MODELOS

FÍSICOS

CONSTRUÍDO COM

COMPONENTES

TANGÍVEIS

SIMBÓLICOS

RELAÇÕES MATEMÁTICAS OU

LÓGICAS: MAPAS, GRÁFICOS,

PALAVRAS, DESENHOS

MENTAL

EXISTE APENAS NA

MENTE DAS PESSOAS

MODELOS MATEMÁTICOS

DINÂMICO ESTÁTICO

ANALÍTICO NUMÉRICO NUMÉRICO ANALÍTICO

MODELOS SIMULAÇÃO

DETERMINÍSTICO ESTOCÁSTICO

23

3.3. Passos em um estudo de Simulação

A simulação é um processo de construir um modelo matemático, a partir da abstração

de um sistema, e realizar várias experimentações, visando compreender e explicar o seu

comportamento. A partir das entradas das variáveis de decisão ou estratégicas, são

gerados os resultados ou medidas de desempenho, a saída de dados.

O processo de simulação, de uma forma genérica consiste no desenvolvimento do

modelo conceitual do sistema, que consiste em entendê-lo e defini-lo, identificando suas

principais variáveis de entrada e saída e a relação lógica dos dados. Após esse passo,

deve-se partir para a construção do modelo de simulação, através do desenvolvimento

das equações/fórmulas, na coleta dos dados necessários e determinação das

distribuições de probabilidade das variáveis de entrada.

O modelo então deverá ser verificado e validado. Verificação refere-se a assegurar que

o modelo está sem erros lógicos, enquanto validar é assegurar que se trata de uma boa

representação da realidade. Devemos determinar o valor das variáveis controláveis a

serem estudadas. O passo final é a execução da simulação, análise dos resultados e

implementação. Esses passos com base em em Banks et al (2001) são mostrados na

figura 3.4.

24

Figura 3.4. - Passos de um estudo de simulação

FORMULAÇÃO DO PROBLEMA

OBJETIVOS E PLANO DO PROJETO

MODELO

CONCEITUAL

COLETA DE

DADOS

CÓDIGO

VERIFICAÇÃO

NÃO

SIM NÃO

NÃO

VALIDADO

PROJETO EXPERIMENTO

EXECUÇÃO E ANÁLISE

DOCUMENTAÇÃO E

RESULTADOS

MAIS CORRIDAS

IMPLEMENTAÇÃO

SIM

SIM

NÃO

SIM

25

3.4. Vantagens do Método de Monte Carlo

Para o analista, a utilização do método de Monte Carlo apresenta as seguintes

vantagens:

a) A maioria dos sistemas complexos com elementos estocásticos não podem ser

descritos corretamente por modelos determinísticos. Para esta classe de problemas, o

método de Monte Carlo talvez seja a única solução possível;

b) Permite estimar o desempenho do sistema sob diversas condições projetadas; e,

c) Políticas alternativas para um único sistema ou sistemas alternativos podem ser

comparadas via simulação.

3.5. Softwares

Para escrever programas de simulação pode-se utilizar linguagem geral de programação,

como C ou Pascal, ou linguagens orientada para simulação, como GPSS/H.

Atualmente existem diversos softwares, que permitem, mesmo aos que não possuem

conhecimento de programação, a utilização da técnica em ambientes amigáveis.

Existem softwares, como o @Risk e o Crystal Ball, que são compatíveis (Add-ins) com

planilhas populares como Excel e Lotus 1-2-3.

26

3.6. Variáveis de Entrada

A seleção das distribuições de probabilidade das variáveis de entrada é crucial para o

sucesso na utilização de modelos. Podemos seguir dois caminhos:

a) Obter distribuições empíricas com auxílio de especialistas; ou,

b) Coletar séries históricas das variáveis de interesse e aplicar testes de hipóteses para

obter as distribuições das variáveis.

Ambos caminhos são utilizados, dependendo da disponibilidade e qualidade dos dados

existentes.

3.7. Geração de Números Aleatórios

Os números verdadeiramente aleatórios são obtidos na natureza através de meios

mecânicos(dados) ou eletrônicos. Os computadores geram números pseudo-aleatórios

fazendo uso de geradores aritméticos que utilizam um ou mais dos seus predecessores

de acordo com uma formula matemática (algorítmo). Os primeiros geradores de

números pseudo-aleatórios deve-se a Von Neumann e Metropolis (1940/50).

Os números aleatórios formam a espinha dorsal da geração de números pseudo-

aleatórios. Os números gerados devem ser uniformemente distribuidos e independentes,

sendo geralmente representados por números decimais variando de zero a um.

27

Se o objetivo é estudar o sistema em processo contínuo, as condições iniciais de

transição devem ser descartadas. Devido à natureza experimental da simulação,

recomenda-se que o analista calcule para o resultado da simulação a média, o desvio-

padrão e o intervalo de confiança, bem como os testes estatísticos que forem

apropriados.

3.8. Geração de Observações Aleatórias

A geração de observações (i.e., variáveis) aleatórias é possível porque a função de

distribuição acumulada, F(x), é uniformemente distribuída no intervalo (0,1)

independendo da distribuição de x. A idéia é gerar um número aleatório, R, no intervalo

(0,1) e obter a observação aleatória, x, através da transformação inversa.

x = F-1(R) (3.1)

Figura 3.5 – Transformação Inversa

0 X1

R1

F(x)

1

X

28

3.9. Análise dos resultados

Em geral os modelos de simulação têm condições que podem não ser típicas no longo

prazo, como ilustra a figura 3.6. Usualmente o analista coleta dados no processo

contínuo, visando obter a média, o desvio-padrão, o intervalo de confiança, bem

como,outras estatísticas que se fizerem necessárias.

Figura 3.6 – Processo contínuo e transitório

3.10 . Importância da Simulação

Segundo Hertz (1964) o ponto fraco dos modelos determinísticos é que não importa a

precisão matemática dos calculos, se as variáveis de entrada estão sujeitas a incerteza

então a precisão dos resultados é ilusória. Se as variáveis que influem na avaliação de

0

W Transitório Contínuo

Tempo

29

uma determinada decisão estão sujeitas a incerteza, o executivo precisa estimar os

efeitos da incerteza de cada variável relevante no resultado.

Savage (2003) aponta que quando os executivos desejam obter a previsão da demanda

de um produto, lucro esperado ou outros parâmetros incertos eles querem que a tal

previsão seja um número. Ele alerta que sempre que um único número, como por

exemplo a média, é utilizado para representar uma quantidade incerta, ela acaba

distorcendo os resultados.

Suponha que um investidor tem duas opções de investimento, a primeira tem um retorno

de $10.000 multiplicado pelo número que aparece quando um único dado é jogado, e o

segundo investimento tem um retorno de $5.000 multiplicado pelo número de que

aparece quando dois dados são lançados. O investidor que só se importa com a média

ficaria indiferente a esses dois investimentos pois o retorno médio de ambos

investimentos é de $35.000.

Porém a distribuição do retorno é diferente para os dois investimentos. Jogando com

dois dados a chance de obter $ 35.000 é maior. A probabilidade de obter somente

$10.000 é de 1/36 para dois dados e 1/6 para um dado. Em contrapartida a probabilidade

de obter a quantia máxima de $60.000 é de 1/36 para dois dados e 1/6 para um dado.

Portanto investidor conservador, mais avesso a risco iria preferir o investimento com

dois dados. Já o investidor agressivo, iria preferir jogar com apenas um dado. Hertz

(1964) alerta que a média estimada é sempre inferior que estimar a variação possível de

30

uma variável, porque estimando sua distribuição estamos incluindo informação sobre o

que é conhecido e o que não é conhecido.

Segundo Savage (2002) a ferramenta mais simples e popular para simular a incerteza,

substituindo a “fotografia” de baixa resolução que é a média, por um “filme” detalhado

que mostra todo um intervalo de valores possíveis e sua probabilidade de ocorrência, a

distribuição de frequência, é a simulação de Monte Carlo.

31

4. FORMULAÇÃO E IMPLEMENTAÇÃO DO MODELO DE SIMULAÇÃO

PARA A ANÁLISE CUSTO – VOLUME – LUCRO

Os objetivos desse capítulo são: (1) apresentar um diagrama de fluxo lógico; (2)

desenvolver um modelo geral de simulação para análise custo-volume-lucro; e, (3)

executar o modelo de simulação considerando os dados apresentados no anexo, isto é,

500 observações do preço unitário, 500 observações do custo variável unitário e 500

observações do custo fixo operacional. Podemos então, construir os histogramas

correspondentes, estimar os parâmetros e determinar as distribuições adequadas. O

software “BestFit” será utilizado para a construção dos histogramas e testes de

aderência das distribuições, e o “@ Risk” para executar a simulação.

Os dados devem ser obtidos a partir do sistema real. Quando os dados não estão

disponíveis, a opinião de especialistas e o conhecimento do processo, podem ser

utilizados para fazer estimativas.

32

4.1 . Construção do Modelo

O primeiro passo na construção do modelo em questão, consiste na observação do

comportamento das variáveis que compõem as funções de custo e receita. Deve-se

também coletar dados com o comportamento dessas variáveis. É evidente que isto

requer que o analista se torne inteiramente familiarizado com as realidades operacionais

do sistema e com o comportamento das variáveis em estudo. A experiência de pessoas

familiares com o sistema devem ser aproveitadas. O analista provavelmente irá tentar

reduzir o sistema real a um diagrama de fluxo lógico.

A segunda parte na construção de um modelo de acordo com com Banks et al (2001) é a

construção de modelo conceitual , isto é, um conjunto de hipóteses sobre a estrutura do

sistema e das variáveis de entrada no modelo. Validação conceitual é a comparação do

sistema real com o modelo conceitual, segundo o mesmo autor.

O terceiro passo é a contrução do modelo operacional, que é o modelo conceitual em

sua versão computadorizada. A construção de um modelo não é um processo linear, mas

um processo interativo, devendo retornar a cada passo diversas vezes. A figura 4.1 é

uma variação da apresentada por Banks et al (2001), resume o processo de construção

do modelo, onde a necessidade de verificação e validação implica numa comparação

contínua com o sistema real, o modelo conceitual e o modelo operacional, com

modificações continuadas para melhorar o desempenho.

33

O modelo de simulação, desde que validado, não precisa ser uma representação

completamente realística do sistema real.

Figura 4.1 - Construção , verificação e validação do modelo.

Sistema Real

Modelo Conceitual

Modelo Operacional

(computadorizado)

Validado

Verificado

Implementação

não

não

sim

sim

34

A figura 4.2 representa o diagrama de fluxo lógico para a análise custo-volume-lucro

sob condição de incerteza.

Coletar dados

F , p , v

Determinar

Distribuições de

Probabilidade

F , p , v

Gerar números aleatórios

R1 , R2 , R3

Gerar observações aleatórias

F , p , v

Calcular x = F / (p-v)

No de

observações de

x n

Construir histograma de frequência, obter

distribuição de x e calcular média, desvio

padrão, e intervalo de confiança.

sim

35

Figura 4.2 – Diagrama de Fluxo Lógico

4.2 . Dados de Entrada

Uma questão que pode surgir quanto a escolha de distribuições de probabilidades para o

modelo é se devemos usar distribuições de frequência de dados históricos ou se

devemos procurar a distribuição de probabilidade teórica que melhor se ajuste a esses

dados. De uma forma ou de outra , os dados de entrada são a principal força nos

modelos de simulação.

Em aplicações no mundo real, a determinação das variáveis de entrada é um problema

crucial, tanto do ponto de vista do tempo quanto dos recursos demandados. Devemos

considerar os quatro passos seguintes na determinação dos dados de entrada:

i. coleta de dados do sistema em estudo;

ii. identificar a distribuição de probabilidade dos dados de entrada;

iii. escolha de parâmetros que identificam a distribuição;

iv. avaliar a distribuição escolhida e seus parâmetros através de teste de aderência.

Cada um desses passos serão discutidos a seguir.

4.2.1 . Coleta de dados

36

A coleta de dados, quando possível, requer bastante esforço e tempo. Quando os dados

não estão disponíveis, a opinião de especialistas e o conhecimento do processo são

usadas como estimativas.

4.2.2 . Identificar a distribuição de probabilidade

Quando os dados estão disponíveis, este processo tem início com a construção da

distribuição de frequência ou histograma dos dados. Com base na distribuição de

frequência e com o conhecimento da estrutura do processo, uma família de distribuição

é escolhida.

O programa “BestFit”, utilizado neste trabalho, encontra a função estatística com a

melhor aderência aos dados. O programa testa 26 funções diferentes para escolher a

função mais apropriada. O “BestFit” determina os parâmetros para cada distribuição,

fazendo três testes básicos com os dados: Qui-Quadrado, Anderson-Darling e

Kolmogorov-Smirnov. Quando o “Best-Fit” termina sua análise, as distribuições são

listadas em ordem de prioridade de fidelidade. Pelo ranking de cada um dos testes pode-

se escolher a distribuição mais adequada para usarmos na simulação.

37

4.2.3 . Histogramas

Quando as distribuições de frequência têm como principal objetivo condensar grandes

conjuntos de dados em uma forma fácil de assimilar é melhor apresentar essas

distribuições graficamente.

Segundo Bussab et al (2004), para as distribuições de frequência a forma mais comum

de apresentação gráfica é o histograma. Um histograma é constituído, representado-se

as medidas em observação que são agrupadas em uma escala horizontal, e as

frequências de classe em uma escala vertical; constroem-se então retângulos, cujas

bases são iguais aos intervalos de classe e cujas alturas são as frequências de classe

correspondentes.

O programa “BestFit” cria de forma automática histogramas, como podemos ver nas

figuras 4.3, 4.4 e 4.5.

38

A figura 4.3 mostra o histograma de frequência do preço unitário de vendas e a

distribuição triangular que teve melhor aderência, com parâmetros (16,1278; 19,5900;

23,0623). A distribuição triangular é muito útil em ambientes onde haja escassez de

dados. No gráfico, 95% dos pontos estão abaixo de $21,965, 5% dos pontos estão

abaixo de $17,223, a moda é $19,5900, o valor mínimo é $16,1278, e o valor máximo

do preço unitário de vendas é $23,0623.

Triang(16,1278; 19,5900; 23,0623)

X <= 17,223

5,0%

X <= 21,965

95,0%

0

0,05

0,1

0,15

0,2

0,25

0,3

16 17 18 19 20 21 22 23 24

Figura 4.3 – Preço unitário de vendas

39

A figura 4.4 mostra o histograma de frequência do custo variável unitário e a

distribuição normal que teve melhor aderência, com média $9,8933 e desvio-padrão

1,2082. Uma das distribuições mais importantes, por seu uso, é a distribuição normal.

No gráfico, o custo variável unitário esperado é de $9,8933, a probabilidade de se obter

um custo abaixo de $11,881 é de 95% e uma observação abaixo de $7,906 é de 5%.

Normal(9,8933; 1,2082)

X <= 7,906

5,0%

X <= 11,881

95,0%

0

0,05

0,1

0,15

0,2

0,25

0,3

0,35

0,4

6 7 8 9 10 11 12 13 14 15

Figura 4.4 – Custo variável unitário

40

A figura 4.5 mostra o histograma dos custos totais operacionais fixos no período e a

distribuição com melhor aderência aos dados. A distribuição selecionada foi a uniforme

com parâmetros (498,31; 1401,72). No gráfico, a probabilidade de obter um custo fixo

abaixo de $1357 é de 95% e abaixo de $543 é de 5%.

Uniform(498,31; 1401,72)

X <= 543

5,0%

X <= 1357

95,0%

0

0,2

0,4

0,6

0,8

1

1,2

1,4

1,6

0,4 0,5 0,6 0,7 0,8 0,9 1 1,1 1,2 1,3 1,4 1,5

Values in Thousands

Valu

es x

10^-

3

Figura 4.5 – Custos totais operacionais fixos

41

4.2.4 . Estimativa de Parâmetros

O objetivo de preparar um histograma é inferir a função densidade de probabilidade.

Uma família de distribuição é selecionada com base na forma do histograma e no

contexto em estudo.

Depois que uma família de distribuição foi selecionada, o próximo passo é estimar os

parâmetros da distribuição. Muitas vezes a média amostral e a variância amostral são

utilizadas para estimar os parâmetros das distribuições hipotéticas.

Segundo Freund et al. (2000) se as obserações numa amostra tamanho n são

x1,x2,x3,.....,xn, a média amostral ( x ) é definida por:

n

xx

i

n

i 1

(4.1)

e a variância amostral, s2, é definida por:

1

2

1

2

2

n

xnxi

s

n

i (4.2)

42

Se os dados forem discretos e agrupados em uma distribuição de frequência , as

equações (4.1) e (4.2) podem ser modificadas , tornando-se computacionalmente mais

eficientes. A média amostral pode ser calculada por:

n

xf

x

k

i

ii 1

(4.3)

e a variância amostral por:

1

22

2

n

xnxf

s

j

k

ji

j

(4.4)

onde k é o número de valores distintos de x e fj é a frequência observada dos valores xj

de x. O desvio padrão amostral, s, é a raiz quadrada da variância

43

4.3 . Verificação e Validação

O objetivo da verificação do modelo é assegurar que o modelo computadorizado

representa adequadamente o modelo conceitual. Verificação e validação Balci (1994,

1998), apesar de conceitualmente distintos, usualmente são conduzidos em paralelo.

Validação é o processo de comparar o comportamento do modelo com o

comportamento do mundo real.

O modelo de simulação típico consiste de um alto número de elementos , regras e

ligações lógicas. Por isso, mesmo que os componentes individuais tenham sido

cuidadosamente testados, diversas aproximações pequenas ainda podem se acumular em

grandes distorções no resultado do modelo geral. Consequentemente, depois de escrever

e tirar os erros do programa de computador, i.e. verificar, é importante testar a validade

do modelo para predizer, adequadamente, o comportamento agregado do sistema que

esta sendo estudado.

4.4 Testes de Aderência

Os testes de aderência são muito importantes na determinação dos dados de entrada.

Diversos autores, entre eles Law et al (2000), sugerem os testes Qui-Quadrado e

Kolmogorov-Smirnov, sendo o primeiro apropriado para amostras grandes.

Neste trabalho, como exemplo, usaremos o teste Qui-Quadrado. Este teste formaliza a

idéia intuitiva de comparar os dados do histograma de frequência coma a forma da

44

função densidade. Um teste de aderência (ou de ajustamento) serve para ajudar o

pesquisador a decidir se os dados que ele colheu se ajustam adequadamente a função. O

teste é válido para amostras grandes quando as hipóteses são de distribuição discreta ou

contínua, quando os parâmetros são estimados pelo método de máxima verosemelhança.

O procedimento do teste tem início alocando as n observações em um conjunto de k

intervalos de classe em células. A estatística Qui-Quadrado (2

ox ) é dada por:

k

i i

iiox

1

2

2

(4.5)

onde,

Oi : frequência observada no iésimo

intervalo de classe

Ei : frequência esperada no iésimo

intervalo de classe

k : no de intervalos de classe (ou células)

A frequência esperada para cada intervalo de classe pode ser calculada por,

ii pn (4.6)

onde,

pi : probabilidade teórica associada com o iésimo

intervalo de classe.

É possível mostrar que 2

ox segue aproximadamente uma distribuição Qui-Quadrado

com k-v-1 graus de liberdade, onde v representa o número de parâmetros estimados a

partir da amostra considerando a distribuição hipotética. As hipóteses são:

45

H0 : a variável aleatória, x, se comporta de acordo com a distribuição hipotética com os

parâmetros estimados.

H1 : a variável aleatória, x, não se comporta de acordo com a distribuição hipotética.

O valor crítico 2

1, x é tabelado. A hipótese nula, H0, é rejeitada se

2

1,

2

xxo

Apesar de não existir um valor mínimo para Ei, Banks et al. (2001) sugere 5, i.e.,

5 i . Se o valor de i for muito pequeno, ele pode ser combinado com as frequências

combinadas de células adjacentes. Em consequência, os valores correspondentes de i

devem também ser combinados e o valor de k deve ser reduzido de uma unidade para

cada célula combinada.

Se a distribuição que esta sendo testada é discreta , cada valor da variável aleatória deve

ser um intervalo de classe, a menos que, seja necessário combinar intervalos de classe

adjacentes. Para o caso discreto, sem combinar células adjacentes,

iii xxpxpp

caso contrário, ip é determinado através da soma das probabilidades das células

adjacentes.

46

Caso a distribuição testada seja contínua, os intervalos de classe são dados por ii aa ,1 ,

onde 1ia e ia são os pontos extremos do mesmo intervalo de classe . Para o caso

contínuo com a fdp f(x), ip pode ser calculado por:

11

ii

a

ai aFaFxdxfp

i

i

onde,

F(x) : função distribuição acumulada

Para o caso discreto, o número de intervalos de classe é determinado pelo número de

células, após a combinação de células adjacentes (quando houver). Para o caso

contínuo, entretanto, não há regras gerais para seguir. O quadro a seguir, recomendado

por Banks et al.(2001), apresenta o número de interalo de classe para dados contínuos.

Tamanho da Amostra n Número de Intervalos de Classe

20 não use o teste Qui-Quadrado

50 5 a 10

100 10 a 20

>100 n a 5n

Tabela 4.1 - Recomendação do número de intervalos de classe para dados contínuos

A estatística de aderência (Goodness of Fit) mede o desvio da distribuição para os dados

de entrada. Suponha que temos uma distribuição ajustada a um conjunto de n dados

amostrais, e uma correspondante estatística de ajuste . O quanto menor a estatística de

47

ajuste, melhor a aderência. O valor-p, nível de significância do ajuste indica a

probabilidade que uma nova amostra de n dados a partir da distribuição gere uma

estatística de ajuste igual ou maior que . Portanto, quando o valor p fica próximo de

zero, temos pouca confiança que distribuição poderia ter gerado nosso conjunto de

dados.

Quando ela se aproxima de 1, não teremos base para rejeitar a hipótese que a

distribuição ajustada gerou o conjunto de dados. Podemos determinar um nível de

significância α que represente a probabilidade de rejeitar incorretamente a distribuição,

que tenha um valor alto devido a flutuações estatísticas.

Um ponto fraco do Qui-quadrado é que não há regras claras para selecionar o número

de intervalos de classe. Em algumas situações se obtêm conclusões diferentes com os

mesmos dados, dependendo de como se especifica os intervalos.

Parte da arbitrariedade pode ser solucionada se requisitarmos ao “BestFit” o uso de

intervalos equiprovaveis. Desta maneira, o “BestFit” ajusta os intervalos de modo a

fazer com que cada um tenha a mesma probabilidade. O programa permite controle total

em relação ao modo como os intervalos são definidos.

Além do histograma o BestFit seleciona as distribuições e parâmetros para cada uma

das variáveis conforme podemos ver nas figuras 4.2, 4.3, 4.4 e na tabela 4.2

48

Variável Distribuição / Parâmetros

Custo Fixo Uniform(498,31; 1401,72)

Custo Variável Unitário Triang(16,1278; 19,5900; 23,0623)

Preço Unitário Normal(9,8933; 1,2082)

Tabela 4.2 – Parâmetros das Distribuições

O “BestFit” é um programa que encontra a função estatística que melhor se adapta aos

seus dados. Ele testa mais de 26 funções diferentes para verificar qual se enquadra

melhor à seus dados. O “BestFit” determina os melhores parâmetros para cada

distribuição, fazendo três testes básicos com os dados: qui-quadrado, Anderson-Darling

e Kolmogorov-Smirnov. Quando o BestFit termina sua análise, as distribuições são

listadas em ordem de prioridade de fidelidade. Pelo ranqueamento de cada um dos testes

pode-se escolher a distribuição mais adequada para usarmos na simulação.

De acordo com a estatística qui-quadrado, a distribuição que obteve melhor aderência

para o custo fixo foi a distribuição uniforme. As estatísticas de aderência ou Goodness

of Fit (GOF) apontam o valor dos testes de aderência; qui-quadrado, Anderson-Darling

e Kolmogorov-Smirnov, e a posição no ranking associada a distribuição selecionada.

49

Para o custo fixo, a distribuição uniforme foi a que obteve o melhor ajuste de acordo

com o teste qui-quadrado, obtendo um valor de 15,15 para a estatística qui-quadrado, e

um valor-p de 0,815.

Figura 4.6 - Seleção da distribuição para o Custo Fixo

Figura 4.7- Testes de Aderência para a Distribuição Uniforme

50

De acordo com a estatística qui-quadrado, a distribuição que obteve melhor aderência

para o custo unitário foi a distribuição triangular. A distribuição traingular foi a que

obteve o melhor ajuste de acordo com o teste qui-quadrado, obtendo um valor de 12,69

para a estatística qui-quadrado, e um valor-p de 0,9192.

Figura 4.8 - Seleção da distribuição para o Custo Variável Unitário

Figura 4.9- Testes de Aderência para a Distribuição Triangular

51

Para o preço unitário, a distribuição que obteve melhor aderência foi a distribuição

normal. A estatística qui-quadrado foi calculada em 17,09, com valor-p de 0,7058.

Figura 4.10 - Seleção da distribuição para Preço Unitário

Figura 4.11 - Testes de Aderência para a Distribuição Normal

52

O “BestFit” também fornece os gráficos de diferença que indicam o erro absoluto entre

a distribuição e os dados de entrada conforme as figura 4.12, 4,13 e 4.14

Uniform(498,31; 1401,72)

Valu

es x

10^-3

Values in Thousands

-0,4

-0,2

0,0

0,2

0,4

0,6

0,8

1,0

1,2

0,4

0,5

0,6

0,7

0,8

0,9

1,0

1,1

1,2

1,3

1,4

1,5

Figura 4.12 - Gráfico de Diferença para a Distribuição Uniforme

53

Triang(16,1278; 19,5900; 23,0623)V

alu

es x

10^-2

-5

-4

-3

-2

-1

0

1

2

3

416

17

18

19

20

21

22

23

24

Figura 4.13 - Gráfico de Diferença para a Distribuição Triangular

54

Normal(9,8933; 1,2082)

Valu

es x

10^-2

-8

-6

-4

-2

0

2

4

6

8

6 7 8 9

10

11

12

13

14

15

Figura 4.14 – Gráfico de Diferença para a Distribuição Normal

55

O gráfico de probabilidade-probalilidade (P-P) plota a distribuição dos dados de entrada

versus a distribuição dos resultados. O gráfico P-P é utilizado para verificar se um

determinado conjunto de dados segue uma determinada distribuição. Ele deve ser

aproximadamente linear se a distribuição for um bom modelo. Nas figuras 4.15; 4,16; e

4.17 são apresentados os gráficos de probabilidade para as distribuições selecionadas

com melhor aderência aos dados de entrada.

Triang(16,1278; 19,5900; 23,0623)

Fitte

d p

-valu

e

Input p-value

0,0

0,2

0,4

0,6

0,8

1,0

0,0

0,2

0,4

0,6

0,8

1,0

Figura 4.15 – Gráfico de Probabilidade para a Distribuição Triangular

56

Uniform(498,31; 1401,72)F

itte

d p

-valu

e

Input p-value

0,0

0,2

0,4

0,6

0,8

1,0

0,0

0,2

0,4

0,6

0,8

1,0

Figura 4.16 – Gráfico de Probabilidade para a Distribuição Uniforme

57

Normal(9,8933; 1,2082)F

itte

d p

-valu

e

Input p-value

0,0

0,2

0,4

0,6

0,8

1,00,0

0,2

0,4

0,6

0,8

1,0

Figura 4.17 – Gráfico de Probabilidade para a Distribuição Normal

58

O gráfico de probabilidade (q-q) plota a distribuição dos dados em quartis de entrada

versus a distribuição dos resultados em quartis. Ele deve ser aproximadamente linear se

a distribuição tiver uma boa aderência aos dados. Nas figuras 4.18; 4,19; e 4.20 são

apresentados os gráficos de probabilidade q-q para as distribuições selecionadas com

melhor aderência aos dados de entrada.

Uniform(498,31; 1401,72)

Fit

ted q

uanti

leV

alu

es i

n T

housand

s

Input quantileValues in Thousands

0,4

0,5

0,6

0,7

0,8

0,9

1,0

1,1

1,2

1,3

1,4

1,5

0,4

0,5

0,6

0,7

0,8

0,9

1,0

1,1

1,2

1,3

1,4

1,5

Figura 4.18 – Gráfico q-q para a Distribuição Uniforme

59

Normal(9,8933; 1,2082)

Fitte

d q

uantile

Input quantile

6

7

8

9

10

11

12

13

14

15

6 7 8 9

10

11

12

13

14

15

Figura 4.19 – Gráfico q-q para a Distribuição Normal

60

Triang(16,1278; 19,5900; 23,0623)F

itte

d q

uantile

Input quantile

16

17

18

19

20

21

22

23

16

17

18

19

20

21

22

23

Figura 4.20 – Gráfico q-q para a Distribuição Triangular

O @Risk 4.0 é um add-in do Excel. Para rodar a simulação o primeiro passo é definir as

variáveis independentes. As hipóteses sobre as distribuições e seus respectivos

parâmetros são cruciais para o modelo de simulação. A introdução das distribuições nas

variáveis, que são estocásticas, é simples e direta. Basta indicar para a variável desejada

a distribuição com seus respectivos parâmetros.

61

Em seguida determinar a variável de saída, que nesta análise é o ponto de equilíbrio.

Portanto, basta adicionar na célula B22 a formula RiskOutput (). O próximo passo é

realizar a simulação.

A simulação foi calculada através do software @Risk 4.0. Para realizarmos a simulação.

Podemos estabelecer os parâmetros da simulação, tais como: número de interações

(variando entre 100 a 10.000); e tipo de simulação (Latin Hypercube ou Monte Carlo).

Utilizamos o método de Monte Carlo, sendo que foram feitas 10.000 simulações

(interações).

4.5 . Análise de Resultados

Análise de resultados trata do estudo e do exame dos dados gerados pela simulação.

Para o problema estudado, deve-se obter um histograma de frequência para o ponto de

equilíbrio e em seguida calcular uma medida de tendência central, e uma medida de

dispersão, usualmente a média e o desvio-padrão. Esses estimadores são pontuais, isto é,

especificam um único valor para o estimador. Logo, esse procedimento não permite

julgar a possível magnitude do erro que estamos cometendo. Daí, surge a idéia de

construir os intervalos de confiança, que são baseados na distribuição amostral do

estimador pontual.

Como exemplo, o intervalo de confiança para a média, considerando grandes amostras,

isto é, n no mínimo 30, com o desvio padrão previamente calculado segundo Freund et

al (2000), e dado por

62

n

szx

n

szx

22

(4.7)

Podemos então afirmar com 1 100% de confiança que o intervalo de equação

(4.7), dterminado com base em uma grande amostra aleatória, contém os valores médios

que estamos procurando estimar. As extremidades do intervalo de confiança são os

limites de confiança, e 1 100% é chamado grau de confiança.

Foram feitas 10.000 simulações para o valor do ponto de equilíbrio. A tabela 4.21,

apresentas estatísticas referentes a variável ponto de equilíbrio. O valor máximo obtido

nas simulações foi de 396,6864624; o valor mínimo foi de 34,52910614; a média da

variável foi 102,6189402; e o desvio-padrão foi de 37,01023347.

63

Output Statistics

Outputs ponto de equilíbrio:

Simulation 1

Statistics / Cell $C$15

Minimo 34,52910614

Maximo 396,6864624

Media 102,6189402

Desvio Padrão 37,01023347

Variancia 1369,757381

Skewness 0,988052301

Kurtosis 5,128903623

Numero de erros 0

Moda 71,9500351

5,0% 52,74227142

10,0% 58,9749794

15,0% 64,3868103

20,0% 69,45742035

25,0% 74,52105713

30,0% 79,40208435

35,0% 84,09693146

40,0% 89,01326752

45,0% 93,72644806

50,0% 98,40740967

55,0% 103,1524582

60,0% 108,5544968

65,0% 113,7993088

70,0% 118,7556152

75,0% 124,2985306

80,0% 130,654953

85,0% 138,6811523

90,0% 149,6204987

95,0% 168,7325592

Tabela 4.21 – Estatísticas da Variáveis de Saída

64

Nas figura 4.22 é apresentado o histograma da variável ponto de equilíbrio. Com base

no histograma, é possível concluir que 90% dos valores ficaram entre 52,7423 e

168,7326.

Figura 4.22 – Histograma da variável Ponto de Equilíbrio

Distribuição para o Ponto de

Equilíbrio:/C15

65

Para a variável ponto de equilíbrio, podemos ver na figura 4.23 a distribuição de

probabilidade acumulada. O eixo vertical do gráfico mostra a probabilidade do ponto de

equilíbrio ser menor ou igual o valor indicado.

Figura 4.23 – Distribuição de Probabilidade acumulada do Ponto de Equilíbrio

Distribuição para o Ponto de

Equilíbrio:/C15

66

Uma outra informação importante é o gráfico tornado, construído com o auxílio do

@Risk, para que possamos identificar quais a s variáveis que mais influenciam o ponto

de equilíbrio. Na figura 4.24 podemos observar que um aumento de um desvio-padrão

no custo fixo aumenta o ponto de equilíbrio em 0.76 desvio-padrão. Este gráfico é

obtido a partir de uma regressão em que a variável dependente é a ponto de equilíbrio e

as independentes são custo variável unitário, custo fixo e preço unitário.

Figura 4.24 – Gráfico Tornado

Regression Sensitivity for ponto deequilíbrio:/C15

Std b Coefficients

custo variável unitário:Ri.../C11 ,369

preço unitário:RiskTriang(.../C5-,456

custo fixo:/C8 ,76

-1 -0,75 -0,5 -0,25 0 0,25 0,5 0,75 1

Regressão de Sensibilidade para o Ponto de

Equilíbrio:/C15

Coeficiente Padrão de b

67

O gráfico tornado aponta as principais variáveis que influenciam o ponto de equilíbrio.

A tabela de sensibilidade, figura 4.25, mostra a classificação das variáveis segundo o

peso de sua influência sobre o ponto de equilíbrio, fornecendo também a correlação

entre as variáveis de entrada e o ponto de equilíbrio.

Sensibilidade

Classificação Nome Regr Corr

#1 custo fixo: / $C$8 0,760 0,826

#2 preço unitário:RiskTriang(16;20;23) / $C$5 -0,456 -0,413

#3 custo variável unitário:RiskNormal(10;1,2) / $C$11 0,369 0,349

Figura 4.25 – Regressão e Correlação

68

5. CONCLUSÃO

Suprimir a ignorância quanto ao futuro é uma simplificação muito adotada por

administradores e analistas durante a análise de custo-volume-lucro. Embora técnicas

que permitam a inclusão da incerteza existam a algumas décadas, muitos profissionais

desconhecem essas ferramentas e tem o hábito de só trabalhar com números nunca com

distribuições. Com o desenvolvimento da indústria da informática, softwares e

aplicativos essas técnicas ficaram acessíveis ao analista que não tem formação em

programação, mas que esta habituado ao uso de planilhas.

Esse trabalho mostrou a importância de considerar a incerteza na análise CVL, e

construiu um modelo geral de simulação como uma ferramenta que permite considerar a

incerteza em todas as variáveis. Os passos do desenvolvimento de uma simulação para

análise de CVL foi explicado em detalhe e ilustrado com um exemplo.

69

Comparando o resultado da variável ponto de equilíbrio do modelo de simulação com o

modelo clássico, vemos que ao invés de obter um único número para o ponto de

equilíbrio no modelo clássico, obtemos uma distribuição para ponto de equilíbrio onde

poderemos então calcular a probalidade que ele seja maior ou menor que um

determinado valor; ou ainda que ele esteja entre uma determinada faixa de valores.

Este trabalho demonstrou de forma clara, que o estudo da alavancagem operacional

pode ser feita com a introdução de variáveis estocásticas, obtendo resultados mais úteis

aso tomadores de decisão. Por outro lado, a simplicidade do modelo e a facilidade de

uso dos softwares @Risk e BestFit permite que o modelo seja facilmente utilizado tanto

por executivos quanto por estudantes.

A leveza e simplicidade do modelo poderá ajudar na difusão da cultura de avaliação de

risco e no uso de simulação digital por empresas de diversas partes do país. Finalmente

o trabalho permitirá o acesso de técnicas de simulação a profissionais não treinados na

construção de modelos e no uso de técnicas quantitativas para compreensão dos

problemas coorporativos.

70

BIBLIOGRAFIA

Balci, O. “Validation; verification and testing techniques throughout the life cycle

of a simulation study”. Annals of Operations Research, Vol. 53, pp 121-174, 1994

Balci, O. “Verification, validation and testing”. Handbook of Simulation. Nova

Iorque, E.U.A: John Wiley, 1998.

Banks, J., Carson II, J.S., Nelson, B.L., e Nicol, D.M. Discrete-Event system

simulation, Nova Jersey, E.U.A: Prentice Hall, 2001

71

Brealey, Richard; Myers, Stewart, C. Princípios de Finanças Empresarial. 3 ed.

Lisboa, Portugal:. McGraw-Hill, 1988..

Bussab, W.O., e Morettin, P.A. Estatística Básica. São Paulo: Saraiva, 2004

Corrar, Luiz João O modelo econômico da empresa em condições de incerteza:

aplicação do método de simulaçãode monte carlo. Cadernos de estudo.

São Paulo: FIPECAFI, n. 8, p. 1-11, abril 1993

Freund, J.E., e Simon, G. Estatística Aplicada. Porto Alegre: Bookman, 2000

Law, A.M., e Kelton, W.D., Simulation Modeling & Analysis. Nova Iorque, E.U.A:

Mc Graw-Hill, 2000

Gitman, Lawrence J. Príncipios de Administração Financeira. São Paulo: Harbra,

1984

Hertz, David. “Risk analysis in Capital investment”, Harvard Business Review .

v: 42, p. 96-105, Jan./fev. 1964

Iudícibus, Sérgio et al. Contabilidade Introdutória. São Paulo: Editora Atlas S.A.,

1993

72

Jaedicke, R. K. e Robichek, A.A. “Cost-Volume-Profit Analysis under conditions of

uncertainty” Accounting Review, vol 39, ,pp 917-926; outubro 1964

Leone George G. Custos: Um Enfoque Administrativo. Rio de Janeiro: Editora da

undação Getúlio Vargas, 1995

Philips, Paul A . Welsh Hotel: cost-volume-profit analysis and uncertainty.

International Journal of Contemporary Hospital Manegement. v. 6, n.3, p.

31-35, 1994

Ross, Stephen A. Administração Financeira. São Paulo: Editora Atlas, 2002

Savage, Sam. “The Flaw of Averages” Harvard Business Review, pp 20-21, novembro

2002

Savage, Sam. “Rolling the Dice” Financial Planning, pp 59-62, março 2003

73

ANEXO

Custo Variável Unitário

21,32 16,41 18,39 17,67 18,92 17,67 18,91 19,81 20,29 20,79

21,36 16,45 18,41 17,67 18,92 19,37 19,54 19,81 20,29 20,79

21,4 16,45 18,42 17,67 18,93 19,37 19,54 19,81 20,3 20,82

21,41 16,48 18,42 17,7 18,95 19,39 17,61 19,81 20,32 20,82

21,41 16,5 18,43 17,7 18,95 19,39 17,63 19,83 20,33 20,83

21,44 16,52 18,45 17,72 18,96 19,39 17,64 19,85 20,33 20,83

21,49 16,62 18,46 17,74 18,96 19,4 18,89 19,85 20,33 20,84

21,52 16,67 18,48 17,76 18,98 19,4 18,89 19,86 20,33 20,85

21,53 16,71 18,49 17,77 19,01 19,41 18,91 19,86 20,34 20,85

21,54 16,74 18,49 17,78 19,01 19,41 18,35 19,86 20,34 20,85

21,54 16,78 18,49 17,79 19,03 19,45 18,37 19,88 20,34 20,86

21,57 16,85 18,49 17,81 19,03 19,45 18,39 19,91 20,34 20,87

21,58 16,86 18,5 17,83 19,04 19,47 19,37 19,92 20,35 20,87

21,58 16,91 18,53 17,85 19,04 19,47 19,37 19,92 20,42 20,12

21,59 16,92 18,53 17,85 19,05 19,47 19,37 19,95 20,43 20,91

21,65 16,95 18,54 17,85 19,05 19,48 19,77 19,95 20,43 20,93

21,66 17,02 18,55 17,86 19,05 19,48 19,77 19,95 20,44 20,24

21,69 17,02 18,55 17,87 19,05 19,5 19,78 19,95 20,46 20,35

21,69 17,05 18,56 17,88 19,06 19,5 18,33 19,96 20,46 20,27

21,7 17,08 18,57 17,89 19,07 19,5 19,36 19,96 20,47 21,13

21,7 17,11 18,57 17,9 19,07 19,54 19,77 19,96 20,47 20,1

21,7 17,13 18,58 17,9 19,07 19,55 17,58 19,97 20,48 20,28

21,71 17,14 18,58 17,91 19,08 19,56 18,89 19,97 20,49 20,38

21,71 17,2 18,6 17,92 19,09 19,57 19,79 20,01 20,51 21,02

21,72 17,21 18,6 17,93 19,11 19,57 21,28 20,02 20,53 21,03

21,73 17,23 18,6 17,98 19,13 19,57 22,27 20,02 20,54 21,05

21,75 17,23 18,6 17,99 19,13 19,58 22,3 20,04 20,56 21,05

21,75 17,26 18,61 18 19,15 19,59 22,3 20,05 20,57 21,06

21,76 17,26 18,61 18 19,15 19,59 22,32 20,06 20,57 21,07

21,76 17,31 18,63 18,01 19,2 19,59 22,33 20,06 20,58 21,08

21,87 17,31 18,64 18,01 19,2 19,59 22,39 20,06 20,58 21,1

21,87 17,32 18,66 18,01 19,21 19,6 22,4 20,06 20,59 21,1

21,88 17,32 18,67 18,02 19,21 19,61 22,43 20,08 20,6 21,12

21,9 17,33 18,69 18,03 19,21 19,62 22,51 20,09 20,6 21,13

21,94 17,33 18,73 18,09 19,21 19,64 22,51 20,1 20,61 21,13

21,96 17,34 18,74 18,12 19,22 19,64 22,57 20,11 20,62 21,13

21,98 17,35 18,74 18,16 19,24 19,65 22,61 20,11 20,63 21,13

21,99 17,35 18,75 18,18 19,25 19,68 22,71 20,12 20,64 21,15

22,02 17,38 18,76 18,18 19,26 19,68 22,74 20,13 20,64 21,16

22,03 17,38 18,76 18,2 19,27 19,69 22,91 20,13 20,66 21,18

22,04 17,4 18,77 18,21 19,27 19,7 20,77 20,15 20,66 21,18

22,06 17,4 18,8 18,21 19,28 19,71 20,78 20,16 20,67 21,2

74

22,11 17,43 18,8 18,22 19,28 19,71 20,78 20,17 20,67 21,2

22,12 17,43 18,81 18,23 19,28 19,71 20,78 20,17 20,71 21,24

22,17 17,44 18,82 18,26 19,3 19,73 20,22 20,17 20,71 21,24

22,2 17,44 18,82 18,26 19,3 19,74 20,23 20,21 20,72 21,24

22,2 17,5 18,83 18,3 19,31 19,75 20,24 20,22 20,72 21,24

22,22 17,52 18,84 18,31 19,32 19,75 20,25 20,22 20,73 21,25

22,25 17,54 18,85 18,31 19,33 19,75 20,27 20,22 20,73 21,26

22,26 17,57 18,88 18,33 19,34 19,75 20,78 20,22 20,74 21,27

Custo Fixo

500,1 597,1 1293 1200 682,5 769,8 1130 861,7 942,6 1037

501,3 597,7 1296 1200 682,6 770,9 1135 862,8 943,5 1038

503,9 598,2 1296 1206 683,9 770,9 1136 865,4 948,7 1040

504,9 600,9 1297 1306 684,8 772,4 1138 868,7 948,7 1040

508 601,7 1299 1307 685,3 775,6 1139 871,4 949,3 1042

509,6 603,4 1304 1207 685,9 776,1 1140 873,4 954 1044

513 606,6 1304 1207 689,8 776,4 1140 873,6 955,1 1045

513 607,5 1306 1217 691,5 779,7 1143 876,9 955,7 1045

517,1 607,8 1306 1217 692,1 780,7 1144 877,2 958,4 1048

522,4 608,5 1309 1387 694,6 784 1145 878,1 958,8 1048

524,5 609,1 1313 1400 694,8 785,7 1147 879,4 959,8 1051

525,6 609,5 1315 880,4 700,9 786,2 1151 879,7 963,5 1053

526,3 609,7 1316 1385 700,9 788,7 1152 880 964,9 1054

526,8 618,1 1319 1328 703,5 820 1153 880,9 970,9 1054

532,1 619,7 1321 1100 703,9 789,1 1157 885,2 972,1 1056

532,7 622,9 1323 1389 709 810,1 1159 885,5 972,1 1056

535,3 627,1 1323 1379 711,4 806 1161 886,9 973,9 1057

536,3 628,8 1328 1271 714,9 793,7 1162 888,7 974,2 1057

538,3 629,4 1329 1272 720,5 794,1 1162 890,1 974,5 1058

538,8 629,9 1332 890,9 720,8 794,6 1162 893 976,5 1058

540,8 630,5 1333 1232 722,1 795,4 1162 894,8 976,6 1058

543,4 630,8 1334 1233 725 796,3 1166 895 976,7 1058

548,9 632,7 1334 1234 725,5 800,6 1166 895,8 985,7 1058

549,3 635,6 1335 1236 725,6 805,1 1166 900,7 988,3 1059

550,4 638,2 1336 1237 726,9 806,4 1169 901,7 989,7 1060

550,8 639,3 1344 1237 728,7 812,9 1170 905,7 990,2 1063

551,7 640,9 1344 1239 733,3 816,7 1171 905,7 992,6 1064

555,7 642,3 1344 1240 734,2 817 1173 906 994,3 1079

557,9 643 1349 1243 735,3 818,3 1173 909,9 1000 1079

558,1 646,2 1350 1246 735,8 818,6 1174 912,3 1001 1087

558,4 653,8 1354 1247 737,6 820,7 1174 912,6 1001 1092

560,4 656,5 1354 1249 738,7 823,7 1175 913,5 1002 1092

562 657,1 1357 1250 740,4 826,7 1176 914,2 1002 1093

75

565,1 657,7 1363 1251 741,8 827,2 1177 914,7 1003 1094

565,5 659,1 1364 1255 742,1 828 1178 915,6 1004 1095

568,4 660,5 1369 1258 745,6 830,9 1179 916,3 1004 1098

568,6 661 1373 1260 746 832,3 1179 917,1 1008 1101

569,2 664,1 1375 1260 747 833,1 1180 917,9 1012 1101

571,6 665 1376 1261 747,7 836,3 1180 920,3 1013 1107

572,6 665,2 1376 1266 749,1 836,8 1181 924,9 1013 1107

579,3 666,2 1377 1266 750,8 841,4 1188 927,9 1014 1108

581,5 666,7 1378 1270 751,2 843,4 1190 928,2 1018 1111

586,4 674,6 1382 1270 753,6 843,9 1195 931,2 1021 1114

588 674,9 1383 1273 755,6 846,8 1195 931,5 1028 1115

589,1 675,2 1387 1276 758,3 847,4 1196 934,7 1028 1115

589,9 675,8 1388 1276 761,6 848,1 1196 935,9 1032 1119

592,6 675,9 1388 1276 761,7 849 1197 936,6 1034 1123

592,6 676,9 1389 1281 761,8 855,8 1197 938,4 1034 1126

595,3 677,3 1391 1287 764,5 857,7 1198 938,8 1034 1127

596 679,5 1391 1289 764,9 860,5 1199 940,1 1036 1130

Preço unitário

6,83 8,27 8,88 9,25 9,62 9,86 10,18 10,52 10,86 11,41

6,84 8,27 8,89 9,25 9,62 9,88 10,18 10,53 10,89 11,44

7,14 8,3 8,89 9,25 9,62 9,89 10,18 10,53 10,9 11,46

7,21 8,31 8,9 9,26 9,62 9,89 10,19 10,54 10,91 11,46

7,26 8,32 8,91 9,26 9,64 9,9 10,2 10,54 10,93 11,46

7,32 8,33 8,92 9,26 9,64 9,9 10,22 10,54 10,96 11,47

7,32 8,35 8,92 9,27 9,65 9,91 10,22 10,55 10,96 11,48

7,39 8,37 8,93 9,28 9,67 9,92 10,23 10,55 10,97 11,51

7,54 8,39 8,93 9,28 9,67 9,92 10,24 10,56 10,99 11,52

7,58 8,44 8,94 9,29 9,67 9,92 10,25 10,56 11 11,53

7,59 8,46 8,95 9,31 9,68 9,93 10,25 10,57 11,02 11,54

7,63 8,46 8,95 9,31 9,68 9,94 10,26 10,57 11,02 11,57

7,65 8,46 8,95 9,32 9,68 9,94 10,26 10,57 11,03 11,58

7,65 8,48 8,96 9,32 9,69 9,94 10,28 10,58 11,04 11,63

7,66 8,48 8,97 9,33 9,69 9,94 10,3 10,58 11,06 11,63

7,66 8,48 8,98 9,33 9,69 9,94 10,31 10,61 11,08 11,67

7,67 8,49 8,99 9,35 9,69 9,95 10,32 10,63 11,09 11,68

7,69 8,52 9 9,38 9,7 9,96 10,32 10,63 11,1 11,72

7,77 8,53 9,02 9,38 9,7 9,96 10,33 10,64 11,1 11,73

7,8 8,57 9,02 9,39 9,7 9,96 10,33 10,65 11,11 11,77

7,81 8,58 9,02 9,39 9,71 9,97 10,33 10,65 11,12 11,79

7,88 8,59 9,03 9,42 9,72 9,97 10,34 10,65 11,12 11,83

7,93 8,62 9,05 9,42 9,73 9,97 10,34 10,67 11,12 11,83

7,93 8,62 9,05 9,42 9,73 9,97 10,35 10,67 11,13 11,83

7,93 8,65 9,06 9,42 9,73 9,98 10,35 10,67 11,13 11,84

8,01 8,66 9,06 9,43 9,73 9,99 10,35 10,67 11,16 11,91

76

8,03 8,66 9,06 9,44 9,73 10 10,37 10,69 11,17 11,96

8,04 8,67 9,07 9,45 9,74 10 10,37 10,69 11,18 12,01

8,05 8,68 9,09 9,47 9,75 10 10,37 10,71 11,2 12,02

8,07 8,69 9,09 9,47 9,75 10,01 10,37 10,72 11,21 12,03

8,08 8,7 9,09 9,48 9,76 10,03 10,37 10,72 11,25 12,03

8,08 8,7 9,11 9,48 9,77 10,05 10,38 10,73 11,25 12,03

8,08 8,71 9,11 9,48 9,77 10,05 10,39 10,75 11,25 12,04

8,09 8,72 9,12 9,5 9,78 10,06 10,39 10,75 11,26 12,07

8,1 8,72 9,14 9,5 9,79 10,06 10,39 10,75 11,26 12,07

8,15 8,72 9,14 9,52 9,79 10,07 10,4 10,75 11,28 12,11

8,16 8,74 9,14 9,54 9,79 10,08 10,41 10,76 11,29 12,18

8,19 8,75 9,14 9,54 9,79 10,08 10,42 10,78 11,29 12,26

8,19 8,78 9,15 9,55 9,81 10,12 10,43 10,78 11,3 12,37

8,19 8,79 9,16 9,56 9,81 10,12 10,44 10,8 11,31 12,37

8,2 8,8 9,17 9,56 9,81 10,12 10,44 10,8 11,33 12,46

8,2 8,81 9,17 9,56 9,81 10,13 10,45 10,81 11,33 12,51

8,22 8,81 9,17 9,57 9,82 10,14 10,45 10,81 11,34 12,55

8,23 8,82 9,17 9,58 9,82 10,14 10,45 10,82 11,36 12,57

8,24 8,84 9,19 9,6 9,82 10,14 10,46 10,84 11,37 12,73

8,24 8,85 9,19 9,6 9,85 10,14 10,47 10,84 11,37 12,83

8,25 8,86 9,21 9,6 9,85 10,15 10,48 10,85 11,38 13,05

8,26 8,87 9,22 9,6 9,85 10,16 10,48 10,85 11,39 13,43

8,26 8,87 9,23 9,6 9,86 10,17 10,49 10,86 11,4 14,22

8,26 8,88 9,24 9,6 9,86 10,18 10,5 10,86 11,4 14,57