universidade tÉcnica de lisboa -...

47
UNIVERSIDADE TÉCNICA DE LISBOA MESTRADO EM ECONOMIA MONETÁRIA E FINANCEIRA ECONOMIA DOS INTERMEDIÁROS FINANCEIROS VALUE-AT-RISK: NOTAS SOBRE O CASO NÃO LINEAR Bravo Jorge 1 , Clara Pires e Carla Silveira Abstract: O Value-at-Risk (VAR) é hoje em dia um conceito-chave nas gestão do risco de mercado das instituições. Em termos genéricos, VAR de uma carteira de activos é definido como a perda máxima esperada para essa carteira, num determinado período de tempo e para um determinado nível de confiança. Após a aceitação generalizada do conceito, o debate na comunidade científica centrou-se nas implicações para o cálculo do VAR que resultam de relaxar as suas duas hipóteses principais: i) os retornos dos factores de risco seguem uma distribuição normal e ii) a relação entre o valor da carteira e o valor dos factores de risco é linear. É precisamente sobre este último tema que nos debruçamos. A exposição está organizada da seguinte forma: na secção I, é feita uma ligeira introdução ao tema do VAR; Na secção II são exaustivamente tratados os múltiplos métodos paramétricos utilizados para obter estimativas do VAR; Na secção III o lugar é dado ao papel dos métodos de simulação no tratamento da não linearidade. 1 Correspondence to [email protected]

Upload: phamtuong

Post on 02-Dec-2018

213 views

Category:

Documents


0 download

TRANSCRIPT

UNIVERSIDADE TÉCNICA DE LISBOA

MESTRADO EM ECONOMIA MONETÁRIA E FINANCEIRA

ECONOMIA DOS INTERMEDIÁROS FINANCEIROS

VALUE-AT-RISK: NOTAS SOBRE O CASO NÃO LINEAR

Bravo Jorge1 , Clara Pires e Carla Silveira

Abstract: O Value-at-Risk (VAR) é hoje em dia um conceito-chave nas gestão do risco de

mercado das instituições. Em termos genéricos, VAR de uma carteira de activos é definido

como a perda máxima esperada para essa carteira, num determinado período de tempo e para

um determinado nível de confiança. Após a aceitação generalizada do conceito, o debate na

comunidade científica centrou-se nas implicações para o cálculo do VAR que resultam de

relaxar as suas duas hipóteses principais: i) os retornos dos factores de risco seguem uma

distribuição normal e ii) a relação entre o valor da carteira e o valor dos factores de risco é

linear. É precisamente sobre este último tema que nos debruçamos. A exposição está

organizada da seguinte forma: na secção I, é feita uma ligeira introdução ao tema do VAR; Na

secção II são exaustivamente tratados os múltiplos métodos paramétricos utilizados para obter

estimativas do VAR; Na secção III o lugar é dado ao papel dos métodos de simulação no

tratamento da não linearidade.

1 Correspondence to [email protected]

Value-at-Risk: Notas Sobre o Caso Não Linear

1

I. INTRODUÇÃO E PRINCIPAIS CONCEITOS

1.1. Value-at-Risk (VAR): Definição e Caracterização do Conceito

O VAR é uma medida do risco de mercado, que representa a perda máxima no valor de

uma carteira de instrumentos financeiros que se pode verificar, num determinado

período de tempo, com um certo nível de confiança e admitindo condições normais de

mercado.

Deste modo, quando se afirma, por exemplo, que o VAR diário da carteira de activos de

uma instituição financeira é de 1 milhão de contos, com um nível de confiança de 95%,

pretende-se dizer que, em condições normais de mercado, de cada 100 dias, apenas em

cinco a carteira de activos da instituição financeira se poderá desvalorizar em 1 milhão

de contos. De uma forma menos rigorosa, o valor máximo que se pode perder, ou seja, o

valor que está em risco num dia, é de 1 milhão de contos, em condições normais de

mercado.

O VAR engloba assim quatro componentes:

• Um limite superior para as perdas – o valor do próprio VAR;

• Um horizonte temporal, findo o qual se constatam as perdas realizadas;

• Um grau de confiança para o VAR (exemplo 95%) ou uma probabilidade (5%) de o

VAR ser excedido;

• A aceitação de um comportamento estocástico estável pré-determinado para o

mercado ou, de forma mais concreta, a adopção da hipótese de que os retornos de

mercado seguem uma distribuição normal. A distribuição de probabilidades é fixa e

imutável ao longo do tempo. Esta hipótese é muito forte claudicando completamente

no contexto de mercados não estacionários e na presença de não linearidade.

O VAR pode ainda ser definido:

• Em termos absolutos – valor numérico absoluto da perda.

Value-at-Risk: Notas Sobre o Caso Não Linear

2

• Em termos relativos – perda em relação à média das rentabilidades, que é igual à

soma do VAR absoluto com a média das rentabilidades diárias.

Em termos formais, O VAR em termos absolutos é dado por:

[1] VAR (absoluto) = - REV* = - R*W

Em que R denota a taxa de rentabilidade da carteira, W o valor inicial da carteira, REV

o retorno (em valor) da carteira, R* a rentabilidade de corte (correspondente ao nível de

confiança desejado) e REV* representa o respectivo rendimento de corte.

De forma semelhante, se considerarmos REV como representando o rendimento médio

da carteira e µ como a taxa média da rentabilidade, o VAR relativo à média é dado por:

[2] VAR (relativo) = -REV* + REV = -RW + µW

Estas expressões permitem-nos transformar o VAR em termos de rendimentos no VAR

em termos de rentabilidades, o qual é bastante mais fácil de manejar em termos

estatísticos

A atractividade do VAR resulta, em primeiro lugar, de conseguir medir o risco de

mercado de uma forma que o torna facilmente compreensível e comunicável aos

gestores de topo e/ou accionistas, permitindo, desta forma, que estes controlem e

limitem os riscos assumidos (em condições normais de mercado), mesmo que não

possuam todos os conhecimentos técnicos inerentes à forma de cálculo do VAR.

Em segundo lugar, o VAR apresenta a vantagem de medir o risco na mesma unidade em

que estão expressos os activos (unidades monetárias), facto esse que permite comparar

directamente o risco de produtos diferentes.

O VAR coloca-se, desta forma, como alternativa a alguns indicadores de risco para

activos específicos: por exemplo, o desvio-padrão da rentabilidade ou o parâmetro beta,

no caso das acções; a duração, no caso das obrigações; a volatilidade, no caso das

divisas.

Value-at-Risk: Notas Sobre o Caso Não Linear

3

( )250

nZWVAR ×××= σα

A medição do VAR, por seu turno, um pouco mais complexa, especialmente quando

nos afastamos duas premissas principais: i) normalidade para a distribuição dos factores

de risco subjacente e ii) uma relação linear entre os retornos da carteira e os retornos dos

factores de risco.

Saliente-se que o VAR obtido pelos diversos é apenas uma estimativa do verdadeiro

valor em risco, que é normalmente desconhecido, pelo que temos sempre que lidar com

o erro de estimativa.

1.2. Fórmula Genérica Para o Cálculo do VAR

Admitindo que a rendibilidade de um determinado activo ou carteira segue uma

distribuição normal com média nula e desvio-padrão σ, o VAR para um activo é dado

simplesmente por:

[3]

Em que W representa valor de mercado da carteira, n o número de dias para o qual se

calcula o VAR, Z(α) valor crítico da distribuição normal estandardizada desejado e σ o

desvio-padrão anual do factor de risco subjacente.

1.3. Escolha dos Parâmetros do VAR

Calcular o VAR implica definir, à priori, dois parâmetros arbitrariamente: o nível de

confiança e o período de tempo. A definição do nível de confiança é um elemento

subjectivo, não existindo consenso entre os vários utilizadores da metodologia no que

diz respeito a um nível padrão. O comité de Basileia recomenda um nível de confiança

de 99%, enquanto que, por exemplo, a empresa impulsionadora da metodologia (J.P.

Morgan) recomenda um intervalo de 95%.

Qualquer que seja o nível de confiança adoptado, ele deve ter sempre em linha de conta

os seguintes aspectos:

Value-at-Risk: Notas Sobre o Caso Não Linear

4

• Os requisitos de capital aumentam com o nível de confiança do VAR, i.e., o valor

monetário do VAR cresce com o grau de confiança. Este aspecto não pode ser

negligenciado uma vez que os custos superiores de capital imobilizado podem ser

significativos;

• O nível de confiança escolhido deve obedecer a critérios contabilísticos uniformes e

permitir a comparação entre instituições;

• O nível escolhido deve enquadrar-se nas práticos de controlo e gestão do risco por

parte das instituições, fornecendo aos gestores de topo uma medida suficientemente

realista do risco de mercado defrontado.

No que diz respeito ao período de tempo (dia, semana, mês, etc.), ele deverá depender

prioritariamente da função para a qual o VAR é calculado (se num relatório interno de

uma instituição o VAR pode ter um horizonte de um dia, já num relatório trimestral

para os accionistas, o VAR pode ser calculado para três ou mais meses).

Por outro lado, o período de tempo deve depender da liquidez dos activos. Para activos

com mercados muito líquidos, como é o caso das divisas, a instituição pode reduzir

rapidamente a sua exposição a esses activos em caso de perdas, pelo que o período pode

ser menor, tipicamente, um dia. Para activos pouco líquidos, como os valores

mobiliários não negociáveis em bolsa, é necessário aceitar longos períodos de detenção,

normalmente, alguns meses, para dar tempo à instituição de se desfazer dessas posições.

Na carteira de uma determinada instituição há, em geral, activos com diferentes níveis

de liquidez pelo que os períodos de análise tenderiam a ser diferentes para cada um

deles. Para se evitar tal situação é usual a escolha de um período de 10 dias2 como o

intervalo de equilíbrio que pode ser comum para os diversos activos com os graus de

liquidez habituais nas instituições.

1.4. VAR Numérico e VAR Paramétrico

2 Recorde-se que este é o horizonte temporal sugerido pelo Comité de Basileia às instituições financeiras.

Value-at-Risk: Notas Sobre o Caso Não Linear

5

[ ] ( )∫ ==<−

*

%100

*PrR

dRRfRRob α

O cálculo do VAR pode ser efectuado por recurso a duas abordagens distintas,

consoante se imponham ou não, à partida, determinadas hipóteses sobre a distribuição

de probabilidades dos retornos dos factores de risco.

A abordagem não paramétrica, que nos dá o VAR numérico, consiste em não

estabelecer qualquer pressuposto quanto à distribuição para a rentabilidade dos factores

de risco. Por exemplo, se o objectivo é determinar o VAR de uma acção, basta

simplesmente recolher as rendibilidades históricas dessa acção, determinar o valor

crítico da rentabilidade à esquerda do qual estão, por exemplo, 5% das observações e,

finalmente, com esta rentabilidade crítica, calcular a perda máxima em 95% dos casos

(VAR com 95% de confiança).

Este método genérico resume-se, essencialmente, a calcular o VAR que resulta de um

determinado percentil da distribuição empírica da rentabilidade do factor de risco

(activo subjacente, taxa de juro, taxa de câmbio, etc.) em questão. O VAR absoluto e

relativo que referimos anteriormente, baseavam-se na abordagem não paramétrica.

A abordagem paramétrica simplifica substancialmente os cálculos, ao assumir uma

distribuição para a rentabilidade dos activos. Se supusermos que a rentabilidade tem

uma função de densidade de probabilidade f(R) e que estamos a considerar um nível de

confiança de (1–α), A probabilidade da rentabilidade ser menor que R* é dada por:

[4]

Na prática, usualmente considera-se que f(R) representa uma distribuição normal,

existindo a necessidade de estimar os parâmetros da distribuição normal (média µ e

desvio padrão σ), daí a designação de abordagem paramétrica. Transformando o retorno

R numa variável norma estandardizada (i.é., subtraindo o seu valor esperado e dividindo

pelo desvio-padrão temos:

[5] Prob [ R < R* ] = Prob [ Z < (R* - µ) / σ ] = α

Value-at-Risk: Notas Sobre o Caso Não Linear

6

Com R* = µ + α σ e α a denotar o valor crítico da distribuição normal estandardizada.

Resolvendo em ordem a R* obtemos a rendibilidade de corte que nos permitirá calcular

o VAR desejado.

1.5. VAR de um Produto vs VAR de uma Carteira

Em termos gerais, o VAR de um produto pode ser calculado utilizando [3].O VAR de

uma carteira de activos, por seu turno, dependerá do desvio padrão dos retornos da

carteira.

Contudo, sabemos que o risco da detenção de uma carteira de activos não é igual à soma

dos riscos individuais, e isto na medida em que as correlações entre os retornos dos

diferentes factores de risco (efeito diversificação) pode fazer com que o risco total seja

inferior. Da forma similar, o VAR de uma carteira não é simplesmente a soma dos VAR

individuais de cada um dos activos que compõem a carteira, uma vez que os activos não

reagem todos da mesma maneira às alterações nos factores de risco.

O problema reside assim, em estimar os movimentos relativos das taxas de rentabilidade

dos activos que compõem a carteira, isto é, a matriz de variâncias-covariâncias (Σ).

Obtida esta estatística, o cálculo do VAR segue a metodologia usual.

Introduzidos os principais conceitos3 relacionados, voltamo-nos para o tema principal

deste trabalho: fornecer uma visão clara e abrangente dos principais metodologias

utilizadas para obter estimativas do VAR, dedicando especial atenção aos casos em que

existe uma relação não linear entre os retornos da carteira e retornos dos factores de

risco.

3 Para uma introdução mais detalhada ao tema do VAR recomenda-se a leitura de Jorion (1996).

Value-at-Risk: Notas Sobre o Caso Não Linear

7

( )[ ] α=−<∆∆∆ VARStPob ,Pr

II. MÉTODOLOGIAS DE ESTIMAÇÃO DO VAR

2.1. Enquadramento Geral

A década de 90 consagrou definitivamente o Value-at-Risk (VAR) como uma das mais

importantes medidas para o risco de mercado a que estão sujeitas, não apenas as

instituições financeiras, mas todas as empresas ou instituições que detém importantes

carteiras de activos financeiros. A sua simplicidade conceptual, acrescida da

possibilidade de aplicação a diferentes níveis de exposição ao risco forneceu aos

gestores das instituições uma base consistente para comparar e agrupar o risco de

mercado das suas carteiras.

Como já referimos, o valor em risco (VAR) de uma carteira de activos é definido como

a perda máxima esperada para essa carteira, num determinado período de tempo e para

um determinado nível de confiança. A estatística VAR pode ainda ser expressa em

termos de um intervalo de confiança unilateral para as perdas e ganhos esperados de

uma carteira, i.e., em termos formais:

[6]

em que ∆P(∆t, ∆S) mede a alteração no valor da carteira de activos, expressa como uma

função do horizonte de previsão (∆t) e do vector de alterações nos factores de risco

subjacentes (∆S). O parâmetro α representa, como habitualmente, o nível de

significância desejado. Graficamente:

Perdas Ganhos

Value-at-Risk: Notas Sobre o Caso Não Linear

8

( ) TWZ σα

Figura [1] - Distribuição de perdas e ganhos para uma carteira de activos

A estatística VAR envolve dois parâmetros escolhidos arbitrariamente: o horizonte

temporal para o qual desejamos obter estimativas para as perdas da carteira, e o nível de

significância. Porém, o aspecto mais importante da definição do VAR apresentada em

[6] diz respeito ao papel que a distribuição de probabilidades de ∆P assume,

distribuição essa que daqui em diante designaremos por F(∆P).

A introdução deste conceito simples na literatura financeira abriu as portas ao

desenvolvimento de várias metodologias para o seu cálculo. As diferentes abordagens

que se sucederam são apenas traduções distintas de um mesmo objectivo: utilizar

métodos fiáveis e rigorosos por forma a fornecer estimativas eficientes para o

verdadeiro VAR.

Os métodos de cálculo do VAR são normalmente agrupados em duas categorias

principais: métodos paramétricos e métodos não-paramétricos (numéricos ou de

simulação). É ainda usual subdividir os métodos não-paramétricos entre métodos de

simulação histórica e métodos de simulação de Monte Carlo.

Os métodos paramétricos (ou analíticos) são métodos que envolvem hipóteses sobre a

forma como os retornos dos factores de risco subjacente se distribuem, e que implicam

o cálculo do risco directamente a partir das volatilidades, das correlações, e de outros

parâmetros que caracterizam a distribuição.

Os métodos de simulação histórica são procedimentos que envolvem a produção de

cenários para os factores de risco a partir dos seus dados históricos (preços, taxas de

retorno, etc.), com base nos quais é estimada a distribuição de perdas e ganhos da

carteira, e inferido o valor do VAR.

Os métodos de simulação de Monte Carlo consistem na geração aleatória de cenários

para os factores de risco, com a condição de que estes cenários devem ser consistentes

quer com a matriz de volatilidades e correlações histórica, quer com modelos pré-

determinados de avaliação de activos.

Naquilo que se segue do nosso trabalho, procuraremos explorar de forma mais ou

menos pormenorizada a especificidade de cada uma destas metodologias, dedicando

especial atenção aos problemas que se colocam à obtenção de estimativas para o VAR

µ

VAR

α

Value-at-Risk: Notas Sobre o Caso Não Linear

9

nos casos em que as carteiras incluem instrumentos financeiros cujos «payoffs» estão

relacionados de forma não linear com os factores de risco subjacente (Ex. opções).

Enunciaremos ainda, de forma esporádica , algumas das soluções propostas na literatura

para enquadrar a evidência empírica que rejeita a hipótese de que os retornos dos

factores de risco seguem uma distribuição Gaussiana (distribuição normal).

São indicados algumas metodologias que incorporam a variabilidade do risco

(variância) ao longo do tempo, bem assim como algumas soluções adiantadas para

modelizar o problema dos eventos extremos, naquilo que ficou conhecido na literatura

financeira como o fenómeno das «fat tails» (caudas largas) das distribuições de

probabilidade.

2.2. MÉTODOS PARAMÉTRICOS

Os métodos paramétricos são métodos que se centram no processo aleatório que

descreve o comportamento dos ganhos e perdas da carteira de activos. Tratam-se, no

fundo, de métodos que envolvem hipóteses de partida sobre a forma de F(∆P), e que

implicam o cálculo do risco directamente a partir das volatilidades, das correlações, e de

outros parâmetros que caracterizam a distribuição.

O problema surge quando nos afastamos das hipóteses de partida quanto ao cálculo do

VAR, quer quanto ao pressuposto de que os retornos dos factores de risco seguem uma

distribuição normal, quer sobretudo quanto ao facto de os retornos da carteira não serem

uma função linear dos riscos. A figura [2] retracta bem este último aspecto.

Valor de umaPosição Linear

Activo Subjacente

Quando a estrutura de payoffs da posição élinear, existe uma relação linear entre o valor daposição e o valor do activo (factor de riscosubjacente). Ex. FX Forward vs Taxa Câmbio

Valor de umaPosição Não Linear

Activo Subjacente

Quando a estrutura de payoffs é não- linear,a relação entre o valor da posição e o valordo activo exibe uma curvatura. Exemplo:Opção sobre Acção vs Preço Opção

Value-at-Risk: Notas Sobre o Caso Não Linear

10

( )Σ,~ µNR

Figura [2] - Relação entre o valor da posição e activo subjacente

Os procedimentos sugeridos na literatura para lidar com o problema da não linearidade

este último aspecto são tratados nas secções que se seguem.

2.2.1. APROXIMAÇÃO DELTA-NORMAL

A primeira solução para este problema sugeria o recurso a uma aproximação linear de

primeira ordem (delta) para a relação entre os retornos dos activos e os retornos dos

respectivos factores de risco. Para a distribuição de probabilidades dos factores de risco

continuava a admitir-se, contudo, a distribuição Gaussiana. Em suma, as alterações no

valor da carteira são aproximadas pelo seu delta, enquanto que as alterações nos factores

de risco são modelizadas como espelhando uma distribuição normal multivariada. Pelas

suas propriedades, o método foi apelidado de Delta-Normal.

Com base nestas hipóteses, a aproximação delta-normal de F(∆P), que designamos por

Fd(∆P), é caracterizada como univariadamente normal4, e o VAR corresponderá

simplesmente a um percentil dessa distribuição. Mais ainda, no contexto da

aproximação delta-normal o VAR é uma mera função da matriz de variâncias-

covariâncias dos factores de risco.

Em termos formais, a hipótese de que os retornos (R) dos N factores de risco seguem

uma distribuição normal corresponde a:

[7]

em que Σ representa a matriz de variâncias-covariâncias de dimensão N x N, e µ denota

o vector de dimensão N x 1 para os valores esperados dos factores de risco. Para

horizontes temporais de análise reduzidos (como aquele que está normalmente

subjacente ao cálculo do VAR), é frequente admitir-se que o retorno esperado é nulo,

i.e., µ = 0. Daqui em diante consideraremos esta hipótese.

4 A caracterização de Fd(∆P) como univariadamente normal, assenta no pressuposto estatístico de queuma combinação de variáveis normalmente distribuídas e, também ela, uma variável normalmente

distribuída.

Value-at-Risk: Notas Sobre o Caso Não Linear

11

tT

RR

tT

T

tss

Tt

T

tsTti Tts −

∑=∑

−= +=

+=

∧ ∧1

,1

2

,, ,1

, µµσ

∧∧∧

∧∧∧

∧∧∧

σσσ

σσσ

σσσ

2221

21

222121

11221

NNN

N

N

σβαωσ 21

21

2−− ++= nnn u

( )

S

S

S

SSu

u

n

n

n

nnn

nnn

11

1

21

21

2 1

−−

−−

Λ=

−=

−+= λσλσ

No que diz respeito à matriz de variâncias-covariâncias, a aproximação delta-normal é

bastante flexível, admitindo várias possibilidades quanto à metodologia utilizada para

estimar Σ. Foi aliás esta flexibilidade que tornou o método tão popular e que conduziu à

sua rápida adopção pela maioria das instituições.

A primeira abordagem à estimação de Σ foi sugerida por Garbade (1986), e consistia

simplesmente em assumir que Σ representava uma matriz constante, calculada com base

na volatilidade histórica dos retornos dos factores de risco, i.e.

Com

A segunda metodologia foi proposta pela J.P.Morgan (1994) e admitia a variabilidade

do risco ao longo do tempo. O procedimento adoptado admite que as observações mais

recentes dos retornos contribuem de forma mais significativa para a obtenção de

estimativas para as volatilidade histórica. O método utilizado é uma versão restrita do

modelo GARCH (1,1):

[8]

com as seguintes restrições: ω=0, α=1-λ e β=λ. Impondo estas condições, a estimativa

da volatilidade é obtida, em cada momento n, através de uma média móvel exponencial.

A fórmula utilizada para actualizar as estimativas de volatilidade é então dada por:

[9]

Value-at-Risk: Notas Sobre o Caso Não Linear

12

=

=≈∆

δ

δδ

δδ

kk

k

T

S

S

S

S

RRP..

,.., 2

1

1

1

SS

P

S

SP kk

kk

N

k k

kk

∂∂=∑ ∆≈∆

=δδ ,

1

( ) ( )

( ) ( ) ( )

( ) ( ) ( ) δδδδδ

δδ

δδ

Σ===∆

===∆

Σ∆

TTT

TT

Td

RVarRVarPVar

REREPEDemo

NPF

0:

,0~

Uma terceira alternativa para a estimação de Σ passa por recorrer a medidas de

volatilidade implícita obtidas a partir de modelos de avaliação de opções. Para muitos

mercados, existe evidência empírica suficiente para concluir que a volatilidade implícita

nos preços das opções fornece um indicador mais preciso sobre a volatilidade futura

quando comparado com os métodos baseados em informação histórica.

A última alternativa para estimar Σ surge no contexto de modelos de avaliação de

opções que especificam directamente o processo estocástico seguido pela volatilidade.

O modelo de Hull-White (1987) constitui um bom exemplo deste tipo de especificação.

No que toca à hipótese de linearidade, esta pode ser formalizada utilizando uma

expansão de Taylor de primeiro grau, admitindo que todas as derivadas de ordem

superior à primeira são iguais a zero. Nesse caso, a aproximação local de ∆P é dada por:

[10]

em que δk simboliza a sensibilidade da carteira com respeito ao factor de risco k (o

delta). Se utilizarmos notação matricial teremos:

[11]

Utilizando os pressupostos enunciados em [7] e [11] torna-se possível caracterizar

formalmente Fd(∆P):

Value-at-Risk: Notas Sobre o Caso Não Linear

13

( ) δδα Σ−= TZVAR

( ) ( )

( )δδ

α

αδδ

αδδδδ

Σ

−=⇔

=

Σ

−−<⇔=

Σ

∆−−<

Σ

∆−∆

T

TTT

VARZ

VARZob

PEVARPEPob

0PrPr

O passo final consiste em calcular o VAR. Em primeiro lugar, é necessário transformar

a variável aleatória ∆P numa variável normal estandardizada de média nula e desvio

padrão unitário. Recordando a definição do VAR indicada em [10], utilizando a

aproximação de Taylor e os elementos que caracterizam a distribuição temos então que:

Resolvendo finalmente em ordem ao VAR temos:

[12]

e que Z(α) representa o αésimo percentil da distribuição normal estandardizada. O

método delta-normal baseia-se, como vimos, numa aproximação local, sendo na prática

utilizado para obter estimativas do VAR para um grande número de activos.

Apesar da simplicidade metodológica e facilidade de implementação, três críticas

principais são apontadas à aproximação delta-normal. A primeira debilidade, comum a

todos os métodos que se baseiam em séries históricas, refere-se à incapacidade que as

distribuições de probabilidades construídas com base em dados históricos recentes têm

de acomodar os denominados eventos extremos (colapsos cambiais, "crashes de bolsa",

etc.). Tal deve-se simplesmente ao facto de estes eventos não ocorrerem com uma

periodicidade suficientemente frequente para estarem permanentemente representados

na janela de observação da distribuição.

O segundo problema está associado à evidência de que as distribuições dos retornos dos

activos financeiros exibem aquilo que convencionalmente se designa por "fat tails",

característica medida pelo coeficiente de achatamento (Kurtosis) da distribuição.

Este aspecto é especialmente importante quando sabemos que o VAR procura captar o

comportamento dos retornos da carteira nas caudas da distribuição, especialmente na

cauda esquerda.

Value-at-Risk: Notas Sobre o Caso Não Linear

14

Neste contexto, qualquer aproximação baseada na hipótese de normalidade dos retornos

tenderá a subestimar a proporção dos eventos extremos da distribuição, e dessa forma, a

subavaliar o verdadeiro VAR.

Existem numerosas explicações para a evidência das "fat tails". Uma das principais

aponta para os chamados "jumps", alterações significativas inesperadas nos preços dos

activos. Uma segunda justificação centra-se na evidencia de que a volatilidade dos

retornos é estocástica, sendo que tal significa que o nível de volatilidade (σt) se altera de

forma aleatória ao longo do tempo, e com algum nível de persistência. Esta

característica de persistência está relacionada com o facto de, em períodos de

volatilidade recente elevada, as estimativas de volatilidade para o futuro próximo serem,

também elas, de nível elevado.

As tentativas de incorporar este aspecto na modelização das séries financeiras são

múltiplas. Exemplos são dados pelos denominados «jump diffusion models», pelos

«regime-switching volatility models», por modelos de volatilidade autoregressiva

(GARCH, EGARH, Cross-market GARCH), pela utilização de distribuições

alternativas para os retornos (Ex. "t de Student", Jorion, 1996), entre outras soluções.

A terceira debilidade importante da aproximação delta-normal revela-se, no contexto da

nossa análise, a mais importante. Ela está relacionada com a incapacidade que o método

tem de medir, de forma adequada, o VAR para instrumentos financeiros relacionados de

forma não linear com os factores de risco subjacente. Os exemplos já citados das opções

ilustrem bem este problema, mas outros produtos existem para os quais a dificuldade é

semelhante: obrigações com um elevado grau de convexidade, MBS's, etc.

A justificação para esta má performance da aproximação delta-normal na presença de

não linearidade é simples: mesmo admitindo que a distribuição dos retornos dos

factores de risco (taxa de juros, taxa de câmbio, cotação da acção, etc.) é normal, como

a relação entre os retornos da carteira e os factores de risco é não linear, Fd(∆P) não

pode mais ser considerada normal. Mais ainda, a não linearidade transforma os próprios

momentos de Fd(∆P).

Value-at-Risk: Notas Sobre o Caso Não Linear

15

Estas conclusões são perfeitamente claras se observarmos atentamente a figura [3]5, na

qual a relação entre o valor de uma «long call» e o preço do activo subjacente é

representada:

Figura [3]: Transladação de uma distribuição normal para o preço do activo subjacente numa

distribuição de probabilidade para o valor de uma posição longa numa opção Call

Como é sabido, o delta de uma opção é definido como a taxa de variação para o valor da

carteira em resultado de uma alteração no valor do activo subjacente. Contudo, sabemos

também que a relação entre o valor da opção e o activo subjacente é não linear e exibe

um elevado grau de curvatura. Esta curvatura é habitualmente medida pelo coeficiente

gamma, definido como a taxa de variação do delta em resultado de alterações no activo

(factor de risco) subjacente.

Em termos genéricos, para valores do gamma positivos a distribuição de ∆P tenderá a

evidenciar um elevado grau de enviesamento positivo, enquanto que para valores do

5 Esta figura segue de perto a indicada por Hull (1998), pp, 353

Valor de umaLong Call

Preço do ActivoSubjacente

Value-at-Risk: Notas Sobre o Caso Não Linear

16

gamma negativos a distribuição de ∆P afasta-se igualmente da normalidade mostrando,

neste caso, um claro enviesamento negativo.

O impacto dos graus de curvatura na simetria F(∆P) é perfeitamente ilustrado na figura

[3], em que a presença de um gamma positivo para a posição longa na call transforma

F(∆P) numa distribuição positivamente enviesada. Esta conclusão não será estranha se

nos recordarmos que o risco de perda para uma posição longa numa call é limitado, para

diminuições no preço do activo subjacente, pelo prémio pago pela opção, enquanto que

os ganhos potenciais são ilimitados.

O enviesamento da distribuição tem implicações importantes para o cálculo do VAR,

uma vez que este depende objectivamente da cauda esquerda de F(∆P). Observando

novamente a figura [3], uma distribuição de probabilidades que exibe um enviesamento

positivo terá uma cauda esquerda mais estreita do que a distribuição normal. Deste

modo, se assumirmos erradamente que F(∆P) segue uma distribuição normal,

tenderemos a obter estimativas para o VAR que excederão o verdadeiro valor em risco

da carteira. Esta última afirmação é perfeitamente retractada na figura [4], em que a

aproximação delta-normal é utilizada para obter estimativas do VAR.

Figura [4]: Enviesamento no cálculo do VAR para Opções Call, utilizando o método Delta-

Normal

Valor de umaLong Call

S0

VAR Delta-NormalVAR Real

Activo subjacente

Z(α) Desvios-Padrões

Value-at-Risk: Notas Sobre o Caso Não Linear

17

A aproximação delta-normal às funções não lineares consiste em traçar uma linha

tangente à curva no ponto correspondente ao preço spot (S0), e na perturbação do preço

do activo subjacente por um número de desvios-padrões desejado, número esse que

corresponde, designadamente, ao valor crítico da distribuição normal estandardizada -

Z(α).

Nos casos em que a função é convexa, a aproximação delta-normal introduz um claro

erro na estimação do VAR, sendo que nestes casos o método sobrestima o verdadeiro

valor em risco da posição. Este tipo de conclusão é facilmente extensível a posições

longas em opções "put", posições para as quais a relação entre o valor da posição e o

valor do factor de risco continua a ser convexa, e para as quais o método delta-normal

volta a sobrestimar o verdadeiro VAR.

A única diferença reside, obviamente, no facto de as perdas relevantes ocorrerem, neste

caso, na eventualidade de o preço do activo subjacente subir e não na eventualidade de

este descer.

No que diz respeito às posições curtas em opções "convencionais", estas evidenciam

geralmente um padrão côncavo com respeito ao activo subjacente pelo que, nestes

casos, a aproximação delta-normal produzirá estimativas que subavaliam o verdadeiro

VAR.

Para terminar, saliente-se que a utilização da aproximação delta-normal para obter

estimativas do VAR no contexto de carteiras que contém opções, baseia-se no

pressuposto de que a carteira inclui (dc/dS) unidades do activo subjacente, em que c e S

denotam, respectivamente, o preço do instrumento derivado e o preço do activo

subjacente.

Como foi possível verificar, excepto nos casos em que a aproximação é utilizada para

variações infinitesimais nos factores de risco (aproximações locais), as estimativas do

VAR obtidas pelo método delta-normal revelam um erro considerável, sendo necessário

recorrer a métodos mais sofisticados.

Value-at-Risk: Notas Sobre o Caso Não Linear

18

( ) ( ) ( ) ( ){ }σασα PPPPv ZREREZC ++−= ,

2.2.2. APROXIMAÇÃO DELTA-GAMMA

Devido à natureza não linear dos pagamentos gerados pelas opções, as carteiras de

activos que incluem este tipo de instrumentos terão uma distribuição de retornos que se

afasta consideravelmente da distribuição normal, evidenciando normalmente um

elevado coeficiente de enviesamento e de achatamento.

No contexto da metodologia standard do VAR, tal como esta foi modelizada pela

RiskMetricks, as estimativas do VAR são obtidas a partir de um intervalo de confiança

simétrico (Cv) em torno do valor esperado para o retorno da carteira - E(RP). Em termos

formais:

[13]

em que Z(α) tem a interpretação habitual e σP denota o desvio padrão dos retornos da

carteira. Tal como refere Zangari (1996a), quando os retornos da carteira estão

relacionados de forma não-linear com os factores de risco, mesmo que estes últimos

sigam uma distribuição normal a estimativa do intervalo de confiança para E(RP)

utilizando [13] será desajustada.

O enviesamento de F(∆P) invalida não apenas a aplicação da simetria introduzida pelos

factores +/- Z(α), como transforma os próprios momentos da distribuição subjacente.

Este problema despontou a necessidade de recorrer a outros métodos para estimar o

risco da carteira. O método mais adequado para lidar com o problema da não

linearidade é o método de simulação de Monte Carlo, do qual falaremos mais adiante.

Contudo, este método apresenta uma desvantagem importante uma vez que exige,

especialmente em carteiras compostas por um número elevado de activos, grandes

capacidades computacionais e de tempo.

A proposta inicial passava por utilizar termos de ordem superior na expansão em série

de Taylor, mais concretamente pela consideração do efeito gamma.

Value-at-Risk: Notas Sobre o Caso Não Linear

19

{ }( )

( ) α<

∆∆−=

RFas

RtPMaxVARR

..

,

∂∂∂

∂∂∂

∂∂∂

∂∂∂

Γ+≈∆

SSSS

PSS

SS

P

SSSS

PSS

SS

P

RRRP

kkkk

kk

k

k

TT

2

11

2

1111

2

1111

2

..

....

..

2

2.2.2.1. MODELO GAMMA-NORMAL DE WILSON

O modelo de Wilson (1994) merece ser destacado uma vez que foi o primeiro trabalho

publicado a reflectir o problema da convexidade dos retornos da carteira no cálculo do

VAR. Wilson continua a assumir que a distribuição dos retornos dos factores de risco é

normal, mas utiliza simultaneamente o delta e o gamma para aproximar as variações no

valor da carteira.

Embora recorra a uma aproximação quadrática, o autor deriva contudo uma estatística -

"Capital-at-Risk" (CAR) - que difere ligeiramente da definição tradicional do VAR. De

facto, Wilson define o VAR como " a perda máxima possível durante um determinado

período de tempo de liquidação e dentro de um determinado intervalo de confiança". De

acordo com esta definição, o VAR não é mais do que a solução para um problema de

optimização: O VAR corresponde ao evento, i.e., à variação no valor do factor de risco

subjacente, que maximiza as perdas da carteira, sujeito à restrição de que esse evento e

todos os que geram perdas inferiores estão compreendidos num determinado intervalo

de confiança. Em termos formais:

[14]

em que α denota o nível de significância desejado. Sob a hipótese de que as variações

no valor da carteira podem ser aproximadas por uma expansão em série de Taylor de

segundo grau, com todas as derivadas de ordem superior iguais a zero, teremos, em

notação matricial:

[15]

Value-at-Risk: Notas Sobre o Caso Não Linear

20

{ }

α

δ

2..

2

1

≤Σ

Γ+−=

RRas

RRRMaxVAR

T

TT

R

[ ]αλδ 2

2

1−Σ+

Γ+−= RRRRRL TTT

[ ]

[ ] 002

21

1

≥=−Σ

≤Σ

=Σ−Γ−

λαλ

α

δλ

eRR

RR

R

T

T

[ ] δλ Σ−Γ−= − −∗ 1 1R

Em que o índice T denota a matriz transposta. Nestas condições o problema de

optimização de Wilson é equivalente a:

[16]

Trata-se de um problema tradicional de programação quadrática, que pode ser resolvido

construindo a função Lagrangeana:

[17]

em que λ representa o multiplicador de Lagrange. A interpretação de λ neste contexto

está associada ao valor do aumento que o VAR sofrerá se incrementarmos o nível de

significância desejado. Diferenciando com respeito a cada uma dos elementos que

compõem R, Wilson obtém as seguintes condições de Kuhn-Tucker:

A solução final para o problema vem então dada por:

[18]

Transformando R* na variação correspondente para o valor da carteira obtemos a

estimativa do VAR.

Apesar do mérito que se lhe reconhece pela consideração do efeito da convexidade, a

implementação do modelo de Wilson coloca na prática dificuldades importantes,

especialmente quando as carteiras estão sujeitas a um elevado número de factores de

Value-at-Risk: Notas Sobre o Caso Não Linear

21

Activo subjacente

Black-ScholesAprox. Delta-Gamma

risco. De facto, a resolução do problema de programação quadrática requer uma solução

numérica que só é possível utilizando software apropriado. O problema pode inclusive

não admitir soluções, bastando para tal que, por exemplo, as matrizes não sejam

invertíveis.

Wilson sugere algumas simplificações por forma a diminuir o número de cálculos a

efectuar (e obviamente o tempo de computação necessário !) ao assumir que a matriz

[-Γ-λΣ-1]-1 é diagonal. Contudo, estas simplificações trazem atrás de si acréscimos nos

erros de medição do VAR.

2.2.2.2. APROXIMAÇÃO DELTA-GAMMA UTILIZANDO ESTIMATIVAS DO

DELTA E DO GAMMA

Como forma de contornar os problemas suscitados pelo método de Wilson, foram

surgindo na literatura metodologias distintas que se revelaram bastante mais eficientes.

O problema continua a ser o de incorporar a convexidade (ou concavidade) que

caracteriza os retornos da carteira na presença de não linearidade. A aproximação delta-

gamma constituiu um primeiro passo nessa direcção, captando as propriedades da F(∆P)

na maioria do seu domínio.

Figura [5]: Valor de uma posição longa numa opção Call, utilizando a fórmula de Black-Scholes

e a aproximação delta-gamma

Valor de umaLong Call

Value-at-Risk: Notas Sobre o Caso Não Linear

22

[ ] ( )

( )[ ] ( )[ ]ΓΣ+Σ=−∆=

ΓΣ=∆=

22

2

1

2

12

1

1 trPE

trPE

T δδµµ

µ

Uma das metodologias sugeridas propõe-se estimar o VAR directamente a partir da

função de densidade de probabilidade (f.d.p.) da posição, pelo que a este raciocínio

continua a estar implícita a hipótese de que a f.d.p. dos factores de risco é conhecida.

Se assumirmos novamente que o vector das taxas de retorno R segue uma distribuição

normal multivariada de média µ e matriz variâncias-covariâncias Σ, i.e., R~NN (µ,Σ), e

incluirmos o termo quadrático na série de Taylor, as variações no valor da carteira

passam a ser aproximadas por [15].

Nestas condições, ∆P é aproximado por uma função quadrática de N variáveis

normalmente distribuídas. Para N=1, Britten-Jones e Schaefer (1999) provam que a

distribuição da aproximação delta-gamma a ∆P, daqui em diante designada por Fdg(∆P),

é uma distribuição de χ2 não-centrada. Para N ≥ 2, estes autores provam ainda que a

aproximação delta-gamma envolve a combinação linear de variáveis χ2 independentes,

mais propriamente a soma de variáveis χ2 não centradas.

Apesar da expressão analítica da f.d.p. de Fdg(∆P) não ser conhecida, Mathai e Provost

(1992) provam que esta distribuição é equivalente à distribuição de variáveis aleatórias

normalmente distribuídas para a qual existe uma função geradora de momentos. No

nosso caso, uma vez que conhecemos a função geradora de momentos de Fdg(∆P), dada

por [15], este resultado é fundamental. Se formos capazes de determinar os parâmetros

δ, Γ e Σ, podemos facilmente calcular os momentos da distribuição, modelizar a f.d.p.

de Fdg(∆P) e inferir o valor do VAR desejado.

Se considerarmos, por hipótese, que µ=0, temos então que R~Nn (0,Σ) e os 1º e 2º

momentos de Fdg(∆P) são dados por6:

[19]

6 Para uma análise mais detalhadas sobre o cálculo dos momentos para a aproximação delta-gamma às

variações no valor da carteira recomenda-se a consulta de Britten-Jones e Schaefer (1999)

Value-at-Risk: Notas Sobre o Caso Não Linear

23

( ) µα 2ZVAR −=

O traço da matriz ΓΣ é igual à soma dos N valores próprios de ΓΣ, e o traço de (ΓΣ)2

corresponde à soma do quadrado dos valores próprios de ΓΣ. Repare-se que em

comparação com a aproximação delta-normal em que µ1=0 e µ2=δTΣδ e Γ=0, um termo

de ajustamento é adicionado quer ao valor esperado quer à variância da aproximação.

Conhecidos o valores de δ, Γ e Σ, o VAR vem dado simplesmente por:

[20]

Neste caso, Z(α) é utilizado como uma estimativa do valor crítico da f.d.p normalizada

para Fdg(∆P). como se constata, a principal dificuldade com a implementação deste

método prende-se com a obtenção de estimativas para δ e Γ. Pelo menos três soluções

foram adiantadas para resolver este problema: uma primeira, utilizada por Jamshidian e

Zhu (1996), consiste em utilizar dados de mercado para o delta e para o gamma, tendo

os autores concluído que este método permite obter estimativas para o VAR

significativamente melhores do que as produzidas pela aproximação delta-normal.

Contudo, nos casos em que a escassez de dados históricos para as posições desejadas é

importante, o método revela-se de implementação difícil.

Nestas situações , Fallon (1996) e Britten-Jones e Schaefer (1999) propõem o recurso a

procedimentos econométricos não-lineares para estimar directamente aproximações às

variações no valor da carteira, obtendo estimativas para os parâmetros. Embora a

performance deste método supere claramente a do método delta-normal, os autores

salientam ainda assim que os resultados obtidos para opções que se encontram out-of-

money são insatisfatórios.

O último método proposto, representa uma tentativa de contornar os obstáculos que se

colocam à determinação de δ e Γ para instrumentos derivados para os quais não existe

uma solução de preço fechada. Efectivamente, quando nos afastamos das tradicionais

opções call e put europeias (para as quais a fórmula de Black-Scholes é directamente

aplicável), e entramos no domínio das chamadas opções exóticas, os valores dos deltas e

dos gammas não são conhecidos explicitamente. Nestes casos, a obtenção de

estimativas para δ e Γ implica a utilização de métodos numéricos aplicados à

Value-at-Risk: Notas Sobre o Caso Não Linear

24

r

cc

t

c

S

c

S

c

rtSSc

∂∂

=∂∂

=∂∂

=∂

∂=

∂∂

=

∆+∆+∆+∆+∆=∆

κσ

νθγδ

κσνθγδ

2

2

determinação do preço dos activos. Duffie e Pan (1997) enumeram alguns desses

métodos: método das diferenças finitas, método dos fluxos estocásticos, etc.

2.2.2.3. APROXIMAÇÕES CONSIDERANDO A EXPOSIÇÃO A RISCOS

ADICIONAIS: O EFEITO DE EXPOSIÇÃO À VOLATILIDADE (EFEITO VEGA)

Para carteiras de activos que contém opções, a consideração de termos adicionais na

expansão de Taylor é essencial, Desta forma, torna-se possível incluir a exposição dos

activos derivados a outros tipos de risco para além daquele que é representado por δ e Γ

(risco de variação no preço do activo subjacente). Consideremos, a título de exemplo, a

expansão da função de preço para uma opção call do tipo europeu:

[21]

Para além do risco de activo subjacente (medido pelo δ e pelo γ), o parâmetro θ (theta)

mede, "ceteris-paribus", a variação no valor da opção provocada pela redução do

período até à maturidade, o parâmetroν (vega) mede as alterações no valor da opção

associadas às alterações inesperadas na volatilidade do activo subjacente (volatilidade

implícita) e, por último, o parâmetro κ (habitualmente designado por rho) que mede as

variações no valor da opção em resultado de alterações na taxa de juro sem risco.

Se os efeitos de θ (parâmetro não estocástico) e κ podem ser negligenciados numa

análise de prazo relativamente curto como é a do VAR, já as de alterações na

volatilidade implícita podem provocar oscilações significativas no valor da opção. A

hipótese assumida pelo modelo de Black-Scholes (B-S) é a de que a volatilidade do

activo subjacente é constante.

Efectivamente, B-S assumem que o retorno do activo segue um passeio aleatório com

"drift" e volatilidade constante, sendo este comportamento normalmente expresso em

termos de um movimento Browniano geométrico:

Value-at-Risk: Notas Sobre o Caso Não Linear

25

dzdtS

Sσµ +=

∂[22]

em que µ denota o retorno esperado do activo, σ a sua volatilidade histórica, ∂S/S a taxa

de variação proporcional no preço do activo (o retorno), e dz refere-se a um processo de

Wiener generalizado. Em suma, o modelo B-S assume que a volatilidade implícita

corresponde, simplesmente, à volatilidade de mercado.

Aquilo que se verifica na prática é que quer a volatilidade implícita quer a volatilidade

efectiva flutuam, invalidando a utilização da fórmula de B-S para obter o vega da opção.

Ainda assim, é sabido que a utilização do modelo de B-S constitui uma boa

aproximação ao verdadeiro vega, especialmente em horizontes temporais curtos.

A volatilidade implícita é uma medida do nível geral de preços das opções. Embora

tratando-se de um conceito que está associado a um modelo particular de avaliação, a

sua interpretação é simples: a volatilidade implícita dá-nos informação sobre a

estimativa «risk neutral» do desvio-padrão dos retornos do activo subjacente, ao longo

do período de vida da opção. O risco de alterações na volatilidade implícita - «vega

risk" - pode de alguma forma ser considerado o risco idiossincrático de uma posição em

opções.

Considere-se uma carteira de opções coberta contra flutuações de curto prazo no preço

do activo subjacente, i. e, «delta-hedged». A adopção desta estratégia não evita que o

investidor continue a estar exposto a dois tipos de risco que são próprios das opções: o

risco gamma e o risco vega. O risco gamma está presente, como vimos, devido à não

linearidade. Resta-nos então a sensibilidade da carteira com respeito a σ (o risco vega).

Como o intuito de ilustrar algumas das propriedades deste tipo de risco, recorreremos à

fórmula de B-S para determinar a expressão particular de ν para uma opção call ou put

sobre um activo que gera dividendos. Teremos nesse caso7:

7 Para mais detalhes recomenda-se a leitura de , por exemplo, Hull (1998) e Malz (2000).

Value-at-Risk: Notas Sobre o Caso Não Linear

26

+−+

Φ=∂∂

= −

τσ

τσ

τσ

ν τ 2ln

2

drXS

eSc

t

dt

[23]

A volatilidade implícita é representada por σ, St representa o preço do activo subjacente,

X o preço de exercício, τ o tempo remanescente até à maturidade, r a taxa de juro sem

risco para o mesmo horizonte temporal da opção, d o dividendo, juro ou qualquer outro

cash-flow esperado para o activo e, por último, Φ denota a distribuição de probabilidade

acumulada estandardizada. A expressão [23] permite-nos enumerar algumas

propriedades do vega:

i) o valor de uma opção call ou put aumenta monotonamente com a volatilidade

implícita;

ii) O valor do vega, normalmente medido em unidades monetárias, atinge o valor

máximo para opções at-the-money;

iii) O valor do vega é tanto maior quanto mais alto for o nível inicial da volatilidade

implícita;

iv) O vega é positivo para posições longas em opções call ou put, e negativo para

posições curtas;

v) Ceteris-paribus, o vega é tanto maior quanto maior for o intervalo de tempo até à

maturidade da opção.

vi) O vega é especialmente importante na avaliação de opções cujo período até à

maturidade é longo. Para estas opções, a volatilidade é a componente mais

importante do risco uma vez que quer o gamma para estas opções é normalmente

muito baixo.

Por outro lado, é também usual encontrar no mercado opções sobre o mesmo activo

(embora com distintos preços de exercício e período até à maturidade) para as quais a

volatilidade implícita não é idêntica. Estes padrões de volatilidade deram origem ao

surgimento na literatura de dois novos conceitos: o conceito de «volatility smile» e o

conceito de estrutura temporal de volatilidade.

Value-at-Risk: Notas Sobre o Caso Não Linear

27

Preço de Exercício

VolatilidadeImplícita

O volatility smile refere-se ao padrão gráfico exibido pela relação entre a volatilidade

implícita de opções com o mesmo período até à maturidade e o seu respectivo preço de

exercício.

Figura [6]: Volatility Smile

A figura [6] ilustra algumas propriedade do smile: opções que estão out-of-money

revelam normalmente volatilidade implícita superior a opções que estão at-the-money.

O conceito de estrutura temporal de volatilidade refere-se ao padrão gráfico desenhado

pela volatilidade implícita de opções com o mesmo preço de exercício, mas com

maturidade diferente.

Num artigo recente, Malz (2000) efectua uma primeira tentativa de incluir o risco vega

no cálculo do VAR. Num primeiro momento o autor ignora as complicações suscitadas

pelo smile e assume que os níveis de volatilidade implícita seguem uma distribuição

lognormal, enquanto que as variações logarítmicas na volatilidade implícita são

normalmente distribuídas com média nula e desvio-padrão constante: lnVol ~ N(0,νvol)8.

Para calcular o VAR torna-se então necessário obter uma estimativa do desvio-padrão

da volatilidade implícita (νvol). No "jargão" financeiro, o termo "vol-of-vol" é muitas

vezes utilizado para referenciar a volatilidade da volatilidade implícita.

8 Estas hipóteses correspondem aos pressupostos base da metodologia sugerida pela RiskMetrics.

Value-at-Risk: Notas Sobre o Caso Não Linear

28

σσ

ϑ ∆×∂∂

×=c

WR

( ) ( ) ...71828,2,1 =−××××= eeZWVAR volR

νσαϑ

( ) [ ]

××−=

ννσνδ

ρρ

ννσνδαϑspot

spot

volspot

volspotspotspotZWVAR

1

1

,

,

A exposição da opção ao risco vega (ϑK) é definida pela alteração no valor da posição

se a volatilidade implícita aumentar uma unidade de volatilidade9 (∆σ), isto é:

[24]

O valor inicial da posição é representado por W. Se assumirmos, por simplificação, que

o único risco de mercado corresponde ao vega, o VAR paramétrico de uma opção é

dado por:

[25]

O VAR para uma opção exposta, simultaneamente, ao risco de activo subjacente e ao

risco veja é dado por:

[26]

Em que νspot denota a volatilidade implícita no mercado spot, e ρspot,vol representa a

correlação entre os retornos do activo subjacente e as variações logarítmicas na

volatilidade implícita.

Infelizmente, e à semelhança do risco de activo subjacente, a exposição ao risco de

volatilidade é também um risco não linear pelo que os métodos paramétricos produzem

estimativas enviesadas para o VAR. A metodologia mais eficiente é, mais uma vez, a

simulação de Monte Carlo.

A importância do efeito vega não se esgota nas alterações no nível da volatilidade

implícita. Tal como refere Malz, há ainda que levar em linha de conta as alterações na

curvatura e no enviesamento do «volatility smile», as alterações da volatilidade ao

longo do smile, as alterações na inclinação da estrutura temporal de volatilidade, e as

deslocações ao longo da estrutura à medida que a opção tende para a maturidade10.

9 As unidades de volatilidade são habitualmente chamadas de vols.

Value-at-Risk: Notas Sobre o Caso Não Linear

29

2.2.2.4. APROXIMAÇÕES BASEADAS EM MOMENTOS DE ORDEM SUPERIOR

A procura de soluções mais eficientes na estimação do VAR para posições não lineares,

conduziu os investigadores a incorporarem momentos de ordem superior da distribuição

de ∆P como aproximação ao cálculo dos percentis desejados.

Vimos atrás que para uma posição longa numa opção call, a presença de um gamma

positivo tornava a distribuição dos seus retornos assimétrica positiva. Nestes casos,

vimos que o verdadeiro VAR era inferior ao VAR sugerido pela adopção do

pressuposto de normalidade. Vimos também que o enviesamento eliminava a simetria

do intervalo de confiança.

Por outro lado, na presença de não linearidade a aproximação delta-gamma transforma

os próprios momentos da distribuição de ∆P. Esta conclusão salta à vista se repararmos

nas expressões analíticas para os 4 primeiros momentos da distribuição de Fdg(∆P), e

para o retorno do activo subjacente, expressões dadas pela tabela [1]:

Carteira Activo Subjacente

Média µ1=E(∆P)=0.5tr(ΓΣ) 0

Variância µ2=E[(∆P-µ1)2]=δ'Σδ+0.5tr(ΓΣ)2 Σ

Enviesamento µ3=E[(∆P-µ1)3]=3δ'ΣΓΣδ+tr(ΓΣ)3 0

Achatamento µ4=E[(∆P-µ1)4]=12δ'Σ(ΓΣ)2δ+3tr(ΓΣ)4+3µ2

2 3µ22

Tabela [1]: Determinação dos 4 primeiros momentos para o activo subjacente para aproximação

delta-gamma a ∆P

A observação atenta desta tabela permite-nos retirar algumas conclusões importantes:

i) Mesmo que se assuma a hipótese de normalidade e média nula para a

distribuição do activo subjacente, o valor esperado para a carteira não coincidirá,

excepto nos casos em que Γ é nulo. Mais ainda, o valor esperado da carteira

dependerá do sinal de Γ, isto é, dependerá do facto de as posições detidas serem

curtas ou longas.

10 Para uma análise mais detalhada destes efeitos veja MALZ (2000)

Value-at-Risk: Notas Sobre o Caso Não Linear

30

ii) A variância da carteira e do activo divergem por um factor de ajustamento

[δ'δ+0.5tr(Γ2Σ)];

iii) O papel desempenhado pelo sinal de Γ no tipo de enviesamento (positivo ou

negativo) é realçado. Em termos genéricos, posições curtas (longas) em opções

têm um gamma negativo (positivo), pelo que a distribuição dos retornos exibirá

um enviesamento negativo (positivo).

Numa tentativa de ultrapassar as deficiências da aproximação delta-gamma, surgiram na

literatura duas abordagens distintas. Numa primeira tentativa, Zangari (1996a) sugere a

aproximação directa do percentil de Fdg(∆P) através de um procedimento que corrigisse

as distorções pelo enviesamento e pelo achatamento no valor crítico da distribuição

normal - Z(α).

O segundo método, conhecido por «moment matching», consiste em fazer coincidir os

momentos de Fdg(∆P) com os momentos de uma distribuição conhecida. Neste domínio,

Zangari (1996b) propôs a utilização da família de distribuições Johnson para fazer

convergir os primeiros 4 momentos de Fdg(∆P). Mais tarde, Britten-Jones e Schaefer

(1999) avançam com a utilização da distribuição de χ2 para fazer o «match» dos

primeiros 3 momentos de Fdg(∆P). num artigo recente, Jahel, Perraudin e Sellin (1999)

recorrem à distribuição normal para fazer convergir os 2 primeiros momentos de

Fdg(∆P).

2.2.2.4.1. APROXIMAÇÕES BASEADAS NA CORRECÇÃO DOS MOMENTOS

A estimação directa dos percentis de Fdg(∆P) utilizando momentos de ordem superior

foi inicialmente sugerida por Zangari (1996a). Este tipo de abordagem está baseado no

princípio estatístico de que qualquer distribuição para a qual sejam conhecidos os

momentos pode ser descrita em termos dos parâmetros de outra.

O objectivo é o de substituir os valores críticos do intervalo de confiança da distribuição

normal - Z(α) -, por aproximações aos valores críticos de Fdg(∆P) que incorporem as

características de enviesamento e achatamento da distribuição. Em termos formais, o

intervalo de confiança aproximado para os retornos da carteira virá dado por:

Value-at-Risk: Notas Sobre o Caso Não Linear

31

( ) ( )

−++=

≈≈

µαµµαµ 1111 1, ZZC ajust

( ) ( ) ( )[ ] ( ) ( )[ ] ( ) ( )[ ]ρααρααρααα 23

34

33

2 5236

13

24

11

6

1zzzzzzZ −−−+−+=

322

4423

2

33 −==

µ

µρ

µ

µρ

( ) µµα 12 +×=≈

ZVAR

[27]

em que µ1 e µ2 representam, respectivamente, o 1º e 2º momentos de Fdg(∆P). Z(α) e

Z(1-α) denotam as aproximações aos valores críticos da distribuição estandardizada de

∆P. O método utilizado para obter Z(α) e Z(1-α) assenta numa aproximação analítica

do percentil desejado, recorrendo à expansão de Cornish-Fisher (CF). Zangari propõe

uma aproximação utilizando os 4 primeiros momentos de Fdg(∆P), sendo que nesse caso

a fórmula de CF para o percentil desejado de (∆P-µ1)/(µ2)0.5 é dada por:

[28]

em que z(α) denota o percentil respectivo da distribuição normal estandardizada, e ρ3 e

ρ4 são medidas, respectivamente, do enviesamento e do achatamento de Fdg(∆P). Os

valores de ρ3 e ρ4 são obtidos da seguinte forma:

[29]

Calculado o percentil ajustado, o VAR é dado simplesmente por:

[30]

Este método é de fácil aplicabilidade, sendo que em termos computacionais apenas se

torna necessário estimar os momentos de Fdg(∆P) e calcular ρ3 e ρ4. Por outro lado,

saliente-se que embora Zangari tenha efectuado uma aproximação baseada apenas nos 4

primeiros momentos, a expansão de Cornish-Fisher permite a utilização de momentos

de ordem superior11.

11 A título de exemplo, Pischler e Selitsch (1999) estenderam a análise utilizando os primeiros 6momentos de Fdg(∆P).

Value-at-Risk: Notas Sobre o Caso Não Linear

32

Embora este método represente um avanço significativo na obtenção de estimativas para

o VAR (quando comparado, por exemplo, com a aproximação delta-normal), o próprio

Zangari (1996a) aponta algumas das suas fraquezas. A sua principal debilidade reside

no facto de o método se basear em estimativas dos parâmetros ρ3 e ρ4 obtidas a partir de

amostras de dados históricos e não com base nos verdadeiros parâmetros, que são

desconhecidos.

Como forma de ultrapassar estas dificuldades, o autor sugere o recurso a um

procedimento de simulação parcial.

2.2.2.4.2. APROXIMAÇÕES BASEADAS NA CONVERGÊNCIA DE MOMENTOS

Este tipo de metodologia surgiu como forma de contornar a impossibilidade de obter,

por integração, expressões analíticas fechadas para a f.d.p. de Fdg(∆P). Em termos

genéricos, a determinação do VAR não requer o conhecimento integral de Fdg(∆P)

bastando para tal que apenas algumas das suas características sejam determináveis.

Conhecidos os momentos de Fdg(∆P), este método procura fazer a sua convergência

com os momentos de uma distribuição conhecida.

Britten-Jones e Schaefer (1999) preconizam uma aproximação a Fdg(∆P) através de uma

distribuição de χ2 que faça o «matching» dos primeiros 3 momentos. Esta metodologia

revelou algumas dificuldades nos casos em que a carteira é simultaneamente côncava e

convexa com respeito ao activo subjacente. Ao incorporar apenas os 3 primeiros

momentos, esta solução ignora ainda o problema das "fat tails", normalmente medido

pelo 4º momento da distribuição.

Num artigo recente, El-Jahel, Perraudin e Sellin (1999) tentam aproximar Fdg(∆P)

através de uma distribuição normal que faça o «matching» dos primeiros 2 momentos.

A justificação para o recurso à distribuição normal é debatida inicialmente por Finger

(1997), que argumenta que embora os retornos de uma opção (considerada

individualmente) exibam não-normalidade, os retornos de uma carteira de opções

evidenciarão a desejada propriedade de normalidade, desde que os factores de risco

Value-at-Risk: Notas Sobre o Caso Não Linear

33

+=d

cRfbaRP

n .

( )

( )

+=

+<<

−+−

+=

+=

− itadaNãod

cRhsinaR

LimitadadcRcRdc

cRbaR

normald

cRbaR

Pn

P

P

Pn

Pn

lim

,)(,log.

loglog.

1

subjacente estejam não correlacionados. Trata-se, no fundo, de aplicar o Teorema do

Limite Central a uma carteira de opções.

Esta conclusão é contestada por Pischler e Selitsch (1999), que avançam com resultados

analíticos que sustentam que, mesmo nos casos em que os factores de risco são não

correlacionados, a distribuição dos retornos de uma carteira de opções não converge

para a distribuição normal. Argumentam ainda que, nalguns casos, a existência de

correlação entre os factores de risco não impede que a convergência de ∆P para a

distribuição normal seja possível.

A última metodologia avançada neste domínio é sugerida por Zangari (1996b), que

propõe a utilização de uma das distribuições de Johnson para fazer convergir os 4

primeiros de Fdg(∆P). Esta procedimento requer quer os retornos da carteira (RP) sejam

transformados em retornos de uma distribuição normal estandardizada. A transformação

geral sugerida por Johnson é a seguinte:

[31]

em que f(.) é uma função monótona e a, b c e d são parâmetros determinados pela

convergência dos momentos. Para além da distribuição normal, a família de

distribuições de Johnson engloba ainda as seguintes transformações:

[32]

A escolha da transformação apropriada depende da raiz quadrada do rácio entre os

terceiro e o quarto momentos de Fdg(∆P). As estimativas de a, b c e d são obtidas

recorrendo a algoritmos iterativos.

Value-at-Risk: Notas Sobre o Caso Não Linear

34

µµ 21 )( ×+=≈

johZVAR

( ) ( )∫ −==+∞

∞−1, idVVfeiuM iuV

( ) ( ) ( ) ( )

ΣΣΣ−ΣΓΣ−= −−− δδ uuIuuIuM T 1121

22

1exp2

( ) ( )∫=+∞

∞−

duiuMeVfiuV

π2

1

Determinados estes parâmetros, torna-se possível aproximar qualquer percentil da

distribuição, dado o percentil respectivo da distribuição normal estandardizada. Nestas

condições o VAR é dado simplesmente por:

[33]

2.3.7. APROXIMAÇÕES ATRAVÉS DA FUNÇÃO GERADORA DE MOMENTOS

Mina e Ulmer (1999) avançam com uma metodologia alternativa para obter uma

expressão para a f.d.p. de Fdg(∆P), metodologia esta baseada na função geradora e

momentos (f.g.m.) para a aproximação delta-gamma. Em termos genéricos, a f.g.m.,

M(u), de uma variável aleatória V qualquer está relacionada com a sua f.d.p. f(V) da

seguinte forma:

[34]

Se conhecermos a f.g.m. podemos invertê-la por forma a obter a f.d.p.. Mina e Ulmer

recorrem à Transformada de Fourier para inverter a f.g.m. e obter a f.d.p.

[35]

A f.g.m. para a aproximação delta-gamma obtida por estes autores é dada por:

[36]

Invertendo [36] por recurso à transformada de Fourier e integrando no sentido de obter a

f.d.p. acumulada, torna-se possível determinar o VAR seleccionando o percentil

desejado.

Value-at-Risk: Notas Sobre o Caso Não Linear

35

3. MÉTODOS NÃO-PARAMÉTRICOS OU DE SIMULAÇÃO

Em oposição aos denominados métodos paramétricos, que baseiam o cálculo do VAR

nos parâmetros que caracterizam a distribuição de probabilidade dos retornos da carteira

(matriz variâncias-covariâncias, delta, gamma, momentos, etc.), os métodos não-

paramétricos constituem uma alternativa na obtenção de estimativas para o VAR.

Os métodos de simulação consistem na geração de um grande número de cenários para

os factores de risco subjacente, numa tentativa de inferir a forma da f.d.p. para os

retornos da carteira.

A implementação deste tipo de métodos no cálculo obedece às seguintes etapas:

i) Geração de cenários para os factores de risco subjacente. Existem variadíssimas

metodologias para responder a este problema, sendo que no contexto do VAR é

normal agrupá-los em duas categorias principais: métodos de simulação

histórica e métodos de simulação de Monte Carlo. Existem ainda algumas

técnicas paralelas de «backtesting» como a realização de «Stress Tests»;

ii) Avaliação da carteira - para cada um dos cenários gerados em i) é necessário

avaliar a o valor da carteira resultante. Este procedimento exige, em primeiro

lugar, que se identifiquem todas as posições e todos os factores de risco a que

carteira está sujeita. Em segundo lugar, é imprescindível dispor de funções de

preço para cada um dos activos.

Por ultimo, e num claro compromisso entre a fiabilidade das estimativas e as

exigências em termos computacionais, é possível alternar entre um

procedimento de reavaliação integral e um procedimento de reavaliação baseado

numa aproximação (delta-normal, delta-gamma, etc.);

iii) Tabulação dos resultados da simulação e delimitação do VAR.

Value-at-Risk: Notas Sobre o Caso Não Linear

36

3.1. MÉTODO DE SIMULAÇÃO HISTÓRICA

3.1.1. Caracterização e Metodologia

Em alternativa à necessidade de formular hipóteses sobre a forma como os factores de

risco se distribuem, a ideia por detrás do Método de Simulação Histórica (MSH) é a de

utilizar os retornos passados dos factores de risco como forma de gerar cenários, simular

a f.d.p para os retornos da carteira, e estimar o VAR.

Trata-se, em síntese, de assumir que o investidor detém a carteira de activos actual por

um período de tempo correspondente ao da dimensão da base de dados históricos

utilizada para construir os cenários. Tal significa que se assume, implicitamente, que a

distribuição dos retornos verificada no passado constitui uma boa aproximação aquilo

que se espera venha a ser o seu comportamento no futuro.

Para aplicar esta metodologia, é necessário observar os seguintes passos:

i) Identificar os factores de risco que afectam a carteira actual;

ii) Construir a base de dados com os preços e os retornos dos factores de risco

identificados em i);

iii) Definir uma janela de observação fixa para as observações passadas a utilizar na

construção dos cenários (Ex. últimos 250 dias de transacção). A delimitação de

uma janela fixa pode todavia acarretar importantes erros de medição e enviesar

as estimativas obtidas para o VAR. A principal causa destes erros reside no

chamado «roll-off effect», efeito este que corresponde ao facto de, em cada novo

dia, ser necessário substituir a observação mais antiga pela observação mais

recente. Este procedimento aparentemente inofensivo pode significar que

cenários correspondentes a movimentos significativos (principalmente os

adversos) nos factores de risco são retirados da amostra, descaracterizando a

verdadeira distribuição de probabilidades.

Uma segunda justificação para os erros de amostragem prende-se com a

possibilidade de os cenários gerados a partir de uma janela fixa corresponderem

a cenários em que o factor de risco experimentou uma tendência líquida

ascendente ou descendente. Quando tal acontece, as estimativas dos retornos da

Value-at-Risk: Notas Sobre o Caso Não Linear

37

carteira incorporarão esta tendência, violando o pressuposta base da

normalidade.

Uma solução para este problema é sugerida por Holton (1998), Dowd (1998) e

outros e passa por utilizar os denominados «mirror cenários». Esta tecnica é

explicitada de forma sucinta na secção 3.1.4. Em alternativa à utilização da

janela fixa, é possível utilizar o procedimento de «bootstrap», método que

aprofundaremos na secção 3.1.3.;

iv) Gerar cenários para os factores de risco a partir da amostra de dados históricos;

v) Reavaliar o valor da carteira (integralmente ou de forma aproximada), obtendo

uma distribuição de hipotéticos retornos para a carteira;

vi) Transformar os retornos em ganhos e perdas para a carteira;

vii) Construir o histograma para as perdas e ganhos e, a partir dele, seleccionar o

percentil corresponde ao VAR desejado

3.1.2. PRINCIPAIS VANTAGENS E DESVANTAGENS DO MSH

O MSH apresenta um conjunto de características que o tornam especialmente atractivo e

eficaz no tratamento dos problemas suscitados pela não normalidade e pela não

linearidade. A principal vantagem deste método é a sua simplicidade de implementação,

uma vez que na prática pouco mais exige do que a compilação de uma base de dados

histórica, procedimento que a generalidade das instituições que gerem grandes carteiras

de activos já executam no âmbito, por exemplo, do «mark-to-market» diário das suas

posições.

A segunda característica apelativa deste método está relacionada como facto de este não

depender de quaisquer hipótese de partida sobre a distribuição dos retornos dos factores

de risco, ou seja, não se torna necessário especificar «ex-ante» a opção pela distribuição

normal, pela "t de Student", etc. , ou ainda de admitir que os retornos estão não

correlacionados.

Em suma, não é preciso calcular volatilidades e outros parâmetros para a distribuição

uma vez que estas características já estão reflectidas na base de dados, acomodando o

método qualquer distribuição.

Value-at-Risk: Notas Sobre o Caso Não Linear

38

Por outro lado, ao basear-se em dados reais o MSH é consistente com a presença de não

linearidades na carteira, sendo aplicável a qualquer activo. Ao contrário dos métodos

paramétricos, o MSH incorpora facilmente todo o tipo de risco: risco de activo

subjacente (delta e gamma), risco de volatilidade (vega), efeitos de diversificação do

risco, etc.

Ao permitir um reavaliação completa da carteira em cada cenário, fornecendo uma

estimativa da distribuição dos retornos da carteira, o MSH providencia outras

indicações importantes para além do próprio VAR. De facto, é possível extrair

estatísticas importantes sobre as propriedades da distribuição: coeficientes de

enviesamento e achatamento, importância relativa das "caudas", etc.

Apesar das suas múltiplas virtudes, o MSH é alvo de um conjunto importante de

críticas. Para além dos já mencionados problemas com o «roll-off-effect» e com a

existência de tendências implícitas para os factores de risco na janela de observação, o

MSH defronta, à partida, uma limitação essencial - a necessidade de dados históricos.

Para alguns activos financeiros, especialmente produtos cuja presença no mercado é

relativamente recente, podem não existir dados históricos suficientes (ou podem nem

sequer existir dados!), tornando a aplicação do método impossível.

A principal crítica apontada a este método diz respeito, todavia, aos erros de

especificação que resultam de se utilizar uma única amostra de dados históricos para

obter estimativas do VAR. Assume-se, implicitamente, que o comportamento passado

dos factores de risco é suficiente para fornecer uma estimativa correcta dos riscos

futuros.

Num contexto em que a evidência empírica dos mercados sustenta uma clara situação

de não estacionaridade, assumir que os riscos enfrentados no futuro são semelhantes aos

verificados no passado é uma hipótese bastante forte, e pode conduzir a resultados

distorcidos. Os defensores do MSH argumentam que a utilização de janelas de

observação mais alargadas (com mais dados) fará reduzir o erro de convergência.

Contudo, ao fazê-lo, correm claramente o risco de os dados antigos reflectirem de forma

deficiente as actuais condições de mercado.

Value-at-Risk: Notas Sobre o Caso Não Linear

39

O MSH revela ainda dificuldades em lidar com o problema de heterocedasticidade uma

vez que assume que os dados históricos são tratados como provindo de uma distribuição

de probabilidades que é fixa no tempo e não de uma que oscila no tempo.

Um outro aspecto criticável corresponde ao facto de o método ponderar de forma igual

todas as observações que fazem parte da janela, i.e., atribui a mesma importância a

observações recentes e a observações bastante afastadas no tempo, isto é claro, sempre

com base no pressuposto de que a f.d.p. dos factores de risco é fixa no tempo. A forma

de ultrapassar esta dificuldade passa por utilizar os chamados cenários ponderados, de

que falaremos na secção 3.1.6.

Uma outra metodologia adiantada neste domínio foi proposta por Duffie e Pan (1997),

que também explicitaremos de forma resumida.

A última debilidade importante do MSH prende-se com a incapacidade que este revela

para incorporar o risco associado a eventos específicos, eventos que não ocorreram no

passado mas que são esperados para um futuro próximo (Ex. eventos políticos,

alterações de regime cambial, monetário, etc.). Saliente-se que esta limitação é

partilhada por todos os métodos de simulação.

3.1.3. PROCEDIMENTO DE «BOOTSTRAP»

como forma de eliminar o «roll-off-effect» criado pela delimitação de uma janela fixa

de observações para os dados históricos utilizados na geração dos cenários, Duffie e Pan

(1997), Dowd (1998) e Jorion (1997) entre outros, sugerem o recurso ao chamado

procedimento de «bootstrap».

O método de «bootstrap» é também uma técnica que consiste na geração de cenários

para os factores de risco a partir dos dados históricos. Contudo, em vez de se obedecer à

ordenação histórica das observações, utiliza-se um método de amostragem aleatória

com reposição. Uma vez que a amostragem é aleatória e com reposição, o método

possibilita a construção de tantos cenários quantos os desejados, o que permite de certa

forma ultrapassar alguns problemas de dimensão da amostra nos caso em que a base de

dados é curta.

Value-at-Risk: Notas Sobre o Caso Não Linear

40

O pressuposto crítico do método de «bootstrap» é o de que os retornos dos factores de

risco são independentes (não correlacionados) ao longo do tempo, hipótese esta que

quando violada torna o procedimento de amostragem com reposição uma fonte de erro

de amostragem no cálculo do VAR.

Embora revele algumas vantagens em relação a abordagem tradicional, o método de

«bootstrap» enferma de quase todas as suas limitações do MSH.

3.1.4. UTILIZAÇÃO DE «MIRROR SCENARIOS»

Como forma de eliminar o problema da tendência implícita subjacente à utilização do

MSH no cálculo do VAR, Holton (1998) sugere a utilização dos chamados «mirror

scenarios». O procedimento é bastante simples e assenta nos seguintes passos:

i) Geram-se os cenários a partir dos dados históricos;

ii) Para cada um destes cenários, multiplica-se o retorno do factor de risco por (-1)

por forma a obter o seu simétrico ;

iii) Aplica-se este retorno fictício ao valor da posição actual, obtendo um novo

«mirror scenario»;

Esta técnica permite não apenas eliminar o problema da tendência implícita, como

duplicar o número de cenários utilizados para estimar o VAR reduzindo, desta forma, o

erro de convergência.

3.1.5. METODOLOGIA de DUFFIE e PAN

Devido à elevada presença de não-estacionaridade, Duffie e Pan (1997) propõem um

técnica que, no contexto da utilização do MSH no cálculo do VAR, permite modificar

os cenários históricos para os factores de risco por forma a que estes reflictam de

maneira adequada as actuais condições de mercado.

Utilizando notação matricial, seja Rh a matriz para os cenários históricos obtidos para

cada um dos factores de risco. A matriz de variâncias-covariâncias histórica é

Value-at-Risk: Notas Sobre o Caso Não Linear

41

RC

CR h

h

aa =

representada por Ch, mas as actuais condições de mercado diferem substancialmente,

dando lugar a uma matriz actualizada Ca, em que Ca pode ser obtida, por exemplo,

utilizado estimativas de volatilidade implícita extraídas dos preços das opções.

Neste contexto, a obtenção de cenários que reflictam as actuais condições de mercado

(Ra) a partir de cenários históricos (Rh) é conseguida mediante a seguinte transformação:

[41]

3.1.6. UTILIZAÇÃO DE CENÁRIOS PONDERADOS

Uma outra forma de conseguir que os cenários construídos a partir dos dados históricos

espelhem as actuais condições de mercado passa pela utilização do chamado método dos

cenários ponderados, descrito por Dowd (1998), Holton (1998) e outros. O objectivo é

simplesmente o de atribuir maior importância aos cenários mais recentes, descontando

fortemente os cenários mais afastados no tempo.

Tal significa que qualquer observação terá o seu efeito máximo sobre o VAR

imediatamente após a sua ocorrência, reduzindo-se a sua influência partir de então, de

forma gradual, até se desvanecer completamente. Esta técnica é aplicável quer no

contexto do MSH quer no contexto do método de simulação de Monte Carlo.

O esquema de ponderação proposto permite inclusive que se alterem as características

das distribuição dos retornos dos factores de risco, isto por forma a que esta revele as

propriedades desejadas.12

12 Para mais detalhes sobre esta técnica recomenda-se a leitura de Holton (1998).

Value-at-Risk: Notas Sobre o Caso Não Linear

42

3.2. MÉTODOS DE SIMULAÇÃO DE MONTE CARLO

A metodologia do Método de Simulação do Monte Carlo (MSMC) aplicada ao cálculo

do VAR é fundamentalmente semelhante ao MSH, sendo que a principal diferença

reside na forma como são gerados os cenários para os factores de risco. Enquanto que o

MSH constrói cenários com base nos dados históricos, o MSMC gera cenários de forma

aleatória, utilizando os dados históricos apenas para determinar os parâmetros que

caracterizam a distribuição dos factores de risco (volatilidades, correlações, etc.).

A ideia base é a de simular um grande número de vezes o processo estocástico que se

julga melhor explica o comportamento de cada um dos factores de risco, reavaliando,

em cada cenário, o valor da carteira. Repetindo este processo sucessivamente, prova-se

que a distribuição dos retornos da carteira convergirá para a sua " verdadeira

distribuição. Recorde-se, a propósito, que a verdadeira distribuição é desconhecida.

A implementação do MSMC é muito semelhante à do MSH:

i) Identificação das posições em cada um dos activos;

ii) Selecção do modelo que, se julga, melhor explica cada um dos factores de risco;

iii) Escolhido o modelo, é necessário estimar os seus parâmetros. Tal é conseguido

recorrendo aos dados históricos;

iv) Geração, através de mecanismos de produção de números aleatórios, de cenários

para os factores de risco;

v) Em cada cenário a carteira é reavaliada, sendo uma vez mais possível escolher

entre a reavaliação completa (mais exigente em termos computacionais) e a

reavaliação com base numa aproximação;

vi) A distribuição das perdas e ganhos da carteira é tabulada, sendo então possível

ler directamente o valor do VAR que corresponde ao nível de confiança

desejado.

A metodologia de simulação de Monte Carlo consiste, em resumo, na geração aleatória

de cenários para os factores de risco, cenários estes que devem, contudo, ser

consistentes com a matriz de variâncias-covariâncias histórica.

Value-at-Risk: Notas Sobre o Caso Não Linear

43

O MSMC é especialmente indicado nos casos em que a presença de não linearidade é

acentuada (Ex. Opções). Para as chamadas "opções exóticas", o MSMC é muitas vezes

o único método eficiente de obter preços e estimar os seus riscos particulares: delta,

gamma, theta, veja, rho, etc. O MSMC é ainda especialmente aconselhado quando é

necessário estimar o VAR para posições complexas nos activos subjacentes (Ex.

combinações de activos derivados), e no contexto de problemas multidimensionais em

que as carteiras estão expostas a um elevado número de factores de risco.

A sua principal limitação está relacionada com as exigências computacionais e de

tempo. Como forma de ultrapassar este problema, são sugeridas na literatura «Quasi-

Monte Carlo Approaches» (metodologias de simulação parcial), metodologias de

simulação de cenários (Jamshidian e Zhu, 1997 e Duffie e Pan, 1997), o recurso à

Análise dos Componentes Principais (Frye, 1997 e Singh, 1997).

A segunda principal fraqueza deste método diz respeito ao facto de este se basear num

determinado processo estocástico para modelizar os factores de risco, correndo-se o

risco de a verdadeira distribuição dos retornos ser imperfeitamente captada pelo modelo.

Um fonte adicional de erro de especificação reside no facto de as estimativas de

volatilidade e correlação serem obtidas a partir de uma amostra limitada de dados

históricos, encerrando obviamente erros de amostragem. Este último aspecto é deveras

importante no contexto da já mencionada situação de não estacionaridade dos mercados.

Outra debilidade apontada a este método corresponde às imperfeições introduzidas na

geração de cenários pela utilização do próprio mecanismo de produção de números

aleatórios.

Por último, a implementação do MSMC no contexto de carteiras com múltiplos activos

exige o recurso a uma decomposição do Cholesky da matriz de variâncias-covariâncias.

O problema reside no facto de esta decomposição apenas ser possível nos casos em que

a matriz é definida positiva ( não singular), o que nem sempre acontece.

Value-at-Risk: Notas Sobre o Caso Não Linear

44

4. PRINCIPAIS CONCLUSÕES

A selecção da metodologia a utilizar na obtenção de estimativas do VAR nos casos em

que os retornos da carteira estão relacionados de forma não linear com os factores de

risco subjacente representa, claramente, um compromisso entre, por um lado, a

fiabilidade dos resultados desejada e, por outro, os custos computacionais induzidos por

algumas metodologias, principalmente as metodologias de simulação.

Não nos podemos esquecer que a crescente investigação no domínio dos métodos

paramétricos só se justifica porque os métodos de simulação se revelaram mais

eficientes mas extremamente exigentes em termos computacionais. O tratamento da não

linearidade pelos métodos de simulação é teoricamente mais consistente do que o

proporcionado pelos métodos paramétricos. Apesar disto, não existe ainda evidência

suficiente que nos permita defender a superioridade de um ou de outro método.

Aquilo que se constata na realidade é que os vários métodos são utilizados em

simultâneo e são, de alguma forma complementares. A avaliação rigorosa do verdadeiro

risco de mercado requer métodos cada vez mais sofisticados. Não dispensa, em nossa

opinião, um capital de experiência por parte dos agentes de mercado na interpretação

das condições actuais e futuras do mercado.

O estimação de um valor para o VAR não deve, a nosso ver, constituir o único

referencial para o controlo e gestão dos riscos de mercado

Value-at-Risk: Notas Sobre o Caso Não Linear

45

REFERÊNCIAS

Aragonés, J. e C. Blanco e K. Dowd (2000) "Learning Curve Extreme ValueVAR",Derivatives Week, March 6

Barone-Adesi e outros (1998) "Don't Look Back", Risk, Aug. 1998

Britten-Jones, M. e S. Schaefer (1999), "Non-Linear Value-at-Risk", European FinanceReview, Vol. 2, Issue 2

Dowd, K. (1998), "Beyond Value-at-Risk: The New Science of Risk Management",Wiley Frontiers in Finance

Dowd, K. (2000), "Assessing VAR Accuracy", Derivatives Quarterly, Spring 2000

Duffie, D. e J. Pan (1997), "Na Overview of Value-at-Risk", Journal of Derivatives, 4, 3(Spring 1997), pp. 7-49

El-Jahel, L. W. Perraudin e P. Sellin (1999), " Value-at-Risk for Derivatives", Journalof Derivatives, pp. 7-26

Embrechts, P. S. Resnick e G. Samorodnitsky (1998), "Living on the Edge", Risk, Jan1998

Fallon, W. (1996), "Calculating Value-at-Risk", Wharton School financial InstitutionsCenter, Working Paper 96-49

Finger, C. (1997), " When is a portfolio of Options Normally distributed?, RiskMetricsMonitor, Third Quarter, pp. 33-41

Frye, J. (1997) "VAR: Understanding and Applying Value at Risk", London RiskPublications *

Garbade, K. (1986), " Assessing Risk and Capital Adequacy for Treasury Securities",Topics in Money And Securities Markets, Bankers Trust *

Garman, M. (1996) "Improving on VAR", Risk, vol 9 (5), May 1996

Garman, M. (1997) "Taking VAR to Pieces", Risk, vol 10 (10), October 1997

Glauber, R. (1998) " Relative Values", Risk, January 1998

Holton, G. (1997), " Coled form Value-at-Risk", G. Holton Resarch, ContingencyAnalysis

Holton, G. (1998), " Simulating Value-at-Risk", Risk, 11 (5) e The Journal ofPerformance Measurement, 3 (1), pp. 11-21

Hull, J. (1998) " Options, Futures and Other Derivatives", fourth edition, Prentice-Hall,

Value-at-Risk: Notas Sobre o Caso Não Linear

46

Hull, J. e A. White (1998) " Value at Risk when Daily Changes in Market Variables arenot Normally Distributed", Journal of Derivatives, Spring 1998

Iacomo, F. (1996) "Translating VAR using ∉T", Derivatives Week, Oct. 14 1996

J.P. Morgan (1995), "RiskMetrics Technical Manual", J.P, Morgan Bank, FourthEdition, New York

Jamshidian, F. e Y. Zhu (1996), "Scenario Simulation Model for Risk Management",Capital Market Strategies 12 (December) *

Jorin, P. (1997) "Value at Risk: The New Benchmark for Controlling Derivatives Risk",Irwin Professional, Chicago

Lüthi, H. (1997) "Factor at Risk", RiskLab: Technical Report, Jan. 1997

Malz, A. (2000), "Vega Risk and the Smile", The RiskMetrics Group, WP 99-06

Mathai, M. e S. Provost (1992), "Quadratic Forms in Random Variables: Theory andApplications, New York, Marcel Dekker *

Mina, J. e A. Ulmer (1999), " Delta-Gamma Four Ways", WP, RiskMetrics Group

Pischler, S. e K. Selitsch (1999), "A comparison of Analytical VAR Methodologies forPortfolios that Include Options", Vienna University - Department of Finance

Singh, M. (1997) "Value at Risk Using Principal Components Analysis", The Journal ofPortfolio Management, Fall 1997, pp. 101-112

Wilson, T. (1994), "Plugging the GAP", Risk, 7, 10 *

Zangari, P. (1996a), " A VAR Methodology for Portfolios that include Options",Riskmetrics Monitor, First Quarter, pp. 4-12

Zangari, P. (1996b), " How Accurate is the Delta-Gamma Methodology ", RiskmetricsMonitor, Third Quarter, pp. 20-32

Zangari, P. (1996c), " Na improved Methodology for Measuring VAR", RiskmetricsMonitor, Second Quarter, pp. 7-25

* Referências não consultadas