anÁlise de sÉries temporais - observatório … › wp-content › uploads › ...4....
TRANSCRIPT
ANÁLISE DE SÉRIES TEMPORAIS
Introdução e Fundamentos Estatísticos
Campo Grande, abril de 2017
Elaboração:
Equipe Observatório Econômico:
Letícia Cavessana
Diretor: Clauber A. Aguiar
SUPERINTENDÊNCIA DE PLANEJAMENTO E GESTÃO
ESTRATÉGICA COORDENADORIA DE PESQUISA
Introdução • Uma série temporal é dita ser contínua quando as
observações são feitas continuamente no tempo. Definindo o conjunto T = t : 𝑡1 < t < 𝑡2 a série temporal será denotada por X (t): t Є T.
• Uma série temporal é dita ser discreta quando as observações feitas em tempos específicos geralmente são equiespaçados no tempo. Definindo o conjunto T = 𝑡1, ..., 𝑡𝑛 a série temporal será denotada por 𝑋𝑡: t Є T.
• Uma série temporal também pode ser multivariada. Se k variáveis são observadas a cada tempo (por exemplo discreto) denota-se por 𝑋1𝑡, ..., 𝑋𝑘𝑡, t Є T. Neste caso várias séries correlacionadas devem ser analisadas conjuntamente, ou seja em cada tempo tem-se um vetor de observações.
Sazonalidade
Muitas séries temporais exibem um comportamento que tende a
se repetir a cada períodos de tempo. Por exemplo, é esperado
que as vendas mensais no setor varejista tenham um pico no
mês de dezembro. Este padrão possivelmente já se repete ao
longo de vários anos. A seguir alguns modelos sazonais:
1. Sazonalidade deterministica. Variáveis dummies (binarias).
O coeficiente de cada variável dummy representa o fator
sazonal do respectivo mês, trimestre, etc.
2. Funções trigonométricas.
3. Sazonalidade estocástica:
a) Variável endógena com defasagem sazonal no modelo
(modelos ARMA periódicos),
b) modelo ARMA sazonal.
Tendência
• Uma série pode exibir tendência de
crescimento/decrescimento com vários possíveis
padrões:
• Crescimento linear: crescimento igual em cada período.
• Crescimento exponencial: crescimento percentual, ainda que
igual em cada período.
• Crescimento amortecido: crescimento que diminui a cada
período.
Estacionariedade: Um processo estacionário tem a
propriedade de que a média, variância e estrutura de
autocorrelação não mudam no decorrer do tempo.
Estacionariedade pode ser definida em termos
matemáticos precisos, mas para os nossos propósitos
queremos dizer uma série parecida com um plano liso,
sem tendência, variância constante no decorrer do tempo,
um estrutura de autocorrelação constante no decorrer do
tempo e nenhuma flutuação periódica (sazonalidadae).
Processo Estocástico: um processo estocástico é uma
família de variáveis aleatórias, que supomos definidas num
mesmo espaço de probabilidades (Ω, A, P).
Z = Z(t), t Є T tal que, para cada t Є T, Z(t) é uma variável
aleatória.
O conjunto é normalmente tomado como o conjunto dos
inteiros = ±1, ±2, ±3,....
Fundamentos Estatísticos 1. Esperança Condicional e Incondicional;
2. Processos Autorregressivos;
3. Processos Estocásticos;
4. Autocovariância e Autocorrelação;
5. Estacionariedade;
6. Ergodicidade;
7. Ruído Branco;
8. Médias Móveis;
9. Processos Autorregressivos;
10. Processo Autorregressivo de médias móveis – ARMA (p, q);
11. Função Geradora de Autocovariâncias;
12. Filtros;
13. Invertibilidade;
1. Esperança Condicional e Incondicional
Considerando o espaço amostral Ω, podemos calcular a
esperança não condicional de uma variável aleatória Y:
E (y |Ω) = E (y )
Lei das expectativas totais:
E [E (y |Ω)] = E (y |Ω) = E (y )
Seja agora θ o subconjunto de Ω sobre o qual y está
definido. Podemos então definir a lei das expectativas
iteradas:
E [E (y |A ∪ B)|A] = E (y |A)
O menor conjunto de informação é o que determina a
média condicional.
• Considerando que a cronologia das informações não
pode ser quebrada, temos o exemplo a seguir com AR:
𝑦𝑡 = μ + φ 𝑦𝑡−1 + ε𝑡
em que E (ε𝑡|I𝑡−1) = 0.
• A esperança de 𝑦𝑡+2 condicional à informação I𝑡+1 é:
E (𝑦𝑡+2 | 𝐼𝑡+1) = μ + φE (𝑦𝑡+1|𝐼𝑡+1) = μ + φ𝑦𝑡+1
• A esperança não condicional é:
E (𝑦𝑡+2) = μ + φE (𝑦𝑡+1)
Nada garante que E (𝑦𝑡+2) = E (𝑦𝑡+1).
• Sabendo-se que prevalece a esperança condicional
tomada sob o conjunto com informação mais limitada,
então o conjunto de informação da média incondicional é
mais limitado que o da média condicional.
• Esperança condicional
• Possui um erro quadrático médio de previsão menor do que se
fosse usada a média incondicional de y. Isso porque o conjunto
condicionante possui mais informações que o conjunto
incondicional e, por isso, o erro quadrático é médio é menor.
2. Processos Autorregressivos
• Um processo autorregressivo imediato:
𝑦𝑡 = φ 𝑦𝑡−1 + ε𝑡 ,
ε𝑡 ∼ i.i.d. (0, ζ²) ,
Em que i.i.d. implica idêntica e independentemente
distribuído.
• Suponha que 𝑦𝑡 represente a inflação. Dizia-se que no
Brasil no período da hiperinflação, essa inflação era
inercial: φ = 1.
• Estimar a série por MQO e testas as hipóteses:
H0 : φ = 1 × H1 : φ < 1
• Em se tratando de séries temporais esse tipo de
estimação pode causar sérios problemas.
• O primeiro problema é que o momentos incondicionais
devem ser iguais:
E (𝑦𝑡) = E (𝑦𝑡−1)
• Caso contrário, E (𝑦𝑡 ) 6= E (𝑦𝑡−1 ) não se poderiam
estimar os momentos da série por falta de dados. Não
seria possível estimar t médias e variâncias dessa série.
Portanto:
E (𝑦𝑡) = 0
• O equivalente dessa condição em uma economia
estocástica é ter as esperanças incondicionais iguais
para todo t.
• Outro problema fundamental surge no cálculo da variância:
var (𝑦𝑡) = φ 2 var (𝑦𝑡−1) + var (ε𝑡) + 2φcov (𝑦𝑡−1, ε𝑡)
• Se |φ| > 1, a variância de yt seria negativa, o que é um absurdo. Se |φ| = 1, a variância de yt é infinita, o que impossibilita a inferência estatística.
• Conclusão: é necessário estabelecer restrições sobre a série temporal para que se possa estimá-la. Em particular, uma condição necessária para estimar a série é que |φ| < 1.
• Os processos auto-regressivos são muito importantes porque definem se uma série temporal estocástica é “estável” ou estacionária. Um processo auto-regressivo estacionário possui coeficientes que fazem 𝑦𝑡 flutuar ao redor de uma dada média, ou seja, 𝑦𝑡 não explode.
3. Processos Estocásticos
• A série temporal 𝑦1, 𝑦2, ..., 𝑦𝑇 decorrente de uma variável aleatória Y é uma possível realização do processo estocástico gerador dos dados. • Ex.: Imagine que amanhã ou chove ou faz sol. Suponha
que amanhã acabe fazendo sol. Entretanto, poderia ter chovido. Uma possível realização foi o tempo de sol; a outra possível seria chover. Porém, ao mesmo tempo que faz sol em um lugar pode estar chovendo em outro.
• Do ponto de vista estatístico, imagina-se que o mesmo processo gerador de dados que determinou o sol em uma determinada localidade também determina a chuva em outra.
• A série observada é uma possível realização do processo
estocástico gerador de dados. Na figura a seguir temos
duas possibilidades de sequências de Y, considerando
um distribuição normal: Y ~ N (0, ζ²).
O que se observa é
uma possível
realização de um
processo
estocástico.
• Sabendo que Ω representa o conjunto amostral e θ os
subconjuntos de Ω, cuja probabilidade associada a cada
um deles é P, temos:
• Definições:
• Para cada t ϵ Z, y (.,t) representa uma variável aleatória sobre S.
Além disso para cada s ϵ S, a sequência y(s,.) representa uma
realização de um processo estocástico. Desse modo, y (s,t) é
simplesmente um número real.
• Formalmente, a esperança condicional da variável aleatória yt é:
• Se, por outro lado, fosse especificado que 𝑦𝑡 = δ𝑡 + ε𝑡, então:
E (𝑦𝑡) = δt
4. Autocovariância e Autocorrelação • A função de autocovariância é definida como:
• Sejam ε𝑡~ i.i.N (0, ζ²) e 𝑦𝑡 = μ + ε𝑡, então:
• A variância é dada por ϒ0𝑡. Observe que as variâncias não condicionais de y𝑡 = μ + ε𝑡 e y𝑡 = δ𝑡 + ε𝑡 são idênticas.
• A autocorrelação:
5. Estacionaridade • O processo estocástico ou a série temporal é fracamente
estacionário se: E | y𝑡 | 2 < ∞;
• Apenas o segundo momento não centrado deve ser finito, ainda que desigual em diferentes períodos.
E (y𝑡) = µ, para todo t ∈ Z;
• A média é igual para todo o período, mesmo que a distribuição da variável aleatória vá se alterando ao longo do tempo.
E (y𝑡 − µ) (y𝑡−j − µ) = ϒj.
• A variância é sempre igual para todo o período de tempo e que a autocovariância não depende do tempo, mas apenas da distância temporal entre as observações.
• O processo estocástico, ou a série temporal, é estritamente
estacionário se a função de distribuição de y𝑡𝑖𝑘
𝑖=1 for igual à
função de distribuição de y𝑡𝑖+ℎ𝑘
𝑖=1, h ϵ Z, isto é:
• Estacionaridade estrita significa que os gráficos da função de
distribuição da série em quaisquer dois intervalos de tempo
igual tamanho exibirão propriedades estatísticas similares
(Brockwell e Davis, 1991). Significa, na prática que os
momentos populacionais, quando existem, são independentes
de t.
• A estacionaridade estrita não implica nem é implicada pela
estacionaridade fraca.
• Visualmente, observa-se estacionaridade se uma série flutua
em torno de uma média fixa e se a variância da série é
constante ao longo do tempo. Porém são necessários testes
estatísticos para verificar ou não a estacionaridade da série.
6. Ergodicidade • Não é possível estimar uma série temporal apenas com a
propriedade de série temporal
• A estimação necessita satisfazer a propriedade de ergodicidade.
• A ergodicidade permite usar série temporal para calcular as médias em cada instante de tempo. Como as médias são todas iguais, basta uma única realização da série para viabilizar o cálculo.
• Suponha a realização s:
• Se ȳ convergir para E (𝑦𝑡), existe ergodicidade. Ou seja, se a média temporal convergir para a média não condicional, há ergodicidade. Sendo assim, a série temporal pode ser estimada normalmente, mesmo com uma realização apenas do processo estocástico.
• Um processo fracamente estacionário é ergódico para o
primeiro momento se:
E (ȳ(𝑠)) ≡ 𝑝 lim𝑡→∞
1
𝑇 𝑦𝑡
(𝑠)𝑇𝑡=1 = 𝑝 lim
𝑆→∞
1
𝑆 𝑦𝑡
(𝑠)𝑆𝑠=1 ≡ E (𝑦𝑡)
• Primeiro: a esperança de cada uma das observações é igual
(restrição de estacionaridade fraca).
• Segundo: pode-se estimar essa esperança tomando a média
temporal das observações (restrição de ergodicidade).
• Prova-se que 𝑦𝑡 é ergódico para as médias se a soma
das covariâncias for finita:
ϒ𝑗∞𝑗=0 < ∞
• Um processo fracamente estacionário é ergódico para o
segundo momento se:
1
𝑇−𝑗 (𝑇𝑡=1 𝑦𝑡 - μ) (𝑦𝑡−𝑗 - μ)
𝑃→ ϒ𝑡, para todos j
• Em que 𝑃→ significa convergência em probabilidade.
• Na prática requerer estacionaridade acaba sendo o
mesmo que requerer ergodicidade, mas existem casos de
estacionaridade sem existir ergocidade.
7. Ruído Branco • Uma sequência ∈𝑡 é um ruído branco se:
• cada valor nela tiver média zero;
• variância constante; e
• não for correlacionado com qualquer realização da própria série
(autocorrelação igual a zero).
• A média zero é conveniência, pois seria possível
especificar um ruído branco cuja média fosse diferente de
zero. Entretanto, pode-se centrar em zero tal série, sem
prejuízo de suas demais propriedades.
• Diz-se que o processo é um ruído branco, cuja
representação é RB (0, 𝜎2).
• Chama-se ruído branco porque sua função densidade
espectral é horizontal como a luz branca e o processo
provoca alterações na série assim como as ondas
eletromagnéticas produzem ruídos na sintonização de um
rádio. Portanto, um ruído branco é, ao mesmo tempo,
temporalmente homogêneo, estacionário e sem memória • Memória: processo em que a dependência temporal, se existe, está
implícita na série.
8. Médias Móveis
Médias móveis de Ordem 1-MA (1)
• Considerando:
𝑦𝑡 = μ + ϵ𝑡 + θϵ𝑡−1
• Em que ϵ𝑡 é um ruído branco.
• Uma vez que 𝑦𝑡 depende do erro contemporâneo, ϵ𝑡, e
do erro imediatamente passado, ϵ𝑡−1, então o processo é
chamado médias móveis de ordem 1 e denotado como
MA (1). Se o processo dependesse de ϵ𝑡−2, então seria
chamado de MA (2), e assim por diante.
• O termo móvel aqui se aplica porque o cálculo desliza um
período à chegada de nova informação.
• Esse procedimento é feito para identificar algum tipo de
tendência, expurgando-se a influência de sazonalidade.
• O processo de média móvel estará sempre associado
aos erros do modelo.
• Os pesos poderão ser diferentes conforme a importância
das observações passadas, em contraposição aos pesos
idênticos que costumeiramente se associam aos valores
usados para calcular a média dos últimos 12 meses.
• Para verificar se o processo 𝑦𝑡 satisfaz a definição de
estacionaridade, é preciso calcular a esperança, a
variância e as autocovariâncias do processo:
• A esperança é finita para cada t;
• A variância é finita;
• A autocovariância não depende do t; e
• As outras autocovariâncias são nulas.
• Como a esperança e as autocovariâncias não são em
função do tempo, o processo é fracamente estacionário,
independete do valor de θ.
• A condição dada pela equação abaixo também é
satisfeita, gerando um processo ergódico:
• A autocorrelação só existe para a primeira defasagem e é
dada por:
Três processos simulados de médias móveis de ordem:
Processos MA(1) com vários valores para θ.
Médias Móveis de Ordem q – MA (q)
• Processo de médias móveis para q defasagens:
• Observe se esse processo satisfaz a primeira condição
de estacionaridade:
• Para j > q, não haverá ϵ’s em datas comuns. Logo a
esperança será nula:
9. Processos Autorregressivos
Processo Autorregressivo de Ordem 1 – AR (1)
• Considerando o seguinte processo estocástico:
𝑦𝑡 = c +ф𝑦𝑡−1+ ϵ𝑡
• Em que ϵ𝑡 é um ruído branco.
• O processo assim definido é chamado autoregressivo de
ordem 1 e denotado como AR (1).
• Esse processo é estável e tem variância finita, admitindo
q ф < 1 ?
• Reescrevendo o processo autorregressivo de
ordem 1, pode-se encontrar um MA (∞):
• Em que:
• Pode-se calcular então:
• A autocovariância de defasagem j é:
• Como a média e as autocovariâncias não são funções do
tempo, o processo é fracamente estacionário,
independente do valor de ф.
• A figura a seguir apresenta 4 processos autorregressivos:
• Quanto às figuras apresentadas, dentre as duas
superiores, o processo em que ф = 0,8 parece mais
resistente à mudanças que o processo em que ф = 0,5.
• Enquanto que comparando as duas figuras à esquerda, o
processo inferior parece mais volátil, embora ambos
tenham a mesma variância. Essa volatilidade se reflete
nos valores de autocovariância.
• Quando ф = 0, é difícil definir um padrão para os dados.
Trata-se de um ruído branco.
Processo Autorregressivo de Ordem 2 – AR (2) • Este estudo é importante porque geram intuição para
processos de ordem maior.
• Seja o processo regressivo:
• Calcula-se a esperança não condicional de 𝑌𝑡:
• Por definição, encontramos:
• Dividindo a equação anterior por ϒ0 temos a função de
autocovariância:
Processo Autorregressivo de Ordem p – AR (p)
• É definido como:
• Multiplicando por (𝑦𝑡- 1 – μ) e tomando a esperança:
• Temos:
Processos Autorregressivos de Médias
Móveis – ARMA (p, q)
• Este representa a combinação dos processos vistos
anteriormente.
• Um ARMA (p, q) é escrito como:
• Tomando a esperança incondicional da equação anterior:
• Subtraindo a segunda equação da primeira e aplicando a
definição de e (yt), resulta:
• Em que:
• Reescrevendo o processo ARMA em termos dos desvios
em relação à média não condicional e multiplicando por
(𝑦𝑡−ℎ - μ):
• Tomando a esperança para h > q, pode-se encontrar um
processo autorregressivo de ordem p, pois E [ϵ𝑡−𝑗(y𝑡−ℎ -
μ)] = 0:
• Se h =< q, a função de autocovariância torna-se bem
complicada, pois há correlação entre ϵ𝑡−𝑗 e (y𝑡−ℎ - μ).
Definição:
• Considere o modelo α (L) y𝑡 = ϵ𝑡, em que α (L) = (1 - α1L -
α2L2 - ... - α𝑝L
𝑝). O processo é dito estável se
α (Z) ≠ 0.
para todo número complexo, z, satisfazendo 𝑍 ≤ 1.
• A definição é bastante difícil, porém extremamente
precisa.
11. Função Geradora de Autocovariância
• Existe uma maneira fácil de encontrar as
autocovariâncias quando elas são absolutamente
somáveis. O truque é usar a função geradora de
autocovariância definida por:
em que z é um escalar complexo.
• As autocovariâncias são representadas pelos coeficientes
de zj , em que j indica a ordem de defasagem da
autocovariância.
12. Filtros • É a ideia de executar algum ajuste prévio na série antes de
trabalhar com ela, significando passar um filtro na série. Por exemplo, deseja-se diferenciá-la de modo a estacionarizá-la.
• Considerando o modelo:
𝑦𝑡 = (1 + 𝜃𝐿) 𝜖𝑡
• Generalizando, é cabível passar um filtro h (L) na série y, tal que:
𝑥𝑡 = h (L) 𝑦𝑡
• Em que:
• Então é possível ver que:
13. Invertibilidade • Similar à ideia de convergência das equações a
diferenças, os processos de médias móveis devem ser
invertíveis. Isso significa escrever um MA (q) como um AR
(∞) se certas condições forem satisfeitas. Seja um
processo MA (1):
• Se 𝜃 < 1, pode-se reescrever esse processo da seguinte
forma:
• Haverá invertibilidade se as raízes caracterísitcas da
polinomial (1 + 𝜃1L + 𝜃1𝐿2 + ... + 𝜃𝑞𝐿
𝑞) estiverem fora do
círculo unitário.
• Sem invertibilidade a série não poderia ser estimada
recursivamente, usando observações passadas.
• A invertibilidade é condição necessária para haver
unicidade de dados.
• Considerando que no modelo anterior 𝜃 > 1, podemos
inverter a equação:
• Sendo assim, o denominador da fração é do tipo que
permite inversão para uma progressão geométrica, pois
𝜃−1 < 1, logo:
• 𝑦𝑡depende das observações futuras. Logo, o modelo não
pode ser estimado se as raízes do processo MA
estiverem dentro do círculo unitário.
• Agora considerando inicialmente um processo 𝑦𝑡𝑎 = (1 +
𝜃𝐿) 𝜖𝑡. Esse processo possui:
• Considere agora o processo 𝑦𝑡𝑏 = (1 +𝜃−1𝐿) 𝜖𝑡, 𝜖𝑡 ~ RB
(0, 𝜃2σ²). Esse processo possui:
• A Conclusão é que as séries 𝑦𝑎 e 𝑦𝑏 são indistinguíveis.
• Equivalentemente, em termos da função geradora de
autocovariância, tem-se
• Desde que se defina
σ2 = σ2
𝜃2
• Para evitar problemas, impõem-se as raízes sempre fora
do círculo unitário.
• Bueno, Rodrigo de Losso da Silveira. Econometria de Séries
Temporais. Fundação Getúlio Vargas – CFC. CENGAGE
Learning. 2008. Capítulos 1 ao 2. Pág.: 1 a 34.
Outras Referências:
• Ehlers, R.S. (2009) Análise de Séries Temporais, disponível no
link: http://www.icmc.usp.br/ ehlers/stemp/stemp.pdf.
Referência Bibliográfica